JP2014043232A - 操作装置 - Google Patents

操作装置 Download PDF

Info

Publication number
JP2014043232A
JP2014043232A JP2012269982A JP2012269982A JP2014043232A JP 2014043232 A JP2014043232 A JP 2014043232A JP 2012269982 A JP2012269982 A JP 2012269982A JP 2012269982 A JP2012269982 A JP 2012269982A JP 2014043232 A JP2014043232 A JP 2014043232A
Authority
JP
Japan
Prior art keywords
display
areas
screen
shape
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012269982A
Other languages
English (en)
Inventor
Teruko Ishikawa
輝子 石川
Masaki Kato
雅基 加藤
Satoshi Ota
聡 太田
Ikuyo Sasajima
郁代 笹島
Takayuki Hatano
貴之 波田野
Takuro Hirokawa
拓郎 広川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Original Assignee
Nippon Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd filed Critical Nippon Seiki Co Ltd
Priority to JP2012269982A priority Critical patent/JP2014043232A/ja
Priority to PCT/JP2013/068693 priority patent/WO2014021063A1/ja
Publication of JP2014043232A publication Critical patent/JP2014043232A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0362Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 1D translations or rotations of an operating part of the device, e.g. scroll wheels, sliders, knobs, rollers or belts
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/60Instruments characterised by their location or relative disposition in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • B60K35/81Arrangements for controlling instruments for controlling displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D1/00Steering controls, i.e. means for initiating a change of direction of the vehicle
    • B62D1/02Steering controls, i.e. means for initiating a change of direction of the vehicle vehicle-mounted
    • B62D1/04Hand wheels
    • B62D1/046Adaptations on rotatable parts of the steering wheel for accommodation of switches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/11Instrument graphical user interfaces or menu aspects
    • B60K2360/113Scrolling through menu items
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1446Touch switches
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/77Instrument locations other than the dashboard
    • B60K2360/782Instrument locations other than the dashboard on the steering wheel
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01HELECTRIC SWITCHES; RELAYS; SELECTORS; EMERGENCY PROTECTIVE DEVICES
    • H01H13/00Switches having rectilinearly-movable operating part or parts adapted for pushing or pulling in one direction only, e.g. push-button switch
    • H01H13/02Details
    • H01H13/04Cases; Covers
    • H01H13/08Casing of switch constituted by a handle serving a purpose other than the actuation of the switch
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01HELECTRIC SWITCHES; RELAYS; SELECTORS; EMERGENCY PROTECTIVE DEVICES
    • H01H13/00Switches having rectilinearly-movable operating part or parts adapted for pushing or pulling in one direction only, e.g. push-button switch
    • H01H13/02Details
    • H01H13/12Movable parts; Contacts mounted thereon
    • H01H13/14Operating parts, e.g. push-button
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01HELECTRIC SWITCHES; RELAYS; SELECTORS; EMERGENCY PROTECTIVE DEVICES
    • H01H2231/00Applications
    • H01H2231/026Car

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Switches That Are Operated By Magnetic Or Electric Fields (AREA)

Abstract

【課題】直感的な操作が可能な操作装置を提供する。
【解決手段】複数の操作領域を有する操作面と、前記操作面に対する被検出体の接触位置を検出可能なセンサ部と、を備える入力手段(入力装置)100、200と、複数の表示領域を備える表示手段(表示装置)500と、前記センサ部が検出した前記被検出体の接触位置に基づいて、所定の電子機器を制御し、また、前記複数の表示領域の少なくとも1つに表示される表示画像を切り換える制御手段と、を備える操作装置1000である。前記複数の表示領域は立体的に配置され、前記複数の操作領域は立体的に形成され、前記複数の操作領域の少なくとも1つは、前記複数の表示領域のいずれかの形状と略相似する形状からなる。
【選択図】 図2

Description

本発明は、車両に搭載される操作装置に関するものである。
例えば特許文献1には、車両搭載機器の処理内容を選択させる複数の選択肢を表示する表示手段と、ステアリングホイールを構成するステアリングスポーク上に設置され、表示手段の表示内容と略相似形状に分割された検出領域を有し、操作者の操作指の接触位置に対応した検出領域を示す操作情報を生成する入力操作手段と、を備え、入力操作手段により生成された操作情報に基づいて、操作者の操作指の接触位置に対応した検出領域と相似的に対応した選択肢を決定し、車両搭載機器を制御する技術が開示されている。
特開2005−96519号公報
しかしながら、特許文献1に開示された技術では、操作者は表示手段の表示画面を見ながら入力操作ができるものの、表示手段の表示画面と入力操作手段の検出面とはいずれも平坦な形状であって、検出面を見ることなく直感的な操作を行うには表示画面と操作面との対応づけが不十分であり、なお改良の余地があった。
そこで、本発明は、上述した課題に着目してなされたものであり、直感的な操作を行うことが可能な操作装置を提供することを目的とするものである。
本発明は、前記課題を解決するため、複数の操作領域を有する操作面と、前記操作面に対する被検出体の接触位置を検出可能なセンサ部と、を備える入力手段と、
複数の表示領域を備える表示手段と、
前記センサ部が検出した前記被検出体の接触位置に基づいて、所定の電子機器を制御し、また、前記複数の表示領域の少なくとも1つに表示される表示画像を切り換える制御手段と、を備える操作装置であって、
前記複数の表示領域は立体的に配置され、
前記複数の操作領域は立体的に形成され、
前記複数の操作領域の少なくとも1つは、前記複数の表示領域のいずれかの形状と略相似する形状からなることを特徴とする。
本発明は、前記課題を解決するため、
複数の操作領域を有する操作面と、前記操作面に対する被検出体の接触位置を検出可能なセンサ部と、を備える入力手段と、
複数の表示領域を備える表示手段と、
前記センサ部が検出した前記被検出体の接触位置に基づいて、所定の電子機器を制御し、また、前記複数の表示領域の少なくとも1つに表示される表示画像を切り換える制御手段と、を備える操作装置であって、
前記複数の表示領域は立体的に配置され、
前記複数の操作領域は立体的に形成され、
前記操作面に形成され前記複数の操作領域を分割する第1の立体識別部は、前記複数の表示領域を分割する第2の立体識別部の形状と略相似する形状からなることを特徴とする。
また、前記入力手段は、ステアリングに搭載され、
前記複数の表示領域は、前記入力手段の上方に配置され、
前記複数の操作領域の少なくとも1つは、その上方に位置する表示領域の形状と略相似する形状からなることを特徴とする。
また、前記入力手段は、ステアリングに搭載され、
前記複数の表示領域は、前記入力手段の上方に配置され、
前記第1の立体識別部は、その上方に位置する前記第2の立体識別部の形状と略相似する形状からなることを特徴とする。
また、前記複数の操作領域は、それぞれ表面の触感が異なるように形成されてなることを特徴とする。
また、前記複数の操作領域の少なくとも1つは、その表面に前記複数の表示領域のいずれかの形状の一部を模した意匠部が形成されてなることを特徴とする。
前記制御手段は、前記センサ部が検出した前記被検出体の接触位置に基づいて、前記被検出体が接触した操作領域と連携する表示領域を強調する強調画像を前記表示手段に表示させることを特徴とする。
また、前記表示手段は、前記複数の表示領域の少なくとも1つに前記表示画像として所定形状のアイコン画像を表示し、前記複数の操作領域の少なくとも1つは、前記アイコン画像と略相似する立体的な形状からなるアイコン操作部が形成されてなることを特徴とする。
また、前記表示手段は、表示光を発する投射型表示器と、前記複数の表示領域を構成し、前記表示光が投影されて前記表示画像を表示する複数のスクリーンと、を備えてなることを特徴とする。
また、前記制御手段は、前記センサ部が検出した前記被検出体の軌跡と略一致する方向及び速度で前記表示画像を切り換えることを特徴とする。
本発明は、直感的な操作を行うことが可能となる。
本発明の実施形態である操作装置の電気的構成を示す図。 操作装置が搭載される車両内の運転席付近の概観を示す図。 第1の入力装置の正面図及びA−A断面図。 センサシートが有する第1のセンサ列及び第2のセンサ列を説明する図。 第2の入力装置の正面図及びB−B断面図。 表示装置を示す斜視図。 第1の操作領域に対するジェスチャ操作と、それに応じて更新される表示装置の表示画像の一例を示す図。 第2の操作領域に対するタッチ操作と、それに応じて更新される表示装置の表示画像の一例を示す図。 第2の操作領域に対するジェスチャ操作と、それに応じて更新される表示装置の表示画像の一例を示す図。 第3の操作領域に対するジェスチャ操作と、それに応じて更新される表示装置の表示画像の一例を示す図。 第4の操作領域に対するタッチ操作と、それに応じて更新される表示装置の表示画像の一例を示す図。 第4の操作領域に対するジェスチャ操作と、それに応じて更新される表示装置の表示画像の一例を示す図。 本発明の他の実施形態の一例を示す図。 本発明の他の実施形態の一例を示す図。 本発明の他の実施形態の一例を示す図。 本発明の他の実施形態の一例を示す図。
以下、本発明を適用した実施形態を添付図面に基づいて説明する。
本実施形態に係る操作装置は、図1に示す、車両1に搭載される操作装置1000である。車両1のユーザ(通常、運転者)が、第1、第2の入力装置(入力手段)100、200を操作すると、制御部(制御手段)300は、その操作に応じた各種動作を車載電子機器20に実行させ、また、操作あるいは各種動作の結果に応じた画像を表示装置(表示手段)500に表示させる。
(車両1の構成)
車両1は、図2に示すように、ステアリング10を備える。
ステアリング10は、車両1の操舵装置の一部であり、本体部11と、ステアリングホイール12と、を備える。
本体部11は、車両1の図示しないステアリングシャフトと接続されるスポーク部であり、ユーザから見て右側に第1の入力装置100を備え、左側に第2の入力装置200を備える。また、本体部31には、それぞれ第1、第2の入力装置100、200の形状にあわせた取付孔(図示せず)が形成されている。各取付孔に第1、第2の入力装置100、200が取り付けられることにより、第1、第2の入力装置100、200の後述する操作面のみが露出する。
ステアリングホイール12は、本体部11に取り付けられる、運転者が車両1を操舵する際に握るリング形状の部材である。
車載電子機器20は、オーディオ装置、カーナビゲーション装置等であり、車両1のインパネ内にはめ込まれる電子機器のほか、ダッシュボード等上に載置されるクレイドルによって車両1内に着脱自在に配設される電子機器を含み、また、単に車両1内に持ち込まれて車両1内で動作させる電子機器を含み、スマートフォンと称される高機能携帯電話を含む。車載電子機器20は後述する制御部300と電気的に接続され、制御部300から受信した制御信号に従って動作する。また、表示装置500の後述する表示領域には、車載電子機器20の動作に対応した画像が表示される。
(操作装置1000の構成)
操作装置1000は、第1の入力装置100と、第2の入力装置200と、制御部300と、記憶部400と、表示装置500と、を備える。
図3は、第1の入力装置100を示す正面図及び断面図である。第1の入力装置100は、図3(a)及び(b)に示すように、接触センサ110と、スイッチ装置120と、を備える。
接触センサ110は、ユーザが、親指等でその操作面上を触れる操作(以下、タッチ操作と言う)あるいは所定の軌跡を描くようになぞる操作(以下、ジェスチャ操作と言う)を行った際に、後述する制御部300の制御のもと、親指等が操作面に触れた位置を検出するタッチパッド装置であり、表面カバー111と、センサシート(センサ部)112と、スペーサ113と、を備える。
表面カバー111は、合成樹脂等の遮光性の絶縁材料からシート状に形成され、タッチ操作あるいはジェスチャ操作が行われる際に、ユーザの指等が触れる操作面111aと、操作面111aの周縁に位置し、図示しないケース等に覆われてユーザの指等が触れられない周縁部111bと、を有する。操作面111aには、図3に示すように、段差部111cが形成されており、操作面111aは、この段差部111cを基準としてそれぞれ奥行き位置の異なる、第1の操作領域R1と第2の操作領域R2とが立体的に形成されている。すなわち、段差部111cは、操作面111aにおいて第1、第2の操作領域R1、R2を分割する第1の立体識別部となる。
第1の操作領域R1は、操作面111aのうち段差部111cを基準として下側に位置する操作領域であり、操作面111aの平面状の部分である平面部111dと、第1の操作領域R1の略中央に位置し、平面部111dから裏側方向に沈むように円状に窪んだ窪み部111eと、を有する。なお、「表側」とは、図3(b)の両端矢印で示すように、第1の入力装置100に対してユーザ側をいい、「裏側」とは、その反対側をいうものとする。
第2の操作領域R2は、操作面111aのうち段差部111cを基準として上側に位置する操作領域であり、平面部111dから表側方向に盛り上がるように隆起する隆起部111fを有する。すなわち、第2の操作領域R2は、第1の操作領域R1よりも表側方向に位置することとなる。
センサシート112は、指等の被検出体の位置を検出するための複数のセンサ1120(検出電極)を有する投影静電容量方式のセンサシートであり、表面カバー111の裏面側に位置する。なお、センサ1120は半透明材料からなり、センサシート112は光透過性である。
センサシート112は、図4に示すように、X方向における被検出体の位置を検出するための第1のセンサ列112aを有する層と、Y方向における被検出体の位置を検出するための第2のセンサ列112bを有する層を重ね合わせて概略構成されている。第1のセンサ列112aと第2のセンサ列112bが合わさることにより、結果的に、センサシート112には、センサ1120がマトリックス状に配置されることになる。第1のセンサ列112aと第2のセンサ列112bは、各々、後述する制御部300と電気的に接続されている。
表面カバー111に指等の被検出体が触れると、その裏面側に位置するセンサ1120と被検出体との間の静電容量が変化する。制御部300と各センサ1120とは電気的に接続されているので、制御部300は、各センサにおける静電容量の変化を検出できる。制御部300は、この静電容量の変化に基づいて、被検出体の接触位置を示す入力座標値(X,Y)を算出する。入力座標値は、操作面上に予め設定されている、各センサ1120におけるXY座標系における座標値である。入力座標値は、X方向における静電容量の変化の分布の重心位置(例えば、静電容量が一定の閾値よりも高くかつ最も大きいセンサ1120の位置)に割り当てられているX座標と、Y方向における静電容量の変化の分布の重心位置(例えば、静電容量が一定の閾値よりも高くかつ最も大きいセンサ1120の位置)に割り当てられているY座標と、によって表される。制御部300は、このX座標及びY座標を算出することによって入力座標値(X,Y)を算出する。
図3に戻って、センサシート112は、絞り加工により表面カバー111と一体成形されることで、表面カバー111と同様の形状に加工される(図3(b)参照)。このように一体成形されることで、表面カバー111とセンサシート112は、一枚のシートのようになり、操作面が有する段差部111c、平面部111d、窪み部111e、隆起部111f等の段差形状は、その一枚のシートの曲がった部分で構成されることになる。また、このように一体成形されることで、表面カバー111の裏面とセンサシート112の表面とが当接する。これにより、表面カバー111の段差形状に対応して、センサ1120が配置されることになる。このようにセンサ1120が配置されているため、段差部111c等の段差形状を有した操作面上で行われたジェスチャ操作であっても、制御部300は、各センサにおける静電容量の変化を検出できる。
スペーサ113は、センサシート112の裏面側に位置し、図3(b)に示すように、一体成形された表面カバー111とセンサシート112の形状に合わせて形成され、ユーザの操作により表面カバー111の表側から押圧が加わった際にこれらの形状を保持する部材である。
スイッチ装置120は、接触センサ110の裏面側に位置し、制御部300と電気的に接続される。ユーザが第1の入力装置100の操作面を押下する操作(以下、押下操作という)を行うと、スイッチ装置120は押され、所定の入力信号を制御部300に送信する。押下操作は、第1の入力装置100の操作面に対するタッチ操作あるいはジェスチャ操作による制御とは異なる制御を実行させる際になされる。
ここで、第1の入力装置100は、ステアリング10の本体部11に、例えば、接触センサ110の図示しないケースが本体部11と軟質樹脂で溶着されることにより、取り付けられる。このように取り付けられることにより、ユーザが操作面を押下すると、接触センサ110が沈み、スイッチ装置120が押される仕組みとなっている。
以上の各部により、第1の入力装置100は構成される。
図5は、第2の入力装置200を示す正面図及び断面図である。第2の入力装置200は、第1の入力装置100と同様の構成であり、接触センサ210とスイッチ装置220とを備える。
接触センサ210は、接触センサ110と同様のタッチパッド装置であり、表面カバー211と、センサシート212と、スペーサ213と、を備える。
表面カバー211は、合成樹脂等の遮光性の絶縁材料からシート状に形成され、タッチ操作あるいはジェスチャ操作が行われる際に、ユーザの指等が触れる操作面211aと、操作面211aの周縁に位置し、図示しないケース等に覆われてユーザの指等が触れられない周縁部211bと、を有する。操作面211aは、図5に示すように、全体が周縁部211bから表側に隆起し、また、段差部211cが形成されている。そして操作面211aは、この段差部211cを基準としてそれぞれ奥行き位置の異なる、第3の操作領域R3と第4の操作領域R4とに分割される。すなわち、段差部211cは、操作面211aにおいて第3、第4の操作領域R3、R4を分割する第1の立体識別部となる。
第3の操作領域R3は、操作面211aのうち段差部211cを基準として下側に位置する操作領域であり、操作面211aの平面状の部分である平面部211dと、第3の操作領域R3の略中央に位置し、平面部211dから裏側方向に沈むように円状に窪んだ窪み部211eと、を有する。なお、「表側」とは、図5(b)の両端矢印で示すように、第2の入力装置200に対してユーザ側をいい、「裏側」とは、その反対側をいうものとする。
第4の操作領域R4は、操作面211aのうち段差部211cを基準として上側に位置する操作領域であり、平面部211dから表側方向に盛り上がるように隆起する隆起部211fを有する。すなわち、第4の操作領域R4は、第3の操作領域R3よりも表側方向に位置することとなる。
センサシート212は、センサシート112と同様に、指等の被検出体の位置を検出するための複数のセンサ(検出電極)を有する投影静電容量方式のセンサシートであり、表面カバー211の裏面側に位置する。なお、センサは半透明材料からなり、センサシート212は光透過性である。
スペーサ213は、センサシート212の裏面側に位置し、図5(b)に示すように、一体成形された表面カバー211とセンサシート212の形状に合わせて形成され、ユーザの操作により表面カバー211の表側から押圧が加わった際にこれらの形状を保持する部材である。
スイッチ装置220は、接触センサ210の裏面側に位置し、制御部300と電気的に接続される。ユーザが第2の入力装置200の操作面を押下する操作(以下、押下操作という)を行うと、スイッチ装置220は押され、所定の入力信号を制御部300に送信する。押下操作は、第2の入力装置200の操作面に対するタッチ操作あるいはジェスチャ操作による制御とは異なる制御を実行させる際になされる。
以上の各部により、第2の入力装置200は構成される。
図1に戻って、制御部300は、CPU(Central Processing Unit)等から構成され、記憶部400に格納されている動作プログラムを実行して、各種の処理や制御を行う。制御部300は、その少なくとも一部が、ASIC(Application Specific Integrated Circuit)等の各種専用回路によって構成されてもよい。
記憶部400は、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ等から構成され、制御部300を構成するCPUのワークエリア、CPUが実行する動作プログラムを記憶するプログラムエリア、データエリア等として機能する。
プログラムエリアには、後述する車載電子機器制御処理を実行するためのプログラム、表示装置制御処理を実行するためのプログラム等の動作プログラムが記憶される。
データエリアには、仮想操作領域、実行条件、対応動作データ、画像データ等が予め記憶されている。
仮想操作領域は、第1、第2の入力装置100、200の操作面を仮想的に分割して設定される領域であり、本実施形態においては、主として操作面111a、211aを段差部111c、211cを基準として上下に分割してなる操作領域R1〜R4が設定される。仮想操作領域としては、この他に窪み部111e、211eを示す領域を含むものであってもよい。
実行条件は、各仮想操作領域において制御信号を車載電子機器20に送信する、すなわち、車載電子機器20の制御を実行するトリガーの役割となるデータである。実行条件は複数あり、各仮想操作領域によって異なる条件が対応付けられている。本実施形態においては、実行条件は、特定の軌跡であるか否かの条件、所定の仮想操作領域に接触したか否かの条件、押下操作が検出されたか否かの条件、を含む。また、実行条件は各仮想操作領域毎に複数設定することができ、例えば特定の軌跡であるか否かの条件と押下操作が検出されたか否かの条件とが同じ仮想操作領域に対して設定されてもよい。「特定の軌跡」とは、例えば隆起部111f、211fに沿った略円弧状の軌跡などが上げられる。
対応動作データは、車載電子機器20に所定の動作を実行させる制御信号のデータである。対応動作データは複数あり、その各々が仮想操作領域及び実行条件と対応付けられている。すなわち、操作装置1000は、ユーザが接触する操作面の位置とジェスチャ操作のパターンとの組み合わせによって、車載電子機器20に複数の異なる制御を実行することが可能となっている。
画像データは、表示装置500に所定の表示画像を表示させる画像信号のデータである。制御部300は、第1、第2の入力装置100、200に対する操作やこの操作に応じた車載電子機器20の所定の動作に基づいて、表示装置500に表示させる表示画像を更新する制御を行う。
なお、記憶部400に格納される各データは、既知のデータ登録手法を用いて、デフォルト値として或いはユーザ自身の操作により適宜格納される。
図6は、表示装置500を示す斜視図である。表示装置500は、ユーザの正面であってステアリング10の上方に配置され、プロジェクタ(投射型表示器)510と、ミラー520と、第1のスクリーン530と、第2のスクリーン540と、第3のスクリーン550と、第4のスクリーン560と、第5のスクリーン570と、スクリーンホルダ580と、を備える。
プロジェクタ510は、表示画像を示す表示光Lを第1〜第5のスクリーン530〜570に向けて出射するものであり、例えば光源からの光を液晶パネルを透過させて表示光Lを形成する液晶プロジェクタからなる。なお、プロジェクタ510は複数であってよい。
ミラー520は、例えばポリカーボネートなどの樹脂材料に例えばアルミニウムなどの金属を蒸着させて反射面を形成してなる反射部材である。プロジェクタ510から出射された表示光Lは、ミラー520を反射し、第1〜第5のスクリーン530〜570に投影される。
第1〜第5のスクリーン530〜570は、プロジェクタ510から出射された表示光Lが投影されてそれぞれ表示画像を映し出す(表示する)表示領域を構成するものである。本実施形態において、第1〜第5のスクリーン530〜570は、表示光Lを反射して表示画像を表示する反射スクリーンであり、平面、曲面、球面あるいはこれらの組み合わせからなる立体形状からなる。
第1のスクリーン530は、中央に位置するスクリーンであり、表示画像として例えば車速、エンジン回転数、残燃料、電力量、走行距離などの車両情報やナビゲーション情報などを表示する第1の表示領域を構成する。
第2のスクリーン540は、ユーザ側から見て右側下方に位置するスクリーンであり、後述するように、第1の入力装置100の第1の操作領域R1と連携し、表示画像として第1の操作領域R1の操作あるいはこの操作に伴う車載電子機器20の動作に関する情報を表示する第2の表示領域を構成する。
第3のスクリーン550は、ユーザ側から見て右側上方に位置するスクリーンであり、表示画像として各種インジケータやワーニングを表示するほか、後述するように、第1の入力装置100の第2の操作領域R2と連携し、表示画像として第2の操作領域R2の操作あるいはこの操作に伴う車載電子機器20の動作に関する情報を表示する第3の表示領域を構成する。
第4のスクリーン560は、ユーザ側から見て左側下方に位置するスクリーンであり、後述するように、第2の入力装置200の第3の操作領域R3と連携し、表示画像として第3の操作領域R3の操作あるいはこの操作に伴う車載電子機器20の動作に関する情報を表示する第4の表示領域を構成する。
第5のスクリーン570は、ユーザ側から見て左側上方に位置するスクリーンであり、表示画像として各種インジケータやワーニングを表示するほか、後述するように、第2の入力装置100の第4の操作領域R4と連携し、第4の操作領域R4の操作あるいはこの操作に伴う車載電子機器20の動作に関する情報を表示する第5の表示領域を構成する。
第1〜第5スクリーン530〜570は、スクリーンホルダ580の段差が設けられ奥行き方向の位置が異なる複数の保持面にそれぞれ保持されることで、立体的に、すなわち、空間を隔てて奥行き方向の位置が異なるように配置される。具体的には、第1のスクリーン530に対して第2、第4のスクリーン540、560が空間を隔てて一段表側(ユーザ側)に位置し、第3、第5のスクリーン550、570が第2、第4のスクリーン540、560に対してさらに一段表側に位置するように配置される。これにより、第1のスクリーン530に表示される表示画像と、第2、第4のスクリーン540、560に表示される表示画像と、第3、第5のスクリーン550、570に表示される表示画像と、は奥行きが異なり、立体感のある表示が可能となる。
スクリーンホルダ580は、例えば合成樹脂からなり、熱収縮が起こらない粘着材(図示しない)を介して第1〜第5のスクリーン530〜570を所定位置に保持する板状部材である。なお、第1〜第5のスクリーン530〜570はベゼルなどの枠状部材によって固定してもよい。また、スクリーンホルダ580の第1〜第5のスクリーン530〜570を保持する保持面には、第1〜第5のスクリーン530〜570を分割するように段差部581〜584が形成されている。
次に、第1、第2の入力装置100、200の操作領域R1〜R4と表示装置500の表示領域との連携について説明する。
図7は、第1の入力装置100の第1の操作領域R1に対するジェスチャ操作OP1と、これに伴って更新(切り換え)される表示装置500の第2のスクリーン540の表示画像を示す図である。第2のスクリーン540には、初期画面の表示画像として運転情報である外気温(図7では「OUTSIDE TEMP」と表記)と走行可能距離(図7では「DISTANCE TO EMPTY」と表記)とが表示されている。ここで、第1の入力装置100の第1の操作領域R1は、第1の入力装置100の上方に配置される第2のスクリーン540の形状と略相似する形状からなり、第1の操作領域R1と第2のスクリーン540との対応づけが行われている。なお、「略相似」とは完全な相似のほか、両者を比較した場合に似た形状であると認識できる程度に形状が近い場合も含まれる。ユーザは、立体的に配置される第2のスクリーン540の形状を視認することで第1の操作領域R1の形状を把握し、視覚を通じて把握した操作面111aの立体形状を段差部111c等に指先で触れて触覚を通じて感じることで、直感的に第1の操作領域R1にジェスチャ操作等を行うことができる。第2のスクリーン540が立体的に配置されていることで、ユーザはその形状を視認しやすく、さらに第1の操作領域R1の立体形状を触覚によって感じとることができ、ユーザが操作面111aを見ることなく直感的にジェスチャ操作等を行うことができる。第1の操作領域R1に対する操作の一例として、ユーザが第1の操作領域R1をなぞるジェスチャ操作OP1を行うと、制御部300は、プロジェクタ510に画像信号を送信し、ジェスチャ操作OP1の軌跡と略一致する方向(本実施形態においては右方向)及び速度で第2のスクリーン540の表示画像を順に切り換えて例えば車両1の右後方の風景を示す周辺画像を表示させる。第2のスクリーン540の表示画像が、第1の操作領域R1に対するジェスチャ操作OP1の軌跡と略一致する方向及び速度で切り換えられるため、ユーザは実際に表示画像に触れながら操作するような感覚で操作が可能となる。
図8は、第1の入力装置100の第2の操作領域R2に対するタッチ操作OP2と、これに伴って更新される表示装置500の第3のスクリーン550の表示画像を示す図である。また、図9は、第1の入力装置100の第2の操作領域R2に対するジェスチャ操作OP3と、これに伴って更新される表示装置500の第3のスクリーン550の表示画像を示す図である。図8に示すように、第3のスクリーン550には、初期画面の表示画像として方向指示器のインジケータが表示されている。ここで、第2、第3のスクリーン540、550を分割する段差部582は、第1、第2の操作領域R1、R2を分割する段差部111cの形状と略相似する形状に形成される。すなわち、段差部582は、第1の入力装置100における第1の立体識別部である段差部111cの形状と略相似する第2の立体識別部となる。ユーザは、段差部582の立体形状を視認することで段差部111cによって第1の操作領域R1と分割される第2の操作領域R2の形状の一部(本実施形態では下部)と位置を把握し、視覚を通じて把握した操作面111aの立体形状を段差部111c等に指先で触れて触覚を通じて感じることで、直感的に第2の操作領域R2にジェスチャ操作等を行うことができる。段差部582が立体形状であるため、ユーザはその形状を視認しやすく、さらに段差部111cの立体形状を触覚によって感じることができ、ユーザが操作面111aを見ることなく直感的にジェスチャ操作等を行うことができる。第2の操作領域R2に対する操作の一例として、ユーザが第2の操作領域R2に対してタッチ操作OP2を行う(タッチする)と、制御部300は、プロジェクタ510に画像信号を送信し、第3のスクリーン550に段差部582に沿うような位置及び形状で、表示装置500に表示可能なコンテンツを示すアイコン群からなるメニュー画像を表示させる。さらに、図9に示すように、ユーザが第2の操作領域R2を段差部111cに沿ってなぞるジェスチャ操作OP3を行うと、制御部300は、ジェスチャ操作OP3の軌跡と略一致する方向(本実施形態では右上方)及び速度でアイコン群を順次スライドさせる。第3のスクリーン550の表示画像が、第2の操作領域R2に対するジェスチャ操作OP3の軌跡と略一致する方向及び速度で切り換えられるため、ユーザは実際に表示画像に触れながら操作するような感覚で操作が可能となる。なお、メニュー画像が表示されている状態で第2の操作領域R2に対して押下操作を行うと、選択されたコンテンツが表示画像として第2のスクリーン540に表示される。
図10は、第2の入力装置100の第3の操作領域R3に対するジェスチャ操作OP4と、これに伴って更新される表示装置500の第4のスクリーン560の表示画像を示す図である。第4のスクリーン560には、初期画面の表示画像としてオーディオ操作画像が表示されている。ここで、第2の入力装置200の第3の操作領域R3は、第2の入力装置200の上方に配置される第4のスクリーン560の形状と略相似する形状からなり、第3の操作領域R3と第4のスクリーン560との対応づけが行われている。ユーザは、立体的に配置される第4のスクリーン560の形状を視認することで第3の操作領域R3の形状を把握し、視覚を通じて把握した操作面211aの立体形状を段差部211c等に指先で触れて触覚を通じて感じることによって、直感的に第3の操作領域R3にジェスチャ操作等を行うことができる。第4のスクリーン560が立体的に配置されていることで、ユーザはその形状を視認しやすく、さらに第3の操作領域R3の立体形状を触覚によって感じとることができ、ユーザが操作面211aを見ることなく直感的にジェスチャ操作等を行うことができる。第3の操作領域R3に対する操作の一例として、第3の操作領域R3の窪み部211e内を時計回りになぞるジェスチャ操作OP4を行うと、制御部300は、車載電子機器20に音量制御信号を送信して音量を変更させ、プロジェクタ510に画像信号を送信して音量の変更に伴って第4のスクリーン560の表示画像における音量表示を更新する。
図11は、第2の入力装置200の第4の操作領域R4に対するタッチ操作OP5と、これに伴って更新される表示装置500の第5のスクリーン570の表示画像を示す図である。また、図12は、第2の入力装置200の第4の操作領域R4に対するジェスチャ操作OP6と、これに伴って更新される表示装置500の第5のスクリーン570の表示画像を示す図である。図11に示すように、第5のスクリーン570には、初期画面の表示画像として方向指示器のインジケータが表示されている。ここで、第4、第5のスクリーン560、570を分割する段差部584は、第3、第4の操作領域R3、R4を分割する段差部211cの形状と略相似する形状に形成される。すなわち、段差部584は、第2の入力装置200における第1の立体識別部である段差部211cの形状と略相似する第2の立体識別部となる。ユーザは、段差部584の立体形状を視認することで段差部211cによって第3の操作領域R3と分割される第4の操作領域R4の形状の一部(本実施形態では下部)と位置を把握し、視覚を通じて把握した操作面211aの立体形状を段差部211c等に指先で触れて触覚を通じて感じることによって、直感的に第4の操作領域R4にジェスチャ操作等を行うことができる。段差部584が立体形状であるため、ユーザはその形状を視認しやすく、さらに段差部211cの立体形状を触覚によって感じることができ、ユーザが操作面211aを見ることなく直感的にジェスチャ操作等を行うことができる。第4の操作領域R4に対する操作の一例として、ユーザが第4の操作領域R4に対してタッチ操作OP5を行う(タッチする)と、制御部300は、プロジェクタ510に画像信号を送信して、第5のスクリーン570に段差部584に沿うような位置及び形状で、車載電子機器20の機能を示すアイコン群からなるメニュー画像を表示させる。さらに、図12に示すように、ユーザが第4の操作領域R4を段差部211cに沿ってなぞるジェスチャ操作OP6を行うと、制御部300は、ジェスチャ操作OP6の軌跡と略一致する方向(本実施形態では左上方)と速度でアイコン群を順次スライドさせる。第5のスクリーン570の表示画像が、第4の操作領域R4に対するジェスチャ操作OP6の軌跡と略一致する方向及び速度で切り換えられるため、ユーザは実際に表示画像に触れながら操作するような感覚で操作が可能となる。なお、メニュー画像が表示されている状態で第4の操作領域R4に対して押下操作を行うと、選択された機能が実行される。
本実施形態に係る操作装置1000は、複数の操作領域R1、R2を有する操作面111aと、操作面111aに対する被検出体の接触位置を検出可能なセンサシート(センサ部)112と、を備える第1の入力装置(入力手段)100と、複数の操作領域R3、R4を有する操作面211aと、操作面211aに対する被検出体の接触位置を検出可能なセンサシート(センサ部)212と、を備える第2の入力装置(入力手段)200と、
複数のスクリーン(表示領域)530〜570を備える表示装置(表示手段)500と、
センサシート112、212が検出した前記被検出体の接触位置に基づいて、所定の車載電子機器20を制御し、また、複数のスクリーン530〜570の少なくとも1つに表示される画像を切り換える制御部(制御手段)300と、を備え、
複数のスクリーン530〜570は立体的に配置され、
複数の操作領域R1、R2及びR3、R4は立体的に形成され、
第1の操作領域R1及び第3の操作領域R3は、それぞれ第2のスクリーン540及び第4のスクリーン560の形状と略相似する形状からなるものである。
これによれば、ユーザは操作面111a、211aを見ることなく直感的にジェスチャ操作等を行うことが可能となる。
また、本実施形態に係る操作装置1000は、複数の操作領域R1、R2を有する操作面111aと、操作面111aに対する被検出体の接触位置を検出可能なセンサシート(センサ部)112と、を備える第1の入力装置(入力手段)100と、複数の操作領域R3、R4を有する操作面211aと、操作面211aに対する被検出体の接触位置を検出可能なセンサシート(センサ部)212と、を備える第2の入力装置(入力手段)200と、
複数のスクリーン(表示領域)530〜570を備える表示装置(表示手段)500と、
センサシート112、212が検出した前記被検出体の接触位置に基づいて、所定の車載電子機器20を制御し、また、複数のスクリーン530〜570の少なくとも1つに表示される画像を切り換える制御部(制御手段)300と、を備え、
複数のスクリーン530〜570は立体的に配置され、
複数の操作領域R1、R2及びR3、R4は立体的に形成され、
操作面111aに形成され操作領域R1、R2を分割する段差部(第1の立体識別部)111dと操作面211aに形成され操作領域R3、R4を分割する段差部(第1の立体識別部)211cとは、それぞれ第2のスクリーン540と第3のスクリーン550を分割する段差部(第2の立体識別部)582の形状と第4のスクリーン560と第5のスクリーン570とを分割する段差部(第2の立体識別部)584の形状と略相似する形状からなるものである。
これによれば、ユーザは操作面111a、211aを見ることなく直感的にジェスチャ操作等を行うことが可能となる。
また、第1、第2の入力装置100、200はステアリング10に搭載され、スクリーン530〜570は、第1、第2の入力装置100、200の上方に配置され、
第1の操作領域R1及び第3の操作領域R3は、その上方に位置する第2のスクリーン540及び第4のスクリーン560と略相似する形状からなるものである。
これによれば、対応づけられた操作領域R1、R3とスクリーン540、560との左右方向の位置が略一致するため、スクリーン540、560を見ながらより違和感なく操作面111a、211aに対する操作を行うことができる。
また、第1、第2の入力装置100、200はステアリング10に搭載され、スクリーン530〜570は、第1、第2の入力装置100、200の上方に配置され、
段差部111c、211cは、その上方に位置する段差部582、584の形状と略相似する形状からなるものである。
これによれば、対応づけられた段差部111c、211cと段差部582、584との左右方向の位置が略一致するため、段差部582、584を見ながらより違和感なく操作面111a、211aに対する操作を行うことができる。
また、表示装置500は、表示光Lを発するプロジェクタ(投射型表示器)510と、複数の表示領域を構成し、表示光Lが投影されて画像を表示する複数のスクリーン530〜570と、を備えてなるものである。
これによれば、スクリーン530〜570を用いて容易に立体的に配置された複数の表示領域を得ることができる。
また、制御部300は、センサシート112、212が検出した被検出体の軌跡と略一致する方向及び速度で表示画像を切り換えるものである。これによれば、ユーザは表示画像を直接触れているような感覚で操作することができ、直感的な操作が可能となる。
本発明は、上記の実施形態に限定されるものではなく、その要旨を逸脱しない範囲内で適宜、変更(構成要素の削除も含む)等が可能であることはもちろんである。本実施形態においては入力手段として2つの入力装置100、200を備える構成であったが、1つの入力手段を備えるものであってもよい。また、操作領域は3つ以上形成されるものであってもよい。また、1つの入力手段における2つ以上の操作領域の形状が、表示領域のいずれかと略相似する形状からなるものであってもよい。また、表示領域の形状を強調するように、各表示領域の周縁部にグラデーションや模様等の強調画像を表示しても良く、表示領域の形状をより明確に視認することができる。
また、複数の操作領域は、印刷や塗料の塗り分け、レーザ等による表面加工等の手段によってそれぞれ異なる触感となるように形成されてもよく、触れた操作領域の相違を指先等でより容易に感じ取ることができ、直感的な操作を行うのにさらに好適である。また、その場合、操作領域の触感を想起させる背景画像を対応づけられた(その操作に応じて表示画像が更新され、形状が略相似する)表示領域に表示しても良く、視覚によって操作領域の表面触感を把握し、操作面に触れながら操作領域の表面触感を触覚によって感じることで、直感的に操作を行うことができさらに好適である。例えば、摩擦抵抗の少ない(ツルツルした)触感の操作領域について、これと対応づけられる表示領域にその触感を想起させる金属調などの光沢のある背景画像を表示させる。または、摩擦抵抗の多い(ザラザラした)触感の操作領域について、これと対応付けられる表示領域にその触感を想起させる凹凸を含む背景画像を表示させる。また、複数の表示領域をスクリーンで構成する場合は、操作領域の触感を想起させるような質感となるように各スクリーンを形成してもよい。例えば、材質や表面加工によって摩擦抵抗の少ない(ツルツルした)触感の操作領域について、これと対応づけられるスクリーンをその触感を想起させる凹凸のない質感で形成する。または、摩擦抵抗の多い(ザラザラした)触感の操作領域について、これと対応付けられるスクリーンをその触感を想起させる凹凸を含む質感で形成する。
図13及び14は、本発明の他の実施形態の一例を示すものである。
他の実施形態である操作装置1000は、第1、第2の入力装置100、200の第2の操作領域R2及び第4の操作領域R4の表面に、これら操作領域R2及びR4とそれぞれ連携する第3のスクリーン550及び第5のスクリーン570の特徴的な形状の一部を模した第1、第2の意匠部130、230を形成してなる。なお、本実施形態においては、第1、第2の意匠部130、230は、表面カバー111、211の第2の操作領域R2及び第4の操作領域R4に対応する個所にそれぞれ印刷形成されてなる。また、「模した」とは表示領域であるスクリーンの一部の形状を簡略化、単純化し、両者を比較した場合に似た形状であると認識できる程度に近い形状とすることを言い、同一形状である場合も含む。
第1の意匠部130は、図13に示すように第3のスクリーン550の形状の一部として下部の曲線形状を模した曲線形状の意匠である。また、第2の意匠部230は、図14に示すように第5のスクリーン570の形状の一部として下部の曲線形状を模した曲線形状の意匠である。ユーザは、第3のスクリーン550、第5のスクリーン570の特徴的な形状の一部(下部)とこれらを模した第1、第2の意匠130、230とを視認することによって、操作装置1000が初見である場合など操作に不慣れな場合であっても、一見して第3のスクリーン550及び第5のスクリーン570と第2の操作領域R4及び第4の操作領域R4との連携関係を把握することができる。
また、図13に示すように、ユーザが第2の操作領域R2に対してタッチ操作OP2を行う(タッチする)と、制御部300は、プロジェクタ510に画像信号を送信し、第3のスクリーン550に段差部582に沿うような位置及び形状で、表示可能なコンテンツを示すアイコン群からなるメニュー画像を表示させる。また、このとき、制御部300は、被検出体である指等が接触した第2の操作領域R2と連携する第3のスクリーン550を強調する強調画像を表示させる。強調画像の一例として、本実施形態では背景として通常時と色の異なる着色背景画像を第3のスクリーン550全体に表示する。強調画像は、表示領域を強調するものであればよく、各表示領域の周縁部に囲み線やグラデーションや模様等を表示しても良い。同様に、図14に示すように、ユーザが第4の操作領域R4に対してタッチ操作OP5を行う(タッチする)と、制御部300は、プロジェクタ510に画像信号に送信し、第5のスクリーン570に段差部584に沿うような位置及び形状で、車載電子機器20の機能を示すアイコン群からなるメニュー画像を表示させる。また、このとき、制御部300は、被検出体である指等が接触した第4の操作領域R4と連携する第5のスクリーン570を強調する強調画像を表示させる。強調画像の一例として、本実施形態では背景として通常時と色の異なる着色背景画像を第5のスクリーン570全体に表示する。なお、図示しないが、ユーザの指等が第1の操作領域R1あるいは第3の操作領域R3に接触した場合は、これら操作領域R1あるいはR3と連携する第2のスクリーン540あるいは第4のスクリーン560にこれらスクリーン540あるいは560を強調する強調画像が表示される。ユーザは、強調画像によって、操作領域R1〜R4に接触した時点で、所望の操作領域R1〜R4に接触したか否かを把握することができ、操作性を向上させることができる。
本実施形態における操作装置1000は、複数の操作領域R1、R2及びR3、R4のうち第2の操作領域R2及び第3の操作領域R3は、その表面に複数のスクリーン530〜570のうちそれぞれ第3のスクリーン550及び第5のスクリーン570の形状の一部を模した第一、第二の意匠部130、230が形成されてなることを特徴とする。
これによれば、操作装置1000が初見である場合など操作に不慣れな場合であっても、一見して第3のスクリーン550及び第5のスクリーン570と第2の操作領域R4及び第4の操作領域R4との連携関係を把握することができる。
また、制御部300は、センサシート112、212が検出した前記被検出体の接触位置に基づいて、前記被検出体が接触した操作領域R1、R2及びR3、R4と連携するスクリーン540〜570を強調する強調画像を表示装置500に表示させることを特徴とする。
これによれば、操作領域R1〜R4に接触した時点で、所望の操作領域R1〜R4に接触したか否かを把握することができ、操作性を向上させることができる。
図15及び16は、本発明の他の実施形態の一例を示すものである。
他の実施形態である操作装置1000は、表示装置500が、第3のスクリーン550及び第5のスクリーン570に前記表示画像として所定形状のアイコン画像IC1〜IC4及びIC5〜IC8を表示し、第1、第2の入力装置100、200の第2の操作領域R2及び第4の操作領域R4に、アイコン画像IC1〜IC4及びIC5〜IC8と略相似する立体的な形状からなるアイコン操作部111g〜111j及び211g〜211jがそれぞれ形成されてなる。
第3のスクリーン550に表示されるアイコン画像IC1〜IC4は、図15に示すように円形状であり、表示装置500に表示可能なコンテンツをそれぞれ示すものであって、段差部582に沿うように表示されて全体として表示するコンテンツを選択するメニュー画像を構成するものである。第2の操作領域R2に形成されるアイコン操作部111g〜111jは、それぞれアイコン画像IC1〜IC4と略相似する凸形状からなり、アイコン画像IC1〜IC4と同様の位置関係となるように段差部111cに沿うように形成される。アイコン画像IC1〜IC4は、それぞれアイコン操作部111g〜111jに対するタッチ操作に伴って選択状態あるいは非選択状態が切り換えられるものであり、アイコン操作部111g〜111jと1対1で連携するものである。すなわち、図15に示すように、ユーザがアイコン操作部111jに対してタッチ操作OP7を行う(タッチする)と、制御部300は、プロジェクタ510に画像信号を送信し、第3のスクリーン550に表示されアイコン操作部111jと連携するアイコン画像IC4を選択状態とする。なお、本実施形態においては、選択状態となったアイコン画像IC4をネガポジ反転して表示している。アイコン画像IC4が選択状態であるときに第2の操作領域R2に対して押下操作を行うと、選択状態であったアイコン画像IC4に対応するコンテンツが表示画像として第2のスクリーン540に表示される。なお、図示しないがアイコン操作部111g〜111hがタッチ操作された場合は、それぞれに対応するアイコン画像IC1〜IC3が選択状態となる。ユーザは、視覚を通じて把握されるアイコン画像IC1〜IC4の形状をアイコン操作部111g〜111jに指先で触れて触覚を通じて感じることによって、実際にアイコン画像550a〜550dに触れながら操作するような感覚で操作が可能となる。なお、アイコン操作部111g〜111jは、アイコン画像IC1〜IC4と略相似する凹形状からなるものであってもよい。
第5のスクリーン570に表示されるアイコン画像IC5〜IC8は、図16に示すように円形状であり、車載電子機器20の機能をそれぞれ示すものであって、段差部584に沿うように表示されて全体として車載電子機器20の機能を選択するメニュー画像を構成するものである。第4の操作領域R4に形成されるアイコン操作部211g〜211jは、それぞれアイコン画像IC5〜IC8と略相似する凸形状からなり、アイコン画像IC5〜IC8と同様の位置関係となるように段差部211cに沿うように形成される。アイコン画像IC5〜IC8は、それぞれアイコン操作部211g〜211jに対するタッチ操作に伴って選択状態あるいは非選択状態が切り換えられるものであり、アイコン操作部211g〜211jと1対1で連携するものである。すなわち、図16に示すように、ユーザがアイコン操作部211jに対してタッチ操作OP8を行う(タッチする)と、制御部300は、プロジェクタ510に画像信号を送信し、第5のスクリーン570に表示されアイコン操作部211jと連携するアイコン画像IC8を選択状態とする。なお、本実施形態においては、選択状態となったアイコン画像IC8をネガポジ反転して表示している。アイコン画像IC8が選択状態であるときに第4の操作領域R4に対して押下操作を行うと、選択状態であったアイコン画像IC8に対応する機能が実行される。なお、図示しないがアイコン操作部211g〜211hがタッチ操作された場合は、それぞれに対応するアイコン画像IC5〜IC7が選択状態となる。ユーザは、視覚を通じて把握されるアイコン画像IC5〜IC8の形状をアイコン操作部211g〜211jに指先で触れて触覚を通じて感じることによって、実際にアイコン画像IC5〜IC8に触れながら操作するような感覚で操作が可能となる。なお、アイコン操作部211g〜211jは、アイコン画像IC5〜IC8と略相似する凹形状からなるものであってもよい。
本実施形態における操作装置1000は、表示装置500は、複数のスクリーン530〜570のうち第3のスクリーン550及び第5のスクリーン570に前記表示画像として所定形状のアイコン画像IC1〜IC4及びIC5〜IC8を表示し、
複数の操作領域R1〜R4のうち第2の操作領域R2及び第4の操作領域R4は、アイコン画像IC1〜IC4及びIC5〜IC8と略相似する立体的な形状からなるアイコン操作部111g〜111j及び211g〜211jが形成されてなるものである。
これによれば、ユーザはアイコン画像IC1〜IC4及びIC5〜IC8を直接触れているような感覚で操作することができ、直感的な操作が可能となる。
本発明は、車両に搭載される操作装置に適用可能である。
1 車両
10 ステアリング
11 本体部
12 ステアリングホイール
1000 操作装置
100 第1の入力装置(入力手段)
110 接触センサ
111 表面カバー
111a 操作面
111b 周縁部
111c 段差部(第1の立体識別部)
111d 平面部
111e 窪み部
111f 隆起部
111g〜111j アイコン操作部
112 センサシート(センサ部)
200 第2の入力装置(入力手段)
210 接触センサ
211 表面カバー
211a 操作面
211b 周縁部
211c 段差部(第1の立体識別部)
211d 平面部
211e 窪み部
211f 隆起部
212 センサシート(センサ部)
300 制御部(制御手段)
400 記憶部
500 表示装置(表示手段)
510 プロジェクタ(投射型表示器)
520 ミラー
530 第1のスクリーン(表示領域)
540 第2のスクリーン(表示領域)
550 第3のスクリーン(表示領域)
560 第4のスクリーン(表示領域)
570 第5のスクリーン(表示領域)
580 スクリーンホルダ
581 段差部
582 段差部(第2の立体識別部)
583 段差部
584 段差部(第2の立体識別部)
L 表示光
R1 第1の操作領域(操作領域)
R2 第2の操作領域(操作領域)
R3 第3の操作領域(操作領域)
R4 第4の操作領域(操作領域)
20 車載電子機器
OP1 ジェスチャ操作
OP2 タッチ操作
OP3 ジェスチャ操作
OP4 ジェスチャ操作
OP5 タッチ操作
OP6 ジェスチャ操作
OP7 タッチ操作
OP8 タッチ操作

Claims (10)

  1. 複数の操作領域を有する操作面と、前記操作面に対する被検出体の接触位置を検出可能なセンサ部と、を備える入力手段と、
    複数の表示領域を備える表示手段と、
    前記センサ部が検出した前記被検出体の接触位置に基づいて、所定の電子機器を制御し、また、前記複数の表示領域の少なくとも1つに表示される表示画像を切り換える制御手段と、を備える操作装置であって、
    前記複数の表示領域は立体的に配置され、
    前記複数の操作領域は立体的に形成され、
    前記複数の操作領域の少なくとも1つは、前記複数の表示領域のいずれかの形状と略相似する形状からなることを特徴とする操作装置。
  2. 複数の操作領域を有する操作面と、前記操作面に対する被検出体の接触位置を検出可能なセンサ部と、を備える入力手段と、
    複数の表示領域を備える表示手段と、
    前記センサ部が検出した前記被検出体の接触位置に基づいて、所定の電子機器を制御し、また、前記複数の表示領域の少なくとも1つに表示される表示画像を切り換える制御手段と、を備える操作装置であって、
    前記複数の表示領域は立体的に配置され、
    前記複数の操作領域は立体的に形成され、
    前記操作面に形成され前記複数の操作領域を分割する第1の立体識別部は、前記複数の表示領域を分割する第2の立体識別部の形状と略相似する形状からなることを特徴とする操作装置。
  3. 前記入力手段は、ステアリングに搭載され、
    前記複数の表示領域は、前記入力手段の上方に配置され、
    前記複数の操作領域の少なくとも1つは、その上方に位置する表示領域の形状と略相似する形状からなることを特徴とする請求項1に記載の操作装置。
  4. 前記入力手段は、ステアリングに搭載され、
    前記複数の表示領域は、前記入力手段の上方に配置され、
    前記第1の立体識別部は、その上方に位置する前記第2の立体識別部の形状と略相似する形状からなることを特徴とする請求項2に記載の操作装置。
  5. 前記複数の操作領域は、それぞれ表面の触感が異なるように形成されてなることを特徴とする請求項1から請求項4のいずれかに記載の操作装置。
  6. 前記複数の操作領域の少なくとも1つは、その表面に前記複数の表示領域のいずれかの形状の一部を模した意匠部が形成されてなることを特徴とする請求項1または請求項2に記載の操作装置。
  7. 前記制御手段は、前記センサ部が検出した前記被検出体の接触位置に基づいて、前記被検出体が接触した操作領域と連携する表示領域を強調する強調画像を前記表示手段に表示させることを特徴とする請求項1または請求項2に記載の操作装置。
  8. 前記表示手段は、前記複数の表示領域の少なくとも1つに前記表示画像として所定形状のアイコン画像を表示し、
    前記複数の操作領域の少なくとも1つは、前記アイコン画像と略相似する立体的な形状からなるアイコン操作部が形成されてなることを特徴とする請求項1または請求項2に記載の操作装置。
  9. 前記表示手段は、表示光を発する投射型表示器と、前記複数の表示領域を構成し、前記表示光が投影されて前記表示画像を表示する複数のスクリーンと、を備えてなることを特徴とする請求項1から請求項8のいずれかに記載の操作装置。
  10. 前記制御手段は、前記センサ部が検出した前記被検出体の軌跡と略一致する方向及び速度で前記表示画像を切り換えることを特徴とする請求項1から請求項9のいずれかに記載の操作装置。
JP2012269982A 2012-08-02 2012-12-11 操作装置 Pending JP2014043232A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012269982A JP2014043232A (ja) 2012-08-02 2012-12-11 操作装置
PCT/JP2013/068693 WO2014021063A1 (ja) 2012-08-02 2013-07-09 操作装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012172279 2012-08-02
JP2012172279 2012-08-02
JP2012269982A JP2014043232A (ja) 2012-08-02 2012-12-11 操作装置

Publications (1)

Publication Number Publication Date
JP2014043232A true JP2014043232A (ja) 2014-03-13

Family

ID=50027748

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012269982A Pending JP2014043232A (ja) 2012-08-02 2012-12-11 操作装置

Country Status (2)

Country Link
JP (1) JP2014043232A (ja)
WO (1) WO2014021063A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016079904A1 (ja) * 2014-11-19 2016-05-26 パナソニックIpマネジメント株式会社 入力装置およびその入力方法
DE102016221588A1 (de) 2015-11-04 2017-05-04 Yazaki Corporation Bedienungssystem für ein Fahrzeug
EP3575122A1 (en) * 2018-05-30 2019-12-04 Toyota Jidosha Kabushiki Kaisha Interior structure
WO2022230591A1 (ja) * 2021-04-28 2022-11-03 テイ・エス テック株式会社 入力装置
US11787289B2 (en) 2019-11-08 2023-10-17 Toyota Jidosha Kabushiki Kaisha Vehicle input device, vehicle input method, and non-transitory storage medium stored with vehicle input program

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6350447B2 (ja) * 2015-08-20 2018-07-04 マツダ株式会社 車両の表示装置
JP6477522B2 (ja) * 2016-01-26 2019-03-06 豊田合成株式会社 タッチセンサ装置
US10759461B2 (en) 2019-01-31 2020-09-01 Toyota Motor Engineering & Manufacturing North America, Inc. Multi-function vehicle input apparatuses with rotatable dials for vehicle systems control and methods incorporating the same
FR3121640B1 (fr) * 2021-04-09 2023-04-14 Faurecia Interieur Ind Panneau de commande pour véhicule et procédé de réalisation
JP2023044097A (ja) * 2021-09-17 2023-03-30 トヨタ自動車株式会社 車両用表示制御装置、車両用表示システム、車両、表示方法及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003312373A (ja) * 2002-04-24 2003-11-06 Toyota Motor Corp 入力装置
JP2006011237A (ja) * 2004-06-29 2006-01-12 Denso Corp 車両用表示システム
JP2006117009A (ja) * 2004-10-19 2006-05-11 Tokai Rika Co Ltd 車両の入力及び表示装置
JP2007106353A (ja) * 2005-10-17 2007-04-26 Denso Corp 車両用情報表示装置及び車両用情報表示システム
JP2012059085A (ja) * 2010-09-10 2012-03-22 Diamond Electric Mfg Co Ltd 車載用情報装置
JP5304763B2 (ja) * 2010-10-22 2013-10-02 アイシン・エィ・ダブリュ株式会社 画像表示装置、画像表示方法及びプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016079904A1 (ja) * 2014-11-19 2016-05-26 パナソニックIpマネジメント株式会社 入力装置およびその入力方法
JPWO2016079904A1 (ja) * 2014-11-19 2017-07-13 パナソニックIpマネジメント株式会社 入力装置およびその入力方法
DE102016221588A1 (de) 2015-11-04 2017-05-04 Yazaki Corporation Bedienungssystem für ein Fahrzeug
EP3575122A1 (en) * 2018-05-30 2019-12-04 Toyota Jidosha Kabushiki Kaisha Interior structure
CN110549956A (zh) * 2018-05-30 2019-12-10 丰田自动车株式会社 内部装饰结构
US11787289B2 (en) 2019-11-08 2023-10-17 Toyota Jidosha Kabushiki Kaisha Vehicle input device, vehicle input method, and non-transitory storage medium stored with vehicle input program
WO2022230591A1 (ja) * 2021-04-28 2022-11-03 テイ・エス テック株式会社 入力装置

Also Published As

Publication number Publication date
WO2014021063A1 (ja) 2014-02-06

Similar Documents

Publication Publication Date Title
WO2014021063A1 (ja) 操作装置
EP2010411B1 (en) Operating device
WO2014085277A1 (en) Light-based touch controls on a steering wheel and dashboard
JP2014229014A (ja) タッチパネル入力操作装置
US10166868B2 (en) Vehicle-mounted equipment operation support system
CN106314151B (zh) 车辆和控制车辆的方法
JP2014142777A (ja) タッチパネル入力操作装置
US20160137064A1 (en) Touch input device and vehicle including the same
JP2012078988A (ja) 表示項目選択装置及び表示項目選択システム
JP2012176631A (ja) 制御装置
JP5954145B2 (ja) 入力装置
JP2012208762A (ja) タッチパネル入力操作装置
JP2018195134A (ja) 車載用情報処理システム
JP2013033309A (ja) タッチパネル入力操作装置
JP2020204868A (ja) 表示装置
KR102263593B1 (ko) 차량, 및 그 제어방법
JP6329932B2 (ja) 車両用操作システム
JP2014029576A (ja) タッチパネル入力操作装置
JP5640816B2 (ja) 入力装置
JP2020093591A (ja) 車両用操作装置
JP6911821B2 (ja) 入力装置
JP2014127017A (ja) タッチパネル入力操作装置
JP2013232081A (ja) タッチパネル入力操作装置
JP2012190406A (ja) タッチパネル入力操作装置
JP2007058317A (ja) コントローラ