JP2017151638A - 車両用コントロールユニット及びその制御方法 - Google Patents

車両用コントロールユニット及びその制御方法 Download PDF

Info

Publication number
JP2017151638A
JP2017151638A JP2016032331A JP2016032331A JP2017151638A JP 2017151638 A JP2017151638 A JP 2017151638A JP 2016032331 A JP2016032331 A JP 2016032331A JP 2016032331 A JP2016032331 A JP 2016032331A JP 2017151638 A JP2017151638 A JP 2017151638A
Authority
JP
Japan
Prior art keywords
touch sensor
tactile sensation
vehicle
control unit
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016032331A
Other languages
English (en)
Other versions
JP6613170B2 (ja
Inventor
和弘 村上
Kazuhiro Murakami
和弘 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2016032331A priority Critical patent/JP6613170B2/ja
Priority to US16/078,961 priority patent/US10642381B2/en
Priority to EP17756186.7A priority patent/EP3422156B1/en
Priority to PCT/JP2017/004439 priority patent/WO2017145745A1/ja
Publication of JP2017151638A publication Critical patent/JP2017151638A/ja
Application granted granted Critical
Publication of JP6613170B2 publication Critical patent/JP6613170B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/25Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using haptic output
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • B60K35/81Arrangements for controlling instruments for controlling displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/03Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for supply of electrical power to vehicle subsystems or for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01HELECTRIC SWITCHES; RELAYS; SELECTORS; EMERGENCY PROTECTIVE DEVICES
    • H01H36/00Switches actuated by change of magnetic field or of electric field, e.g. by change of relative position of magnet and switch, by shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01HELECTRIC SWITCHES; RELAYS; SELECTORS; EMERGENCY PROTECTIVE DEVICES
    • H01H9/00Details of switching devices, not covered by groups H01H1/00 - H01H7/00
    • H01H9/16Indicators for switching condition, e.g. "on" or "off"
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1438Touch screens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/014Force feedback applied to GUI
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Switch Cases, Indication, And Locking (AREA)
  • Position Input By Displaying (AREA)
  • Switches That Are Operated By Magnetic Or Electric Fields (AREA)

Abstract

【課題】車両搭載機器を操作することができる車両用コントロールユニットを提供する。【解決手段】所定の領域が設定されるタッチセンサ11と、触感呈示部12と、押圧検知部13と、押圧が第1の圧力以上となった場合、タッチセンサへの入力に応じて車両搭載機器の操作を可能にするコントローラ10とを備え、コントローラは、車両搭載機器の操作を可能にした場合、第1の時間内に車両搭載機器の操作を可能にしたことに対応する触感を触感呈示部に呈示させ、所定の領域から出ていく方向へ第1のスライドがあった場合、第1のスライドに対応する触感を呈示し、所定の領域へ入り込んでいく方向へ第2のスライドがあった場合、第2のスライドに対応する触感を呈示する車両用コントロールユニット1。【選択図】図1

Description

本発明は、車両用コントロールユニット及びその制御方法に関する。
車両内には、運転者が車両に搭載された機器(以下、車両搭載機器ともいう)を操作する操作部が設けられる(例えば、特許文献1参照)。操作部は、センターコンソール又はその近辺に設けられる。運転者は、車両搭載機器を操作するために、センターコンソール近辺に設けられた操作部を見て、操作内容を確認する。
特開2002−12091号公報
しかし、運転者が車両の運転中に車両搭載機器を操作する場合、運転中にもかかわらず、視線が前方から外れてセンターコンソール近辺に移動してしまうことがある。
そこで本発明は、上述の点に鑑みてなされた車両搭載機器を操作することができる車両用コントロールユニット及びその制御方法を提供することを目的とする。
上記目的を達成する本発明の一実施形態に係る車両用コントロールユニットは、
車両搭載機器を操作する車両用コントロールユニットであって、
所定の領域が設定されるタッチセンサと、
前記タッチセンサを介してユーザに対して触感を呈示する触感呈示部と、
前記タッチセンサに対する押圧を検出する押圧検出部と、
前記押圧が第1の圧力以上となった場合、前記タッチセンサへの入力に応じて前記車両搭載機器の操作を可能にするコントローラと
を備え、
前記コントローラは、
前記車両搭載機器の操作を可能にした場合、第1の時間内に前記車両搭載機器の操作を可能にしたことに対応する触感を前記触感呈示部に呈示させ、
前記所定の領域から出ていく方向へ第1のスライドがあった場合、前記第1のスライドに対応する触感を前記触感呈示部に呈示させ、
前記所定の領域へ入り込んでいく方向へ第2のスライドがあった場合、前記第2のスライドに対応する触感を前記触感呈示部に呈示させる。
また、好ましくは、
前記タッチセンサは、複数の隅部を有し、
前記所定の領域は、前記隅部の少なくとも1つを含むように設けられ、
前記コントローラは、前記所定の領域に対する押圧が第2の圧力以上となった場合、前記所定の領域に対応づけられる操作機能を実行する。
また、好ましくは、前記コントローラは、前記車両搭載機器の操作を可能にした後、前記タッチセンサへの入力がない状態が第2の時間続いた場合、前記タッチセンサへの入力に応じた前記車両搭載機器の操作をできなくする。
また、好ましくは、前記第2の時間は、前記タッチセンサへの入力がなくなる直前に入力があった位置が前記所定の領域に含まれる場合、前記所定の領域に含まれない場合よりも、長い時間に設定される。
また、好ましくは、前記所定の領域に対応づけられる操作機能を表示する表示部をさらに備える。
また、上記目的を達成する本発明の一実施形態に係る車両用コントロールユニットの制御方法は、
所定の領域が設定されるタッチセンサと、
前記タッチセンサを介してユーザに対して触感を呈示する触感呈示部と、
前記タッチセンサに対する押圧を検出する押圧検出部と、
前記押圧が第1の圧力以上となった場合、前記タッチセンサへの入力に応じて車両搭載機器の操作を可能にするコントローラと
を備える車両用コントロールユニットの制御方法であって、
前記車両搭載機器の操作を可能にした場合、第1の時間内に前記車両搭載機器の操作を可能にしたことに対応する触感を前記触感呈示部に呈示させるステップと、
前記所定の領域から出ていく方向へ第1のスライドがあった場合、前記第1のスライドに対応する触感を前記触感呈示部に呈示させるステップと、
前記所定の領域へ入り込んでいく方向へ第2のスライドがあった場合、前記第2のスライドに対応する触感を前記触感呈示部に呈示させるステップと
を含む。
本発明の一実施形態に係る車両用コントロールユニット及びその制御方法によれば、安全に運転することができる。
実施形態1に係る車両用コントロールユニットの概略構成を示す機能ブロック図である。 車両用コントロールユニットの構成例の要部平面図である。 車両用コントロールユニットの構成例の要部断面図である。 車両用コントロールユニットのタッチセンサの領域区分の一例である。 車両用コントロールユニットの制御方法の一例を示すフローチャートである。 車両用コントロールユニットの制御方法の一例を示すフローチャートである。 車両用コントロールユニットの制御方法の一例を示すフローチャートである。 車両用コントロールユニットの制御方法の一例を示すフローチャートである。 実施形態2に係る車両用コントロールユニットの概略構成を示す機能ブロック図である。 実施形態2に係る表示部に操作機能を表示させた例である。 変形例に係る制御方法を示すフローチャートである。
(実施形態1)
以下、実施形態について、図面を参照しながら詳細に説明する。本実施形態に係る車両用コントロールユニットは、車載機器とすることができる。
[ユニット構成]
図1は、実施形態1に係る車両用コントロールユニット1の概略構成を示す機能ブロック図である。図1に示されるように、車両用コントロールユニット1は、コントローラ10と、タッチセンサ11と、触感呈示部12と、押圧検出部13とを備える。
コントローラ10は、タッチセンサ11、触感呈示部12、及び押圧検出部13とそれぞれ接続される。コントローラ10は、接続される各部に信号又は信号に対応づけられる情報(以下、制御情報ともいう)を出力し、又は、接続される各部から制御情報を取得する。図1において、コントローラ10と各部とを接続する矢印は、制御情報が出力される主な方向を示している。例えば、コントローラ10とタッチセンサ11との間は、タッチセンサ11からコントローラ10に向かう矢印で接続されており、主にタッチセンサ11からコントローラ10に向けて、制御情報が出力されることが示されている。
コントローラ10は、記憶部14を備える。記憶部14は、半導体メモリ等で構成することができる。記憶部14には、各種情報、又は車両用コントロールユニット1を動作させるためのプログラム等が格納される。また記憶部14は、ワークメモリとしても機能する。
コントローラ10は、制御情報を記憶部14に格納する。また、コントローラ10は、制御情報を記憶部14から取得する。またコントローラ10は、制御情報に応じて、接続される各部を制御する。
コントローラ10は、車両に搭載された機器(以下、車両搭載機器80ともいう)に接続される。コントローラ10は、タッチセンサ11への入力に応じて、車両搭載機器80を操作するための制御情報を出力する。またコントローラ10は、車両搭載機器80の状態を示す制御情報を取得する。
タッチセンサ11は、指又はスタイラスなどの物体のタッチを検出する。以下、タッチセンサ11に対して指でタッチするものとして説明するが、スタイラスなどの他の物体でタッチしても同様である。タッチセンサ11がタッチを検出する方式としては、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、又は荷重検出方式等の任意の方式が用いられうる。
タッチセンサ11は、指のタッチを検出した場合、タッチされた位置の座標を取得し、制御情報としてコントローラ10に出力する。ユーザは、タッチセンサ11に指をタッチすることにより、タッチ位置に対応する機能をコントローラ10に実行させる。
本実施形態において、タッチセンサ11の形状は矩形であり、4つの隅部を有する。しかし、タッチセンサ11の形状はこれに限られない。タッチセンサ11の形状は、例えば、円、楕円、多角形等、種々の形状とされうる。
触感呈示部12は、コントローラ10から取得した駆動信号に応じた、種々のパターンの振動を発生することによって、触感を呈示する。つまり、コントローラ10は、触感呈示部12に対して制御情報として駆動信号を出力することにより、触感呈示部12の駆動を開始する。
触感呈示部12は、圧電素子、超音波振動子、又は振動モータ(偏心モータ)等を用いて構成される。触感呈示部12は、例えば、クリック感、材質感等に対応する振動パターンによる振動を発生させ、タッチセンサ11にタッチしたユーザの指に対して、クリック感、材質感等の触感を呈示する。
押圧検出部13は、ユーザが指又はスタイラス等でタッチセンサ11にタッチして、さらにタッチセンサ11を押し込むことにより生じる押圧を検出し、押圧に基づくデータを制御情報としてコントローラ10に出力する。
押圧検出部13は、例えば、押圧に応じて物理的又は電気的特性(歪み、抵抗、電圧等)が変化する歪みゲージセンサや圧電素子等を用いて構成される。押圧検出部13が、例えば圧電素子を用いて構成された場合、押圧検出部13の圧電素子は、タッチセンサ11に対する押圧による荷重の大きさに応じて、電気的特性である電圧値(押圧に基づくデータ)が変化する。押圧に基づくデータは、電圧値に限られず、押圧による荷重の大きさ、抵抗値等でもよい。
また、押圧検出部13は、タッチセンサ11の検出方式に応じて構成することができる。例えば、タッチセンサ11の検出方式が抵抗膜方式の場合には、接触面積の大きさに応じた抵抗の大きさを、タッチセンサ11に対する押圧の荷重に対応づけることができる。あるいは、タッチセンサ11が静電容量方式の場合には、静電容量の大きさをタッチセンサ11に対する押圧の荷重に対応づけることができる。このようにすることで、歪みゲージセンサ又は圧電素子等を用いることなく押圧検出部13を構成することができる。
コントローラ10は、押圧検出部13から取得した押圧の大きさが所定の圧力以上である場合に、タッチされている位置にある操作オブジェクトに対する入力を確定させるようにしてもよい。このようにすることで、ユーザが誤ってタッチセンサ11にタッチして起こる誤入力を低減することができる。
触感呈示部12と押圧検出部13とは、一体化して構成されてもよい。特に、圧電素子を用いて触感呈示部12及び押圧検出部13を構成する場合、圧電素子を共用することもできる。圧電素子は、圧力が加わると電圧を発生し、電圧が加わると変形するためである。
図2及び図3は、本実施形態に係る車両用コントロールユニット1の構成の一例を示す図である。図2は要部平面図である。また、図3は要部断面図である。
図3に示されるように、タッチセンサ11は、筐体90とアッパーカバー92との間に、第1インシュレータ94及び第2インシュレータ96を介して挟持される。タッチセンサ11は、アッパーカバー92に覆われていないタッチ面11aを有する。本実施形態に係る車両用コントロールユニット1において、タッチ面11aの形状は矩形である。しかし、車両用コントロールユニット1の仕様に応じて、タッチ面11aは他の形状とされてもよい。また、第1インシュレータ94及び第2インシュレータ96は、タッチ面11aから外れた4隅に配設される。なお、図2においては、図3に示される筐体90、アッパーカバー92、及び第2インシュレータ96の図示は省略されている。
タッチセンサ11は、表面側であるタッチ面11aが例えば透明フィルムで構成され、裏面がガラスで構成され、表面(タッチ面11a)が押圧されると、押圧に応じて表面の透明フィルムが微少量撓む(歪む)構造のものを用いる。
またアッパーカバー92は、タッチセンサ11に対して凸となる。よって、ユーザがタッチセンサ11のタッチ面11aにタッチする際、タッチ面11aの端部又は隅部を触覚で知ることが容易である。
さらに、本実施形態に係る車両用コントロールユニット1は、タッチセンサ11の表面の透明フィルム上で、アッパーカバー92で覆われる各辺の近傍に、タッチセンサ11に加わる押圧を検出するための歪みゲージセンサをそれぞれ接着等により設ける。また、タッチセンサ11の裏面のガラス面上で、対向する2つの辺の近傍には、タッチセンサ11を振動させるための圧電素子または超音波振動子、リニアアクチュエータなどを、それぞれ接着等により設ける。すなわち、図2及び図3に示される車両用コントロールユニット1は、押圧検出部13を4つの歪みゲージセンサを用いて構成し、触感呈示部12を2つの振動子を用いて構成している。押圧検出部13は、例えば、4つの歪みゲージセンサの出力の平均値などから押圧を検出する。触感呈示部12は、例えば、2つの振動子を同相で駆動する。
なお、触感呈示部12及び押圧検出部13の構成は、図2及び図3に例示されている構成に限られるものではない。
[触感呈示処理]
本実施形態に係る車両用コントロールユニット1は、タッチセンサ11を押し込んだり離したりする際のクリック感、タッチセンサ11上でスライドした際のざらざら感若しくはつるつる感等の材質感、凹凸感、又はその他の触感を呈示することができる。また、例えば、材質感を呈示しつつ、クリック感を呈示するなど、種々の触感を重畳して呈示することもできる。
例えば、つるつる感は、触感呈示部12が超音波振動を発生することにより、タッチセンサ11のタッチ面11aとタッチしている指との間にスクイーズ空気膜が発生し、このスクイーズ空気膜により摩擦力を低減させて呈示されうる。また、例えば、ざらざら感は、触感呈示部12が指のスライドに合わせて振動を変化させることにより、摩擦力の大小を変化させて呈示されうる。なお、これらの触感を呈示する方法は、ここで説明した方法に限られるものではない。
本実施形態に係る車両用コントロールユニット1のタッチセンサ11は、一般的なタッチセンサ11と同様に、一様な材質、例えばガラス又はフィルムで構成される。つまり、タッチセンサ11は、局所的に材質が異なることはない。よって、タッチセンサ11を見ずにタッチした場合、ユーザは、タッチセンサ11のどの部分をタッチしているのかわからない。つまり、ユーザはタッチ位置を感知することができない。
ここで、タッチセンサ11に対するタッチ位置に応じた触感の呈示、又は、タッチした指のスライドに応じた触感の呈示によって、タッチセンサ11を見ていないユーザに、タッチ位置を感知させることができる。コントローラ10は、タッチ位置に応じた処理を行うために、タッチセンサ11に所定の領域を設定する。
図4は、タッチセンサ11において設定されている領域区分の一例である。図4に示されるように、タッチセンサ11の4つの隅部をそれぞれ含むようにA〜D領域が設定される。A〜D領域は、車両用コントロールユニット1による操作対象となる機能が対応づけられる。例えば、A領域にはカーナビゲーションシステムの操作機能が対応づけられ、B領域にはエアコンディショナの操作機能が対応づけられる。他に、オーディオ機器の操作機能、又は、携帯電話若しくはスマートフォンの操作機能が対応づけられてもよい。A〜D領域の中間にあたる部分は、上述のような機能が対応づけられないN領域が設定される。
タッチセンサ11に設定される領域と操作機能との対応関係は、上述のものに限られない。例えば、N領域に何らかの機能が対応づけられてもよい。また、A領域に何の機能も対応づけられなくてもよい。
タッチセンサ11に設定される領域区分は、図4に示される例に限られない。例えば、タッチセンサ11の左半分、又は、上半分の領域が1つの領域として設定されてもよい。また、タッチセンサ11の隅部を含まずに、隅部と隅部との間の辺縁部が1つの領域として設定されてもよい。図4に示される例では、タッチセンサ11が有する4つの隅部が含まれるように領域が区分されているが、タッチセンサ11が隅部を有さない場合であっても領域区分は適宜定められうる。
タッチセンサ11上で区分されている各領域は、当該各領域がタッチされた場合に、タッチした指に対して当該各領域に対応づけられる触感が呈示されてもよい。例えばA領域にタッチしている指に対しては指のスライドに応じたざらざら感が呈示されてもよい。一方で、N領域にタッチしている指に対しては指のスライドに応じたつるつる感が呈示されてもよい。
[操作可能状態への遷移]
本実施形態に係る車両用コントロールユニット1は、ブラインドタッチしたユーザの指に対して触感を呈示することによりユーザの操作を誘導し、運転中の視線移動を減らすことができる。タッチセンサ11へのブラインドタッチに際して誤操作が回避されることが好ましい。よって、本実施形態に係る車両用コントロールユニット1は、初期状態としてタッチセンサ11への入力に応じた車両搭載機器80の操作をできないスタンバイ状態にされる。この場合、タッチセンサ11にタッチしたりスライドしたりしても操作できない。本実施形態に係る車両用コントロールユニット1は、タッチセンサ11に対して所定の圧力(第1の圧力)以上の押圧が加わった場合に、スタンバイ状態から操作可能状態に遷移する。操作可能状態は、タッチセンサ11への入力に応じて車両搭載機器80の操作を可能とする状態ともいえる。
図5は、車両用コントロールユニット1を操作可能状態に遷移させる制御方法を示すフローチャートである。まずコントローラ10は、タッチセンサ11から情報を取得し、タッチセンサ11に指がタッチしたか否か判定する(ステップS11)。
タッチセンサ11に指がタッチしていない場合(ステップS11:NO)、コントローラ10は、ステップS11に戻る。タッチセンサ11に指がタッチした場合(ステップS11:YES)、コントローラ10は、押圧検出部13に押圧検出を開始させる(ステップS12)。
続いてコントローラ10は、タッチセンサ11から情報を取得し、タッチセンサ11から指が離れたか否か判定する(ステップS13)。
タッチセンサ11から指が離れた場合(ステップS13:YES)、コントローラ10は、押圧検出部13に押圧検出を終了させる(ステップS14)。その後、コントローラ10は、ステップS11に戻る。
タッチセンサ11から指が離れていない場合(ステップS13:NO)、コントローラ10は、押圧検出部13から押圧に係る情報を取得し、押圧が第1の圧力以上であるか判定する(ステップS15)。
押圧が第1の圧力以上でない(第1の圧力未満である)場合(ステップS15:NO)、コントローラ10は、ステップS13に戻る。押圧が第1の圧力以上である場合(ステップS15:YES)、コントローラ10は、車両用コントロールユニット1を操作可能状態に遷移させる(ステップS16)。この際コントローラ10は、触感呈示部12にクリック感等の触感を呈示させることが好ましい。
続いてコントローラ10は、操作可能状態に遷移したときから第1の時間内に、操作可能状態への遷移に対応する触感を触感呈示部12に呈示させる(ステップS17)。第1の時間は、ユーザがタッチセンサ11に押圧を加えた後に指を離さない程度の時間、例えば500msecに設定される。また、操作可能状態に遷移したことに対応する触感は、種々の触感とされうる。その後、コントローラ10は、図5のフローチャートの処理を終了する。なお第1の時間は、ユーザの操作に対して、装置が反応したことを示す適切な時間である。第1の時間が長すぎても短すぎても、ユーザは違和感を受ける。
以上図5を参照して、車両用コントロールユニット1を操作可能状態に遷移させる制御方法を説明してきた。ステップS15において押圧が所定の圧力以上であるか判定する際、指がタッチしている位置はタッチセンサ11のどこでもよい。このようにすれば、ユーザはタッチセンサ11を全く見ずに車両用コントロールユニット1を操作可能状態にすることができる。
一方、ステップS15において押圧が所定の圧力以上であるか判定する際、指がタッチしている位置が所定の領域に含まれることが条件とされてもよい。このようにすれば、ユーザが意図しないタイミングで車両用コントロールユニット1が操作可能状態に遷移する可能性を低くできる。この場合、コントローラ10は、触感呈示部12に当該所定の領域を示す触感を呈示させることが好ましい。あるいは、タッチセンサ11のタッチ面11aに凹凸構造が設けられてもよい。
続いて、車両用コントロールユニット1を操作可能状態から、操作を受け付けない状態(スタンバイ状態)に遷移させる制御方法について、図6を参照して説明する。スタンバイ状態は、コントローラ10がタッチセンサ11の入力を受け付けない状態ともいえる。
まずコントローラ10は、タッチセンサ11から情報を取得し、タッチセンサ11から指が離れたか否か判定する(ステップS21)。タッチセンサ11から指が離れることは、タッチセンサ11への入力がなくなることに含まれる。タッチセンサ11から指が離れていない場合(ステップS21:NO)、コントローラ10は、車両用コントロールユニット1を操作可能状態にしたままステップS21の動作を続ける。
タッチセンサ11から指が離れた場合(ステップS21:YES)、コントローラ10は、指が第2の時間以上離れたか否か判定する(ステップS22)。ここで第2の時間は、図5のステップS17で説明されている第1の時間と同じ時間に設定されてもよいし、異なる時間に設定されてもよい。
指が第2の時間以上離れていない場合(ステップS22:NO)、つまり、指が第2の時間未満のうちに再度タッチした場合、コントローラ10は、指がタッチセンサ11から離れていないとみなして、ステップS21に戻る。
指が第2の時間以上離れた場合(ステップS22:YES)、コントローラ10は、車両用コントロールユニット1をスタンバイ状態に遷移させる(ステップS23)。その後、コントローラ10は、図6のフローチャートの処理を終了する。
以上、図5及び図6を参照して、車両用コントロールユニット1を操作可能状態とスタンバイ状態との間で遷移させる制御方法を説明してきた。このようにすることで、ユーザが意図しない、タッチセンサ11に対する入力の発生を避けることができる。また、タッチセンサ11でチャタリングが生じた場合、又はユーザが短時間無意識に指を離した場合等のユーザが意図しない場合における状態の遷移を避けることができる。
[操作機能実行の指示受付]
車両用コントロールユニット1が操作可能状態である間、原則的にユーザの指はタッチセンサ11にタッチし続ける。ユーザは、タッチセンサ11上で指をスライドさせて、図4に示される各領域に指を移動する。そしてユーザは、各領域をタッチした状態でタッチセンサ11に押圧を加えて各領域に対する入力を確定させる。各領域に対する入力が確定した場合、車両用コントロールユニット1は、各領域に対応づけられる機能を実行する。
図7及び図8は、車両用コントロールユニット1の操作に係る制御方法を示すフローチャートである。図7及び図8に示されるフローチャートは、車両用コントロールユニット1が操作可能状態である場合に実行される制御方法である。
図7のフローチャートにおいて、まずコントローラ10は、押圧検出部13に圧力の検出を開始させる(ステップS31)。続いてコントローラ10は、車両用コントロールユニット1がスタンバイ状態に遷移したか判定する(ステップS32)。
車両用コントロールユニット1がスタンバイ状態に遷移した場合(ステップS32:YES)、コントローラ10は、押圧検出部13に圧力の検出を終了させる(ステップS33)。その後、コントローラ10は、図7のフローチャートの処理を終了する。車両用コントロールユニット1がスタンバイ状態に遷移する場合とは、コントローラ10が図6のフローチャートのステップS23の処理を実行する場合等である。
車両用コントロールユニット1がスタンバイ状態に遷移していない場合(ステップS32:NO)、コントローラ10は、押圧検出部13から押圧に係る情報を取得し、押圧が第2の圧力以上であるか判定する(ステップS34)。ここで第2の圧力は、図5のステップS15における判定条件に含まれる第1の圧力と同じ値に設定されてもよいし、異なる値に設定されてもよい。
押圧が第2の圧力以上でない(第2の圧力未満である)場合(ステップS34:NO)、コントローラ10は、図8のフローチャートのステップS41に進む。押圧が第2の圧力以上である場合(ステップS34:YES)、コントローラ10は、現在のタッチ位置における入力を確定させる(ステップS35)。この際、コントローラ10は、触感呈示部12にクリック感等の触感を呈示させることが好ましい。入力確定後の操作機能実行処理については後述する。その後、コントローラ10は、図7のフローチャートの処理を終了する。
ステップS34において、押圧が第2の圧力以上であるかという判定条件だけでなく、押圧が加えられているタッチ領域に操作機能が対応づけられているかという判定条件を加えてもよい。この場合、例えば図4のN領域に操作機能が対応づけられていない場合、N領域において押圧が第2の圧力以上となるように押し込んでも、コントローラ10がステップS35に進まないようにすることができる。
続いて図8のフローチャートにおいて、コントローラ10は、タッチセンサ11から情報を取得し、タッチしている指がスライドしたか判定する(ステップS41)。指がスライドしていない場合(ステップS41:NO)、コントローラ10は、図7のステップS32に戻る。
指がスライドしている場合(ステップS41:YES)、コントローラ10は、タッチセンサ11から取得した情報に基づいて、指のタッチ位置及び/又は指のスライド方向を決定する(ステップS42)。
続いてコントローラ10は、指のタッチ位置が含まれる領域(以下、タッチ領域ともいう)及び/又は指のスライド方向に応じた触感を触感呈示部12に呈示させる(ステップS43)。
タッチ領域に応じた触感が呈示される場合、例えば、図4に示されるN領域にタッチしている指に対して、触感呈示部12は、触感を呈示しない又はつるつる感を呈示してもよい。また、図4に示されるA〜D領域にタッチしている指に対して、触感呈示部12は、ざらざら感を呈示してもよい。
また、指のスライド方向に応じた触感が呈示される場合、例えば、タッチセンサ11の中央から端に向かう方向にスライドしている指に対して、触感呈示部12は、第1の周期でパルス状に触感を呈示してもよい。また、タッチセンサ11の端から中央に向かう方向にスライドしている指に対して、触感呈示部12は、第1の周期とは異なる第2の周期でパルス状に触感を呈示してもよい。以下、周期をTとするパルス状に呈示される触感を、周期がTの触感群ともいう。
また、タッチ領域内において、指のスライド方向が当該タッチ領域から出ていく方向である場合と指のスライド方向が当該タッチ領域に入り込んでいく方向である場合とで、周期が異なる触感群が呈示されるようにしてもよい。
ここで、タッチ領域から出ていく方向とは、例えば図4に示されるA領域がタッチ領域である場合、A領域に含まれるいずれかの位置からN領域に向かう方向、つまり右下に向かう方向である。以下、タッチ領域から出ていく方向へのスライドを第1のスライドともいう。
また、タッチ領域に入り込んでいく方向とは、例えば図4に示されるA領域がタッチ領域である場合、A領域に含まれるいずれかの位置からタッチ面11aの端又は隅に向かう方向、つまり左上に向かう方向である。以下、タッチ領域に入り込んでいく方向へのスライドを第2のスライドともいう。
また、例えば図4に示されるN領域がタッチ領域である場合、タッチ領域から出ていく方向とは、N領域の中心から遠ざかる方向である。一方でタッチ領域に入り込んでいく方向とは、N領域の中心に近づく方向である。
このようにスライド方向に応じた触感が呈示されることで、ユーザはタッチセンサ11を見なくとも、例えば図4に示されるA〜D領域のいずれに向かっているか知ることができる。
また、指のスライド方向がタッチ領域に入り込んでいく場合において、指のタッチ位置とタッチセンサ11の端又は隅との距離に応じて、触感を呈示する振動パターンを変化させてもよい。例えば、指のタッチ位置がタッチセンサ11の端又は隅に近づくほど、触感群の周期を長く又は短くしてもよい。また、指のタッチ位置がタッチセンサ11の端又は隅に近づくほど触感の強度を強く又は弱くしてもよい。また、指のタッチ位置がタッチセンサ11の端又は隅に近づくほど、触感を呈示する振動の周波数を高く又は低くしてもよい。このように指のタッチ位置に応じて触感を変化させることで、ユーザは、指のタッチ位置からタッチセンサ11の端又は隅までの距離を知ることができる。
一例として、N領域の中央に近づくにつれて、触感の強度を弱くし、触感群の周期を短くし、触感を呈示する振動の周波数を低くすることが考えられる。一方で、A領域に含まれるタッチセンサ11の隅に近づくにつれて、触感の強度を強くし、触感群の周期を長くし、触感を呈示する振動の周波数を高くすることが考えられる。このように指のタッチ位置が中央付近であるか隅に近いかによって対照的な触感を呈示することで、ユーザがより明確にタッチ位置を感知することができる。
また、領域間をまたがって指がスライドされた場合、つまりタッチ領域が切り替わる場合、触感呈示部12は、領域の境界に対応する位置において凹凸感を呈示してもよい。このようにすることでユーザは、タッチ領域が切り替わったことを知ることができる。
図8のステップS43において、触感呈示部12が呈示する触感のパターンは、上記の例に限られるものではない。コントローラ10は、ステップS43の後、図7のステップS32に戻る。
以上図7及び図8を参照して、車両用コントロールユニット1の操作に係る制御方法について説明してきた。このようにすることで、ユーザはタッチセンサ11を見なくとも、車両用コントロールユニット1の機能に対応づけられる領域に向けて指をスライドすることができる。
[操作機能実行処理]
図7のステップS35においてタッチセンサ11への入力が確定した場合、コントローラ10は、入力が確定したタッチ領域に対応づけられる操作機能を実行する。例えば、カーナビゲーションシステムの操作機能が対応づけられているA領域への入力が確定した場合、コントローラ10は、タッチセンサ11の領域区分をナビの操作メニューに更新する。
またコントローラ10は、タッチセンサ11の領域区分がカーナビゲーションシステムの操作メニューに更新された後、さらに図7のフローチャートの処理を実行してタッチセンサ11への入力を受け付ける。例えば、地図の拡大に係る操作機能が対応づけられた領域への入力が確定した場合、コントローラ10は、地図の拡大を実行する。
またコントローラ10は、入力が確定した領域に対応づけられた操作機能の実行結果に応じて、触感呈示部12に所定の触感を呈示させるようにしてもよい。例えば、地図の拡大がこれ以上できない等の理由で入力された操作機能が実行できない場合、触感呈示部12は、低周波の振動を短時間(例えば50msec)に2回発生させて、「ブブ」という触感を呈示するようにしてもよい。なお、「ブブ」という触感は、ユーザの感じ方をオノマトペ(擬音語)で表現したものである。実際に触感を呈示するための駆動信号は例示した通りである。
また、入力された操作機能の実行を完了した場合、触感呈示部12は、単一周波数の正弦波振動を短時間(例えば50msec)発生させて、単調な触感を呈示するようにしてもよい。また触感呈示部12は、操作機能の実行結果に応じて、ドップラー曲線振動を発生させて触感を呈示するようにしてもよい。なお、触感を呈示するために発生されうる振動は、上述の振動に限られるものではない。
以上のような操作機能の実行結果に応じた触感は、ユーザが指で押圧を加えて入力を確定した後、指を離すまでの時間以内、例えば500msec以内に呈示されることが好ましい。このようにすることで、操作機能の実行結果をユーザに対して触感だけで通知できる。
以上、実施形態1に係る車両用コントロールユニット1について説明してきた。本実施形態に係る車両用コントロールユニット1は、タッチセンサ11にタッチしている指に触感を呈示することにより、ブラインドタッチで操作可能である。また本実施形態に係る車両用コントロールユニット1は、所定の操作により操作可能状態に遷移するので、ユーザが意図しないタイミングでタッチセンサ11に触れて誤操作することを避けることができる。
なお、図5〜図8を参照して説明してきた車両用コントロールユニット1の制御方法は、それぞれが並列的に実行されてもよい。
(実施形態2)
実施形態2に係る車両用コントロールユニット1は、表示部20をさらに備える。以下本実施形態に係る車両用コントロールユニット1について説明していく。
図9は、実施形態2に係る車両用コントロールユニット1の概略構成例を示す機能ブロック図である。本実施形態に係る車両用コントロールユニット1は、図1に示される機能ブロック図と比較して、表示部20をさらに備える。コントローラ10は、表示部20に文字又は画像等を表示させるための情報を出力する。タッチセンサ11等他の構成要素は、図1と同様であるため、説明を省略する。
表示部20は、コントローラ10から取得した情報に基づき、ユーザが視認できる文字又は画像等を表示させる。表示部20は、例えばヘッドアップディスプレイ(以下、HUDともいう)である。HUDは、車両のフロントウィンドシールドに画像を投射し、投射された画像の反射光を、虚像としてユーザに視認させるものである。また表示部20は、液晶ディスプレイ(LCD)、又は、有機若しくは無機ELディスプレイ等であってもよい。この場合表示部20は、ユーザが車両の運転中に視線を前方からできるだけ外さなくて済むように、車両のセンターコンソールの上部に設けられることが好ましい。
コントローラ10は、車両用コントロールユニット1がスタンバイ状態である場合、タッチセンサ11を押し込むことで操作可能状態に遷移することをユーザに知らせる情報を表示部20に表示させることができる。またコントローラ10は、車両用コントロールユニット1が操作可能状態である場合に、図4に示されるようなタッチセンサ11に設定された領域と操作機能との対応関係を表示部20に表示させることができる。図10は、表示部20に操作機能を表示させた例である。図4に示されるタッチセンサ11に設定された領域と比較すると、図4のA領域は、カーナビゲーションシステムの操作機能に対応づけられていることが分かる。また、図4のB、C、D領域はそれぞれ、エアコンディショナ、オーディオ/DVD、電話の操作機能に対応づけられていることが分かる。ユーザは、表示部20を確認することで、タッチセンサ11に設けられた領域と操作機能との対応関係を知ることができる。
このように表示部20をさらに備えることにより、ユーザは、車両用コントロールユニット1に実行させたい機能がタッチセンサ11のどの領域に対応づけられているかを車両前方から視線を大きく外すことなく確認することができる。
(変形例)
実施形態1において、図6のフローチャートを参照して、指がタッチセンサ11から所定時間以上離れた場合に車両用コントロールユニット1を操作可能状態からスタンバイ状態に遷移させる制御方法について説明した。変形例として、指がタッチセンサ11から離れてから車両用コントロールユニット1をスタンバイ状態に遷移させるまでの時間を変更する場合について説明する。
図11は、変形例に係る制御方法を示すフローチャートである。まずコントローラ10は、タッチセンサ11から情報を取得し、タッチセンサ11から指が離れたか否か判定する(ステップS51)。タッチセンサ11から指が離れることは、タッチセンサ11への入力がなくなることに含まれる。タッチセンサ11から指が離れていない場合(ステップS51:NO)、コントローラ10は、車両用コントロールユニット1を操作可能状態にしたままステップS51の動作を続ける。
タッチセンサ11から指が離れた場合(ステップS51:YES)、コントローラ10は、指が離れる直前にタッチしていた位置(以下、直前のタッチ位置ともいう)がN領域に含まれるか判定する(ステップS52)。直前のタッチ位置がN領域に含まれる場合(ステップS52:YES)、コントローラ10は、ステップS55における判定ステップの条件として用いられる第2の時間をT1に設定し(ステップS53)、ステップS55に進む。一方、直前のタッチ位置がN領域に含まれない場合(ステップS52:NO)、コントローラ10は、第2の時間をT2に設定し(ステップS54)、ステップS55に進む。
続いてコントローラ10は、指が第2の時間以上離れたか否か判定する(ステップS55)。ここで第2の時間とは、ステップS53で設定されたT1又はステップS54で設定されたT2である。指が第2の時間以上離れていない場合(ステップS55:NO)、つまり、指が第2の時間未満のうちに再度タッチした場合、コントローラ10は、指がタッチセンサ11から離れていないとみなして、ステップS51に戻る。
指が第2の時間以上離れた場合(ステップS55:YES)、コントローラ10は、車両用コントロールユニット1をスタンバイ状態に遷移させる(ステップS56)。その後、コントローラ10は、図11のフローチャートの処理を終了する。
以上、図11を参照して変形例に係る制御方法について説明してきた。上述のT1及びT2をどのように設定するか種々のバリエーションが考えられる。例えば、タッチ位置が操作機能に対応づけられていないN領域に含まれている場合、ユーザが車両用コントロールユニット1に何らかの操作機能を実行させようとしているか、まだ不明確である。つまりこの場合は、ユーザが具体的なアクションを起こす前である。よって無意識の操作を避けるために、第2の時間として設定されるT1は短い時間とされうる。
また例えば、タッチ位置が操作機能に対応づけられているA〜D領域に含まれている場合、ユーザが意識的に車両用コントロールユニット1に操作機能を実行させようとしている可能性がある。つまりこの場合は、ユーザが具体的なアクションを起こしている可能性が高い。よって操作の利便性を考慮して、第2の時間として設定されるT2はT1よりも長い時間とされうる。
本発明を諸図面や実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本発明の範囲に含まれることに留意されたい。例えば、各構成部、各ステップなどに含まれる機能などは論理的に矛盾しないように再配置可能であり、複数の構成部やステップなどを1つに組み合わせたり、或いは分割したりすることが可能である。また、本発明について装置を中心に説明してきたが、本発明は装置の各構成部が実行するステップを含む方法としても実現し得るものである。また、本発明について装置を中心に説明してきたが、本発明は装置が備えるプロセッサにより実行される方法、プログラム、又はプログラムを記録した記憶媒体としても実現し得るものであり、本発明の範囲にはこれらも包含されるものと理解されたい。
1 車両用コントロールユニット
10 コントローラ
11 タッチセンサ
12 触感呈示部
13 押圧検出部
14 記憶部
20 表示部
80 車両搭載機器
90 筐体
92 アッパーカバー
94 第1インシュレータ
96 第2インシュレータ

Claims (6)

  1. 車両搭載機器を操作する車両用コントロールユニットであって、
    所定の領域が設定されるタッチセンサと、
    前記タッチセンサを介してユーザに対して触感を呈示する触感呈示部と、
    前記タッチセンサに対する押圧を検出する押圧検出部と、
    前記押圧が第1の圧力以上となった場合、前記タッチセンサへの入力に応じて前記車両搭載機器の操作を可能にするコントローラと
    を備え、
    前記コントローラは、
    前記車両搭載機器の操作を可能にした場合、第1の時間内に前記車両搭載機器の操作を可能にしたことに対応する触感を前記触感呈示部に呈示させ、
    前記所定の領域から出ていく方向へ第1のスライドがあった場合、前記第1のスライドに対応する触感を前記触感呈示部に呈示させ、
    前記所定の領域へ入り込んでいく方向へ第2のスライドがあった場合、前記第2のスライドに対応する触感を前記触感呈示部に呈示させる
    車両用コントロールユニット。
  2. 前記タッチセンサは、複数の隅部を有し、
    前記所定の領域は、前記隅部の少なくとも1つを含むように設けられ、
    前記コントローラは、前記所定の領域に対する押圧が第2の圧力以上となった場合、前記所定の領域に対応づけられる操作機能を実行する、請求項1に記載の車両用コントロールユニット。
  3. 前記コントローラは、前記車両搭載機器の操作を可能にした後、前記タッチセンサへの入力がない状態が第2の時間続いた場合、前記タッチセンサへの入力に応じた前記車両搭載機器の操作をできなくする、請求項1又は2に記載の車両用コントロールユニット。
  4. 前記第2の時間は、前記タッチセンサへの入力がなくなる直前に入力があった位置が前記所定の領域に含まれる場合、前記所定の領域に含まれない場合よりも、長い時間に設定される、請求項3に記載の車両用コントロールユニット。
  5. 前記所定の領域に対応づけられる操作機能を表示する表示部をさらに備える、請求項1乃至4いずれか一項に記載の車両用コントロールユニット。
  6. 所定の領域が設定されるタッチセンサと、
    前記タッチセンサを介してユーザに対して触感を呈示する触感呈示部と、
    前記タッチセンサに対する押圧を検出する押圧検出部と、
    前記タッチセンサへの入力に応じて車両搭載機器の操作を可能にするコントローラと
    を備える車両用コントロールユニットの制御方法であって、
    前記押圧が第1の圧力以上となった場合、前記タッチセンサへの入力に応じて前記車両搭載機器の操作を可能にするステップと、
    前記車両搭載機器の操作を可能にした場合、第1の時間内に前記車両搭載機器の操作を可能にしたことに対応する触感を前記触感呈示部に呈示させるステップと、
    前記所定の領域から出ていく方向へ第1のスライドがあった場合、前記第1のスライドに対応する触感を前記触感呈示部に呈示させるステップと、
    前記所定の領域へ入り込んでいく方向へ第2のスライドがあった場合、前記第2のスライドに対応する触感を前記触感呈示部に呈示させるステップと
    を含む車両用コントロールユニットの制御方法。
JP2016032331A 2016-02-23 2016-02-23 車両用コントロールユニット及びその制御方法 Active JP6613170B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016032331A JP6613170B2 (ja) 2016-02-23 2016-02-23 車両用コントロールユニット及びその制御方法
US16/078,961 US10642381B2 (en) 2016-02-23 2017-02-07 Vehicular control unit and control method thereof
EP17756186.7A EP3422156B1 (en) 2016-02-23 2017-02-07 Control unit for vehicle and control method for the same
PCT/JP2017/004439 WO2017145745A1 (ja) 2016-02-23 2017-02-07 車両用コントロールユニット及びその制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016032331A JP6613170B2 (ja) 2016-02-23 2016-02-23 車両用コントロールユニット及びその制御方法

Publications (2)

Publication Number Publication Date
JP2017151638A true JP2017151638A (ja) 2017-08-31
JP6613170B2 JP6613170B2 (ja) 2019-11-27

Family

ID=59685129

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016032331A Active JP6613170B2 (ja) 2016-02-23 2016-02-23 車両用コントロールユニット及びその制御方法

Country Status (4)

Country Link
US (1) US10642381B2 (ja)
EP (1) EP3422156B1 (ja)
JP (1) JP6613170B2 (ja)
WO (1) WO2017145745A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3026867A1 (fr) * 2014-10-02 2016-04-08 Dav Dispositif et procede de commande pour vehicule automobile
FR3026866B1 (fr) * 2014-10-02 2019-09-06 Dav Dispositif et procede de commande pour vehicule automobile
JP2018005274A (ja) * 2016-06-27 2018-01-11 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
DE102017113659B4 (de) * 2016-12-16 2024-06-20 Bcs Automotive Interface Solutions Gmbh Kraftfahrzeugbedienvorrichtung
JP2019021144A (ja) * 2017-07-19 2019-02-07 株式会社デンソーテン 制御装置、制御方法および入力装置
US11709550B2 (en) * 2018-06-19 2023-07-25 Sony Corporation Information processing apparatus, method for processing information, and program
JP7141927B2 (ja) * 2018-11-26 2022-09-26 ホシデン株式会社 振動付与装置及び振動制御方法
JP2021103414A (ja) * 2019-12-25 2021-07-15 株式会社東海理化電機製作所 触覚呈示装置
WO2021183132A1 (en) * 2020-03-12 2021-09-16 Google Llc Controlling haptic feedback based on proximity of contact to sensor
WO2022009488A1 (ja) * 2020-07-08 2022-01-13 アルプスアルパイン株式会社 電子機器

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000194427A (ja) * 1998-12-25 2000-07-14 Tokai Rika Co Ltd タッチ操作入力装置
US20100013613A1 (en) * 2008-07-08 2010-01-21 Jonathan Samuel Weston Haptic feedback projection system
US20100259375A1 (en) * 2009-04-13 2010-10-14 Bran Ferren Customizable and reconfigurable virtual instrument panel
JP2011048675A (ja) * 2009-08-27 2011-03-10 Kyocera Corp 電子機器
JP2012027816A (ja) * 2010-07-27 2012-02-09 Kyocera Corp 触感呈示装置
JP2013080364A (ja) * 2011-10-04 2013-05-02 Mitsubishi Electric Corp 触覚提示入力装置
WO2015121964A1 (ja) * 2014-02-14 2015-08-20 富士通株式会社 入力装置
US20150309573A1 (en) * 2014-04-28 2015-10-29 Ford Global Technologies, Llc Automotive touchscreen controls with simulated texture for haptic feedback

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4675458B2 (ja) 2000-06-28 2011-04-20 京セラ株式会社 ハンズフリー装置
CN102473051A (zh) * 2009-07-29 2012-05-23 京瓷株式会社 输入装置和输入装置的控制方法
JP2011048686A (ja) * 2009-08-27 2011-03-10 Kyocera Corp 入力装置
US20110148774A1 (en) * 2009-12-23 2011-06-23 Nokia Corporation Handling Tactile Inputs
WO2011148650A1 (ja) * 2010-05-27 2011-12-01 京セラ株式会社 触感呈示装置
US9285881B2 (en) * 2011-01-27 2016-03-15 Kyocera Corporation Tactile sensation providing device
JPWO2013046670A1 (ja) * 2011-09-27 2015-03-26 京セラ株式会社 触感呈示装置
JP5519020B2 (ja) * 2011-10-27 2014-06-11 京セラ株式会社 入力装置および入力装置の制御方法
KR102058990B1 (ko) * 2012-09-19 2019-12-24 엘지전자 주식회사 모바일 디바이스 및 그 제어 방법
JP5884090B2 (ja) * 2013-04-18 2016-03-15 パナソニックIpマネジメント株式会社 情報を提示する方法および電子機器
JP6289100B2 (ja) * 2014-01-06 2018-03-07 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US10019155B2 (en) * 2014-06-30 2018-07-10 Honda Motor Co., Ltd. Touch control panel for vehicle control system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000194427A (ja) * 1998-12-25 2000-07-14 Tokai Rika Co Ltd タッチ操作入力装置
US20100013613A1 (en) * 2008-07-08 2010-01-21 Jonathan Samuel Weston Haptic feedback projection system
US20100259375A1 (en) * 2009-04-13 2010-10-14 Bran Ferren Customizable and reconfigurable virtual instrument panel
JP2011048675A (ja) * 2009-08-27 2011-03-10 Kyocera Corp 電子機器
JP2012027816A (ja) * 2010-07-27 2012-02-09 Kyocera Corp 触感呈示装置
JP2013080364A (ja) * 2011-10-04 2013-05-02 Mitsubishi Electric Corp 触覚提示入力装置
WO2015121964A1 (ja) * 2014-02-14 2015-08-20 富士通株式会社 入力装置
US20150309573A1 (en) * 2014-04-28 2015-10-29 Ford Global Technologies, Llc Automotive touchscreen controls with simulated texture for haptic feedback

Also Published As

Publication number Publication date
WO2017145745A1 (ja) 2017-08-31
US10642381B2 (en) 2020-05-05
EP3422156B1 (en) 2022-04-06
US20190050073A1 (en) 2019-02-14
JP6613170B2 (ja) 2019-11-27
EP3422156A4 (en) 2019-09-25
EP3422156A1 (en) 2019-01-02

Similar Documents

Publication Publication Date Title
JP6613170B2 (ja) 車両用コントロールユニット及びその制御方法
US10394375B2 (en) Systems and methods for controlling multiple displays of a motor vehicle
US9983672B2 (en) Electrostatic haptic actuator and user interface with an electrostatic haptic actuator
JP6147656B2 (ja) 入力装置
WO2016051440A1 (ja) 車両及びステアリングユニット
JP2017111462A (ja) 触感呈示装置及び触感呈示方法
WO2015019593A1 (ja) タッチパネル式入力装置、およびタッチパネル式入力方法
CN109564469B (zh) 显示操作装置
JP2017030746A (ja) 車両及びステアリングユニット
WO2014171096A1 (ja) 車載機器の制御装置、車載機器
US10664056B2 (en) Control device, input system and control method
WO2017145746A1 (ja) 車両用コントロールユニット
WO2019049375A1 (ja) 制御装置、電子機器、及び、電子機器の制御方法
JP2014100998A (ja) 操作支援システム、操作支援方法及びコンピュータプログラム
JP2017199200A (ja) タッチ操作デバイス
US12073069B2 (en) Control value setting device and control value setting program
JP6938426B2 (ja) 電子機器
WO2021132334A1 (ja) 触覚呈示装置及び触覚呈示方法
JP2018122827A (ja) 車載用情報入力装置および車載用情報入力システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191015

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191101

R150 Certificate of patent or registration of utility model

Ref document number: 6613170

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150