JPWO2016051440A1 - 車両及びステアリングユニット - Google Patents

車両及びステアリングユニット Download PDF

Info

Publication number
JPWO2016051440A1
JPWO2016051440A1 JP2014550572A JP2014550572A JPWO2016051440A1 JP WO2016051440 A1 JPWO2016051440 A1 JP WO2016051440A1 JP 2014550572 A JP2014550572 A JP 2014550572A JP 2014550572 A JP2014550572 A JP 2014550572A JP WO2016051440 A1 JPWO2016051440 A1 JP WO2016051440A1
Authority
JP
Japan
Prior art keywords
touch pad
gesture
steering wheel
unit
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014550572A
Other languages
English (en)
Inventor
和弘 村上
和弘 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Publication of JPWO2016051440A1 publication Critical patent/JPWO2016051440A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/10
    • B60K35/60
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D1/00Steering controls, i.e. means for initiating a change of direction of the vehicle
    • B62D1/02Steering controls, i.e. means for initiating a change of direction of the vehicle vehicle-mounted
    • B62D1/04Hand wheels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • B60K2360/1434
    • B60K2360/1472
    • B60K2360/782
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/602Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D1/00Steering controls, i.e. means for initiating a change of direction of the vehicle
    • B62D1/02Steering controls, i.e. means for initiating a change of direction of the vehicle vehicle-mounted
    • B62D1/04Hand wheels
    • B62D1/046Adaptations on rotatable parts of the steering wheel for accommodation of switches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/724098Interfacing with an on-board device of a vehicle

Abstract

安全性を向上可能な車両及びステアリングユニットを提供する。ステアリングホイール10と、ステアリングホイール10に配置されたタッチパッド12と、を備える車両1であって、車両1は、ステアリングホイール10のタッチパッド12に対する所定の圧力を検出すると、ステアリングホイール10のタッチパッド12へのジェスチャによる被制御装置30の制御を可能にし、ステアリングホイール10のタッチパッド12へのジェスチャに応じてタッチパッド12から触感を呈示する。

Description

本発明は、車両及びステアリングユニットに関する。
従来、タッチパッドを備えるステアリングホイールが知られている。例えば、特許文献1には、入力装置としてタッチパッドを設けたステアリングホイールが記載されている。特許文献1に記載された入力装置において、ドライバ(運転手)は、ステアリングホイールを握った状態で、タッチパッドに指を接触させて、例えばナビゲーション装置等の被制御装置の操作を行う。
特開2013−95289号公報
しかしながら、ドライバは、通常、ステアリングホイールを握った状態で運転するため、例えばドライバがステアリングホイールの操舵操作中に意図せずステアリングホイールに設けられたタッチパッドに触れる可能性がある。ドライバが意図せずタッチパッドに触れた場合、被制御装置に対してドライバが意図しない操作が行われる。被制御装置に対してドライバが意図しない操作が行われた場合、ドライバは、被制御装置に対して行われた操作に気を取られることがあるが、これは車両を運転するにあたり危険である。
また、ドライバは、タッチパッドへの操作を行った場合、被制御装置に対して意図した操作が行われたかを確認したいと考える場合がある。被制御装置が、例えば特許文献1に記載されるようなナビゲーション装置である場合、ドライバは、ナビゲーション装置の表示モニタを見ることにより、意図した操作が行われているか否かを確認することとなる。しかしながら、運転中は、安全の観点から車両の周囲を見る必要があるため、車両の周囲から目を離して、表示モニタ等の表示を見ることは危険である。
かかる事情に鑑みてなされた本発明の目的は、安全性を向上可能な車両及びステアリングユニットを提供することにある。
上記課題を解決するため、本発明に係る車両は、
ステアリングホイールと、
該ステアリングホイールに配置されたタッチパッドと、
を備え、
前記ステアリングホイールの前記タッチパッドに対する所定の圧力を検出すると、前記ステアリングホイールの前記タッチパッドへのジェスチャによる被制御装置の制御を可能にし、
前記ステアリングホイールの前記タッチパッドへの前記ジェスチャに応じて前記タッチパッドから触感を呈示することを特徴とする。
前記ステアリングホイールの前記タッチパッドへの前記ジェスチャに応じて異なる触感を呈示してもよい。
前記ステアリングホイールの前記タッチパッドへのジェスチャによる被制御装置の制御を可能にした後、前記タッチパッドに接触する接触物が前記タッチパッドから離れたことを検出すると、前記タッチパッドへのジェスチャによる被制御装置の制御を停止してもよい。
前記ステアリングホイールの前記タッチパッドへのジェスチャによる被制御装置の制御を可能にした後、前記タッチパッドに対する押圧が前記所定の圧力以下となったことを検出すると、前記タッチパッドへのジェスチャによる被制御装置の制御を停止してもよい。
また、本発明に係る車両は、
ステアリングホイールと、
該ステアリングホイールに配置されたタッチパッドと、
当該車両の制御を実行するメインECUと
を備える車両であって、
前記メインECUは、
前記ステアリングホイールの前記タッチパッドに対する所定の圧力を検出すると、前記ステアリングホイールの前記タッチパッドへのジェスチャによる被制御装置の制御を可能にし、
前記ステアリングホイールの前記タッチパッドへの前記ジェスチャに応じて前記タッチパッドから触感を呈示することを特徴とする。
また、本発明は上述した車両に実質的に相当するステアリングユニットとしても実現し得るものであり、本発明の範囲にはこれらも包含されるものと理解されたい。
例えば、本発明に係るステアリングユニットは、
ステアリングホイールと、
該ステアリングホイールに配置されたタッチパッドと、
を備えるステアリングユニットであって、
前記ステアリングユニットは、前記ステアリングホイールの前記タッチパッドに対する所定の圧力を検出すると、前記ステアリングホイールの前記タッチパッドへのジェスチャによる被制御装置の制御を可能にし、
前記ステアリングユニットは、前記ステアリングホイールの前記タッチパッドへの前記ジェスチャに応じて前記タッチパッドから触感を呈示することを特徴とする。
本発明に係る車両及びステアリングユニットによれば、安全性が向上する。
本発明の第1実施の形態に係る車両の概略構成を示す機能ブロック図である。 図1のステアリングホイールの一例を示す外観斜視図である。 タッチパッドへのジェスチャとスマートフォンの操作との対応関係の一例を示す図である。 ドライバによるタッチパッドへのジェスチャの一例を示す図である。 ドライバによるタッチパッドへのジェスチャの一例を示す図である。 ドライバによるタッチパッドへのジェスチャの一例を示す図である。 ドライバによるタッチパッドへのジェスチャの一例を示す図である。 ドライバによるタッチパッドへのジェスチャの一例を示す図である。 ドライバによるタッチパッドへのジェスチャの一例を示す図である。 ドライバによるタッチパッドへのジェスチャの一例を示す図である。 ドライバによるタッチパッドへのジェスチャの一例を示す図である。 タッチパッドへのジェスチャにより車両の表示部に表示される画像の一例を示す図である。 タッチパッドへのジェスチャにより車両の表示部に表示される画像の一例を示す図である。 タッチパッドへのジェスチャにより車両の表示部に表示される画像の一例を示す図である。 タッチパッドへのジェスチャにより車両の表示部に表示される画像の一例を示す図である。 図1の車両における処理の一例を示すフローチャートである。 本発明の第2実施の形態に係る車両の概略構成を示す機能ブロック図である。 本発明の第3実施の形態に係る車両の概略構成を示す機能ブロック図である。
以下、本発明の一実施の形態について、図面を参照して詳細に説明する。
(第1実施の形態)
図1は、本発明の第1実施の形態に係る車両の概略構成を示す機能ブロック図である。車両1は、ステアリングユニット10と、制御部20と、被制御装置30と、記憶部40とを備える。
ステアリングユニット10は、ステアリングホイール11を含む。本実施の形態において、ステアリングユニット10は、ステアリングホイール11のみにより構成される場合もある。ステアリングホイール11は、タッチパッド12と、触感呈示部13と、押圧検出部14とを備える。
図2は、図1のステアリングホイール11の一例を示す外観斜視図である。図2に示すように、ステアリングホイール11は、ドライバの手によって握られるリム部101、リム部101の中央に配置され、図示しないステアリングシャフトに接続されてエアバッグ装置及びホーンスイッチ等を収納するボス部102、及び、リム部101とボス部102とを連結する複数のスポーク部103を備える。図2のステアリングホイール11は、ボス部102から左右方向及び下方向に延びる3つのスポーク部103を備える。
ボス部102から左右に延びるスポーク部103には、それぞれタッチパッド12が配置される。タッチパッド12の配置は、図2に示すものに限られないが、ドライバがリム部101を握って運転する場合に、ドライバの指が接触可能な位置に設けられることが好ましい。本実施の形態に係る車両1に乗車したドライバは、ステアリング操作により車両1の操舵操作を行うとともに、タッチパッド12への指によるジェスチャ等の入力操作により制御部20を介して被制御装置30の操作を行うことができる。
タッチパッド12は、ドライバの指等の接触物の接触を検出する。タッチパッド12は、接触物の接触の位置(座標)を検出し、検出した接触に関する情報を制御部20に通知する。
触感呈示部13は、例えば圧電振動子等を用いて構成され、タッチパッド12を振動させる。触感呈示部13は、所定の振動パターンによる振動を発生させることにより、タッチパッド12に接触している接触物に対して触感を呈示する。本実施の形態において、触感呈示部13は、制御部20から供給される駆動信号に基づいて振動を発生する。すなわち、本実施の形態において、制御部20は、触感呈示部13が振動するように制御する。制御部20は、タッチパッド12において接触物が接触している位置(座標)に触感を呈示するように、触感呈示部13を振動させてもよい。また、制御部20は、タッチパッド12が検出する接触物の接触の位置及び後述するドライバのタッチパッド12へのジェスチャ等に応じて、触感呈示部13を駆動する駆動信号を異ならせるように制御することもできる。この場合、触感呈示部13は、タッチパッド12が検出する接触物の接触の位置及び後述するドライバのタッチパッド12へのジェスチャ等に応じて、異なる振動パターンで振動する。触感呈示部13は、制御部20から印加される駆動信号に基づき、異なる振幅及び周波数等の振動を行うことで、多様な振動パターンを再現する。タッチパッド12は、押圧されても、例えば押しボタンスイッチのような物理的な変化は生じないため、触感呈示部13を備えない場合には、ドライバは、押圧が入力されたか否かを、押圧の結果として行われる制御の出力を確認する必要がある。しかし、本実施形態に係る車両1では、ドライバは、触感呈示部13が発生させる振動(触覚)により、目視確認によらず、自らがタッチパッド12に行った操作を確認できる。
押圧検出部14は、ドライバの指等の接触物からタッチパッド12への押圧を検出するもので、例えば、押圧に応じて物理的又は電気的な特性(歪み、抵抗、電圧等)が変化する歪みゲージセンサや圧電素子等の素子等を用いて構成される。押圧検出部14が、例えば、圧電素子等を用いて構成された場合、押圧検出部14の圧電素子は、タッチパッド12に対する押圧に係る荷重(力)の大きさ(又は、荷重(力)の大きさが変化する速さ(加速度))に応じて、電気的な特性である電圧の大きさ(電圧値(以下、押圧に関する情報と称する))が変化する。
制御部20は、押圧検出部14が押圧に関する情報を制御部20に通知することにより、又は、制御部20が押圧検出部14の押圧に関する情報を検出することにより、当該押圧に関する情報を取得する。つまり、制御部20は、タッチパッド12に対する押圧に関する情報を押圧検出部14から取得する。なお、押圧に関する情報は、電圧値の代わりに、押圧に係る荷重の大きさ、電力値、抵抗値等でもよい。
なお、触感呈示部13と押圧検出部14は、一体化して構成することもできる。特に、押圧検出部14及び触感呈示部13は、圧電素子を用いて構成する場合は、圧電素子を共用して押圧検出部兼触感呈示部として構成することもできる。圧電素子は、圧力が加わると電圧を発生し、電圧が加えられると変形するためである。
また、図2に示すようにタッチパッド12がステアリングホイール11に複数個配置されている場合、ステアリングホイール11は、触感呈示部13と押圧検出部14とを、それぞれ複数個(タッチパッド12と同数)備えていてもよい。各押圧検出部14は、各タッチパッド12に対応付けられており、対応付けられたタッチパッド12への押圧を検出する。また、各触感呈示部13は、各タッチパッド12に対応付けられており、対応付けられたタッチパッド12を振動させる。
制御部20は、車両1の全体を制御及び管理するプロセッサである。制御部20は、制御手順を規定したプログラムを実行するCPU(Central Processing Unit)等のプロセッサで構成され、かかるプログラムは、例えば記憶部40等に格納される。車両1において、制御部20は、特にECU(Electric Control Unit又はEngine Control Unit)により構成される。ECUは、車両1を制御する。すなわち、ECUは、車両1に関連して使用される被制御装置30の制御を行う。制御部20は、1つのECUにより構成されていてもよく、例えば車両1の全体を制御するメインECU及び一部の被制御装置30の制御を行う複数のサブECUにより構成されていてもよい。
制御部20は、押圧検出部14から取得した押圧に関する情報に基づき、タッチパッド12に対する所定の圧力(第1の圧力)を検出すると、タッチパッド12へのジェスチャによる被制御装置30の制御を可能にする。すなわち、制御部20は、タッチパッド12への第1の圧力を検出すると、ドライバからタッチパッド12へのジェスチャによる操作を受け付け可能にする。制御部20は、タッチパッド12へのジェスチャによる被制御装置30の制御を可能にした状態で、タッチパッド12へのジェスチャを検出すると、被制御装置30に対して当該ジェスチャに応じた制御を実行する。また、制御部20は、タッチパッド12へのジェスチャに応じて、触感呈示部13を駆動する駆動信号を生成し、当該駆動信号を触感呈示部13に印加する。
制御部20は、ドライバによるタッチパッド12への押圧により、タッチパッド12へのジェスチャによる被制御装置30の制御を可能にした後、指等の接触物がタッチパッド12から離れるまで、タッチパッド12へのジェスチャによる被制御装置30の制御を可能な状態として継続させる。そして、制御部20は、タッチパッド12へのジェスチャによる被制御装置30の制御を可能にした後、タッチパッド12から接触物が離れたことを検出すると、タッチパッド12へのジェスチャによる被制御装置30の制御を受け付けない状態にする。すなわち、制御部20は、指等の接触物がタッチパッド12から離れたことを検出すると、タッチパッド12へのジェスチャによる被制御装置30の制御を停止させる。ドライバがタッチパッド12から指等の接触物を離すと、タッチパッド12へのジェスチャによる被制御装置30の操作ができない状態となる。
被制御装置30は、例えば、トランスミッション、カーエアコンディショナ、パワーウィンドウ、カーナビゲーションシステム、カーオーディオ、ヘッドアップディスプレイ等をはじめ、車両1に関連して使用される任意の装置である。被制御装置30は、車両1に予め備え付けられた装置に限られない。被制御装置30は、例えばドライバの携帯電話機又はタブレット端末等、車両1が有する接続インタフェースを介して接続可能な外部の機器であってもよい。ドライバは、タッチパッド12へのジェスチャにより、車両1に接続された外部機器を操作できる。
記憶部40は、半導体メモリ又は磁気メモリ等で構成することができ、各種情報や制御部20により実行される制御プログラム等を記憶する。記憶部40は、例えば、制御部20が被制御装置30に対して実行する制御の内容と、触感呈示部13から呈示させる振動パターンとの組合せを記憶する。
次に、ドライバがタッチパッド12に行うジェスチャ等の操作及び当該操作に基づいて制御部20が行う処理ついて説明する。
ドライバは、運転中にタッチパッド12から操作を行う場合、ステアリングホイール11のリム部101を握ったまま、両手の指でタッチパッド12を押圧する。制御部20は、押圧検出部14が検出したタッチパッド12への押圧に関する情報を取得する。制御部20は、取得した押圧に関する情報に基づき、タッチパッド12への押圧が第1の圧力であることを検出すると、タッチパッド12へのジェスチャによる被制御装置30の制御を可能にする。例えば、制御部20は、タッチパッド12への押圧が第1の圧力であることを検出すると、タッチパッド12へのジェスチャによる操作を受付可能にする。第1の圧力は、例えば予め定められた所定の基準以上の圧力であり、適宜設定することができる。
制御部20は、タッチパッド12へのジェスチャによる被制御装置30の制御を可能にするとともに、触感呈示部13を駆動する駆動信号を生成する。触感呈示部13は、制御部20からの駆動信号に基づき、所定の振動パターンで振動する。
タッチパッド12へのジェスチャによる被制御装置30の制御が可能になると、ドライバは、指をタッチパッド12に接触させている間、タッチパッド12へのジェスチャを行うことで、被制御装置30を操作できる。被制御装置30を操作するためにドライバが行うタッチパッド12へのジェスチャは、操作内容ごとに任意のジェスチャとすることができる。ここで、現在ではスマートフォン等、指の動作により操作を行うことが可能な電子機器が普及していることに鑑みれば、車両1における被制御装置30を操作するためのジェスチャをスマートフォンのような電子機器の操作に対応させると、ドライバにとってなじみやすいと考えられる。以下、車両1の被制御装置30を操作するためのタッチパッド12へのジェスチャをスマートフォンの操作に対応させて説明する。
図3は、タッチパッド12へのジェスチャとスマートフォンの操作との対応関係の一例を示す図である。図3に示す対応関係は一例であり、タッチパッド12へのジェスチャとスマートフォンの操作との対応関係は図3に示すものに限られない。図3に示す対応関係について、順に説明する。
図3に記載のように、左右のスポーク部103に配置されたタッチパッド12の双方を略同時に押圧するジェスチャは、例えばスマートフォンにおけるダブルタップ操作に対応する。図4は、左右のタッチパッド12の双方を略同時に押圧するジェスチャを模式的に示す図である。制御部20は、ドライバによる左右のタッチパッド12を略同時に押圧するジェスチャに基づいて押圧検出部14が検出したタッチパッド12への押圧に関する情報を取得する。制御部20は、取得した押圧に関する情報に基づき、左右のタッチパッド12への押圧が、ともに第2の圧力であることを検出すると、ジェスチャに対応する制御を行う。例えば、当該ジェスチャに対応する制御を「周辺監視機能の実行」とする。制御部20は、当該ジェスチャに応じて、例えば車両1が備えるカメラが撮影した車両1の周囲の画像を、表示部に表示させる。制御部20は、左右のタッチパッド12の双方を略同時に押圧するジェスチャにより、機能の実行の他、ジェスチャに対応付けられた任意の制御を実行する。なお、第2の圧力は、例えば予め定められた所定の基準以上の圧力である。第2の圧力は、第1の圧力よりも高い圧力を基準としてもよい。
また、制御部20は、タッチパッド12へのジェスチャに応じて、触感呈示部13を駆動する駆動信号を生成する。制御部20が生成した信号を触感呈示部13に印加すると、触感呈示部13が所定の振動パターンで振動する。例えば、触感呈示部13は、押圧検出部14が所定の圧力を検出した後に、所定の駆動をすると、ドライバに、実際の機械式のキーやボタンを押した場合に得られるようなリアルな触感を呈示することができる。ドライバは、触感呈示部13からタッチパッド12に接触する指への振動により、目視確認によらず、タッチパッド12へのジェスチャが受け付けられたことを確認できる。
図3に記載のように、左右のスポーク部103に配置されたタッチパッド12のいずれか一方を押圧するジェスチャは、例えばスマートフォンにおけるタップ操作に対応する。図5は、一方のタッチパッド12を押圧するジェスチャを模式的に示す図である。制御部20は、ドライバによる一方のタッチパッド12を押圧するジェスチャに基づいて押圧検出部14が検出したタッチパッド12への押圧に関する情報を取得する。制御部20は、取得した押圧に関する情報に基づき、タッチパッド12への押圧が、第3の圧力であることを検出すると、ジェスチャに対応する制御を行う。制御部20は、例えば図4に示したジェスチャにより実行された被制御装置30の機能において、モードの実行を制御する。例えば、図4に示したジェスチャにより実行された周辺監視機能において、ドライバは、複数のカメラから合成された車両1の俯瞰画像(いわゆるアラウンドビュー画像)と、1つのカメラが撮影する前方(又は後方)の画像とのいずれかを、表示部に表示させることができる。制御部20は、左右の一方のタッチパッド12を押圧するジェスチャに基づいて、選択されている画像を表示部に表示させる。ここでは、ドライバは、俯瞰画像を選択していたとする。図10は、ドライバのジェスチャにより表示部に表示している俯瞰画像の一例である。
なお、第3の圧力は、例えば予め定められた所定の基準以上の圧力である。第3の圧力は、第1の圧力よりも高い圧力を基準としてもよい。また、第3の圧力は、第2の圧力と同じ圧力を基準としてもよい。また、制御部20は、左のタッチパッド12を押圧するジェスチャがあった場合と、右のタッチパッド12を押圧するジェスチャがあった場合とで、同一の制御を行ってもよい。制御部20は、左右いずれのタッチパッド12が押圧されたかに基づき、異なる制御を行ってもよい。
制御部20は、タッチパッド12へのジェスチャに応じて、触感呈示部13を駆動する駆動信号を生成する。制御部20で生成された駆動信号が触感呈示部13に印加されると、触感呈示部13は所定の振動パターンで振動する。この場合、制御部20は、左右のタッチパッド12のうち押圧を検出したタッチパッド12を振動させるように、触感呈示部13に駆動信号を印加してもよい。触感呈示部13は、押圧検出部14が所定の圧力を検出した後に、所定の駆動をすると、ドライバに、実際の機械式のキーやボタンを押した場合に得られるようなリアルな触感を呈示する。ドライバは、触感呈示部13からタッチパッド12に接触する指への振動により、目視確認によらず、一方のタッチパッド12へのジェスチャが受け付けられたことを確認できる。
図3に記載のように、左右のスポーク部103に配置されたタッチパッド12にそれぞれ接触している左右の指を近づけるジェスチャは、例えばスマートフォンにおけるピンチイン操作に対応する。図6は、左右の指を近づけるジェスチャを模式的に示す図である。制御部20は、タッチパッド12から指の位置(座標)の変位に関する情報を取得する。制御部20は、取得した変位に関する情報に基づき、左右の指の位置が近づいていることを検出すると、ジェスチャに対応する制御を行う。制御部20は、例えば図6に示すジェスチャにより、表示部に表示された俯瞰画像を縮小する制御を行う。例えば、表示部に図10に示す俯瞰画像が表示されている場合に、ドライバが左右の指を近づけるジェスチャを行ったとする。この場合、制御部20は、画像処理により表示部に表示された俯瞰画像を縮小し、例えば図11に示す俯瞰画像を表示部に表示させる制御を行う。
制御部20は、タッチパッド12へのジェスチャに応じて、触感呈示部13を駆動する駆動信号を生成する。制御部20で生成された駆動信号が触感呈示部13に印加されると、触感呈示部13は所定の振動パターンで振動する。触感呈示部13は、押圧検出部14が所定の圧力を検出した後に、所定の駆動をすると、ドライバに、なぞるような触感を呈示する。制御部20は、ドライバが左右の指を近づけるジェスチャを行っている間、継続してタッチパッド12を振動させるように、触感呈示部13に駆動信号を印加して、触感呈示部13を振動させてもよい。ドライバは、触感呈示部13からタッチパッド12に接触する指への振動により、目視確認によらず、タッチパッド12へのジェスチャが受け付けられていることを確認できる。
図3に記載のように、左右のスポーク部103に配置されたタッチパッド12にそれぞれ接触している左右の指を遠ざけるジェスチャは、例えばスマートフォンにおけるピンチアウト操作に対応する。図7は、左右の指を遠ざけるジェスチャを模式的に示す図である。制御部20は、タッチパッド12から指の位置(座標)の変位に関する情報を取得する。制御部20は、取得した変位に関する情報に基づき、左右の指の位置が遠ざかっていることを検出すると、ジェスチャに対応する制御を行う。制御部20は、例えば図7に示すジェスチャにより、表示部に表示された俯瞰画像を拡大する制御を行う。例えば、表示部に図10に示す俯瞰画像が表示されている場合に、ドライバが左右の指を遠ざけるジェスチャを行ったとする。この場合、制御部20は、画像処理により表示部に表示された俯瞰画像を拡大し、例えば図12に示す俯瞰画像を表示部に表示させる制御を行う。
制御部20は、タッチパッド12へのジェスチャに応じて、触感呈示部13を駆動する駆動信号を生成する。制御部20で生成された駆動信号が触感呈示部13に印加されると、触感呈示部13は所定の振動パターンで振動する。触感呈示部13は、押圧検出部14が所定の圧力を検出した後に、所定の駆動をすると、ドライバに、なぞるような触感を呈示する。制御部20は、ドライバが左右の指を遠ざけるジェスチャを行っている間、継続してタッチパッド12を振動させるように、触感呈示部13に駆動信号を印加して、触感呈示部13を振動させてもよい。ドライバは、触感呈示部13からタッチパッド12に接触する指への振動により、目視確認によらず、タッチパッド12へのジェスチャが受け付けられていることを確認できる。
図3に記載のように、左右のスポーク部103に配置されたタッチパッド12にそれぞれ接触している左右の指をスライドさせるジェスチャは、例えばスマートフォンにおけるスワイプ操作に対応する。図8は、左右の指を上方向にスライドさせるジェスチャを模式的に示す図である。制御部20は、タッチパッド12から指の位置(座標)の変位に関する情報を取得する。制御部20は、取得した変位に関する情報に基づき、左右の指が上方向に変位していることを検出すると、ジェスチャに対応する制御を行う。制御部20は、例えば図8に示すジェスチャにより、表示部に表示された俯瞰画像により表示される範囲を移動させる制御を行う。例えば、表示部に図10に示す俯瞰画像が表示されている場合に、ドライバが左右の指を上方向にスライドさせるジェスチャを行ったとする。この場合、制御部20は、画像処理により表示部に表示される範囲を車両1の後方側に移動させ、例えば図13に示す俯瞰画像を表示部に表示させる制御を行う。
なお、左右の指をスライドさせるジェスチャは、上方向のスライドに限られない。左右の指をスライドさせるジェスチャは、図9A、図9B及び図9Cにそれぞれ示すように、下方向、右方向及び左方向にスライドさせるものであってもよい。また、左右の指をスライドさせるジェスチャは、図8、図9A、図9B及び図9Cに示された上下左右方向だけではなく、任意の方向にスライドさせるものであってもよい。制御部20は、タッチパッド12において指がスライドした方向を検出し、検出した方向に応じて、俯瞰画像の表示範囲を移動させる制御を行う。
制御部20は、タッチパッド12へのジェスチャに応じて、触感呈示部13を駆動する駆動信号を生成する。制御部20で生成された駆動信号が触感呈示部13に印加されると、触感呈示部13は所定の振動パターンで振動する。触感呈示部13は、押圧検出部14が所定の圧力を検出した後に、所定の駆動をすると、ドライバに、なぞるような触感を呈示する。制御部20は、ドライバが左右の指をスライドさせるジェスチャを行っている間、継続してタッチパッド12を振動させるように触感呈示部13に駆動信号を印加して、触感呈示部13を振動させてもよい。ドライバは、触感呈示部13からタッチパッド12に接触する指への振動により、目視確認によらず、左右の指をスライドさせるジェスチャが受け付けられていることを確認できる。また、制御部20は、ドライバの指が移動する方向に応じて、異なる振動パターンで触感呈示部13を振動させてもよい。これにより、ドライバは指をスライドさせた方向に応じた制御が実行されているか否かについても、目視確認によらず、タッチパッド12へのジェスチャが受け付けられていることを確認できる。
図3に記載のように、左右のスポーク部103に配置されたタッチパッド12にそれぞれ接触している左右の指をフリックするジェスチャは、例えばスマートフォンにおけるフリック操作に対応する。ドライバは、例えば指を上方向にフリックする場合、タッチパッド12に接触させたまま指を上方向に移動させながら、途中でタッチパッド12から指を離す。制御部20は、タッチパッド12から指の位置(座標)の変位に関する情報と、タッチパッド12への指の接触に関する情報とを取得する。制御部20は、取得した変位に関する情報と、指の接触に関する情報とに基づき、指がタッチパッド12から離れたときの上方向への加速度を検出し、検出した変位の方向と加速度とに基づく制御を行う。制御部20は、例えば表示部に表示された俯瞰画像により表示される範囲を、検出した加速度に応じた速度で移動させる制御を行う。制御部20は、画面の表示範囲の移動を、所定の加速度で減速させ、やがて静止させる。例えば、表示部に図10に示す俯瞰画像が表示されている場合に、ドライバが左右の指を上方向にフリックさせるジェスチャを行ったとする。この場合、制御部20は、画像処理により表示部に表示される範囲を車両1の後方側に所定の速度で移動を開始させ、例えば図13に示す俯瞰画像を表示部に表示させた状態で静止させる制御を行う。
左右の指をフリックするジェスチャについても、ドライバは任意の方向に行うことができる。
制御部20は、タッチパッド12へのジェスチャに応じて、触感呈示部13を駆動する駆動信号を生成する。制御部20で生成された駆動信号が触感呈示部13に印加されると、触感呈示部13は所定の振動パターンで振動する。制御部20は、ドライバの指がタッチパッド12に接触したまま移動している間、触感呈示部13に駆動信号を印加して、触感呈示部13を振動させる。制御部20は、ドライバの指がタッチパッド12から離れるときに、さらに触感呈示部13に駆動信号を印加して、触感呈示部13を振動させる。ドライバの指がタッチパッド12から離れるときに触感呈示部13に印加される駆動信号は、ドライバの指がタッチパッド12に接触したまま移動している間に触感呈示部13に印加される駆動信号と異なるものであってもよい。ドライバは、触感呈示部13からタッチパッド12に接触する指への振動により、目視確認によらず、タッチパッド12へのジェスチャが受け付けられていることを確認できる。
また、制御部20は、ドライバの指が移動する方向に応じて、異なる振動パターンで触感呈示部13を振動させてもよい。これにより、ドライバは指をフリックさせた方向に応じた制御が実行されているか否かについても、目視確認によらず、指への振動により確認できる。
以上、ドライバが行うジェスチャと制御部20が行う制御とについて説明したが、ジェスチャに基づく制御部20による制御は、上述のものに限られない。制御部20は、ジェスチャに対応付けられた任意の制御を行うことができる。
一例として、ドライバがタッチパッド12へのジェスチャにより、被制御装置30であるカーオーディオを操作する場合について簡単に説明する。ドライバは、タッチパッド12への押圧により、ジェスチャによる被制御装置30の制御が可能となった状態において、例えば、左右のスポーク部103に配置されたタッチパッド12の双方又はいずれか一方を押圧することにより、カーオーディオにより再生させる曲を選択する。ドライバは、タッチパッド12に接触している左右の指を上下にスライドさせるジェスチャにより、再生音量を上げたり下げたりできる。また、ドライバは、タッチパッド12に接触している左右の指をフリックするジェスチャにより、再生している曲のトラックを変更できる。
制御部20は、例えばドライバの左右の指をスライドさせるジェスチャ又は左右の指をフリックするジェスチャにより、被制御装置30が備える複数の機能をドライバに選択させる制御を行ってもよい。
また、ドライバが行うジェスチャは、図4乃至図9を参照して説明した上述のジェスチャに限られない。ドライバは、制御部20に所定の制御を実行させる任意のジェスチャを、タッチパッド12を用いて行うことができる。
次に、車両1における処理について説明する。図14は、図1に示す車両1における処理の一例を示すフローチャートである。
まず、車両1の制御部20は、タッチパッド12からの信号(接触に関する情報)に基づき、タッチパッド12において接触が検出されているか否かを判定する(ステップS101)。
制御部20は、タッチパッド12において接触が検出されていないと判定した場合(ステップS101のNo)、タッチパッド12において接触が検出されていると判定するまで、ステップS101を繰り返す。
制御部20は、タッチパッド12において接触が検出されていると判定した場合(ステップS101のYes)、押圧検出部14からの信号(押圧に関する情報)に基づき、タッチパッド12にドライバの指等による押圧が検出されたか否かを判定する(ステップS102)。
制御部20は、タッチパッド12に押圧が検出されたと判定すると(ステップS102のYes)、タッチパッド12へのジェスチャによる被制御装置30の制御を可能な状態にする(ステップS103)。すなわち、制御部20は、タッチパッド12へのジェスチャによる被制御装置30の制御が可能な状態になる。
また、制御部20は、タッチパッド12へのジェスチャが入力されたことを示す駆動信号を、触感呈示部13に印加する(ステップS104)。駆動信号が印加された触感呈示部13は、駆動信号に基づいて振動する。ドライバは、振動を指で感知することにより、タッチパッド12へのジェスチャによる被制御装置30の制御が可能な状態になったことを確認できる。
次に、制御部20は、タッチパッド12及び押圧検出部14からの信号に基づき、タッチパッド12にドライバの指等によるジェスチャが検出されたか否かを判定する(ステップS105)。
制御部20は、タッチパッド12にジェスチャが検出されたと判定した場合(ステップS105のYes)、ジェスチャに基づく制御を実行する(ステップS106)。すなわち、制御部20は、ジェスチャに応じて、被制御装置30を制御する。
また、制御部20は、タッチパッド12へのジェスチャが入力されたことを示す駆動信号を、触感呈示部13に印加する(ステップS107)。駆動信号が印加された触感呈示部13は、駆動信号に基づいて振動する。ドライバは、振動を指で感知することにより、ジェスチャに基づく制御が行われたことを確認できる。
制御部20は、タッチパッド12からドライバの指が離れた場合、ジェスチャによる被制御装置30の制御を停止する(ステップS108)。制御部20は、ジェスチャによる被制御装置30の制御を停止した場合、再度ジェスチャによる被制御装置30の制御を可能にするまで、ドライバがタッチパッド12にジェスチャを行っても、ジェスチャに基づく制御を実行しない。
なお、ステップS105において、制御部20が、タッチパッド12にジェスチャが検出されていないと判定した場合(ステップS105のNo)、このフローは、ステップS108に移行する。
また、ステップS102において、制御部20が、タッチパッド12に押圧が検出されていないと判定すると(ステップS102のNo)、このフローは終了する。
制御部20は、このフローが終了した場合、このフローを繰り返し実行してもよい。
このように、本実施の形態に係る車両1は、ステアリングホイール11に設けられたタッチパッド12に対するドライバによる押圧を検出した場合に、タッチパッド12へのジェスチャによる被制御装置30の制御を可能にする。そのため、ドライバが、例えばステアリングホイールの操舵操作中に意図せずタッチパッド12に触れた場合であっても、タッチパッド12へのジェスチャによる被制御装置30の制御が可能な状態でない場合、ドライバが意図しない制御は実行されない。そのため、本実施の形態に係る車両1によれば、ドライバが意図しない操作が行われにくくなる。
また、本実施の形態に係る車両1は、タッチパッド12へのジェスチャが入力された場合、触感呈示部13が、タッチパッド12へのジェスチャに応じて触感を呈示する。そのため、ドライバは、タッチパッド12への押圧やジェスチャが入力されたか否かを、目視確認によらず、触感により確認できる。特に、ドライバは、操作に基づく処理が実行されたか否かを確認したい場合、無意識に目視確認を行うことがあるが、本実施の形態に係る車両1によれば、かかる無意識の目視確認を減らしやすくなる。これにより、本実施の形態に係る車両1は、従来の車両と比較して安全性を向上可能である。
(第2実施の形態)
図15は、本発明の第2実施の形態に係る車両1の概略構成を示す機能ブロック図である。車両1は、第1実施の形態と同様に、ステアリングホイール11と、制御部(第1制御部)20と、被制御装置30と、記憶部40とを備える。以下、第1実施の形態と同じ点については説明を省略し、異なる点について説明を行う。
第2実施の形態において、ステアリングホイール11は、タッチパッド12、触感呈示部13及び押圧検出部14に加え、第2制御部15を備える。第2制御部15は、ドライバからタッチパッド12に行われる押圧及びジェスチャの操作を検出し、触感呈示部13に駆動信号を印加するサブECUとして機能する。第2制御部15は、タッチパッド12における押圧及びジェスチャの操作を検出すると、当該検出した操作を、メインECUである第1制御部20に伝達する。第1制御部20は、被制御装置30に対してタッチパッド12における押圧及びジェスチャの操作に基づく制御を実行させる。
また、第2制御部15は、検出したタッチパッド12における押圧及びジェスチャの操作に応じて、駆動信号を触感呈示部13に印加する。そのため、ドライバは、タッチパッド12へのジェスチャが入力されたことを、駆動信号が印加された触感呈示部13の振動を感知することにより、目視確認によらず、指への振動により確認できる。このように、本実施形態では、タッチパッド12に関する処理をサブECUである第2制御部15により実行することができる。
(第3実施の形態)
図16は、本発明の第3実施の形態に係る車両1の概略構成を示す機能ブロック図である。車両1は、ステアリングホイール11と、制御部(第1制御部)20と、被制御装置30と、記憶部40と、携帯電話機50とを備える。携帯電話機50は、車両1に関連して使用される被制御装置30の一例であるが、第3実施の形態における携帯電話機50は、第1制御部20に直接接続されていない。以下、第1実施の形態と同じ点については説明を省略し、異なる点について説明を行う。
第3実施の形態において、ステアリングホイール11は、タッチパッド12、触感呈示部13及び押圧検出部14に加え、第2制御部15及び通信部16を備える。第2制御部15は、ドライバからタッチパッド12に行われる押圧及びジェスチャの操作を検出し、触感呈示部13に駆動信号を印加するサブECUとして機能する。通信部16は、例えばBluetooth(登録商標)等の無線により、外部機器の1つである携帯電話機50と通信を行う。第2制御部15は、ドライバからタッチパッド12に行われる押圧及びジェスチャの操作を検出し、触感呈示部13に駆動信号を印加するサブECUとして機能する。第2制御部15は、タッチパッド12における押圧及びジェスチャの操作を検出すると、当該検出した操作に関する信号を、通信部16から、携帯電話機50に送信する。
携帯電話機50は、通信部51及び制御部52を備える。携帯電話機50では、通信部51が、ステアリングホイール11からの操作に関する信号を受信し、制御部52が、信号に基づいて携帯電話機50を制御する。制御部52は、例えば、携帯電話機50において実行可能なアプリケーションを起動する。
このように、ドライバは、ステアリングホイール11と特定の外部機器とを接続することにより、車両1に搭載された被制御装置30だけでなく、車両1に関連して使用される装置(外部機器)を操作できる。
本発明は、上記実施の形態にのみ限定されるものではなく、幾多の変形又は変更が可能である。例えば、各構成部、各ステップ等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の構成部やステップ等を1つに組み合わせたり、或いは分割したりすることが可能である。
例えば、第1実施の形態において、制御部20は、指がタッチパッド12から離れたことを検出すると、タッチパッド12へのジェスチャによる被制御装置30の制御を停止させると説明したが、タッチパッド12へのジェスチャによる被制御装置30の制御の停止は、これに限られない。例えば、制御部20は、タッチパッド12への押圧が第1の圧力以下となったとき、タッチパッド12へのジェスチャによる被制御装置30の制御を停止させてもよい。すなわち、制御部20は、タッチパッド12が第1の圧力以上の押圧を受けている間のみ、タッチパッド12へのジェスチャによる被制御装置30の制御を可能な状態を継続させる。この場合、ドライバは、タッチパッド12への押圧をかけながらジェスチャを行う。
また、図8及び図9において説明したスライドおよびフリックのジェスチャについて、ドライバは、左右いずれかの指でジェスチャを行ってもよい。
1 車両
10 ステアリングユニット
101 リム部
102 ボス部
103 スポーク部
11 ステアリングホイール
12 タッチパッド
13 触感呈示部
14 押圧検出部
15 第2制御部
16、51 通信部
20 制御部(第1制御部)
30 被制御装置
40 記憶部
50 携帯電話機
52 制御部
上記課題を解決するため、本発明に係る車両は、
ステアリングホイールと、
該ステアリングホイールに配置されたタッチパッドと、
を備え、
前記ステアリングホイールの前記タッチパッドに対する所定の圧力を検出すると、前記ステアリングホイールの前記タッチパッドへのジェスチャによる被制御装置の制御を可能にし、
前記被制御装置の制御を可能にした後、前記ステアリングホイールの前記タッチパッドに対する所定以上の圧力を検出すると、当該圧力検出に対応する機能を実行し、
前記ステアリングホイールの前記タッチパッドへの前記ジェスチャに応じて前記タッチパッドから触感を呈示することを特徴とする。
また、本発明に係る車両は、
ステアリングホイールと、
該ステアリングホイールに配置されたタッチパッドと、
当該車両の制御を実行するメインECUと
を備える車両であって、
前記メインECUは、
前記ステアリングホイールの前記タッチパッドに対する所定の圧力を検出すると、前記ステアリングホイールの前記タッチパッドへのジェスチャによる被制御装置の制御を可能にし、
前記被制御装置の制御を可能にした後、前記ステアリングホイールの前記タッチパッドに対する所定以上の圧力を検出すると、当該圧力検出に対応する機能を実行し、
前記ステアリングホイールの前記タッチパッドへの前記ジェスチャに応じて前記タッチパッドから触感を呈示することを特徴とする。
例えば、本発明に係るステアリングユニットは、
ステアリングホイールと、
該ステアリングホイールに配置されたタッチパッドと、
を備えるステアリングユニットであって、
前記ステアリングユニットは、
前記ステアリングホイールの前記タッチパッドに対する所定の圧力を検出すると、前記ステアリングホイールの前記タッチパッドへのジェスチャによる被制御装置の制御を可能にし、
前記被制御装置の制御を可能にした後、前記ステアリングホイールの前記タッチパッドに対する所定以上の圧力を検出すると、当該圧力検出に対応する機能を実行し、
前記ステアリングユニットは、前記ステアリングホイールの前記タッチパッドへの前記ジェスチャに応じて前記タッチパッドから触感を呈示することを特徴とする。

上記課題を解決するため、本発明に係る車両は、
ステアリングホイールと、
該ステアリングホイールに配置されたタッチパッドと、
を備え、
前記ステアリングホイールの前記タッチパッドに対する第1の圧力を検出すると、前記ステアリングホイールの前記タッチパッドへのジェスチャによる被制御装置の制御を可能にし、
前記被制御装置の制御を可能にした後、前記ステアリングホイールの前記タッチパッドに対する第2の圧力を検出すると、前記ジェスチャに対応する機能を実行し、
前記ステアリングホイールの前記タッチパッドへの前記ジェスチャに応じて前記タッチパッドから触感を呈示することを特徴とする。
前記ステアリングホイールの前記タッチパッドへのジェスチャによる被制御装置の制御を可能にした後、前記タッチパッドに対する押圧が前記第1の圧力以下となったことを検出すると、前記タッチパッドへのジェスチャによる被制御装置の制御を停止してもよい。
また、本発明に係る車両は、
ステアリングホイールと、
該ステアリングホイールに配置されたタッチパッドと、
当該車両の制御を実行するメインECUと
を備える車両であって、
前記メインECUは、
前記ステアリングホイールの前記タッチパッドに対する第1の圧力を検出すると、前記ステアリングホイールの前記タッチパッドへのジェスチャによる被制御装置の制御を可能にし、
前記被制御装置の制御を可能にした後、前記ステアリングホイールの前記タッチパッドに対する第2の圧力を検出すると、前記ジェスチャに対応する機能を実行し、
前記ステアリングホイールの前記タッチパッドへの前記ジェスチャに応じて前記タッチパッドから触感を呈示することを特徴とする。
例えば、本発明に係るステアリングユニットは、
ステアリングホイールと、
該ステアリングホイールに配置されたタッチパッドと、
を備えるステアリングユニットであって、
前記ステアリングユニットは、
前記ステアリングホイールの前記タッチパッドに対する第1の圧力を検出すると、前記ステアリングホイールの前記タッチパッドへのジェスチャによる被制御装置の制御を可能にし、
前記被制御装置の制御を可能にした後、前記ステアリングホイールの前記タッチパッドに対する第2の圧力を検出すると、前記ジェスチャに対応する機能を実行し、
前記ステアリングユニットは、前記ステアリングホイールの前記タッチパッドへの前記ジェスチャに応じて前記タッチパッドから触感を呈示することを特徴とする。
上記課題を解決するため、本発明に係る車両は、
ステアリングホイールと、
該ステアリングホイールに配置された少なくとも第1タッチパッドと第2タッチパッドから構成されるタッチパッドと、
を備え、
前記ステアリングホイールの前記第1タッチパッドと前記第2タッチパッドに対する圧力を検出すると、前記ステアリングホイールの前記タッチパッドへのジェスチャによる被制御装置の制御を可能にし、
記ステアリングホイールの前記タッチパッドへの前記ジェスチャに応じて前記タッチパッドから触感を呈示することを特徴とする。
前記ステアリングホイールの前記タッチパッドへのジェスチャによる被制御装置の制御を可能にした後、前記タッチパッドに対する押圧が所定の圧力以下となったことを検出すると、前記タッチパッドへのジェスチャによる被制御装置の制御を停止してもよい。
また、本発明に係る車両は、
ステアリングホイールと、
該ステアリングホイールに配置された少なくとも第1タッチパッドと第2タッチパッドから構成されるタッチパッドと、
当該車両の制御を実行するメインECUと
を備える車両であって、
前記メインECUは、
前記ステアリングホイールの前記第1タッチパッドと前記第2タッチパッドに対する圧力を検出すると、前記ステアリングホイールの前記タッチパッドへのジェスチャによる被制御装置の制御を可能にし、
記ステアリングホイールの前記タッチパッドへの前記ジェスチャに応じて前記タッチパッドから触感を呈示することを特徴とする。
例えば、本発明に係るステアリングユニットは、
ステアリングホイールと、
該ステアリングホイールに配置された少なくとも第1タッチパッドと第2タッチパッドから構成されるタッチパッドと、
を備えるステアリングユニットであって、
前記ステアリングユニットは、前記ステアリングホイールの前記第1タッチパッドと前記第2タッチパッドに対する圧力を検出すると、前記ステアリングホイールの前記タッチパッドへのジェスチャによる被制御装置の制御を可能にし、
記ステアリングユニットは、前記ステアリングホイールの前記タッチパッドへの前記ジェスチャに応じて前記タッチパッドから触感を呈示することを特徴とする。


Claims (6)

  1. ステアリングホイールと、
    該ステアリングホイールに配置されたタッチパッドと、
    を備え、
    前記ステアリングホイールの前記タッチパッドに対する所定の圧力を検出すると、前記ステアリングホイールの前記タッチパッドへのジェスチャによる被制御装置の制御を可能にし、
    前記ステアリングホイールの前記タッチパッドへの前記ジェスチャに応じて前記タッチパッドから触感を呈示する
    ことを特徴とする車両。
  2. 請求項1に記載の車両において、前記ステアリングホイールの前記タッチパッドへの前記ジェスチャに応じて異なる触感を呈示することを特徴とする車両。
  3. 請求項1又は請求項2に記載の車両において、前記ステアリングホイールの前記タッチパッドへのジェスチャによる被制御装置の制御を可能にした後、前記タッチパッドに接触する接触物が前記タッチパッドから離れたことを検出すると、前記タッチパッドへのジェスチャによる被制御装置の制御を停止することを特徴とする車両。
  4. 請求項1又は請求項2に記載の車両において、前記ステアリングホイールの前記タッチパッドへのジェスチャによる被制御装置の制御を可能にした後、前記タッチパッドに対する押圧が前記所定の圧力以下となったことを検出すると、前記タッチパッドへのジェスチャによる被制御装置の制御を停止することを特徴とする車両。
  5. ステアリングホイールと、
    該ステアリングホイールに配置されたタッチパッドと、
    当該車両の制御を実行するメインECUと
    を備える車両であって、
    前記メインECUは、
    前記ステアリングホイールの前記タッチパッドに対する所定の圧力を検出すると、前記ステアリングホイールの前記タッチパッドへのジェスチャによる被制御装置の制御を可能にし、
    前記ステアリングホイールの前記タッチパッドへの前記ジェスチャに応じて前記タッチパッドから触感を呈示する
    ことを特徴とする車両。
  6. ステアリングホイールと、
    該ステアリングホイールに配置されたタッチパッドと、
    を備えるステアリングユニットであって、
    前記ステアリングユニットは、前記ステアリングホイールの前記タッチパッドに対する所定の圧力を検出すると、前記ステアリングホイールの前記タッチパッドへのジェスチャによる被制御装置の制御を可能にし、
    前記ステアリングユニットは、前記ステアリングホイールの前記タッチパッドへの前記ジェスチャに応じて前記タッチパッドから触感を呈示する
    ことを特徴とするステアリングユニット。
JP2014550572A 2014-10-03 2014-10-03 車両及びステアリングユニット Pending JPWO2016051440A1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/005067 WO2016051440A1 (ja) 2014-10-03 2014-10-03 車両及びステアリングユニット

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016190403A Division JP2017030746A (ja) 2016-09-28 2016-09-28 車両及びステアリングユニット

Publications (1)

Publication Number Publication Date
JPWO2016051440A1 true JPWO2016051440A1 (ja) 2017-04-27

Family

ID=55629542

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014550572A Pending JPWO2016051440A1 (ja) 2014-10-03 2014-10-03 車両及びステアリングユニット

Country Status (4)

Country Link
US (1) US11433937B2 (ja)
EP (1) EP3202623B1 (ja)
JP (1) JPWO2016051440A1 (ja)
WO (1) WO2016051440A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3222471B1 (en) * 2014-11-19 2018-08-15 Panasonic Intellectual Property Management Co., Ltd. Input device and input method therefor
WO2017120050A1 (en) * 2016-01-05 2017-07-13 Key Safety Systems, Inc. Steering Wheel with Distributed Sensors
JP2018022438A (ja) * 2016-08-05 2018-02-08 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
DE102016219844A1 (de) * 2016-10-12 2018-04-12 Bayerische Motoren Werke Aktiengesellschaft Hupensteuerung
GB2560322B (en) * 2017-03-06 2022-02-16 Jaguar Land Rover Ltd Control apparatus and method for controlling operation of a component
DE102017126438A1 (de) * 2017-11-10 2019-05-16 U-Shin Deutschland Zugangssysteme Gmbh Lenkrad für ein Kraftfahrzeug
JP6907250B2 (ja) * 2019-01-18 2021-07-21 矢崎総業株式会社 車両用表示装置
JP2022151123A (ja) * 2021-03-26 2022-10-07 トヨタ自動車株式会社 操作入力装置、操作入力方法及び操作入力プログラム
US11780399B2 (en) * 2021-07-23 2023-10-10 Autoliv Asp, Inc. Emblem assembly in airbag cover

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10254623A (ja) * 1997-03-07 1998-09-25 Canon Inc 座標入力装置及びその制御方法
JP2009301299A (ja) * 2008-06-12 2009-12-24 Tokai Rika Co Ltd ジェスチャ判定装置
JP2013250726A (ja) * 2012-05-31 2013-12-12 Fujitsu Ten Ltd タッチパネル装置、検出方法、及びプログラム
JP2013254529A (ja) * 2008-09-17 2013-12-19 Nec Corp 入力装置及びその制御方法並びに入力装置を備えた電子機器
JP2014095948A (ja) * 2012-11-07 2014-05-22 Aisin Aw Co Ltd 操作入力装置
JP2014102649A (ja) * 2012-11-19 2014-06-05 Aisin Aw Co Ltd 操作支援システム、操作支援方法及びコンピュータプログラム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003296015A (ja) * 2002-01-30 2003-10-17 Casio Comput Co Ltd 電子機器
US20090237374A1 (en) * 2008-03-20 2009-09-24 Motorola, Inc. Transparent pressure sensor and method for using
JP2009298285A (ja) 2008-06-12 2009-12-24 Tokai Rika Co Ltd 入力装置
DE102008035907A1 (de) * 2008-08-02 2010-02-11 Preh Gmbh Berührungsempfindliches Eingabegerät mit berührkraftabhängiger Zusatzfunktion
JP4522475B1 (ja) 2009-03-19 2010-08-11 Smk株式会社 操作入力装置、制御方法、およびプログラム
DE102010026291A1 (de) * 2009-08-06 2011-02-10 Volkswagen Ag Kraftfahrzeug
KR101768540B1 (ko) * 2009-10-30 2017-08-18 삼성전자주식회사 모바일 기기 및 이에 적용되는 ui 제공방법
US20110169750A1 (en) * 2010-01-14 2011-07-14 Continental Automotive Systems, Inc. Multi-touchpad multi-touch user interface
JP5232889B2 (ja) 2011-03-30 2013-07-10 本田技研工業株式会社 車両用操作装置
WO2012169229A1 (ja) * 2011-06-09 2012-12-13 本田技研工業株式会社 車両用操作装置
JPWO2013046670A1 (ja) * 2011-09-27 2015-03-26 京セラ株式会社 触感呈示装置
JP2013095289A (ja) 2011-11-01 2013-05-20 Clarion Co Ltd 入力装置
US20130154933A1 (en) * 2011-12-20 2013-06-20 Synaptics Incorporated Force touch mouse
GB201200587D0 (en) * 2012-01-13 2012-02-29 Hiwave Technologies Uk Ltd Haptic feedback and pressure sensing
JP5844178B2 (ja) * 2012-02-29 2016-01-13 株式会社日本自動車部品総合研究所 車載装置
JP5876363B2 (ja) * 2012-04-12 2016-03-02 株式会社デンソー 制御装置及びプログラム
US9448635B2 (en) * 2012-04-16 2016-09-20 Qualcomm Incorporated Rapid gesture re-engagement
AU2013259614B2 (en) * 2012-05-09 2016-08-25 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
JP2014046867A (ja) * 2012-08-31 2014-03-17 Sony Corp 入力装置
WO2014094283A1 (en) * 2012-12-20 2014-06-26 Intel Corporation Touchscreen including force sensors
CN105612476B (zh) * 2013-10-08 2019-09-20 Tk控股公司 自校准的触知触觉多触摸多功能开关面板
US9358887B2 (en) * 2013-12-09 2016-06-07 Harman Becker Automotive Systems Gmbh User interface
US9248839B1 (en) * 2014-09-26 2016-02-02 Nissan North America, Inc. Vehicle interface system
KR20160047204A (ko) * 2014-10-22 2016-05-02 현대자동차주식회사 터치장치 및 터치장치의 제어방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10254623A (ja) * 1997-03-07 1998-09-25 Canon Inc 座標入力装置及びその制御方法
JP2009301299A (ja) * 2008-06-12 2009-12-24 Tokai Rika Co Ltd ジェスチャ判定装置
JP2013254529A (ja) * 2008-09-17 2013-12-19 Nec Corp 入力装置及びその制御方法並びに入力装置を備えた電子機器
JP2013250726A (ja) * 2012-05-31 2013-12-12 Fujitsu Ten Ltd タッチパネル装置、検出方法、及びプログラム
JP2014095948A (ja) * 2012-11-07 2014-05-22 Aisin Aw Co Ltd 操作入力装置
JP2014102649A (ja) * 2012-11-19 2014-06-05 Aisin Aw Co Ltd 操作支援システム、操作支援方法及びコンピュータプログラム

Also Published As

Publication number Publication date
US11433937B2 (en) 2022-09-06
EP3202623A4 (en) 2018-06-06
EP3202623A1 (en) 2017-08-09
US20170297603A1 (en) 2017-10-19
WO2016051440A1 (ja) 2016-04-07
EP3202623B1 (en) 2023-06-28

Similar Documents

Publication Publication Date Title
WO2016051440A1 (ja) 車両及びステアリングユニット
KR102224434B1 (ko) 햅틱 변환 수행 시스템 및 방법
US10719146B2 (en) Input device with plurality of touch pads for vehicles
EP3422156B1 (en) Control unit for vehicle and control method for the same
JP5640486B2 (ja) 情報表示装置
JP5718475B2 (ja) 触感呈示装置
CN109177899B (zh) 车载显示装置的交互方法和车载显示装置
JP2017030746A (ja) 車両及びステアリングユニット
JP5876363B2 (ja) 制御装置及びプログラム
CN107111397B (zh) 用于在不同的操作模式中运行机动车的操作装置的方法以及操作装置和机动车
JP2015093550A (ja) 車載機器操作システム、及び操作装置
JP2019169128A (ja) マンマシンインタフェースを操作する方法並びにマンマシンインタフェース
US11144193B2 (en) Input device and input method
JP2013161230A (ja) 入力装置
WO2017145746A1 (ja) 車両用コントロールユニット
JP2014211738A (ja) 車載機器の制御装置、車載機器
JP2017531869A (ja) 自動車両用の制御装置及び制御方法
JP6112554B2 (ja) 電子機器
JP2015118424A (ja) 情報処理装置
JP2014100998A (ja) 操作支援システム、操作支援方法及びコンピュータプログラム
CN109101183B (zh) 显示装置及其反馈方法
JP2013246471A (ja) 携帯機器用操作反力付与システム
KR20160014962A (ko) 조향핸들에 구비된 클릭휠을 통한 전장품 제어 시스템 및 전장품 제어 방법
JP2017095066A (ja) 車両及び車両における制御方法
JP6938426B2 (ja) 電子機器

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150512