WO2017145745A1 - 車両用コントロールユニット及びその制御方法 - Google Patents

車両用コントロールユニット及びその制御方法 Download PDF

Info

Publication number
WO2017145745A1
WO2017145745A1 PCT/JP2017/004439 JP2017004439W WO2017145745A1 WO 2017145745 A1 WO2017145745 A1 WO 2017145745A1 JP 2017004439 W JP2017004439 W JP 2017004439W WO 2017145745 A1 WO2017145745 A1 WO 2017145745A1
Authority
WO
WIPO (PCT)
Prior art keywords
touch sensor
tactile sensation
controller
vehicle
control unit
Prior art date
Application number
PCT/JP2017/004439
Other languages
English (en)
French (fr)
Inventor
和弘 村上
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to US16/078,961 priority Critical patent/US10642381B2/en
Priority to EP17756186.7A priority patent/EP3422156B1/en
Publication of WO2017145745A1 publication Critical patent/WO2017145745A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/03Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for supply of electrical power to vehicle subsystems or for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01HELECTRIC SWITCHES; RELAYS; SELECTORS; EMERGENCY PROTECTIVE DEVICES
    • H01H36/00Switches actuated by change of magnetic field or of electric field, e.g. by change of relative position of magnet and switch, by shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01HELECTRIC SWITCHES; RELAYS; SELECTORS; EMERGENCY PROTECTIVE DEVICES
    • H01H9/00Details of switching devices, not covered by groups H01H1/00 - H01H7/00
    • H01H9/16Indicators for switching condition, e.g. "on" or "off"
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1438Touch screens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/014Force feedback applied to GUI
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position

Definitions

  • the present disclosure relates to a vehicle control unit and a control method thereof.
  • an operation unit for operating a device (hereinafter also referred to as a vehicle-mounted device) mounted on the vehicle by a driver is provided (for example, see Patent Document 1).
  • the operation unit is provided at or near the center console.
  • the driver looks at the operation unit provided in the vicinity of the center console in order to operate the vehicle-mounted device, the driver's line of sight may be deviated from the front during driving.
  • the vehicle control unit includes a touch sensor in which a predetermined area is set.
  • the vehicle control unit includes a tactile sensation providing unit that provides a tactile sensation to the user via the touch sensor.
  • the vehicle control unit includes a pressure detection unit that detects pressure on the touch sensor.
  • the vehicle control unit includes a controller that enables operation of a vehicle-mounted device in response to an input to the touch sensor when the pressure becomes equal to or higher than a first pressure. When the operation of the vehicle-mounted device is enabled, the controller causes the tactile sensation providing unit to present a tactile sensation corresponding to the operation of the vehicle-mounted device within a first time.
  • the controller causes the tactile sensation presenting unit to present a tactile sensation corresponding to the first slide when the first slide is in the direction of exiting the predetermined area.
  • the controller causes the tactile sensation providing unit to present a tactile sensation corresponding to the second slide when there is a second slide in the direction of entering the predetermined region.
  • the control method is a control method for a vehicle control unit.
  • the vehicle control unit includes a touch sensor in which a predetermined area is set.
  • the vehicle control unit includes a tactile sensation providing unit that provides a tactile sensation to the user via the touch sensor.
  • the vehicle control unit includes a pressure detection unit that detects pressure on the touch sensor.
  • the vehicle control unit includes a controller that enables operation of a vehicle-mounted device in response to an input to the touch sensor.
  • the control method enables operation of the vehicle-mounted device in response to an input to the touch sensor when the pressure becomes equal to or higher than the first pressure.
  • the control method causes the tactile sensation providing unit to present a tactile sensation corresponding to enabling the operation of the vehicle-mounted device within a first time.
  • the control method causes the tactile sensation presentation unit to present a tactile sensation corresponding to the first slide when the first slide is in a direction of exiting the predetermined area.
  • the control method causes the tactile sensation providing unit to present a tactile sensation corresponding to the second slide when there is a second slide in a direction of entering the predetermined region.
  • FIG. 2 is a functional block diagram illustrating a schematic configuration of the vehicle control unit according to the first embodiment. It is a principal part top view of the structural example of the control unit for vehicles. It is principal part sectional drawing of the structural example of the control unit for vehicles. It is an example of the area
  • FIG. 5 is a functional block diagram illustrating a schematic configuration of a vehicle control unit according to a second embodiment. It is the example which displayed the operation function on the display part which concerns on Embodiment 2.
  • FIG. It is a flowchart which shows the control method which concerns on a modification.
  • the vehicle control unit according to the present embodiment may be an in-vehicle device.
  • the vehicle control unit 1 includes a controller 10, a touch sensor 11, a tactile sensation providing unit 12, and a press detection unit 13.
  • the controller 10 is connected to the touch sensor 11, the tactile sensation providing unit 12, and the press detecting unit 13, respectively.
  • the controller 10 outputs a signal or information associated with the signal to each connected unit.
  • Information associated with the signal is also referred to as control information.
  • the controller 10 acquires control information from each connected unit.
  • arrows connecting the controller 10 and each unit indicate main directions in which control information is output.
  • the controller 10 and the touch sensor 11 are connected by an arrow from the touch sensor 11 to the controller 10. In this case, it is shown that control information is output mainly from the touch sensor 11 toward the controller 10.
  • the controller 10 includes a storage unit 14.
  • the storage unit 14 can be configured by a semiconductor memory or the like.
  • the storage unit 14 may store various information, a program for operating the vehicle control unit 1, and the like.
  • the storage unit 14 may function as a work memory.
  • the controller 10 stores the control information in the storage unit 14.
  • the controller 10 acquires control information from the storage unit 14.
  • the controller 10 controls each unit to be connected according to the control information.
  • the controller 10 is connected to equipment mounted on the vehicle.
  • the device mounted on the vehicle is also referred to as a vehicle mounted device 80.
  • the controller 10 outputs control information for operating the vehicle-mounted device 80 in response to an input to the touch sensor 11.
  • Control information for operating the vehicle-mounted device 80 is also referred to as device operation information.
  • the controller 10 acquires control information indicating the state of the vehicle-mounted device 80.
  • the touch sensor 11 detects a touch of an object such as a finger or a stylus.
  • an object such as a finger or a stylus.
  • any method such as a capacitance method, a resistive film method, a surface acoustic wave method or an ultrasonic method, an infrared method, an electromagnetic induction method, or a load detection method may be used. .
  • the touch sensor 11 When the touch sensor 11 detects a finger touch, the touch sensor 11 acquires the coordinates of the touched position. The touch sensor 11 outputs the coordinates of the touched position to the controller 10 as control information. The user causes the controller 10 to execute a function corresponding to the touch position by touching the touch sensor 11 with a finger.
  • the touch sensor 11 has a rectangular shape and has four corners.
  • the shape of the touch sensor 11 is not limited to this.
  • the shape of the touch sensor 11 can be various shapes such as a circle, an ellipse, and a polygon.
  • the tactile sensation providing unit 12 presents tactile sensation to the user's finger touching the touch sensor 11 by generating various patterns of vibrations according to the drive signal acquired from the controller 10. That is, the controller 10 starts driving the tactile sensation providing unit 12 by outputting a drive signal as control information to the tactile sensation providing unit 12.
  • the tactile sensation providing unit 12 is configured using a piezoelectric element, an ultrasonic vibrator, a vibration motor, an eccentric motor, or the like. For example, the tactile sensation providing unit 12 generates a vibration according to a vibration pattern corresponding to a click feeling, a material feeling, and the like, and presents a tactile sensation such as a click feeling, a material feeling to the user's finger touching the touch sensor 11.
  • the press detection unit 13 detects pressure generated when the user touches the touch sensor 11 with a finger or a stylus and further presses the touch sensor 11.
  • the pressure generated by pressing the touch sensor 11 is also referred to as pressing.
  • the press detection unit 13 outputs data based on the press to the controller 10 as control information.
  • the press detection unit 13 may be configured using, for example, a strain gauge sensor or a piezoelectric element whose physical or electrical characteristics such as strain, resistance, or voltage change according to the press.
  • the pressure detection unit 13 is configured using, for example, a piezoelectric element
  • the voltage value of the electrical characteristics of the piezoelectric element of the pressure detection unit 13 changes according to the magnitude of the load caused by the pressure on the touch sensor 11.
  • the voltage value that is an electrical characteristic is included in the data based on the pressure.
  • the data based on the pressure is not limited to the voltage value, and may include the magnitude of the load caused by the pressure, the resistance value, and the like.
  • the press detection unit 13 can be configured according to the detection method of the touch sensor 11. For example, when the detection method of the touch sensor 11 is a resistive film method, the magnitude of the resistance according to the size of the contact area can be associated with the pressure applied to the touch sensor 11. In the case where the touch sensor 11 is an electrostatic capacity type, the magnitude of the electrostatic capacity can be associated with the load of pressing against the touch sensor 11. By doing in this way, the press detection part 13 can be comprised, without using a strain gauge sensor or a piezoelectric element.
  • the controller 10 may determine the input to the operation object at the touched position when the data based on the pressure acquired from the pressure detection unit 13 is equal to or greater than a predetermined threshold.
  • the case where the data based on the pressure is greater than or equal to the predetermined threshold corresponds to the case where the pressure is greater than or equal to the predetermined pressure.
  • the tactile sensation providing unit 12 and the press detection unit 13 may be integrated.
  • the piezoelectric elements can be shared. This is because the piezoelectric element generates a voltage when pressure is applied and deforms when a voltage is applied.
  • the vehicle control unit 1 can be configured as shown in FIGS. 2 and 3, for example.
  • the touch sensor 11 is sandwiched between the housing 90 and the upper cover 92 via the first insulator 94 and the second insulator 96.
  • the touch sensor 11 has a touch surface 11 a that is not covered by the upper cover 92.
  • the shape of the touch surface 11a is a rectangle.
  • the touch surface 11a may have other shapes.
  • the first insulator 94 and the second insulator 96 are disposed at four corners that are separated from the touch surface 11a.
  • the casing 90, the upper cover 92, and the second insulator 96 shown in FIG. 3 are not shown.
  • the touch surface 11a located on the surface side of the touch sensor 11 is made of a transparent film, for example.
  • the back surface of the touch sensor 11 is made of glass, for example.
  • the touch sensor 11 can be configured such that when the touch surface 11a located on the front surface side is pressed, the transparent film on the surface is slightly bent (distorted) in response to the press.
  • the upper cover 92 is convex with respect to the touch sensor 11. That is, the upper cover 92 projects beyond the touch surface 11 a on the surface side of the touch sensor 11. In this case, when the user touches the touch surface 11a, the user can easily know the end portion or the corner portion of the touch surface 11a by touch.
  • the vehicle control unit 1 includes a strain gauge sensor for detecting pressure applied to the touch sensor 11 in the vicinity of each side covered with the upper cover 92 on the transparent film on the surface of the touch sensor 11. You may prepare.
  • the strain gauge sensor may be provided by adhesion or the like.
  • a piezoelectric element, an ultrasonic vibrator, a linear actuator, or the like for vibrating the touch sensor 11 is provided by bonding or the like. Good.
  • the press detection unit 13 includes four strain gauge sensors.
  • the tactile sensation providing unit 12 includes two vibrators.
  • the pressure detection unit 13 may detect the pressure based on, for example, an average value of outputs from the four strain gauge sensors.
  • the tactile sensation providing unit 12 may drive, for example, two vibrators in the same phase.
  • the configurations of the tactile sensation providing unit 12 and the press detection unit 13 are not limited to the configurations illustrated in FIGS. 2 and 3 and may be other configurations.
  • the vehicle control unit 1 has a click feeling when the touch sensor 11 is pushed in and released, a material feeling such as a rough feeling or a slippery feeling when sliding on the touch sensor 11, a feeling of unevenness, or the like.
  • the tactile sensation can be presented.
  • the vehicle control unit 1 can present a click feeling while presenting a material feeling. That is, the vehicle control unit 1 can present various tactile sensations in a superimposed manner.
  • a squeezed air film is generated between the touch surface 11a of the touch sensor 11 and the finger that is touching, and the squeezed air film causes friction.
  • the rough feeling can be presented by a change in the magnitude of the frictional force caused by the tactile sensation providing unit 12 changing the vibration in accordance with the finger slide.
  • the method of presenting tactile sensation is not limited to these methods.
  • the touch sensor 11 of the vehicle control unit 1 is made of a uniform material, for example, glass or film, like the general touch sensor 11. That is, it is assumed that the material of the touch sensor 11 is not locally different.
  • the user touches without looking at the touch sensor 11 the user does not know which part of the touch sensor 11 is touched only by the tactile sensation based on the material of the touch sensor 11. That is, the user cannot sense the touch position.
  • the vehicle control unit 1 provides a tactile sensation according to the touch position on the touch sensor 11 or a tactile sensation according to the touched finger slide to a user who is not looking at the touch sensor 11
  • the touch position can be sensed.
  • the controller 10 sets a predetermined area in the touch sensor 11 in order to perform processing according to the touch position.
  • an A area, a B area, a C area, and a D area are set in the touch sensor 11 so as to include the four corners of the touch sensor 11.
  • the A region, the B region, the C region, and the D region are associated with functions to be operated by the vehicle control unit 1.
  • the operation function of the car navigation system may be associated with the area A.
  • the area B may be associated with an air conditioner operation function.
  • an operation function of an audio device or an operation function of a mobile phone or a smartphone may be associated.
  • N regions that are not associated with the functions as described above are set in regions that are not included in any of the A region, the B region, the C region, and the D region.
  • the correspondence between the area set in the touch sensor 11 and the operation function is not limited to the above. For example, some function may be associated with the N region. No function needs to be associated with the A area.
  • the area classification set in the touch sensor 11 is not limited to the example shown in FIG.
  • the left half or upper half area of the touch sensor 11 may be set as one area.
  • an area that is located at the edge between the corners and does not include the corner of the touch sensor 11 may be set as one area.
  • the areas are divided so that the four corners of the touch sensor 11 are included. Even if the touch sensor 11 does not have a corner, the region division can be determined as appropriate.
  • the controller 10 may present a tactile sensation associated with each area to the touched finger. For example, a rough feeling corresponding to the slide of the finger may be presented to the finger touching the area A. On the other hand, a smooth feeling corresponding to the slide of the finger may be presented to the finger touching the N region.
  • the vehicle control unit 1 can guide the user's operation by presenting a tactile sensation to the user's finger that has been blind-touched, and can reduce the movement of the line of sight while driving.
  • the control method for accepting the operation may be configured so that an erroneous operation is unlikely to occur when the touch sensor 11 is blind-touched.
  • the controller 10 causes the vehicle control unit 1 to transition to a standby state where the operation of the vehicle-mounted device 80 according to the input to the touch sensor 11 cannot be performed as an initial state. In the standby state, it is assumed that no operation is accepted even if the touch sensor 11 is touched or slid.
  • the controller 10 causes the vehicle control unit 1 to transition from the standby state to the operable state when a pressure equal to or greater than a predetermined pressure is applied to the touch sensor 11.
  • the predetermined pressure which is a condition for shifting from the standby state to the operable state, is also referred to as a first pressure.
  • the operable state is a state in which the operation of the vehicle-mounted device 80 can be performed according to the input to the touch sensor 11.
  • the controller 10 can transition the vehicle control unit 1 from the standby state to the operable state by the control method shown in the flowchart of FIG.
  • the controller 10 acquires information from the touch sensor 11 and determines whether or not a finger touches the touch sensor 11 (step S11).
  • step S11: NO If the finger is not touching the touch sensor 11 (step S11: NO), the controller 10 returns to step S11.
  • step S11: YES the controller 10 causes the pressure detection unit 13 to start detecting pressure (step S12).
  • the controller 10 acquires information from the touch sensor 11 and determines whether or not the finger is removed from the touch sensor 11 (step S13).
  • step S13 When the finger is removed from the touch sensor 11 (step S13: YES), the controller 10 causes the press detection unit 13 to end the pressure detection (step S14). The controller 10 returns to step S11.
  • step S13 NO
  • the controller 10 acquires information related to pressing from the pressing detection unit 13, and determines whether the pressing is equal to or higher than the first pressure (step S15). .
  • step S15 NO
  • step S15: NO the controller 10 returns to step S13. If the pressure is not greater than or equal to the first pressure, it can be said that the pressure is less than the first pressure.
  • step S15: YES the controller 10 causes the vehicle control unit 1 to transition to an operable state (step S16). At this time, the controller 10 may cause the tactile sensation providing unit 12 to present a tactile sensation such as a click feeling.
  • the controller 10 causes the tactile sensation providing unit 12 to present a tactile sensation corresponding to the transition to the operable state within the first time from the transition to the operable state (step S17).
  • the first time may be set to a time that does not release the finger after the user presses the touch sensor 11, for example, 500 msec.
  • the tactile sensation corresponding to the transition to the operable state can be various tactile sensations.
  • the controller 10 ends the process of the flowchart of FIG.
  • the first time may be an appropriate time indicating that the device has responded to the user's operation. If the first time is too long or too short, the user may feel uncomfortable.
  • step S15 when it is determined whether the pressure is equal to or higher than the predetermined pressure, the position touched by the finger may be anywhere on the touch sensor 11. In this case, the user can more easily transition the vehicle control unit 1 to the operable state.
  • the controller 10 may cause the tactile sensation providing unit 12 to present a tactile sensation indicating a predetermined area.
  • a concavo-convex structure indicating a predetermined region may be provided on the touch surface 11 a of the touch sensor 11.
  • the controller 10 can transition the vehicle control unit 1 from the operable state to the standby state by the control method shown in the flowchart of FIG.
  • the controller 10 acquires information from the touch sensor 11 and determines whether or not the finger is removed from the touch sensor 11 (step S21). It can be said that the state where the finger is separated from the touch sensor 11 is a state where there is no input to the touch sensor 11. When the finger is not separated from the touch sensor 11 (step S21: NO), the controller 10 continues the operation of step S21 while keeping the vehicle control unit 1 in an operable state.
  • the controller 10 determines whether or not the finger is separated for the second time or more (step S22).
  • the second time may be set to the same time as the first time described in step S17 of FIG. 5, or may be set to a different time.
  • step S22 NO
  • the controller 10 When the finger is not separated for the second time or more (step S22: NO), the controller 10 considers that the finger is not separated from the touch sensor 11, and returns to step S21.
  • the case where the finger is not separated for the second time or longer corresponds to the case where the finger touches again within the second time.
  • step S22 When the finger is away for the second time or more (step S22: YES), the controller 10 causes the vehicle control unit 1 to transition to the standby state (step S23).
  • the case where the finger is separated for the second time or more corresponds to the case where the finger does not touch again within the second time. It can be said that the state where the finger is separated for more than the second time is a state in which more than the second time has passed since the input is lost.
  • the controller 10 ends the process of the flowchart of FIG.
  • FIGS. 7 and 8 are flowcharts showing a control method related to the operation of the vehicle control unit 1.
  • the controller 10 can control the vehicle control unit 1 by the control method shown in the flowcharts of FIGS. 7 and 8.
  • the control method shown in FIGS. 7 and 8 is executed when the vehicle control unit 1 is in an operable state.
  • Controller 10 causes pressure detector 13 to start detecting pressure (step S31 in FIG. 7).
  • the controller 10 determines whether the vehicle control unit 1 has transitioned to the standby state (step S32).
  • step S32 When the vehicle control unit 1 transitions to the standby state (step S32: YES), the controller 10 causes the press detection unit 13 to finish detecting pressure (step S33). The controller 10 ends the process of the flowchart of FIG.
  • the case where the vehicle control unit 1 transitions to the standby state corresponds to the case where the controller 10 executes the process of step S23 in the flowchart of FIG.
  • step S32 NO
  • the controller 10 acquires information related to pressing from the pressing detection unit 13, and determines whether the pressing is equal to or higher than the second pressure.
  • the second pressure may be set to the same value as the first pressure included in the determination condition in step S15 of FIG. 5 or may be set to a different value.
  • step S34: NO the controller 10 proceeds to step S41 of the flowchart of FIG. If the pressure is not greater than or equal to the second pressure, it can be said that the pressure is less than the second pressure.
  • step S34: YES the controller 10 determines the input at the current touch position (step S35). At this time, the controller 10 may cause the tactile sensation providing unit 12 to present a tactile sensation such as a click feeling.
  • the operation function execution process after input confirmation will be described later. The controller 10 ends the process of the flowchart of FIG.
  • step S34 the controller 10 may make a determination based not only on the condition that the pressure is greater than or equal to the second pressure but also on the condition that the operation function is associated with the touch area where the pressure is applied. .
  • the controller 10 proceeds to step S35. It can be prevented from advancing.
  • the controller 10 acquires information from the touch sensor 11 and determines whether the touching finger has slid (step S41 in FIG. 8). When the finger is not slid (step S41: NO), the controller 10 returns to step S32 in FIG.
  • step S41 If the finger is sliding (step S41: YES), the controller 10 determines the finger touch position and / or finger slide direction based on the information acquired from the touch sensor 11 (step S42).
  • the controller 10 causes the tactile sensation providing unit 12 to present a tactile sensation according to the region including the finger touch position and / or the finger sliding direction (step S43).
  • An area including a finger touch position is also referred to as a touch area.
  • the tactile sensation providing unit 12 may present no tactile sensation or a slippery feeling with respect to a finger touching the N area shown in FIG.
  • the tactile sensation providing unit 12 may present a rough feeling with respect to a finger touching any one of the areas A, B, C, and D shown in FIG.
  • the tactile sensation providing unit 12 pulses in a first cycle with respect to the finger sliding in the direction from the center to the end of the touch sensor 11.
  • a tactile sensation may be presented.
  • the tactile sensation providing unit 12 may present a tactile sensation in a pulse shape with a second period different from the first period.
  • the tactile sensation presented in a pulse shape with a period of T is also referred to as a tactile sensation group with a period of T.
  • the tactile sensation providing unit 12 has a different period depending on whether the finger slide direction is the direction of exiting the touch area or the finger slide direction is the direction of entering the touch area.
  • a tactile sensation group may be presented.
  • the direction of exiting from the touch area is assumed to be a direction from any position included in the area A toward the area N, that is, a direction toward the lower right. To do.
  • the slide in the direction of exiting the touch area is also referred to as the first slide.
  • the direction of entering the touch area is the direction toward the end or corner of the touch surface 11a from any position included in the area A, that is, the direction toward the upper left.
  • the slide in the direction of entering the touch area is also referred to as a second slide.
  • the direction going out from the touch region can be said to be a direction away from the center of the N region. It can be said that the direction of entering the touch area is a direction approaching the center of the N area.
  • the user is directed to, for example, the A area, the B area, the C area, or the D area shown in FIG. 4 without looking at the touch sensor 11. I can know.
  • the tactile sensation providing unit 12 may change the vibration pattern that presents the tactile sensation according to the distance between the finger touch position and the end or corner of the touch sensor 11. .
  • the tactile sensation providing unit 12 may increase or decrease the period of the tactile sensation group as the finger touch position approaches the end or corner of the touch sensor 11.
  • the tactile sensation providing unit 12 may increase or decrease the strength of the tactile sensation as the finger touch position approaches the end or corner of the touch sensor 11.
  • the tactile sensation providing unit 12 may increase or decrease the frequency of vibration that presents a tactile sensation as the finger touch position approaches the end or corner of the touch sensor 11.
  • the user can know the distance from the finger touch position to the end or corner of the touch sensor 11 by the change in tactile sensation according to the finger touch position.
  • the tactile sensation providing unit 12 may decrease the strength of the tactile sensation, shorten the period of the tactile sensation, and lower the frequency of vibrations presenting the tactile sensation as approaching the center of the N region.
  • the tactile sensation providing unit 12 may increase the strength of the tactile sensation, increase the period of the tactile sensation group, and increase the frequency of vibration that presents the tactile sensation as it approaches the corner of the touch sensor 11 included in the area A.
  • the user can more clearly detect the touch position.
  • the tactile sensation providing unit 12 may present an uneven feeling at a position corresponding to the boundary of the areas.
  • the case where the finger is slid across the areas corresponds to the case where the touch area is switched. In this way, the user can sense that the touch area has been switched.
  • the tactile sensation pattern presented by the tactile sensation providing unit 12 is not limited to the above example.
  • the controller 10 returns to step S32 in FIG. 7 after step S43 in FIG.
  • the user can slide his / her finger toward an area associated with the function of the vehicle control unit 1 without looking at the touch sensor 11.
  • step S35 in FIG. 7 the controller 10 executes an operation function associated with the touch area where the input is confirmed. For example, when the input to the area A associated with the operation function of the car navigation system is confirmed, the controller 10 updates the area classification of the touch sensor 11 to the navigation operation menu.
  • the controller 10 receives the input to the touch sensor 11 by executing the process of the flowchart of FIG. 7 after the area classification of the touch sensor 11 is updated to the operation menu of the car navigation system. For example, when the input to the area associated with the operation function related to the map enlargement is confirmed, the controller 10 executes the map enlargement.
  • the controller 10 may cause the tactile sensation providing unit 12 to present a predetermined tactile sensation in accordance with the execution result of the operation function associated with the area where the input is confirmed. For example, when the input operation function cannot be executed because the map cannot be enlarged any more, the tactile sensation providing unit 12 generates a low-frequency vibration twice in a short time and presents a tactile sensation of “bub”. You can do it.
  • the interval at which the low-frequency vibration is generated twice may be, for example, 50 msec.
  • the tactile sensation of “bubu” expresses how the user feels in onomatopoeia.
  • the drive signals for actually presenting the tactile sensation are as illustrated.
  • the tactile sensation providing unit 12 may generate a single frequency sine wave vibration for a short time to present a monotonous tactile sensation.
  • the time for generating the sine wave vibration may be, for example, 50 msec.
  • the tactile sensation providing unit 12 may present the tactile sensation by generating Doppler curve vibration according to the execution result of the operation function.
  • the vibration that can be generated to provide a tactile sensation is not limited to the above-described vibration.
  • the tactile sensation according to the execution result of the operation function as described above may be presented within the time until the user releases the finger after confirming the input by pressing with the finger.
  • the time from when the input is confirmed until the tactile sensation is presented may be, for example, 500 msec. In this way, the execution result of the operation function can be notified to the user only with a tactile sensation.
  • the vehicle control unit 1 according to the present embodiment can be operated by a blind touch by presenting a tactile sensation to a finger touching the touch sensor 11. As a result, the vehicle can be operated safely.
  • the vehicle control unit 1 according to the present embodiment transitions to an operable state by a predetermined operation. As a result, it is possible to reduce a possibility that an erroneous operation occurs when the touch sensor 11 is touched at a timing not intended by the user.
  • the control method of the vehicle control unit 1 described with reference to FIGS. 5 to 8 may be executed in parallel.
  • the vehicle control unit 1 according to the second embodiment shown in FIG. 9 further includes a display unit 20 as compared with the functional block diagram shown in FIG.
  • the controller 10 outputs information for displaying characters or images on the display unit 20.
  • the description related to other components such as the touch sensor 11 is the same as that in FIG.
  • the display unit 20 displays characters or images that can be visually recognized by the user based on the information acquired from the controller 10.
  • the display unit 20 may be a head-up display, for example.
  • the head-up display is also called HUD (Head Up Up Display).
  • HUD projects an image on the front windshield of a vehicle, and makes a user visually recognize the reflected light of the projected image as a virtual image.
  • the display unit 20 may be a liquid crystal display, an organic or inorganic EL (Electro-Luminescence) display, or the like.
  • the liquid crystal display is also referred to as an LCD (Liquid Crystal Display).
  • the display unit 20 may be provided on the upper portion of the center console of the vehicle so that the user does not have to remove his line of sight from the front as much as possible while driving the vehicle.
  • the display unit 20 is not limited to the configuration described above.
  • the controller 10 may cause the display unit 20 to display information that informs the user that the touch sensor 11 is pushed into the operable state.
  • the controller 10 may cause the display unit 20 to display the correspondence between the region set in the touch sensor 11 as shown in FIG. 4 and the operation function. Comparing the example of the operation function displayed on the display unit 20 shown in FIG. 10 with the example of the area set in the touch sensor 11 shown in FIG. 4, the area A in FIG. Corresponds to the operation function.
  • the B area, C area, and D area in FIG. 4 are associated with the operation functions of the air conditioner, audio / DVD, and telephone, respectively. The user can know the correspondence between the area provided in the touch sensor 11 and the operation function by checking the display unit 20.
  • the user can confirm to which area of the touch sensor 11 the function desired to be executed by the vehicle control unit 1 is associated without greatly removing the line of sight from the front of the vehicle. sell. As a result, the vehicle can be operated safely.
  • the controller 10 changes the vehicle control unit 1 from the operable state to the standby state when the finger is away from the touch sensor 11 for a predetermined time or more.
  • the controller 10 may change the time from when the finger leaves the touch sensor 11 until the vehicle control unit 1 is shifted to the standby state.
  • the controller 10 may control the vehicle control unit 1 by the control method shown in the flowchart of FIG.
  • the controller 10 acquires information from the touch sensor 11 and determines whether or not the finger has been removed from the touch sensor 11 (step S51).
  • the state where the finger is separated from the touch sensor 11 corresponds to a state where there is no input to the touch sensor 11.
  • step S51: NO the controller 10 continues the operation of step S51 while keeping the vehicle control unit 1 in an operable state.
  • step S52 determines whether the position touched immediately before the finger is released (hereinafter also referred to as the previous touch position) is included in the N region (Ste S52).
  • the controller 10 sets the second time used as the determination step condition in step S55 to T1 (step S53), and proceeds to step S55. . If the previous touch position is not included in the N region (step S52: NO), the controller 10 sets the second time to T2 (step S54), and proceeds to step S55.
  • Controller 10 determines whether or not the finger has been separated for a second time or more (step S55).
  • the second time may be T1 set in step S53 or T2 set in step S54.
  • step S55: NO the controller 10 considers that the finger is not separated from the touch sensor 11, and returns to step S51.
  • the case where the finger is not separated for the second time or longer corresponds to the case where the finger touches again within the second time.
  • step S55: YES the controller 10 causes the vehicle control unit 1 to transition to the standby state (step S56).
  • the controller 10 ends the process of the flowchart of FIG.
  • T1 and T2 can be set in various variations. For example, when the touch position is included in the N region that is not associated with the operation function, it is still unclear whether the user is trying to cause the vehicle control unit 1 to execute some operation function. In other words, in this case, it is before the user takes a specific action. Therefore, in order to avoid unconscious operation, T1 set as the second time can be a short time.
  • T2 set as the second time can be longer than T1.
  • the embodiment according to the present disclosure has been described centering on an apparatus, the embodiment according to the present disclosure can also be realized as a method, a program, or a storage medium that records a program executed by a processor included in the apparatus. . It should be understood that these are included within the scope of the present disclosure.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Switches That Are Operated By Magnetic Or Electric Fields (AREA)
  • Switch Cases, Indication, And Locking (AREA)

Abstract

車両用コントロールユニットは、所定の領域が設定されるタッチセンサと、触感呈示部と、押圧検知部13と、押圧が第1の圧力以上となった場合、タッチセンサへの入力に応じて車両搭載機器の操作を可能にするコントローラ10とを備える。コントローラは、車両搭載機器の操作を可能にした場合、第1の時間内に車両搭載機器の操作を可能にしたことに対応する触感を触感呈示部に呈示させ、所定の領域から出ていく方向へ第1のスライドがあった場合、第1のスライドに対応する触感を呈示し、所定の領域へ入り込んでいく方向へ第2のスライドがあった場合、第2のスライドに対応する触感を呈示する。

Description

車両用コントロールユニット及びその制御方法 関連出願へのクロスリファレンス
 本出願は、日本国特許出願2016-32331号(2016年2月23日出願)の優先権を主張するものであり、当該出願の開示全体を、ここに参照のために取り込む。
 本開示は、車両用コントロールユニット及びその制御方法に関する。
 車両内には、運転者が車両に搭載された機器(以下、車両搭載機器ともいう)を操作する操作部が設けられる(例えば、特許文献1参照)。操作部は、センターコンソール又はその近辺に設けられる。運転者が車両搭載機器を操作するために、センターコンソール近辺に設けられた操作部を見る場合、運転者の視線は、運転中に前方から外れることがある。
特開2002-12091号公報
 本開示の一実施形態に係る車両用コントロールユニットは、所定の領域が設定されるタッチセンサを備える。前記車両用コントロールユニットは、前記タッチセンサを介してユーザに対して触感を呈示する触感呈示部を備える。前記車両用コントロールユニットは、前記タッチセンサに対する押圧を検出する押圧検出部を備える。前記車両用コントロールユニットは、前記押圧が第1の圧力以上となった場合、前記タッチセンサへの入力に応じて車両搭載機器の操作を可能にするコントローラを備える。前記コントローラは、前記車両搭載機器の操作を可能にした場合、第1の時間内に前記車両搭載機器の操作を可能にしたことに対応する触感を前記触感呈示部に呈示させる。前記コントローラは、前記所定の領域から出ていく方向へ第1のスライドがあった場合、前記第1のスライドに対応する触感を前記触感呈示部に呈示させる。前記コントローラは、前記所定の領域へ入り込んでいく方向へ第2のスライドがあった場合、前記第2のスライドに対応する触感を前記触感呈示部に呈示させる。
 本開示の一実施形態に係る制御方法は、車両用コントロールユニットの制御方法である。前記車両用コントロールユニットは、所定の領域が設定されるタッチセンサを備える。前記車両用コントロールユニットは、前記タッチセンサを介してユーザに対して触感を呈示する触感呈示部を備える。前記車両用コントロールユニットは、前記タッチセンサに対する押圧を検出する押圧検出部を備える。前記車両用コントロールユニットは、前記タッチセンサへの入力に応じて車両搭載機器の操作を可能にするコントローラを備える。前記制御方法は、前記押圧が第1の圧力以上となった場合、前記タッチセンサへの入力に応じて前記車両搭載機器の操作を可能にする。前記制御方法は、前記車両搭載機器の操作を可能にした場合、第1の時間内に前記車両搭載機器の操作を可能にしたことに対応する触感を前記触感呈示部に呈示させる。前記制御方法は、前記所定の領域から出ていく方向へ第1のスライドがあった場合、前記第1のスライドに対応する触感を前記触感呈示部に呈示させる。前記制御方法は、前記所定の領域へ入り込んでいく方向へ第2のスライドがあった場合、前記第2のスライドに対応する触感を前記触感呈示部に呈示させる。
実施形態1に係る車両用コントロールユニットの概略構成を示す機能ブロック図である。 車両用コントロールユニットの構成例の要部平面図である。 車両用コントロールユニットの構成例の要部断面図である。 車両用コントロールユニットのタッチセンサの領域区分の一例である。 車両用コントロールユニットの制御方法の一例を示すフローチャートである。 車両用コントロールユニットの制御方法の一例を示すフローチャートである。 車両用コントロールユニットの制御方法の一例を示すフローチャートである。 車両用コントロールユニットの制御方法の一例を示すフローチャートである。 実施形態2に係る車両用コントロールユニットの概略構成を示す機能ブロック図である。 実施形態2に係る表示部に操作機能を表示させた例である。 変形例に係る制御方法を示すフローチャートである。
(実施形態1)
 本実施形態に係る車両用コントロールユニットは、車載機器とされうる。
[ユニット構成]
 図1に示されるように、車両用コントロールユニット1は、コントローラ10と、タッチセンサ11と、触感呈示部12と、押圧検出部13とを備える。
 コントローラ10は、タッチセンサ11、触感呈示部12、及び押圧検出部13とそれぞれ接続される。コントローラ10は、接続される各部に信号又は信号に対応づけられる情報を出力する。信号に対応づけられる情報は、制御情報ともいう。コントローラ10は、接続される各部から制御情報を取得する。図1において、コントローラ10と各部とを接続する矢印は、制御情報が出力される主な方向を示している。例えば、コントローラ10とタッチセンサ11との間は、タッチセンサ11からコントローラ10に向かう矢印で接続されている。この場合、主にタッチセンサ11からコントローラ10に向けて、制御情報が出力されることが示されている。
 コントローラ10は、記憶部14を備える。記憶部14は、半導体メモリ等で構成されうる。記憶部14には、各種情報、又は車両用コントロールユニット1を動作させるためのプログラム等が格納されてよい。記憶部14は、ワークメモリとして機能してよい。
 コントローラ10は、制御情報を記憶部14に格納する。コントローラ10は、制御情報を記憶部14から取得する。コントローラ10は、制御情報に応じて、接続される各部を制御する。
 コントローラ10は、車両に搭載された機器に接続される。車両に搭載された機器は、車両搭載機器80ともいう。コントローラ10は、タッチセンサ11への入力に応じて、車両搭載機器80を操作するための制御情報を出力する。車両搭載機器80を操作するための制御情報は、機器操作情報ともいう。コントローラ10は、車両搭載機器80の状態を示す制御情報を取得する。
 タッチセンサ11は、指又はスタイラスなどの物体のタッチを検出する。以下、タッチセンサ11に対して指でタッチするものとして説明するが、スタイラスなどの他の物体でタッチしても同様である。タッチセンサ11がタッチを検出する方式としては、静電容量方式、抵抗膜方式、表面弾性波方式若しくは超音波方式、赤外線方式、電磁誘導方式、又は荷重検出方式等の任意の方式が用いられうる。
 タッチセンサ11は、指のタッチを検出した場合、タッチされた位置の座標を取得する。タッチセンサ11は、タッチされた位置の座標を制御情報としてコントローラ10に出力する。ユーザは、タッチセンサ11に指をタッチすることにより、タッチ位置に対応する機能をコントローラ10に実行させる。
 本実施形態において、タッチセンサ11の形状は矩形であり、4つの隅部を有する。しかし、タッチセンサ11の形状はこれに限られない。タッチセンサ11の形状は、例えば、円、楕円、多角形等、種々の形状とされうる。
 触感呈示部12は、コントローラ10から取得した駆動信号に応じた、種々のパターンの振動を発生することによって、タッチセンサ11にタッチするユーザの指に触感を呈示する。つまり、コントローラ10は、触感呈示部12に対して制御情報として駆動信号を出力することにより、触感呈示部12の駆動を開始する。
 触感呈示部12は、圧電素子、超音波振動子、又は振動モータ若しくは偏心モータ等を用いて構成される。触感呈示部12は、例えば、クリック感、材質感等に対応する振動パターンによる振動を発生させ、タッチセンサ11にタッチしたユーザの指に対して、クリック感、材質感等の触感を呈示する。
 押圧検出部13は、ユーザが指又はスタイラス等でタッチセンサ11にタッチして、さらにタッチセンサ11を押し込むことにより生じる圧力を検出する。タッチセンサ11を押し込むことにより生じる圧力は、押圧ともいう。押圧検出部13は、押圧に基づくデータを制御情報としてコントローラ10に出力する。
 押圧検出部13は、例えば、押圧に応じて、歪み、抵抗、又は電圧等の、物理的又は電気的特性が変化する歪みゲージセンサ又は圧電素子等を用いて構成されてよい。押圧検出部13が、例えば圧電素子を用いて構成された場合、押圧検出部13の圧電素子は、タッチセンサ11に対する押圧による荷重の大きさに応じて、電気的特性である電圧値が変化する。電気的特性である電圧値は、押圧に基づくデータに含まれる。押圧に基づくデータには、電圧値に限られず、押圧による荷重の大きさ、抵抗値等が含まれてよい。
 押圧検出部13は、タッチセンサ11の検出方式に応じて構成されうる。例えば、タッチセンサ11の検出方式が抵抗膜方式である場合、接触面積の大きさに応じた抵抗の大きさが、タッチセンサ11に対する押圧の荷重に対応づけられうる。タッチセンサ11が静電容量方式である場合、静電容量の大きさが、タッチセンサ11に対する押圧の荷重に対応づけられうる。このようにすることで、歪みゲージセンサ又は圧電素子等が用いられることなく押圧検出部13が構成されうる。
 コントローラ10は、押圧検出部13から取得した押圧に基づくデータが所定の閾値以上である場合に、タッチされている位置にある操作オブジェクトに対する入力を確定させてよい。押圧に基づくデータが所定の閾値以上である場合は、押圧が所定の圧力以上である場合に対応する。このようにすることで、ユーザが誤ってタッチセンサ11にタッチして起こる誤入力が低減されうる。
 触感呈示部12と押圧検出部13とは、一体化して構成されてよい。圧電素子を用いて触感呈示部12及び押圧検出部13が構成される場合、圧電素子が共用されうる。圧電素子は、圧力が加わると電圧を発生し、電圧が加わると変形するためである。
 本実施形態に係る車両用コントロールユニット1は、例えば図2及び図3に示されるように、構成されうる。タッチセンサ11は、筐体90とアッパーカバー92との間に、第1インシュレータ94及び第2インシュレータ96を介して挟持される。タッチセンサ11は、アッパーカバー92に覆われていないタッチ面11aを有する。本実施形態に係る車両用コントロールユニット1において、タッチ面11aの形状は矩形であると仮定する。車両用コントロールユニット1の仕様に応じて、タッチ面11aは他の形状とされてよい。第1インシュレータ94及び第2インシュレータ96は、タッチ面11aから外れた4隅に配設されると仮定する。図2においては、図3に示される筐体90、アッパーカバー92、及び第2インシュレータ96の図示は省略されている。
 タッチセンサ11の表面側に位置するタッチ面11aは、例えば透明フィルムで構成される。タッチセンサ11の裏面は、例えばガラスで構成される。タッチセンサ11は、表面側に位置するタッチ面11aが押圧された場合に、押圧に応じて表面の透明フィルムが微少量撓む(歪む)ように構成されうる。
 アッパーカバー92は、タッチセンサ11に対して凸となる。つまり、アッパーカバー92は、タッチセンサ11の表面側に、タッチ面11aよりも突出する。この場合、ユーザは、タッチ面11aにタッチする際、タッチ面11aの端部又は隅部を触覚で容易に知りうる。
 本実施形態に係る車両用コントロールユニット1は、タッチセンサ11の表面の透明フィルム上で、アッパーカバー92で覆われる各辺の近傍に、タッチセンサ11に加わる押圧を検出するための歪みゲージセンサを備えてよい。歪みゲージセンサは、接着等によって設けられてよい。タッチセンサ11の裏面側に位置するガラス面における、対向する2つの辺の近傍には、タッチセンサ11を振動させるための圧電素子若しくは超音波振動子、又はリニアアクチュエータ等が接着等によって設けられてよい。図2及び図3に示される車両用コントロールユニット1において、押圧検出部13は、4つの歪みゲージセンサによって構成される。触感呈示部12は、2つの振動子によって構成される。押圧検出部13は、例えば、4つの歪みゲージセンサの出力の平均値等に基づいて押圧を検出してよい。触感呈示部12は、例えば、2つの振動子を同相で駆動してよい。
 触感呈示部12及び押圧検出部13の構成は、図2及び図3に例示されている構成に限られず、他の構成とされてよい。
[触感呈示処理]
 本実施形態に係る車両用コントロールユニット1は、タッチセンサ11を押し込んだり離したりする際のクリック感、タッチセンサ11上でスライドした際のざらざら感若しくはつるつる感等の材質感、凹凸感、又はその他の触感を呈示しうる。車両用コントロールユニット1は、例えば、材質感を呈示しつつ、クリック感を呈示しうる。つまり、車両用コントロールユニット1は、種々の触感を重畳して呈示しうる。
 例えば、つるつる感は、触感呈示部12が超音波振動を発生することによって、タッチセンサ11のタッチ面11aとタッチしている指との間にスクイーズ空気膜が発生し、このスクイーズ空気膜による摩擦力の低減によって呈示されうる。例えば、ざらざら感は、触感呈示部12が指のスライドに合わせて振動を変化させて生じる摩擦力の大小の変化によって呈示されうる。触感を呈示する方法は、これらの方法に限られない。
 本実施形態に係る車両用コントロールユニット1のタッチセンサ11は、一般的なタッチセンサ11と同様に、一様な材質、例えばガラス又はフィルムで構成されると仮定する。つまり、タッチセンサ11の材質は、局所的に異なるものではないと仮定する。ユーザは、タッチセンサ11を見ずにタッチした場合、タッチセンサ11の材質に基づく触感だけでは、タッチセンサ11のどの部分をタッチしているのかわからない。つまり、ユーザはタッチ位置を感知することができない。
 本実施形態に係る車両用コントロールユニット1は、タッチセンサ11に対するタッチ位置に応じた触感の呈示、又は、タッチした指のスライドに応じた触感の呈示によって、タッチセンサ11を見ていないユーザに、タッチ位置を感知させうる。コントローラ10は、タッチ位置に応じた処理を行うために、タッチセンサ11に所定の領域を設定する。
 図4に示されるように、タッチセンサ11には、タッチセンサ11の4つの隅部をそれぞれ含むようにA領域、B領域、C領域、及びD領域が設定される。A領域、B領域、C領域、及びD領域は、車両用コントロールユニット1による操作対象となる機能が対応づけられる。例えば、A領域にはカーナビゲーションシステムの操作機能が対応づけられてよい。B領域にはエアコンディショナの操作機能が対応づけられてよい。他に、オーディオ機器の操作機能、又は、携帯電話若しくはスマートフォンの操作機能が対応づけられてよい。A領域、B領域、C領域、及びD領域のいずれにも含まれない領域には、上述のような機能が対応づけられないN領域が設定される。
 タッチセンサ11に設定される領域と操作機能との対応関係は、上述のものに限られない。例えば、N領域には、何らかの機能が対応づけられてよい。A領域には、機能が何も対応づけられなくてよい。
 タッチセンサ11に設定される領域区分は、図4に示される例に限られない。例えば、タッチセンサ11の左半分、又は、上半分の領域が1つの領域として設定されてよい。例えば、隅部と隅部との間の辺縁に位置し、タッチセンサ11の隅部を含まない領域が1つの領域として設定されてよい。図4に示される例では、タッチセンサ11が有する4つの隅部がそれぞれ含まれるように領域が区分されている。タッチセンサ11が隅部を有さない場合であっても領域区分は適宜定められうる。
 コントローラ10は、タッチセンサ11上で区分されている各領域に対するタッチがあった場合、タッチした指に対して各領域に対応づけられる触感を呈示してよい。例えばA領域にタッチしている指に対して、指のスライドに応じたざらざら感が呈示されてよい。一方で、N領域にタッチしている指に対して、指のスライドに応じたつるつる感が呈示されてよい。
[操作可能状態への遷移]
 本実施形態に係る車両用コントロールユニット1は、ブラインドタッチしたユーザの指に対して触感を呈示することによってユーザの操作を誘導し、運転中の視線移動を減らすことができる。操作を受け付ける際の制御方法は、タッチセンサ11へのブラインドタッチに際して誤操作が発生しにくいように構成されてよい。コントローラ10は、車両用コントロールユニット1を、初期状態としてタッチセンサ11への入力に応じた車両搭載機器80の操作をできないスタンバイ状態に遷移させる。スタンバイ状態においては、タッチセンサ11にタッチしたりスライドしたりしても操作が受け付けられないと仮定する。コントローラ10は、タッチセンサ11に対して所定の圧力以上の押圧が加わった場合に、車両用コントロールユニット1を、スタンバイ状態から操作可能状態に遷移させる。スタンバイ状態から操作可能状態に遷移させるための条件とされる所定の圧力は、第1の圧力ともいう。操作可能状態は、タッチセンサ11への入力に応じて車両搭載機器80の操作を可能とする状態ともいえる。スタンバイ状態から操作可能状態に遷移させるための操作が必要とされることによって、誤操作が発生する可能性が低減されうる。
 コントローラ10は、図5のフローチャートに示される制御方法によって、車両用コントロールユニット1を、スタンバイ状態から操作可能状態に遷移させうる。コントローラ10は、タッチセンサ11から情報を取得し、タッチセンサ11に指がタッチしたか否か判定する(ステップS11)。
 タッチセンサ11に指がタッチしていない場合(ステップS11:NO)、コントローラ10は、ステップS11に戻る。タッチセンサ11に指がタッチした場合(ステップS11:YES)、コントローラ10は、押圧検出部13に押圧検出を開始させる(ステップS12)。
 コントローラ10は、タッチセンサ11から情報を取得し、タッチセンサ11から指が離れたか否か判定する(ステップS13)。
 タッチセンサ11から指が離れた場合(ステップS13:YES)、コントローラ10は、押圧検出部13に押圧検出を終了させる(ステップS14)。コントローラ10は、ステップS11に戻る。
 タッチセンサ11から指が離れていない場合(ステップS13:NO)、コントローラ10は、押圧検出部13から押圧に係る情報を取得し、押圧が第1の圧力以上であるか判定する(ステップS15)。
 押圧が第1の圧力以上でない場合(ステップS15:NO)、コントローラ10は、ステップS13に戻る。押圧が第1の圧力以上でない場合は、押圧が第1の圧力未満である場合ともいえる。押圧が第1の圧力以上である場合(ステップS15:YES)、コントローラ10は、車両用コントロールユニット1を操作可能状態に遷移させる(ステップS16)。この際コントローラ10は、触感呈示部12にクリック感等の触感を呈示させてよい。
 コントローラ10は、操作可能状態に遷移したときから第1の時間内に、操作可能状態への遷移に対応する触感を触感呈示部12に呈示させる(ステップS17)。第1の時間は、ユーザがタッチセンサ11に押圧を加えた後に指を離さない程度の時間、例えば500msecに設定されてよい。操作可能状態に遷移したことに対応する触感は、種々の触感とされうる。コントローラ10は、図5のフローチャートの処理を終了する。第1の時間は、ユーザの操作に対して、装置が反応したことを示す適切な時間とされてよい。第1の時間が長すぎても短すぎても、ユーザは違和感を受ける可能性がある。
 ステップS15において押圧が所定の圧力以上であるか判定する際、指がタッチしている位置はタッチセンサ11のどこでもよい。この場合、ユーザはより容易に車両用コントロールユニット1を操作可能状態に遷移させうる。
 ステップS15において押圧が所定の圧力以上であるか判定する際、指がタッチしている位置が所定の領域に含まれることが条件とされてよい。この場合、ユーザが意図しないタイミングで車両用コントロールユニット1が操作可能状態に遷移する可能性が低減されうる。コントローラ10は、触感呈示部12に所定の領域を示す触感を呈示させてよい。タッチセンサ11のタッチ面11aに所定の領域を示す凹凸構造が設けられてよい。
 コントローラ10は、図6のフローチャートに示される制御方法によって、車両用コントロールユニット1を操作可能状態からスタンバイ状態に遷移させうる。
 コントローラ10は、タッチセンサ11から情報を取得し、タッチセンサ11から指が離れたか否か判定する(ステップS21)。タッチセンサ11から指が離れる状態は、タッチセンサ11への入力がない状態ともいえる。タッチセンサ11から指が離れていない場合(ステップS21:NO)、コントローラ10は、車両用コントロールユニット1を操作可能状態にしたままステップS21の動作を続ける。
 タッチセンサ11から指が離れた場合(ステップS21:YES)、コントローラ10は、指が第2の時間以上離れたか否か判定する(ステップS22)。第2の時間は、図5のステップS17で説明されている第1の時間と同じ時間に設定されてよいし、異なる時間に設定されてよい。
 指が第2の時間以上離れていない場合(ステップS22:NO)、コントローラ10は、指がタッチセンサ11から離れていないとみなして、ステップS21に戻る。指が第2の時間以上離れていない場合は、指が第2の時間未満のうちに再度タッチした場合に対応する。
 指が第2の時間以上離れた場合(ステップS22:YES)、コントローラ10は、車両用コントロールユニット1をスタンバイ状態に遷移させる(ステップS23)。指が第2の時間以上離れた場合は、指が第2の時間未満のうちに再度タッチしない場合に対応する。指が第2の時間以上離れた状態は、入力がなくなってから第2の時間以上経過した状態ともいえる。コントローラ10は、図6のフローチャートの処理を終了する。
 図5及び図6のフローチャートに示される制御方法によれば、タッチセンサ11に対するユーザが意図しない入力が発生しにくくなる。タッチセンサ11でチャタリングが生じた場合、又はユーザが短時間無意識に指を離した場合等の入力が発生した場合に、ユーザが意図しない状態遷移が発生しにくくなる。
[操作機能実行の指示受付]
 車両用コントロールユニット1が操作可能状態である間、原則的にユーザの指はタッチセンサ11にタッチし続ける。ユーザは、タッチセンサ11上で指をスライドさせて、図4に示される各領域に指を移動する。ユーザは、各領域をタッチした状態でタッチセンサ11に押圧を加えることによって各領域に対する入力を確定させる。各領域に対する入力が確定した場合、車両用コントロールユニット1は、各領域に対応づけられる機能を実行する。
 図7及び図8は、車両用コントロールユニット1の操作に係る制御方法を示すフローチャートである。コントローラ10は、図7及び図8のフローチャートに示される制御方法によって、車両用コントロールユニット1を制御しうる。図7及び図8に示される制御方法は、車両用コントロールユニット1が操作可能状態である場合に実行される。
 コントローラ10は、押圧検出部13に圧力の検出を開始させる(図7のステップS31)。コントローラ10は、車両用コントロールユニット1がスタンバイ状態に遷移したか判定する(ステップS32)。
 車両用コントロールユニット1がスタンバイ状態に遷移した場合(ステップS32:YES)、コントローラ10は、押圧検出部13に圧力の検出を終了させる(ステップS33)。コントローラ10は、図7のフローチャートの処理を終了する。車両用コントロールユニット1がスタンバイ状態に遷移する場合は、コントローラ10が図6のフローチャートのステップS23の処理を実行する場合等に対応する。
 車両用コントロールユニット1がスタンバイ状態に遷移していない場合(ステップS32:NO)、コントローラ10は、押圧検出部13から押圧に係る情報を取得し、押圧が第2の圧力以上であるか判定する(ステップS34)。第2の圧力は、図5のステップS15における判定条件に含まれる第1の圧力と同じ値に設定されてよいし、異なる値に設定されてよい。
 押圧が第2の圧力以上でない場合(ステップS34:NO)、コントローラ10は、図8のフローチャートのステップS41に進む。押圧が第2の圧力以上でない場合は、押圧が第2の圧力未満である場合ともいえる。押圧が第2の圧力以上である場合(ステップS34:YES)、コントローラ10は、現在のタッチ位置における入力を確定させる(ステップS35)。この際、コントローラ10は、触感呈示部12にクリック感等の触感を呈示させてよい。入力確定後の操作機能実行処理については後述する。コントローラ10は、図7のフローチャートの処理を終了する。
 コントローラ10は、ステップS34において、押圧が第2の圧力以上であるかという条件だけでなく、押圧が加えられているタッチ領域に操作機能が対応づけられているかという条件に基づいて判定してよい。このようにすることで、例えば図4のN領域に操作機能が対応づけられていない場合において、N領域において押圧が第2の圧力以上となるように押し込まれた場合、コントローラ10がステップS35に進まないようにされうる。
 コントローラ10は、タッチセンサ11から情報を取得し、タッチしている指がスライドしたか判定する(図8のステップS41)。指がスライドしていない場合(ステップS41:NO)、コントローラ10は、図7のステップS32に戻る。
 指がスライドしている場合(ステップS41:YES)、コントローラ10は、タッチセンサ11から取得した情報に基づいて、指のタッチ位置及び/又は指のスライド方向を決定する(ステップS42)。
 コントローラ10は、指のタッチ位置が含まれる領域及び/又は指のスライド方向に応じた触感を触感呈示部12に呈示させる(ステップS43)。指のタッチ位置が含まれる領域は、タッチ領域ともいう。
 タッチ領域に応じた触感が呈示される場合、例えば、図4に示されるN領域にタッチしている指に対して、触感呈示部12は、触感を呈示しない又はつるつる感を呈示してよい。図4に示されるA領域、B領域、C領域、及びD領域のいずれかの領域にタッチしている指に対して、触感呈示部12は、ざらざら感を呈示してよい。
 指のスライド方向に応じた触感が呈示される場合、例えば、タッチセンサ11の中央から端に向かう方向にスライドしている指に対して、触感呈示部12は、第1の周期でパルス状に触感を呈示してよい。タッチセンサ11の端から中央に向かう方向にスライドしている指に対して、触感呈示部12は、第1の周期とは異なる第2の周期でパルス状に触感を呈示してよい。周期をTとするパルス状に呈示される触感は、周期がTの触感群ともいう。
 触感呈示部12は、タッチ領域内において、指のスライド方向が当該タッチ領域から出ていく方向である場合と指のスライド方向が当該タッチ領域に入り込んでいく方向である場合とで、周期が異なる触感群を呈示してよい。
 タッチ領域から出ていく方向は、例えば図4に示されるA領域がタッチ領域である場合、A領域に含まれるいずれかの位置からN領域に向かう方向、つまり右下に向かう方向であると仮定する。タッチ領域から出ていく方向へのスライドは、第1のスライドともいう。
 タッチ領域に入り込んでいく方向は、例えば図4に示されるA領域がタッチ領域である場合、A領域に含まれるいずれかの位置からタッチ面11aの端又は隅に向かう方向、つまり左上に向かう方向であると仮定する。以下、タッチ領域に入り込んでいく方向へのスライドは、第2のスライドともいう。
 例えば図4に示されるN領域がタッチ領域である場合、タッチ領域から出ていく方向は、N領域の中心から遠ざかる方向であるといえる。タッチ領域に入り込んでいく方向は、N領域の中心に近づく方向であるといえる。
 このようにスライド方向に応じた触感が呈示されることで、ユーザはタッチセンサ11を見なくとも、例えば図4に示されるA領域、B領域、C領域、及びD領域のいずれに向かっているか知ることができる。
 指のスライド方向がタッチ領域に入り込んでいく場合において、触感呈示部12は、指のタッチ位置とタッチセンサ11の端又は隅との距離に応じて、触感を呈示する振動パターンを変化させてよい。触感呈示部12は、例えば、指のタッチ位置がタッチセンサ11の端又は隅に近づくほど、触感群の周期を長く又は短くしてよい。触感呈示部12は、指のタッチ位置がタッチセンサ11の端又は隅に近づくほど触感の強度を強く又は弱くしてよい。触感呈示部12は、指のタッチ位置がタッチセンサ11の端又は隅に近づくほど、触感を呈示する振動の周波数を高く又は低くしてよい。このように指のタッチ位置に応じた触感の変化によって、ユーザは、指のタッチ位置からタッチセンサ11の端又は隅までの距離を知ることができる。
 触感の変化方法の一例として、触感呈示部12は、N領域の中央に近づくにつれて、触感の強度を弱くし、触感群の周期を短くし、触感を呈示する振動の周波数を低くしてよい。一方で、触感呈示部12は、A領域に含まれるタッチセンサ11の隅に近づくにつれて、触感の強度を強くし、触感群の周期を長くし、触感を呈示する振動の周波数を高くしてよい。このように指のタッチ位置が中央付近であるか隅に近いかによって対照的な触感を呈示することで、ユーザがより明確にタッチ位置を感知しうる。
 領域間をまたがって指がスライドされた場合、触感呈示部12は、領域の境界に対応する位置において凹凸感を呈示してよい。領域間をまたがって指がスライドされた場合は、タッチ領域が切り替わる場合に対応する。このようにすることで、ユーザは、タッチ領域が切り替わったことを感知しうる。
 図8のステップS43において、触感呈示部12が呈示する触感のパターンは、上記の例に限られない。コントローラ10は、図8のステップS43の後、図7のステップS32に戻る。
 図7及び図8に示される制御方法によれば、ユーザはタッチセンサ11を見なくとも、車両用コントロールユニット1の機能に対応づけられる領域に向けて指をスライドすることができる。
[操作機能実行処理]
 図7のステップS35においてタッチセンサ11への入力が確定した場合、コントローラ10は、入力が確定したタッチ領域に対応づけられる操作機能を実行する。例えば、カーナビゲーションシステムの操作機能が対応づけられているA領域への入力が確定した場合、コントローラ10は、タッチセンサ11の領域区分をナビの操作メニューに更新する。
 コントローラ10は、タッチセンサ11の領域区分がカーナビゲーションシステムの操作メニューに更新された後、図7のフローチャートの処理を実行してタッチセンサ11への入力を受け付ける。例えば、地図の拡大に係る操作機能が対応づけられた領域への入力が確定した場合、コントローラ10は、地図の拡大を実行する。
 コントローラ10は、入力が確定した領域に対応づけられた操作機能の実行結果に応じて、触感呈示部12に所定の触感を呈示させるようにしてよい。例えば、地図の拡大がこれ以上できない等の理由で入力された操作機能が実行できない場合、触感呈示部12は、低周波の振動を短時間に2回発生させて、「ブブ」という触感を呈示してよい。低周波の振動を2回発生させる間隔は、例えば50msecとされてよい。「ブブ」という触感は、ユーザの感じ方をオノマトペ(擬音語)で表現したものである。実際に触感を呈示するための駆動信号は例示した通りである。
 入力された操作機能の実行を完了した場合、触感呈示部12は、単一周波数の正弦波振動を短時間発生させて、単調な触感を呈示してよい。正弦波振動を発生させる時間は、例えば50msecとされてよい。触感呈示部12は、操作機能の実行結果に応じて、ドップラー曲線振動を発生させて触感を呈示してよい。触感を呈示するために発生されうる振動は、上述の振動に限られない。
 以上のような操作機能の実行結果に応じた触感は、ユーザが指で押圧を加えて入力を確定した後、指を離すまでの時間以内に呈示されてよい。入力の確定から触感が呈示されるまでの時間は、例えば500msecとされてよい。このようにすることで、操作機能の実行結果がユーザに対して触感だけで通知されうる。
 本実施形態に係る車両用コントロールユニット1は、タッチセンサ11にタッチしている指に触感を呈示することによって、ブラインドタッチで操作可能である。結果として、車両の運転が安全に行われうる。本実施形態に係る車両用コントロールユニット1は、所定の操作により操作可能状態に遷移する。結果として、ユーザが意図しないタイミングでタッチセンサ11にタッチされることによって誤操作が発生する可能性が低減されうる。
 図5~図8を参照して説明してきた車両用コントロールユニット1の制御方法は、それぞれが並列的に実行されてよい。
(実施形態2)
 図9に示される、実施形態2に係る車両用コントロールユニット1は、図1に示される機能ブロック図と比較して、表示部20をさらに備える。コントローラ10は、表示部20に文字又は画像等を表示させるための情報を出力する。タッチセンサ11等他の構成要素に係る説明は、図1と同様であるため、省略される。
 表示部20は、コントローラ10から取得した情報に基づき、ユーザが視認できる文字又は画像等を表示させる。表示部20は、例えばヘッドアップディスプレイであってよい。ヘッドアップディスプレイは、HUD(Head Up Display)ともいう。HUDは、車両のフロントウィンドシールドに画像を投射し、投射された画像の反射光を、虚像としてユーザに視認させるものである。表示部20は、液晶ディスプレイ、又は、有機若しくは無機EL(Electro-Luminescence)ディスプレイ等であってよい。液晶ディスプレイは、LCD(Liquid Crystal Display)ともいう。表示部20は、ユーザが車両の運転中に視線を前方からできるだけ外さなくて済むように、車両のセンターコンソールの上部に設けられてよい。表示部20は、上述の構成に限られない。
 コントローラ10は、車両用コントロールユニット1がスタンバイ状態である場合、タッチセンサ11を押し込むことで操作可能状態に遷移することをユーザに知らせる情報を表示部20に表示させてよい。コントローラ10は、車両用コントロールユニット1が操作可能状態である場合に、図4に示されるようなタッチセンサ11に設定された領域と操作機能との対応関係を表示部20に表示させてよい。図10に示される、表示部20に表示された操作機能の例と、図4に示されるタッチセンサ11に設定された領域の例とを比較すると、図4のA領域は、カーナビゲーションシステムの操作機能に対応づけられている。図4のB領域、C領域、及びD領域はそれぞれ、エアコンディショナ、オーディオ/DVD、及び電話の操作機能に対応づけられている。ユーザは、表示部20を確認することで、タッチセンサ11に設けられた領域と操作機能との対応関係を知りうる。
 このように表示部20をさらに備えることによって、ユーザは、車両用コントロールユニット1に実行させたい機能がタッチセンサ11のどの領域に対応づけられているかを車両前方から視線を大きく外すことなく確認しうる。結果として、車両の運転が安全に行われうる。
(変形例)
 図6のフローチャートに示される制御方法において、コントローラ10は、指がタッチセンサ11から所定時間以上離れた場合に車両用コントロールユニット1を操作可能状態からスタンバイ状態に遷移させた。変形例として、コントローラ10は、指がタッチセンサ11から離れてから車両用コントロールユニット1をスタンバイ状態に遷移させるまでの時間を変更してよい。
 コントローラ10は、図11のフローチャートに示される制御方法によって、車両用コントロールユニット1を制御してよい。コントローラ10は、タッチセンサ11から情報を取得し、タッチセンサ11から指が離れたか否か判定する(ステップS51)。タッチセンサ11から指が離れる状態は、タッチセンサ11への入力がない状態に対応する。タッチセンサ11から指が離れていない場合(ステップS51:NO)、コントローラ10は、車両用コントロールユニット1を操作可能状態にしたままステップS51の動作を続ける。
 タッチセンサ11から指が離れた場合(ステップS51:YES)、コントローラ10は、指が離れる直前にタッチしていた位置(以下、直前のタッチ位置ともいう)がN領域に含まれるか判定する(ステップS52)。直前のタッチ位置がN領域に含まれる場合(ステップS52:YES)、コントローラ10は、ステップS55における判定ステップの条件として用いられる第2の時間をT1に設定し(ステップS53)、ステップS55に進む。直前のタッチ位置がN領域に含まれない場合(ステップS52:NO)、コントローラ10は、第2の時間をT2に設定し(ステップS54)、ステップS55に進む。
 コントローラ10は、指が第2の時間以上離れたか否か判定する(ステップS55)。第2の時間は、ステップS53で設定されたT1又はステップS54で設定されたT2とされてよい。指が第2の時間以上離れていない場合(ステップS55:NO)、コントローラ10は、指がタッチセンサ11から離れていないとみなして、ステップS51に戻る。指が第2の時間以上離れていない場合は、指が第2の時間未満のうちに再度タッチした場合に対応する。
 指が第2の時間以上離れた場合(ステップS55:YES)、コントローラ10は、車両用コントロールユニット1をスタンバイ状態に遷移させる(ステップS56)。コントローラ10は、図11のフローチャートの処理を終了する。
 T1及びT2は、種々のバリエーションで設定されうる。例えば、タッチ位置が操作機能に対応づけられていないN領域に含まれている場合、ユーザが車両用コントロールユニット1に何らかの操作機能を実行させようとしているか、まだ不明確である。つまりこの場合は、ユーザが具体的なアクションを起こす前である。よって無意識の操作を避けるために、第2の時間として設定されるT1は短い時間とされうる。
 例えば、タッチ位置が操作機能に対応づけられているA~D領域に含まれている場合、ユーザが意識的に車両用コントロールユニット1に操作機能を実行させようとしている可能性がある。つまりこの場合は、ユーザが具体的なアクションを起こしている可能性が高い。よって操作の利便性を考慮して、第2の時間として設定されるT2はT1よりも長い時間とされうる。
 本開示に係る実施形態について諸図面及び実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形又は修正を行うことが容易であることに注意されたい。従って、これらの変形又は修正は本開示の範囲に含まれることに留意されたい。例えば、各構成部、又は各ステップなどに含まれる機能などは論理的に矛盾しないように再配置可能であり、複数の構成部又はステップなどを1つに組み合わせたり、或いは分割したりすることが可能である。本開示に係る実施形態について装置を中心に説明してきたが、本開示に係る実施形態は装置の各構成部が実行するステップを含む方法としても実現し得るものである。本開示に係る実施形態について装置を中心に説明してきたが、本開示に係る実施形態は装置が備えるプロセッサにより実行される方法、プログラム、又はプログラムを記録した記憶媒体としても実現し得るものである。本開示の範囲にはこれらも包含されるものと理解されたい。
 1 車両用コントロールユニット
 10 コントローラ
 11 タッチセンサ
 12 触感呈示部
 13 押圧検出部
 14 記憶部
 20 表示部
 80 車両搭載機器
 90 筐体
 92 アッパーカバー
 94 第1インシュレータ
 96 第2インシュレータ
 

Claims (6)

  1.  所定の領域が設定されるタッチセンサと、
     前記タッチセンサを介してユーザに対して触感を呈示する触感呈示部と、
     前記タッチセンサに対する押圧を検出する押圧検出部と、
     前記押圧が第1の圧力以上となった場合、前記タッチセンサへの入力に応じて車両搭載機器の操作を可能にするコントローラと
    を備え、
     前記コントローラは、
     前記車両搭載機器の操作を可能にした場合、第1の時間内に前記車両搭載機器の操作を可能にしたことに対応する触感を前記触感呈示部に呈示させ、
     前記所定の領域から出ていく方向へ第1のスライドがあった場合、前記第1のスライドに対応する触感を前記触感呈示部に呈示させ、
     前記所定の領域へ入り込んでいく方向へ第2のスライドがあった場合、前記第2のスライドに対応する触感を前記触感呈示部に呈示させる
    車両用コントロールユニット。
  2.  前記タッチセンサは、複数の隅部を有し、
     前記所定の領域は、前記隅部の少なくとも1つを含むように設けられ、
     前記コントローラは、前記所定の領域に対する押圧が第2の圧力以上となった場合、前記所定の領域に対応づけられる操作機能を実行する、請求項1に記載の車両用コントロールユニット。
  3.  前記コントローラは、前記車両搭載機器の操作を可能にした後、前記タッチセンサへの入力がない状態が第2の時間続いた場合、前記タッチセンサへの入力に応じた前記車両搭載機器の操作をできなくする、請求項1又は2に記載の車両用コントロールユニット。
  4.  前記第2の時間は、前記タッチセンサへの入力がなくなる直前に入力があった位置が前記所定の領域に含まれる場合、前記所定の領域に含まれない場合よりも、長い時間に設定される、請求項3に記載の車両用コントロールユニット。
  5.  前記所定の領域に対応づけられる操作機能を表示する表示部をさらに備える、請求項1乃至4いずれか一項に記載の車両用コントロールユニット。
  6.  所定の領域が設定されるタッチセンサと、
     前記タッチセンサを介してユーザに対して触感を呈示する触感呈示部と、
     前記タッチセンサに対する押圧を検出する押圧検出部と、
     前記タッチセンサへの入力に応じて車両搭載機器の操作を可能にするコントローラと
    を備える車両用コントロールユニットの制御方法であって、
     前記押圧が第1の圧力以上となった場合、前記タッチセンサへの入力に応じて前記車両搭載機器の操作を可能にし、
     前記車両搭載機器の操作を可能にした場合、第1の時間内に前記車両搭載機器の操作を可能にしたことに対応する触感を前記触感呈示部に呈示させ、
     前記所定の領域から出ていく方向へ第1のスライドがあった場合、前記第1のスライドに対応する触感を前記触感呈示部に呈示させ、
     前記所定の領域へ入り込んでいく方向へ第2のスライドがあった場合、前記第2のスライドに対応する触感を前記触感呈示部に呈示させる、
    車両用コントロールユニットの制御方法。
PCT/JP2017/004439 2016-02-23 2017-02-07 車両用コントロールユニット及びその制御方法 WO2017145745A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/078,961 US10642381B2 (en) 2016-02-23 2017-02-07 Vehicular control unit and control method thereof
EP17756186.7A EP3422156B1 (en) 2016-02-23 2017-02-07 Control unit for vehicle and control method for the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016032331A JP6613170B2 (ja) 2016-02-23 2016-02-23 車両用コントロールユニット及びその制御方法
JP2016-032331 2016-02-23

Publications (1)

Publication Number Publication Date
WO2017145745A1 true WO2017145745A1 (ja) 2017-08-31

Family

ID=59685129

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/004439 WO2017145745A1 (ja) 2016-02-23 2017-02-07 車両用コントロールユニット及びその制御方法

Country Status (4)

Country Link
US (1) US10642381B2 (ja)
EP (1) EP3422156B1 (ja)
JP (1) JP6613170B2 (ja)
WO (1) WO2017145745A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3660630A1 (en) * 2018-11-26 2020-06-03 Hosiden Corporation Vibration application mechanism and vibration control method
WO2022009488A1 (ja) * 2020-07-08 2022-01-13 アルプスアルパイン株式会社 電子機器

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3026866B1 (fr) * 2014-10-02 2019-09-06 Dav Dispositif et procede de commande pour vehicule automobile
FR3026867A1 (fr) * 2014-10-02 2016-04-08 Dav Dispositif et procede de commande pour vehicule automobile
JP2018005274A (ja) * 2016-06-27 2018-01-11 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
DE102017113659A1 (de) * 2016-12-16 2018-06-21 Trw Automotive Electronics & Components Gmbh Kraftfahrzeugbedienvorrichtung
JP2019021144A (ja) * 2017-07-19 2019-02-07 株式会社デンソーテン 制御装置、制御方法および入力装置
JPWO2019244716A1 (ja) * 2018-06-19 2021-06-24 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
JP2021103414A (ja) * 2019-12-25 2021-07-15 株式会社東海理化電機製作所 触覚呈示装置
US11928259B2 (en) 2020-03-12 2024-03-12 Google Llc Controlling haptic feedback based on proximity of contact to sensor
JP2022170608A (ja) * 2021-04-28 2022-11-10 フォルシアクラリオン・エレクトロニクス株式会社 車載装置およびプログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000194427A (ja) * 1998-12-25 2000-07-14 Tokai Rika Co Ltd タッチ操作入力装置
US20100013613A1 (en) * 2008-07-08 2010-01-21 Jonathan Samuel Weston Haptic feedback projection system
US20100259375A1 (en) * 2009-04-13 2010-10-14 Bran Ferren Customizable and reconfigurable virtual instrument panel
JP2011048675A (ja) * 2009-08-27 2011-03-10 Kyocera Corp 電子機器
JP2012027816A (ja) * 2010-07-27 2012-02-09 Kyocera Corp 触感呈示装置
JP2013080364A (ja) * 2011-10-04 2013-05-02 Mitsubishi Electric Corp 触覚提示入力装置
WO2015121964A1 (ja) * 2014-02-14 2015-08-20 富士通株式会社 入力装置
US20150309573A1 (en) * 2014-04-28 2015-10-29 Ford Global Technologies, Llc Automotive touchscreen controls with simulated texture for haptic feedback

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4675458B2 (ja) 2000-06-28 2011-04-20 京セラ株式会社 ハンズフリー装置
US9927874B2 (en) * 2009-07-29 2018-03-27 Kyocera Corporation Input apparatus and control method for input apparatus
JP2011048686A (ja) * 2009-08-27 2011-03-10 Kyocera Corp 入力装置
US20110148774A1 (en) * 2009-12-23 2011-06-23 Nokia Corporation Handling Tactile Inputs
JP5497893B2 (ja) * 2010-05-27 2014-05-21 京セラ株式会社 触感呈示装置および制御方法
JP5543618B2 (ja) * 2011-01-27 2014-07-09 京セラ株式会社 触感呈示装置
US9448629B2 (en) * 2011-09-27 2016-09-20 Kyocera Corporation Multi-mode tactile sensation providing device
US9798410B2 (en) * 2011-10-27 2017-10-24 Kyocera Corporation Input device and method for controlling input device
KR102058990B1 (ko) * 2012-09-19 2019-12-24 엘지전자 주식회사 모바일 디바이스 및 그 제어 방법
JP5884090B2 (ja) * 2013-04-18 2016-03-15 パナソニックIpマネジメント株式会社 情報を提示する方法および電子機器
JP6289100B2 (ja) * 2014-01-06 2018-03-07 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US10019155B2 (en) * 2014-06-30 2018-07-10 Honda Motor Co., Ltd. Touch control panel for vehicle control system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000194427A (ja) * 1998-12-25 2000-07-14 Tokai Rika Co Ltd タッチ操作入力装置
US20100013613A1 (en) * 2008-07-08 2010-01-21 Jonathan Samuel Weston Haptic feedback projection system
US20100259375A1 (en) * 2009-04-13 2010-10-14 Bran Ferren Customizable and reconfigurable virtual instrument panel
JP2011048675A (ja) * 2009-08-27 2011-03-10 Kyocera Corp 電子機器
JP2012027816A (ja) * 2010-07-27 2012-02-09 Kyocera Corp 触感呈示装置
JP2013080364A (ja) * 2011-10-04 2013-05-02 Mitsubishi Electric Corp 触覚提示入力装置
WO2015121964A1 (ja) * 2014-02-14 2015-08-20 富士通株式会社 入力装置
US20150309573A1 (en) * 2014-04-28 2015-10-29 Ford Global Technologies, Llc Automotive touchscreen controls with simulated texture for haptic feedback

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3422156A4 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3660630A1 (en) * 2018-11-26 2020-06-03 Hosiden Corporation Vibration application mechanism and vibration control method
US11098786B2 (en) 2018-11-26 2021-08-24 Hosiden Corporation Vibration application mechanism and vibration control method
WO2022009488A1 (ja) * 2020-07-08 2022-01-13 アルプスアルパイン株式会社 電子機器
US11874968B2 (en) 2020-07-08 2024-01-16 Alps Alpine Co., Ltd. Electronic device
JP7450038B2 (ja) 2020-07-08 2024-03-14 アルプスアルパイン株式会社 電子機器

Also Published As

Publication number Publication date
JP2017151638A (ja) 2017-08-31
EP3422156B1 (en) 2022-04-06
JP6613170B2 (ja) 2019-11-27
EP3422156A1 (en) 2019-01-02
US10642381B2 (en) 2020-05-05
US20190050073A1 (en) 2019-02-14
EP3422156A4 (en) 2019-09-25

Similar Documents

Publication Publication Date Title
WO2017145745A1 (ja) 車両用コントロールユニット及びその制御方法
US10394375B2 (en) Systems and methods for controlling multiple displays of a motor vehicle
WO2016051440A1 (ja) 車両及びステアリングユニット
JP2014102660A (ja) 操作支援システム、操作支援方法及びコンピュータプログラム
US20160202762A1 (en) Touch panel type input device, and touch panel type input method
US10359881B2 (en) Control device, input system, and control method
JP2017111462A (ja) 触感呈示装置及び触感呈示方法
JP2011054025A (ja) 触感付与装置及びプログラム
JP2018049432A (ja) 表示制御装置、表示制御システム及び表示制御方法
WO2018025517A1 (ja) 表示操作装置
WO2014171096A1 (ja) 車載機器の制御装置、車載機器
WO2017145746A1 (ja) 車両用コントロールユニット
JP2017030746A (ja) 車両及びステアリングユニット
US10664056B2 (en) Control device, input system and control method
US20170075423A1 (en) Touch-sensitive device with haptic feedback
WO2019049375A1 (ja) 制御装置、電子機器、及び、電子機器の制御方法
US20170060240A1 (en) Input device, display device, and program
JP2014100998A (ja) 操作支援システム、操作支援方法及びコンピュータプログラム
WO2021132334A1 (ja) 触覚呈示装置及び触覚呈示方法
US20230004285A1 (en) Control Value Setting Device and Control Value Setting Program
JP6938426B2 (ja) 電子機器
JP2011107900A (ja) 入力表示装置
JP2017095066A (ja) 車両及び車両における制御方法
JP2022150236A (ja) 入力装置
JP2018122827A (ja) 車載用情報入力装置および車載用情報入力システム

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2017756186

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2017756186

Country of ref document: EP

Effective date: 20180924

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17756186

Country of ref document: EP

Kind code of ref document: A1