WO2014132818A1 - 車両用操作装置 - Google Patents

車両用操作装置 Download PDF

Info

Publication number
WO2014132818A1
WO2014132818A1 PCT/JP2014/053493 JP2014053493W WO2014132818A1 WO 2014132818 A1 WO2014132818 A1 WO 2014132818A1 JP 2014053493 W JP2014053493 W JP 2014053493W WO 2014132818 A1 WO2014132818 A1 WO 2014132818A1
Authority
WO
WIPO (PCT)
Prior art keywords
gesture
thumb
vehicle
operating device
design
Prior art date
Application number
PCT/JP2014/053493
Other languages
English (en)
French (fr)
Inventor
裕二 今井
Original Assignee
日本精機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本精機株式会社 filed Critical 日本精機株式会社
Priority to US14/769,780 priority Critical patent/US20160026267A1/en
Priority to EP14756833.1A priority patent/EP2962902A4/en
Publication of WO2014132818A1 publication Critical patent/WO2014132818A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0362Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 1D translations or rotations of an operating part of the device, e.g. scroll wheels, sliders, knobs, rollers or belts
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/25Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using haptic output
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/60Instruments characterised by their location or relative disposition in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/023Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/55Remote control arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/77Instrument locations other than the dashboard
    • B60K2360/782Instrument locations other than the dashboard on the steering wheel

Definitions

  • the present invention relates to a vehicle operation device, and more particularly to a vehicle operation device mounted on a steering wheel.
  • a conventional vehicular operating device receives an input operation in which a user traces a predetermined locus on an operation surface, and is formed with a raised portion serving as a reference for the input operation on the operation surface. .
  • This vehicle operation device is mounted on a vehicle steering (see Patent Document 1).
  • the conventional vehicle operating device limits the movable range of the thumb by gripping the steering wheel so that the circle can be drawn accurately.
  • the rotating operation is not easily recognized as a circular rotation.
  • an object of the present invention is to provide a vehicle operating device that can solve the above-described problems and can improve input accuracy even with an operation with a thumb in a state of gripping a steering wheel.
  • a vehicle operation device is a vehicle operation device that is mounted on a vehicle steering and receives an input operation, and an operation surface that comes into contact with a detected object that performs the input operation;
  • the vehicle operating device of the present invention it is possible to improve the input accuracy even when the operation is performed with the thumb in a state where the steering is gripped.
  • FIG. 1 is a configuration diagram of a system including a vehicle operating device according to a first embodiment of the present invention. It is a general-view figure of the driver's seat vicinity in the vehicle by which the operating device for vehicles is mounted.
  • (A) is a disassembled perspective view which shows the structure of the operating device for vehicles
  • (b) is a perspective view after assembling each part shown to this figure (a).
  • (A) is a plan view of the contact sensor
  • (b) is an AA cross-sectional view of a surface cover, a sensor sheet, and a spacer in the contact sensor in FIG. It is a figure explaining the 1st sensor row and the 2nd sensor row which a sensor sheet has.
  • the vehicle operating device which concerns on 1st Embodiment is the vehicle operating device 100 mounted in the vehicle 1 shown in FIG.
  • the control device 1000 causes the in-vehicle electronic device 20 to perform various operations according to the operation.
  • the vehicle 1 includes a steering 10 and an in-vehicle electronic device 20.
  • the steering 10 is a part of the steering device of the vehicle 1, and includes a main body 11 and a steering wheel 12.
  • the main body 11 is a spoke connected to a steering shaft (not shown) of the vehicle 1 and includes a vehicle operating device 100 on the right side.
  • the main body 11 is formed with a mounting hole (not shown) that matches the shape of the vehicle operating device 100. By attaching the vehicle operating device 100 to the mounting hole, only an operation surface (described later) of the vehicle operating device 100 is exposed.
  • the steering wheel 12 is a ring-shaped member attached to the main body 11 and gripped when the driver steers the vehicle 1.
  • the in-vehicle electronic device 20 is an audio device, a car navigation device, or the like, and is electrically connected to a control unit 200 described later, and operates according to a control signal received from the control unit 200.
  • the in-vehicle electronic device 20 displays an image corresponding to the operation on the display unit 21.
  • the control device 1000 includes a vehicle operation device 100, a control unit 200, and a storage unit 300.
  • the vehicle operating device 100 includes a contact sensor 110 and a switch device 120, as shown in FIGS. 3 (a) and 3 (b).
  • the contact sensor 110 is controlled by the control unit 200 described later.
  • This is a touch pad device that detects a position where a thumb or the like touches the operation surface, and includes a surface cover 111, a sensor sheet 112, a spacer 113, a lower case 114, and an upper case 115.
  • the front cover 111 is formed in a sheet shape from an insulating material such as acrylic resin, and has an operation surface that is touched by a user's finger or the like when a gesture operation is performed. As shown in FIG. 4B, the operation surface of the front cover 111 has irregularities, and a step is formed on this operation surface.
  • Such an operation surface includes a flat portion 111a, a raised portion 111b, a hollow portion 111c, and a gap portion 111d.
  • the flat part 111 a is a flat part of the surface cover 111.
  • the raised portion 111b is a portion that rises so as to rise from the flat surface portion 111a in the front side direction. From the front side, as shown in FIG. 4A, it can be seen that a plurality of raised portions 111b formed in an arc shape are arranged at predetermined intervals so as to substantially surround the circle.
  • the “front side” means the user side with respect to the vehicle operating device 100 as shown by the double-ended arrows in FIG. 3A, and the “back side” means the opposite side.
  • the recess 111c is located at the approximate center of the operation surface, and is a recessed portion so as to sink from the flat surface portion 111a toward the back side. As shown in FIG. It is formed inside the raised portion 111b arranged in a shape.
  • the raised portion 111b and the recessed portion 111c constitute a design that indicates the rotation gesture region.
  • the gap portion 111d is a portion between the arc-shaped raised portions 111b.
  • the gap portion 111d is a part of the flat portion 111a.
  • the planar portion 111a, the raised portion 111b, and the recessed portion 111c are formed so that their cross-sectional shapes are smoothly connected to each other so as not to hinder the user's gesture operation. .
  • the sensor sheet 112 is a projected capacitive sensor sheet having a plurality of sensors 1120 (detection electrodes) for detecting the position of a detection target such as a finger, and is located on the back side of the front cover 111.
  • sensors 1120 detection electrodes
  • the sensor sheet 112 has a layer having a first sensor array 112a for detecting the position of the detected object in the X direction and a first position for detecting the position of the detected object in the Y direction.
  • a layer having two sensor rows 112b is roughly configured to overlap.
  • the sensor 1120 is arranged in a matrix on the sensor sheet 112 as a result.
  • the first sensor row 112a and the second sensor row 112b are each electrically connected to a control unit 200 described later.
  • the control part 200 can detect the change of the electrostatic capacitance in each sensor.
  • the control unit 200 calculates an input coordinate value (X, Y) indicating the contact position of the detection target based on the change in capacitance.
  • the input coordinate value is a coordinate value in the XY coordinate system of each sensor 1120 set in advance on the operation surface.
  • the input coordinate values are the X coordinate assigned to the center of gravity position of the distribution of changes in capacitance in the X direction (for example, the position of the sensor 1120 where the capacitance is higher than a certain threshold value and the largest), and the Y direction. And the Y coordinate assigned to the position of the center of gravity of the distribution of the change in the electrostatic capacity (for example, the position of the sensor 1120 where the electrostatic capacity is higher than a certain threshold value and the largest).
  • the control unit 200 calculates the input coordinate value (X, Y) by calculating the X coordinate and the Y coordinate.
  • the sensor 1120 has a portion 116 for determining the rotation gesture as an annular region in consideration of the movable range of the thumb holding the steering wheel 10.
  • the sensor 1120 determines the rotation gesture.
  • the portion to be formed is an annular region that has moved in the direction of the base of the thumb (in the direction of arrow L in FIG. 10) assuming that the user grips the steering wheel 10 with respect to the design.
  • the sensor sheet 112 is integrally formed with the surface cover 111 by drawing and processed into the same shape as the surface cover 111 (see FIG. 4B).
  • the front cover 111 and the sensor sheet 112 become like a single sheet, and the stepped shapes such as the raised portion 111b and the depressed portion 111c of the operation surface are the same sheet. It will be composed of bent parts.
  • the back surface of the front cover 111 and the front surface of the sensor sheet 112 come into contact with each other by being integrally molded in this way.
  • the sensor 1120 is arranged corresponding to the step shape of the front cover 111. Since the sensor 1120 is arranged in this way, even when the gesture operation is performed on the operation surface having a stepped shape such as the raised portion 111b, the control unit 200 changes the capacitance of each sensor. It can be detected.
  • the spacer 113 is located on the back side of the sensor sheet 112, and is formed according to the shape of the integrally formed surface cover 111 and sensor sheet 112 as shown in FIG. 4B. It is a member that holds these shapes when pressure is applied from the front side
  • the lower case 114 is a box-shaped member formed of synthetic resin or the like, and houses the above-described portions 111 to 113 on the front side.
  • the upper case 115 is a lid portion that covers the lower case 114 containing the above-described portions 111 to 113 from the front side, has an opening that exposes the operation surface of the front cover 111, and is formed of a synthetic resin or the like.
  • the switch device 120 is located on the back side of the contact sensor 110 and is electrically connected to the control unit 200.
  • input confirmation operation When the user performs an operation of pressing down the operation surface of the vehicle operation device 100 (hereinafter referred to as input confirmation operation), the switch device 120 is pressed and transmits a predetermined input signal to the control unit 200.
  • the input confirmation operation is performed when a command selected by a predetermined gesture operation is confirmed.
  • the vehicle operating device 100 is attached to the main body 11 of the steering 10 by, for example, the upper case 115 of the contact sensor 110 being welded to the main body 11 with a soft resin. By being attached in this way, when the user presses the operation surface, the contact sensor 110 sinks and the switch device 120 is pressed.
  • the vehicle operating device 100 is configured by the above-described units.
  • FIG. 3B shows an overview after the vehicle operating device 100 is assembled.
  • control unit 200 includes a CPU (Central Processing Unit) and the like, and executes an operation program stored in the storage unit 300 to perform various processes and controls. At least a part of the control unit 200 may be configured by various dedicated circuits such as ASIC (Application Specific Integrated Circuit).
  • ASIC Application Specific Integrated Circuit
  • the storage unit 300 includes a ROM (Read Only Memory), a RAM (Random Access Memory), a flash memory, and the like, and includes a work area of the CPU that configures the control unit 200, a program area that stores an operation program executed by the CPU, and data It functions as an area.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • flash memory and the like, and includes a work area of the CPU that configures the control unit 200, a program area that stores an operation program executed by the CPU, and data It functions as an area.
  • a program for executing an in-vehicle electronic device control process which will be described later
  • a program for transmitting a predetermined control signal to the in-vehicle electronic device 20 in accordance with an input confirmation operation received by the switch device 120 , Etc. are stored.
  • a gesture dictionary G In the data area, as shown in the figure, a gesture dictionary G, corresponding motion data C, a set value Q that is a predetermined value of a gesture feature amount described later, and the like are stored in advance.
  • the gesture dictionary G is data necessary for recognizing a gesture operation being performed, and includes a plurality of patterns indicating trajectory features drawn by the gesture operation.
  • the pattern indicating the feature of the gesture operation is composed of a combination of each component of the gesture feature amount described later. In the present embodiment, this pattern is a pattern indicating the characteristics of a “gesture operation based on a raised portion” to be described later.
  • Corresponding operation data C is data of a control signal that causes the in-vehicle electronic device 20 to execute a predetermined operation.
  • the command data for transmitting the volume control signal for causing the in-vehicle electronic device 20 to change the audio volume is associated with the pattern indicating the feature of the arc-shaped gesture operation along the raised portion 111b as the corresponding operation data C. And stored in advance in the data area.
  • the set value Q is data of a predetermined value of the gesture feature value, and is data serving as a trigger for transmitting a control signal to the in-vehicle electronic device 20.
  • the setting value Q is associated with each of a plurality of patterns included in the gesture dictionary G. That is, there are a plurality of setting values Q.
  • the gesture feature quantity selected as a comparison target with the set value Q is, for example, a trajectory length S in a trajectory in which a plurality of input coordinate values are connected by a straight line in time series.
  • the operation of the control apparatus 1000 will be described in detail later, but here, the gesture dictionary G, the corresponding operation data C, the set value Q, and their respective roles will be briefly described.
  • the gesture dictionary G is used for recognizing to which pattern a predetermined gesture operation belongs (that is, what kind of gesture operation).
  • the corresponding operation data C is used to determine what control signal is transmitted to the in-vehicle electronic device 20 in accordance with a gesture operation recognized based on the gesture dictionary G.
  • the set value Q is used to determine what value the gesture feature value related to the recognized gesture operation reaches when the control signal based on the corresponding action data C is transmitted.
  • each data stored in the storage unit 300 is appropriately stored as a default value or by a user's own operation using a known data registration method.
  • the control device 1000 configured as described above performs various operations of the in-vehicle electronic device 20 according to the “gesture operation based on the raised portion” unique to the present embodiment performed on the operation surface of the contact sensor 110. Control. A vehicle-mounted electronic device control process for realizing such control will be described.
  • the control unit 200 determines whether an operation input is being performed in the contact sensor 110 (step S101). Whether or not an operation is being input is determined by the control unit 200 based on whether or not there is a sensor 1120 whose capacitance is higher than the certain threshold in the X and Y directions. When such a sensor 1120 is present in the X direction and the Y direction, there is a high possibility that the detection target is touching the operation surface, and thus there is a high possibility that an operation input is being performed. Therefore, in this case, the control unit 200 determines that an operation input is accepted (step S101; Yes), and performs the process of step S102.
  • control unit 200 determines that no operation input has been received (step S101; No), and performs the process of step S101. In this way, the control unit 200 stands by until an operation input is performed.
  • the control unit 200 measures time using a timer (not shown) or the like, but if time measurement has already been performed and it is determined No in step S101, the time measurement is terminated.
  • the control unit 200 continues timing when the timing has already been performed, but starts counting when the timing has not been performed. In this way, the control unit 200 continuously counts time from the first contact until the contact is released.
  • step S102 the control unit 200 calculates an input coordinate value (X, Y) (see above), and proceeds to step S103.
  • the control unit 200 records the calculated input coordinate values in the storage unit 300 in chronological order.
  • the input coordinate value is recorded until a predetermined period elapses after the time measurement is completed or recorded along the time series.
  • a plurality of input coordinate values calculated between the present time and a timing that is a predetermined time back from the present time are recorded.
  • step S103 the control unit 200 calculates various gesture feature amounts and proceeds to step S104.
  • the gesture feature value is an amount indicating the feature of the trajectory drawn by the currently performed gesture operation.
  • the gesture feature amount is an amount calculated based on the time measurement time, the input coordinate value (X0, Y0) calculated first after the start of time measurement, and the currently calculated input coordinate value (X, Y).
  • the input coordinate value (X0, Y0) calculated first after the start of time measurement represents the initial position when the operation input is started.
  • the gesture feature values are the currently calculated input coordinate value (X, Y), the inter-coordinate distance (Lx) in the X direction from the input coordinate value (X0, Y0) to the input coordinate value (X, Y), and the Y direction. Distance between coordinates (Ly), direction (d), and movement time (t) (see FIG. 7A).
  • Lx is X-X0
  • Ly is YY0
  • d is an amount calculated from Lx and Ly
  • t is a time interval from the start of timing.
  • step S102 if two input coordinate values are not stored in step S102, the gesture feature value is not calculated. Therefore, although not shown, the process returns to step S101. In step S103, the calculated gesture feature amount is stored until the time measurement is completed.
  • step S104 the control unit 200 calculates whether the gesture operation being performed corresponds to one of a plurality of gesture operation patterns included in the gesture dictionary G based on the gesture feature value calculated and stored in step S103. Is recognized by a predetermined collation method. This predetermined collation is performed by comparing the combination of the calculated gesture feature quantity and the gesture operation pattern included in the gesture dictionary G by an NN method (Nearest Neighbor algorithm), a k-NN method (k-nearest neighbor algorithm), or the like. Done. That is, in this step S104, processing for determining what type the gesture operation being performed corresponds to is performed.
  • NN method Nearest Neighbor algorithm
  • k-NN method k-nearest neighbor algorithm
  • step S104 If the gesture operation being performed is recognized (step S104; Yes), the process proceeds to step S105. On the other hand, when the gesture operation being performed is not recognized (step S104; No), the process returns to step S101.
  • step S105 the control unit 200 determines whether or not the calculated gesture feature amount has reached the set value Q associated with the pattern related to the gesture operation recognized in step S104.
  • the gesture feature amount to be compared with the set value Q is appropriately determined for each of a plurality of patterns included in the gesture dictionary G according to the characteristics of the gesture operation to be recognized. For example, if the recognized gesture operation is an operation that traces an arc on the operation surface along the raised portion 111b, the gesture feature amount to be compared with the set value Q associated with the pattern of the gesture operation is This is a trajectory length S in a trajectory in which a plurality of input coordinate values are connected by a straight line in time series.
  • the gesture feature amount has reached a predetermined set value (step S105; Yes)
  • the process proceeds to step S106.
  • the gesture feature quantity has not reached the predetermined set value Q (step S105; No)
  • the process returns to step S101.
  • step S106 the control unit 200 reads the corresponding operation data C from the storage unit 300, transmits a control signal corresponding to the recognized gesture operation to the in-vehicle electronic device 20, and returns to step S101.
  • the control unit 200 determines whether the performed gesture operation corresponds to one of a plurality of patterns included in the gesture dictionary G ( That is, the gesture operation being performed is recognized). ii) It is determined whether or not the calculated gesture feature amount has reached the set value Q associated with the pattern related to the recognized gesture operation. iii) When the gesture feature amount has reached the set value Q, a control signal corresponding to the recognized pattern related to the gesture operation is transmitted. It becomes the flow.
  • the control unit 200 calculates the first gesture feature amount (inter-coordinate distance L1) from the input coordinate value (X0, Y0) calculated first after the start of time measurement and the first input coordinate value (X1, Y1) calculated next. , Direction d1, etc.) (step S103).
  • the control unit 200 inputs the input coordinate value (X0, Y0) and the first input coordinate value (X1, Y1). ) To calculate the second gesture feature amount (inter-coordinate distance L2, direction d2, etc.) from the calculated input coordinate value (X2, Y2) (step S103).
  • step S104 a process of recognizing the gesture operation by the method is performed.
  • the gesture dictionary G includes a pattern indicating the characteristics of the gesture operation in consideration of the movable range of the thumb holding the steering wheel in the hatched area between the two circles represented by the dotted line shown in FIG. If the second input coordinate value is calculated from data obtained by combining the first gesture feature quantity L1, d1 and the second gesture feature quantity L2, d2, Compared to the time when the input coordinate value is calculated, the inter-coordinate distance L is increased, and the gesture operation of tracing the inside of the recess 111c in the clockwise direction toward the X direction by the transition of the direction d may be performed. The information that it is high is obtained. The gesture operation can be recognized from such information.
  • the gesture operation to be recognized is based on the coordinate values indicating the position where the raised portion 111b and the hollow portion 111c are formed and the range in the vicinity thereof. If a plurality of patterns indicating features are created and included in the gesture dictionary G as data, various gesture operations can be recognized, and control signals corresponding to the recognized gesture operations can be transmitted to the in-vehicle electronic device 20.
  • a plurality of patterns indicating features are created and included in the gesture dictionary G as data, various gesture operations can be recognized, and control signals corresponding to the recognized gesture operations can be transmitted to the in-vehicle electronic device 20.
  • FIG. 9 an example of the “circular region in consideration of the movable range of the thumb for the portion 116 for determining the rotation gesture” unique to the present embodiment and an operation performed by the in-vehicle electronic device 20 in accordance therewith Give up.
  • the in-vehicle electronic device 20 displays an initial screen 21 a shown in FIG. 9 on the display unit 21.
  • the control unit 200 recognizes OP10 and corresponds to the recognized OP10.
  • the attached volume control signal is transmitted.
  • the in-vehicle electronic device 20 that has received the volume control signal switches the initial screen 21a to the volume operation screen 21b and changes the audio volume according to OP10.
  • the user can change the audio volume of the in-vehicle electronic device 20 by performing OP10.
  • the portion 116 for determining the rotation gesture is an area in consideration of the movable range of the thumb, so that the user can use the raised portion 111b or the recessed portion provided on the operation surface.
  • the intended operation can be appropriately performed without performing an operation according to the shape such as 111c, and the recognition accuracy of the rotation gesture can be improved.
  • this allows the user to input the operation requested by the user because the thumb passes over the region for determining the rotation in the locus of the rotation gesture actually input while holding the steering wheel.
  • the annular region in consideration of the movable range of the thumb on which the user grips the steering wheel as a part for determining the rotation gesture is not limited to the first embodiment. 11, an ellipse having a minor axis in the direction of the base of the thumb (in the direction of arrow L in FIG. 11) assuming that the user grips the steering wheel 10 with respect to the design including the raised portion 111 b and the depressed portion 111 c.
  • An annular region may be used.
  • the portion 116 for determining the rotation gesture is an area in consideration of the movable range of the thumb, so that the user can use the raised portion 111b or the recessed portion provided on the operation surface.
  • the intended operation can be appropriately performed without performing an operation according to the shape such as 111c, and the recognition accuracy of the rotation gesture can be improved.
  • this allows the user to input the operation requested by the user because the thumb passes over the area for determining the rotation gesture in the input locus of the rotation gesture while holding the steering wheel.
  • the part for determining the rotation gesture is that the user holds the steering wheel 10 with respect to the design including the raised portion 111b and the recessed portion 111c. It may be an annular region in which the width of the fingertip side of the thumb assumed to have been increased.
  • the portion for determining the rotation gesture does not correspond to the design formed by the raised portion 111b and the recessed portion 111c in FIGS. However, there is a case where a tracing operation is not input because it exists in the upper left portion of the hollow portion 111c.
  • the portion for determining the rotation gesture is also present in the upper left portion of the hollow portion 111c. Therefore, even in the operation of the rotation gesture reaching the upper left portion of the recess 111c based on the design, the thumb passes over the determination area, and thus the operation requested by the user can be input.
  • a design showing a rotation gesture region including a raised portion 111 b and a hollow portion 111 c is shaped in consideration of the movable range of the thumb that the user holds the steering wheel 10. This is an oval design with the minor axis in the base direction of the thumb (in the direction of arrow L in FIG. 13) assuming that the user has gripped the steering wheel 10. And in this embodiment, the part which determines a rotation gesture corresponds with the said design.
  • the design and the area for judging the rotation gesture are made the same, so that the user can easily and reliably perform the rotation gesture along the design even with a thumb whose movable range is limited while holding the steering wheel. Can be traced, improving operability.
  • the shape of the design is not limited to the fourth embodiment, and as the fifth embodiment, as shown in FIG. 14, a second dent 117 is further formed inside the dent 111c.
  • the design showing the rotation gesture region formed on the outer side of the second dent part 117 and the inner side of the dent part 111c is made into a shape that takes into consideration the movable range of the thumb on which the user grips the steering wheel 10.
  • the portion of the thumb that is difficult to reach with the assumption that the fingertip is gripped is an annular design in which the width on the fingertip side of the thumb is widened.
  • the part which determines a rotation gesture corresponds with the said design.
  • the design and the area for judging the rotation gesture are made the same, so that the user can easily and reliably perform the rotation gesture along the design even with a thumb whose movable range is limited while holding the steering wheel. Can be traced, improving operability.
  • the step shape of the operation surface of the vehicle operation device 100 is not limited to the shape according to the above embodiment. Further, the design has a three-dimensional shape including the raised portion 111b and the hollow portion 111c. However, the design is not limited to the three-dimensional shape, and may be a pattern or the like.
  • the sensor sheet 112 is a projected capacitance type, but is not limited thereto.
  • the surface capacitance method may be used, or a method other than a capacitance method such as a resistance film method may be used. Even in this case, the sensor sheet 112 may be integrally formed with the front cover 111 (operation surface).
  • only one vehicle operating device 100 is provided on the steering 10, but the present invention is not limited to this.
  • a plurality of vehicle operating devices 100 may be arranged on the steering 10. For example, by providing another vehicle operation device 100 at a position where the user can operate the main body 11 of the steering wheel 10 with the left thumb while gripping the steering wheel 10, a total of two vehicle operation devices 100 are provided on the steering wheel 10. You may arrange. Further, two vehicular operation devices 100 are provided on the back surface of the two vehicular operation devices 100 provided in this way (the back side of the main body 11) so that both of the index fingers can be operated. Four vehicle operating devices 100 may be arranged.
  • an example of a vehicle on which the vehicle operating device 100 is mounted is a vehicle, but is not limited thereto. It can also be mounted on a ship, an aircraft, or the like.
  • the present invention relates to a vehicle operation device, and is particularly applicable to a vehicle operation device mounted on a steering wheel.
  • First set value, Q2... Second set value DESCRIPTION OF SYMBOLS 20 ... Car-mounted electronic device 21 ... Display part 21a ... Initial screen, 21b ... Volume operation screen, 21c ... Audio operation screen 21d ... Sound source selection screen, 21e ... Music search screen OP10 ... Gesture operation along the ridge 30 ... Vehicle speed sensor 40 ... Rudder angle sensor

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 ステアリングを把持した状態の親指での操作であっても入力精度を向上させることが可能な車両用操作装置を提供する。 乗り物のステアリング10に搭載され入力操作を受け付ける車両用操作装置100であって、前記入力操作を行う被検出体が接触する操作面と、前記被検出体が前記操作面と接触した位置を検出するためのセンサ部と、を備え、前記操作面は、回転ジェスチャ領域を示す意匠を備え、前記センサ部は、回転ジェスチャを判定する部分をユーザがステアリング10を把持した親指の可動範囲を考慮した環状の領域としたものである。

Description

車両用操作装置
 本発明は、車両用操作装置に関し、特に、ステアリングに搭載した車両用操作装置に関するものである。
 従来の車両用操作装置は、ユーザが操作面上を所定の軌跡を描くようになぞる入力操作を受け付けるものであり、操作面には、入力操作の基準となる隆起部が形成されたものである。この車両用操作装置は、乗り物のステアリングに搭載されたものであった(特許文献1参照)。
特開2012-53592号公報
 しかし、従来の車両用操作装置は、ステアリングを把持した状態で、円を描くように回転するジェスチャを行う際に、ステアリングを把持することによって親指の可動範囲が制限され、正確に円を描くように回転する操作が入力しづらく、回転する操作が、円を描くような回転として認識されにくいといった問題があった。
 そこで本発明は、前記問題点を解消し、ステアリングを把持した状態の親指での操作であっても入力精度を向上させることが可能な車両用操作装置を提供することを目的とする。
 上記目的を達成するため、本発明に係る車両用操作装置は、乗り物のステアリングに搭載され入力操作を受け付ける車両用操作装置であって、前記入力操作を行う被検出体が接触する操作面と、前記被検出体が前記操作面と接触した位置を検出するためのセンサ部と、を備え、前記操作面は、回転ジェスチャ領域を示す意匠を備え、前記センサ部は、回転ジェスチャを判定する部分をユーザが前記ステアリングを把持した親指の可動範囲を考慮した環状の領域としたものである。
 本発明にかかる車両用操作装置によれば、ステアリングを把持した状態の親指での操作であっても入力精度を向上させることが可能である。
本発明の第1実施形態に係る車両用操作装置を含むシステムの構成図である。 車両用操作装置が搭載される車両内の運転席付近の概観図である。 (a)は、車両用操作装置の構成を示す分解斜視図であり、(b)は、本図(a)に示す各部を組み付けた後の斜視図である。 (a)は、接触センサの平面図であり、(b)は、本図(a)における接触センサにおける表面カバー、センサシート及びスペーサのA-A断面図である。 センサシートが有する第1のセンサ列及び第2のセンサ列を説明する図である。 第1実施形態に係る制御装置が実行する車載電子機器制御処理のフローチャートである。 (a)及び(b)は、ジェスチャ特徴量の一例を説明するための図である。 ジェスチャ操作に係るジェスチャ特徴量の一例を説明するための図である。 ジェスチャ操作と、それに応じて実行される車載電子機器の動作の一例を示した図である。 回転ジェスチャを判定する部分を示す車両用操作装置の正面図である。 本発明の第2実施形態に係る回転ジェスチャを判定する部分を示す車両用操作装置の正面図である。 本発明の第3実施形態に係る回転ジェスチャを判定する部分を示す車両用操作装置の正面図である。 本発明の第4実施形態に係る回転ジェスチャを判定する部分を示す車両用操作装置の正面図である。 本発明の第5実施形態に係る回転ジェスチャを判定する部分を示す車両用操作装置の正面図である。
 本発明の一実施形態に係る車両用操作装置を、図面を参照して説明する。
 1.第1実施形態
 第1実施形態に係る車両用操作装置は、図1に示す、車両1に搭載される車両用操作装置100である。車両1のユーザ(通常、運転者)が、車両用操作装置100を操作すると、制御装置1000は、その操作に応じた各種動作を車載電子機器20に実行させる。
 (車両1の構成)
 車両1は、図2に示すように、ステアリング10と、車載電子機器20と、を備える。
 ステアリング10は、車両1の操舵装置の一部であり、本体部11と、ステアリングホイール12と、を備える。
 本体部11は、車両1の図示しないステアリングシャフトと接続されるスポーク部であり、右側に車両用操作装置100を備える。また、本体部11には、車両用操作装置100の形状にあわせた取付孔(図示せず)が形成されている。取付孔に車両用操作装置100が取り付けられることにより、車両用操作装置100の後述する操作面のみが露出する。
 ステアリングホイール12は、本体部11に取り付けられる、運転者が車両1を操舵する際に握るリング形状の部材である。
 車載電子機器20は、オーディオ装置、カーナビゲーション装置等であり、後述する制御部200と電気的に接続され、制御部200から受信した制御信号に従って動作する。また、車載電子機器20は、その表示部21に動作に対応した画像を表示する。
 (制御装置1000の構成)
 制御装置1000は、車両用操作装置100と、制御部200と、記憶部300と、を備える。
 車両用操作装置100は、図3(a)及び(b)に示すように、接触センサ110と、スイッチ装置120と、を備える。
 接触センサ110は、ユーザが、親指等でその操作面上を所定の軌跡を描くようになぞる操作(以下、ジェスチャ操作と言う)を行った際に、後述する制御部200の制御のもと、親指等が操作面に触れた位置を検出するタッチパッド装置であり、表面カバー111と、センサシート112と、スペーサ113と、下ケース114と、上ケース115と、を備える。
 表面カバー111は、アクリル樹脂等の絶縁材料からシート状に形成され、ジェスチャ操作が行われる際に、ユーザの指等が触れる操作面を有する。表面カバー111の操作面は、図4(b)に示すように、凹凸を有し、これによってこの操作面には段差が形成されている。このような操作面は、平面部111a、隆起部111b、窪み部111c、隙間部111dから構成される。
 平面部111aは、表面カバー111の平面状の部分である。
 隆起部111bは、図4(b)に示すように、平面部111aから表側方向に盛り上がるように隆起する部分である。表側から見れば、図4(a)に示すように、円弧状に形成された隆起部111bが、円を略囲むように、所定の間隔をおいて複数配置されていることがわかる。なお、「表側」とは、図3(a)の両端矢印で示すように、車両用操作装置100に対してユーザ側をいい、「裏側」とは、その反対側をいうものとする。
 窪み部111cは、図4(b)に示すように、操作面の略中央に位置し、平面部111aから裏側方向に沈むように窪んだ部分であり、図4(a)に示すように、円状に配置された隆起部111bよりも内側に形成されている。隆起部111b及び窪み部111cによって、回転ジェスチャ領域を示す意匠を構成している。
 隙間部111dは、図4(a)に示すように(4つの隙間部111dのうちの一つを二点鎖線で示した)、円弧状の各隆起部111bの間の部分である。隙間部111dは、平面部111aの一部である。
 平面部111aと隆起部111bと窪み部111cとは、ユーザのジェスチャ操作を妨げることがないように、図4(b)に示すように、その断面形状は、互いになめらかに繋がって形成されている。
 センサシート112は、指等の被検出体の位置を検出するための複数のセンサ1120(検出電極)を有する投影静電容量方式のセンサシートであり、表面カバー111の裏面側に位置する。
 センサシート112は、図5に示すように、X方向における被検出体の位置を検出するための第1のセンサ列112aを有する層と、Y方向における被検出体の位置を検出するための第2のセンサ列112bを有する層を重ね合わせ概略構成されている。第1のセンサ列112aと第2のセンサ列112bが合わさることにより、結果的に、センサシート112には、センサ1120がマトリックス状に配置されることになる。第1のセンサ列112aと第2のセンサ列112bは、各々、後述する制御部200と電気的に接続されている。
 表面カバー111に指等の被検出体が触れると、その裏面側に位置するセンサ1120と被検出体との間の静電容量が変化する。制御部200と各センサ1120とは電気的に接続されているので、制御部200は、各センサにおける静電容量の変化を検出できる。制御部200は、この静電容量の変化に基づいて、被検出体の接触位置を示す入力座標値(X,Y)を算出する。入力座標値は、操作面上に予め設定されている、各センサ1120におけるXY座標系における座標値である。入力座標値は、X方向における静電容量の変化の分布の重心位置(例えば、静電容量が一定の閾値よりも高くかつ最も大きいセンサ1120の位置)に割り当てられているX座標と、Y方向における静電容量の変化の分布の重心位置(例えば、静電容量が一定の閾値よりも高くかつ最も大きいセンサ1120の位置)に割り当てられているY座標と、によって表される。制御部200は、このX座標及びY座標を算出することによって入力座標値(X,Y)を算出する。センサ1120は、図10で示すように、回転ジェスチャを判定する部分116を、ユーザが前記ステアリング10を把持した親指の可動範囲を考慮した環状の領域としており、本実施形態では、回転ジェスチャを判定する部分は、意匠に対してユーザがステアリング10を把持したと仮定した親指の付け根方向(図10の矢印L方向)に移動した環状の領域としている。
 図4に戻って、センサシート112は、絞り加工により表面カバー111と一体成形されることで、表面カバー111と同様の形状に加工される(図4(b)参照)。このように一体成形されることで、表面カバー111とセンサシート112は、一枚のシートのようになり、操作面が有する隆起部111b、窪み部111c等の段差形状は、その一枚のシートの曲がった部分で構成されることになる。また、このように一体成形されることで、表面カバー111の裏面とセンサシート112の表面とが当接する。これにより、表面カバー111の段差形状に対応して、センサ1120が配置されることになる。このようにセンサ1120が配置されているため、隆起部111b等の段差形状を有した操作面上で行われたジェスチャ操作であっても、制御部200は、各センサにおける静電容量の変化を検出できる。
 スペーサ113は、センサシート112の裏面側に位置し、図4(b)に示すように、一体成形された表面カバー111とセンサシート112の形状に合わせて形成され、ユーザ操作により表面カバー111の表側から押圧が加わった際にこれらの形状を保持する部材である
 図3に戻って、下ケース114は、合成樹脂等から形成される箱状の部材であり、その表側に上記の各部111~113を収納する。
 上ケース115は、上記の各部111~113を収納した下ケース114を表側から覆う蓋部であり、表面カバー111の操作面を露出させる開口部を有して、合成樹脂等から形成される。
 スイッチ装置120は、接触センサ110の裏面側に位置し、制御部200と電気的に接続される。ユーザが車両用操作装置100の操作面を押下する操作(以下、入力確定操作という)を行うと、スイッチ装置120は押され、所定の入力信号を制御部200に送信する。入力確定操作は、後述するように、所定のジェスチャ操作で選択したコマンドを確定する際になされる。
 ここで、車両用操作装置100は、ステアリング10の本体部11に、例えば、接触センサ110の上ケース115が本体部11と軟質樹脂で溶着されることにより、取り付けられる。このように取り付けられることにより、ユーザが操作面を押下すると、接触センサ110が沈み、スイッチ装置120が押される仕組みとなっている。
 以上の各部により、車両用操作装置100は構成される。車両用操作装置100の組み付け後の概観を図3(b)に示す。
 図1に戻って、制御部200は、CPU(Central Processing Unit)等から構成され、記憶部300に格納されている動作プログラムを実行して、各種の処理や制御を行う。制御部200は、その少なくとも一部が、ASIC(Application Specific Integrated Circuit)等の各種専用回路によって構成されてもよい。
 記憶部300は、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ等から構成され、制御部200を構成するCPUのワークエリア、CPUが実行する動作プログラムを記憶するプログラムエリア、データエリア等として機能する。
 プログラムエリアには、i)後述する車載電子機器制御処理を実行するためのプログラム、ii)スイッチ装置120が受け付けた入力確定操作に応じて所定の制御信号を車載電子機器20に送信するためのプログラム、等の動作プログラムが記憶される。
 データエリアには、図示するように、ジェスチャ辞書G、対応動作データC、後述するジェスチャ特徴量の所定値である設定値Q、等が予め記憶されている。
 ジェスチャ辞書Gは、行われているジェスチャ操作を認識するために必要となるデータであり、ジェスチャ操作によって描かれる軌跡の特徴を示す複数のパターンを含む。ジェスチャ操作の特徴を示すパターンは、後述するジェスチャ特徴量の各成分の組合せから構成されている。本実施形態において、このパターンは、後述する「隆起部を基準としたジェスチャ操作」の特徴を示すパターンである。
 対応動作データCは、車載電子機器20に所定の動作を実行させる制御信号のデータである。対応動作データCは、複数あり、その各々が、ジェスチャ辞書Gが含む複数のパターンと対応付けられている。例えば、隆起部111bに沿った円弧状のジェスチャ操作の特徴を示すパターンには、車載電子機器20にオーディオ音量の変更を実行させる音量制御信号を送信するコマンドのデータが対応動作データCとして対応付けられて予めデータエリアに記憶されている。
 設定値Qは、ジェスチャ特徴量の所定値のデータであり、制御信号を車載電子機器20へ送信するトリガーの役割となるデータである。設定値Qは、ジェスチャ辞書Gが含む複数のパターンごとに対応付けられている。つまり、設定値Qは複数ある。ここで、設定値Qとの比較対象として選択されるジェスチャ特徴量は、例えば、複数の入力座標値を、時系列順に直線で繋いだ軌跡における、軌跡の長さSである。
 制御装置1000の動作については、後に詳細に述べるが、ここで、ジェスチャ辞書G、対応動作データC、設定値Q、それぞれの役割について簡潔に述べる。i)ジェスチャ辞書Gは、行われているジェスチャ操作が、予め定められたどのパターンに属するか(即ち、どのような種類のジェスチャ操作であるか)を認識するために用いられる。ii)対応動作データCは、ジェスチャ辞書Gを基に認識したジェスチャ操作に応じてどのような制御信号を車載電子機器20に送信するか、を判別するために用いられる。iii)設定値Qは、認識されたジェスチャ操作に係るジェスチャ特徴量がどのような値に達したら、対応動作データCに基づく制御信号を送信するか、を判別するために用いられる。
 なお、記憶部300に格納される各データは、既知のデータ登録手法を用いて、デフォルト値として或いはユーザ自身の操作により適宜格納される。
 (動作)
 以上の構成からなる制御装置1000は、接触センサ110の操作面上で行われた、本実施形態に特有の「隆起部を基準としたジェスチャ操作」に応じて、車載電子機器20の各種動作を制御する。このような制御を実現する車載電子機器制御処理について説明する。
 [車載電子機器制御処理]
 図6のフローチャートに係る処理は、制御部200により実行される。この処理は、例えば、車載電子機器20の起動を条件に開始される。
 制御部200は、処理を開始すると、接触センサ110において操作入力中であるかを判別する(ステップS101)。操作入力中であるかは、制御部200が、X方向及びY方向において、静電容量が前記の一定の閾値よりも高くなっているセンサ1120があるか否かによって判別される。このようなセンサ1120がX方向及びY方向において在る場合、被検出体が操作面を触れている可能性が高いので、操作入力が行われている可能性が高い。このため、制御部200は、この場合に、操作入力を受け付けていると判別し(ステップS101;Yes)、ステップS102の処理を行う。制御部200は、それ以外の場合には、操作入力を受け付けていないと判別し(ステップS101;No)、ステップS101の処理を行う。制御部200は、このようにして、操作入力が行われるまで待機する。なお、制御部200は、図示しないタイマ等によって計時を行うが、既に計時が行われており、かつ、ステップS101でNoと判別した場合には、計時を終了する。また、制御部200は、ステップS101でYesと判別した場合に、既に計時を行っている場合には、計時を続行するが、計時が行われていない場合には、計時を開始する。このようにして、制御部200は、最初の接触から接触が解除されるまで、連続的に計時を行うことになる。
 ステップS102で、制御部200は、入力座標値(X,Y)を算出して(上記参照)、ステップS103へ進む。なお、制御部200は、算出した入力座標値を時系列順に記憶部300に記録する。入力座標値は、時系列に沿って計時が終了又は記録されてから所定期間が経過するまで、記録されるものとする。これによって、現在とこの現在から所定の時間遡ったタイミングとの間に算出された複数の入力座標値が記録される。
 ステップS103で、制御部200は、各種のジェスチャ特徴量を算出して、ステップS104へ進む。
 ここで、ジェスチャ特徴量とは、現在行われているジェスチャ操作によって描かれる軌跡の特徴を示す量である。ジェスチャ特徴量は、計時時間、計時開始後最初に算出された入力座標値(X0,Y0)及び現在算出された入力座標値(X,Y)に基づいて算出される量である。計時開始後最初に算出された入力座標値(X0,Y0)は、つまり、操作入力を開始したときの最初の位置を表す。
 ジェスチャ特徴量は、現在算出された入力座標値(X,Y)、入力座標値(X0,Y0)から入力座標値(X,Y)への、X方向の座標間距離(Lx)及びY方向の座標間距離(Ly)、方向(d)、移動時間(t)である(図7(a)参照)。Lxは、X-X0、Lyは、Y-Y0、dは、LxとLyから算出される量、tは、計時開始からの時間間隔である。これらのジェスチャ特徴量の組合せにより、制御部200は、ユーザが車両用操作装置の操作面上をなぞった軌跡を表す情報を取得することができる。
 ジェスチャ特徴量は、ジェスチャ操作に描かれる軌跡の特徴を抽出した量であればよいので、上記のパターンに限られない。ジェスチャ特徴量として、どのような量を選択するか、選択した量をどのように組み合わせるかは、認識させたいジェスチャ操作の性質を鑑みて適宜決定される。回転方向のジェスチャ操作を認識させたいのであれば、ジェスチャ特徴量として回転方向(θ)を算出してもよいし(図7(b)参照)、座標間距離(L={(Lx)2+(Ly)2}1/2)、速さ(V=L/t)、を算出してもよい。
 なお、ステップS102で、2つの入力座標値が記憶されていない場合は、ジェスチャ特徴量が算出されないため、図示はしていないが、ステップS101に戻ることになる。また、ステップS103で、算出されたジェスチャ特徴量は、計時が終了するまで、記憶される。
 ステップS104で、制御部200は、ステップS103で算出し、記憶したジェスチャ特徴量に基づいて、行われているジェスチャ操作がジェスチャ辞書Gに含まれる複数のジェスチャ操作のパターンのいずれかに該当するかを、所定の照合方法で認識する処理を行う。この所定の照合は、算出したジェスチャ特徴量の組合せとジェスチャ辞書Gが含むジェスチャ操作のパターンを、NN法(Nearest Neighbor algorithm)、k-NN法(k-nearest neighbor algorithm)等により比較することにより行われる。つまり、このステップS104では、行われているジェスチャ操作が、どのような種別に該当するかを判別する処理を行う。
 行われているジェスチャ操作が認識された場合(ステップS104;Yes)、ステップS105へ進む。一方、行われているジェスチャ操作が認識されない場合(ステップS104;No)、ステップS101に戻る。
 ステップS105で、制御部200は、算出したジェスチャ特徴量が、ステップS104で認識されたジェスチャ操作に係るパターンと対応付けられた設定値Qに達したか否かを判別する。ここで、設定値Qと比較されるジェスチャ特徴量は、ジェスチャ辞書Gに含まれる複数のパターンごとに、認識させたいジェスチャ操作の特性に応じて、適宜、定められている。例えば、認識されたジェスチャ操作が、隆起部111bに沿って操作面上を円弧状になぞる操作であれば、当該ジェスチャ操作のパターンと対応付けられた設定値Qと比較されるジェスチャ特徴量は、複数の入力座標値を、時系列順に直線で繋いだ軌跡における、軌跡の長さSである。ジェスチャ特徴量が所定の設定値に達していた場合(ステップS105;Yes)、ステップS106へ進む。一方、ジェスチャ特徴量が所定の設定値Qに達していない場合(ステップS105;No)、ステップS101に戻る。
 ステップS106で、制御部200は、記憶部300から対応動作データCを読み出し、認識されたジェスチャ操作に対応した制御信号を車載電子機器20に送信して、ステップS101に戻る。
 ステップS104~ステップ106の流れを簡潔に説明すれば、i)制御部200は、行われたジェスチャ操作が、ジェスチャ辞書Gに含まれている複数のパターンのいずれかに該当するかを判別する(即ち、行われているジェスチャ操作を認識する)。ii)認識されたジェスチャ操作に係るパターンに対応付けられた設定値Qに、算出したジェスチャ特徴量が達しているかを判別する。iii)ジェスチャ特徴量が設定値Qに達していた場合、認識されたジェスチャ操作に係るパターンに対応した制御信号を送信する。という流れになる。
 以上が、車載電子機器制御処理の手順である。次に、この処理が実際のジェスチャ操作をどのように認識するかの一例を、隆起部111bに沿ったジェスチャ操作が行われている場合を想定して、簡潔に説明する。なお、下記の符合は、図8(a)に示すところに拠る。
 制御部200は、計時開始後最初に算出した入力座標値(X0,Y0)と、その次に算出した第1の入力座標値(X1,Y1)から第1のジェスチャ特徴量(座標間距離L1,方向d1等)を算出する(ステップS103)。
 例えば、第1のジェスチャ特徴量から、ジェスチャ操作が認識されなかった場合(ステップS104;No)、制御部200は、入力座標値(X0,Y0)と、第1の入力座標値(X1,Y1)の次に算出した入力座標値(X2,Y2)から第2のジェスチャ特徴量(座標間距離L2,方向d2等)を算出する(ステップS103)。
 そして、第1のジェスチャ特徴量と第2のジェスチャ特徴量の組合せから、前記方法でジェスチャ操作を認識する処理を行う(ステップS104)。
 例えば、図10に示す、点線で表した2つの円の間のハッチングを施した領域内を、ステアリングを把持した親指の可動範囲を考慮したジェスチャ操作の特徴を示すパターンがジェスチャ辞書Gに含まれているものとすれば、第1のジェスチャ特徴量であるL1,d1と第2のジェスチャ特徴量L2,d2を組合せたデータより、第2の入力座標値が算出された時点では、第1の入力座標値が算出された時点に比べて、座標間距離Lが大きくなり、かつ、方向dの推移によりX方向に向かっている時計回りに、窪み部111c内をなぞるジェスチャ操作が行われた可能性が高いという情報が得られる。このような情報からジェスチャ操作を認識することができる。
 窪み部111c内をなぞるジェスチャ操作以外であっても、上記同様、隆起部111bや窪み部111cが形成された位置、及び、その近傍の範囲、を示す座標値に基づき、認識させたいジェスチャ操作の特徴を示す複数のパターンを作成し、ジェスチャ辞書Gにデータとして含ませれば、様々な、ジェスチャ操作を認識し、認識したジェスチャ操作に対応した制御信号を車載電子機器20に送信できる。以下に、図9を参照して、本実施形態に特有の「回転ジェスチャを判定する部分116を親指の可動範囲を考慮した環状の領域」とそれに応じて車載電子機器20が実行する動作の一例を挙げる。
 (親指の可動範囲を考慮した環状の領域をなぞるジェスチャ操作の一例)
 <窪み部内(隆起部)をなぞるジェスチャ操作OP10>
 イグニッションのオンに伴って、動作電力が供給されると、車載電子機器20は、表示部21に、図9に示す初期画面21aを表示する。初期画面21aの状態で、ユーザが、操作面の窪み部111cを隆起部111bに倣って時計回りになぞるジェスチャ操作OP10を行うと、制御部200は、OP10を認識して、認識したOP10に対応付けられた音量制御信号を送信する。音量制御信号を受信した車載電子機器20は、初期画面21aを音量操作画面21bに切り替えるとともにOP10に応じてオーディオ音量を変更する。このように、ユーザはOP10を行って、車載電子機器20のオーディオ音量を変更することができる。
 本実施形態に係る車両用操作装置100においては、回転ジェスチャを判定する部分116が、親指の可動範囲を考慮した領域であるため、ユーザは、操作面上に設けられた隆起部111bや窪み部111c等の形状に合わせた操作を行うことなく、適確に意図する操作を行うことができ、回転ジェスチャの認識精度を向上させることができる。
 また、これにより、ステアリングを把持した状態で実際に入力される回転ジェスチャの軌跡において、前記回転を判定する領域の上を親指が通過するため、ユーザが要求した操作を入力することができる。
 2.第2実施形態
 センサ1120において、回転ジェスチャを判定する部分をユーザが前記ステアリングを把持した親指の可動範囲を考慮した環状の領域としては、第1実施形態に限定されるものではなく、例えば、図11に示すように、隆起部111bおよび窪み部111cなどからなる意匠に対して、ユーザがステアリング10を把持したと仮定した親指の付け根方向(図11の矢印L方向)を短軸とした楕円形の環状の領域としたものであってもよい。
 本実施形態に係る車両用操作装置100においては、回転ジェスチャを判定する部分116が、親指の可動範囲を考慮した領域であるため、ユーザは、操作面上に設けられた隆起部111bや窪み部111c等の形状に合わせた操作を行うことなく、適確に意図する操作を行うことができ、回転ジェスチャの認識精度を向上させることができる。
 また、これにより、ステアリングを把持した状態で、入力される回転ジェスチャの軌跡において、回転ジェスチャを判定する領域の上を親指が通過するため、ユーザが要求した操作を入力することができる。
 3.第3実施形態
 さらに、第3実施形態として、例えば、図12に示すように、回転ジェスチャを判定する部分は、隆起部111bおよび窪み部111cなどからなる意匠に対して、ユーザがステアリング10を把持したと仮定した親指の指先側の幅を拡げた環状の領域としたものであってもよい。本実施形態においては、第1、第2実施形態のように、回転ジェスチャを判定する部分が、図10、11中では、隆起部111b、窪み部111cで形成される意匠に対応していない部分が、窪み部111cの左上部分に存在するために、なぞる操作が入力されない状況が発生する場合が考えられるが、本実施形態では、回転ジェスチャを判定する部分が、窪み部111cの左上部分にも存在するために、意匠に基づく、窪み部111cの左上部分に達する回転ジェスチャの操作においても、判定領域の上を親指が通過するため、ユーザが要求した操作を入力することができる。
 4.第4実施形態
 第4実施形態として、図13に示すように、隆起部111bおよび窪み部111cなどからなる回転ジェスチャ領域を示す意匠をユーザがステアリング10を把持した親指の可動範囲を考慮した形状とし、ユーザがステアリング10を把持したと仮定した親指の付け根方向(図13の矢印L方向)を短軸とした楕円形の意匠としたものである。そして、本実施形態では、回転ジェスチャを判定する部分が、前記意匠と合致したものである。
 以上の構成によって、意匠と回転ジェスチャを判定する領域を同一にすることで、ユーザはステアリングを把持した状態の可動範囲が制限された親指でも意匠に沿って回転ジェスチャを簡単に、かつ確実に意匠の上をなぞることができ、操作性が向上する。
 5.第5実施形態
 意匠の形状は、第4実施形態に限定されるものではなく、第5実施形態として、図14に示すように、窪み部111cの内側にさらに窪んだ第2窪み部117を形成し、この第2窪み部117の外側と窪み部111cの内側にて構成される回転ジェスチャ領域を示す意匠を、ユーザがステアリング10を把持した親指の可動範囲を考慮した形状とし、ユーザがステアリング10を把持したと仮定した親指の指先が届きにくい部分を親指の指先側の幅を拡げた環状の意匠としたものである。そして、本実施形態では、回転ジェスチャを判定する部分が、前記意匠と合致したものである。
 以上の構成によって、意匠と回転ジェスチャを判定する領域を同一にすることで、ユーザはステアリングを把持した状態の可動範囲が制限された親指でも意匠に沿って回転ジェスチャを簡単に、かつ確実に意匠の上をなぞることができ、操作性が向上する。
 6.変形例
 なお、本発明は、以上の実施形態に限定されるものではなく、種々の変形が可能である。以下に変形の例を示す。
 車両用操作装置100の操作面が有する段差形状は、以上の実施形態に係る形状に限られない。また、意匠は、隆起部111bと窪み部111cからなる立体的な形状であったが、立体的な形状に限定されるものではなく、模様などであっても良い。
 また、以上の実施形態においてセンサシート112は、投影静電容量方式であるとしたが、これに限られない。表面静電容量方式であってもよいし、抵抗膜方式等の静電容量方式以外のものであってもよい。この場合においても、センサシート112を表面カバー111(操作面)と一体成形すればよい。
 また、以上の実施形態においては、ステアリング10に車両用操作装置100を1つのみ設けたがこれに限られない。車両用操作装置100は、ステアリング10に複数配置されてもよい。例えば、ステアリング10の本体部11の、ユーザがステアリング10を把持しながら左手親指で操作できる位置に車両用操作装置100をもう1つ設けることで、ステアリング10に計2つの車両用操作装置100を配置してもよい。また、このように設けられた2つの車両用操作装置100の背面(本体部11の裏面側)に、両手の人差し指で操作できるようにさらに2つの車両用操作装置100を設け、ステアリング10に計4つの車両用操作装置100を配置してもよい。
 また、以上の実施形態では、車両用操作装置100が搭載される乗り物の一例を車両としたが、これに限られない。船舶、航空機等に搭載することも可能である。
 なお、本発明の要旨を変更しない範囲で、適宜、実施形態及び図面に変更(構成要素の削除も含む)を加えることが可能である。
 本発明は、車両用操作装置に関し、特に、ステアリングに搭載する車両用操作装置に利用可能である。
 1…車両
  10…ステアリング
   11…本体部
   12…ステアリングホイール
 
  1000…制御装置
   100…車両用操作装置
    110…接触センサ
     111…表面カバー
      111a…平面部、111b…隆起部、111c…窪み部、111d…隙間部
     112…センサシート
      112a…第1のセンサ列
      112b…第2のセンサ列
       1120…センサ
     113…スペーサ
     114…下ケース
     115…上ケース
     116…回転ジェスチャ判定部
    120…スイッチ装置
   200…制御部
   300…記憶部
    G…ジェスチャ辞書、C…対応動作データ、Q…所定の設定値
    Q1…第1の設定値、Q2…第2の設定値
 
  20…車載電子機器
   21…表示部
    21a…初期画面、21b…音量操作画面、21c…オーディオ操作画面
    21d…音源選択画面、21e…楽曲サーチ画面
 
  OP10…隆起部に沿ったジェスチャ操作
 
  30…車速センサ
  40…舵角センサ
 

Claims (7)

  1. 乗り物のステアリングに搭載され入力操作を受け付ける車両用操作装置であって、前記入力操作を行う被検出体が接触する操作面と、前記被検出体が前記操作面と接触した位置を検出するためのセンサ部と、を備え、前記操作面は、回転ジェスチャ領域を示す意匠を備え、前記センサ部は、回転ジェスチャを判定する部分をユーザが前記ステアリングを把持した親指の可動範囲を考慮した環状の領域としたことを特徴とする車両用操作装置。
  2. 前記回転ジェスチャを判定する部分は、前記意匠に対して前記ユーザが前記ステアリングを把持したと仮定した親指の付け根方向に移動した環状の領域としたことを特徴とする請求項1に記載の車両用操作装置。
  3. 前記回転ジェスチャを判定する部分は、前記意匠に対して前記ユーザが前記ステアリングを把持したと仮定した前記親指の付け根方向を短軸とした楕円形の環状の領域としたことを特徴とする請求項1に記載の車両用操作装置。
  4. 前記回転ジェスチャを判定する部分は、前記意匠に対して前記ユーザが前記ステアリングを把持したと仮定した親指の指先側の幅を拡げた環状の領域としたことを特徴とする請求項1に記載の車両用操作装置。
  5. 前記回転ジェスチャ領域を示す意匠を前記ユーザが前記ステアリングを把持した親指の可動範囲を考慮したことを特徴とする請求項1に記載の車両用操作装置。
  6. 前記回転ジェスチャ領域を示す意匠を前記ユーザが前記ステアリングを把持した親指の可動範囲を考慮し、前記ユーザが前記ステアリングを把持したと仮定した前記親指の付け根方向を短軸とした楕円形の意匠としたことを特徴とする請求項1に記載の車両用操作装置。
  7. 前記回転ジェスチャ領域を示す意匠を前記ユーザが前記ステアリングを把持した親指の可動範囲を考慮し、前記ユーザが前記ステアリングを把持したと仮定した親指の指先が届きにくい部分を前記親指の指先側の幅を拡げた環状の意匠としたことを特徴とする請求項1に記載の車両用操作装置。
PCT/JP2014/053493 2013-02-28 2014-02-14 車両用操作装置 WO2014132818A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US14/769,780 US20160026267A1 (en) 2013-02-28 2014-02-14 Vehicular operating device
EP14756833.1A EP2962902A4 (en) 2013-02-28 2014-02-14 DEVICE FOR OPERATING A VEHICLE

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-038793 2013-02-28
JP2013038793A JP6136365B2 (ja) 2013-02-28 2013-02-28 車両用操作装置

Publications (1)

Publication Number Publication Date
WO2014132818A1 true WO2014132818A1 (ja) 2014-09-04

Family

ID=51428090

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/053493 WO2014132818A1 (ja) 2013-02-28 2014-02-14 車両用操作装置

Country Status (4)

Country Link
US (1) US20160026267A1 (ja)
EP (1) EP2962902A4 (ja)
JP (1) JP6136365B2 (ja)
WO (1) WO2014132818A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101696596B1 (ko) * 2015-07-10 2017-01-16 현대자동차주식회사 차량, 및 그 제어방법
JP6557201B2 (ja) * 2016-09-28 2019-08-07 矢崎総業株式会社 車載機器操作装置
DE102017106207A1 (de) * 2017-03-22 2018-09-27 Fm Marketing Gmbh Rasterplatte
FR3137023B1 (fr) * 2022-06-27 2024-06-14 Faurecia Interieur Ind Système de commande comprenant un organe de commande et procédé de fabrication associé

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009262667A (ja) * 2008-04-23 2009-11-12 Denso It Laboratory Inc タッチ式センサ
JP2012053592A (ja) 2010-08-31 2012-03-15 Nippon Seiki Co Ltd 入力装置
JP2012059085A (ja) * 2010-09-10 2012-03-22 Diamond Electric Mfg Co Ltd 車載用情報装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8797192B2 (en) * 2004-08-16 2014-08-05 Wai-Lin Maw Virtual keypad input device
KR20110111192A (ko) * 2010-04-02 2011-10-10 삼성전자주식회사 터치 패널에서 전극 패턴을 형성하는 방법 및 장치
US20110292268A1 (en) * 2010-05-26 2011-12-01 T-Mobile Usa, Inc. Multi-region touchpad device
EP2700543A4 (en) * 2011-06-09 2014-07-02 Honda Motor Co Ltd VEHICLE OPERATION DEVICE
JP5452566B2 (ja) * 2011-10-31 2014-03-26 本田技研工業株式会社 車両用入力装置
US20150370469A1 (en) * 2013-01-31 2015-12-24 Qualcomm Incorporated Selection feature for adjusting values on a computing device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009262667A (ja) * 2008-04-23 2009-11-12 Denso It Laboratory Inc タッチ式センサ
JP2012053592A (ja) 2010-08-31 2012-03-15 Nippon Seiki Co Ltd 入力装置
JP2012059085A (ja) * 2010-09-10 2012-03-22 Diamond Electric Mfg Co Ltd 車載用情報装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2962902A4

Also Published As

Publication number Publication date
JP2014166776A (ja) 2014-09-11
JP6136365B2 (ja) 2017-05-31
EP2962902A1 (en) 2016-01-06
US20160026267A1 (en) 2016-01-28
EP2962902A4 (en) 2016-10-05

Similar Documents

Publication Publication Date Title
JP5581904B2 (ja) 入力装置
JP5798160B2 (ja) 車両用操作装置
US9389695B2 (en) Steering wheel input device having gesture recognition and angle compensation capabilities
US10824262B2 (en) Touch control device, vehicle having the same, and method for manufacturing the touch control device
EP2801892B1 (en) Touch type input device and method for detecting touching of touch panel
WO2013080774A1 (ja) 車両用操作装置
JP2012247890A (ja) タッチパネル入力操作装置
WO2014132818A1 (ja) 車両用操作装置
JP2012190185A (ja) 制御装置
US20150253950A1 (en) Manipulating device
JP6233248B2 (ja) 把持状態判定装置、把持状態判定方法、入力装置、入力取得方法
US10802701B2 (en) Vehicle including touch input device and control method of the vehicle
WO2014021063A1 (ja) 操作装置
JP2012176631A (ja) 制御装置
JP2014229014A (ja) タッチパネル入力操作装置
JP2009301300A (ja) 入力装置
JP5510201B2 (ja) 制御装置
US20170060312A1 (en) Touch input device and vehicle including touch input device
KR102684822B1 (ko) 입력장치 및 이를 포함하는 차량
JP2013033309A (ja) タッチパネル入力操作装置
JP2012208762A (ja) タッチパネル入力操作装置
JP2012224170A (ja) 車両制御装置
US20230264570A1 (en) Operating unit comprising a touch-sensitive operating area
JP2013136296A (ja) 車両用操作装置
WO2014097954A1 (ja) 車両用入力装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14756833

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14769780

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2014756833

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2014756833

Country of ref document: EP