WO2018016210A1 - 操作判別装置 - Google Patents

操作判別装置 Download PDF

Info

Publication number
WO2018016210A1
WO2018016210A1 PCT/JP2017/020851 JP2017020851W WO2018016210A1 WO 2018016210 A1 WO2018016210 A1 WO 2018016210A1 JP 2017020851 W JP2017020851 W JP 2017020851W WO 2018016210 A1 WO2018016210 A1 WO 2018016210A1
Authority
WO
WIPO (PCT)
Prior art keywords
coordinates
time
load
flick
type
Prior art date
Application number
PCT/JP2017/020851
Other languages
English (en)
French (fr)
Inventor
泉樹 立入
義隆 尾崎
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to DE112017003643.7T priority Critical patent/DE112017003643T5/de
Publication of WO2018016210A1 publication Critical patent/WO2018016210A1/ja
Priority to US16/247,652 priority patent/US20190143817A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/60Instruments characterised by their location or relative disposition in or on vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01HELECTRIC SWITCHES; RELAYS; SELECTORS; EMERGENCY PROTECTIVE DEVICES
    • H01H35/00Switches operated by change of a physical condition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/77Instrument locations other than the dashboard
    • B60K2360/782Instrument locations other than the dashboard on the steering wheel

Definitions

  • This disclosure relates to an operation determination device that determines the type of operation.
  • Patent Document 1 In recent years, for example, some vehicles have an operation device using a strain sensor on a steering wheel (see, for example, Patent Document 1).
  • the on-vehicle device described in Patent Document 1 employs a technique for detecting an operation of an operation unit based on a detection signal from a strain detection element.
  • An object of the present disclosure is to provide an operation determination device that can determine the type of operation as accurately as possible based on a detection signal using a strain detection element.
  • a predetermined off threshold value from when the load acquired by the operation time setting unit based on a detection signal from the strain detection element is applied to a predetermined on threshold value or more.
  • the time until the following time is set as the operation time, and the operation type determination unit determines the type of operation based on the change in coordinates or / and the load changed during the operation time. For this reason, the type of operation can be determined as accurately as possible.
  • the on threshold value and the off threshold value of the load can be individually set. For this reason, for example, when it is assumed that the load is weak, the on threshold value and the off threshold value can be set so that the coordinate position corresponds to the original coordinate position. It can be determined as accurately as possible.
  • FIG. 1 is a front view showing an installation form of the operating device in the first embodiment
  • FIG. 2 is a system configuration diagram showing an electrical connection relationship between the operating device and the vehicle system
  • FIG. 3 is an enlarged front view showing the operation surface.
  • FIG. 4 is a top view schematically showing the operation surface and the strain detection unit
  • FIG. 5 is an explanatory diagram of the operation mode of the operation surface.
  • FIG. 6 is a first part of a flowchart for explaining the processing operation.
  • FIG. 7 is a second part of the flowchart for explaining the processing operation.
  • FIG. 1 is a front view showing an installation form of the operating device in the first embodiment
  • FIG. 2 is a system configuration diagram showing an electrical connection relationship between the operating device and the vehicle system
  • FIG. 3 is an enlarged front view showing the operation surface.
  • FIG. 4 is a top view schematically showing the operation surface and the strain detection unit
  • FIG. 5 is an explanatory diagram of the operation mode of the operation surface.
  • FIG. 6 is
  • FIG. 8 is a timing chart schematically showing temporal changes in load and coordinates during a flick operation.
  • FIG. 9 is a timing chart schematically showing temporal changes in load and coordinates during a tap operation.
  • FIG. 10 is a first flowchart illustrating the processing operation according to the second embodiment.
  • FIG. 11 is part 2 of the flowchart for explaining the processing operation.
  • FIG. 12 is a first part of a timing chart schematically showing changes with time of load and coordinates.
  • FIG. 13 is part 3 of the flowchart for explaining the processing operation.
  • FIG. 14 is part 4 of the flowchart for explaining the processing operation.
  • FIG. 15 is a second part of a timing chart schematically showing changes in load and coordinates with time.
  • FIG. 16 is a first part of a flowchart for explaining the processing operation in the third embodiment.
  • FIG. 17 is a second part of the flowchart for explaining the processing operation.
  • FIG. 18 is a timing chart schematically showing changes with time in load and coordinates.
  • FIG. 19 is a first flowchart illustrating the processing operation according to the fourth embodiment.
  • FIG. 20 is a second part of the flowchart for explaining the processing operation.
  • FIG. 21 is a timing chart schematically showing changes in load and coordinates with time.
  • FIG. 1 to 9 are explanatory diagrams of the first embodiment.
  • an operating device 2 is provided on a vehicle steering 1.
  • the operating device 2 is also referred to as a touch pad, and is attached to a spoke 4 that connects both inner ends of the steering wheel 3.
  • the operating device 2 is disposed at a position that is symmetrical with respect to the center line S that passes through the center of the steering wheel 3 and that extends along the vehicle traveling direction (the vertical direction in the figure).
  • the driver can naturally place an operation finger (for example, thumb) on the operation surface 5 of the operation device 2 by grasping the steering wheel 3.
  • the operation surface 5 is configured such that the operation position can be detected by XY coordinates with the center position as the origin.
  • the X axis has a forward direction toward the center of the steering 1, and the Y axis has a steering angle of the steering.
  • the vehicle is installed so that the traveling direction (upward direction in the figure) of the vehicle when it is 0 degrees is the positive direction.
  • the installation location of the operating device 2 is not limited to the position described above.
  • the controller device 2 includes a plate-like operation surface (equivalent to an operation unit) 5 that receives a touch operation from a driver, a strain detection unit 6 that is provided on the operation surface 5 and outputs a strain detection signal, A signal processing unit 7 that performs signal processing based on the distortion detection signal of the distortion detection unit 6, and the signal processing results of the signal processing unit 7 are transmitted through the network N to external devices 9 to 12 (for example, various ECUs 9 and 10, DCM 11, wireless communication device 12 And a communication unit 8 capable of transmitting to the communication device 8.
  • external devices 9 to 12 for example, various ECUs 9 and 10, DCM 11, wireless communication device 12
  • a communication unit 8 capable of transmitting to the communication device 8.
  • the signal processing unit 7 is configured using, for example, a microcomputer including a known CPU, ROM, RAM, A / D conversion circuit, and the like.
  • a microcomputer including a known CPU, ROM, RAM, A / D conversion circuit, and the like.
  • the built-in ROM, RAM, etc. will be referred to as memory.
  • the signal processing unit 7 executes a program stored in a memory that is a non-transitional physical storage medium.
  • the signal processing unit 7 functions as an operation time setting unit and an operation type determination unit. At this time, a predetermined area of the RAM is used as a work area.
  • FIG. 3 shows a front view of the operation surface 5 provided on the right side of the front surface of the spoke 4 of the steering 1.
  • the Y-axis positive direction is defined as the upward direction
  • the Y-axis negative direction as the downward direction
  • the X-axis positive direction as the left direction
  • the X-axis negative direction as the right direction.
  • the operation surface 5 has a predetermined outer shape such as a circular shape.
  • the operation surface 5 may be configured in a rectangular shape.
  • the detection area A of the operation surface 5 is shown partitioned by a two-dot chain line. The detection area A is divided into an upper surface area A1, a lower surface area A2, a left surface area A3, a right surface area A4, and a central surface area A5.
  • FIG. 5 is similarly divided and shown.
  • the center surface area A5 of the operation surface 5 is formed in a circular shape having a diameter shorter than the outer shape of the operation surface 5 with the XY axis center of the operation surface 5 as a center point.
  • the upper surface area A1 of the operation surface 5 is an area provided in the positive Y-axis direction from the center surface area A5, and indicates an area from the upper arc of the center surface area A5 to the upper arc of the outer shape of the operation surface 5.
  • a lower surface area A2 of the operation surface 5 is an area located in the negative Y-axis direction from the center surface area A5, and indicates an area from the lower arc of the center surface area A5 to the lower arc of the outer shape of the operation surface 5.
  • the left surface area A3 of the operation surface 5 is a surface provided in the X-axis positive direction (left side in the drawing) from the center surface area A5, and extends from the left arc of the center surface area A5 to the left arc of the outer shape of the operation surface 5. Shows the area.
  • the right surface area A4 of the operation surface 5 is a surface provided in the X-axis negative direction (right side in the drawing) from the center surface area A5, and extends from the right arc of the center surface area A5 to the right arc of the outer shape of the operation surface 5. Shows the area.
  • the boundary lines of the central surface area A5, the upper surface area A1, the lower surface area A2, the left surface area A3, and the right surface area A4 are not visually visible on the operation surface 5, but are visually visible. It may be marked so as to be visible.
  • the operation surface 5 is provided with a guide 13 that urges the operation method in appearance and gives a tactile sensation to the operation finger.
  • the guide 13 is divided into an upper guide 14 provided at the upper part of the operation surface 5, a lower guide 15 provided at the lower part, a left guide 16 provided at the left part, and a right guide 17 provided at the right part.
  • These upper, lower, left, and right guides 14 to 17 are configured to have convex protrusions on the surface of the operation surface 5, and are arranged so that, for example, one vertex of a triangle is directed in the vertical, left, and right directions.
  • the guide 13 includes a recess 18 that prompts the operation direction of a flick operation (see later).
  • a plurality of the recesses 18 are provided so as to be spaced apart from the lower left to the upper right in the drawing, and are arranged such that the longitudinal direction of the rectangle is from the upper left to the lower right. For this reason, when the driver grasps the steering wheel 3, as shown in FIG. 1, the driver is consciously or unconsciously urged to move the thumb as the operation finger from the lower left to the upper right of the operation surface 5. .
  • the operating device 2 located on the left side of the center line S shown in FIG. 1 has a configuration in which the surface shape of the operating surface 5 is deformed symmetrically from the structure shown in FIG. For this reason, although detailed description of the configuration of the operation surface 5 is omitted, it is possible to make the driver aware of the operation direction of the operation finger as in the operation device 2 located on the right side of the center line S.
  • FIG. 4 schematically shows the strain detection structure of the operation surface 5 and the strain detector 6.
  • the operation surface 5 receives a pressing force according to an operation by a driver.
  • a pair of convex portions 5 a and 5 b are provided so as to protrude outward from a part of the outer edge of the operation surface 5, and the pair of convex portions 5 a and 5 b are separated in the X-axis direction with the operation surface 5 interposed therebetween. And are arranged opposite to each other.
  • the strain detection unit 6 includes strain generating bodies 19a and 19b and strain detection elements 20 to 23.
  • the strain bodies 19a and 19b are formed in an I-shaped plate having the Y-axis direction as a longitudinal direction, and are arranged in parallel with the operation surface 5.
  • the surfaces of the strain generating bodies 19a and 19b are installed on the same plane as the operation surface 5, and elastically deform so as to cause bending deformation with the action of the pressing force on the operation surface 5.
  • a plurality of strain detecting elements 20 to 23 are arranged on the surfaces of the plurality of strain generating bodies 19a and 19b.
  • the plurality of strain detection elements 20 to 23 are provided corresponding to the first to fourth quadrants of the XY axis coordinate system, for example.
  • the strain detection element 20 is disposed on the upper right side of the operation surface 5, and the strain detection element 21 is disposed on the lower right side of the operation surface 5. Further, the strain detection element 22 is disposed at the upper left of the operation surface 5, and the strain detection element 23 is disposed at the lower left of the operation surface 5.
  • the plurality of strain detection elements 20 to 23 constituting the strain detection unit 6 detect the displacement of the surface of the strain generating bodies 19a and 19b as strain, and output a signal corresponding to the strain to the signal processing unit 7 as a strain detection signal. To do. Therefore, the plurality of strain detection elements 20 to 23 output different strain detection signals according to the touch operation position of the driver. For example, assuming that the upper right of the operation surface 5 is touched, the strain detection element 20 at a position close to the touch operation outputs a relatively large strain detection signal, and the strain detection element 23 at a position far from the touch operation is compared. A small distortion detection signal is output. If the load of the touch operation is large, the absolute amount of the strain detection signal of each strain detection element 20-23 becomes large, and if the load is small, the absolute amount of the strain detection signal of each strain detection element 20-23 becomes small.
  • the signal processing unit 7 can calculate the load applied to the operation surface by the touch operation based on the strain detection signals from the strain detection elements 20 to 23, and becomes a position on the operation surface 5 where the touch operation is performed. Coordinates can be calculated.
  • the distortion detection unit 6 acquires a distortion detection signal periodically, for example, at a cycle of 100 ms, and outputs it to the signal processing unit 7. Thereby, the signal processing unit 7 can acquire operation information including load data and coordinate data in association with time, and can store load data and coordinate data in a memory according to a change with time.
  • the communication unit 8 is connected to the network N, for example.
  • ECUs 9 to 10 such as a navigation ECU, an audio ECU, and an air conditioner ECU are connected to the network N, and a DCM (Data Communication Module) 11 is further connected.
  • Each of the ECUs 9 and 10 includes a CPU, a ROM, a RAM, an A / D conversion circuit, and the like.
  • the DCM 11 also includes a wireless communication module in addition to the CPU, ROM, and RAM, and wireless communication technology such as a wireless LAN or short-range wireless communication with the wireless communication device 12 such as an external smartphone, tablet, or personal computer. Communication is possible.
  • each ECU 9, 10 is the same as a general electronic control device, its description is omitted. Moreover, since the electrical configuration of the wireless communication device 12 such as the DCM 11 and the smartphone is the same as that of the ECUs 9 and 10 except that a known wireless communication module is provided, the description thereof is omitted.
  • the communication unit 8 of the controller device 2 is configured to be able to communicate with other various ECUs 9 and 10 and a wireless communication device 12 connected wirelessly. Therefore, when the driver operates the operating device 2, the operating device 2 transmits the above-described operation information or related information to the ECUs 9 and 10 and the wireless communication device 12 connected to the network N in the vehicle, whereby the external device Devices 9-12 can be operated.
  • the present embodiment is characterized in that the type of operation related to the controller device 2 is determined.
  • the types of operations that can be discriminated in the present embodiment are flick operations and tap operations including a center surface tap and upper, lower, left, and right surface taps.
  • the flick operation indicates an operation in which a driver's operation finger slides on the operation surface 5 as indicated by an arrow M, for example.
  • the tap operation indicates an operation in which the driver presses the operation area A of the operation surface 5 (for example, the upper surface area A1, the lower surface area A2, the left surface area A3, the right surface area A4, or the central surface area A5).
  • the signal processing unit 7 acquires load data based on the strain detection signal in S1, and acquires coordinate data based on the strain detection signal in S2. This indicates a process of acquiring a group of data acquired periodically. Then, the signal processing unit 7 acquires the initial value from the load data and coordinate data in S3.
  • the signal processing unit 7 determines whether or not the load value is greater than or equal to a predetermined ON threshold value in S5, and continues to acquire the load at the next timing in S6 until the condition that becomes the ON threshold value or more is satisfied. . At this time, the signal processing unit 7 acquires the coordinates of the next timing together in S7.
  • the signal processing unit 7 When the signal processing unit 7 satisfies the condition that the load value is equal to or greater than the ON threshold value in S5, the signal processing unit 7 stores the ON load in the memory in S8. At this time, the signal processing unit 7 stores the on-time coordinates and time in the memory in S9 and S10.
  • the signal processing unit 7 determines whether or not the load value is equal to or less than a predetermined off threshold value in S11, and continues to acquire the load at the next timing in S12 until a condition that is equal to or less than the off threshold value is satisfied. . At this time, the signal processing unit 7 acquires the coordinates of the next timing together in S13.
  • the off threshold is preferably set higher than the on threshold.
  • the signal processing unit 7 When the signal processing unit 7 satisfies the condition that the load value is equal to or less than the off threshold in S11, the signal processing unit 7 stores the off load in the memory in S14. At this time, the signal processing unit 7 stores the coordinates and time in the off state in S15 and S16 in the memory. Then, the signal processing unit 7 determines the type of operation in S17.
  • FIG. 7 shows a routine for determining the type of operation.
  • the signal processing unit 7 calculates the absolute value of the difference between the on-time coordinates and the off-time coordinates as a distance in T1, and uses the calculated distance as a coordinate movement amount. Then, the signal processing unit 7 subtracts the on-time from the off-time at T2, and calculates this time as the operation time.
  • the signal processing unit 7 determines that a flick operation is performed at T4 on the condition that several conditions among T3, T5, T6, T8, and T9 are satisfied, and a center surface tap operation at T7. It is discriminated or it is discriminated as a tap operation on the upper, lower, left and right surfaces at T10. Further, when it is determined that none of these conditions is satisfied, the signal processing unit 7 does not determine the operation at T11.
  • the signal processing unit 7 determines whether or not the coordinate movement amount is greater than or equal to the flick setting threshold at T3.
  • the flick setting threshold value indicates a threshold value for the amount of coordinate movement that is regarded as a flick operation, and is predetermined. For this reason, when the coordinate movement amount is equal to or larger than the flick setting threshold, the signal processing unit 7 determines that the flick operation is performed at T4.
  • the signal processing unit 7 determines whether or not the on-time coordinates and the off-time coordinates correspond to the coordinates of the central surface of the operation surface at T5. At this time, the signal processing unit 7 executes the process of T5 by determining whether or not the on-time coordinates and the off-time coordinates are located within a predetermined radius from the central portion of the XY axis. And the signal processing part 7 discriminate
  • the on-time coordinates and the off-time coordinates are determined in the vertical, left, and right side determination areas (that is, the upper surface area A1, the lower surface area A2, the left surface area A3, and the right surface area). It is determined whether it is any of A4). At this time, when the signal processing unit 7 determines that it is in any one of these surfaces, it taps any one of the areas A1 to A4 on the upper, lower, left, and right surfaces on condition that the operation time is equal to or less than the time threshold value. Judged as an operation. At this time, the signal processing unit 7 can determine which surface of the upper surface area A1, the lower surface area A2, the left surface area A3, and the right surface area A4 has been tapped based on the on-time coordinates and the off-time coordinates.
  • the on-time coordinates are in the upper surface area A1 and the off-time coordinates are in the left surface area A3, even if the operation time is equal to or less than the time threshold value, it is determined as NO at T8.
  • the operation is not discriminated at T11. Thereby, erroneous determination can be prevented as much as possible.
  • FIGS. 8 and 9 show the temporal changes in load and coordinates for each type of operation.
  • FIG. 8 shows changes over time in the load and coordinates during the flick operation
  • FIG. 9 shows changes over time in the load and coordinates during the tap operation. Note that the coordinate axes in FIGS. 8 and 9 are expressed one-dimensionally for the sake of simplicity. That is, since it is clear that the same is true in two dimensions based on XY coordinates, two-dimensional description is omitted.
  • the load increases from the timing t0 when the driver taps on the operation surface 5, and becomes equal to or higher than the on thresholds Dona and Donb at the timings tona and tonb, and thereafter becomes equal to or lower than the off thresholds Doffa and Doffb at the timings toffa and toffb.
  • the load becomes the maximum value Dm1 at timing t1 between timing tona-toffa.
  • the maximum value Dm2 is obtained at the timing t2 between the timing tonb and toffb.
  • the load reaches 0 at the timing th when the driver releases the operation finger from the operation surface 5.
  • the coordinates change continuously with time during the flick operation of FIG. 8 and become slight during the tap operation of FIG. For this reason, there is a large difference between the coordinate movement amounts M1 and M2 depending on the type of operation, and the coordinate movement amount M1 during the flick operation is larger than the coordinate movement amount M2 during the tap operation.
  • the signal processing unit 7 determines that the coordinate movement amount M1 is greater than or equal to the flick setting threshold at T3 in FIG.
  • the tap operation is not performed at T10 or the operation is not determined at T11. Thereby, the flick operation can be determined as accurately as possible.
  • the signal processing unit 7 starts from when the load acquired based on the strain detection signals from the strain detection elements 20 to 23 is applied above the predetermined on threshold to when it is below the predetermined off threshold. Is set as the operation time (T2 in FIG. 7), and the type of operation is discriminated based on the change in coordinates or / and the load changed during the operation time (T4, T7, T10 in FIG. 7). ing. As a result, the type of operation can be determined as accurately as possible.
  • the operation surface 5 is provided with a guide 13 that urges the operation method in appearance and provides tactile feeling to the operation finger. Therefore, the driver can be urged to move the operating finger along the guide 13 consciously or unconsciously.
  • the flick operation can be determined as accurately as possible.
  • the signal processing unit 7 determines NO in T6, T8, or T9 in FIG. 7, the operation is not determined in T11, so that erroneous determination of the operation can be prevented as much as possible.
  • FIG. 10 to 15 show additional explanatory views of the second embodiment.
  • a mode is shown in which independent determination thresholds are used for the determination processing of the flick operation and the tap operation.
  • 10 and 11 are flowcharts showing processing for determining the flick operation
  • FIG. 12 is a timing chart related to the flick operation determination.
  • the signal processing unit 7 determines the flick-on threshold Don1 and the flick-off threshold Doff1 as determination thresholds, and performs a flick operation determination process in S17a. As shown in FIG. 11, the signal processing unit 7 determines that the flick operation is a condition that the flick setting threshold is exceeded in T3, but does not determine the flick operation in T11a when this condition is not satisfied. As shown in FIG. 12, when the flick operation is determined, the flick-on threshold value Don1 and the flick-off threshold value Doff1, which are uniquely set in advance, are used as determination threshold values at the on time and at the off time.
  • FIGS. 13 and 14 are flowcharts showing the process for determining the tap operation
  • FIG. 15 is a timing chart for determining the tap operation.
  • the signal processing unit 7 determines the tap-on threshold Don2 and the tap-off threshold Doff2 as determination thresholds, and performs a tap operation determination process in S17b.
  • the signal processing unit 7 determines whether or not the on-time coordinates and the off-time coordinates are the center plane area A5 in T5, and when it is determined YES in T5, in T6. On the condition that the operation time is equal to or less than the time threshold value and is not determined to be a flick operation at T12, it is determined to be a tap operation on the center plane at T7.
  • the process of T12 is provided to preferentially process the flick operation described above, and when it is determined in advance as a flick operation, it is not determined as a tap operation as shown in T11b.
  • the signal processing unit 7 determines whether the area is an upper, lower, left, or right side area at T8. When it is determined YES at T8, the operation time is time at T9. On the condition that it is equal to or less than the threshold value and is not determined as a flick operation at T13, it is determined as a top / bottom / left / right tap operation at T10.
  • the process of T13 is provided, and when it is determined in advance as a flick operation, it is not determined as a tap operation as shown in T11b.
  • the tap-on threshold value Don2 and the tap-off threshold value Doff2 which are uniquely set in advance, are used as judgment threshold values at the on time and at the off time. That is, in this embodiment, as shown in FIGS. 10 to 15, the flick on threshold Don1, the tap on threshold Don2, the flick off threshold Doff1, and the tap off threshold Doff2 for setting the operation time can be individually set. ing.
  • the signal processing unit 7 determines the operation type by individually setting the on threshold values Don1, Don2, off threshold values Doff1, Doff2 for determining the operation time for each operation type (flick operation, tap operation). Yes. This makes it possible to individually set the thresholds required for each type of operation, improving convenience.
  • the flick-on threshold value Don1 for the flick operation is set to be relatively smaller than a predetermined value
  • the flick-off threshold value Doff1 is set to be relatively smaller than a predetermined value.
  • the flick-on threshold value Don1 for the flick operation is set smaller than the tap-on threshold value Don2 for the tap operation
  • the flick-off threshold value Doff1 for the flick operation is set smaller than the tap-off threshold value Doff2 for the tap operation
  • misjudgment is made. It can be eliminated as much as possible.
  • the flick operation is determined with priority over the tap operation, erroneous determination can be minimized.
  • FIG. 16 to 18 show additional explanatory views of the third embodiment.
  • an operation is determined based on the movement speed of coordinates or / and the acceleration of movement of coordinates.
  • the determination process of the flick operation will be described with a focus on differences from the second embodiment, and the description of the determination process of the tap operation will be omitted.
  • the signal processing unit 7 stores the load, coordinates, and time when the load is turned on in S8 to S10, and falls below the flick-off threshold in S11a. Until S12 and S13, load and coordinate data are acquired.
  • the signal processing unit 7 moves the coordinates in S18 after the load satisfies the condition of the flick on threshold Don1 or more in S5a until the load becomes the flick off threshold Doff1 or less in S11a.
  • the speed is calculated, the coordinate movement acceleration is calculated in S19, and the maximum absolute value of the coordinate movement speed and the maximum absolute value of the coordinate movement acceleration are continuously updated in S20.
  • the moving speed of the coordinates shown in S18 can be calculated by differentiating the coordinates with respect to time, and can be calculated according to, for example, the previously calculated coordinates and time and the currently calculated coordinates and time. If the previous coordinate data is not stored in the memory, the process of S18 may be ignored. Further, the movement acceleration of the coordinates shown in S19 can be calculated by differentiating the movement speed of the coordinates with time, and can be calculated, for example, according to the movement speed and time calculated last time and the movement speed and time calculated this time. If the previous moving speed data is not stored in the memory, the process of S19 may be ignored.
  • the signal processing unit 7 sequentially updates the absolute value of the moving speed of these coordinates and the absolute value of the moving acceleration of the coordinates in S20.
  • the signal processing unit 7 performs the flick operation determination process in S17a on the condition that the flick-off threshold value Doff1 or less is reached in S11a.
  • the signal processing unit 7 calculates the coordinate movement amount at T1 and the operation time at T2 in the flick operation determination processing shown in FIG. 17, and further calculates the “coordinate movement speed” at T14 as described above in S19.
  • the absolute value of the absolute value of the movement speed of the coordinates acquired in step S15 is set, and in T15, the "coordinate movement acceleration" is set as the maximum absolute value of the movement acceleration of the coordinates acquired in step S20 described above.
  • the signal processing unit 7 determines that the coordinate movement speed is equal to or greater than the flick movement speed threshold vt at T16, and the coordinate movement acceleration is equal to or greater than the flick movement acceleration threshold qt at T17. It is determined as a flick operation at T4 on condition that at least one of the above is satisfied.
  • the coordinate movement speed becomes larger than, for example, a tap operation.
  • the maximum value P1 of the coordinate movement speed is shown in FIG. 18, it is determined that the flick operation is performed on condition that the absolute value P1 of the absolute value of the coordinate movement speed is equal to or greater than a predetermined flick movement speed threshold vt. Can do.
  • the coordinate acceleration also becomes larger than, for example, a tap operation.
  • the maximum value P2 of the coordinate movement acceleration is shown in FIG. 18, it is determined that the flick operation is performed on condition that the maximum value P2 of the absolute value of the coordinate movement acceleration is equal to or greater than a predetermined flick movement acceleration threshold value qt. It can be performed.
  • the condition is that at least one of T3, T16, and T17 is satisfied. However, it is possible to satisfy any two or more, and the flick operation is based on the condition that all three conditions are satisfied. A determination to this effect may be made.
  • the signal processing unit 7 discriminates the type of operation based on the coordinate change speed and / or the coordinate change acceleration, thereby minimizing misjudgment as much as possible. it can.
  • (Fourth embodiment) 19 to 21 show additional explanatory views of the fourth embodiment.
  • a mode in which the coordinate movement amount is calculated based on the maximum value and the minimum value of the XY coordinates is shown. The description will focus on the parts different from the first embodiment, and the description of the other parts will be omitted.
  • the signal processing unit 7 stores the load, coordinates, and time at ON in S8 to S10, and then obtains the data of load and coordinates by sequentially shifting the timing.
  • the maximum and minimum values of the Y coordinate are obtained and stored in the internal memory.
  • the signal processing unit 7 sets the coordinate movement amount as the absolute value of the value obtained by subtracting the minimum value of the XY coordinates from the maximum value of the XY coordinates in T1a, and performs the processing after T2.
  • the driver may move the operating finger in a direction (for example, the reverse direction) different from the desired direction to move substantially for a certain time from the timing of touching the operation surface 5.
  • a direction for example, the reverse direction
  • the coordinate movement amount M1 based on the on-time coordinates and the off-time coordinates
  • the coordinate movement amount M1b based on the maximum value of the XY coordinates and the minimum value of the XY coordinates. It is also assumed that there will be a large difference between them.
  • the signal processing unit 7 acquires the coordinate movement amount M1b based on the difference between the maximum value and the minimum value, the coordinate movement amount M1b can be acquired relatively large compared to at least the operation of the first embodiment. As a result, even if the operation of the driver's operating finger is deviated, the coordinate movement amount M1b can be acquired large, and the flick operation can be determined as accurately as possible.
  • the coordinate movement amount M1b is determined based on the maximum value and the minimum value of the XY coordinates from the start of the operation to the end of the operation, and the type of operation is determined based on the coordinate movement amount M1b. Therefore, the operation can be determined as accurately as possible.
  • the present invention is not limited to this, and various operation input devices using strain detection elements may be applied.
  • the controller device 2 is applied to the form of communicating with the external devices 9 to 12, it is not limited to this.
  • the operating device 2 may be mounted on, for example, various ECUs 9 and 10 or may be mounted on the wireless communication device 12. That is, in the above-described embodiment, the signal processing unit 7 has a function as an operation determination device.
  • the present invention is not limited to this. That is, the external devices 9 to 12 may acquire a series of load data and coordinate data through the network N and perform the processing of the signal processing unit 7 of the above embodiment. That is, any of the devices 9 to 12 may have a function as an operation determination device that determines the type of operation.
  • the embodiment using the operation device 2 provided in the steering 1 of the vehicle has been described, it is not limited to this. Although two operating devices 2 are provided on the steering 1, one or three operating devices may be provided or may be attached to other components.
  • the determination method of the flick operation and the tap operation is exemplified, the present invention is not limited to this, and can be applied to the determination of various operations such as a swipe operation and a slide operation.
  • each of the embodiments described above is conceptual, and the functions of one component are distributed to a plurality of components, or the functions of a plurality of components are integrated into one component. May be.
  • at least a part of the configuration of the above-described embodiment may be replaced with a known configuration having a similar function.
  • some or all of the configurations of the two or more embodiments described above may be added in combination with each other or replaced as necessary.
  • 5 is an operation surface (operation unit)
  • 7 is a signal processing unit (operation determination device, operation time setting unit, operation type determination unit)
  • 13 is a guide
  • 14 is an upper guide (guide)
  • 15 is a lower guide
  • Reference numeral 16 denotes a left guide (guide)
  • 17 denotes a right guide (guide)
  • 18 denotes a recess (guide)
  • 20 to 23 denote strain detection elements.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Push-Button Switches (AREA)

Abstract

操作判別装置は、操作されることにより生じる荷重に応じた検出信号を出力する歪検出素子が設けられた操作部における操作種類を判別する。操作時間設定部(T2)は、歪検出素子による検出信号に基づき取得された荷重が所定のオン閾値以上に印加されたときから所定のオフ閾値以下になるときまでの時間を操作時間として設定する。操作種類判別部(T4、T7、T10)は、操作時間の間に変化した座標又は/及び荷重の変化に基づいて操作の種類を判別する。

Description

操作判別装置 関連出願の相互参照
 本出願は、2016年7月19日に出願された日本出願番号2016-141348号に基づくもので、ここにその記載内容を援用する。
 本開示は、操作に係る種類を判別する操作判別装置に関する。
 近年、例えば車両にはステアリング上に歪センサを用いた操作装置を搭載しているものがある(例えば、特許文献1参照)。この特許文献1記載の車載装置は、歪検出素子からの検出信号に基づいて操作部の操作を検出する技術を採用している。
特許5844178号公報
 特許文献1記載の技術を採用し、歪検出素子の検出信号に基づいて操作を検出したとしても、操作の種類を判別するには不十分であった。
 本開示の目的は、歪検出素子を用いた検出信号に基づいて操作の種類を極力正確に判別できるようにした操作判別装置を提供することにある。
 上記目的を達成するために、本開示の一態様によれば、操作時間設定部が歪検出素子による検出信号に基づき取得された荷重が所定のオン閾値以上に印加されたときから所定のオフ閾値以下になるときまでの時間を操作時間として設定し、操作種類判別部が操作時間の間に変化した座標又は/及び荷重の変化に基づいて操作の種類を判別する。このため、操作の種類を極力正確に判別できるようになる。
 例えば、操作指等による荷重が弱く検出された場合には、検出される座標の位置が本来操作指等が接触した座標の位置からずれることにより操作の種類を誤判別する虞がある。
 また、別の本開示の一態様によれば、荷重のオン閾値及びオフ閾値が個別に設定可能になっている。このため、例えば荷重が弱いことが想定される場合には座標の位置が本来の座標位置に相当するようにオン閾値及びオフ閾値を設定することができるようになり、これにより、操作の種類を極力正確に判別できる。
 本開示についての上記目的およびその他の目的、特徴や利点は、添付の図面を参照しながら下記の詳細な記述により、より明確になる。図面においては、
図1は、第1実施形態における操作装置の設置形態を示す正面図であり、 図2は、操作装置と車両用システムとの間の電気的接続関係を示すシステム構成図であり、 図3は、操作面を拡大して示す正面図であり、 図4は、操作面及び歪検出部を概略的に示す上面図であり、 図5は、操作面の操作態様の説明図であり、 図6は、処理動作を説明するフローチャートのその1であり、 図7は、処理動作を説明するフローチャートのその2であり、 図8は、フリック操作時における荷重及び座標の時間変化を概略的に示すタイミングチャートであり、 図9は、タップ操作時における荷重及び座標の時間変化を概略的に示すタイミングチャートであり、 図10は、第2実施形態における処理動作を説明するフローチャートのその1であり、 図11は、処理動作を説明するフローチャートのその2であり、 図12は、荷重及び座標の時間変化を概略的に示すタイミングチャートのその1であり、 図13は、処理動作を説明するフローチャートのその3であり、 図14は、処理動作を説明するフローチャートのその4であり、 図15は、荷重及び座標の時間変化を概略的に示すタイミングチャートのその2であり、 図16は、第3実施形態における処理動作を説明するフローチャートのその1であり、 図17は、処理動作を説明するフローチャートのその2であり、 図18は、荷重及び座標の時間変化を概略的に示すタイミングチャートであり、 図19は、第4実施形態における処理動作を説明するフローチャートのその1であり、 図20は、処理動作を説明するフローチャートのその2であり、 図21は、荷重及び座標の時間変化を概略的に示すタイミングチャートである。
 以下、操作判別装置の幾つかの実施形態について図面を参照しながら説明する。以下に説明する各実施形態において、同一又は類似の動作を行う構成、ステップ番号については、同一又は類似の符号を付している。
 (第1実施形態)
 図1から図9は、第1実施形態の説明図を示す。図1に示すように、車両のステアリング1には操作装置2が備えつけられている。この操作装置2は、タッチパッドとしても称され、ステアリングホイール3の内側両端部を接続するスポーク4に取付けられている。操作装置2は、例えばステアリングホイール3の中心を通過すると共に車両進行方向(図示上下方向)に沿う線を中心線Sとして左右対称となる位置に配設されている。ドライバが、ステアリングホイール3を握ることで操作装置2の操作面5の上に自然に操作指(例えば親指)を載置可能になっている。
 操作面5は、その中心位置を原点とするX-Y座標により操作位置を検出可能に構成され、X軸はステアリング1の中心に向かう内側方向を正方向とし、Y軸はステアリングの舵角が0度となっているときの車両の進行方向(図示上方向)を正方向とするように設置される。操作装置2の設置個所は、前述した位置に限定されるものではない。
 図2に示すように、操作装置2は、ドライバからタッチ操作を受け付ける板状の操作面(操作部相当)5と、この操作面5に設けられ歪検出信号を出力する歪検出部6と、歪検出部6の歪検出信号に基づいて信号処理する信号処理部7と、信号処理部7の信号処理結果をネットワークNを通じて外部機器9~12(例えば各種ECU9,10、DCM11、無線通信機器12)に送信可能な通信部8と、を備える。
 信号処理部7は、例えば周知のCPU、ROM、RAM、A/D変換回路等を備えたマイクロコンピュータなどを用いて構成される。以下、内蔵されたROM、RAM等をメモリと称して説明を行う。信号処理部7は、非遷移的実体的記憶媒体となるメモリに格納されたプログラムを実行する。これにより、信号処理部7は、操作時間設定部、操作種類判別部として機能するようになっている。このときRAMの所定領域をワークエリアとして用いる。
 図3はステアリング1のスポーク4の正面に向かって右側に設けられる操作面5の正面図を示している。ここでは、Y軸正方向を上方向、Y軸負方向を下方向、X軸正方向を左方向、X軸負方向を右方向と定義して説明を行う。操作面5は、その外形が円形状などの所定形状に構成されている。操作面5は矩形状に構成されていても良い。図3には、操作面5の検出エリアAを二点鎖線により区画して示している。この検出エリアAは、上面エリアA1、下面エリアA2、左面エリアA3、右面エリアA4、及び、中央面エリアA5に分けられている。図5も同様に区画して示している。
 図3及び図5の操作面5の中央面エリアA5は、操作面5のXY軸中心を中心点として操作面5の外形よりも短い直径の円形状に構成されている。操作面5の上面エリアA1は、中央面エリアA5からY軸正方向に位置して設けられるエリアであり、中央面エリアA5の上円弧から操作面5の外形の上円弧に至るエリアを示している。操作面5の下面エリアA2は、中央面エリアA5からY軸負方向に位置するエリアであり、中央面エリアA5の下円弧から操作面5の外形の下円弧に至るエリアを示している。
 操作面5の左面エリアA3は、中央面エリアA5からX軸正方向(図示左側)に位置して設けられる面であり、中央面エリアA5の左円弧から操作面5の外形の左円弧に至るエリアを示している。操作面5の右面エリアA4は、中央面エリアA5からX軸負方向(図示右側)に位置して設けられる面であり、中央面エリアA5の右円弧から操作面5の外形の右円弧に至るエリアを示している。本実施形態においては、この中央面エリアA5、上面エリアA1、下面エリアA2、左面エリアA3、右面エリアA4の境界線は、操作面5の上に外見上で視認可能にしていないが外見上で視認可能に記しても良い。
 また図3に示すように、操作面5には、外見上で操作方法を促すと共に操作指に触感を与えるガイド13を備える。このガイド13は、操作面5の上部に設けられる上ガイド14、下部に設けられる下ガイド15、左部に設けられる左ガイド16、右部に設けられる右ガイド17に分けられる。これらの上下左右のガイド14~17は、操作面5の表面に凸状の突起を備えて構成され、例えば三角形の一頂点をそれぞれ上下左右方向に向かう方向を示すように配設されている。
 また、ガイド13は、フリック操作(後述参照)の操作方向を促す凹部18を備える。この凹部18は図示左下から右上方向に向けて複数離間して設けられており、それぞれ矩形状の長手方向が左上から右下方向に向かうように配設されている。このため、ドライバがステアリングホイール3を握ったときには、図1に示すように、操作面5の左下から右上方向に向けて操作指となる親指を動作させるよう意識又は無意識的に促されるようになる。
 なお、図1に示す中心線Sの左側に位置する操作装置2は、その操作面5の表面形状が、図3に示す構造を左右対称に変形した構成とされている。このため、操作面5の詳細な構成説明を省略するが、中心線Sの右側に位置する操作装置2と同様にドライバに対し操作指の操作方向を意識づけることができる。
 図4は操作面5と歪検出部6の歪検出構造を概略的に示す。操作面5はドライバによる操作に応じて押圧力を受け付ける。また凸部5a、5bが、この操作面5の外縁の一部から外方に突出するように一対設けられており、一対の凸部5a、5bは操作面5を挟んでX軸方向に離間して対向配置されている。
 また、この一対の凸部5a、5bの突出端は歪検出部6の起歪体19a、19bにそれぞれ接続されている。歪検出部6は、起歪体19a、19b及び歪検出素子20~23を備える。起歪体19a、19bは、Y軸方向を長手方向としたI型の板状に構成されると共に操作面5と平行に配されている。起歪体19a、19bの表面は操作面5と同一面に設置され、操作面5への押圧力の作用に伴い曲げ変形を生じるように弾性変形する。これらの複数の起歪体19a、19bの表面には複数の歪検出素子20~23が配置されている。複数の歪検出素子20~23は、例えばXY軸座標系の第1~第4象限にそれぞれ対応して設けられている。
 図4を参照して説明すると、歪検出素子20は操作面5の右上方に配置されており、歪検出素子21は操作面5の右下方に配置されている。また、歪検出素子22は操作面5の左上方に配置されており、歪検出素子23は操作面5の左下方に配置されている。
 歪検出部6を構成する複数の歪検出素子20~23は、起歪体19a、19bの表面の変位を歪として検出し、この歪に応じた信号を歪検出信号として信号処理部7に出力する。このため、複数の歪検出素子20~23は、ドライバのタッチ操作位置に応じて互いに異なる歪検出信号を出力する。例えば、操作面5の右上をタッチしたことを想定するならば、タッチ操作に近い位置の歪検出素子20は比較的大きな歪検出信号を出力し、タッチ操作から遠い位置の歪検出素子23は比較的小さな歪検出信号を出力する。またタッチ操作の荷重が大きければ、各歪検出素子20~23の歪検出信号の絶対量が大きくなり、荷重が小さければ、各歪検出素子20~23の歪検出信号の絶対量は小さくなる。
 信号処理部7は、歪検出素子20~23による歪検出信号に基づいて、タッチ操作により操作面に加えられた荷重を算出できると共に、当該タッチ操作がなされた操作面5の上の位置となる座標を算出できる。歪検出部6は歪検出信号を例えば100ms周期の周期的に取得し信号処理部7に出力する。これにより信号処理部7は、荷重データ及び座標データを含む操作情報を時間と対応付けて取得でき、荷重データ及び座標データを時間変化に応じてメモリに記憶できる。
 前述したように、通信部8は例えばネットワークNに接続されている。ネットワークNには、ナビゲーションECU、オーディオECU、エアコンECUなどの各種ECU9~10が接続されており、さらにDCM(Data Communication Module)11が接続されている。各ECU9、10は、CPU、ROM、RAM、A/D変換回路等を備えて構成される。DCM11もまた、CPU、ROM、RAMの他、無線通信モジュールを備えており、外部のスマートフォン、タブレット、パーソナルコンピュータなどの無線通信機器12との間で無線LAN又は近距離無線通信等の無線通信技術により通信可能になっている。
 各ECU9、10は一般的な電子制御装置と同様であるためその説明を省略する。またDCM11、スマートフォンなどの無線通信機器12の電気的構成もまた周知の無線通信モジュールを備える以外はECU9、10の電気的構成と同様となるためその説明を省略する。
 操作装置2の通信部8は、他の各種ECU9、10や無線接続される無線通信機器12との間で通信可能に構成される。したがって、ドライバがこの操作装置2を操作することで、操作装置2が車内のネットワークNに接続されたECU9、10や無線通信機器12に前述した操作情報又はその関連情報を送信し、これにより外部機器9~12を操作できる。
 本実施形態の特徴に係る作用を説明する。本実施形態は、操作装置2に係る操作の種類を判別するところに特徴を備える。
 まず図5を参照しながら操作の種類を説明する。本実施形態で判別可能な操作の種類は、フリック操作、及び、中央面タップ、上下左右面タップを含むタップ操作、となっている。フリック操作は、例えばドライバの操作指が操作面5の表面上を矢印Mのように摺動する操作を示している。またタップ操作は、ドライバが操作面5の操作エリアA(例えば、上面エリアA1、下面エリアA2、左面エリアA3、右面エリアA4、又は、中央面エリアA5)を押圧する操作を示す。
 図6に示すように、信号処理部7は、S1において歪の検出信号に基づく荷重データを取得し、S2において歪の検出信号に基づく座標データを取得する。これは周期的に取得した一群のデータを取得する処理を示している。そして信号処理部7は、S3においてこれらの荷重データ、座標データの中からこの初期値を取得する。
 そして信号処理部7は、S5において荷重の値が予め定められたオン閾値以上であるか否かを判定し、オン閾値以上となる条件を満たすまで、S6において次のタイミングの荷重を取得し続ける。このとき信号処理部7は、S7において合わせて次のタイミングの座標を取得する。
 信号処理部7は、S5において荷重の値がオン閾値以上となる条件を満たしたときに、S8においてこのオン時の荷重をメモリに記憶させる。このとき信号処理部7は、S9、S10においてこのオン時の座標、時間を合わせてメモリに記憶させる。
 また信号処理部7は、S11において荷重の値が予め定められたオフ閾値以下であるか否かを判定し、オフ閾値以下となる条件を満たすまで、S12において次のタイミングの荷重を取得し続ける。このとき、信号処理部7は、S13にて合わせて次のタイミングの座標を取得する。オフ閾値はオン閾値より高く設定されていると良い。
 信号処理部7は、S11において荷重の値がオフ閾値以下となる条件を満たしたときに、S14においてこのオフ時の荷重をメモリに記憶させる。このとき信号処理部7は、S15、S16においてオフ時の座標、時間を合わせてメモリに記憶させる。そして信号処理部7は、S17において操作の種類を判別する。
 図7は操作の種類の判別ルーチンを示す。この図7に示すように、信号処理部7は、T1においてオン時の座標とオフ時の座標との差分の絶対値を距離として算出し、この算出された距離を座標移動量とする。そして信号処理部7は、T2においてオフ時の時間からオン時の時間を減算し、この時間を操作時間として算出する。
 そして信号処理部7は、T3、T5、T6、T8、T9のうち幾つかの諸条件を満たしたことを条件とし、T4にてフリック操作と判別したり、T7にて中央面のタップ操作と判別したり、T10にて上下左右面のタップ操作と判別したりする。また、信号処理部7は、これらの条件の何れも満たされないと判定したときには、T11にて操作判別しないこととする。
 以下、これらの幾つかの条件について詳細説明する。信号処理部7は、T3において座標移動量がフリック設定閾値以上であるか否かを判定する。このフリック設定閾値は、フリック操作であると見做す座標移動量の閾値を示すものであり予め定められている。このため、座標移動量がフリック設定閾値以上であるときには、信号処理部7は、T4においてフリック操作と判別する。
 また信号処理部7は、T5においてオン時の座標及びオフ時の座標が操作面の中央面の座標に相当しているか否かを判定する。このとき信号処理部7は、オン時の座標及びオフ時の座標がXY軸中心部から所定半径以内に位置しているか否かを判定することによりT5の処理を実行する。そして信号処理部7は、T6にて操作時間が予め定められた時間閾値以下であることを条件として中央面のタップ操作、すなわち、中央面エリアA5のタップ操作と判別する。このとき、T6にて操作時間が時間閾値以上であるときにはタップ操作の条件を満たさないと判断し、T11にて操作判別しないようにする。
 また、信号処理部7がT5でNOと判定したときには、T8にてオン時の座標及びオフ時の座標が上下左右面の判定エリア(すなわち上面エリアA1、下面エリアA2、左面エリアA3、右面エリアA4)の何れかであるか否かを判定する。このとき信号処理部7は、これらの面の何れかの面に入っていると判定したときには、操作時間が時間閾値以下であることを条件として上下左右面の何れかのエリアA1~A4のタップ操作と判別する。このとき、信号処理部7は、オン時の座標及びオフ時の座標に基づいて上面エリアA1、下面エリアA2、左面エリアA3、右面エリアA4の何れの面をタップ操作したかについて判別できる。
 例えば、オン時の座標が上面エリアA1内であり、オフ時の座標が左面エリアA3内であるときには、操作時間が時間閾値以下であったとしても、T8にてNOと判定されることから、T11にて操作判別されないことになる。これにより誤判定を極力防止できる。
 図8及び図9は荷重及び座標の時間的変化を操作の種類別に示している。図8はフリック操作時の荷重及び座標の時間変化を示し、図9はタップ操作時の荷重及び座標の時間変化を示している。なお、図8および図9の座標軸は、説明の簡略化のため一次元的な表現をしている。すなわち、XY座標による二次元でも同様であることは明白であるため、二次元的な記載を省略している。
 図8及び図9に標準的な例を示す。荷重は、ドライバが操作面5にタップしたタイミングt0から増加し、タイミングtona、tonbにおいてオン閾値Dona、Donb以上となり、その後、タイミングtoffa、toffbにおいてオフ閾値Doffa、Doffb以下となる。図8に示すように、フリック操作時には、タイミングtona-toffaの間のタイミングt1において荷重は最大値Dm1となる。また図9に示すように、タップ操作時には、タイミングtonb-toffbの間のタイミングt2において最大値Dm2となる。
 また、荷重はドライバが操作面5から操作指を離したタイミングthにおいて0に至る。これは、図8に示すフリック操作時、図9に示すタップ操作時の何れにおいても傾向に変化はない。また座標は、図8のフリック操作時には時間経過に伴い連続的に大きく変化し、図9のタップ操作時にはわずかとなる。このため、操作の種類に応じて座標移動量M1、M2に大きな違いを生じ、フリック操作時の座標移動量M1はタップ操作時の座標移動量M2に比較して大きくなる。
 このため、信号処理部7は、図7のT3にてフリック設定閾値以上の座標移動量M1を生じていると判定したときにはT4にてフリック操作と判別し、フリック設定閾値未満となるときにはT7、T10にてタップ操作、又は、T11にて操作判別しないようにしている。これにより、フリック操作を極力正確に判別できる。
 本実施形態の特徴を概念的にまとめる。本実施形態によれば、信号処理部7は、歪検出素子20~23による歪検出信号に基づき取得された荷重が所定のオン閾値以上に印加されたときから所定のオフ閾値以下になるときまでの時間を操作時間として設定し(図7のT2)、操作時間の間に変化した座標又は/及び荷重の変化に基づいて操作の種類を判別する(図7のT4、T7、T10)ようにしている。これにより、操作の種類を極力正確に判別できるようになる。
 操作面5は外見上で操作方法を促すと共に操作指に触感を備えるガイド13を備えるようにしている。このためドライバに対し意識的又は無意識的に、ガイド13に沿って操作指を動作させるように促すことができる。
 信号処理部7は、操作時間がフリック設定閾値以上となることを条件としてフリック操作と判別しているため、フリック操作を極力正確に判別できる。
 信号処理部7は、図7のT6、T8、又はT9にてNOと判定したときには、T11にて操作判別しないようにしているため、操作の誤判定を極力防止できる。
 (第2実施形態)
 図10から図15は第2実施形態の追加説明図を示す。この実施形態では、フリック操作とタップ操作の判別処理にそれぞれ独立した判定用閾値を用いた形態を示す。図10、図11はフリック操作判別のための処理をフローチャートで示し、図12は、フリック操作判別に係るタイミングチャートを示している。
 図10のS5a、S11aに示すように、信号処理部7は、フリックオン閾値Don1、フリックオフ閾値Doff1を判定用閾値として判定し、S17aにてフリック操作の判別処理を行う。図11に示すように、信号処理部7は、T3においてフリック設定閾値以上であることを条件としてフリック操作と判別するが、この条件を満たさないときにはT11aにてフリック操作判別しない。図12に示すように、フリック操作判別時には、予め独自に設定されたフリックオン閾値Don1、フリックオフ閾値Doff1をオン時及びオフ時の判定用閾値として用いている。
 また図13、図14はタップ操作判別のための処理をフローチャートで示し、図15はタップ操作判別に係るタイミングチャートを示している。図13のS5b、S11bに示すように、信号処理部7は、タップオン閾値Don2、タップオフ閾値Doff2を判定用閾値として判定し、S17bにてタップ操作の判別処理を行う。
 図14に示すように、信号処理部7は、T5においてオン時の座標及びオフ時の座標が中央面エリアA5であるか否かを判定し、T5にてYESと判定したときには、T6にて操作時間が時間閾値以下であり、且つ、T12にてフリック操作と判別されていない、ことを条件として、T7にて中央面のタップ操作と判別する。ここでは、前述したフリック操作を優先処理するためT12の処理を設けており、フリック操作と予め判別されている場合には、T11bに示すようにタップ操作と判別されることはない。
 また、信号処理部7は、T5にてNOと判定したときには、T8にて上下左右面のエリアであるか否かを判定し、T8にてYESと判定したときには、T9にて操作時間が時間閾値以下であり、且つ、T13にてフリック操作と判別されていない、ことを条件として、T10にて上下左右面のタップ操作と判別する。
 このときも前述したフリック操作を優先処理するためにT13の処理を設けており、フリック操作と予め判別されている場合には、T11bに示すようにタップ操作と判別されることはない。図15に示すように、タップ操作判別時には、予め独自に設定されたタップオン閾値Don2、タップオフ閾値Doff2をオン時及びオフ時の判定用閾値として用いている。すなわち、本実施形態では、これらの図10~図15に示すように、操作時間を設定するためのフリックオン閾値Don1、タップオン閾値Don2、フリックオフ閾値Doff1、タップオフ閾値Doff2を個別に設定可能になっている。
 以下、荷重のフリックオン閾値Don1、フリックオフ閾値Doff1、タップオン閾値Don2、タップオフ閾値Doff2の望ましい関係性を説明する。ドライバは、フリック操作時に操作指を操作面5に摺動させることが想定されるため、操作面5に与えられる荷重はタップ操作時に比較して小さくなる。
 逆に、ドライバはタップ操作時に操作面5に操作指を叩くことが想定されるため、操作面5に与えられる荷重はフリック操作時に比較して大きくなる。このため、荷重のフリックオン閾値Don1はタップオン閾値Don2よりも小さく設定することが望ましく、また、フリックオフ閾値Doff1はタップオフ閾値Doff2よりも小さく設定することが望ましい。
 また、タップ操作における荷重の判定用閾値(タップオン閾値Don2、タップオフ閾値Doff2)を比較的大きく設定した場合には、座標がフリック判定閾値以上に十分に移動している場合においても、荷重の時間的変化次第では座標移動量が比較的少なく検出される可能性がある。
 このため、図13~図15に示すタップ操作判別処理より、図10~図12に示すフリック操作判別を優先的に行うことが望ましく、フリック操作判別処理を先に行うことが望ましい。その他は第1実施形態と同様の作用を奏するためその説明を省略する。
 信号処理部7は、操作の種類(フリック操作、タップ操作)毎の操作時間を決定するための荷重のオン閾値Don1、Don2、オフ閾値Doff1、Doff2を個別に設定して操作種類を判別している。これにより、操作の種類毎に必要な閾値を個別に設定できるようになり利便性が向上する。
 また、例えばフリック操作の場合には、操作指による荷重が比較的弱く検出されるため、検出される座標の位置が本来操作指が接触した座標の位置からずれることがある。このため、フリック操作のフリックオン閾値Don1を所定より比較的小さく設定すると共にフリックオフ閾値Doff1を所定より比較的小さく設定している。これにより、たとえフリック操作時に荷重が比較的弱く検出されることが想定される場合であっても、操作指が実際に接触した位置と、座標が検出される位置とを極力一致させることができるようになり、操作の種類を極力正確に判別できるようになる。
 特に、フリック操作のフリックオン閾値Don1をタップ操作のタップオン閾値Don2よりも小さく設定しており、フリック操作のフリックオフ閾値Doff1をタップ操作のタップオフ閾値Doff2よりも小さく設定しているため、誤判別を極力なくすことができる。
 また、フリック操作をタップ操作に優先して判別しているため、誤判別を極力なくすことができる。
 (第3実施形態)
 図16から図18は第3実施形態の追加説明図を示す。この実施形態では、座標の移動速度、又は/及び、座標の移動の加速度に基づいて操作を判別する形態を示す。特に、フリック操作を判別するときに特徴を奏するため、フリック操作の判別処理が、第2実施形態と異なる部分を中心に説明し、タップ操作の判別処理については説明を省略する。
 図16に示すように、信号処理部7は、S5aにて荷重がフリックオン閾値Don1以上になるとS8~S10においてオン時の荷重、座標、時間を記憶し、S11aにてフリックオフ閾値以下となるまでS12、S13にて荷重、座標のデータを取得する。
 本実施形態では、信号処理部7は、S5aにて荷重がフリックオン閾値Don1以上の条件を満たしてから、S11aにて荷重がフリックオフ閾値Doff1以下となるまでの間、S18にて座標の移動速度を算出し、S19にて座標の移動加速度を算出し、S20にて座標の移動速度の絶対値の最大値、座標の移動加速度の絶対値の最大値を更新し続ける。
 S18に示す座標の移動速度は座標を時間微分することで算出することができ、例えば前回算出された座標及び時間と今回算出された座標及び時間とに応じて算出できる。前回の座標のデータがメモリに記憶されていない場合にはS18の処理は無視すれば良い。また、S19に示す座標の移動加速度は、座標の移動速度を時間微分することで算出でき、例えば前回算出された移動速度及び時間と、今回算出された移動速度及び時間とに応じて算出できる。前回の移動速度のデータがメモリに記憶されていない場合はS19の処理は無視すれば良い。
 そして信号処理部7は、S20においてこれらの座標の移動速度の絶対値、座標の移動加速度の絶対値を順次更新する。信号処理部7は、S11aにおいてフリックオフ閾値Doff1以下となったことを条件としてS17aにおいてフリック操作の判別処理を行う。
 信号処理部7は、図17に示すフリック操作の判別処理において、T1にて座標移動量を算出し、T2にて操作時間を算出するが、さらに、T14において「座標移動速度」を前述のS19で取得されている座標の移動速度の絶対値の最大値とし、T15において「座標移動加速度」を前述のS20で取得されている座標の移動加速度の絶対値の最大値とする。そして信号処理部7は、前述実施形態で説明したT3の条件に加え、T16にて座標移動速度がフリック移動速度閾値vt以上となること、T17にて座標移動加速度がフリック移動加速度閾値qt以上となること、の何れか少なくとも一つを満たしたことを条件としてT4においてフリック操作と判別する。
 ドライバが操作面5をフリック操作したときには、座標移動速度は例えばタップ操作に比較して大きくなる。図18に座標移動速度の最大値P1を示したが、座標移動速度の絶対値の最大値P1が所定のフリック移動速度閾値vt以上となることを条件としてフリック操作である旨の判別を行うことができる。また、ドライバが操作面5をフリック操作したときには、座標加速度も例えばタップ操作に比較して大きくなる。このため、図18に座標移動加速度の最大値P2を示したが、座標移動加速度の絶対値の最大値P2が所定のフリック移動加速度閾値qt以上となることを条件としてフリック操作である旨の判別を行うことができる。
 T3、T16、T17の何れか少なくとも一つ以上を満たすことを条件としたが、何れか2つ以上満たすことを条件としても良いし、3つ全ての条件を満たすことを条件としてフリック操作である旨の判別を行っても良い。
 本実施形態に示したように、信号処理部7が、座標の変化の速度、又は/及び、前記座標の変化の加速度に基づいて操作の種類を判別することで、誤判別を極力なくすことができる。
 (第4実施形態)
 図19から図21は第4実施形態の追加説明図を示す。この実施形態では、XY座標の最大値、最小値に基づいて座標移動量を算出する形態を示す。第1実施形態と異なる部分を中心に説明し、その他の部分については説明を省略する。
 図19に示すように、信号処理部7は、S8~S10においてオン時の荷重、座標、時間を記憶した後、順次タイミングをずらして荷重、座標のデータを取得するときに、S21においてX、Y座標の最大値、最小値を求め、内部メモリに記憶させる。このXY座標の最大値/最小値の算出方法は、例えば操作面5の中心点(X,Y)=(0,0)からの距離がよりXY正方向に遠い位置を最大値としXY負方向に遠い位置を最小値とすると良い。そして、図20に示すように、信号処理部7は、T1aにおいて座標移動量をXY座標の最大値からXY座標の最小値を減算した値の絶対値とし、T2以降の処理を行う。
 ドライバはその操作指を操作面5に触れたタイミングからある時間の間、実質的に動かしたい所望の方向とは異なる方向(例えば逆方向)に動かすこともある。このような場合、図21に示すように、オン時の座標とオフ時の座標とに基づく座標移動量M1と、XY座標の最大値とXY座標の最小値とに基づく座標移動量M1bとの間に大きく差を生じることも想定される。
 信号処理部7が、最大値と最小値との差に基づく座標移動量M1bを取得することで、少なくとも第1実施形態の動作に比較して座標移動量M1bを比較的大きく取得できる。これにより、ドライバの操作指による操作がたとえずれたとしても座標移動量M1bを大きく取得することができ、極力正確にフリック操作を判別できる。
 本実施形態によれば、操作開始から操作終了するまでのXY座標の最大値、最小値に基づいて座標移動量M1bとし当該座標移動量M1bに基づいて操作の種類を判別している。このため、極力正確に操作を判別できる。
 (他の実施形態)
 前述実施形態に限定されるものではなく、例えば、以下に示す変形又は拡張が可能である。
 操作部として、平面状に設けた操作面5を適用した形態を示したが、これに限定されるものではなく、歪検出素子を用いた各種の操作入力デバイスを適用しても良い。
 操作装置2は、外部機器9~12との間で通信する形態に適用したが、これに限定されるものではない。操作装置2は、例えば各種ECU9,10に搭載されていたり、無線通信機器12に搭載されていても良い。すなわち前述実施形態においては、信号処理部7が操作判別装置としての機能を備えた形態を示したが、これに限定されるものではない。すなわち、外部機器9~12が一連の荷重データ及び座標データをネットワークNを通じて取得し、前述実施形態の信号処理部7の処理を行うようにしても良い。すなわち、機器9~12の何れかが操作の種類判別する操作判別装置としての機能を備えていても良い。
 車両のステアリング1に備え付けた操作装置2を用いた形態を説明したが、これに限定されるものではない。操作装置2が、ステアリング1に2つ設けられている形態を示したが、1つでも良いし3つ設けられていても良いし、他の部品に取り付けられていても良い。フリック操作、タップ操作の判別方法を例示したが、これに限定されるものではなく、例えばスワイプ操作、スライド操作など各種の操作の判別に適用できる。
 例えば、前述の各実施形態の構成は概念的なものであり、一つの構成要素が有する機能を複数の構成要素に分散させたり、複数の構成要素が有する機能を一つの構成要素に統合させたりしてもよい。また、前述の実施形態の構成の少なくとも一部を、同様の機能を有する公知の構成に置き換えてもよい。また、前述の2以上の実施形態の構成の一部又は全部を必要に応じて互いに組み合わせて付加しても置換しても良い。
 図面中、5は操作面(操作部)、7は信号処理部(操作判別装置、操作時間設定部、操作種類判別部)、13はガイド、14は上ガイド(ガイド)、15は下ガイド(ガイド)、16は左ガイド(ガイド)、17は右ガイド(ガイド)、18は凹部(ガイド)、20~23は歪検出素子、を示す。
 なお、特許請求の範囲に記載した括弧内の符号は、本開示の一つの態様として前述する実施形態に記載の具体的手段との対応関係の一例を示すものであって、本開示の技術的範囲を限定するものではない。本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。

Claims (6)

  1.  操作されることにより生じる荷重に応じた検出信号を出力する歪検出素子(20~23)が設けられた操作部(5)における操作種類を判別する操作判別装置(7、9~12)であって、
     前記歪検出素子による検出信号に基づき取得された荷重が所定のオン閾値以上に印加されたときから所定のオフ閾値以下になるときまでの時間を操作時間として設定する操作時間設定部(7、T2)と、
     前記操作時間の間に変化した座標又は/及び荷重の変化に基づいて操作の種類を判別する操作種類判別部(7、T4、T7、T10)と、を備える操作判別装置。
  2.  前記操作の種類ごとに、前記荷重のオン閾値(Don1、Don2)及びオフ閾値(Doff1、Doff2)は個別に設定可能になっている請求項1記載の操作判別装置。
  3.  前記操作部(5)は、外見上で操作方法を促すと共に操作指に触感を備えるガイド(13~18)を備える請求項1記載の操作判別装置。
  4.  前記操作種類判別部は、前記座標の変化の速度、又は/及び、前記座標の変化の加速度に基づいて操作の種類を判別する請求項1記載の操作判別装置。
  5.  前記操作種類判別部は、操作開始から操作終了するまでのXY座標の最大値、最小値に基づいて座標移動量とし当該座標移動量に基づいて操作の種類を判別する請求項1記載の操作判別装置。
  6.  前記操作種類判別部は、前記操作の種類としてフリック操作をタップ操作に優先して判別する請求項1記載の操作判別装置。
PCT/JP2017/020851 2016-07-19 2017-06-05 操作判別装置 WO2018016210A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE112017003643.7T DE112017003643T5 (de) 2016-07-19 2017-06-05 Bedienungsbestimmungsvorrichtung
US16/247,652 US20190143817A1 (en) 2016-07-19 2019-01-15 Operation determination device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016141348A JP6643200B2 (ja) 2016-07-19 2016-07-19 操作判別装置
JP2016-141348 2016-07-19

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/247,652 Continuation US20190143817A1 (en) 2016-07-19 2019-01-15 Operation determination device

Publications (1)

Publication Number Publication Date
WO2018016210A1 true WO2018016210A1 (ja) 2018-01-25

Family

ID=60992087

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/020851 WO2018016210A1 (ja) 2016-07-19 2017-06-05 操作判別装置

Country Status (4)

Country Link
US (1) US20190143817A1 (ja)
JP (1) JP6643200B2 (ja)
DE (1) DE112017003643T5 (ja)
WO (1) WO2018016210A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023281577A1 (ja) 2021-07-05 2023-01-12 日本電信電話株式会社 操作端末、操作方法、及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011221640A (ja) * 2010-04-06 2011-11-04 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2013182528A (ja) * 2012-03-02 2013-09-12 Konica Minolta Inc 情報処理装置、プログラム
JP2014527675A (ja) * 2011-09-12 2014-10-16 モトローラ モビリティ エルエルシーMotorola Mobility Llc タッチ・センサ・ディスプレイ画面による差圧の利用
JP2014229014A (ja) * 2013-05-21 2014-12-08 日本精機株式会社 タッチパネル入力操作装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5581947B2 (ja) * 2010-09-30 2014-09-03 日本精機株式会社 表示項目選択装置及び表示項目選択システム
JP5844178B2 (ja) 2012-02-29 2016-01-13 株式会社日本自動車部品総合研究所 車載装置
JP2015047969A (ja) * 2013-09-02 2015-03-16 本田技研工業株式会社 スイッチシステム
JP6549852B2 (ja) 2015-02-04 2019-07-24 日立金属株式会社 トロリ線

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011221640A (ja) * 2010-04-06 2011-11-04 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2014527675A (ja) * 2011-09-12 2014-10-16 モトローラ モビリティ エルエルシーMotorola Mobility Llc タッチ・センサ・ディスプレイ画面による差圧の利用
JP2013182528A (ja) * 2012-03-02 2013-09-12 Konica Minolta Inc 情報処理装置、プログラム
JP2014229014A (ja) * 2013-05-21 2014-12-08 日本精機株式会社 タッチパネル入力操作装置

Also Published As

Publication number Publication date
DE112017003643T5 (de) 2019-04-04
US20190143817A1 (en) 2019-05-16
JP6643200B2 (ja) 2020-02-12
JP2018013841A (ja) 2018-01-25

Similar Documents

Publication Publication Date Title
US20130162582A1 (en) Input device
JP5798160B2 (ja) 車両用操作装置
CN111630480B (zh) 触摸面板装置
US7688313B2 (en) Touch-sense apparatus available for one-dimensional and two-dimensional modes and control method therefor
US10289249B2 (en) Input device
EP3040252B1 (en) Steering wheel control system
US9983745B2 (en) Touch sensor device and controller
JP6233248B2 (ja) 把持状態判定装置、把持状態判定方法、入力装置、入力取得方法
TW201633065A (zh) 人機介面裝置及方法
TWI694360B (zh) 輸入介面裝置、控制方法及非暫態電腦可讀取媒體
WO2016189734A1 (ja) タッチパネル制御装置及び車載情報機器
JP2023164680A (ja) 位置出力装置
WO2018016210A1 (ja) 操作判別装置
JPWO2012111227A1 (ja) タッチ式入力装置、電子機器および入力方法
US20210001914A1 (en) Vehicle input device
US10061413B2 (en) Operating element
JP5723908B2 (ja) 入力操作受付装置
CN108473053B (zh) 车辆方向盘上的触摸表面
JP2015149055A (ja) 静電容量式操作装置
JP6350310B2 (ja) 操作装置
WO2018135183A1 (ja) 座標入力装置
JP2018124811A (ja) 操作装置
JP2015130122A (ja) 静電容量式操作装置
JP2020060930A (ja) 入力装置
JP2018156533A (ja) 触覚呈示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17830730

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17830730

Country of ref document: EP

Kind code of ref document: A1