WO2019009138A1 - 操作入力装置 - Google Patents

操作入力装置 Download PDF

Info

Publication number
WO2019009138A1
WO2019009138A1 PCT/JP2018/024140 JP2018024140W WO2019009138A1 WO 2019009138 A1 WO2019009138 A1 WO 2019009138A1 JP 2018024140 W JP2018024140 W JP 2018024140W WO 2019009138 A1 WO2019009138 A1 WO 2019009138A1
Authority
WO
WIPO (PCT)
Prior art keywords
button
threshold
contact position
operation input
operated portion
Prior art date
Application number
PCT/JP2018/024140
Other languages
English (en)
French (fr)
Inventor
真人 針谷
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Priority to JP2019527644A priority Critical patent/JPWO2019009138A1/ja
Publication of WO2019009138A1 publication Critical patent/WO2019009138A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0443Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using a single layer of sensing electrodes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means

Definitions

  • the present invention relates to an operation input device in which an operated portion is operated.
  • the touch pad which is an operation input device having a touch surface the touch surface which is the operated portion is not the sensor surface that directly detects a touch, but the sensor is an electrostatic sensor, and a design panel etc. is provided on the front of the electrostatic sensor.
  • an operation input device which is provided and whose design panel is a touch surface.
  • Patent Document 1 describes a touch position detection device in which a plurality of electrodes are laid on the back surface of a design panel and the touch position on the design panel is detected based on the capacitance generated from the electrodes. .
  • the touch position detection apparatus calculates the touch position by correcting the capacitance of the electrode based on the correction coefficient for eliminating the variation in capacitance caused by the difference in thickness of the design panel.
  • One of the problems to be solved by the present invention is to detect an appropriate operation position as described above.
  • the invention according to claim 1 detects the contact position of the operation element which contacts the operated part based on the output of the electrostatic sensor arranged apart from the operated part. Identifying an operation performed on the operated portion when the pressing load exceeds a first threshold value, and a load sensor that detects a pressing load on the operated portion by the operating element; And a specifying unit that specifies the operation performed on the operated unit based on the contact position detected by the contact position detecting unit before the pressing load exceeds the first threshold. , Is characterized.
  • the invention according to claim 6 is an input detection method executed by an operation input device in which an operation is input by pressing an operated portion, which is an output of an electrostatic sensor disposed apart from the operated portion.
  • a contact position detecting step of detecting a contact position of the operating element contacting the operated portion, a load detecting step of detecting a pressing load on the operated portion by the operating element, and the pressing load And a specifying step of specifying an operation performed on the operated portion when the threshold value is exceeded, wherein the specifying step detects the contact position detecting step before the pressing load exceeds the first threshold.
  • the operation performed on the operated portion is identified based on the contact position.
  • the invention according to a seventh aspect is characterized in that the input detection method according to the sixth aspect is executed by a computer.
  • FIG. 8 is an explanatory view showing a state in which the electrostatic sensor shown in FIG. 7 is touched with a finger.
  • An operation input device detects a contact position of an operating element in contact with the operated portion based on an output of an electrostatic sensor disposed apart from the operated portion. And a load sensor for detecting a pressing load on the operated part by the operating element, and a specifying part for specifying an operation performed on the operated part when the pressing load exceeds the first threshold. . Then, the identification unit identifies the operation performed on the operated portion based on the contact position detected by the contact position detection unit before the pressing load exceeds the first threshold. By doing this, it is possible to specify the operation based on the contact with the operated portion before detecting the pressing load that specifies the operation by the specifying unit.
  • the specification unit acquires a first contact position when the pressing load detected by the load sensor exceeds a second threshold smaller than the first threshold, and the pressing load detected by the load sensor exceeds the first threshold.
  • the operation performed on the operated portion may be specified based on the first contact position. By doing this, the operation can be specified based on the first contact position when the second threshold is exceeded before the specification unit detects the pressing load that specifies the operation.
  • the identifying unit exceeds the first threshold without becoming equal to or less than the second threshold.
  • the operation performed on the operation unit may be specified. By doing this, it is possible to specify an action only when the load continues to increase and exceeds the first threshold. That is, one pressing operation can be detected to specify the operation.
  • the identification unit acquires a second contact position detected by the contact position detection unit when the first threshold is exceeded, compares the second contact position with the first contact position, and the difference between them is within a predetermined range.
  • the operation performed on the operated portion may be specified based on the first contact position.
  • a drive unit may be provided to deform one or more regions of the operated portion. By doing this, it is possible to detect an appropriate operation position in the deformed area, regardless of the force applied to the operated portion, when pressed.
  • a contact that detects a contact position of an operating element that contacts the operated portion based on an output of an electrostatic sensor disposed apart from the operated portion.
  • the identification step the operation performed on the operated portion is identified based on the contact position detected in the contact position detection step before the pressing load exceeds the first threshold value. By doing this, the operation can be specified based on the contact with the operated portion before the pressing process for detecting the operation specifying step.
  • it may be an input detection program that causes a computer to execute the above-described operation input method.
  • the operation can be specified using the computer based on the contact with the operated portion before the pressing process for detecting the operation specifying step. That is, since the operation is specified based on the contact position touched with a force smaller than the first threshold, an appropriate operation position can be detected regardless of the amount of force applied to the operated portion.
  • a small force as a reference, it is possible to suppress the influence of the deformation of the structure due to the operation with the manipulator.
  • the operation input device 1 includes a panel 2 with a window, an electrostatic sensor 3, a holder 4, a load sensor 5, motor holders 6 and 7, and motors 8 and 10.
  • the front sheet 23 and the boss 24 are provided.
  • the direction in which the button push-up levers 18, 19, 20, 21 move is the x direction
  • the direction in which the buttons 14, 15, 16, 17 move (project or retract) the z direction is the x direction
  • the direction orthogonal to the direction is called y direction.
  • the windowed panel 2 is a substantially plate-like panel formed of resin or the like, and a plurality of window portions 2a are formed as openings. Surface portions 14a, 15a, 16a, 17a of buttons 14, 15, 16, 17 described later are exposed from the plurality of window portions 2a.
  • the windowed panel 2 is fixed to the electrostatic sensor 3 by a plurality of windowed panel fixing screws 13. Further, the windowed panel 2 is formed with a groove through which button push-up levers 18, 19, 20, 21 described later move in the x direction.
  • the electrostatic sensor 3 is disposed so as to overlap the lower layer of the windowed panel 2 (the side not facing the surface sheet 23).
  • the electrostatic sensor 3 applies a predetermined voltage to the flat plate sensor unit in which the electrodes are spread in a mesh and applies a predetermined voltage to the electrode, and detects a minute current flowing to the electrode, thereby obtaining a peripheral object for each position on the flat plate sensor unit.
  • a detection circuit unit that calculates a value corresponding to the parasitic capacitance of That is, the electrostatic sensor 3 is configured to be able to detect electrostatic capacitance for each of a plurality of coordinate positions (areas) on the electrostatic sensor 3.
  • the electrostatic sensor 3 is a known device that detects a change in electrostatic capacitance between an operator such as a user's finger or the like and the conductive film to detect a contact position of the operator.
  • the holder 4 is formed of a sheet metal or the like, and the windowed panel 2, the electrostatic sensor 3, and the load sensor 5 are mounted and fixed. Further, the holder 4 fixes the motors 8 and 10 via the motor holders 6 and 7.
  • a plurality of load sensors 5 are disposed between the electrostatic sensor 3 and the holder 4 (see FIG. 2).
  • the plurality of load sensors 5 are spaced apart in a direction (x direction in FIG. 1, y direction in FIG. 1, x direction in FIG. 2) orthogonal to the direction (load direction) in which the load is applied. In the present embodiment, they are disposed at the four corners of the electrostatic sensor 3.
  • the load sensor 5 can detect the load by pressing the button 15 etc., for example, any number may be disposed at any position.
  • the load sensor 5 is not particularly limited as long as the load applied to the electrostatic sensor 3 can be detected, for example, a strain sensor or a piezoelectric sensor.
  • the motor holder 6 is fixed to the holder 4 by a plurality of motor holder fixing screws 22.
  • the motor holder 6 fixes the motor 8.
  • the motor holder 7 is fixed to the holder 4 by a plurality of motor holder fixing screws 22.
  • the motor holder 7 fixes the motor 10.
  • the motor 8 is fixed to the motor holder 6.
  • the motor 8 moves a button push-up lever 19 described later in the x direction by rotating its output shaft 9.
  • a screw groove is formed on the output shaft 9, and the screw groove is engaged with a nut provided on the button push-up lever 19. Therefore, when the output shaft 9 of the motor 8 rotates, the nut moves in the screw groove and the button push-up lever 19 moves.
  • a stopper 9a is formed which restricts the movement of the button push-up lever 19.
  • the motor 10 is fixed to a motor holder 7.
  • the motor 10 moves a button push-up lever 18 described later in the x direction by rotating the output shaft 11 thereof.
  • the output shaft 11 is formed with a screw groove, and the screw groove is engaged with a nut provided on the button push-up lever 18.
  • a stopper 11 a for restricting the movement of the button push-up lever 18 is formed at the tip of the output shaft 11.
  • the operation input device 1 further includes a motor for moving the button push-up levers 19 and 20 in the x direction, in addition to the motors 8 and 10 described above. Then, these motors also move the button push-up levers 19 and 20 in the x-axis direction by rotating the output shaft in the same manner as the motors 8 and 10. For example, in FIG. 1, the output shaft 12 of the motor for moving the button push-up lever 19 is illustrated.
  • the button 14 is mounted on the electrostatic sensor 3 (see FIG. 2).
  • the surface portion 14 a of the button 14 is exposed from the window portion 2 a of the window panel 2.
  • the button 14 is moved by the button push-up lever 18 so as to protrude and retract from the window 2 a (in the z direction).
  • the button 15 is mounted on the electrostatic sensor 3 (see FIG. 2).
  • the surface portion 15 a of the button 15 is exposed from the window portion 2 a of the window panel 2.
  • the button 15 is moved by the button push-up lever 19 so as to protrude and retract from the window 2 a (in the z direction).
  • buttons 16 and 17 are similarly mounted on the electrostatic sensor 3, and the surface portions 16 a and 17 a are exposed from the window portion 2 a of the window panel 2.
  • the button 16 is moved by the button push-up lever 20 so as to protrude and retract from the window 2a.
  • the button 17 is moved by the button push-up lever 21 so as to protrude and retract from the window portion 2 a.
  • the button push-up lever 18 has a main body 18 a and a lever 18 b. As shown in FIG. 2, the output shaft 11 passes through one end of the main body 18 a. Therefore, the hole which the output shaft 11 penetrates is provided. The hole functions as a nut as described above, and is screwed with a screw groove formed on the output shaft 11.
  • the lever portion 18 b extends from the other end of the main portion 18 a toward the disposition position of the button 14. When the lever portion 18b moves in the right direction of FIG. 2 with the movement of the main body portion 18a, the lever portion 18b enters between the button 14 and the electrostatic sensor 3 through the groove formed in the windowed panel 2 and 14 is moved in the direction (z direction) which protrudes from the window part 2a.
  • the tip of the lever portion 18 b is formed in a tapered shape, so that the lever portion 18 b can easily enter between the button 14 and the electrostatic sensor 3. Further, when the lever portion 18b moves in the left direction of FIG. 2 along with the movement of the main body portion 18a, the lever portion 18b passes through the groove formed in the window panel 2 and comes out from between the button 14 and the electrostatic sensor 3 The button 14 is moved in the direction of sinking into the window 2a.
  • the button push-up lever 19 has a main body 19 a and a lever 19 b. As shown in FIG. 2, the output shaft 9 passes through one end of the main body 19a. Therefore, the hole which the output shaft 9 penetrates is provided. The hole functions as a nut as described above, and is screwed with a screw groove formed in the output shaft 9.
  • the lever 19 b extends from the other end of the main body 19 a toward the position where the button 15 is disposed. When the lever portion 19b moves in the left direction of FIG. 2 with the movement of the main body portion 19a, the lever portion 19b enters between the button 15 and the electrostatic sensor 3 through the groove formed in the windowed panel 2 15 is moved in the direction (z direction) which protrudes from the window part 2a.
  • the tip of the lever portion 19 b is formed in a tapered shape so that the lever portion 19 b can easily enter between the button 15 and the electrostatic sensor 3. Further, when the lever portion 19b moves in the right direction of FIG. 2 along with the movement of the main body portion 19a, the lever portion 19b passes through the groove formed in the windowed panel 2 and comes out from between the button 15 and the electrostatic sensor 3 The button 15 is moved in the direction of sinking into the window 2a.
  • the button push-up lever 20 has a main body 20 a and a lever 20 b.
  • the main body portion 20a is provided at one end with a hole through which the output shaft of the motor passes.
  • the hole functions as a nut as described above, and is screwed with a screw groove formed on the output shaft.
  • the lever portion 20 b extends from the other end of the main portion 20 a toward the position where the button 16 is disposed.
  • the lever portion 20b moves with the movement of the main body portion 20a, thereby moving the button 16 in a direction in which it protrudes from the window portion 2a, or moving it in a direction in which it sinks into the window portion 2a.
  • the tip of the lever portion 20 b is formed in a tapered shape, so that the lever portion 20 b can easily enter between the button 16 and the electrostatic sensor 3.
  • the button push-up lever 21 has a main body 21 a and a lever 21 b.
  • the main body portion 21a is provided at one end with a hole through which the output shaft of the motor passes.
  • the hole functions as a nut as described above, and is screwed with a screw groove formed on the output shaft.
  • the lever portion 21 b extends from the other end of the main portion 21 a toward the disposition position of the button 17.
  • the lever portion 21b moves the button 17 in a direction (z direction) protruding from the window portion 2a or moves in a direction of sinking into the window portion 2a by moving with the movement of the main body portion 21a.
  • the tip portion of the lever portion 21 b is formed in a tapered shape, so that the lever portion 21 b can easily enter between the button 17 and the electrostatic sensor 3.
  • the button push-up levers 18, 19, 20, 21 are disposed between the front sheet 23 (operation surface) and the electrostatic sensor 3 and are capable of individually pushing up a plurality of independent areas in the operation surface. Act as a department.
  • the button push-up levers 18, 19, 20, 21 have a minute gap between each lever and the electrostatic sensor 3 for movement of each lever.
  • the motors 8 and 10 and the button push-up levers 18, 19, 20 and 21 are used to change the shape of the buttons 14, 15, 16 and 17 (to change the configuration of a part of the operated portion) Function as a drive unit).
  • the surface sheet 23 is provided on the surface of the windowed panel 2 (the surface opposite to the surface facing the electrostatic sensor 3).
  • the top sheet 23 is resilient and stretches and bulges when the buttons are pushed up, and maintains a planar shape when the buttons are not pushed up.
  • the surface sheet 23 covers the windowed panel 2 and also functions as a window plate fixing screw 13 and a blind plate such as a boss 24 by preventing the buttons 14, 15, 16 and 17 from coming off. Therefore, the surface of the top sheet 23 becomes an operation surface (operated portion).
  • the front sheet 23 may be omitted. In that case, the surface of the windowed panel 2 and the surface portion of each button become an operation surface (operated portion).
  • the top sheet 23 (operated portion) and the electrostatic sensor 3 are disposed apart from each other.
  • each button is pushed up, each button is disposed apart from the electrostatic sensor 3.
  • the bosses 24 are provided for positioning when the windowed panel 2 is fixed to the electrostatic sensor 3.
  • two bosses 24 are provided. That is, holes (boss holes) through which the bosses 24 pass are formed in the windowed panel 2 and the electrostatic sensor 3, and the windows 24 and the electrostatic sensor 2 penetrate the holes through the bosses 24. Positioning with 3 is made.
  • the operation input device 1 configured as described above causes the button pushing lever 18 to project the button 14 from the windowed panel 2. Then, the user etc. can identify the button which can be operated by groping. When the button 14 is pressed by the user or the like, an operation can be performed that indicates the operation content associated with the button 14.
  • the operation input device 1 includes an operation input control unit 102 in addition to the configuration shown in FIG. 1.
  • the operation input control unit 102 acquires the position of the button to be operated from, for example, an operated device such as a navigation device, and causes the corresponding button to protrude by controlling the motor 8 and the like. In addition, the operation input control unit 102 specifies the button that has been actually operated (pressed) based on the contact position (coordinates) of the finger detected by the electrostatic sensor 3 and the load value detected by the load sensor 5. . Further, in the operation input control unit 102, a range (operation effective area) of coordinates at which it is determined that the buttons 14 to 17 are operated (pressed) for the coordinates detected by the electrostatic sensor 3 is set for each button. That is, the area pushed up by the button push-up levers 18 to 21 (push-up portion) is set as the operation effective area.
  • the electrostatic sensor Since a structure (the button push-up lever 18, etc., the button 15, etc., the surface sheet 23) whose position changes on the electrostatic sensor 3 exists, the electrostatic sensor is selected by the push-up pattern (feature) of the button 15 etc. The parasitic capacitance (the value corresponding to that) detected by 3 changes. Therefore, the initial value calibration described below is performed.
  • FIG. 4 shows a flowchart of the initial value calibration operation. This flowchart is executed by the operation input control unit 102.
  • the initial value calibration operation is performed in a state in which the user or the like does not touch the operation surface of the operation input device 1 with a finger.
  • step S101 when an instruction of initial value calibration is input at the time of shipment, designation by a user, etc. (step S101), the operation input control unit 102 executes one of the push patterns of the buttons 14 to 17 (step S102). That is, the motors 8, 10, etc. are driven so as to be in that state for one of a plurality of patterns such as a pattern in which the buttons 14 to 17 are individually pushed up and a pattern in which the plurality of buttons are pushed up.
  • step S102 the parasitic capacitance for the pattern executed in step S102 is acquired from the electrostatic sensor 3 and associated with the corresponding pattern and stored as an initial value in the operation input control unit 102 (step S103). Then, when the storage of parasitic capacitances for all patterns is completed, the initial value calibration is ended (step S104: Y). Otherwise, detection and storage of parasitic capacitances are performed for the next pattern.
  • the form is sequentially changed (step S104: N). In addition, in the case of this storage, it stores for every coordinate position (area
  • the operation input control unit 102 sets, for each pattern (feature), the electrostatic capacitance detected by the electrostatic sensor 3 in a state where the finger (operation element) is not approaching or touching the button 15 etc. (operated portion). It functions as a storage unit that stores as an initial value.
  • the operation input control unit 102 can store the parasitic capacitance for each position coordinate corresponding to all the push-up patterns in advance as an initial value. Then, when using the operation input device 1 (in normal use), when the button 15 or the like is pushed up (projected), the initial value of the corresponding pushing up pattern is read out, and the finger is touched on the basis of this. The capacitance change at that time is calculated, and the position touched by the finger is specified based on the calculated capacitance change to detect the operation of the button 15 or the like.
  • a range of coordinates for determining that the button 15 is pushed is determined in advance, and the finger touches the operation surface of the operation input control unit 102
  • the coordinate position at which the change in capacitance is the largest is calculated as the pressed position. Then, if the calculated position is in the range of coordinates for determining that the button 15 is pressed, it is determined that the button 15 is pressed.
  • the button 15 or the like In the detection of the operation of the button 15 or the like, when the load value detected by the load sensor 5 is equal to or greater than a predetermined value, the button corresponding to the position calculated based on the change in electrostatic capacitance is reliably pressed It can be determined that the operation is determined.
  • the operation input control unit 102 selects the button 15 or the like (based on the capacitance change calculated based on the initial value). Functions as an identifying unit that identifies the operation performed on the operation unit).
  • step S103 is a storing step.
  • the flowchart of FIG. 4 is only acquisition of an initial value, operation
  • the operation input device 1 detects the capacitance between the button push-up lever 18 or the like causing the button 15 or the like to protrude and retract, the motor 8 or the like, and the surrounding object including the button 15 or the like. And an electrostatic sensor 3. Furthermore, the operation input control unit 102 stores, as an initial value, an electrostatic capacitance detected by the electrostatic sensor 3 in a state where the finger does not approach or touch the button 15 etc. When the finger approaches or touches the button 15 or the like, the operation input control unit 102 identifies the operation performed on the button 15 or the like based on the change in capacitance calculated on the basis of the initial value. By doing this, it is possible to obtain and store the initial value according to the form in which the capacitance changes.
  • the electrostatic sensor 3 can detect electrostatic capacitance for each of a plurality of areas on the electrostatic sensor, and the operation input control unit 102 can detect coordinate positions (areas) that can be detected by the electrostatic sensor 3.
  • the initial value corresponding to each is stored. By doing this, the initial value can be obtained and stored by being divided into the area in which the feature changes and the area in which the button does not change due to the button 14 projecting and recessed.
  • the operation input control unit 102 controls the button push-up lever 18 and the like, the motor 8 and the like so as to sequentially change the projecting and retracting state of the button 15 and the like, with the finger not approaching or touching the button 15 or the like. Every time the button 15 or the like is protruded or retracted, the capacitance detected by the electrostatic sensor 3 is stored.
  • the operation input control unit 102 when the button push-up lever 18 or the like and the motor 8 or the like project or sink the button 15 or the like while the finger does not approach or touch the button 15 or the like, the electrostatic sensor 3 The detected capacitance is stored as an initial value. By doing this, it is possible to store the capacitance at the time when the form has changed.
  • the operation input control unit 102 calculates the approach position or the contact position of the finger based on the capacitance change caused by the finger, and specifies the operation performed on the button 15 or the like based on the approach position or the contact position. ing. By doing this, the operation can be specified by the electrostatic capacitance without the influence of the change of the electrostatic capacitance due to the change of the characteristic by the initial value according to the characteristic.
  • buttons 14-17 are provided, and button push-up levers 18-21. By doing this, the operation of the buttons 14 to 17 can be appropriately specified in accordance with the state of projection and retraction.
  • FIGS. 5 to 11 An operation input apparatus according to a second embodiment of the present invention will be described with reference to FIGS. 5 to 11.
  • the same parts as those of the first embodiment described above are designated by the same reference numerals and the description thereof will be omitted.
  • the effective operation area adjustment operation will be described.
  • the distance between the finger and the electrostatic sensor 3 must be increased because a structure is present on the electrostatic sensor 3, so The capacity detection sensitivity must be set high.
  • the electrostatic sensor 3 may detect the parasitic capacitance with respect to the part which is not in contact with the operation surface of the finger. Such a phenomenon is particularly influenced by a portion which is not in contact with the operation surface of the finger as the finger approaches in parallel with the operation surface.
  • the effective determination area of the operation area (the operation button 15 or the like) is adjusted in consideration of the displacement of the operation position caused by the angle of the finger to be operated and input with respect to the operation surface.
  • FIG. 5 shows a flowchart of the effective operation area adjustment operation. This flowchart is executed by the operation input control unit 102.
  • step S201 when the operation input device 1 is activated (system activation) (step S201), the buttons 8 and the like that can be operated in conjunction with the navigation device are driven to project the motors 8 and 10 and the buttons
  • the initial value of the area (valid operation area) that recognizes that the 15th and the like are operated is set (step S202).
  • FIG. 6 shows an example of the effective operation area. In FIG. 6, areas A to C indicated by broken lines around the buttons 15 to 17 are effective operation areas when the buttons protrude.
  • FIG. 7 is a schematic view of the electrostatic sensor 3 as viewed in the z direction of FIG. 1, and the numbers in the respective regions indicate the amount of change in capacitance at the corresponding position.
  • the symbol F indicates a finger.
  • the finger F touches the surface sheet 23 which is the operation surface so as to be inclined to the right in the drawing.
  • the operation input device 1 includes a structure such as the surface sheet 23 between itself and the electrostatic sensor 3, the detection sensitivity of the electrostatic sensor 3 is enhanced. Therefore, in the electrostatic sensor 3, not only the position touched by the finger F but also the portion not touched by the finger F changes the electrostatic capacitance in a portion close to the top sheet 23.
  • the operation input control unit 102 approaches or contacts the button 15 or the like (the operated portion) Functions as a first detection unit that detects a change in capacitance caused by the operation element).
  • step S204: N the load value detected by the load sensor 5 is equal to or greater than a predetermined value
  • step S204: Y the direction of the finger F is calculated (step S205). The calculation of the direction of the finger F will be described with reference to FIG.
  • the operation input control unit 102 functions as a second detection unit that detects the direction in which the finger (operation element) extends along the surface sheet 23 (the operated portion) based on the change in capacitance.
  • the operation input control unit 102 determines that the operation input to the button 15 or the like (the operated portion) is performed by the finger (operation element). The child) detects the direction in which the button 15 or the like (the operated portion) extends.
  • the shaded portions in FIG. 9 are the results of geometrically analyzing the shape of the area where the change in capacitance occurs. Then, based on the area in which the largest capacitance change occurs, it is analyzed in which direction of the eight directions (1) to (8) in FIG. 8 that the area in which the capacitance change occurs is extended. . In the case of FIG. 8, it can be seen that it extends in the direction of (4). Although eight directions are shown in FIG. 8, the number of directions may be smaller or larger than eight.
  • step S206 the effective operation area initially set in step S202 is adjusted (step S206).
  • An example of adjustment is shown in FIG. 10 and FIG. FIG. 10 shows a state in which the effective operation area is expanded in the direction in which the area in which the change in capacitance occurs is extended. Instead of extension, the effective operation area may be moved in that direction. That is, the operation input control unit 102 functions as an adjustment unit that adjusts the effective operation area of the button 15 or the like (operated unit) according to the direction extending along the button 15 or the like (operated unit).
  • the direction in which the region in which the change in capacitance is occurring is extended is (4), so the effective operation region in the direction shown in FIG. 10 (4) Is extended.
  • FIG. 10 An example in which the area expansion shown in FIG. 10 is applied to the effective operation areas A to C shown in FIG. 6 is shown in FIG. Areas A1 to C1 in FIG. 11 are expanded areas.
  • this process may be performed only to the effective operation area
  • step S207 coordinates at which the maximum capacitance change is detected are calculated as touch position coordinates.
  • the touch position coordinates may be the center of the area where the sum of capacitance change values of areas adjacent to a plurality of predetermined coordinates is maximized.
  • step S208 it is determined whether or not the touch position coordinates calculated in step S207 fall within the range of the effective operation area adjusted in step S206 (step S208), and if it is determined as a result of step S208 that it is included in the effective operation area
  • the command corresponding to the operation of the button 15 or the like corresponding to is output to the operated device such as the navigation device (step S209). Then, after outputting the command, the process returns to step S203 in preparation for the next operation input.
  • the operation input control unit 102 causes the position of the proximity or contact of the finger (manipulator) specified based on the capacitance change to correspond to the effective operation area after adjustment. Functions as a determination unit.
  • step S203 functions as a first detection step
  • step S205 as a second detection step
  • step S206 as an adjustment step
  • steps S208 and S209 as a determination step.
  • the operation input device 1 changes capacitance due to an operator approaching or touching the button 15 based on the output of the electrostatic sensor 3 disposed apart from the button 15 or the like.
  • an operation input control unit 102 for detecting the the operation input control unit 102 detects the direction in which the finger extends along the button 15 or the like based on the capacitance change, and adjusts the effective operation area of the button 15 or the like according to the direction. Then, the operation input control unit 102 determines whether the position of the proximity or contact of the finger specified based on the change in capacitance corresponds to the effective operation area after adjustment.
  • the operation input control unit 102 extends the effective operation area in the direction in which the finger extends along the button 15 or the like. By doing this, it is possible to perform detection in consideration of the shift in the inclination direction of the finger. Therefore, the operation area operated with high accuracy can be determined.
  • the operation input control unit 102 detects the direction in which the finger extends along the button 15 or the like when the operation input to the button 15 or the like is performed by the finger. By doing this, the direction of the finger at the time when it is determined that the input operation has been determined is detected, so that the judgment system of the operation area can be improved.
  • a button with a large protrusion amount and a button with a small protrusion amount may be provided, and the expansion amount of the effective area of the button with a large protrusion amount may be set larger than the expansion amount of the non-protruding button. That is, a plurality of buttons 15 and the like (operation targets) are provided, and the operation input control unit 102 (adjustment unit) increases the protrusion amount (the distance from the electrostatic sensor) of the buttons 15 and the like (operation targets) Increase the adjustment amount of the effective operation area corresponding to (operation target). This is because, for example, by gradually changing the thickness of the lever portion 19b, the protrusion amount of the button 15, that is, the separation amount can be changed according to the movement amount of the lever portion 19b.
  • the touch position coordinate of the finger tends to be shifted and detected in the tilt direction of the finger. Therefore, by adjusting to extend the effective operation area, the operation area can be accurately determined even in such a case. Also, by making the amount of protrusion different for each button in this manner, a plurality of amounts of protrusion can be set for each button, and identification of the button or the like becomes possible with the amount of protrusion.
  • buttons 15 and the like are arranged so as to have a slight gap between the respective parts since they are configured to be displaceable. For this reason, when the operating surface is pressed with a finger while the finger is lightly touching the operating surface, the parasitic capacitance to the electrostatic sensor 3 changes due to a gap between parts being clogged or deformation of the structure itself, etc. You may That is, even when the finger is touching the same position on the operation surface, the electrostatic sensor 3 has different coordinate positions depending on when the finger is in light contact and when the operation surface is strongly pressed by the finger. The phenomenon of detecting a problem may occur.
  • the load sensor 5 detects a pressing load larger than the contact threshold (a threshold for detecting a light touch of the finger on the operation surface), the detected touch position coordinates of the finger are stored, and the load sensor 5 When it continues and exceeds a decision threshold (a threshold for detecting the presence of an operation input), it is determined that there is an operation input at the touch position coordinates previously stored. That is, the contact threshold is the second threshold, and the determined threshold is the first threshold.
  • the contact threshold is the second threshold
  • the determined threshold is the first threshold.
  • FIG. 12 shows a flowchart of the coordinate acquisition operation before pressing (input operation method). This flowchart is executed by the operation input control unit 102.
  • step S301 when the operation input device 1 is activated (system activation) (step S301), the buttons 8 and the like that can be operated in conjunction with the navigation device are driven to project the motors 8 and 10 and the buttons
  • the initial value of the area (valid operation area) that recognizes that the 15th and the like are operated is set (step S302).
  • Step S302 is basically the same as step S202 described above.
  • touch position coordinates are acquired from the electrostatic sensor 3 from the change in capacitance when the finger approaches or contacts the operation surface (step S303), and a load value is acquired from the load sensor 5 (step S304). ).
  • the touch position coordinates may be calculated, for example, as coordinates at which the largest change in electrostatic capacitance as in step S207 described above is detected as operation position coordinates. That is, based on the output of the electrostatic sensor, the operation input control unit 102 functions as a contact position detection unit that detects the contact position of a finger (operator) that contacts the button 15 or the like (operated unit).
  • step S304 it is determined whether or not the load value acquired in step S304 is larger than the contact threshold value. If smaller, the process returns to step S303 (step S305: N), and if larger (step S305: Y), the nearest touch position
  • the coordinates are stored as touch position coordinates O (step S306).
  • This touch position coordinate O is the first contact position. That is, the operation input control unit 102 (specifying unit) detects the touch position coordinate O (first operation) when the pressing load detected by the load sensor 5 exceeds the contact threshold (second threshold) smaller than the decision threshold (first threshold). The contact position is acquired.
  • step S306 is judged by the detection value of the load sensor 5, for example, even if it is judged whether the magnitude of the capacitance change based on the detection result of the electrostatic sensor 3 has become a predetermined value or more Good.
  • step S307 the load value is acquired again from the load sensor 5 (step S307), and it is determined whether the load value is larger than the determination threshold. As a result of the determination, if the load value is smaller than the determination threshold (step S308: N), it is determined again whether the load value is larger than the contact threshold, and if larger than the contact threshold (step S309: Y) Then, the process returns to step S307 to obtain the load value again.
  • step S309 when it is determined that the load value is smaller than the contact threshold (step S309: N), the load value becomes smaller after becoming larger than the contact threshold. That is, on the assumption that the operation by the finger is interrupted, the process returns to step S303. That is, after the pressing load detected by the load sensor 5 exceeds the contact threshold (second threshold), the operation input control unit 102 determines steps S308 and S309 without becoming equal to or less than the contact threshold (second threshold). It is detected that the threshold (first threshold) has been exceeded.
  • step S308 when it is determined that the load value is larger than the determination threshold (step S308: Y), the touch position coordinate G at the present time is acquired (step S310). That is, the operation input control unit 102 acquires the touch position coordinate G (second touch position) detected when the decision threshold (first threshold) is exceeded.
  • step S306 the touch position coordinate O stored in step S306 is compared with the touch position coordinate G acquired in step S301. In this comparison, for example, it is determined whether or not the difference in coordinates falls within a predetermined range. If this difference does not fall within the predetermined range, it is determined that the finger's position has slid before the finger touches the operation surface and then is pressed, and in this embodiment, the operation is not accepted in such a case ( Step S311: N). Note that steps S310 and S311 are optional steps and may be omitted. In that case, if the determination in step S308 is affirmative, the process may proceed to step S312.
  • step S311 If the difference in coordinates compared in step S306 is within the predetermined range (step S311: Y), the selected area is determined from the touch position coordinate O, and it is determined (specified) which button 15 etc. has been operated (step) S312) A command corresponding to the operation of the determined button 15 or the like is output to a device to be operated such as a navigation device (step S313). Then, after outputting the command, the process returns to step S303 in preparation for the next operation input.
  • the predetermined range in step S311 may be appropriately set based on the degree of change in capacitance when the structure such as the button 15 is pushed in.
  • the operation input control unit 102 functions as a specifying unit that specifies the operation performed on the button 15 or the like (the operated portion) when the pressing load exceeds the determination threshold (first threshold). Furthermore, when the pressing load detected by the load sensor 5 exceeds the decision threshold (first threshold), the operation input control unit 102 detects the touch position detected before the pressing load exceeds the decision threshold (first threshold). The operation performed on the button 15 or the like (the operated portion) is specified based on the coordinate O (first contact position).
  • step S303 functions as a contact position detection process
  • steps S304 and S307 function as a load detection process
  • step S312 functions as a specification process.
  • the operation input control unit 102 contacts the button 15 or the like based on the output of the electrostatic sensor 3 disposed apart from the surface sheet 23 which is the operation surface. Detect touch position coordinates of finger.
  • the operation input control unit 102 identifies the load sensor 5 that detects the pressing load on the button 15 or the like by the finger and the operation performed on the button 15 or the like when the pressing load exceeds the determination threshold. Then, the operation input control unit 102 specifies the operation performed on the button 15 or the like based on the touch position coordinates detected before the pressing load exceeds the determination threshold.
  • the operation can be specified based on the touch on the button 15 or the like before the operation input device 1 detects the pressing load for specifying the operation. That is, since the operation is specified based on the touch position coordinate touched with a force smaller than the determination threshold, an appropriate operation position can be detected regardless of the force on the button 15 or the like. Therefore, it is possible to give a width to the selection of the member, the strength, and the like of the operation surface such as the operated portion, and the degree of freedom in design can be enhanced.
  • the operation input control unit 102 acquires the touch position coordinate O when the pressing load detected by the load sensor 5 exceeds the contact threshold smaller than the decision threshold, and the pressing load detected by the load sensor 5 exceeds the decision threshold On the basis of the touch position coordinate O, the operation performed on the button 15 or the like is specified.
  • the operation can be specified based on the touch position coordinate O when the touch threshold that is before the operation input control unit 102 detects the pressing load that specifies the operation. That is, the touch position is based on the touch position when the finger is lightly in contact, and the identification of the operation is performed when the operation surface is strongly pressed by the finger, and the roles are divided so that they do not differ from each other An appropriate operation position can be detected. Further, since the touch position when lightly touching is used as a reference, it is possible to prevent the influence of the deformation of the structure or the like.
  • the operation input control unit 102 performs a button based on the touch position coordinate O when the pressing load detected by the load sensor 5 exceeds the contact threshold but does not become equal to or less than the contact threshold. It identifies the operation performed on 15 mag. By doing this, it is possible to specify the action only when the load continues to increase and exceeds the definite threshold. That is, one pressing operation can be detected to specify the operation.
  • the operation input control unit 102 acquires the touch position coordinate G detected when the determination threshold is exceeded, compares the touch position coordinate G with the touch position coordinate O, and the difference between those coordinates is within a predetermined range. In some cases, an operation performed on the button 15 or the like is specified based on the touch position coordinate O. By doing this, it is possible to suppress an erroneous operation that may occur when the finger is slid and the button reselected while the finger is in contact with the operation surface.
  • motors 8, 10 serving as drive units for projecting one or more of the buttons 14-17 are provided, and button push-up levers 18-21. By doing this, with respect to the button 15 or the like, it is possible to detect an appropriate operation position regardless of whether the force is applied or not.
  • the operation input control unit 102 may apply the effective operation area adjustment described in the second embodiment, for example, only to the button 14 that is protruded. Specifically, for example, since only the protruding button 14 has a large distance between the button 14 and the electrostatic sensor 3, the effective area may be expanded.
  • the operation input device may not include the push-up mechanism of the button.
  • the electrostatic sensor 3 is disposed apart from the operation surface (surface touched by a finger) due to design restrictions, if the effective operation area adjustment described in the second embodiment is applied, It is possible to appropriately determine that the predetermined position on the operation surface has been operated regardless of the direction in which the operation is performed. This means that the effective operation area adjustment can be applied to the area other than the buttons 14 to 17 in the configuration shown in FIG.
  • the operation input device 1 is disposed at the center console of a vehicle, the operation from the driver's seat / passenger seat is appropriately coped with, and when disposed at the steering wheel, the driver's steering wheel It can respond appropriately to the difference in the grip position of the
  • the operation input device uses a member that is easily deformed on the operation surface due to design restrictions or the like without having a push-up mechanism for a button
  • the present invention is not limited to the above embodiment. That is, those skilled in the art can carry out various modifications without departing from the gist of the present invention in accordance with conventionally known findings. As long as the configuration of the operation input device of the present invention is provided even by such a modification, it is of course included in the scope of the present invention.
  • Operation input device 3 Electrostatic sensor 5 Load sensor 8 Motor (drive unit) 10 Motor (drive unit) 14 button (operated part) 15 button (operated part) 16 button (operated part) 17 button (operated part) 18 button push up lever (drive part) 19 Button push up lever (drive part) 20 Button push up lever (drive part) 21 Button push up lever (drive part) 23 Front sheet (operated part) 102 Operation input control unit (contact position detection unit, identification unit)

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • Push-Button Switches (AREA)

Abstract

適切な操作位置を検出することができる操作入力装置を提供する。 操作入力装置1は、操作入力制御部102が、操作面である表面シート23と離間して配置された静電センサ3の出力に基づいて、ボタン15等へ接触する指のタッチ位置座標を検出する。また、操作入力制御部102は、指によるボタン15等への押圧荷重を検出する荷重センサ5と、押圧荷重が確定閾値を超えた際に、ボタン15等になされた操作を特定する。そして、操作入力制御部102は、押圧荷重が確定閾値を超える前に検出されたタッチ位置座標に基づいて、ボタン15等になされた操作を特定する。

Description

操作入力装置
 本発明は、被操作部が操作される操作入力装置に関する。
 タッチ面を有する操作入力装置であるタッチパッドにおいては、被操作部であるタッチ面が直接タッチを検出するセンサ表面ではなく、センサを静電センサとして、その静電センサの前面に意匠パネル等を設けて、その意匠パネルをタッチ面とした操作入力装置が提案されている。
 例えば、特許文献1には、意匠パネルの裏面に複数の電極が敷設され、当該電極から発生している静電容量を基に意匠パネルに対するタッチ位置を検出するタッチ位置検出装置が記載されている。このタッチ位置検出装置は、意匠パネルの厚さの違いに起因する静電容量のばらつきを無くすための補正係数を基に、電極の静電容量を補正してタッチ位置を算出する。
特開2014-110013号公報
 特許文献1においては、意匠パネルの変形等は何ら考慮されていない。意匠パネルのデザインによっては、操作時に撓み等で変形する場合がある。また、意匠パネルの一部を押しボタン等にして可動させる場合もある。このような場合、操作時の力加減によって意匠パネル等と電極(センサ)との間の距離が変化して同じ位置を操作しているにもかかわらず静電容量が変化してしまう。そのため、異なる位置を操作したと検出してしまい適切な操作位置を検出できない場合がある。
 本発明が解決しようとする課題としては、上述したような適切な操作位置を検出することが一例として挙げられる。
 上記課題を解決するために、請求項1に記載の発明は、被操作部と離間して配置された静電センサの出力に基づいて、当該被操作部へ接触する操作子の接触位置を検出する接触位置検出部と、前記操作子による前記被操作部への押圧荷重を検出する荷重センサと、前記押圧荷重が第1閾値を超えた際に、前記被操作部になされた操作を特定する特定部と、を備え、前記特定部は、前記押圧荷重が前記第1閾値を超える前に前記接触位置検出部により検出された接触位置に基づいて、前記被操作部になされた操作を特定する、ことを特徴としている。
 請求項6に記載の発明は、被操作部を押圧することで操作が入力される操作入力装置が実行する入力検出方法であって、被操作部と離間して配置された静電センサの出力に基づいて、当該被操作部へ接触する操作子の接触位置を検出する接触位置検出工程と、前記操作子による前記被操作部への押圧荷重を検出する荷重検出工程と、前記押圧荷重が第1閾値を超えた際に、前記被操作部になされた操作を特定する特定工程と、を含み、前記特定工程は、前記押圧荷重が前記第1閾値を超える前に前記接触位置検出工程において検出された接触位置に基づいて、前記被操作部になされた操作を特定する、ことを特徴としている。
 請求項7に記載の発明は、請求項6に記載の入力検出方法を、コンピュータにより実行させることを特徴としている。
本発明の第1の実施例にかかる操作入力装置の斜視図である。 図1に示された操作入力装置の矢印A方向から見た概略断面図である。 図1に示された操作入力装置の機能的構成を示したブロック図である。 図1に示された操作入力装置の初期値キャリブレーション動作のフローチャートである。 本発明の第2の実施例にかかる操作入力装置の有効操作領域調整動作のフローチャートである。 選択領域の説明図である。 静電センサの模式図である。 図7に示された静電センサを指で触れている状態を示した説明図である。 図7に示された静電センサにおいて静電容量の変化が生じている領域と指の方向との関係を示した説明図である。 図9に示しされた指の方向と選択領域の拡張との関係を示した説明図である。 図6に示された選択領域の拡張についての説明図である。 本発明の第3の実施例にかかる操作入力装置の押圧前座標取得動作のフローチャートである。
 以下、本発明の一実施形態にかかる操作入力装置を説明する。本発明の一実施形態にかかる操作入力装置は、被操作部と離間して配置された静電センサの出力に基づいて、当該被操作部へ接触する操作子の接触位置を検出する接触位置検出部と、操作子による被操作部への押圧荷重を検出する荷重センサと、押圧荷重が第1閾値を超えた際に、被操作部になされた操作を特定する特定部と、を備えている。そして、特定部は、押圧荷重が前記第1閾値を超える前に接触位置検出部により検出された接触位置に基づいて、被操作部になされた操作を特定する。このようにすることにより、特定部が操作を特定する押圧荷重を検出する前の被操作部への接触に基づいて操作を特定することができる。つまり、第1閾値よりも小さい力で触れた接触位置に基づいて操作を特定するので、被操作部への力加減によらず適切な操作位置を検出することができる。また、小さい力を基準とすることで、操作子での操作による構造物の変形の影響を抑制することができる。
 また、特定部は、荷重センサが検出する押圧荷重が第1閾値より小さい第2閾値を超えた際の第1接触位置を取得し、荷重センサが検出する押圧荷重が第1閾値を超えた際に、第1接触位置に基づいて、被操作部になされた操作を特定してもよい。このようにすることにより、特定部が操作を特定する押圧荷重を検出する前である第2閾値を超えた際の第1接触位置に基づいて操作を特定することができる。
 また、特定部は、荷重センサが検出する押圧荷重が前記第2閾値を超えた後に、当該第2閾値以下となることなく第1閾値を超えた際に、第1接触位置に基づいて、被操作部になされた操作を特定してもよい。このようにすることにより、荷重が増加し続けて第1閾値を超えた場合にのみ動作を特定することができる。つまり、一度の押圧操作を検出して、操作を特定することができるようになる。
 また、特定部は、第1閾値を超えた際に接触位置検出部が検出した第2接触位置を取得し、第2接触位置と第1接触位置とを比較し、それらの差分が所定範囲内である場合に、第1接触位置に基づいて被操作部になされた操作を特定してもよい。このようにすることにより、操作子を操作面に接触させながら、操作子の位置をスライドして被操作部の操作対象を選び直したような場合に発生し得る誤操作を抑制することができる。
 また、被操作部の一以上の領域を変形させるための駆動部を備えてもよい。このようにすることにより、変形した領域について、押圧した場合に被操作部への力加減によらず適切な操作位置を検出することができる。
 また、本発明の一実施形態にかかる入力検出方法は、被操作部と離間して配置された静電センサの出力に基づいて、当該被操作部へ接触する操作子の接触位置を検出する接触位置検出工程と、操作子による被操作部への押圧荷重を検出する荷重検出工程と、押圧荷重が第1閾値を超えた際に、被操作部になされた操作を特定する特定工程と、を含んでいる。そして、特定工程は、押圧荷重が前記第1閾値を超える前に接触位置検出工程において検出された接触位置に基づいて、被操作部になされた操作を特定する。このようにすることにより、特定工程が操作を特定する押圧荷重を検出する前の被操作部への接触に基づいて操作を特定することができる。つまり、第1閾値よりも小さい力で触れた接触位置に基づいて操作を特定するので、被操作部への力加減によらず適切な操作位置を検出することができる。また、小さい力を基準とすることで、操作子での操作による構造物の変形の影響を抑制することができる。
 また、上述した操作入力方法をコンピュータにより実行させる入力検出プログラムとしてもよい。このようにすることにより、コンピュータを用いて、特定工程が操作を特定する押圧荷重を検出する前の被操作部への接触に基づいて操作を特定することができる。つまり、第1閾値よりも小さい力で触れた接触位置に基づいて操作を特定するので、被操作部への力加減によらず適切な操作位置を検出することができる。また、小さい力を基準とすることで、操作子での操作による構造物の変形の影響を抑制することができる。
 本発明の第1の実施例にかかる操作入力装置を図1~図4を参照して説明する。操作入力装置1は、図1及び図2に示したように、窓付パネル2と、静電センサ3と、ホルダ4と、荷重センサ5と、モータホルダ6、7と、モータ8、10と、モータの出力軸9、11、12と、窓付パネル固定ねじ13と、ボタン14、15、16、17と、ボタン押上げレバー18、19、20、21と、モータホルダ固定ねじ22と、表面シート23と、ボス24と、を備えている。
 図1、図2において、ボタン押上げレバー18、19、20、21が移動する方向をx方向、ボタン14、15、16、17が移動(突没)する方向をz方向、x方向とz方向と直交する方向をy方向と呼ぶ。
 窓付パネル2は、樹脂等で形成された略板状のパネルであり、開口として複数の窓部2aが形成されている。複数の窓部2aからは、後述するボタン14、15、16、17の表面部14a、15a、16a、17aが露出する。窓付パネル2は、複数の窓付パネル固定ねじ13で静電センサ3と固定されている。また、窓付パネル2は、後述するボタン押上げレバー18、19、20、21がx方向に移動する溝が形成されている。
 静電センサ3は、窓付パネル2の下層(表面シート23と相対しない側)に重ねて配置されている。静電センサ3は、電極がメッシュ状に張り巡らされた平板センサ部と、所定電圧を電極に印加して、電極に流れる微少電流を検出することで、平板センサ部上の各位置に対する周辺物体の寄生静電容量に相当する値を算出する検出回路部を備える。つまり、静電センサ3は、当該静電センサ3上の複数の座標位置(領域)のそれぞれについて静電容量を検出可能に構成されている。そして、静電センサ3は、使用者の指先等の操作子と導電膜の間での静電容量の変化を捉えて操作子の接触位置を検出する周知のデバイスである。
 ホルダ4は、板金等で形成され、窓付パネル2と、静電センサ3と、荷重センサ5と、が載置固定される。また、ホルダ4は、モータホルダ6、7を介してモータ8、10を固定する。
 荷重センサ5は、静電センサ3とホルダ4との間に複数配置される(図2を参照)。複数の荷重センサ5は、荷重がかかる方向(押圧される方向)と直交する方向(図1のx方向、y方向、図2のx方向)に離間して配置される。本実施例では、静電センサ3の四隅に配置されている。なお、荷重センサ5は例えばボタン15等が押圧されることによる荷重を検出できれば、任意の位置に任意の個数を配置してよい。荷重センサ5は、例えばひずみセンサや圧電センサ等、静電センサ3にかかる荷重を検出することができれば特に限定されない。
 モータホルダ6は、複数のモータホルダ固定ねじ22によりホルダ4に固定されている。モータホルダ6は、モータ8を固定する。モータホルダ7は、複数のモータホルダ固定ねじ22によりホルダ4に固定されている。モータホルダ7は、モータ10を固定する。
 モータ8は、モータホルダ6に固定されている。モータ8は、その出力軸9を回転させることによって、後述するボタン押上げレバー19をx方向に移動させる。出力軸9には、ねじ溝が形成され、そのねじ溝がボタン押上げレバー19に設けられているナットと螺合している。したがって、モータ8の出力軸9が回転すると、ナットがねじ溝を移動することによりボタン押上げレバー19が移動する。なお、出力軸9の先端部にはボタン押上げレバー19の移動を規制するストッパ9aが形成されている。
 モータ10は、モータホルダ7に固定されている。モータ10は、その出力軸11を回転させることによって、後述するボタン押上げレバー18をx方向に移動させる。出力軸11には、ねじ溝が形成され、そのねじ溝がボタン押上げレバー18に設けられているナットと螺合している。出力軸11の先端部にはボタン押上げレバー18の移動を規制するストッパ11aが形成されている。
 なお、操作入力装置1は、上述したモータ8、10以外にも、ボタン押上げレバー19、20をx方向に移動させるためにモータを備えている。そして、これらのモータもモータ8、10と同様に出力軸を回転させることによってボタン押上げレバー19、20をx軸方向に移動させる。例えば、図1では、ボタン押上げレバー19を移動させるモータの出力軸12が図示されている。
 ボタン14は、静電センサ3上に載置されている(図2を参照)。ボタン14は、窓付パネル2の窓部2aから表面部14aが露出する。ボタン14は、ボタン押上げレバー18により、窓部2aから突没するように(z方向に)移動する。
 ボタン15は、静電センサ3上に載置されている(図2を参照)。ボタン15は、窓付パネル2の窓部2aから表面部15aが露出する。ボタン15は、ボタン押上げレバー19により、窓部2aから突没するように(z方向に)移動する。
 ボタン16、17も同様に静電センサ3上に載置され、窓付パネル2の窓部2aから表面部16a、17aが露出する。ボタン16は、ボタン押上げレバー20により、窓部2aから突没するように移動する。ボタン17は、ボタン押上げレバー21により、窓部2aから突没するように移動する。
 ボタン押上げレバー18は、本体部18aと、レバー部18bと、を有している。本体部18aは、一方の端部は、図2に示したように、出力軸11が貫通する。そのため、出力軸11が貫通する孔が設けられている。この孔は、上述したようにナットとして機能して、出力軸11に形成されたねじ溝と螺合している。レバー部18bは、本体部18aの他方の端部からボタン14の配置位置に向かって延在している。レバー部18bは、本体部18aの移動に伴って図2の右方向に移動すると、窓付パネル2に形成された溝を通って、ボタン14と静電センサ3との間に進入してボタン14を窓部2aから突出する方向(z方向)に移動させる。レバー部18bは、その先端部がテーパー状に形成されており、ボタン14と静電センサ3との間に進入し易くなっている。また、レバー部18bは、本体部18aの移動に伴って図2の左方向に移動すると、窓付パネル2に形成された溝を通って、ボタン14と静電センサ3との間から抜け出してボタン14を窓部2aへ没する方向に移動させる。
 ボタン押上げレバー19は、本体部19aと、レバー部19bと、を有している。本体部19aは、一方の端部には、図2に示したように、出力軸9が貫通する。そのため、出力軸9が貫通する孔が設けられている。この孔は、上述したようにナットとして機能して、出力軸9に形成されたねじ溝と螺合している。レバー部19bは、本体部19aの他方の端部からボタン15の配置位置に向かって延在している。レバー部19bは、本体部19aの移動に伴って図2の左方向に移動すると、窓付パネル2に形成された溝を通って、ボタン15と静電センサ3との間に進入してボタン15を窓部2aから突出する方向(z方向)に移動させる。レバー部19bは、その先端部がテーパー状に形成されており、ボタン15と静電センサ3との間に進入し易くなっている。また、レバー部19bは、本体部19aの移動に伴って図2の右方向に移動すると、窓付パネル2に形成された溝を通って、ボタン15と静電センサ3との間から抜け出してボタン15を窓部2aへ没する方向に移動させる。
 ボタン押上げレバー20は、本体部20aと、レバー部20bと、を有している。本体部20aは、一方の端部にモータの出力軸が貫通する孔が設けられている。この孔は、上述したようにナットとして機能して、出力軸に形成されたねじ溝と螺合している。レバー部20bは、本体部20aの他方の端部からボタン16の配置位置に向かって延在している。レバー部20bは、本体部20aの移動に伴って移動することで、ボタン16を窓部2aから突出する方向に移動させたり、窓部2aへ没する方向に移動させたりする。レバー部20bは、その先端部がテーパー状に形成されており、ボタン16と静電センサ3との間に進入し易くなっている。
 ボタン押上げレバー21は、本体部21aと、レバー部21bと、を有している。本体部21aは、一方の端部にモータの出力軸が貫通する孔が設けられている。この孔は、上述したようにナットとして機能して、出力軸に形成されたねじ溝と螺合している。レバー部21bは、本体部21aの他方の端部からボタン17の配置位置に向かって延在している。レバー部21bは、本体部21aの移動に伴って移動することで、ボタン17を窓部2aから突出する方向(z方向)に移動させたり、窓部2aへ没する方向に移動させたりする。レバー部21bは、その先端部がテーパー状に形成されており、ボタン17と静電センサ3との間に進入し易くなっている。
 ボタン押上げレバー18、19、20、21は、表面シート23(操作面)と静電センサ3の間に配置され、操作面内の夫々独立した複数の領域を夫々個別に押し上げ可能な押上げ部として機能する。なお、ボタン押上げレバー18、19、20、21は、各レバー部の移動のために各レバー部と静電センサ3との間に微小な隙間を有している。
 即ち、モータ8、10、ボタン押上げレバー18、19、20、21は、ボタン14、15、16、17を突没(被操作部の一部の形体を変化)させるための形体変更部(駆動部)として機能する。
 表面シート23は、窓付パネル2の表面(静電センサ3と相対する面と反対側の面)に設けられている。表面シート23は、弾力性を有し、ボタンが押し上げられると伸びて隆起し、各ボタンが押し上げられていない際には平面状を維持する。表面シート23は、窓付パネル2を被覆してボタン14、15、16、17の抜け防止や、窓付パネル固定ねじ13及びボス24等の目隠し板としての機能も果たす。したがって、表面シート23の表面が操作面(被操作部)となる。なお、表面シート23は無くてもよい。その場合は、窓付パネル2の表面及び各ボタンの表面部が操作面(被操作部)となる。
 即ち、表面シート23(被操作部)と静電センサ3とは離間して配置されている。また、各ボタンが押し上げられたときは、各ボタンは静電センサ3と離間して配置されることとなる。
 ボス24は、窓付パネル2を静電センサ3に固定する際の位置決め用に設けられている。本実施例では、ボス24は2つ設けられている。つまり、窓付パネル2と静電センサ3には、ボス24が貫通する孔(ボス穴)が形成されており、ボス24が、それらの孔を貫通することで窓付パネル2と静電センサ3との位置決めがなされる。
 上述した構成の操作入力装置1は、例えば、ボタン14が操作可能な場合は、ボタン押上げレバー18によりボタン14を窓付パネル2から突出させる。すると、使用者等は、操作可能なボタンを手探りで識別することができる。そして、ボタン14が使用者等に押圧された場合は、ボタン14に対応付けられた操作内容を示す動作をすることができる。
 次に、本実施例の操作入力装置1の機能的構成を図3を参照して説明する。
 図3に示したように、操作入力装置1は、図1に示した構成に加えて、操作入力制御部102を備えている。
 操作入力制御部102は、操作対象となるボタンの位置を例えばナビゲーション装置等の操作される装置から取得し、モータ8等を制御することで、対応するボタンを突出させる。また、操作入力制御部102は、静電センサ3が検出した指の接触位置(座標)と、荷重センサ5が検出した荷重値と、に基づいて実際の操作(押圧)されたボタンを特定する。また、操作入力制御部102は、静電センサ3が検出した座標について、ボタン14~17が操作(押圧)と判定する座標の範囲(操作有効領域)が各ボタン毎に設定されている。即ち、ボタン押上げレバー18~21(押上げ部)により押し上げられた領域を、操作有効領域として設定している。
 次に、上述した構成の操作入力装置1の動作(初期値キャリブレーション)について図4を参照して説明する。なお、以下の説明においては操作子としてユーザ等の指で説明するが、指には限定されず導電性のタッチペン等であってもよい。
 静電センサ3上には、位置が変化する構造物(ボタン押上げレバー18等、ボタン15等、表面シート23)が存在するため、ボタン15等の押し上げのパターン(形体)によって、静電センサ3が検出する寄生静電容量(に相当する値)が変化してしまう。そこで、以下に説明する初期値キャリブレーションを行う。
 図4に初期値キャリブレーション動作のフローチャートを示す。このフローチャートは操作入力制御部102で実行される。なお、この初期値キャリブレーション動作は、ユーザ等が指で操作入力装置1の操作面に触れない状態で実行する。
 まず、出荷時やユーザ等による指定により初期値キャリブレーションの指示が入力されると(ステップS101)、操作入力制御部102は、ボタン14~17の押上げパターンの1つのパターンについて実行する(ステップS102)。つまり、ボタン14~17がそれぞれ単独で押し上げられるパターンや複数のボタンが押し上げられるパターン等の複数のパターンのうちの一のパターンについて、その状態になるようにモータ8、10等を駆動する。
 次に、ステップS102で実行されたパターンについての寄生静電容量を静電センサ3から取得し、対応するパターンと関連付けて初期値として操作入力制御部102内に記憶する(ステップS103)。そして、全パターンについて寄生静電容量の記憶が終了した場合は初期値キャリブレーションを終了し(ステップS104:Y)、そうでない場合は次のパターンについて寄生静電容量の検出と記憶を行うために順次形体を変化させる(ステップS104:N)。なお、この記憶の際は静電容量が検出される座標位置(領域)ごとに記憶する。
 即ち、操作入力制御部102は、指(操作子)がボタン15等(被操作部)に接近又は接触していない状態で静電センサ3により検出される静電容量をパターン(形体)ごとに初期値として記憶する記憶部として機能する。
 このようにして、操作入力制御部102は、全ての押し上げパターンに対応する位置座標ごとの寄生静電容量を、予め初期値として記憶してすることができる。そして、操作入力装置1の使用時(通常使用時)には、ボタン15等を押し上げた(突出させた)際に、対応する押し上げパターンの初期値を読み出して、これを基準として指が触れた際の静電容量変化を算出し、その算出された静電容量変化に基づいて指が触れた位置を特定してボタン15等の操作を検出する。
 通常使用時の具体例としては、ボタン15が押し上げられた場合には、そのボタン15が押されたと判定する座標の範囲が予め定められており、指が操作入力制御部102の操作面に接触したことを静電容量変化によって検出すると、その静電容量の変化が最も大きい座標位置を押された位置と算出する。そして、その算出された位置がボタン15が押されたと判定する座標の範囲にある場合は、ボタン15が押されたと特定する。
 なお、ボタン15等の操作の検出は、荷重センサ5で検出された荷重値が所定以上であった場合に、静電容量変化に基づき算出された位置に対応するボタンが確実に押し込まれていると判定して、操作を確定することができる。
 即ち、操作入力制御部102は、指(操作子)がボタン15等(被操作部)に接近又は接触した際に、初期値を基準として算出した静電容量変化に基づいてボタン15等(被操作部)になされた操作を特定する特定部として機能する。
 図4のフローチャートから明らかなように、本実施例においては、ステップS103が記憶工程となる。なお、図4のフローチャートは、初期値の取得のみであるので、上述した通常使用時やその具体例の動作が特定工程となる。
 本実施例によれば、操作入力装置1は、ボタン15等を突没させるボタン押上げレバー18等、モータ8等と、ボタン15等を含む周辺の物体との間の静電容量を検出する静電センサ3と、を備えている。さらに、指がボタン15等に接近又は接触していない状態で静電センサ3により検出される静電容量を、ボタンが突没した形体ごとに初期値として記憶する操作入力制御部102を備え、この操作入力制御部102は、指がボタン15等に接近又は接触した際に、初期値を基準として算出した静電容量変化に基づいてボタン15等になされた操作を特定する。このようにすることにより、静電容量が変化する形体に応じてその初期値を取得して記憶することができる。そのため、この初期値を利用して指がボタン15等に接近又は接触したことで生じる静電容量変化のみを検出可能となり、この静電容量変化に基づいて操作を特定することで、被操作部が変形等により静電容量が変化する場合であっても、その影響を受けずに適切に操作を特定することができる。
 また、静電センサ3は、当該静電センサ上の複数の領域のそれぞれについて静電容量を検出可能であって、操作入力制御部102は、静電センサ3が検出可能な座標位置(領域)のそれぞれに対応する初期値を記憶している。このようにすることにより、ボタン14が突没することにより形体の変化する領域と変化しない領域とに分けて初期値を取得して記憶することができる。
 また、操作入力制御部102は、ボタン15等の突没状態を順次変化させるようにボタン押上げレバー18等、モータ8等を制御し、指がボタン15等に接近又は接触していない状態でボタン15等が突没する度に、静電センサ3が検出した静電容量を記憶している。また、操作入力制御部102は、指がボタン15等に接近又は接触していない状態でボタン押上げレバー18等、モータ8等がボタン15等を突没させた際に、静電センサ3が検出した静電容量を初期値として記憶している。このようにすることにより、形体が変化した時点の静電容量を記憶することができる。
 また、操作入力制御部102は、指に起因する静電容量変化に基づいて指の接近位置又は接触位置を算出し、当該接近位置又は接触位置に基づいてボタン15等になされた操作を特定している。このようにすることにより、形体に応じた初期値によって形体の変化による静電容量の変化の影響を無くして静電容量により操作を特定することができる。
 また、ボタン14~17の一以上を突出させるための駆動部であるモータ8、10、ボタン押上げレバー18~21を備えている。このようにすることにより、ボタン14~17について、突没の状態に合わせて適切に操作を特定することができる。
 次に、本発明の第2の実施例にかかる操作入力装置を図5~図11を参照して説明する。なお、前述した第1の実施例と同一部分には、同一符号を付して説明を省略する。
 本実施例では、有効操作領域調整動作について説明する。図1等に示した操作入力装置1は、静電センサ3上に構造物が存在するために、指と静電センサ3との距離が離れざるを得ないため、静電センサ3の静電容量の検出感度を高く設定せざるを得ない。このため、静電センサ3は、指の操作面に接していない部分に対する寄生容量を検出してしまう場合がある。このような現象は、特に操作面に対して指が平行に近い状態で接近するほど、指の操作面に接していない部分の影響が大きくなる。
 このように、指が操作面に対して傾いている方向(操作子が被操作部に沿って延在する方向)に亘って静電容量変化が検出されるため、指のタッチ位置座標が、指の傾き方向にズレて検出される傾向がある。そこで、操作入力する指の操作面に対する角度に起因する操作位置のズレを踏まえて、操作領域(操作ボタン15等)の有効判定領域を調整する。
 図5に有効操作領域調整動作のフローチャートを示す。このフローチャートは操作入力制御部102で実行される。
 まず、操作入力装置1が起動(システム起動)されると(ステップS201)、ナビゲーション装置等に連動して操作可能とするボタン15等をモータ8、10等を駆動させて突出させるとともに、そのボタン15等が操作されていると認識する領域(有効操作領域)の初期値を設定する(ステップS202)。図6に有効操作領域の例を示す。図6において、ボタン15~17それぞれの周囲に破線で示した領域A~Cが各ボタンが突出した際の有効操作領域となる。
 次に、実際にユーザ等が指で操作をした際の静電容量変化を静電センサ3から取得する(ステップS203)。静電センサ3における静電容量変化の例を図7を参照して説明する。図7は、静電センサ3を図1のz方向から見た模式図であり、各領域内の数字が当該位置における静電容量の変化量を示している。符号Fは指を示している。
 図7において、指Fは図8に示すように、操作面である表面シート23に対して図中右側に傾けるようにして触れている。また、操作入力装置1は、静電センサ3との間に表面シート23等の構造物があるため、静電センサ3の検出感度を高めている。そのため、静電センサ3は、指Fが触れた位置だけでなく、指Fが触れていない部分についても表面シート23に近い部分については静電容量が変化する。
 即ち、操作入力制御部102は、ボタン15等(被操作部)と離間して配置された静電センサ3の出力に基づいて、当該ボタン15等(被操作部)へ近接又は接触する指(操作子)に起因する静電容量変化を検出する第1検出部として機能する。
 次に、荷重センサ5が検出した荷重値が所定以上か否かで操作入力の有無を判断し、操作入力無しと判断された場合はステップS203に戻る(ステップS204:N)。一方、操作入力有りと判断された場合は(ステップS204:Y)、指Fの方向を算出する(ステップS205)。指Fの方向の算出について図9を参照して説明する。
 即ち、操作入力制御部102は、静電容量変化に基づいて、指(操作子)が表面シート23(被操作部)に沿って延在する方向を検出する第2検出部として機能する。また、操作入力制御部102は、荷重センサ5によって所定以上の荷重で押された場合に、指(操作子)によるボタン15等(被操作部)への操作入力がなされたとして、指(操作子)がボタン15等(被操作部)に沿って延在する方向を検出している。
 図9の網掛け部分は、静電容量の変化が生じている領域の形状を幾何学的に解析した結果である。そして、最大の静電容量変化が生じている領域を基準に図8の(1)~(8)の8方向のどの方向に静電容量の変化が生じている領域が伸びているかを解析する。図8の場合は(4)の方向に伸びていることが分かる。なお、図8では8方向としているが、8方向よりも少なくしてもよいし多くしてもよい。
 次に、ステップS205で算出された指の方向に基づいてステップS202で初期設定した有効操作領域を調整する(ステップS206)。調整の例を図10及び図11に示す。図10は、静電容量の変化が生じている領域が伸びている方向へ有効操作領域を拡張した様子を示している。なお、拡張ではなく、その方向へ有効操作領域を移動させるようにしてもよい。即ち、操作入力制御部102は、ボタン15等(被操作部)に沿って延在する方向に応じてボタン15等(被操作部)の有効操作領域を調整する調整部として機能する。図9に示す静電容量変化が検出された場合は、静電容量の変化が生じている領域が伸びている方向が(4)であるから、図10(4)が示す方向に有効操作領域が拡張される。
 図10に示した領域拡張を図6に示した有効操作領域A~Cに適用した例を図11に示す。図11の領域A1~C1が拡張された領域である。なお、この処理は、例えば突出させているボタンに対応する有効操作領域のみに行ってもよい。
 一方、ステップS205、S206と平行して、例えば最大の静電容量変化を検出した座標をタッチ位置座標として算出する(ステップS207)。なお、タッチ位置座標は、隣接する所定の複数座標からなる領域の容量変化値の合計を算出し、その合計が最大となった領域の中心としてもよい。
 そして、ステップS207で算出したタッチ位置座標がステップS206で調整した有効操作領域の範囲にあるか判定し(ステップS208)、ステップS208の結果有効操作領域に含まれると判定した場合は、その有効範囲に対応するボタン15等の操作に応じたコマンドをナビゲーション装置等の操作される装置へ出力する(ステップS209)。そして、コマンド出力後は次の操作入力に備えてステップS203へ戻る。
 即ち、操作入力制御部102は、ステップS208、S209を実行することにより、静電容量変化に基づいて特定した指(操作子)の近接又は接触の位置が、調整後の有効操作領域に対応するか判定する判定部として機能する。
 また、図5のフローチャートから明らかなように、本実施例においては、ステップS203が第1検出工程、ステップS205が第2検出工程、ステップS206が調整工程、ステップS208、S209が判定工程として機能する。
 本実施例によれば、操作入力装置1は、ボタン15等と離間して配置された静電センサ3の出力に基づいて、当該ボタン15へ近接又は接触する操作子に起因する静電容量変化を検出する操作入力制御部102を備えている。また、操作入力制御部102は、静電容量変化に基づいて、指がボタン15等に沿って延在する方向を検出し、その方向に応じてボタン15等の有効操作領域を調整する。そして、操作入力制御部102は、静電容量変化に基づいて特定した指の近接又は接触の位置が、調整後の有効操作領域に対応するか判定する。このようにすることにより、指等でボタン15等の操作面に対して傾けて押した場合に、その指の傾いた方向を検出することができる。そのため、指の傾き方向へのズレを考慮した検出をすることが可能となる。したがって、操作面であるボタン15等と静電センサ3の距離が離れた場合でも、精度良く操作された操作領域を判定できるため、操作面のデザイン及び操作入力装置の配置の自由度を高めることができる。
 また、操作入力制御部102は、指がボタン15等に沿って延在する方向に有効操作領域を拡張している。このようにすることにより、指の傾き方向へのズレを考慮した検出をすることが可能となる。したがって、精度良く操作された操作領域を判定できる。
 また、操作入力制御部102は、指によるボタン15等への操作入力がなされた際に、指がボタン15等に沿って延在する方向を検出している。このようにすることにより、入力操作がされたことが確定した時点の指の方向を検出するので、操作領域の判定制度を向上させることができる。
 なお、突出量の大きいボタンと、突出量の小さいボタンとを設け、突出量の大きいボタンの有効領域の拡張量を、突出しないボタンの拡張量よりも大きく設定してもよい。即ち、複数のボタン15等(操作対象)を備え、操作入力制御部102(調整部)は、ボタン15等(操作対象)の突出量(静電センサに対する離間量)が大きいほど、当該ボタン15等(操作対象)に対応する有効操作領域の調整量を大きくする。これは、例えばレバー部19bの厚みを徐々に変化させることで、レバー部19bの移動量に応じてボタン15の突出量、即ち離間量を変化させることができる。
 このように動作させると、ボタン15等の突出量が大きくなるほど指が接触している部分とそうでない部分とで検出される静電容量に差異が少なくなる。言い換えれば、指の操作面に接していない部分に対する寄生容量の影響により、指のタッチ位置座標が指の傾き方向にズレて検出される傾向が強くなる。そこで、有効操作領域を広げるように調整することで、このような場合でも精度良く操作領域を判定することができる。また、このように突出量をボタン毎に異ならせることで、ボタン毎に複数の突出量を設定することができ、その突出量でボタン等の識別が可能となる。
 次に、本発明の第3の実施例にかかる操作入力装置を図12を参照して説明する。なお、前述した第1の実施例と同一部分には、同一符号を付して説明を省略する。
 本実施例では、押圧前座標取得動作について説明する。静電センサ3上の構造物のうち例えばボタン15等は、それらが変位可能に構成されているため、それぞれのパーツの間に、わずかな隙間を設けて配置されている。このため、操作面に指が軽く触れている時に対して、操作面を指で押圧した時には、パーツ間の隙間が詰まったり、構造物自体の変形などによって、静電センサ3に対する寄生容量が変化してしまう場合がある。つまり、操作面の同じ位置に指が触れている場合であっても、指が軽く接触している時と、操作面を指で強く押圧した時とで、静電センサ3は、異なる座標位置を検出してしまうという現象が発生し得る。
 そこで、荷重センサ5が、接触閾値(操作面への指の軽い接触を検出する閾値)より大きい押圧荷重を検出した際に、検出された指のタッチ位置座標を記憶しておき、荷重センサ5が続けて確定閾値(操作入力有りを検出する閾値)を超えた場合に、先に記憶していたタッチ位置座標での操作入力があったと判定する。即ち、接触閾値が第2閾値、確定閾値が第1閾値となる。
 図12に押圧前座標取得動作(入力操作方法)のフローチャートを示す。このフローチャートは操作入力制御部102で実行される。
 まず、操作入力装置1が起動(システム起動)されると(ステップS301)、ナビゲーション装置等に連動して操作可能とするボタン15等をモータ8、10等を駆動させて突出させるとともに、そのボタン15等が操作されていると認識する領域(有効操作領域)の初期値を設定する(ステップS302)。ステップS302は、基本的に上述したステップS202と同様である。
 次に、操作面に指が接近又は接触しているときの静電容量の変化からタッチ位置座標を静電センサ3から取得し(ステップS303)、荷重センサ5から荷重値を取得する(ステップS304)。タッチ位置座標は、例えば上述したステップS207と同様の最大の静電容量変化を検出した座標を操作位置座標として算出すればよい。即ち、操作入力制御部102が静電センサの出力に基づいて、ボタン15等(被操作部)へ接触する指(操作子)の接触位置を検出する接触位置検出部として機能する。
 次に、ステップS304で取得した荷重値が接触閾値よりも大きいか否かを判断し、小さい場合はステップS303に戻り(ステップS305:N)、大きい場合は(ステップS305:Y)直近のタッチ位置座標をタッチ位置座標Oとして保存する(ステップS306)。このタッチ位置座標Oが第1接触位置となる。即ち、操作入力制御部102(特定部)は、荷重センサ5が検出する押圧荷重が確定閾値(第1閾値)より小さい接触閾値(第2閾値)を超えた際のタッチ位置座標O(第1接触位置)を取得している。
 なお、ステップS306は、荷重センサ5の検出値により判断しているが、例えば、静電センサ3の検出結果に基づく静電容量変化の大きさが一定以上となったか否かで判断してもよい。
 次に、再度荷重センサ5から荷重値を取得し(ステップS307)、荷重値が確定閾値よりも大きいか否かを判断する。判断の結果、荷重値が確定閾値よりも小さい場合は(ステップS308:N)、その荷重値が接触閾値よりも大きいか否か再度判断し、接触閾値よりも大きい場合は(ステップS309:Y)、再度荷重値を取得すべくステップS307に戻る。
 ステップS309の判断の結果、荷重値が接触閾値よりも小さいと判断された場合は(ステップS309:N)、荷重値が接触閾値よりも大きくなった後に小さくなったこととなる。つまり、指による操作が中断されたと見做してステップS303に戻る。即ち、ステップS308、S309は、操作入力制御部102が、荷重センサ5が検出する押圧荷重が接触閾値(第2閾値)を超えた後に、当該接触閾値(第2閾値)以下となることなく確定閾値(第1閾値)を超えたことを検出している。
 ステップS308の判断の結果、荷重値が確定閾値よりも大きいと判断された場合は(ステップS308:Y)、現時点のタッチ位置座標Gを取得する(ステップS310)。即ち、操作入力制御部102は、確定閾値(第1閾値)を超えた際に検出したタッチ位置座標G(第2接触位置)を取得している。
 次に、ステップS306で記憶したタッチ位置座標OとステップS301で取得したタッチ位置座標Gとを比較する。この比較においては、例えば座標の差分が所定範囲内に収まっているか否かを判定する。この差分が所定範囲内に収まっていない場合は、指が操作面に接触してから押し込むまでに指の位置がスライドしたと判定し、本実施例では、このような場合は操作を受け付けない(ステップS311:N)。なお、ステップS310およびステップS311は、任意に採用できる工程であり省略してもよい。その場合、ステップS308の判断が肯定であれば、ステップS312に進めばよい。
 ステップS306で比較した座標の差が所定範囲内である場合は(ステップS311:Y)、タッチ位置座標Oから選択領域を確定し、どのボタン15等が操作されたかを決定(特定)し(ステップS312)、決定したボタン15等の操作に応じたコマンドをナビゲーション装置等の操作される装置へ出力する(ステップS313)。そして、コマンド出力後は次の操作入力に備えてステップS303へ戻る。ステップS311における所定範囲は、ボタン15等の構造物を押し込んだ際の静電容量の変化の程度に基づいて適宜設定すればよい。
 即ち、操作入力制御部102は、押圧荷重が確定閾値(第1閾値)を超えた際に、ボタン15等(被操作部)になされた操作を特定する特定部として機能している。さらに、操作入力制御部102は、荷重センサ5が検出する押圧荷重が確定閾値(第1閾値)を超えた際に、押圧荷重が確定閾値(第1閾値)を超える前に検出されたタッチ位置座標O(第1接触位置)に基づいて、ボタン15等(被操作部)になされた操作を特定している。
 図11のフローチャートから明らかなように、本実施例においては、ステップS303が接触位置検出工程、ステップS304、S307が荷重検出工程、ステップS312が特定工程として機能する。
 本実施例によれば、操作入力装置1は、操作入力制御部102が、操作面である表面シート23と離間して配置された静電センサ3の出力に基づいて、ボタン15等へ接触する指のタッチ位置座標を検出する。また、操作入力制御部102は、指によるボタン15等への押圧荷重を検出する荷重センサ5と、押圧荷重が確定閾値を超えた際に、ボタン15等になされた操作を特定する。そして、操作入力制御部102は、押圧荷重が確定閾値を超える前に検出されたタッチ位置座標に基づいて、ボタン15等になされた操作を特定する。このようにすることにより、操作入力装置1が操作を特定する押圧荷重を検出する前のボタン15等への接触に基づいて操作を特定することができる。つまり、確定閾値よりも小さい力で触れたタッチ位置座標に基づいて操作を特定するので、ボタン15等への力加減によらず適切な操作位置を検出することができる。したがって、被操作部等の操作面の部材や強度等の選択に幅を持たせることができ、デザインの自由度を高めることができる。
 操作入力制御部102は、荷重センサ5が検出する押圧荷重が確定閾値より小さい接触閾値を超えた際のタッチ位置座標Oを取得し、荷重センサ5が検出する押圧荷重が確定閾値を超えた際に、このタッチ位置座標Oに基づいて、ボタン15等になされた操作を特定している。このようにすることにより、操作入力制御部102が操作を特定する押圧荷重を検出する前である接触閾値を超えた際のタッチ位置座標Oに基づいて操作を特定することができる。つまり、タッチ位置は、指が軽く接触している時のタッチ位置を基準とし、操作の特定は、操作面を指で強く押圧した時として、それぞれの役割を分けているために加減によらず適切な操作位置を検出することができる。また、軽く触れているときのタッチ位置に基準としているので、構造物の変形等の影響を受けないようにすることができる。
 また、操作入力制御部102は、荷重センサ5が検出する押圧荷重が接触閾値を超えた後に、当該接触閾値以下となることなく確定閾値を超えた際に、タッチ位置座標Oに基づいて、ボタン15等になされた操作を特定している。このようにすることにより、荷重が増加し続けて確定閾値を超えた場合にのみ動作を特定することができる。つまり、一度の押圧操作を検出して、操作を特定することができるようになる。
 また、操作入力制御部102は、確定閾値を超えた際に検出したタッチ位置座標Gを取得し、タッチ位置座標Gとタッチ位置座標Oとを比較し、それらの座標の差分が所定範囲内である場合に、タッチ位置座標Oに基づいてボタン15等になされた操作を特定している。このようにすることにより、指が操作面に接触させながら、指の位置をスライドしてボタンを選び直したような場合に発生し得る誤操作を抑制することができる。
 また、ボタン14~17の一以上を突出させるための駆動部であるモータ8、10、ボタン押上げレバー18~21を備えている。このようにすることにより、ボタン15等について、押圧した場合に力加減によらず適切な操作位置を検出することができる。
 なお、第1の実施例~第3の実施例の処理は組み合わせてもよい。
 また、上述した実施例2、3では、突出させたボタン15等のみを操作対象として説明したが、突出させないボタン15等も操作対象に含めても良い。例えば、場面に応じて使用頻度の高いボタンのみを突出させてユーザの利便性を図りつつ、突出させないボタンについても操作可能としてもよい。この場合に、操作入力制御部102は、例えば突出させたボタン14のみについて、第2の実施例で説明した有効操作領域調整を適用してもよい。具体的には、例えば突出したボタン14のみについては、ボタン14と静電センサ3との距離が大きいので、有効領域を拡張するなどとすればよい。
 また、操作入力装置は、ボタンの押し上げ機構を備えなくともよい。例えばデザイン上の制約で、操作面(指が触れる面)に対して静電センサ3を離間して配置した場合に、第2の実施例で説明した有効操作領域調整を適用すれば、指でどの方向から操作された場合であっても、適切に操作面の所定位置が操作されたことを判定することができる。これは、図1等の構成であれば、ボタン14~17以外の領域について有効操作領域調整を適用できることを意味する。このようにすることにより、例えば操作入力装置1が車両のセンターコンソールに配置された場合は、運転席/助手席からの操作に適切に対応し、ハンドルに配置された場合は、運転者のハンドルの握り位置の違いに適切に対応できる。
 また、操作入力装置は、ボタンの押し上げ機構を備えなくともデザイン上の制約等で操作面に変形し易い部材を使用した場合は、第3の実施例で説明した押圧前座標取得を適用することで、押圧により操作面が変形しても、適切に操作面のいずれの位置が操作されたかを判定することができる。これは、図1等の構成であれば、窓付パネル2が変形し易い場合に、ボタン14~17以外の領域について押圧前座標取得を適用できることを意味する。
 また、操作入力装置は、操作面への指が接触しなくても、ある程度接近したことをもって、操作入力がなされたと判定してもよい。この場合、荷重センサ5を備えず、静電センサ3が検出した静電容量変化の最大値が、所定値以上となった場合に、指が操作面にある程度接近した(=操作入力有り)と判定させればよい。この場合も第1の実施例や第2の実施例で説明した処理を組み合わせて、または単独で、適用すれば、適切にいずれの位置が操作されたかを判定することができる。
 また、本発明は上記実施例に限定されるものではない。即ち、当業者は、従来公知の知見に従い、本発明の骨子を逸脱しない範囲で種々変形して実施することができる。かかる変形によってもなお本発明の操作入力装置の構成を具備する限り、勿論、本発明の範疇に含まれるものである。
 1 操作入力装置
 3 静電センサ
 5 荷重センサ
 8 モータ(駆動部)
 10 モータ(駆動部)
 14 ボタン(被操作部)
 15 ボタン(被操作部)
 16 ボタン(被操作部)
 17 ボタン(被操作部)
 18 ボタン押上げレバー(駆動部)
 19 ボタン押上げレバー(駆動部)
 20 ボタン押上げレバー(駆動部)
 21 ボタン押上げレバー(駆動部)
 23 表面シート(被操作部)
 102 操作入力制御部(接触位置検出部、特定部)

Claims (7)

  1.  被操作部と離間して配置された静電センサの出力に基づいて、当該被操作部へ接触する操作子の接触位置を検出する接触位置検出部と、
     前記操作子による前記被操作部への押圧荷重を検出する荷重センサと、
     前記押圧荷重が第1閾値を超えた際に、前記被操作部になされた操作を特定する特定部と、を備え、
     前記特定部は、前記押圧荷重が前記第1閾値を超える前に前記接触位置検出部により検出された接触位置に基づいて、前記被操作部になされた操作を特定する、
    ことを特徴とする操作入力装置。
  2.  前記特定部は、前記荷重センサが検出する押圧荷重が前記第1閾値より小さい第2閾値を超えた際の第1接触位置を取得し、前記荷重センサが検出する押圧荷重が前記第1閾値を超えた際に、前記第1接触位置に基づいて、前記被操作部になされた操作を特定することを特徴とする請求項1に記載の操作入力装置。
  3.  前記特定部は、前記荷重センサが検出する押圧荷重が前記第2閾値を超えた後に、当該第2閾値以下となることなく前記第1閾値を超えた際に、前記第1接触位置に基づいて、前記被操作部になされた操作を特定することを特徴とする請求項2に記載の操作入力装置。
  4.  前記特定部は、前記第1閾値を超えた際に前記接触位置検出部が検出した第2接触位置を取得し、前記第2接触位置と前記第1接触位置とを比較し、それらの差分が所定範囲内である場合に、前記第1接触位置に基づいて前記被操作部になされた操作を特定することを特徴とする請求項2または3に記載の操作入力装置。
  5.  前記被操作部の一以上の領域を変形させるための駆動部を備えることを特徴とする請求項1から4までのうちいずれか一項に記載の操作入力装置。
  6.  被操作部を押圧することで操作が入力される操作入力装置が実行する入力検出方法であって、
     被操作部と離間して配置された静電センサの出力に基づいて、当該被操作部へ接触する操作子の接触位置を検出する接触位置検出工程と、
     前記操作子による前記被操作部への押圧荷重を検出する荷重検出工程と、
     前記押圧荷重が第1閾値を超えた際に、前記被操作部になされた操作を特定する特定工程と、を含み、
     前記特定工程は、前記押圧荷重が前記第1閾値を超える前に前記接触位置検出工程において検出された接触位置に基づいて、前記被操作部になされた操作を特定する、
    ことを特徴とする入力検出方法。
  7.  請求項6に記載の入力検出方法を、コンピュータにより実行させることを特徴とする入力検出プログラム。
PCT/JP2018/024140 2017-07-04 2018-06-26 操作入力装置 WO2019009138A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019527644A JPWO2019009138A1 (ja) 2017-07-04 2018-06-26 操作入力装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-131201 2017-07-04
JP2017131201 2017-07-04

Publications (1)

Publication Number Publication Date
WO2019009138A1 true WO2019009138A1 (ja) 2019-01-10

Family

ID=64951011

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/024140 WO2019009138A1 (ja) 2017-07-04 2018-06-26 操作入力装置

Country Status (2)

Country Link
JP (1) JPWO2019009138A1 (ja)
WO (1) WO2019009138A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012053754A (ja) * 2010-09-02 2012-03-15 Sony Corp 情報処理装置、情報処理装置の入力制御方法及びプログラム
JP2013088912A (ja) * 2011-10-14 2013-05-13 Toyota Motor Corp 車両用操作装置
JP2016133952A (ja) * 2015-01-19 2016-07-25 キヤノン株式会社 ユーザインターフェース装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012053754A (ja) * 2010-09-02 2012-03-15 Sony Corp 情報処理装置、情報処理装置の入力制御方法及びプログラム
JP2013088912A (ja) * 2011-10-14 2013-05-13 Toyota Motor Corp 車両用操作装置
JP2016133952A (ja) * 2015-01-19 2016-07-25 キヤノン株式会社 ユーザインターフェース装置

Also Published As

Publication number Publication date
JPWO2019009138A1 (ja) 2020-05-21

Similar Documents

Publication Publication Date Title
JP5563698B1 (ja) タッチ式入力装置
JP5232889B2 (ja) 車両用操作装置
CN106662977B (zh) 用于在多手指操纵的情况下运行机动车的操纵装置的方法
EP2846215A2 (en) Operating device for vehicle
EP3182255B1 (en) Touch-type input device
US11711078B2 (en) On/off detection device and vehicle interior component
JP2017068350A (ja) 操作入力装置
JP2016218542A (ja) 操作装置及び操作システム
WO2019009138A1 (ja) 操作入力装置
JP5998085B2 (ja) 入力装置
US10061413B2 (en) Operating element
JP2021026286A (ja) On/off検知装置及び車両用内装部品
JP6565856B2 (ja) タッチ式入力装置
JP2019016051A (ja) 操作入力装置
JP2017215866A (ja) 入力装置
JP2019016052A (ja) 操作入力装置
JP2018092315A (ja) 操作入力装置
WO2019220749A1 (ja) 入力装置
JP2018092317A (ja) 操作入力装置
WO2014097954A1 (ja) 車両用入力装置
WO2019111300A1 (ja) 近接検知装置および近接検知方法
WO2019215915A1 (ja) 入力制御装置、表示入力装置及び入力制御方法
JP2012212306A (ja) 入力装置
JP2018190278A (ja) 操作入力装置
JP2018092316A (ja) 操作入力装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18828538

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019527644

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18828538

Country of ref document: EP

Kind code of ref document: A1