WO2019116770A1 - 入力装置 - Google Patents

入力装置 Download PDF

Info

Publication number
WO2019116770A1
WO2019116770A1 PCT/JP2018/040694 JP2018040694W WO2019116770A1 WO 2019116770 A1 WO2019116770 A1 WO 2019116770A1 JP 2018040694 W JP2018040694 W JP 2018040694W WO 2019116770 A1 WO2019116770 A1 WO 2019116770A1
Authority
WO
WIPO (PCT)
Prior art keywords
coordinate position
control
unit
finger
control unit
Prior art date
Application number
PCT/JP2018/040694
Other languages
English (en)
French (fr)
Inventor
徹也 登丸
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2019116770A1 publication Critical patent/WO2019116770A1/ja
Priority to US16/895,746 priority Critical patent/US11132089B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/25Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using haptic output
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05GCONTROL DEVICES OR SYSTEMS INSOFAR AS CHARACTERISED BY MECHANICAL FEATURES ONLY
    • G05G1/00Controlling members, e.g. knobs or handles; Assemblies or arrangements thereof; Indicating position of controlling members
    • G05G1/01Arrangements of two or more controlling members with respect to one another
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05GCONTROL DEVICES OR SYSTEMS INSOFAR AS CHARACTERISED BY MECHANICAL FEATURES ONLY
    • G05G25/00Other details or appurtenances of control mechanisms, e.g. supporting intermediate members elastically
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05GCONTROL DEVICES OR SYSTEMS INSOFAR AS CHARACTERISED BY MECHANICAL FEATURES ONLY
    • G05G5/00Means for preventing, limiting or returning the movements of parts of a control mechanism, e.g. locking controlling member
    • G05G5/03Means for enhancing the operator's awareness of arrival of the controlling member at a command or datum position; Providing feel, e.g. means for creating a counterforce
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1434Touch panels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1438Touch screens

Definitions

  • the present disclosure relates to an input device that enables an input operation by an operation body such as a finger, such as a touch pad or a touch panel.
  • Patent Document 1 As an input device, for example, one described in Patent Document 1 is known.
  • the input device of Patent Document 1 is provided at another position with respect to the display device, and vibrates the operation surface based on the touch pad that detects the operation position of the finger on the operation surface and the detection result of the touch pad.
  • the input device is a device that enables an input to an icon by performing a finger operation on the touch pad with respect to the icon displayed on the display device.
  • the input device may also be referred to as a tactile sense presentation device, the touch pad may also be referred to as an operation detection unit, the actuator may be referred to as a vibration unit, and the icon displayed on the display device may be referred to as an operation button.
  • an area corresponding to the icon of the display device is defined as a target area, and an area corresponding to the periphery of the icon is defined as the peripheral area. Then, when the finger moves on the operation surface of the touch pad, passes from the area other than the peripheral area to the peripheral area, and reaches the target area, in the peripheral area, the actuator is activated by the control unit to generate vibration. It is supposed to be
  • the present disclosure uses an absolute value operation, and an object of the present disclosure is to provide an input device that does not give a sense of incongruity to an operator when performing pull-in control.
  • the input device receives an input to a predetermined device according to the detection unit that detects the operation state of the operating body on the operation surface on the operation side and the operation state detected by the detection unit. And a drive unit controlled by the control unit and configured to vibrate the operation surface.
  • the predetermined device has a display unit, and a plurality of operation buttons are displayed on the display unit, and the coordinate positions of the operating tool on the operation surface and the coordinate positions of the plurality of operation buttons in the display unit are absolute
  • the control unit is associated by the coordinates, and the control unit is configured to move the coordinate position on the corresponding display unit by the movement of the operating body on the operation surface from one of the operation buttons to another operation button.
  • the drive unit In the intermediate region between any operation button and another operation button when it is determined to move to the second position, the drive unit generates a predetermined vibration on the operation surface, which leads to a feeling of pulling in the other operation buttons.
  • the pull-in control to be applied when the coordinate position on the display unit corresponding to the coordinate position at which the operation body first contacts with the operation surface away from the operation surface is between the plurality of operation buttons, Seat of Position is corrected to the coordinate position of the nearest operating button, or prohibits the pull-in control, or causes retraction movement to the coordinate position corresponding to the nearest operating button operation body.
  • the coordinate position on the display unit even when the coordinate position at which the operating body first contacts the operation surface is between the plurality of operation buttons. Is corrected to the closest coordinate position of the operation button, so that the predetermined vibration for pull-in control is not generated suddenly, and the operator does not feel uncomfortable.
  • the predetermined control for the pull-in control is suddenly generated by prohibiting the pull-in control. And there is no sense of discomfort to the operator.
  • the operation body can be drawn and moved to the coordinate position corresponding to the closest operation button. Hence, the predetermined vibration for pull-in control is not generated, and the operator does not feel discomfort.
  • FIG. 1 is an explanatory view showing a mounted state of an input device in a vehicle
  • FIG. 2 is a block diagram showing an input device
  • FIG. 3A is a side view showing the operation unit and the drive unit in the first embodiment
  • FIG. 3B is a plan view seen from the IIIB direction of FIG. 3A
  • FIG. 4A is an explanatory view showing a control procedure in the first embodiment
  • FIG. 4B is an explanatory view showing a control procedure in the first embodiment
  • FIG. 5 is a flowchart showing control contents in the first embodiment
  • FIG. 6 is a graph showing the strength of vibration at the time of retraction in the first embodiment
  • FIG. 7 is a graph showing a vibration waveform at the time of retraction in the first embodiment
  • FIG. 8 is a graph showing the vibration waveform in the modification 1 of the first embodiment
  • FIG. 9 is a graph showing the strength of vibration in the second modification of the first embodiment
  • FIG. 10A is an explanatory view showing a control procedure in the second embodiment
  • FIG. 10B is an explanatory view showing a control procedure in the second embodiment
  • FIG. 11 is a flowchart showing control contents in the second embodiment
  • FIG. 12 is an explanatory view showing a control procedure in the third embodiment
  • FIG. 13 is a flowchart showing control contents in the third embodiment
  • FIG. 14A is a side view showing the operation unit and the drive unit in the fourth embodiment
  • FIG. 14B is a plan view seen from the XIVB direction of FIG. 14A.
  • the input device 100 according to the first embodiment is shown in FIGS.
  • the input device 100 of the present embodiment is applied to, for example, a remote control device for operating the navigation device 50.
  • the input device 100 is mounted on the vehicle 10 together with the navigation device 50.
  • the navigation device 50 corresponds to the predetermined device of the present disclosure.
  • the navigation device 50 is a route guidance system that displays current position information of the vehicle on a map, traveling direction information, guidance information to a destination desired by the operator, and the like.
  • the navigation device 50 has a liquid crystal display 51 as a display unit.
  • the liquid crystal display 51 is disposed at the center of the instrument panel 11 of the vehicle 10 in the vehicle width direction, so that the display screen 52 can be viewed by the operator.
  • the navigation device 50 is formed separately from the input device 100, and is set at a position away from the input device 100.
  • the navigation device 50 and the input device 100 are connected by, for example, a Controller Area Network bus (CAN bus, registered trademark).
  • CAN bus Controller Area Network bus
  • buttons 52a1 to 52a4 for operating the navigation device 50 are displayed (FIG. 4A, FIG. 4B ).
  • the various operation buttons 52a1 to 52a4 are, for example, buttons for enlarged display, reduced display of a map, and destination guidance setting, etc., and the first operation button 52a1, the second operation button 52a2, the third operation button 52a3, and The fourth operation button 52a4 and the like are provided.
  • the various operation buttons 52a1 to 52a4 are so-called operation icons, and correspond to the plurality of operation buttons of the present disclosure. Although eight operation buttons are displayed in FIG. 4A, hereinafter, the first to fourth operation buttons 52a1 to 52a4 will be described as representative buttons.
  • a pointer 52b designed in the shape of an arrow is displayed so as to correspond to the position of the finger F (operating body) of the operator on the operation unit 110 (more specifically, the operation surface 111). It is supposed to be The pointer 52 b may not be displayed on the display screen 52.
  • the operating body is on the operation surface 111 which is the operation side.
  • the finger F of the operator corresponds to an example of the operating body of the present disclosure.
  • an intermediate area ca is defined between the various operation buttons 52a1 to 52a4. Then, a predetermined position (for example, a center position or an arbitrary position in the middle) in the middle area ca is defined as the middle position cp.
  • the coordinate position of the finger F on the operation surface 111 and the coordinate positions of the various operation buttons 52a1 to 52a4 and the pointer 52b on the liquid crystal display 51 (display screen 52) are associated by absolute coordinates. It is supposed to be operated in absolute position.
  • the input device 100 is provided at a position adjacent to the armrest 13 at the center console 12 of the vehicle 10, and is disposed in a range where the operator's hand can easily reach.
  • the input device 100 includes an operation unit 110, a drive unit 120, a control unit 130, and the like.
  • the operation unit 110 forms a so-called touch pad, and is a part that performs an input operation on the navigation device 50 with the finger F of the operator.
  • the operation unit 110 includes an operation surface 111, a touch sensor 112, a housing 113, and the like.
  • the operation surface 111 is exposed to the operator side at a position adjacent to the armrest 13 and is a flat portion where the operator performs a finger operation.
  • a material or the like for improving the slip of the finger over the entire surface is provided It is formed by
  • operation surface 111 On the operation surface 111, it is set so that an input (for example, selection, depression determination, etc.) to various operation buttons 52a1 to 52a4 displayed on the display screen 52 can be performed by an operator's finger operation. .
  • a rib 111a extending to the side opposite to the operation side is provided.
  • the touch sensor 112 is, for example, a capacitance type detection unit provided on the back surface side of the operation surface 111.
  • the touch sensor 112 is formed in a rectangular flat plate shape, and is configured to detect an operation state of the sensor surface by the finger F of the operator.
  • the touch sensor 112 corresponds to an example of the detection unit of the present disclosure.
  • the touch sensor 112 is formed by arranging electrodes extending along the x-axis on the operation surface 111 and electrodes extending along the y-axis in a grid. These electrodes are connected to the control unit 130. Each electrode is configured such that the generated capacitance changes in accordance with the position of the finger F of the operator in proximity to the sensor surface, and the signal (sensitivity value) of the generated capacitance is a controller It is output to 130.
  • the sensor surface is covered by an insulating sheet made of an insulating material.
  • the touch sensor 112 is not limited to the capacitance type, and various types such as other pressure-sensitive types can be used.
  • the housing 113 is a support that supports the operation surface 111 and the touch sensor 112.
  • the housing 113 is formed in a frame shape, and is disposed, for example, inside the center console 12.
  • the drive unit 120 vibrates the operation surface 111 in the expanding direction of the operation surface 111 in two axial directions of the x and y axes, and at least one of four sides around the operation surface 111, the rib 111a and the housing It is provided between them.
  • the drive unit 120 is connected to the control unit 130, and the control unit 130 controls generation of vibration.
  • the driving unit 120 generates vibration in one axial direction (x-axis direction or y-axis direction) on the operation surface 111 by validating vibration in only one axial direction among the two axial directions. By simultaneously making vibration in two axial directions effective, it is possible to generate an oblique vibration in which both vibrations are combined on the operation surface 111.
  • the drive unit 120 for example, a solenoid, an electromagnetic actuator such as a voice coil motor, or a vibrator such as piezo, or a combination of a vibrator and a spring can be used.
  • the driving unit 120 is formed by providing one vibrating body on at least one of the four sides around the operation surface 111. be able to.
  • driving can be performed by providing one vibrating body (that is, a total of two) on two adjacent side portions around the operation surface 111.
  • the portion 120 can be formed.
  • the drive unit 120 can be formed by providing a combination of a vibrating body in one axial direction and a spring on opposing sides and providing two sets of vibration directions crossing each other.
  • vibrators are provided on four sides around the operation surface 111.
  • the control unit 130 includes a CPU, a RAM, a storage medium, and the like. From the signal obtained from the touch sensor 112, the control unit 130 sets the contact position (in other words, contact coordinates) of the finger F on the operation surface 111, the movement direction, and the movement distance as the operation state of the finger F of the operator. get. At this time, the control unit 130 causes the pointer 52 b to be displayed at the coordinate position on the display screen 52 corresponding to the coordinate position of the finger F on the operation surface 111, and the pointer 52 b is on the display screen 52 as the finger F moves. Display to move at (corresponding to absolute value operation). The pointer 52 b is displayed so as to move on the various operation buttons 52 a 1 to 52 a 4 on the display screen 52.
  • the control unit 130 corrects the coordinate position of the pointer 52b on the display screen 52 as necessary according to the operation state, and controls the generation state of the vibration by the drive unit 120. .
  • a vibration control parameter (vibration map) at the time of vibration control is stored in advance in the storage medium of the control unit 130, and the control unit 130 performs vibration control based on the vibration control parameter. There is.
  • the configuration of the input device 100 according to the present embodiment is as described above, and the operation and effects will be described below with reference to FIGS. 5 to 7.
  • the control unit 130 corrects the coordinate position of the pointer 52b on the display screen 52 as needed based on the flowchart shown in FIG. 5, and performs pull-in control to the operation button as the movement destination of the finger F.
  • the control unit 130 determines whether the touch (in other words, the touch) of the finger F on the operation surface 111 is a first touch (hereinafter, referred to as a 1st touch).
  • the 1st touch is an operation state when the finger F first contacts the operation surface 111 from the state of being separated. If a negative determination is made in S100, the process proceeds to S140.
  • control part 130 will correspond to the coordinate position on any one operation button (52a-52a4) in the display screen 52 by the control part 130 by S110 in the operation surface 111 It is determined whether or not.
  • the control unit 130 determines the position coordinates of the pointer 52b on the display screen 52 in S120.
  • the offset amount is set to zero without correction.
  • the control unit 130 sets an offset amount for correcting the coordinate position of the pointer 52b in S130.
  • the offset amount is an amount obtained by subtracting the position coordinates of the pointer 52b from the position coordinates (for example, position coordinates of the center) of the operation button (52a1) closest to the pointer 52b.
  • the control unit 130 sets the position coordinates of the pointer 52b on the display screen 52 as the position coordinates of the actually touched finger F plus the offset amount set in S120 and S130.
  • the position coordinates of the pointer 52b are the position coordinates of the closest operation button (52a1) (for example, the center of the button Position) is corrected.
  • the offset amount is zero, and the substantial correction is not performed.
  • the original physical operation surface 111 shown by the solid line becomes a virtual operation surface shifted by the offset as shown by the one-dot chain line. Furthermore, as indicated by a two-dot chain line, it is preferable to use a correction operation surface corrected so that the selectable area is not narrowed after the offset.
  • the correction operation surface the movement distance (in other words, the movement amount) of the pointer 52b on the display screen 52 with respect to the movement distance of the finger F after correction is formed to be larger than that before correction.
  • control unit 130 executes pull-in control in accordance with the position coordinates of the pointer 52b on the display screen 52.
  • the control unit 130 causes the coordinate position of the pointer 52b on the corresponding display screen 52 to be any one of the operation buttons 52a1 to 52a4 (for example, When it is determined to move from the first operation button 52a1) to another operation button (for example, the second operation button 52a2), the retraction control is executed.
  • the control unit 130 causes the operation surface 111 to generate a vibration that reciprocates in the direction of the movement destination of the finger F with respect to the drive unit 120 when the moving pointer 52b is positioned in the intermediate area ca.
  • the operation buttons 52a1 and 52a2 are set to line up in the x-axis direction
  • the direction (movement direction) of the vector of the finger F is the x-axis direction
  • the control unit 130 is along the x-axis direction. Generate vibration.
  • control unit 130 sets the local maximum value in the middle of the middle area ca (corresponding to the middle position cp) in accordance with the movement position of the finger F (pointer 52b). Control to form.
  • the control unit 130 makes a linear change when giving the maximum value to the vibration intensity.
  • FIG. 4A shows the case where the middle position cp in the middle region ca is set at the middle position of the middle region ca for better understanding.
  • the middle position cp is not limited to the middle position of the middle region ca, and can be any position in the middle region ca.
  • the control unit 130 responds by changing the amplitude as shown in FIG. 7 in order to give a maximum value to the vibration intensity. Specifically, while the finger F (pointer 52b) reaches from the first operation button 52a1 to the intermediate position cp, the amplitude is successively increased according to the movement position to increase the vibration intensity. . The control unit 130 maximizes the amplitude at the intermediate position cp. Then, after the finger F exceeds the intermediate position cp, the amplitude is successively reduced according to the movement position, and the amplitude is returned to the original amplitude to reduce the strength of the vibration. By such a change in amplitude, a valley of resistance is formed on the operation surface 111, and the finger F becomes an image operated (moved) while crossing over the mountain.
  • the finger F overcomes the resistance which is maximum at the position corresponding to the intermediate position cp, and reaches the position corresponding to the second operation button 52a2, and the position corresponding to the second operation button 52a2 from the intermediate position cp Toward the subject, it feels as if it were induced (in other words, pulled in), (in other words, acting).
  • the sense of guidance at this time can be reworded as a sense of overtaking the mountain.
  • the finger F when the operator moves the finger F, the finger F is guided in the movement direction, and a feeling of guidance to the movement destination can be obtained.
  • the display is performed. Since the coordinate position on the screen 52 is corrected to the coordinate position of the closest operation button, the predetermined vibration for pull-in control is not generated suddenly, and the operator does not feel discomfort.
  • control unit 130 corrects the coordinate position of the pointer 52b on the display screen 52 to the coordinate position of the closest operation button (52a1), and then moves the amount of movement of the coordinates on the display screen 52 along with the movement of the finger F. , It is made to be larger than before correction. As a result, the operable range is not narrowed and the finger operation is not disturbed.
  • the control unit 130 can cope with this by changing the frequency of vibration, as shown in FIG. 8, in order to give a maximum value to the intensity of vibration. Specifically, while the finger F (pointer 52b) reaches the intermediate position cp from the first operation button 52a1, the vibration frequency is increased in order to increase the vibration intensity. Maximize the frequency at the intermediate position cp. Then, after the finger F (pointer 52b) exceeds the intermediate position cp, the vibration frequency is lowered and returned to the original frequency, thereby reducing the vibration intensity.
  • control unit 130 may change exponentially when giving the maximum value to the strength of the vibration.
  • the amount of human sense is proportional to the logarithm of the stimulus intensity, so that such an exponential change can be made more understandable to a human.
  • Second Embodiment A second embodiment is shown in FIG. 10A, FIG. 10B and FIG.
  • the control when the position of the pointer 52b by the 1st touch is not on any of the operation buttons (52a1 to 52a4) (when in the middle area ca)
  • the contents have been changed.
  • FIG. 11 is a flowchart showing the control contents of the second embodiment, in which S150, S160 and S170 are executed after S100 and S110 in the first embodiment (FIG. 5). There is.
  • control unit 130 makes an affirmative determination in both S100 and S110, the pointer 52b by the 1st touch is on any of the operation buttons, and the control unit 130 executes normal pull-in control in S150. In addition, also when negative determination is carried out by S100, the control part 130 performs normal pulling-in control by S150.
  • the control unit 130 prohibits the execution of the pull-in control in S160. Then, in S170, it is determined whether or not the finger F has been moved, and if the finger F has been moved, in S150, retraction control is executed. If the finger F does not move in S170, S160 is repeated.
  • the pull-in control is prohibited even when the coordinate position at which the finger F first touches the operation surface 111 is between the plurality of operation buttons (52a1 to 52a4).
  • the sudden generation of the predetermined vibration for pull-in control does not occur and the operator does not feel uncomfortable.
  • FIG. 12 and FIG. 12 the configuration is the same as that of the first embodiment, and control is performed when the position of the pointer 52b by the 1st touch is not on any of the operation buttons (52a1 to 52a4) (when in the middle area ca) The contents have been changed.
  • FIG. 13 is a flowchart showing the control contents of the third embodiment, in which S150 and S180 are performed after S100 and S110 in the first embodiment (FIG. 5).
  • control unit 130 makes an affirmative determination in both S100 and S110, the pointer 52b by the 1st touch is on any of the operation buttons, and the control unit 130 executes normal pull-in control in S150. In addition, also when negative determination is carried out by S100, the control part 130 performs normal pulling-in control by S150.
  • the control unit 130 selects the finger F in S180. Are moved to the coordinate position corresponding to the closest operation button (for example, the first operation button 52a1). Then, when the finger F is moved to the coordinate position corresponding to the closest operation button (S110), pull-in control is executed according to the coordinate position on the display screen 52 accompanying the movement of the finger F in S150.
  • the control unit 130 corresponds as follows. That is, the control unit 130 calculates a vector from the position (middle area ca) of the pointer 52b on the display screen 52 to the closest operation button (for example, the center of the first operation button 52a1).
  • control unit 130 generates surface direction vibration to generate a pull-in force in the direction of the calculated vector.
  • the control unit 130 sets vibration that reciprocates in the direction of the calculated vector along the expanding surface of the operation surface 111 as surface direction vibration. For example, in the case of FIG. 12, the vibration along the lower left direction is set.
  • the control unit 130 sets the vibration speed or acceleration to be different between the forward path side and the return path side of the reciprocating vibration.
  • the forward path side is in the direction to move the finger F (operation button side), and the control unit 130 sets the speed or acceleration on the forward path side to be smaller than that on the return path side.
  • the finger F On the forward road side where the speed or acceleration of vibration is small, the finger F is held in the direction of the forward road due to the friction between the finger F and the operation surface 111. On the other hand, on the return path side where the speed or acceleration of vibration is large, slippage occurs between the finger F and the operation surface 111, and the finger F is left from the operation surface 111. That is, the finger F is drawn in the direction of the outward path where the speed or acceleration of the vibration is small.
  • the operation button closest to the finger F is used. Since the drawing position is moved to the coordinate position corresponding to (52a1), the predetermined vibration for drawing control is not generated suddenly, and the operator does not feel discomfort.
  • the input device 100A of the fourth embodiment is shown in FIGS. 14A and 14B.
  • the setting positions of the housing 113 and the drive unit 120 are changed to the housing 113A and the drive unit 120A in the first embodiment.
  • the housing 113A is formed in a plate shape, and is disposed on the back surface side of the operation surface 111.
  • the drive unit 120A is disposed on the back side of the operation surface 111.
  • the drive unit 120A is located between the back side of the operation surface 111 and the housing 113A.
  • the driving unit 120A generates vibration in, for example, two axial directions of the x and y axes, and one driving unit 120A is disposed at a central portion on the back surface side of the operation surface 111.
  • the driving unit 120A uses, for example, an electromagnetic actuator such as a voice coil motor capable of generating vibrations in two axial directions as described in the first embodiment.
  • the number of drive units 120A is not limited to one, and a plurality of drive units may be used.
  • the basic operation is the same as in the first embodiment, and the same effect can be obtained.
  • the vibration control parameter (vibration map) provided in advance is used to control the strength of the vibration, but the present invention is not limited to this, depending on the operation state of the finger F.
  • the vibration pattern may be obtained by calculation.
  • vibration is generated in the direction in which the finger F moves along the operation surface 111 when performing retraction control. However, instead of this, it crosses the operation surface 111. It is also possible to generate a vibration in the direction to give a feeling of retraction using a squeeze effect.
  • the operation unit 110 is a so-called touch pad type, but the present invention is not limited to this, and a so-called touch panel type in which the display screen 52 of the liquid crystal display 51 is transmitted and visually recognized on the operation surface 111 Is also applicable.
  • the operating body is described as the finger F of the operator.
  • the present invention is not limited to this, and a stick imitating a pen may be used.
  • the navigation apparatus 50 as a target (predetermined apparatus) of the input control by the input device 100, 100A, it is not limited to this,
  • the air conditioner for vehicles or the audio apparatus for vehicles The invention can also be applied to other devices such as.
  • control unit and the method thereof described in the present disclosure may be realized by a dedicated computer configuring a processor programmed to execute one or more functions embodied by a computer program.
  • control unit and the method thereof described in the present disclosure may be realized by a dedicated computer configuring a processor by a dedicated hardware logic circuit.
  • control unit and the method thereof described in the present disclosure may be realized by one or more dedicated computers configured by a combination of a processor that executes a computer program and one or more hardware logic circuits.
  • the computer program may also be stored in a computer readable non-transition tangible storage medium as computer-executable instructions.
  • each step is expressed as S100, for example.
  • each step may be divided into multiple sub-steps, while multiple steps may be combined into one step.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • User Interface Of Digital Computer (AREA)
  • Mechanical Control Devices (AREA)

Abstract

入力装置は、操作面(111)に対する操作体(F)の操作状態を検出する検出部(112)と、所定の機器(50)に対する入力を行う制御部(130)と、制御部によって制御され、操作面を振動させる駆動部(120)と、を備える。所定の機器は表示部(51)を有しており、表示部には、複数の操作ボタン(52a1~52a4)が表示され、操作面上における操作体の座標位置と、表示部における複数の操作ボタンの座標位置とが、絶対座標によって対応付けされている。制御部は、他の操作ボタンへの引込み感を与える引込み制御を実行すると共に、表示部上の座標位置を最も近い操作ボタンの座標位置に補正する、または、引込み制御を禁止する、または、操作体を最も近い操作ボタンに対応する座標位置に引込み移動させる。

Description

入力装置 関連出願の相互参照
 本出願は、2017年12月12日に出願された日本国特許出願2017-237601号に基づくものであり、ここにその記載内容を参照により援用する。
 本開示は、タッチパッドやタッチパネルのように、指等の操作体による入力操作を可能とする入力装置に関する。
 入力装置として、例えば、特許文献1に記載されたものが知られている。特許文献1の入力装置は、表示装置に対して別位置に設けられて、操作面上における指の操作位置を検出するタッチパッドと、タッチパッドの検出結果に基づいて操作面を振動させて、指と操作面との間の摩擦力を制御するアクチュエータと、アクチュエータの作動を制御する制御部とを備えている。入力装置は、表示装置に表示されるアイコンに対して、タッチパッド上で、指操作を行うことで、アイコンに対する入力を可能とする装置となっている。入力装置は、触覚呈示装置とも呼び、タッチパッドは、操作検出部とも呼び、アクチュエータは振動部とも呼び、表示装置に表示されるアイコンは操作ボタンとも呼びうる。
 タッチパッド上においては、表示装置のアイコンに対応する領域がターゲット領域、アイコンの周辺に対応する領域が周辺領域、と定義されている。そして、指がタッチパッドの操作面上を移動し、周辺領域以外の領域から、周辺領域を通り、ターゲット領域内に至るときに、周辺領域においては、制御部によってアクチュエータが作動され、振動が発生されるようになっている。
 指が周辺領域以外の領域を移動する際には振動の発生はなく、指には所定の摩擦力が発生する。また、指が周辺領域を通過するときには、振動発生によって指と操作面との間にスクイーズ効果が発生して、操作面に対する指の摩擦力が低下する。このとき、指の移動速度が大きくなる。更に、指がターゲット内を移動する際には振動の発生はなく、指には所定の摩擦力が発生する。よって、操作者は、周辺領域以外から周辺領域を通り、ターゲット領域内に至るように指操作すると、周辺領域において摩擦力が低下して、ターゲット領域内に向けて引込み感が想起されるようになっている。
JP 2017-130021 A
 操作面上の絶対位置と、表示装置のアイコンの絶対位置とが互いに対応付けられた絶対値操作の入力装置の場合、以下のような不具合が発生し得る。
 即ち、操作者が操作を開始しようとして、操作面に置いた指の位置が、周辺領域内(アイコンとアイコンとの間)であった場合、いきなり操作面において振動が発生されることになり、操作者に対して振動発生の意図が伝わらないばかりか、違和感を与えてしまう。
 本開示は、絶対値操作を用いており、引込み制御を行うものにおいて、操作者に対して違和感を与えないようにした入力装置を提供することを目的とする。
 本開示の一態様によれば、入力装置は、操作側となる操作面に対する操作体の操作状態を検出する検出部と、検出部によって検出される操作状態に応じて、所定の機器に対する入力を行う制御部と、制御部によって制御され、操作面を振動させる駆動部と、を備える。所定の機器は表示部を有しており、表示部には、複数の操作ボタンが表示され、操作面上における操作体の座標位置と、表示部における複数の操作ボタンの座標位置とが、絶対座標によって対応付けされており、制御部は、操作面上における操作体の移動によって、対応する表示部上での座標位置が、複数の操作ボタンのうち、いずれかの操作ボタンから他の操作ボタンに移動すると判定したとき、いずれかの操作ボタンと他の操作ボタンとの間となる中間領域で、駆動部によって所定の振動を操作面に発生させることで、他の操作ボタンへの引込み感を与える引込み制御を実行すると共に、操作面に対して操作体が離れた状態から最初に接触した座標位置に対応する表示部上の座標位置が、複数の操作ボタンの間となるとき、表示部上の座標位置を最も近い操作ボタンの座標位置に補正する、または、引込み制御を禁止する、または、操作体を最も近い操作ボタンに対応する座標位置に引込み移動させる。
 本開示によれば、絶対座標を用いたものにおいて、操作面に対して操作体が最初に接触した座標位置が、複数の操作ボタンの間となるときであっても、表示部上の座標位置を最も近い操作ボタンの座標位置に補正するので、いきなり引込み制御用の所定振動を発生させることがなくなり、操作者に違和感を与えることがなくなる。
 また、操作面に対して操作体が最初に接触した座標位置が、複数の操作ボタンの間となるときであっても、引込み制御を禁止することで、いきなり引込み制御用の所定振動を発生させることがなくなり、操作者に違和感を与えることがなくなる。
 また、操作面に対して操作体が最初に接触した座標位置が、複数の操作ボタンの間となるときであっても、操作体を最も近い操作ボタンに対応する座標位置に引込み移動させることで、いきなり引込み制御用の所定振動を発生させることがなくなり、操作者に違和感を与えることがなくなる。
 本開示についての上記および他の目的、特徴や利点は、添付図面を参照した下記詳細な説明から、より明確になる。添付図面において、
図1は、車両における入力装置の搭載状態を示す説明図であり、 図2は、入力装置を示すブロック図であり、 図3Aは、第1実施形態における操作部および駆動部を示す側面図であり、 図3Bは、図3AのIIIB方向から見た平面図であり、 図4Aは、第1実施形態における制御要領を示す説明図であり、 図4Bは、第1実施形態における制御要領を示す説明図であり、 図5は、第1実施形態における制御内容を示すフローチャートであり、 図6は、第1実施形態における引込み時の振動の強さを示すグラフであり、 図7は、第1実施形態における引込み時の振動波形を示すグラフであり、 図8は、第1実施形態の変形例1における振動波形を示すグラフであり、 図9は、第1実施形態の変形例2における振動の強さを示すグラフであり、 図10Aは、第2実施形態における制御要領を示す説明図であり、 図10Bは、第2実施形態における制御要領を示す説明図であり、 図11は、第2実施形態における制御内容を示すフローチャートであり、 図12は、第3実施形態における制御要領を示す説明図であり、 図13は、第3実施形態における制御内容を示すフローチャートであり、 図14Aは、第4実施形態における操作部および駆動部を示す側面図であり、 図14Bは、図14AのXIVB方向から見た平面図である。
 (第1実施形態)
 第1実施形態の入力装置100を図1~図7に示す。本実施形態の入力装置100は、例えば、ナビゲーション装置50を操作するための遠隔操作デバイスに適用したものである。入力装置100は、ナビゲーション装置50と共に、車両10に搭載されている。ナビゲーション装置50は、本開示の所定の機器に対応する。
 ナビゲーション装置50は、地図上における自車の現在位置情報、進行方向情報、あるいは操作者の希望する目的地への案内情報等を表示する航路誘導システムである。ナビゲーション装置50は、表示部としての液晶ディスプレイ51を有している。液晶ディスプレイ51は、車両10のインストルメントパネル11の車両幅方向の中央部に配置されて、表示画面52が操作者によって視認されるようになっている。
 ナビゲーション装置50は、入力装置100に対して別体で形成されており、入力装置100から離れた位置に設定されている。ナビゲーション装置50と入力装置100とは、例えば、Controller Area Networkバス(CANバス、登録商標)によって接続されている。
 液晶ディスプレイ51の表示画面52には、地図上における自車位置が表示されると共に、ナビゲーション装置50に対する操作用の各種操作ボタン52a1~52a4が表示されるようになっている(図4A、図4B)。各種操作ボタン52a1~52a4は、例えば、地図の拡大表示、縮小表示、および目的地案内設定等のためのボタンであり、第1操作ボタン52a1、第2操作ボタン52a2、第3操作ボタン52a3、および第4操作ボタン52a4等となっている。各種操作ボタン52a1~52a4は、いわゆる操作アイコンと呼ばれるものであり、本開示の複数の操作ボタンに対応する。尚、図4Aでは、8つの操作ボタンを表示しているが、以下、第1~第4操作ボタン52a1~52a4を代表ボタンとして説明する。
 また、表示画面52には、操作部110(より詳しくは、操作面111)における操作者の指F(操作体)の位置に対応するように、例えば、矢印状にデザインされたポインタ52bが表示されるようになっている。ポインタ52bは、表示画面52上において、表示されないものとしてもよい。操作体は、操作側となる操作面111に対する。また、操作者の指Fは、本開示の操作体の一例に相当する。
 表示画面52において、各種操作ボタン52a1~52a4同士の間は、それぞれ中間領域caとして定義されている。そして、中間領域ca内における所定の位置(例えば、中央位置や途中の任意の位置)は、中間位置cpとして定義されている。
 また、本実施形態では、操作面111上における指Fの座標位置と、液晶ディスプレイ51(表示画面52)における各種操作ボタン52a1~52a4およびポインタ52bの座標位置とが、絶対座標によって対応付けされており、絶対位置操作されるものとなっている。
 入力装置100は、図1~図4Bに示すように、車両10のセンターコンソール12にて、アームレスト13と隣接する位置に設けられ、操作者の手の届き易い範囲に配置されている。入力装置100は、操作部110、駆動部120、および制御部130等を備えている。
 操作部110は、いわゆるタッチパッドを形成するものであり、操作者の指Fによって、ナビゲーション装置50に対する入力操作を行う部位となっている。操作部110は、操作面111、タッチセンサ112、および筐体113等を有している。
 操作面111は、アームレスト13と隣接する位置で操作者側に露出して、操作者が指操作を行う平面部となっており、例えば、表面全体にわたって指の滑りを良くする素材等が設けられることで形成されている。
 操作面111上においては、操作者の指操作により、表示画面52に表示される各種操作ボタン52a1~52a4に対する操作(例えば、選択、押込み決定等)のための入力ができるように設定されている。操作面111の周囲には、操作側とは反対側に延びるリブ111aが設けられている。
 タッチセンサ112は、操作面111の裏面側に設けられた、例えば、静電容量式の検出部である。タッチセンサ112は、矩形の平板状に形成されており、センサ表面に対する操作者の指Fによる操作状態を検出するようになっている。タッチセンサ112は、本開示の検出部の一例に相当する。
 タッチセンサ112は、操作面111上のx軸方向に沿って延びる電極と、y軸方向に沿って延びる電極とが格子状に配列されることにより形成されている。これら電極は、制御部130と接続されている。各電極は、センサ表面に近接する操作者の指Fの位置に応じて、発生される静電容量が変化するようになっており、発生される静電容量の信号(感度値)が制御部130に出力されるようになっている。センサ表面は、絶縁材よりなる絶縁シートによって覆われている。尚、タッチセンサ112としては、静電容量式のものに限らず、他の感圧式等、各種タイプのものを使用することができる。
 筐体113は、操作面111およびタッチセンサ112を支持する支持部である。筐体113は、枠状に形成されており、例えば、センターコンソール12の内部に配置されている。
 駆動部120は、操作面111の拡がる方向に操作面111を、x、y軸の2軸方向に振動させるものであり、操作面111の周囲4辺の少なくとも1辺において、リブ111aと筐体113との間に設けられている。駆動部120は、制御部130と接続されており、制御部130によって振動発生の制御がなされるようになっている。
 駆動部120は、2軸方向のうち、1軸方向のみの振動を有効にすることで、操作面111には1軸方向(x軸方向、あるいはy軸方向)の振動を発生させ、また、2軸方向の振動を同時に有効にすることにより、操作面111には両振動を合成した斜め方向の振動を発生させることができるようになっている。
 駆動部120としては、例えば、ソレノイド、ボイスコイルモータ等の電磁アクチュエータ、あるいはピエゾ等の振動体、更には、振動体とバネとが組み合わされたもの等を用いることができる。例えば、1つの振動体が2軸方向の振動を発生させるものであれば、操作面111の周囲4辺のうち少なくとも1つの辺部に1つの振動体を設けることで、駆動部120を形成することができる。あるいは、振動体が1軸方向のみの振動を発生させるものであれば、操作面111の周囲の隣合う2つの辺部にそれぞれ1つの振動体(つまり、合計2つ)を設けることで、駆動部120を形成することができる。あるいは、1軸方向の振動体とバネとの組合せを、対向する辺部に設けて、振動方向が交差するように、それを2組設けることで駆動部120を形成することができる。本実施形態では、図3A、図3Bに示すように、駆動部120は、振動体が操作面111の周囲4辺に設けられたものとしている。
 制御部130は、CPU、RAM、および記憶媒体等を有している。制御部130は、タッチセンサ112から得られる信号から、操作者の指Fの操作状態として、操作面111上における指Fの接触位置(換言すると、接触座標)、移動方向、および移動距離等を取得する。このとき、制御部130は、操作面111上における指Fの座標位置と対応する表示画面52上での座標位置にポインタ52bを表示させ、指Fの移動に伴ってポインタ52bが表示画面52上で移動するように表示させる(絶対値操作に対応する)。ポインタ52bは、表示画面52上の各種操作ボタン52a1~52a4上を移動するように表示される。
 そして、制御部130は、これらの操作状態に応じて、表示画面52上のポインタ52bの座標位置を必要に応じて補正すると共に、駆動部120による振動の発生状態を制御するようになっている。尚、制御部130の記憶媒体には、振動制御時の振動制御パラメータ(振動マップ)が予め格納されており、制御部130は、この振動制御パラメータに基づいて、振動制御を行うようになっている。
 本実施形態の入力装置100の構成は以上のようになっており、作動および作用効果について、以下、図5~図7を加えて説明する。制御部130は、図5に示すフローチャートに基づいて、必要に応じて表示画面52上のポインタ52bの座標位置を補正し、指Fの移動先となる操作ボタンへの引込み制御を行う。
 まず、制御部130は、S100で、操作面111に対する指Fのタッチ(換言すると、接触)がファーストタッチ(以下、1stタッチ)か否かを判定する。1stタッチとは、操作面111に対して、指Fが離れた状態から最初に接触したときの操作状態である。尚、S100で、否定判定すると、S140に移行する。
 S100で、肯定判定すると、制御部130は、S110で、操作面111にタッチされた指Fの座標位置は、表示画面52におけるいずれかの操作ボタン(52a~52a4)上の座標位置に対応するか否かを判定する。
 S110で、指Fの座標位置がいずれかの操作ボタン(52a1~52a4)上の座標位置であると判定すると、制御部130は、S120で、表示画面52上におけるポインタ52bの位置座標については、補正することなく、オフセット量をゼロに設定する。
 しかしながら、S110で、1stタッチによる指Fの座標位置がいずれかの操作ボタン(52a1~52a4)上の座標位置でない、即ち、指Fの座標位置が操作ボタンの間(中間領域ca)にあると判定すると(図4A中の破線のポインタ)、制御部130は、S130で、ポインタ52bの座標位置を補正するためのオフセット量を設定する。オフセット量は、ポインタ52bから最も近い操作ボタン(52a1)の位置座標(例えば、中心の位置座標)から、ポインタ52bの位置座標を差し引いた量である。
 次に、S140では、制御部130は、表示画面52におけるポインタ52bの位置座標を、実際にタッチした指Fの位置座標に、S120、S130で設定したオフセット量を加えたものとして設定する。例えば、図4Aにおいて、1stタッチにおいて、ポインタ52bが中間領域caに位置したとき(破線のポインタ位置)、ポインタ52bの位置座標は、最も近い操作ボタン(52a1)の位置座標(例えば、ボタンの中心位置)に補正される。1stタッチにおいて、ポインタ52bがいずれかの操作ボタン(52a1~52a4)上に位置したときは、オフセット量はゼロとなって、実質的な補正は行われない。
 この補正により、図4Bに示すように、実線で示される本来の物理的な操作面111は、一点鎖線で示されるようにオフセット分だけずれた仮想の操作面となる。更に、二点鎖線で示されるように、オフセット後に選択可能エリアが狭まらないように補正した補正操作面とするとよい。補正操作面においては、補正後の指Fの移動距離に対する表示画面52上のポインタ52bの移動距離(換言すると、移動量)が、補正前に対して大きくなるようにすることで形成される。
 そして、S150で、制御部130は、表示画面52上でのポインタ52bの位置座標に応じて、引込み制御を実行する。
 即ち、制御部130は、操作面111上における指Fの移動によって、対応する表示画面52上でのポインタ52bの座標位置が、複数の操作ボタン52a1~52a4のうち、いずれかの操作ボタン(例えば、第1操作ボタン52a1)から他の操作ボタン(例えば、第2操作ボタン52a2)に移動すると判定したとき、引込み制御を実行する。
 制御部130は、移動するポインタ52bが中間領域ca内に位置するときに、駆動部120に対して、指Fの移動先の方向に往復する振動を操作面111に発生させる。ここでは、操作ボタン52a1、52a2は、x軸方向に並ぶように設定されているので、指Fのベクトルの向き(移動方向)は、x軸方向となり、制御部130は、x軸方向に沿う振動を発生させる。
 そして、制御部130は、図6に示すように、指F(ポインタ52b)の移動位置に応じて、振動の強さが中間領域caの途中(中間位置cpに対応する)で、極大値を形成するように制御する。制御部130は、振動の強さに極大値を持たせる際に、直線的に変化させる。
 図4Aでは、理解を深めるために中間領域ca内における中間位置cpを、中間領域caの中央位置に設定した場合を表示している。尚、中間位置cpは、中間領域caの中央位置に限定されるものではなく、中間領域ca内の任意の位置とすることができる。
 制御部130は、振動の強さに極大値を持たせるために、図7に示すように、振幅を変化させることで対応する。具体的には、指F(ポインタ52b)が第1操作ボタン52a1から中間位置cpに至る間に、移動位置に応じて振幅を順次大きくしていくことで、振動の強さを大きくしていく。制御部130は、中間位置cpにおいて振幅を最大にする。そして、指Fが、中間位置cpを超えた後に、移動位置に応じて振幅を順次小さくしていき、もとの振幅に戻すことで、振動の強さを小さくしていく。このような振幅の変更により、操作面111には、あたかも抵抗の山谷が形成されて、指Fはこの山を乗り越えながら操作(移動)されるイメージとなる。
 S150により、指Fは、第1操作ボタン52a1から第2操作ボタン52a2に対応するように移動するとき、操作面111に発生される振動によって抵抗を受ける形となる。加えて、指Fが第1操作ボタン52a1から中間位置cpに対応する位置に向かうにつれて振動の強さが極大値を形成するように制御されるため、指Fが受ける抵抗が大きくなっていく。また、指Fが中間位置cpから第2操作ボタン52a2に対応する位置向かうにつれて、極大値を過ぎて振動の強さが小さくなっていくように制御されるため、指Fが受ける抵抗が小さくなっていく。
 よって、指Fは、中間位置cpに対応する位置で最大となる抵抗を乗り越えて、第2操作ボタン52a2に対応する位置に至ることになり、中間位置cpから第2操作ボタン52a2に対応する位置に向けて、あたかも誘導される(換言すると、引込まれる)かのような感覚(換言すると、作用)を受けることになる。このときの誘導感は、山の乗り越え感とも言い換えることができる。
 このように、本実施形態では、操作者が指Fを動かしたときに、移動方向へ指Fを誘導し、移動先への誘導感が得られるようになっている。
 本実施形態によれば、絶対座標を用いたものにおいて、操作面111に対して指Fが最初にタッチした座標位置が、複数の操作ボタン52a1~52a4の間となるときであっても、表示画面52上の座標位置を最も近い操作ボタンの座標位置に補正するので、いきなり引込み制御用の所定振動を発生させることがなくなり、操作者に違和感を与えることがなくなる。
 また、制御部130は、表示画面52上のポインタ52bの座標位置を最も近い操作ボタン(52a1)の座標位置に補正したのちに、指Fの移動に伴う表示画面52上の座標の移動量を、補正前よりも大きくするようにしている。これにより、操作可能範囲が狭まることが無く、指操作に支障をきたすことがない。
 (第1実施形態の変形例)
 第1実施形態の変形例を図8、図9に示す。ここでは、制御部130は、振動の強さに極大値を持たせるために、図8に示すように、振幅は同一で、振動の周波数を変化させることで対応することができる。具体的には、指F(ポインタ52b)が第1操作ボタン52a1から中間位置cpに至る間に、振動の周波数を順次高くしていくことで、振動の強さを大きくしていく。中間位置cpにおいて周波数を最大にする。そして、指F(ポインタ52b)が、中間位置cpを超えた後に、振動の周波数を低くしていき、もとの周波数に戻すことで、振動の強さを小さくしていく。
 また、図9に示すように、制御部130は、振動の強さに極大値を持たせる際に、指数関数的に変化させるようにしてもよい。ウェーバフェヒナーの法則によると、人間の感覚量は、刺激強度の対数に比例することから、このような指数関数的な変化の付け方の方が、人間にとって分かりやすいものとすることができる。
 (第2実施形態)
 第2実施形態を図10A、図10B、図11に示す。第2実施形態は、第1実施形態と構成は同一としつつ、1stタッチによるポインタ52bの位置が、いずれかの操作ボタン(52a1~52a4)上にない場合(中間領域caにある場合)の制御内容を変更したものである。
 図11は、第2実施形態の制御内容を示すフローチャートであり、第1実施形態(図5)に対して、S100、S110の後に、S150、S160、S170を実行するようにしたものとなっている。
 制御部130は、S100、S110で共に肯定判定すると、1stタッチによるポインタ52bは、いずれかの操作ボタン上にあり、制御部130は、S150で、通常の引込み制御を実行する。尚、S100で否定判定した場合も、制御部130は、S150で通常の引込み制御を実行する。
 しかしながら、S110で否定判定すると、つまり、ポインタ52bが複数の操作ボタン52a1~52a4の間となるとき(図10Aのポインタ52b)、S160で、制御部130は、引込み制御の実行を禁止する。そして、S170で、指Fの移動があったかを判定して、指Fの移動があると、S150で、引込み制御を実行する。尚、S170で、指Fの移動がないと、S160を繰り返す。
 本実施形態によれば、操作面111に対して指Fが最初にタッチした座標位置が、複数の操作ボタン(52a1~52a4)の間となるときであっても、引込み制御を禁止するので、いきなり引込み制御用の所定振動を発生させることがなくなり、操作者に違和感を与えることがなくなる。
 (第3実施形態)
 第3実施形態を図12、図13に示す。第3実施形態は、第1実施形態と構成は同一としつつ、1stタッチによるポインタ52bの位置が、いずれかの操作ボタン(52a1~52a4)上にない場合(中間領域caにある場合)の制御内容を変更したものである。
 図13は、第3実施形態の制御内容を示すフローチャートであり、第1実施形態(図5)に対して、S100、S110の後に、S150、S180を実行するようにしたものとなっている。
 制御部130は、S100、S110で共に肯定判定すると、1stタッチによるポインタ52bは、いずれかの操作ボタン上にあり、制御部130は、S150で、通常の引込み制御を実行する。尚、S100で否定判定した場合も、制御部130は、S150で通常の引込み制御を実行する。
 しかしながら、S110で否定判定すると、つまり、ポインタ52bが複数の操作ボタン52a1~52a4の間(中間領域ca)となるとき(図12の破線のポインタ52b)、S180で、制御部130は、指Fを最も近い操作ボタン(例えば、第1操作ボタン52a1)に対応する座標位置に引込み移動させる。そして、指Fが最も近い操作ボタンに対応する座標位置に移動されると(S110)、S150で、指Fの移動に伴う表示画面52上の座標位置に応じて、引込み制御を実行する。
 指Fの引込み移動については、制御部130は、例えば、以下のように対応する。即ち、制御部130は、表示画面52におけるポインタ52bの位置(中間領域ca)から、最も近い操作ボタン(例えば、第1操作ボタン52a1の中心)へのベクトルを算出する。
 次に、制御部130は、算出したベクトルの方向に引込み力を発生させるために、面方向振動を発生させる。制御部130は、面方向振動として、操作面111の拡がる面に沿って、算出したベクトルの向きに往復する振動を設定する。例えば、図12の場合であると、左下方向に沿う振動を設定する。
 そして、制御部130は、往復する振動の往路側と復路側とで振動の速度あるいは加速度が異なるように設定する。ここでは、往路側は、指Fを移動させようとする方向(操作ボタン側)としており、制御部130は、復路側よりも往路側の速度あるいは加速度が小さくなるように設定する。
 振動の速度あるいは加速度が小さい往路側では、指Fと操作面111との間の摩擦により、指Fは、往路側の方向に持って行かれる形となる。これに対して、振動の速度あるいは加速度が大きい復路側では、指Fと操作面111との間に滑りが生じて、指Fは、操作面111から置いていかれる形となる。つまり、指Fは、振動の速度あるいは加速度が小さい往路側の方向に引込まれる形となるのである。
 本実施形態によれば、操作面111に対して指Fが最初にタッチした座標位置が、複数の操作ボタン(52a1~52a4)の間となるときであっても、指Fを最も近い操作ボタン(52a1)に対応する座標位置に引込み移動させるので、いきなり引込み制御用の所定振動を発生させることがなくなり、操作者に違和感を与えることがなくなる。
 (第4実施形態)
 第4実施形態の入力装置100Aを図14A、図14Bに示す。第4実施形態は、第1実施形態に対して、筐体113、および駆動部120の設定位置を変更し、筐体113A、および駆動部120Aとしたものである。
 筐体113Aは、板状に形成されており、操作面111の裏面側に配置されている。そして、駆動部120Aは、操作面111の裏面側に配置されている。駆動部120Aは、操作面111の裏面側と筐体113Aとの間に位置している。駆動部120Aは、例えば、x、y軸の2軸方向に振動を発生するものとなっており、操作面111の裏面側の中央部に1つ配置されている。駆動部120Aは、第1実施形態で説明した、例えば、2軸方向に振動を発生可能なボイスコイルモータ等の電磁アクチュエータが使用されている。駆動部120Aは、1つに限らず、複数個用いられるものとしてもよい。
 本実施形態においても基本的な作動は、第1実施形態と同じであり、同様の効果を得ることができる。
 (その他の実施形態)
 各実施形態では、振動の強さを制御するために、予め設けられた振動制御パラメータ(振動マップ)を使用するものとして説明したが、これに限らず、指Fの操作状態に応じて、都度、計算によって振動パターンを得るようにしてもよい。
 また、各実施形態では、引込み制御を実行するにあたって、操作面111に沿って、指Fの移動する方向の振動を発生させるものとしたが、これに代えて、操作面111に対して、交差する方向の振動を発生させて、スクイーズ効果を用いて引込み感を与えるものとしてもよい。
 また、各実施形態では、操作部110として、いわゆるタッチパッド式のもとしたが、これに限らず、液晶ディスプレイ51の表示画面52が透過されて操作面111に視認されるいわゆるタッチパネル式のものにも適用可能である。
 また、各実施形態では、操作体を操作者の指Fとして説明したが、これに限らず、ペンを模したスティックとしてもよい。
 また、各実施形態では、入力装置100、100Aによる入力制御の対象(所定の機器)として、ナビゲーション装置50としたが、これに限定されることなく、車両用の空調装置、あるいは車両用オーディオ装置等の他の機器にも適用することができる。
 本開示に記載の制御部及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサを構成する専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の制御部及びその手法は、専用ハードウエア論理回路によってプロセッサを構成する専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の制御部及びその手法は、コンピュータプログラムを実行するプロセッサと一つ以上のハードウエア論理回路との組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。
 ここで本願に記載されるフローチャート、あるいは、フローチャートの処理は、複数のステップ(あるいはセクションと言及される)から構成され、各ステップは、たとえば、S100と表現される。さらに、各ステップは、複数のサブステップに分割されることができる、一方、複数のステップが合わさって一つのステップにすることも可能である。
 以上、本開示の一態様に係る入力装置の実施形態、構成、態様を例示したが、本開示に係る実施形態、構成、態様は、上述した各実施形態、各構成、各態様に限定されるものではない。例えば、異なる実施形態、構成、態様にそれぞれ開示された技術的部を適宜組み合わせて得られる実施形態、構成、態様についても本開示に係る実施形態、構成、態様の範囲に含まれる。

 

Claims (4)

  1.  操作面(111)に対する操作体(F)の操作状態を検出する検出部(112)と、
     前記検出部によって検出される前記操作状態に応じて、所定の機器(50)に対する入力を行う制御部(130)と、
     前記制御部によって制御され、前記操作面を振動させる駆動部(120)と、を備える入力装置において、
     前記所定の機器は表示部(51)を有しており、前記表示部には、複数の操作ボタン(52a1~52a4)が表示され、前記操作面上における前記操作体の座標位置と、前記表示部における前記複数の操作ボタンの座標位置とが、絶対座標によって対応付けされており、
     前記制御部は、前記操作面上における前記操作体の移動によって、対応する前記表示部上での座標位置が、前記複数の操作ボタンのうち、いずれかの操作ボタンから他の操作ボタンに移動すると判定したとき、前記いずれかの操作ボタンと前記他の操作ボタンとの間となる中間領域(ca)で、前記駆動部によって所定の振動を前記操作面に発生させることで、前記他の操作ボタンへの引込み感を与える引込み制御を実行すると共に、
     前記操作面に対して前記操作体が離れた状態から最初に接触した座標位置に対応する前記表示部上の座標位置が、前記複数の操作ボタンの間となるとき、前記表示部上の座標位置を最も近い操作ボタンの座標位置に補正する、または、前記引込み制御を禁止する、または、前記操作体を前記最も近い操作ボタンに対応する座標位置に引込み移動させる入力装置。
  2.  前記制御部は、前記表示部上の座標位置を前記最も近い操作ボタンの座標位置に補正したのちに、前記操作体の移動に伴う前記表示部上の座標の移動量を、補正前よりも大きくする請求項1に記載の入力装置。
  3.  前記制御部は、前記引込み制御を禁止したのちに、前記操作体の移動があると、前記表示部上での座標位置に応じて、前記引込み制御を実行する請求項1に記載の入力装置。
  4.  前記制御部は、前記操作体を前記最も近い操作ボタンに対応する座標位置に前記引込み移動させたのち、前記表示部上での座標位置に応じて、前記引込み制御を実行する請求項1に記載の入力装置。

     
PCT/JP2018/040694 2017-12-12 2018-11-01 入力装置 WO2019116770A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/895,746 US11132089B2 (en) 2017-12-12 2020-06-08 Input device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-237601 2017-12-12
JP2017237601A JP6825546B2 (ja) 2017-12-12 2017-12-12 入力装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/895,746 Continuation US11132089B2 (en) 2017-12-12 2020-06-08 Input device

Publications (1)

Publication Number Publication Date
WO2019116770A1 true WO2019116770A1 (ja) 2019-06-20

Family

ID=66820352

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/040694 WO2019116770A1 (ja) 2017-12-12 2018-11-01 入力装置

Country Status (3)

Country Link
US (1) US11132089B2 (ja)
JP (1) JP6825546B2 (ja)
WO (1) WO2019116770A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6872085B6 (ja) * 2018-10-04 2021-06-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 機器制御装置及び機器制御方法
JP7138024B2 (ja) * 2018-11-28 2022-09-15 京セラ株式会社 電子機器

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008070983A (ja) * 2006-09-12 2008-03-27 Toyota Motor Corp 入力装置
JP2013033343A (ja) * 2011-08-01 2013-02-14 Toyota Motor Corp 車両用操作装置
JP2013210801A (ja) * 2012-03-30 2013-10-10 Tokai Rika Co Ltd 入力装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070205882A1 (en) * 2006-03-01 2007-09-06 Wabash National, L.P. Air tank pressure monitoring
JP2017130021A (ja) 2016-01-20 2017-07-27 株式会社東海理化電機製作所 触覚呈示装置
JP6074097B2 (ja) 2016-06-08 2017-02-01 パイオニア株式会社 電子機器
JP2018147394A (ja) 2017-03-08 2018-09-20 株式会社デンソー 入力装置
JP2019021172A (ja) 2017-07-20 2019-02-07 株式会社デンソー 入力装置
JP2019105970A (ja) 2017-12-12 2019-06-27 株式会社デンソー 入力装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008070983A (ja) * 2006-09-12 2008-03-27 Toyota Motor Corp 入力装置
JP2013033343A (ja) * 2011-08-01 2013-02-14 Toyota Motor Corp 車両用操作装置
JP2013210801A (ja) * 2012-03-30 2013-10-10 Tokai Rika Co Ltd 入力装置

Also Published As

Publication number Publication date
JP6825546B2 (ja) 2021-02-03
JP2019105967A (ja) 2019-06-27
US20200301561A1 (en) 2020-09-24
US11132089B2 (en) 2021-09-28

Similar Documents

Publication Publication Date Title
JP6147656B2 (ja) 入力装置
JP6351964B2 (ja) 入力装置
WO2019220838A1 (ja) 入力装置
WO2019017009A1 (ja) 入力装置
WO2019116771A1 (ja) 入力装置
US11132089B2 (en) Input device
CN109564469B (zh) 显示操作装置
WO2019017008A1 (ja) 入力装置
US11079852B2 (en) Input device
JP7207017B2 (ja) 入力装置
WO2019116769A1 (ja) 入力装置
WO2018163626A1 (ja) 入力装置
WO2019012747A1 (ja) 入力装置
JP6693478B2 (ja) 入力装置
WO2018230088A1 (ja) 入力装置
WO2019039080A1 (ja) 入力装置
JP2019079243A (ja) 入力装置
JP2019012352A (ja) 入力装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18889894

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18889894

Country of ref document: EP

Kind code of ref document: A1