WO2019116771A1 - 入力装置 - Google Patents

入力装置 Download PDF

Info

Publication number
WO2019116771A1
WO2019116771A1 PCT/JP2018/040701 JP2018040701W WO2019116771A1 WO 2019116771 A1 WO2019116771 A1 WO 2019116771A1 JP 2018040701 W JP2018040701 W JP 2018040701W WO 2019116771 A1 WO2019116771 A1 WO 2019116771A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
finger
predetermined
control unit
operation button
Prior art date
Application number
PCT/JP2018/040701
Other languages
English (en)
French (fr)
Inventor
徹也 登丸
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2019116771A1 publication Critical patent/WO2019116771A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05GCONTROL DEVICES OR SYSTEMS INSOFAR AS CHARACTERISED BY MECHANICAL FEATURES ONLY
    • G05G1/00Controlling members, e.g. knobs or handles; Assemblies or arrangements thereof; Indicating position of controlling members
    • G05G1/02Controlling members for hand actuation by linear movement, e.g. push buttons
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05GCONTROL DEVICES OR SYSTEMS INSOFAR AS CHARACTERISED BY MECHANICAL FEATURES ONLY
    • G05G25/00Other details or appurtenances of control mechanisms, e.g. supporting intermediate members elastically
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05GCONTROL DEVICES OR SYSTEMS INSOFAR AS CHARACTERISED BY MECHANICAL FEATURES ONLY
    • G05G5/00Means for preventing, limiting or returning the movements of parts of a control mechanism, e.g. locking controlling member
    • G05G5/03Means for enhancing the operator's awareness of arrival of the controlling member at a command or datum position; Providing feel, e.g. means for creating a counterforce
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance

Definitions

  • the present disclosure relates to an input device that enables an input operation by an operation body such as a finger, such as a touch pad or a touch panel.
  • Patent Document 1 As an input device, for example, one described in Patent Document 1 is known.
  • the input device of Patent Document 1 is provided at another position with respect to the display device, and vibrates the operation surface based on the touch pad that detects the operation position of the finger on the operation surface and the detection result of the touch pad.
  • the input device is a device that enables an input to an icon by performing a finger operation on the touch pad with respect to the icon displayed on the display device.
  • the input device may also be referred to as a tactile sense presentation device, the touch pad may also be referred to as an operation detection unit, the actuator may be referred to as a vibration unit, and the icon displayed on the display device may be referred to as an operation button.
  • an area corresponding to the icon of the display device is defined as a target area, and an area corresponding to the periphery of the icon is defined as the peripheral area. Then, when the finger moves on the operation surface of the touch pad, passes from the area other than the peripheral area to the peripheral area, and reaches the target area, in the peripheral area, the actuator is activated by the control unit to generate vibration. It is supposed to be
  • the moving speed of the finger when the operator operates the finger is different for each person.
  • the difference between fast and slow until a feeling of retraction is obtained, that is, a difference in the feeling of operation occurs.
  • vibration may be generated or the vibration may be stopped with slight finger movement. Can occur. Therefore, the operator feels uncomfortable.
  • An object of the present disclosure is to provide an input device which does not give a sense of discomfort to an operator in performing pull-in control.
  • the input device receives an input to a predetermined device according to the detection unit that detects the operation state of the operating body on the operation surface on the operation side and the operation state detected by the detection unit. And a drive unit controlled by the control unit and configured to vibrate the operation surface.
  • the predetermined device has a display unit, and a plurality of operation buttons are displayed on the display unit, and coordinate positions of the operating body on the operation surface and coordinate positions of the plurality of operation buttons on the display unit are The control unit is configured to associate the coordinate position on the corresponding display unit with one of the operation buttons among the plurality of operation buttons by the movement of the operating body on the operation surface.
  • the drive unit When it is determined to move to the operation button, the drive unit generates a predetermined vibration on the operation surface in an intermediate area between any operation button and the other operation button, thereby pulling in the other operation button.
  • the coordinate position on the display unit Move to a predetermined position .
  • the coordinate position in the operation button on the display unit moves to a predetermined position even if a shift (variation) occurs at a position where the operating body is actually stopped after the retraction control. Be done. Therefore, since the start position of the operating body to be moved next is set to the predetermined position, it is possible to suppress the variation in the feeling of retraction (difference in the feeling of operation) generated at the time of the next operation. Also, if the position of the operation body actually stopped is a position close to the boundary of the operation button, with the slight movement of the operation body, a pull-in vibration is generated or the vibration is stopped. Although an unstable state may occur, since the coordinate position in the operation button on the display unit is moved to a predetermined position, it is possible to suppress problems such as the occurrence of the unstable state. It is possible to prevent the operator from feeling uncomfortable.
  • the input device includes a detection unit that detects an operation state of the operating body on the operation surface on the operation side, and an operation state detected by the detection unit for the predetermined device. And a drive unit controlled by the control unit to vibrate the operation surface.
  • the predetermined device has a display unit, and a plurality of operation buttons are displayed on the display unit, and coordinate positions of the operating body on the operation surface and coordinate positions of the plurality of operation buttons on the display unit are The control unit is configured to associate the coordinate position on the corresponding display unit with one of the operation buttons among the plurality of operation buttons by the movement of the operating body on the operation surface.
  • the drive unit When it is determined to move to the operation button, the drive unit generates a predetermined vibration on the operation surface in an intermediate area between any operation button and the other operation button, thereby pulling in the other operation button.
  • the pull-in control In addition to executing the pull-in control to give a feeling, according to at least one of the moving speed of the operating body, the moving acceleration of the operating body, the predetermined vibration intensity, or the predetermined vibration pattern, the moving direction of the operating body in the intermediate region To To change the size to respond.
  • the stop position can be brought close to the target position on the next operation button. Therefore, since the start position of the operating body to be moved next can be stabilized, it is possible to prevent the operator from feeling uncomfortable about the retraction at the time of the next operation.
  • FIG. 1 is an explanatory view showing a mounted state of an input device in a vehicle
  • FIG. 2 is a block diagram showing an input device
  • FIG. 3A is a side view showing the operation unit and the drive unit in the first embodiment
  • FIG. 3B is a plan view seen from the IIIB direction of FIG. 3A
  • FIG. 4 is an explanatory view showing a control procedure in the first embodiment
  • FIG. 5 is a flowchart showing control contents in the first embodiment
  • FIG. 6 is a graph showing the strength of vibration at the time of retraction in the first embodiment
  • FIG. 1 is an explanatory view showing a mounted state of an input device in a vehicle
  • FIG. 2 is a block diagram showing an input device
  • FIG. 3A is a side view showing the operation unit and the drive unit in the first embodiment
  • FIG. 3B is a plan view seen from the IIIB direction of FIG. 3A
  • FIG. 4 is an explanatory view showing a control procedure in the first embodiment
  • FIG. 5 is
  • FIG. 7 is a graph showing a vibration waveform at the time of retraction in the first embodiment
  • FIG. 8 is a flowchart showing control contents when moving the coordinate position of the pointer in the first embodiment
  • FIG. 9 is an explanatory view showing movement of the coordinate position of the pointer in the first embodiment to the center position in the operation button
  • FIG. 10 is an explanatory view showing animation display when moving the coordinate position of the pointer in the first embodiment
  • FIG. 11 is a graph showing the vibration waveform in the modification 1 of the first embodiment
  • FIG. 12 is a graph showing the strength of vibration in Modification 2 of the first embodiment
  • FIG. 13A is an explanatory view showing a control procedure in the second embodiment
  • FIG. 13B is an explanatory view showing a control procedure in the second embodiment
  • FIG. 13A is an explanatory view showing a control procedure in the second embodiment
  • FIG. 13B is an explanatory view showing a control procedure in the second embodiment
  • FIG. 13A is an explanatory view showing a
  • FIG. 14A is an explanatory view showing a control procedure in the third embodiment
  • FIG. 14B is an explanatory view showing a control procedure in the third embodiment
  • FIG. 15A is a side view showing the operation unit and the drive unit in the fourth embodiment
  • FIG. 15B is a plan view seen from the XVB direction of FIG. 15A.
  • the input device 100 according to the first embodiment is shown in FIGS.
  • the input device 100 of the present embodiment is applied to, for example, a remote control device for operating the navigation device 50.
  • the input device 100 is mounted on the vehicle 10 together with the navigation device 50.
  • the navigation device 50 corresponds to the predetermined device of the present disclosure.
  • the navigation device 50 is a route guidance system that displays current position information of the vehicle on a map, traveling direction information, guidance information to a destination desired by the operator, and the like.
  • the navigation device 50 has a liquid crystal display 51 as a display unit.
  • the liquid crystal display 51 is disposed at the center of the instrument panel 11 of the vehicle 10 in the vehicle width direction, so that the display screen 52 can be viewed by the operator.
  • the navigation device 50 is formed separately from the input device 100, and is set at a position away from the input device 100.
  • the navigation device 50 and the input device 100 are connected by, for example, a Controller Area Network bus (CAN bus, registered trademark).
  • CAN bus Controller Area Network bus
  • the various operation buttons 52a1 to 52a4 are, for example, buttons for enlarged display, reduced display of a map, and destination guidance setting, etc., and the first operation button 52a1, the second operation button 52a2, the third operation button 52a3, and The fourth operation button 52a4 and the like are provided.
  • the various operation buttons 52a1 to 52a4 are so-called operation icons.
  • a pointer 52b (displayed in an arrow shape) corresponding to the position of the operator's finger F (operating body) on the operation unit 110 (more specifically, the operation surface 111)
  • the coordinate position on the screen 52 is displayed.
  • the finger F of the operator corresponds to an example of the operating body of the present disclosure.
  • the operation surface 111 is a surface on the operation side of the operation unit.
  • an intermediate area ca is defined between the various operation buttons 52a1 to 52a4. Then, a predetermined position (for example, a center position or an arbitrary position in the middle) in the middle area ca is defined as the middle position cp.
  • the coordinate position of the finger F on the operation surface 111 and the coordinate positions of the various operation buttons 52a1 to 52a4 and the pointer 52b on the display screen 52 are associated with each other.
  • the input device 100 is provided at a position adjacent to the armrest 13 at the center console 12 of the vehicle 10, as shown in FIGS. 1 to 4, and is disposed in a range easily accessible by the operator.
  • the input device 100 includes an operation unit 110, a drive unit 120, a control unit 130, and the like.
  • the operation unit 110 forms a so-called touch pad, and is a part that performs an input operation on the navigation device 50 with the finger F of the operator.
  • the operation unit 110 includes an operation surface 111, a touch sensor 112, a housing 113, and the like.
  • the operation surface 111 is exposed to the operator side at a position adjacent to the armrest 13 and is a flat portion where the operator performs a finger operation.
  • a material or the like for improving the slip of the finger over the entire surface is provided It is formed by
  • operation surface 111 On the operation surface 111, it is set so that an input (for example, selection, depression determination, etc.) to various operation buttons 52a1 to 52a4 displayed on the display screen 52 can be performed by an operator's finger operation. .
  • a rib 111a extending to the side opposite to the operation side is provided.
  • the touch sensor 112 is, for example, a capacitance type detection unit provided on the back surface side of the operation surface 111.
  • the touch sensor 112 is formed in a rectangular flat plate shape, and is configured to detect an operation state of the sensor surface by the finger F of the operator.
  • the touch sensor 112 is formed by arranging electrodes extending along the x-axis on the operation surface 111 and electrodes extending along the y-axis in a grid. These electrodes are connected to the control unit 130. Each electrode is configured such that the generated capacitance changes in accordance with the position of the finger F of the operator in proximity to the sensor surface, and the signal (sensitivity value) of the generated capacitance is a controller It is output to 130.
  • the sensor surface is covered by an insulating sheet made of an insulating material.
  • the touch sensor 112 is not limited to the capacitance type, and various types such as other pressure-sensitive types can be used.
  • the touch sensor 112 corresponds to an example of the detection unit of the present disclosure.
  • the housing 113 is a support that supports the operation surface 111 and the touch sensor 112.
  • the housing 113 is formed in a frame shape, and is disposed, for example, inside the center console 12.
  • the drive unit 120 vibrates the operation surface 111 in the expanding direction of the operation surface 111 in two axial directions of the x and y axes, and at least one of four sides around the operation surface 111, the rib 111a and the housing It is provided between them.
  • the drive unit 120 is connected to the control unit 130, and the control unit 130 controls generation of vibration.
  • the driving unit 120 generates vibration in one axial direction (x-axis direction or y-axis direction) on the operation surface 111 by validating vibration in only one axial direction among the two axial directions. By simultaneously making vibration in two axial directions effective, it is possible to generate an oblique vibration in which both vibrations are combined on the operation surface 111.
  • the drive unit 120 for example, a solenoid, an electromagnetic actuator such as a voice coil motor, or a vibrator such as piezo, or a combination of a vibrator and a spring can be used.
  • the driving unit 120 is formed by providing one vibrating body on at least one of the four sides around the operation surface 111. be able to.
  • driving can be performed by providing one vibrating body (that is, a total of two) on two adjacent side portions around the operation surface 111.
  • the portion 120 can be formed.
  • the drive unit 120 can be formed by providing a combination of a vibrating body in one axial direction and a spring on opposing sides and providing two sets of vibration directions crossing each other.
  • vibrators are provided on four sides around the operation surface 111.
  • the control unit 130 includes a CPU, a RAM, a storage medium, and the like. From the signal obtained from the touch sensor 112, the control unit 130 sets the touch position of the finger on the operation surface 111 (in other words, the coordinate position of the finger F), the movement direction, and the movement distance as the operation state of the finger F of the operator. Get etc. The control unit 130 also calculates the coordinates of the pointer 52 b on the display screen 52 based on the acquired touch position of the finger F, and causes the display screen 52 to display the pointer 52 b. In addition, the control unit 130 acquires, as an operation state, the presence or absence of the pressing operation on any of the operation buttons on the operation surface 111, and the like.
  • the control unit 130 controls the generation state of the vibration by the drive unit 120 according to the operation state.
  • a vibration control parameter (vibration map) at the time of vibration control is stored in advance in the storage medium of the control unit 130, and the control unit 130 performs vibration control based on the vibration control parameter.
  • the control unit 130 performs another operation when the coordinate position of the pointer 52b on the display screen 52 enters the area of another operation button (52a2) from any of the operation buttons (52a1) by vibration control.
  • the coordinate position of the pointer 52b in the button (52a2) is moved to a predetermined position (for example, the center position cb of the operation button) to update the coordinate data.
  • the configuration of the input device 100 according to the present embodiment is as described above, and the operation and effects will be described below with reference to FIGS.
  • the control unit 130 controls pulling in to the operation area which is the movement destination of the finger F.
  • step S100 the control unit 130 determines whether the operator's finger F touches (touches in other words) the operation surface 111 based on a signal (operation state of the finger F) obtained from the touch sensor 112. The control unit 130 repeats S100 if it determines no, and proceeds to S110 if it determines affirmative.
  • the display of the pointer 52b on the display screen 52 becomes valid, and the operation is performed.
  • a pointer 52 b is displayed on the display screen 52 so as to correspond to the position of the operator's finger F on the surface 111.
  • the control unit 130 causes the finger F of the operator to set the second operation button 52a2 (another operation button) on the first operation button 52a1 (any operation button) among the various operation buttons 52a1 to 52a4. Determine if it is moving or stopped. If the control unit 130 determines that the finger F is moving, the process proceeds to S120, and if it is determined that the finger F is stopped, the process proceeds to S140.
  • the control unit 130 calculates a vector between the current position of the pointer 52b and the closest operation button (second operation button 52a2). In calculating the vector, the control unit 130 determines the distance between the position of the pointer 52b and the second operation button 52a2 (the length of the vector) and the direction (direction of the vector) from the position of the pointer 52b toward the second operation button 52a2. calculate.
  • the control unit 130 drives the drive unit 120 to draw (guide) the operator's finger F from the first operation button 52a1 to the second operation button 52a2 according to the vector (length and direction). Is driven to generate vibration on the operation surface 111.
  • the control unit 130 causes the operation surface 111 to generate a vibration that reciprocates in the direction of the vector (the direction of the movement destination of the operation body) with respect to the drive unit 120.
  • buttons 52a1 to 52a4 are set to line up in the x-axis direction
  • the direction of the vector is the x-axis direction
  • the control unit 130 generates vibration along the x-axis direction.
  • the control unit 130 sets the vibration intensity between the first operation button 52a1 and the second operation button 52a2 (in the middle of the middle area ca). , Control to form the maximum value.
  • the control unit 130 makes a linear change when giving the maximum value to the vibration intensity.
  • an intermediate position cp in the intermediate area ca is displayed at a central position between the first operation button 52a1 and the second operation button 52a2 in order to further understand.
  • the intermediate position cp is not limited to the center position of both operation buttons 52a1 and 52a2, and may be any position between the first operation button 52a1 and the second operation button 52a2 (arbitrary position) And can).
  • the control unit 130 responds by changing the amplitude as shown in FIG. 7 in order to give a maximum value to the vibration intensity. Specifically, the amplitude of vibration is increased by sequentially increasing the amplitude while the finger F reaches the intermediate position cp from the first operation button 52a1. The control unit 130 maximizes the amplitude at the intermediate position cp. Then, after the finger F exceeds the intermediate position cp, the amplitude is successively reduced to return to the original amplitude, thereby reducing the strength of the vibration. By such a change in amplitude, as shown in FIG. 4C, a valley of resistance is formed on the operation surface 111, and the finger F is manipulated (moved) while crossing over this mountain and become.
  • control unit 130 repeats S100 to S130 until the finger F of the operator is stopped by any of the operation buttons.
  • the finger F overcomes the resistance which is maximum at the intermediate position cp as in the mountain of (c) of FIG. 4 and reaches the second operation button 52a2, and from the intermediate position cp to the second operation button 52a2 Toward the subject, it feels as if it were induced (retracted).
  • the sense of guidance at this time can be reworded as a sense of overtaking the mountain.
  • the finger F when the operator moves the finger F, the finger F is guided in the movement direction, and a feeling of guidance to the movement destination can be obtained.
  • the control unit 130 determines in S140 whether or not a pressing operation has been performed on any of the operation buttons.
  • the pressing operation is an operation indicating the determination of selection of the operation button by the operator, and is performed by the operator pressing a finger on the operation surface 111 at a position corresponding to the operation button. If affirmation determination is carried out by S140, the control part 130 will perform pushing determination processing by S150. That is, an instruction corresponding to one of the operation buttons is issued to the navigation device 50. If a negative determination is made in S140, the process returns to S100.
  • the control unit 130 controls the coordinate position (coordinate position of the pointer 52b) on the display screen 52 corresponding to the finger F to be the first operation button 52a1 by pull-in control.
  • the coordinate position on the display screen 52 is moved to a predetermined position in the second operation button 52a2 Correct and update to that coordinate position.
  • the predetermined position is, for example, an inner position apart from the boundary line of the second operation button 52a2, and here, is a central position cb in the second operation button 52a2.
  • control unit 130 moves and updates the coordinate position of the pointer 52b based on the flowchart shown in FIG.
  • the control unit 130 first determines whether or not the pointer 52b has entered the area of the second operation button 52a2 (the other operation button) by pull-in control.
  • the control unit 130 makes an affirmative determination, for example, when the coordinate position of the pointer 52 b is on the boundary of the second operation button 52 a 2. If an affirmative determination is made in S200, the process proceeds to S210, and if a negative determination is made, the process proceeds to S250.
  • step 210 the control unit 130 moves the coordinate position (in other words, the internal coordinates) of the pointer 52b on the display screen 52 to the central position cb (in other words, the guidance point).
  • the control unit 130 moves the coordinate position of the pointer 52b to the center position cb, as shown in FIG. 10, the pointer 52b is continuously moved from the boundary position of the second operation button 52a2 to the center position cb. Animate to move.
  • the control unit 130 increases the count number of the timer for time (timer) by one. Then, in step S230, with the coordinate position of the moved pointer 52b fixed, the control unit 130 determines whether a predetermined condition assuming that the finger F is stopped is satisfied.
  • the predetermined condition uses a predetermined time (set timer) here.
  • the predetermined time is set as a time taken to stop after the finger F is pulled from the first operation button 52a1 to the second operation button 52a2.
  • the predetermined condition the movement speed or movement acceleration of the finger F may be used. For example, when the moving speed, the moving acceleration, and the like become zero, the predetermined condition can be satisfied.
  • control unit 130 When the determination is affirmative in S230, the control unit 130 returns the count number of the timer to zero in S240, and updates the coordinate position of the pointer 52b on the display screen 52 to the central position cb moved in S210 in S250. If a negative determination is made in S230, S220 and S230 are repeated.
  • the second operation on the display screen 52 is performed even if a shift (in other words, a variation) occurs at a position at which the finger F is actually stopped after the retraction control.
  • the coordinate position in the button 52a2 is moved to the central position cb (predetermined position) and updated. Therefore, since the start position of the finger F to be moved next is set to the center position cb of the operation button, it is possible to suppress the variation in the feeling of retraction (difference in operation feeling) generated at the time of the next finger operation.
  • the predetermined position for moving the coordinate position of the pointer 52b is set as the central position cb in the operation button. Thereby, the start position at the time of the next operation can be made more stable.
  • the control unit 130 displays an animation so that the pointer 52b continuously moves to the central position cb.
  • the pointer 52b does not move suddenly (like flying) from the boundary area of the second operation button 52a2 toward the center position cb, and the operator follows the movement of the pointer 52b with eyes be able to.
  • the control unit 130 moves the coordinate position of the pointer 52b to the center position cb and then fixes the position, and updates the coordinate position of the pointer 52b to the center position cb when a predetermined condition assuming that the finger F stops is satisfied. I am trying to do it. As a result, the position of the pointer 52b does not move finely until the finger F stops, which makes it easy to view.
  • the control unit 130 has the same amplitude as shown in FIG. 11 and can cope with this by changing the frequency of the vibration. Specifically, while the finger F (pointer 52b) reaches the intermediate position cp from the first operation button 52a1, the vibration frequency is increased in order to increase the vibration intensity. Maximize the frequency at the intermediate position cp. Then, after the finger F (pointer 52b) exceeds the intermediate position cp, the vibration frequency is lowered and returned to the original frequency, thereby reducing the vibration intensity.
  • control unit 130 may change exponentially when giving the maximum value to the strength of the vibration.
  • the amount of human sense is proportional to the logarithm of the stimulus intensity, so that such an exponential change can be made more understandable to a human.
  • FIGS. 13A and 13B A second embodiment is shown in FIGS. 13A and 13B.
  • the second embodiment has the same configuration as the first embodiment, but at least one of the movement speed of the finger F, the movement acceleration of the finger F, the strength of a predetermined vibration during pull-in control, or a predetermined vibration pattern. Accordingly, the size corresponding to the moving direction of the finger F in the middle area ca is changed.
  • the size of the middle area ca is changed.
  • the middle area ca corresponds to the vibration generation area.
  • the stop position of the finger F due to retraction is aimed at the position on the operation button (52a2) according to the movement speed of the finger F. It can be close to (central position cb). Therefore, since the start position of the finger F to be moved next can be stabilized, it is possible to prevent the operator from feeling uncomfortable about the retraction in the next operation.
  • the size of the intermediate area ca may be changed based on the moving acceleration of the finger F.
  • FIGS. 14A and 14B A third embodiment is shown in FIGS. 14A and 14B.
  • the third embodiment according to at least one of the movement speed of the finger F, the movement acceleration of the finger F, the strength of a predetermined vibration during pull-in control, or a predetermined vibration pattern, The size corresponding to the moving direction of the finger F in the middle area ca is changed.
  • the size of the intermediate region ca is changed according to the strength of the predetermined vibration at the time of pull-in control.
  • the stop position of the finger F due to retraction is changed according to the magnitude (maximum value) of the vibration during retraction control by changing the size of the intermediate region ca.
  • the target position (center position cb) on the operation button (52a2) can be approached. Therefore, since the start position of the finger F to be moved next can be stabilized, it is possible to prevent the operator from feeling uncomfortable about the retraction in the next operation.
  • the magnitude of the intermediate region ca may be changed based on the intensity pattern of vibration instead of the intensity (maximum value) of vibration during pull-in control.
  • the intensity pattern of vibration indicates, for example, at which position in the movement direction of the finger F the maximum value of the vibration intensity is provided in the intermediate region ca.
  • the finger F passes the local maximum value of the vibration intensity and then stops. It is predicted that the distance of Therefore, by shortening the size in the movement direction of the finger F in the intermediate area ca, the position at which the finger F is stopped can be brought close to the center position cb of the second operation button 52a2 (the other operation button).
  • the finger F stops after passing the maximum value of the vibration intensity. It is predicted that the distance to Therefore, by lengthening the size of the movement direction of the finger F in the intermediate area ca, the position at which the finger F is stopped can be brought close to the center position cb of the second operation button 52a2 (the other operation button).
  • the contents of the second embodiment and the third embodiment may be combined.
  • FIGS. 15A and 15B The input device 100A of the fourth embodiment is shown in FIGS. 15A and 15B.
  • the setting positions of the housing 113 and the drive unit 120 are changed to the housing 113A and the drive unit 120A in the first embodiment.
  • the housing 113A is formed in a plate shape, and is disposed on the back surface side of the operation surface 111.
  • the drive unit 120A is disposed on the back side of the operation surface 111.
  • the drive unit 120A is located between the back side of the operation surface 111 and the housing 113A.
  • the driving unit 120A generates vibration in, for example, two axial directions of the x and y axes, and one driving unit 120A is disposed at a central portion on the back surface side of the operation surface 111.
  • the driving unit 120A uses, for example, an electromagnetic actuator such as a voice coil motor capable of generating vibrations in two axial directions as described in the first embodiment.
  • the number of drive units 120A is not limited to one, and a plurality of drive units may be used.
  • the basic operation is the same as in the first embodiment, and the same effect can be obtained.
  • the vibration control parameter (vibration map) provided in advance is used to control the strength of the vibration, but the present invention is not limited to this, depending on the operation state of the finger F.
  • the vibration pattern may be obtained by calculation.
  • vibration is generated in the direction in which the finger F moves along the operation surface 111 when performing retraction control. However, instead of this, it crosses the operation surface 111. It is also possible to generate a vibration in the direction to give a feeling of retraction using a squeeze effect.
  • the operation unit 110 is a so-called touch pad type, but the present invention is not limited to this, and a so-called touch panel type in which the display screen 52 of the liquid crystal display 51 is transmitted and visually recognized on the operation surface 111 Is also applicable.
  • the operating body is described as the finger F of the operator.
  • the present invention is not limited to this, and a stick imitating a pen may be used.
  • the navigation apparatus 50 as a target (predetermined apparatus) of the input control by the input device 100, 100A, it is not limited to this,
  • the air conditioner for vehicles or the audio apparatus for vehicles The invention can also be applied to other devices such as.
  • control unit and the method thereof described in the present disclosure may be realized by a dedicated computer configuring a processor programmed to execute one or more functions embodied by a computer program.
  • control unit and the method thereof described in the present disclosure may be realized by a dedicated computer configuring a processor by a dedicated hardware logic circuit.
  • control unit and the method thereof described in the present disclosure may be realized by one or more dedicated computers configured by a combination of a processor that executes a computer program and one or more hardware logic circuits.
  • the computer program may also be stored in a computer readable non-transition tangible storage medium as computer-executable instructions.
  • each step is expressed as S100, for example.
  • each step may be divided into multiple sub-steps, while multiple steps may be combined into one step.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Mechanical Control Devices (AREA)

Abstract

入力装置は、所定の機器(50)に対する入力を行う制御部(130)と、制御部によって制御され、操作面を振動させる駆動部(120)と、を備える。所定の機器は表示部(51)を有しており、表示部には、複数の操作ボタン(52a1~52a4)が表示され、操作面上における操作体の座標位置と、表示部上における複数の操作ボタンの座標位置とが、対応付けされるようになっている。制御部は、いずれかの操作ボタンと他の操作ボタンとの間となる中間領域(ca)で、駆動部によって所定の振動を操作面に発生させることで、他の操作ボタンへの引込み感を与える引込み制御を実行すると共に、表示部上での座標位置を他の操作ボタン内の所定の位置(cb)に移動させる。

Description

入力装置 関連出願の相互参照
 本出願は、2017年12月12日に出願された日本国特許出願2017-237604号に基づくものであり、ここにその記載内容を参照により援用する。
 本開示は、タッチパッドやタッチパネルのように、指等の操作体による入力操作を可能とする入力装置に関する。
 入力装置として、例えば、特許文献1に記載されたものが知られている。特許文献1の入力装置は、表示装置に対して別位置に設けられて、操作面上における指の操作位置を検出するタッチパッドと、タッチパッドの検出結果に基づいて操作面を振動させて、指と操作面との間の摩擦力を制御するアクチュエータと、アクチュエータの作動を制御する制御部とを備えている。入力装置は、表示装置に表示されるアイコンに対して、タッチパッド上で、指操作を行うことで、アイコンに対する入力を可能とする装置となっている。入力装置は、触覚呈示装置とも呼び、タッチパッドは、操作検出部とも呼び、アクチュエータは振動部とも呼び、表示装置に表示されるアイコンは操作ボタンとも呼びうる。
 タッチパッド上においては、表示装置のアイコンに対応する領域がターゲット領域、アイコンの周辺に対応する領域が周辺領域、と定義されている。そして、指がタッチパッドの操作面上を移動し、周辺領域以外の領域から、周辺領域を通り、ターゲット領域内に至るときに、周辺領域においては、制御部によってアクチュエータが作動され、振動が発生されるようになっている。
 指が周辺領域以外の領域を移動する際には振動の発生はなく、指には所定の摩擦力が発生する。また、指が周辺領域を通過するときには、振動発生によって指と操作面との間にスクイーズ効果が発生して、操作面に対する指の摩擦力が低下する。このとき、指の移動速度が大きくなる。更に、指がターゲット内を移動する際には振動の発生はなく、指には所定の摩擦力が発生する。よって、操作者は、周辺領域以外から周辺領域を通り、ターゲット領域内に至るように指操作すると、周辺領域において摩擦力が低下して、ターゲット領域内に向けて引込み感が想起されるようになっている。
JP 2017-130021 A
 操作者が指操作する際の指の移動速度は、人それぞれ異なる。また、振動によって得られる引込み感や、引込み感によってターゲット上で指を停止させるまでの時間には個人差が出る。したがって、引込み作用の後に指が停止される位置は、ターゲット内の期待された位置(例えば、中心位置)に対して、ずれが発生する場合があり、次の指操作を開始して、次の引込み感が得られるまで速い、遅いといった差、つまり操作感の差が生じてしまう。あるいは、停止した指の位置がターゲット内で、周辺領域に近接した位置であると、わずかな指の動きに伴って、振動が発生される、または振動が停止されると言った不安定な状態が発生し得る。よって、操作者に対しては違和感を与えてしまう。
 本開示は、引込み制御を行うものにおいて、操作者に対して違和感を与えないようにした入力装置を提供することを目的とする。
 本開示の一態様によれば、入力装置は、操作側となる操作面に対する操作体の操作状態を検出する検出部と、検出部によって検出される操作状態に応じて、所定の機器に対する入力を行う制御部と、制御部によって制御され、操作面を振動させる駆動部と、を備える。所定の機器は表示部を有しており、表示部には、複数の操作ボタンが表示され、操作面上における操作体の座標位置と、表示部上における複数の操作ボタンの座標位置とが、対応付けされるようになっており、制御部は、操作面上における操作体の移動によって、対応する表示部上での座標位置が、複数の操作ボタンのうち、いずれかの操作ボタンから他の操作ボタンに移動すると判定したとき、いずれかの操作ボタンと他の操作ボタンとの間となる中間領域で、駆動部によって所定の振動を操作面に発生させることで、他の操作ボタンへの引込み感を与える引込み制御を実行すると共に、操作体に対応する表示部上での座標位置が、他の操作ボタンの領域に入ったときに、表示部上での座標位置を他の操作ボタン内の所定の位置に移動させる。
 本開示によれば、引込み制御の後に、操作体が実際に停止される位置に、ずれ(バラツキ)が発生しても、表示部上での操作ボタン内における座標位置は、所定の位置に移動される。よって、次に移動される操作体のスタート位置は、所定の位置とされるので、次の操作時に発生される引込み感のバラツキ(操作感の差)を抑えることができる。また、実際に停止した操作体の位置が操作ボタンの境界に近接した位置であると、わずかな操作体の動きに伴って、引込み用の振動が発生される、または振動が停止されると言った不安定な状態が発生し得るが、表示部上での操作ボタン内における座標位置は、所定の位置に移動されるので、不安定な状態の発生などの不具合を抑制することができる。操作者に対する違和感を与えないようにすることができる。
 本開示の他の一態様によれば、入力装置は、操作側となる操作面に対する操作体の操作状態を検出する検出部と、検出部によって検出される操作状態に応じて、所定の機器に対する入力を行う制御部と、制御部によって制御され、操作面を振動させる駆動部と、を備える。所定の機器は表示部を有しており、表示部には、複数の操作ボタンが表示され、操作面上における操作体の座標位置と、表示部上における複数の操作ボタンの座標位置とが、対応付けされるようになっており、制御部は、操作面上における操作体の移動によって、対応する表示部上での座標位置が、複数の操作ボタンのうち、いずれかの操作ボタンから他の操作ボタンに移動すると判定したとき、いずれかの操作ボタンと他の操作ボタンとの間となる中間領域で、駆動部によって所定の振動を操作面に発生させることで、他の操作ボタンへの引込み感を与える引込み制御を実行すると共に、操作体の移動速度、操作体の移動加速度、所定の振動の強度、または所定の振動のパターンの少なくとも1つに応じて、中間領域の操作体の移動方向に対応する大きさを変更する。
 本開示によれば、中間領域の大きさを変更することで、操作体の移動速度、操作体の移動加速度、所定の振動の強度、または所定の振動のパターンに応じて、引込みによる操作体の停止位置を次の操作ボタン上の狙いの位置に近づけることができる。よって、次に移動される操作体のスタート位置を安定させることができるので、次の操作の際に、引込みに関する操作者の違和感を与えないようにすることができる。
 本開示についての上記および他の目的、特徴や利点は、添付図面を参照した下記詳細な説明から、より明確になる。添付図面において、
図1は、車両における入力装置の搭載状態を示す説明図であり、 図2は、入力装置を示すブロック図であり、 図3Aは、第1実施形態における操作部および駆動部を示す側面図であり、 図3Bは、図3AのIIIB方向から見た平面図であり、 図4は、第1実施形態における制御要領を示す説明図であり、 図5は、第1実施形態における制御内容を示すフローチャートであり、 図6は、第1実施形態における引込み時の振動の強さを示すグラフであり、 図7は、第1実施形態における引込み時の振動波形を示すグラフであり、 図8は、第1実施形態におけるポインタの座標位置を移動させる際の制御内容を示すフローチャートであり、 図9は、第1実施形態におけるポインタの座標位置を操作ボタン内の中心位置へ移動する様子を示す説明図であり、 図10は、第1実施形態におけるポインタの座標位置を移動させる際にアニメーション表示することを示す説明図であり、 図11は、第1実施形態の変形例1における振動波形を示すグラフであり、 図12は、第1実施形態の変形例2における振動の強さを示すグラフであり、 図13Aは、第2実施形態における制御要領を示す説明図であり、 図13Bは、第2実施形態における制御要領を示す説明図であり、 図14Aは、第3実施形態における制御要領を示す説明図であり、 図14Bは、第3実施形態における制御要領を示す説明図であり、 図15Aは、第4実施形態における操作部および駆動部を示す側面図であり、 図15Bは、図15AのXVB方向から見た平面図である。
 (第1実施形態)
 第1実施形態の入力装置100を図1~図10に示す。本実施形態の入力装置100は、例えば、ナビゲーション装置50を操作するための遠隔操作デバイスに適用したものである。入力装置100は、ナビゲーション装置50と共に、車両10に搭載されている。ナビゲーション装置50は、本開示の所定の機器に対応する。
 ナビゲーション装置50は、地図上における自車の現在位置情報、進行方向情報、あるいは操作者の希望する目的地への案内情報等を表示する航路誘導システムである。ナビゲーション装置50は、表示部としての液晶ディスプレイ51を有している。液晶ディスプレイ51は、車両10のインストルメントパネル11の車両幅方向の中央部に配置されて、表示画面52が操作者によって視認されるようになっている。
 ナビゲーション装置50は、入力装置100に対して別体で形成されており、入力装置100から離れた位置に設定されている。ナビゲーション装置50と入力装置100とは、例えば、Controller Area Networkバス(CANバス、登録商標)によって接続されている。
 液晶ディスプレイ51の表示画面52には、地図上における自車位置が表示されると共に、ナビゲーション装置50に対する操作用の各種操作ボタン52a1~52a4が表示されるようになっている(図4、図9)。各種操作ボタン52a1~52a4は、例えば、地図の拡大表示、縮小表示、および目的地案内設定等のためのボタンであり、第1操作ボタン52a1、第2操作ボタン52a2、第3操作ボタン52a3、および第4操作ボタン52a4等となっている。各種操作ボタン52a1~52a4は、いわゆる操作アイコンと呼ばれるものである。また、表示画面52には、操作部110(より詳しくは、操作面111)における操作者の指F(操作体)の位置に対応するように、例えば、矢印状にデザインされたポインタ52b(表示画面52上の座標位置)が表示されるようになっている。また、操作者の指Fは、本開示の操作体の一例に相当する。また、操作面111は、操作部の操作側の面である。
 表示画面52において、各種操作ボタン52a1~52a4同士の間は、それぞれ中間領域caとして定義されている。そして、中間領域ca内における所定の位置(例えば、中央位置や途中の任意の位置)は、中間位置cpとして定義されている。
 また、本実施形態では、操作面111上における指Fの座標位置と、表示画面52上における各種操作ボタン52a1~52a4およびポインタ52bの座標位置とが、対応付けされるようになっている。
 入力装置100は、図1~図4に示すように、車両10のセンターコンソール12にて、アームレスト13と隣接する位置に設けられ、操作者の手の届き易い範囲に配置されている。入力装置100は、操作部110、駆動部120、および制御部130等を備えている。
 操作部110は、いわゆるタッチパッドを形成するものであり、操作者の指Fによって、ナビゲーション装置50に対する入力操作を行う部位となっている。操作部110は、操作面111、タッチセンサ112、および筐体113等を有している。
 操作面111は、アームレスト13と隣接する位置で操作者側に露出して、操作者が指操作を行う平面部となっており、例えば、表面全体にわたって指の滑りを良くする素材等が設けられることで形成されている。
 操作面111上においては、操作者の指操作により、表示画面52に表示される各種操作ボタン52a1~52a4に対する操作(例えば、選択、押込み決定等)のための入力ができるように設定されている。操作面111の周囲には、操作側とは反対側に延びるリブ111aが設けられている。
 タッチセンサ112は、操作面111の裏面側に設けられた、例えば、静電容量式の検出部である。タッチセンサ112は、矩形の平板状に形成されており、センサ表面に対する操作者の指Fによる操作状態を検出するようになっている。
 タッチセンサ112は、操作面111上のx軸方向に沿って延びる電極と、y軸方向に沿って延びる電極とが格子状に配列されることにより形成されている。これら電極は、制御部130と接続されている。各電極は、センサ表面に近接する操作者の指Fの位置に応じて、発生される静電容量が変化するようになっており、発生される静電容量の信号(感度値)が制御部130に出力されるようになっている。センサ表面は、絶縁材よりなる絶縁シートによって覆われている。尚、タッチセンサ112としては、静電容量式のものに限らず、他の感圧式等、各種タイプのものを使用することができる。タッチセンサ112は、本開示の検出部の一例に相当する。
 筐体113は、操作面111およびタッチセンサ112を支持する支持部である。筐体113は、枠状に形成されており、例えば、センターコンソール12の内部に配置されている。
 駆動部120は、操作面111の拡がる方向に操作面111を、x、y軸の2軸方向に振動させるものであり、操作面111の周囲4辺の少なくとも1辺において、リブ111aと筐体113との間に設けられている。駆動部120は、制御部130と接続されており、制御部130によって振動発生の制御がなされるようになっている。
 駆動部120は、2軸方向のうち、1軸方向のみの振動を有効にすることで、操作面111には1軸方向(x軸方向、あるいはy軸方向)の振動を発生させ、また、2軸方向の振動を同時に有効にすることにより、操作面111には両振動を合成した斜め方向の振動を発生させることができるようになっている。
 駆動部120としては、例えば、ソレノイド、ボイスコイルモータ等の電磁アクチュエータ、あるいはピエゾ等の振動体、更には、振動体とバネとが組み合わされたもの等を用いることができる。例えば、1つの振動体が2軸方向の振動を発生させるものであれば、操作面111の周囲4辺のうち少なくとも1つの辺部に1つの振動体を設けることで、駆動部120を形成することができる。あるいは、振動体が1軸方向のみの振動を発生させるものであれば、操作面111の周囲の隣合う2つの辺部にそれぞれ1つの振動体(つまり、合計2つ)を設けることで、駆動部120を形成することができる。あるいは、1軸方向の振動体とバネとの組合せを、対向する辺部に設けて、振動方向が交差するように、それを2組設けることで駆動部120を形成することができる。本実施形態では、図3A、図3Bに示すように、駆動部120は、振動体が操作面111の周囲4辺に設けられたものとしている。
 制御部130は、CPU、RAM、および記憶媒体等を有している。制御部130は、タッチセンサ112から得られる信号から、操作者の指Fの操作状態として、操作面111上における指の接触位置(換言すると、指Fの座標位置)、移動方向、および移動距離等を取得する。また、制御部130は、取得した指Fの接触位置に基づいて、表示画面52上におけるポインタ52bの座標を演算して、表示画面52にポインタ52bを表示させる。加えて、制御部130は、操作状態として、操作面111上において、いずれかの操作ボタン上での押込み操作の有無等を取得する。
 そして、制御部130は、これらの操作状態に応じて、駆動部120による振動の発生状態を制御するようになっている。尚、制御部130の記憶媒体には、振動制御時の振動制御パラメータ(振動マップ)が予め格納されており、制御部130は、この振動制御パラメータに基づいて、振動制御を行うようになっている。また、制御部130は、振動制御によって、表示画面52上におけるポインタ52bの座標位置が、いずれかの操作ボタン(52a1)から他の操作ボタン(52a2)の領域に入ったときに、他の操作ボタン(52a2)内のポインタ52bの座標位置を、所定の位置(例えば、操作ボタンの中心位置cb)に移動させて座標データを更新するようになっている。
 本実施形態の入力装置100の構成は以上のようになっており、作動および作用効果について、以下、図5~図10を加えて説明する。
 まず、制御部130は、図5に示すフローチャートに基づいて、指Fの移動先となる操作領域への引込みの制御を行う。制御部130は、S100で、タッチセンサ112から得られる信号(指Fの操作状態)によって、操作者の指Fが操作面111にタッチ(換言すると、接触)しているか否かを判定する。制御部130は、否と判定すれば、S100を繰り返し、肯定判定すれば、S110に移行する。尚、図4の(a)、図4の(b)に示すように、操作者の指Fが操作面111にタッチされると、表示画面52におけるポインタ52bの表示が有効となって、操作面111上における操作者の指Fの位置に対応するように、ポインタ52bが表示画面52に表示される。
 以下、図4の(b)に示すように、指Fに対応する表示画面52上の位置が、第1操作ボタン52a1から第2操作ボタン52a2側に移動される場合を1つのモデルとして説明する。
 S110では、制御部130は、操作者の指Fが各種操作ボタン52a1~52a4のうち、第1操作ボタン52a1(いずれかの操作ボタン)上で、第2操作ボタン52a2(他の操作ボタン)に向けて移動中か、停止しているかを判定する。制御部130は、指Fが移動中であると判定すると、S120に進み、停止していると判定すると、S140に進む。
 S120では、制御部130は、現在のポインタ52bの位置と、一番近い操作ボタン(第2操作ボタン52a2)との間のベクトルを算出する。ベクトル算出にあたって、制御部130は、ポインタ52bの位置と第2操作ボタン52a2との距離(ベクトルの長さ)と、ポインタ52bの位置から第2操作ボタン52a2に向かう方向(ベクトルの向き)とを算出する。
 そして、S130にて、制御部130は、ベクトル(長さと向き)に応じて、操作者の指Fを第1操作ボタン52a1から第2操作ボタン52a2に引込む(誘導する)ために、駆動部120を駆動させて、操作面111に振動を発生させる。まず、制御部130は、駆動部120に対して、ベクトルの向き(操作体の移動先の方向)に往復する振動を操作面111に発生させる。
 ここでは、各操作ボタン52a1~52a4は、x軸方向に並ぶように設定されているので、ベクトルの向きは、x軸方向となり、制御部130は、x軸方向に沿う振動を発生させる。
 そして、制御部130は、図6に示すように、指Fの移動位置に応じて、振動の強さが第1操作ボタン52a1と第2操作ボタン52a2との間(中間領域caの途中)で、極大値を形成するように制御する。制御部130は、振動の強さに極大値を持たせる際に、直線的に変化させる。
 図4の(a)では、理解を深めるために中間領域ca内における中間位置cpを、第1操作ボタン52a1と第2操作ボタン52a2との中央位置に表示している。尚、中間位置cpは、両操作ボタン52a1、52a2の中央位置に限定されるものではなく、第1操作ボタン52a1と第2操作ボタン52a2との間であればどこの位置でもよい(任意の位置とすることができる)。
 制御部130は、振動の強さに極大値を持たせるために、図7に示すように、振幅を変化させることで対応する。具体的には、指Fが第1操作ボタン52a1から中間位置cpに至る間に、振幅を順次大きくしていくことで、振動の強さを大きくしていく。制御部130は、中間位置cpにおいて振幅を最大にする。そして、指Fが、中間位置cpを超えた後に、振幅を順次小さくしていき、もとの振幅に戻すことで、振動の強さを小さくしていく。このような振幅の変更により、図4の(c)に示すように、操作面111には、あたかも抵抗の山谷が形成されて、指Fはこの山を乗り越えながら操作(移動)されるイメージとなる。
 S130の後、操作者の指Fが、いずれかの操作ボタンで停止されるまで、制御部130は、S100~S130を繰り返す。
 S100~S130により、指Fは、第1操作ボタン52a1から第2操作ボタン52a2へ移動するとき、操作面111に発生される振動によって抵抗を受ける形となる。加えて、指Fが第1操作ボタン52a1から中間位置cpに向かうにつれて振動の強さが極大値を形成するように制御されるため、指Fが受ける抵抗が大きくなっていく。また、指Fが中間位置cpから第2操作ボタン52a2に向かうにつれて、極大値を過ぎて振動の強さが小さくなっていくように制御されるため、指Fが受ける抵抗が小さくなっていく。
 よって、指Fは、図4の(c)の山のように、中間位置cpで最大となる抵抗を乗り越えて、第2操作ボタン52a2に至ることになり、中間位置cpから第2操作ボタン52a2に向けて、あたかも誘導される(引込まれる)かのような感覚(作用)を受けることになる。このときの誘導感は、山の乗り越え感とも言い換えることができる。
 このように、本実施形態では、操作者が指Fを動かしたときに、移動方向へ指Fを誘導し、移動先への誘導感が得られるようになっている。
 尚、S100~S130を繰り返す中で、S110で、指Fの移動が停止されたと判定すると、制御部130は、S140で、いずれかの操作ボタンに対する押込み操作があったか否かを判定する。押込み操作は、操作者の操作ボタンに対する選択決定を示す操作であり、操作者が操作面111上で、操作ボタンに対応する位置で指を押込むことで行われる。S140で肯定判定すると、制御部130は、S150で、押込み決定処理を行う。つまり、いずれかの操作ボタンに対応する指示をナビゲーション装置50に対して行う。尚、S140で否定判定すると、S100に戻る。
 ここで、図8~図10に示すように、制御部130は、引込み制御によって、指Fに対応する表示画面52上での座標位置(ポインタ52bの座標位置)が、第1操作ボタン52a1(いずれかの操作ボタン)から第2操作ボタン52a2(他の操作ボタン)の領域に入ったときに、表示画面52上での座標位置を第2操作ボタン52a2内の所定の位置に移動させるように補正し、その座標位置に更新する。所定の位置は、例えば、第2操作ボタン52a2の境界線から離れた内側の位置としており、ここでは、第2操作ボタン52a2内の中心位置cbとしている。
 具体的には、制御部130は、図8に示すフローチャートに基づいて、ポインタ52bの座標位置の移動、更新を行う。
 即ち、S200で、制御部130は、まず、引込み制御によって、ポインタ52bが第2操作ボタン52a2(他の操作ボタン)の領域に入ったか、否かを判定する。制御部130は、ポインタ52bの座標位置が、例えば、第2操作ボタン52a2の境界線上に来たときに、肯定判定するようにしている。S200で肯定判定すると、S210に進み、否定判定すると、S250に移行する。
 ステップ210では、図9に示すように、制御部130は、表示画面52上のポインタ52bの座標位置(換言すると、内部座標)を、中心位置cb(換言すると、誘導点)に移動する。尚、制御部130は、ポインタ52bの座標位置を中心位置cbに移動させるときは、図10に示すように、ポインタ52bが第2操作ボタン52a2の境界線位置から、中心位置cbに連続的に移動するようにアニメーション表示させる。
 次に、S220で、制御部130は、経時用のタイマー(timer)のカウント数を1つ増加させる。そして、S230で、制御部130は、移動させたポインタ52bの座標位置を固定した状態で、指Fの停止を想定した所定条件が成立するか否かを判定する。所定条件は、ここでは、所定時間(set timer)を用いている。所定時間は、指Fが第1操作ボタン52a1から第2操作ボタン52a2に引込みされてから、停止するまでにかかる時間として設定したものである。
 尚、所定条件としては、指Fの移動速度、あるいは移動加速度等を用いたものとしてもよい。移動速度、移動加速度等が、例えばゼロとなった時点で所定条件が成立したものとすることができる。
 S230で、肯定判定すると、制御部130は、S240で、タイマーのカウント数をゼロに戻し、S250で、表示画面52上におけるポインタ52bの座標位置を、S210で移動した中心位置cbに更新する。尚、S230で、否定判定したときは、S220、S230を繰り返す。
 以上のように、本実施形態によれば、引込み制御の後に、指Fが実際に停止される位置に、ずれ(換言すると、バラツキ)が発生しても、表示画面52上での第2操作ボタン52a2(他の操作ボタン)内における座標位置は、中心位置cb(所定の位置)に移動、更新される。よって、次に移動される指Fのスタート位置は、操作ボタンの中心位置cbとされるので、次の指操作時に発生される引込み感のバラツキ(操作感の差)を抑えることができる。また、実際に停止した指Fの位置が第2操作ボタン52a2(他の操作ボタン)の境界線に近接した位置であると、わずかな指Fの動きに伴って、引込み用の振動が発生される、または振動が停止されると言った不安定な状態が発生し得る。しかしながら、表示画面52上での第2操作ボタン52a2内における座標位置は、中心位置cbに移動、更新されるので、そのような不具合を抑制することができる。総じて、操作者に対する違和感を与えないようにすることができる。
 また、本実施形態では、ポインタ52bの座標位置を移動させるための所定の位置を、操作ボタン内における中心位置cbとしている。これにより、次の操作時のスタート位置を、より安定した位置とすることができる。
 また、制御部130は、ポインタ52bの座標位置を移動させる際に、ポインタ52bが中心位置cbに連続的に移動するようにアニメーション表示させる。これにより、ポインタ52bは、第2操作ボタン52a2の境界領域から中心位置cbに向けて急に(飛ぶように)移動するようなことがなく、操作者は、ポインタ52bの移動状態を目で追うことができる。
 また、制御部130は、ポインタ52bの座標位置を中心位置cbに移動させたのち位置固定して、指Fの停止を想定した所定条件が成立すると、ポインタ52bの座標位置を中心位置cbに更新するようにしている。これにより、指Fが停止するまでの間、ポインタ52bの位置が細かく移動することがなく、視認しやすくなる。
 (第1実施形態の変形例)
 第1実施形態の変形例を図11、図12に示す。ここでは、制御部130は、振動の強さに極大値を持たせるために、図11に示すように、振幅は同一で、振動の周波数を変化させることで対応することができる。具体的には、指F(ポインタ52b)が第1操作ボタン52a1から中間位置cpに至る間に、振動の周波数を順次高くしていくことで、振動の強さを大きくしていく。中間位置cpにおいて周波数を最大にする。そして、指F(ポインタ52b)が、中間位置cpを超えた後に、振動の周波数を低くしていき、もとの周波数に戻すことで、振動の強さを小さくしていく。
 また、図12に示すように、制御部130は、振動の強さに極大値を持たせる際に、指数関数的に変化させるようにしてもよい。ウェーバフェヒナーの法則によると、人間の感覚量は、刺激強度の対数に比例することから、このような指数関数的な変化の付け方の方が、人間にとって分かりやすいものとすることができる。
 (第2実施形態)
 第2実施形態を図13A、図13Bに示す。第2実施形態は、第1実施形態と構成は同一としつつ、指Fの移動速度、指Fの移動加速度、引込み制御時の所定の振動の強度、または所定の振動のパターンの少なくとも1つに応じて、中間領域caの指Fの移動方向に対応する大きさを変更するようにしたものである。ここでは、指Fの移動速度に応じて、中間領域caの大きさを変更するものとしている。中間領域caは、振動発生エリアに対応する。
 即ち、図13Aに示すように、指Fの移動速度が所定値より速いとき、指Fは、中間領域caを過ぎてから停止するまでの距離が長くなると予測される。よって、中間領域caの指Fの移動方向の大きさを短くすることで、指Fが停止される位置を、第2操作ボタン52a2(他の操作ボタン)の中心位置cbに近づけることができる。
 また、図13Bに示すように、指Fの移動速度が所定値より遅いとき、指Fは、中間領域caを過ぎてから停止するまでの距離が短くなると予測される。よって、中間領域caの指Fの移動方向の大きさを長くすることで、指Fが停止される位置を、第2操作ボタン52a2(他の操作ボタン)の中心位置cbに近づけることができる。
 このように、本実施形態によれば、中間領域caの大きさを変更することで、指Fの移動速度に応じて、引込みによる指Fの停止位置を操作ボタン(52a2)上の狙いの位置(中心位置cb)に近づけることができる。よって、次に移動される指Fのスタート位置を安定させることができるので、次の操作の際に、引込みに関する操作者の違和感を与えないようにすることができる。
 尚、本実施形態においては、指Fの移動速度に代えて、指Fの移動加速度を基にして、中間領域caの大きさを変更するようにしてもよい。
 (第3実施形態)
 第3実施形態を図14A、図14Bに示す。第3実施形態は、第2実施形態と同様に、指Fの移動速度、指Fの移動加速度、引込み制御時の所定の振動の強度、または所定の振動のパターンの少なくとも1つに応じて、中間領域caの指Fの移動方向に対応する大きさを変更するようにしたものである。ここでは、引込み制御時の所定の振動の強度に応じて、中間領域caの大きさを変更するものとしている。
 即ち、図14Aに示すように、引込み制御時の振動の強度(極大値)が所定値より大きいとき、指Fは、中間領域caを過ぎてから停止するまでの距離が長くなると予測される。よって、中間領域caの指Fの移動方向の大きさを短くすることで、指Fが停止される位置を、第2操作ボタン52a2(他の操作ボタン)の中心位置cbに近づけることができる。
 また、図14Bに示すように、引込み制御時の振動の強度(極大値)が所定値より小さいとき、指Fは、中間領域caを過ぎてから停止するまでの距離が短くなると予測される。よって、中間領域caの指Fの移動方向の大きさを長くすることで、指Fが停止される位置を、第2操作ボタン52a2(他の操作ボタン)の中心位置cbに近づけることができる。
 本実施形態によれば、第2実施形態と同様に、中間領域caの大きさを変更することで、引込み制御時の振動の強度(極大値)に応じて、引込みによる指Fの停止位置を操作ボタン(52a2)上の狙いの位置(中心位置cb)に近づけることができる。よって、次に移動される指Fのスタート位置を安定させることができるので、次の操作の際に、引込みに関する操作者の違和感を与えないようにすることができる。
 尚、本実施形態においては、引込み制御時の振動の強度(極大値)に代えて、振動の強度パターンを基にして、中間領域caの大きさを変更するようにしてもよい。振動の強度パターンは、例えば、振動強度の極大値を中間領域caにおいて、指Fの移動方向のどの位置に設けるか、を示すものである。
 例えば、振動強度の極大値を移動先となる第2操作ボタン52a2(他の操作ボタン)に近い側に設定した場合であると、指Fは、振動強度の極大値を過ぎてから停止するまでの距離が長くなると予測される。よって、中間領域caの指Fの移動方向の大きさを短くすることで、指Fが停止される位置を、第2操作ボタン52a2(他の操作ボタン)の中心位置cbに近づけることができる。
 逆に、振動強度の極大値を移動元となる第1操作ボタン52a1(いずれかの操作ボタン)に近い側に設定した場合であると、指Fは、振動強度の極大値を過ぎてから停止するまでの距離が短くなると予測される。よって、中間領域caの指Fの移動方向の大きさを長くすることで、指Fが停止される位置を、第2操作ボタン52a2(他の操作ボタン)の中心位置cbに近づけることができる。
 尚、中間領域caの大きさを変更する条件として、第2実施形態、および第3実施形態の内容を組合せたものとしてもよい。
 (第4実施形態)
 第4実施形態の入力装置100Aを図15A、図15Bに示す。第4実施形態は、第1実施形態に対して、筐体113、および駆動部120の設定位置を変更し、筐体113A、および駆動部120Aとしたものである。
 筐体113Aは、板状に形成されており、操作面111の裏面側に配置されている。そして、駆動部120Aは、操作面111の裏面側に配置されている。駆動部120Aは、操作面111の裏面側と筐体113Aとの間に位置している。駆動部120Aは、例えば、x、y軸の2軸方向に振動を発生するものとなっており、操作面111の裏面側の中央部に1つ配置されている。駆動部120Aは、第1実施形態で説明した、例えば、2軸方向に振動を発生可能なボイスコイルモータ等の電磁アクチュエータが使用されている。駆動部120Aは、1つに限らず、複数個用いられるものとしてもよい。
 本実施形態においても基本的な作動は、第1実施形態と同じであり、同様の効果を得ることができる。
 (その他の実施形態)
 各実施形態では、振動の強さを制御するために、予め設けられた振動制御パラメータ(振動マップ)を使用するものとして説明したが、これに限らず、指Fの操作状態に応じて、都度、計算によって振動パターンを得るようにしてもよい。
 また、各実施形態では、引込み制御を実行するにあたって、操作面111に沿って、指Fの移動する方向の振動を発生させるものとしたが、これに代えて、操作面111に対して、交差する方向の振動を発生させて、スクイーズ効果を用いて引込み感を与えるものとしてもよい。
 また、各実施形態では、操作部110として、いわゆるタッチパッド式のもとしたが、これに限らず、液晶ディスプレイ51の表示画面52が透過されて操作面111に視認されるいわゆるタッチパネル式のものにも適用可能である。
 また、各実施形態では、操作体を操作者の指Fとして説明したが、これに限らず、ペンを模したスティックとしてもよい。
 また、各実施形態では、入力装置100、100Aによる入力制御の対象(所定の機器)として、ナビゲーション装置50としたが、これに限定されることなく、車両用の空調装置、あるいは車両用オーディオ装置等の他の機器にも適用することができる。
 本開示に記載の制御部及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサを構成する専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の制御部及びその手法は、専用ハードウエア論理回路によってプロセッサを構成する専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の制御部及びその手法は、コンピュータプログラムを実行するプロセッサと一つ以上のハードウエア論理回路との組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。
 ここで本願に記載されるフローチャート、あるいは、フローチャートの処理は、複数のステップ(あるいはセクションと言及される)から構成され、各ステップは、たとえば、S100と表現される。さらに、各ステップは、複数のサブステップに分割されることができる、一方、複数のステップが合わさって一つのステップにすることも可能である。
 以上、本開示の一態様に係る入力装置の実施形態、構成、態様を例示したが、本開示に係る実施形態、構成、態様は、上述した各実施形態、各構成、各態様に限定されるものではない。例えば、異なる実施形態、構成、態様にそれぞれ開示された技術的部を適宜組み合わせて得られる実施形態、構成、態様についても本開示に係る実施形態、構成、態様の範囲に含まれる。
 

 

Claims (5)

  1.  操作面(111)に対する操作体(F)の操作状態を検出する検出部(112)と、
     前記検出部によって検出される前記操作状態に応じて、所定の機器(50)に対する入力を行う制御部(130)と、
     前記制御部によって制御され、前記操作面を振動させる駆動部(120)と、を備える入力装置において、
     前記所定の機器は表示部(51)を有しており、前記表示部には、複数の操作ボタン(52a1~52a4)が表示され、前記操作面上における前記操作体の座標位置と、前記表示部上における前記複数の操作ボタンの座標位置とが、対応付けされるようになっており、
     前記制御部は、前記操作面上における前記操作体の移動によって、対応する前記表示部上での前記座標位置が、前記複数の操作ボタンのうち、いずれかの操作ボタン(52a1)から他の操作ボタン(52a2)に移動すると判定したとき、前記いずれかの操作ボタンと前記他の操作ボタンとの間となる中間領域(ca)で、前記駆動部によって所定の振動を前記操作面に発生させることで、前記他の操作ボタンへの引込み感を与える引込み制御を実行すると共に、
     前記操作体に対応する前記表示部上での前記座標位置が、前記他の操作ボタンの領域に入ったときに、前記表示部上での前記座標位置を前記他の操作ボタン内の所定の位置(cb)に移動させる入力装置。
  2.  前記所定の位置は、前記他の操作ボタン内の中心位置である請求項1に記載の入力装置。
  3.  前記表示部には、前記操作面上における前記操作体の位置に対応するポインタ(52b)が表示されるようになっており、
     前記制御部は、前記表示部上での前記座標位置を前記所定の位置に移動させる際に、前記ポインタが前記所定の位置に連続的に移動するようにアニメーション表示させる請求項1または請求項2に記載の入力装置。
  4.  前記制御部は、前記表示部上での前記座標位置を前記所定の位置に移動させたのち位置固定して、前記操作体の停止を想定した所定条件が成立すると、前記表示部上での前記座標位置を前記所定の位置に更新する請求項1~請求項3のいずれか1つに記載の入力装置。
  5.  操作面(111)に対する操作体(F)の操作状態を検出する検出部(112)と、
     前記検出部によって検出される前記操作状態に応じて、所定の機器(50)に対する入力を行う制御部(130)と、
     前記制御部によって制御され、前記操作面を振動させる駆動部(120)と、を備える入力装置において、
     前記所定の機器は表示部(51)を有しており、前記表示部には、複数の操作ボタン(52a1~52a4)が表示され、前記操作面上における前記操作体の座標位置と、前記表示部上における前記複数の操作ボタンの座標位置とが、対応付けされるようになっており、
     前記制御部は、前記操作面上における前記操作体の移動によって、対応する前記表示部上での前記座標位置が、前記複数の操作ボタンのうち、いずれかの操作ボタン(52a1)から他の操作ボタン(52a2)に移動すると判定したとき、前記いずれかの操作ボタンと前記他の操作ボタンとの間となる中間領域(ca)で、前記駆動部によって所定の振動を前記操作面に発生させることで、前記他の操作ボタンへの引込み感を与える引込み制御を実行すると共に、
     前記操作体の移動速度、前記操作体の移動加速度、前記所定の振動の強度、または前記所定の振動のパターンの少なくとも1つに応じて、前記中間領域の前記操作体の移動方向に対応する大きさを変更する入力装置。

     
PCT/JP2018/040701 2017-12-12 2018-11-01 入力装置 WO2019116771A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017237604A JP2019105970A (ja) 2017-12-12 2017-12-12 入力装置
JP2017-237604 2017-12-12

Publications (1)

Publication Number Publication Date
WO2019116771A1 true WO2019116771A1 (ja) 2019-06-20

Family

ID=66819114

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/040701 WO2019116771A1 (ja) 2017-12-12 2018-11-01 入力装置

Country Status (2)

Country Link
JP (1) JP2019105970A (ja)
WO (1) WO2019116771A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11009997B2 (en) 2017-12-12 2021-05-18 Denso Corporation Input device
US11079852B2 (en) 2017-12-12 2021-08-03 Denso Corporation Input device
US11132089B2 (en) 2017-12-12 2021-09-28 Denso Corporation Input device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006268154A (ja) * 2005-03-22 2006-10-05 Alps Electric Co Ltd 力覚付与型入力装置
JP2008070983A (ja) * 2006-09-12 2008-03-27 Toyota Motor Corp 入力装置
JP2010157244A (ja) * 2008-12-30 2010-07-15 Samsung Electronics Co Ltd 重力により移動される視覚的な効果を示すポインタを利用したguiの提供方法及びこれを適用した電子装置
JP2014194773A (ja) * 2013-03-28 2014-10-09 Samsung Electronics Co Ltd ディスプレイ装置のディスプレイ方法及びディスプレイ装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006268154A (ja) * 2005-03-22 2006-10-05 Alps Electric Co Ltd 力覚付与型入力装置
JP2008070983A (ja) * 2006-09-12 2008-03-27 Toyota Motor Corp 入力装置
JP2010157244A (ja) * 2008-12-30 2010-07-15 Samsung Electronics Co Ltd 重力により移動される視覚的な効果を示すポインタを利用したguiの提供方法及びこれを適用した電子装置
JP2014194773A (ja) * 2013-03-28 2014-10-09 Samsung Electronics Co Ltd ディスプレイ装置のディスプレイ方法及びディスプレイ装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11009997B2 (en) 2017-12-12 2021-05-18 Denso Corporation Input device
US11079852B2 (en) 2017-12-12 2021-08-03 Denso Corporation Input device
US11132089B2 (en) 2017-12-12 2021-09-28 Denso Corporation Input device

Also Published As

Publication number Publication date
JP2019105970A (ja) 2019-06-27

Similar Documents

Publication Publication Date Title
JP6147656B2 (ja) 入力装置
WO2019017009A1 (ja) 入力装置
WO2019116771A1 (ja) 入力装置
WO2019220838A1 (ja) 入力装置
CN109564469B (zh) 显示操作装置
US11132089B2 (en) Input device
WO2019116768A1 (ja) 入力装置
WO2019017008A1 (ja) 入力装置
JP7207017B2 (ja) 入力装置
WO2019116769A1 (ja) 入力装置
WO2018163626A1 (ja) 入力装置
WO2019012747A1 (ja) 入力装置
JP2014052787A (ja) 振動呈示装置
JP2019012351A (ja) 入力装置
WO2018230088A1 (ja) 入力装置
WO2018230089A1 (ja) 入力装置
WO2019039080A1 (ja) 入力装置
JP2019133249A (ja) 入力装置
JP2019079243A (ja) 入力装置
JP2019012352A (ja) 入力装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18888428

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18888428

Country of ref document: EP

Kind code of ref document: A1