WO2018230089A1 - 入力装置 - Google Patents

入力装置 Download PDF

Info

Publication number
WO2018230089A1
WO2018230089A1 PCT/JP2018/012272 JP2018012272W WO2018230089A1 WO 2018230089 A1 WO2018230089 A1 WO 2018230089A1 JP 2018012272 W JP2018012272 W JP 2018012272W WO 2018230089 A1 WO2018230089 A1 WO 2018230089A1
Authority
WO
WIPO (PCT)
Prior art keywords
vibration
finger
control unit
contact
load
Prior art date
Application number
PCT/JP2018/012272
Other languages
English (en)
French (fr)
Inventor
慶幸 松原
徹也 登丸
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2018230089A1 publication Critical patent/WO2018230089A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means

Definitions

  • This disclosure relates to an input device that enables an input operation using an operating body such as a finger, such as a touch pad or a touch panel.
  • An input device (electronic device) of Patent Document 1 includes a contact surface that an operating body (for example, an operator's finger) contacts, a housing that supports the contact surface, and a drive device that moves the contact surface relative to the housing. It has. The contact surface is moved by the driving device based on the position information of the operating body.
  • an operating body for example, an operator's finger
  • the contact surface is moved in the direction opposite to the moving direction of the operating body to provide a drag to the operating body, and the contact surface is moved in the same direction as the moving direction of the operating body.
  • Force inductive force
  • An object of the present disclosure is to provide an input device that can obtain a stable pull-in force by estimating an operation load of an operating body without using a load detection unit and performing vibration control based on the estimated operation load.
  • An input device includes a detection unit that detects an operation state of an operating body with respect to an operation surface serving as an operation side, and a control unit that performs input to a predetermined device according to the operation state detected by the detection unit And a drive unit that vibrates the operation surface in a direction in which the operation surface expands.
  • the control unit When the operating body is in contact with the operating surface, the control unit generates vibration on the operating surface that reciprocates in the direction of the moving destination of the operating body estimated from the operating state by the detecting unit. Vibration control is executed to control the vibration speed or acceleration to be different between the reciprocating vibration on the forward path side and the return path side.
  • the control unit grasps the contact area and the contact shape of the operation body on the operation surface from the operation state by the detection unit, estimates the operation load on the operation surface of the operation body based on the contact area and the contact shape, and controls vibration. , The speed of vibration or the magnitude of acceleration on the forward path side or the return path side is changed according to the estimated operation load.
  • vibrations with different speeds or accelerations are generated on the operation surface in the direction of the movement destination of the operating body on the forward path side and the return path side.
  • the speed or acceleration of vibration In a direction in which the speed or acceleration of vibration is large, slip occurs between the operation surface and the operation object, and the operation object is less likely to follow the movement of the operation surface and is left at that position due to the law of inertia. To be left).
  • the frictional force between the operation surface and the operation body acts, and the force that moves with the movement of the operation surface is applied to the operation body according to the law of inertia.
  • the operating body is pulled in a direction in which the vibration speed or acceleration is small.
  • control unit grasps the contact area and the contact shape of the operation body on the operation surface from the operation state by the detection unit, and based on the grasped contact area and the contact shape, calculates the operation load on the operation surface of the operation body. presume. Therefore, the setting of a dedicated load detection unit for detecting the operation load can be made unnecessary.
  • the control unit when executing the vibration control, changes the speed of vibration or the magnitude of the acceleration on the forward path side or the return path side according to the estimated operation load. Thereby, it becomes possible to suppress the change of the drawing force accompanying the operation load, and a stable drawing force can be obtained.
  • FIG. 1 is an explanatory diagram showing a mounting state of an input device in a vehicle
  • FIG. 2 is a block diagram illustrating the input device according to the first embodiment.
  • FIG. 3A is a graph for explaining the relationship of relative motion between objects
  • FIG. 3B is a graph for explaining the relationship between the vertical load and the frictional force
  • FIG. 3C is a graph for explaining the relationship between the operation load and the friction coefficient
  • FIG. 3D is a graph for explaining the relationship between the operation load and the frictional force.
  • FIG. 4 is a flowchart showing the contents of control performed by the control unit.
  • FIG. 3A is a graph for explaining the relationship of relative motion between objects
  • FIG. 3B is a graph for explaining the relationship between the vertical load and the frictional force
  • FIG. 3C is a graph for explaining the relationship between the operation load and the friction coefficient
  • FIG. 3D is a graph for explaining the relationship between the operation load and the frictional force.
  • FIG. 4 is a flowchart showing the
  • FIG. 5A is an explanatory diagram showing a state in which a finger operation in one axis direction is performed
  • FIG. 5B is an explanatory diagram illustrating a state in which a finger operation in one axis direction is performed
  • FIG. 6A is an explanatory diagram showing a state in which a finger operation in an oblique direction (biaxial direction) is performed
  • FIG. 6B is an explanatory diagram showing a state in which a finger operation in an oblique direction (biaxial direction) is performed
  • FIG. 7 is an explanatory diagram illustrating a region where a finger touches the operation surface.
  • FIG. 8 is an explanatory diagram showing respective lengths (features of contact shape) in the biaxial direction of a region touched by a finger;
  • FIG. 9 is a diagram for estimating the contact portion of the finger on the operation surface from the characteristics of the finger contact shape
  • FIG. 10 is a diagram for estimating the operation load based on the contact portion and the contact area of the finger
  • FIG. 11 is an explanatory diagram showing a point when changing the standard vibration pattern with respect to the operation load.
  • An object of the present disclosure is to provide an input device that can obtain a stable pull-in force by estimating an operation load of an operating body without using a load detection unit and performing vibration control based on the estimated operation load.
  • FIGS. 1 and 2 An input device 100 according to the first embodiment is shown in FIGS.
  • the input device 100 of this embodiment is applied to a remote operation device for operating the navigation device 50, for example.
  • the input device 100 is mounted on the vehicle 10 together with the navigation device 50.
  • the navigation device 50 corresponds to a predetermined device of the present disclosure.
  • the navigation device 50 is a route guidance system that displays the current position information of the vehicle on the map, traveling direction information, or guidance information for a destination desired by the operator. As shown in FIG. 1, the navigation device 50 has a liquid crystal display 51 as a display unit. The liquid crystal display 51 is disposed at the center of the instrument panel 13 of the vehicle 10 in the vehicle width direction, and the display screen 52 is visually recognized by the operator.
  • the navigation device 50 is formed separately from the input device 100, and is set at a position away from the input device 100.
  • the navigation device 50 and the input device 100 are connected to each other by, for example, a Controller Area Network bus (CAN bus (registered trademark)).
  • CAN bus Controller Area Network bus
  • the display screen 52 of the liquid crystal display 51 displays the position of the vehicle on the map, and various operation buttons 52a for enlarged display, reduced display, destination guidance setting, and the like are displayed.
  • the operation button 52a is a so-called operation icon.
  • a pointer 52b designed in an arrow shape is displayed so as to correspond to the position of the operator's finger F (operation body) on an operation unit 110 (operation surface 111) described later. It is like that.
  • the input device 100 is provided at a position adjacent to the armrest 12 in the center console 11 of the vehicle 10, and is disposed in a range that can be easily reached by the operator.
  • the input device 100 includes an operation unit 110, a drive unit 120, a control unit 130, and the like.
  • the operation unit 110 forms a so-called touch pad, and is a part for performing an input operation on the navigation device 50 by an operator's finger F.
  • the operation unit 110 includes an operation surface 111, a touch sensor 112, and the like.
  • the operation surface 111 is exposed to the operator side at a position adjacent to the armrest 12, and is a flat surface part on which the operator performs finger operations. For example, a material that improves the sliding of the finger over the entire surface is provided. It is formed by that. It is set so that input for operations (selection, push determination, etc.) for various operation buttons 52a displayed on the display screen 52 can be performed by an operator's finger operation on the operation surface 111.
  • the operation button 52a on the display screen 52 corresponds to “the movement destination of the operation object estimated from the operation state” on the operation surface of the present disclosure.
  • the touch sensor 112 is, for example, a capacitance type detection unit provided on the back side of the operation surface 111.
  • the touch sensor 112 is formed in a rectangular flat plate shape, and detects an operation state of the sensor surface with the operator's finger F.
  • the touch sensor 112 includes electrodes extending along the x-axis direction (FIGS. 5A, 5B, 6A, and 6B) on the operation surface 111 and in the y-axis direction (FIGS. 5A, 5B, 6A, and 6B).
  • the electrodes extending along the lines are formed in a grid pattern. Each of these electrodes is connected to a control unit 130 described later.
  • Each electrode generates a capacitance (predetermined capacitance value) at the position of the operator's finger F close to the sensor surface (in operation position coordinates), and the generated capacitance
  • the signal (sensitivity value) is output to the control unit 130.
  • the sensor surface is covered with an insulating sheet made of an insulating material. Note that the touch sensor 112 is not limited to a capacitance type, and various types such as other pressure-sensitive types can be used.
  • the operation surface 111 and the touch sensor 112 are supported by a casing.
  • the housing is disposed, for example, inside the center console 11.
  • the driving unit 120 vibrates the operation surface 111 in two directions of the x and y axes in the direction in which the operation surface 111 spreads, and is provided on at least one of the four sides around the operation surface 111.
  • the drive unit 120 is connected to a control unit 130, which will be described later, and the generation of vibration is controlled by the control unit 130.
  • the drive unit 120 generates vibration in one axial direction (x-axis direction or y-axis direction) on the operation surface 111 by enabling vibration in only one axial direction out of the two axial directions.
  • the operation surface 111 can generate oblique vibrations that are a combination of both vibrations.
  • the drive unit 120 can operate so that the vibration speed or acceleration differs on the forward and backward sides of the reciprocating vibration.
  • an electromagnetic actuator such as a solenoid or a voice coil motor, a vibrating body such as a piezo, or a combination of a vibrating body and a spring
  • the driving unit 120 is formed by providing one vibrating body on at least one of the four sides around the operation surface 111. be able to.
  • the driving unit 120 is provided by providing one vibrating body (two in total) on each of two adjacent sides around the operation surface 111. Can be formed.
  • the drive unit 120 can be formed by providing a combination of a uniaxial vibrating body and a spring on opposite sides and providing two sets so that the vibration directions are orthogonal.
  • the control unit 130 includes a CPU, a RAM, a storage medium, and the like. From the signal obtained from the touch sensor 112, the control unit 130 determines the operation state of the finger F of the operator as the contact position of the finger F on the operation surface 111 (the position of the pointer 52b on the display screen 52), the contact area, and the contact. The shape, the direction from the operator's finger F (pointer 52b) to the nearest operation button 52a, the distance from the operator's finger F (pointer 52b) to the nearest operation button 52a, etc. get.
  • control unit 130 acquires the presence / absence of a pressing operation at a position corresponding to the operation button 52a on the operation surface 111 as the operation state. And the control part 130 controls the generation
  • the configuration of the input device 100 of the present embodiment is as described above. Hereinafter, the operation and effect will be described with reference to FIGS. 3A to 11.
  • the frictional force Fr between the operator's finger F and the operation surface 111 in the input device 100 varies with the operation load W that varies depending on the operation state of the operator. It is calculated by multiplying by the friction coefficient ⁇ 1.
  • control content executed by the control unit 130 will be described with reference to the flowchart shown in FIG.
  • the control unit 130 determines whether or not the operator's finger F is touching (contacting) the operation surface 111 based on a signal obtained from the touch sensor 112 in S100 illustrated in FIG. If the determination is NO, the control unit 130 stops generating vibration on the operation surface 111 by the drive unit 120 in S110, repeats S100, and proceeds to S120 if a positive determination is made.
  • the display of the pointer 52b on the display screen 52 becomes effective, and the operation surface 111 is displayed.
  • a pointer 52b is displayed on the display screen 52 so as to correspond to the contact position of the operator's finger F above.
  • control unit 130 calculates the contact area where the finger F is touching the operation surface 111 from the signal obtained from the touch sensor 112 (FIG. 7).
  • the contact area is calculated as the area of the region where the capacitance is generated among the electrodes in the touch sensor 112. Note that the contact position of the finger F can be grasped as, for example, the center position of the contacted area.
  • the control unit 130 extracts a feature of a shape (contact shape) in which the finger F is touching the operation surface 111.
  • the control unit 130 determines the difference between the maximum value and the minimum value in the x-axis direction as the X length (length in the x-axis direction) and the maximum value and the minimum value in the y-axis direction in the contact region.
  • the Y length the length in the y-axis direction
  • the contact shape is extracted with the ratio of both lengths (X length / Y length).
  • the X length corresponds to the length in the predetermined direction of the present disclosure
  • the Y length corresponds to the length in the orthogonal direction of the present disclosure.
  • the ratio of both lengths will be referred to as the aspect ratio A.
  • the center axis (long axis and short axis) of the contact region (ellipse) is illustrated as having no inclination with respect to the x axis and the y axis.
  • the aspect ratio A when the aspect ratio A is relatively small, it indicates that the contact shape is an elongated ellipse, and when the aspect ratio A is relatively large, the contact shape is close to a circle. In addition, if the aspect ratio A is an intermediate value, it indicates that the contact shape is close to an ellipse that is normally imaged.
  • the control unit 130 estimates the part (contact part) of the finger F that touches the operation surface 111 based on the aspect ratio A as shown in the lower part of FIG.
  • FIG. 9 is an example of a finger part table for estimating the contact part of the finger F, and shows a case where there are three types of contact parts to be estimated.
  • the contact shape is an elongated ellipse
  • the control unit 130 estimates that the contact portion is the side surface of the finger F.
  • the contact shape is a general ellipse
  • the control unit 130 estimates that the contact site is the belly of the finger F.
  • the contact shape is close to a circle, and the control unit 130 estimates that the contact site is the tip (fingertip) of the finger F. .
  • the control unit 130 estimates the operation load W of the finger F on the operation surface 111 from the contact portion and the contact area of the finger F, as shown in FIG.
  • FIG. 10 is an example of an operation load table for estimating the operation load W. For each contact part, three levels of contact areas are set, and the corresponding three levels of operation loads (1 to 3) are set. It is supposed to be estimated.
  • 20 and 30 are used as threshold values for determining the size of the contact area at each contact site, and when touching with the belly of the finger F, 80 and 120 are used. When touched with 40, 60 and 60 are used.
  • the operation load W is estimated according to a contact area for every contact site.
  • the operation load W is set to increase as the operation area increases. In FIG. 10, the operation load 1 ⁇ the operation load 2 ⁇ the operation load 3 is satisfied.
  • the operation area is set so that the condition of the operation area increases in the order of the side surface of the finger F, the fingertip, and the belly of the finger even when the operation load W is at the same level.
  • the control unit 130 determines whether or not the operator's finger F is selecting any one of the operation buttons 52a among the various operation buttons. The control unit 130 determines that the position of the operator's finger F is selected (Yes) when the position of the operator's finger F overlaps any of the operation buttons 52a, and the position of the operator's finger F is any of the operation buttons 52a. If it is a position that does not overlap, it is determined that it is not being selected (No).
  • control unit 130 determines NO in S160, the control unit 130 proceeds to S170.
  • control unit 130 estimates the operation button 52a that is the movement destination of the finger F from the operation state of the operator's finger F.
  • the operation button 52a closest to the current position of the finger F is estimated as the operation button 52a to be moved.
  • the control unit 130 calculates a vector from the position of the pointer 52b (the position of the operator's finger F on the operation surface 111) on the display screen 52 to the position of the operation button 52a to which the operator's finger F is to move. calculate. In calculating the vector, the control unit 130 determines the distance (vector length) between the position of the pointer 52b and the position of the operation button 52a and the direction (vector direction) from the position of the pointer 52b toward the position of the operation button 52a. calculate.
  • control unit 130 sets a standard vibration pattern for generating a pulling force in the direction of the calculated vector, and partially changes the standard vibration pattern according to the operation load W estimated in S150. To do.
  • the control unit 130 first sets a vibration that reciprocates in the calculated vector direction (direction of the movement destination of the operating body) as a standard vibration pattern.
  • the vector direction is one of the two axial directions of xy (for example, the y-axis direction), as shown in FIGS. 5A and 5B, either one of the axes Set the vibration along the direction.
  • the control unit 130 sets the vibration in the oblique direction obtained by the synthesis in the two axis directions as shown in FIGS. 6A and 6B.
  • the control unit 130 sets the vibration speed or acceleration to be different between the reciprocating vibration forward path side and the return path side.
  • the forward side is the direction in which the operator's finger F is about to move, and as shown by the solid line in the waveform example in FIG. Set the standard vibration pattern to be smaller.
  • the acceleration is shown as a vibration control object as an example of the vibration speed or acceleration.
  • control unit 130 sets a changed vibration pattern in which the magnitude of the speed or acceleration in the standard vibration pattern is changed according to the estimated operation load W.
  • the changed vibration pattern is indicated by a broken line in the waveform example in FIG.
  • the setting procedure of the changed vibration pattern is as follows. That is, when the operation load W is greater than a predetermined range of load, the control unit 130 sets the speed or acceleration on the return path side to be large while leaving the forward path side in the standard vibration pattern as it is (upper stage in FIG. 11). ). Further, when the operation load W is smaller than the load in the specified range, the control unit 130 sets the speed or acceleration on the forward path side to be small while keeping the return path side in the standard vibration pattern as it is (lower stage in FIG. 11). If the operation load W is within a specified range, the standard vibration pattern is set to be used as it is without being changed (middle stage in FIG. 11).
  • the vibration speed or acceleration can be increased by increasing the vibration amplitude, and the vibration speed or acceleration can be decreased by decreasing the vibration amplitude.
  • the vibration speed or acceleration can be increased, and by reducing the vibration frequency, the vibration speed or acceleration can be decreased.
  • the duty ratio the speed or acceleration on the return path side can be increased, and the speed or acceleration on the forward path side can be decreased.
  • the speed or acceleration on the return path side can be reduced, and the speed or acceleration on the forward path side can be increased.
  • the control unit 130 drives the drive unit 120 so that the vibration pattern (standard vibration pattern or changed vibration pattern) set according to the direction of the vector and the operation load W is obtained, and the operation is performed.
  • the surface 111 is vibrated. Note that the addition of vibration to the operation surface 111 based on the standard vibration pattern corresponds to the vibration control of the present disclosure.
  • the control unit 130 repeats S100 and S120 to S190 until the operator's finger F selects the operation button 52a desired by the operator (Yes in S160).
  • the control unit 130 determines in S200 whether or not there has been a pressing operation on the operation button 52a.
  • the push-in operation is an operation that indicates selection of the operation button 52a by the operator, and is performed when the operator pushes a finger on the operation surface 111 at a position corresponding to the operation button 52a. If an affirmative determination is made in S200, the control unit 130 performs an indentation determination process in S210. That is, an instruction corresponding to the operation button 52a is given to the navigation device 50. If a negative determination is made in S200, the process returns to S100.
  • the control unit 130 generates vibration (click feeling vibration) for giving a click feeling to the operator's finger F.
  • vibration click feeling vibration
  • the drive unit 120 is diverted so that the operator can recognize that the push-in operation has been performed by vibrating the drive unit 120 once.
  • the control unit 130 causes the operator's finger F to move to the destination (operation button 52a) on the operation surface 111. Vibrations with different speeds or accelerations are generated on the forward path side and the return path side (vibration control using a standard vibration pattern). In a direction where the speed or acceleration of vibration is large, slip occurs between the operation surface 111 and the finger F, and due to the law of inertia, the operator's finger F hardly follows the movement of the operation surface 111. The shape is left behind in the position.
  • the forward path side of the vibration is set as the direction of the movement destination, and the control unit 130 is configured to reduce the speed or acceleration on the forward path side with respect to the drive unit 120 rather than the return path side. Thereby, it is possible to generate a retraction force that causes the operator's finger F approaching the operation button 52a to be retracted by the operation button 52a.
  • control unit 130 grasps (detects) the contact area and contact shape of the finger F on the operation surface 111 from the operation state of the touch sensor 112, and based on the grasped contact area and contact shape, the finger F
  • the operation load W on the operation surface 111 is estimated. Therefore, setting of a dedicated load detection unit for detecting the operation load W can be made unnecessary.
  • control unit 130 changes the speed of vibration or the magnitude of acceleration on the forward path side or the return path side according to the estimated operation load W.
  • control unit 130 increases the vibration speed or acceleration on the return path side with respect to the standard vibration pattern.
  • the frictional force Fr also increases, and the finger F becomes less likely to slip on the operation surface 111, and the finger F repeatedly moves without slipping in both the forward and backward directions of vibration. The position of the finger F does not change (the pulling force cannot be obtained).
  • the speed or acceleration on the return path side is made larger than the standard vibration pattern (the upper stage in FIG. 11) so that more slippage between the operation surface 111 and the finger F occurs. be able to. Accordingly, it is possible to make it difficult for the finger F to follow the movement of the operation surface 111 on the return path side of the vibration, and even when the operation load W is large, the finger F is prevented from moving toward the return path side (the direction opposite to the retracting direction). can do.
  • control unit 130 reduces the speed or acceleration of the outward vibration with respect to the standard vibration pattern.
  • the frictional force Fr is also reduced, so that the finger F is easily slipped on the operation surface 111 and is not easily moved with respect to the movement of the operation surface 111 on the forward path side of vibration (the pull-in force is reduced). ). Therefore, the finger F becomes slippery in both directions of the forward path and the return path of the vibration, and as a result, the finger F does not move (a pulling force cannot be obtained).
  • the speed or acceleration on the forward path side is made smaller than the standard vibration pattern (the lower stage in FIG. 11), and slippage between the operation surface 111 and the finger F can be made difficult to occur. Therefore, the finger F can easily follow the movement of the operation surface 111 on the forward path side of vibration, and the finger can easily move to the forward path side (retraction side) even when the operation load W is small.
  • the control unit 130 when executing the vibration control, the control unit 130 does not require the setting of the dedicated load detection unit, and according to the estimated operation load W, the vibration speed or acceleration on the forward path side or the return path side is determined. By changing the size, it becomes possible to suppress a change in the pulling force accompanying the operation load W, and a stable pulling force can be obtained. With the stable pulling force, the pulling tactile sensation is maintained equally regardless of the operation load W.
  • control unit 130 extracts (understands) the contact shape used when estimating the operation load W by using the ratio (aspect ratio A) between the X length and the Y length of the area touched by the finger F. Like to do. Thereby, a contact shape can be extracted easily and accurately.
  • control unit 130 estimates the contact portion of the finger F with respect to the operation surface 111 (the side surface of the finger F, the stomach, the fingertip, etc.) from the contact shape, and estimates the operation load W with respect to the contact area for each contact portion. ing. Thereby, the error at the time of estimating operation load W can be controlled by considering a contact part compared with the case where operation load W is simply estimated only based on a contact area.
  • control unit 130 acquires a pressing operation on the operation surface 111 as an operation state from the touch sensor 112 (S200), the control unit 130 applies a force to the operator's finger F, unlike the vibration for pulling in the driving unit 120.
  • a click feeling vibration that gives a click feeling is generated (S220). Accordingly, the driver 120 can be used to make the operator recognize the selection determination operation.
  • patterns 1 to 3 are used to estimate the contact site.
  • the present invention is not limited to this. There may be two patterns or four or more patterns.
  • the contact area is set to 3 levels, and the corresponding operation load W (1 to 3) is set to 3 levels.
  • the level of the contact area (operation load W) can be arbitrarily set.
  • threshold values for determining the size of the contact area in order to estimate the operation load W.
  • it is not limited to this, and can be set to an arbitrary value.
  • the major axis and the minor axis of the ellipse in the region where the finger F is touched on the operation surface 111 are exemplified as having no inclination with respect to the x axis and the y axis. Therefore, it can be applied to those having an inclination.
  • the operation load W may be estimated by calculating the inclination of the ellipse, calculating the aspect ratio A in consideration of the inclination.
  • the inclination of the ellipse can be calculated by a known method such as approximation by the least square method or “Very Fast Ellipse Detection for Embedded Vision Applications”.
  • the control unit 130 determines the operation button 52a closest to the current position of the finger F when estimating the operation button 52a to which the finger F is moved from the operation state of the operator's finger F.
  • 52a is estimated as the operation button 52a of the movement destination.
  • the present invention is not limited to this, and for example, the operation button 52a frequently used by the operator in the past predetermined period may be estimated as the operation button 52a that is the movement destination.
  • the operation button 52a ahead of the operator's finger F to be moved may be estimated as the operation button 52a to be moved.
  • the pulling force is generated on the operation button 52a side with respect to the operator's finger F approaching the operation button 52a, but in addition, the operator's finger F is operated by the operator's finger F.
  • a pulling force toward the operation button 52a may be generated.
  • vibration is generated in the direction in which the operator's finger F moves away from the operation button 52a, the direction in which the operator's finger F moves away is the forward path side, and the opposite direction to the forward path side is the return path side.
  • the acceleration may be made smaller than that on the outward path side.
  • the operation unit 110 is based on a so-called touch pad type.
  • the operation unit 110 is not limited to this configuration, and is a so-called touch panel type in which the display screen 52 of the liquid crystal display 51 is transmitted and visually recognized on the operation surface 111. It is also applicable to
  • the operation body is described as the operator's finger F.
  • the operation body is not limited thereto, and may be a stick imitating a pen.
  • the navigation device 50 is used as an input control target (predetermined device) by the input device 100.
  • predetermined device predetermined device
  • the present invention is not limited to this, and the vehicle air conditioner, the vehicle audio device, etc. It can be applied to other devices.
  • each step is expressed as S100, for example. Further, each step can be divided into a plurality of sub-steps, while a plurality of steps can be combined into one step.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

入力装置は、操作側となる操作面(111)に対する操作体(F)の操作状態を検出する検出部(112)と、検出される操作状態に応じて、所定の機器(50)に対する入力を行う制御部(130)と、操作面の拡がる方向に操作面を振動させる駆動部(120)と、が設けられ、操作体が操作面に接触するときに、駆動部に対して制御部が、検出部による操作状態から推定される操作体の移動先(52a)の方向に往復する振動を操作面に発生させると共に、往復する振動の往路側と復路側とで振動の速度あるいは加速度が異なるように制御する振動制御を実行する。制御部は、操作状態から、操作面における操作体の接触面積および接触形状を把握して、接触面積および接触形状を基に操作体の操作面に対する操作荷重(W)を推定すし、振動制御を実行する際に、操作荷重に応じて、往路側あるいは復路側における振動の速度あるいは加速度の大きさを変更する。

Description

入力装置 関連出願の相互参照
 本出願は、2017年6月13日に出願された日本国特許出願2017-116209号に基づくものであり、ここにその記載内容を参照により援用する。
 本開示は、タッチパッドやタッチパネルのように、指等の操作体による入力操作を可能とする入力装置に関するものである。
 従来の入力装置として、例えば、特許文献1に記載されたものが知られている。特許文献1の入力装置(電子機器)は、操作体(例えば操作者の指)が接触する接触面と、接触面を支持する筐体と、筐体に対して接触面を移動させる駆動装置とを備えている。そして、操作体の位置情報をもとに、駆動装置によって接触面が移動されるようになっている。
 これにより、操作体の移動方向に対して逆方向に接触面を移動させることで、操作体に対して抗力を与え、また操作体の移動方向と同一方向に接触面を移動させることで、引き込み力(誘導力)を与えるようになっている。
JP2016-184428 A
 本開示は、荷重検出部を用いることなく操作体の操作荷重を推定して、推定した操作荷重に基づいて振動制御することで、安定的な引込み力が得られる入力装置を提供することを目的とする。
 本開示の一態様による入力装置は、操作側となる操作面に対する操作体の操作状態を検出する検出部と、検出部によって検出される操作状態に応じて、所定の機器に対する入力を行う制御部と、操作面の拡がる方向に操作面を振動させる駆動部と、が設けられる。操作体が操作面に接触しているときに、駆動部に対して制御部が、検出部による操作状態から推定される操作体の移動先の方向に往復する振動を操作面に発生させると共に、往復する振動の往路側と復路側とで振動の速度あるいは加速度が異なるように制御する振動制御を実行する。制御部は、検出部による操作状態から、操作面における操作体の接触面積および接触形状を把握して、接触面積および接触形状を基に操作体の操作面に対する操作荷重を推定すると共に、振動制御を実行する際に、推定した操作荷重に応じて、往路側あるいは復路側における振動の速度あるいは加速度の大きさを変更する。
 本開示によれば、制御部によって、振動制御が実行されると、操作面において、操作体の移動先の方向に往路側と復路側とで、速度あるいは加速度が異なる振動が発生される。振動の速度あるいは加速度が大きい方向においては、操作面と操作体との間に滑りが発生して、慣性の法則によって、操作体は、操作面の動きに追従しにくく、その位置に取り残される(置いていかれる)形となる。逆に、振動の速度あるいは加速度が小さい方向においては、操作面と操作体との間の摩擦力が作用して、慣性の法則によって、操作体には、操作面の動きと共に移動される力が働きやすくなり、総じて操作体は、振動の速度あるいは加速度が小さい方向に引込まれる形となる。
 よって、振動制御を実行することで、小さな可動領域で、振動の速度あるいは加速度が小さい側に効果的な引込み力を得ることができる。したがって、従来技術のように、操作体の移動量が大きい場合に、これに応じて接触面の移動量も大きくしなければならないといった問題を無くすことができる。
 操作体による操作荷重が変化すると、操作面と操作体との間の摩擦力が変化する。これに伴い、操作面と操作体との間の滑り状態が変化して、引込み力が変化してしまう。つまり、引込みの触覚が変化してしまう。
 本開示では、制御部は、検出部による操作状態から操作面における操作体の接触面積および接触形状を把握し、この把握した接触面積および接触形状を基に、操作体の操作面に対する操作荷重を推定する。よって、操作荷重を検出するための専用の荷重検出部の設定を不要とすることができる。
 そして、制御部は、振動制御を実行する際に、推定した操作荷重に応じて、往路側あるいは復路側における振動の速度あるいは加速度の大きさを変更するようにしている。これにより、操作荷重に伴う、引込み力の変化を抑制することが可能となり、安定的な引込み力を得ることができる。
 本開示についての上記および他の目的、特徴や利点は、添付図面を参照した下記詳細な説明から、より明確になる。添付図面において、
図1は、車両における入力装置の搭載状態を示す説明図であり、 図2は、第1実施形態における入力装置を示すブロック図であり、 図3Aは、物体同士の相対運動の関係を説明するためのグラフであり、 図3Bは、垂直荷重と摩擦力との関係を説明するためのグラフであり、 図3Cは、操作荷重と摩擦係数との関係を説明するためのグラフであり、 図3Dは、操作荷重と摩擦力との関係を説明するためのグラフであり、 図4は、制御部が行う制御内容を示すフローチャートであり、 図5Aは、1軸方向への指操作が行われる様子を示す説明図であり、 図5Bは、1軸方向への指操作が行われる様子を示す説明図であり、 図6Aは、斜め方向(2軸方向)への指操作が行われる様子を示す説明図であり、 図6Bは、斜め方向(2軸方向)への指操作が行われる様子を示す説明図であり、 図7は、操作面に対して指が触れた領域を示す説明図であり、 図8は、指が触れた領域の2軸方向のそれぞれの長さ(接触形状の特徴)を示す説明図であり、 図9は、指の接触形状の特徴から、操作面への指の接触部位を推定するための図であり、 図10は、指の接触部位と接触面積とに基づいて、操作荷重を推定するための図であり、 図11は、操作荷重に対して標準振動パターンを変更する際の要領を示す説明図である。
 特許文献1の入力装置では、操作体の移動量が大きい場合では、これに応じて接触面の移動量も大きくする必要が生ずる。したがって、筐体において接触面の可動範囲を大きくとる必要が生じ、筐体の大型化を招き、現実性に欠けるものとなってしまう。
 そこで、本願発明者らは、先の出願(特願2017-44196)において、操作体の移動先の方向に往復する振動を操作面に発生させると共に、往復する振動の往路側と復路側とで振動の速度あるいは加速度が異なるように制御する入力装置を提案した。
 この入力装置においては、振動の速度あるいは加速度が大きい方向においては、操作面と操作体との間に滑りが発生して、慣性の法則によって、操作体は、操作面の動きに追従しにくく、その位置に取り残される形となる。逆に、振動の速度あるいは加速度が小さい方向においては、操作面と操作体との間の摩擦力が作用して、慣性の法則によって、操作体には、操作面の動きと共に移動される力が働きやすくなる。
 これにより、小さな可動領域で、振動の速度あるいは加速度が小さい側に効果的な引込み力を得ることができるようにし、従来技術のように、操作体の移動量が大きい場合に、これに応じて接触面の移動量も大きくしなければならないといった問題を解消するようにした。
 しかしながら、操作体の操作面に対する操作荷重(押圧力)によっては、操作面と操作体との間の摩擦力が変化して、安定的な引込み力が得られない場合があり、引込みの触覚が異なってしまうことが分かった。よって、操作荷重に応じて発生させる振動を制御することが考えられるが、操作荷重を把握するための荷重検出部が新たに必要となり、構成部品の増加(コストアップ)を伴ってしまう。
 本開示は、荷重検出部を用いることなく操作体の操作荷重を推定して、推定した操作荷重に基づいて振動制御することで、安定的な引込み力が得られる入力装置を提供することを目的とする。
 以下に、図面を参照しながら本開示を実施するための複数の実施形態を説明する。
 (第1実施形態)
 第1実施形態の入力装置100を図1~図11に示す。本実施形態の入力装置100は、例えば、ナビゲーション装置50を操作するための遠隔操作デバイスに適用したものである。入力装置100は、ナビゲーション装置50と共に、車両10に搭載されている。ナビゲーション装置50は、本開示の所定の機器に対応する。
 ナビゲーション装置50は、地図上における自車の現在位置情報、進行方向情報、あるいは操作者の希望する目的地への案内情報等を表示する航路誘導システムである。図1に示すように、ナビゲーション装置50は、表示部としての液晶ディスプレイ51を有している。液晶ディスプレイ51は、車両10のインストルメントパネル13の車両幅方向の中央部に配置されて、表示画面52が操作者によって視認されるようになっている。
 ナビゲーション装置50は、入力装置100に対して別体で形成されており、入力装置100から離れた位置に設定されている。ナビゲーション装置50と入力装置100とは、例えば、Controller Area Networkバス(CANバス(登録商標))によって接続されている。
 液晶ディスプレイ51の表示画面52には、地図上における自車位置が表示されると共に、地図の拡大表示、縮小表示、および目的地案内設定等のための各種操作ボタン52aが表示されるようになっている(図5A、図5B、図6A、図6B)。操作ボタン52aは、いわゆる操作アイコンと呼ばれるものである。また、表示画面52には、後述する操作部110(操作面111)における操作者の指F(操作体)の位置に対応するように、例えば、矢印状にデザインされたポインタ52bが表示されるようになっている。
 入力装置100は、図1、図2に示すように、車両10のセンターコンソール11にて、アームレスト12と隣接する位置に設けられ、操作者の手の届き易い範囲に配置されている。入力装置100は、操作部110、駆動部120、および制御部130等を備えている。
 操作部110は、いわゆるタッチパッドを形成するものであり、操作者の指Fによって、ナビゲーション装置50に対する入力操作を行う部位となっている。操作部110は、操作面111、およびタッチセンサ112等を有している。
 操作面111は、アームレスト12と隣接する位置で操作者側に露出して、操作者が指操作を行う平面部となっており、例えば、表面全体にわたって指の滑りを良くする素材等が設けられることで形成されている。操作面111上における操作者の指操作により、表示画面52に表示される各種操作ボタン52aに対する操作(選択、押込み決定等)のための入力ができるように設定されている。表示画面52における操作ボタン52aは、本開示の操作面における「操作状態から推定される操作体の移動先」に対応する。
 タッチセンサ112は、操作面111の裏面側に設けられた、例えば、静電容量式の検出部である。タッチセンサ112は、矩形の平板状に形成されており、センサ表面に対する操作者の指Fによる操作状態を検出するようになっている。
 タッチセンサ112は、操作面111上のx軸方向(図5A、図5B、図6A、図6B)に沿って延びる電極と、y軸方向(図5A、図5B、図6A、図6B)に沿って延びる電極とが格子状に配列されることにより形成されている。これら各電極は、後述する制御部130と接続されている。
 各電極は、センサ表面に近接する操作者の指Fの位置で(操作位置座標で)、静電容量(所定の静電容量値)を発生させるようになっており、発生される静電容量の信号(感度値)が制御部130に出力されるようになっている。センサ表面は、絶縁材よりなる絶縁シートによって覆われている。尚、タッチセンサ112としては、静電容量式のものに限らず、他の感圧式等、各種タイプのものを使用することができる。
 操作面111およびタッチセンサ112は、筐体によって支持されている。筐体は、例えば、センターコンソール11の内部に配置されている。
 駆動部120は、操作面111の拡がる方向に操作面111を、x、y軸の2軸方向に振動させるものであり、操作面111の周囲4辺の少なくとも1辺に設けられている。駆動部120は、後述する制御部130と接続されており、制御部130によって振動発生の制御がなされるようになっている。
 駆動部120は、2軸方向のうち、1軸方向のみの振動を有効にすることで、操作面111には1軸方向(x軸方向、あるいはy軸方向)の振動を発生させ、また、2軸方向の振動を同時に有効にすることにより、操作面111には両振動を合成した斜め方向の振動を発生させることができるようになっている。
 また、駆動部120は、往復する振動の往路側と復路側とにおいて、振動の速度あるいは加速度が異なるように作動することができるようになっている。
 駆動部120としては、例えば、ソレノイド、ボイスコイルモータ等の電磁アクチュエータ、あるいはピエゾ等の振動体、更には、振動体とバネとが組み合わされたもの等を用いることができる。例えば、1つの振動体が2軸方向の振動を発生させるものであれば、操作面111の周囲4辺のうち少なくとも1つの辺部に1つの振動体を設けることで、駆動部120を形成することができる。あるいは、振動体が1軸方向のみの振動を発生させるものであれば、操作面111の周囲の隣合う2つの辺部にそれぞれ1つの振動体(合計2つ)を設けることで、駆動部120を形成することができる。あるいは、1軸方向の振動体とバネとの組合せを、対向する辺部に設けて、振動方向が直交するように2組設けることで駆動部120を形成することができる。
 制御部130は、CPU、RAM、および記憶媒体等を有している。制御部130は、タッチセンサ112から得られる信号から、操作者の指Fの操作状態として、操作面111上における指Fの接触位置(表示画面52上のポインタ52bの位置)、接触面積、接触形状、各種操作ボタン52aのうち操作者の指F(ポインタ52b)から一番近い操作ボタン52aへの方向、および操作者の指F(ポインタ52b)から一番近い操作ボタン52aまでの距離等を取得する。
 加えて、制御部130は、操作状態として、操作面111上において、操作ボタン52aに相当する位置での押込み操作の有無等を取得する。そして、制御部130は、これらの操作状態に応じて駆動部120による振動の発生状態を制御するようになっている(詳細後述)。
 本実施形態の入力装置100の構成は以上のようになっており、以下、作動および作用効果について、図3A~図11を加えて説明する。
 まず、本入力装置100における操作荷重Wと、摩擦力Frとの関係について、図3A~図3Dを用いて、簡単に説明しておく。
 図3Aに示すように、一般的に物体同士が相対運動することで発生する摩擦力Frは物体固有の摩擦係数μに垂直抗力(=垂直荷重=操作荷重)Nを乗ずることで算出できると知られている。したがって、操作面111上における指Fに対する摩擦力Frによってもたらされる本入力装置100での引込み力は、垂直荷重N、つまり操作荷重Wによって変化する。
 ここで、図3Bに示すように、摩擦係数μは、変形のない剛体であれば物体固有の値をもち、物体固有の値は垂直荷重Nには依存しない(μ=一定)。しかしながら、図3Cに示すように、操作者の指F等の弾性体では、操作荷重Wによって接触部が変形することで、接触部の変形に応じて真の接触面積が変動し、摩擦係数μも変化する(μ1=変動)ことも知られている。
 したがって、図3Dに示すように、本入力装置100における操作者の指Fと操作面111との摩擦力Frは、操作者の操作状態に応じて変動する操作荷重Wと、それに伴って変化する摩擦係数μ1とを乗じて算出されることになる。
 以下、制御部130が実行する制御内容について、図4に示すフローチャートを用いて説明する。
 まず、制御部130は、図4に示すS100で、タッチセンサ112から得られる信号によって、操作者の指Fが操作面111にタッチ(接触)しているか否かを判定する。制御部130は、否と判定すれば、S110で、駆動部120による操作面111への振動発生を停止して、S100を繰り返し、肯定判定すれば、S120に移行する。尚、図5A、図5B、図6A、図6Bに示すように、操作者の指Fが操作面111にタッチされると、表示画面52におけるポインタ52bの表示が有効となって、操作面111上における操作者の指Fの接触位置に対応するように、ポインタ52bが表示画面52に表示される。
 S120では、制御部130は、タッチセンサ112から得られる信号から、指Fが操作面111に触れている接触面積を算出する(図7)。接触面積は、タッチセンサ112における各電極のうち、静電容量の発生した領域の面積として算出される。尚、指Fの接触位置は、例えば、接触している領域の中心位置として捉えることができる。
 次に、S130で、制御部130は、指Fが操作面111に触れている形状(接触形状)の特徴を抽出する。制御部130は、図8に示すように、接触領域において、x軸方向の最大値と最小値との差をX長(x軸方向の長さ)、y軸方向の最大値と最小値との差をY長(y軸方向の長さ)とし、両長さの比(X長/Y長)をもって、接触形状を抽出する。X長は、本開示の所定方向の長さに対応し、Y長は、本開示の直交方向の長さに対応する。両長さの比を以下、縦横比Aと呼ぶことにする。
 尚、図7、図8では、接触領域(楕円)の中心軸(長軸および短軸)は、x軸およびy軸に対して傾きのないものとして例示している。
 図9の中段に示すように、縦横比Aが相対的に小さいと、接触形状は極めて細長い楕円であることを示し、また、縦横比Aが相対的に大きいと接触形状は、円に近いものであることを示し、更に、縦横比Aが中間的な値であると、接触形状は、通常イメージされる楕円に近いものであることを示す。
 次に、S140で、制御部130は、操作面111に触れる指Fの部位(接触部位)を、図9の下段に示すように、縦横比Aに基づいて推定する。図9は、指Fの接触部位を推定するための指の部位テーブルの一例であり、推定する接触部位を3種類とした場合を示している。
 例えば、縦横比Aが0.3よりも小さい場合であると、接触形状は、細長の楕円となり、制御部130は、接触部位が指Fの側面であると推定する。また、縦横比Aが0.3以上で0.6よりも小さい場合であると、接触形状は、一般的な楕円となり、制御部130は、接触部位が指Fの腹であると推定する。更に、両長さの比が0.6以上の場合であると、接触形状は、円に近いものとなって、制御部130は、接触部位が指Fの先端(指先)であると推定する。
 次に、S150で、制御部130は、図10に示すように、指Fの接触部位と接触面積とから、操作面111に対する指Fの操作荷重Wを推定する。図10は、操作荷重Wを推定するための操作荷重テーブルの一例であり、接触部位ごとに、3水準の接触面積を設定して、それらに対応する3水準の操作荷重(1~3)を推定するものとしている。尚、各接触部位において、接触面積の大小を判定する閾値として、指Fの側面でタッチした場合では、20および30を用い、指Fの腹でタッチした場合では、80および120を用い、指先でタッチした場合では、40および60を用いている。
 指Fの接触面積が同じであっても、接触部位によって、発生する操作荷重Wは異なり、接触面積だけから操作荷重Wを推定すると、誤差が大きくなる可能性がある。よって、本実施形態では、接触部位ごとに接触面積に応じて、操作荷重Wが推定されるようになっている。まず、操作面積が大きくなる程、操作荷重Wは大きくなるように設定されている。図10中では、操作荷重1<操作荷重2<操作荷重3、である。加えて、操作部位については、操作荷重Wが同レベルであっても、指Fの側面、指先、指の腹の順で、操作面積の条件が大きくなるように設定されている。
 次に、S160で、制御部130は、操作者の指Fが各種操作ボタンのうち、いずれかの操作ボタン52aを選択中か否かを判定する。制御部130は、操作者の指Fの位置がいずれかの操作ボタン52aに重なる位置にあると選択中(Yes)であると判定し、操作者の指Fの位置がいずれかの操作ボタン52aに重ならない位置であると選択中ではない(No)と判定する。
 尚、操作者の指Fがいずれかの操作ボタン52aを選択中ではないという状態は、いずれかの操作ボタン52aに対して操作者の指Fは離れた位置にあり、いずれかの操作ボタン52aに向けて移動されている状態を示す。制御部130は、S160で、否と判定すると、S170に移行する。
 S170では、制御部130は、操作者の指Fの操作状態から、指Fの移動先となる操作ボタン52aを推定する。ここでは、現在の指Fの位置から一番近い操作ボタン52aを移動先の操作ボタン52aとして推定する。
 そして、制御部130は、表示画面52におけるポインタ52bの位置(操作面111上の操作者の指Fの位置)から、操作者の指Fが移動しようとする操作ボタン52aの位置へのベクトルを算出する。ベクトル算出にあたって、制御部130は、ポインタ52bの位置と操作ボタン52aの位置との距離(ベクトルの長さ)と、ポインタ52bの位置から操作ボタン52aの位置に向かう方向(ベクトルの向き)とを算出する。
 次に、S180で、制御部130は、算出したベクトルの方向に引込み力を発生させるための標準振動パターンを設定すると共に、S150で推定した操作荷重Wに応じて、標準振動パターンを一部変更する。
 即ち、制御部130は、まず、標準振動パターンとして、算出したベクトルの向き(操作体の移動先の方向)に往復する振動を設定する。例えば、制御部130は、ベクトルの向きがxyの2軸方向のうち、いずれか一方の軸方向(例えばy軸方向)であると、図5A、図5Bに示すように、いずれか一方の軸方向に沿う振動を設定する。また、制御部130は、ベクトルが2軸に対して傾いている場合であると、図6A、図6Bに示すように、2軸方向の合成によって得られる斜め方向の振動を設定する。
 そして、制御部130は、往復する振動の往路側と復路側とで振動の速度あるいは加速度が異なるように設定する。ここでは、往路側は、操作者の指Fが移動しようとする方向としており、制御部130は、図11中の波形例における実線で示すように、復路側よりも往路側の速度あるいは加速度が小さくなるように標準振動パターンを設定する。尚、図11では、振動の速度あるいは加速度のうち、一例として、加速度を振動の制御対象として示している。
 更に、制御部130は、推定した操作荷重Wに応じて、標準振動パターンにおける速度あるいは加速度の大きさを変更した変更振動パターンを設定する。変更振動パターンは、図11中の波形例において破線で示したものである。
 変更振動パターンの設定要領は、以下の通りである。即ち、制御部130は、操作荷重Wが予め定めた規定範囲の荷重よりも大きいときに、標準振動パターンにおける往路側はそのままとして、復路側の速度あるいは加速度を大きく設定する(図11中の上段)。また、制御部130は、操作荷重Wが規定範囲の荷重よりも小さいときに、標準振動パターンにおける復路側はそのままとして、往路側の速度あるいは加速度を小さく設定する(図11中の下段)。尚、操作荷重Wが規定範囲の荷重であると、標準振動パターンを変更することなく、そのまま使用するように設定する(図11中の中段)。
 尚、往路側あるいは復路側の振動の速度あるいは加速度の大きさを設定、更には変更するにあたっては、振動の振幅を変更する、振動の周波数を変更する、あるいは往路側と復路側の波形におけるデューティ比(復路側振動時間/(往路側振動時間+復路側振動時間))を変更することで対応可能である。
 例えば、振動の振幅を大きくすることで、振動の速度あるいは加速度を大きくし、振動の振幅を小さくすることで振動の速度あるいは加速度を小さくすることができる。また、振動の周波数を大きくすることで、振動の速度あるいは加速度を大きくし、振動の周波数を小さくすることで振動の速度あるいは加速度を小さくすることができる。更には、デューティ比を小さくすることで、復路側の速度あるいは加速度を大きくし、往路側の速度あるいは加速度を小さくすることができる。逆に、デューティ比を大きくすることで、復路側の速度あるいは加速度を小さくし、往路側の速度あるいは加速度を大きくすることができる。
 そして、S190にて、制御部130は、ベクトルの方向、および操作荷重Wに応じて設定した振動パターン(標準振動パターン、あるいは変更振動パターン)となるように、駆動部120を駆動させて、操作面111を振動させる。尚、標準振動パターンに基づく操作面111への振動付加は、本開示の振動制御に対応する。S190の後、操作者の指Fによって、操作者が希望する操作ボタン52aが選択されるまで(S160でYes場合)、制御部130は、S100、S120~S190を繰り返す。
 S100、S120~S190を繰り返す中で、S160で、肯定判定すると、制御部130は、S200で、操作ボタン52aに対する押込み操作があったか否かを判定する。押込み操作は、操作者の操作ボタン52aに対する選択決定を示す操作であり、操作者が操作面111上で、操作ボタン52aに対応する位置で指を押込むことで行われる。S200で肯定判定すると、制御部130は、S210で押込み決定処理を行う。つまり、操作ボタン52aに対応する指示をナビゲーション装置50に対して行う。尚、S200で否定判定すると、S100に戻る。
 そして、S220で、制御部130は、操作者の指Fに対してクリック感を与えるための振動(クリック感振動)を発生させる。ここでは、駆動部120を流用して、S180、S190における引込み用の振動とは異なり、駆動部120を単発的に振動させることで、操作者が押込み操作をしたことが認識できるようにする。
 以上のように本実施形態では、推定された操作荷重Wが規定範囲の荷重であると、操作面111において、制御部130によって、操作者の指Fの移動先(操作ボタン52a)の方向に往路側と復路側とで、速度あるいは加速度が異なる振動が発生される(標準振動パターンによる振動制御)。振動の速度あるいは加速度が大きい方向においては、操作面111と指Fとの間に滑りが発生して、慣性の法則によって、操作者の指Fは、操作面111の動きに追従しにくく、その位置に取り残される(置いていかれる)形となる。逆に、振動の速度あるいは加速度が小さい方向においては、操作面111と指Fとの間の摩擦力Frが作用して、慣性の法則によって、操作者の指Fには、操作面111の動きと共に移動される力が働きやすくなり、総じて操作者の指Fは、振動の速度あるいは加速度が小さい方向に引込まれる形となる。
 よって、振動制御を実行することで、小さな可動領域で、振動の速度あるいは加速度が小さい側に効果的な引込み力を得ることができる。したがって、従来技術のように、操作体の移動量が大きい場合に、これに応じて接触面の移動量も大きくしなければならないといった問題を無くすことができる。
 また、本実施形態では、振動の往路側を移動先の方向としており、制御部130は、駆動部120に対して、復路側よりも往路側の速度あるいは加速度を小さくするようにしている。これにより、操作ボタン52aに近づいて行こうとしている操作者の指Fに対して、この操作ボタン52aに引込ませるような引込み力を発生させることができる。
 ここで、指Fによる操作荷重Wが変化すると、操作面111と指Fとの間の摩擦力Frが変化する。これに伴い、操作面111と指Fとの間の滑り状態が変化して、引込み力が変化してしまう。つまり、引込みの触覚が変化してしまう。
 本実施形態では、制御部130は、タッチセンサ112による操作状態から操作面111における指Fの接触面積および接触形状を把握(検出)し、この把握した接触面積および接触形状を基に、指Fの操作面111に対する操作荷重Wを推定する。よって、操作荷重Wを検出するための専用の荷重検出部の設定を不要とすることができる。
 そして、制御部130は、振動制御を実行する際に、推定した操作荷重Wに応じて、往路側あるいは復路側における振動の速度あるいは加速度の大きさを変更するようにしている。
 具体的には、操作荷重Wが規定範囲の荷重よりも大きいときは、標準振動パターンに対して、制御部130は、復路側の振動の速度あるいは加速度を大きくしている。
 操作荷重Wが大きくなると摩擦力Frも大きくなって、指Fは、操作面111上で滑りにくくなり、振動の往路側、および復路側の両方向で指Fが滑らずに移動を繰り返し、結果的に指Fの位置が変化しない(引込み力が得られない)。
 よって、操作荷重Wが大きいとき、復路側の速度あるいは加速度を標準振動パターンよりも大きくすることで(図11上段)、操作面111と指Fとの間の滑りがより多く発生するようにすることができる。したがって、振動の復路側において、指Fが操作面111の動きに追従しにくくすることができ、操作荷重Wが大きい場合でも復路側(引込みと逆方向)に指が移動しようとするのを抑制することができる。
 逆に、操作荷重Wが規定範囲の荷重よりも小さいときは、標準振動パターンに対して、制御部130は、往路側の振動の速度あるいは加速度を小さくしている。
 操作荷重Wが小さくなると摩擦力Frも小さくなって、指Fは、操作面111上で滑りやすくなり、振動の往路側における操作面111の動きに対して移動されにくくなる(引込み力が小さくなる)。よって、指Fは、振動の往路側、および復路側の両方向で滑りやすくなり、結果的に指Fが移動しない(引込み力が得られない)。
 よって、操作荷重Wが小さいとき、往路側の速度あるいは加速度を標準振動パターンよりも小さくすることで(図11下段)、操作面111と指Fとの間の滑りが起きにくくすることができる。したがって、振動の往路側において、指Fが操作面111の動きに追従しやすくすることができ、操作荷重Wが小さい場合でも往路側(引込み側)に指が移動しやすくすることができる。
 以上のことから、制御部130は、振動制御を実行する際に、専用の荷重検出部の設定を不要として、推定した操作荷重Wに応じて、往路側あるいは復路側における振動の速度あるいは加速度の大きさを変更することで、操作荷重Wに伴う、引込み力の変化を抑制することが可能となり、安定的な引込み力を得ることができる。安定的な引込み力によって、操作荷重Wによらず、引込みの触覚が同等に維持される。
 また、制御部130は、操作荷重Wを推定する際に用いる接触形状については、指Fが触れた領域のX長と、Y長との比(縦横比A)を用いて、抽出(把握)するようにしている。これにより、容易に、且つ的確に接触形状を抽出することができる。
 また、制御部130は、接触形状から操作面111に対する指Fの接触部位(指Fの側面、腹、指先等)を推定し、接触部位ごとに、接触面積に対する操作荷重Wを推定するようにしている。これにより、単に接触面積だけに基づいて操作荷重Wを推定する場合に比べて、接触部位を考慮することで、操作荷重Wを推定する際の誤差を抑制することができる。
 また、制御部130は、タッチセンサ112より操作状態として、操作面111に対する押込み操作を取得すると(S200)、駆動部120に対して、引込みのための振動とは異なり、操作者の指Fに対してクリック感を与えるクリック感振動を発生させるようにしている(S220)。これにより、駆動部120を流用して、操作者に選択決定操作を認識させることができる。
 (その他の実施形態)
 第1実施形態では、図9で説明したように、接触形状を抽出するために、縦横比Aを判定する判定値として、0.3、0.6等を用いたが、これに限定されるものではなく、他の判定値を用いてもよい。
 また、第1実施形態では、図9で説明したように、接触部位を推定するために、パターン1~3(指Fの側面、腹、指先等)としたが、これに限定されるものではなく、2パターン、あるいは4パターン以上としてもよい。例えば、接触部位として、指Fの腹でタッチされる場合に、指Fと操作面111との成す角度に応じて、「指Fの腹」を更に複数の水準に設定することが可能である。あるいは、接触部位として、指Fの腹でタッチされる場合に、指Fの軸線周りの回転角度に応じて、「指Fの腹」を更に複数の水準に設定することが可能である。
 また、第1実施形態では、図10で説明したように、操作荷重Wを推定するにあたって、接触面積を3水準にし、これに対応する3水準の操作荷重W(1~3)としたが、接触面積(操作荷重W)の水準は、任意に設定することができる。
 また、第1実施形態では、図10で説明したように、操作荷重Wを推定するために、接触面積の大小を判定する閾値として、20、30、40、60、80、120等を用いたが、これに限定されるものではなく、任意の値に設定可能である。
 また、第1実施形態では、指Fが操作面111にタッチされた領域における楕円の長軸および短軸は、x軸およびy軸に対して傾きの無いものとして例示したが、両軸に対して傾きをもつものへの適用も可能である。この場合では、楕円の傾きを算出し、傾きを考慮した縦横比Aを算出して、操作荷重Wを推定するようにすればよい。尚、楕円の傾きは、最小二乗法による近似や、「Very Fast Ellipse Detection for Embedded Vision Applications」等の既知の方法で算出することができる。
 また、第1実施形態では、制御部130は、操作者の指Fの操作状態から、指Fの移動先となる操作ボタン52aを推定するにあたって、現在の指Fの位置から一番近い操作ボタン52aを移動先の操作ボタン52aとして推定するようにした。しかしながら、これに限定されることなく、例えば、過去の所定期間における操作者の使用頻度の高い操作ボタン52aを移動先となる操作ボタン52aとして推定してもよい。あるいは、現時点での操作者の指Fの移動しようとするその先にある操作ボタン52aを移動先となる操作ボタン52aとして推定してもよい。
 また、第1実施形態では、操作ボタン52aに近づいていく操作者の指Fに対して操作ボタン52a側に引込み力を発生させるものとしたが、これに加えて、操作者の指Fが操作ボタン52aの近傍から離れようとするときに、操作ボタン52a側に向かう引込み力を発生させるものとしてもよい。この場合は、操作者の指Fが操作ボタン52aに対して離れていく方向に振動を発生させ、離れていく方向を往路側、往路側の反対方向を復路側とし、復路側の振動の速度あるいは加速度を往路側よりも小さくするようにしてやればよい。
 また、第1実施形態では、操作部110として、いわゆるタッチパッド式のもとしたが、この構成に限らず、液晶ディスプレイ51の表示画面52が透過されて操作面111に視認されるいわゆるタッチパネル式のものにも適用可能である。
 また、第1実施形態では、図4で説明したS200~S220で、押込み操作があると、クリック感を与えるクリック感振動を発生させるものとした。しかしながら、本開示は、基本的には、往路側と復路側とで振動の速度あるいは加速度が異なるようにすることで、引込み力を発生させると共に、推定した操作荷重Wに応じて、速度あるいは加速度を変更することで引込み力の安定化を図るものとしており、S200~S220を廃止したものとしてもよい。
 また、第1実施形態では、操作体を操作者の指Fとして説明したが、これに限らず、ペンを模したスティック等としてもよい。
 また、第1実施形態では、入力装置100による入力制御の対象(所定の機器)として、ナビゲーション装置50としたが、これに限定されることなく、車両用の空調装置、あるいは車両用オーディオ装置等の他の機器にも適用することができる。
ここで、この出願に記載されるフローチャート、あるいは、フローチャートの処理は、複数のステップ(あるいはセクションと言及される)から構成され、各ステップは、たとえば、S100と表現される。さらに、各ステップは、複数のサブステップに分割されることができる、一方、複数のステップが合わさって一つのステップにすることも可能である。
 以上、本開示の一態様に係る入力装置の実施形態、構成、態様を例示したが、本開示に係る実施形態、構成、態様は、上述した各実施形態、各構成、各態様に限定されるものではない。例えば、異なる実施形態、構成、態様にそれぞれ開示された技術的部を適宜組み合わせて得られる実施形態、構成、態様についても本開示に係る実施形態、構成、態様の範囲に含まれる。

 

Claims (4)

  1.  操作側となる操作面(111)に対する操作体(F)の操作状態を検出する検出部(112)と、
     前記検出部によって検出される前記操作状態に応じて、所定の機器(50)に対する入力を行う制御部(130)と、
     前記操作面の拡がる方向に前記操作面を振動させる駆動部(120)と、が設けられ、
     前記操作体が前記操作面に接触しているときに、前記駆動部に対して前記制御部が、前記検出部による前記操作状態から推定される前記操作体の移動先(52a)の方向に往復する振動を前記操作面に発生させると共に、前記往復する振動の往路側と復路側とで前記振動の速度あるいは加速度が異なるように制御する振動制御を実行する入力装置において、
     前記制御部は、前記検出部による前記操作状態から、前記操作面における前記操作体の接触面積および接触形状を把握して、前記接触面積および前記接触形状を基に前記操作体の前記操作面に対する操作荷重(W)を推定すると共に、前記振動制御を実行する際に、前記操作荷重に応じて、前記往路側あるいは前記復路側における前記振動の速度あるいは加速度の大きさを変更する入力装置。
  2.  前記制御部は、前記操作面において、前記操作体が触れた領域の所定方向(X)の長さと、前記所定方向に直交する直交方向(Y)の長さとの比をもって、前記接触形状を把握する請求項1に記載の入力装置。
  3.  前記制御部は、前記接触形状から前記操作面に対する前記操作体の接触部位を推定し、前記接触部位ごとに、前記接触面積に対する前記操作荷重を推定する請求項2に記載の入力装置。
  4.  前記制御部は、前記検出部より前記操作状態として、前記操作面に対する押込み操作を取得すると、前記駆動部に対して、前記振動とは異なり、前記操作体に対してクリック感を与えるクリック感振動を発生させる請求項1~請求項3のいずれか1つに記載の入力装置。
PCT/JP2018/012272 2017-06-13 2018-03-27 入力装置 WO2018230089A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017116209A JP6693478B2 (ja) 2017-06-13 2017-06-13 入力装置
JP2017-116209 2017-06-13

Publications (1)

Publication Number Publication Date
WO2018230089A1 true WO2018230089A1 (ja) 2018-12-20

Family

ID=64659181

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/012272 WO2018230089A1 (ja) 2017-06-13 2018-03-27 入力装置

Country Status (2)

Country Link
JP (1) JP6693478B2 (ja)
WO (1) WO2018230089A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003058321A (ja) * 2001-08-17 2003-02-28 Fuji Xerox Co Ltd タッチパネル装置
JP2012221387A (ja) * 2011-04-13 2012-11-12 Nippon Soken Inc 操作入力装置
JP2013508804A (ja) * 2009-10-19 2013-03-07 フラットフロッグ ラボラトリーズ アーベー 接触面上の1つまたは複数の対象を表す接触データの抽出

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017111462A (ja) * 2015-11-27 2017-06-22 京セラ株式会社 触感呈示装置及び触感呈示方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003058321A (ja) * 2001-08-17 2003-02-28 Fuji Xerox Co Ltd タッチパネル装置
JP2013508804A (ja) * 2009-10-19 2013-03-07 フラットフロッグ ラボラトリーズ アーベー 接触面上の1つまたは複数の対象を表す接触データの抽出
JP2012221387A (ja) * 2011-04-13 2012-11-12 Nippon Soken Inc 操作入力装置

Also Published As

Publication number Publication date
JP2019003340A (ja) 2019-01-10
JP6693478B2 (ja) 2020-05-13

Similar Documents

Publication Publication Date Title
US10642381B2 (en) Vehicular control unit and control method thereof
WO2019220838A1 (ja) 入力装置
WO2019017009A1 (ja) 入力装置
US9541416B2 (en) Map display controller
WO2019017008A1 (ja) 入力装置
WO2019116771A1 (ja) 入力装置
US11132089B2 (en) Input device
WO2018230089A1 (ja) 入力装置
US11079850B2 (en) Input apparatus
WO2019012747A1 (ja) 入力装置
WO2018163626A1 (ja) 入力装置
US11079852B2 (en) Input device
JP2019079410A (ja) 入力装置
WO2018230088A1 (ja) 入力装置
WO2019003661A1 (ja) 入力装置
WO2019003660A1 (ja) 入力装置
JP2019079243A (ja) 入力装置
JP2019079409A (ja) 入力装置
JP2019133249A (ja) 入力装置
WO2019116769A1 (ja) 入力装置
WO2019039080A1 (ja) 入力装置
JP2020071674A (ja) 触覚呈示装置
JP2017049828A (ja) 触覚呈示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18817039

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18817039

Country of ref document: EP

Kind code of ref document: A1