WO2010095372A1 - 触力覚提示装置、触力覚提示装置が適用された電子機器端末及び触力覚提示方法 - Google Patents

触力覚提示装置、触力覚提示装置が適用された電子機器端末及び触力覚提示方法 Download PDF

Info

Publication number
WO2010095372A1
WO2010095372A1 PCT/JP2010/000562 JP2010000562W WO2010095372A1 WO 2010095372 A1 WO2010095372 A1 WO 2010095372A1 JP 2010000562 W JP2010000562 W JP 2010000562W WO 2010095372 A1 WO2010095372 A1 WO 2010095372A1
Authority
WO
WIPO (PCT)
Prior art keywords
force
operation lever
unit
input
axis direction
Prior art date
Application number
PCT/JP2010/000562
Other languages
English (en)
French (fr)
Inventor
則枝真
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2011500484A priority Critical patent/JP5413450B2/ja
Priority to US13/148,523 priority patent/US8976045B2/en
Publication of WO2010095372A1 publication Critical patent/WO2010095372A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03548Sliders, in which the moving part moves in a plane
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user

Definitions

  • the present invention relates to a haptic presentation device and a haptic presentation method that can be applied to an operation unit of an electronic device such as a mobile phone, a PDA, a notebook PC, a game machine, and a TV remote controller.
  • tactile sensation presentation device using a tactile sensation such as contact with a virtual object on a computer, which requires a large-scale system, has been presented.
  • This tactile sensation presentation device is applied to electronic devices such as mobile phones, PDAs, notebook PCs or remote controllers, mice, and game controllers that place importance on portability.
  • the haptic force sense presentation device disclosed in Patent Document 1 includes a sphere that includes a moving element and is held so as to vibrate and rotate. This tactile force sense presentation device outputs a tactile force sense signal when a pointer touches an image displayed on a monitor. In a state where the sphere is rotated, a haptic force sense is presented by vibrating the sphere by moving the mover according to the haptic force sense signal transmitted from the driving device and the information processing device.
  • the intermediate electrode sheet is transparent and flexible, and transparent electrodes are formed on both sides.
  • the intermediate electrode sheet is sandwiched between the transparent electrodes so as to form predetermined uniform gaps, and the upper electrode sheet is laminated on the input operation side and the lower electrode sheet is laminated on the display device side.
  • the upper electrode sheet faces the transparent electrode and has the upper transparent electrode.
  • the lower electrode sheet faces the transparent electrode and has the lower transparent electrode.
  • the tactile interface device shown in Patent Document 3 includes a user interface unit having an operation unit operated by an operator, a drive unit that drives the user interface unit, and a control unit that controls the drive unit.
  • the drive unit has magnets arranged in the case so that the polarities are alternately arranged.
  • the control unit of the tactile interface device displaces the frame by causing a current to flow to the coil in the frame via the signal line, and the operation unit attached to the frame is interlocked with the displacement of the frame. Displace.
  • the drive unit applies a driving force to the operation unit by electromagnetic force under drive control in the control unit in order to apply a reaction force to the operator.
  • Patent Documents 1 to 3 input in the X-axis, Y-axis, and Z-axis directions based on the output from a small and highly flexible sensor due to recent technological advances, A resistance force corresponding to the sense of contact is generated. Thus, many parts are required to detect the input and to generate a resistance force. In the actuator, it is difficult to reduce the size while providing an output sufficient for the operator. In order to present a tactile sensation with higher expressiveness, there is a problem in that the entire apparatus is increased in size and weight, and the cost is increased and the use of energy is increased due to an increase in the number of parts.
  • An object of the present invention is to provide a haptic sense presentation device and a presentation method thereof that can perform a haptic presentation that is lightweight, small, and highly expressive.
  • the haptic sense presentation device includes an operation lever operated by an operator, an input of a sliding motion of the operation lever in the XY plane direction, and a specific position of the operation lever on the XY plane.
  • An operation unit having a moving guide surface for guiding an input of a pushing operation in the Z-axis direction, an input of a sliding operation of the operation lever in the XY plane direction, and an input of the pushing operation of the operation lever in the Z-axis direction are detected.
  • a detection unit a calculation control unit that calculates a force corresponding to the operation of the operation lever based on the detection result of the detection unit, and a drive unit composed of at least one actuator, and is driven based on the calculation result of the calculation control unit Drive that generates a drag force of the operation lever against the input of the sliding operation in the XY plane direction and an adjustment force of the operation lever against the input of the pushing operation in the Z-axis direction.
  • Drive that generates a drag force of the operation lever against the input of the sliding operation in the XY plane direction and an adjustment force of the operation lever against the input of the pushing operation in the Z-axis direction.
  • the tactile sensation presentation method of the present invention includes an operation lever operated by an operator, an input of a sliding motion of the operation lever in the XY plane direction, and a push of the operation lever in a Z-axis direction at a specific position on the XY plane.
  • An operation unit having a moving guide surface for guiding an operation input; a detection unit for detecting an input of a sliding operation of the operation lever in the XY plane direction; and an input of a pushing operation of the operation lever in the Z-axis direction;
  • a tactile force sense presentation method using a tactile force sense presentation device comprising: a calculation control unit that calculates a force corresponding to an operation of an operation lever based on a detection result of the control unit; and a drive transmission unit having a drive unit including at least one actuator. It is.
  • This tactile sensation presentation method refers to the virtual physical data in the database based on the detection data from the detection unit, simulates the physical phenomenon in the virtual space, updates the virtual physical data, and operates A simulator calculation step for outputting the force to be presented to the lever as presentation data, a control data for controlling the actuator for generating the force based on the presentation data, and a touch for operating the operation lever based on the control data A force sense actuator control step.
  • the operation control unit operates the operation lever based on the detection result of the detection unit. Calculates the force corresponding to the lever operation. Thereafter, in the drive transmission unit, the drag of the operation lever against the input of the slide operation in the XY plane direction and the Z-axis with respect to the drive unit based on the calculation result of the calculation control unit by the drive unit including at least one actuator An adjustment force for the input of the pushing operation in the direction is generated and transmitted to the operation lever.
  • the drive unit including at least one actuator generates the drag force of the operation lever against the input of the slide operation in the XY plane direction and the adjustment force of the operation lever with respect to the input of the pushing operation in the Z-axis direction. ing. Therefore, it is possible to present a tactile sensation associated with the input operation of the active operation lever of the operator, and it is possible to present various tactile sensation expressions with few actuators.
  • FIG. 1 It is a block diagram which shows the whole structure of the tactile-force sense presentation apparatus containing the operation part which concerns on Example 1 of this invention. It is a figure showing the mode of the input-output operation of the operation part shown in FIG. It is a longitudinal cross-sectional view which shows the detail of the operation part shown in FIG. It is an image figure showing the relationship between the input detection state in the operation part shown in FIG. 1, and the output presentation method, Comprising: The operation
  • FIG. 1 is a block diagram showing a configuration of a haptic sense presentation apparatus to which the present invention is applied.
  • FIG. 2 is a perspective view showing an operation unit of the haptic sense presentation device.
  • FIG. 2 is an external view of the operation unit 1 shown in FIG. 1 and shows an operation by the fingertip of the operator.
  • the operation unit 1 includes a projecting operation lever 12 (described later).
  • a region where a tactile sensation is presented to the operation lever 12 is a fingertip contact point.
  • the operation lever 12 can be input as a slide operation on the XY plane and a push operation in the Z-axis direction at the center position O.
  • the sliding operation on the XY plane with respect to the operating lever 12 and the pushing operation of the operating lever 12 in the Z-axis direction at the center position O are detected as input data.
  • a tactile force sense presentation that generates “drag (presentation force)” is performed with respect to an input operation associated with the slide operation on the XY plane.
  • a tactile force sense presentation that returns a force such as “elastic force”, “viscous force”, and “inertial force” is performed based on a target reference virtual plane.
  • these “elastic force”, “viscous force”, and “inertial force” in the Z-axis direction are expressed as “adjustment force (presentation force)” with respect to the pushing force of the operation lever 12.
  • This haptic sense presentation device includes an operation unit 1, a simulator calculation unit 4, an actuator control unit 6, and an information presentation unit 7.
  • the operation unit 1 is operated by an operator and includes an input detection sensor 2 and a tactile force presentation actuator 3 (described later).
  • the simulator calculation unit 4 compares the detection data output from the input detection sensor 2 of the operation unit 1 with the data in the database 5.
  • the actuator control unit 6 is driven based on the calculation result in the simulator calculation unit 4.
  • the information presentation unit 7 visually displays control information of the actuator control unit 6. Processing in this haptic sense presentation device will be described.
  • the detection data a is output from the input detection sensor 2 of the operation unit 1.
  • the simulator calculation unit 4 compares the detected data a with the virtual physical data b that is virtual object information in the database 5 and then compares the presentation data c that is a force for driving the haptic sense presentation actuator 3. calculate. Thereafter, based on the presentation data c, the simulator calculation unit 4 outputs display data e that displays a target reference virtual plane as visual information to the information presentation unit 7 that is a display, for example. At the same time, the simulator calculation unit 4 performs a process of updating the virtual physical data b stored in advance on the database 5 based on the presentation data c.
  • the actuator control unit 6 calculates control data d for calculating and controlling the force to be presented to the tactile force presentation actuator 3 based on the presentation data c. Based on this control data d, the tactile force sense presentation actuator 3 is driven.
  • the “calculation control unit C” is configured by the simulator calculation unit 4 and the actuator control unit 6.
  • the tactile force presentation actuator 3 causes a “drive transmission unit D (specifically, a guide moving unit 30, a compression spring 32, a drive unit 33, a pulley 34, and a wire 35 shown in FIG. 3) (described later)”. Composed.
  • FIG. 3 is a cross-sectional view showing details of the operation unit 1 that directly touches with a finger and performs an input operation and a tactile sensation presentation.
  • the operation unit 1 includes a casing 10, a lid member 11, an operation lever 12, and a guide member 14.
  • the casing 10 is formed in a cylindrical shape as a whole.
  • the lid member 11 is provided in the upper opening of the casing 10 and has a circular opening 11A at the center.
  • the operation lever 12 is movably provided in the circular opening 11A of the lid member 11, has a convex shape in a longitudinal sectional view, and has a circular shape in a plan view.
  • the guide member 14 is provided in the casing 10 and below the lid member 11, and has a concave storage portion 13 in the center. Between the guide member 14 and the circular opening 11 ⁇ / b> A of the lid member 11, an XY-axis direction moving guide surface 15 that can horizontally move the operation lever 12 is formed on the upper surface of the guide member 14.
  • the wall surface of the concave storage portion 13 in the guide member 14 is formed in a size that allows the operation lever 12 to be stored.
  • a Z-axis direction moving guide surface 16 on which the operation lever 12 can slide in the Z-axis direction is formed on the wall surface.
  • a cover 17 is fixed to the side of the operation lever 12. The cover 17 is accommodated in a slit 11 ⁇ / b> B formed horizontally on the inner wall surface facing the circular opening 11 ⁇ / b> A of the lid member 11. The cover 17 moves with the horizontal movement of the operation lever 12 so that the storage portion 13 is not exposed to the top.
  • a ring-shaped XY axis movement detector 20 for detecting the movement amount of the operation lever 12 in the XY axis direction is provided in the vicinity of the XY axis direction movement guide surface 15 of the guide member 14.
  • a Z-axis movement detection unit 21 for detecting the amount of movement of the operation lever 12 in the Z-axis direction is provided.
  • the XY axis movement detection unit 20 and the Z axis movement detection unit 21 correspond to the input detection sensor 2 shown in FIG.
  • the XY axis movement detection unit 20 and the Z axis movement detection unit 21 are in a state where the operation lever 12 is at the center position O (a state where the operation lever 12 in FIG. 3 is positioned on the storage unit 13 of the guide member 14). , The movement amount of the operation lever 12 in the XY axis direction and the Z axis direction is detected.
  • the XY axis movement detection unit 20 and the Z axis movement detection unit 21 are each connected to a wiring board 22 provided in the casing 10. On this wiring board 22, a storage unit 23, an information processing unit 24, and a control unit 25 are provided along with the XY axis movement detection unit 20 and the Z axis movement detection unit 21.
  • the storage unit 23 stores a target state quantity (reference virtual surface).
  • the information processing unit 24 calculates the drive amount of the drive unit 33 of the wire 35 based on the detection data obtained by the XY axis movement detection unit 20 and the Z axis movement detection unit 21.
  • the control unit 25 controls the adjustment force (presentation force) of the drive unit 33 based on the calculation result by the information processing unit 24.
  • the storage unit 23 corresponds to the database 5 in FIG.
  • the information processing unit 24 corresponds to the simulator calculation unit 4 in FIG.
  • the control unit 25 corresponds to the actuator control unit 6 in FIG.
  • the XY axis detection unit 20 and the Z axis detection unit 21 that detect the movement amount are configured by an optical position measurement sensor.
  • a guide moving unit 30 is provided in the storage unit 13 of the guide member 14.
  • the guide moving part 30 has a through hole 31 in the center and is formed in a cylindrical shape.
  • the upper surface of the guide moving unit 30 forms a part of the XY-axis direction moving guide surface 15 when no force is applied from the outside, and the operation lever 12 can slide along the upper surface.
  • An upper surface of the through-hole 31 is formed with an inclined surface 31A that is inclined from the outside toward the central through-hole 31 and guides the wire 35 (described later).
  • a compression spring 32 for biasing the guide moving part 30 upward is provided between the lower part of the guide moving part 30 and the bottom surface of the storage part 13 of the guide member 14.
  • the drive part 33 comprised by the stepping motor etc. is provided in the casing 10 and the side part of the guide member 14, for example.
  • the drive unit 33 corresponds to the haptic sense presentation actuator 3 described above.
  • a pulley 34 is provided on the output shaft of the drive unit 33.
  • a wire 35 is wound around the pulley 34, and the tip of the wire 35 is connected to the lower portion of the operation lever 12 via the through hole 31 of the guide moving unit 30 and the inclined surface 31 ⁇ / b> A above the through hole 31. Has been.
  • the operation lever 12 moves to the XY axis direction moving guide surface. 15 moves along the XY plane. At this time, the movement amount shifted from the center position O is measured by the XY axis detection unit 20. Further, when the operation lever 12 is pushed in the Z-axis direction at the center position O with respect to the operation lever 12 of the operation unit 1 by the operator's fingertip, the operation lever 12 has a cylindrical Z-axis. It moves downward along the direction movement guide surface 16. At this time, the amount of movement of the operation lever 12 is measured by the Z-axis movement detector 21.
  • the driving unit 33 transmits a tensile force to the operation lever 12 of the operation unit 1 by winding the wire 35 with the pulley 34 and presents a force as a tactile force sense on the operation lever 12.
  • the guide moving portion 30 that moves downward together with the operation lever 12 and the compression spring 32 that supports the guide moving portion 30 and biases it upward are statically moved in the Z-axis direction.
  • a tactile force sensation is presented to the operation lever 12 in combination with a balance with the tensile force generated by the wire 35.
  • FIG. 4A and 4B are diagrams for explaining the relationship between the input detection state by the operation lever 12 and the output presentation method by the drive unit 33.
  • FIG. FIG. 4A shows the state of each component when a sliding motion is input in the XY axes.
  • the guide moving unit 30 is raised to the lower surface position of the operation lever 12 of the operation unit 1 by the force of the compression spring 32.
  • the operation lever 12 is allowed to slide only in the XY axis direction by the XY axis direction moving guide surface 15 and the guide moving unit 30. At this time, the wire 35 is in a free state in which no compression force is applied to the compression spring 32.
  • the force transmitted through the wire 35 is used only for presenting the force for the input operation to the slide in the XY axis direction of the operation lever 12. .
  • the drag force is always presented so as to be pulled back toward the center by driving the drive unit 33.
  • a tactile force sensation that generates a resistance force accompanying the active input operation of the operator is presented.
  • FIG. 4B shows the state of each component when the pushing operation of the operation lever 12 is input.
  • the operation lever 12 of the operation unit 1 is at the center position O on the XY plane, and only movement in the Z-axis direction is allowed by the Z-axis direction movement guide surface 16 together with the guide movement unit 30.
  • the operation lever 12 is pulled by the wire 35 and compresses the compression spring 32 via the guide moving unit 30.
  • the compression spring 32 generates a force in the extension direction by being compressed by the operation lever 12 and the guide moving unit 30, and is operated by a resultant force (balance) with a force transmitted by pulling or feeding the wire 35.
  • 12 adjustment forces (presentation forces) are controlled. As a result, the operator is presented with adjustment forces such as “elastic force”, “viscous force”, and “inertial force” for grasping the target reference virtual plane.
  • FIG. 5 is a diagram showing an operation pointer in the virtual space and virtual physical information forming a target reference virtual plane.
  • FIG. 5 shows an operation pointer 40 that moves in conjunction with the operation lever 12 of the operation unit 1.
  • the operation pointer 40 moves in the three-dimensional virtual space 42 shown on the display device 41 in conjunction with the operation lever 12 of the operation unit 1 and visually displays the control result of the actuator control unit 6.
  • the virtual space 42 is a space formed by the X axis, the Y axis, and the Z axis, and includes, for example, a virtual wall surface 43 and a virtual bottom surface 44 made of physical information.
  • the operation pointer 40 indicated by the operation of the operation lever 12 contacts the virtual wall surface 43 or the virtual bottom surface 44 forming the target virtual space 42, the operation pointer 40 and the virtual wall surface 43 or the virtual bottom surface 44 affect each other.
  • the exerting position and force are calculated and presented to the operator as a tactile force sense and displayed as visual information.
  • the display device 41 shown in FIG. 5 corresponds to the information presentation unit 7 shown in FIG.
  • FIG. 6 is a flowchart showing the overall operation of the haptic sense presentation device of the first embodiment.
  • the input detection sensor 2 XY axis movement detection unit
  • the Z-axis movement detection unit 21 detects the position of the operation lever 12. That is, the input position of the operation lever 12 in the XY plane or the Z-axis direction is detected, and an electrical signal is output as the detection data a.
  • the simulator calculation unit 4 (information processing unit 24) refers to the virtual physical data b in the database 5 (storage unit 23), the virtual physical data b, and the detection data a from the input detection sensor 2.
  • Display data e which is data for updating the virtual physical data b according to the virtual arrangement relationship and the force balance relationship and displaying visual information on the information display unit 7 (display device 41).
  • presentation data c to be presented to the operator as a tactile sensation is output to the actuator control unit 6 (control unit 25).
  • step S103 the information display unit 7 (display device 41) receives the display data e and displays the information on a device for display as visual information such as a display as shown in FIG.
  • the actuator control unit 6 control unit 25
  • control data d to be presented to the operator as a haptic sense based on the presentation data c received from the simulator calculation unit 4, and the haptic sense presentation actuator 3 ( To the drive unit 33).
  • step 102 constitutes a “simulator calculation step”. Further, the “tactile force sense actuator control step” is configured by step S103.
  • step S101 when the input detection sensor 2 detects a movement input of the operation unit 1 to the operation lever 12, the operation pointer 40 in the virtual space 42 is moved according to the movement of the operation lever 12, as shown in FIG. 7B. Moving. At this time, if the operation pointer 40 in the virtual space 42 moves according to the movement amount of the operation lever 12, the movement range of the operation pointer 40 in the virtual space 42 is limited.
  • the operation speed of the operation pointer 40 is changed according to the movement amount of the operation lever 12.
  • the movement amount of the operation lever 12 and the movement amount of the operation pointer 40 in the virtual space 42 may be associated with each other.
  • a region in which the movement amount of the operation lever 12 of the operation unit 1 is associated with the movement amount of the operation pointer 40 and a region in which the movement amount of the operation lever 12 and the operation speed of the operation pointer 40 are associated may be set in combination. good.
  • FIG. 8 is a flowchart showing the control contents of the arithmetic control unit C including the simulator calculation unit 4 and the actuator control unit 6.
  • This flowchart shows “resistance (presentation force)” in the XY axis direction (XY plane direction), “elastic force”, “viscous force”, and “inertial force” in the Z axis direction with respect to the operation lever 12 operated by the operator. This is the control content for presenting such “adjustment power”.
  • step S200 the input detection sensor 2 detected in the previous step S101 (corresponding to the XY axis movement detection unit 20 and the Z axis movement detection unit 21). Based on the detection result obtained by the above, it is determined whether the movement amount of the operation pointer 40 is made with respect to the XY plane or with respect to the Z-axis direction. If it is determined that the input operation is input to the XY plane, the process proceeds to step S201. On the other hand, if it is determined that the input operation is an input in the Z-axis direction, the process proceeds to step S301.
  • step S202 After moving the operation pointer 40 in the XY plane in the virtual space 42 in step S201, the virtual physical data b, which is physical information of the virtual wall surface 43 in the virtual space 42, is referred to in step S202.
  • the virtual wall 43 and the operation pointer 40 are contacted.
  • the operation pointer 40 and the virtual wall surface 43 are configured by a mesh such as a polygon.
  • step S203 the position and force at which the virtual wall surface 43 and the operation pointer 40 influence each other are calculated.
  • FIG. 9A showing the relationship between the operation pointer 40 and the virtual physical data in the virtual space 42.
  • the virtual spring coefficient, damper coefficient, and mass coefficient of the 3D virtual object on the virtual wall surface 43 are Based on the relationship with the movement of the operation pointer 40 that moves in response to the operation of the operation lever 12 of the operation unit 1, a change in position and force generated in the virtual objects of the virtual wall 43 and the operation pointer 40 is calculated by physical simulation.
  • This physical simulation is calculated by an existing method such as an analysis method for calculating a mutual relationship between geometric forces and a penalty method for generating a force according to the amount of virtual objects entering each other.
  • the virtual wall surface 43 is expressed as a wall, but is a virtual object that presents a force in the XY plane direction. If the virtual mass of the virtual wall surface 43 is increased or the virtual wall surface 43 is connected to the virtual bottom surface 44, a wall-like expression that does not move even when pressed with the operation pointer 40 can be obtained. If the virtual wall surface 43 is separated from the virtual bottom surface 44 and an appropriate virtual mass is given, the virtual wall surface 43 moving as a virtual object can be expressed. After performing such calculation, the process proceeds to step S204.
  • step S204 the change in the position and force exerted by the contact of the virtual wall 43 is updated as the virtual physical data b of the database in S102 described above.
  • the change in position and force exerted by the operation pointer 40 due to the contact is presented to the operator as a tactile force sense to the operation lever 12 of the operation unit 1.
  • Changes in the positions of the virtual wall surface 43 and the operation pointer 40 are displayed on the display device 41 as visual information.
  • the input detection state of the operation lever 12 of the operation unit 1 and the output presentation method are in the state of FIG. 4A.
  • the compression spring 32 limits the movement of the operation lever 12 of the operation unit 1 only within the XY plane, and there is no force presented to the operator as a direct contact force sense.
  • the pulling force is presented to the operator as a tactile force sense on the operation lever 12 of the operation unit 1 by pulling according to the tactile force sense that generates the wire 35.
  • FIGS. 10A and 10B are diagrams showing the relationship between the operation lever 12 of the operation unit 1, the operation pointer in the virtual space 42, and the virtual wall surface.
  • a force can be presented only on the side opposite to the input operation direction of the operation lever 12 of the operation unit 1.
  • the reaction force from the virtual wall surface 43 calculated by the physical simulation is directed from the operation lever 12 toward the center of the XY plane.
  • step S301 the operation pointer 40 in the Z-axis direction in the virtual space 42 is moved.
  • step S302 the process proceeds to step S302.
  • the operation pointer 40 has not moved on the XY plane, there is no input operation on the XY plane. That is, the operation lever 12 of the operation unit 1 is positioned at the center of the XY plane, and is limited to operations in the Z-axis direction.
  • step S302 it is determined whether or not the virtual bottom surface 44 and the operation pointer 40 are in contact with each other by referring to virtual physical data b that is physical information of the virtual bottom surface 44 that is a virtual object in the virtual space 42. After performing the contact determination similar to step S202, the process proceeds to step S303.
  • step S303 as shown in FIG. 9B, when the operation pointer 40 and the virtual bottom surface 44 of the virtual physical data b come into contact with each other by movement in the Z-axis direction at the center position O on the XY plane, the 3D virtual of the virtual bottom surface 44 is obtained. From the relationship between the virtual spring coefficient, damper coefficient, and mass coefficient of the object and the movement of the operation pointer 40 that moves in response to the operation of the operation lever 12 of the operation unit 1, a physical simulation is performed, and the virtual bottom surface 44 and A change in position and force generated in the virtual objects of the operation pointer 40 is calculated. Thereafter, the process proceeds to step S304.
  • the physical simulation in step S303 is the same as in step S203.
  • the virtual bottom surface 44 is also regarded as a virtual object in the same manner as the virtual wall surface 43, and the virtual wall surface 43 is expressed as a bottom surface that does not move by the virtual mass of the virtual wall surface 43 and the connection relationship between the other virtual bottom surface 44 and the virtual wall surface 43. , And a virtual object in the Z-axis direction that moves as a virtual object.
  • step S304 the change in position and force exerted by the contact of the virtual bottom surface 44 is updated as virtual physical data b in the database in S102.
  • the change in position and force exerted by the operation pointer 40 due to the contact is presented to the operator as a tactile force sense to the operation lever 12 of the operation unit 1. Changes in the positions of the virtual bottom surface 44 and the operation pointer 40 are displayed on the display device 41 as visual information.
  • the input detection state of the operation lever 12 of the operation unit 1 and the output presentation method are in the state of FIG. 4B.
  • the operation lever 12 and the guide moving unit 30 of the operation unit 1 are restricted in movement in the XY plane direction.
  • the operation lever 12 is pulled by the wire 35, the operation lever 12 is integrated with the guide moving unit 30 and compresses the compression spring 32. .
  • the compression spring 32 is compressed to generate a force in the extension direction.
  • the force and resultant force transmitted by the wire 35 by driving the force by the compression spring 32 and the drive unit 33 are presented to the operator as adjustment force (presentation force) of the operation lever 12 of the operation unit 1.
  • the operation lever 12 of the operation unit 1 can be controlled in any direction up and down (positive and negative) at an arbitrary timing.
  • Adjustment force such as “elastic force”, “viscous force”, and “inertial force” for grasping the reference virtual plane to be displayed can be presented.
  • “elastic force” it is common to present force in the direction in which resistance is generated in proportion to the change in the position to be operated, but it is also possible to present force that escapes in the direction to be operated It is.
  • viscous force and “inertial force”
  • It can be used for warning of harmful links on the website. It is possible to make a warning by presenting a tactile sensation such as being unable to move to a link to a homepage that is harmful to children, and being difficult to move when a site that is also harmful to general users is included.
  • It can be used for grasping the state of touch maps. It is possible to grasp the state by using the reaction of tactile sensation when comprehending a map for visually impaired persons and other walls and directions such as a 3D maze for general users.
  • Tactile feedback is important for key operations for input. For this reason, it is possible to freely change the input feedback, such as a force feedback that is easy for the user to understand or an awareness of an input change caused by returning a force feedback different from the conventional click feeling.
  • entertainment such as understanding illusion pictures.
  • the user feels uncomfortable.
  • an illusion picture in which the spiral staircase created by MAURITS CORNELIS ESCHER cannot be touched as a real object, but it can also be touched by the haptic input / output presentation device of the present invention that handles only virtual physical information.
  • the drive unit 33 and the wire 35 are separate.
  • a biometal or the like that is a wire-like actuator capable of electrically controlling expansion and contraction may be used as the drive unit 33.
  • the XY axis movement detection unit 20 and the Z axis movement detection unit 21 are configured by sensors that measure positions with light.
  • the XY axis movement detection unit 20 and the Z axis movement detection unit 21 are only required to be able to measure positions, and for example, a magnetic sensor may be used.
  • the compression spring 32 is constituted by a coil spring.
  • the compression spring 32 may be a mechanism that gives a restoring force, and may be a leaf spring, for example.
  • the Z-axis direction movement guide surface 16 is formed in a cylindrical shape to guide the movement of the operation lever 12 of the operation unit 1 in the Z-axis direction.
  • a hole is opened at the center of the operation lever 12 of the operation unit 1, and the movement of the operation lever 12 in the Z-axis direction is guided by the rod-shaped Z-axis direction movement guide surface 16.
  • the Z-axis direction moving guide surface 16 that guides the pushing of the operation lever 12 in the Z-axis direction is disposed at the center position O on the XY plane.
  • Example 1 the storage part 13 of the guide member 14 is located in the center of the casing 10. However, the present invention is not limited to this, and the storage portion 13 of the guide member 14 may be positioned at a position eccentric from the center of the casing 10. In Example 1, although the drive part 33 which comprises the tactile-force sense presentation actuator 3 was comprised by one actuator, the number of this actuator is not specifically limited.
  • the XY plane slide detection operation of the operation lever 12 and the Z axis are detected by the XY axis movement detection unit 20 and the Z axis movement detection unit 21.
  • the calculation control unit C including the simulator calculation unit 4 and the actuator control unit 6 calculates a force corresponding to the operation of the operation lever 12 based on the detection result of the detection unit.
  • the drive unit 33 including at least one actuator is based on the calculation result of the calculation control unit C, and the drag (presenting force) of the operation lever 12 against the slide operation on the XY plane with respect to the drive unit 33.
  • the drive unit 33 including at least one actuator causes the drag (presentation force) of the operation lever 12 against the sliding motion on the XY plane and push in the Z-axis direction.
  • An adjustment force (presentation force) of the operation lever 12 with respect to the movement is generated. For this reason, it is possible to present a haptic sensation associated with the operation of the active operation lever 12 by the operator, and it is possible to present various haptic sensations with a small number of actuators.
  • Embodiment 2 of the present invention will be described with reference to FIG.
  • the same components as those in the first embodiment are denoted by the same reference numerals, and redundant description is omitted.
  • the tactile sensation presentation device is different from the configuration of the first embodiment in that the XY axis movement detection unit and the Z axis movement detection unit provided as the input detection sensor 2 are configured by piezoelectric elements. That is, an XY axis movement detection unit 50 made of a piezoelectric element is provided on the side of the operation lever 12. Further, a Z-axis movement detection unit 51 that is also made of a piezoelectric element is provided below the operation lever 12.
  • XY axis movement detection unit 50 and Z axis movement detection unit 51 detect the force applied to the operation lever 12 of the operation unit 1. Based on the outputs from the XY axis movement detection unit 50 and the Z axis movement detection unit 51, the information processing unit 24 (simulator calculation unit 4) calculates the movement direction and movement amount of the operation lever 12.
  • the operation speed of the operation pointer 40 is changed according to the magnitude of the force detected by the movement detection unit 50 and the Z-axis movement detection unit 51.
  • the movement direction is not restricted when the operation lever 12 is operated. Therefore, the operation pointer 40 is moved in an arbitrary direction in the XYZ space in response to the input operation to the operation lever 12, and in step S200, the component is obtained as the movement amount with respect to the XY plane or the movement amount with respect to the Z-axis direction.
  • Embodiment 3 of the present invention will be described with reference to FIGS. 12A and 12B.
  • the third embodiment is different from the first embodiment in that the structure of the mechanism for changing the force transmission and direction is changed.
  • the same components as those in the previous embodiment are denoted by the same reference numerals, and redundant description is omitted.
  • FIG. 12A and 12B are diagrams showing the relationship between the input detection state and the output presentation method according to the second embodiment of the present invention.
  • the force is transmitted by pulling the wire 35 and the resultant force of the tensile force by the wire 35 and the expansion force for the compression of the compression spring 32 is used.
  • the direction changing portion 60 having a link mechanism is used to transmit force.
  • the operation lever 61 of the operation unit 1 and the direction change link member 63 By connecting the operation lever 61 of the operation unit 1 and the direction change link member 63 by the ball joint 62 of the direction change link member 63, the direction of presenting the force in the XY plane direction and the Z axis direction is changed. . Further, the force is transmitted by converting the rotation into the parallel movement of the guide moving unit 30 using the screw 64.
  • the operation lever 61 shown in the third embodiment has an inclined surface 61A whose lower surface is inclined upward from the central portion toward the peripheral portion. That is, the operation lever 61 is formed in a shape in which the center protrudes downward.
  • the inner peripheral portion of the XY-axis direction moving guide surface 15 of the guide member 14 is also formed on the inclined surface 15A that is inclined downward toward the Z-axis direction moving guide surface 16.
  • direction changing link members 63 having ball joints 62 that are rotatable at both ends.
  • the direction change link member 63 is connected to the lower center of the operation lever 61 and the guide moving unit 30 by a ball joint 62.
  • a screw 64 is connected to the lower portion of the guide moving unit 30.
  • the screw 64 is rotationally driven by a drive unit that is an actuator (not shown). The screw 64 can move the guide moving unit 30 along the Z axis by this rotational drive.
  • the guide moving unit 30 by the direction conversion link member 63 in the Z-axis direction is adjusted.
  • the force may be easily converted into a force in the XY axis direction of the operation lever 61 of the operation unit 1.
  • Example 1 when the force in the Z-axis direction is presented, the tensile force of the wire 35 and the extension force of the compression spring 32 are used to generate positive and negative forces.
  • Example 3 since the positive and negative forces can be controlled by rotating the screw 64 by the drive unit, the force can be generated more efficiently.
  • the operation lever 61 of the operation unit 1 can present a drag (presentation force) in a direction toward the center in the XY plane with respect to an input operation on the XY-axis direction movement guide surface 15, It is also possible to present a drag force (presentation force) in a direction in which the lever 61 moves outward from the center.
  • Embodiment 4 of the present invention will be described with reference to FIGS. 13A and 13B.
  • the fourth embodiment is different from the first embodiment in that the configuration of the mechanism of the force presentation unit is changed.
  • the same components as those in the previous embodiment are denoted by the same reference numerals, and redundant description is omitted.
  • the configuration for moving the guide moving unit 30 in the Z-axis direction by rotating the screw 64 is the same as in the third embodiment.
  • FIGS. 13A and 13B are diagrams showing the relationship between the input detection state and the output presentation method according to the fourth embodiment of the present invention.
  • the force is presented to the operation lever 61 of the operation unit 1 by the pulling force of the wire 35.
  • a force (presentation force) against an input operation is generated by stopping the movement of the cover 17 using a stopper 70 as shown in FIG. 13A.
  • the stopper 70 has one end connected to the guide moving unit 30 and the other end provided so as to protrude into the slit 11B of the lid member 11. As shown in FIG. 13A, the other end of the stopper 70 can be obtained by rotating the screw 64 and moving the guide moving unit 30 upward in the Z-axis direction while the operation lever 12 is on the XY-axis moving guide surface 15. The portion is protruded into the slit 11B of the lid member 11. As a result, the movement of the operation lever 12 in the XY axis direction is restricted by the stopper 70 and the cover 17.
  • Example 1 the force was presented by the resultant force of the tensile force of the wire 35 and the extension force against the compression of the compression spring 32.
  • the movement of the guide moving unit 30 in the vertical (positive / negative) direction is generated by rotating the screw 64, thereby contacting the guide moving unit 30. It is possible to present a tactile sensation in the Z-axis direction with the operation lever 61 of the operation unit 1 being provided.
  • the drag (presentation force) against the input operation can be presented to the operation lever 61 of the operation unit 1, and the tactile sensation is presented in any of the vertical (positive and negative) directions at an arbitrary timing Is possible.
  • the technology for presenting a tactile sensation according to the present invention can be applied to an operation unit of an electronic device such as a mobile phone, a PDA, a notebook PC, a game machine, and a TV remote controller.
  • an electronic device such as a mobile phone, a PDA, a notebook PC, a game machine, and a TV remote controller.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 本発明の触力覚提示装置は、操作者により操作される操作レバーと、操作レバーのXY平面方向のスライド動作の入力および操作レバーのXY平面上特定位置でのZ軸方向への押し込み動作の入力を案内する移動ガイド面とを有する操作部と、操作レバーのXY平面方向のスライド動作の入力と操作レバーのZ軸方向への押し込み動作の入力とを検出する検出部と、検出部の検出結果に基づき、操作レバーの操作に対応した力を演算する演算制御部と、少なくとも一つのアクチュエータからなる駆動部を有し、演算制御部の演算結果に基づき、駆動部に対して、XY平面方向のスライド動作の入力に対する操作レバーの抗力、及びZ軸方向への押し込み動作の入力に対する操作レバーの調整力を発生させる駆動伝達部とを備える。

Description

触力覚提示装置、触力覚提示装置が適用された電子機器端末及び触力覚提示方法
 本発明は、携帯電話、PDA、ノートPC、ゲーム機、テレビリモコンといった電子機器の操作部に適用可能な触力覚提示装置及び触力覚提示方法に関する。
 従来より、大掛かりなシステムを要した、コンピュータ上の仮想物体への接触等、触力覚を利用した触力覚提示装置(触力覚提示装置)が提示されている。この触力覚提示装置は、可搬性を重視する携帯電話、PDA、ノートPC又はリモコン、マウス、ゲームコントローラといった電子機器上に適用されている。
 このような触力覚提示装置として、特許文献1~3に示される技術が示されている。特許文献1に示される触覚力覚呈示装置では、内部に運動子を備え振動及び回転可能に保持された球体を備える。この触覚力覚呈示装置は、モニターに表示された画像上にポインタが接触したときに触覚力覚信号を出力する。球体が回転されている状態で、駆動装置及び情報処理装置から送信された触覚力覚信号に応じて、運動子を運動させることにより球体を振動させて触覚力覚が呈示される。
 特許文献2に示される触力覚提示装置にタッチパネルにおいては、中間電極シートは、透明で、可撓性があり、両面に透明電極が成膜されている。この中間電極シートを挟んで、両透明電極からそれぞれ所定の均一な間隙を開けて、入力操作側に、上側電極シートが積層され、表示装置側に下側電極シート積層されて構成されている。上側電極シートは、透明電極に対面し、上側透明電極を有する。下側電極シートは、透明電極に対面し、下側透明電極を有する。
 特許文献3に示される触覚インタフェース装置は、操作者によって操作される操作部を有するユーザインタフェース部と、このユーザインタフェース部を駆動する駆動部と、この駆動部を制御する制御部とを有する。駆動部は、ケース中に、極性が交互になるように配設された磁石を有している。この触覚インタフェース装置の制御部は、信号線を介してフレーム内のコイルへ電流を流すことによってこのフレームを変位させるとともに、このフレームに取り付けられている操作部を、このフレームの変位に連動して変位させる。駆動部は、操作者に反力を与えるために制御部における駆動制御の下、操作部に対して電磁気により駆動力を付与する。
特開2001-117715号公報 特開2002-259059号公報 特開2004-171157号公報
 上記特許文献1~3に示される技術では、近年の技術の進歩により小型で自由度の高いセンサからの出力に基づいて、X軸、Y軸、Z軸方向への入力、及びこの入力時の接触覚に応じた抵抗力を発生させている。このように入力を検出するため及び、抵抗力を発生させるために多くの部品が必要である。アクチュエータにおいては操作者に十分な提示を行うための出力を持たせたままの小型化が難しい。より表現力の高い触力覚提示を行なうためには、装置全体が大型化、重量化し、また、部品点数の増加により、高価格化、エネルギー使用が増大化するという問題がある。
 この発明は、上述した事情に鑑みてなされたものであって、機器の大型化につながるアクチュエータの構造を簡易にすることで、可搬性を重視する携帯機器や機器に付随するコントローラにおける触力覚提示において、軽量、小型でかつ表現力の高い触力覚提示を行なうことができる触力覚提示装置及びその提示方法を提供することにある。
 上記課題を解決するために、本発明の触力覚提示装置は、操作者により操作される操作レバーと、操作レバーのXY平面方向のスライド動作の入力および操作レバーのXY平面上特定位置でのZ軸方向への押し込み動作の入力を案内する移動ガイド面とを有する操作部と、操作レバーのXY平面方向のスライド動作の入力と操作レバーのZ軸方向への押し込み動作の入力とを検出する検出部と、検出部の検出結果に基づき、操作レバーの操作に対応した力を演算する演算制御部と、少なくとも一つのアクチュエータからなる駆動部を有し、演算制御部の演算結果に基づき、駆動部に対して、XY平面方向のスライド動作の入力に対する操作レバーの抗力、及びZ軸方向への押し込み動作の入力に対する操作レバーの調整力を発生させる駆動伝達部とを備える。
 また、本発明の触力覚提示方法は、操作者により操作される操作レバーと、操作レバーのXY平面方向のスライド動作の入力および操作レバーのXY平面上特定位置でのZ軸方向への押し込み動作の入力を案内する移動ガイド面とを有する操作部と、操作レバーのXY平面方向のスライド動作の入力と操作レバーのZ軸方向への押し込み動作の入力とを検出する検出部と、検出部の検出結果に基づき操作レバーの操作に対応した力を演算する演算制御部と、少なくとも一つのアクチュエータからなる駆動部を有する駆動伝達部と、を備えた触力覚提示装置による触力覚提示方法である。この触力覚提示方法は、検出部からの検出データに基づいて、データベースの仮想物理データを参照し、仮想空間の中での物理現象をシミュレートすることで、仮想物理データを更新し、操作レバーに提示する力を提示データとして出力するシミュレータ算出ステップと、提示データに基づき、力を発生させるためのアクチュエータを制御するための制御データを出力し、かつ制御データに基づき操作レバーを動作させる触力覚提示アクチュエータ制御ステップとを有する。
 本発明によれば、検出部によって、操作レバーのXY平面方向のスライド動作の入力およびZ軸方向への押し込み動作の入力とを検出した後、演算制御部によって検出部の検出結果に基づき、操作レバーの操作に対応した力を演算する。その後、駆動伝達部では、少なくとも一つのアクチュエータからなる駆動部によって、演算制御部の演算結果に基づき、駆動部に対して、XY平面方向でのスライド動作の入力に対する操作レバーの抗力、及びZ軸方向への押し込み動作の入力に対する調整力を発生させて操作レバーに伝達する。すなわち、本発明では、少なくとも一つのアクチュエータからなる駆動部によって、XY平面方向でのスライド動作の入力に対する操作レバーの抗力、及びZ軸方向への押し込み動作の入力に対する操作レバーの調整力を発生させている。よって、操作者のアクティブな操作レバーの入力動作に付随する触力覚を提示することができ、少ないアクチュエータでありながら多様な触力覚表現を提示することが可能となる。その結果、機器の大型化につながるアクチュエータの構造を簡易にすることができ、可搬性を重視する携帯機器や機器に付随するコントローラにおける触力覚提示において、軽量、小型、低価格化、省エネルギー化、操作性向上を図り、かつ表現力の高い触力覚提示を行なうことができる。
本発明の実施例1に係る操作部を含む触力覚提示装置の全体構成を示すブロック図である。 図1に示す操作部の入出力操作の様子を表した図である。 図1に示す操作部の詳細を示す縦断面図である。 図1に示す操作部における入力検出状態と出力提示方法の関係を表したイメージ図であって、XY軸方向への動作を示している。 図1に示す操作部における入力検出状態と出力提示方法の関係を表したイメージ図であって、Z軸方向への動作を示している。 本発明の実施例1に係る触力覚提示装置における仮想空間での操作ポインタと仮想物理情報とを表した図である。 本発明の実施例1に係る触力覚提示装置の全体動作を表すフローチャートである。 図1に示す操作部の操作レバーの動作を示すイメージ図である。 本発明の実施例1に係る触力覚提示装置における仮想空間での操作ポインタの詳細動作を示すイメージ図である。 本発明の実施例1に係る触力覚提示装置におけるシミュレータ算出部及びアクチュエータ制御部からなる演算制御部の制御内容を示すフローチャートである。 本発明の実施例1に係る触力覚提示装置における仮想空間での操作ポインタと仮想物理データとの関係を表したイメージ図であって、仮想空間内の仮想壁面と操作ポインタとの関係を示す。 本発明の実施例1に係る触力覚提示装置における仮想空間での操作ポインタと仮想物理データとの関係を表したイメージ図であって、仮想空間内の仮想底面と操作ポインタとの関係を示している。 本発明の実施例1に係る触力覚提示装置における操作部と仮想空間での操作ポインタと仮想壁面との関係を表したイメージ図であって、操作部の平面図である。 本発明の実施例1に係る触力覚提示装置における操作部と仮想空間での操作ポインタと仮想壁面との関係を表したイメージ図であって、仮想空間内の操作ポインタを示す図である。 本発明の実施例2に係る操作部の詳細を示す縦断面図である。 本発明の実施例3に係る入力検出状態と出力提示方法との関係を示す図であって、XY軸方向への動作を示す。 本発明の実施例3に係る入力検出状態と出力提示方法との関係を示す図であって、Z軸方向への動作を示す。 本発明の実施例4に係る入力検出状態と出力提示方法との関係を示す図であって、XY軸方向への動作を示す。 本発明の実施例4に係る入力検出状態と出力提示方法との関係を示す図であって、Z軸方向への動作を示す。
 次に、図1~図10Bを参照して本発明の実施例1を説明する。図1は本発明を適用した触力覚提示装置の構成を示すブロック図である。図2は触力覚提示装置の操作部を表した斜視図である。図2は、図1に示される操作部1の外観図であって、操作者の指先による動作を表している。この操作部1は、突状の操作レバー12(後述する)を有する。操作レバー12に対して触力覚を提示する領域は指先の接触点である。操作レバー12に対して、XY平面上のスライド動作と、中心位置OでのZ軸方向への押し込み動作としての入力が行なえる。本発明の実施例1では、操作レバー12に対するXY平面上のスライド動作と、中心位置OでのZ軸方向への操作レバー12の押し込み動作を入力データとして検出する。この入力データに基づき、XY平面上のスライド動作に付随した入力操作に対して「抗力(提示力)」を発生させる触力覚提示を行う。また、Z軸方向への操作レバー12の押し込み動作に対しては、目標とされる基準仮想面に基づき、「弾性力」「粘性力」「慣性力」といった力を返す触力覚提示を行う。以下の説明においてZ軸方向へのこれら「弾性力」「粘性力」「慣性力」を、操作レバー12の押し込み力に対する「調整力(提示力)」と表現する。
 図1を参照して、本発明を適用した触力覚提示装置について説明する。この触力覚提示装置は、操作部1と、シミュレータ算出部4と、アクチュエータ制御部6と、情報提示部7とから構成されている。操作部1は、操作者によって操作されて内部に入力検出センサ2及び触力覚提示アクチュエータ3(後述する)を有する。シミュレータ算出部4は、操作部1の入力検出センサ2から出力された検出データをデータベース5内のデータと比較参照する。アクチュエータ制御部6は、シミュレータ算出部4における算出結果に基づき駆動される。情報提示部7は、アクチュエータ制御部6の制御情報を視覚的に表示する。
 この触力覚提示装置における処理を説明する。操作部1が操作されて操作部1の入力検出センサ2から検出データaが出力される。シミュレータ算出部4は、その検出データaを、データベース5の仮想的な物体情報である仮想物理データbと参照比較した後、触力覚提示アクチュエータ3を駆動させるための力である提示データcを計算する。その後、このシミュレータ算出部4は、提示データcに基づき、例えばディスプレイである情報提示部7に対して視覚情報として、目標とされる基準仮想面を表示する表示データeを出力する。それとともに、シミュレータ算出部4は、データベース5に対して、この提示データcに基づき予め記憶させた仮想物理データbを更新させる処理を行う。アクチュエータ制御部6は、シミュレータ算出部4から提示データcが入力された場合に、提示データcに基づき、触力覚提示アクチュエータ3に対して提示する力を算出および制御するための制御データdを生成し、この制御データdに基づき触力覚提示アクチュエータ3を駆動させる。
 上記構成において、シミュレータ算出部4及びアクチュエータ制御部6により「演算制御部C」が構成される。触力覚提示アクチュエータ3により「駆動伝達部D(具体的には、図3に示す、ガイド移動部30、圧縮バネ32、駆動部33、プーリ34、ワイヤ35からなる)(後述する)」が構成される。
 図3は、指で直接接触し入力動作や触力覚提示を行なう操作部1の詳細を表した断面図である。この操作部1は、ケーシング10と、蓋部材11と、操作レバー12と、ガイド部材14と、を具備する。ケーシング10は、全体として筒状に形成されている。蓋部材11は、ケーシング10の上部開口に設けられ、中央部に円形開口11Aを有する。操作レバー12は、蓋部材11の円形開口11A内に移動自在に設けられ、縦断面視において凸形状を有し、かつ平面視において円形形状を有する。ガイド部材14は、ケーシング10内でかつ蓋部材11の下部に設けられ、中央部に凹状の収納部13を有する。ガイド部材14の上面でありかつガイド部材14と蓋部材11の円形開口11Aとの間には、操作レバー12が水平移動できるXY軸方向移動ガイド面15が形成されている。
 ガイド部材14内の凹状の収納部13の壁面は、操作レバー12が収納可能な大きさに形成されている。その壁面には、操作レバー12がZ軸方向に摺動可能なZ軸方向移動ガイド面16が形成されている。操作レバー12の側部にはカバー17が固定されている。カバー17は、蓋部材11の円形開口11Aに面する内壁面に水平に形成されたスリット11B内に収容される。カバー17は、操作レバー12の水平移動とともに動き、収納部13が上部に露出しないようにしている。
 ガイド部材14のXY軸方向移動ガイド面15の近傍には、操作レバー12のXY軸方向の移動量を検出するためのリング状のXY軸移動検出部20が設けられている。ガイド部材14のZ軸方向移動ガイド面16の近傍には、操作レバー12のZ軸方向の移動量を検出するためのZ軸移動検出部21が設けられている。XY軸移動検出部20、およびZ軸移動検出部21は、図1に示す入力検出センサ2に相当している。
 XY軸移動検出部20、およびZ軸移動検出部21は、操作レバー12が中心位置Oにある状態(図3の操作レバー12が、ガイド部材14の収納部13上に位置している状態)を基準として、操作レバー12のXY軸方向、Z軸方向への移動量をそれぞれ検出する。XY軸移動検出部20、およびZ軸移動検出部21はそれぞれ、ケーシング10内に設けられた配線基板22に接続されている。この配線基板22上には、XY軸移動検出部20とZ軸移動検出部21とともに、記憶部23、情報処理部24、制御部25が設けられる。記憶部23は、目標とされる状態量(基準仮想面)を記憶する。情報処理部24は、XY軸移動検出部20とZ軸移動検出部21によって得られた検出データに基づきワイヤ35の駆動部33の駆動量を演算する。制御部25は、情報処理部24による演算結果に基づき駆動部33の調整力(提示力)をコントロールする。記憶部23は、図1のデータベース5に相当する。情報処理部24は、図1のシミュレータ算出部4に相当する。制御部25は、図1のアクチュエータ制御部6に相当する。上記移動量を検出するXY軸検出部20及びZ軸検出部21は、光位置計測センサにより構成される。
 ガイド部材14の収納部13内には、ガイド移動部30が設けられている。このガイド移動部30は、中央部に貫通孔31を有し、筒状に形成されている。ガイド移動部30は、操作レバー12が、ガイド部材14の収納部13内に押し込まれた場合に、操作レバー12に押されて該操作レバー12とともに下方に移動する。このガイド移動部30の上面は、外部から力が加えられていない場合に、XY軸方向移動ガイド面15の一部を形成し、その上面に沿って操作レバー12がスライド可能となる。貫通孔31の上部は、外側から中央部の貫通孔31に向けて傾斜してワイヤ35(後述する)を案内する傾斜面31Aが形成されている。ガイド移動部30の下部と、ガイド部材14の収納部13の底面との間には、該ガイド移動部30を上方に向けて付勢するための圧縮バネ32が設けられている。
 ケーシング10内でかつガイド部材14の側部には、例えばステッピングモータ等により構成された駆動部33が設けられている。この駆動部33は、上述した触力覚提示アクチュエータ3に相当する。駆動部33の出力軸には、プーリ34が設けられている。このプーリ34にはワイヤ35が巻回されており、このワイヤ35の先端は、ガイド移動部30の貫通孔31及び貫通孔31の上部の傾斜面31Aを経由して操作レバー12の下部に連結されている。
 駆動部33が駆動(例えば、駆動軸が時計方向に回転)されてワイヤ35がプーリ34に巻かれていく場合に、操作レバー12が、ガイド部材14の収納部13内に入り、圧縮バネ32の付勢力に抗して、ガイド移動部30とともに収納部13内をZ軸方向に降下する。駆動部33が駆動(例えば、駆動軸が反時計方向に回転)されてワイヤ35がプーリ34から繰り出された場合には、操作レバー12が開放される、又は操作レバー12に対する引っ張り力が弱められた結果、圧縮バネ32の付勢力と合わさり、操作レバー12をZ軸上方に押し上げる力が生じる。このようなワイヤ35を通じた、触力覚提示アクチュエータ3である駆動部33の駆動によって、操作レバー12に対して触力覚提示力が付与される(詳細は後述する)。
 以上のような構成により、図3に示すように、操作者の指先により操作部1の操作レバー12に対して、XY軸方向へスライド動作させると、操作レバー12は、XY軸方向移動ガイド面15に沿ってXY平面を動く。このとき、XY軸検出部20により、中心位置Oからずれた移動量が計測される。また、操作者の指先により操作部1の操作レバー12に対して、中心位置OにてZ軸方向への操作レバー12の押し込み動作をさせた場合には、操作レバー12が筒状のZ軸方向移動ガイド面16に沿って下方に動く。このとき該操作レバー12の押し込まれた移動量は、Z軸移動検出部21により計測される。
 駆動部33は、ワイヤ35をプーリ34により巻き取ることにより、操作部1の操作レバー12に引張力を伝達して、操作レバー12において触力覚として力を提示する。操作レバー12の押し込み動作の際には、操作レバー12とともに下方移動を行なうガイド移動部30と、そのガイド移動部30を支えかつ上方に付勢する圧縮バネ32とによりZ軸方向への静的な力を発生させ、さらにワイヤ35による引張力との釣り合いと合わせて、操作レバー12に対して触力覚を提示している。
 図4A及び図4Bは、操作レバー12による入力検出状態と、駆動部33による出力提示方法の関係を説明するための図である。図4Aは、XY軸方向のスライド動作入力時の各構成物の状態を表している。ガイド移動部30は、圧縮バネ32の力により操作部1の操作レバー12の下面位置まで上昇している。操作レバー12は、XY軸方向移動ガイド面15とガイド移動部30とによりXY軸方向へのスライドのみ許容される。このときワイヤ35は、圧縮バネ32に対しては圧縮する力を与えていないフリーな状態にある。また、ワイヤ35は、操作部1の操作レバー12と接続されているため、ワイヤ35を通して伝達する力は、操作レバー12のXY軸方向へのスライドへの入力動作に対する力の提示のみに使われる。すなわち、駆動部33の駆動により必ず中心方向へ引き戻すような抗力の提示を行なう。この力を制御することにより、操作者のアクティブな入力動作に付随して抵抗力を発生させる触力覚の提示を行なう。
 図4Bは、操作レバー12の押し込み動作入力時の各構成物の状態を表している。操作部1の操作レバー12はXY平面の中心位置Oにあって、ガイド移動部30と共にZ軸方向移動ガイド面16により、Z軸方向への動きのみ許容されている。このとき、操作レバー12は、ワイヤ35により引っ張られてガイド移動部30を介して圧縮バネ32を圧縮している。圧縮バネ32は、操作レバー12及びガイド移動部30によって圧縮されることにより伸張方向への力を発生するとともに、ワイヤ35の引っ張り又は繰り出しにより伝達される力との合力(バランス)により、操作レバー12の調整力(提示力)の制御を行なう。これにより操作者には、目標とされる基準仮想面を把握するための「弾性力」「粘性力」「慣性力」といった調整力が提示される。
 次に、図1~図5及び図6のフローチャートを参照して実施例1の全体の動作について説明する。図5は、仮想空間での操作ポインタと、目標とされる基準仮想面を形成する仮想物理情報とを表した図である。図5は、操作部1の操作レバー12と連動して動く操作ポインタ40を示している。この操作ポインタ40は、操作部1の操作レバー12と連動して、表示デバイス41上に示される3次元の仮想空間42内を移動し、アクチュエータ制御部6の制御結果を視覚的に表示する。この仮想空間42は、X軸、Y軸、Z軸によって形成される空間であって、例えば、物理情報からなる仮想壁面43や仮想底面44によって構成される。操作レバー12の動作によって示される操作ポインタ40が、目標とされる仮想空間42を形成する仮想壁面43や仮想底面44と接触すると、操作ポインタ40と仮想壁面43あるいは仮想底面44とが互いに影響を及ぼしあう位置、力が算出され操作者へ触力覚として提示及び視覚情報として表示される。図5に示される表示デバイス41は、図1に示される情報提示部7に対応している。
 図6は実施例1の触力覚提示装置の全体動作を表すフローチャートである。図6に示されるように、ステップS101では、操作者によって操作部1の操作レバー12が操作された場合、操作レバー12の位置情報を表示するために、入力検出センサ2(XY軸移動検出部20及びZ軸移動検出部21に相当)が操作レバー12の位置を検出する。すなわち、操作レバー12のXY平面又はZ軸方向への入力位置を検出し、検出データaとして電気的信号を出力する。
 次に、ステップS102では、シミュレータ算出部4(情報処理部24)は、データベース5(記憶部23)の仮想物理データbを参照し、仮想物理データbと入力検出センサ2からの検出データaとを比較し、仮想的な配置関係及び力の釣り合いの関係により、仮想物理データbを更新し、情報表示部7(表示デバイス41)に視覚的な情報を表示させるためのデータである表示データeを出力し、さらに、操作者に触力覚として提示するための提示データcを、アクチュエータ制御部6(制御部25)に出力する。
 次に、ステップS103では、情報表示部7(表示デバイス41)は表示データeを受け取り、図5に示すように、ディスプレイなどの視覚情報として表示するためのデバイスに情報を表示する。また、アクチュエータ制御部6(制御部25)は、シミュレータ算出部4から受け取った提示データcに基づき操作者に触力覚として提示するための制御データdを生成し、触力覚提示アクチュエータ3(駆動部33)に出力する。
 上述した図6のフローチャートにおいて、ステップ102によって「シミュレータ算出ステップ」が構成される。また、ステップS103によって「触力覚提示アクチュエータ制御ステップ」が構成される。
 次に、各ステップにおける本発明の実施例1の触力覚提示装置の詳細動作について図7A及び図7Bのイメージ図及び図8のフローチャートを参照して、具体的に説明する。図7Aは操作部1の操作レバー12の動作を示し、図7Bは仮想空間42での操作ポインタの詳細動作を示している。ステップS101において、入力検出センサ2により操作部1の操作レバー12への移動入力が検出されると、図7Bに示すように、操作レバー12の移動に応じて仮想空間42内の操作ポインタ40が移動する。このとき、操作レバー12の移動量に応じて仮想空間42内の操作ポインタ40が移動すると、仮想空間42内での操作ポインタ40の移動範囲が制限されてしまう。このため、操作レバー12の移動量に応じて、操作ポインタ40の動作速度を変化させる。移動範囲を限定する際には、操作レバー12の移動量と仮想空間42内の操作ポインタ40の移動量とを対応付けても良い。また、操作部1の操作レバー12の移動量と操作ポインタ40の移動量を対応付ける領域と、操作レバー12の移動量と操作ポインタ40の動作速度とを対応付ける領域とを複合して設定しても良い。
 図8は、シミュレータ算出部4及びアクチュエータ制御部6からなる演算制御部Cの制御内容を表すフローチャートである。このフローチャートは、操作者によって操作される操作レバー12に対して、XY軸方向(XY平面方向)に対する「抗力(提示力)」、Z軸方向に対する「弾性力」「粘性力」「慣性力」といった「調整力」の提示を行うための制御内容である。
 操作者によって操作部1の操作レバー12が操作された場合、ステップS200では、先のステップS101にて検出された入力検出センサ2(XY軸移動検出部20及びZ軸移動検出部21に相当)による検出結果に基づき、操作ポインタ40の移動量が、XY平面に対してなされたものか、Z軸方向に対してなされたものかを判別する。入力動作がXY平面への入力であると判断されると、処理がステップS201に進む。一方、入力動作がZ軸方向への入力であると判断されると、処理がステップS301に進む。
 ステップS201にて、仮想空間42内のXY平面内の操作ポインタ40の移動を行なわせた後、ステップS202にて、仮想空間42内における仮想壁面43の物理情報である仮想物理データbを参照し、仮想壁面43と操作ポインタ40と接触判定を行う。ここでは、操作ポインタ40及び仮想壁面43はポリゴンなどメッシュにより構成されている。3D仮想物体としてのポリゴンの各頂点の位置関係から仮想壁面43と操作ポインタとの接触判定を行なった後、処理がステップS203に進む。
 ステップS203では仮想壁面43と操作ポインタ40とが互いに影響しあう位置、力を算出する。これについて、仮想空間42での操作ポインタ40と仮想物理データとの関係を表した図9Aを参照して説明する。図9Aに示すように、XY平面への移動により操作ポインタ40と仮想物理データbの仮想壁面43が接触すると、仮想壁面43の3D仮想物体が持つ仮想的なバネ係数、ダンパ係数、マス係数と操作部1の操作レバー12の操作に応じて動く操作ポインタ40の動きとの関係から物理的なシミュレーションにより仮想壁面43及び操作ポインタ40の互いの仮想物体に生じる位置と力の変化を算出する。この物理シミュレーションは幾何的な力の相互関係を算出する解析法、仮想物体の互いの侵入量に応じて力を発生させるペナルティ法など既存の手法により算出される。仮想壁面43は壁と表現しているが、XY平面方向への力を提示する仮想物体である。仮想壁面43の仮想的な質量を大きくする、又は仮想壁面43を仮想底面44と接続すれば、操作ポインタ40で押しても動かない壁のような表現ができる。仮想壁面43を仮想底面44と分離しかつ適切な仮想質量を与えれば、仮想物体として移動する仮想壁面43を表現できる。このような演算を行った後、処理がステップS204に進む。
 ステップS204において、仮想壁面43が接触により及ぼされる位置と力の変化は、前述のS102におけるデータベースの仮想物理データbとして更新される。操作ポインタ40が接触により及ぼされる位置と力の変化は、操作部1の操作レバー12への触力覚として操作者に提示される。仮想壁面43と操作ポインタ40の位置の変化は視覚情報として表示デバイス41に表示される。このときの操作部1の操作レバー12の入力検出状態と出力提示方法とは図4Aの状態になっている。圧縮バネ32は、操作部1の操作レバー12の移動をXY平面内のみに限定しているだけで、直接触力覚として操作者に提示される力はない。駆動部33が駆動された場合には、ワイヤ35を発生させる触力覚に応じて引張することにより、その引張力が操作部1の操作レバー12に触力覚として操作者に提示される。
 図10Aおよび図10Bは操作部1の操作レバー12と仮想空間42での操作ポインタと仮想壁面との関係を表した図である。図10Aおよび図10Bに示すように、XY平面内での入力操作の場合、操作部1の操作レバー12の入力操作方向と反対側にのみ力を提示できる。このため、仮想壁面43への接触時以降に、操作レバー12の入力操作方向が変わった場合は、物理シミュレーションにより算出される仮想壁面43からの反力を、操作レバー12からXY平面中心方向へ射影した力のみを提示する。仮想壁面43に当たった状態で接触面方向へ移動する際に摩擦が生じる場合には、仮想壁面43からの反力と摩擦力の合力を、操作レバー12からXY平面中心方向へ射影した力のみを提示する。
 次に、図8のステップS200において、入力動作がZ軸方向への入力であると判断された場合のステップS301~S304における処理について説明する。
 ステップS301では、仮想空間42内のZ軸方向の操作ポインタ40の移動を行なう。次に、処理がステップS302に進む。操作ポインタ40がXY平面上へ移動をしていない場合にはXY平面への入力操作がない。つまり、操作部1の操作レバー12がXY平面の中心に位置しており、Z軸方向への操作に限定される。
 次のステップS302では、仮想空間42内における仮想物体である仮想底面44の物理情報である仮想物理データbを参照し、仮想底面44と操作ポインタ40とが接触しているか否か判定する。ステップS202と同様の接触判定を行った後、処理がステップS303に進む。
 ステップS303では、図9Bに示すように、XY平面の中心位置OにてZ軸方向への移動により操作ポインタ40と仮想物理データbの仮想底面44が接触する場合において、仮想底面44の3D仮想物体が持つ仮想的なバネ係数、ダンパ係数、マス係数と、操作部1の操作レバー12の操作に応じて動く操作ポインタ40の動きとの関係から、物理的なシミュレーションを行い、仮想底面44及び操作ポインタ40の互いの仮想物体に生じる位置と力の変化を算出する。その後、処理がステップS304に進む。このステップS303における物理シミュレーションはステップS203と同様である。仮想底面44も仮想壁面43と同様に仮想物体としてとらえ、仮想壁面43の仮想質量と、他の仮想底面44と仮想壁面43との接続関係により、仮想壁面43を、移動を行わない底面として表現、および仮想物体として移動するZ軸方向での仮想物体として表現できる。
 ステップS304では、仮想底面44が接触により及ぼされる位置と力の変化はS102におけるデータベースの仮想物理データbとして更新される。操作ポインタ40が接触により及ぼされる位置と力の変化は、操作部1の操作レバー12への触力覚として操作者に提示される。仮想底面44と操作ポインタ40の位置の変化は視覚情報として表示デバイス41に表示される。
 このときの操作部1の操作レバー12の入力検出状態と出力提示方法とは図4Bの状態になっている。操作部1の操作レバー12及びガイド移動部30はXY平面方向への動きが制限されていて、操作レバー12はワイヤ35により引張られるとガイド移動部30と一体になり、圧縮バネ32を圧縮する。圧縮バネ32は圧縮されることにより伸張方向への力を発生する。この圧縮バネ32による力と駆動部33が駆動されることでワイヤ35により伝達される力と合力が、操作部1の操作レバー12の調整力(提示力)として操作者に提示される。
 Z軸方向での力の提示においては、操作者による入力に対する抵抗力のほか、操作部1の操作レバー12を任意のタイミングで上下(正負)どちらの方向にも制御可能であるため、目標とされる基準仮想面を把握するための「弾性力」「粘性力」「慣性力」といった調整力が提示を行うことが可能になる。「弾性力」に関しては操作しようとする位置の変化に比例して抵抗が生じる方向に力を提示することが一般的であるが、操作しようとする方向に対して逃げるような力の提示も可能である。同様に「粘性力」「慣性力」においても操作している方向とは関係なく力の提示が可能であるため、流れている液体を触ったときに動かされるような感覚や、動いている物体に対する接触などの触力覚の提示が可能なる。
 次に本発明により、操作者のアクティブな動作に付随する触力覚を提示する実現可能な動作について説明する。
 ウエブサイトにおける有害リンクへの警告に利用可能である。子どもにとって有害なホームページへのリンクへは移動できなくなる、その他一般ユーザにとっても有害なサイトを含む場合に移動しにくくなる等の触力覚提示による警告が可能になる。
 マスタ、スレーブのロボットアームなどの入力操作の動作反応に利用可能である。ロボットアームやラジオコントロールなど実物体を操作する場合に障害物に接触した場合における動作反応や、障害物に当たる前の警告の際の動作反応をマスタ側の入力操作部に触力覚提示によりを行うことが可能である。
 ドライブシミュレータなどのゲーム操作の反応として利用可能である。自動車や飛行機などの運転操作をシミュレートするゲームにおいて、カーブを際の動作反応などを触力覚提示により行うことが可能である。
 触地図などの状態把握に利用可能である。視覚障害者における地図把握、そのほか一般ユーザにおける3D迷路のような壁や道順を理解する際に、触力覚の反応を用いることで状態の把握をすることができる。
 文字学習における漢字書き順の情報提示に利用可能である。子どもが漢字学習における文字の書く順番を理解するため、書き順やとび、はね等、入力に沿った方向以外の入力に抵抗力を触力覚として提示することで、学習のための補助をする。
 機器操作の際のクリック感覚のフィードバックとして利用可能である。入力のためのキー操作に関して、触力覚によるフィードバックは重要である。このため、ユーザにとって理解しやすい力フィードバックや従来のクリック感覚とは異なる力フィードバックを返すことによる入力変化の気付きなど、入力のフィードバックを自由に変更することができる。
 ピアノなどの楽器操作、手術シミュレーションや粘土造形のフィードバックとして利用可能である。機器使用の事前学習やエンタテイメントのひとつとして入力に対する機器のフィードバックとして触力覚提示をすることができる。
 触力覚商品情報の状態認識に利用可能である。実店舗での商品購入と異なり、ウエブサイトやテレビでの商品購入において問題となるのが商品の実感である。商品に触った際の触覚情報を提示することにより、より商品を理解したうえでの購入に結びつけることができる。
 錯視絵の理解などエンタテイメントとして利用可能である。視覚情報と触力覚の提示情報を一致しない情報を与えることにより、ユーザに違和感を提示する。例えばMAURITS CORNELIS ESCHER作の螺旋階段が続く錯視絵は、実物としては触ることができないが、仮想物理情報のみを扱う本発明の触力覚の入出力提示装置により、錯視絵に触れることもできる。
 本実施例では、駆動部33とワイヤ35は別体である。しかしながら、これに限られず、電気的に伸び縮みを制御可能なワイヤ状のアクチュエータであるバイオメタルなどを駆動部33として用いても良い。本実施例では、XY軸移動検出部20及びZ軸移動検出部21は光により位置を計測するセンサにより構成されている。XY軸移動検出部20及びZ軸移動検出部21は、位置を計測できればよく、例えば、磁気センサを用いてもよい。本実施例では、圧縮バネ32はコイル状バネにより構成されている。圧縮バネ32は、復元力を持たせる機構であればよく、例えば板バネでもよい。本実施例では、Z軸方向移動ガイド面16を筒状とし操作部1の操作レバー12のZ軸方向の移動をガイドしている。しかしながら、動きを制限できればよく、例えば、操作部1の操作レバー12の中心に穴が開いており、棒状のZ軸方向移動ガイド面16により、操作レバー12のZ軸方向の移動をガイドしても良い。本実施例では、Z軸方向への操作レバー12の押し込みをガイドするZ軸方向移動ガイド面16はXY平面上の中心位置Oに配置してある。しかしながら、Z軸方向への操作レバー12の押し込みをガイドすることができれば、例えば、XY平面上の配置比率が異なる位置である中心位置O以外であってもよい。
 実施例1では、ケーシング10の中央にガイド部材14の収納部13を位置させている。しかしながら、これに限定されず、ケーシング10の中央から偏心した位置に、ガイド部材14の収納部13を位置させても良い。実施例1では、触力覚提示アクチュエータ3を構成している駆動部33を、一つのアクチュエータにより構成したが、このアクチュエータの台数は特に限定されない。
 以上詳細に説明したように本発明の実施例1に示される触力覚提示装置では、XY軸移動検出部20及びZ軸移動検出部21によって、操作レバー12のXY平面のスライド動作とZ軸方向への押し込み動作とを検出した後、シミュレータ算出部4及びアクチュエータ制御部6からなる演算制御部Cにて、検出部の検出結果に基づき操作レバー12の操作に対応した力を演算している。その後、駆動伝達部Dでは、少なくとも一つのアクチュエータからなる駆動部33によって、演算制御部Cの演算結果に基づき、駆動部33に対してXY平面でのスライド動作に対する操作レバー12の抗力(提示力)、及びZ軸方向への押し込み動作に対する調整力(提示力)を発生させてその力を操作レバー12に伝達するようにした。すなわち、実施例1に示される触力覚提示装置では、少なくとも一つのアクチュエータからなる駆動部33によって、XY平面でのスライド動作に対する操作レバー12の抗力(提示力)、及びZ軸方向への押し込み動作に対する操作レバー12の調整力(提示力)を発生させるようにした。このため、操作者のアクティブな操作レバー12の動作に付随する触力覚を提示することができ、少ないアクチュエータでありながら多様な触力覚表現を提示することが可能となる。その結果、機器の大型化につながるアクチュエータの構造を簡易にすることができ、可搬性を重視する携帯機器や機器に付随するコントローラにおける触力覚提示において、軽量、小型、低価格化、省エネルギー化、操作性向上を図り、かつ表現力の高い触力覚提示を行なうことができる。
 次に、図11を参照して本発明の実施例2を説明する。以下の説明において実施例1と同じ構成要素については同一符号を付し重複した説明を省略する。
 実施例2に係る触力覚提示装置は、入力検出センサ2として設けられたXY軸移動検出部及びZ軸移動検出部を、圧電素子によって構成した点において、実施例1の構成と相違する。すなわち、操作レバー12の側部には、圧電素子からなるXY軸移動検出部50が設けられている。また、操作レバー12の下部には、同じく圧電素子からなるZ軸移動検出部51が設けられている。
 これらXY軸移動検出部50及びZ軸移動検出部51は、操作部1の操作レバー12にかかる力を検出する。XY軸移動検出部50及びZ軸移動検出部51からの出力に基づき、情報処理部24(シミュレータ算出部4)は、操作レバー12の移動方向及び移動量を算出している。
 このような圧電素子からなるXY軸移動検出部50、Z軸移動検出部51を用いた場合には、図8に示されるステップS201及びステップS301での操作ポインタ40の移動量に関しては、XY軸移動検出部50およびZ軸移動検出部51によって検出される力の大きさに応じて、操作ポインタ40の動作速度を変化させる。このような圧電素子を使用した場合、操作レバー12の操作において移動方向の制限がなくなる。よって、操作レバー12に対する入力動作に対応して、操作ポインタ40を、XYZ空間内にて任意の方向に移動させ、ステップS200において、XY平面に対する移動量、又はZ軸方向に対す移動量として成分の分類を行うことで、ステップS201、S301以降の処理を行うようにすると良い。これにより、少なくとも操作レバー12による入力動作に関して、仮想3次元空間上の操作ポインタ40の動作方向の制限がなくなる。
 次に、図12Aおよび図12Bを参照して本発明の実施例3を説明する。実施例3は、実施例1に対し、力の伝達と方向を変換する機構の構成を変更している点で相違する。以下の説明において先の実施例と同様の構成要素については同一符号を付し重複した説明を省略する。
 図12A及び図12Bは本発明の実施例2の入力検出状態と出力提示方法との関係を表した図である。実施例1においては、図4Aおよび図4Bに示すように、ワイヤ35を引張させることにより力を伝達していたことと、ワイヤ35による引張力と圧縮バネ32の圧縮に対する伸張力の合力により力を提示していた。一方で、本実施例では、力の伝達をするのにリンク機構を有する方向転換部60を用いている。操作部1の操作レバー61と、方向変換リンク部材63とを方向変換リンク部材63のボールジョイント62により接続することにより、XY平面方向とZ軸方向とにおける力を提示する方向を変換している。また、ネジ64を用い回転をガイド移動部30の平行移動に変換して力を伝達する。
 具体的には、実施例3に示される操作レバー61は、下部面が中央部から周縁部に向けて上方に傾く傾斜面61Aを有する。すなわち、操作レバー61は、中央が下方に向けて突出した形状に形成されている。傾斜面61Aに合わせて、ガイド部材14のXY軸方向移動ガイド面15の内周部も、Z軸方向移動ガイド面16に向けて下方に傾斜する傾斜面15Aに形成されている。このような操作レバー61の傾斜面61Aが、XY軸方向移動ガイド面15の傾斜面15Aに案内されることで、操作レバー61が、ガイド部材14の収納部13内に対して出入りできる。
 操作レバー61の下部中央とガイド移動部30との間には回動自在なボールジョイント62を両端部に有する方向変換リンク部材63が設けられている。方向変換リンク部材63は、ボールジョイント62により、操作レバー61の下部中央とガイド移動部30とそれぞれ連結している。ガイド移動部30の下部には、ネジ64が連結されている。このネジ64は、図示しないアクチュエータである駆動部によって回転駆動される。ネジ64は、この回転駆動によってガイド移動部30をZ軸に沿って移動させることができる。
 力の提示をする際の動作について、図12Aを参照して説明する。操作者がXY平面上の移動を操作部1の操作レバー61に対して行うと、制御部25からの指令に基づき、駆動部が駆動されることでネジ64が回転し、これによってガイド移動部30をZ軸方向に平行移動させ力を発生させる。方向変換リンク部材63によりガイド移動部30がZ軸方向に下げられる力を、操作部1の操作レバー61がXY平面内で中心に向かう力へ方向を変換する。その結果、操作レバー61の入力操作に対する抗力(提示力)を発生させることができる。
 このとき、操作レバー61の底面とXY軸方向への移動へ限定するための傾斜面15A及び61Aの傾きを適宜、調整することにより、方向変換リンク部材63によるガイド移動部30のZ軸方向の力を、操作部1の操作レバー61のXY軸方向の力に変換し易いようにしても良い。
 次に、力の提示をする際の動作について、図12Bを参照して説明する。操作者がZ軸方向への移動を操作部1の操作レバー61に対して行うと、ネジ64を回転させガイド移動部30を更にZ軸方向に下げる力を発生させる。方向変換リンク部材63によりガイド移動部30と、操作部1の操作レバー61とを一体化させた状態でZ軸方向への力を提示するため、操作部1の操作レバー61への入力操作に対する抗力(提示力)を提示するように制御可能になる他、任意のタイミングで上下(正負)どちらの方向にも触力を提示するように制御可能になる。
 実施例1ではZ軸方向での力の提示する際に、正負の力を発生させるために、ワイヤ35の引張力と圧縮バネ32の伸張力とを用いていた。一方で、実施例3では駆動部によってネジ64を回転させることにより正負の力をコントロールできるため、より効率的に力を発生させることが可能になる。また、XY軸方向移動ガイド面15での入力動作に対して、操作部1の操作レバー61がXY平面内で中心に向かう方向への抗力(提示力)を提示できるが、操作部1の操作レバー61が中心から外に向かう方向への抗力(提示力)の提示もできる。
 次に、図13Aおよび図13Bを参照して本発明の実施例4を説明する。実施例4は、実施例1に対し、力の提示手段の機構の構成を変更した点で相違する。以下の説明において先の実施例と同様の構成要素については同一符号を付し重複した説明を省略する。また、ネジ64を回転させることによってガイド移動部30をZ軸方向に移動させる構成は、実施例3と同様である。
 図13A及び図13Bは本発明の第4の実施例の入力検出状態と出力提示方法との関係を表した図である。実施例1においては、図4Aおよび図4Bに示すように、XY平面への力の提示に関して、ワイヤ35の引張り力により操作部1の操作レバー61に力を提示していた。一方で、本実施例では、XY平面への力の提示に関して、図13Aに示すように、ストッパー70を用いカバー17の動きを止めることにより入力操作に対する抗力(提示力)を発生させる。
 このストッパー70は、一端部がガイド移動部30に連結され、かつ他端部が蓋部材11のスリット11B内に突出可能に設けられている。図13Aに示すように、操作レバー12がXY軸方向移動ガイド面15上にある状態で、ネジ64を回転させてガイド移動部30をZ軸方向上方に移動させることで、ストッパー70の他端部を、蓋部材11のスリット11B内に突出させる。その結果、ストッパー70とカバー17とにより操作レバー12のXY軸方向の移動が規制される。
 Z軸方向への力の提示に関しては、実施例1ではワイヤ35の引張力と圧縮バネ32の圧縮に対する伸張力の合力により力を提示していた。一方で、この実施例4では、図13Bに示されるように、ガイド移動部30の上下(正負)方向の移動をネジ64の回転により力を発生させることにより、ガイド移動部30に接触している操作部1の操作レバー61をZ軸方向への触力覚提示が可能になる。Z軸方向への触力覚提示においては、操作部1の操作レバー61に入力操作に対する抗力(提示力)を提示できる他、任意のタイミングで上下(正負)方向のどちらにも触力覚提示が可能になる。
 以上、本発明の実施形態について図面を参照して詳述したが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
 この出願は、2009年2月17日に出願された日本出願特願2009-034049を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 本発明の触力覚提示の技術は、携帯電話、PDA、ノートPC、ゲーム機、テレビリモコンといった電子機器の操作部に適用できる。
1    操作部
2     入力検出センサ
3     触力覚提示アクチュエータ
4     シミュレータ算出部
5     データベース
6     アクチュエータ制御部
7     情報表示部
12   操作レバー
15   XY軸方向移動ガイド面
16   Z軸方向移動ガイド面
20   XY軸移動検出部(センサ)
21   Z軸移動検出部(センサ)
23   記憶部
24   情報処理部
25   制御部
30   ガイド移動部
33   駆動部
50   XY軸力検出部
51   Z軸力検出部
60   方向転換部
61   操作レバー
C     演算制御部
D     駆動伝達部
O     中心位置
a     検出データ
b     仮想物理データ
c     提示データ
d     制御データ
e     表示データ

Claims (21)

  1.  操作者により操作される操作レバーと、前記操作レバーのXY平面方向のスライド動作の入力および前記操作レバーのXY平面上特定位置でのZ軸方向への押し込み動作の入力を案内する移動ガイド面とを有する操作部と、
     前記操作レバーのXY平面方向のスライド動作の入力と前記操作レバーのZ軸方向への押し込み動作の入力とを検出する検出部と、
     前記検出部の検出結果に基づき、前記操作レバーの操作に対応した力を演算する演算制御部と、
     少なくとも一つのアクチュエータからなる駆動部を有し、前記演算制御部の演算結果に基づき、前記駆動部に対して、前記XY平面方向のスライド動作の入力に対する前記操作レバーの抗力、及びZ軸方向への押し込み動作の入力に対する前記操作レバーの調整力を発生させる駆動伝達部と、を備える触力覚提示装置。
  2.  前記駆動伝達部は、XY平面方向のスライド動作が入力された際にはワイヤによる引張力により前記操作レバーを特定位置に引き戻す抗力を伝達し、Z軸方向の押し込み動作が入力された際には前記ワイヤによる引張力とバネによる伸張力の合力によりZ軸方向に調整力を伝達する請求項1記載の触力覚提示装置。
  3.  前記駆動伝達部は、前記駆動部で発生する力を、XY平面方向及びZ軸方向への移動力に変換する方向転換部を有し、XY平面方向のスライド動作が入力された際には前記方向変換部により前記操作レバーを特定位置に引き戻す抗力を伝達し、Z軸方向の押し込み動作が入力された際には前記方向変換部によりZ軸方向に調整力を伝達する請求項1記載の触力覚提示装置。
  4.  前記駆動伝達部は、前記操作レバーのXY平面方向のスライドを止めるストッパーを有し、XY平面方向のスライド動作が入力された際には前記ストッパーにより前記操作レバーの動きを止めることで抗力を発生させ、Z軸方向の押し込み動作が入力された際には、前記操作レバーに対してZ軸方向への調整力を伝達する請求項1記載の触力覚提示装置。
  5.  前記検出部は、XY平面方向のスライド動作の入力として前記操作レバーのXY平面上の位置を検出するセンサと、Z軸方向への押し込み動作の入力として前記操作部のZ軸方向での位置を検出するセンサとを有する請求項1~4のいずれか1項に記載の触力覚提示装置。
  6.  前記検出部は、XY平面方向のスライド動作の入力として前記操作レバーのXY平面方向への力を検出するセンサと、Z軸方向への押し込み動作の入力として前記操作レバーのZ軸方向への力を検出センサとを有する請求項1~4のいずれか1項に記載の触力覚提示装置。
  7.  前記駆動部はモータにおける1方向回転のみを前記操作レバーに提示する力として用いるアクチュエータを有する請求項1~6のいずれか1項に記載の触力覚提示装置。
  8.  前記駆動部はバイオメタルによる圧縮力を駆動力とするアクチュエータを有する請求項1~6のいずれか1項に記載の触力覚提示装置。
  9.  前記駆動部はモータにおける時計回転方向と反時計回転方向との2方向の回転を前記操作レバーに提示する力として用いるアクチュエータを有する請求項1~7のいずれか1項に記載の触力覚提示装置。
  10.  操作者により操作される操作レバーと、前記操作レバーのXY平面方向のスライド動作の入力および前記操作レバーのXY平面上特定位置でのZ軸方向への押し込み動作の入力を案内する移動ガイド面とを有する操作部と、前記操作レバーのXY平面方向のスライド動作の入力と前記操作レバーのZ軸方向への押し込み動作の入力とを検出する検出部と、前記検出部の検出結果に基づき前記操作レバーの操作に対応した力を演算する演算制御部と、少なくとも一つのアクチュエータ駆動部を有する駆動伝達部と、を備え、
     前記演算制御部は、
     前記検出部からの検出データに基づいて、データベースの仮想物理データを参照し、仮想空間の中での物理現象をシミュレートすることで、前記仮想物理データを更新し、前記操作レバーに提示する力を提示データとして出力するシミュレータ算出部と、
     前記提示データに基づき、力を発生させるためのアクチュエータを制御するための制御データを出力し、かつ前記制御データに基づき前記操作レバーを動作させる触力覚提示アクチュエータ制御部と、を具備する触力覚提示装置。
  11.  前記データベースの前記仮想物理データは、仮想空間上での前記操作レバーに相当する操作ポインタと仮想物体のバネ係数、ダンパ係数、マス係数を持ち、前記操作ポインタと前記仮想物体それぞれの位置、大きさ、拘束条件を定義している請求項10に記載の触力覚提示装置。
  12.  前記シミュレータ算出部は、前記操作レバーの前記検出データを仮想空間上での前記操作ポインタの移動量に相当させている請求項10または11に記載の触力覚提示装置。
  13.  前記シミュレータ算出部は、前記操作レバーの前記検出データを仮想空間上での前記操作ポインタの移動速度に相当させている請求項10又は11に記載の触力覚提示装置。
  14.  前記触力覚提示アクチュエータ制御部は、前記駆動部がXY平面方向のスライド動作が入力される際には前記操作レバーを特定位置に引き戻す力を抗力として提示をする制御をし、前記駆動部がZ軸方向の押し込み動作が入力される際にはZ軸方向への正および負の任意の向きの調整力を提示する制御をする請求項10~13のいずれか1項に記載の触力覚提示装置。
  15.  前記触力覚提示アクチュエータ制御部は、前記駆動部がXY平面方向のスライド動作が入力される際には前記操作レバーの動きを止めることで抗力を提示する制御をし、前記駆動部がZ軸方向の押し込み動作が入力される際にはZ軸方向への正および負の任意の向きの調整力を提示する制御をする請求項10~13のいずれか1項に記載の触力覚提示装置。
  16.  前記請求項1~15のいずれか1項に記載の触力覚提示装置を操作部として備える電子端末機器。
  17.  操作者により操作される操作レバーと、前記操作レバーのXY平面方向のスライド動作の入力および前記操作レバーのXY平面上特定位置でのZ軸方向への押し込み動作の入力を案内する移動ガイド面とを有する操作部と、前記操作レバーのXY平面方向のスライド動作の入力と前記操作レバーのZ軸方向への押し込み動作の入力とを検出する検出部と、前記検出部の検出結果に基づき前記操作レバーの操作に対応した力を演算する演算制御部と、少なくとも一つのアクチュエータからなる駆動部を有する駆動伝達部と、を備えた触力覚提示装置による触力覚提示方法であって、
     前記検出部からの検出データに基づいて、データベースの仮想物理データを参照し、仮想空間の中での物理現象をシミュレートすることで、前記仮想物理データを更新し、前記操作レバーに提示する力を提示データとして出力するシミュレータ算出ステップと、
     前記提示データに基づき、力を発生させるためのアクチュエータを制御するための制御データを出力し、かつ前記制御データに基づき前記操作レバーを動作させる触力覚提示アクチュエータ制御ステップと、を有することを触力覚提示方法。
  18.  前記シミュレータ算出ステップは、前記操作レバーの前記検出データを仮想空間上での前記操作ポインタの移動量に相当させている請求項17に記載の触力覚提示方法。
  19.  前記シミュレータ算出ステップは、前記操作レバーの前記検出データを仮想空間上での前記操作ポインタの移動速度に相当させている請求項17に記載の触力覚提示方法。
  20.  前記触力覚提示アクチュエータ制御ステップは、前記駆動部がXY平面方向のスライド動作が入力される際には前記操作レバーを特定位置に引き戻す力を抗力として提示をする制御をし、前記駆動部がZ軸方向の押し込み動作が入力される際にはZ軸方向に限定された正および負の任意の向きに調整力を提示する制御をする請求項17~19のいずれか1項に記載の触力覚提示方法。
  21.  前記触力覚提示アクチュエータ制御ステップは、前記駆動部がXY平面方向のスライド動作が入力される際には前記操作レバーの動きを止めることで抗力を提示する制御をし、前記駆動部がZ軸方向の押し込み動作が入力された際にはZ軸方向に限定された正および負の任意の向きに調整力を提示する制御をする請求項17~19のいずれか1項に記載の触力覚提示方法。
     
PCT/JP2010/000562 2009-02-17 2010-01-29 触力覚提示装置、触力覚提示装置が適用された電子機器端末及び触力覚提示方法 WO2010095372A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011500484A JP5413450B2 (ja) 2009-02-17 2010-01-29 触力覚提示装置、触力覚提示装置が適用された電子機器端末及び触力覚提示方法
US13/148,523 US8976045B2 (en) 2009-02-17 2010-01-29 Tactile force sense presenting device, electronic device terminal applied with tactile force sense presenting device, and tactile force sense presenting method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009034049 2009-02-17
JP2009-034049 2009-02-17

Publications (1)

Publication Number Publication Date
WO2010095372A1 true WO2010095372A1 (ja) 2010-08-26

Family

ID=42633663

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/000562 WO2010095372A1 (ja) 2009-02-17 2010-01-29 触力覚提示装置、触力覚提示装置が適用された電子機器端末及び触力覚提示方法

Country Status (3)

Country Link
US (1) US8976045B2 (ja)
JP (1) JP5413450B2 (ja)
WO (1) WO2010095372A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012128634A (ja) * 2010-12-15 2012-07-05 Tokai Rika Co Ltd 入力装置
JP2012256096A (ja) * 2011-06-07 2012-12-27 Mitsumi Electric Co Ltd 操作入力装置及び操作装置
JP2013538405A (ja) * 2010-09-14 2013-10-10 サムスン エレクトロニクス カンパニー リミテッド 3次元触覚伝達装置、方法及びシステム
WO2017159032A1 (ja) * 2016-03-14 2017-09-21 アルプス電気株式会社 触覚再現装置およびその制御方法
WO2018051606A1 (ja) * 2016-09-14 2018-03-22 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム
KR101873402B1 (ko) * 2011-10-06 2018-07-03 삼성전자주식회사 3자유도 촉각 전달 장치 및 방법

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5849581B2 (ja) * 2011-10-03 2016-01-27 ソニー株式会社 力覚提示装置
JP6098438B2 (ja) * 2013-08-27 2017-03-22 株式会社デンソー 操作装置
DE102015003696A1 (de) * 2015-03-20 2016-09-22 Kuka Roboter Gmbh Freigeben eines Betriebs einer Maschine
JP2018005274A (ja) * 2016-06-27 2018-01-11 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
CN113891126B (zh) * 2021-11-10 2022-08-19 歌尔科技有限公司 控制终端及控制系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001222379A (ja) * 2000-02-10 2001-08-17 Fujitsu Ltd ポインティングデバイス
JP2003057062A (ja) * 2001-08-17 2003-02-26 Fuji Xerox Co Ltd 操作スイッチ装置、触覚インタフェース装置
JP2005228161A (ja) * 2004-02-13 2005-08-25 Fujitsu Component Ltd 平面板振動装置及びこれを用いたスイッチ

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4965545A (en) * 1989-08-09 1990-10-23 Tini Alloy Company Shape memory alloy rotary actuator
US5734373A (en) * 1993-07-16 1998-03-31 Immersion Human Interface Corporation Method and apparatus for controlling force feedback interface systems utilizing a host computer
US7038667B1 (en) * 1998-10-26 2006-05-02 Immersion Corporation Mechanisms for control knobs and other interface devices
JP3855561B2 (ja) 1999-10-15 2006-12-13 富士ゼロックス株式会社 触覚力覚呈示装置及び情報入出力装置
US7262762B2 (en) 2000-11-14 2007-08-28 Keybowl, Inc. Apparatus and method for generating data signals
JP2002259059A (ja) 2001-03-05 2002-09-13 Sony Corp 入力装置
JP4314810B2 (ja) 2002-11-18 2009-08-19 富士ゼロックス株式会社 触覚インタフェース装置
JP2006032499A (ja) 2004-07-13 2006-02-02 Sony Corp 電子機器組み立て装置、電子機器組み立て方法、入出力装置及び電子機器
JP4704769B2 (ja) 2005-02-21 2011-06-22 エスアーペー アーゲー 修理見積額出力装置、修理見積額出力方法、修理見積額出力プログラム、および修理見積額出力システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001222379A (ja) * 2000-02-10 2001-08-17 Fujitsu Ltd ポインティングデバイス
JP2003057062A (ja) * 2001-08-17 2003-02-26 Fuji Xerox Co Ltd 操作スイッチ装置、触覚インタフェース装置
JP2005228161A (ja) * 2004-02-13 2005-08-25 Fujitsu Component Ltd 平面板振動装置及びこれを用いたスイッチ

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013538405A (ja) * 2010-09-14 2013-10-10 サムスン エレクトロニクス カンパニー リミテッド 3次元触覚伝達装置、方法及びシステム
EP2616906A4 (en) * 2010-09-14 2014-05-07 Samsung Electronics Co Ltd SYSTEM, DEVICE AND METHOD FOR PROVIDING A THREE-DIMENSIONAL TOUCH FEEDBACK
JP2012128634A (ja) * 2010-12-15 2012-07-05 Tokai Rika Co Ltd 入力装置
JP2012256096A (ja) * 2011-06-07 2012-12-27 Mitsumi Electric Co Ltd 操作入力装置及び操作装置
KR101873402B1 (ko) * 2011-10-06 2018-07-03 삼성전자주식회사 3자유도 촉각 전달 장치 및 방법
WO2017159032A1 (ja) * 2016-03-14 2017-09-21 アルプス電気株式会社 触覚再現装置およびその制御方法
JPWO2017159032A1 (ja) * 2016-03-14 2018-07-19 アルプス電気株式会社 触覚再現装置およびその制御方法
WO2018051606A1 (ja) * 2016-09-14 2018-03-22 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム
US10845881B2 (en) 2016-09-14 2020-11-24 Sony Corporation Information processing apparatus, information processing method, and information processing system for presentation of haptic feedback with respect to an object based on the electronic information

Also Published As

Publication number Publication date
JP5413450B2 (ja) 2014-02-12
JPWO2010095372A1 (ja) 2012-08-23
US8976045B2 (en) 2015-03-10
US20110316724A1 (en) 2011-12-29

Similar Documents

Publication Publication Date Title
JP5413450B2 (ja) 触力覚提示装置、触力覚提示装置が適用された電子機器端末及び触力覚提示方法
JP6598915B2 (ja) コンテキスト依存ハプティック確認システム
US9104271B1 (en) Gloved human-machine interface
US7205978B2 (en) Mobile apparatus having tactile feedback function
JP3085481U (ja) タッチパッド及びその他のタッチコントロール用触感フィードバック
JP2019050003A (ja) 触覚セルのアレイを用いた有形のユーザ・インターフェース・インタラクション及びジェスチャのシミュレーション
US9727140B2 (en) Tactile force sense presentation device, information terminal, tactile force sense presentation method, and computer-readable recording medium
JP2008516348A (ja) タッチ式入力装置におけるボタンおよびスクロール動作シミュレーション用の触覚フィードバック
Sagheb et al. SWISH: A shifting-weight interface of simulated hydrodynamics for haptic perception of virtual fluid vessels
Martinez et al. Open source, modular, customizable, 3-D printed kinesthetic haptic devices
Kim et al. Vibrotactile rendering for a traveling vibrotactile wave based on a haptic processor
US9323371B2 (en) Haptic sensation producing device, information terminal, haptic sensation producing method, and computer-readable recording medium
JP6341096B2 (ja) 触力覚提示装置、情報端末、触力覚提示方法、およびコンピュータ読み取り可能な記録媒体
WO2013084667A1 (ja) 触力覚提示装置、情報端末、触力覚提示方法、およびコンピュータ読み取り可能な記録媒体
JP2016062428A (ja) 力覚提示装置、情報端末、力覚提示方法、及びプログラム
JP2011238070A (ja) 仮想力覚提示装置及び仮想力覚提示プログラム
Ramírez et al. Haptic augmentation towards a smart learning environment: The haptic lever design
Yang et al. FingViewer: A new multi-touch force feedback touch screen
Wu et al. A virtual reality keyboard with realistic key click haptic feedback
Iiyoshi et al. Origami-Inspired Haptics: A Literature Review
Frediani et al. Enabling wearable soft tactile displays with electroactive smart elastomers
Comai et al. Integrating haptics in Web interfaces: State of the art and open issues
Lu Navigating 3D Information Space with 6 Degree of Freedom Devices
Larsen-Rosner Vibrotactile Rendering of Sliders in Virtual Reality
Murray-Smith et al. Rotational dynamics for design of bidirectional feedback during manual interaction

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10743504

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011500484

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 13148523

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10743504

Country of ref document: EP

Kind code of ref document: A1