WO2016031118A1 - 力覚提示デバイス、力覚提示システム、および力覚提示方法 - Google Patents

力覚提示デバイス、力覚提示システム、および力覚提示方法 Download PDF

Info

Publication number
WO2016031118A1
WO2016031118A1 PCT/JP2015/003456 JP2015003456W WO2016031118A1 WO 2016031118 A1 WO2016031118 A1 WO 2016031118A1 JP 2015003456 W JP2015003456 W JP 2015003456W WO 2016031118 A1 WO2016031118 A1 WO 2016031118A1
Authority
WO
WIPO (PCT)
Prior art keywords
force sense
presentation device
sense presentation
unit
posture
Prior art date
Application number
PCT/JP2015/003456
Other languages
English (en)
French (fr)
Inventor
竹中 幹雄
小野 彰
渡辺 康博
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP15835729.3A priority Critical patent/EP3187968B1/en
Priority to JP2016544914A priority patent/JP6555268B2/ja
Priority to US15/505,131 priority patent/US10072940B2/en
Publication of WO2016031118A1 publication Critical patent/WO2016031118A1/ja
Priority to US16/119,007 priority patent/US10976175B2/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3652Guidance using non-audiovisual output, e.g. tactile, haptic or electric stimuli
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B7/00Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00
    • G08B7/06Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00 using electric transmission, e.g. involving audible and visible signalling through the use of sound and light sources
    • G08B7/066Signalling systems according to more than one of groups G08B3/00 - G08B6/00; Personal calling systems according to more than one of groups G08B3/00 - G08B6/00 using electric transmission, e.g. involving audible and visible signalling through the use of sound and light sources guiding along a path, e.g. evacuation path lighting strip
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/005Traffic control systems for road vehicles including pedestrian guidance indicator
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3614Destination input or retrieval through interaction with a road map, e.g. selecting a POI icon on a road map
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map

Definitions

  • the present technology relates to a force sense presentation device, a force sense presentation system, and a force sense presentation method for presenting a force sense such as a tactile sense or a pressure sense to a user.
  • Patent Document 1 discloses an apparatus that guides a user to a destination without viewing the map for guidance.
  • This device includes a plurality of gyro motors, and independently drives and controls them to generate an angular momentum vector in an arbitrary direction and magnitude, and generate a torque by its time differentiation.
  • This device generates torque corresponding to the direction and distance to be guided based on the position information and destination information of the user on the map (for example, the paragraphs [0062], [0073], [ [0077] etc.).
  • Patent Document 1 does not disclose any new method for the force sense presentation method.
  • this method using torque which is the change in angular momentum over time, generates the necessary torque value, it is difficult to reduce the size of the device, and it requires a large amount of power, and the torque is continuously applied. The problem that it cannot be presented remained.
  • An object of the present technology is to provide a force sense presentation device, a force sense presentation system, and a force sense presentation method using a new force sense presentation method.
  • a haptic device includes a movable body, an actuator unit, a posture detection unit, a signal generation unit, and a control unit.
  • the actuator unit is connected to the movable body.
  • the posture detection unit is configured to detect the posture of the force sense presentation device.
  • the signal generation unit is configured to generate a drive signal for causing the actuator unit to generate a vibration including at least one of a plurality of different amplitudes and a plurality of different frequencies in one cycle.
  • the control unit is configured to control generation of the drive signal by the signal generation unit according to the detected posture.
  • the control unit generates the force sense in a specific direction in a global coordinate system, which is a coordinate system in a three-dimensional space in which the force sense presentation device is used, according to the detected posture, the signal generation unit. May be configured to generate the drive signal.
  • the force sense presentation device can present the user with a force sense in a specific direction in the global coordinate system in an arbitrary posture.
  • the force sense presentation device is configured to acquire information on a current location of the force sense presentation device on a map and calculate a destination on the map and a route from the current location to the destination. May further be provided.
  • the control unit may be configured to calculate a direction on the route to be presented as the force sense based on information on the current location and the route. Thereby, navigation is realizable by force sense presentation by a signal generation part.
  • the control unit may include a determination unit configured to determine whether or not the posture angle of the force sense presentation device is within a set angle range in the global coordinate system. And the said control part may be comprised so that the said signal generation part may produce
  • the force sense presentation device can present the force sense to the user only when the force sense presentation device is within the range of the predetermined posture angle in the three-dimensional space. This makes it easy to distinguish whether or not the traveling direction is correct.
  • the signal generation unit is configured to move the actuator unit along a first direction at a first frequency and a second frequency opposite to the first direction at a second frequency different from the first frequency. It may be configured to generate a drive signal that moves along the direction of.
  • the signal generation unit is configured to move the actuator unit along the first direction with a first amplitude, and with a second amplitude different from the first amplitude opposite to the first direction. It may be configured to generate a drive signal that moves along the direction of two. According to these force sense presentation devices, various tactile senses of force sense such as a friction force variably controlled according to the first direction and the second direction opposite to the first direction can be presented to the user. .
  • the signal generation unit may be configured to generate a drive signal for causing the actuator unit to generate a vibration having an amplitude and a frequency determined based on a detection threshold of a tactile receptor.
  • the force sense presentation device can use the amplitude and frequency corresponding to the tactile area and the insensitive area, and the user can use various tactile sensations such as frictional force. Can be presented.
  • a force sense presentation system includes a force sense presentation device, a signal generation unit, and a control unit.
  • the force sense presentation device includes the movable body, the actuator unit, and the posture detection unit.
  • the signal generation unit is configured to generate a drive signal for causing the actuator unit to generate a vibration including at least one of a plurality of different amplitudes and a plurality of different frequencies in one cycle.
  • the control unit is configured to control generation of the drive signal by the signal generation unit according to the detected posture.
  • a force sense presentation method includes detecting a posture of a force sense presentation device including a movable body and an actuator unit connected to the movable body.
  • a drive signal is generated for causing the actuator unit to generate a vibration including at least one of a plurality of different amplitudes and a plurality of different frequencies within one period.
  • the generation of the drive signal is controlled according to the detected posture.
  • FIG. 1 is a diagram schematically illustrating a main part of an internal structure of a haptic device according to an embodiment of the present technology.
  • FIG. 2 is a block diagram functionally showing the configuration of the force sense presentation device.
  • FIG. 3 shows an example of a state in which the user wears the force sense presentation device.
  • FIG. 4 is a graph showing detection threshold values of human types of tactile receptors for vibration.
  • FIG. 5 is a table showing an example of a vibration waveform having an amplitude and a frequency range obtained based on the tactile receptor.
  • 6A and 6B show vibration waveforms corresponding to Example 1 in the table of FIG. 7A and 7B are other examples of vibration waveforms corresponding to Example 1 described above.
  • FIG. 1 is a diagram schematically illustrating a main part of an internal structure of a haptic device according to an embodiment of the present technology.
  • FIG. 2 is a block diagram functionally showing the configuration of the force sense presentation device.
  • FIG. 3 shows an example of a
  • FIG. 8 shows an example of a parabolic vibration waveform (no acceleration directionality).
  • FIG. 9 shows an example of a parabolic vibration waveform (small force sense).
  • FIG. 10 shows an example of a parabolic vibration waveform (large sense of force).
  • FIG. 11 shows a usage example 1 of the force sense presentation device by the user.
  • FIG. 12 shows the coordinate relationship between the current location and the destination of the user.
  • FIG. 13 is a flowchart illustrating a navigation operation process performed by the haptic device according to the first operation example.
  • FIG. 14 is a modification of the process shown in FIG.
  • FIG. 15 shows a usage example 2 of the force sense presentation device.
  • FIG. 16 is a flowchart illustrating processing of the haptic device according to the third operation example.
  • FIG. 17 illustrates a usage example of the force sense presentation device according to another embodiment of the present technology.
  • FIG. 18 is a flowchart showing processing of the force sense presentation device.
  • FIG. 19 shows
  • FIG. 1 is a diagram schematically illustrating a main part of an internal structure of a haptic device according to an embodiment of the present technology.
  • the force sense presentation device 100 is a portable device, for example, a wearable device.
  • the force sense presentation device 100 includes, for example, a movable body 10 and an actuator unit 20 connected to the movable body 10.
  • the movable body 10 has a plate shape, for example.
  • the force sense presentation device 100 includes a housing 30, and the movable body 10 constitutes a part of the housing 30. That is, the force sense presentation device 100 is configured such that the user can touch the movable body 10. Alternatively, it may be configured such that the reaction force of the movable body 10 can be recognized by the user touching the housing 30.
  • the movable body 10 does not need to have a display function. However, a display panel or a touch panel may be integrally connected to the movable body 10. Alternatively, the movable body 10 itself may be configured as a display panel and a touch panel.
  • the movable body 10 is connected to the housing 30 by, for example, a plurality of support members 12 and is supported so as to be able to vibrate.
  • the actuator unit 20 is accommodated in the casing 30.
  • the actuator unit 20 gives the movable body 10 movement with, for example, two axes of freedom.
  • the actuator unit 20 includes an X actuator 20x and a Y actuator 20y. These X actuator 20x and Y actuator 20y are connected to and supported by the housing 30. There may be a plurality of X actuators 20x and Y actuators 20y.
  • the X actuator 20x causes the movable body 10 to vibrate in the x direction.
  • the Y actuator 20y causes the movable body 10 to vibrate in the y direction.
  • the movable body 10 can vibrate in the x′-y ′ plane by a combination of driving of both actuators 20x and 20y.
  • the X actuator 20x and the Y actuator 20y have substantially the same configuration, for example, a piezoelectric device.
  • a piezoelectric device for example, a bimorph type is adopted, but a unimorph type may be used.
  • FIG. 2 is a block diagram functionally showing the configuration of the force sense presentation device 100.
  • the force sense presentation device 100 is configured to be wearable on a user's body, for example, and is a device that realizes a navigation system.
  • the force sense presentation device 100 includes a control unit 50, an input unit 52, a position calculation unit 56, a posture detection unit 58, a communication unit 54, and a signal generation unit 60.
  • the control unit 50 has a function of comprehensively controlling the operation of the force sense presentation device 100.
  • the control unit 50 mainly controls the generation of the drive signal by the signal generation unit 60 according to the posture of the force sense presentation device 100 detected by the posture detection unit 58 as described later.
  • the control unit 50 may be configured as a chip physically integrated with the signal generation unit 60 or may be configured as a separate chip.
  • the input unit 52 includes a touch panel, buttons, and the like that can be operated by the user. For example, a destination for navigation is input to the control unit 50 via the input unit 52 by the user.
  • a coordinate system fixed to the force sense presentation device 100 is represented by x ′, y ′, and z ′ axes
  • an inertial coordinate system on the earth that is, a coordinate system in a three-dimensional space is represented by x, y, Expressed on the z-axis.
  • a coordinate system of x ′, y ′, and z ′ axes is referred to as a local coordinate system
  • a coordinate system of x, y, and z axes is referred to as a global coordinate system.
  • the posture detection unit 58 detects the posture of the force sense presentation device 100 in the global coordinate system.
  • the posture detection unit 58 includes, for example, an acceleration sensor (not shown), a gyro sensor (angular velocity sensor), a geomagnetic sensor, and the like.
  • an acceleration sensor not shown
  • a gyro sensor angular velocity sensor
  • a geomagnetic sensor and the like.
  • the posture of the force sense presentation device 100 in the global coordinate system can be calculated.
  • Japanese Patent Laid-Open No. 2012-128617 by using a three-axis acceleration sensor, a three-axis gyro sensor, and a three-axis geomagnetic sensor, the haptic device 100 in the global coordinate system is used. Can be calculated. (Angle of haptic device with respect to x, y, z axis)
  • the position calculation unit 56 has a GPS (Global Positioning System) module 55, and has a function of acquiring information on the current location of the force sense presentation device 100 on the map. Further, the position calculation unit 56 has a function of calculating a destination on the map input and set by the user.
  • the map information may be stored in advance in a storage unit (not shown), or a map on the cloud may be used.
  • the communication unit 54 includes, for example, a wide area communication module and a narrow area communication module (not shown).
  • the wide-area communication module has a function of communicating by connecting to a public network such as the Internet.
  • the narrow-area communication module has a function of communicating with other devices using wireless LAN (Local Area Network), Bluetooth (registered trademark), infrared communication, RFID (Radio Frequency IDentification), or the like.
  • the signal generation unit 60 has a function of generating a drive signal for causing the actuator unit 20 to generate vibrations including at least one of a plurality of different amplitudes and different frequencies in one cycle in accordance with control by the control unit 50.
  • the signal generation unit 60 includes an X driver 60x and a Y driver 60y.
  • the X driver 60x generates a drive signal for driving the X actuator 20x
  • the Y driver 60y generates a drive signal for driving the Y actuator 20y.
  • the control unit 50 a part of the position calculation unit 56, and the like include hardware such as a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), and a nonvolatile memory.
  • the ROM and the non-volatile memory store programs necessary for the operation according to the present embodiment.
  • the control unit 50 may include a PLD (Programmable Logic Device), a DSP (Digital Signal Processor), or the like in addition to the CPU or instead of the CPU.
  • FIG. 3A and 3B show an example of a state where the user wears the force sense presentation device 100.
  • FIG. 3A the force sense presentation device 100 is worn by a user as a wristband type or a ring type.
  • the movable body 10 of the force sense presentation device 100 is worn so as to touch the user's body.
  • the wristband type haptic device 100 shown in FIG. 3A may be worn opposite to the wearing direction.
  • FIG. 4 is a graph showing detection thresholds of a plurality of types of tactile receptors of humans with respect to vibration, for example.
  • the horizontal axis represents frequency (Hz) and the vertical axis ( ⁇ m) represents amplitude.
  • human tactile receptors such as SA I, FA I, FA II, and the like. That is, it is generally known that for each type of tactile receptor, there are an amplitude range and a frequency range that humans can detect or cannot detect.
  • each of these types of threshold envelopes a is a detection threshold.
  • the area above the envelope is a human detectable area, that is, a tactile area.
  • region below envelope a) which is less than envelope a is an area
  • the present technology can present various tactile sensations such as frictional force to the user by applying the detection threshold of such a tactile receptor, for example.
  • the force sense presentation device 100 generates, as a main form, a special vibration waveform in which a non-sense-tactile amplitude range or a non-sense-tactile frequency range coexists within one cycle of vibration, It presents a variety of tactile sensations such as frictional force with the body.
  • FIG. 5 is a table showing an example of a vibration waveform having an amplitude and a frequency range obtained based on the tactile receptor. These examples 1 to 4 show that two types of vibration waveforms 1 and 2 are included in one cycle, respectively.
  • the frequencies f0, f1, f2 and amplitudes A, B, C shown in FIG. 5 correspond to those shown in the graph showing the detection threshold of the tactile receptor shown in FIG. The contents of the table are described below.
  • Example 1 Waveform 1 (tactile region): Amplitude A, frequency f1 ⁇ f ⁇ f2 Waveform 2 (dead zone): Amplitude A, frequency f ⁇ f1, or f2 ⁇ f
  • Example 2 Waveform 1 (tactile area): amplitude B, frequency f0 ⁇ f Waveform 2 (dead region): Amplitude B, frequency f ⁇ f0
  • Example 3 Waveform 1 (tactile region): Amplitude A, frequency f1 ⁇ f ⁇ f2 Waveform 2 (dead region): Amplitude C, frequency f1 ⁇ f ⁇ f2
  • Example 4 Waveform 1 (tactile region): Amplitude A, frequency f1 ⁇ f ⁇ f2 Waveform 2 (blind area): Amplitude C, frequency f ⁇ f1
  • these vibrations are vibrations that include at least one of a plurality of different amplitudes (first amplitude, second amplitude) and different frequencies (first frequency, second frequency) in one cycle. is there.
  • the above-described vibrations in the tactile area and the insensitive area may be allowed to coexist within one vibration period, and the combination of frequency and amplitude is not limited.
  • the detection threshold of the tactile receptor is followed, for example, by using a higher frequency range of 100Hz to 200Hz, even if a small amplitude range (eg A) is used, effective friction that can be sufficiently felt by humans Various tactile sensations such as force can be generated.
  • a small amplitude range eg A
  • FIGS. 6A and 6B show vibration waveforms corresponding to Example 1.
  • FIG. The values on the vertical axis (amplitude) and the horizontal axis (time) are normalized.
  • 6A corresponds to the frequency f ⁇ f1 for the waveform 2
  • FIG. 6B corresponds to the frequency f2 ⁇ f for the waveform 2.
  • a ⁇ 5 ⁇ m and waveform 1 can be set as f ⁇ 200 Hz.
  • the waveforms 1 and 2 are synthesized at the solid line portions, and a vibration waveform as shown in “synthesized waveform” is obtained.
  • the signal generation unit 60 supplies a drive signal to the actuator unit 20 so as to vibrate the actuator unit 20 (and the movable body 10) with such vibration.
  • the waveform of the electrical signal output from the signal generator 60 is substantially the same as the combined waveform of FIGS. 6A and 6B.
  • the vibration amplitude corresponds to the voltage.
  • a vibration waveform in only one of the X actuator 20x and the Y actuator 20y will be described. The same applies to the waveforms in FIGS. 7A and 7B.
  • the solid line portion of the waveform 1 is set as the forward path (here, the direction in which the positive value of the graph increases), and the solid line portion of the waveform 2 is set as the return path (here, the direction in which the negative value of the graph increases).
  • the signal generation unit 60 can give the actuator unit 20 (and the movable body 10) vibration having a tactile region in one direction (here, the forward direction) and a dead region in the opposite direction (here, the return direction). it can.
  • FIGS. 7A and 7B are other examples of vibration waveforms corresponding to Example 1 above.
  • the magnitude of the frictional force in the forward path and the backward path is opposite to FIGS. 6A and 6B. That is, the vibration waveform of the blind area of waveform 2 is used on the forward path, and the vibration waveform of the tactile area of waveform 1 is used on the backward path.
  • the time for switching the polarity (positive and negative) of the acceleration which is the second-order differential value of this vibration waveform, is defined as a half cycle.
  • the waveform shown in FIG. 8 has the same period (for example, about 200 Hz) with respect to the positive and negative amplitudes, and the acceleration that is the second-order differential value of the vibration waveform vibrates at the same value in both positive and negative directions. The feeling is not presented.
  • FIG. 9 shows a vibration waveform including a different frequency for each half cycle. Their frequencies are 100Hz and 50Hz.
  • the frequency is different between the forward path and the return path of the vibration.
  • the vibration waveform shown in FIG. 9 (also in FIG. 10) has a different frequency for each half cycle, which is the time when the polarity of acceleration is switched, as described above.
  • the acceleration which is the second-order differential value of the vibration waveform, is not the same value as positive and negative.
  • FIG. 10 shows a vibration waveform including a different frequency for each half cycle. Their frequencies are 200Hz and 50Hz. Also in this case, the acceleration, which is the second-order differential value of the vibration waveform, is not the same value as positive and negative, but a force sensation occurs on the side where the acceleration absolute value is large, resulting in a larger acceleration difference than the acceleration difference shown in FIG. Therefore, a stronger sense of direction of force is presented.
  • the vibration shown in FIGS. 9 and 10 includes a plurality of (two) frequencies different in each half period and a plurality of different (two) amplitudes within one period. It can be said that. These vibrations are vibrations corresponding to Example 4 in the table of FIG.
  • the user can touch the movable body 10 or the casing 30 that generates the reaction force of the movable body 10 with a finger instead of an arm.
  • the force sense presentation device 100 can be applied to a device having a form, for example, a card type device or a smartphone type device. In that case, a force change can be generated with respect to the moved finger (finger tracing).
  • a pseudo shape and slope can be presented to the finger drag.
  • the control unit 50 presents an uphill feeling or downhill feeling to the user according to the altitude information or height information. Also good.
  • the height information finer than the altitude information is information on unevenness of a structure such as a staircase.
  • the actuator unit 20 includes the X actuator 20x and the Y actuator 20y. Therefore, the X driver 60x and the Y driver 60y cooperate to generate respective drive signals and synthesize them to generate a friction force controlled in an arbitrary direction in the x′-y ′ plane, that is, a force sense.
  • the movable body 10 or the casing 30 that generates the reaction force of the movable body 10 can be presented to the user. That is, the present technology can realize the force sense presentation device 100 using a new force sense presentation method.
  • FIG. 11 shows a usage example 1 of the force sense presentation device 100 by the user.
  • the control unit 50 determines a force sense in a specific direction in the global coordinate system, that is, a direction pointing from the current location to the destination, according to the posture of the force sense presentation device 100 detected by the posture detection unit 58 (a posture that changes every moment). To generate a drive signal to the signal generation unit 60. That is, when the user wears a wearable device including the force sense presentation device 100, even if the force sense presentation device 100 is in an arbitrary posture, a force sense in a specific direction toward the destination is given to the user. Can be presented.
  • FIG. 12 shows the coordinate relationship between the current location and the destination of the user.
  • the global coordinate system is represented by two-dimensional coordinates on the map.
  • FIG. 13 is a flowchart illustrating a navigation operation process performed by the force sense presentation device 100 according to the first operation example.
  • the position calculation unit 56 sets (calculates and stores) the destination (xg, yg) input by the user (step 101), and acquires the current location (xn, yn) (step 102).
  • the current location information may have a setting that is always acquired.
  • the position calculation unit 56 sets (calculates and stores the route) (step 103).
  • the position calculation unit 56 calculates the difference between the current location and the destination (step 104). If the difference is 0 (or the current location is within a predetermined range centered on the destination) (YES in step 105), the position calculation unit 56 ends the process.
  • the control unit 50 acquires information on the posture detected by the posture detection unit 58 (step 106).
  • the control unit 50 calculates the direction on the route to be presented to the user as a force sense based on the information on the current location and the set route and based on the posture information of the force sense presentation device 100 (step 107).
  • the signal generation unit 60 generates a drive signal corresponding to the direction on the path, and presents this to the user as a force sense through the movable body 10 or the casing 30 that generates the reaction force of the movable body 10 (step) 108).
  • the process shown in FIG. 14 may be executed.
  • the control unit 50 vibrates the movable body 10 or the casing 30 that generates the reaction force of the movable body 10 using another vibration pattern, thereby indicating that effect. Is notified to the user (step 202).
  • Another vibration pattern is, for example, a vibration pattern that does not indicate a specific direction.
  • a vibration pattern that does not present a specific direction is, for example, a pattern in which the movable body 10 vibrates uniformly, a pattern in which the movable body 10 spreads vibrations from the center to the outside, or a pattern in which vibrations converge from the outside to the center. is there.
  • FIG. 15 shows a usage example 2 of the force sense presentation device 100.
  • the user projects his / her arm forward, and the force sense from the force sense presentation device 100 is adjusted while the x ′ axis of the local coordinate system is substantially aligned with the destination direction (straight direction). You may make it receive presentation.
  • the user's protruding arm is bent at a right angle, and the force sense from the force sense presentation device 100 while the y ′ axis of the local coordinate system is substantially aligned with the destination direction (straight forward direction). You may make it receive presentation of.
  • the force sense presentation device 100 may have a program for the user to select the above usage examples 1 and 2.
  • FIG. 16 is a flowchart illustrating processing of the force sense presentation device 100 according to the operation example 3.
  • steps 301 and 302 are different from the process shown in FIG.
  • the position calculation unit 56 determines whether the user wearing the haptic device 100 is approaching the destination. Alternatively, it may be determined whether the user is off the route.
  • the control unit 50 causes the movable body 10 to generate alarm vibration.
  • the alarm vibration pattern is a vibration pattern different from the vibration pattern indicating a specific direction.
  • the control unit 50 executes the processing after step 106.
  • FIG. 17 shows a usage example of the force sense presentation device 200 according to another embodiment of the present technology, and shows the force sense presentation device 100 viewed in the z-axis direction (vertical direction).
  • the plane on the map is the xy plane.
  • the actuator unit 20 according to the above embodiment has the two axes of the X actuator 20x and the Y actuator 20y.
  • the force sense presentation device 200 has a single-axis actuator (not shown). Or although this embodiment has a biaxial actuator, it is a form which uses only one axis
  • this actuator section has an actuator that can vibrate on the y ′ axis.
  • the actuator has the same configuration and function as the actuator of the above embodiment.
  • the control unit 50 can calculate a posture uniquely determined in the space of the global coordinate system by the posture detection unit 58 as in the above embodiment.
  • the force sense presentation device 200 may have a plate-shaped housing such as a card type or a smartphone type.
  • FIG. 18 is a flowchart showing the processing of the force sense presentation device 200.
  • processing different from FIG. 14 is step 401.
  • the user uses this force sense presentation device 200 with the y ′ axis direction, which is a direction in which the force sense can be presented, substantially directed in the traveling direction.
  • the control unit 50 determines that the direction calculated in step 107 is a predetermined angular range including the direction on the route (for example, a predetermined center around the direction on the route in the xy plane of the global coordinate system). It is determined whether the angle range is within ⁇ . In this case, the control unit 50 functions as a determination unit.
  • the angle range ⁇ is, for example, 10 ° to 40 °, preferably 20 ° to 30 °. This angle range ⁇ may be customizable by the user.
  • step 107 If the direction calculated in step 107 is within the predetermined angle range, the control unit 50 causes the vibration in that direction to be generated in the movable body 10 or the casing 30 that generates the reaction force of the movable body 10, and the direction. Is presented to the user (step 108). If the direction calculated in step 107 is not within the predetermined angle range, the control unit 50 does not present a force sense and returns to the process of step 106.
  • the user when the user's traveling direction matches the set route direction, the user receives a force sense, so that it is easy to distinguish whether the traveling direction of the user is correct. .
  • FIG. 19 shows a configuration of a force sense presentation system according to an embodiment of the present technology.
  • the external device 500 and the force sense presentation device 300 are physically separated.
  • the external device 500 and the force sense presentation device 300 are connected by wireless communication.
  • Examples of the communication unit included in the external device 500 and the force sense presentation device 300 include the above-described wide-area communication module and narrow-area communication module.
  • the force sense presentation device 300 includes at least the movable body 10 described above, the actuator unit 20 (which may be a single-axis actuator as in the other embodiments described above), the housing 30, and the posture detection unit 58.
  • the external device 500 includes a signal generation unit that generates a drive signal for driving the actuator unit 20 and a control unit that controls the signal generation unit. Note that the force sense presentation device 300 may include a signal generation unit (the above-described signal generation unit 60).
  • the external device 500 When the external device 500 and the force sense presentation device 300 are connected by a communication network using wide area communication, the external device 500 mainly functions as a cloud computer. When the external device 500 and the force sense presentation device 300 communicate with each other by narrow area communication, the external device 500 is typically used as a non-wearable portable device such as a smartphone. Of course, the external device 500 may also be a wearable device.
  • the 1 axis and the 2 axis are given as examples of the force sense presentation direction, but 3 axes may be used.
  • a force sense presentation device configured by connecting a Z actuator that can vibrate in the z′-axis direction to the back surface of the movable body 10. It is also possible to present a three-dimensional force sense with this force sense presentation device. Thereby, force senses, such as a friction feeling mentioned above and a slope feeling, can be shown to a user more realistically.
  • the application target of the haptic device is not limited to navigation.
  • the user uses the haptic device 200 shown in FIG. 17 and his / her body motion matches the direction presented by the haptic device 200, such as physical training, other training, etc. This technology can be applied.
  • the actuator is not limited to a piezoelectric device, and may be a device using a linear motor such as a voice coil, an eccentric motor that obtains vibration by rotating an eccentric shaft, or the like. However, by using a piezoelectric device more preferably, it is possible to realize high output and miniaturization of the force sense presentation device 100, 200, 300.
  • Wearable devices are not limited to the wristband type or the ring type, but may be other types such as a necklace type or a spectacle type.
  • this technique can also take the following structures.
  • a movable body An actuator unit connected to the movable body;
  • a posture detection unit configured to detect the posture of the force sense presentation device;
  • a signal generation unit configured to generate a drive signal for causing the actuator unit to generate a vibration including at least one of a plurality of different amplitudes and a plurality of different frequencies in one cycle;
  • a force sense presentation device comprising: a control unit configured to control generation of the drive signal by the signal generation unit according to the detected posture.
  • the force sense presentation device according to (1), The control unit generates the force sense in a specific direction in a global coordinate system, which is a coordinate system in a three-dimensional space in which the force sense presentation device is used, according to the detected posture, the signal generation unit.
  • a force sense presentation device configured to cause the drive signal to be generated.
  • the haptic device according to (2) It further includes a position calculation unit configured to obtain information on the current location of the force sense presentation device on a map, and to calculate a destination on the map and a route from the current location to the destination, The force sense presentation device configured to calculate a direction on the route to be presented as the force sense based on the current location and the route information.
  • the control unit includes a determination unit configured to determine whether or not the posture angle of the force sense presentation device is within a set angle range in the global coordinate system, and the posture angle A force sense presentation device configured to cause the signal generation unit to generate the drive signal when is within a set posture angle range.
  • the force sense presentation device is configured to move the actuator unit along a first direction at a first frequency and a second frequency opposite to the first direction at a second frequency different from the first frequency.
  • a haptic presentation device configured to generate a drive signal that moves along the direction of the.
  • the force sense presentation device is configured to move the actuator unit along the first direction with a first amplitude, and with a second amplitude different from the first amplitude opposite to the first direction.
  • a haptic device configured to generate a drive signal that moves along two directions.
  • the force sense presentation device according to any one of (1) to (6), The force sense presentation device, wherein the signal generation unit is configured to generate a drive signal for causing the actuator unit to generate a vibration having an amplitude and a frequency determined based on a detection threshold of a tactile receptor.
  • a force sense presentation device having a movable body, an actuator unit connected to the movable body, and a posture detection unit configured to detect the posture of the force sense presentation device;
  • a signal generation unit configured to generate a drive signal for causing the actuator unit to generate a vibration including at least one of a plurality of different amplitudes and different frequencies in one cycle;
  • a force sense presentation system comprising: a control unit configured to control generation of the drive signal by the signal generation unit according to the detected posture.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Business, Economics & Management (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)

Abstract

【解決手段】力覚提示デバイスは、可動体と、アクチュエータ部と、姿勢検出部と、信号生成部と、制御部とを具備する。前記アクチュエータ部は、前記可動体に接続されている。前記姿勢検出部は、力覚提示デバイスの姿勢を検出するように構成される。前記信号生成部は、異なる複数の振幅および異なる複数の周波数のうち少なくとも一方を一周期内に含む振動を、前記アクチュエータ部に発生させるための駆動信号を生成するように構成される。前記制御部は、前記検出された姿勢に応じて、前記信号生成部による前記駆動信号の生成を制御するように構成される。

Description

力覚提示デバイス、力覚提示システム、および力覚提示方法
 本技術は、触覚や圧覚等の力覚をユーザに提示する力覚提示デバイス、力覚提示システム、および力覚提示方法に関する。
 例えば特許文献1には、ユーザが誘導用の地図を見ずに目的地にユーザを誘導する装置が開示されている。この装置は、複数個のジャイロモータを備え、これらを独立して駆動および制御することにより、任意の方向、大きさで角運動量ベクトルを生成し、その時間微分によってトルクを発生する。この装置は、地図上のユーザの位置情報および目的地情報に基づき、誘導すべき方向と距離に対応したトルクを発生する(例えば、特許文献1の明細書段落[0062]、[0073]、[0077]等を参照。)。
特開2004-177360号公報
 上記特許文献1は、力覚の提示方法について何ら新しい方法を開示するものではない。また、角運動量の時間的な変化であるトルクを用いる本方式は、必要なトルク値を発生させるため、装置の小型化が難しい事に加え、大きな電力が必要であり、また連続的にトルクを提示できないという課題が残っていた。
 本技術の目的は、新しい力覚の提示方法を使用した力覚提示デバイス、力覚提示システム、および力覚提示方法を提供することにある。
 上記目的を達成するため、本技術に係る力覚提示デバイスは、可動体と、アクチュエータ部と、姿勢検出部と、信号生成部と、制御部とを具備する。
 前記アクチュエータ部は、前記可動体に接続されている。
 前記姿勢検出部は、力覚提示デバイスの姿勢を検出するように構成される。
 前記信号生成部は、異なる複数の振幅および異なる複数の周波数のうち少なくとも一方を一周期内に含む振動を、前記アクチュエータ部に発生させるための駆動信号を生成するように構成される。
 前記制御部は、前記検出された姿勢に応じて、前記信号生成部による前記駆動信号の生成を制御するように構成される。
 信号生成部の駆動信号によるこのようなアクチュエータ部の振動で可動体が振動することにより、可動体と身体との間に所定方向の力覚を提示することができる。
 前記制御部は、この力覚提示デバイスが使用される3次元空間の座標系であるグローバル座標系での特定方向の力覚を提示するように、前記検出された姿勢に応じて前記信号生成部に前記駆動信号を生成させるように構成されてもよい。
 これにより、力覚提示デバイスは任意の姿勢を取る状態で、グローバル座標系での特定方向の力覚をユーザを提示することができる。
 前記力覚提示デバイスは、地図上の前記力覚提示デバイスの現在地の情報を取得し、前記地図上の目的地および前記現在地から前記目的地までの経路を演算するように構成された位置演算部をさらに具備してもよい。前記制御部は、前記現在地および前記経路の情報に基づき、前記力覚として提示すべき前記経路上の方向を演算するように構成されてもよい。
 これにより、信号生成部による力覚提示によりナビゲーションを実現することができる。
 前記制御部は、前記グローバル座標系内の設定された角度の範囲内に、前記力覚提示デバイスの姿勢角度があるか否かを判定するように構成された判定部を有してもよい。そして、前記制御部は、前記姿勢角度が設定された姿勢角度の範囲内にある場合、前記信号生成部に前記駆動信号を生成させように構成されてもよい。
 これにより、力覚提示デバイスが3次元空間内の所定の姿勢角度の範囲内にある場合にのみ、力覚提示デバイスは、力覚をユーザに提示することができる。これにより、自身の進行方向が正しいか否かの区別が容易になる。
 前記信号生成部は、前記アクチュエータ部が、第1の周波数で第1の方向に沿って移動し、かつ、前記第1の周波数と異なる第2の周波数で前記第1の方向の反対の第2の方向に沿って移動するような駆動信号を生成するように構成されてもよい。
 前記信号生成部は、前記アクチュエータ部が、第1の振幅で第1の方向に沿って移動し、かつ、前記第1の振幅とは異なる第2の振幅で前記第1の方向の反対の第2の方向に沿って移動するような駆動信号を生成するように構成されてもよい。
 これらの力覚提示デバイスによれば、第1の方向とその反対方向の第2の方向に応じて、可変に制御された摩擦力等、力覚の多彩な触覚をユーザに提示することができる。
 前記信号生成部は、触覚受容器の検知閾値に基づき求められた振幅および周波数を持つ振動を前記アクチュエータ部に発生させるための駆動信号を生成するように構成されてもよい。
 力覚提示デバイスは、触覚受容器の検知閾値を設計値として採用することにより、触覚領域および不覚領域に対応する振幅や周波数を用いることができ、摩擦力等、力覚の多彩な触覚をユーザに提示することができる。
 本技術の一形態に係る力覚提示システムは、力覚提示デバイスと、信号生成部と、制御部とを具備する。
 前記力覚提示デバイスは、上記可動体、上記アクチュエータ部、上記姿勢検出部を有する。
 前記信号生成部は、異なる複数の振幅および異なる複数の周波数のうち少なくとも一方を一周期内に含む振動を前記アクチュエータ部に発生させるための駆動信号を生成するように構成される。
 前記制御部は、前記検出された姿勢に応じて、前記信号生成部による前記駆動信号の生成を制御するように構成される。
 本技術の一形態に係る力覚提示方法は、可動体およびこの可動体に接続されたアクチュエータ部を有する力覚提示デバイスの姿勢を検出することを含む。
 異なる複数の振幅および異なる複数の周波数のうち少なくとも一方を一周期内に含む振動を前記アクチュエータ部に発生させるための駆動信号が生成される。
 前記検出された姿勢に応じて、前記駆動信号の生成が制御される。
 以上、本技術によれば、新しい力覚の提示方法を使用した力覚提示デバイス等を提供できる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
図1は、本技術の一実施形態に係る力覚提示デバイスの内部構造の要部を概略的に示す図である。 図2は、力覚提示デバイスの構成を機能的に示すブロック図である。 図3は、ユーザが力覚提示デバイスを装着した状態の例を示す。 図4は、振動に対する人の複数タイプの触覚受容器の検知閾値を示すグラフである。 図5は、触覚受容器に基づき求められた振幅および周波数域を持つ振動波形の例を示す表である。 図6A、Bは、図5の表の例1に対応する振動波形を示す。 図7A、Bは、上記例1に対応する振動波形の他の例である。 図8は、放物線の振動波形の例を示す(加速度方向性無し)。 図9は、放物線の振動波形の例を示す(力覚小)。 図10は、放物線の振動波形の例を示す(力覚大)。 図11は、ユーザによる力覚提示デバイスの使用例1を示す。 図12は、ユーザの現在地および目的地の座標関係を示す。 図13は、動作例1に係る力覚提示デバイスによるナビゲーション動作の処理を示すフローチャートである。 図14は、図13に示した処理の変形例である。 図15は、力覚提示デバイスの使用例2を示す。 図16は、動作例3に係る力覚提示デバイスの処理を示すフローチャートである。 図17は、本技術の他の実施形態に係る力覚提示デバイスの使用例を示す。 図18は、この力覚提示デバイスの処理を示すフローチャートである。 図19は、本技術の一実施形態に係る力覚提示システムの構成を示す。
 以下、図面を参照しながら、本技術の実施形態を説明する。
 [力覚提示デバイスの構成]
 図1は、本技術の一実施形態に係る力覚提示デバイスの内部構造の要部を概略的に示す図である。この力覚提示デバイス100は、携帯可能なデバイスであり、例えばウェアラブルなデバイスである。
 力覚提示デバイス100は、例えば可動体10と、この可動体10に接続されたアクチュエータ部20とを備える。可動体10は、例えば板状でなる。力覚提示デバイス100は筐体30を備え、可動体10はその筐体30の一部を構成する。すなわち、力覚提示デバイス100は、ユーザが可動体10を触れることができるように構成されている。もしくはユーザが筐体30を触れることで可動体10の反作用力を認識できることができるように構成されてもよい。
 可動体10は、表示機能を有する必要はない。しかし、表示パネルやタッチパネルが一体に可動体10に接続されていてもよい。あるいは、可動体10自体が、表示パネルおよびタッチパネルとして構成されていてもよい。可動体10は、例えば複数の支持部材12により筐体30に接続され、振動可能に支持されている。
 アクチュエータ部20は、上記筐体30内に収容されている。アクチュエータ部20は、例えば2軸の自由度の動きを可動体10に与える。具体的には、アクチュエータ部20は、Xアクチュエータ20xおよびYアクチュエータ20yを有する。これらXアクチュエータ20x、Yアクチュエータ20yは、筐体30に接続および支持されている。Xアクチュエータ20x、Yアクチュエータ20yは、それぞれ複数あってもよい。Xアクチュエータ20xは、可動体10にx方向の振動を発生させる。Yアクチュエータ20yは、可動体10にy方向の振動を発生させる。両アクチュエータ20x、20yの駆動の組み合わせにより、x'-y'平面内で可動体10が振動可能となる。
 Xアクチュエータ20x、Yアクチュエータ20yは、実質的に同様の構成を有しており、例えば圧電デバイスにより構成されている。圧電デバイスの形態として、例えばバイモルフ型が採用されるが、ユニモルフ型であってもよい。
 図2は、力覚提示デバイス100の構成を機能的に示すブロック図である。この力覚提示デバイス100は、例えばユーザの身体に装着可能に構成され、ナビゲーションシステムを実現するデバイスである。力覚提示デバイス100は、上記可動体10およびアクチュエータ部20の他、制御部50、入力部52、位置演算部56、姿勢検出部58、通信部54、信号生成部60を備える。
 制御部50は、この力覚提示デバイス100の動作を統括的に制御する機能を有する。制御部50は、主に、後述するように姿勢検出部58で検出された力覚提示デバイス100の姿勢に応じて、信号生成部60による駆動信号の生成を制御する。制御部50は、信号生成部60と物理的に一体のチップとして構成されていてもよいし、別体のチップとして構成されていてもよい。
 入力部52は、ユーザが操作可能なタッチパネルやボタン等により構成される。例えばユーザにより、入力部52を介してナビゲーションのための目的地が制御部50に入力される。
 以降では、説明の便宜上、力覚提示デバイス100に固定の座標系をx'、y'、z'軸で表し、地球上の慣性座標系、つまり3次元空間内の座標系をx、y、z軸で表す。x'、y'、z'軸の座標系を、ローカル座標系と言い、x、y、z軸の座標系をグローバル座標系と言う。
 姿勢検出部58は、力覚提示デバイス100のグローバル座標系での姿勢を検出する。姿勢検出部58は、例えば、図示しない加速度センサ、ジャイロセンサ(角速度センサ)、および地磁気センサ等を有する。例えば特許第4325707号に開示されているように、2軸の加速度センサおよび2軸のジャイロセンサを用いることにより、グローバル座標系内での力覚提示デバイス100の姿勢を計算することができる。あるいは、特開2012-128617号公報に開示されているように、3軸の加速度センサ、3軸のジャイロセンサ、3軸の地磁気センサを用いることにより、グローバル座標系内での力覚提示デバイス100の姿勢を計算することができる。(x、y、z軸に対する力覚提示デバイスの角度)
 位置演算部56は、GPS(Global Positioning System)モジュール55を有し、これにより地図上の力覚提示デバイス100の現在地の情報を取得する機能を有する。また、位置演算部56は、ユーザにより入力され設定された、地図上の目的地を演算する機能を有する。地図情報は、図示しない記憶部に予め記憶されていてもよいし、クラウド上の地図が使用されてもよい。
 通信部54は、例えば図示しない広域通信モジュールおよび狭域通信モジュールを備える。広域通信モジュールは、インターネット等の公衆網に接続して通信を行う機能を有する。狭域通信モジュールは、無線LAN(Local Area Network)、Bluetooth(登録商標)、赤外線通信、RFID(Radio Frequency IDentification)等を用いて他のデバイスと通信する機能を有する。
 信号生成部60は、制御部50による制御にしたがい、異なる複数の振幅および異なる複数の周波数のうち少なくとも一方を一周期内に含む振動を、アクチュエータ部20に発生させるための駆動信号を生成する機能を有する。具体的には、信号生成部60は、Xドライバ60x、Yドライバ60yを有する。Xドライバ60xがXアクチュエータ20xを駆動するための駆動信号を生成し、Yドライバ60yがYアクチュエータ20yを駆動するための駆動信号を生成する。
 制御部50、位置演算部56の一部等は、例えばCPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)、不揮発性メモリ等のハードウェアを備える。ROMや不揮発性メモリには、本実施形態に係る動作に必要なプログラムが格納される。制御部50は、CPUに加えて、または、CPUの代わりに、PLD(Programmable Logic Device)、DSP(Digital Signal Processor)等を有していてもよい。
 図3A、Bは、ユーザが力覚提示デバイス100を装着した状態の例を示す。例えば図3Aに示すように、力覚提示デバイス100は、リストバンド型、または指輪型として、ユーザに装着される。この場合、力覚提示デバイス100の可動体10がユーザの身体に触れるようにして装着される。図3Bに示すように、図3Aのリストバンド型の力覚提示デバイス100の装着の向きと反対にこれを装着してもよい。
 [振動波形]
 1)触覚受容器の検知閾値
 図4は、例えば振動に対する人の複数タイプの触覚受容器の検知閾値を示すグラフである。横軸が周波数(Hz)、縦軸(μm)が振幅である。人の触覚受容器として、例えばSA I、FA I、FA II等の複数のタイプがある。すなわち、触覚受容器のタイプごとに、人が検知できる、または検知できない振幅域および周波数域が存在することが一般的に知られている。
 これらの各タイプの閾値の包絡線a(破線で示す)を、ここでは検知閾値とする。この包絡線以上の領域が、人が検知可能な領域、つまり触覚領域である。また、包絡線aに満たない領域(包絡線aより下の領域)が、人が検知できない領域、つまり不覚領域である。本技術は、例えばこのような触覚受容器の検知閾値を応用することにより、摩擦力等の力覚の多彩な触覚をユーザに提示することができる。
 具体的には、力覚提示デバイス100は、主たる形態として、不覚~触覚の振幅域または不覚~触覚の周波数域を振動の一周期内に共存させる特殊な振動波形を生成し、可動体10と身体との間の摩擦力等、力覚の多彩な触覚を提示するものである。
 2)振動波形の例
 図5は、この触覚受容器に基づき求められた振幅および周波数域を持つ振動波形の例を示す表である。これらの例1~4は、2種類の振動の波形1および2が一周期内に含まれることをそれぞれ示す。図5に示された周波数f0,f1,f2、振幅A,B,Cは、図4に示した触覚受容器の検知閾値を示すグラフ内に示されたものに対応する。以下、表の内容を記載する。
 [例1]:
 波形1(触覚領域):振幅A、周波数f1<f<f2
 波形2(不覚領域):振幅A、周波数f<f1、もしくはf2<f
 [例2]:
 波形1(触覚領域):振幅B、周波数f0<f
 波形2(不覚領域):振幅B、周波数f<f0
 [例3]:
 波形1(触覚領域):振幅A、周波数f1<f<f2
 波形2(不覚領域):振幅C、周波数f1<f<f2
 [例4]:
 波形1(触覚領域):振幅A、周波数f1<f<f2
 波形2(不覚領域):振幅C、周波数f<f1
 つまり、これらの振動は、異なる複数の振幅(第1の振幅、第2の振幅)および異なる複数の周波数(第1の周波数、第2の周波数)のうち少なくとも一方を一周期内に含む振動である。
 本技術は、振動の一周期内で、上述の触覚領域および不覚領域の振動を共存させればよく、周波数と振幅の組合せは限定されない。
 触覚受容器の検知閾値にしたがうならば、例えば、高めの100Hz~200Hzの周波数域を使用することで、小さい振幅域(例えばA)を使用しても、人に十分に感じられる効果的な摩擦力等、力覚の多彩な触覚を発生させることができる。
 2-1)上記[例1]に係る振動波形を用いる形態
 図6A、Bは、上記例1に対応する振動波形を示す。縦軸(振幅)および横軸(時間)の値はノーマライズされている。図6Aは、波形2について周波数f<f1に対応し、図6Bは、波形2について周波数f2<fに対応する。一例として、例えば、A≒5um、波形1としてf≒200Hzと設定することができる。各波形1、2のうち、実線部分でそれぞれ合成され、「合成波形」に示すような振動波形が得られる。
 信号生成部60は、このような振動でアクチュエータ部20(および可動体10)を振動させるように、駆動信号をアクチュエータ部20に供給する。信号生成部60から出力される電気信号の波形は、実質的には図6A、Bの合成波形と同様の波形となる。この場合、振動振幅と電圧が対応する。ここでは、説明の簡単のため、Xアクチュエータ20xおよびYアクチュエータ20yのうちいずれか1軸方向のみの振動波形について述べる。これらのことは、図7A、Bの波形についても同様である。
 図6A、Bの振動波形の説明に戻る。波形1について、また、波形2について、実線部分と破線部分とを分離する基準として、例えば1軸方向の振動の往路と復路を基準としている。すなわち波形1の実線部分が往路(ここではグラフの正値が大きくなる方向)、波形2の実線部分が復路(ここではグラフの負値が大きくなる方向)として設定される。つまり、信号生成部60は、一方向(ここでは往路方向)に触覚領域、その反対方向(ここでは復路方向)に不覚領域を持つ振動を、アクチュエータ部20(および可動体10)に与えることができる。
 図7A、Bは、上記例1に対応する振動波形の他の例である。図7AおよびBは、図6A、Bに対して、往路および復路での摩擦力の大小が逆になっている。すなわち、往路で波形2の不覚領域の振動波形が用いられ、復路で波形1の触覚領域の振動波形が用いられる。
 以上では、例1に係る振動波形のみについて説明したが、力覚提示デバイス100は、もちろん例2~4に係る振動波形(=駆動信号)を適宜用いて、摩擦力等の力覚の多彩な触覚をユーザに提示することができる。
 2-2)放物線の振動波形を用いる形態
 次の技術は、上記のように図5に示したように触覚受容器の検知閾値を利用するだけでなく、放物線(サイン波ではなく)の振動波形を用いてさらに明確な力覚を提示しようとするものである。図8、9、10は、放物線の振動波形の例をそれぞれ示す。波形の半周期分が放物線となっている。横軸が時間であり、縦軸が振幅(左側)、速度、加速度(右側)である。それぞれの値はノーマライズされている。
 図8、9、10に示す振動波形においては、この振動波形の二階微分値である加速度の極性(正および負)が切り替わる時間を半周期として定義する。
 図8に示した波形は、振幅の正負に対して同一周期(例えば約200Hz)を有し、振動波形の二階微分値である加速度は、正負に同一値で振動しており、力覚の方向感は提示されない。
 図9は、半周期ごとに異なる周波数を含む振動波形を示す。それらの周波数は、100Hzと50Hzである。ここで、上記図6、7に示した振動波形の例は、振動の往路と復路とでその周波数が異なっていた。しかし、この図9(図10も同様)に示す振動波形は、上記のように、加速度の極性が切り替わる時間である半周期ごとに、異なる周波数を有する。このような振動波形では、振動波形の二階微分値である加速度は正負で同一値とならず、加速度絶対値の大きい側に力覚が発生し、その方向感が提示されることとなる。
 図10は、半周期ごとに異なる周波数を含む振動波形を示す。それらの周波数は、200Hzと50Hzである。この場合も、振動波形の二階微分値である加速度は正負で同一値とならず、加速度絶対値の大きい側に力覚が発生し、図9に示した加速度差よりもさらに大きな加速度差が発生し、より強い力覚の方向感が提示されることとなる。
 また、図9、10に示したような放物線の振動波形を用いることにより、触覚受容器の検知閾値を適用して、振動の一周期内で不覚~触覚の周波数域を共存させる事に加え、より強い力覚をユーザに提示することが可能となる。また、このように強い力覚をユーザに提示することができる結果、不覚~触覚の摩擦力差に加え力覚の方向感も加味され、より強い力覚をユーザに与えることもできる。
 図9、10に示した振動は、一周期内において、加速度の極性が切り替わる時間を半周期ごとに異なる複数の(2つの)周波数を含み、かつ、異なる複数の(2つの)振幅を含む振動であるとも言える。これらの振動は、図5の表の例4に相当する振動である。
 なお、上記放物線の振動波形(図9、10参照)を利用する場合、ユーザが腕ではなく指で可動体10、もしくは可動体10の反作用力を発生する筐体30を触ることができるような形態を持つデバイス、例えばカード型や、スマートフォン型のデバイスに力覚提示デバイス100を適用することもできる。その場合は、動かした指(指なぞり)に対して力覚の変化を発生させることができる。指なぞりに対して疑似的な形状感、スロープ感を提示することができる。指を動かす方向に対抗するような力覚をユーザに与える場合、それは上りスロープ感を意味し、指を動かす方向と同じ方向に力覚をユーザに与える場合、それは下りスロープ感を意味する。例えば制御部50は、地図情報に、標高情報やそれより細かい高さ情報が含まれる場合、その標高情報や高さ情報に応じて、上りスロープ感、下りスロープ感をユーザに提示するようにしてもよい。標高情報より細かい高さ情報とは、例えば階段等の構造物の凹凸の情報である。
 以上のように、本実施形態に係るアクチュエータ部20は、Xアクチュエータ20xおよびYアクチュエータ20yを有する。したがって、Xドライバ60xおよびYドライバ60yが協働してそれぞれの駆動信号を発生してそれらを合成することにより、x'-y'平面の任意の方向に制御された摩擦力、つまり力覚を、可動体10、もしくは可動体10の反作用力を発生する筐体30を介してユーザに提示することができる。すなわち、本技術は、新しい力覚の提示方法を使用した力覚提示デバイス100を実現することができる。
 [力覚提示デバイスの使用例および動作例]
 1)使用例および動作例1
 図11は、ユーザによる力覚提示デバイス100の使用例1を示す。制御部50は、姿勢検出部58で検出された力覚提示デバイス100の姿勢(刻々と変わる姿勢)に応じて、グローバル座標系内の特定方向、すなわち、現在地から目的地へ指す方向の力覚を提示するように、信号生成部60に駆動信号を生成する。つまり、ユーザが、力覚提示デバイス100を含むウェアラブルデバイスを装着した場合、力覚提示デバイス100が任意の姿勢を取っている状態であっても、目的地へ向かう特定方向の力覚をユーザに提示することができる。
 図12は、ユーザの現在地および目的地の座標関係を示す。本実施形態では、グローバル座標系は地図上の2次元座標で表される。図13は、動作例1に係る力覚提示デバイス100によるナビゲーション動作の処理を示すフローチャートである。
 位置演算部56は、ユーザにより入力された目的地(xg,yg)を設定(演算し、それを記憶)し(ステップ101)、現在地(xn,yn)を取得する(ステップ102)。現在地の情報は、常時取得されている設定があってもよい。位置演算部56は、経路を設定(演算し、それを記憶)する(ステップ103)。位置演算部56は、現在地と目的地との差分を計算する(ステップ104)。差分が0(または現在地が目的地を中心として所定の範囲内)である場合(ステップ105のYES)、位置演算部56は、処理を終了する。
 差分が0でない場合(ステップ105のNO)、制御部50は、姿勢検出部58により検出された姿勢の情報を取得する(ステップ106)。制御部50は、現在地および設定された経路の情報に基づいて、また、力覚提示デバイス100の姿勢の情報に基づき、力覚としてユーザに提示すべき経路上の方向を計算する(ステップ107)。信号生成部60はその経路上の方向に対応する駆動信号を生成し、これを可動体10、もしくは可動体10の反作用力を発生する筐体30を介して力覚としてユーザに提示する(ステップ108)。
 ここで、ステップ103で演算された経路が、例えば左、右、または斜め等、直進でない場合は、図14に示すような処理が実行されればよい。例えば経路が直進でない場合(ステップ201のNO)、制御部50は、別の振動パターンを用いて可動体10、もしくは可動体10の反作用力を発生する筐体30を振動させることにより、その旨をユーザに通知する(ステップ202)。
 別の振動パターンとは、例えば特定の一方向を示さない振動パターン等が挙げられる。特定の一方向を提示しない振動パターンとは、例えば可動体10が一様に振動するパターンや、可動体10が中心から外側へ振動が広がるパターン、あるいは外側から中心へ振動が収束するパターン等がある。
 2)使用例2および動作例2
 図15は、力覚提示デバイス100の使用例2を示す。例えば、図15の左に示すように、ユーザが自身の腕を前に突き出し、ローカル座標系のx'軸を概ね目的地方向(直進方向)に合わせながら力覚提示デバイス100からの力覚の提示を受けるようにしてもよい。
 または、図15の右に示すように、ユーザが突出した腕を直角に曲げ、ローカル座標系のy'軸を、概ね目的地方向(直進方向)に合わせながら力覚提示デバイス100からの力覚の提示を受けるようにしてもよい。
 このようにすれば、直進方向から左右方向へ力覚の提示を受けた場合でも、その切り替わりがわかり易く、ユーザは正確に目的地までの経路を認識することができる。
 本使用例の場合の力覚提示デバイス100の動作例は、図13に示したフローチャートに示した通りである。
 力覚提示デバイス100は、以上の使用例1、2をユーザが選択するためのプログラムを有していてもよい。
 3)動作例3
 図16は、動作例3に係る力覚提示デバイス100の処理を示すフローチャートである。この処理において、図13に示す処理と異なる処理は、ステップ301および302である。ステップ301では、位置演算部56は、力覚提示デバイス100を装着したユーザが、目的地に近づいているか否かを判定する。あるいは、ユーザが経路から外れたか否かが判定されてもよい。ユーザが目的地から遠ざかっている場合(ステップ301のNO)、制御部50は、アラーム用の振動を可動体10に発生させる。アラーム用の振動パターンは、特定の一方向を示す振動パターンとは異なる振動パターンである。ユーザが目的地に近づいている場合(ステップ301のYES)、制御部50は、ステップ106以降の処理を実行する。
 このような動作例3により、ユーザは経路を間違えた時に、そのことを確実に知ることができる。
 [他の実施形態に係る力覚提示デバイス]
 次に、本技術の他の実施形態に係る力覚提示デバイスについて説明する。これ以降の説明では、上記実施形態に係る力覚提示デバイス100が含む部材や機能等について実質的に同様の要素については同一の符号を付し、その説明を簡略化または省略し、異なる点を中心に説明する。
 図17は、本技術の他の実施形態に係る力覚提示デバイス200の使用例を示し、z軸方向(垂直方向)で見た力覚提示デバイス100を示している。地図上の平面は、x-y平面である。上記実施形態に係るアクチュエータ部20は、Xアクチュエータ20x、Yアクチュエータ20yの2軸を有していたが、この力覚提示デバイス200は1軸のみのアクチュエータ(図示せず)を有している。あるいは、本実施形態は、2軸アクチュエータを有するが、そのうち1軸のみを使用する形態である。
 例えばこのアクチュエータ部は、y'軸に振動可能なアクチュエータを有する。アクチュエータは、上記実施形態のアクチュエータと同様の構成および機能を有する。制御部50は、姿勢検出部58により、上記実施形態と同様に、グローバル座標系の空間で一意に定められる姿勢を演算することができる。力覚提示デバイス200は、例えばカード型や、スマートフォン型など、板状の筐体を有していてもよい。
 図18は、この力覚提示デバイス200の処理を示すフローチャートである。図18において、図14と異なる処理は、ステップ401である。ユーザは、力覚を提示可能な方向であるy'軸方向を、概ね進行方向に向けてこの力覚提示デバイス200を使用する。ステップ401では、制御部50は、ステップ107で演算された方向が、経路上の方向を含む所定の角度範囲(例えばグローバル座標系のx-y平面内で、経路上の方向を中心とした所定角度範囲)θ内にあるか否かを判定する。この場合、制御部50は判定部として機能する。
 角度範囲θは、例えば10°~40°、好ましくは20°~30°である。この角度範囲θはユーザによりカスタマイズ可能とされてもよい。
 ステップ107で演算された方向が所定角度範囲内であれば、制御部50は、その方向の振動を可動体10、もしくは可動体10の反作用力を発生する筐体30に発生させて、その方向の力覚をユーザに提示する(ステップ108)。ステップ107で演算された方向が所定角度範囲内になければ、制御部50は、力覚を提示せず、ステップ106の処理に戻る。
 このように、本実施形態では、ユーザの進行方向が、設定された経路方向と一致した時に、ユーザが力覚の提示を受けるので、自身の進行方向が正しいか否かの区別が容易になる。
 [力覚提示システム]
 図19は、本技術の一実施形態に係る力覚提示システムの構成を示す。この力覚提示システムは、外部装置500と、力覚提示デバイス300とが、物理的に離れて設けられる。典型的には、これら外部装置500と力覚提示デバイス300とは無線通信により接続される。これら外部装置500および力覚提示デバイス300が持つ通信部としては、上述した広域通信モジュールや狭域通信モジュールが挙げられる。
 力覚提示デバイス300は、少なくとも、上述した可動体10、アクチュエータ部20(上記他の実施形態のように1軸アクチュエータであってもよい)、筐体30、および姿勢検出部58を備える。外部装置500は、アクチュエータ部20を駆動するための駆動信号を生成する信号生成部、およびこれを制御する制御部を備える。なお、力覚提示デバイス300が信号生成部(上記した信号生成部60)を備えていてもよい。
 外部装置500と力覚提示デバイス300とが広域通信による通信網により接続される場合、外部装置500は主にクラウドコンピュータとして機能する。外部装置500と力覚提示デバイス300とが狭域通信により通信する場合、外部装置500は、典型的にはスマートフォン等、ウェアラブルでない携帯型デバイスとして用いられる。もちろん外部装置500もウェアラブルなデバイスであってもよい。
 [他の変形例]
 本技術は、以上説明した実施形態に限定されず、他の種々の実施形態を実現することができる。
 上記実施形態では、力覚の提示方向の軸として、1軸および2軸を例に挙げたが、3軸でもよい。図1において、可動体10の裏面に、z'軸方向に振動可能なZアクチュエータが接続されて構成される力覚提示デバイスを実現可能である。この力覚提示デバイスにより立体的な力覚を提示することも可能である。これにより、上述した摩擦感、スロープ感等の力覚をよりリアルにユーザに提示することができる。
 力覚提示デバイスの応用対象は、ナビゲーションに限られない。例えばユーザが図17に示した力覚提示デバイス200を使用し、自身の身体の動きが、その力覚提示デバイス200が提示する方向に一致しているかなど、身体トレーニング、その他のトレーニング等にも本技術を応用可能である。
 アクチュエータは、圧電デバイスに限られず、ボイスコイル等のリニアモータ、偏心軸を回転させて振動を得る偏心モータ等を用いたデバイスであってもよい。しかし、より好適には圧電デバイスを用いることにより、力覚提示デバイス100、200、300の高出力化、そして小型化を実現できる。
 ウェアラブルデバイスとしては、リストバンド型や指輪型に限られず、ネックレス型、眼鏡型など、他のタイプであってもよい。
 以上説明した各形態の特徴部分のうち、少なくとも2つの特徴部分を組み合わせることも可能である。
 なお、本技術は以下のような構成もとることができる。
(1)
 可動体と、
 前記可動体に接続されたアクチュエータ部と、
 力覚提示デバイスの姿勢を検出するように構成された姿勢検出部と、
 異なる複数の振幅および異なる複数の周波数のうち少なくとも一方を一周期内に含む振動を、前記アクチュエータ部に発生させるための駆動信号を生成するように構成された信号生成部と、
 前記検出された姿勢に応じて、前記信号生成部による前記駆動信号の生成を制御するように構成された制御部と
 を具備する力覚提示デバイス。
(2)
 (1)に記載の力覚提示デバイスであって、
 前記制御部は、この力覚提示デバイスが使用される3次元空間の座標系であるグローバル座標系での特定方向の力覚を提示するように、前記検出された姿勢に応じて前記信号生成部に前記駆動信号を生成させるように構成される
 力覚提示デバイス。
(3)
 (2)に記載の力覚提示デバイスであって、
 地図上の前記力覚提示デバイスの現在地の情報を取得し、前記地図上の目的地および前記現在地から前記目的地までの経路を演算するように構成された位置演算部をさらに具備し、
 前記制御部は、前記現在地および前記経路の情報に基づき、前記力覚として提示すべき前記経路上の方向を演算するように構成される
 力覚提示デバイス。
(4)
 (2)に記載の力覚提示デバイスであって、
 前記制御部は、前記グローバル座標系内の設定された角度の範囲内に、前記力覚提示デバイスの姿勢角度があるか否かを判定するように構成された判定部を有し、前記姿勢角度が設定された姿勢角度の範囲内にある場合、前記信号生成部に前記駆動信号を生成させように構成される
 力覚提示デバイス。
(5)
 (1)から(4)のうちいずれか1つに記載の力覚提示デバイスであって、
 前記信号生成部は、前記アクチュエータ部が、第1の周波数で第1の方向に沿って移動し、かつ、前記第1の周波数と異なる第2の周波数で前記第1の方向の反対の第2の方向に沿って移動するような駆動信号を生成するように構成される
 力覚提示デバイス。
(6)
 (1)から(4)のうちいずれか1つに記載の力覚提示デバイスであって、
 前記信号生成部は、前記アクチュエータ部が、第1の振幅で第1の方向に沿って移動し、かつ、前記第1の振幅とは異なる第2の振幅で前記第1の方向の反対の第2の方向に沿って移動するような駆動信号を生成するように構成される
 力覚提示デバイス。
(7)
 (1)から(6)のうちいずれか1つに記載の力覚提示デバイスであって、
 前記信号生成部は、触覚受容器の検知閾値に基づき求められた振幅および周波数を持つ振動を前記アクチュエータ部に発生させるための駆動信号を生成するように構成される
 力覚提示デバイス。
(8)
 可動体と、前記可動体に接続されたアクチュエータ部と、力覚提示デバイスの姿勢を検出するように構成された姿勢検出部とを有する力覚提示デバイスと、
 異なる複数の振幅および異なる複数の周波数のうち少なくとも一方を一周期内に含む振動を前記アクチュエータ部に発生させるための駆動信号を生成するように構成された信号生成部と、
 前記検出された姿勢に応じて、前記信号生成部による前記駆動信号の生成を制御するように構成された制御部と
 を具備する力覚提示システム。
(9)
 可動体およびこの可動体に接続されたアクチュエータ部を有する力覚提示デバイスの姿勢を検出し、
 異なる複数の振幅および異なる複数の周波数のうち少なくとも一方を一周期内に含む振動を前記アクチュエータ部に発生させるための駆動信号を生成し、
 前記検出された姿勢に応じて、前記駆動信号の生成を制御する
 力覚提示方法。
 10…可動体
 20…アクチュエータ部
 20x…Xアクチュエータ
 20y…Yアクチュエータ
 50…制御部
 52…入力部
 54…通信部
 56…位置演算部
 58…姿勢検出部
 60…信号生成部
 60x…Xドライバ
 60y…Yドライバ
 100、200、300…力覚提示デバイス
 500…外部装置

Claims (9)

  1.  可動体と、
     前記可動体に接続されたアクチュエータ部と、
     力覚提示デバイスの姿勢を検出するように構成された姿勢検出部と、
     異なる複数の振幅および異なる複数の周波数のうち少なくとも一方を一周期内に含む振動を、前記アクチュエータ部に発生させるための駆動信号を生成するように構成された信号生成部と、
     前記検出された姿勢に応じて、前記信号生成部による前記駆動信号の生成を制御するように構成された制御部と
     を具備する力覚提示デバイス。
  2.  請求項1に記載の力覚提示デバイスであって、
     前記制御部は、この力覚提示デバイスが使用される3次元空間の座標系であるグローバル座標系での特定方向の力覚を提示するように、前記検出された姿勢に応じて前記信号生成部に前記駆動信号を生成させるように構成される
     力覚提示デバイス。
  3.  請求項2に記載の力覚提示デバイスであって、
     地図上の前記力覚提示デバイスの現在地の情報を取得し、前記地図上の目的地および前記現在地から前記目的地までの経路を演算するように構成された位置演算部をさらに具備し、
     前記制御部は、前記現在地および前記経路の情報に基づき、前記力覚として提示すべき前記経路上の方向を演算するように構成される
     力覚提示デバイス。
  4.  請求項2に記載の力覚提示デバイスであって、
     前記制御部は、前記グローバル座標系内の設定された角度の範囲内に、前記力覚提示デバイスの姿勢角度があるか否かを判定するように構成された判定部を有し、前記姿勢角度が設定された姿勢角度の範囲内にある場合、前記信号生成部に前記駆動信号を生成させように構成される
     力覚提示デバイス。
  5.  請求項1に記載の力覚提示デバイスであって、
     前記信号生成部は、前記アクチュエータ部が、第1の周波数で第1の方向に沿って移動し、かつ、前記第1の周波数と異なる第2の周波数で前記第1の方向の反対の第2の方向に沿って移動するような駆動信号を生成するように構成される
     力覚提示デバイス。
  6.  請求項1に記載の力覚提示デバイスであって、
     前記信号生成部は、前記アクチュエータ部が、第1の振幅で第1の方向に沿って移動し、かつ、前記第1の振幅とは異なる第2の振幅で前記第1の方向の反対の第2の方向に沿って移動するような駆動信号を生成するように構成される
     力覚提示デバイス。
  7.  請求項1に記載の力覚提示デバイスであって、
     前記信号生成部は、触覚受容器の検知閾値に基づき求められた振幅および周波数を持つ振動を前記アクチュエータ部に発生させるための駆動信号を生成するように構成される
     力覚提示デバイス。
  8.  可動体と、前記可動体に接続されたアクチュエータ部と、力覚提示デバイスの姿勢を検出するように構成された姿勢検出部とを有する力覚提示デバイスと、
     異なる複数の振幅および異なる複数の周波数のうち少なくとも一方を一周期内に含む振動を前記アクチュエータ部に発生させるための駆動信号を生成するように構成された信号生成部と、
     前記検出された姿勢に応じて、前記信号生成部による前記駆動信号の生成を制御するように構成された制御部と
     を具備する力覚提示システム。
  9.  可動体およびこの可動体に接続されたアクチュエータ部を有する力覚提示デバイスの姿勢を検出し、
     異なる複数の振幅および異なる複数の周波数のうち少なくとも一方を一周期内に含む振動を前記アクチュエータ部に発生させるための駆動信号を生成し、
     前記検出された姿勢に応じて、前記駆動信号の生成を制御する
     力覚提示方法。
PCT/JP2015/003456 2014-08-29 2015-07-09 力覚提示デバイス、力覚提示システム、および力覚提示方法 WO2016031118A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP15835729.3A EP3187968B1 (en) 2014-08-29 2015-07-09 Force display device, force display system, and force display method
JP2016544914A JP6555268B2 (ja) 2014-08-29 2015-07-09 力覚提示デバイス、力覚提示システム、および力覚提示方法
US15/505,131 US10072940B2 (en) 2014-08-29 2015-07-09 Force sense presentation device, force sense presentation system, and force sense presentation method
US16/119,007 US10976175B2 (en) 2014-08-29 2018-08-31 Force sense presentation device, force sense presentation system, and force sense presentation method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014175014 2014-08-29
JP2014-175014 2014-08-29

Related Child Applications (3)

Application Number Title Priority Date Filing Date
US15/505,131 A-371-Of-International US10072940B2 (en) 2014-08-29 2015-07-09 Force sense presentation device, force sense presentation system, and force sense presentation method
US15/505,313 A-371-Of-International US10201781B2 (en) 2014-11-04 2015-10-23 CO2 recovery device and CO2 recovery method
US16/119,007 Continuation US10976175B2 (en) 2014-08-29 2018-08-31 Force sense presentation device, force sense presentation system, and force sense presentation method

Publications (1)

Publication Number Publication Date
WO2016031118A1 true WO2016031118A1 (ja) 2016-03-03

Family

ID=55399041

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/003456 WO2016031118A1 (ja) 2014-08-29 2015-07-09 力覚提示デバイス、力覚提示システム、および力覚提示方法

Country Status (4)

Country Link
US (2) US10072940B2 (ja)
EP (1) EP3187968B1 (ja)
JP (2) JP6555268B2 (ja)
WO (1) WO2016031118A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017183537A1 (ja) * 2016-04-19 2017-10-26 日本電信電話株式会社 擬似力覚発生装置
WO2018139542A1 (ja) * 2017-01-27 2018-08-02 ミツミ電機株式会社 振動装置、ウェアラブル端末及び着信通知機能デバイス
WO2018163626A1 (ja) * 2017-03-08 2018-09-13 株式会社デンソー 入力装置
JP2019010778A (ja) * 2017-06-29 2019-01-24 株式会社リコー 印刷装置及び印刷方法
JP2019060835A (ja) * 2017-09-25 2019-04-18 株式会社ミライセンス 錯触力覚デバイス
JP2019124593A (ja) * 2018-01-17 2019-07-25 東京瓦斯株式会社 情報処理装置、誘導システムおよびプログラム
WO2020116076A1 (ja) * 2018-12-03 2020-06-11 株式会社デンソー 力覚提示システム及び力覚提示プログラム
WO2020250336A1 (ja) * 2019-06-12 2020-12-17 日本電信電話株式会社 方向提示装置、方向提示方法、プログラム
JPWO2021059495A1 (ja) * 2019-09-27 2021-04-01
KR20210121218A (ko) * 2019-03-08 2021-10-07 니폰 덴신 덴와 가부시끼가이샤 진동 장치

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10072940B2 (en) * 2014-08-29 2018-09-11 Sony Corporation Force sense presentation device, force sense presentation system, and force sense presentation method
US11408749B2 (en) * 2017-05-30 2022-08-09 Stephen Wesley Schad, JR. Personal navigation system haptic device
JP7084709B2 (ja) * 2017-10-31 2022-06-15 株式会社イトーキ 机システム、及びプログラム。
CN114442796A (zh) * 2020-11-05 2022-05-06 上海艾为电子技术股份有限公司 振动装置及其局部振动调整方法、电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011159110A (ja) * 2010-02-01 2011-08-18 Tohoku Univ 力覚提示方法および力覚提示装置
JP2011159280A (ja) * 2010-01-29 2011-08-18 Samsung Electro-Mechanics Co Ltd タッチスクリーン装置
WO2011119233A1 (en) * 2010-03-25 2011-09-29 Reza Taghavi Tactile communication device for the neck

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4002970B2 (ja) 2002-11-29 2007-11-07 独立行政法人産業技術総合研究所 力覚型ヒューマンナビゲーションシステム及びそれに用いるデバイス
JP4713070B2 (ja) * 2003-08-26 2011-06-29 ヤマハ株式会社 ポインティングデバイス
US8588464B2 (en) * 2007-01-12 2013-11-19 International Business Machines Corporation Assisting a vision-impaired user with navigation based on a 3D captured image stream
JP2008286546A (ja) * 2007-05-15 2008-11-27 Casio Comput Co Ltd 身体装着型電子機器
JP2008287402A (ja) * 2007-05-16 2008-11-27 Sony Corp タッチパネルディスプレイ装置およびタッチパッド並びに電子機器
US8552859B2 (en) * 2009-09-30 2013-10-08 Apple Inc. Self adapting alert device
US8818714B2 (en) * 2010-12-10 2014-08-26 Sony Corporation Portable navigation device and method with active elements
WO2013039510A1 (en) * 2011-09-16 2013-03-21 Empire Technology Development Llc Remote movement guidance
JP5352619B2 (ja) * 2011-04-13 2013-11-27 株式会社日本自動車部品総合研究所 操作入力装置
JP5866869B2 (ja) * 2011-08-26 2016-02-24 ソニー株式会社 携帯端末装置及び方位提示方法
FR2993066B1 (fr) * 2012-07-04 2015-04-10 Commissariat Energie Atomique Dispositif tactile d'aide a la navigation
US9384679B2 (en) * 2012-11-14 2016-07-05 Ishraq ALALAWI System, method and computer program product to assist the visually impaired in navigation
US20140180582A1 (en) * 2012-12-21 2014-06-26 Mark C. Pontarelli Apparatus, method and techniques for wearable navigation device
US9092954B2 (en) * 2013-03-15 2015-07-28 Immersion Corporation Wearable haptic device
US9400557B2 (en) * 2014-06-25 2016-07-26 Intel Corporation Multimodal haptic effect system
US10072940B2 (en) * 2014-08-29 2018-09-11 Sony Corporation Force sense presentation device, force sense presentation system, and force sense presentation method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011159280A (ja) * 2010-01-29 2011-08-18 Samsung Electro-Mechanics Co Ltd タッチスクリーン装置
JP2011159110A (ja) * 2010-02-01 2011-08-18 Tohoku Univ 力覚提示方法および力覚提示装置
WO2011119233A1 (en) * 2010-03-25 2011-09-29 Reza Taghavi Tactile communication device for the neck

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102334863B1 (ko) * 2016-04-19 2021-12-03 니폰 덴신 덴와 가부시끼가이샤 의사 역각 발생 장치
US11531462B2 (en) 2016-04-19 2022-12-20 Nippon Telegraph And Telephone Corporation Pseudo force sense generation apparatus
EP4144447A1 (en) * 2016-04-19 2023-03-08 Nippon Telegraph And Telephone Corporation Pseudo force sense generation apparatus
WO2017183537A1 (ja) * 2016-04-19 2017-10-26 日本電信電話株式会社 擬似力覚発生装置
KR20180123702A (ko) * 2016-04-19 2018-11-19 니폰 덴신 덴와 가부시끼가이샤 의사 역각 발생 장치
CN109070138A (zh) * 2016-04-19 2018-12-21 日本电信电话株式会社 模拟力觉发生装置
KR20200131919A (ko) * 2016-04-19 2020-11-24 니폰 덴신 덴와 가부시끼가이샤 의사 역각 발생 장치
JPWO2017183537A1 (ja) * 2016-04-19 2019-03-14 日本電信電話株式会社 擬似力覚発生装置
CN109070138B (zh) * 2016-04-19 2021-02-09 日本电信电话株式会社 模拟力觉发生装置
KR102181938B1 (ko) * 2016-04-19 2020-11-23 니폰 덴신 덴와 가부시끼가이샤 의사 역각 발생 장치
TWI680018B (zh) * 2016-04-19 2019-12-21 日本電信電話股份有限公司 虛擬力感覺產生裝置
JP7071614B2 (ja) 2017-01-27 2022-05-19 ミツミ電機株式会社 振動装置、ウェアラブル端末及び着信通知機能デバイス
US10994304B2 (en) 2017-01-27 2021-05-04 Mitsumi Electric Co., Ltd. Vibration device, wearable terminal and incoming call notification device
JP2018118233A (ja) * 2017-01-27 2018-08-02 ミツミ電機株式会社 振動装置、ウェアラブル端末及び着信通知機能デバイス
WO2018139542A1 (ja) * 2017-01-27 2018-08-02 ミツミ電機株式会社 振動装置、ウェアラブル端末及び着信通知機能デバイス
WO2018163626A1 (ja) * 2017-03-08 2018-09-13 株式会社デンソー 入力装置
JP2019010778A (ja) * 2017-06-29 2019-01-24 株式会社リコー 印刷装置及び印刷方法
JP2019060835A (ja) * 2017-09-25 2019-04-18 株式会社ミライセンス 錯触力覚デバイス
JP7174337B2 (ja) 2017-09-25 2022-11-17 株式会社村田製作所 錯触力覚デバイス
JP2019124593A (ja) * 2018-01-17 2019-07-25 東京瓦斯株式会社 情報処理装置、誘導システムおよびプログラム
WO2020116076A1 (ja) * 2018-12-03 2020-06-11 株式会社デンソー 力覚提示システム及び力覚提示プログラム
KR20210121218A (ko) * 2019-03-08 2021-10-07 니폰 덴신 덴와 가부시끼가이샤 진동 장치
KR102504483B1 (ko) 2019-03-08 2023-02-28 니폰 덴신 덴와 가부시끼가이샤 진동 장치
JP7342947B2 (ja) 2019-06-12 2023-09-12 日本電信電話株式会社 方向提示装置
JPWO2020250336A1 (ja) * 2019-06-12 2020-12-17
JP7432130B2 (ja) 2019-06-12 2024-02-16 日本電信電話株式会社 方向提示装置、方向提示方法、プログラム
WO2020250336A1 (ja) * 2019-06-12 2020-12-17 日本電信電話株式会社 方向提示装置、方向提示方法、プログラム
US11953325B2 (en) 2019-09-27 2024-04-09 Nippon Telegraph And Telephone Corporation Direction calculation apparatus, direction calculation method, and program
JP7294434B2 (ja) 2019-09-27 2023-06-20 日本電信電話株式会社 方向計算装置、方向計算方法、プログラム
WO2021059495A1 (ja) * 2019-09-27 2021-04-01 日本電信電話株式会社 方向計算装置、方向計算方法、プログラム
JPWO2021059495A1 (ja) * 2019-09-27 2021-04-01

Also Published As

Publication number Publication date
US10976175B2 (en) 2021-04-13
JP2019207713A (ja) 2019-12-05
EP3187968A1 (en) 2017-07-05
JP6555268B2 (ja) 2019-08-07
US20170254662A1 (en) 2017-09-07
EP3187968A4 (en) 2018-04-11
JPWO2016031118A1 (ja) 2017-06-15
JP6711445B2 (ja) 2020-06-17
EP3187968B1 (en) 2021-05-19
US10072940B2 (en) 2018-09-11
US20190011280A1 (en) 2019-01-10

Similar Documents

Publication Publication Date Title
JP6711445B2 (ja) 携帯型デバイス、およびシステム
JP6683271B2 (ja) 触覚提示装置、信号発生装置、触覚提示システム、および触覚提示方法
US10974138B2 (en) Haptic surround functionality
US10371544B2 (en) Vibrating haptic device for the blind
KR102021135B1 (ko) 가상 현실 환경에서의 내비게이션을 위한 제어 시스템
CN105748265B (zh) 一种导航装置及方法
JP2006324924A (ja) 携帯装置
JP6787338B2 (ja) 力覚提示装置、力覚提示方法及びプログラム
JP2022048144A (ja) 擬似力装置
US20180314330A1 (en) Haptic device linked with augmented reality or virtual reality implementation device
JP6777497B2 (ja) 力覚呈示装置
JP2022510548A (ja) ナビゲーション装置及びナビゲーション装置の動作方法
CN114867540B (zh) 信息处理装置、信息处理方法和信息处理程序

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15835729

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016544914

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2015835729

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015835729

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 15505131

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE