WO2019124068A1 - 情報処理装置および方法、並びにプログラム - Google Patents

情報処理装置および方法、並びにプログラム Download PDF

Info

Publication number
WO2019124068A1
WO2019124068A1 PCT/JP2018/044639 JP2018044639W WO2019124068A1 WO 2019124068 A1 WO2019124068 A1 WO 2019124068A1 JP 2018044639 W JP2018044639 W JP 2018044639W WO 2019124068 A1 WO2019124068 A1 WO 2019124068A1
Authority
WO
WIPO (PCT)
Prior art keywords
tactile sense
presentation
sense presentation
tactile
unit
Prior art date
Application number
PCT/JP2018/044639
Other languages
English (en)
French (fr)
Inventor
諒 横山
猛史 荻田
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US16/772,529 priority Critical patent/US20200384358A1/en
Priority to EP18890126.8A priority patent/EP3731065B1/en
Priority to JP2019560939A priority patent/JP7192793B2/ja
Priority to CN201880080598.6A priority patent/CN111465913A/zh
Publication of WO2019124068A1 publication Critical patent/WO2019124068A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • A63F13/285Generating tactile feedback signals via the game input device, e.g. force feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute

Definitions

  • the present technology relates to an information processing apparatus and method, and a program, and more particularly, to an information processing apparatus and method, and a program that enable more accurate tactile presentation.
  • a device having a plurality of vibrators is wound around a predetermined portion of a user's body, and some of the plurality of vibrators arranged on the circumference are vibrated to recognize the direction to the user.
  • a technology to make the system be proposed (see, for example, Patent Document 1).
  • a C-shaped device is wound around a user's neck portion, and a vibrating portion provided in the device is vibrated to perform tactile presentation by vibration stimulation, thereby presenting a direction.
  • the thickness of the region varies among individuals.
  • the contact position of the vibration unit provided on the device with respect to the user's body is different from the contact position assumed in advance, depending on the thickness of the body part of the user to which the device is attached and the tightening condition at the time of device attachment.
  • the presentation position of the tactile presentation that causes the user to perceive that tactile presentation is being performed by the vibration stimulation changes.
  • the user may be made aware of a position or direction different from the intended position or direction.
  • the present technology has been made in view of such a situation, and is to enable more accurate tactile presentation.
  • An information processing apparatus includes: an estimation unit configured to estimate a wearing state of a plurality of tactile presentation devices placed at mutually different positions on a user's body; and a tactile presentation position indicating a tactile presentation position on the user's body
  • the at least one haptic presentation device of the plurality of haptic presentation devices is controlled such that the user perceives a haptic sense to the haptic presentation position based on the information and the estimation result of the wearing state
  • a tactile sense presentation control unit configured to estimate a wearing state of a plurality of tactile presentation devices placed at mutually different positions on a user's body.
  • An information processing or program estimates wearing states of a plurality of tactile presentation devices placed at mutually different positions on a user's body, and indicates tactile presentation position information indicating tactile presentation positions on the user's body. Controlling at least one haptic presentation device of the plurality of haptic presentation devices such that the user perceives a haptic sense with respect to the haptic presentation position based on the wearing state estimation result including.
  • wearing states of a plurality of tactile presentation devices arranged at different positions from the user on the body are estimated, and tactile presentation position information indicating tactile presentation positions on the body of the user, and the wearing state And controlling at least one of the plurality of haptic presentation devices such that the user perceives a haptic sense with respect to the haptic presentation position based on the estimation result of
  • more accurate tactile presentation can be performed.
  • direction presentation is performed to make the user recognize a predetermined direction by tactile presentation to the user using one or more tactile presentation devices.
  • the tactile sense presentation means a predetermined perceptual effect utilizing the sense of touch on the user's body through the skin of the user, for example, by vibration stimulation, temperature stimulation, electrical stimulation, haptic stimulation, pain stimulation to the skin and muscles etc. To make you perceive.
  • a device of a type that is wound around and attached to a part of the user's body such as a wristband type device or a belt type device, a best type device that a user wears through a sleeve And so on.
  • Such devices include, for example, various navigation functions that allow the user to recognize the direction of the target object and the distance to the target object by tactile display, communication functions using the direction display, various notification functions using the direction display, and the user It is possible to use for realization of a drop detection function etc. regarding the notification of the fall of the belongings, the misplacement, etc.
  • the present technology can be used, for example, in the case of recognizing the direction in which another user such as an opponent or friend is present or the distance to another user during tactile competition of a survival game or the like.
  • the present technology can also be used, for example, to make a user aware of feedback such as a shot that uses tactile presentation, for example, during a battle of a survival game.
  • a user who is walking toward a preset destination is made to recognize the direction of an apparent place from the user and the distance to the destination by tactile presentation, for example, to the user who is walking toward the preset destination. Can also be used.
  • the present technology is also used, for example, to recognize the directions and the number of vehicles and people around the user as well as the distance to those vehicles and people as seen from the user while the user is driving a vehicle. can do.
  • the tactile sense presentation device HM11 is provided with a tactile sense presentation unit SV11-1 to a tactile sense presentation unit SV11-6 that perform tactile sense presentation by vibration stimulation.
  • the tactile sense providing unit SV11-1 to the tactile sense providing unit SV11-6 will be simply referred to as the tactile sense providing unit SV11 unless it is necessary to distinguish them.
  • the tactile sense presentation device HM11 vibrates any of the tactile sense presentation units SV11 to perform tactile sense presentation, thereby causing the user to recognize (perceive) a certain direction of the target object to be recognized. To be done.
  • the tactile sense presentation device HM11 when the user wears the tactile sense presentation device HM11 on the waist portion, six tactile sense presentation portions SV11 are arranged at equal intervals on the circumference as indicated by the arrow Q11, and such It is assumed that the state is the wearing state of the tactile sense presentation device HM11 originally supposed.
  • the tactile sense presentation device HM11 sees from itself the tactile sense presentation unit SV11-3 provided in the direction with the target object. Give directions by vibrating.
  • the tactile sense providing unit SV11-3 When the tactile sense providing unit SV11-3 is vibrated, the user perceives a vibrational stimulus on the right side of his / her waist, that is, a portion in contact with the tactile sense providing unit SV11-3. It can be known that there is a target object in the direction indicated by a certain arrow AR11.
  • the tactile presentation device HM11 is a belt-type device that is wound around and worn on the user's waist and there are individual differences in the thickness of the user's waist, each tactile sense depending on the degree of tightening when the tactile presentation device HM11 is wound The contact position between the presentation unit SV11 and the user changes.
  • each tactile sense presentation unit SV11 is a position deviated from the originally assumed position.
  • the tactile sense presentation device HM11 vibrates the tactile sense presentation unit SV11-3 to perform direction presentation, but in the mounted state shown by the arrow Q12, the direction
  • the direction recognized by the presentation is the direction shown by the arrow AR12 different from the direction shown by the arrow AR11 that the user wants to normally recognize.
  • the tactile sense presentation device HM11 when the tactile sense presentation device HM11 is worn by being wound around a part of the user's body or the like, it is difficult to correctly present the direction because there are individual differences in the thickness of the wearing portion.
  • FIG. 2 is a diagram illustrating a configuration example of an appearance of a tactile presentation device to which the present technology is applied in such a case.
  • the tactile sense presentation device HM21 illustrated in FIG. 2 is a belt-type device that is wound around and attached to a user's waist.
  • the tactile sense presentation unit SV21-1 to the tactile sense presentation unit SV21-6 contact the respective portions of the user's waist when the tactile sense presentation device HM21 is attached to the band portion of the belt constituting the tactile sense presentation device HM21.
  • the tactile sense providing unit SV21-1 to the tactile sense providing unit SV21-6 include, for example, a piezo element actuator and vibrates based on the supplied tactile sense signal to perform tactile sense presentation to the user by vibration stimulation.
  • the tactile sense providing unit SV21-1 to the tactile sense providing unit SV21-6 will be simply referred to as a tactile sense providing unit SV21 unless it is necessary to distinguish them.
  • the tactile sense presentation device HM21 is provided with a battery VT21 for supplying power to the respective units of the tactile sense presentation device HM21, and a communication module CR21 which performs communication with another tactile sense presentation device, a server or the like.
  • the tactile sense presentation device HM21 includes a position measurement unit PS21 for measuring the position of the tactile sense presentation device HM21 in a three-dimensional space, such as a GPS (Global Positioning System), and a three-dimensional sensor
  • a direction measurement unit DR21 that measures the direction in which the tactile sense presentation device HM21 itself is pointing in space is also provided.
  • the communication module CR21 communicates with an external server or the like in a state where the tactile sense presentation device HM21 is attached to the user, and the position of the target object for direction presentation from the server or the like on the three-dimensional space Get object position information that indicates.
  • the tactile sense presentation device HM21 for example, based on the acquired object position information and the measurement result by the position measurement unit PS21 or the direction measurement unit DR21, the tactile sense presentation position at the time of the directional presentation at which the target object is present. Ask.
  • the tactile sense presentation position refers to a position at which the user perceives that the tactile sense presentation is being performed when the user senses a certain direction of the target object by tactile sense presentation, that is, the central position of the given vibration stimulus. It is a position that makes it be perceived as
  • the tactile sense presentation device HM21 vibrates one or a plurality of tactile sense presentation units SV21 according to the obtained tactile sense presentation position to perform tactile sense presentation with respect to the tactile sense presentation position, thereby performing direction presentation.
  • the tactile sense providing unit SV21 used for tactile sense presentation is one or a plurality of tactile sense presenting units SV21 corresponding to the tactile sense presenting position among the plurality of tactile sense providing units SV21 provided in the tactile sense providing device HM21.
  • the tactile sense presentation parts SV21 are arranged on the circumference of a circle such as a perfect circle or an ellipse, that is, they are arranged circumferentially. It is assumed that there is an object OBJ11 in the direction shown by the arrow AR21 when viewed from the center.
  • parts corresponding to the case in FIG. 2 are given the same reference numerals, and the description thereof will be omitted as appropriate.
  • the arrow AR21 is an arrow having the center position of the user, that is, the center O which is the center position of the tactile sense presentation device HM21 wound in an annular shape as a start point and the target object OBJ11 as an end point.
  • the direction from the center position of the tactile presentation device toward the target object that is, the direction of the target object is also referred to as particularly the target object direction.
  • the target object direction is the horizontal direction which is the direction on the horizontal plane viewed from the user (the tactile sense presentation device HM21), that is, the azimuth direction.
  • the user when presenting the direction of the target object OBJ11, the user is made to recognize the direction indicated by the arrow AR21 with the target object OBJ11. In other words, by vibrating some of the one or a plurality of tactile sense presentation parts SV21 arranged circumferentially, presentation of the target object direction, that is, horizontal direction presentation is performed.
  • the position at which the band portion constituting the tactile sense presentation device HM21 intersects with the arrow AR21 is the tactile sense presentation position PRP11 on the tactile sense presentation device HM21. That is, since the direction in which the tactile sense presentation position PRP11 is viewed from the center O is the target object direction, it can be said that the tactile sense presentation position PRP11 indicates the direction in which the target object OBJ11 is present.
  • the direction indicated by arrow AR21 can be recognized as the direction in which target object OBJ11 is located.
  • one or more tactile sense presentation parts SV21 corresponding to the tactile sense presentation position PRP11 may be vibrated.
  • the tactile sense presentation unit SV21 corresponding to the tactile sense presentation position PRP11 is a tactile sense presentation position PRP11
  • one or a plurality of tactile sense presentation units SV21 located within a predetermined distance from the tactile sense presentation position PRP11 may be used as the tactile sense presentation unit SV21 corresponding to the tactile sense presentation position PRP11.
  • one or more haptic presentation units SV21 located closest to the haptic presentation position PRP11 may be used as the haptic presentation unit SV21 corresponding to the haptic presentation position PRP11.
  • the tactile sense presentation position PRP11 when there is a tactile sense presentation position PRP11 between two tactile sense presentation units SV21, it is assumed that these two tactile sense presentation units SV21 are used to perform tactile sense presentation. Therefore, in this example, as the tactile sense presentation unit SV21 corresponding to the tactile sense presentation position PRP11, the tactile sense presentation position PRP11 is vibrated by vibrating the tactile sense presentation unit SV21-1 and the tactile sense presentation unit SV21-2 near the tactile sense presentation position PRP11. The presentation has been realized.
  • the vibration intensity in the tactile sense providing unit SV21-1 and the tactile sense providing unit SV21-2 may be determined according to the distance from the tactile sense providing unit SV21 to the tactile sense presentation position PRP11 as shown in FIG. 4, for example.
  • FIG. 4 portions corresponding to the case in FIG. 3 are denoted with the same reference numerals, and the description thereof will be appropriately omitted.
  • the distance from the tactile sense providing unit SV21-1 to the tactile sense presentation position PRP11 is a distance L1
  • the distance from the tactile sense presentation unit SV21-2 to the tactile sense presentation position PRP11 is a distance L2.
  • these distances L1 and L2 are the position at which the tactile sense presentation unit SV21 is provided in the band portion of the tactile sense presentation device HM21 that is known, and the tactile sense presentation position PRP11 obtained based on the object position information and the like. It is possible to obtain from
  • the distance L1 and the distance L2 are distances from the tactile sense presentation unit SV21 to the tactile sense presentation position PRP11 on the band configuring the tactile sense presentation device HM21, but may be linear distances.
  • the vibration intensity at the time of tactile presentation in each tactile sense presentation unit SV21 is determined such that the vibration intensity becomes stronger as the distance from the tactile sense presentation position PRP11 decreases.
  • the vibration intensity when vibrating the tactile sense providing unit SV21-1 is C ⁇ L2 / (L1 + L2), and when vibrating the tactile sense providing unit SV21-2
  • the vibration intensity of is set to C ⁇ L1 / (L1 + L2).
  • the tactile sense presentation position PRP11 is tactilely presented to the tactile sense presentation position PRP11 by simultaneously vibrating one or a plurality of tactile sense presentation units SV21 corresponding to the tactile sense presentation position PRP11 with vibration intensity corresponding to the distance to the tactile sense presentation position PRP11. Can make you feel as if
  • the tactile sense presentation to the tactile sense presentation position PRP11 is realized by controlling the plurality of tactile sense presentation units SV21 corresponding to the tactile sense presentation position PRP11 according to the distance from the tactile sense presentation unit SV21 to the tactile sense presentation position PRP11. Can.
  • any object is possible regardless of the number of tactile sense presentation units SV21 provided in the tactile sense presentation device HM21. It is possible to provide a direction indicating the object direction. Accordingly, it is possible to present the direction more accurately than always presenting only one tactile sense presentation unit SV21 and presenting the direction regardless of the target object direction.
  • the tactile sense presentation position PRP11 is the position of the predetermined tactile sense presentation unit SV21, only the tactile sense presentation unit SV21 may be vibrated.
  • direction presentation can be performed to recognize a certain direction of each target object in the same manner even when the number of target objects is two or more.
  • FIG. 5 it is assumed that there are two target objects.
  • parts corresponding to those in FIG. 3 are given the same reference numerals, and the description thereof will be omitted as appropriate.
  • a target object OBJ11 and a target object OBJ21 exist around the user wearing the tactile sense presentation device HM21.
  • the tactile sense presentation device HM21 obtains the tactile sense presentation position PRP11 for the target object OBJ11 as described above. Then, the tactile sense presentation device HM21 obtains the vibration intensity of the tactile sense presentation unit SV21 corresponding to the tactile sense presentation position PRP11 based on the obtained tactile sense presentation position PRP11.
  • the vibration intensity of the tactile sense providing unit SV21-1 and the tactile sense providing unit SV21-2 is determined.
  • the tactile sense presentation device HM21 obtains the tactile sense presentation position PRP21 for the target object OBJ21 as in the case of the target object OBJ11, and based on the obtained tactile sense presentation position PRP21, a tactile sense corresponding to the tactile sense presentation position PRP21.
  • the vibration intensity of the presentation unit SV21 is obtained.
  • the vibration intensity of the tactile sense presentation unit SV21-5 and the tactile sense presentation unit SV21-6 is obtained.
  • the tactile sense presentation device HM21 simultaneously senses the tactile sense presentation unit SV21-1, the tactile sense presentation unit SV21-2, the tactile sense presentation unit SV21-5, and the tactile sense presentation unit SV21-6 with the obtained vibration intensity. .
  • the user can be made to simultaneously recognize the direction indicated by the arrow AR21 with the object object OBJ11 and the direction indicated by the arrow AR31 with the object object OBJ21. That is, multiple directions can be presented simultaneously.
  • a tactile sense presentation device HM21, a tactile sense presentation device HM31, and a tactile sense presentation device HM32 exist in a three-dimensional space.
  • the haptic presentation device HM21 includes the haptic presentation device HM31 and the haptic presentation device HM32 as target objects, and the communication module CR21 of the haptic presentation device HM21 from the server or from the haptic presentation device HM31 and the haptic presentation device HM32 Object position information indicating the position of the tactile sense presentation device;
  • the tactile sense presentation device HM21 obtains the tactile sense presentation position PRP31 for the tactile sense presentation device HM31 based on the acquired object position information, and performs tactile sense presentation for the tactile sense presentation position PRP31 to show tactile sense shown by the arrow AR41.
  • the user is made aware of a certain direction of the device HM31.
  • the tactile sense presentation device HM21 obtains a tactile sense presentation position PRP32 for the tactile sense presentation device HM32 based on the acquired object position information, and performs tactile sense presentation for the tactile sense presentation position PRP32 to show tactile sense shown by the arrow AR42. Make the user aware of a certain direction of the device HM32.
  • the tactile sense presentation device HM31 the tactile sense presentation device HM21 and the tactile sense presentation device HM32 are the target objects, and the tactile sense presentation device HM31 is a server, or from the tactile sense presentation device HM21 and the tactile sense presentation device HM32, their tactile sense The object position information of the presentation device is acquired.
  • the tactile sense presentation device HM31 obtains the tactile sense presentation position PRP33 for the tactile sense presentation device HM21 based on the acquired object position information, and performs tactile sense presentation with respect to the tactile sense presentation position PRP33 to show tactile sense shown by the arrow AR43. Makes the user aware of a certain direction of the device HM21.
  • the tactile sense presentation device HM31 obtains the tactile sense presentation position PRP34 for the tactile sense presentation device HM32 based on the acquired object position information, and performs tactile sense presentation with respect to the tactile sense presentation position PRP34 to show tactile sense shown by the arrow AR44. Make the user aware of a certain direction of the device HM32.
  • the tactile sense presentation device HM32 the tactile sense presentation device HM21 and the tactile sense presentation device HM31 are target objects, and the tactile sense presentation device HM32 is tactile sense presentation from the server or the tactile sense presentation device HM21 and the tactile sense presentation device HM31. Get the object position information of the device.
  • the tactile sense presentation device HM32 obtains the tactile sense presentation position PRP35 for the tactile sense presentation device HM21 based on the acquired object position information, and performs tactile sense presentation for the tactile sense presentation position PRP35, thereby showing tactile sense shown by the arrow AR45. Makes the user aware of a certain direction of the device HM21.
  • the tactile sense presentation device HM32 obtains the tactile sense presentation position PRP36 for the tactile sense presentation device HM31 based on the acquired object position information, and performs tactile sense presentation for the tactile sense presentation position PRP36, whereby tactile sense presentation shown by the arrow AR46 is made.
  • the user is made aware of a certain direction of the device HM31.
  • each haptic presentation device uses another haptic presentation device as a target object, thereby providing another haptic presentation device to the user wearing each haptic presentation device.
  • each target object is also provided with acoustic presentation using acoustic presentation technology related to directivity and the like simultaneously with tactile presentation.
  • Context information may be presented to indicate what the object is. In this case, for example, context information may be acquired together with object position information.
  • the positional relationship between the tactile sense presentation position and each tactile sense presentation unit changes depending on the wearing state of the tactile sense presentation device, that is, the degree of tightening of the band portion constituting the tactile sense presentation device.
  • the wearing state of the tactile sense presentation device that is, the wearing state of each tactile sense presentation unit is estimated by a sensor or the like, and the correct position of the tactile sense presentation unit is grasped based on the estimation result.
  • portions corresponding to the case in FIG. 4 are denoted with the same reference numerals, and the description thereof will be appropriately omitted.
  • the waist portion of the user to which the tactile sense presentation device HM21 is attached has an appropriate thickness, and the tactile sense presentation units SV21 are arranged at substantially equal intervals.
  • a hole of a belt for mounting the tactile sense presentation device HM21 is provided in a band portion of the tactile sense presentation device HM21, and a sensor for detecting a mounted state is provided in a buckle portion of the belt.
  • the length of the belt (band) portion wound by the user is detected by detecting through what hole of the belt the tactile display device HM21 is fixed (mounted) by the sensor for detecting the mounting state. Is measured. Then, based on the measurement result, the tactile sense presentation device HM21 obtains the wearing position of each tactile sense presentation unit SV21 by estimation as the wearing state.
  • the mounting position of the tactile sense providing unit SV21 is, for example, the position based on the predetermined position of the tactile sense presentation device HM21, the position of the tactile sense presentation unit SV21 viewed from the center O of the tactile sense presentation device HM21 (user), It may be based on such a position.
  • a sensor for measuring (detecting) the number of rotations of the roller is for detecting the wearing state It may be provided in the tactile sense presentation device HM21 as a sensor. In such a case, the mounting position of each tactile sense presentation unit SV21 can be obtained from the measurement result of the number of rotations by the mounting state detection sensor.
  • the tactile sense presentation device HM21 holds in advance mounting position data indicating the mounting position of each tactile sense presentation unit SV21 in the ideal mounting state, and based on the mounting position data and the detection result of the sensor for detecting the mounting state Thus, the mounting state of each tactile sense providing unit SV21 is estimated.
  • a process of estimating the wearing state and obtaining an actual wearing position of each tactile sense presentation unit SV21 is performed as a calibration process.
  • the tactile sense presentation device HM21 can specify that the tactile sense presentation position PRP11 is present between the tactile sense presentation unit SV21-1 and the tactile sense presentation unit SV21-2 from the result of the calibration process.
  • the distance between the tactile sense presentation unit SV21 and the tactile sense presentation position PRP11 can also be correctly determined. Therefore, the tactile sense presentation device HM21 causes the user to recognize the direction shown by the arrow AR21 by performing tactile sense presentation by vibrating the tactile sense presentation unit SV21-1 and the tactile sense presentation unit SV21-2 with an appropriate vibration intensity.
  • the tactile sense presentation units SV21 are arranged at uneven intervals.
  • the tactile sense presentation device HM21 can grasp the correct attachment position of each tactile sense presentation unit SV21 from the result of the calibration process, the tactile sense presentation position at the position of the tactile sense presentation unit SV21-1 It can be identified that there is PRP11.
  • the tactile sense presentation device HM21 can cause the user to recognize the direction shown by the arrow AR21 by vibrating the tactile sense presentation unit SV21-1 with an appropriate vibration intensity to perform tactile sense presentation.
  • each tactile sense presentation unit SV21 by estimating the mounting state of each tactile sense presentation unit SV21 and performing tactile sense presentation based on the estimation result, it is possible to more accurately present the direction of the target object.
  • the shorter the distance between the user and the target object the larger the deviation in the presentation direction with respect to the deviation in the mounting position of the tactile sense providing unit SV21.
  • the direction presentation can be performed with high accuracy.
  • a haptic presentation device HM21 for example, even when the distance between the user and the target object decreases, it is possible to intuitively and more accurately recognize the direction in which the target object is present.
  • the tactile sense presentation is performed by vibrating each tactile sense presentation unit SV21 to cause the user to recognize the direction of the target object, but also the distance to the target object by tactile sense presentation It may be presented.
  • the target object OBJ31 is present in front of the tactile sense presentation device HM21.
  • the target object OBJ31 exists at a position relatively close to the haptic presentation device HM21 in front of the haptic presentation device HM21.
  • the tactile sense presentation device HM21 makes a tactile sense presentation at the tactile sense presentation position PRP51, and makes the user recognize the direction in which the target object OBJ31 is present, that is, the direction shown by the arrow AR51.
  • the tactile sense presentation device HM21 responds to the distance from the tactile sense presentation device HM21 to the target object OBJ31 such as, for example, vibration intensity (size of vibration), vibration cycle, vibration pattern (presentation pattern for tactile sense presentation) during tactile sense presentation.
  • vibration intensity size of vibration
  • vibration cycle vibration pattern
  • vibration pattern presentation pattern for tactile sense presentation
  • the tactile sense presentation device HM21 makes the magnitude of vibration (vibration intensity) strong when performing tactile sense presentation.
  • the size of the circle representing the tactile sense presentation position PRP51 represents the vibration intensity
  • the tactile sense presentation device HM21 vibrates the tactile sense presentation unit SV21 with a strong vibration intensity according to the distance to the target object OBJ31, The distance to the target object OBJ31 is presented to the user.
  • the tactile sense presentation device HM21 since the tactile sense presentation device HM21 here has a short distance to the target object OBJ31, the interval (period) of vibration when performing tactile sense presentation is shortened. That is, the tactile sense presentation device HM21 presents the user with the distance to the target object OBJ31 by vibrating the tactile sense presentation unit SV21 at a high vibration frequency.
  • the target object OBJ31 exists at a position relatively far from the haptic presentation device HM21 in front of the haptic presentation device HM21.
  • the tactile sense presentation device HM21 performs tactile sense presentation at the tactile sense presentation position PRP51 as in the example shown by the arrow Q51, and shows the user the direction in which the target object OBJ31 is present, that is, the direction shown by the arrow AR51. Make them aware.
  • the tactile sense presentation device HM21 weakens the magnitude of vibration (vibration intensity) when performing tactile sense presentation.
  • the size of the circle representing the tactile sense presentation position PRP51 represents the vibration intensity
  • the tactile sense presentation device HM21 vibrates the tactile sense presentation unit SV21 with a weak vibration intensity according to the distance to the target object OBJ31, The distance to the target object OBJ31 is presented to the user.
  • the tactile sense presentation device HM21 since the tactile sense presentation device HM21 here has a long distance to the target object OBJ31, the interval (period) of vibration when performing tactile sense presentation is long. That is, the tactile sense presentation device HM21 presents the distance to the target object OBJ31 to the user by vibrating the tactile sense presentation unit SV21 at a low vibration frequency.
  • the vibration intensity or vibration frequency (vibration period) of the vibration of the tactile sense presentation unit SV21 when performing tactile sense presentation is changed for the user.
  • the distance to the target object OBJ 31 can be presented. Furthermore, by presenting not only the direction of the target object but also the distance to the target object at the same time, the user can grasp the positional relationship between itself and the target object more accurately.
  • the tactile sense presentation device HM21 is provided with a plurality of tactile sense presentation units SV21, and the tactile sense presentation units SV21 are attached to different parts of the user.
  • the human body has different perceptual characteristics (sensitivity characteristics) with respect to tactile presentation such as vibration stimulation for each part. Therefore, for example, even if the tactile sense presentation unit SV21 is vibrated with the same vibration intensity, if the mounting position of the tactile sense presentation unit SV21, that is, the contact site of the user with the tactile sense presentation unit SV21 is different, the strength of the vibration stimulus perceived by the user (Perceptual strength) is also different.
  • the portions shown by arrows Q61 to Q64 are the front, right, back and left portions of the user's waist.
  • the tactile sense presentation device HM21 detects the perceptual strength with respect to the vibration intensity of the vibration stimulation and the perceptual characteristics with respect to the vibration frequency of the vibration stimulation for several sites such as the front side, the right side, the back side and the left side of the user's waist portion That is, it is assumed that data indicating perceptual characteristics such as frequency characteristics (hereinafter, also referred to as perceptual characteristic data) is held in advance.
  • perceptual characteristic data can be held for each attachment position of the tactile sense presentation unit SV21 indicated by the attachment position data, that is, for each ideal attachment position of the tactile sense presentation unit SV21.
  • the tactile sense presentation device HM21 presents each tactile sense presentation based on the mounting position of the tactile sense presentation unit SV21 obtained by the calibration processing, that is, the contact position with the user of the tactile sense presentation unit SV21 and the perceptual characteristic data held in advance.
  • the correction data of the unit SV21 is generated.
  • the correction data is data indicating a correction value of vibration intensity or frequency characteristic when the tactile sense providing unit SV21 is vibrated.
  • perceptual characteristic data of the actual mounting position of the tactile sense providing unit SV21 that is, perceptual characteristic data of a portion of the user contacting the tactile sense providing unit SV21 is required. If it does not hold, perceptual characteristic data may be generated by linear interpolation or the like.
  • the perceptual characteristic data of the portion shown by arrow Q61 and the perceptual characteristic data of the portion shown by arrow Q62 are held in advance, the portion between the portion shown by arrow Q61 and the portion shown by arrow Q62 It is assumed that the perceptual characteristic data of the part located at the point is not held in advance.
  • the tactile sense presentation device HM21 performs interpolation processing such as linear interpolation based on the perceptual characteristic data of the portion indicated by the arrow Q61 and the perceptual characteristic data of the portion indicated by the arrow Q62, and the portion indicated by the arrow Q61 and the arrow Perceptual characteristic data of a portion between the portion shown in Q62 is generated.
  • the tactile sense presentation unit SV21 is present at the position indicated by each of the arrows Q61 to Q64.
  • each tactile sense presentation unit SV21 vibrates based on the tactile sense signal corrected by the correction data, for example, in the front, right, back and left portions of the user's waist, arrows A11 to A14.
  • the vibration stimulus of the characteristic shown to each of will be given.
  • the characteristic of the vibrational stimulus shown by arrow A13 is that the vibration intensity is stronger compared to the vibrational stimulus given to the other part of the user, and the frequency characteristic is also compared with the vibrational stimulus given to the other part of the user Then, it can be seen that strong stimulation is given over a relatively wide frequency band.
  • the correction is performed so as to become the characteristic indicated by the arrow A13, because the rear side of the user's waist, that is, the region on the back side, is compared with other regions such as the side and front around the waist. This is because it has a perceptual property that the sensitivity to vibrational stimulation is low in a relatively wide frequency range.
  • the characteristics of the vibrational stimulation may be vibrational stimulation applied to other parts of the user, for example as shown by arrows A12 and A14.
  • the vibration intensity is weak, and it is a characteristic that a strong stimulation is given only in the low region.
  • correction based on the correction data is performed on the same haptic signal according to the user's site, that is, according to the mounting position of the haptic presentation unit SV21, and based on the haptic signal after correction in each haptic presentation unit SV21.
  • haptic presentation is performed, as shown by arrows A11 to A14, vibration stimulation having different characteristics for each part is given to the user.
  • the user has the same characteristics, ie, the same vibration intensity and frequency characteristics, for each of the front, right, back and left parts of the waist. It will be perceived that vibrational stimulation is given.
  • the correction data is generated for each of the tactile sense presentation units SV21 based on the mounting position of the tactile sense presentation unit SV21 and the perceptual characteristic data of the user, and the tactile sense signal is corrected based on the correction data.
  • the user can perceive tactile presentation as intended. This makes it possible to more accurately present the direction and distance of the target object.
  • correction data may be generated according to the user's operation on an external device such as a connected smartphone.
  • the tactile sense presentation device HM21 when the user operates the input unit provided in the tactile sense presentation device HM21 and the tactile sense presentation device HM21 generates correction data according to the user's operation, the tactile sense presentation device HM21 first makes each tactile sense presentation unit SV21 constant. Vibrate with vibration strength and frequency characteristics.
  • the user operates the input unit to input an instruction to weaken the vibration intensity or the like for each tactile sense presentation unit SV21, and the tactile sense presentation device HM21 generates correction data according to the user's instruction input. Then, the tactile sense presentation device HM21 vibrates each tactile sense presentation unit SV21 again based on the tactile sense signal that has been corrected based on the obtained correction data.
  • the tactile sense presentation device HM21 described above, an example is described in which all the tactile sense presentation units SV21 for tactile sense presentation are arranged on one circumference, that is, on one horizontal plane. In this case, the tactile sense presentation device HM21 can provide direction presentation only to the user in the horizontal direction (azimuth direction).
  • the tactile sense presentation units are arranged in the vertical direction (vertical direction).
  • the tactile sense presentation device HM41 is a belt-type device that is wound around and attached to the user's waist.
  • the tactile sense presentation device HM41 is provided with six tactile sense presentation units SV61-1 to SV61-6 circumferentially arranged on one horizontal plane at substantially equal intervals.
  • the tactile sense providing unit SV61-1 to the tactile sense providing unit SV61-6 are arranged to contact the user's waist when the tactile sense presentation device HM41 is mounted, and vibrate to provide tactile sense presentation to the user by vibration stimulation. I do.
  • the tactile sense providing unit SV61-1 to the tactile sense providing unit SV61-6 will be simply referred to as the tactile sense providing unit SV61 unless it is necessary to distinguish them.
  • tactile sense presentation device HM41 six tactile sense presentation units SV62-1 to SV62 provided circumferentially on another horizontal plane at a height different from the horizontal plane where the tactile sense presentation unit SV61 is disposed. -6 are provided at substantially equal intervals.
  • the tactile sense presentation units SV62-1 to SV62-6 are arranged to contact the user's waist when the tactile sense presentation device HM41 is attached, and vibrate to provide tactile sense presentation to the user by vibration. I do.
  • the tactile sense providing unit SV62-1 to the tactile sense providing unit SV62-6 will be simply referred to as a tactile sense providing unit SV62 unless it is necessary to distinguish them.
  • the tactile sense presentation unit HM41 is provided with the tactile sense presentation unit SV61 and the tactile sense presentation unit SV62 at positions different from each other in height from the user, so that not only the horizontal direction but also the vertical direction Direction presentation can also be performed for the elevation direction).
  • the direction in which the tactile sense providing unit SV61-1 and the tactile sense providing unit SV62-1 are present as viewed from the user is the front direction, and the target object is present in the front direction.
  • the tactile sense presentation device HM41 vibrates the tactile sense presentation unit SV62-1 to perform tactile sense presentation, thereby causing the target object to the user's upper front side.
  • the tactile sense presentation device HM41 vibrates the tactile sense presentation unit SV61-1 to perform tactile sense presentation, whereby the target object is the user It can be made to recognize that it is on the front lower side. Furthermore, for example, when the target object is directly in front of the tactile sense presentation device HM41, the tactile sense presentation device HM41 makes a tactile sense presentation that causes the tactile sense presentation unit SV61-1 and the tactile sense presentation unit SV62-1 to vibrate simultaneously. It can be made to recognize that the object is in front of the user.
  • the tactile sense presentation device for presenting the direction and the distance of the target object to the user by tactile sense presentation is not limited to the belt type, and may be the best type.
  • the tactile sense presentation device is configured, for example, as shown in FIG.
  • the tactile sense presentation device HM 51 shown in FIG. 11 is a best type device having a function of presenting a certain direction of a target object by tactile sense presentation and presenting a distance to the target object.
  • the tactile sense presentation device HM51 is provided with a tactile sense presentation unit SV71-1 to a tactile sense presentation unit SV71-6 that perform tactile sense presentation with vibration to a site on the front surface of the user's body.
  • the tactile sense providing unit SV71-1 to the tactile sense providing unit SV71-6 include, for example, piezo actuator, and vibrate on the basis of the supplied tactile signal to perform tactile sense presentation to the user by vibration stimulation.
  • the tactile sense providing unit SV71-1 to the tactile sense providing unit SV71-6 will be simply referred to as the tactile sense providing unit SV71 unless it is necessary to distinguish them.
  • a sheet-like pressure sensor DT11-1 and a pressure sensor DT11-2 are provided in a portion where at least the tactile sense presentation unit SV71 is provided in the tactile sense presentation device HM51.
  • the pressure sensor DT11-1 and the pressure sensor DT11-2 are used to detect the 3D shape of the tactile sense presentation device HM51 at the portion where the tactile sense presentation unit SV71 is provided, in other words, for detecting the wearing state for measuring the 3D shape of the user's body. It is a sensor.
  • the pressure sensor DT11-1 and the pressure sensor DT11-2 will be simply referred to as a pressure sensor DT11 if it is not necessary to distinguish them.
  • the pressure sensor DT11 may be a mesh-like pressure sensor formed of a plurality of thin wires.
  • the contact position of the tactile sense presentation unit SV71 with the user changes depending on the type of the user wearing the tactile sense presentation device HM51. That is, the mounting state of each tactile sense presentation unit SV71 changes according to the user's body shape.
  • the tactile sense presentation device HM51 may perform the same calibration processing as in the tactile sense presentation device HM21 to determine the actual mounting position of each tactile sense presentation unit SV71.
  • the tactile sense presentation device HM51 holds, in advance, wearing position data indicating the wearing position of each tactile sense presentation unit SV71 in the ideal wearing state.
  • the tactile sense presentation device HM51 estimates the wearing state of each tactile sense presentation unit SV71 based on the held mounting position data and the measurement result of the 3D shape by the pressure sensor DT11, and determines the actual mounting position of the tactile sense presentation unit SV71. Ask.
  • the tactile sense presentation device HM51 holds in advance the perceptual characteristic data on each portion that can be in contact with the tactile sense presentation unit SV71 of the user,
  • the correction data may be generated based on the estimation result of the wearing state of the tactile sense providing unit SV71. Then, based on the generated correction data, the tactile sense presentation device HM51 can cause the user to perceive the tactile sense presentation as intended by correcting the tactile sense signal supplied to each tactile sense presentation unit SV71.
  • the tactile presentation device that presents the direction and distance of the target object to the user by tactile presentation may be a wristband type device.
  • the tactile presentation device is attached to a portion near the user's wrist as shown in FIG. 12, for example.
  • the tactile sense presentation device HM 61 is a wristband type device having a function of presenting a certain direction of a target object by tactile presentation and presenting a distance to the target object.
  • the tactile sense presentation device HM61 is provided with a tactile sense presentation unit SV81-1 to a tactile sense presentation unit SV81-4 that perform tactile sense presentation by vibration to a portion near the user's wrist.
  • the tactile sense providing unit SV81-1 to the tactile sense providing unit SV81-4 are composed of, for example, piezo actuators, and vibrate on the basis of the supplied haptic signal to perform tactile sense presentation to the user by vibration stimulation.
  • the tactile sense providing unit SV81-1 to the tactile sense providing unit SV81-4 will be simply referred to as a tactile sense providing unit SV81 unless it is necessary to distinguish them.
  • the functional configuration of the tactile presentation device is as shown in FIG.
  • the tactile sense presentation device 11 shown in FIG. 13 is an information processing device that presents the direction of the target object and the distance to the target object to the user by tactile sense presentation.
  • the tactile sense presentation device 11 corresponds to, for example, the tactile sense presentation device HM21, the tactile sense presentation device HM41, the tactile sense presentation device HM51, and the tactile sense presentation device HM61 described above.
  • the tactile sense presentation device 11 includes a tactile sense presentation unit 21-1 to a tactile sense presentation unit 21-n, a tactile sense presentation control unit 22, an estimation unit 23, a display unit 24, a position and direction information detection unit 25, a position and direction information processing unit 26, and a sensor unit.
  • a storage unit 28, a communication unit 29, and an input unit 30 are provided.
  • the tactile sense providing units 21-1 to the input units 30 are mutually connected via a bus 31. Note that some blocks of the tactile sense providing unit 21-1 to the input unit 30 may be connected by a dedicated signal line different from the bus 31.
  • the tactile sense providing unit 21-1 to the tactile sense providing unit 21-n perform tactile sense presentation based on the tactile sense signal supplied from the tactile sense presentation control unit 22 via the bus 31, and the user wearing the tactile sense presentation device 11 In addition, the direction of the target object is presented, and the distance to the target object is presented.
  • the tactile sense providing unit 21-1 to the tactile sense providing unit 21-n will be simply referred to as the tactile sense providing unit 21 unless it is necessary to distinguish them.
  • each tactile sense presentation unit 21 is in a state of being attached (contacted) to different portions of the user's body.
  • the tactile sense presentation by the tactile sense providing unit 21 can be, for example, a presentation based on a vibration stimulus, a temperature stimulus, an electrical stimulus, a force sense stimulus, a pain sense stimulus, or the like.
  • the tactile sense presentation unit 21 when the tactile sense presentation unit 21 performs tactile sense presentation by vibration stimulation, the tactile sense presentation unit 21 may be a tactile sense presentation device such as a piezoelectric actuator, a piezoelectric actuator, a linear resonant actuator (LRA), a voice coil motor, or an eccentric motor. It consists of
  • the tactile sense providing unit 21 can be configured from a tactile sense presentation device such as a Peltier element.
  • the tactile sense providing unit 21 when the tactile sense providing unit 21 performs tactile sense presentation by electric stimulation or force sense stimulation, for example, the tactile sense providing unit 21 can generate an electric current, or an electrode capable of giving a stimulation to evoke a tactile sense effect by magnetic force or the like. It can be made up of a tactile presentation device such as a pad.
  • the tactile sense presentation device 11 includes not only the tactile sense presentation unit 21 performing tactile sense presentation, but also, for example, a speaker, and outputs sound based on the supplied acoustic signal, thereby presenting sound to the user A sound presentation device or the like that performs
  • the haptic presentation control unit 22 generates a haptic signal for performing predetermined haptic presentation on the basis of haptic data supplied via the bus 31 and supplies the haptic signal to the haptic presentation unit 21.
  • the tactile sense presentation control unit 22 supplies n tactile sense signals to the desired tactile sense presentation position by supplying the tactile sense signal to the tactile sense presentation unit 21 and driving the tactile sense presentation unit 21.
  • Control at least one haptic presentation unit 21 of
  • the haptic data is, for example, data of a temporal waveform for performing haptic presentation
  • the haptic presentation control unit 22 determines the length of the temporal waveform of haptic data, the amplitude (size) of haptic data, and the frequency characteristics of haptic data. And the like are appropriately adjusted to generate a tactile signal.
  • the haptic presentation control unit 22 adjusts the amplitude of the haptic data by adjusting the amplitude of the vibration data, and adjusts the vibration cycle of the haptic data. Adjust the vibration frequency of tactile presentation by vibration by adjusting. The tactile presentation control unit 22 also adjusts the signal length of the vibration data to adjust the presentation time of tactile presentation.
  • the tactile sense presentation control unit 22 includes the signal processing unit 51.
  • the signal processing unit 51 receives the estimation result of the wearing state of the tactile sense presentation unit 21 supplied via the bus 31, and the perceptual characteristic data (sensitivity characteristic And correcting the tactile signal based on the correction data.
  • the estimation unit 23 estimates the wearing condition of the tactile sense providing unit 21 on the user's body based on the measurement result supplied from the sensor unit 27 for detecting the wearing condition via the bus 31, and the estimated result is tactile presentation control It supplies to the part 22.
  • the display unit 24 includes, for example, a liquid crystal display panel or an organic EL (Electro Luminescence) panel, and displays an image or the like supplied from the tactile presentation control unit 22 or the like via the bus 31.
  • a liquid crystal display panel or an organic EL (Electro Luminescence) panel displays an image or the like supplied from the tactile presentation control unit 22 or the like via the bus 31.
  • the position and direction information detection unit 25 includes, for example, a position detection system such as a GPS, a 9-axis sensor, a beacon, and a block that calculates the reception intensity of a signal from an external base station for position measurement. A measurement is performed to detect the position of the tactile sense presentation device 11 and the direction in which the tactile sense presentation device 11 faces in a three-dimensional space.
  • a position detection system such as a GPS, a 9-axis sensor, a beacon, and a block that calculates the reception intensity of a signal from an external base station for position measurement.
  • a measurement is performed to detect the position of the tactile sense presentation device 11 and the direction in which the tactile sense presentation device 11 faces in a three-dimensional space.
  • the position and direction information detection unit 25 supplies the measurement result to the position and direction information processing unit 26 via the bus 31 as position and direction information when the measurement for detecting the position and the direction of the tactile sense presentation device 11 is performed.
  • the position / direction information detection unit 25 corresponds to the position measurement unit PS21 or the direction measurement unit DR21 illustrated in FIG.
  • the position and orientation information processing unit 26 obtains the position and the direction of the tactile sense presentation device 11 on the three-dimensional space based on the position and orientation information supplied from the position and orientation information detection unit 25.
  • the position / direction information processing unit 26 performs a tactile sense presentation position where tactile sense presentation is performed based on the object position information of the target object supplied from the communication unit 29 via the bus 31 and the position and direction of the tactile sense presentation device 11. Then, information indicating the tactile presentation position is supplied to the tactile presentation control unit 22.
  • the information indicating the tactile sense presentation position is particularly referred to as tactile sense presentation position information.
  • the sensor unit 27 is, for example, a sensor for measuring the degree of tightening of the tactile sense presentation device 11 or a pressure sensor for measuring a 3D shape (three dimensional shape) of a wearing portion of the user wearing the tactile sense presentation device 11. Of sensors.
  • the sensor unit 27 performs measurement for estimation of the wearing state of the tactile sense presentation device 11, that is, the wearing state of the tactile sense presentation unit 21, and supplies the measurement result to the estimation unit 23.
  • the storage unit 28 includes, for example, a non-volatile memory, and stores various data such as tactile data, perceptual characteristic data, frequency characteristic data, and mounting position data, and the stored data is transmitted via the bus 31. To each part of the tactile sense presentation device 11.
  • the ease of transmission to the user of tactile presentation such as vibration by the tactile presentation unit 21 changes depending on the thickness and material of the material of the vest as the tactile presentation device 11 and the hardness of the material of the belt as the tactile presentation device 11. .
  • the thickness and hardness of the material may be different depending on the series of the tactile sense presentation device 11 as a product.
  • perceptual characteristic data suitable for each series of the tactile sense presentation device 11, that is, for each thickness and hardness of the material of the tactile sense presentation device 11, may be prepared and stored in the storage unit 28.
  • perceptual property data may be prepared for each thickness, hardness, and material of the material, and the perceptual property data may be acquired from an external device such as a server.
  • per-model number information indicating the model number of the tactile sense presentation device 11
  • perceptual characteristic data corresponding to the material thickness and hardness of the tactile sense presentation device 11 corresponding to the model number information, and the material can be prepared. Just do it.
  • the signal processing unit 51 causes the communication unit 29 to transmit the model number information of the tactile sense presentation device 11 to the external device, and the communication unit 29 receives perceptual characteristic data transmitted according to the model number information from the external device. It may be made to acquire it.
  • the communication unit 29 communicates with an external server or another tactile presentation device by wireless or wired communication, transmits data supplied from the tactile presentation control unit 22 or the like, or an object of a target object transmitted from the outside. Receive location information etc.
  • the input unit 30 includes, for example, a button, a switch, and a touch panel, and supplies a signal corresponding to the user's operation, that is, an instruction input by the user to each unit of the tactile sense presentation device 11.
  • the tactile presentation device 11 may not be provided with part of the configuration, such as the display unit 24, the communication unit 29, and the input unit 30.
  • step S11 the sensor unit 27 performs measurement processing to estimate the mounting state of each tactile sense presentation unit 21 of the tactile sense presentation device 11, and supplies the measurement result to the estimation unit 23 via the bus 31.
  • measurement processing by the sensor unit 27 for example, measurement of the tightening condition of the tactile sense presentation device 11, that is, measurement of the length of the belt, 3D shape measurement of the mounting portion of the tactile sense presentation device 11 in the user's body .
  • step S12 the estimation unit 23 estimates the wearing state of each tactile sense presentation unit 21.
  • the estimation unit 23 reads out the mounting position data from the storage unit 28 through the bus 31, and the mounting position data read out and the measurement result obtained in step S11 supplied from the sensor unit 27 through the bus 31 And the wearing state of each tactile sense presentation unit 21 is estimated. Thereby, the actual wearing position of each tactile sense presentation part 21 is obtained.
  • the estimation unit 23 supplies the information indicating the actual mounting position of the tactile sense providing unit 21 obtained in this manner, that is, the estimation result of the wearing state to the tactile sense presentation control unit 22 via the bus 31.
  • the tightening degree of the tactile presentation device 11 is not sufficient, for example, the tightening degree of the belt as the tactile sense presentation device 11 is not sufficient, May be presented with a message prompting the user to firmly clamp the tactile presentation device 11.
  • the estimation unit 23 supplies a message such as a text message or an image message to the display unit 24 via the bus 31 so as to present the message to the user.
  • a message such as a text message or an image message
  • the method of presenting the message is not limited to display, and may be performed by any method such as audio presentation, presentation by flickering of a lamp, and the like.
  • step S 13 the signal processing unit 51 reads perceptual characteristic data of the user from the storage unit 28 via the bus 31. At this time, the frequency characteristic data of the tactile sense providing unit 21 may also be read from the storage unit 28 by the signal processing unit 51 as necessary.
  • step S14 the signal processing unit 51 performs tactile sense presentation based on the perceptual characteristic data read in step S13 and the estimation result of the wearing state obtained in step S12, that is, the actual wearing positions of the tactile sense providing units 21. Correction data is determined for each unit 21.
  • the signal processing unit 51 performs an interpolation process based on the perceptual characteristic data of each part of the user, as needed, so that the actual mounting positions of the respective tactile sense presentation units 21, that is, the tactile sense presentation units 21 and so on. Perceptual characteristic data of the position of the part of the user in contact is obtained.
  • the signal processing unit 51 generates correction data indicating the correction value of the vibration intensity and the frequency characteristic of the tactile signal in each tactile sense presentation unit 21 based on the perceptual characteristic data at the actual wearing position of each tactile sense presentation unit 21. .
  • the correction data may be any data as long as it is data for obtaining a correction value.
  • the signal processing unit 51 temporarily holds the obtained correction data, and the calibration process ends.
  • the tactile sense presentation device 11 estimates the wearing state of the tactile sense presentation unit 21 and generates correction data based on the estimation result and the perceptual characteristic data.
  • the user When the correction data is generated according to the user's operation input, the user operates the input unit 30 to input an instruction to adjust the vibration intensity of the tactile sense providing unit 21 or the like.
  • a signal corresponding to the user's instruction is supplied from the input unit 30 to the tactile sense presentation control unit 22 via the bus 31.
  • the signal processing unit 51 of the tactile sense presentation control unit 22 generates correction data in accordance with the signal supplied from the input unit 30.
  • the tactile presentation control unit 22 reads predetermined predetermined tactile data from the storage unit 28, and generates a tactile signal based on the tactile data. Further, the signal processing unit 51 corrects the haptic signal generated by the haptic presentation control unit 22 using the correction data. The tactile sense presentation control unit 22 supplies the tactile sense signal corrected in this manner to the tactile sense presentation unit 21 to vibrate and perform tactile sense presentation.
  • the user When the tactile sense presentation is performed, the user operates the input unit 30 to input an instruction to instruct adjustment of the vibration intensity or the like so that the correction data is further adjusted, or instructs the end of the adjustment of the correction data. Make an instruction input.
  • the signal processing unit 51 adjusts the correction data, and the tactile sense presentation based on the tactile signal corrected by the correction data after the adjustment is performed.
  • the processing to be performed is repeated until there is an instruction input instructing the end of adjustment of the correction data.
  • the signal processing unit 51 holds the correction data obtained by the processing up to this point as final correction data. In this manner, correction data may be generated based on user feedback.
  • the tactile sense presentation can be performed using the correction data and the estimation result of the wearing state of the tactile sense providing unit 21.
  • this presentation process is started at the timing when the calibration process ends, for example, when a target object is designated in advance.
  • step S41 the communication unit 29 communicates with an external server or another tactile presentation device, and receives the object position information of the target object transmitted from the server or the other tactile presentation device, whereby the object position is obtained. Get information.
  • the communication unit 29 supplies the acquired object position information to the position / direction information processing unit 26 via the bus 31.
  • the position and direction information detection unit 25 performs measurement for detecting the position of the tactile sense presentation device 11 on the three-dimensional space and the direction in which the tactile sense presentation device 11 faces at predetermined time intervals. Then, the measurement result is sequentially supplied to the position and direction information processing unit 26 via the bus 31 as position and direction information.
  • step S42 based on the object position information supplied from the communication unit 29 in step S41 and the position / direction information supplied from the position / direction information detection unit 25, the position / direction information processing unit 26 compares the relative position to the target object. Find the typical distance and direction.
  • the position and orientation information processing unit 26 obtains the position of the tactile sense presentation device 11 in the three-dimensional space and the direction in which the tactile sense presentation device 11 is facing based on the position and orientation information.
  • the position / direction information processing unit 26 compares the position and the direction of the tactile sense presentation device 11 obtained and the position of the target object indicated by the object position information to the target object seen from the tactile sense presentation device 11 (user). And the relative direction of the target object viewed from the tactile presentation device 11.
  • step S43 the position / direction information processing unit 26 determines whether the relative distance to the target object obtained in step S42 is a distance that can be presented.
  • the presentable distance the distance in which the direction can be presented
  • step S43 If it is determined in step S43 that the distance can not be presented, the presentation of the target object is not presented to the user, and the presentation processing ends.
  • the position / direction information processing unit 26 When it is determined that the distance can not be presented, for example, the position / direction information processing unit 26 generates image data of an image indicating the positional relationship between the user and the target object, and performs direction presentation using an image or the like You may In this case, the display unit 24 displays an image based on the image data supplied from the position / direction information processing unit 26 via the bus 31 and performs direction presentation.
  • the communication unit 29 transmits image data and the like to an external device such as a smartphone possessed by the user, and the external device performs an image based on the image data.
  • Direction may be presented by displaying.
  • direction presentation may be performed not only by image presentation but also by sound or the like.
  • direction presentation is performed by a method different from tactile presentation when the distance to the target object is not equal to or less than a certain distance.
  • direction presentation is performed by tactile sense presentation, and when the distance to the target object is less than a certain distance, it differs from tactile sense presentation such as image display or acoustic presentation.
  • Direction presentation may be performed by a method.
  • direction presentation by tactile sense presentation is performed, and the distance to the target object is equal to or less than a second distance shorter than the first distance. It may be possible to switch to direction presentation by another method different from tactile presentation, or to stop direction presentation.
  • step S43 If it is determined in step S43 that the distance can be presented in the direction, then the process proceeds to step S44.
  • step S44 the position and orientation information processing unit 26 determines the tactile sense presentation position based on the position and the direction of the tactile sense presentation device 11 and the position of the target object indicated by the object positional information.
  • the position of the point of intersection between the straight line connecting the center O and the target object OBJ11 and the band portion of the tactile sense presentation device HM21 itself is obtained as the tactile sense presentation position PRP11.
  • the position / direction information processing unit 26 controls tactile sense presentation via the bus 31 with tactile sense presentation position information indicating the tactile sense presentation position obtained in this manner, and information indicating the distance from the tactile sense presentation device 11 to the target object. It supplies to the part 22.
  • the tactile sense presentation control unit 22 acquires tactile sense presentation position information and information indicating the distance from the tactile sense presentation device 11 to the target object from the position / direction information processing unit 26.
  • target object distance information information indicating the distance from the tactile sense presentation device 11 to the target object.
  • the direction presentation may be performed in consideration of the relative moving speed of the target object viewed from the tactile presentation device 11. Good. That is, the tactile sense presentation position may be determined in consideration of the relative movement speed of the target object.
  • the position / direction information processing unit 26 corrects the position of the target object in accordance with the relative moving speed of the target object viewed from the tactile presentation device 11. Then, the position / direction information processing unit 26 determines the tactile sense presentation position based on the corrected position of the target object and the position and the direction of the tactile sense presentation device 11.
  • the direction of the target object at a timing slightly later than the time when the object position information of the target object is acquired in step S47 described later. That is, it is possible to predict the direction of the target object at the timing of the direction presentation based on the relative movement speed, and perform more accurate direction presentation.
  • the direction of the target object at the timing slightly after the timing of the direction presentation may be presented in consideration of the time delay until the user recognizes the direction presentation.
  • step S45 the haptic presentation control unit 22 generates haptic signals based on the haptic presentation position information supplied from the position and orientation information processing unit 26, the target object distance information, and the haptic data stored in the storage unit 28.
  • the tactile sense presentation control unit 22 selects the tactile sense presentation unit 21 used for tactile sense presentation based on tactile sense presentation position information and the information indicating the actual mounting position of the tactile sense presentation unit 21 obtained in step S12 of FIG. Do.
  • the tactile sense presentation control unit 22 selects the tactile sense presentation unit 21 at the tactile sense presentation position as the tactile sense presentation unit 21 used for tactile sense presentation. For example, when there is no tactile sense presentation unit 21 at the tactile sense presentation position, for example, the tactile sense presentation control unit 22 selects two tactile sense presentation units 21 adjacent to both sides of the tactile sense presentation position as the tactile sense presentation unit 21 used for tactile sense presentation. Do.
  • one or a plurality of tactile sense presentation units 21 located within a predetermined distance from the tactile sense presentation position may be selected as the tactile sense presentation unit 21 used for tactile sense presentation, or a position closest to the tactile sense presentation position.
  • One or more haptic presentation units 21 may be selected as the haptic presentation unit 21 used for haptic presentation.
  • the tactile sense presentation control unit 22 reads tactile sense data from the storage unit 28 via the bus 31 when the tactile sense presentation unit 21 is selected.
  • the tactile sense presentation control unit 22 determines the amplitude of the tactile sense data based on the distance between the tactile sense presentation unit 21 selected to be used for tactile sense presentation and the tactile sense presentation position and the target object distance information indicating the distance to the target object. By adjusting the vibration frequency, a haptic signal is generated for each of the haptic presentation units 21 used for haptic presentation.
  • haptic data (tactile signal) according to the distance from the haptic presentation unit 21 to the haptic presentation position The amplitude of is adjusted.
  • the amplitude or vibration frequency of haptic data is adjusted according to the distance from the haptic presentation device 11 to the target object.
  • the resolution of the direction presentation may be changed according to the distance from the tactile sense presentation device 11 to the target object, such as making the resolution of the direction presentation coarse.
  • the tactile sense presentation control unit 22 causes the two tactile sense presentation even when the tactile sense presentation position is between the two tactile sense presentation units 21. Only one tactile sense presentation unit 21 closer to the tactile sense presentation position of the units 21 is selected as the tactile sense presentation unit 21 used for tactile sense presentation. In this case, the rough direction of the target object is presented by the tactile sense presentation by one tactile sense providing unit 21. That is, direction presentation with coarse resolution is performed.
  • the tactile sense presentation control unit 22 determines the two tactile sense presentation units 21 is selected as the tactile sense presentation unit 21 used for tactile sense presentation. In this case, by the tactile sense presentation by the two tactile sense presentation units 21, the direction of the target object is more accurately presented. That is, direction presentation with fine resolution is performed.
  • step S46 the signal processing unit 51 corrects the intensity and the like of the haptic signal obtained in the process of step S45 based on the correction data obtained in step S14 of FIG.
  • the vibration intensity (amplitude) or frequency characteristic of the tactile signal is corrected by the correction value indicated by the correction data obtained for the tactile sense presentation unit 21 used for tactile sense presentation, and the final tactile signal is obtained. Ru.
  • the correction data used for correcting the intensity of the tactile signal etc. is a perception indicating the perceptual characteristics (sensitivity characteristics) of the user at the actual mounting position of each tactile presentation unit 21 obtained by estimating the mounting state of the tactile presentation unit 21 It is obtained based on the characteristic data.
  • driving the haptic presentation unit 21 based on the final haptic signal obtained by the correction based on the correction data is based on the perceptual characteristics (sensitivity characteristics) of the user at the actual mounting position of the haptic presentation unit 21. It can be said that the tactile sense providing unit 21 is controlled.
  • step S47 the tactile sense presentation control unit 22 presents the direction, and the presentation process ends. That is, the tactile sense presentation control unit 22 supplies the final tactile sense signal obtained in step S46 to the tactile sense presentation unit 21 used for tactile sense presentation via the bus 31.
  • the tactile sense providing unit 21 presents the direction in which the target object is present or the distance to the target object by performing tactile sense presentation with respect to the tactile sense presentation position based on the tactile sense signal supplied from the tactile sense presentation control unit 22.
  • steps S41 to S47 are performed for each of the target objects. Thereby, the directions and distances of a plurality of target objects different from each other can be simultaneously presented.
  • the tactile sense presentation device 11 corrects the tactile sense signal based on the correction data, and performs tactile sense presentation based on the corrected tactile sense signal. By doing this, accurate tactile presentation can be performed as intended.
  • direction presentation may be performed by audio presentation.
  • the sound presentation unit outputs sound having directivity according to the direction of the target object, or outputs sound so that the sound image is localized in the direction of the target object by a technique such as wavefront synthesis.
  • a technique such as wavefront synthesis.
  • an information processing system that performs tactile sense presentation is configured, for example, as shown in FIG.
  • the information processing system includes a tactile sense presentation device 71, a tactile sense data processing device 72, and a position / direction information processing device 73.
  • the tactile sense presentation device 71 to the position and direction information processing device 73 mutually communicate via a wired or wireless communication network etc. to exchange various data etc.
  • the communication system between the respective devices May be any method.
  • the tactile sense presentation device 71 includes, for example, the tactile sense presentation unit 21 or the sensor unit 27, the estimation unit 23, the position / direction information detection unit 25, the communication unit 29, and the signal processing unit 51 illustrated in FIG.
  • the presentation position information and the like are transmitted to the haptic data processing device 72, and haptic presentation is performed based on the haptic signal received from the haptic data processing device 72.
  • the haptic data processing device 72 includes, for example, a personal computer, a smartphone, a server, and the like.
  • the haptic data processing device 72 may use haptic data stored in the storage unit, correction data received from the haptic presentation device 71, haptic presentation position information, target object distance information indicating the distance from the haptic presentation device 71 to the target object, etc.
  • a haptic signal is generated based on the information and transmitted to the haptic presentation device 71.
  • the position and direction information processing apparatus 73 is formed of, for example, a personal computer, a smart phone, a server, etc., and includes, for example, the position and direction information processing unit 26 shown in FIG.
  • the position and orientation information processing device 73 obtains the position and direction of the tactile presentation device 71 on the three-dimensional space based on the positional orientation information received from the tactile presentation device 71, object position information of the target object, and the tactile presentation device The tactile sense presentation position is determined based on the position and the direction of 71. Further, the position / direction information processing device 73 transmits the tactile sense presentation position information and the target object distance information to the tactile sense presentation device 71.
  • the series of processes described above can be executed by hardware or software.
  • a program that configures the software is installed on a computer.
  • the computer includes, for example, a general-purpose personal computer that can execute various functions by installing a computer incorporated in dedicated hardware and various programs.
  • FIG. 17 is a block diagram showing an example of a hardware configuration of a computer that executes the series of processes described above according to a program.
  • a central processing unit (CPU) 501 a read only memory (ROM) 502, and a random access memory (RAM) 503 are mutually connected by a bus 504.
  • CPU central processing unit
  • ROM read only memory
  • RAM random access memory
  • an input / output interface 505 is connected to the bus 504.
  • An input unit 506, an output unit 507, a storage unit 508, a communication unit 509, and a drive 510 are connected to the input / output interface 505.
  • the input unit 506 includes a keyboard, a mouse, a microphone, an imaging device, and the like.
  • the output unit 507 includes a tactile sense presentation device, a display, a speaker, and the like.
  • the storage unit 508 includes a hard disk, a non-volatile memory, and the like.
  • the communication unit 509 is formed of a network interface or the like.
  • the drive 510 drives a removable recording medium 511 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 501 loads the program stored in the storage unit 508 into the RAM 503 via the input / output interface 505 and the bus 504 and executes the program. Processing is performed.
  • the program executed by the computer (CPU 501) can be stored and provided in, for example, a removable recording medium 511 as a package medium or the like. Also, the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be installed in the storage unit 508 via the input / output interface 505 by attaching the removable storage medium 511 to the drive 510.
  • the program can be received by the communication unit 509 via a wired or wireless transmission medium and installed in the storage unit 508.
  • the program can be installed in advance in the ROM 502 or the storage unit 508.
  • the program executed by the computer may be a program that performs processing in chronological order according to the order described in this specification, in parallel, or when necessary, such as when a call is made. It may be a program to be processed.
  • the present technology can have a cloud computing configuration in which one function is shared and processed by a plurality of devices via a network.
  • each step described in the above-described flowchart can be executed by one device or in a shared manner by a plurality of devices.
  • the plurality of processes included in one step can be executed by being shared by a plurality of devices in addition to being executed by one device.
  • present technology can also be configured as follows.
  • An estimation unit configured to estimate the wearing state of a plurality of tactile presentation devices placed at different positions from one another to the user's body; The plurality of tactile sense presentations such that the user perceives a tactile sense at the tactile sense presentation position based on tactile sense presentation position information indicating the tactile sense presentation position on the user's body and the estimation result of the wearing state
  • An information processing apparatus comprising: a tactile sense presentation control unit configured to control at least one tactile sense presentation device of devices.
  • the haptic presentation control unit controls the haptic presentation device based on the perceptual characteristic of the user at the mounting position of the haptic presentation device obtained by the estimation of the mounting state according to (1) or (2).
  • Information processing device The haptic presentation control unit performs haptic presentation on the haptic presentation position by controlling the plurality of haptic presentation devices mounted at positions different from the haptic presentation position (1) to (3).
  • the information processing apparatus according to one item.
  • the haptic presentation control unit controls haptic presentation for the haptic presentation position by controlling a plurality of haptic presentation devices corresponding to the haptic presentation position according to the distance from the haptic presentation device to the haptic presentation position.
  • the information processing apparatus according to (4).
  • the information processing apparatus according to any one of (1) to (5), wherein the tactile sense presentation control unit presents a direction by the tactile sense presentation.
  • the tactile presentation control unit performs horizontal directional presentation by controlling one or a plurality of the tactile presentation devices among a plurality of the tactile presentation devices arranged in a circumferential shape.
  • the tactile presentation control unit performs vertical directional presentation by controlling one or more of the plurality of tactile presentation devices arranged in the vertical direction (6) or ((6) The information processing apparatus according to 7).
  • the information processing apparatus according to any one of (6) to (8), wherein the tactile sense presentation control unit simultaneously presents a plurality of different directions by performing the tactile sense presentation with respect to a plurality of tactile sense presentation positions.
  • the information processing apparatus according to any one of (6) to (9), wherein the tactile sense presentation position indicates a direction in which an object is present.
  • the tactile sense presentation control unit presents the distance to the object according to a size, a cycle, or a presentation pattern of the tactile sense presentation.
  • the information processing apparatus according to (10) or (11), wherein the object is another information processing apparatus different from the information processing apparatus.
  • the information processing apparatus further includes a communication unit that receives position information indicating the position of the other information processing apparatus from the other information processing apparatus.
  • the information processing apparatus according to (12), wherein the tactile sense presentation control unit controls the tactile sense presentation device based on the tactile sense presentation position information obtained based on the position information and the estimation result of the wearing state.
  • the tactile presentation control unit controls the tactile presentation device such that the tactile presentation is performed by vibration stimulation, thermal stimulation, electrical stimulation, haptic stimulation, or pain stimulation (1) to (13).
  • the information processing apparatus according to any one of the above.
  • the information processing apparatus Estimate the wearing condition of the multiple tactile presentation devices placed at different positions from the user's body, The plurality of tactile sense presentations such that the user perceives a tactile sense at the tactile sense presentation position based on tactile sense presentation position information indicating the tactile sense presentation position on the user's body and the estimation result of the wearing state
  • 11 tactile sense presentation device 21-1 to 21-n, 21 tactile sense presentation unit, 22 tactile sense presentation control unit, 23 estimation unit, 24 display unit, 25 position direction information detection unit, 26 position direction information processing unit, 27 sensor unit, 29 communication unit, 51 signal processing unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本技術は、より正確な触覚提示を行うことができるようにする情報処理装置および方法、並びにプログラムに関する。 情報処理装置は、互いに異なる位置に配置された複数の触覚提示デバイスのユーザの体に対する装着状態を推定する推定部と、ユーザの体に対する触覚提示位置を示す触覚提示位置情報と、装着状態の推定結果とに基づいて、ユーザが触覚提示位置に対して触覚を知覚するように、複数の触覚提示デバイスのうちの少なくとも1つの触覚提示デバイスを制御する触覚提示制御部とを備える。本技術は触覚提示装置に適用することができる。

Description

情報処理装置および方法、並びにプログラム
 本技術は、情報処理装置および方法、並びにプログラムに関し、特に、より正確な触覚提示を行うことができるようにした情報処理装置および方法、並びにプログラムに関する。
 従来、複数の振動部を有するデバイスをユーザの体の所定の部位に巻き付けて、円周上に配置された複数の振動部のうちのいくつかを振動させることで、ユーザに対して方向を認知させる技術が提案されている(例えば、特許文献1参照)。
 例えば特許文献1では、ユーザの首の部分にC字形状の装置を巻き付けて、その装置に設けられた振動部を振動させることで振動刺激による触覚提示が行われ、これにより方向が提示される。
特表2013-524315号公報
 しかしながら、上述した技術では、必ずしも正確に触覚提示を行うことができないことがあった。
 例えば、振動部を有するデバイスをユーザの体の部位に装着する場合、その部位の太さはユーザごとに個人差がある。
 そのため、デバイスが装着されるユーザの体の部位の太さやデバイス装着時の締め付け具合によって、ユーザの体に対するデバイスに設けられた振動部の接触位置が予め想定されている接触位置と異なる位置となってしまうことがある。このような振動部の接触位置のずれが生じると、ユーザに対して振動刺激による触覚提示が行われていると知覚させる触覚提示の提示位置が変化してしまう。そうすると、例えば結果として意図通りの位置または方向とは異なる位置または方向をユーザに対して認知させてしまうことになる。
 本技術は、このような状況に鑑みてなされたものであり、より正確な触覚提示を行うことができるようにするものである。
 本技術の一側面の情報処理装置は、互いに異なる位置に配置された複数の触覚提示デバイスのユーザの体に対する装着状態を推定する推定部と、前記ユーザの体に対する触覚提示位置を示す触覚提示位置情報と、前記装着状態の推定結果とに基づいて、前記ユーザが前記触覚提示位置に対して触覚を知覚するように、前記複数の前記触覚提示デバイスのうちの少なくとも1つの前記触覚提示デバイスを制御する触覚提示制御部とを備える。
 本技術の一側面の情報処理またはプログラムは、互いに異なる位置に配置された複数の触覚提示デバイスのユーザの体に対する装着状態を推定し、前記ユーザの体に対する触覚提示位置を示す触覚提示位置情報と、前記装着状態の推定結果とに基づいて、前記ユーザが前記触覚提示位置に対して触覚を知覚するように、前記複数の前記触覚提示デバイスのうちの少なくとも1つの前記触覚提示デバイスを制御するステップを含む。
 本技術の一側面においては、互いに異なる位置に配置された複数の触覚提示デバイスのユーザの体に対する装着状態が推定され、前記ユーザの体に対する触覚提示位置を示す触覚提示位置情報と、前記装着状態の推定結果とに基づいて、前記ユーザが前記触覚提示位置に対して触覚を知覚するように、前記複数の前記触覚提示デバイスのうちの少なくとも1つの前記触覚提示デバイスが制御される。
 本技術の一側面によれば、より正確な触覚提示を行うことができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載された何れかの効果であってもよい。
提示方向のずれについて説明する図である。 触覚提示装置の外観の構成例を示す図である。 方向提示について説明する図である。 方向提示について説明する図である。 複数の対象オブジェクトについての方向提示について説明する図である。 触覚提示装置間での方向提示について説明する図である。 キャリブレーション処理について説明する図である。 対象オブジェクトまでの距離の提示について説明する図である。 知覚特性に応じた補正について説明する図である。 触覚提示装置の他の外観の構成例を示す図である。 触覚提示装置の他の外観の構成例を示す図である。 触覚提示装置の他の外観の構成例を示す図である。 触覚提示装置の機能的な構成例を示す図である。 キャリブレーション処理を説明するフローチャートである。 提示処理を説明するフローチャートである。 情報処理システムの構成例を示す図である。 コンピュータの構成例を示す図である。
 以下、図面を参照して、本技術を適用した実施の形態について説明する。
〈第1の実施の形態〉
〈本技術について〉
 本技術は、ユーザに対して1または複数の触覚提示デバイスを用いた触覚提示により、ユーザに所定の方向を認知させる方向提示を行うものである。
 ここで、触覚提示とは、例えば皮膚や筋肉等に対する振動刺激や温度刺激、電気刺激、力覚刺激、痛覚刺激などにより、ユーザの皮膚を通してユーザの体に対して触覚を利用した所定の知覚効果を知覚させることをいう。
 例えば本技術を適用した方向提示を行うデバイスとして、リストバンド型のデバイスやベルト型のデバイス等のユーザの身体の一部に巻き付けて装着するタイプのデバイス、ユーザが袖を通して着用するベスト型のデバイスなどが考えられる。
 このようなデバイスは、例えば対象オブジェクトの方向や、対象オブジェクトまでの距離を触覚提示によりユーザに認知させる各種のナビゲーション機能、方向提示を利用したコミュニケーション機能、方向提示を利用した各種の通知機能、ユーザの所有物の落下や置き忘れの通知などに関する落とし物検知機能等の実現に利用することが可能である。
 具体的には、例えば本技術はサバイバルゲームの対戦中などにおける、対戦相手や味方などの他のユーザがいる方向や、他のユーザまでの距離を触覚提示により認知させる場合に利用することができる。また、本技術は、例えばサバイバルゲームの対戦中などにおける、触覚提示を利用した被弾等のフィードバックをユーザに認知させる場合にも利用することができる。
 さらに、本技術は、例えば予め設定された目的地へと向かう歩行中のユーザに対して、触覚提示によりユーザから見た目的地の方向や、目的地までの距離を触覚提示により認知させる場合などにも利用することができる。
 その他、本技術は、例えばユーザが車両を運転しているときに、ユーザから見た、ユーザ周囲の車両や人の方向や数、それらの車両や人までの距離を認知させる場合などにも利用することができる。
 それでは以下、本技術について、より具体的に説明する。なお、以下では触覚提示として、特に振動刺激による触覚提示が行われる場合を例として説明を続ける。
 例えば図1に示すように、ユーザの体の腰の部分に巻き付けて装着する、方向提示機能付きのベルト型の触覚提示装置HM11があったとする。
 触覚提示装置HM11には、振動刺激により触覚提示を行う触覚提示部SV11-1乃至触覚提示部SV11-6が設けられている。なお、以下、触覚提示部SV11-1乃至触覚提示部SV11-6を特に区別する必要のない場合、単に触覚提示部SV11とも称することとする。
 触覚提示装置HM11では、これらの触覚提示部SV11のうちの何れかを振動させて触覚提示を行うことで、ユーザに対して認知対象となる対象オブジェクトのある方向を認知(知覚)させる方向提示が行われる。
 ここで、ユーザが触覚提示装置HM11を腰部分に装着したときに、矢印Q11に示すように6個の触覚提示部SV11が円周上に等間隔で並ぶように配置されており、このような状態が本来想定されている触覚提示装置HM11の装着状態であるとする。
 この場合、例えば矢印AR11に示す方向、すなわちユーザから見て右方向に対象オブジェクトがあるとすると、触覚提示装置HM11は自身から見て対象オブジェクトがある方向に設けられた触覚提示部SV11-3を振動させることで方向提示を行う。
 触覚提示部SV11-3を振動させると、ユーザは自身の腰の右側の部分、つまり触覚提示部SV11-3と接触している部分で振動刺激を知覚するので、その振動刺激を受けた部位のある矢印AR11に示す方向に対象オブジェクトがあることを知ることができる。
 しかしながら、触覚提示装置HM11はユーザの腰に巻き付けて装着するベルト型のデバイスであり、ユーザの腰回りの太さには個人差があるため、触覚提示装置HM11を巻き付けるときの締め付け具合によって各触覚提示部SV11とユーザの接触位置が変化する。
 例えば矢印Q12に示すように、通常想定されているよりも締め付け具合が強いと、触覚提示部SV11は円周上において等間隔には配置されなくなってしまう。すなわち、各触覚提示部SV11の配置位置は、本来想定されている位置からずれた位置となってしまう。
 そのため、矢印Q11に示した例と同じ方向に対象オブジェクトがあるとすると、触覚提示装置HM11は、触覚提示部SV11-3を振動させて方向提示を行うが、矢印Q12に示す装着状態では、方向提示により認知される方向が本来認知させたい矢印AR11に示す方向とは異なる矢印AR12に示す方向となってしまう。
 このように触覚提示装置HM11をユーザの体の一部に巻き付ける等して装着する場合、装着部分の太さに個人差があるため、正しく方向提示を行うことが困難であった。
 そこで、本技術では、各触覚提示部の装着状態を推定し、その推定結果に基づいて触覚提示制御を行うことで、本来の意図通りの正しい触覚提示位置に触覚提示を行うことができるようにした。
 例えばユーザの体の腰の部分に巻き付けて装着する、方向提示機能付きのベルト型の触覚提示装置に本技術を適用するものとする。図2は、そのような場合における本技術を適用した触覚提示装置の外観の構成例を示す図である。
 図2に示す触覚提示装置HM21は、ユーザの腰の部分に巻き付けて装着されるベルト型のデバイスである。この触覚提示装置HM21を構成するベルトのバンド部分には、触覚提示装置HM21が装着されたときにユーザの腰の各部位に接触するように、触覚提示部SV21-1乃至触覚提示部SV21-6が略等間隔で設けられている。
 これらの触覚提示部SV21-1乃至触覚提示部SV21-6は、例えばピエゾ素子アクチュエータなどからなり、供給された触覚信号に基づいて振動することで、ユーザに対して振動刺激による触覚提示を行う。
 なお、以下、触覚提示部SV21-1乃至触覚提示部SV21-6を特に区別する必要のない場合、単に触覚提示部SV21とも称することとする。
 また、触覚提示装置HM21には、触覚提示装置HM21の各部に電力を供給するためのバッテリVT21や他の触覚提示装置やサーバなどと通信を行う通信モジュールCR21が設けられている。
 さらに触覚提示装置HM21には、GPS(Global Positioning System)等からなる、3次元空間上における触覚提示装置HM21自身の位置を計測するための位置計測部PS21や、9軸センサ等からなる、3次元空間上における触覚提示装置HM21自身が向いている方向を計測する方向計測部DR21なども設けられている。
 このような触覚提示装置HM21では、例えば触覚提示装置HM21がユーザに装着された状態で通信モジュールCR21が外部のサーバ等と通信を行い、3次元空間上におけるサーバ等から方向提示の対象オブジェクトの位置を示すオブジェクト位置情報を取得する。
 そして、触覚提示装置HM21は、例えば取得されたオブジェクト位置情報と、位置計測部PS21や方向計測部DR21による計測結果とに基づいて、対象オブジェクトのある方向を提示する方向提示時における触覚提示位置を求める。
 ここで触覚提示位置とは、ユーザに対して触覚提示により対象オブジェクトのある方向を認知させるときの、ユーザに触覚提示が行われていると知覚させる位置、つまり与えられている振動刺激の中心位置であると知覚させる位置である。
 触覚提示装置HM21は、求めた触覚提示位置に応じて1または複数の触覚提示部SV21を振動させて触覚提示位置に対する触覚提示を行うことで、方向提示を行う。ここで、触覚提示に用いられる触覚提示部SV21は、触覚提示装置HM21に設けられた複数の触覚提示部SV21のうちの触覚提示位置に対応する1または複数の触覚提示部SV21とされる。
 具体的には例えば図3に示すように、各触覚提示部SV21が真円や楕円などの円の円周上に並ぶように配置されており、すなわち周状に配置されており、その円の中心から見て矢印AR21に示す方向に対象オブジェクトOBJ11があったとする。なお、図3において図2における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 ここで、矢印AR21はユーザの中心位置、すなわち環状に巻き付けられた触覚提示装置HM21の中心位置である中心Oを起点とし、対象オブジェクトOBJ11を終点とする矢印である。以下、矢印AR21に示される方向のように、触覚提示装置の中心位置から対象オブジェクトへと向かう方向、つまり対象オブジェクトの方向を特に対象オブジェクト方向とも称することとする。
 この例では、対象オブジェクト方向はユーザ(触覚提示装置HM21)から見た水平面上の方向である水平方向、つまり方位角方向となっている。
 この場合、対象オブジェクトOBJ11の方向を提示するときには、その対象オブジェクトOBJ11がある矢印AR21に示す方向をユーザに認知させることになる。換言すれば、周状に配置された1または複数の触覚提示部SV21のうちのいくつかを振動させることにより、対象オブジェクト方向の提示、すなわち水平方向の方向提示が行われることになる。
 このような例では、触覚提示装置HM21を構成するバンド部分と、矢印AR21との交点位置が、触覚提示装置HM21上における触覚提示位置PRP11となる。すなわち、中心Oから見た触覚提示位置PRP11のある方向が対象オブジェクト方向となるので、触覚提示位置PRP11は対象オブジェクトOBJ11のある方向を示しているということができる。
 したがって、ユーザに対して触覚提示位置PRP11に対して振動刺激による触覚提示が行われていると知覚させることで、矢印AR21に示す方向を対象オブジェクトOBJ11がある方向として認知させることができる。
 触覚提示位置PRP11への触覚提示にあたっては、その触覚提示位置PRP11に対応する1または複数の触覚提示部SV21を振動させればよい。
 ここで、触覚提示位置PRP11に対応する触覚提示部SV21とは、一例として例えば2つの触覚提示部SV21の間に触覚提示位置PRP11がある場合、それらの2つの触覚提示部SV21を触覚提示位置PRP11に対応する触覚提示部SV21とすることができる。
 その他、例えば触覚提示位置PRP11から所定の距離以内の位置にある1または複数の触覚提示部SV21を、触覚提示位置PRP11に対応する触覚提示部SV21としてもよい。さらに、例えば触覚提示位置PRP11から最も近い位置にある1または複数の触覚提示部SV21を、触覚提示位置PRP11に対応する触覚提示部SV21としてもよい。
 以下では、2つの触覚提示部SV21の間に触覚提示位置PRP11がある場合には、それらの2つの触覚提示部SV21が用いられて触覚提示が行われるとする。したがってこの例では、触覚提示位置PRP11に対応する触覚提示部SV21として、触覚提示位置PRP11近傍にある触覚提示部SV21-1と触覚提示部SV21-2を振動させることで、触覚提示位置PRP11に対する触覚提示が実現されている。
 このとき、触覚提示部SV21-1および触覚提示部SV21-2における振動強度は、例えば図4に示すように、触覚提示部SV21から触覚提示位置PRP11までの距離に応じて定めればよい。なお、図4において図3における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 この例では、触覚提示部SV21-1から触覚提示位置PRP11までの距離が距離L1となっており、触覚提示部SV21-2から触覚提示位置PRP11までの距離が距離L2となっている。
 なお、これらの距離L1および距離L2は、既知となっている触覚提示装置HM21のバンド部分における触覚提示部SV21が設けられた位置と、オブジェクト位置情報等に基づいて求められた触覚提示位置PRP11とから求めることが可能である。
 また、距離L1や距離L2は、触覚提示装置HM21を構成するバンド上における触覚提示部SV21から触覚提示位置PRP11までの距離となっているが、直線距離であってもよい。
 触覚提示装置HM21では、触覚提示位置PRP11からの距離が短い触覚提示部SV21ほど振動強度が強くなるように、各触覚提示部SV21における触覚提示時の振動強度が求められる。
 具体的には、例えば所定の定数をCとすると、触覚提示部SV21-1を振動させるときの振動強度はC×L2/(L1+L2)とされ、触覚提示部SV21-2を振動させるときの振動強度はC×L1/(L1+L2)とされる。
 このように、触覚提示位置PRP11までの距離に応じた振動強度で、その触覚提示位置PRP11に対応する1または複数の触覚提示部SV21を同時に振動させることで、触覚提示位置PRP11に対して触覚提示が行われているかのように感じさせることができる。
 換言すれば、触覚提示位置PRP11に対応する複数の触覚提示部SV21を、触覚提示部SV21から触覚提示位置PRP11までの距離に応じて制御することで、触覚提示位置PRP11に対する触覚提示を実現することができる。
 特に、触覚提示位置PRP11までの距離に応じた振動強度で複数の触覚提示部SV21を振動させることで、触覚提示装置HM21に設けられた触覚提示部SV21の数に依存せずに、任意の対象オブジェクト方向を示す方向提示を行うことができる。これにより、対象オブジェクト方向によらず、常に1つの触覚提示部SV21のみを振動させて方向提示を行うよりも、より正確に方向を提示することができる。
 また、ユーザは触覚提示のみ、つまり振動刺激のみで対象オブジェクトのある正確な方向を把握することができるので、例えば周囲の環境に目を向けながら対象オブジェクトへと近づいていくなど、方向提示に応じて行う行為等に集中することができる。
 なお、触覚提示位置PRP11が所定の触覚提示部SV21の位置となる場合には、その触覚提示部SV21のみを振動させるようにすればよい。
 また、図3では対象オブジェクトが1つである例について説明したが、対象オブジェクトが2以上である場合においても同様にして各対象オブジェクトのある方向を認知させる方向提示を行うことができる。
 例えば図5に示すように、対象オブジェクトが2つあったとする。なお、図5において図3における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 この例では、触覚提示装置HM21を装着したユーザの周囲には、対象オブジェクトOBJ11と対象オブジェクトOBJ21が存在している。
 このような場合、触覚提示装置HM21は上述したようにして、対象オブジェクトOBJ11についての触覚提示位置PRP11を求める。そして、触覚提示装置HM21は、得られた触覚提示位置PRP11に基づいて、その触覚提示位置PRP11に対応する触覚提示部SV21の振動強度を求める。ここでは、例えば触覚提示位置PRP11に対応する触覚提示部SV21として、触覚提示部SV21-1と触覚提示部SV21-2の振動強度が求められる。
 また、触覚提示装置HM21は、対象オブジェクトOBJ11における場合と同様にして、対象オブジェクトOBJ21についての触覚提示位置PRP21を求め、得られた触覚提示位置PRP21に基づいて、その触覚提示位置PRP21に対応する触覚提示部SV21の振動強度を求める。ここでは、例えば触覚提示位置PRP21に対応する触覚提示部SV21として、触覚提示部SV21-5と触覚提示部SV21-6の振動強度が求められる。
 さらに、触覚提示装置HM21は、求めた振動強度で触覚提示部SV21-1、触覚提示部SV21-2、触覚提示部SV21-5、および触覚提示部SV21-6を同時に振動させて触覚提示を行う。これにより、対象オブジェクトOBJ11のある矢印AR21に示す方向と、対象オブジェクトOBJ21のある矢印AR31に示す方向とを、同時にユーザに認知させることができる。すなわち、複数の方向を同時に提示することができる。
 したがって、触覚提示装置HM21にとって、他の触覚提示装置が対象オブジェクトとなっている場合には、例えば図6に示すように他の触覚提示装置の方向をユーザに認知させるような方向提示を行うことができる。なお、図6において図5における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 この例では、3次元空間上に触覚提示装置HM21、触覚提示装置HM31、および触覚提示装置HM32が存在している。
 触覚提示装置HM21には、触覚提示装置HM31および触覚提示装置HM32が対象オブジェクトとなっており、触覚提示装置HM21の通信モジュールCR21は、サーバから、または触覚提示装置HM31および触覚提示装置HM32から、それらの触覚提示装置の位置を示すオブジェクト位置情報を取得する。
 そして、触覚提示装置HM21は、取得したオブジェクト位置情報に基づいて、触覚提示装置HM31についての触覚提示位置PRP31を求め、その触覚提示位置PRP31に対する触覚提示を行うことで、矢印AR41に示す、触覚提示装置HM31のある方向をユーザに認知させる。
 同時に、触覚提示装置HM21は、取得したオブジェクト位置情報に基づいて、触覚提示装置HM32についての触覚提示位置PRP32を求め、その触覚提示位置PRP32に対する触覚提示を行うことで、矢印AR42に示す、触覚提示装置HM32のある方向をユーザに認知させる。
 同様に、触覚提示装置HM31には、触覚提示装置HM21および触覚提示装置HM32が対象オブジェクトとなっており、触覚提示装置HM31は、サーバ、または触覚提示装置HM21および触覚提示装置HM32から、それらの触覚提示装置のオブジェクト位置情報を取得する。
 そして、触覚提示装置HM31は、取得したオブジェクト位置情報に基づいて、触覚提示装置HM21についての触覚提示位置PRP33を求め、その触覚提示位置PRP33に対する触覚提示を行うことで、矢印AR43に示す、触覚提示装置HM21のある方向をユーザに認知させる。
 また、触覚提示装置HM31は、取得したオブジェクト位置情報に基づいて、触覚提示装置HM32についての触覚提示位置PRP34を求め、その触覚提示位置PRP34に対する触覚提示を行うことで、矢印AR44に示す、触覚提示装置HM32のある方向をユーザに認知させる。
 さらに、触覚提示装置HM32には、触覚提示装置HM21および触覚提示装置HM31が対象オブジェクトとなっており、触覚提示装置HM32は、サーバ、または触覚提示装置HM21および触覚提示装置HM31から、それらの触覚提示装置のオブジェクト位置情報を取得する。
 そして、触覚提示装置HM32は、取得したオブジェクト位置情報に基づいて、触覚提示装置HM21についての触覚提示位置PRP35を求め、その触覚提示位置PRP35に対する触覚提示を行うことで、矢印AR45に示す、触覚提示装置HM21のある方向をユーザに認知させる。
 また、触覚提示装置HM32は、取得したオブジェクト位置情報に基づいて、触覚提示装置HM31についての触覚提示位置PRP36を求め、その触覚提示位置PRP36に対する触覚提示を行うことで、矢印AR46に示す、触覚提示装置HM31のある方向をユーザに認知させる。
 このように複数の触覚提示装置がある場合に、各触覚提示装置が他の触覚提示装置を対象オブジェクトとすることで、各触覚提示装置を装着しているユーザに対して、他の触覚提示装置の方向を認知させることができる。
 また、複数の対象オブジェクトがあり、触覚提示によって、それらの複数の対象オブジェクトのある方向を提示する場合に、さらに触覚提示と同時に、指向性に関する音響提示技術などを利用した音響提示によって各対象オブジェクトがどのようなオブジェクトであるかを示すコンテキスト情報を提示するようにしてもよい。この場合、例えばオブジェクト位置情報とともにコンテキスト情報も取得してもよい。
 ところで、上述したように触覚提示装置の装着状態、つまり触覚提示装置を構成するバンド部分の締め付け具合によって、触覚提示位置と各触覚提示部との位置関係は変化する。
 そこで触覚提示装置では、例えば図7に示すようにセンサ等により触覚提示装置の装着状態、すなわち各触覚提示部の装着状態を推定し、その推定結果に基づいて触覚提示部の正しい位置が把握されるようになされる。なお、図7において図4における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
 例えば図7の矢印Q41に示す例では、触覚提示装置HM21が装着されるユーザの腰部分が適切な太さであり、各触覚提示部SV21が略等間隔で並んでいる。
 例えば触覚提示装置HM21のバンド部分に、触覚提示装置HM21を装着するためのベルトの穴が設けられており、ベルトのバックル部分に装着状態検出用のセンサが設けられているとする。そのような場合、装着状態検出用のセンサがベルトの何番目の穴により触覚提示装置HM21が固定(装着)されているかを検出することで、ユーザに巻き付けられたベルト(バンド)部分の長さが測定される。そして、触覚提示装置HM21は、その測定結果に基づいて各触覚提示部SV21の装着位置を装着状態として推定により求める。
 ここで、触覚提示部SV21の装着位置は、例えば触覚提示装置HM21の所定の位置を基準とした位置や、触覚提示装置HM21(ユーザ)の中心Oから見た触覚提示部SV21の位置など、どのような位置を基準としたものであってもよい。
 また、例えば触覚提示装置HM21に、その触覚提示装置HM21のバンド部分を締め付けると回転するローラが設けられている場合には、そのローラの回転数を測定(検出)するセンサが装着状態検出用のセンサとして触覚提示装置HM21に設けられるようにすればよい。そのような場合、装着状態検出用のセンサによる回転数の測定結果から各触覚提示部SV21の装着位置を得ることができる。
 触覚提示装置HM21は、予め理想的な装着状態における各触覚提示部SV21の装着位置を示す装着位置データを保持しており、その装着位置データと、装着状態検出用のセンサの検出結果とに基づいて各触覚提示部SV21の装着状態を推定する。
 触覚提示装置HM21では、装着状態を推定し、各触覚提示部SV21の実際の装着位置を得る処理がキャリブレーション処理として行われる。
 このようなキャリブレーション処理が行われると、各触覚提示部SV21の実際の装着位置を正しく把握することができるので、触覚提示位置PRP11に対する正確な触覚提示を行うことができるようになる。
 すなわち、矢印Q41に示す例では、触覚提示装置HM21は、キャリブレーション処理の結果から、触覚提示部SV21-1と触覚提示部SV21-2の間に触覚提示位置PRP11があることを特定することができ、それらの触覚提示部SV21と触覚提示位置PRP11の間の距離も正しく求めることができる。したがって、触覚提示装置HM21は、触覚提示部SV21-1と触覚提示部SV21-2を適切な振動強度で振動させて触覚提示を行うことで、ユーザに対して矢印AR21に示す方向を認知させることができる。
 これに対して、例えば矢印Q42に示すように、触覚提示装置HM21が装着されるユーザの腰部分が細い場合、各触覚提示部SV21は不等間隔に並ぶように配置されることになる。しかし、このような場合においても、触覚提示装置HM21はキャリブレーション処理の結果から各触覚提示部SV21の正確な装着位置を把握することができるので、触覚提示部SV21-1の位置に触覚提示位置PRP11があることを特定することができる。
 したがって、触覚提示装置HM21は触覚提示部SV21-1を適切な振動強度で振動させて触覚提示を行うことで、ユーザに対して矢印AR21に示す方向を認知させることができる。
 以上のように各触覚提示部SV21の装着状態を推定し、その推定結果に基づいて触覚提示を行うことで、より正確に対象オブジェクトの方向を提示することができる。
 特に、ユーザと対象オブジェクトとの距離が短いほど、触覚提示部SV21の装着位置のずれに対する提示方向のずれは大きくなる。しかし、触覚提示装置HM21では、装着状態の推定、つまりキャリブレーション処理によって、より正確な触覚提示部SV21の装着位置を把握することができるので、高精度に方向提示を行うことができる。
 このような触覚提示装置HM21によれば、例えばユーザと対象オブジェクトとの距離が近くなったときでも、ユーザに対して、対象オブジェクトのある方向を直感的かつより正確に認知させることができる。
 また、触覚提示装置HM21では、各触覚提示部SV21を振動させて触覚提示を行うことで、ユーザに対して対象オブジェクトの方向を認知させることについて説明したが、触覚提示によって対象オブジェクトまでの距離も提示するようにしてもよい。
 例えば図8に示すように、触覚提示装置HM21の前方に対象オブジェクトOBJ31があるとする。
 図8における矢印Q51に示す例では、触覚提示装置HM21前方における、触覚提示装置HM21に比較的近い位置に対象オブジェクトOBJ31が存在している。
 このとき、触覚提示装置HM21は、触覚提示位置PRP51に触覚提示を行い、ユーザに対して対象オブジェクトOBJ31のある方向、つまり矢印AR51に示す方向を認知させる。
 この場合に触覚提示装置HM21は、例えば触覚提示時における振動強度(振動の大きさ)や振動周期、振動パターン(触覚提示の提示パターン)など、触覚提示装置HM21から対象オブジェクトOBJ31までの距離に応じて触覚提示のための振動を変化させることで、ユーザに対して対象オブジェクトOBJ31までの距離を提示することができる。
 例えば矢印Q51に示す例では、対象オブジェクトOBJ31までの距離が短いので、触覚提示装置HM21は触覚提示を行うときの振動の大きさ(振動強度)を強くしている。
 ここでは、触覚提示位置PRP51を表す円の大きさが振動強度を表しており、触覚提示装置HM21は、対象オブジェクトOBJ31までの距離に応じて強い振動強度で触覚提示部SV21を振動させることで、対象オブジェクトOBJ31までの距離をユーザに提示している。
 同時に、ここでは触覚提示装置HM21は、対象オブジェクトOBJ31までの距離が短いので、触覚提示を行うときの振動の間隔(周期)を短くしている。すなわち、触覚提示装置HM21は、高い振動周波数で触覚提示部SV21を振動させることで、対象オブジェクトOBJ31までの距離をユーザに提示している。
 逆に、例えば矢印Q52に示す例では、触覚提示装置HM21前方における、触覚提示装置HM21から比較的遠い位置に対象オブジェクトOBJ31が存在している。
 このとき、触覚提示装置HM21は、矢印Q51に示した例における場合と同様に、触覚提示位置PRP51に触覚提示を行って、ユーザに対して対象オブジェクトOBJ31のある方向、つまり矢印AR51に示す方向を認知させる。
 矢印Q51に示す例と、矢印Q52に示す例とでは、触覚提示装置HM21から対象オブジェクトOBJ31までの距離のみが異なっており、対象オブジェクトOBJ31のある方向は同じ方向となっている。
 矢印Q52に示す例では、対象オブジェクトOBJ31までの距離が長いので、触覚提示装置HM21は触覚提示を行うときの振動の大きさ(振動強度)を弱くしている。
 ここでは、触覚提示位置PRP51を表す円の大きさが振動強度を表しており、触覚提示装置HM21は、対象オブジェクトOBJ31までの距離に応じて弱い振動強度で触覚提示部SV21を振動させることで、対象オブジェクトOBJ31までの距離をユーザに提示している。
 同時に、ここでは触覚提示装置HM21は、対象オブジェクトOBJ31までの距離が長いので、触覚提示を行うときの振動の間隔(周期)を長くしている。すなわち、触覚提示装置HM21は、低い振動周波数で触覚提示部SV21を振動させることで、対象オブジェクトOBJ31までの距離をユーザに提示している。
 このように、触覚提示装置HM21から対象オブジェクトOBJ31までの距離に応じて、触覚提示を行なうときの触覚提示部SV21の振動の振動強度や振動周波数(振動周期)を変化させることで、ユーザに対して対象オブジェクトOBJ31までの距離を提示することができる。さらに、対象オブジェクトの方向だけでなく、対象オブジェクトまでの距離も同時に提示することで、ユーザは、自身と対象オブジェクトとの位置関係をより正確に把握することができる。
 また、触覚提示装置HM21には複数の触覚提示部SV21が設けられており、それらの触覚提示部SV21は、ユーザの互いに異なる部位に装着されることになる。
 しかし、人の体は部位ごとに振動刺激等の触覚提示に対する知覚特性(感度特性)が異なる。そのため、例えば同じ振動強度で触覚提示部SV21を振動させても、その触覚提示部SV21の装着位置、つまりユーザの触覚提示部SV21との接触部位が異なると、ユーザが知覚する振動刺激の強さ(知覚強度)も異なる。
 したがって、ユーザの部位ごとの知覚特性を考慮しない場合、例えば図8を参照して説明したように触覚提示部SV21による振動の振動強度や振動周波数によって、対象オブジェクトまでの距離を提示するときには、ユーザにより認知される距離が、本来提示したい距離とは異なる距離となってしまうおそれがある。また、複数の触覚提示部SV21を振動させて方向提示を行う場合に、それらの触覚提示部SV21の装着位置での知覚特性の違いによって、ユーザにより知覚される触覚提示位置が本来知覚させたい位置とは異なる位置となってしまうおそれもある。
 そこで、例えば触覚提示部SV21の装着位置に応じて、各触覚提示部SV21による振動刺激の振動強度や周波数特性を補正することで、ユーザに対して意図通りの触覚提示を知覚させることができるようにしてもよい。
 具体的には、例えば図9に示すように矢印Q61乃至矢印Q64のそれぞれに示す部分が、ユーザの腰の部分の前側、右側、後ろ側、および左側の部位であるとする。
 そして、触覚提示装置HM21は、ユーザの腰の部分の前側、右側、後ろ側、および左側などのいくつかの部位について、振動刺激の振動強度に対する知覚強度や、振動刺激の振動周波数についての知覚特性、つまり周波数特性などの知覚特性を示すデータ(以下、知覚特性データとも称する)を予め保持しているとする。
 この場合、例えば装着位置データにより示される触覚提示部SV21の装着位置、つまり理想的な触覚提示部SV21の装着位置ごとに知覚特性データを保持しているようにすることができる。
 触覚提示装置HM21は、キャリブレーション処理により得られた触覚提示部SV21の装着位置、つまり触覚提示部SV21のユーザとの接触位置と、予め保持している知覚特性データとに基づいて、各触覚提示部SV21の補正データを生成する。
 ここで、補正データとは、触覚提示部SV21を振動させるときの振動強度や周波数特性の補正値を示すデータである。
 なお、補正データの生成にあたっては、触覚提示部SV21の実際の装着位置の知覚特性データ、つまり触覚提示部SV21に接触するユーザの部位の知覚特性データが必要となるが、その部位の知覚特性データを保持していない場合には、線形補間等により知覚特性データを生成すればよい。
 具体的には、例えば矢印Q61に示す部位の知覚特性データと、矢印Q62に示す部位の知覚特性データとは予め保持されているが、矢印Q61に示す部位と、矢印Q62に示す部位との間に位置する部位の知覚特性データは予め保持されていないとする。
 この場合、例えば触覚提示装置HM21は、矢印Q61に示す部位の知覚特性データと、矢印Q62に示す部位の知覚特性データとに基づいて線形補間等の補間処理を行い、矢印Q61に示す部位と矢印Q62に示す部位との間にある部位の知覚特性データを生成する。
 また、所定の振動強度かつ所定の周波数特性の振動刺激を与えるための触覚信号があり、矢印Q61乃至矢印Q64のそれぞれに示される位置に触覚提示部SV21があるとする。
 このとき、各触覚提示部SV21が補正データにより補正された触覚信号に基づいて振動すると、例えばユーザの腰の部分の前側、右側、後ろ側、および左側の各部位には、矢印A11乃至矢印A14のそれぞれに示す特性の振動刺激が与えられることになる。
 例えば矢印A13に示す振動刺激の特性は、ユーザの他の部位に与えられる振動刺激と比較して振動強度が強くなっており、また周波数特性においてもユーザの他の部位に与えられる振動刺激と比較して、比較的広い周波数帯域にわたって強い刺激が与えられることが分かる。
 このような矢印A13に示す特性となるように補正が行われるのは、ユーザの腰の部分の後ろ側、つまり背中側の部位は、腰周りの他の側面や前面などの部位と比較して、比較的広い周波数の範囲で振動刺激に対する感度が低いという知覚特性を有しているからである。
 逆に、腰の部分の後ろ側と比較して比較的感度が高い側面部分については、例えば矢印A12や矢印A14に示すように、振動刺激の特性は、ユーザの他の部位に与えられる振動刺激と比較して振動強度が弱く、低域のみ強い刺激が与えられる特性となる。
 このように同じ触覚信号に対して、ユーザの部位に応じて、すなわち触覚提示部SV21の装着位置に応じて補正データに基づく補正を行い、各触覚提示部SV21で補正後の触覚信号に基づいて触覚提示を行うと、矢印A11乃至矢印A14に示すように部位ごとに異なる特性の振動刺激がユーザに与えられることになる。
 この場合、ユーザの部位ごとに与えられる振動刺激の特性は異なるが、ユーザは、腰の部分の前側、右側、後ろ側、および左側の各部位に対して同じ特性、すなわち同じ振動強度および周波数特性の振動刺激が与えられていると知覚することになる。
 以上のようにして触覚提示部SV21の装着位置と、ユーザの知覚特性データとに基づいて触覚提示部SV21ごとに補正データを生成し、補正データに基づいて触覚信号を補正することで、ユーザに対して意図通りの触覚提示を知覚させることができる。これにより、より正確に対象オブジェクトの方向と距離を提示することができる。
 なお、ここでは予め用意されている知覚特性データに基づいて補正データを生成する例について説明したが、触覚提示装置HM21に設けられたスイッチ等の入力部に対するユーザの操作や、触覚提示装置HM21に接続されたスマートフォン等の外部の装置に対するユーザの操作に応じて、補正データが生成されるようにしてもよい。
 例えばユーザが触覚提示装置HM21に設けられた入力部を操作し、触覚提示装置HM21がユーザの操作に応じて補正データを生成する場合、触覚提示装置HM21は、まずは各触覚提示部SV21を一定の振動強度および周波数特性で振動させる。
 これに対して、ユーザは入力部を操作して各触覚提示部SV21について、振動強度を弱める等の指示入力を行い、触覚提示装置HM21はユーザの指示入力に応じて補正データを生成する。そして、触覚提示装置HM21は得られた補正データに基づく補正を行った触覚信号に基づいて、再度、各触覚提示部SV21を振動させる。
 以降においては、ユーザによる補正データの生成終了の指示入力が行われるまで、触覚提示部SV21を振動させる処理と、ユーザの指示入力に応じて補正データを修正する処理とが繰り返し行われる。
 このような処理によれば、予め知覚特性データが用意されていなくても、ユーザ個人の知覚特性やユーザの服装等に応じた適切な補正データを得ることができる。
〈上下方向の方向提示について〉
 また、以上において説明した触覚提示装置HM21においては、触覚提示のための全ての触覚提示部SV21が1つの円周上、すなわち1つの水平面上に配置される例について説明した。この場合、触覚提示装置HM21は、ユーザに対して水平方向(方位角方向)についてのみ方向提示を行うことができる。
 しかし、その他、例えば互いに高さの異なる2つの水平面のそれぞれに、複数の触覚提示部を配置することで、つまり垂直方向に複数の触覚提示部を配置することで、水平方向だけでなく、垂直方向(仰角方向)の方向提示も行うことができるようにしてもよい。
 そのような場合、例えば触覚提示装置には、図10に示すように触覚提示部が上下方向(垂直方向)にも並べられて配置される。
 この例では、触覚提示装置HM41は、ユーザの腰の部分に巻き付けて装着されるベルト型のデバイスとなっている。
 この触覚提示装置HM41には、1つの水平面上に周状に配置された6個の触覚提示部SV61-1乃至触覚提示部SV61-6が略等間隔で設けられている。
 これらの触覚提示部SV61-1乃至触覚提示部SV61-6は、触覚提示装置HM41の装着時にユーザの腰の部分に接触するように配置されており、振動することによりユーザに振動刺激による触覚提示を行う。なお、以下、触覚提示部SV61-1乃至触覚提示部SV61-6を特に区別する必要のない場合、単に触覚提示部SV61とも称することとする。
 また、触覚提示装置HM41には、触覚提示部SV61が配置された水平面とは異なる高さにある他の水平面上に周状に配置された6個の触覚提示部SV62-1乃至触覚提示部SV62-6が略等間隔で設けられている。
 これらの触覚提示部SV62-1乃至触覚提示部SV62-6は、触覚提示装置HM41の装着時にユーザの腰の部分に接触するように配置されており、振動することによりユーザに振動刺激による触覚提示を行う。なお、以下、触覚提示部SV62-1乃至触覚提示部SV62-6を特に区別する必要のない場合、単に触覚提示部SV62とも称することとする。
 このように触覚提示装置HM41には、ユーザから見て互いに異なる高さの位置に触覚提示部SV61と触覚提示部SV62が設けられているため、ユーザから見て水平方向だけでなく、垂直方向(仰角方向)についても方向提示を行うことができる。
 例えばユーザから見て触覚提示部SV61-1や触覚提示部SV62-1のある方向が正面方向であり、その正面方向に対象オブジェクトがあるとする。
 この場合、例えば対象オブジェクトが触覚提示装置HM41の正面上側にあるときには、触覚提示装置HM41は触覚提示部SV62-1を振動させる触覚提示を行うことで、ユーザに対して対象オブジェクトがユーザの前方上側にあることを認知させることができる。
 これに対して、例えば対象オブジェクトが触覚提示装置HM41の正面下側にあるときには、触覚提示装置HM41は触覚提示部SV61-1を振動させる触覚提示を行うことで、ユーザに対して対象オブジェクトがユーザの前方下側にあることを認知させることができる。さらに、例えば対象オブジェクトが触覚提示装置HM41の真正面にあるときには、触覚提示装置HM41は触覚提示部SV61-1および触覚提示部SV62-1を同時に振動させる触覚提示を行うことで、ユーザに対して対象オブジェクトがユーザの真正面にあることを認知させることができる。
〈ベスト型の触覚提示装置について〉
 さらに、ユーザに対して触覚提示により対象オブジェクトの方向や距離を提示する触覚提示装置は、ベルト型のものに限らずベスト型のものであってもよい。
 そのような場合、触覚提示装置は、例えば図11に示す構成とされる。
 図11に示す触覚提示装置HM51は、触覚提示により対象オブジェクトのある方向を提示したり、対象オブジェクトまでの距離を提示したりする機能を有するベスト型のデバイスとなっている。
 この触覚提示装置HM51には、ユーザの体の前面の部位に対して振動により触覚提示を行う触覚提示部SV71-1乃至触覚提示部SV71-6が設けられている。
 これらの触覚提示部SV71-1乃至触覚提示部SV71-6は、例えばピエゾ素子アクチュエータなどからなり、供給された触覚信号に基づいて振動することで、ユーザに対して振動刺激による触覚提示を行う。
 なお、以下、触覚提示部SV71-1乃至触覚提示部SV71-6を特に区別する必要のない場合、単に触覚提示部SV71とも称することとする。
 また、触覚提示装置HM51における少なくとも触覚提示部SV71が設けられた部分には、シート状の圧力センサDT11-1および圧力センサDT11-2が設けられている。
 これらの圧力センサDT11-1および圧力センサDT11-2は、触覚提示部SV71が設けられた部分における触覚提示装置HM51の3D形状、換言すればユーザの体の3D形状を測定する装着状態検出用のセンサである。
 なお、以下、圧力センサDT11-1および圧力センサDT11-2を特に区別する必要のない場合、単に圧力センサDT11とも称することとする。また、圧力センサDT11はシート状のセンサの他、複数の細いワイヤからなるメッシュ状の圧力センサであってもよい。
 触覚提示装置HM51では、上述したベルト型の触覚提示装置HM21における場合と同様に、触覚提示装置HM51を装着するユーザの体型によって、触覚提示部SV71のユーザとの接触位置が変化する。すなわち、ユーザの体型によって各触覚提示部SV71の装着状態が変化する。
 そこで、触覚提示装置HM51が触覚提示装置HM21における場合と同様のキャリブレーション処理を行って、各触覚提示部SV71の実際の装着位置を求めるようにしてもよい。
 すなわち、例えば触覚提示装置HM51は、予め理想的な装着状態における各触覚提示部SV71の装着位置を示す装着位置データを保持している。
 触覚提示装置HM51は、保持している装着位置データと、圧力センサDT11による3D形状の測定結果とに基づいて各触覚提示部SV71の装着状態を推定し、触覚提示部SV71の実際の装着位置を求める。
 このように触覚提示部SV71の実際の装着位置を求めることで、より正確な触覚提示を行うことができるようになる。
 また、触覚提示装置HM21における場合と同様に、触覚提示装置HM51が、ユーザの触覚提示部SV71と接触し得る各部位についての知覚特性データを予め保持しておくようにし、その知覚特性データと、触覚提示部SV71の装着状態の推定結果とに基づいて、補正データを生成するようにしてもよい。そうすれば、触覚提示装置HM51は生成した補正データに基づいて、各触覚提示部SV71に供給する触覚信号を補正することで、ユーザに対して意図通りの触覚提示を知覚させることができる。
〈リストバンド型の触覚提示装置について〉
 その他、ユーザに対して触覚提示により対象オブジェクトの方向や距離を提示する触覚提示装置は、リストバンド型のデバイスとされてもよい。
 そのような場合、触覚提示装置は、例えば図12に示すようにユーザの手首近傍の部分に装着される。
 図12に示す例では、触覚提示装置HM61は、触覚提示により対象オブジェクトのある方向を提示したり、対象オブジェクトまでの距離を提示したりする機能を有するリストバンド型のデバイスとなっている。
 この触覚提示装置HM61には、ユーザの手首近傍の部分に対して振動により触覚提示を行う触覚提示部SV81-1乃至触覚提示部SV81-4が設けられている。
 これらの触覚提示部SV81-1乃至触覚提示部SV81-4は、例えばピエゾ素子アクチュエータなどからなり、供給された触覚信号に基づいて振動することで、ユーザに対して振動刺激による触覚提示を行う。なお、以下、触覚提示部SV81-1乃至触覚提示部SV81-4を特に区別する必要のない場合、単に触覚提示部SV81とも称することとする。
 このような触覚提示装置HM61においても、上述した触覚提示装置HM21における場合と同様に、キャリブレーション処理を行って触覚提示部SV81の実際の装着位置を求めたり、知覚特性データに基づいて補正データを求めて触覚信号の補正を行ったりすることができる。
〈触覚提示装置の機能の構成例〉
 次に、以上において説明した触覚提示装置の機能的な構成について説明する。
 例えば触覚提示装置の機能的な構成は、図13に示すようになる。
 図13に示す触覚提示装置11は、触覚提示によりユーザに対して対象オブジェクトの方向や対象オブジェクトまでの距離を提示する情報処理装置である。
 この触覚提示装置11は、例えば上述した触覚提示装置HM21や、触覚提示装置HM41、触覚提示装置HM51、触覚提示装置HM61に対応する。
 触覚提示装置11は、触覚提示部21-1乃至触覚提示部21-n、触覚提示制御部22、推定部23、表示部24、位置方向情報検知部25、位置方向情報処理部26、センサ部27、記憶部28、通信部29、および入力部30を有している。
 これらの触覚提示部21-1乃至入力部30は、バス31を介して相互に接続されている。なお、触覚提示部21-1乃至入力部30のうちのいくつかのブロック同士がバス31とは異なる専用の信号線により接続されるようにしてもよい。
 触覚提示部21-1乃至触覚提示部21-nは、バス31を介して触覚提示制御部22から供給された触覚信号に基づいて触覚提示を行い、触覚提示装置11を装着しているユーザに対して対象オブジェクトの方向を提示したり、対象オブジェクトまでの距離を提示したりする。なお、以下、触覚提示部21-1乃至触覚提示部21-nを特に区別する必要のない場合、単に触覚提示部21とも称することとする。
 これらのn個の触覚提示部21は、触覚提示装置11をユーザが装着した状態では、互いに異なる位置に配置された状態となる。すなわち、各触覚提示部21は、ユーザの体の互いに異なる部位に装着された(接触した)状態となる。
 ここで、触覚提示部21による触覚提示は、例えば振動刺激や温度刺激、電気刺激、力覚刺激、痛覚刺激などによる提示とすることができる。
 例えば触覚提示部21が振動刺激により触覚提示を行う場合、触覚提示部21はピエゾ素子アクチュエータや圧電アクチュエータ、リニア共振アクチュエータ(LRA(Linear Resonant Actuator))、ボイスコイルモータ、偏心モータなどの触覚提示デバイスから構成される。
 また、触覚提示部21が温度刺激により触覚提示を行うときには、例えば触覚提示部21はペルチェ素子などの触覚提示デバイスから構成されるようにすることができる。
 さらに、触覚提示部21が電気刺激や力覚刺激により触覚提示を行うときには、例えば触覚提示部21は電流を発生させたり、磁力等により触覚効果を想起させる刺激を与えたりすることが可能な電極パッドなどの触覚提示デバイスから構成されるようにすることができる。
 その他、触覚提示装置11には、触覚提示を行う触覚提示部21だけでなく、例えばスピーカなどからなり、供給された音響信号に基づいて音を出力することで、ユーザに対して音による音響提示を行う音響提示デバイスなどが設けられるようにしてもよい。
 触覚提示制御部22は、バス31を介して供給された触覚データに基づいて、所定の触覚提示を行うための触覚信号を生成し、触覚提示部21に供給する。換言すれば、触覚提示制御部22は、触覚信号を触覚提示部21に供給して駆動させることで、所望の触覚提示位置に対して触覚提示が行われるように、n個の触覚提示部21のうちの少なくとも1つの触覚提示部21を制御する。
 ここで、触覚データは、例えば触覚提示を行うための時間波形のデータであり、触覚提示制御部22は、触覚データの時間波形の長さや触覚データの振幅(大きさ)、触覚データの周波数特性などを適宜、調整することで触覚信号を生成する。
 例えば触覚データが振動による触覚提示を行うための振動データである場合、触覚提示制御部22は、振動データの振幅を調整することで振動による触覚提示の振動強度を調整し、触覚データの振動周期を調整することで振動による触覚提示の振動周波数を調整する。また、触覚提示制御部22は、振動データの信号長を調整することで、触覚提示の提示時間を調整する。
 さらに触覚提示制御部22は、信号処理部51を有しており、信号処理部51は、バス31を介して供給された触覚提示部21の装着状態の推定結果と、知覚特性データ(感度特性)とに基づいて補正データを生成し、補正データに基づいて触覚信号を補正する。
 なお、補正データの生成時には、ユーザの部位ごとの知覚特性を示す知覚特性データだけでなく、触覚提示部21の周波数特性を示す周波数特性データも用いられるようにしてもよい。
 推定部23は、バス31を介して装着状態検出用のセンサ部27から供給された測定結果に基づいて、触覚提示部21のユーザの体に対する装着状態を推定し、その推定結果を触覚提示制御部22に供給する。
 表示部24は、例えば液晶表示パネルや有機EL(Electro Luminescence)パネルなどからなり、バス31を介して触覚提示制御部22などから供給された画像等を表示する。
 位置方向情報検知部25は、例えばGPS等の位置検出システムや9軸センサ、ビーコン、位置計測のために外部の基地局からの信号の受信強度を算出するブロックなどからなり、3次元空間上における触覚提示装置11の位置や、3次元空間上における触覚提示装置11の向いている方向を検出するための計測を行う。
 位置方向情報検知部25は、触覚提示装置11の位置や方向を検出するための計測を行うと、その計測結果を、位置方向情報としてバス31を介して位置方向情報処理部26に供給する。例えば位置方向情報検知部25は、図2に示した位置計測部PS21や方向計測部DR21に対応する。
 位置方向情報処理部26は、位置方向情報検知部25から供給された位置方向情報に基づいて、3次元空間上における触覚提示装置11の位置および方向を求める。
 また、位置方向情報処理部26は、バス31を介して通信部29から供給された対象オブジェクトのオブジェクト位置情報と、触覚提示装置11の位置および方向とに基づいて触覚提示を行う触覚提示位置を求め、その触覚提示位置を示す情報を触覚提示制御部22に供給する。以下では、触覚提示位置を示す情報を特に触覚提示位置情報とも称する。
 センサ部27は、例えば触覚提示装置11の締め付け具合を測定するセンサや、触覚提示装置11を装着するユーザの装着部分の3D形状(3次元形状)を測定する圧力センサなどからなる装着状態検出用のセンサからなる。センサ部27は、触覚提示装置11の装着状態、すなわち触覚提示部21の装着状態の推定のための測定を行い、その測定結果を推定部23に供給する。
 記憶部28は、例えば不揮発性のメモリなどからなり、触覚データや知覚特性データ、周波数特性データ、装着位置データなどの各種のデータを記憶しており、記憶しているデータを、バス31を介して触覚提示装置11の各部に供給する。
 なお、触覚提示装置11としてのベストの素材の厚みや材質、触覚提示装置11としてのベルトの素材の硬さなどによって触覚提示部21による振動等の触覚提示のユーザへの伝わりやすさが変化する。例えば商品としての触覚提示装置11のシリーズなどによって、素材の厚みや硬さが異なることもある。
 そこで、触覚提示装置11のシリーズごと、つまり触覚提示装置11の素材の厚みや硬さ、材質ごとに適切な知覚特性データを用意して記憶部28に記憶させておくようにしてもよい。
 また、素材の厚みや硬さ、材質ごとに知覚特性データが用意され、知覚特性データがサーバ等の外部の装置から取得されるようにしてもよい。そのような場合には、触覚提示装置11の型番を示す型番情報ごとに、その型番情報に対応する触覚提示装置11の素材の厚みや硬さ、材質に応じた知覚特性データを用意しておけばよい。
 そして、信号処理部51が通信部29により外部の装置に対して触覚提示装置11の型番情報を送信させ、外部の装置から型番情報に応じて送信されてきた知覚特性データを通信部29に受信させて取得するようにしてもよい。
 通信部29は、無線または有線の通信により外部のサーバや他の触覚提示装置と通信し、触覚提示制御部22等から供給されたデータを送信したり、外部から送信されてきた対象オブジェクトのオブジェクト位置情報等を受信したりする。
 入力部30は、例えばボタンやスイッチ、タッチパネル等からなり、ユーザの操作に応じた信号、すなわちユーザにより入力された指示を触覚提示装置11の各部に供給する。
 なお、表示部24や通信部29、入力部30など、一部の構成については触覚提示装置11に設けられていないようにしてもよい。
〈キャリブレーション処理の説明〉
 続いて、図13に示した触覚提示装置11の具体的な動作について説明する。
 まず、図14のフローチャートを参照して、触覚提示装置11により行われるキャリブレーション処理について説明する。このキャリブレーション処理は、例えば触覚提示装置11がユーザに装着されると開始される。
 ステップS11において、センサ部27は触覚提示装置11の各触覚提示部21の装着状態を推定するための測定処理を行い、その測定結果を、バス31を介して推定部23に供給する。ここでは、センサ部27による測定処理として、例えば触覚提示装置11の締め付け具合、つまりベルトの長さ等の測定や、ユーザの体における触覚提示装置11の装着部分の3D形状の測定などが行われる。
 ステップS12において、推定部23は、各触覚提示部21の装着状態を推定する。
 例えば推定部23は、バス31を介して記憶部28から装着位置データを読み出して、読み出した装着位置データと、バス31を介してセンサ部27から供給された、ステップS11で得られた測定結果とに基づいて、各触覚提示部21の装着状態を推定する。これにより、各触覚提示部21の実際の装着位置が得られる。
 推定部23は、このようにして得られた触覚提示部21の実際の装着位置を示す情報、すなわち装着状態の推定結果を、バス31を介して触覚提示制御部22に供給する。
 なお、触覚提示部21の装着状態の推定の結果、例えば触覚提示装置11としてのベルトの締め付け具合が緩いなど、触覚提示装置11の締め付け具合が十分ではなく、装着状態が悪い場合には、ユーザに対して触覚提示装置11をしっかりと締め付けるように促すメッセージを提示してもよい。
 そのような場合、例えば推定部23は文字メッセージや画像メッセージ等のメッセージを、バス31を介して表示部24に供給して表示させることで、ユーザに対してメッセージを提示させる。なお、メッセージの提示方法は、表示に限らず音響提示やランプの点滅等による提示など、どのような方法で行われてもよい。
 ステップS13において、信号処理部51は、バス31を介して記憶部28からユーザの知覚特性データを読み出す。なお、このとき必要に応じて、信号処理部51により触覚提示部21の周波数特性データも記憶部28から読み出されるようにしてもよい。
 ステップS14において、信号処理部51は、ステップS13で読み出した知覚特性データと、ステップS12で得られた装着状態の推定結果、つまり各触覚提示部21の実際の装着位置とに基づいて、触覚提示部21ごとに補正データを求める。
 例えば信号処理部51は、必要に応じて、ユーザの各部位の知覚特性データに基づいて、補間処理を行うことにより、各触覚提示部21の実際の装着位置、つまり実際に触覚提示部21と接触するユーザの部位の位置の知覚特性データを求める。
 そして、信号処理部51は、各触覚提示部21の実際の装着位置における知覚特性データに基づいて、各触覚提示部21における触覚信号の振動強度や周波数特性の補正値を示す補正データを生成する。なお、補正データの生成時には、知覚特性データだけでなく、触覚提示部21の周波数特性データも用いられるようにしてもよい。また、補正データは、補正値を得るためのデータであれば、どのようなものであってもよい。
 このようにして補正データが得られると、信号処理部51は、得られた補正データを一時的に保持し、キャリブレーション処理は終了する。
 以上のようにして触覚提示装置11は、触覚提示部21の装着状態を推定し、その推定結果と知覚特性データとに基づいて補正データを生成する。
 このようにして触覚提示部21の装着状態を推定するとともに補正データを生成することで、装着状態の推定結果と補正データとを用いて意図通りの触覚提示を行うことができる。すなわち、より正確な触覚提示を行うことができる。
 なお、ユーザの操作入力に応じて補正データを生成する場合には、ユーザは入力部30を操作して、触覚提示部21の振動強度等の調整を指示する指示入力を行う。
 すると、入力部30から触覚提示制御部22には、バス31を介してユーザの指示に応じた信号が供給される。すると、触覚提示制御部22の信号処理部51は、入力部30から供給された信号に応じて、補正データを生成する。
 そして、触覚提示制御部22は、得られた補正データに基づいて、予め定められた所定の触覚データを記憶部28から読み出して、その触覚データに基づいて触覚信号を生成する。また、信号処理部51は、触覚提示制御部22により生成された触覚信号を、補正データにより補正する。触覚提示制御部22は、このようにして補正された触覚信号を触覚提示部21に供給して振動させ、触覚提示を行う。
 触覚提示が行われると、ユーザは、入力部30を操作して、補正データがさらに調整されるように振動強度等の調整を指示する指示入力を行うか、補正データの調整の終了を指示する指示入力を行う。
 このとき、振動強度等の調整を指示する指示入力が行われた場合には、信号処理部51が補正データを調整し、その調整後の補正データで補正された触覚信号に基づく触覚提示が行われる処理が、補正データの調整の終了を指示する指示入力があるまで繰り返し行われる。これに対して、補正データの調整の終了を指示する指示入力があった場合には、信号処理部51は、これまでの処理で得られた補正データを最終的な補正データとして保持する。このように、ユーザのフィードバックに基づいて補正データが生成されるようにしてもよい。
〈提示処理の説明〉
 以上の処理により補正データが得られると、その補正データや触覚提示部21の装着状態の推定結果を用いて、触覚提示を行うことができる。
 以下、図15のフローチャートを参照して、触覚提示装置11による提示処理について説明する。なお、この提示処理は、例えば予め対象オブジェクトが指定されている場合に、キャリブレーション処理が終了したタイミングで開始される。
 ステップS41において、通信部29は、外部のサーバや他の触覚提示装置と通信を行って、サーバや他の触覚提示装置から送信されてきた対象オブジェクトのオブジェクト位置情報を受信することで、オブジェクト位置情報を取得する。通信部29は取得したオブジェクト位置情報を、バス31を介して位置方向情報処理部26に供給する。
 また、提示処理が開始されると、位置方向情報検知部25は所定の時間間隔で3次元空間上における触覚提示装置11の位置や触覚提示装置11の向いている方向を検出するための計測を行い、その計測結果を位置方向情報として、バス31を介して逐次、位置方向情報処理部26に供給する。
 ステップS42において、位置方向情報処理部26は、ステップS41で通信部29から供給されたオブジェクト位置情報と、位置方向情報検知部25から供給された位置方向情報とに基づいて、対象オブジェクトまでの相対的な距離と方向を求める。
 例えば位置方向情報処理部26は、位置方向情報に基づいて3次元空間上における触覚提示装置11の位置と、触覚提示装置11が向いている方向を求める。
 そして、位置方向情報処理部26は、求めた触覚提示装置11の位置および方向と、オブジェクト位置情報により示される対象オブジェクトの位置とから、触覚提示装置11(ユーザ)から見た対象オブジェクトまでの相対的な距離と、触覚提示装置11から見た対象オブジェクトのある相対的な方向とを求める。
 ステップS43において、位置方向情報処理部26は、ステップS42で求められた対象オブジェクトまでの相対的な距離が、方向提示可能な距離であるか否かを判定する。
 例えばアプリケーションプログラムにおいて、方向提示が可能な距離(以下、提示可能距離と称する)が予め定められている場合には、対象オブジェクトまでの相対的な距離が提示可能距離以下である場合、ステップS43で方向提示可能な距離であると判定される。
 ステップS43において、方向提示可能な距離でないと判定された場合、ユーザに対する対象オブジェクトについての方向提示は行われず、提示処理は終了する。
 なお、方向提示可能な距離でないと判定された場合、例えば位置方向情報処理部26が、ユーザと対象オブジェクトとの位置関係を示す画像の画像データ等を生成し、画像等により方向提示を行うようにしてもよい。この場合、表示部24は、バス31を介して位置方向情報処理部26から供給された画像データに基づいて画像を表示し、方向提示を行う。
 また、この場合、触覚提示装置11に表示部24が設けられていないときには、通信部29により画像データ等がユーザの所持するスマートフォンなどの外部機器に送信され、外部機器が画像データに基づいて画像を表示することで方向提示を行ってもよい。その他、画像による方向提示に限らず、音響などにより方向提示が行われるようにしてもよい。
 さらに、ここでは対象オブジェクトまでの距離が一定距離以下でない場合に触覚提示とは異なる方法により方向提示が行われると説明した。しかしこれとは逆に、対象オブジェクトまでの距離が一定距離より長いときには触覚提示による方向提示を行い、対象オブジェクトまでの距離が一定距離以下のときには画像の表示や音響提示など、触覚提示とは異なる方法により方向提示が行われるようにしてもよい。
 その他、対象オブジェクトまでの距離が第1の距離以下である場合に触覚提示による方向提示を行い、さらに対象オブジェクトまでの距離が第1の距離よりも短い第2の距離以下となったときに、触覚提示とは異なる他の方法による方向提示に切り替えたり、方向提示を停止させたりするようにしてもよい。
 また、ステップS43において方向提示可能な距離であると判定された場合、その後、処理はステップS44へと進む。
 ステップS44において、位置方向情報処理部26は、触覚提示装置11の位置および方向と、オブジェクト位置情報により示される対象オブジェクトの位置とに基づいて、触覚提示位置を決定する。
 例えば図4に示した例では、中心Oと対象オブジェクトOBJ11とを結ぶ直線と、触覚提示装置HM21自身のバンド部分との交点位置が触覚提示位置PRP11として求められる。
 位置方向情報処理部26は、このようにして得られた触覚提示位置を示す触覚提示位置情報と、触覚提示装置11から対象オブジェクトまでの距離を示す情報とを、バス31を介して触覚提示制御部22に供給する。換言すれば、触覚提示制御部22は、触覚提示位置情報と、触覚提示装置11から対象オブジェクトまでの距離を示す情報とを位置方向情報処理部26から取得する。以下では、触覚提示装置11から対象オブジェクトまでの距離を示す情報を、特に対象オブジェクト距離情報とも称することとする。
 なお、対象オブジェクトが触覚提示装置11に対して相対的に移動している場合には、触覚提示装置11から見た対象オブジェクトの相対的な移動速度を考慮して方向提示を行うようにしてもよい。すなわち、対象オブジェクトの相対的な移動速度を考慮して触覚提示位置が決定されてもよい。
 そのような場合、例えば位置方向情報処理部26は、触覚提示装置11から見た対象オブジェクトの相対的な移動速度に応じて、対象オブジェクトの位置を補正する。そして、位置方向情報処理部26は対象オブジェクトの補正後の位置と、触覚提示装置11の位置および方向とに基づいて、触覚提示位置を決定する。
 このようにすれば、後述するステップS47において、対象オブジェクトのオブジェクト位置情報を取得した時点よりも少し後のタイミングにおける対象オブジェクトの方向をユーザに対して提示することができる。すなわち、相対的な移動速度に基づいて方向提示のタイミングにおける対象オブジェクトの方向を予測し、より正確な方向提示を行うことができる。このとき、方向提示をユーザが認知するまでの時間的な遅延を考慮して、方向提示のタイミングよりも少し後のタイミングにおける対象オブジェクトの方向を提示してもよい。
 ステップS45において、触覚提示制御部22は、位置方向情報処理部26から供給された触覚提示位置情報、および対象オブジェクト距離情報と、記憶部28に記憶されている触覚データとに基づいて触覚信号を生成する。
 例えば触覚提示制御部22は、触覚提示位置情報と、図14のステップS12で得られた触覚提示部21の実際の装着位置を示す情報とに基づいて、触覚提示に用いる触覚提示部21を選択する。
 具体的には、例えば触覚提示制御部22は、触覚提示位置に触覚提示部21がある場合には、その触覚提示位置にある触覚提示部21を触覚提示に用いる触覚提示部21として選択する。また、例えば触覚提示制御部22は、触覚提示位置に触覚提示部21がない場合には、その触覚提示位置の両隣に隣接する2つの触覚提示部21を触覚提示に用いる触覚提示部21として選択する。
 なお、上述したように触覚提示位置から所定の距離以内の位置にある1または複数の触覚提示部21が触覚提示に用いる触覚提示部21として選択されてもよいし、触覚提示位置から最も近い位置にある1または複数の触覚提示部21が触覚提示に用いる触覚提示部21として選択されてもよい。
 触覚提示制御部22は、触覚提示部21を選択するとバス31を介して記憶部28から触覚データを読み出す。
 そして触覚提示制御部22は、触覚提示に用いるものとして選択した触覚提示部21と触覚提示位置との間の距離、および対象オブジェクトまでの距離を示す対象オブジェクト距離情報に基づいて触覚データの振幅や振動周波数を調整することで、触覚提示に用いる触覚提示部21ごとに触覚信号を生成する。
 ここでは、例えば選択した触覚提示部21が2つである場合には、図4を参照して説明したように、触覚提示部21から触覚提示位置までの距離に応じて触覚データ(触覚信号)の振幅が調整される。
 また、例えば触覚提示により対象オブジェクトまでの距離が提示されるときには、触覚提示装置11から対象オブジェクトまでの距離に応じて、触覚データ(触覚信号)の振幅や振動周波数が調整される。
 さらに、例えば対象オブジェクトまでの距離が遠い場合には方向提示の解像度を粗くするなど、触覚提示装置11から対象オブジェクトまでの距離に応じて方向提示の解像度を変更するようにしてもよい。
 具体的には、例えば対象オブジェクトまでの距離が所定の閾値以上である場合、触覚提示制御部22は、触覚提示位置が2つの触覚提示部21の間にあるときでも、それらの2つの触覚提示部21のうちのより触覚提示位置に近い1つの触覚提示部21のみを触覚提示に用いる触覚提示部21として選択する。この場合、1つの触覚提示部21による触覚提示により、対象オブジェクトの大まかな方向が提示されることになる。つまり、粗い解像度での方向提示が行われることになる。
 これに対して、例えば対象オブジェクトまでの距離が所定の閾値未満である場合、触覚提示制御部22は、触覚提示位置が2つの触覚提示部21の間にあるときには、それらの2つの触覚提示部21を触覚提示に用いる触覚提示部21として選択する。この場合、2つの触覚提示部21による触覚提示により、対象オブジェクトの方向がより正確に提示されることになる。つまり、細かい解像度での方向提示が行われることになる。
 ステップS46において、信号処理部51は、図14のステップS14で得られた補正データに基づいて、ステップS45の処理で得られた触覚信号の強度等を補正する。
 具体的には、例えば触覚提示に用いる触覚提示部21について得られた補正データにより示される補正値の分だけ触覚信号の振動強度(振幅)や周波数特性が補正され、最終的な触覚信号とされる。
 触覚信号の強度等の補正に用いられる補正データは、触覚提示部21の装着状態の推定により得られた、各触覚提示部21の実際の装着位置におけるユーザの知覚特性(感度特性)を示す知覚特性データに基づいて得られたものである。
 したがって、補正データに基づく補正により得られた最終的な触覚信号に基づいて触覚提示部21を駆動させることは、触覚提示部21の実際の装着位置におけるユーザの知覚特性(感度特性)に基づいて触覚提示部21を制御することであるといえる。
 ステップS47において、触覚提示制御部22は、方向提示を行い、提示処理は終了する。すなわち、触覚提示制御部22は、ステップS46で得られた最終的な触覚信号を、バス31を介して触覚提示に用いる触覚提示部21に供給する。
 触覚提示部21は、触覚提示制御部22から供給された触覚信号に基づいて、触覚提示位置に対する触覚提示を行うことで、対象オブジェクトのある方向を提示したり、対象オブジェクトまでの距離を提示したりする。
 なお、対象オブジェクトが複数ある場合には、それらの対象オブジェクトごとに上述したステップS41乃至ステップS47の処理が行われる。これにより、互いに異なる複数の対象オブジェクトの方向および距離を同時に提示することができる。
 以上のようにして触覚提示装置11は、補正データに基づいて触覚信号を補正し、補正後の触覚信号に基づいて触覚提示を行う。このようにすることで、意図通りの正確な触覚提示を行うことができる。
 さらに、以上においては触覚提示により方向提示を行う例について説明したが、音響提示により方向提示を行うようにしてもよい。
 そのような場合、例えば音響提示部が、対象オブジェクトのある方向に応じて指向性を有する音を出力したり、波面合成等の技術により対象オブジェクトのある方向に音像が定位するように音を出力したりするなど、任意の音響提示技術により方向提示を行う。すなわち、音響提示部により出力される音が、対象オブジェクトのある方向から聞こえてくるようにすることで、音響提示による方向提示を実現することができる。
〈第1の実施の形態の変形例1〉
〈情報処理システムの構成例〉
 なお、以上においては、触覚提示を行う機能が全て触覚提示装置11に設けられている場合について説明した。しかし、複数の装置が連携して触覚提示を行うようにしてもよい。
 そのような場合、触覚提示を行う情報処理システムは、例えば図16に示すように構成される。図16に示す例では、情報処理システムは、触覚提示装置71、触覚データ処理装置72、および位置方向情報処理装置73を有している。
 この例では、触覚提示装置71乃至位置方向情報処理装置73は、有線または無線の通信網等を介して相互に通信を行って各種のデータ等の授受を行うが、各装置間での通信方式はどのような方式であってもよい。
 触覚提示装置71は、例えば図13に示した触覚提示部21やセンサ部27、推定部23、位置方向情報検知部25、通信部29、信号処理部51を有しており、補正データや触覚提示位置情報などを触覚データ処理装置72に送信したり、触覚データ処理装置72から受信した触覚信号に基づいて触覚提示を行ったりする。
 触覚データ処理装置72は、例えばパーソナルコンピュータやスマートフォン、サーバなどからなる。
 触覚データ処理装置72は、記憶部に記憶されている触覚データ、触覚提示装置71から受信した補正データや触覚提示位置情報、触覚提示装置71から対象オブジェクトまでの距離を示す対象オブジェクト距離情報等に基づいて触覚信号を生成し、触覚提示装置71に送信する。
 位置方向情報処理装置73は、例えばパーソナルコンピュータやスマートフォン、サーバなどからなり、例えば図13に示した位置方向情報処理部26を有している。
 位置方向情報処理装置73は、触覚提示装置71から受信した位置方向情報に基づいて、3次元空間上における触覚提示装置71の位置および方向を求めたり、対象オブジェクトのオブジェクト位置情報と、触覚提示装置71の位置および方向とに基づいて触覚提示位置を求めたりする。また、位置方向情報処理装置73は、触覚提示位置情報と対象オブジェクト距離情報とを触覚提示装置71に送信する。
〈コンピュータの構成例〉
 ところで、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
 図17は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
 コンピュータにおいて、CPU(Central Processing Unit)501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
 バス504には、さらに、入出力インターフェース505が接続されている。入出力インターフェース505には、入力部506、出力部507、記憶部508、通信部509、及びドライブ510が接続されている。
 入力部506は、キーボード、マウス、マイクロフォン、撮像素子などよりなる。出力部507は、触覚提示デバイス、ディスプレイ、スピーカなどよりなる。記憶部508は、ハードディスクや不揮発性のメモリなどよりなる。通信部509は、ネットワークインターフェースなどよりなる。ドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブル記録媒体511を駆動する。
 以上のように構成されるコンピュータでは、CPU501が、例えば、記憶部508に記憶されているプログラムを、入出力インターフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ(CPU501)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体511に記憶して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータでは、プログラムは、リムーバブル記録媒体511をドライブ510に装着することにより、入出力インターフェース505を介して、記憶部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記憶部508にインストールすることができる。その他、プログラムは、ROM502や記憶部508に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、本技術は、以下の構成とすることも可能である。
(1)
 互いに異なる位置に配置された複数の触覚提示デバイスのユーザの体に対する装着状態を推定する推定部と、
 前記ユーザの体に対する触覚提示位置を示す触覚提示位置情報と、前記装着状態の推定結果とに基づいて、前記ユーザが前記触覚提示位置に対して触覚を知覚するように、前記複数の前記触覚提示デバイスのうちの少なくとも1つの前記触覚提示デバイスを制御する触覚提示制御部と
 を備える情報処理装置。
(2)
 前記触覚提示制御部は、前記装着状態の推定により得られた前記触覚提示デバイスの装着位置に基づいて、前記触覚提示デバイスを制御する
 (1)に記載の情報処理装置。
(3)
 前記触覚提示制御部は、前記装着状態の推定により得られた前記触覚提示デバイスの装着位置における前記ユーザの知覚特性に基づいて、前記触覚提示デバイスを制御する
 (1)または(2)に記載の情報処理装置。
(4)
 前記触覚提示制御部は、前記触覚提示位置とは異なる位置に装着された複数の前記触覚提示デバイスを制御することで、前記触覚提示位置に対する触覚提示を行う
 (1)乃至(3)の何れか一項に記載の情報処理装置。
(5)
 前記触覚提示制御部は、前記触覚提示位置に対応する複数の前記触覚提示デバイスを、前記触覚提示デバイスから前記触覚提示位置までの距離に応じて制御することで、前記触覚提示位置に対する触覚提示を行う
 (4)に記載の情報処理装置。
(6)
 前記触覚提示制御部は、前記触覚提示により方向を提示する
 (1)乃至(5)の何れか一項に記載の情報処理装置。
(7)
 前記触覚提示制御部は、周状に配置された複数の前記触覚提示デバイスのうちの1または複数の前記触覚提示デバイスを制御することで水平方向の方向提示を行う
 (6)に記載の情報処理装置。
(8)
 前記触覚提示制御部は、垂直方向に並べられて配置された複数の前記触覚提示デバイスのうちの1または複数の前記触覚提示デバイスを制御することで垂直方向の方向提示を行う
 (6)または(7)に記載の情報処理装置。
(9)
 前記触覚提示制御部は、複数の前記触覚提示位置に対する前記触覚提示を行うことで、互いに異なる複数の方向を同時に提示する
 (6)乃至(8)の何れか一項に記載の情報処理装置。
(10)
 前記触覚提示位置はオブジェクトのある方向を示している
 (6)乃至(9)の何れか一項に記載の情報処理装置。
(11)
 前記触覚提示制御部は、前記触覚提示の大きさ、周期、または提示パターンにより前記オブジェクトまでの距離を提示する
 (10)に記載の情報処理装置。
(12)
 前記オブジェクトは、前記情報処理装置とは異なる他の情報処理装置である
 (10)または(11)に記載の情報処理装置。
(13)
 前記他の情報処理装置の位置を示す位置情報を前記他の情報処理装置から受信する通信部をさらに備え、
 前記触覚提示制御部は、前記位置情報に基づいて得られた前記触覚提示位置情報と、前記装着状態の推定結果とに基づいて前記触覚提示デバイスを制御する
 (12)に記載の情報処理装置。
(14)
 前記触覚提示制御部は、振動刺激、温度刺激、電気刺激、力覚刺激、または痛覚刺激により前記触覚提示が行われるように前記触覚提示デバイスを制御する
 (1)乃至(13)の何れか一項に記載の情報処理装置。
(15)
 情報処理装置が、
 互いに異なる位置に配置された複数の触覚提示デバイスのユーザの体に対する装着状態を推定し、
 前記ユーザの体に対する触覚提示位置を示す触覚提示位置情報と、前記装着状態の推定結果とに基づいて、前記ユーザが前記触覚提示位置に対して触覚を知覚するように、前記複数の前記触覚提示デバイスのうちの少なくとも1つの前記触覚提示デバイスを制御する
 情報処理方法。
(16)
 互いに異なる位置に配置された複数の触覚提示デバイスのユーザの体に対する装着状態を推定し、
 前記ユーザの体に対する触覚提示位置を示す触覚提示位置情報と、前記装着状態の推定結果とに基づいて、前記ユーザが前記触覚提示位置に対して触覚を知覚するように、前記複数の前記触覚提示デバイスのうちの少なくとも1つの前記触覚提示デバイスを制御する
 ステップを含む処理をコンピュータに実行させるプログラム。
 11 触覚提示装置, 21-1乃至21-n,21 触覚提示部, 22 触覚提示制御部, 23 推定部, 24 表示部, 25 位置方向情報検知部, 26 位置方向情報処理部, 27 センサ部, 29 通信部, 51 信号処理部

Claims (16)

  1.  互いに異なる位置に配置された複数の触覚提示デバイスのユーザの体に対する装着状態を推定する推定部と、
     前記ユーザの体に対する触覚提示位置を示す触覚提示位置情報と、前記装着状態の推定結果とに基づいて、前記ユーザが前記触覚提示位置に対して触覚を知覚するように、前記複数の前記触覚提示デバイスのうちの少なくとも1つの前記触覚提示デバイスを制御する触覚提示制御部と
     を備える情報処理装置。
  2.  前記触覚提示制御部は、前記装着状態の推定により得られた前記触覚提示デバイスの装着位置に基づいて、前記触覚提示デバイスを制御する
     請求項1に記載の情報処理装置。
  3.  前記触覚提示制御部は、前記装着状態の推定により得られた前記触覚提示デバイスの装着位置における前記ユーザの知覚特性に基づいて、前記触覚提示デバイスを制御する
     請求項1に記載の情報処理装置。
  4.  前記触覚提示制御部は、前記触覚提示位置とは異なる位置に装着された複数の前記触覚提示デバイスを制御することで、前記触覚提示位置に対する触覚提示を行う
     請求項1に記載の情報処理装置。
  5.  前記触覚提示制御部は、前記触覚提示位置に対応する複数の前記触覚提示デバイスを、前記触覚提示デバイスから前記触覚提示位置までの距離に応じて制御することで、前記触覚提示位置に対する触覚提示を行う
     請求項4に記載の情報処理装置。
  6.  前記触覚提示制御部は、前記触覚提示により方向を提示する
     請求項1に記載の情報処理装置。
  7.  前記触覚提示制御部は、周状に配置された複数の前記触覚提示デバイスのうちの1または複数の前記触覚提示デバイスを制御することで水平方向の方向提示を行う
     請求項6に記載の情報処理装置。
  8.  前記触覚提示制御部は、垂直方向に並べられて配置された複数の前記触覚提示デバイスのうちの1または複数の前記触覚提示デバイスを制御することで垂直方向の方向提示を行う
     請求項6に記載の情報処理装置。
  9.  前記触覚提示制御部は、複数の前記触覚提示位置に対する前記触覚提示を行うことで、互いに異なる複数の方向を同時に提示する
     請求項6に記載の情報処理装置。
  10.  前記触覚提示位置はオブジェクトのある方向を示している
     請求項6に記載の情報処理装置。
  11.  前記触覚提示制御部は、前記触覚提示の大きさ、周期、または提示パターンにより前記オブジェクトまでの距離を提示する
     請求項10に記載の情報処理装置。
  12.  前記オブジェクトは、前記情報処理装置とは異なる他の情報処理装置である
     請求項10に記載の情報処理装置。
  13.  前記他の情報処理装置の位置を示す位置情報を前記他の情報処理装置から受信する通信部をさらに備え、
     前記触覚提示制御部は、前記位置情報に基づいて得られた前記触覚提示位置情報と、前記装着状態の推定結果とに基づいて前記触覚提示デバイスを制御する
     請求項12に記載の情報処理装置。
  14.  前記触覚提示制御部は、振動刺激、温度刺激、電気刺激、力覚刺激、または痛覚刺激により前記触覚提示が行われるように前記触覚提示デバイスを制御する
     請求項1に記載の情報処理装置。
  15.  情報処理装置が、
     互いに異なる位置に配置された複数の触覚提示デバイスのユーザの体に対する装着状態を推定し、
     前記ユーザの体に対する触覚提示位置を示す触覚提示位置情報と、前記装着状態の推定結果とに基づいて、前記ユーザが前記触覚提示位置に対して触覚を知覚するように、前記複数の前記触覚提示デバイスのうちの少なくとも1つの前記触覚提示デバイスを制御する
     情報処理方法。
  16.  互いに異なる位置に配置された複数の触覚提示デバイスのユーザの体に対する装着状態を推定し、
     前記ユーザの体に対する触覚提示位置を示す触覚提示位置情報と、前記装着状態の推定結果とに基づいて、前記ユーザが前記触覚提示位置に対して触覚を知覚するように、前記複数の前記触覚提示デバイスのうちの少なくとも1つの前記触覚提示デバイスを制御する
     ステップを含む処理をコンピュータに実行させるプログラム。
PCT/JP2018/044639 2017-12-19 2018-12-05 情報処理装置および方法、並びにプログラム WO2019124068A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US16/772,529 US20200384358A1 (en) 2017-12-19 2018-12-05 Information processing apparatus, information processing method, and program
EP18890126.8A EP3731065B1 (en) 2017-12-19 2018-12-05 Information processing device and method, and program
JP2019560939A JP7192793B2 (ja) 2017-12-19 2018-12-05 情報処理装置および方法、並びにプログラム
CN201880080598.6A CN111465913A (zh) 2017-12-19 2018-12-05 信息处理装置和方法以及程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017242424 2017-12-19
JP2017-242424 2017-12-19

Publications (1)

Publication Number Publication Date
WO2019124068A1 true WO2019124068A1 (ja) 2019-06-27

Family

ID=66994119

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/044639 WO2019124068A1 (ja) 2017-12-19 2018-12-05 情報処理装置および方法、並びにプログラム

Country Status (5)

Country Link
US (1) US20200384358A1 (ja)
EP (1) EP3731065B1 (ja)
JP (1) JP7192793B2 (ja)
CN (1) CN111465913A (ja)
WO (1) WO2019124068A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021012554A (ja) * 2019-07-08 2021-02-04 グリー株式会社 位置情報提示システム、位置情報提示装置、位置情報提示プログラムおよび位置情報提示方法
WO2022176075A1 (ja) * 2021-02-17 2022-08-25 日本電信電話株式会社 振動知覚位置制御装置、振動知覚位置制御方法およびプログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007105937A1 (en) * 2006-03-10 2007-09-20 Tomtom International B.V. Tactile device, navigation device and system comprising such a tactile device and navigation device
JP2011115936A (ja) * 2009-11-04 2011-06-16 Advanced Telecommunication Research Institute International 触覚提示付ロボット
JP2012007946A (ja) * 2010-06-23 2012-01-12 Nippon Telegr & Teleph Corp <Ntt> ユーザ端末装置、及びナビゲーション方法
US20130218456A1 (en) * 2006-02-16 2013-08-22 John S. Zelek Wearable tactile navigation system
JP2015191423A (ja) * 2014-03-28 2015-11-02 カシオ計算機株式会社 携帯情報機器、携帯情報機器におけるオブジェクトの報知方法、及び携帯情報機器のプログラム
WO2016159261A1 (ja) * 2015-04-03 2016-10-06 シャープ株式会社 情報通知装置、情報通知装置の制御方法、制御プログラム
US20170003139A1 (en) * 2015-07-02 2017-01-05 Wal-Mart Stores, Inc. Tactile navigation systems and methods
WO2017043610A1 (ja) * 2015-09-08 2017-03-16 ソニー株式会社 情報処理装置、方法およびコンピュータプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5815698B2 (ja) * 2010-07-16 2015-11-17 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 触覚面上に触覚効果を生じさせる複アクチュエータ触覚面を含む装置
WO2015038684A1 (en) * 2013-09-10 2015-03-19 Polyera Corporation Attachable article with signaling, split display and messaging features
US9671826B2 (en) * 2013-11-27 2017-06-06 Immersion Corporation Method and apparatus of body-mediated digital content transfer and haptic feedback
US10976821B2 (en) * 2016-07-07 2021-04-13 Sony Corporation Information processing device, information processing method, and program for controlling output of a tactile stimulus to a plurality of tactile stimulus units

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130218456A1 (en) * 2006-02-16 2013-08-22 John S. Zelek Wearable tactile navigation system
WO2007105937A1 (en) * 2006-03-10 2007-09-20 Tomtom International B.V. Tactile device, navigation device and system comprising such a tactile device and navigation device
JP2011115936A (ja) * 2009-11-04 2011-06-16 Advanced Telecommunication Research Institute International 触覚提示付ロボット
JP2012007946A (ja) * 2010-06-23 2012-01-12 Nippon Telegr & Teleph Corp <Ntt> ユーザ端末装置、及びナビゲーション方法
JP2015191423A (ja) * 2014-03-28 2015-11-02 カシオ計算機株式会社 携帯情報機器、携帯情報機器におけるオブジェクトの報知方法、及び携帯情報機器のプログラム
WO2016159261A1 (ja) * 2015-04-03 2016-10-06 シャープ株式会社 情報通知装置、情報通知装置の制御方法、制御プログラム
US20170003139A1 (en) * 2015-07-02 2017-01-05 Wal-Mart Stores, Inc. Tactile navigation systems and methods
WO2017043610A1 (ja) * 2015-09-08 2017-03-16 ソニー株式会社 情報処理装置、方法およびコンピュータプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3731065A4

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021012554A (ja) * 2019-07-08 2021-02-04 グリー株式会社 位置情報提示システム、位置情報提示装置、位置情報提示プログラムおよび位置情報提示方法
JP2021120896A (ja) * 2019-07-08 2021-08-19 グリー株式会社 位置情報提示システム、位置情報提示装置、位置情報提示プログラムおよび位置情報提示方法
JP7079225B2 (ja) 2019-07-08 2022-06-01 グリー株式会社 位置情報提示システム、位置情報提示装置、位置情報提示プログラムおよび位置情報提示方法
WO2022176075A1 (ja) * 2021-02-17 2022-08-25 日本電信電話株式会社 振動知覚位置制御装置、振動知覚位置制御方法およびプログラム

Also Published As

Publication number Publication date
US20200384358A1 (en) 2020-12-10
EP3731065A4 (en) 2021-02-17
CN111465913A (zh) 2020-07-28
JP7192793B2 (ja) 2022-12-20
EP3731065A1 (en) 2020-10-28
JPWO2019124068A1 (ja) 2020-12-24
EP3731065B1 (en) 2023-03-08

Similar Documents

Publication Publication Date Title
CN105748265B (zh) 一种导航装置及方法
EP3488325B1 (en) Haptic system for delivering audio content to a user
KR101562591B1 (ko) 이동 단말기 및 이를 이용한 차량의 사고 발생 처리 방법
EP3187968B1 (en) Force display device, force display system, and force display method
EP3037786A1 (en) Electro tactile communication apparatus, method, and computer program product
US11474227B1 (en) Devices, systems, and methods for radar-based artificial reality tracking
JP2017151950A (ja) ハプティック効果競合の回避
CN107850942B (zh) 可佩戴设备及其操作方法
WO2019124068A1 (ja) 情報処理装置および方法、並びにプログラム
JP2012127940A (ja) 携帯ナビゲーション装置
JP6648515B2 (ja) 電子機器及びその角速度取得方法、角速度取得プログラム
JP2009106391A (ja) 歩容解析システム
WO2015067982A1 (en) Directional proximity detection
US20160253141A1 (en) Wearable Device with Data Privacy Display
KR20160014307A (ko) 혈압 측정 장치 및 이를 구비하는 이동 단말기
JP6536881B2 (ja) 表示装置及び情報表示方法、情報表示プログラム
WO2017204242A1 (ja) 装着型機器、装着型機器システムおよび装着型機器の制御方法
WO2016159261A1 (ja) 情報通知装置、情報通知装置の制御方法、制御プログラム
US20180004290A1 (en) Apparatus and method for providing feedback at a predetermined distance
KR20170000092A (ko) 스마트 자세교정 시스템
JP2017113851A (ja) アシストスーツ適正装着支援システム
US10877524B2 (en) Information processing apparatus and information processing method
JP6508820B2 (ja) 運動測定装置
KR20160025229A (ko) 이동 단말기 및 그 제어 방법
JPH0682242A (ja) 3次元位置・姿勢検出方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18890126

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019560939

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018890126

Country of ref document: EP

Effective date: 20200720