WO2023189425A1 - 制御装置、制御方法、触覚提示システム及びプログラム製品 - Google Patents

制御装置、制御方法、触覚提示システム及びプログラム製品 Download PDF

Info

Publication number
WO2023189425A1
WO2023189425A1 PCT/JP2023/009323 JP2023009323W WO2023189425A1 WO 2023189425 A1 WO2023189425 A1 WO 2023189425A1 JP 2023009323 W JP2023009323 W JP 2023009323W WO 2023189425 A1 WO2023189425 A1 WO 2023189425A1
Authority
WO
WIPO (PCT)
Prior art keywords
displacement
tactile
amount
displacement amount
tactile presentation
Prior art date
Application number
PCT/JP2023/009323
Other languages
English (en)
French (fr)
Inventor
修一 赤岩
慶介 木野井
Original Assignee
株式会社栗本鐵工所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社栗本鐵工所 filed Critical 株式会社栗本鐵工所
Publication of WO2023189425A1 publication Critical patent/WO2023189425A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer

Definitions

  • the present invention relates to a control device, a control method, a tactile presentation system, and a program product that allow an operator to recognize the end of tactile presentation by a tactile presentation device.
  • Patent Document 1 Based on knowledge of magnetorheological fluids, the inventors have proposed a tactile presentation device that can be operated by an operator and reproduces different sensations depending on the object (Patent Document 1, etc.).
  • the tactile presentation device includes a displacement section that is a curved plate or the like that can be displaced relative to the base by an operator's operation.
  • the displacement part can be displaced by the operator without resistance when the tactile presentation device is not controlled, but the tactile presentation device under control can move the displacement part according to the amount of displacement (position/angle) of the displacement part.
  • the tactile sensation is presented by changing the magnitude of the force sensation generated, the output method of the force sensation, etc.
  • the tactile presentation device is used while visually or audibly outputting what the tactile object is.
  • Some objects have an irreversible structure that does not return to its original shape and breaks after the displacement part is displaced. In this case, if the operator is allowed to continue the operation after being presented with the feeling that the object will break with one operation, the operator will feel uncomfortable.
  • the present invention has been made in view of the above circumstances, and aims to provide a control device, a control method, a tactile presentation system, and a program product that allow an operator to recognize the end of tactile presentation. .
  • a control device includes a displacement section that is displaceable in response to an operation by an operator, and generates a force sensation in response to an operation on the displacement section according to the amount of displacement of the displacement section.
  • a control device for a tactile presentation device that presents a tactile sensation of an object to be displayed, the control device comprising control data for generating the force sensation in association with a displacement amount of the displacement portion, and presentation of the tactile sensation by the displacement portion.
  • the end displacement amount at which the displacement portion ends is stored for each object, and the control data and the end displacement amount associated with the displacement amount of the displacement portion are outputted to the tactile sense presentation device, and the displacement amount of the displacement portion is outputted to the tactile sense presentation device.
  • the tactile presentation in the tactile presentation device is ended.
  • a control method includes a displacement section that is displaceable in response to an operation by an operator, and generates a force sensation in response to an operation on the displacement section according to a displacement amount of the displacement section.
  • a control method for a tactile presentation device that presents a tactile sensation of a displayed object by causing a computer connected to the tactile presentation device to generate the haptic sensation in association with a displacement amount of the displacement portion.
  • Control data and an end displacement amount for ending the presentation of a tactile sensation by the displacement section are stored for each object, and the control data and end displacement amount associated with the displacement amount of the displacement section are stored in the tactile sense.
  • the tactile presentation in the tactile presentation device is ended.
  • a program product includes a displacement section that is displaceable in response to an operation by an operator, and generates a force sensation in response to an operation on the displacement section according to the amount of displacement of the displacement section.
  • a computer connected to a tactile presentation device that presents a tactile sensation of an object to be displayed, control data for causing the force sensation in association with the amount of displacement of the displacement portion, and presentation of the tactile sensation by the displacement portion;
  • the end displacement amount at which the displacement portion ends is stored for each object, and the control data and the end displacement amount associated with the displacement amount of the displacement portion are outputted to the tactile sense presentation device, and the displacement amount of the displacement portion is outputted to the tactile sense presentation device.
  • the tactile presentation ends.
  • the operator can recognize the end of the tactile presentation by executing a process in which the force sensation generated in the displacement part becomes a specific torque or zero, or otherwise indicates the end.
  • a control device includes control data for causing a predetermined force sensation to be generated in the displacement portion or a force sensation generated in the displacement portion after the displacement portion reaches an end displacement amount for each target object.
  • Control data for setting the force sensation to zero is stored, and when the displacement amount of the displacement portion reaches the end displacement amount, the predetermined force sensation is generated or the force sensation is generated in the displacement portion. Makes the sense of force zero.
  • the tactile presentation ends.
  • the force sensation generated at the displacement part becomes a specific torque or becomes zero. This allows the operator to recognize the end of the tactile presentation.
  • the control device causes the display unit to display an image indicating the end, or the audio output unit to make a sound indicating the end, when the displacement amount of the displacement unit reaches the end displacement amount. output.
  • the operator when the tactile presentation ends when the end displacement amount is reached in the tactile presentation device, the operator is notified of the end by an image displayed together or a sound outputted together. This allows the operator to recognize the end of the tactile presentation.
  • a tactile presentation system includes a displacement section that is displaceable in response to an operation by an operator, and generates a force sensation in response to an operation on the displacement section according to the amount of displacement of the displacement section.
  • a tactile presentation device that generates and presents a tactile sensation of a displayed object; and an information processing device that is communicatively connected to the tactile presentation device and includes a display section, and the information processing device is configured to detect a displacement amount of the displacement section.
  • control data that causes the force sensation and an end displacement amount that ends presentation of the tactile sensation by the displacement section are stored for each object in association with the displacement amount of the displacement section. outputting the control data and the end displacement amount to the tactile sense presentation device, and when the displacement amount of the displacement section reaches the end displacement amount, the tactile sense presentation in the tactile sense presentation device is ended, and the display section shows: Display an image indicating completion.
  • the tactile presentation system of the present disclosure when the displacement amount of the displacement section reaches the end displacement amount, the tactile presentation ends and the end is notified at least on the display section, so the operator recognizes the end of the tactile presentation. It becomes possible.
  • FIG. 1 is a schematic diagram showing a tactile presentation system.
  • FIG. 1 is a block diagram showing the configuration of an information processing device. It is an explanatory view showing an example of contents of a sensory DB.
  • FIG. 2 is a block diagram showing the configuration of a tactile presentation device. It is a flowchart which shows an example of the processing procedure of the tactile sense presentation in a tactile sense presentation system. It is a flowchart which shows an example of the processing procedure of the tactile sense presentation in a tactile sense presentation system.
  • FIG. 2 is a schematic diagram showing an example of tactile presentation in the tactile presentation system.
  • FIG. 7 is a schematic diagram showing another example of tactile presentation in the tactile presentation system.
  • FIG. 2 is a schematic diagram of a tactile presentation system in a second embodiment. It is a block diagram showing the composition of HMD of a 2nd embodiment.
  • FIG. 1 is a schematic diagram showing a tactile presentation system 100.
  • the tactile presentation system 100 includes an information processing device 1 and a tactile presentation device 2.
  • the information processing device 1 and the tactile presentation device 2 are communicably connected by short-range wireless communication and exchange data with each other.
  • the information processing device 1 uses a smartphone as shown in FIG.
  • the information processing device 1 may be a tablet terminal or a laptop-type PC (Personal Computer) instead of a smartphone.
  • the tactile presentation device 2 is a device that an operator can operate by moving his or her finger while holding it along the displacement portion 202.
  • the tactile presentation device 2 reads the position of the displacement part 202 that is displaced by the operator's finger movement, controls the built-in MRF (Magneto-Rheological Fluid) device 24 according to the position, and moves the displacement part 202 of the operator.
  • MRF Magnetic-Rheological Fluid
  • This is a device that produces a sense of force using a reaction force (rotational resistance) to the operation of the machine, and presents a tactile sensation.
  • the form of the displacement part 202 of the tactile presentation device 2 is not limited to that shown in FIG. 1, but may be stick-like or cushion-like covered with a cover.
  • the tactile presentation device 2 may employ a motor, a piezo element, or the like instead of the MRF device 24, and may generate a force sensation by rotational force or vibration in response to an operation by the operator. It may be combined with something that provides a warm or cold sensation.
  • the structure may be such that it is installed on the ground or a wall and is operated by the operator's palm or foot.
  • the tactile presentation device 2 cooperates with the information processing device 1 and displays the tactile sensation of the object while outputting images and sounds of the object using the information processing device 1 or other display devices, speakers, etc. is outputted by the tactile presentation device 2.
  • the tactile presentation device 2 displays the tactile sensation of the object while outputting images and sounds of the object using the information processing device 1 or other display devices, speakers, etc. is outputted by the tactile presentation device 2.
  • the tactile presentation device 2 becomes squishy or fluffy.
  • the display unit 13 displays an image that changes as if the object is being pushed in
  • the audio output unit 14 outputs an audible “squeak” sound that corresponds to the object being pushed in. Output audio.
  • FIG. 2 is a block diagram showing the configuration of the information processing device 1.
  • the information processing device 1 includes a processing section 10, a storage section 11, a communication section 12, a display section 13, an audio output section 14, and an operation section 15.
  • the processing unit 10 is a processor using a CPU (Central Processing Unit) and/or a GPU (Graphics Processing Unit).
  • the processing unit 10 executes a process described below based on a control program P1 for tactile presentation stored in the storage unit 11.
  • the storage unit 11 uses nonvolatile memory such as flash memory and SSD (Solid State Drive).
  • the storage unit 11 stores data referenced by the processing unit 10.
  • the control program P1 program product
  • the control program P1 stored in the storage unit 11 may be a computer program P8 stored in the computer-readable storage medium 8, which is read out and stored by the processing unit 10.
  • the storage unit 11 stores a sensory database (DB) 110 that includes tactile data, visual data, and auditory data of the object to be output.
  • the sensory DB 110 stores tactile data, visual data (images, videos), and auditory data to be output at each displacement for each displacement data of a displacement part in the tactile presentation device 2, in association with an object ID that identifies the object. (audio) (see Figure 3).
  • the storage unit 11 further stores setting data regarding the tilt of the tactile presentation device 2, which will be described later.
  • the communication unit 12 is a communication module for short-range wireless communication, for example, Bluetooth (registered trademark).
  • the processing unit 10 can transmit and receive data to and from the tactile presentation device 2 through the communication unit 12 .
  • the display unit 13 is a display such as a liquid crystal display or an organic EL (Electro Luminescence) display.
  • the display unit 13 is, for example, a display with a built-in touch panel.
  • the processing unit 10 displays, on the display unit 13, an operation screen for causing the tactile presentation device 2 to output a tactile sensation and an image of the target object, based on the control program P1.
  • the audio output unit 14 includes a speaker and the like.
  • the processing unit 10 causes the audio output unit 14 to output the sound of the object, music, etc. based on the control program P1.
  • the operation unit 15 is a user interface that allows input and output to and from the processing unit 10, and is a touch panel built into the display unit 13.
  • the operation unit 15 may be a physical button.
  • the operation unit 15 may be a voice input unit.
  • FIG. 3 is an explanatory diagram showing an example of the contents of the sensory DB 110.
  • the sensory DB 110 stores the current value of the current to the MRF device of the tactile presentation device 2 for each displacement amount (angle) of the displacement part 202 as tactile data in association with the object ID.
  • the tactile data includes, for each object, a displacement amount (hereinafter referred to as an end displacement amount) that is a condition for ending the tactile presentation of the object, and data on a control current value after reaching the end displacement amount.
  • the sensory DB 110 there are multiple objects in the sensory DB 110, such as real objects such as still life objects such as balls or balloons, foods such as gummies, vegetables, or fruits, and animals such as dogs, cats, or fish. It may also include characters such as slimes and monsters. Therefore, depending on the object, it is possible to reversibly present a sensation by having an elastic force, so that the end displacement amount and the control current value after reaching the end displacement amount do not need to be associated with each other.
  • real objects such as still life objects such as balls or balloons, foods such as gummies, vegetables, or fruits, and animals such as dogs, cats, or fish. It may also include characters such as slimes and monsters. Therefore, depending on the object, it is possible to reversibly present a sensation by having an elastic force, so that the end displacement amount and the control current value after reaching the end displacement amount do not need to be associated with each other.
  • the relationship between the amount of displacement of the displacement section 202 of the sensory DB 110 and the current value is set according to the actual dimensions of the movable range of the displacement section 202 and the dimensions of the object. For example, if the movable range of the displacement unit 202 is 50 mm, and the object is a sphere that bursts like a balloon, rotational resistance that gives a feeling of bursting when a certain displacement amount, such as 30 mm, is reached. A current value is set that causes In addition, if the target object is a large object such as the seat surface of a sofa, and the size greatly exceeds the movable range of the displacement unit 202, the tactile data may be such as to present the sensation up to 50 mm from the surface of the sofa seat surface. The current value is set. If the target object is a virtual character such as a monster, the current value is set based on the size according to the setting of the character.
  • the sensory DB 110 stores images (frame images) for each displacement amount (angle) of the displacement portion 202 as visual data in association with the object ID.
  • the frame image is one still image that is recognized as an animation image when displayed continuously.
  • audio for each displacement amount (angle) of the displacement unit 202 is stored as auditory data in association with the object ID.
  • the auditory data may be waveform data that differs depending on each angle. It may also be a timestamp of the audio corresponding to each angle.
  • the image and sound that should be displayed at the time when the end displacement amount is reached and after the end of the tactile sensation correspond to the object ID, respectively. It is attached and memorized.
  • FIG. 4 is a block diagram showing the configuration of the tactile presentation device 2.
  • the tactile presentation device 2 is configured by providing a flat bottomed cylindrical grip 200 with a band-shaped flat plate displacement portion 202 having a curved portion partially along the circumferential direction.
  • the displacement part 202 is made of a flexible material, it may also be made of a highly rigid material and rotatably supported via the grip body 200 and a support shaft.
  • a binding tool 203 in the form of a cloth tape is provided on the outer surface of the distal end of the displacement portion 202 .
  • a link mechanism 204 is provided on the inner surface of the distal end of the displacement portion 202 to connect to the rotating shaft of the rotor of the MRF device 24 housed inside the gripper 200 .
  • the operator uses the gripping body 200 by, for example, holding it with the thumb and middle finger and inserting the index finger into the binding tool 203 with the finger such as the index finger along the displacement part 202.
  • the operator can move the displacement part 202 by pushing in the index finger, or can move the displacement part 202 away from the grip body 200 by extending the index finger.
  • the tactile presentation device 2 includes a gripping body 200 as shown in FIG.
  • the grip body 200 has an MRF device 24 built therein.
  • the control section 20, the storage section 21, the communication section 22, and the power supply section 23 may be provided integrally with the grip body 200, or may be provided as separate bodies connected to the grip body 200 wirelessly or by wire.
  • the control unit 20 includes a processor such as a CPU and an MPU (Micro-Processing Unit), and a memory such as a ROM (Read Only Memory) and a RAM (Random Access Memory).
  • the control unit 20 is, for example, a microcontroller.
  • the control unit 20 controls each component based on a control program P2 stored in the built-in ROM to realize tactile presentation.
  • the storage unit 21 is an auxiliary storage memory for the control unit 20, and stores control data (tactile data) of the MRF device 24 in a rewritable manner.
  • the communication unit 22 is a communication module for short-range wireless communication, for example, Bluetooth (registered trademark).
  • the control unit 20 can transmit and receive data to and from the information processing device 1 through the communication unit 22 .
  • the control unit 20 is connected to the power supply unit 23, the MRF device 24, and the sensor 25 via I/O, and exchanges signals with each other.
  • the power supply unit 23 includes a rechargeable battery.
  • the power supply unit 23 supplies power to each component and the MRF device 24 when turned on.
  • the MRF device 24 has a yoke that sandwiches a disk-shaped rotor with a gap between them, and generates a magnetic field by passing a control current through a coil provided in the yoke, thereby generating a magnetic field sealed in the gap.
  • the viscosity (shear stress) of the viscous fluid is controlled to provide rotational resistance to the rotor.
  • the control unit 20 controls the magnitude of the control current to the MRF device 24, the rotational resistance is immediately changed.
  • the sensor 25 measures the amount of displacement (angle) of the displacement section 202 and outputs it to the control section 20.
  • the sensor 25 measures and outputs the displacement of the displacement portion 202 as an angle.
  • the sensor 25 may include a plurality of sensors such as a gyro sensor and an acceleration sensor.
  • the displacement section 202 when the displacement section 202 is operated by the operator, the displacement of the displacement section 202 is caused to move in the direction of rotation of the MRF device 24 toward the rotation axis of the rotor via the link mechanism 204. communicated. Since the rotating shaft rotates freely when the MRF device 24 is not operating, that is, while the control current is zero, the displacement portion 202 fluctuates without resistance. On the other hand, when the MRF device 24 operates and the control current is not zero, the viscosity (shear stress) of the magnetorheological fluid inside the MRF device 24 is changed depending on the magnitude of the current flowing to the MRF device 24. By continuously changing the magnitude of the current to the MRF device 24 or by vibrating the current value at a predetermined frequency, the control unit 20 can change the resistance force applied to the displacement unit 202 and the method of its appearance. .
  • the tactile sensation presentation device 2 can vary the resistance (current value) according to the pushing amount (displacement amount) of the displacement section 202 to present a smooth tactile sensation, or increase the resistance as the pushing amount increases. It is possible to present a tactile sensation that is hard and hard, or to present a tactile sensation that is crunchy by repeatedly increasing and decreasing the resistance.
  • the tactile presentation device 2 is controlled so that when the displacement amount of the displacement unit 202 reaches the end displacement amount, the presentation of the tactile sensation ends and is recognized as having ended. As described with reference to FIG. 3, the end displacement amount is stored in the sensation DB 110 for each object.
  • 5 and 6 are flowcharts illustrating an example of a tactile presentation processing procedure in the tactile presentation system 100.
  • the processing unit 10 of the information processing device 1 starts the following process in cooperation with the tactile presentation device 2.
  • the processing unit 10 displays on the display unit an operation screen that includes a list of object candidates for which tactile sensation is to be displayed (step S101), and accepts the selection of the object (step S102).
  • the processing unit 10 reads the data of the tactile data, visual data, auditory data, end displacement amount, and control current value after the end corresponding to the object ID of the selected object from the sensory DB 110 of the storage unit 11 and temporarily stores the data. It is stored (step S103).
  • the processing unit 10 establishes communication between the tactile presentation device 2 and the communication unit 12 (step S104), and transmits the temporarily stored tactile data to the tactile presentation device 2 (step S105).
  • the processing unit 10 transmits data of the end displacement amount read in step S103 and the control current value after the end to the tactile presentation device 2 (step S106).
  • the processing unit 10 causes the display unit 13 to display that tactile presentation is to be started (step S107).
  • the control unit 20 of the tactile presentation device 2 receives the tactile data and stores it in the storage unit 21 (step S201), and receives the data of the end displacement amount and the control current value after the end and stores it in the storage unit 21. (Step S202).
  • the control unit 20 samples a signal corresponding to the displacement amount (angle) of the displacement unit 202 output from the sensor 25 (step S203). The control unit 20 determines whether the displacement amount obtained by sampling has reached the end displacement amount stored in step S202 (step S204). If it is determined that the end displacement amount has been reached (S204: YES), the control unit 20 notifies the information processing device 1 that the end displacement amount has been reached (step S205).
  • the control unit 20 outputs the current of the control current value after the end to the MRF device 24 (step S206), returns the process to step S206, and continues to flow the current of the control current value.
  • the process in step S206 continues until a termination operation is performed on the information processing device 1 side.
  • the control current value after completion is zero or one that makes the rotational resistance feel maximum.
  • the displacement unit 202 does not need to return until the end operation is executed, or may return to the initial position (angle 0°).
  • the control unit 20 transmits the displacement amount and slope obtained by sampling to the information processing device 1 (step S207), and A current value corresponding to the amount of displacement is referenced from the tactile data stored in the storage unit 21 (step S208), a current having the referenced current value is output to the MRF device 24 (step S209), and the process returns to step S203.
  • the control unit 20 continues the processing of steps S203 to S206 until a termination operation is performed on the information processing device 1 side.
  • the information processing device 1 determines whether or not it has received a notification that the end displacement amount has been reached from the tactile presentation device 2 (step S108). If it is determined that it has been received (S108: YES), the processing unit 10 causes the display unit 13 to display an image when the end displacement amount is reached (step S109), and determines whether or not the end operation has been performed. (Step S110). If it is determined that the end operation has not been performed (S110: NO), the processing unit 10 returns the process to step S109. In step S109, the processing unit 10 may output the audio when the end displacement amount is reached from the audio output unit 14.
  • step S110: NO If it is determined that the termination operation has been performed (S110: NO), the display is terminated, communication with the tactile presentation device 2 is disconnected (step S111), and the process is terminated.
  • the processing unit 10 receives the displacement amount from the tactile presentation device 2 (step S112), and stores the image and audio corresponding to the received displacement amount in the storage unit 11. Reference is made from visual data and auditory data (step S113).
  • the processing unit 10 outputs the image and audio from the display unit 13 and the audio output unit 14 (step S114), and advances the process to step S115. Each time the amount of displacement is transmitted from the tactile presentation device 2, the information processing device 1 outputs an image and audio corresponding to the amount of displacement.
  • the processing unit 10 determines whether a termination operation has been performed (step S115). If it is determined that the end operation has not been performed (S115: NO), the process returns to step S108, and the processes of steps S108-S115 are repeated.
  • step S115 If it is determined that the end operation has been performed (S115: YES), the processing unit 10 advances the process to step S111.
  • FIG. 7 is a schematic diagram showing an example of tactile presentation in the tactile presentation system 100.
  • FIG. 7 shows changes in images and sounds displayed on the display unit 13 in response to the amount of displacement in the tactile data sent to the tactile presentation device 2.
  • the target object is a collapsible object like a balloon
  • the tactile presentation device 2 presents a fluffy tactile sensation as a result of the displacement of the displacement unit 202, and shows the collapse of the target object as visual data. show.
  • the image of the object changes depending on the pushing amount (displacement amount) of the displacement section 202, and the way the object is concave on the image changes.
  • contact that is, contact with the target object in the image from the initial position (displacement amount is zero) output to the MRF device 24.
  • An image of a finger may also be displayed.
  • FIG. 8 is a schematic diagram showing another example of tactile presentation in the tactile presentation system 100.
  • FIG. 8 shows changes in images and sounds displayed on the display unit 13 in response to the amount of displacement in the tactile data transmitted to the tactile presentation device 2.
  • an image of a mountain of sand is displayed, and the tactile presentation device 2 presents the smooth and crunchy feel of the sand, while the visual data shows that the mountain of sand is irreversibly collapsing. shows.
  • the image of the object changes depending on the pushing amount (displacement amount) of the displacement section 202, and the mountain of sand gradually collapses on the image.
  • the image and tactile presentation device outputs a predetermined rotational resistance, so that the operator can recognize that the tactile presentation of the breakable object in the tactile presentation device 2 has ended;
  • the operator can use the tactile presentation device 2 appropriately.
  • the rotational resistance to the displacement section 202 in the tactile presentation device 2 becomes zero.
  • the object disappears and the operator can recognize that the presentation of the tactile sensation has ended.
  • FIG. 9 is a schematic diagram of the tactile presentation system 100 in the second embodiment
  • FIG. 10 is a block diagram showing the configuration of the HMD 3.
  • the configuration of the tactile presentation system 100 in the second embodiment is the same as that of the tactile presentation system 100 in the first embodiment, except that the HMD 3 is used and the details of the processing by using the HMD 3 are different. . Therefore, among the configurations of the tactile presentation system 100 of the second embodiment, the same components as those of the tactile presentation system 100 of the first embodiment are given the same reference numerals, and detailed description thereof will be omitted.
  • the HMD 3 includes a display section 31, a motion detection section 32, a space detection section 33, and a connection section 34.
  • the HMD 3 may be provided with a display section 31, a motion detection section 32, a space detection section 33, and a connection section 34 in the main body, or some may be provided separately and mutually exchange control signals via a communication medium. It may be possible to do so.
  • the HMD 3 may have the functions of the information processing device 1 and be configured integrally.
  • the display unit 31 includes, for example, a small liquid crystal display, an optical lens, and an optical system mechanism, and is capable of displaying a three-dimensional image at a viewing angle of 110° or more.
  • the display unit 31 is a transparent or semi-transparent glass-like display, and receives an image signal (including a video signal) output from the information processing device 1 and displays it in a superimposed manner in the operator's actual field of view.
  • the display section 31 is not limited to a glass-like one, and may display an image based on an image signal output from the information processing device 1 superimposed on an image taken of real space by a camera provided facing forward. It's okay.
  • the motion detection unit 32 includes a plurality of triaxial acceleration sensors and gyro sensors installed in various directions on the main body (the cover of the display unit 31 and the attachment belt), and aggregates signals from a group of these sensors. and a control circuit that outputs the output.
  • the movement detection unit 32 detects the movement of the wearer's head.
  • the space detection unit 33 includes two or more infrared cameras arranged outwardly in parallel on the outer surface of the main body, and an infrared LED disposed at an intermediate position between the infrared cameras so as to similarly emit infrared rays outward. use
  • the space detection unit 33 functions as a depth sensor that measures the distance to an object that exists outside the main body of the HMD 3.
  • the space detection unit 33 can measure and output the distance from the HMD 3 main body to a still object such as a wall or floor in the location of the operator wearing the HMD 3.
  • the space detection unit 33 can measure and output the distance from the HMD 3 main body to the operator's arm, hand, and finger.
  • the connection unit 34 is an interface for connecting to the information processing device 1.
  • the HMD 3 outputs signals corresponding to the results measured by the motion detection unit 32 and the space detection unit 33 to the information processing device 1, and also acquires the video signal output from the information processing device 1 and displays it on the display unit. 31.
  • a speaker may be provided in the HMD 3, and the audio output from the audio output unit 14 of the information processing device 1 may be output from the speaker.
  • the information processing device 1 uses the HMD 3 and the distance to the still object in the real space measured by the space detection unit 33 to determine the tertiary shape of the virtual object.
  • the original image is superimposed and displayed in accordance with the operator's movement detected by the movement detection unit 32 to realize AR display.
  • the space detection section 33 uses the tactile presentation device 2 to select the coordinates in the three-dimensional image of the virtual object displayed on the display section 31 of the HMD 3 (coordinates that match the real space).
  • the processing unit 10 of the information processing device 1 detects this as being selected.
  • the information processing device 1 sends and receives displacement and tilt data to and from the tactile presentation device 2 to control the image displayed in AR and the tactile sensation output by the tactile presentation device 2. do.
  • the contents of the process are similar to the process shown in the first embodiment.
  • the operator can visually observe an image in which the object is virtually placed in real space, and feel the touch of the object using the tactile presentation device. It is possible to memorize it in 2.
  • the tactile presentation start position in the tactile presentation device 2 can be corrected according to each operator, thereby further improving the degree of perception. .

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

操作者が触覚の提示の終了を認識することができる制御装置、制御方法、触覚提示システム及びプログラム製品を提供する。制御装置は、操作者の操作に対して変位可能に設けられた変位部を有し、変位部の変位量に応じて、前記変位部への操作に対する力覚を生じさせ、表示される対象物の触覚を提示する触覚提示装置の制御装置であって、前記変位部の変位量に対応付けて、前記反力を生じさせる制御データと、前記変位部による触覚の提示を終了する終了変位量とを前記対象物毎に記憶しておき、前記変位部の変位量に対応付けられた制御データ及び終了変位量を、前記触覚提示装置へ出力し、前記変位部の変位量が前記終了変位量に到達した場合に、前記触覚提示装置における触覚提示を終了させる。

Description

制御装置、制御方法、触覚提示システム及びプログラム製品
 本発明は、操作者が触覚提示装置による触覚の提示の終了を認識することができる制御装置、制御方法、触覚提示システム及びプログラム製品に関する。
 人間の五感のうち、視覚及び聴覚に係る画像及び音声の伝達技術が高精度化しており、昨今では、触覚を提示する技術(ハプティクス)が種々提案されている。
 触覚の提示技術としては、タッチパネル内蔵のディスプレイに表示された物体の画像に触れた際の振動、主に三種の振動(ERM:Eccentric Rotating Mass、LRA:Linear resonant Actuator、ピエゾ素子)での再現が提案されている。しかしながらタッチパネル上での触覚提示では、より深部での触覚、つまり手指の皮膚のみならず、筋や腱で生じる力覚まで再現することは困難である。
 発明者らは、磁気粘性流体に対する知見に基づいて、操作者が操作可能であって、対象物によって異なる感触を再現する触覚提示装置を提案した(特許文献1等)。
特許第6906275号
 触覚提示装置は、操作者の操作によって基部に対して変位可能な湾曲板等である変位部を備える。変位部は、触覚提示装置が制御されない状態では、操作者によって抵抗なく変位が可能であるが、制御中の触覚提示装置は、変位部の変位量(ポジション・角度)に応じて変位部に対して生じさせる力覚の大きさ、力覚の出力方法等を変えて感触を提示する。
 触覚提示装置は、触覚の対象物が何であるかを視覚的に又は聴覚的に出力しながら使用される。対象物には、変位部を変位させた後に、元の形状に戻らずに壊れてしまう不可逆的な構造のものもある。この場合、一回の操作にて対象物が壊れる感触が提示された後に、更に操作が継続できると、操作者に違和感を生じさせる。
 本発明は、斯かる事情を鑑みてなされたものであり、操作者が触覚の提示の終了を認識することができる制御装置、制御方法、触覚提示システム及びプログラム製品を提供することを目的とする。
 本開示の一実施形態の制御装置は、操作者の操作に対して変位可能に設けられた変位部を有し、変位部の変位量に応じて、前記変位部への操作に対する力覚を生じさせ、表示される対象物の触覚を提示する触覚提示装置の制御装置であって、前記変位部の変位量に対応付けて、前記力覚を生じさせる制御データと、前記変位部による触覚の提示を終了する終了変位量とを前記対象物毎に記憶しておき、前記変位部の変位量に対応付けられた制御データ及び終了変位量を、前記触覚提示装置へ出力し、前記変位部の変位量が前記終了変位量に到達した場合に、前記触覚提示装置における触覚提示を終了させる。
 本開示の一実施形態の制御方法は、操作者の操作に対して変位可能に設けられた変位部を有し、変位部の変位量に応じて、前記変位部への操作に対する力覚を生じさせ、表示される対象物の触覚を提示する触覚提示装置の制御方法であって、前記触覚提示装置に接続されるコンピュータが、前記変位部の変位量に対応付けて、前記力覚を生じさせる制御データと、前記変位部による触覚の提示を終了する終了変位量とを前記対象物毎に記憶しておき、前記変位部の変位量に対応付けられた制御データ及び終了変位量を、前記触覚提示装置へ出力し、前記変位部の変位量が前記終了変位量に到達した場合に、前記触覚提示装置における触覚提示を終了させる。
 本開示の一実施形態のプログラム製品は、操作者の操作に対して変位可能に設けられた変位部を有し、変位部の変位量に応じて、前記変位部への操作に対する力覚を生じさせ、表示される対象物の触覚を提示する触覚提示装置に接続されるコンピュータに、前記変位部の変位量に対応付けて、前記力覚を生じさせる制御データと、前記変位部による触覚の提示を終了する終了変位量とを前記対象物毎に記憶しておき、前記変位部の変位量に対応付けられた制御データ及び終了変位量を、前記触覚提示装置へ出力し、前記変位部の変位量が前記終了変位量に到達した場合に、前記触覚提示装置における触覚提示を終了する処理を実行させる。
 本開示の制御装置、制御方法及びプログラム製品では、変位部の変位量が終了変位量に到達した場合、触覚提示が終了する。変位部に生じる力覚が特定のトルクになるか、若しくはゼロになる、その他終了を示す処理が実行されることにより、操作者は触覚提示の終了を認識可能となる。
 本開示の一実施形態の制御装置は、前記対象物毎に、前記変位部が終了変位量へ到達した後に、前記変位部へ所定の力覚を生じさせるための制御データ又は前記変位部に生じさせる力覚をゼロとするための制御データを記憶しておき、前記変位部の変位量が前記終了変位量に到達した場合に、前記所定の力覚を生じさせるか、又は前記変位部に生じさせる力覚をゼロにさせる。
 本開示の制御装置では、変位部の変位量が終了変位量に到達した場合、触覚提示が終了する。変位部に生じる力覚が特定のトルクになるか、若しくはゼロになる。これにより、操作者は、触覚提示の終了を認識できる。
 本開示の一実施形態の制御装置は、前記変位部の変位量が前記終了変位量に到達した場合に、表示部に終了を示す画像を表示させるか、又は、音声出力部に終了を示す音声を出力させる。
 本開示の制御装置では、触覚提示装置において終了変位量に到達すると触覚提示が終了すると、共に表示される画像、又は共に出力されている音声にて、操作者へ終了が通知される。これにより、操作者は、触覚提示の終了を認識できる。
 本開示の一実施形態の触覚提示システムは、操作者の操作に対して変位可能に設けられた変位部を有し、変位部の変位量に応じて、前記変位部への操作に対する力覚を生じさせ、表示される対象物の触覚を提示する触覚提示装置と、前記触覚提示装置と通信接続し、表示部を備える情報処理装置とを含み、前記情報処理装置は、前記変位部の変位量に対応付けて、前記力覚を生じさせる制御データと、前記変位部による触覚の提示を終了する終了変位量とを前記対象物毎に記憶しておき、前記変位部の変位量に対応付けられた制御データ及び終了変位量を、前記触覚提示装置へ出力し、前記変位部の変位量が前記終了変位量に到達した場合に、前記触覚提示装置における触覚提示を終了させ、前記表示部に、終了を示す画像を表示させる。
 本開示の触覚提示システムでは、変位部の変位量が終了変位量に到達した場合、触覚提示が終了し、少なくとも表示部で、終了が通知されるため、操作者は、触覚提示の終了を認識可能となる。
 本開示によれば、触覚提示装置による触覚提示の終了を、操作者が認識することが可能となり、触覚の知覚度を向上させることができる。
触覚提示システムを示す模式図である。 情報処理装置の構成を示すブロック図である。 感覚DBの内容例を示す説明図である。 触覚提示装置の構成を示すブロック図である。 触覚提示システムにおける触覚提示の処理手順の一例を示すフローチャートである。 触覚提示システムにおける触覚提示の処理手順の一例を示すフローチャートである。 触覚提示システムにおける触覚提示の例を示す概要図である。 触覚提示システムにおける触覚提示の他の例を示す概要図である。 第2実施形態における触覚提示システムの概要図である。 第2実施形態のHMDの構成を示すブロック図である。
 本開示をその実施の形態を示す図面を参照して具体的に説明する。以下の実施の形態では、触覚提示システムにおける設定方法の実施について説明する。
 (第1実施形態)
 図1は、触覚提示システム100を示す模式図である。触覚提示システム100は、情報処理装置1と、触覚提示装置2とを含む。情報処理装置1と、触覚提示装置2とは近距離無線通信で通信接続され、相互にデータを授受する。
 情報処理装置1は、図1に示すようにスマートフォンを用いる。情報処理装置1は、スマートフォンでなく、タブレット端末であってもよいし、ラップトップ型のPC(Personal Computer)であってもよい。
 触覚提示装置2は、操作者が指を変位部202に沿えて持ちながら指を動かして操作できる装置である。触覚提示装置2は、操作者が指を動かすことで変位する変位部202の位置を読み取り、内蔵するMRF(Magneto-Rheological Fluid)デバイス24をその位置に応じて制御して操作者の変位部202への操作に対する反力(回転抵抗)により力覚を生じさせ、触覚を提示する装置である。触覚提示装置2の変位部202の態様は、図1に示すようなものに限られず、スティック状であってもよいし、カバーに覆われたクッション状のものであってもよい。触覚提示装置2は、MRFデバイス24に代えて、モータやピエゾ素子などを採用し、操作者の操作に対し回転力や振動により力覚を生じさせるものでもよく、変位部202の他、振動や温感、冷感を提示するものと組み合わされてもよい。地面や壁に設置し、操作者の手のひらや足等で操作される構造でもよい。
 触覚提示システム100では、触覚提示装置2は、情報処理装置1と連携し、情報処理装置1又は他の表示装置やスピーカ等を用いて対象物の画像及び音声を出力させながら、対象物の触覚を触覚提示装置2で出力させる。図1に示す例では、情報処理装置1の表示部13に、柔らかな物体を表示させ、操作者が触覚提示装置2の変位部202を指で押し込むと、触覚提示装置2がグニャリ、若しくはフワフワとした触覚を出力させつつ、表示部13に、物体が、押し込まれたように変化する画像を表示させ、音声出力部14にて物体が押し込まれたことに対応する「グニャリ」と聞こえるような音声を出力する。
 図2は、情報処理装置1の構成を示すブロック図である。情報処理装置1は、処理部10、記憶部11、通信部12、表示部13、音声出力部14及び操作部15を備える。処理部10は、CPU(Central Processing Unit)及び/又はGPU(Graphics Processing Unit)を用いたプロセッサである。処理部10は、記憶部11に記憶されている触覚提示用の制御プログラムP1に基づき、後述する処理を実行する。
 記憶部11は、フラッシュメモリ、SSD(Solid State Drive)等の不揮発性メモリを用いる。記憶部11は、処理部10が参照するデータを記憶する。制御プログラムP1(プログラム製品)は、通信部12を介して情報処理装置1又は他のプログラムサーバ装置からダウンロードして実行可能に記憶したものである。記憶部11に記憶されている制御プログラムP1は、コンピュータから読み取り可能な記憶媒体8に記憶されていたコンピュータプログラムP8を処理部10が読み出して記憶したものであってもよい。
 記憶部11は、出力する対象物の触覚データ、視覚データ及び聴覚データを含む感覚データベース(DB:Data Base)110を記憶する。感覚DB110は、対象物を識別する対象物IDに対応付けて、触覚提示装置2における変位部の変位データ毎に、その変位において出力すべき触覚データ、視覚データ(画像、動画)、及び聴覚データ(音声)を格納している(図3参照)。記憶部11は更に、後述する触覚提示装置2の傾きに関する設定データを記憶する。
 通信部12は、近距離無線通信、例えばBluetooth(登録商標)の通信モジュールである。処理部10は、通信部12によって触覚提示装置2との間でデータを送受信できる。
 表示部13は、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等のディスプレイである。表示部13は例えば、タッチパネル内蔵型ディスプレイである。処理部10は、表示部13に、制御プログラムP1に基づき、触覚提示装置2で触覚を出力させるための操作画面や対象物の画像を表示する。
 音声出力部14は、スピーカ等を含む。処理部10は、制御プログラムP1に基づき、対象物の音声、音楽等を音声出力部14から出力させる。
 操作部15は、処理部10との間で入出力が可能なユーザインタフェースであって、表示部13内蔵のタッチパネルである。操作部15は、物理ボタンであってもよい。操作部15は、音声入力部であってもよい。
 図3は、感覚DB110の内容例を示す説明図である。感覚DB110は、図3に示すように、対象物IDに対応付けて、変位部202の変位量(角度)毎の触覚提示装置2のMRFデバイスへの電流の電流値を触覚データとして格納している。電流値に限らず、電圧値等であってもよい。触覚データは、対象物毎に、対象物の触覚提示を終了する条件となる変位量(以下、終了変位量という)と、終了変位量に到達した後の制御用電流値のデータとを含む。
 なお、感覚DB110の対象物は複数であり、触覚を提示する物として実在する物体、例えば、ボール又は風船等の静物、グミ、野菜、又は果物等の食べ物、犬、猫又は魚等の動物を含んでもよいし、スライムやモンスター等のキャラクタを含んでもよい。したがって対象物によっては、弾性力を有して可逆的に感触を提示できるため、終了変位量及び終了変位量に到達した後の制御用電流値が対応付けられていなくてもよい。
 感覚DB110の変位部202の変位量と、電流値との関係は、変位部202の可動範囲の実際の寸法と、対象物の寸法とに合わせて設定されている。例えば、変位部202の可動範囲が50mmであり、対象物が風船のような破裂する球体であって、例えば30mm等の特定の変位量に到達した時点で破裂したような感触を出現する回転抵抗を生じさせる電流値が設定されている。また、対象物がソファの座面のような大きな物体であって大きさが変位部202の可動範囲を大きく超える場合、触覚データでは、ソファの座面表面から50mmまでの感触を提示するような電流値が設定される。対象物がモンスター等の仮想的なキャラクタの場合は、そのキャラクタの設定に応じた大きさに基づいて電流値が設定される。
 感覚DB110は、同様に、対象物IDに対応付けて、変位部202の変位量(角度)毎の画像(フレーム画像)を視覚データとして格納している。ここでフレーム画像は、連続して表示することでアニメーション画像として認識される、1つの静止画像である。また同様にして、対象物IDに対応付けて、変位部202の変位量(角度)毎の音声を聴覚データとして格納している。聴覚データは、各角度によって異なる波形データであってもよい。各角度に対応する音声のタイムスタンプであってもよい。
 視覚データ及び聴覚データについても、不可逆的に触覚を提示する対象物については、終了変位量に到達した時点、及び、触覚提示の終了後に表示されるべき画像及び音声がそれぞれ、対象物IDに対応付けて記憶されている。
 図4は、触覚提示装置2の構成を示すブロック図である。触覚提示装置2は、図1に示したように、扁平な有底円筒状の把持体200に周方向に一部沿うような湾曲部を有する帯状平板の変位部202を設けて構成される。変位部202は、それ自体が撓むことが可能な素材であるが、剛性の高い素材を採用し、把持体200と支軸を介して回動可能に支持されていてもよい。変位部202の先端の外側の面には、布テープ状の結束具203が設けられている。変位部202の先端の内側面は、把持体200内部に収容されているMRFデバイス24のロータの回転軸と連結するリンク機構204が設けられている。
 操作者は図1に示したように、把持体200を例えば親指と中指とで把持しつつ、人差し指等の指を変位部202に沿わせて結束具203に人差し指を差し込んで使用する。操作者は人差し指を押し込むように変位部202を動かすことができ、また、人差し指を伸ばして把持体200から変位部202を遠ざけるように動かすことができる。
 触覚提示装置2は、図1に示すような把持体200と、制御部20、記憶部21、通信部22、電源部23、MRFデバイス24、センサ25を備える。把持体200は、MRFデバイス24を内蔵する。制御部20、記憶部21、通信部22、及び電源部23は把持体200と一体に設けられてもよいし、把持体200と無線又は有線により接続される別体に設けられてもよい。
 制御部20は、CPU、MPU(Micro-Processing Unit)等のプロセッサ、ROM(Read Only Memory)、RAM(Random Access Memory)等のメモリを含む。制御部20は、例えばマイクロコントローラである。制御部20は、内蔵ROMに記憶されている制御プログラムP2に基づいて各構成部を制御し、触覚提示を実現する。
 記憶部21は、制御部20に対する補助記憶メモリであり、MRFデバイス24の制御データ(触覚データ)を書き換え可能に記憶する。
 通信部22は、近距離無線通信、例えばBluetooth(登録商標)の通信モジュールである。制御部20は、通信部22によって情報処理装置1との間でデータを送受信できる。
 制御部20は、電源部23、MRFデバイス24及びセンサ25とI/Oを介して接続されており、相互に信号を授受する。
 電源部23は、充電可能なバッテリを含む。電源部23は、ON状態になると各構成部及びMRFデバイス24へ電力を供給する。
 MRFデバイス24は、円板状のロータを、隙間を開けて挟むようにして設けられたヨークを有し、ヨークに設けられたコイルに制御電流を流して磁界を発生させ、隙間に封入されている磁気粘性流体の粘度(ずり応力)を制御してロータの回転抵抗を与える。制御部20が、MRFデバイス24への制御電流の大きさを制御すると即座に回転抵抗が変更される。
 センサ25は、変位部202の変位量(角度)を測定して制御部20へ出力する。センサ25は変位部202の変位を、角度として測定して出力する。センサ25は、ジャイロセンサ、加速度センサ等の複数のセンサから構成されてもよい。
 上述のように構成される触覚提示装置2では、変位部202が操作者によって操作されると、変位部202の変位がリンク機構204を介してMRFデバイス24のロータの回転軸への回転方向に伝達される。回転軸は、MRFデバイス24が動作していない場合、即ち制御電流がゼロである間は、自由に回転するため、変位部202は抵抗なく変動する。一方で、MRFデバイス24が動作し、制御電流がゼロでない場合には、MRFデバイス24へ流れる電流の大きさに応じてMRFデバイス24内部の磁気粘性流体の粘度(ずり応力)が変更される。制御部20が、MRFデバイス24への電流の大きさを連続的に変更したり、電流値を所定の周波数で振動させたりすることで、変位部202に対する抵抗の力やその出現方法を変更できる。
 このようにして触覚提示装置2は、変位部202の押し込む量(変位量)に応じて抵抗(電流値)を変動させてヌルリとした触覚を提示したり、押し込む量が大きくなるにつれて抵抗を大きくしてギュッとした固さの触覚を提示したり、抵抗の大小を繰り返してザクザクとした触覚を提示したりすることができる。
 触覚提示装置2では、変位部202の変位量が終了変位量に達すると、触覚の提示が終わり、また終わったことが認識されるように制御される。終了変位量は、図3を参照して説明したように、感覚DB110に対象物毎に記憶されている。
 図5及び図6は、触覚提示システム100における触覚提示の処理手順の一例を示すフローチャートである。情報処理装置1の処理部10は、操作者が制御プログラムP1を起動させ、触覚提示装置2の電源をONとすると、触覚提示装置2と連携して以下の処理を開始する。
 処理部10は、触覚を表示する対象物の候補のリストを含む操作画面を表示部に表示し(ステップS101)、対象物の選択を受け付ける(ステップS102)。処理部10は、選択された対象物の対象物IDに対応する触覚データ、視覚データ、聴覚データ、終了変位量及び終了後の制御用電流値のデータを記憶部11の感覚DB110から読み出して一時記憶する(ステップS103)。
 処理部10は、触覚提示装置2と通信部12による通信を確立させ(ステップS104)、一時記憶した触覚データを触覚提示装置2へ送信する(ステップS105)。処理部10は、ステップS103で読み出した終了変位量、及び終了後の制御用電流値のデータを触覚提示装置2へ送信する(ステップS106)。
 処理部10は、表示部13に触覚提示を開始することを表示させる(ステップS107)。
 触覚提示装置2の制御部20は、触覚データを受信して記憶部21に記憶し(ステップS201)、終了変位量及び終了後の制御用電流値のデータを受信して記憶部21に記憶する(ステップS202)。
 制御部20は、センサ25から出力される変位部202の変位量(角度)に対応する信号をサンプリングする(ステップS203)。制御部20は、サンプリングにより得られた変位量が、ステップS202で記憶した終了変位量に到達したか否かを判断する(ステップS204)。終了変位量に到達したと判断された場合(S204:YES)、制御部20は、終了変位量に到達したことを情報処理装置1へ通知する(ステップS205)。
 制御部20は、終了後の制御用電流値の電流を、MRFデバイス24へ出力し(ステップS206)、処理をステップS206へ戻し、制御用の電流値の電流を流し続ける。ステップS206の処理は、情報処理装置1側で、終了操作がされるまで継続する。これにより、その後、変位部202が元のポジション(変位量:0)まで戻ったとしても、以後は終了後の制御用電流値に基づく回転抵抗が発せられるのみで感触の提示は実行されない。終了後の制御用電流値は、ゼロあるいは、回転抵抗を最大に感じさせるものである。変位部202は、終了操作が実行されるまで、戻らなくてもよいし、初期位置(角度0°)まで戻るようにしてもよい。
 終了変位量に到達していないと判断された場合(S204:NO)、制御部20は、サンプリングにより得られた変位量及び傾きを、情報処理装置1へ送信し(ステップS207)、得られた変位量に対応する電流値を、記憶部21に記憶した触覚データから参照し(ステップS208)、参照した電流値の電流をMRFデバイス24へ出力し(ステップS209)、処理をステップS203へ戻す。変位量が終了変位量へ到達するまでの間、制御部20は、ステップS203-S206の処理を、情報処理装置1側で終了操作がされるまで継続する。
 情報処理装置1は、触覚提示装置2から終了変位量への到達の通知を受信したか否かを判断する(ステップS108)。受信したと判断された場合(S108:YES)、処理部10は、表示部13に、終了変位量へ到達した場合の画像を表示させ(ステップS109)、終了操作がされたか否かを判断する(ステップS110)。終了操作がされていないと判断された場合(S110:NO)、処理部10は処理をステップS109へ戻す。ステップS109において処理部10は、終了変位量へ到達した場合の音声を音声出力部14から出力してもよい。
 終了操作がされたと判断された場合(S110:NO)、表示を終了して触覚提示装置2との通信を切断し(ステップS111)、処理を終了する。
 受信していないと判断された場合(S108:NO)、処理部10は、触覚提示装置2から変位量を受信し(ステップS112)、受信した変位量に対応する画像及び音声を記憶部11の視覚データ及び聴覚データから参照する(ステップS113)。処理部10は、画像及び音声それぞれを表示部13及び音声出力部14から出力させ(ステップS114)、処理をステップS115へ進める。触覚提示装置2から変位量が送信される都度、情報処理装置1は、それに対応する画像及び音声を出力する。
 処理部10は、終了操作がされたか否かを判断する(ステップS115)。終了操作がされていないと判断された場合(S115:NO)、処理をステップS108へ戻し、ステップS108-S115の処理を繰り返す。
 終了操作がされたと判断された場合(S115:YES)、処理部10は、処理をステップS111へ処理を進める。
 図7は、触覚提示システム100における触覚提示の例を示す概要図である。図7には、触覚提示装置2に送信される触覚データにおける変位量に対応して表示部13に表示される画像の変化及び音声の変化を示す。図7の例では、対象物は風船のように潰れる物体であり、変位部202の変位におうじて触覚提示装置2では、フワフワとした触覚が提示されつつ、視覚データとして対象物がつぶれる様子を示す。図7に示すように、変位部202の押し込み量(変位量)に応じて、対象物の画像が変化し、画像上での凹み方が変わる。図7に示すように、画像中に、操作者の指の画像を表示する場合、接触、即ちMRFデバイス24へ出力する初期位置(変位量がゼロ)の場所から、画像における対象物に接触する指の画像が表示されるようにしてもよい。
 図7中の最下部に示すように、変位部202の変位量が終了変位量に相当する48°に達すると、触覚提示の終了を示す画像及び「破裂しました(END)」の文字が表示される。図7に示す例では、対象物が破裂した画像及びテキストが表示されている。破裂は不可逆的である。これにより操作者は、触覚の提示が終了したことを認識できる。変位部202の変位量が終了変位量に達した後は、触覚提示装置2における変位部202には、大きな回転抵抗が与えられ、変位部202の移動が規制される。これにより、操作者は触覚の提示が終了したことを認識できる。
 図8は、触覚提示システム100における触覚提示の他の例を示す概要図である。図8には、触覚提示装置2に送信される触覚データにおける変位量に対応して表示部13に表示される画像の変化及び音声の変化を示す。図8に示す例では、砂の山の画像が表示され、触覚提示装置2では、砂のサラサラ、ザックリとした感触が提示されつつ、視覚データとしては砂の山が不可逆的に崩れていく様子を示す。図8に示すように、変位部202の押し込み量(変位量)に応じて、対象物の画像が変化し、画像上で少しずつ砂の山が崩れている。
 図8中の最下部に示すように、変位部202の変位量が終了変位量に相当する角度に達すると、触覚提示の終了を示す画像及び「終了」の文字が表示される。図8に示す例では、砂の山が崩れ去った画像及びテキストが表示されている。砂の山の崩壊は不可逆的である。これにより操作者は、風船の触覚の提示が終了したことを認識できる。
 図7及び図8に示したように、画像及び触覚提示装置が所定の回転抵抗を出力することにより、触覚提示装置2において壊れる対象物の触覚の提示が終了したことを操作者が認識でき、操作者は触覚提示装置2を適切に使用することができる。変位部202の変位量が終了変位量に達した後は、触覚提示装置2における変位部202への回転抵抗はゼロとなる。これにより、対象物がなくなり操作者は触覚の提示が終了したことを認識できる。
 (第2実施形態)
 第2実施形態では、HMD(Head Mounted Display)を用い、対象物に対する視覚情報を三次元画像で提示する。図9は、第2実施形態における触覚提示システム100の概要図であり、図10は、HMD3の構成を示すブロック図である。第2実施形態における触覚提示システム100の構成は、HMD3を用いることと、HMD3を用いることによる詳細な処理の内容が異なること以外は、第1実施形態における触覚提示システム100と同様の構成である。したがって、第2実施形態の触覚提示システム100の構成のうち、第1実施形態の触覚提示システム100と共通する構成については同一の符号を付して詳細な説明を省略する。
 HMD3は、表示部31、動き検知部32、空間検知部33、及び接続部34を備える。HMD3は、本体に、表示部31、動き検知部32、空間検知部33及び接続部34を設けてもよいし、一部は別体に設けられて相互に通信媒体を介して制御信号を授受できるようにしてあってもよい。HMD3は、情報処理装置1の機能を有して一体に構成されてもよい。
 表示部31は例えば、小型の液晶ディスプレイ、光学レンズ及び光学系機構を備え、視野角110°以上で三次元画像を表示することが可能である。表示部31は、透明又は半透明のグラス状のディスプレイであり、操作者の実際の視界に、情報処理装置1から出力される画像信号(映像信号を含む)を受け付けて重畳表示させる。表示部31はグラス状のものに限られず、前方に向けて設けられたカメラにて実空間を撮影した画像に、情報処理装置1から出力される画像信号に基づく画像を重畳表示させるものであってもよい。
 動き検知部32は、本体(表示部31のカバー及び装着ベルト)の各所に、多様な向きで設けられた複数の三軸加速度センサ及びジャイロセンサと、これらのセンサ群からの信号を集約して出力する制御回路とを備える。動き検知部32により、装着者の頭部の動きが検知される。
 空間検知部33は、本体の外面に外向きに並設された2つ以上の赤外線カメラと、該赤外線カメラの中間位置に同様に外向きに赤外線を照射するように設けられた赤外線LEDとを用いる。空間検知部33は、HMD3の本体の外側に存在する物体までの距離を測定する深度センサとして機能する。空間検知部33は、HMD3本体から、HMD3を装着する操作者の居場所における壁、床等の静物に対する距離を測り、出力することが可能である。空間検知部33は同様に、HMD3本体から操作者の腕、手、指までの距離を測定し、出力することが可能である。
 接続部34は、情報処理装置1と接続するためのインタフェースである。HMD3は、動き検知部32及び空間検知部33にて測定された結果に対応する信号をそれぞれ、情報処理装置1へ出力すると共に、情報処理装置1から出力される映像信号を取得して表示部31に表示させる。
 HMD3にスピーカを設け、情報処理装置1の音声出力部14から出力される音声をスピーカにて出力させるようにしてもよい。
 上述したような構成の第3実施形態の触覚提示システム100において情報処理装置1は、HMD3を用い、空間検知部33で測定された実空間における静物に対する距離を用い、仮想的な対象物の三次元画像を、動き検知部32にて検知される操作者の動きに合わせて重畳表示し、AR表示を実現する。対象物の選択は、HMD3の表示部31に表示される仮想的対象物の三次元画像の画像内の座標(実空間と合致した座標)に対し、空間検知部33により、触覚提示装置2を把持した手指を重ねたことが検知できた場合に、これを選択したものとして情報処理装置1の処理部10が検知する。
 そして第3実施形態でも、情報処理装置1は、触覚提示装置2との間で変位量及び傾きのデータを授受して、AR表示される画像と触覚提示装置2にて出力される触覚を制御する。処理の内容は第1実施形態にて示した処理と同様である。
 HMD3を用いたAR表示と触覚提示装置2とを組み合わせることにより、実空間に対象物を仮想的に配置した画像を、操作者は視覚的に観察しながら、その対象物の感触を触覚提示装置2で覚えることが可能である。その際に、第1実施形態にて説明したものと同様に、触覚提示装置2における触覚提示開始位置を、操作者それぞれに応じて補正することができることで、更に知覚度を向上させることができる。
 上述のように開示された実施の形態は全ての点で例示であって、制限的なものではない。本発明の範囲は、請求の範囲によって示され、請求の範囲と均等の意味及び範囲内での全ての変更が含まれる。
 1 情報処理装置
 10 処理部
 11 記憶部
 13 表示部
 P1 制御プログラム
 2 触覚提示装置
 20 制御部
 21 記憶部
 202 変位部
 24 MRFデバイス
 

Claims (6)

  1.  操作者の操作に対して変位可能に設けられた変位部を有し、変位部の変位量に応じて、前記変位部への操作に対する力覚を生じさせ、表示される対象物の触覚を提示する触覚提示装置の制御装置であって、
     前記変位部の変位量に対応付けて、前記力覚を生じさせる制御データと、前記変位部による触覚の提示を終了する終了変位量とを前記対象物毎に記憶しておき、
     前記変位部の変位量に対応付けられた制御データ及び終了変位量を、前記触覚提示装置へ出力し、
     前記変位部の変位量が前記終了変位量に到達した場合に、前記触覚提示装置における触覚提示を終了させる
     制御装置。
  2.  前記対象物毎に、前記変位部が終了変位量へ到達した後に、前記変位部へ所定の力覚を生じさせるための制御データ又は前記変位部に生じさせる力覚をゼロとするための制御データを記憶しておき、
     前記変位部の変位量が前記終了変位量に到達した場合に、前記所定の力覚を生じさせるか、又は前記変位部に生じさせる力覚をゼロにさせる
     請求項1に記載の制御装置。
  3.  前記変位部の変位量が前記終了変位量に到達した場合に、表示部に終了を示す画像を表示させるか、又は、音声出力部に終了を示す音声を出力させる
     請求項1又は2に記載の制御装置。
  4.  操作者の操作に対して変位可能に設けられた変位部を有し、変位部の変位量に応じて、前記変位部への操作に対する力覚を生じさせ、表示される対象物の触覚を提示する触覚提示装置の制御方法であって、
     前記触覚提示装置に接続されるコンピュータが、
     前記変位部の変位量に対応付けて、前記力覚を生じさせる制御データと、前記変位部による力覚の提示を終了する終了変位量とを前記対象物毎に記憶しておき、
     前記変位部の変位量に対応付けられた制御データ及び終了変位量を、前記触覚提示装置へ出力し、
     前記変位部の変位量が前記終了変位量に到達した場合に、前記触覚提示装置における触覚提示を終了させる
     処理部を含む制御方法。
  5.  操作者の操作に対して変位可能に設けられた変位部を有し、変位部の変位量に応じて、前記変位部への操作に対する力覚を生じさせ、表示される対象物の触覚を提示する触覚提示装置と、
     前記触覚提示装置と通信接続し、表示部を備える情報処理装置と
     を含み、
     前記情報処理装置は、
     前記変位部の変位量に対応付けて、前記力覚を生じさせる制御データと、前記変位部による触覚の提示を終了する終了変位量とを前記対象物毎に記憶しておき、
     前記変位部の変位量に対応付けられた制御データ及び終了変位量を、前記触覚提示装置へ出力し、
     前記変位部の変位量が前記終了変位量に到達した場合に、前記触覚提示装置における触覚提示を終了させ、
     前記表示部に、終了を示す画像を表示させる
     触覚提示システム。
  6.  操作者の操作に対して変位可能に設けられた変位部を有し、変位部の変位量に応じて、前記変位部への操作に対する力覚を生じさせ、表示される対象物の触覚を提示する触覚提示装置に接続されるコンピュータに、
     前記変位部の変位量に対応付けて、前記力覚を生じさせる制御データと、前記変位部による触覚の提示を終了する終了変位量とを前記対象物毎に記憶しておき、
     前記変位部の変位量に対応付けられた制御データ及び終了変位量を、前記触覚提示装置へ出力し、
     前記変位部の変位量が前記終了変位量に到達した場合に、前記触覚提示装置における触覚提示を終了する
     処理を実行させるプログラム製品。
     
PCT/JP2023/009323 2022-03-30 2023-03-10 制御装置、制御方法、触覚提示システム及びプログラム製品 WO2023189425A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-057121 2022-03-30
JP2022057121A JP2023148856A (ja) 2022-03-30 2022-03-30 制御装置、制御方法、触覚提示システム及びコンピュータプログラム

Publications (1)

Publication Number Publication Date
WO2023189425A1 true WO2023189425A1 (ja) 2023-10-05

Family

ID=88200820

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/009323 WO2023189425A1 (ja) 2022-03-30 2023-03-10 制御装置、制御方法、触覚提示システム及びプログラム製品

Country Status (2)

Country Link
JP (1) JP2023148856A (ja)
WO (1) WO2023189425A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017138651A (ja) * 2016-02-01 2017-08-10 株式会社栗本鐵工所 力覚提示装置
WO2020111155A1 (ja) * 2018-11-30 2020-06-04 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、その制御方法、及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017138651A (ja) * 2016-02-01 2017-08-10 株式会社栗本鐵工所 力覚提示装置
WO2020111155A1 (ja) * 2018-11-30 2020-06-04 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、その制御方法、及びプログラム

Also Published As

Publication number Publication date
JP2023148856A (ja) 2023-10-13

Similar Documents

Publication Publication Date Title
EP2796983B1 (en) Systems and Methods for Haptically-Enabled Conformed and Multifaceted Displays
JP6328448B2 (ja) 表面触覚感覚を有するユーザインタフェース装置
US10936074B2 (en) Haptic information presentation system and method
EP3009914A1 (en) Haptically-enabled deformable device with rigid component
US20170221325A1 (en) Haptic feedback in a haptically noisy environment
EP3171247B1 (en) Haptically enabled flexible devices
EP3418863A1 (en) Haptic dimensions in a variable gaze orientation virtual environment
JP2017123162A (ja) 複数の変形可能メンブレンを有する触覚周辺装置
US20190155387A1 (en) Haptic Accessory Apparatus
CN109474863A (zh) 用非音频数据在耳机上渲染触觉
US11880528B2 (en) Stimulus transmission device
WO2020145144A1 (ja) 触覚提示装置、触覚提示システムおよび触覚提示方法
JP2007026297A (ja) 振動制御装置、温度制御装置及び移動制御装置
WO2020222955A1 (en) System, method, and apparatus for virtual reality feedback
WO2023189425A1 (ja) 制御装置、制御方法、触覚提示システム及びプログラム製品
JP6043544B2 (ja) 入力デバイス、入力システム、電子機器、及び感覚提示方法
KR102154337B1 (ko) 맞춤형 햅틱 효과를 제공하는 방법 및 그를 이용한 시스템
WO2023189422A1 (ja) 制御装置、制御方法、触覚提示システム及びプログラム製品
JP2023148854A (ja) 制御装置、制御方法、触覚提示システム及びコンピュータプログラム
JP2023148853A (ja) 制御装置、制御方法、触覚提示システム及びコンピュータプログラム
WO2023189423A1 (ja) 制御装置、制御方法、触覚提示システム及びプログラム製品
WO2021176861A1 (ja) 情報処理装置及び情報処理方法、コンピュータプログラム、並びに拡張現実感システム
US11003247B1 (en) Deployable controller
Martínez et al. The sense of touch as the last frontier in virtual reality technology
KR20140106309A (ko) 포스피드백 기능을 구비한 가상현실 입력장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23779449

Country of ref document: EP

Kind code of ref document: A1