JP2023148854A - Control device, control method, haptic feedback system, and computer program - Google Patents

Control device, control method, haptic feedback system, and computer program Download PDF

Info

Publication number
JP2023148854A
JP2023148854A JP2022057119A JP2022057119A JP2023148854A JP 2023148854 A JP2023148854 A JP 2023148854A JP 2022057119 A JP2022057119 A JP 2022057119A JP 2022057119 A JP2022057119 A JP 2022057119A JP 2023148854 A JP2023148854 A JP 2023148854A
Authority
JP
Japan
Prior art keywords
tactile
displacement
presentation device
sensation
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022057119A
Other languages
Japanese (ja)
Inventor
修一 赤岩
Shuichi Akaiwa
慶介 木野井
Keisuke Kinoi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kurimoto Ltd
Original Assignee
Kurimoto Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kurimoto Ltd filed Critical Kurimoto Ltd
Priority to JP2022057119A priority Critical patent/JP2023148854A/en
Publication of JP2023148854A publication Critical patent/JP2023148854A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a control device, a control method, a haptic feedback system, and a computer program, for improving perceptibility of haptic sensations using a control depending on attitude.SOLUTION: A control device is for a haptic feedback device having a displacement unit that is provided to be displaced in response to an operation by an operator. The haptic feedback device is configured to generate a force sense for operation on the displacement unit according to a displacement amount of the displacement unit and present a haptic sensation of a displayed object. The control device preliminarily stores, for each object, control data for generating the force sense and data on attitude of the haptic feedback device for modifying the content of the haptic sensation to be presented by the control data, in association with the displacement amount of the displacement unit, and modifies the control data for generating the force sense according to the attitude of the haptic feedback device.SELECTED DRAWING: Figure 1

Description

本発明は、触覚提示装置に関し、触覚の知覚度を向上させる触覚提示装置の制御装置、制御方法、触覚提示システム及びコンピュータプログラムに関する。 The present invention relates to a tactile presentation device, and more particularly to a control device, a control method, a tactile presentation system, and a computer program for a tactile presentation device that improves tactile perception.

人間の五感のうち、視覚及び聴覚に係る画像及び音声の伝達技術が高精度化しており、昨今では、触覚を提示する技術(ハプティクス)が種々提案されている。 2. Description of the Related Art Among the five human senses, image and audio transmission technologies related to visual and auditory senses are becoming more precise, and in recent years, various technologies for presenting tactile sensations (haptics) have been proposed.

触覚の提示技術としては、タッチパネル内蔵のディスプレイに表示された物体の画像に触れた際の振動、主に三種の振動(ERM:Eccentric Rotating Mass 、LRA:Linear resonant Actuator、ピエゾ素子)での再現が提案されている。しかしながらタッチパネル上での触覚提示では、より深部での触覚、つまり手指の皮膚のみならず、筋や腱で生じる力覚まで再現することは困難である。 Tactile presentation technology uses mainly three types of vibrations (ERM: Eccentric Rotating Mass, LRA: Linear resonant actuator, piezo element) to reproduce the vibrations that occur when touching an image of an object displayed on a display with a built-in touch panel. Proposed. However, when presenting tactile sensations on a touch panel, it is difficult to reproduce deeper tactile sensations, that is, not only the skin of fingers but also the force sensations generated in muscles and tendons.

発明者らは、磁気粘性流体に対する知見に基づいて、操作者が操作可能であって、対象物によって異なる感触を再現する触覚提示装置を提案した(特許文献1等)。 Based on knowledge of magnetorheological fluids, the inventors have proposed a tactile presentation device that can be operated by an operator and reproduces different sensations depending on the object (Patent Document 1, etc.).

特許第6906275号Patent No. 6906275

触覚提示装置は、操作者の操作によって基部に対して変位可能な湾曲板等である変位部を備える。変位部は、触覚提示装置が制御されない状態では、操作者によって抵抗なく変位が可能であるが、制御中の触覚提示装置は、変位部の変位量(ポジション・角度)に応じて変位部に対し生じさせる力覚の大きさ、力覚の出力方法等を変えて感触を提示する。 The tactile presentation device includes a displacement section that is a curved plate or the like that can be displaced relative to the base by an operation of an operator. The displacement part can be displaced by the operator without resistance when the tactile presentation device is not controlled, but the tactile presentation device under control can move the displacement part according to the amount of displacement (position/angle) of the displacement part. The tactile sensation is presented by changing the magnitude of the force sensation generated, the output method of the force sensation, etc.

触覚提示装置は、操作者が手で把持して使用される。触覚提示装置は、手で握って持ち上げられる程度に小型なタイプで実現される場合は特に、様々な姿勢で用いられる。 The tactile presentation device is used by being held by an operator's hand. The tactile presentation device is used in various postures, especially when it is realized in a small enough type to be held and lifted in the hand.

本発明は、斯かる事情を鑑みてなされたものであり、姿勢に応じた制御によって、触覚の知覚度を苦情させる制御装置、制御方法、触覚提示システム及びコンピュータプログラムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and aims to provide a control device, a control method, a tactile presentation system, and a computer program for causing complaints about tactile perception through control according to posture. .

本開示の一実施形態の制御装置は、操作者の操作に対して変位可能に設けられた変位部を有し、変位部の変位量に応じて、前記変位部への操作に対する力覚を生じさせ、表示される対象物の触覚を提示する触覚提示装置の制御装置であって、前記変位部の変位量に対応付けて、前記力覚を生じさせる制御データと、制御データによる触覚の提示内容を変更する前記触覚提示装置の姿勢のデータとを、前記対象物毎に記憶しておき、前記触覚提示装置の姿勢に応じて、前記力覚を生じさせる制御データを変更する。 A control device according to an embodiment of the present disclosure includes a displacement section that is displaceable in response to an operation by an operator, and generates a force sensation in response to an operation on the displacement section according to the amount of displacement of the displacement section. A control device for a tactile sense presentation device that presents a tactile sense of a displayed object by controlling the force, the control data for generating the force sense in association with the amount of displacement of the displacement part, and the presentation content of the tactile sense based on the control data. data on the posture of the tactile presentation device that changes the tactile sensation presentation device is stored for each object, and control data that causes the force sensation to be generated is changed in accordance with the posture of the tactile presentation device.

本開示の一実施形態の制御方法は、操作者の操作に対して変位可能に設けられた変位部を有し、変位部の変位量に応じて、前記変位部への操作に対する力覚を生じさせ、表示される対象物の触覚を提示する触覚提示装置の制御方法であって、前記触覚提示装置に接続されるコンピュータが、前記変位部の変位量に対応付けて、前記力覚を生じさせる制御データと、制御データによる触覚の提示内容を変更する前記触覚提示装置の姿勢のデータとを、前記対象物毎に記憶しておき、前記触覚提示装置の姿勢に応じて、前記力覚を生じさせる制御データを変更する処理を含む。 A control method according to an embodiment of the present disclosure includes a displacement section that is displaceable in response to an operation by an operator, and generates a force sensation in response to an operation on the displacement section according to a displacement amount of the displacement section. A control method for a tactile presentation device that presents a tactile sensation of a displayed object by causing a computer connected to the tactile presentation device to generate the haptic sensation in association with a displacement amount of the displacement portion. Control data and data on the posture of the tactile presentation device that changes the content of the tactile presentation based on the control data are stored for each object, and the haptic sensation is generated according to the posture of the tactile presentation device. This includes processing to change the control data for

本開示の一実施形態のコンピュータプログラムは、操作者の操作に対して変位可能に設けられた変位部を有し、変位部の変位量に応じて、前記変位部への操作に対する力覚を生じさせ、表示される対象物の触覚を提示する触覚提示装置に接続されるコンピュータに、前記変位部の変位量に対応付けて、前記力覚を生じさせる制御データと、制御データによる触覚の提示内容を変更する前記触覚提示装置の姿勢のデータとを、前記対象物毎に記憶しておき、前記触覚提示装置の姿勢に応じて、前記力覚を生じさせる制御データを変更する処理を実行させる。 A computer program according to an embodiment of the present disclosure includes a displacement section that is displaceable in response to an operation by an operator, and generates a force sensation in response to an operation on the displacement section according to a displacement amount of the displacement section. a computer connected to a tactile presentation device that presents a tactile sensation of the displayed object, control data that causes the force sensation to be generated in association with the amount of displacement of the displacement portion, and content of the tactile sensation presentation based on the control data; Data on the posture of the tactile presentation device that changes the tactile sensation presentation device are stored for each object, and processing for changing control data that causes the force sensation is executed in accordance with the posture of the tactile presentation device.

本開示の制御装置、制御方法及びコンピュータプログラムでは、触覚提示装置の変位部の変位量に加えて、触覚提示装置の姿勢の情報を参照して制御データが変更される。姿勢がどのようなものかに応じて、処理を中断したり、姿勢に応じた制御内容へ切り替えるといった処理が可能になる。 In the control device, control method, and computer program of the present disclosure, control data is changed with reference to information on the posture of the tactile presentation device in addition to the displacement amount of the displacement portion of the tactile presentation device. Depending on the posture, it is possible to interrupt the process or switch to control content that is appropriate for the posture.

本開示の一実施形態の制御装置は、前記触覚提示装置の姿勢が特定の姿勢である場合、前記触覚提示装置による触覚の提示を中断させる。 A control device according to an embodiment of the present disclosure interrupts presentation of a tactile sensation by the tactile sensation presentation device when the posture of the tactile sensation presentation device is a specific posture.

本開示の制御装置では、姿勢が特定の姿勢である場合には、触覚提示装置における触覚提示を中断する。適切な姿勢に限定して触覚提示が可能である。 In the control device of the present disclosure, when the posture is a specific posture, the tactile sensation presentation in the tactile sensation presentation device is interrupted. Tactile presentation is possible only in appropriate postures.

本開示の一実施形態の制御装置は、前記対象物毎に、前記触覚提示装置の姿勢別に、前記変位部の変位量に対応付けて前記力覚を生じさせる制御データを記憶しておき、前記姿勢別の、制御データを前記触覚提示装置へ出力する。 The control device according to an embodiment of the present disclosure stores control data for causing the force sensation in association with the displacement amount of the displacement portion for each posture of the tactile sensation presentation device for each of the objects, and Control data for each posture is output to the tactile presentation device.

本開示の制御装置では、姿勢に応じて異なる触覚となるように制御することも可能である。対象物に対する接触の向きに応じた触覚の提示も可能である。 With the control device of the present disclosure, it is also possible to perform control to provide different tactile sensations depending on the posture. It is also possible to present a tactile sensation depending on the direction of contact with the object.

本開示の一実施形態の触覚提示システムは、操作者の操作に対して変位可能に設けられた変位部を有し、変位部の変位量に応じて、前記変位部への操作に対する力覚を生じさせ、表示される対象物の触覚を提示する触覚提示装置と、前記触覚提示装置と通信接続し、表示部を備える情報処理装置とを含み、前記触覚提示装置は、姿勢を検知するセンサを更に備え、前記情報処理装置は、前記変位部の変位量に対応付けて、前記力覚を生じさせる制御データと、制御データによる触覚の提示内容を変更する前記触覚提示装置の姿勢のデータとを、前記対象物毎に記憶しておき、前記触覚提示装置の前記センサにて検知される姿勢に応じて、前記力覚を生じさせる制御データを変更し、前記センサから得られる姿勢及び前記変位部の変位量に応じて前記表示部に画像を出力する。 A tactile presentation system according to an embodiment of the present disclosure includes a displacement section that is displaceable in response to an operation by an operator, and generates a force sensation in response to an operation on the displacement section according to the amount of displacement of the displacement section. The tactile presentation device includes a tactile presentation device that generates and presents a tactile sensation of a displayed object, and an information processing device that is communicatively connected to the tactile presentation device and includes a display unit, and the tactile presentation device includes a sensor that detects a posture. Furthermore, the information processing device includes control data for generating the force sensation and data on a posture of the tactile sensation presentation device that changes the presentation content of the tactile sensation based on the control data, in association with the amount of displacement of the displacement section. , the control data that is stored for each object and that causes the force sensation is changed according to the orientation detected by the sensor of the tactile presentation device, and the orientation obtained from the sensor and the displacement portion are changed. An image is output to the display section according to the amount of displacement.

本開示の触覚提示システムでは、触覚提示装置の変位部の変位量に加えて、触覚提示装置の姿勢の情報を参照して制御データ及び表示部における表示が変更される。姿勢がどのようなものかに応じて、処理を中断したり、姿勢に応じた制御内容へ切り替えるといった処理が可能になる。 In the tactile presentation system of the present disclosure, in addition to the amount of displacement of the displacement portion of the tactile presentation device, control data and the display on the display unit are changed with reference to information on the posture of the tactile presentation device. Depending on the posture, it is possible to interrupt the process or switch to control content that is appropriate for the posture.

本開示によれば、触覚提示装置自体の姿勢に応じた制御が可能となり、触覚の知覚度を向上させることができる。 According to the present disclosure, it is possible to perform control according to the posture of the tactile presentation device itself, and it is possible to improve the perceptibility of the tactile sense.

触覚提示システムを示す模式図である。FIG. 1 is a schematic diagram showing a tactile presentation system. 情報処理装置の構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of an information processing device. 感覚DBの内容例を示す説明図である。It is an explanatory view showing an example of contents of a sensory DB. 触覚提示装置の構成を示すブロック図である。FIG. 2 is a block diagram showing the configuration of a tactile presentation device. 触覚提示システムにおける触覚提示の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the processing procedure of the tactile sense presentation in a tactile sense presentation system. 触覚提示システムにおける触覚提示の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the processing procedure of the tactile sense presentation in a tactile sense presentation system. 触覚提示システムにおける触覚提示の例を示す概要図である。FIG. 2 is a schematic diagram showing an example of tactile presentation in the tactile presentation system. 第2実施形態における触覚データの内容例を示す。An example of the content of tactile data in the second embodiment is shown. 第2実施形態における触覚提示の処理手順の一例を示すフローチャートである。12 is a flowchart illustrating an example of a tactile presentation processing procedure in the second embodiment. 第2実施形態における触覚提示の処理手順の一例を示すフローチャートである。12 is a flowchart illustrating an example of a tactile presentation processing procedure in the second embodiment. 第2実施形態における触覚提示システムにおける触覚提示の例を示す概要図である。FIG. 7 is a schematic diagram showing an example of tactile presentation in a tactile presentation system according to a second embodiment. 第3実施形態における触覚提示システムの概要図である。FIG. 3 is a schematic diagram of a tactile presentation system in a third embodiment. 第3実施形態のHMDの構成を示すブロック図である。It is a block diagram showing the composition of HMD of a 3rd embodiment.

本開示をその実施の形態を示す図面を参照して具体的に説明する。以下の実施の形態では、触覚提示システムにおける設定方法の実施について説明する。 The present disclosure will be specifically described with reference to drawings showing embodiments thereof. In the following embodiments, implementation of a setting method in a tactile presentation system will be described.

(第1実施形態)
図1は、触覚提示システム100を示す模式図である。触覚提示システム100は、情報処理装置1と、触覚提示装置2とを含む。情報処理装置1と、触覚提示装置2とは近距離無線通信で通信接続され、相互にデータを授受する。
(First embodiment)
FIG. 1 is a schematic diagram showing a tactile presentation system 100. The tactile presentation system 100 includes an information processing device 1 and a tactile presentation device 2. The information processing device 1 and the tactile presentation device 2 are communicably connected by short-range wireless communication and exchange data with each other.

情報処理装置1は、図1に示すようにスマートフォンを用いる。情報処理装置1は、スマートフォンでなく、タブレット端末であってもよいし、ラップトップ型のPC(Personal Computer)であってもよい。 The information processing device 1 uses a smartphone as shown in FIG. The information processing device 1 may be a tablet terminal or a laptop-type PC (Personal Computer) instead of a smartphone.

触覚提示装置2は、操作者が指を変位部202に沿えて持ちながら指を動かして操作できる装置である。触覚提示装置2は、操作者が指を動かすことで変位する変位部202の位置を読み取り、内蔵するMRF(Magneto-Rheological Fluid )デバイス24をその位置に応じて制御して操作者の変位部202への操作に対する反力(回転抵抗)により力覚を生じさせ、触覚を提示する装置である。触覚提示装置2の変位部202の態様は、図1に示すようなものに限られず、スティック状であってもよいし、カバーに覆われたクッション状のものであってもよい。触覚提示装置2は、MRFデバイス24に代えて、モータやピエゾ素子などを採用し、操作者の操作に対し回転力や振動により力覚を生じさせるものでもよく、変位部202の他、振動や温感、冷感を提示するものと組み合わされてもよい。指輪状など、操作者の指に装着され、他の指で操作する構造でもよい。 The tactile presentation device 2 is a device that an operator can operate by moving his or her finger while holding the finger along the displacement portion 202 . The tactile presentation device 2 reads the position of the displacement section 202 that is displaced by the operator's finger movement, controls the built-in MRF (Magneto-Rheological Fluid) device 24 according to the position, and moves the displacement section 202 of the operator. This is a device that produces a sense of force using a reaction force (rotational resistance) to the operation of the machine, and presents a tactile sensation. The form of the displacement part 202 of the tactile presentation device 2 is not limited to that shown in FIG. 1, but may be stick-like or cushion-like covered with a cover. The tactile presentation device 2 may employ a motor, a piezo element, or the like instead of the MRF device 24, and may generate a force sensation by rotational force or vibration in response to an operation by the operator. It may be combined with something that provides a warm or cold sensation. It may also be a ring-shaped structure that is worn on the operator's finger and operated with another finger.

触覚提示システム100では、触覚提示装置2は、情報処理装置1と連携し、情報処理装置1又は他の表示装置やスピーカ等を用いて対象物の画像及び音声を出力させながら、対象物の触覚を触覚提示装置2で出力させる。図1に示す例では、情報処理装置1の表示部13に、柔らかな物体を表示させ、操作者が触覚提示装置2の変位部202を指で押し込むと、触覚提示装置2がグニャリ、若しくはフワフワとした触覚を出力させつつ、表示部13に、物体が、押し込まれたように変化する画像を表示させ、音声出力部14にて物体が押し込まれたことに対応する「グニャリ」と聞こえるような音声を出力する。 In the tactile presentation system 100, the tactile presentation device 2 cooperates with the information processing device 1 and displays the tactile sensation of the object while outputting images and sounds of the object using the information processing device 1 or other display devices, speakers, etc. is outputted by the tactile presentation device 2. In the example shown in FIG. 1, when a soft object is displayed on the display unit 13 of the information processing device 1 and the operator pushes the displacement part 202 of the tactile presentation device 2 with a finger, the tactile presentation device 2 becomes squishy or fluffy. While outputting a tactile sensation, the display unit 13 displays an image that changes as if the object is being pushed in, and the audio output unit 14 outputs an audible “squeak” sound that corresponds to the object being pushed in. Output audio.

図2は、情報処理装置1の構成を示すブロック図である。情報処理装置1は、処理部10、記憶部11、通信部12、表示部13、音声出力部14及び操作部15を備える。処理部10は、CPU(Central Processing Unit )及び/又はGPU(Graphics Processing Unit)を用いたプロセッサである。処理部10は、記憶部11に記憶されている触覚提示用の制御プログラムP1に基づき、後述する処理を実行する。 FIG. 2 is a block diagram showing the configuration of the information processing device 1. As shown in FIG. The information processing device 1 includes a processing section 10, a storage section 11, a communication section 12, a display section 13, an audio output section 14, and an operation section 15. The processing unit 10 is a processor using a CPU (Central Processing Unit) and/or a GPU (Graphics Processing Unit). The processing unit 10 executes a process described below based on a control program P1 for tactile presentation stored in the storage unit 11.

記憶部11は、フラッシュメモリ、SSD(Solid State Drive )等の不揮発性メモリを用いる。記憶部11は、処理部10が参照するデータを記憶する。制御プログラムP1(プログラム製品)は、通信部12を介して情報処理装置1又は他のプログラムサーバ装置からダウンロードして実行可能に記憶したものである。記憶部11に記憶されている制御プログラムP1は、コンピュータから読み取り可能な記憶媒体8に記憶されていたコンピュータプログラムP8を処理部10が読み出して記憶したものであってもよい。 The storage unit 11 uses nonvolatile memory such as flash memory or SSD (Solid State Drive). The storage unit 11 stores data referenced by the processing unit 10. The control program P1 (program product) is downloaded from the information processing device 1 or another program server device via the communication unit 12 and stored in an executable manner. The control program P1 stored in the storage unit 11 may be a computer program P8 stored in the computer-readable storage medium 8, which is read out and stored by the processing unit 10.

記憶部11は、出力する対象物の触覚データ、視覚データ及び聴覚データを含む感覚データベース(DB:Data Base )110を記憶する。感覚DB110は、対象物を識別する対象物IDに対応付けて、触覚提示装置2における変位部の変位データ毎に、その変位において出力すべき触覚データ、視覚データ(画像、動画)、及び聴覚データ(音声)を格納している(図3参照)。記憶部11は更に、後述する触覚提示装置2の傾きに関する設定データを記憶する。 The storage unit 11 stores a sensory database (DB) 110 including tactile data, visual data, and auditory data of the object to be output. The sensory DB 110 stores tactile data, visual data (images, videos), and auditory data to be output at each displacement for each displacement data of a displacement part in the tactile presentation device 2, in association with an object ID that identifies the object. (audio) (see Figure 3). The storage unit 11 further stores setting data regarding the tilt of the tactile presentation device 2, which will be described later.

通信部12は、近距離無線通信、例えばBluetooth(登録商標)の通信モジュールである。処理部10は、通信部12によって触覚提示装置2との間でデータを送受信できる。 The communication unit 12 is a communication module for short-range wireless communication, for example, Bluetooth (registered trademark). The processing unit 10 can transmit and receive data to and from the tactile presentation device 2 through the communication unit 12 .

表示部13は、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等のディスプレイである。表示部13は例えば、タッチパネル内蔵型ディスプレイである。処理部10は、表示部13に、制御プログラムP1に基づき、触覚提示装置2で触覚を出力させるための操作画面や対象物の画像を表示する。 The display unit 13 is a display such as a liquid crystal display or an organic EL (Electro Luminescence) display. The display unit 13 is, for example, a display with a built-in touch panel. The processing unit 10 displays, on the display unit 13, an operation screen for causing the tactile sensation presentation device 2 to output a tactile sensation and an image of the target object, based on the control program P1.

音声出力部14は、スピーカ等を含む。処理部10は、制御プログラムP1に基づき、対象物の音声、音楽等を音声出力部14から出力させる。 The audio output unit 14 includes a speaker and the like. The processing unit 10 causes the audio output unit 14 to output the sound of the object, music, etc. based on the control program P1.

操作部15は、処理部10との間で入出力が可能なユーザインタフェースであって、表示部13内蔵のタッチパネルである。操作部15は、物理ボタンであってもよい。操作部15は、音声入力部であってもよい。 The operation unit 15 is a user interface that allows input and output to and from the processing unit 10, and is a touch panel built into the display unit 13. The operation unit 15 may be a physical button. The operation unit 15 may be a voice input unit.

図3は、感覚DB110の内容例を示す説明図である。感覚DB110は、図3に示すように、対象物IDに対応付けて、変位部202の変位量(角度)毎の触覚提示装置2のMRFデバイスへの電流の電流値を触覚データとして格納している。電流値に限らず、電圧値等であってもよい。対象物は複数であり、触覚を提示する物として実在する物体、例えば、ボール又は風船等の静物、グミ、野菜、又は果物等の食べ物、犬、猫又は魚等の動物を含んでもよいし、スライムやモンスター等のキャラクタを含んでもよい。 FIG. 3 is an explanatory diagram showing an example of the contents of the sensory DB 110. As shown in FIG. 3, the sensory DB 110 stores the current value of the current to the MRF device of the tactile presentation device 2 for each displacement amount (angle) of the displacement part 202 as tactile data in association with the object ID. There is. It is not limited to a current value, but may be a voltage value or the like. The objects are plural, and may include real objects that present a tactile sensation, such as still life objects such as balls or balloons, foods such as gummies, vegetables, or fruits, and animals such as dogs, cats, or fish. Characters such as slimes and monsters may also be included.

感覚DB110の変位部202の変位量と、電流値との関係は、変位部202の可動範囲の実際の寸法と、対象物の寸法とに合わせて設定されている。例えば、変位部202の可動範囲が50mmであり、対象物が小さなグミのような破裂しない球体であって大きさが15mmに設定されている場合、触覚は最初の15mm程度の範囲で再現され、残りの35mmの範囲は、それ以上押し込めないほどの感触となるような回転抵抗を生じさせる電流値が設定されている。又は、12mm~15mmの範囲は押し込めなくなる大きな電流値が設定され、それ以降の電流値はゼロに設定されていてもよい。また、対象物がソファの座面のような大きな物体であって大きさが変位部202の可動範囲を大きく超える場合、触覚データでは、ソファの座面表面から50mmまでの感触を提示するような電流値が設定される。対象物がモンスター等の仮想的なキャラクタの場合は、そのキャラクタの設定に応じた大きさに基づいて電流値が設定される。 The relationship between the amount of displacement of the displacement section 202 of the sensory DB 110 and the current value is set according to the actual size of the movable range of the displacement section 202 and the size of the object. For example, if the movable range of the displacement unit 202 is 50 mm, and the object is a sphere that will not burst, such as a small gummy bear, and the size is set to 15 mm, the tactile sensation will be reproduced within the first 15 mm, In the remaining 35 mm range, a current value is set that produces a rotational resistance that makes it difficult to push in any further. Alternatively, a large current value that makes it impossible to push in the range of 12 mm to 15 mm may be set, and the current values thereafter may be set to zero. In addition, if the target object is a large object such as the seat surface of a sofa, and the size greatly exceeds the movable range of the displacement unit 202, the tactile data may be such as to present the sensation up to 50 mm from the surface of the sofa seat surface. The current value is set. If the target object is a virtual character such as a monster, the current value is set based on the size according to the setting of the character.

感覚DB110は、同様に、対象物IDに対応付けて、変位部202の変位量(角度)毎の画像(フレーム画像)を視覚データとして格納している。ここでフレーム画像は、連続して表示することでアニメーション画像として認識される、1つの静止画像である。また同様にして、対象物IDに対応付けて、変位部202の変位量(角度)毎の音声を聴覚データとして格納している。聴覚データは、各角度によって異なる波形データであってもよい。各角度に対応する音声のタイムスタンプであってもよい。 Similarly, the sensory DB 110 stores images (frame images) for each displacement amount (angle) of the displacement portion 202 as visual data in association with the object ID. Here, the frame image is one still image that is recognized as an animation image when displayed continuously. Similarly, audio for each displacement amount (angle) of the displacement unit 202 is stored as auditory data in association with the object ID. The auditory data may be waveform data that differs depending on each angle. It may also be a timestamp of the audio corresponding to each angle.

図4は、触覚提示装置2の構成を示すブロック図である。触覚提示装置2は、図1に示したように、扁平な有底円筒状の把持体200に周方向に一部沿うような湾曲部を有する帯状平板の変位部202を設けて構成される。変位部202は、それ自体が撓むことが可能な素材であるが、剛性の高い素材を採用し、把持体200と支軸を介して回動可能に支持されていてもよい。変位部202の先端の外側の面には、布テープ状の結束具203が設けられている。変位部202の先端の内側面は、把持体200内部に収容されているMRFデバイス24のロータの回転軸と連結するリンク機構204が設けられている。 FIG. 4 is a block diagram showing the configuration of the tactile presentation device 2. As shown in FIG. As shown in FIG. 1, the tactile presentation device 2 is configured by providing a flat bottomed cylindrical grip 200 with a band-shaped flat plate displacement portion 202 having a curved portion partially along the circumferential direction. Although the displacement part 202 is made of a flexible material, it may also be made of a highly rigid material and rotatably supported via the grip body 200 and a support shaft. A binding tool 203 in the form of a cloth tape is provided on the outer surface of the distal end of the displacement portion 202 . A link mechanism 204 is provided on the inner surface of the distal end of the displacement portion 202 to connect to the rotating shaft of the rotor of the MRF device 24 housed inside the gripper 200 .

操作者は図1に示したように、把持体200を例えば親指と中指とで把持しつつ、人差し指等の指を変位部202に沿わせて結束具203に人差し指を差し込んで使用する。操作者は人差し指を押し込むように変位部202を動かすことができ、また、人差し指を伸ばして把持体200から変位部202を遠ざけるように動かすことができる。 As shown in FIG. 1, the operator uses the holding body 200 by, for example, holding the holding body 200 with the thumb and middle finger, and inserting the finger such as the index finger into the binding tool 203 along the displacement part 202. The operator can move the displacement part 202 by pushing in the index finger, or can move the displacement part 202 away from the grip body 200 by extending the index finger.

触覚提示装置2は、図1に示すような把持体200と、制御部20、記憶部21、通信部22、電源部23、MRFデバイス24、センサ25を備える。把持体200は、MRFデバイス24を内蔵する。制御部20、記憶部21、通信部22、及び電源部23は把持体200と一体に設けられてもよいし、把持体200と無線又は有線により接続される別体に設けられてもよい。 The tactile presentation device 2 includes a gripping body 200 as shown in FIG. The grip body 200 has an MRF device 24 built therein. The control section 20, the storage section 21, the communication section 22, and the power supply section 23 may be provided integrally with the grip body 200, or may be provided as separate bodies connected to the grip body 200 wirelessly or by wire.

制御部20は、CPU、MPU(Micro-Processing Unit )等のプロセッサ、ROM(Read Only Memory)、RAM(Random Access Memory)等のメモリを含む。制御部20は、例えばマイクロコントローラである。制御部20は、内蔵ROMに記憶されている制御プログラムP2に基づいて各構成部を制御し、触覚提示を実現する。 The control unit 20 includes a processor such as a CPU and an MPU (Micro-Processing Unit), and a memory such as a ROM (Read Only Memory) and a RAM (Random Access Memory). The control unit 20 is, for example, a microcontroller. The control unit 20 controls each component based on a control program P2 stored in the built-in ROM to realize tactile presentation.

記憶部21は、制御部20に対する補助記憶メモリであり、MRFデバイス24の制御データ(触覚データ)を書き換え可能に記憶する。 The storage unit 21 is an auxiliary storage memory for the control unit 20, and stores control data (tactile data) of the MRF device 24 in a rewritable manner.

通信部22は、近距離無線通信、例えばBluetooth(登録商標)の通信モジュールである。制御部20は、通信部22によって情報処理装置1との間でデータを送受信できる。 The communication unit 22 is a communication module for short-range wireless communication, for example, Bluetooth (registered trademark). The control unit 20 can transmit and receive data to and from the information processing device 1 through the communication unit 22 .

制御部20は、電源部23、MRFデバイス24及びセンサ25とI/Oを介して接続されており、相互に信号を授受する。 The control unit 20 is connected to a power supply unit 23, an MRF device 24, and a sensor 25 via I/O, and exchanges signals with each other.

電源部23は、充電可能なバッテリを含む。電源部23は、ON状態になると各構成部及びMRFデバイス24へ電力を供給する。 Power supply unit 23 includes a rechargeable battery. The power supply unit 23 supplies power to each component and the MRF device 24 when turned on.

MRFデバイス24は、円板状のロータを、隙間を開けて挟むようにして設けられたヨークを有し、ヨークに設けられたコイルに制御電流を流して磁界を発生させ、隙間に封入されている磁気粘性流体の粘度(ずり応力)を制御してロータの回転抵抗を与える。制御部20が、MRFデバイス24への制御電流の大きさを制御すると即座に回転抵抗が変更される。 The MRF device 24 has a yoke that sandwiches a disk-shaped rotor with a gap between them, and generates a magnetic field by passing a control current through a coil provided in the yoke, thereby generating a magnetic field sealed in the gap. The viscosity (shear stress) of the viscous fluid is controlled to provide rotational resistance to the rotor. When the control unit 20 controls the magnitude of the control current to the MRF device 24, the rotational resistance is immediately changed.

センサ25は、変位部202の変位量(角度)を測定して制御部20へ出力する。センサ25は、角度センサ251と、ジャイロセンサ252とを含む。角度センサ251は、変位部202の変位を角度として測定して出力する。ジャイロセンサ252は、三軸方向の傾きを検知し、触覚提示装置2の把持体200の中心及び変位部202の先端部を結ぶ線が鉛直方向に向かう姿勢を初期姿勢として、触覚提示装置2の傾きを出力する。センサ25は、そのほか、加速度センサを含んで構成されてもよい。 The sensor 25 measures the amount of displacement (angle) of the displacement section 202 and outputs it to the control section 20 . Sensor 25 includes an angle sensor 251 and a gyro sensor 252. The angle sensor 251 measures and outputs the displacement of the displacement portion 202 as an angle. The gyro sensor 252 detects the inclination in the three axes directions, and sets the tactile presentation device 2 in an initial posture in which a line connecting the center of the gripping body 200 and the tip of the displacement portion 202 of the tactile presentation device 2 points in the vertical direction. Output the slope. The sensor 25 may also include an acceleration sensor.

上述のように構成される触覚提示装置2では、変位部202が操作者によって操作されると、変位部202の変位がリンク機構204を介してMRFデバイス24のロータの回転軸への回転方向に伝達される。回転軸は、MRFデバイス24が動作していない場合、即ち制御電流がゼロである間は、自由に回転するため、変位部202は抵抗なく変動する。一方で、MRFデバイス24が動作し、制御電流がゼロでない場合には、MRFデバイス24へ流れる電流の大きさに応じてMRFデバイス24内部の磁気粘性流体の粘度(ずり応力)が変更される。制御部20が、MRFデバイス24への電流の大きさを連続的に変更したり、電流値を所定の周波数で振動させたりすることで、変位部202に対する抵抗の力やその出現方法を変更できる。 In the tactile presentation device 2 configured as described above, when the displacement section 202 is operated by the operator, the displacement of the displacement section 202 is caused to move in the direction of rotation of the MRF device 24 toward the rotation axis of the rotor via the link mechanism 204. communicated. Since the rotating shaft rotates freely when the MRF device 24 is not operating, that is, while the control current is zero, the displacement portion 202 fluctuates without resistance. On the other hand, when the MRF device 24 operates and the control current is not zero, the viscosity (shear stress) of the magnetorheological fluid inside the MRF device 24 is changed depending on the magnitude of the current flowing to the MRF device 24. By continuously changing the magnitude of the current to the MRF device 24 or by vibrating the current value at a predetermined frequency, the control unit 20 can change the resistance force applied to the displacement unit 202 and the method of its appearance. .

このようにして触覚提示装置2は、変位部202の押し込む量(変位量)に応じて抵抗(電流値)を変動させてヌルリとした触覚を提示したり、押し込む量が大きくなるにつれて抵抗を大きくしてギュッとした固さの触覚を提示したり、抵抗の大小を繰り返してザクザクとした触覚を提示したりすることができる。 In this way, the tactile sensation presentation device 2 can vary the resistance (current value) according to the pushing amount (displacement amount) of the displacement section 202 to present a smooth tactile sensation, or increase the resistance as the pushing amount increases. It is possible to present a tactile sensation that is hard and hard, or to present a tactile sensation that is crunchy by repeatedly increasing and decreasing the resistance.

また、第1実施形態における触覚提示装置2は、特定の姿勢になったことを検知すると触覚の提示処理を中断する。特定の姿勢に対応する傾きの情報を設定データとして情報処理装置1の記憶部11に記憶しておき、情報処理装置1及び触覚提示装置2で参照して用いる。特定の姿勢は例えば、変位部202の幅方向(左右方向)に90°以上倒した姿勢である。特定の姿勢はその他、変位部202の長さ方向に90°以上倒した姿勢であってもよい。特定の姿勢に加えて変位部202の変位の仕方又は触覚提示装置2に与えられる振動との組み合わせであってもよい。 Further, the tactile presentation device 2 in the first embodiment interrupts the tactile presentation process when detecting that the user is in a specific posture. Information on the inclination corresponding to a specific posture is stored in the storage unit 11 of the information processing device 1 as setting data, and is referred to and used by the information processing device 1 and the tactile presentation device 2. The specific posture is, for example, a posture in which the displacement portion 202 is tilted 90° or more in the width direction (left-right direction). In addition, the specific posture may be a posture tilted by 90 degrees or more in the length direction of the displacement section 202. In addition to a specific posture, the method of displacement of the displacement unit 202 or a combination of vibrations applied to the tactile presentation device 2 may be used.

図5及び図6は、触覚提示システム100における触覚提示の処理手順の一例を示すフローチャートである。情報処理装置1の処理部10は、操作者が制御プログラムP1を起動させ、触覚提示装置2の電源をONとすると、触覚提示装置2と連携して以下の処理を開始する。 5 and 6 are flowcharts illustrating an example of a tactile presentation processing procedure in the tactile presentation system 100. When the operator starts the control program P1 and turns on the power of the tactile presentation device 2, the processing unit 10 of the information processing device 1 starts the following process in cooperation with the tactile presentation device 2.

処理部10は、触覚を表示する対象物の候補のリストを含む操作画面を表示部に表示し(ステップS101)、対象物の選択を受け付ける(ステップS102)。処理部10は、選択された対象物の対象物IDに対応する触覚データ、視覚データ及び聴覚データを記憶部11の感覚DB110から読み出して一時記憶する(ステップS103)。 The processing unit 10 displays on the display unit an operation screen including a list of object candidates for which tactile sensation is to be displayed (step S101), and accepts selection of the object (step S102). The processing unit 10 reads the tactile data, visual data, and auditory data corresponding to the object ID of the selected object from the sensory DB 110 of the storage unit 11 and temporarily stores them (step S103).

処理部10は、触覚提示装置2と通信部12による通信を確立させ(ステップS104)、一時記憶した補正後の触覚データを、触覚提示装置2へ送信する(ステップS105)。処理部10は、設定データに含まれている触覚提示装置2の特定の姿勢の範囲のデータを触覚提示装置2へ送信する(ステップS106)。 The processing unit 10 establishes communication between the tactile presentation device 2 and the communication unit 12 (step S104), and transmits the temporarily stored corrected tactile data to the tactile presentation device 2 (step S105). The processing unit 10 transmits data on a specific posture range of the tactile presentation device 2 included in the setting data to the tactile presentation device 2 (step S106).

処理部10は、表示部13に触覚提示を開始することを表示させる(ステップS107)。 The processing unit 10 causes the display unit 13 to display that tactile presentation is to be started (step S107).

触覚提示装置2の制御部20は、触覚データを受信して記憶部21に記憶し(ステップS201)、特定の姿勢の範囲のデータを受信して記憶部21に記憶する(ステップS202)。 The control unit 20 of the tactile presentation device 2 receives tactile data and stores it in the storage unit 21 (step S201), and receives data on a specific posture range and stores it in the storage unit 21 (step S202).

制御部20は、角度センサ251から出力される変位部202の変位量(角度)に対応する信号をサンプリングする(ステップS203)。制御部20は、ジャイロセンサ252から出力させる触覚提示装置2の傾きを示す信号をサンプリングする(ステップS204)。 The control unit 20 samples a signal corresponding to the displacement amount (angle) of the displacement unit 202 output from the angle sensor 251 (step S203). The control unit 20 samples a signal indicating the tilt of the tactile presentation device 2 output from the gyro sensor 252 (step S204).

制御部20は、サンプリングにより得られた傾きが、ステップS202で記憶した特定の姿勢の範囲に含まれるか否かを判断する(ステップS205)。特定の範囲に含まれると判断された場合(S205:YES)、制御部20は、触覚の提示を中断することを情報処理装置1へ通知し(ステップS206)、処理をステップS203へ処理を戻す。 The control unit 20 determines whether the inclination obtained by sampling is included in the specific posture range stored in step S202 (step S205). If it is determined that it is within the specific range (S205: YES), the control unit 20 notifies the information processing device 1 that the presentation of the tactile sensation will be interrupted (step S206), and returns the process to step S203. .

特定の範囲に含まれないと判断された場合(S205:NO)、制御部20は、サンプリングにより得られた変位量及び傾きを、情報処理装置1へ送信し(ステップS207)、得られた変位量に対応する電流値を、記憶部21に記憶した触覚データから参照し(ステップS208)、参照した電流をMRFデバイス24へ出力し(ステップS209)、処理をステップS203へ戻す。ステップS203-S209の処理は、情報処理装置1側で終了させる操作がされるまで継続する。 If it is determined that it is not included in the specific range (S205: NO), the control unit 20 transmits the displacement amount and slope obtained by sampling to the information processing device 1 (step S207), and the obtained displacement The current value corresponding to the amount is referenced from the tactile data stored in the storage unit 21 (step S208), the referenced current is output to the MRF device 24 (step S209), and the process returns to step S203. The processing in steps S203 to S209 continues until an operation to end the processing is performed on the information processing device 1 side.

ステップS209において制御部20は、ステップS204で検知した傾きに応じて出力させる電流を変化させてもよい。例えば、姿勢が変位部202の長さ方向に前転するようなものとなっている場合には、出力電流を2倍にする、といった制御をしてもよい。 In step S209, the control unit 20 may change the current to be output according to the slope detected in step S204. For example, if the posture of the displacement unit 202 is such that it rolls forward in the length direction, the output current may be doubled.

情報処理装置1は、触覚提示装置2から触覚の提示の中断の通知を受信したか否かを判断する(ステップS108)。受信したと判断された場合(S108:YES)、処理部10は、表示部13に、触覚提示を中断することを表示し(ステップS109)、処理をステップS108へ戻す。ステップS109において処理部10は、表示部13をスリープ(表示の出力を消す)させるようにしてもよい。 The information processing device 1 determines whether a notification of interruption of tactile presentation has been received from the tactile presentation device 2 (step S108). If it is determined that it has been received (S108: YES), the processing unit 10 displays on the display unit 13 that the tactile presentation is to be interrupted (step S109), and returns the process to step S108. In step S109, the processing unit 10 may cause the display unit 13 to go to sleep (turn off the display output).

受信していないと判断された場合(S108:NO)、処理部10は、変位量及び傾きを受信し(ステップS110)、受信した変位量に対応する画像及び音声を記憶部11の視覚データ及び聴覚データから参照する(ステップS111)。処理部10は、視覚データ及び聴覚データそれぞれを表示部13及び音声出力部14から出力させ(ステップS112)、処理をステップS108へ戻す。触覚提示装置2から変位量が送信される都度、情報処理装置1は、それに対応する画像及び音声を出力する。 If it is determined that the displacement amount and the inclination have not been received (S108: NO), the processing unit 10 receives the displacement amount and the inclination (step S110), and stores the image and audio corresponding to the received displacement amount as the visual data and the storage unit 11. Reference is made from auditory data (step S111). The processing unit 10 outputs the visual data and the auditory data from the display unit 13 and the audio output unit 14 (step S112), and returns the process to step S108. Each time the amount of displacement is transmitted from the tactile presentation device 2, the information processing device 1 outputs an image and audio corresponding to the amount of displacement.

ステップS112において処理部10は、ステップS110で受信した傾きに応じて画像や音声を変化させて出力させてもよい。 In step S112, the processing unit 10 may change and output images and sounds according to the tilt received in step S110.

処理部10は、終了操作がされたか否かを判断する(ステップS113)。終了操作がされていないと判断された場合(S113:NO)、処理をステップS108へ戻し、ステップS108-S113の処理を繰り返す。 The processing unit 10 determines whether a termination operation has been performed (step S113). If it is determined that the end operation has not been performed (S113: NO), the process returns to step S108, and the processes of steps S108-S113 are repeated.

終了操作がされたと判断された場合(S113:YES)、と処理部10は、表示を終了して触覚提示装置2との通信を切断し(ステップS114)、処理を終了する。 If it is determined that the end operation has been performed (S113: YES), the processing unit 10 ends the display, disconnects communication with the tactile presentation device 2 (step S114), and ends the process.

図7は、触覚提示システム100における触覚提示の例を示す概要図である。図7には、触覚提示装置2に送信される触覚データにおける変位量に対応して表示部13に表示される画像の変化及び音声の変化を示す。図7に示すように、変位部202の押し込み量に応じて、画像が変化し、触覚に対応する凹み方が変わる。図7に示すように、画像中に、操作者の指の画像を表示する場合、接触、即ちMRFデバイス24へ出力する初期位置(変位量がゼロ)の場所から、画像における対象物に接触する指の画像が表示されるようにしてもよい。 FIG. 7 is a schematic diagram showing an example of tactile presentation in the tactile presentation system 100. FIG. 7 shows changes in images and sounds displayed on the display unit 13 in response to the amount of displacement in the tactile data sent to the tactile presentation device 2. As shown in FIG. 7, the image changes depending on the amount of depression of the displacement part 202, and the way the dent corresponds to the tactile sensation changes. As shown in FIG. 7, when displaying an image of the operator's finger in the image, contact, that is, contact with the target object in the image from the initial position (displacement amount is zero) output to the MRF device 24. An image of a finger may also be displayed.

第1実施形態では、図7中の最下部に示すように、触覚提示装置2が変位部202の幅方向に90°以上倒された姿勢となると、触覚提示装置2における触覚の提示が中断されるとともに、画像及び音声の出力も中断される。操作者は、その姿勢では触覚提示装置2で触覚の提示がされないように制御されることを認識し、触覚提示がされる範囲内で自身が操作しやすい姿勢で触覚提示装置2を使用する。 In the first embodiment, as shown at the bottom of FIG. 7, when the tactile presentation device 2 is tilted over 90 degrees in the width direction of the displacement section 202, the presentation of the tactile sensation in the tactile presentation device 2 is interrupted. At the same time, image and audio output is also interrupted. The operator recognizes that the tactile presentation device 2 is controlled so as not to present the tactile sensation in that posture, and uses the tactile presentation device 2 in a posture that is easy for the operator to operate within the range in which the tactile sensation is presented.

このように、触覚提示装置2から出力される触覚を、触覚提示装置2の姿勢に応じて中断することで、操作者が触覚提示装置2を適切に使用することができ、操作者による知覚度が向上する。 In this way, by interrupting the tactile sensation output from the tactile presentation device 2 depending on the posture of the tactile presentation device 2, the operator can use the tactile presentation device 2 appropriately, and the perception level by the operator can be improved. will improve.

(第2実施形態)
第2実施形態では、触覚提示装置2に搭載されているジャイロセンサ252を用い、触覚提示装置2の変位部202の変位量のみならず、姿勢によって触覚提示装置2にて提示される触覚を変更する。
(Second embodiment)
In the second embodiment, the gyro sensor 252 installed in the tactile presentation device 2 is used to change the tactile sensation presented by the tactile presentation device 2 depending on not only the amount of displacement of the displacement section 202 of the tactile presentation device 2 but also the posture. do.

図8は、第2実施形態における触覚データの内容例を示す。図8に示すように、第2実施形態では、感触DB110における触覚データは、対象物IDに対応付けて、姿勢別に、変位部202の変位量(角度)毎の触覚提示装置2のMRFデバイスへの電流の電流値を触覚データとして格納している。視覚データ及び聴覚データについても同様に、姿勢別に記憶されているとよい。 FIG. 8 shows an example of the content of tactile data in the second embodiment. As shown in FIG. 8, in the second embodiment, the tactile data in the tactile DB 110 is sent to the MRF device of the tactile presentation device 2 for each displacement amount (angle) of the displacement unit 202 in association with the object ID. The current value of the current is stored as tactile data. Similarly, visual data and auditory data may also be stored for each posture.

図8に示したような姿勢別の触覚データを用いた制御について説明する。図9及び図10は、第2実施形態における触覚提示の処理手順の一例を示すフローチャートである。図9及び図10のフローチャートに示す処理手順のうち、第1実施形態における図5及び図6のフローチャートに示した処理手順と共通する手順については同一のステップ番号を付して詳細な説明を省略する。 Control using tactile data for each posture as shown in FIG. 8 will be described. 9 and 10 are flowcharts illustrating an example of a tactile presentation processing procedure in the second embodiment. Among the processing procedures shown in the flowcharts of FIGS. 9 and 10, the same steps as those shown in the flowcharts of FIGS. 5 and 6 in the first embodiment are given the same step numbers and detailed explanations are omitted. do.

処理部10は、ステップS102で受け付けた対象物の対象物IDに対応する姿勢別の触覚データ、視覚データ及び聴覚データを記憶部11の感覚DB110から読み出して一時記憶する(ステップS123)。 The processing unit 10 reads the posture-specific tactile data, visual data, and auditory data corresponding to the object ID of the object received in step S102 from the sensory DB 110 of the storage unit 11 and temporarily stores them (step S123).

通信接続が確立されると、処理部10は、姿勢別の触覚データを触覚提示装置2へ送信し(ステップS125)、特定の姿勢の範囲のデータも送信する(S106)。 When the communication connection is established, the processing unit 10 transmits tactile data for each posture to the tactile presentation device 2 (step S125), and also transmits data for a specific posture range (S106).

触覚提示装置2では、制御部20が姿勢別の触覚データを受信して記憶し(ステップS221)、以後用いる。制御部20は、変位量及び傾きをサンプリングし(S203,S204)、傾きが特定の範囲に含まれないと判断した場合(S205:NO)、姿勢に対応する触覚データから、検知した変位量に対応する電流値を参照する(ステップS228)。制御部20は、参照した電流値の電流をMRFデバイス24へ出力し(S209)、処理をステップS203へ戻す。 In the tactile presentation device 2, the control unit 20 receives and stores the tactile data for each posture (step S221), and uses it thereafter. The control unit 20 samples the displacement amount and the inclination (S203, S204), and if it is determined that the inclination is not included in the specific range (S205: NO), the control unit 20 samples the detected displacement amount from the tactile data corresponding to the posture. The corresponding current value is referred to (step S228). The control unit 20 outputs the current having the referenced current value to the MRF device 24 (S209), and returns the process to step S203.

情報処理装置1において処理部10は、変位量及び傾きを受信すると(S101)、受信した傾きに対応する姿勢及び変位量の視覚データ及び聴覚データを参照し(ステップS131)、参照した視覚データ及び聴覚データに基づいて画像及び音声を出力する(S112)。 When the processing unit 10 in the information processing device 1 receives the displacement amount and inclination (S101), it refers to the visual data and auditory data of the posture and displacement amount corresponding to the received inclination (step S131), and calculates the referenced visual data and Images and audio are output based on the auditory data (S112).

図11は、第2実施形態における触覚提示システム100における触覚提示の例を示す概要図である。図11には、第1実施形態と同様に、触覚提示装置2に送信される触覚データにおける変位量に対応して表示部13に表示される画像の変化及び音声の変化を示す。図11に示すように、変位部202の押し込み量に応じて、画像が変化し、触覚に対応する凹み方が変わる。画像中に、操作者の指の画像を表示する場合、接触、即ちMRFデバイス24へ出力する初期位置(変位量がゼロ)の場所から、画像における対象物に接触する指の画像が表示されるようにしてもよい。 FIG. 11 is a schematic diagram showing an example of tactile presentation in the tactile presentation system 100 according to the second embodiment. Similar to the first embodiment, FIG. 11 shows changes in images and sounds displayed on the display unit 13 in response to the amount of displacement in the tactile data transmitted to the tactile presentation device 2. As shown in FIG. 11, the image changes depending on the amount of depression of the displacement portion 202, and the way the depression corresponds to the tactile sensation changes. When displaying an image of the operator's finger in the image, the image of the finger touching the object in the image is displayed from the initial position (displacement amount is zero) of contact, that is, output to the MRF device 24. You can do it like this.

そして第2実施形態においては、図11に示すように、触覚提示装置2の姿勢が60°以上傾いているか否かによって、感触及び表示される画像が変更される。図11の例では、上から潰した感触と、横から触った感触とで変更されている。指の画像の角度も変更している。このように、触覚提示装置2の変位部202の変位量に、更に、触覚提示装置2自体の姿勢を組み合わせることで、触覚の知覚度をより向上させることができる。 In the second embodiment, as shown in FIG. 11, the feel and the displayed image are changed depending on whether the posture of the tactile presentation device 2 is tilted by 60 degrees or more. In the example shown in FIG. 11, the feeling of being crushed from above and the feeling of being touched from the side are changed. The angle of the finger image has also been changed. In this way, by further combining the displacement amount of the displacement unit 202 of the tactile presentation device 2 with the attitude of the tactile presentation device 2 itself, the perceptibility of the tactile sense can be further improved.

(第3実施形態)
第3実施形態では、HMD(Head Mounted Display)を用い、対象物に対する視覚情報を三次元画像で提示する。図12は、第3実施形態における触覚提示システム100の概要図であり、図13は、HMD3の構成を示すブロック図である。第3実施形態における触覚提示システム100の構成は、HMD3を用いることと、HMD3を用いることによる詳細な処理の内容が異なること以外は、第1実施形態における触覚提示システム100と同様の構成である。したがって、第3実施形態の触覚提示システム100の構成のうち、第1実施形態の触覚提示システム100と共通する構成については同一の符号を付して詳細な説明を省略する。
(Third embodiment)
In the third embodiment, an HMD (Head Mounted Display) is used to present visual information regarding an object as a three-dimensional image. FIG. 12 is a schematic diagram of the tactile presentation system 100 in the third embodiment, and FIG. 13 is a block diagram showing the configuration of the HMD 3. The configuration of the tactile presentation system 100 in the third embodiment is the same as that of the tactile presentation system 100 in the first embodiment, except that the HMD 3 is used and the details of the processing by using the HMD 3 are different. . Therefore, among the configurations of the tactile presentation system 100 of the third embodiment, the same components as those of the tactile presentation system 100 of the first embodiment are given the same reference numerals, and detailed description thereof will be omitted.

HMD3は、表示部31、動き検知部32、空間検知部33、及び接続部34を備える。HMD3は、本体に、表示部31、動き検知部32、空間検知部33及び接続部34を設けてもよいし、一部は別体に設けられて相互に通信媒体を介して制御信号を授受できるようにしてあってもよい。HMD3は、情報処理装置1の機能を有して一体に構成されてもよい。 The HMD 3 includes a display section 31, a motion detection section 32, a space detection section 33, and a connection section 34. The HMD 3 may be provided with a display section 31, a motion detection section 32, a space detection section 33, and a connection section 34 in the main body, or some may be provided separately and mutually exchange control signals via a communication medium. It may be possible to do so. The HMD 3 may have the functions of the information processing device 1 and be configured integrally.

表示部31は例えば、小型の液晶ディスプレイ、光学レンズ及び光学系機構を備え、視野角110°以上で三次元画像を表示することが可能である。表示部31は、透明又は半透明のグラス状のディスプレイであり、操作者の実際の視界に、情報処理装置1から出力される画像信号(映像信号を含む)を受け付けて重畳表示させる。表示部31はグラス状のものに限られず、前方に向けて設けられたカメラにて実空間を撮影した画像に、情報処理装置1から出力される画像信号に基づく画像を重畳表示させるものであってもよい。 The display unit 31 includes, for example, a small liquid crystal display, an optical lens, and an optical system mechanism, and is capable of displaying a three-dimensional image at a viewing angle of 110° or more. The display unit 31 is a transparent or semi-transparent glass-like display, and receives an image signal (including a video signal) output from the information processing device 1 and displays it in a superimposed manner in the operator's actual field of view. The display section 31 is not limited to a glass-like one, and may display an image based on an image signal output from the information processing device 1 superimposed on an image taken of real space by a camera provided facing forward. It's okay.

動き検知部32は、本体(表示部31のカバー及び装着ベルト)の各所に、多様な向きで設けられた複数の三軸加速度センサ及びジャイロセンサと、これらのセンサ群からの信号を集約して出力する制御回路とを備える。動き検知部32により、装着者の頭部の動きが検知される。 The motion detection unit 32 includes a plurality of triaxial acceleration sensors and gyro sensors installed in various directions on the main body (the cover of the display unit 31 and the attachment belt), and aggregates signals from a group of these sensors. and a control circuit that outputs the output. The movement detection unit 32 detects the movement of the wearer's head.

空間検知部33は、本体の外面に外向きに並設された2つ以上の赤外線カメラと、該赤外線カメラの中間位置に同様に外向きに赤外線を照射するように設けられた赤外線LEDとを用いる。空間検知部33は、HMD3の本体の外側に存在する物体までの距離を測定する深度センサとして機能する。空間検知部33は、HMD3本体から、HMD3を装着する操作者の居場所における壁、床等の静物に対する距離を測り、出力することが可能である。空間検知部33は同様に、HMD3本体から操作者の腕、手、指までの距離を測定し、出力することが可能である。 The space detection unit 33 includes two or more infrared cameras arranged outwardly in parallel on the outer surface of the main body, and an infrared LED disposed at an intermediate position between the infrared cameras so as to similarly emit infrared rays outward. use The space detection unit 33 functions as a depth sensor that measures the distance to an object that exists outside the main body of the HMD 3. The space detection unit 33 can measure and output the distance from the HMD 3 main body to a still object such as a wall or floor in the location of the operator wearing the HMD 3. Similarly, the space detection unit 33 can measure and output the distance from the HMD 3 main body to the operator's arm, hand, and finger.

接続部34は、情報処理装置1と接続するためのインタフェースである。HMD3は、動き検知部32及び空間検知部33にて測定された結果に対応する信号をそれぞれ、情報処理装置1へ出力すると共に、情報処理装置1から出力される映像信号を取得して表示部31に表示させる。 The connection unit 34 is an interface for connecting to the information processing device 1. The HMD 3 outputs signals corresponding to the results measured by the motion detection unit 32 and the space detection unit 33 to the information processing device 1, and also acquires the video signal output from the information processing device 1 and displays it on the display unit. 31.

HMD3にスピーカを設け、情報処理装置1の音声出力部14から出力される音声をスピーカにて出力させるようにしてもよい。 The HMD 3 may be provided with a speaker, and the audio output from the audio output unit 14 of the information processing device 1 may be output from the speaker.

上述したような構成の第3実施形態の触覚提示システム100において情報処理装置1は、HMD3を用い、空間検知部33で測定された実空間における静物に対する距離を用い、仮想的な対象物の三次元画像を、動き検知部32にて検知される操作者の動きに合わせて重畳表示し、AR表示を実現する。対象物の選択は、HMD3の表示部31に表示される仮想的対象物の三次元画像の画像内の座標(実空間と合致した座標)に対し、空間検知部33により、触覚提示装置2を把持した手指を重ねたことが検知できた場合に、これを選択したものとして情報処理装置1の処理部10が検知する。 In the haptic presentation system 100 of the third embodiment configured as described above, the information processing device 1 uses the HMD 3 and the distance to the still object in the real space measured by the space detection unit 33 to determine the three-dimensional shape of the virtual object. The original image is superimposed and displayed in accordance with the operator's movement detected by the movement detection unit 32 to realize AR display. To select an object, the space detection section 33 uses the tactile presentation device 2 to select the coordinates in the three-dimensional image of the virtual object displayed on the display section 31 of the HMD 3 (coordinates that match the real space). When it is detected that the gripped fingers are overlapped, the processing unit 10 of the information processing device 1 detects this as being selected.

そして第3実施形態でも、情報処理装置1は、触覚提示装置2との間で変位量及び傾きのデータを授受して、AR表示される画像と触覚提示装置2にて出力される触覚を制御する。処理の内容は第1実施形態及び第2実施形態にて示した処理のいずれを実行してもよい。 In the third embodiment as well, the information processing device 1 sends and receives displacement and tilt data to and from the tactile presentation device 2 to control the image displayed in AR and the tactile sensation output by the tactile presentation device 2. do. The content of the process may be any of the processes shown in the first embodiment and the second embodiment.

HMD3を用いたAR表示と触覚提示装置2とを組み合わせることにより、実空間に対象物を仮想的に配置した画像を、操作者は視覚的に観察しながら、その対象物の感触を触覚提示装置2で覚えることが可能である。その際に、第1実施形態にて説明したものと同様に、触覚提示装置2における触覚提示開始位置を、操作者それぞれに応じて補正することができることで、更に知覚度を向上させることができる。 By combining AR display using the HMD 3 and the tactile presentation device 2, the operator can visually observe an image in which the object is virtually placed in real space, and feel the touch of the object using the tactile presentation device. It is possible to memorize it in 2. At this time, similar to what was explained in the first embodiment, the tactile presentation start position in the tactile presentation device 2 can be corrected according to each operator, thereby further improving the degree of perception. .

上述のように開示された実施の形態は全ての点で例示であって、制限的なものではない。本発明の範囲は、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内での全ての変更が含まれる。 The embodiments disclosed above are illustrative in all respects and are not restrictive. The scope of the present invention is indicated by the claims, and includes all changes within the meaning and range equivalent to the claims.

1 情報処理装置
10 処理部
11 記憶部
13 表示部
130 設定画面
P1 制御プログラム
2 触覚提示装置
20 制御部
21 記憶部
202 変位部
24 MRFデバイス
25 センサ
251 角度センサ
252 ジャイロセンサ
1 Information processing device 10 Processing section 11 Storage section 13 Display section 130 Setting screen P1 Control program 2 Tactile presentation device 20 Control section 21 Storage section 202 Displacement section 24 MRF device 25 Sensor 251 Angle sensor 252 Gyro sensor

Claims (6)

操作者の操作に対して変位可能に設けられた変位部を有し、変位部の変位量に応じて、前記変位部への操作に対する力覚を生じさせ、表示される対象物の触覚を提示する触覚提示装置の制御装置であって、
前記変位部の変位量に対応付けて、前記力覚を生じさせる制御データと、制御データによる触覚の提示内容を変更する前記触覚提示装置の姿勢のデータとを、前記対象物毎に記憶しておき、
前記触覚提示装置の姿勢に応じて、前記力覚を生じさせる制御データを変更する
制御装置。
It has a displacement part that is displaceable in response to an operation by an operator, and generates a force sensation in response to the operation on the displacement part according to the amount of displacement of the displacement part, and presents a tactile sensation of the displayed object. A control device for a tactile presentation device, comprising:
Control data for generating the force sensation and posture data of the tactile sensation presentation device for changing the presentation content of the tactile sensation based on the control data are stored for each of the objects in association with the displacement amount of the displacement portion. Ok,
A control device that changes control data for generating the force sensation according to a posture of the tactile sensation presentation device.
前記触覚提示装置の姿勢が特定の姿勢である場合、前記触覚提示装置による触覚の提示を中断させる
請求項1に記載の制御装置。
The control device according to claim 1, wherein when the posture of the tactile sensation presentation device is a specific posture, presentation of the tactile sensation by the tactile sensation presentation device is interrupted.
前記対象物毎に、前記触覚提示装置の姿勢別に、前記変位部の変位量に対応付けて前記力覚を生じさせる制御データを記憶しておき、
前記姿勢別の、制御データを前記触覚提示装置へ出力する
請求項2に記載の制御装置。
For each object, for each posture of the tactile sensation presentation device, control data for causing the force sensation is stored in association with a displacement amount of the displacement portion,
The control device according to claim 2, wherein control data for each posture is output to the tactile presentation device.
操作者の操作に対して変位可能に設けられた変位部を有し、変位部の変位量に応じて、前記変位部への操作に対する力覚を生じさせ、表示される対象物の触覚を提示する触覚提示装置の制御方法であって、
前記触覚提示装置に接続されるコンピュータが、
前記変位部の変位量に対応付けて、前記力覚を生じさせる制御データと、制御データによる触覚の提示内容を変更する前記触覚提示装置の姿勢のデータとを、前記対象物毎に記憶しておき、
前記触覚提示装置の姿勢に応じて、前記力覚を生じさせる制御データを変更する
処理を含む制御方法。
It has a displacement part that is displaceable in response to an operation by an operator, and generates a force sensation in response to the operation on the displacement part according to the amount of displacement of the displacement part, and presents a tactile sensation of the displayed object. A method for controlling a tactile presentation device, comprising:
A computer connected to the tactile presentation device,
Control data for generating the force sensation and posture data of the tactile sensation presentation device for changing the presentation content of the tactile sensation based on the control data are stored for each of the objects in association with the displacement amount of the displacement portion. Ok,
A control method including a process of changing control data for generating the force sensation according to a posture of the tactile sensation presentation device.
操作者の操作に対して変位可能に設けられた変位部を有し、変位部の変位量に応じて、前記変位部への操作に対する力覚を生じさせ、表示される対象物の触覚を提示する触覚提示装置と、
前記触覚提示装置と通信接続し、表示部を備える情報処理装置と
を含み、
前記触覚提示装置は、姿勢を検知するセンサを更に備え、
前記情報処理装置は、
前記変位部の変位量に対応付けて、前記力覚を生じさせる制御データと、制御データによる触覚の提示内容を変更する前記触覚提示装置の姿勢のデータとを、前記対象物毎に記憶しておき、
前記触覚提示装置の前記センサにて検知される姿勢に応じて、前記力覚を生じさせる制御データを変更し、
前記センサから得られる姿勢及び前記変位部の変位量に応じて前記表示部に画像を出力する
触覚提示システム。
It has a displacement part that is displaceable in response to an operation by an operator, and generates a force sensation in response to the operation on the displacement part according to the amount of displacement of the displacement part, and presents a tactile sensation of the displayed object. a tactile presentation device that
an information processing device that is communicatively connected to the tactile presentation device and includes a display unit;
The tactile presentation device further includes a sensor that detects posture,
The information processing device includes:
Control data for generating the force sensation and posture data of the tactile sensation presentation device for changing the presentation content of the tactile sensation based on the control data are stored for each of the objects in association with the displacement amount of the displacement portion. Ok,
changing control data that causes the force sensation according to the posture detected by the sensor of the tactile presentation device;
A tactile presentation system that outputs an image to the display unit according to a posture obtained from the sensor and a displacement amount of the displacement unit.
操作者の操作に対して変位可能に設けられた変位部を有し、変位部の変位量に応じて、前記変位部への操作に対する力覚を生じさせ、表示される対象物の触覚を提示する触覚提示装置に接続されるコンピュータに、
前記変位部の変位量に対応付けて、前記力覚を生じさせる制御データと、制御データによる触覚の提示内容を変更する前記触覚提示装置の姿勢のデータとを、前記対象物毎に記憶しておき、
前記触覚提示装置の姿勢に応じて、前記力覚を生じさせる制御データを変更する
処理を実行させるコンピュータプログラム。
It has a displacement part that is displaceable in response to an operation by an operator, and generates a force sensation in response to the operation on the displacement part according to the amount of displacement of the displacement part, and presents a tactile sensation of the displayed object. a computer connected to a tactile presentation device that
Control data for generating the force sensation and posture data of the tactile sensation presentation device for changing the presentation content of the tactile sensation based on the control data are stored for each of the objects in association with the displacement amount of the displacement portion. Ok,
A computer program that causes a computer program to execute a process of changing control data that causes the force sensation according to a posture of the tactile sensation presentation device.
JP2022057119A 2022-03-30 2022-03-30 Control device, control method, haptic feedback system, and computer program Pending JP2023148854A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022057119A JP2023148854A (en) 2022-03-30 2022-03-30 Control device, control method, haptic feedback system, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022057119A JP2023148854A (en) 2022-03-30 2022-03-30 Control device, control method, haptic feedback system, and computer program

Publications (1)

Publication Number Publication Date
JP2023148854A true JP2023148854A (en) 2023-10-13

Family

ID=88288879

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022057119A Pending JP2023148854A (en) 2022-03-30 2022-03-30 Control device, control method, haptic feedback system, and computer program

Country Status (1)

Country Link
JP (1) JP2023148854A (en)

Similar Documents

Publication Publication Date Title
US10248210B2 (en) Systems and methods for haptically-enabled conformed and multifaceted displays
US9013264B2 (en) Multipurpose controller for electronic devices, facial expressions management and drowsiness detection
JP6328448B2 (en) User interface device with surface tactile sensation
US20170212589A1 (en) Providing fingertip tactile feedback from virtual objects
CN109840022A (en) For providing the system and method for touch feedback according to based on inclined input
US20190155387A1 (en) Haptic Accessory Apparatus
US11880528B2 (en) Stimulus transmission device
US20230142242A1 (en) Device for Intuitive Dexterous Touch and Feel Interaction in Virtual Worlds
JP2007026297A (en) Vibration controller, temperature controller and movement controller
JP2023148854A (en) Control device, control method, haptic feedback system, and computer program
WO2023189425A1 (en) Control device, control method, haptic feedback system, and program product
WO2023189422A1 (en) Control device, control method, haptic presentation system, and program product
JP2014041520A (en) Input device, input system, electronic apparatus, and sense presentation method
JP2023148853A (en) Control device, control method, haptic feedback system, and computer program
WO2023189423A1 (en) Control device, control method, tactile sense presentation system, and program product
WO2021176861A1 (en) Information processing device and information processing method, computer program, and augmented reality sensing system
US11003247B1 (en) Deployable controller
JP6428629B2 (en) Tactile sensation presentation device, information terminal, haptic presentation method, and program
KR20140106309A (en) Input device for virual reality having the fuction of forth-feedback
JP5978828B2 (en) Haptic presentation device, haptic presentation method, and haptic presentation system
Martínez et al. The sense of touch as the last frontier in virtual reality technology