JP2023148853A - Control device, control method, haptic feedback system, and computer program - Google Patents

Control device, control method, haptic feedback system, and computer program Download PDF

Info

Publication number
JP2023148853A
JP2023148853A JP2022057118A JP2022057118A JP2023148853A JP 2023148853 A JP2023148853 A JP 2023148853A JP 2022057118 A JP2022057118 A JP 2022057118A JP 2022057118 A JP2022057118 A JP 2022057118A JP 2023148853 A JP2023148853 A JP 2023148853A
Authority
JP
Japan
Prior art keywords
displacement
displacement amount
control data
tactile
starting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022057118A
Other languages
Japanese (ja)
Inventor
修一 赤岩
Shuichi Akaiwa
慶介 木野井
Keisuke Kinoi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kurimoto Ltd
Original Assignee
Kurimoto Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kurimoto Ltd filed Critical Kurimoto Ltd
Priority to JP2022057118A priority Critical patent/JP2023148853A/en
Publication of JP2023148853A publication Critical patent/JP2023148853A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a control device, a control method, a haptic feedback system, and a computer program, for reducing processing load in a haptic feedback device.SOLUTION: A control device is for a haptic feedback device having a displacement unit that is provided to be displaced in response to an operation by an operator. The haptic feedback device is configured to generate a force sense for operation on the displacement unit according to a displacement amount of the displacement unit and present a haptic sensation of a displayed object. A start displacement amount for starting presentation of the force sense in the displacement unit and control data for generating the force sense associated with a relative displacement amount from the start displacement amount are stored in advance for each object. On the basis of a start displacement amount corresponding to a selected object and control data for each relative displacement amount, the stored control data is converted into control data associated with an absolute displacement amount of the displacement unit, to output the converted control data to the haptic feedback device.SELECTED DRAWING: Figure 3

Description

本発明は、触覚提示装置にて提示される触覚の知覚度を向上させる制御装置、制御方法、触覚提示システム及びコンピュータプログラムに関する。 The present invention relates to a control device, a control method, a tactile presentation system, and a computer program that improve the perceptibility of tactile sensations presented by a tactile presentation device.

人間の五感のうち、視覚及び聴覚に係る画像及び音声の伝達技術が高精度化しており、昨今では、触覚を提示する技術(ハプティクス)が種々提案されている。 2. Description of the Related Art Among the five human senses, image and audio transmission technologies related to visual and auditory senses are becoming more precise, and in recent years, various technologies for presenting tactile sensations (haptics) have been proposed.

触覚の提示技術としては、タッチパネル内蔵のディスプレイに表示された物体の画像に触れた際の振動、主に三種の振動(ERM:Eccentric Rotating Mass 、LRA:Linear resonant Actuator、ピエゾ素子)での再現が提案されている。しかしながらタッチパネル上での触覚提示では、より深部での触覚、つまり手指の皮膚のみならず、筋や腱で生じる力覚まで再現することは困難である。 Tactile presentation technology uses mainly three types of vibrations (ERM: Eccentric Rotating Mass, LRA: Linear resonant actuator, piezo element) to reproduce the vibrations that occur when touching an image of an object displayed on a display with a built-in touch panel. Proposed. However, when presenting tactile sensations on a touch panel, it is difficult to reproduce deeper tactile sensations, that is, not only the skin of fingers but also the force sensations generated in muscles and tendons.

発明者らは、磁気粘性流体に対する知見に基づいて、操作者が操作可能であって、対象物によって異なる感触を再現する触覚提示装置を提案した(特許文献1等)。 Based on knowledge of magnetorheological fluids, the inventors have proposed a tactile presentation device that can be operated by an operator and reproduces different sensations depending on the object (Patent Document 1, etc.).

特許第6906275号Patent No. 6906275

触覚提示装置は、操作者の手に装着できるコンパクトな構成を有し、その構成は簡易であることが望ましい。また、感触であるから制御のレスポンススピードが高いことが望ましい。 It is desirable that the tactile presentation device has a compact configuration that can be worn on an operator's hand, and that the configuration is simple. Furthermore, since it is a tactile control, it is desirable that the response speed of the control is high.

本発明は、斯かる事情を鑑みてなされたものであり、触覚提示装置における処理負荷を軽減させる制御装置、制御方法、触覚提示システム及びコンピュータプログラムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and aims to provide a control device, a control method, a tactile presentation system, and a computer program that reduce the processing load on a tactile presentation device.

本開示の一実施形態の制御装置は、操作者の操作に対して変位可能に設けられた変位部を有し、変位部の変位量に応じて、前記変位部への操作に対する力覚を生じさせ、表示される対象物の触覚を提示する触覚提示装置の制御装置であって、前記変位部にて前記力覚の提示を開始する開始変位量と、前記開始変位量からの相対変位量に対応付けた前記力覚を生じさせるための制御データとを、前記対象物毎に記憶しておき、選択された対象物に対応する開始変位量と、前記相対変位量毎の制御データとに基づき、前記記憶されてある制御データを、前記変位部の絶対変位量に対応付けた制御データに変換し、変換後の制御データを、前記触覚提示装置へ出力する。 A control device according to an embodiment of the present disclosure includes a displacement section that is displaceable in response to an operation by an operator, and generates a force sensation in response to an operation on the displacement section according to the amount of displacement of the displacement section. A control device for a tactile presentation device that presents a tactile sensation of an object to be displayed, the control device comprising: a starting displacement amount at which the displacement unit starts presenting the haptic sensation; and a relative displacement amount from the starting displacement amount. Control data for producing the associated force sensation is stored for each object, and based on the starting displacement amount corresponding to the selected object and the control data for each relative displacement amount. , converting the stored control data into control data associated with the absolute displacement amount of the displacement section, and outputting the converted control data to the tactile presentation device.

本開示の一実施形態の制御方法は、操作者の操作に対して変位可能に設けられた変位部を有し、変位部の変位量に応じて、前記変位部への操作に対する力覚を生じさせ、表示される対象物の触覚を提示する触覚提示装置の制御方法であって、前記触覚提示装置に接続されるコンピュータが、前記変位部にて前記力覚の提示を開始する開始変位量と、前記開始変位量からの相対変位量に対応付けた前記力覚を生じさせるための制御データとを、前記対象物毎に記憶しておき、選択された対象物に対応する開始変位量と、前記相対変位量毎の制御データとに基づき、前記記憶されてある制御データを、前記変位部の絶対変位量に対応付けた制御データに変換し、変換後の制御データを、前記触覚提示装置へ出力する。 A control method according to an embodiment of the present disclosure includes a displacement section that is displaceable in response to an operation by an operator, and generates a force sensation in response to an operation on the displacement section according to a displacement amount of the displacement section. A method for controlling a tactile sense presentation device that presents a tactile sense of a displayed object by controlling the tactile sense presentation device, wherein a computer connected to the tactile sense presentation device determines a starting displacement amount at which the displacement portion starts presenting the haptic sense. , control data for generating the force sensation associated with a relative displacement amount from the starting displacement amount are stored for each object, and a starting displacement amount corresponding to the selected object; Converting the stored control data into control data associated with the absolute displacement amount of the displacement portion based on the control data for each relative displacement amount, and transmitting the converted control data to the tactile presentation device. Output.

本開示の一実施形態のコンピュータプログラムは、操作者の操作に対して変位可能に設けられた変位部を有し、変位部の変位量に応じて、前記変位部への操作に対する力覚を生じさせ、表示される対象物の触覚を提示する触覚提示装置に接続されるコンピュータに、前記変位部にて前記力覚の提示を開始する開始変位量と、前記開始変位量からの相対変位量に対応付けた前記力覚を生じさせるための制御データとを、前記対象物毎に記憶しておき、選択された対象物に対応する開始変位量と、前記相対変位量毎の制御データとに基づき、前記記憶されてある制御データを、前記変位部の絶対変位量に対応付けた制御データに変換し、変換後の制御データを、前記触覚提示装置へ出力する。 A computer program according to an embodiment of the present disclosure includes a displacement section that is displaceable in response to an operation by an operator, and generates a force sensation in response to an operation on the displacement section according to a displacement amount of the displacement section. and a computer connected to a tactile presentation device that presents a tactile sensation of the object to be displayed, a starting displacement amount at which the displacement unit starts presenting the haptic sensation, and a relative displacement amount from the starting displacement amount. Control data for producing the associated force sensation is stored for each object, and based on the starting displacement amount corresponding to the selected object and the control data for each relative displacement amount. , converting the stored control data into control data associated with the absolute displacement amount of the displacement section, and outputting the converted control data to the tactile presentation device.

本開示の制御装置、制御方法及びコンピュータプログラムでは、変位部が所定の変位量まで変位した場合に、力覚を提示し始める、その所定の変位量を開始変位量として記憶している。また、本開示の制御装置では、その開始変位量からの相対的な変位量に対応付けて、対象物の感触を提示するための制御データが記憶されている。これにより、記憶しておくデータ量を少なくすることができる。 In the control device, control method, and computer program of the present disclosure, when the displacement portion is displaced to a predetermined displacement amount, the predetermined displacement amount at which a force sensation starts to be presented is stored as the start displacement amount. Further, in the control device of the present disclosure, control data for presenting the feel of the object is stored in association with the relative displacement amount from the starting displacement amount. This allows the amount of data to be stored to be reduced.

本開示の一実施形態の制御装置では、前記制御データは、前記対象物の触覚の提示範囲外に対応する変位量のデータを含まない。 In the control device according to an embodiment of the present disclosure, the control data does not include data on a displacement amount corresponding to a region outside the tactile sense presentation range of the object.

本開示の制御装置では、制御データは、開始変位量からの相対的な変位量においても、力覚を生じさせない範囲、即ち対象物の感触が発せられる範囲外の変位量のデータ及びそれに対応する制御データは含まれない。これにより、データがコンパクト化される。 In the control device of the present disclosure, the control data includes the data of the displacement amount in a range that does not cause a force sensation even in the relative displacement amount from the starting displacement amount, that is, outside the range where the touch of the object is emitted, and the data corresponding to the displacement amount. Control data is not included. This compacts the data.

本開示の一実施形態の制御装置は、前記相対変位量に対応付けられて記憶されている制御データ、及び、前記開始変位量の少なくともいずれか一方の調整を受け付ける。 A control device according to an embodiment of the present disclosure receives adjustment of at least one of control data stored in association with the relative displacement amount and the start displacement amount.

本開示の一実施形態の触覚提示システムは、操作者の操作に対して変位可能に設けられた変位部を有し、変位部の変位量に応じて、前記変位部への操作に対する力覚を生じさせ、表示される対象物の触覚を提示する触覚提示装置と、前記触覚提示装置と通信接続し、表示部を備える情報処理装置とを含み、前記情報処理装置は、前記変位部にて前記力覚の提示を開始する開始変位量と、前記開始変位量からの相対変位量に対応付けた前記力覚を生じさせるための制御データとを、前記対象物毎に記憶しておき、選択された対象物に対応する開始変位量と、前記相対変位量毎の制御データとに基づき、前記記憶されてある制御データを、前記変位部の絶対変位量に対応付けた制御データに変換し、変換後の制御データを、前記触覚提示装置へ出力し、視覚データに基づき、前記変位部の変位量に応じて前記表示部に画像を出力する。 A tactile presentation system according to an embodiment of the present disclosure includes a displacement section that is displaceable in response to an operation by an operator, and generates a force sensation in response to an operation on the displacement section according to the amount of displacement of the displacement section. a tactile presentation device that generates and presents a tactile sensation of an object to be displayed, and an information processing device that is communicatively connected to the tactile presentation device and includes a display section, the information processing device that A starting displacement amount for starting presentation of a force sensation and control data for producing the force sensation, which is associated with a relative displacement amount from the starting displacement amount, are stored for each of the objects, and when the force sensation is selected, converting the stored control data into control data associated with the absolute displacement amount of the displacement portion, based on the starting displacement amount corresponding to the object and the control data for each relative displacement amount; The subsequent control data is output to the tactile presentation device, and an image is output to the display unit according to the amount of displacement of the displacement unit based on the visual data.

本開示の触覚提示システムでは、変位部が所定の変位量まで変位した場合に、感触として力覚を生じさせ始める、その所定の変位量を開始変位量として記憶している。これに対し、触覚データに同期させて出力される画像は、開始変位量より少ない変位量に対しても画像が表示されるとよい。また、スピーカを用いて聴覚を出力する場合には、開始変位量と同一のタイミングからのデータが記憶されて用いられるとよい。 In the tactile presentation system of the present disclosure, when the displacement portion is displaced to a predetermined displacement amount, the predetermined displacement amount that starts to generate a force sensation as a touch is stored as the start displacement amount. On the other hand, it is preferable that the image outputted in synchronization with the tactile data be displayed even for a displacement amount smaller than the starting displacement amount. Furthermore, when outputting auditory sensations using a speaker, data from the same timing as the starting displacement amount is preferably stored and used.

本開示によれば、触覚提示装置での触覚提示の制御に用いるデータをコンパクトとし、処理の負荷を軽減させることができる。 According to the present disclosure, data used for controlling tactile presentation in a tactile presentation device can be made compact, and the processing load can be reduced.

触覚提示システムを示す模式図である。FIG. 1 is a schematic diagram showing a tactile presentation system. 情報処理装置の構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of an information processing device. 感覚DBの内容例を示す説明図である。It is an explanatory view showing an example of contents of a sensory DB. 触覚提示装置の構成を示すブロック図である。FIG. 2 is a block diagram showing the configuration of a tactile presentation device. 触覚提示システムにおける触覚提示の基本処理手順の一例を示すフローチャートである。2 is a flowchart illustrating an example of a basic processing procedure for tactile presentation in the tactile presentation system. 触覚提示システムにおける触覚提示の基本処理手順の一例を示すフローチャートである。2 is a flowchart illustrating an example of a basic processing procedure for tactile presentation in the tactile presentation system. 触覚提示システムにおける触覚提示の例を示す概要図である。FIG. 2 is a schematic diagram showing an example of tactile presentation in the tactile presentation system. 触覚データ又は開始変位量の調整方法の説明図である。FIG. 6 is an explanatory diagram of a method for adjusting tactile data or a starting displacement amount. 第2実施形態の触覚提示システムにおける触覚提示の基本処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the basic processing procedure of tactile sense presentation in a tactile sense presentation system of a 2nd embodiment. 第2実施形態の触覚提示システムにおける触覚提示の基本処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the basic processing procedure of tactile sense presentation in a tactile sense presentation system of a 2nd embodiment. 第3実施形態における触覚提示システムの概要図である。FIG. 3 is a schematic diagram of a tactile presentation system in a third embodiment. 第3実施形態のHMDの構成を示すブロック図である。It is a block diagram showing the composition of HMD of a 3rd embodiment.

本開示をその実施の形態を示す図面を参照して具体的に説明する。以下の実施の形態では、触覚提示システムにおける設定方法の実施について説明する。 The present disclosure will be specifically described with reference to drawings showing embodiments thereof. In the following embodiments, implementation of a setting method in a tactile presentation system will be described.

(第1実施形態)
図1は、触覚提示システム100を示す模式図である。触覚提示システム100は、情報処理装置1と、触覚提示装置2とを含む。情報処理装置1と、触覚提示装置2とは近距離無線通信で通信接続され、相互にデータを授受する。
(First embodiment)
FIG. 1 is a schematic diagram showing a tactile presentation system 100. The tactile presentation system 100 includes an information processing device 1 and a tactile presentation device 2. The information processing device 1 and the tactile presentation device 2 are communicably connected by short-range wireless communication and exchange data with each other.

情報処理装置1は、図1に示すようにスマートフォンを用いる。情報処理装置1は、スマートフォンでなく、タブレット端末であってもよいし、ラップトップ型のPC(Personal Computer)であってもよい。 The information processing device 1 uses a smartphone as shown in FIG. The information processing device 1 may be a tablet terminal or a laptop-type PC (Personal Computer) instead of a smartphone.

触覚提示装置2は、操作者が指を変位部202に沿えて持ちながら指を動かして操作できる装置である。触覚提示装置2は、操作者が指を動かすことで変位する変位部202の位置を読み取り、内蔵するMRF(Magneto-Rheological Fluid )デバイス24をその位置に応じて制御して操作者の変位部202への操作に対する反力(回転抵抗)により力覚を生じさせ、触覚を提示する装置である。触覚提示装置2の変位部202の態様は、図1に示すようなものに限られず、スティック状であってもよいし、カバーに覆われたクッション状のものであってもよい。触覚提示装置2は、MRFデバイス24に代えて、モータやピエゾ素子などを採用し、操作者の操作に対し回転力や振動により力覚を生じさせるものでもよく、変位部202の他、振動や温感、冷感を提示するものと組み合わされてもよい。地面や壁に設置し、操作者の手のひらや足等で操作される構造でもよい。 The tactile presentation device 2 is a device that an operator can operate by moving his or her finger while holding the finger along the displacement portion 202 . The tactile presentation device 2 reads the position of the displacement section 202 that is displaced by the operator's finger movement, controls the built-in MRF (Magneto-Rheological Fluid) device 24 according to the position, and moves the displacement section 202 of the operator. This is a device that produces a sense of force using a reaction force (rotational resistance) to the operation of the machine, and presents a tactile sensation. The form of the displacement part 202 of the tactile presentation device 2 is not limited to that shown in FIG. 1, but may be stick-like or cushion-like covered with a cover. The tactile presentation device 2 may employ a motor, a piezo element, or the like instead of the MRF device 24, and may generate a force sensation by rotational force or vibration in response to an operation by the operator. It may be combined with something that provides a warm or cold sensation. The structure may be such that it is installed on the ground or a wall and is operated by the operator's palm or foot.

触覚提示システム100では、触覚提示装置2は、情報処理装置1と連携し、情報処理装置1又は他の表示装置やスピーカ等を用いて対象物の画像及び音声を出力させながら、対象物の触覚を触覚提示装置2で出力させる。図1に示す例では、情報処理装置1の表示部13に、柔らかな物体を表示させ、操作者が触覚提示装置2の変位部202を指で押し込むと、触覚提示装置2がグニャリ、若しくはフワフワとした触覚を出力させつつ、表示部13に、物体が、押し込まれたように変化する画像を表示させ、音声出力部14にて物体が押し込まれたことに対応する「グニャリ」と聞こえるような音声を出力する。 In the tactile presentation system 100, the tactile presentation device 2 cooperates with the information processing device 1 and displays the tactile sensation of the object while outputting images and sounds of the object using the information processing device 1 or other display devices, speakers, etc. is outputted by the tactile presentation device 2. In the example shown in FIG. 1, when a soft object is displayed on the display unit 13 of the information processing device 1 and the operator pushes the displacement part 202 of the tactile presentation device 2 with a finger, the tactile presentation device 2 becomes squishy or fluffy. While outputting a tactile sensation, the display unit 13 displays an image that changes as if the object is being pushed in, and the audio output unit 14 outputs an audible “squeak” sound that corresponds to the object being pushed in. Output audio.

図2は、情報処理装置1の構成を示すブロック図である。情報処理装置1は、処理部10、記憶部11、通信部12、表示部13、音声出力部14及び操作部15を備える。処理部10は、CPU(Central Processing Unit )及び/又はGPU(Graphics Processing Unit)を用いたプロセッサである。処理部10は、記憶部11に記憶されている触覚提示用の制御プログラムP1に基づき、後述する処理を実行する。 FIG. 2 is a block diagram showing the configuration of the information processing device 1. As shown in FIG. The information processing device 1 includes a processing section 10, a storage section 11, a communication section 12, a display section 13, an audio output section 14, and an operation section 15. The processing unit 10 is a processor using a CPU (Central Processing Unit) and/or a GPU (Graphics Processing Unit). The processing unit 10 executes a process described below based on a control program P1 for tactile presentation stored in the storage unit 11.

記憶部11は、フラッシュメモリ、SSD(Solid State Drive )等の不揮発性メモリを用いる。記憶部11は、処理部10が参照するデータを記憶する。制御プログラムP1(プログラム製品)は、通信部12を介して情報処理装置1又は他のプログラムサーバ装置からダウンロードして実行可能に記憶したものである。記憶部11に記憶されている制御プログラムP1は、コンピュータから読み取り可能な記憶媒体8に記憶されていたコンピュータプログラムP8を処理部10が読み出して記憶したものであってもよい。 The storage unit 11 uses nonvolatile memory such as flash memory or SSD (Solid State Drive). The storage unit 11 stores data referenced by the processing unit 10. The control program P1 (program product) is downloaded from the information processing device 1 or another program server device via the communication unit 12 and stored in an executable manner. The control program P1 stored in the storage unit 11 may be a computer program P8 stored in the computer-readable storage medium 8, which is read out and stored by the processing unit 10.

記憶部11は、出力する対象物の触覚データ、視覚データ及び聴覚データを含む感覚データベース(DB:Data Base )110を記憶する。感覚DB110は、対象物を識別する対象物IDに対応付けて、触覚提示装置2における変位部202の相対変位量毎に、その相対変位量において出力すべき触覚データ、及び聴覚データ(音声)と、変位部202の変位量毎の視覚データ(画像)を格納している(図3参照)。感覚DB1100は、対象物IDに対応付けて、触覚又は聴覚の提示開始位置に相当する変位部202の変位量(以下、開始変位量という)を格納している。 The storage unit 11 stores a sensory database (DB) 110 including tactile data, visual data, and auditory data of the object to be output. The sensory DB 110 stores, for each relative displacement amount of the displacement unit 202 in the tactile presentation device 2, tactile data and auditory data (sound) to be output at that relative displacement amount in association with the object ID that identifies the object. , visual data (images) for each displacement amount of the displacement unit 202 are stored (see FIG. 3). The sensory DB 1100 stores the displacement amount of the displacement unit 202 (hereinafter referred to as the start displacement amount) corresponding to the tactile or auditory presentation start position in association with the object ID.

通信部12は、近距離無線通信、例えばBluetooth(登録商標)の通信モジュールである。処理部10は、通信部12によって触覚提示装置2との間でデータを送受信できる。 The communication unit 12 is a communication module for short-range wireless communication, for example, Bluetooth (registered trademark). The processing unit 10 can transmit and receive data to and from the tactile presentation device 2 through the communication unit 12 .

表示部13は、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等のディスプレイである。表示部13は例えば、タッチパネル内蔵型ディスプレイである。処理部10は、表示部13に、制御プログラムP1に基づき、触覚提示装置2で触覚を出力させるための操作画面や対象物の画像を表示する。 The display unit 13 is a display such as a liquid crystal display or an organic EL (Electro Luminescence) display. The display unit 13 is, for example, a display with a built-in touch panel. The processing unit 10 displays, on the display unit 13, an operation screen for causing the tactile sensation presentation device 2 to output a tactile sensation and an image of the target object, based on the control program P1.

音声出力部14は、スピーカ等を含む。処理部10は、制御プログラムP1に基づき、対象物の音声、音楽等を音声出力部14から出力させる。 The audio output unit 14 includes a speaker and the like. The processing unit 10 causes the audio output unit 14 to output the sound of the object, music, etc. based on the control program P1.

操作部15は、処理部10との間で入出力が可能なユーザインタフェースであって、表示部13内蔵のタッチパネルである。操作部15は、物理ボタンであってもよい。操作部15は、音声入力部であってもよい。 The operation unit 15 is a user interface that allows input and output to and from the processing unit 10, and is a touch panel built into the display unit 13. The operation unit 15 may be a physical button. The operation unit 15 may be a voice input unit.

図3は、感覚DB110の内容例を示す説明図である。感覚DB110は、図3に示すように、対象物IDに対応付けて、変位部202の相対変位量(角度)毎の触覚提示装置2のMRFデバイスへの電流の電流値を触覚データとして格納している。電流値に限らず、電圧値等であってもよい。また、感覚DB110は、対象物IDに対応付けて、開始変位量を格納している。ここで相対変位量は、開始変位量からの差分に対応する。対象物は複数であり、触覚を提示する物として実在する物体、例えば、ボール又は風船等の静物、グミ、野菜、又は果物等の食べ物、犬、猫又は魚等の動物を含んでもよいし、スライムやモンスター等のキャラクタを含んでもよい。 FIG. 3 is an explanatory diagram showing an example of the contents of the sensory DB 110. As shown in FIG. 3, the sensory DB 110 stores, as tactile data, the current value of the current to the MRF device of the tactile presentation device 2 for each relative displacement amount (angle) of the displacement unit 202 in association with the object ID. ing. It is not limited to a current value, but may be a voltage value or the like. The sensory DB 110 also stores the starting displacement amount in association with the object ID. Here, the relative displacement amount corresponds to the difference from the starting displacement amount. The objects are plural, and may include real objects that present a tactile sensation, such as still life objects such as balls or balloons, foods such as gummies, vegetables, or fruits, and animals such as dogs, cats, or fish. Characters such as slimes and monsters may also be included.

感覚DB110の変位部202の相対変位量と、電流値との関係は、変位部202の可動範囲の実際の寸法と、対象物の寸法とに合わせて設定されている。例えば、変位部202の可動範囲が50mmであり、対象物が小さなグミのような破裂しない球体であって大きさが15mmに設定されている場合、触覚データにおける相対変位量は、図3に示すように、15mm程度に対応する範囲の分だけ存在する。また、対象物がソファの座面のような大きな物体であって大きさが変位部202の可動範囲を大きく超える場合、触覚データでは、ソファの座面表面から50mmまでの感触を提示するような電流値が設定される。対象物がモンスター等の仮想的なキャラクタの場合は、そのキャラクタの設定に応じた大きさに基づいて電流値が設定される。 The relationship between the relative displacement amount of the displacement part 202 of the sensory DB 110 and the current value is set according to the actual size of the movable range of the displacement part 202 and the size of the object. For example, if the movable range of the displacement unit 202 is 50 mm, and the target object is a sphere that will not burst, such as a small gummy candy, and the size is set to 15 mm, the relative displacement amount in the tactile data is as shown in FIG. As shown in FIG. In addition, if the target object is a large object such as the seat surface of a sofa, and the size greatly exceeds the movable range of the displacement unit 202, the tactile data may be such as to present the sensation up to 50 mm from the surface of the sofa seat surface. The current value is set. If the target object is a virtual character such as a monster, the current value is set based on the size according to the setting of the character.

感覚DB110は、同様に、対象物IDに対応付けて、変位部202の相対変位量(角度)毎の音声を聴覚データとして格納している。聴覚データは、対象物に触れた場合に発せられる音声を再現した音声データである。聴覚データは、各角度によって異なる波形データであってもよい。各角度に対応する音声のタイムスタンプであってもよい。 Similarly, the sensory DB 110 stores sounds for each relative displacement amount (angle) of the displacement unit 202 as auditory data in association with the object ID. Auditory data is audio data that reproduces the sound emitted when an object is touched. The auditory data may be waveform data that differs depending on each angle. It may also be a timestamp of the audio corresponding to each angle.

感覚DB110は、対象物IDに対応付けて、変位部202の変位量(角度)毎の画像(フレーム画像)を視覚データとして格納している。視覚データは、触覚データ及び聴覚データと異なり、接触する前から視覚で捉えられるものであるから、変位部202の可動範囲(例えば0°~90°)の全範囲に対応付けて、画像データが対応付けられている。ここでフレーム画像は、連続して表示することでアニメーション画像として認識される、1つの静止画像である。 The sensory DB 110 stores images (frame images) for each displacement amount (angle) of the displacement unit 202 as visual data in association with the object ID. Unlike tactile data and auditory data, visual data can be visually captured before contact, so image data is are associated. Here, the frame image is one still image that is recognized as an animation image when displayed continuously.

図4は、触覚提示装置2の構成を示すブロック図である。触覚提示装置2は、図1に示したように、扁平な有底円筒状の把持体200に周方向に一部沿うような湾曲部を有する帯状平板の変位部202を設けて構成される。変位部202は、それ自体が撓むことが可能な素材であるが、剛性の高い素材を採用し、把持体200と支軸を介して回動可能に支持されていてもよい。変位部202の先端の外側の面には、布テープ状の結束具203が設けられている。変位部202の先端の内側面は、把持体200内部に収容されているMRFデバイス24のロータの回転軸と連結するリンク機構204が設けられている。 FIG. 4 is a block diagram showing the configuration of the tactile presentation device 2. As shown in FIG. As shown in FIG. 1, the tactile presentation device 2 is configured by providing a flat bottomed cylindrical grip 200 with a band-shaped flat plate displacement portion 202 having a curved portion partially along the circumferential direction. Although the displacement part 202 is made of a flexible material, it may also be made of a highly rigid material and rotatably supported via the grip body 200 and a support shaft. A binding tool 203 in the form of a cloth tape is provided on the outer surface of the distal end of the displacement portion 202 . A link mechanism 204 is provided on the inner surface of the distal end of the displacement portion 202 to connect to the rotating shaft of the rotor of the MRF device 24 housed inside the gripper 200 .

操作者は図1に示したように、把持体200を例えば親指と中指とで把持しつつ、人差し指等の指を変位部202に沿わせて結束具203に人差し指を差し込んで使用する。操作者は人差し指を押し込むように変位部202を動かすことができ、また、人差し指を伸ばして把持体200から変位部202を遠ざけるように動かすことができる。 As shown in FIG. 1, the operator uses the holding body 200 by, for example, holding the holding body 200 with the thumb and middle finger, and inserting the finger such as the index finger into the binding tool 203 along the displacement part 202. The operator can move the displacement part 202 by pushing in the index finger, or can move the displacement part 202 away from the grip body 200 by extending the index finger.

触覚提示装置2は、図1に示すような把持体200と、制御部20、記憶部21、通信部22、電源部23、MRFデバイス24、センサ25を備える。把持体200は、MRFデバイス24を内蔵する。制御部20、記憶部21、通信部22、及び電源部23は把持体200と一体に設けられてもよいし、把持体200と無線又は有線により接続される別体に設けられてもよい。 The tactile presentation device 2 includes a gripping body 200 as shown in FIG. The grip body 200 has an MRF device 24 built therein. The control section 20, the storage section 21, the communication section 22, and the power supply section 23 may be provided integrally with the grip body 200, or may be provided as separate bodies connected to the grip body 200 wirelessly or by wire.

制御部20は、CPU、MPU(Micro-Processing Unit )等のプロセッサ、ROM(Read Only Memory)、RAM(Random Access Memory)等のメモリを含む。制御部20は、例えばマイクロコントローラである。制御部20は、内蔵ROMに記憶されている制御プログラムP2に基づいて各構成部を制御し、触覚提示を実現する。 The control unit 20 includes a processor such as a CPU and an MPU (Micro-Processing Unit), and a memory such as a ROM (Read Only Memory) and a RAM (Random Access Memory). The control unit 20 is, for example, a microcontroller. The control unit 20 controls each component based on a control program P2 stored in the built-in ROM to realize tactile presentation.

記憶部21は、制御部20に対する補助記憶メモリであり、MRFデバイス24の制御データ(触覚データ)を書き換え可能に記憶する。 The storage unit 21 is an auxiliary storage memory for the control unit 20, and stores control data (tactile data) of the MRF device 24 in a rewritable manner.

通信部22は、近距離無線通信、例えばBluetooth(登録商標)の通信モジュールである。制御部20は、通信部22によって情報処理装置1との間でデータを送受信できる。 The communication unit 22 is a communication module for short-range wireless communication, for example, Bluetooth (registered trademark). The control unit 20 can transmit and receive data to and from the information processing device 1 through the communication unit 22 .

制御部20は、電源部23、MRFデバイス24及びセンサ25とI/Oを介して接続されており、相互に信号を授受する。 The control unit 20 is connected to a power supply unit 23, an MRF device 24, and a sensor 25 via I/O, and exchanges signals with each other.

電源部23は、充電可能なバッテリを含む。電源部23は、ON状態になると各構成部及びMRFデバイス24へ電力を供給する。 Power supply unit 23 includes a rechargeable battery. The power supply unit 23 supplies power to each component and the MRF device 24 when turned on.

MRFデバイス24は、円板状のロータを、隙間を開けて挟むようにして設けられたヨークを有し、ヨークに設けられたコイルに制御電流を流して磁界を発生させ、隙間に封入されている磁気粘性流体の粘度(ずり応力)を制御してロータの回転抵抗を与える。制御部20が、MRFデバイス24への制御電流の大きさを制御すると即座に回転抵抗が変更される。 The MRF device 24 has a yoke that sandwiches a disk-shaped rotor with a gap between them, and generates a magnetic field by passing a control current through a coil provided in the yoke, thereby generating a magnetic field sealed in the gap. The viscosity (shear stress) of the viscous fluid is controlled to provide rotational resistance to the rotor. When the control unit 20 controls the magnitude of the control current to the MRF device 24, the rotational resistance is immediately changed.

センサ25は、変位部202の変位量(角度)を測定して制御部20へ出力する。センサ25は変位部202の変位を、角度として測定して出力する。センサ25は、ジャイロセンサ、加速度センサ等の複数のセンサから構成されてもよい。 The sensor 25 measures the amount of displacement (angle) of the displacement section 202 and outputs it to the control section 20 . The sensor 25 measures and outputs the displacement of the displacement portion 202 as an angle. The sensor 25 may include a plurality of sensors such as a gyro sensor and an acceleration sensor.

上述のように構成される触覚提示装置2では、変位部202が操作者によって操作されると、変位部202の変位がリンク機構204を介してMRFデバイス24のロータの回転軸への回転方向に伝達される。回転軸は、MRFデバイス24が動作していない場合、即ち制御電流がゼロである間は、自由に回転するため、変位部202は抵抗なく変動する。一方で、MRFデバイス24が動作し、制御電流がゼロでない場合には、MRFデバイス24へ流れる電流の大きさに応じてMRFデバイス24内部の磁気粘性流体の粘度(ずり応力)が変更される。制御部20が、MRFデバイス24への電流の大きさを連続的に変更したり、電流値を所定の周波数で振動させたりすることで、変位部202に対する抵抗の力やその出現方法を変更できる。 In the tactile presentation device 2 configured as described above, when the displacement section 202 is operated by the operator, the displacement of the displacement section 202 is caused to move in the direction of rotation of the MRF device 24 toward the rotation axis of the rotor via the link mechanism 204. communicated. Since the rotating shaft rotates freely when the MRF device 24 is not operating, that is, while the control current is zero, the displacement portion 202 fluctuates without resistance. On the other hand, when the MRF device 24 operates and the control current is not zero, the viscosity (shear stress) of the magnetorheological fluid inside the MRF device 24 is changed depending on the magnitude of the current flowing to the MRF device 24. By continuously changing the magnitude of the current to the MRF device 24 or by vibrating the current value at a predetermined frequency, the control unit 20 can change the resistance force applied to the displacement unit 202 and the method of its appearance. .

このようにして触覚提示装置2は、変位部202の押し込む量(変位量)に応じて抵抗(電流値)を変動させてヌルリとした触覚を提示したり、押し込む量が大きくなるにつれて抵抗を大きくしてギュッとした固さの触覚を提示したり、抵抗の大小を繰り返してザクザクとした触覚を提示したりすることができる。 In this way, the tactile sensation presentation device 2 can vary the resistance (current value) according to the pushing amount (displacement amount) of the displacement section 202 to present a smooth tactile sensation, or increase the resistance as the pushing amount increases. It is possible to present a tactile sensation that is hard and hard, or to present a tactile sensation that is crunchy by repeatedly increasing and decreasing the resistance.

図5及び図6は、触覚提示システム100における触覚提示の基本処理手順の一例を示すフローチャートである。情報処理装置1の処理部10は、操作者が制御プログラムP1を起動させ、触覚提示装置2の電源をONとすると、触覚提示装置2と連携して以下の処理を開始する。 5 and 6 are flowcharts showing an example of a basic processing procedure for tactile presentation in the tactile presentation system 100. When the operator starts the control program P1 and turns on the power of the tactile presentation device 2, the processing unit 10 of the information processing device 1 starts the following process in cooperation with the tactile presentation device 2.

処理部10は、触覚を表示する対象物の候補のリストを含む操作画面を表示部に表示し(ステップS101)、対象物の選択を受け付ける(ステップS102)。処理部10は、選択された対象物の対象物IDに対応する触覚データ、聴覚データ(音声)、開始変位量、及び視覚データ(画像)を記憶部11の感覚DB110から読み出す(ステップS103)。 The processing unit 10 displays on the display unit an operation screen including a list of object candidates for which tactile sensation is to be displayed (step S101), and accepts selection of the object (step S102). The processing unit 10 reads out the tactile data, auditory data (sound), starting displacement amount, and visual data (image) corresponding to the object ID of the selected object from the sensory DB 110 of the storage unit 11 (step S103).

処理部10は、読み出した触覚データを、開始変位量に相対変位量を加算した絶対変位量とする触覚データに変換し、一時記憶する(ステップS104)。処理部10は、読み出した聴覚データを、開始変位量及び開始変位量に相対変位量を加算した絶対変位量とする聴覚データに変換し、一時記憶する(ステップS105)。 The processing unit 10 converts the read tactile data into tactile data that is an absolute displacement amount obtained by adding the relative displacement amount to the starting displacement amount, and temporarily stores it (step S104). The processing unit 10 converts the read auditory data into auditory data that is a starting displacement amount and an absolute displacement amount obtained by adding a relative displacement amount to the starting displacement amount, and temporarily stores the auditory data (step S105).

処理部10は、読み出した視覚データを、一時記憶する(ステップS106)。 The processing unit 10 temporarily stores the read visual data (step S106).

処理部10は、触覚提示装置2と通信部12による通信を確立させ(ステップS107)、一時記憶した変換後の触覚データを、触覚提示装置2へ送信する(ステップS108)。処理部10は、表示部13に触覚提示を開始することを表示させる(ステップS109)。 The processing unit 10 establishes communication between the tactile presentation device 2 and the communication unit 12 (step S107), and transmits the temporarily stored converted tactile data to the tactile presentation device 2 (step S108). The processing unit 10 causes the display unit 13 to display that tactile presentation is to be started (step S109).

触覚提示装置2の制御部20は、触覚データを受信すると(ステップS201)、記憶部21に記憶する(ステップS202)。 Upon receiving the tactile data (step S201), the control unit 20 of the tactile presentation device 2 stores it in the storage unit 21 (step S202).

制御部20は、センサ25から出力される変位部202の変位量(角度)に対応する信号をサンプリングする(ステップS203)。制御部20は、サンプリングにより得られる変位量を、情報処理装置1へ送信し(ステップS204)、得られた変位量に対応する電流値を、ステップS202で記憶部21に記憶した触覚データから参照し(ステップS205)、参照した電流をMRFデバイス24へ出力し(ステップS206)、処理をステップS203へ戻す。ステップS205において、得られた変位量に対応する変位量が触覚データから参照できない(含まれていない)場合、制御部20は、ステップS206の処理をスキップする。ステップS203-S206の処理は、情報処理装置1側で終了させる操作がされるまで継続する。 The control unit 20 samples a signal corresponding to the displacement amount (angle) of the displacement unit 202 output from the sensor 25 (step S203). The control unit 20 transmits the displacement amount obtained by sampling to the information processing device 1 (step S204), and refers to the current value corresponding to the obtained displacement amount from the tactile data stored in the storage unit 21 in step S202. (step S205), outputs the referenced current to the MRF device 24 (step S206), and returns the process to step S203. In step S205, if the displacement amount corresponding to the obtained displacement amount cannot be referenced (is not included) in the tactile data, the control unit 20 skips the process of step S206. The processing in steps S203 to S206 continues until an operation to end the processing is performed on the information processing device 1 side.

情報処理装置1は、触覚提示装置2から変位量を受信し(ステップS110)、処理部10は、受信した変位量に対応する画像及び音声を一時記憶している視覚データ及び変換後の聴覚データから参照する(ステップS111)。処理部10は、参照した視覚データ及び聴覚データそれぞれを表示部13及び音声出力部14から出力させ(ステップS112)、処理をステップS110へ戻す。触覚提示装置2から変位量が送信される都度、情報処理装置1は、それに対応する画像及び音声を出力する。 The information processing device 1 receives the amount of displacement from the tactile presentation device 2 (step S110), and the processing unit 10 temporarily stores the image and audio corresponding to the received amount of displacement, visual data and converted auditory data. (Step S111). The processing unit 10 outputs the referenced visual data and auditory data from the display unit 13 and the audio output unit 14 (step S112), and returns the process to step S110. Each time the amount of displacement is transmitted from the tactile presentation device 2, the information processing device 1 outputs an image and audio corresponding to the amount of displacement.

処理部10は、終了操作がされたか否かを判断する(ステップS113)。終了操作がされていないと判断された場合(S113:NO)、処理をステップS110へ戻し、ステップS110-S113の処理を繰り返す。 The processing unit 10 determines whether a termination operation has been performed (step S113). If it is determined that the end operation has not been performed (S113: NO), the process returns to step S110, and the processes of steps S110 to S113 are repeated.

終了操作がされたと判断された場合(S113:YES)、と処理部10は、表示を終了して触覚提示装置2との通信を切断し(ステップS114)、処理を終了する。 If it is determined that the end operation has been performed (S113: YES), the processing unit 10 ends the display, disconnects communication with the tactile presentation device 2 (step S114), and ends the process.

図7は、触覚提示システム100における触覚提示の例を示す概要図である。図7には、触覚提示装置2に送信される触覚データにおける変位量に対応して表示部13に表示される画像の変化及び音声の変化を示す。図7に示すように、変位部202の押し込み量(変位量)に応じて、画像が変化し、触覚に対応する凹み方が変わる。詳細には10°の開始変位量から、指が接触し始める変位量で触覚提示装置2において触覚が提示されると共に、画像が変化している。図7に示すように、画像中に、操作者の指の画像を表示する場合、指の接触、即ちMRFデバイス24へゼロでない電流値が出力される開始変位量から、画像における指の画像が対象物に触れるように表示されるようにしてもよい。 FIG. 7 is a schematic diagram showing an example of tactile presentation in the tactile presentation system 100. FIG. 7 shows changes in images and sounds displayed on the display unit 13 in response to the amount of displacement in the tactile data sent to the tactile presentation device 2. As shown in FIG. 7, the image changes depending on the amount of depression (displacement amount) of the displacement portion 202, and the way the dent corresponds to the tactile sensation changes. Specifically, from the starting displacement amount of 10°, the tactile sensation is presented on the tactile sensation presentation device 2 at the displacement amount at which the finger starts to touch, and the image changes. As shown in FIG. 7, when displaying an image of an operator's finger in an image, the finger image in the image is The object may be displayed so as to touch the object.

このように触覚を提示する触覚提示システム100では、触覚データを、開始変位量からの相対的な変位量のデータとして感覚DB110で格納している。これにより、触覚データのサイズをコンパクトにし、処理負荷を軽減させることが期待できる。 In the tactile presentation system 100 that presents a tactile sensation in this manner, tactile data is stored in the sensation DB 110 as data of a relative displacement amount from a starting displacement amount. This can be expected to reduce the size of haptic data and reduce the processing load.

(第2実施形態)
開始変位量と、触覚データとを別のデータとして記憶していることにより、開始変位量のみ、操作者それぞれについて調整することや、触覚データのみ、スケールに応じて伸縮するといった調整が容易になる。
(Second embodiment)
By storing the starting displacement amount and the tactile data as separate data, it becomes easy to adjust only the starting displacement amount for each operator, or to adjust only the tactile data by expanding or contracting it according to the scale. .

第2実施形態における触覚提示システム100の構成は、調整方法以外は、第1実施形態における触覚提示システム100と同様の構成である。したがって、第2実施形態の触覚提示システム100の構成のうち、第1実施形態の触覚提示システム100と共通する構成については同一の符号を付して詳細な説明を省略する。 The configuration of the tactile presentation system 100 in the second embodiment is the same as that of the tactile presentation system 100 in the first embodiment except for the adjustment method. Therefore, among the configurations of the tactile presentation system 100 of the second embodiment, the same components as those of the tactile presentation system 100 of the first embodiment are given the same reference numerals, and detailed description thereof will be omitted.

図8は、触覚データ又は開始変位量の調整方法の説明図である。図8に示すように、0°~48°の相対変位量に対応付けて触覚提示装置2への電流値が対応付けられた触覚データを使用するに際し、処理部10は、スケールを半分として0°~24°の相対変位量の触覚データへ調整することができる。更に処理部10は、同じ対象物に対して開始変位量を5°として感覚DB110が格納している場合、開始変位量に5を加算する調整をすることができる。この場合、触覚提示装置2へ送信される変換後の触覚データは、図8に示すように、変位部202の変位量が10°~34°の範囲に対し、ゼロでない電流値が対応付けられたデータである。図8では、開始変位量及び触覚データのいずれも調整される例を示したが、これに限らず、開始変位量及び触覚データのいずれか一方のみが調整されてもよい。なお、スケールの変更、開始変位量の調整については、聴覚データ及び視覚データに対しても適用される。 FIG. 8 is an explanatory diagram of a method for adjusting tactile data or a starting displacement amount. As shown in FIG. 8, when using tactile data in which current values to the tactile presentation device 2 are associated with relative displacement amounts from 0° to 48°, the processing unit 10 sets the scale to half and uses 0. It is possible to adjust to tactile data with a relative displacement amount of ° to 24 °. Furthermore, when the sensory DB 110 stores the starting displacement amount as 5° for the same object, the processing unit 10 can make an adjustment to add 5 to the starting displacement amount. In this case, the converted tactile data sent to the tactile presentation device 2 is such that, as shown in FIG. This is the data. Although FIG. 8 shows an example in which both the starting displacement amount and the tactile data are adjusted, the present invention is not limited to this, and only one of the starting displacement amount and the tactile data may be adjusted. Note that changing the scale and adjusting the starting displacement amount are also applied to auditory data and visual data.

図9及び図10は、第2実施形態の触覚提示システム100における触覚提示の基本処理手順の一例を示すフローチャートである。図9及び図10のフローチャートに示した処理手順のうち、第1実施形態で示した図5及び図6のフローチャートに示した処理手順と共通する手順については同一のステップ番号を付して詳細な説明を省略する。 9 and 10 are flowcharts illustrating an example of the basic processing procedure for tactile presentation in the tactile presentation system 100 of the second embodiment. Among the processing procedures shown in the flowcharts of FIGS. 9 and 10, the same steps as those shown in the flowcharts of FIGS. 5 and 6 shown in the first embodiment are given the same step numbers and detailed The explanation will be omitted.

第2実施形態でスケールが設定されている場合、処理部10は、ステップS103で読み出した触覚データ、聴覚データ、開始変位量及び視覚データのうち、触覚データ、聴覚データ及び視覚データ、並びに、開始変位量のいずれかのスケールを調整する(ステップS121)。ステップS121は、図8における右上の調整に相当する。 When the scale is set in the second embodiment, the processing unit 10 selects the tactile data, the auditory data, the start displacement amount, and the start The scale of one of the displacement amounts is adjusted (step S121). Step S121 corresponds to the adjustment at the upper right in FIG.

スケールの調整後の開始変位量及び触覚データに基づき、開始変位量に相対変位量を加算した絶対変位量とする触覚データに変換し、一時記憶する(ステップS122)。 Based on the starting displacement amount and tactile data after adjusting the scale, the tactile data is converted into an absolute displacement amount obtained by adding the relative displacement amount to the starting displacement amount, and is temporarily stored (step S122).

同様にして、処理部10は、スケールの調整後の開始変位量及び聴覚データに基づき、開始変位量及び開始変位量に相対変位量を加算した絶対変位量とする聴覚データに変換し、一時記憶する(ステップS123)。 Similarly, the processing unit 10 converts the starting displacement amount and auditory data after the scale adjustment into auditory data that is an absolute displacement amount obtained by adding a relative displacement amount to the starting displacement amount and the starting displacement amount, and temporarily stores the data. (Step S123).

処理部10は、スケール調整後の視覚データを、一時記憶する(ステップS124)。以後、処理部10はステップ、S107-S114の処理を実行する。 The processing unit 10 temporarily stores the scale-adjusted visual data (step S124). Thereafter, the processing unit 10 executes the processing of steps S107-S114.

このように、感覚DB110にて、開始変位量と、相対変位量に対する制御データとに分けて記憶していることにより、スケールの調整や補正の処理が容易になる。 In this way, by separately storing control data for the starting displacement amount and the relative displacement amount in the sensation DB 110, scale adjustment and correction processing becomes easy.

(第3実施形態)
第3実施形態では、HMD(Head Mounted Display)を用い、対象物に対する視覚情報を三次元画像で提示する。図11は、第3実施形態における触覚提示システム100の概要図であり、図12は、HMD3の構成を示すブロック図である。第3実施形態における触覚提示システム100の構成は、HMD3を用いることと、HMD3を用いることによる詳細な処理の内容が異なること以外は、第1実施形態における触覚提示システム100と同様の構成である。したがって、第3実施形態の触覚提示システム100の構成のうち、第1実施形態の触覚提示システム100と共通する構成については同一の符号を付して詳細な説明を省略する。
(Third embodiment)
In the third embodiment, an HMD (Head Mounted Display) is used to present visual information regarding an object as a three-dimensional image. FIG. 11 is a schematic diagram of a tactile presentation system 100 in the third embodiment, and FIG. 12 is a block diagram showing the configuration of the HMD 3. The configuration of the tactile presentation system 100 in the third embodiment is the same as that of the tactile presentation system 100 in the first embodiment, except that the HMD 3 is used and the details of the processing by using the HMD 3 are different. . Therefore, among the configurations of the tactile presentation system 100 of the third embodiment, the same components as those of the tactile presentation system 100 of the first embodiment are given the same reference numerals, and detailed description thereof will be omitted.

HMD3は、表示部31、動き検知部32、空間検知部33、及び接続部34を備える。HMD3は、本体に、表示部31、動き検知部32、空間検知部33及び接続部34を設けてもよいし、一部は別体に設けられて相互に通信媒体を介して制御信号を授受できるようにしてあってもよい。HMD3は、情報処理装置1の機能を有して一体に構成されてもよい。 The HMD 3 includes a display section 31, a motion detection section 32, a space detection section 33, and a connection section 34. The HMD 3 may be provided with a display section 31, a motion detection section 32, a space detection section 33, and a connection section 34 in the main body, or some may be provided separately and mutually exchange control signals via a communication medium. It may be possible to do so. The HMD 3 may have the functions of the information processing device 1 and be configured integrally.

表示部31は例えば、小型の液晶ディスプレイ、光学レンズ及び光学系機構を備え、視野角110°以上で三次元画像を表示することが可能である。表示部31は、透明又は半透明のグラス状のディスプレイであり、操作者の実際の視界に、情報処理装置1から出力される画像信号(映像信号を含む)を受け付けて重畳表示させる。表示部31はグラス状のものに限られず、前方に向けて設けられたカメラにて実空間を撮影した画像に、情報処理装置1から出力される画像信号に基づく画像を重畳表示させるものであってもよい。 The display unit 31 includes, for example, a small liquid crystal display, an optical lens, and an optical system mechanism, and is capable of displaying a three-dimensional image at a viewing angle of 110° or more. The display unit 31 is a transparent or semi-transparent glass-like display, and receives an image signal (including a video signal) output from the information processing device 1 and displays it in a superimposed manner in the operator's actual field of view. The display section 31 is not limited to a glass-like one, and may display an image based on an image signal output from the information processing device 1 superimposed on an image taken of real space by a camera provided facing forward. It's okay.

動き検知部32は、本体(表示部31のカバー及び装着ベルト)の各所に、多様な向きで設けられた複数の三軸加速度センサ及びジャイロセンサと、これらのセンサ群からの信号を集約して出力する制御回路とを備える。動き検知部32により、装着者の頭部の動きが検知される。 The motion detection unit 32 includes a plurality of triaxial acceleration sensors and gyro sensors installed in various directions on the main body (the cover of the display unit 31 and the attachment belt), and aggregates signals from a group of these sensors. and a control circuit that outputs the output. The movement detection unit 32 detects the movement of the wearer's head.

空間検知部33は、本体の外面に外向きに並設された2つ以上の赤外線カメラと、該赤外線カメラの中間位置に同様に外向きに赤外線を照射するように設けられた赤外線LEDとを用いる。空間検知部33は、HMD3の本体の外側に存在する物体までの距離を測定する深度センサとして機能する。空間検知部33は、HMD3本体から、HMD3を装着する操作者の居場所における壁、床等の静物に対する距離を測り、出力することが可能である。空間検知部33は同様に、HMD3本体から操作者の腕、手、指までの距離を測定し、出力することが可能である。 The space detection unit 33 includes two or more infrared cameras arranged outwardly in parallel on the outer surface of the main body, and an infrared LED disposed at an intermediate position between the infrared cameras so as to similarly emit infrared rays outward. use The space detection unit 33 functions as a depth sensor that measures the distance to an object that exists outside the main body of the HMD 3. The space detection unit 33 can measure and output the distance from the HMD 3 main body to a still object such as a wall or floor in the location of the operator wearing the HMD 3. Similarly, the space detection unit 33 can measure and output the distance from the HMD 3 main body to the operator's arm, hand, and finger.

接続部34は、情報処理装置1と接続するためのインタフェースである。HMD3は、動き検知部32及び空間検知部33にて測定された結果に対応する信号をそれぞれ、情報処理装置1へ出力すると共に、情報処理装置1から出力される映像信号を取得して表示部31に表示させる。 The connection unit 34 is an interface for connecting to the information processing device 1. The HMD 3 outputs signals corresponding to the results measured by the motion detection unit 32 and the space detection unit 33 to the information processing device 1, and also acquires the video signal output from the information processing device 1 and displays it on the display unit. 31.

HMD3にスピーカを設け、情報処理装置1の音声出力部14から出力される音声をスピーカにて出力させるようにしてもよい。 The HMD 3 may be provided with a speaker, and the audio output from the audio output unit 14 of the information processing device 1 may be output from the speaker.

上述したような構成の第2実施形態の触覚提示システム100において情報処理装置1は、HMD3を用い、空間検知部33で測定された実空間における静物に対する距離を用い、仮想的な対象物の三次元画像を、動き検知部32にて検知される操作者の動きに合わせて重畳表示し、AR表示を実現する。対象物の選択は、HMD3の表示部31に表示される仮想的対象物の三次元画像の画像内の座標(実空間と合致した座標)に対し、空間検知部33により、触覚提示装置2を把持した手指を重ねたことが検知できた場合に、これを選択したものとして情報処理装置1の処理部10が検知する。 In the tactile presentation system 100 of the second embodiment configured as described above, the information processing device 1 uses the HMD 3 and the distance to the still object in the real space measured by the space detection unit 33 to determine the three-dimensional shape of the virtual object. The original image is superimposed and displayed in accordance with the operator's movement detected by the movement detection unit 32 to realize AR display. To select an object, the space detection section 33 uses the tactile presentation device 2 to select the coordinates in the three-dimensional image of the virtual object displayed on the display section 31 of the HMD 3 (coordinates that match the real space). When it is detected that the gripped fingers are overlapped, the processing unit 10 of the information processing device 1 detects this as being selected.

そして第3実施形態でも、情報処理装置1は、触覚提示装置2との間で変位量及び傾きのデータを授受して、AR表示される画像と触覚提示装置2にて出力される触覚を制御する。処理の内容は第1実施形態及び第2実施形態にて示した処理のいずれを実行してもよい。 Also in the third embodiment, the information processing device 1 sends and receives displacement and tilt data to and from the tactile presentation device 2 to control the image displayed in AR and the tactile sensation output by the tactile presentation device 2. do. The content of the process may be any of the processes shown in the first embodiment and the second embodiment.

HMD3を用いたAR表示と触覚提示装置2とを組み合わせることにより、実空間に対象物を仮想的に配置した画像を、操作者は視覚的に観察しながら、その対象物の感触を触覚提示装置2で覚えることが可能である。その際に、第2実施形態においても、触覚データをコンパクトとすることができ、第1実施形態にて説明したものと同様に、処理負荷を軽減させることができる。これにより、即座に感触のレスポンスが受けられるといった効果が期待できる。 By combining the AR display using the HMD 3 and the tactile presentation device 2, the operator can visually observe an image in which the object is virtually placed in real space, and feel the touch of the object using the tactile presentation device. It is possible to memorize it in 2. At this time, also in the second embodiment, the tactile data can be made compact, and the processing load can be reduced, similar to what was explained in the first embodiment. This can be expected to provide an immediate tactile response.

上述のように開示された実施の形態は全ての点で例示であって、制限的なものではない。本発明の範囲は、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内での全ての変更が含まれる。 The embodiments disclosed above are illustrative in all respects and are not restrictive. The scope of the present invention is indicated by the claims, and includes all changes within the meaning and range equivalent to the claims.

1 情報処理装置
10 処理部
11 記憶部
13 表示部
130 設定画面
P1 制御プログラム
2 触覚提示装置
20 制御部
21 記憶部
202 変位部
24 MRFデバイス
1 Information processing device 10 Processing unit 11 Storage unit 13 Display unit 130 Setting screen P1 Control program 2 Tactile presentation device 20 Control unit 21 Storage unit 202 Displacement unit 24 MRF device

Claims (6)

操作者の操作に対して変位可能に設けられた変位部を有し、変位部の変位量に応じて、前記変位部への操作に対する力覚を生じさせ、表示される対象物の触覚を提示する触覚提示装置の制御装置であって、
前記変位部にて前記力覚の提示を開始する開始変位量と、前記開始変位量からの相対変位量に対応付けた前記力覚を生じさせるための制御データとを、前記対象物毎に記憶しておき、
選択された対象物に対応する開始変位量と、前記相対変位量毎の制御データとに基づき、前記記憶されてある制御データを、前記変位部の絶対変位量に対応付けた制御データに変換し、
変換後の制御データを、前記触覚提示装置へ出力する
制御装置。
It has a displacement part that is displaceable in response to an operation by an operator, and generates a force sensation in response to the operation on the displacement part according to the amount of displacement of the displacement part, and presents a tactile sensation of the displayed object. A control device for a tactile presentation device, comprising:
A starting displacement amount for starting presentation of the force sensation in the displacement unit and control data for producing the force sensation, which is associated with a relative displacement amount from the starting displacement amount, are stored for each of the objects. Keep it
Converting the stored control data into control data associated with the absolute displacement amount of the displacement portion based on the starting displacement amount corresponding to the selected object and the control data for each relative displacement amount. ,
A control device that outputs the converted control data to the tactile presentation device.
前記制御データは、前記対象物の触覚の提示範囲外に対応する変位量のデータを含まない
請求項1に記載の制御装置。
The control device according to claim 1, wherein the control data does not include data on a displacement amount corresponding to an area outside the tactile sense presentation range of the target object.
前記相対変位量に対応付けられて記憶されている制御データ、及び、前記開始変位量の少なくともいずれか一方の調整を受け付ける
請求項2に記載の制御装置。
The control device according to claim 2, wherein the control device receives adjustment of at least one of control data stored in association with the relative displacement amount and the start displacement amount.
操作者の操作に対して変位可能に設けられた変位部を有し、変位部の変位量に応じて、前記変位部への操作に対する力覚を生じさせ、表示される対象物の触覚を提示する触覚提示装置の制御方法であって、
前記触覚提示装置に接続されるコンピュータが、
前記変位部にて前記力覚の提示を開始する開始変位量と、前記開始変位量からの相対変位量に対応付けた前記力覚を生じさせるための制御データとを、前記対象物毎に記憶しておき、
選択された対象物に対応する開始変位量と、前記相対変位量毎の制御データとに基づき、前記記憶されてある制御データを、前記変位部の絶対変位量に対応付けた制御データに変換し、
変換後の制御データを、前記触覚提示装置へ出力する
処理部を含む制御方法。
It has a displacement part that is displaceable in response to an operation by an operator, and generates a force sensation in response to the operation on the displacement part according to the amount of displacement of the displacement part, and presents a tactile sensation of the displayed object. A method for controlling a tactile presentation device, comprising:
A computer connected to the tactile presentation device,
A starting displacement amount for starting presentation of the force sensation in the displacement unit and control data for producing the force sensation, which is associated with a relative displacement amount from the starting displacement amount, are stored for each of the objects. Keep it
Converting the stored control data into control data associated with the absolute displacement amount of the displacement portion based on the starting displacement amount corresponding to the selected object and the control data for each relative displacement amount. ,
A control method including a processing unit that outputs converted control data to the tactile presentation device.
操作者の操作に対して変位可能に設けられた変位部を有し、変位部の変位量に応じて、前記変位部への操作に対する力覚を生じさせ、表示される対象物の触覚を提示する触覚提示装置と、
前記触覚提示装置と通信接続し、表示部を備える情報処理装置と
を含み、
前記情報処理装置は、
前記変位部にて前記力覚の提示を開始する開始変位量と、前記開始変位量からの相対変位量に対応付けた前記力覚を生じさせるための制御データとを、前記対象物毎に記憶しておき、
選択された対象物に対応する開始変位量と、前記相対変位量毎の制御データとに基づき、前記記憶されてある制御データを、前記変位部の絶対変位量に対応付けた制御データに変換し、
変換後の制御データを、前記触覚提示装置へ出力し、
視覚データに基づき、前記変位部の変位量に応じて前記表示部に画像を出力する
触覚提示システム。
It has a displacement part that is displaceable in response to an operation by an operator, and generates a force sensation in response to the operation on the displacement part according to the amount of displacement of the displacement part, and presents a tactile sensation of the displayed object. a tactile presentation device that
an information processing device that is communicatively connected to the tactile presentation device and includes a display unit;
The information processing device includes:
A starting displacement amount for starting presentation of the force sensation in the displacement unit and control data for producing the force sensation, which is associated with a relative displacement amount from the starting displacement amount, are stored for each of the objects. Keep it
Converting the stored control data into control data associated with the absolute displacement amount of the displacement portion based on the starting displacement amount corresponding to the selected object and the control data for each relative displacement amount. ,
outputting the converted control data to the tactile presentation device;
A tactile presentation system that outputs an image to the display unit according to the amount of displacement of the displacement unit based on visual data.
操作者の操作に対して変位可能に設けられた変位部を有し、変位部の変位量に応じて、前記変位部への操作に対する力覚を生じさせ、表示される対象物の触覚を提示する触覚提示装置に接続されるコンピュータに、
前記変位部にて前記力覚の提示を開始する開始変位量と、前記開始変位量からの相対変位量に対応付けた前記力覚を生じさせるための制御データとを、前記対象物毎に記憶しておき、
選択された対象物に対応する開始変位量と、前記相対変位量毎の制御データとに基づき、前記記憶されてある制御データを、前記変位部の絶対変位量に対応付けた制御データに変換し、
変換後の制御データを、前記触覚提示装置へ出力する
処理を実行させるコンピュータプログラム。
It has a displacement part that is displaceable in response to an operation by an operator, and generates a force sensation in response to the operation on the displacement part according to the amount of displacement of the displacement part, and presents a tactile sensation of the displayed object. a computer connected to a tactile presentation device that
A starting displacement amount for starting presentation of the force sensation in the displacement unit and control data for producing the force sensation, which is associated with a relative displacement amount from the starting displacement amount, are stored for each of the objects. Keep it
Converting the stored control data into control data associated with the absolute displacement amount of the displacement portion based on the starting displacement amount corresponding to the selected object and the control data for each relative displacement amount. ,
A computer program that executes a process of outputting the converted control data to the tactile presentation device.
JP2022057118A 2022-03-30 2022-03-30 Control device, control method, haptic feedback system, and computer program Pending JP2023148853A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022057118A JP2023148853A (en) 2022-03-30 2022-03-30 Control device, control method, haptic feedback system, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022057118A JP2023148853A (en) 2022-03-30 2022-03-30 Control device, control method, haptic feedback system, and computer program

Publications (1)

Publication Number Publication Date
JP2023148853A true JP2023148853A (en) 2023-10-13

Family

ID=88288866

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022057118A Pending JP2023148853A (en) 2022-03-30 2022-03-30 Control device, control method, haptic feedback system, and computer program

Country Status (1)

Country Link
JP (1) JP2023148853A (en)

Similar Documents

Publication Publication Date Title
CN108399003B (en) Haptic broadcast with selected haptic metadata
CN108170262B (en) Haptic surround function
US11385723B2 (en) Haptic information presentation system and method
US11308772B2 (en) Haptic information presentation system
US20170212589A1 (en) Providing fingertip tactile feedback from virtual objects
US11325029B2 (en) Virtual reality environment generating apparatus and controller apparatus
EP3217255A1 (en) Peripheral device with haptic diminishment prevention component
US20120229248A1 (en) Multipurpose controller for electronic devices, facial expressions management and drowsiness detection
CN109478089A (en) Multi-modal haptic effect
US11880528B2 (en) Stimulus transmission device
JP5352813B2 (en) Non-grounding type haptic device
TW202028966A (en) System and method for controlling a massage apparatus
JP2007026297A (en) Vibration controller, temperature controller and movement controller
JP2011048651A (en) Grip feeling feed-back device
US11169607B1 (en) Haptic-feedback apparatuses that utilize linear motion for creating haptic cues
JP2023148853A (en) Control device, control method, haptic feedback system, and computer program
JP6043544B2 (en) Input device, input system, electronic device, and sensory presentation method
WO2023189422A1 (en) Control device, control method, haptic presentation system, and program product
WO2023189425A1 (en) Control device, control method, haptic feedback system, and program product
WO2023189423A1 (en) Control device, control method, tactile sense presentation system, and program product
JP2023148854A (en) Control device, control method, haptic feedback system, and computer program
US11550397B1 (en) Systems and methods for simulating a sensation of expending effort in a virtual environment
WO2021176861A1 (en) Information processing device and information processing method, computer program, and augmented reality sensing system
US11366521B2 (en) Device for intuitive dexterous touch and feel interaction in virtual worlds
KR20140106309A (en) Input device for virual reality having the fuction of forth-feedback