JP7319813B2 - Haptic presentation system, haptic presentation device, and program - Google Patents

Haptic presentation system, haptic presentation device, and program Download PDF

Info

Publication number
JP7319813B2
JP7319813B2 JP2019078499A JP2019078499A JP7319813B2 JP 7319813 B2 JP7319813 B2 JP 7319813B2 JP 2019078499 A JP2019078499 A JP 2019078499A JP 2019078499 A JP2019078499 A JP 2019078499A JP 7319813 B2 JP7319813 B2 JP 7319813B2
Authority
JP
Japan
Prior art keywords
haptic
unit
presentation device
virtual space
force sense
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019078499A
Other languages
Japanese (ja)
Other versions
JP2020177398A (en
Inventor
拓也 半田
真希子 東
悟 近藤
俊宏 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2019078499A priority Critical patent/JP7319813B2/en
Publication of JP2020177398A publication Critical patent/JP2020177398A/en
Application granted granted Critical
Publication of JP7319813B2 publication Critical patent/JP7319813B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、力覚提示システム、力覚提示装置、及びプログラムに関する。 The present invention relates to a haptic presentation system, a haptic presentation device, and a program.

従来、例えば、ヘッドマウントディスプレイ(HMD;Head Mounted Display)等を用いて、仮想空間上の物体(仮想物体)を表示するバーチャルリアリティ(VR;virtual reality)技術が知られている。また、仮想空間上の物体に対する接触感を振動等により提示する技術も知られている。 2. Description of the Related Art Conventionally, a virtual reality (VR) technology is known that displays an object (virtual object) in a virtual space using, for example, a head mounted display (HMD) or the like. There is also known a technique of presenting a feeling of contact with an object in virtual space by means of vibration or the like.

また、ユーザの指の位置に応じて、ユーザの指に接触している棒を伸縮させ、仮想空間上の物体を把持している感覚を提示する技術が知られている(例えば、特許文献1を参照)。 Also, there is known a technique for presenting a feeling of gripping an object in a virtual space by expanding and contracting a stick that is in contact with the user's finger according to the position of the user's finger (for example, Patent Document 1). ).

特開2015-215795号公報JP 2015-215795 A

従来技術では、例えば、ユーザが把持する物体が仮想的な物体と衝突したこと等の力覚をユーザが認識しにくい場合がある。開示の技術は、より適切にユーザに対して力覚を提示できる技術を提供することを目的とする。 In the conventional technology, for example, it may be difficult for the user to perceive a force sensation such as collision of an object held by the user with a virtual object. An object of the technology disclosed herein is to provide a technology capable of more appropriately presenting a force sensation to a user.

ユーザに力覚を提示する力覚提示装置と、前記力覚提示装置を制御する情報処理装置と、を有する力覚提示システムを提供する。前記情報処理装置は、仮想空間における第1物体の位置を制御し、前記仮想空間において前記力覚提示装置に対応付けられる第2物体の位置を制御する仮想空間制御部と、前記仮想空間において前記第1物体と前記第2物体とが衝突した場合、当該衝突に応じた制御情報を前記力覚提示装置に送信する送信部と、を有し、前記力覚提示装置は、前記第1物体との衝突に応じた制御信号を前記情報処理装置から受信する受信部と、前記受信部により受信された制御信号に基づいて、前記第1物体が前記第2物体と衝突した方向に、前記ユーザに把持される把持部をへこませる制御部と、前記力覚提示装置を振動させる振動部と、を有し、前記制御部は、第1時点で前記振動部の振動を開始させ、前記第1時点とは異なる第2時点で前記第1物体が前記第2物体と衝突した方向に前記把持部をへこませる制御を開始し、前記第1物体の材質及び前記第2物体の材質に応じて、前記第1時点と前記第2時点との時間差を異ならせるProvided is a haptic presentation system having a haptic presentation device that presents a haptic to a user and an information processing device that controls the haptic presentation device. The information processing device includes a virtual space control unit that controls the position of a first object in the virtual space and controls the position of the second object that is associated with the haptic presentation device in the virtual space; a transmitting unit configured to transmit control information corresponding to the collision to the haptic presentation device when the first object and the second object collide, wherein the haptic presentation device and the first object; a receiving unit that receives from the information processing device a control signal corresponding to the collision of the first object and the second object, based on the control signal received by the receiving unit, to the user and a vibration unit configured to vibrate the force sense presentation device. At a second point in time different from the point in time, control is started to indent the grip portion in the direction in which the first object collided with the second object, and depending on the material of the first object and the material of the second object, , the time difference between the first time point and the second time point .

開示の技術によれば、より適切にユーザに対して力覚を提示できる。 According to the disclosed technique, it is possible to more appropriately present a force sensation to the user.

実施形態に係る力覚提示システムの構成例を示す図である。It is a figure which shows the structural example of the force sense presentation system which concerns on embodiment. 実施形態に係る力覚提示装置の構成の一例(その一)について説明する図である。1 is a diagram illustrating an example (part 1) of a configuration of a force sense presentation device according to an embodiment; FIG. 実施形態に係る力覚提示装置の構成の一例(その一)について説明する図である。1 is a diagram illustrating an example (part 1) of a configuration of a force sense presentation device according to an embodiment; FIG. 実施形態に係る力覚提示装置の構成の一例(その一)について説明する図である。1 is a diagram illustrating an example (part 1) of a configuration of a force sense presentation device according to an embodiment; FIG. 実施形態に係る力覚提示システムの機能ブロック図の一例を示す図である。It is a figure which shows an example of the functional block diagram of the force sense presentation system which concerns on embodiment. 実施形態に係る力覚提示システムの処理の一例を示すフローチャートである。7 is a flowchart showing an example of processing of the haptic presentation system according to the embodiment; 実施形態に係る力覚提示システムの処理の一例について説明する図である。FIG. 5 is a diagram illustrating an example of processing of the haptic presentation system according to the embodiment; 実施形態に係る力覚提示システムの処理の一例について説明する図である。FIG. 5 is a diagram illustrating an example of processing of the haptic presentation system according to the embodiment; 実施形態に係る力覚提示システムの処理の一例について説明する図である。FIG. 5 is a diagram illustrating an example of processing of the haptic presentation system according to the embodiment; 実施形態に係る力覚提示装置10におけるへこみ、振動、及び音が提示されるタイミングの一例について説明する図である。FIG. 4 is a diagram illustrating an example of timings at which dents, vibrations, and sounds are presented in the haptic device 10 according to the embodiment; 実施形態に係る力覚提示装置10におけるへこみ、振動、及び音が提示されるタイミングの一例について説明する図である。FIG. 4 is a diagram illustrating an example of timings at which dents, vibrations, and sounds are presented in the haptic device 10 according to the embodiment; 実施形態に係る力覚提示装置の構成の一例(その二)について説明する図である。2 is a diagram illustrating an example (part 2) of the configuration of a force sense presentation device according to an embodiment; FIG. 実施形態に係る力覚提示装置の構成の一例(その二)について説明する図である。2 is a diagram illustrating an example (part 2) of the configuration of a force sense presentation device according to an embodiment; FIG.

以下、図面を参照しながら本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<システム構成>
図1は、実施形態に係る力覚提示システム1の構成例を示す図である。図1において、力覚提示システム1は、力覚提示装置10、情報処理装置20、及び表示装置40を有する。
<System configuration>
FIG. 1 is a diagram showing a configuration example of a force sense presentation system 1 according to an embodiment. In FIG. 1 , the haptic presentation system 1 includes a haptic presentation device 10 , an information processing device 20 , and a display device 40 .

図1の例では、力覚提示装置10と情報処理装置20は、例えば、USB(Universal Serial Bus)のケーブル30等により通信できるように接続されている。なお、力覚提示装置10と情報処理装置20との間を、例えば、BLE(Bluetooth(登録商標) Low Energy)、または無線LAN等の無線より通信できるように接続してもよい。 In the example of FIG. 1, the haptic presentation device 10 and the information processing device 20 are connected so as to communicate with each other via a USB (Universal Serial Bus) cable 30, for example. Note that the haptic presentation device 10 and the information processing device 20 may be connected so as to communicate wirelessly such as BLE (Bluetooth (registered trademark) Low Energy) or wireless LAN.

力覚提示装置10は、力覚提示装置10の現在の2次元または3次元の位置を情報処理装置20に通知する。なお、情報処理装置20は、レーザやステレオカメラ等により、力覚提示装置10の3次元位置を検出してもよい。また、力覚提示装置10は、情報処理装置20から受信した制御コマンドに従い、仮想空間における物体と衝突(接触)したことの力覚をユーザの指等に対して提示する。 The haptic presentation device 10 notifies the information processing device 20 of the current two-dimensional or three-dimensional position of the haptic presentation device 10 . The information processing device 20 may detect the three-dimensional position of the force sense presentation device 10 using a laser, a stereo camera, or the like. Further, the haptic presentation device 10 presents the haptic sensation of collision (contact) with an object in the virtual space to the user's finger or the like according to the control command received from the information processing device 20 .

力覚提示装置10は、例えば、ボール式のマウスと同様に、力覚提示装置10がマウスパッド等の上を移動された際のトラックボールの回転に基づいて、力覚提示装置10の水平面上の位置(2次元位置)を取得してもよい。または光学式のマウスと同様に、赤外線、レーザ、LED等で力覚提示装置10の底面を照らし、力覚提示装置10がマウスパッド等の上を移動された際の赤外線、レーザ、LED等の反射をカメラセンサで検知することにより、力覚提示装置10の水平面上の位置を取得してもよい。 For example, similar to a ball-type mouse, the haptic presentation device 10 moves on the horizontal plane of the haptic presentation device 10 based on the rotation of the trackball when the haptic presentation device 10 is moved on a mouse pad or the like. position (two-dimensional position) may be obtained. Alternatively, similarly to an optical mouse, the bottom surface of the haptic presentation device 10 is illuminated with infrared rays, lasers, LEDs, or the like, and infrared rays, lasers, LEDs, etc. are emitted when the haptic presentation device 10 is moved on a mouse pad or the like. The horizontal position of the force sense presentation device 10 may be obtained by detecting the reflection with a camera sensor.

力覚提示装置10は、例えば、力覚提示装置10の下部に設けられたカメラ等により、力覚提示装置10の下に敷かれたパッドに記載された記号等を読み取り、読み取った記号等に基づいて、力覚提示装置10の水平面上の位置(2次元位置)を取得してもよい。または、力覚提示装置10は、例えば、各アームの接点のモータにより各アームの角度を検出し、予め設定されている各アームの長さと、各アームの角度とに基づいて、アームの先端等の位置を検出する3次元位置検出装置を用いて、力覚提示装置10の3次元位置を取得してもよい。この場合、力覚提示装置10は、3次元位置検出装置のアームの先端等に取り付けられてもよい。そして、3次元位置検出装置には、予め原点として設定されている所定の3次元位置に対する力覚提示装置10の現在の3次元位置を検出し、力覚提示装置10に出力してもよい。 For example, the haptic presentation device 10 reads a symbol or the like written on a pad placed under the haptic presentation device 10 by a camera or the like provided at the bottom of the haptic presentation device 10, and reads the symbol or the like. Based on this, the horizontal position (two-dimensional position) of the force sense presentation device 10 may be obtained. Alternatively, for example, the haptic presentation device 10 detects the angle of each arm by the motor of the contact point of each arm, and based on the preset length of each arm and the angle of each arm, detects the tip of the arm, etc. The three-dimensional position of the force sense presentation device 10 may be acquired using a three-dimensional position detection device that detects the position of the . In this case, the force sense presentation device 10 may be attached to the tip of the arm of the three-dimensional position detection device or the like. Then, the three-dimensional position detection device may detect the current three-dimensional position of the force sense presentation device 10 with respect to a predetermined three-dimensional position set in advance as the origin and output it to the force sense presentation device 10 .

または、力覚提示装置10は、カメラと加速度センサを有し、カメラの画像と加速度センサで検出した加速度とに基づいて、力覚提示装置10の3次元位置を検出してもよい。 Alternatively, the force sense presentation device 10 may have a camera and an acceleration sensor, and detect the three-dimensional position of the force sense presentation device 10 based on the camera image and the acceleration detected by the acceleration sensor.

情報処理装置20は、例えば、パーソナルコンピュータ、スマートフォン、及びセットトップボックス等の情報処理装置である。情報処理装置20は、力覚提示装置10の現実の位置に応じて、仮想空間における力覚提示装置10の位置に存在する物体と衝突したことの力覚をユーザに提示するための制御コマンドを力覚提示装置10に送信する。 The information processing device 20 is, for example, an information processing device such as a personal computer, a smart phone, or a set-top box. The information processing device 20 issues a control command for presenting the user with the force sensation of colliding with an object existing at the position of the haptic presentation device 10 in the virtual space according to the actual position of the haptic presentation device 10 . It is transmitted to the haptic presentation device 10 .

なお、情報処理装置20を力覚提示装置10の内部に収容することにより、情報処理装置20と力覚提示装置10とを一体の装置として構成してもよい。この場合、情報処理装置20として、例えば、組み込み用の小型コンピュータを用いてもよい。または、力覚提示装置10の制御装置19が、情報処理装置20の機能を有するようにしてもよい。 The information processing device 20 and the haptic presentation device 10 may be configured as an integrated device by housing the information processing device 20 inside the haptic presentation device 10 . In this case, for example, a small built-in computer may be used as the information processing device 20 . Alternatively, the control device 19 of the haptic presentation device 10 may have the functions of the information processing device 20 .

図1の例では、情報処理装置20は、表示装置40により仮想空間における各物体の画像を表示させながら、力覚提示装置10により力覚をユーザに提示する。 In the example of FIG. 1 , the information processing device 20 presents the haptic sensation to the user through the haptic presentation device 10 while causing the display device 40 to display an image of each object in the virtual space.

<力覚提示装置10の構成>
次に、図2Aから図2Cを参照し、実施形態に係る力覚提示装置10の構成の一例について説明する。図2Aから図2Cは、実施形態に係る力覚提示装置10の構成の一例(その一)について説明する図である。
<Configuration of haptic presentation device 10>
Next, an example of the configuration of the force sense presentation device 10 according to the embodiment will be described with reference to FIGS. 2A to 2C. 2A to 2C are diagrams illustrating an example (part 1) of the configuration of the force sense presentation device 10 according to the embodiment.

図2Aでは力覚提示装置10を横から見た場合の図が示されており、図2Bでは力覚提示装置10を上から見た場合の図が示されている。また、図2Cでは力覚提示装置10を分解した状態での斜視図が示されている。なお、図2Aから図2Cでは、説明のために、把持部12を半透明にして図示している。 2A shows a side view of the haptic presentation device 10, and FIG. 2B shows a top view of the haptic presentation device 10. As shown in FIG. Also, FIG. 2C shows a perspective view of the force sense presentation device 10 in an exploded state. In addition, in FIG. 2A to FIG. 2C, the grasping portion 12 is shown translucent for the sake of explanation.

図2Aから図2Cの例では、力覚提示装置10は、基台部(筐体)11、及びユーザが把持する把持部12を有している。図2Aから図2Cの例では、基台部11は円筒形の筐体であり、把持部12は、例えば、弾性を有する塗料の層を表面に有し、スポンジの層を内面に有する球状のカバーである。把持部12は、例えば、スポンジ等の柔らかくて弾性のある球の一部を水平に切断し、内部をくり抜くことにより形成されてもよい。また、把持部12の表面には、例えば、ポリウレタン、シリコン等のゴム弾性を有する塗料が塗られてもよい。これにより、把持部12がへこまされた後の復元力が強まるとともに、把持部12の表面に汚れが付きにくくなる。また、へこまされる際に力が加わる部分が裂けることを低減することができる。 In the example of FIGS. 2A to 2C, the force sense presentation device 10 has a base portion (housing) 11 and a grip portion 12 gripped by the user. In the example of FIGS. 2A to 2C, the base part 11 is a cylindrical housing, and the grip part 12 is, for example, a spherical body having a layer of elastic paint on its surface and a layer of sponge on its inner surface. is the cover. The grip portion 12 may be formed, for example, by horizontally cutting a part of a soft and elastic sphere such as sponge and hollowing out the inside. Further, the surface of the grip portion 12 may be coated with a paint having rubber elasticity such as polyurethane or silicon. As a result, the restoring force after the grip portion 12 is dented is enhanced, and the surface of the grip portion 12 is less likely to be stained. In addition, it is possible to reduce tearing of the portion to which force is applied when being dented.

図2Aから図2Cの例では、基台部11、及び把持部12により覆われる力覚提示装置10の内部には、振動部13、駆動部14、内部筐体15、位置センサ111、及び制御装置19等が設けられている。 In the example of FIGS. 2A to 2C, the inside of the force sense presentation device 10 covered by the base portion 11 and the grip portion 12 includes a vibrating portion 13, a driving portion 14, an internal housing 15, a position sensor 111, and a control device. A device 19 or the like is provided.

制御装置19は、例えば、組み込み用の小型コンピュータ等であり、情報処理装置20からの制御コマンドを受信し、受信した制御コマンドに基づいて、振動部13、及び駆動部14等の制御を行う。 The control device 19 is, for example, a built-in small computer or the like, receives control commands from the information processing device 20, and controls the vibrating section 13, the driving section 14, and the like based on the received control commands.

振動部13は、例えば、入力される電気信号を振動に変換する振動変換装置(トランスデューサー)である。図2Aから図2Cの例では、振動部13は、例えば、スピーカにおいて空気を振動させる部品であるスピーカユニットと同様の機構により、電気信号を振動に変換することにより、振動及び音をユーザに提示する振動変換装置である。 The vibration unit 13 is, for example, a vibration conversion device (transducer) that converts an input electrical signal into vibration. In the example of FIGS. 2A to 2C, the vibrating unit 13 presents vibration and sound to the user by converting an electrical signal into vibration with a mechanism similar to a speaker unit, which is a component that vibrates air in a speaker. It is a vibration conversion device that

駆動部14は、入力される電気信号を、把持部12をへこませる物理的運動に変換するアクチュエータである。図2Aから図2Cの例では、駆動部14は、4つのサーボモータを有し、各サーボモータは、サーボホーン16Aから16Dをそれぞれ回転させる。 The drive unit 14 is an actuator that converts an input electrical signal into a physical motion that causes the grasping unit 12 to collapse. In the example of Figures 2A-2C, drive 14 has four servo motors, each of which rotates a servo horn 16A-16D, respectively.

また、図2Aから図2Cの例では、引き寄せ部17Aが、サーボホーン16Aの一端部16A1と、把持部12の内側の接合点18Aとに接続されている。また、引き寄せ部17Bが、サーボホーン16Aの他端部16A2と、把持部12の内側の接合点18Bとに接続されている。また、引き寄せ部17Cが、サーボホーン16Bの一端部16B1と、把持部12の内側の接合点18Cとに接続されている。また、引き寄せ部17Dが、サーボホーン16Bの一端部16B2と、把持部12の内側の接合点18Dとに接続されている。また、引き寄せ部17Eが、サーボホーン16Cの一端部16C1と、把持部12の内側の接合点18Eとに接続されている。また、引き寄せ部17Fが、サーボホーン16Cの一端部16C2と、把持部12の内側の接合点18Fとに接続されている。また、引き寄せ部17Gが、サーボホーン16Dの一端部16D1と、把持部12の内側の接合点18Gとに接続されている。また、引き寄せ部17Hが、サーボホーン16Dの一端部16D2と、把持部12の内側の接合点18Hとに接続されている。引き寄せ部17Aから引き寄せ部17Hは、一端が引っ張られた場合には他端にも引っ張られる力を伝達し、一端が押し込まれた場合にはたわむ等により他端に力を伝達しない部材でもよい。引き寄せ部17Aから引き寄せ部17Hは、例えば、糸(紐)、及び鎖等の形状の部材でもよい。一例としては、ナイロン製等の糸等でもよい。 2A to 2C, the drawing portion 17A is connected to the one end portion 16A1 of the servo horn 16A and the joint point 18A inside the grip portion 12. As shown in FIG. Also, the pulling portion 17B is connected to the other end portion 16A2 of the servo horn 16A and the joint point 18B inside the grip portion 12. As shown in FIG. Also, the pulling portion 17C is connected to the one end portion 16B1 of the servo horn 16B and the joint point 18C inside the grip portion 12 . Also, the drawing portion 17D is connected to the one end portion 16B2 of the servo horn 16B and the joint point 18D inside the grip portion 12. As shown in FIG. Also, the drawing portion 17E is connected to the one end portion 16C1 of the servo horn 16C and the joint point 18E inside the grip portion 12 . Also, the drawing portion 17F is connected to the one end portion 16C2 of the servo horn 16C and the joint point 18F inside the grip portion 12. As shown in FIG. Also, the pulling portion 17G is connected to the one end portion 16D1 of the servo horn 16D and the joint point 18G inside the grip portion 12. As shown in FIG. Also, the drawing portion 17H is connected to one end portion 16D2 of the servo horn 16D and the joint point 18H inside the grip portion 12. As shown in FIG. The drawing portions 17A to 17H may be members that transmit the pulling force to the other end when one end is pulled, and do not transmit the force to the other end by bending or the like when the one end is pushed. The drawing parts 17A to 17H may be members in the form of threads (strings), chains, or the like, for example. As an example, a thread or the like made of nylon or the like may be used.

サーボホーン16Aの中心部104から一端部16A1までの長さ(サーボホーンの長さ)102をWとし、サーボホーン16Aの回転角度103をθとし、接合点18Aの移動距離101をDとすると、Dは、D≒|W×sinθ|で近似することができる。なお、サーボホーン16Aの長手方向が中心部104に最も近い把持部12の内側の点105と中心部104とを通る線に垂直な場合のサーボホーン16Aの回転角度を0度とする。 Let W be the length 102 from the center 104 of the servo horn 16A to one end 16A1 (the length of the servo horn), θ be the rotation angle 103 of the servo horn 16A, and D be the moving distance 101 of the junction 18A. D can be approximated by D≈|W×sin θ|. The rotation angle of the servo horn 16A when the longitudinal direction of the servo horn 16A is perpendicular to the line passing through the central portion 104 and the inner point 105 of the grip portion 12 closest to the central portion 104 is assumed to be 0 degrees.

図2Bに示すように、制御装置19は、サーボホーン16Aをθ回転させて引き寄せ部17Aを引っ張ることにより、接合点18Aに対面する把持部12の表面上の位置181(「第1部位」の一例。)を、距離Dだけへこませることができる。この場合、引き寄せ部17Bはたわむだけであるため、接合点18Bに対面する把持部12の表面上の位置182は変化しない。また、制御装置19は、サーボホーン16Aを-θ回転させて引き寄せ部17Bを引っ張ることにより、接合点18Bに対面する把持部12の表面上の位置182(「第2部位」の一例。)を、距離Dだけへこませることができる。サーボホーン16Bから16Dについても同様である。 As shown in FIG. 2B, the control device 19 rotates the servo horn 16A by θ to pull the drawing portion 17A, thereby causing the position 181 (“first portion”) on the surface of the grip portion 12 facing the junction 18A. ) can be recessed by a distance D. In this case, since the pulling portion 17B only bends, the position 182 on the surface of the gripping portion 12 facing the joining point 18B does not change. Further, the control device 19 rotates the servo horn 16A by -θ to pull the drawing portion 17B, thereby moving the position 182 (an example of the "second portion") on the surface of the grip portion 12 facing the joint point 18B. , can be recessed by a distance D. The same is true for the servo horns 16B to 16D.

内部筐体15は、振動部13、駆動部14、内部筐体15、及び制御装置19等を収容する筐体である。内部筐体15により、把持部12がユーザに強く握られた場合等でも、駆動部14等を保護することができる。 The internal housing 15 is a housing that accommodates the vibrating section 13, the driving section 14, the internal housing 15, the control device 19, and the like. The internal housing 15 can protect the drive unit 14 and the like even when the grip unit 12 is strongly gripped by the user.

位置センサ111は、例えば、力覚提示装置10の3次元位置(x、y、z)と姿勢角(ロール、ピッチ、ヨー)を検出するセンサである。位置センサ111は、例えば、x、y、z方向の各加速度を計測する3つの加速度センサ、x、y、z方向の各角速度を計測する3つの角速度センサ、床面からの高さを計測するレーザセンサ、床面を撮影するカメラ等を含むハイブリッドセンサーでもよい。 The position sensor 111 is, for example, a sensor that detects the three-dimensional position (x, y, z) and attitude angles (roll, pitch, yaw) of the force sense presentation device 10 . The position sensor 111 includes, for example, three acceleration sensors that measure acceleration in the x, y, and z directions, three angular velocity sensors that measure angular velocities in the x, y, and z directions, and a height from the floor surface. A hybrid sensor including a laser sensor, a camera for photographing the floor surface, and the like may be used.

なお、力覚提示装置10は、例えば、内蔵されたバッテリーから給電されてもよいし、USBケーブル等により情報処理装置20等の外部装置または電源コンセントから給電されてもよい。なお、把持部12の形状は、図2A等に示すような球状に限らず、板状、円筒形状等でもよい。また、サーボホーンの数等は、図2A等の例に限定されない。 For example, the haptic presentation device 10 may be powered by a built-in battery, or may be powered by an external device such as the information processing device 20 or a power outlet via a USB cable or the like. The shape of the grip portion 12 is not limited to the spherical shape shown in FIG. 2A and the like, and may be plate-like, cylindrical, or the like. Also, the number of servo horns and the like are not limited to the example shown in FIG. 2A and the like.

<力覚提示システム1の機能構成>
次に、図3Aを参照し、実施形態に係る力覚提示システム1の機能構成について説明する。図3Aは、実施形態に係る力覚提示システム1の機能ブロック図の一例を示す図である。
<Functional configuration of haptic presentation system 1>
Next, the functional configuration of the force sense presentation system 1 according to the embodiment will be described with reference to FIG. 3A. FIG. 3A is a diagram showing an example of a functional block diagram of the force sense presentation system 1 according to the embodiment.

≪力覚提示装置10の機能構成≫
図3Aの例では、実施形態に係る力覚提示装置10の制御装置19は、位置検出部191、送受信部192、及び制御部193を有する。位置検出部191、送受信部192、及び制御部193の機能は、例えば、制御装置19にインストールされた1以上のプログラムが、力覚提示装置10のCPUに実行させる処理により実現されてもよい。
<<Functional configuration of haptic presentation device 10>>
In the example of FIG. 3A , the control device 19 of the force sense presentation device 10 according to the embodiment has a position detection section 191 , a transmission/reception section 192 and a control section 193 . The functions of the position detection unit 191 , the transmission/reception unit 192 , and the control unit 193 may be implemented by, for example, processing that causes the CPU of the haptic presentation device 10 to execute one or more programs installed in the control device 19 .

位置検出部191は、例えば、位置センサ111により測定されたデータに基づいて、力覚提示装置10の位置を検出する。 The position detection unit 191 detects the position of the force sense presentation device 10 based on data measured by the position sensor 111, for example.

送受信部192は、情報処理装置20とデータを送受信する。送受信部192は、例えば、位置検出部191により検出された力覚提示装置10の位置情報を情報処理装置20に送信する。また、送受信部192は、例えば、仮想空間上の物体と力覚提示装置10との衝突に応じた制御信号を情報処理装置20から受信する。 The transmitting/receiving unit 192 transmits/receives data to/from the information processing device 20 . The transmission/reception unit 192 transmits, for example, the position information of the haptic device 10 detected by the position detection unit 191 to the information processing device 20 . The transmitting/receiving unit 192 also receives, from the information processing device 20, a control signal corresponding to a collision between an object in the virtual space and the haptic device 10, for example.

制御部193は、送受信部192により受信された制御信号に基づいて、振動部13を制御することにより、仮想空間上の第1物体と、力覚提示装置10に対応する仮想空間上の第2物体(アバター)との衝突に応じた振動、及び音を発生させる。 The control unit 193 controls the vibrating unit 13 based on the control signal received by the transmitting/receiving unit 192 to move the first object in the virtual space and the second object in the virtual space corresponding to the haptic device 10 . Vibration and sound are generated according to the collision with an object (avatar).

また、制御部193は、送受信部192により受信された制御信号に基づいて、駆動部14を制御することにより、仮想空間上の第1物体が第2物体と衝突した方向(衝突した際に第1物体から第2物体を見た方向)に、把持部12をへこませる。 Further, the control unit 193 controls the driving unit 14 based on the control signal received by the transmitting/receiving unit 192 to determine the direction in which the first object in the virtual space collided with the second object (the direction in which the second object collided). The grip portion 12 is recessed in the direction of viewing the second object from the first object.

≪情報処理装置20の機能構成≫
図3Aの例では、実施形態に係る情報処理装置20は、送受信部21、及び仮想空間制御部22を有する。送受信部21、及び仮想空間制御部22の機能は、例えば、情報処理装置20にインストールされた1以上のプログラムが、情報処理装置20のCPUに実行させる処理により実現されてもよい。
<<Functional configuration of information processing device 20>>
In the example of FIG. 3A, the information processing device 20 according to the embodiment has a transmitter/receiver 21 and a virtual space controller 22 . The functions of the transmitting/receiving unit 21 and the virtual space control unit 22 may be realized by, for example, processing that causes the CPU of the information processing device 20 to execute one or more programs installed in the information processing device 20 .

送受信部21は、力覚提示装置10とデータを送受信する。送受信部21は、例えば、力覚提示装置10の位置を示す情報を力覚提示装置10から受信する。 The transmitting/receiving unit 21 transmits/receives data to/from the haptic device 10 . The transmitting/receiving unit 21 receives, for example, information indicating the position of the haptic presentation device 10 from the haptic presentation device 10 .

仮想空間制御部22は、仮想空間における各物体の位置、移動、及び衝突を制御する。仮想空間制御部22は、仮想空間において力覚提示装置10に対応付けられる所定の物体(「第2物体」の一例)の位置を制御する。また、仮想空間制御部22は、仮想空間において一の物体と当該所定の物体とが衝突した場合、当該衝突に応じた制御情報を送受信部21により力覚提示装置10に送信させる。 The virtual space control unit 22 controls the position, movement and collision of each object in the virtual space. The virtual space control unit 22 controls the position of a predetermined object (an example of a “second object”) associated with the haptic device 10 in the virtual space. Further, when one object collides with the predetermined object in the virtual space, the virtual space control unit 22 causes the transmission/reception unit 21 to transmit control information corresponding to the collision to the force sense presentation device 10 .

<処理>
次に、図3Bから図5Bを参照し、力覚提示システム1の処理について説明する。図3Bは、実施形態に係る力覚提示システム1の処理の一例を示すフローチャートである。図4Aから図4Cは、実施形態に係る力覚提示システム1の処理の一例について説明する図である。図5A及び図5Bは、実施形態に係る力覚提示装置10におけるへこみ、振動、及び音が提示されるタイミングの一例について説明する図である。
<Processing>
Next, the processing of the force sense presentation system 1 will be described with reference to FIGS. 3B to 5B. FIG. 3B is a flowchart showing an example of processing of the force sense presentation system 1 according to the embodiment. 4A to 4C are diagrams illustrating an example of processing of the force sense presentation system 1 according to the embodiment. FIGS. 5A and 5B are diagrams illustrating an example of timing at which dents, vibrations, and sounds are presented in the force sense presentation device 10 according to the embodiment.

ステップS1において、力覚提示装置10の位置検出部191は、力覚提示装置10の位置を検出する。続いて、ステップS2において、力覚提示装置10の送受信部192は、力覚提示装置10の位置情報を情報処理装置20に送信する。 In step S<b>1 , the position detection unit 191 of the haptic device 10 detects the position of the haptic device 10 . Subsequently, in step S<b>2 , the transmitter/receiver 192 of the haptic presentation device 10 transmits the position information of the haptic presentation device 10 to the information processing device 20 .

続いて、ステップS3において、情報処理装置20の仮想空間制御部22は、力覚提示装置10の位置情報に基づいて、仮想空間上の第2物体の位置を制御し、仮想空間上の第1物体と第2物体との衝突を検知する。なお、情報処理装置20の仮想空間制御部22は、力覚提示装置10の現実空間における位置と無関係に、仮想空間上の第2物体の位置を制御するようにしてもよい。この場合、力覚提示装置10は、位置センサ111を有しなくともよい。続いて、ステップS4において、情報処理装置20の送受信部21は、当該衝突に応じた制御情報を力覚提示装置10に送信する。 Subsequently, in step S3, the virtual space control unit 22 of the information processing device 20 controls the position of the second object in the virtual space based on the position information of the haptic presentation device 10, and controls the position of the first object in the virtual space. A collision between the object and the second object is detected. Note that the virtual space control unit 22 of the information processing device 20 may control the position of the second object in the virtual space regardless of the position of the force sense presentation device 10 in the real space. In this case, the force sense presentation device 10 does not have to have the position sensor 111 . Subsequently, in step S<b>4 , the transmission/reception unit 21 of the information processing device 20 transmits control information corresponding to the collision to the force sense presentation device 10 .

続いて、ステップS5において、力覚提示装置10の制御部193は、送受信部192により受信された制御信号に基づいて、仮想空間上の第1物体が第2物体と衝突した方向に、把持部12をへこませる。 Subsequently, in step S5, the control unit 193 of the haptic device 10 moves the grasping unit in the direction in which the first object in the virtual space collided with the second object based on the control signal received by the transmitting/receiving unit 192. Depress 12.

なお、情報処理装置20は、仮想空間上の第1物体と第2物体との画像を、表示装置40に表示させてもよい。図4Aの例では、表示装置40に表示されている仮想空間の表示画面401において、物体404A(「第1物体」の一例。)、物体404B、力覚提示装置10の移動に応じて移動する物体402(「第2物体」の一例。)が示されている。 The information processing device 20 may cause the display device 40 to display images of the first object and the second object in the virtual space. In the example of FIG. 4A, on the display screen 401 of the virtual space displayed on the display device 40, the object 404A (an example of the "first object"), the object 404B, and the haptic presentation device 10 move in accordance with the movement. An object 402 (an example of a "second object") is shown.

図4Bのように、ユーザが、手451で力覚提示装置10を把持し、ユーザの前方の方向452に力覚提示装置10を移動させた場合、仮想空間制御部22は、物体402の位置を表示画面401の上方向403に移動させる。そして、仮想空間制御部22は、図4Aに示すように、物体402と物体404Aとが仮想空間上で衝突した場合、図3BのステップS4の処理で、図4Aに示すベクトル405の方向である、物体404Aが物体402と衝突した方向に、力覚提示装置10を振動させるとともにへこませる制御信号を送信する。これにより、ユーザは、力覚提示装置10がどの方向からどのくらいの力で衝突されたかを認識することができる。また、ユーザは、この衝突により、力覚提示装置10がベクトル405の方向に移動していくことを認識することができる。これにより、例えば、バレーボールの試合の映像を表示しながら、バレーボールのボールがどの方向からどのくらいの力で競技者により叩かれたか等の力覚を、当該ボールをアバターとする力覚提示装置10によりユーザに提示することができる。 As shown in FIG. 4B , when the user grips the haptic device 10 with a hand 451 and moves the haptic device 10 in a forward direction 452 of the user, the virtual space control unit 22 changes the position of the object 402 is moved upward 403 on the display screen 401 . Then, as shown in FIG. 4A, when the object 402 and the object 404A collide in the virtual space, the virtual space control unit 22 determines that the direction of the vector 405 shown in FIG. , transmits a control signal to vibrate and dent the force sense presentation device 10 in the direction in which the object 404A collides with the object 402 . This allows the user to recognize from which direction and with what force the haptic device 10 has been impacted. Also, the user can recognize that the force sense presentation device 10 moves in the direction of the vector 405 due to this collision. As a result, for example, while displaying an image of a volleyball game, the force sense presentation device 10, which uses the ball as an avatar, can provide a sense of force, such as in what direction and with what force the player has hit the ball. can be presented to the user.

ここで、仮想空間制御部22は、例えば、物体404Aの位置、移動方向、移動速度、材質、及び質量と、物体402の位置、移動方向、移動速度、材質、及び質量とに基づいて、衝突により物体402が受ける力のベクトル405を算出してもよい。なお、物体404Aの材質、及び質量と、物体402の材質、及び質量とは、予め設定されていてもよい。 Here, the virtual space control unit 22, for example, based on the position, moving direction, moving speed, material, and mass of the object 404A and the position, moving direction, moving speed, material, and mass of the object 402, A force vector 405 that the object 402 receives may be calculated by . The material and mass of the object 404A and the material and mass of the object 402 may be set in advance.

また、仮想空間制御部22は、例えば、物体404Aの位置、及び形状と、物体402の位置、及び形状とに基づいて、衝突により物体402が力を受ける部位(衝突部位、衝突箇所)を算出してもよい。なお、物体404Aの形状と、物体402の形状とは、予め設定されていてもよい。 In addition, the virtual space control unit 22 calculates, for example, the part (collision part, collision part) where the object 402 receives force due to the collision, based on the position and shape of the object 404A and the position and shape of the object 402. You may Note that the shape of the object 404A and the shape of the object 402 may be set in advance.

そして、図3BのステップS5の処理で、力覚提示装置10の制御部193は、図4Cに示すように、受信した制御信号に基づいて、仮想空間上の第1物体が第2物体と衝突した方向462に、第1物体が第2物体と衝突した部位に対応する把持部12の部位461をへこませる。 Then, in the process of step S5 in FIG. 3B, the control unit 193 of the haptic device 10 causes the first object in the virtual space to collide with the second object based on the received control signal, as shown in FIG. 4C. A portion 461 of the grip portion 12 corresponding to the portion where the first object collided with the second object is dented in the direction 462 .

また、図3BのステップS5の処理で、制御部193は、受信した制御信号に基づいて、振動部13を制御することにより、第1物体と第2物体との衝突に応じた振動、及び音を発生させる。制御部193は、振動部13の振動を開始させる第1時点を、第1物体が第2物体と衝突した方向に把持部12をへこませる制御を開始する第2時点とは異なる時点としてもよい。この場合、制御部193は、振動部13の振動を開始させた後、第1物体が第2物体と衝突した方向に把持部12をへこませる制御を開始してもよい。これにより、把持部12の振動が開始されるタイミングと、把持部12のへこみが開始されるタイミングがずれるため、振動の開始による力覚とへこみの開始による力覚とがユーザに混同されにくくなる等により、ユーザにへこむ感触を知覚させ易くすることができる。 Further, in the process of step S5 in FIG. 3B, the control unit 193 controls the vibrating unit 13 based on the received control signal to generate vibration and sound in response to the collision between the first object and the second object. generate The control unit 193 may set the first time point at which the vibration of the vibrating portion 13 is started to be different from the second time point at which the control of indenting the gripping portion 12 in the direction in which the first object collides with the second object is started. good. In this case, the control unit 193 may start the control of indenting the gripping unit 12 in the direction in which the first object collided with the second object after starting the vibration of the vibrating unit 13 . As a result, the timing at which the grip portion 12 starts to vibrate and the timing at which the grip portion 12 starts to dent are shifted, so that the user is less likely to confuse the force sense due to the start of vibration and the force sense due to the start of denting. For example, the user can easily perceive the feeling of depression.

または、制御部193は、第1物体が第2物体と衝突した方向に把持部12をへこませる制御を開始した後、振動部13の振動を開始させてもよい。この場合、へこみが開始される第2時点は振動が開始される第1時点よりも早い時点となる。これにより、把持部12の振動が開始されるタイミングと、把持部12のへこみが開始されるタイミングがずれるため、振動の開始による力覚とへこみの開始による力覚とがユーザに混同されにくくなる等により、ユーザにへこむ感触を知覚させ易くすることができる。 Alternatively, the control unit 193 may cause the vibrating unit 13 to start vibrating after starting the control to dent the gripping unit 12 in the direction in which the first object collided with the second object. In this case, the second point in time when the denting starts is earlier than the first point in time when the vibration starts. As a result, the timing at which the grip portion 12 starts to vibrate and the timing at which the grip portion 12 starts to dent are shifted, so that the user is less likely to confuse the force sense due to the start of vibration and the force sense due to the start of denting. For example, the user can easily perceive the feeling of depression.

力覚提示装置10の制御部193は、第1物体の材質と第2物体の材質とに応じた音を出力させる電気信号を、第1物体と第2物体との衝突の力の大きさに応じた振幅で、第1物体の材質と第2物体の材質と第1物体と第2物体との衝突の力の大きさとに応じた時間、振動部13に出力する。制御部193は、例えば、第1物体の材質と第2物体の材質とが金属等の硬い材質であれば、高い周波数の音を振動部13に出力させる。 The control unit 193 of the haptic presentation device 10 outputs an electrical signal for outputting a sound corresponding to the material of the first object and the material of the second object according to the magnitude of the collision force between the first object and the second object. The amplitude is output to the vibrating section 13 for a time corresponding to the material of the first object, the material of the second object, and the magnitude of the force of collision between the first object and the second object. For example, if the material of the first object and the material of the second object are hard materials such as metal, the control unit 193 causes the vibrating unit 13 to output a high-frequency sound.

図5A、及び図5Bでは、制御部193は、振動部13の振動を開始させた後、第1物体が第2物体と衝突した方向に把持部12をへこませる制御を開始する場合の例について説明する。制御部193は、図5Bの例では、第1物体が第2物体と衝突した時点tから、当該時間(例えば、500ms)が経過した時点tまで、音を出力させる電気信号513を出力している。 5A and 5B show an example in which the control unit 193 starts the control of indenting the gripping unit 12 in the direction in which the first object collided with the second object after starting the vibration of the vibrating unit 13. will be explained. In the example of FIG. 5B, the control unit 193 outputs an electrical signal 513 that causes a sound to be output from time t1 when the first object collides with the second object to time t4 when the time (for example, 500 ms) has elapsed. are doing.

また、制御部193は、第1物体の材質と第2物体の材質とに応じた時間(遅延時間)が経過した後、第1物体と第2物体との衝突の力の大きさに応じた量だけ把持部12をへこませる電気信号を駆動部14のサーボモータに出力する。なお、制御部193は、情報処理装置20から受信した制御信号に基づいて、駆動部14の各サーボモータのうち、衝突した部位に対応するサーボモータを決定し、決定したサーボモータに当該電気信号を出力する。 Further, after the time (delay time) corresponding to the material of the first object and the material of the second object has elapsed, the control unit 193 determines the magnitude of the collision force between the first object and the second object. An electrical signal is output to the servomotor of the drive unit 14 to indent the gripper 12 by an amount. Based on the control signal received from the information processing device 20, the control unit 193 determines the servo motor corresponding to the collision site among the servo motors of the drive unit 14, and sends the electric signal to the determined servo motor. to output

制御部193は、例えば、第1物体の材質と第2物体の材質とが金属等の硬い材質であれば、柔らかい材質の場合よりも当該遅延時間を短くする。これにより、材質に応じた衝突の力覚を提示できる。なお、制御部193は、第1物体が第2物体と衝突した方向に把持部12をへこませた後で振動部13の振動を開始させる場合も、同様に、材質に応じた遅延時間を算出し、へこませる制御を開始した後、当該遅延時間が経過した後、振動を開始させればよい。 For example, if the material of the first object and the material of the second object are hard materials such as metal, the control unit 193 shortens the delay time compared to soft materials. As a result, it is possible to present a force sense of collision according to the material. Note that the control unit 193 similarly sets the delay time according to the material when starting the vibration of the vibrating unit 13 after the grasping unit 12 is dented in the direction in which the first object collided with the second object. Vibration may be started after the delay time has elapsed after calculating and indenting control is started.

また、制御部193は、例えば、第1物体の材質と第2物体の材質とが金属等の硬い材質であれば、柔らかい材質の場合よりも短時間で把持部12をへこませる電気信号を出力する。これにより、より適切にユーザに対して衝突の力覚を提示できる。 In addition, for example, if the material of the first object and the material of the second object are hard materials such as metal, the control unit 193 outputs an electric signal that causes the grip part 12 to be dented in a shorter time than in the case of soft materials. Output. As a result, it is possible to more appropriately present the force of collision to the user.

制御部193は、図5Aの例では、時点tよりも当該遅延時間(例えば、100ms)後の時点tから第1物体と第2物体との衝突の力の大きさに応じた時間が経過する時点tまでの間、所定の電圧501のパルス幅変調(PWM、Pulse Width Modulation)の電気信号502を出力している。 In the example of FIG. 5A, the control unit 193 controls the time corresponding to the magnitude of the collision force between the first object and the second object from time t2 after the delay time (for example, 100 ms) from time t1. A pulse width modulation (PWM) electric signal 502 with a predetermined voltage 501 is output until time t3 .

第2物体が、例えば、ボール競技(例えば、バレーボール等)のボールのような復元力のある物体の場合、制御部193は、図5Aの時点t以降の時点において、電気信号502とは逆の波形の電気信号を駆動部14のサーボモータに出力し、サーボホーンの位置を元に戻してもよい。これにより、把持部12のスポンジ等の復元力により、へこんでいた箇所が元に戻される。 If the second object is, for example, an object with a restoring force, such as a ball for a ball game (eg, volleyball, etc.), the control unit 193 controls the electric signal 502 at times after time t3 in FIG. 5A. may be output to the servomotor of the drive unit 14 to restore the position of the servo horn. As a result, the dented portion is restored by the restoring force of the sponge or the like of the grip portion 12 .

制御部193は、接合点18Aから接合点18Hのうち、ユーザの指で把持される位置に対応する接合点と、ユーザの手のひらで把持される位置に対応する接合点とで、へこませる速度及び量を変化させてもよい。 The control unit 193 controls the denting speed at the joint point corresponding to the position held by the user's fingers and the joint point corresponding to the position held by the user's palm, among the joint points 18A to 18H. and amounts may vary.

例えば、把持部12の表面に張られたシールの表記に基づき、ユーザは、接合点18Aから接合点18Eにそれぞれ対面する把持部12の表面上の5か所の各位置を各指で把持し、接合点18Fから接合点18Hにそれぞれ対面する把持部12の表面上の3か所の各位置を手のひらで把持する。 For example, the user grips with each finger five positions on the surface of the gripping portion 12 that face the joint points 18A to 18E, respectively, based on the notation on the seal attached to the surface of the gripping portion 12. , and the joint points 18F to 18H.

この場合、制御部193は、第2物体が第1物体と衝突した位置に対応する把持部12における第1位置がユーザの指により接触される位置である場合は、接合点18Aから接合点18Eのうち当該位置に対応する接合点を第1速度で第1量だけ第1物体が第2物体と衝突した方向にへこませる。 In this case, if the first position on the grip part 12 corresponding to the position where the second object collided with the first object is the position touched by the user's finger, the controller 193 controls the connection point 18A to the connection point 18E. of which the junction corresponding to the position is depressed by a first amount at a first speed in the direction in which the first object collides with the second object.

また、制御部193は、当該衝突した位置に対応する把持部12における位置がユーザの手のひらにより接触される第2位置である場合、接合点18Fから接合点18Hのうち当該位置に対応する接合点を第1速度よりも速い第2速度(例えば、第1速度の2倍の速度)で、第1量よりも多い第2量(例えば、第1量の2倍の量)だけ第1物体が前記第2物体と衝突した方向にへこませる。これにより、手のひらが当たっている部位をへこませる場合、指が当たっている部位をへこませる場合と比較して、より速く、より大きく把持部12をへこませるため、指と比較して感覚が鈍い手のひらが当たっている部位でも適切に力覚を提示することができる。 Further, when the position on the grip part 12 corresponding to the collision position is the second position contacted by the palm of the user, the control unit 193 selects the joint point corresponding to the position among the joint points 18F to 18H. at a second velocity that is faster than the first velocity (e.g., twice the first velocity) and by a second amount that is greater than the first amount (e.g., twice the first amount) It is dented in the direction of collision with the second object. As a result, when the part on which the palm is in contact is depressed, the grip part 12 is depressed faster and more greatly than when the part on which the finger is in contact is depressed. It is possible to appropriately present a force sensation even in the part where the palm touches, which has dull sensation.

<駆動部14の変形例>
駆動部14は、図2Aから図2Cに示した構成の代わりに、図6A及び図6Bに示す構成としてもよい。図6A及び図6Bは、実施形態に係る力覚提示装置10の構成の一例(その二)について説明する図である。
<Modified example of drive unit 14>
The drive unit 14 may have the configuration shown in FIGS. 6A and 6B instead of the configuration shown in FIGS. 2A to 2C. 6A and 6B are diagrams illustrating an example (part 2) of the configuration of the force sense presentation device 10 according to the embodiment.

図6A及び図6Bの例では、駆動部14は、サーボモータ601、及びサーボモータ603を有する。サーボモータ601は、サーボモータ603が載置された台602を水平面上で回転させる。サーボモータ603は、鉛直方向から、水平面上の一方向にサーボホーン604を倒す。 In the example of FIGS. 6A and 6B, the drive section 14 has a servomotor 601 and a servomotor 603 . A servomotor 601 rotates a table 602 on which a servomotor 603 is placed on a horizontal plane. The servo motor 603 tilts the servo horn 604 in one direction on the horizontal plane from the vertical direction.

また、引き寄せ部605が、サーボホーン604の先端部と、把持部12の内側の接合点606とに接続されている。引き寄せ部605は、例えば、一定の剛性を有する棒状の部材でもよい。 Also, a drawing portion 605 is connected to the tip of the servo horn 604 and a joint point 606 inside the grip portion 12 . The pulling part 605 may be, for example, a rod-shaped member having a certain rigidity.

引き寄せ部605は、接合点606において、把持部12の内側に設置されたレール607上を移動する第1滑車にボールジョイントされている。 The drawer 605 is ball jointed at a junction 606 to a first pulley that moves on a rail 607 located inside the gripper 12 .

図6Aに示すように、制御装置19は、サーボホーン604を当該一方向に倒させることにより、接合点606に対面する把持部12の表面上の位置をへこませることができる。 As shown in FIG. 6A , the control device 19 can dent the position on the surface of the gripper 12 facing the junction 606 by tilting the servo horn 604 in the one direction.

図6Bに示すように、サーボモータ601によりサーボモータ603が載置された台602が水平面上で回転されると、接合点606がレール607上で移動する。サーボモータ601により台602が水平面上で回転させ、台602に載置されたサーボモータ603を動作させることにより、制御装置19は、レール607上の各位置に対面する把持部12の表面上の位置をへこませることができる。 As shown in FIG. 6B, when the table 602 on which the servomotor 603 is placed is rotated by the servomotor 601 on the horizontal plane, the junction 606 moves on the rail 607 . A table 602 is rotated on a horizontal plane by a servomotor 601, and a servomotor 603 mounted on the table 602 is operated, whereby the control device 19 controls the surface of the gripper 12 facing each position on the rail 607. The position can be dented.

<変形例>
力覚提示装置10の制御装置19、及び情報処理装置20は、例えば複数のコンピュータにより構成されるクラウドコンピューティングにより実現されていてもよい。また、情報処理装置20における処理の少なくとも一部を、力覚提示装置10の制御装置19にて実行させるようにしてもよい。
<Modification>
The control device 19 of the haptic presentation device 10 and the information processing device 20 may be realized by cloud computing, for example, composed of a plurality of computers. Also, at least part of the processing in the information processing device 20 may be executed by the control device 19 of the haptic presentation device 10 .

<実施形態のまとめ>
従来、例えば、バーチャルリアリティ技術の進展により、視覚(映像)、及び聴覚(音声)に加え、触力覚にも情報を提示する技術が注目されている。従来、仮想的な物体と接触した感覚を提示できる様々な手法が提案され、提案された手法の引用文献粒例えば、ビデオゲーム機のコントローラ等のユーザインターフェースとして実用化されている。
<Summary of embodiment>
2. Description of the Related Art Conventionally, due to the development of virtual reality technology, for example, technology for presenting information not only visually (video) and auditory (sound) but also by tactile sensation has attracted attention. Conventionally, various methods have been proposed that can present the feeling of contact with a virtual object, and the proposed methods have been put into practical use as user interfaces such as controllers of video game machines, for example.

仮想的な物体と接触した感覚を提示できる手法として、例えば、ユーザの手や指に振動を提示することにより擬似的に力を感じさせる手法、及びモータ等のアクチュエータを用いて物理的に反力を提示する手法等がある。 Techniques that can present the sensation of contact with a virtual object include, for example, a technique that simulates force by presenting vibrations to the user's hands and fingers, and a technique that uses an actuator such as a motor to create a physical reaction force. There is a method of presenting

上述した実施形態によれば、仮想的な第1物体と、ユーザに把持される力覚提示装置10に対応する第2物体とが仮想空間上で衝突した際、第1物体が第2物体と衝突した方向に、力覚提示装置10の把持部12をへこませる。これにより、例えば、衝突した位置及び方向をユーザに認識させることができる。 According to the above-described embodiment, when the first virtual object and the second object corresponding to the force sense presentation device 10 held by the user collide in the virtual space, the first object collides with the second object. The grasping part 12 of the force sense presentation device 10 is dented in the direction of collision. This allows the user to recognize the position and direction of collision, for example.

以上本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。また、上述した各実施例の一部又は全部を組み合わせることも可能である。 Although the preferred embodiments of the present invention have been described in detail above, the present invention is not limited to such specific embodiments, and various modifications, Change is possible. It is also possible to combine part or all of the above-described embodiments.

1 力覚提示システム
10 力覚提示装置
11 基台部
12 把持部
13 振動部
14 駆動部
15 内部筐体
16A サーボホーン
16B サーボホーン
16C サーボホーン
16D サーボホーン
111 位置センサ
19 制御装置
191 位置検出部
192 送受信部
193 制御部
20 情報処理装置
21 送受信部
22 仮想空間制御部
1 Force sense presentation system 10 Force sense presentation device 11 Base unit 12 Grip unit 13 Vibration unit 14 Drive unit 15 Internal housing 16A Servo horn 16B Servo horn 16C Servo horn 16D Servo horn 111 Position sensor 19 Control device 191 Position detector 192 Transmission/reception unit 193 control unit 20 information processing device 21 transmission/reception unit 22 virtual space control unit

Claims (3)

ユーザに力覚を提示する力覚提示装置と、前記力覚提示装置を制御する情報処理装置と、を有する力覚提示システムであって、
前記情報処理装置は、
仮想空間における第1物体の位置を制御し、前記仮想空間において前記力覚提示装置に対応付けられる第2物体の位置を制御する仮想空間制御部と、
前記仮想空間において前記第1物体と前記第2物体とが衝突した場合、当該衝突に応じた制御情報を前記力覚提示装置に送信する送信部と、を有し、
前記力覚提示装置は、
前記第1物体との衝突に応じた制御信号を前記情報処理装置から受信する受信部と、
前記受信部により受信された制御信号に基づいて、前記第1物体が前記第2物体と衝突した方向に、前記ユーザに把持される把持部をへこませる制御部と、
前記力覚提示装置を振動させる振動部と、を有し、
前記制御部は、第1時点で前記振動部の振動を開始させ、前記第1時点とは異なる第2時点で前記第1物体が前記第2物体と衝突した方向に前記把持部をへこませる制御を開始し、前記第1物体の材質及び前記第2物体の材質に応じて、前記第1時点と前記第2時点との時間差を異ならせる、力覚提示システム。
A haptic presentation system including a haptic presentation device that presents a haptic sensation to a user and an information processing device that controls the haptic presentation device,
The information processing device is
a virtual space control unit that controls the position of a first object in a virtual space and controls the position of a second object that is associated with the haptic device in the virtual space;
a transmission unit configured to transmit control information corresponding to the collision to the force sense presentation device when the first object and the second object collide in the virtual space;
The haptic presentation device includes:
a receiving unit that receives from the information processing device a control signal corresponding to the collision with the first object;
a control unit that indents the grip held by the user in a direction in which the first object collided with the second object based on the control signal received by the receiving unit;
a vibrating unit that vibrates the haptic device,
The control unit causes the vibrating unit to start vibrating at a first time point, and dents the gripping unit in a direction in which the first object collides with the second object at a second time point different from the first time point. A haptic presentation system, wherein control is started to vary the time difference between the first time point and the second time point according to the material of the first object and the material of the second object.
前記振動部は、振動により音を出力し、
前記制御部は、前記第1時点で前記振動部により前記第1物体の材質及び前記第2物体の材質に応じた音の出力を開始させ、前記第2時点で前記第1物体が前記第2物体と衝突した方向に前記把持部をへこませる、
請求項に記載の力覚提示システム。
The vibrating unit outputs sound by vibration,
The control unit causes the vibrating unit to start outputting sound corresponding to the material of the first object and the material of the second object at the first time point, and at the second time point, the first object becomes the second object. indenting the gripping portion in the direction in which it collided with the object;
The force sense presentation system according to claim 1 .
前記制御部は、前記振動部により前記第1物体の材質及び前記第2物体の材質に応じた音の出力を開始させた時点から、前記第1物体の材質に応じた時間が経過した場合、前記第1物体が前記第2物体と衝突した方向に前記把持部をへこませる、
請求項に記載の力覚提示システム。
When the time corresponding to the material of the first object elapses from the point at which the vibration unit starts outputting the sound corresponding to the material of the first object and the material of the second object, denting the grip in the direction in which the first object collided with the second object;
The force sense presentation system according to claim 2 .
JP2019078499A 2019-04-17 2019-04-17 Haptic presentation system, haptic presentation device, and program Active JP7319813B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019078499A JP7319813B2 (en) 2019-04-17 2019-04-17 Haptic presentation system, haptic presentation device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019078499A JP7319813B2 (en) 2019-04-17 2019-04-17 Haptic presentation system, haptic presentation device, and program

Publications (2)

Publication Number Publication Date
JP2020177398A JP2020177398A (en) 2020-10-29
JP7319813B2 true JP7319813B2 (en) 2023-08-02

Family

ID=72936728

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019078499A Active JP7319813B2 (en) 2019-04-17 2019-04-17 Haptic presentation system, haptic presentation device, and program

Country Status (1)

Country Link
JP (1) JP7319813B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002304246A (en) 2001-04-04 2002-10-18 Nippon Telegr & Teleph Corp <Ntt> Tactile presenting device, and imaginary space system
JP2005267174A (en) 2004-03-18 2005-09-29 National Institute Of Advanced Industrial & Technology Ball type touch device
JP2009276996A (en) 2008-05-14 2009-11-26 Canon Inc Information processing apparatus, and information processing method
JP2010102560A (en) 2008-10-24 2010-05-06 National Institute Of Information & Communication Technology Gripping sense exhibition device
JP2010287221A (en) 2009-05-11 2010-12-24 Univ Of Tokyo Haptic device
WO2017022635A1 (en) 2015-08-06 2017-02-09 スピーシーズ株式会社 Figure and figure system
JP2018202018A (en) 2017-06-07 2018-12-27 株式会社豊田中央研究所 Collision sensation presentation system and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2131621C1 (en) * 1994-07-19 1999-06-10 Асахи Касеи Когио Кабусики Кайся Virtual reality and remote reality system
JPH11232012A (en) * 1998-02-17 1999-08-27 Omron Corp Interface device and interface system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002304246A (en) 2001-04-04 2002-10-18 Nippon Telegr & Teleph Corp <Ntt> Tactile presenting device, and imaginary space system
JP2005267174A (en) 2004-03-18 2005-09-29 National Institute Of Advanced Industrial & Technology Ball type touch device
JP2009276996A (en) 2008-05-14 2009-11-26 Canon Inc Information processing apparatus, and information processing method
JP2010102560A (en) 2008-10-24 2010-05-06 National Institute Of Information & Communication Technology Gripping sense exhibition device
JP2010287221A (en) 2009-05-11 2010-12-24 Univ Of Tokyo Haptic device
WO2017022635A1 (en) 2015-08-06 2017-02-09 スピーシーズ株式会社 Figure and figure system
JP2018202018A (en) 2017-06-07 2018-12-27 株式会社豊田中央研究所 Collision sensation presentation system and program

Also Published As

Publication number Publication date
JP2020177398A (en) 2020-10-29

Similar Documents

Publication Publication Date Title
JP7199476B2 (en) Control system, control device, control method, and program
JP5426713B2 (en) Gesture catalog generation and recognition
Wingrave et al. The wiimote and beyond: Spatially convenient devices for 3d user interfaces
US8313380B2 (en) Scheme for translating movements of a hand-held controller into inputs for a system
US9393487B2 (en) Method for mapping movements of a hand-held controller to game commands
JP5465948B2 (en) How to get input to control the execution of a game program
US20060256081A1 (en) Scheme for detecting and tracking user manipulation of a game controller body
WO2007130833A2 (en) Scheme for detecting and tracking user manipulation of a game controller body and for translating movements thereof into inputs and game commands
JP5352813B2 (en) Non-grounding type haptic device
EP2022039B1 (en) Scheme for detecting and tracking user manipulation of a game controller body and for translating movements thereof into inputs and game commands
US20160364960A1 (en) Systems and methods for ultrasonically induced tactile stimuli in an entertainment system
JP7319813B2 (en) Haptic presentation system, haptic presentation device, and program
JP2009535172A (en) Multi-input game control mixer
KR102251308B1 (en) Haptic controller and system and method for providing haptic feedback using the same
JP6319327B2 (en) Game controller
CN117251058B (en) Control method of multi-information somatosensory interaction system
JP2020179005A (en) Robot and method
JPH08257947A (en) Three-dimensional display device for inner force sense and touch sense
KR101020509B1 (en) Obtaining input for controlling execution of a program
JP2019106102A (en) Hardness sense presentation device
CN117572965A (en) Multi-information somatosensory interactive glove system for virtual reality system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230721

R150 Certificate of patent or registration of utility model

Ref document number: 7319813

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150