JP7319813B2 - Haptic presentation system, haptic presentation device, and program - Google Patents
Haptic presentation system, haptic presentation device, and program Download PDFInfo
- Publication number
- JP7319813B2 JP7319813B2 JP2019078499A JP2019078499A JP7319813B2 JP 7319813 B2 JP7319813 B2 JP 7319813B2 JP 2019078499 A JP2019078499 A JP 2019078499A JP 2019078499 A JP2019078499 A JP 2019078499A JP 7319813 B2 JP7319813 B2 JP 7319813B2
- Authority
- JP
- Japan
- Prior art keywords
- haptic
- unit
- presentation device
- virtual space
- force sense
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Manipulator (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、力覚提示システム、力覚提示装置、及びプログラムに関する。 The present invention relates to a haptic presentation system, a haptic presentation device, and a program.
従来、例えば、ヘッドマウントディスプレイ(HMD;Head Mounted Display)等を用いて、仮想空間上の物体(仮想物体)を表示するバーチャルリアリティ(VR;virtual reality)技術が知られている。また、仮想空間上の物体に対する接触感を振動等により提示する技術も知られている。 2. Description of the Related Art Conventionally, a virtual reality (VR) technology is known that displays an object (virtual object) in a virtual space using, for example, a head mounted display (HMD) or the like. There is also known a technique of presenting a feeling of contact with an object in virtual space by means of vibration or the like.
また、ユーザの指の位置に応じて、ユーザの指に接触している棒を伸縮させ、仮想空間上の物体を把持している感覚を提示する技術が知られている(例えば、特許文献1を参照)。 Also, there is known a technique for presenting a feeling of gripping an object in a virtual space by expanding and contracting a stick that is in contact with the user's finger according to the position of the user's finger (for example, Patent Document 1). ).
従来技術では、例えば、ユーザが把持する物体が仮想的な物体と衝突したこと等の力覚をユーザが認識しにくい場合がある。開示の技術は、より適切にユーザに対して力覚を提示できる技術を提供することを目的とする。 In the conventional technology, for example, it may be difficult for the user to perceive a force sensation such as collision of an object held by the user with a virtual object. An object of the technology disclosed herein is to provide a technology capable of more appropriately presenting a force sensation to a user.
ユーザに力覚を提示する力覚提示装置と、前記力覚提示装置を制御する情報処理装置と、を有する力覚提示システムを提供する。前記情報処理装置は、仮想空間における第1物体の位置を制御し、前記仮想空間において前記力覚提示装置に対応付けられる第2物体の位置を制御する仮想空間制御部と、前記仮想空間において前記第1物体と前記第2物体とが衝突した場合、当該衝突に応じた制御情報を前記力覚提示装置に送信する送信部と、を有し、前記力覚提示装置は、前記第1物体との衝突に応じた制御信号を前記情報処理装置から受信する受信部と、前記受信部により受信された制御信号に基づいて、前記第1物体が前記第2物体と衝突した方向に、前記ユーザに把持される把持部をへこませる制御部と、前記力覚提示装置を振動させる振動部と、を有し、前記制御部は、第1時点で前記振動部の振動を開始させ、前記第1時点とは異なる第2時点で前記第1物体が前記第2物体と衝突した方向に前記把持部をへこませる制御を開始し、前記第1物体の材質及び前記第2物体の材質に応じて、前記第1時点と前記第2時点との時間差を異ならせる。 Provided is a haptic presentation system having a haptic presentation device that presents a haptic to a user and an information processing device that controls the haptic presentation device. The information processing device includes a virtual space control unit that controls the position of a first object in the virtual space and controls the position of the second object that is associated with the haptic presentation device in the virtual space; a transmitting unit configured to transmit control information corresponding to the collision to the haptic presentation device when the first object and the second object collide, wherein the haptic presentation device and the first object; a receiving unit that receives from the information processing device a control signal corresponding to the collision of the first object and the second object, based on the control signal received by the receiving unit, to the user and a vibration unit configured to vibrate the force sense presentation device. At a second point in time different from the point in time, control is started to indent the grip portion in the direction in which the first object collided with the second object, and depending on the material of the first object and the material of the second object, , the time difference between the first time point and the second time point .
開示の技術によれば、より適切にユーザに対して力覚を提示できる。 According to the disclosed technique, it is possible to more appropriately present a force sensation to the user.
以下、図面を参照しながら本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<システム構成>
図1は、実施形態に係る力覚提示システム1の構成例を示す図である。図1において、力覚提示システム1は、力覚提示装置10、情報処理装置20、及び表示装置40を有する。
<System configuration>
FIG. 1 is a diagram showing a configuration example of a force
図1の例では、力覚提示装置10と情報処理装置20は、例えば、USB(Universal Serial Bus)のケーブル30等により通信できるように接続されている。なお、力覚提示装置10と情報処理装置20との間を、例えば、BLE(Bluetooth(登録商標) Low Energy)、または無線LAN等の無線より通信できるように接続してもよい。
In the example of FIG. 1, the
力覚提示装置10は、力覚提示装置10の現在の2次元または3次元の位置を情報処理装置20に通知する。なお、情報処理装置20は、レーザやステレオカメラ等により、力覚提示装置10の3次元位置を検出してもよい。また、力覚提示装置10は、情報処理装置20から受信した制御コマンドに従い、仮想空間における物体と衝突(接触)したことの力覚をユーザの指等に対して提示する。
The
力覚提示装置10は、例えば、ボール式のマウスと同様に、力覚提示装置10がマウスパッド等の上を移動された際のトラックボールの回転に基づいて、力覚提示装置10の水平面上の位置(2次元位置)を取得してもよい。または光学式のマウスと同様に、赤外線、レーザ、LED等で力覚提示装置10の底面を照らし、力覚提示装置10がマウスパッド等の上を移動された際の赤外線、レーザ、LED等の反射をカメラセンサで検知することにより、力覚提示装置10の水平面上の位置を取得してもよい。
For example, similar to a ball-type mouse, the
力覚提示装置10は、例えば、力覚提示装置10の下部に設けられたカメラ等により、力覚提示装置10の下に敷かれたパッドに記載された記号等を読み取り、読み取った記号等に基づいて、力覚提示装置10の水平面上の位置(2次元位置)を取得してもよい。または、力覚提示装置10は、例えば、各アームの接点のモータにより各アームの角度を検出し、予め設定されている各アームの長さと、各アームの角度とに基づいて、アームの先端等の位置を検出する3次元位置検出装置を用いて、力覚提示装置10の3次元位置を取得してもよい。この場合、力覚提示装置10は、3次元位置検出装置のアームの先端等に取り付けられてもよい。そして、3次元位置検出装置には、予め原点として設定されている所定の3次元位置に対する力覚提示装置10の現在の3次元位置を検出し、力覚提示装置10に出力してもよい。
For example, the
または、力覚提示装置10は、カメラと加速度センサを有し、カメラの画像と加速度センサで検出した加速度とに基づいて、力覚提示装置10の3次元位置を検出してもよい。
Alternatively, the force
情報処理装置20は、例えば、パーソナルコンピュータ、スマートフォン、及びセットトップボックス等の情報処理装置である。情報処理装置20は、力覚提示装置10の現実の位置に応じて、仮想空間における力覚提示装置10の位置に存在する物体と衝突したことの力覚をユーザに提示するための制御コマンドを力覚提示装置10に送信する。
The
なお、情報処理装置20を力覚提示装置10の内部に収容することにより、情報処理装置20と力覚提示装置10とを一体の装置として構成してもよい。この場合、情報処理装置20として、例えば、組み込み用の小型コンピュータを用いてもよい。または、力覚提示装置10の制御装置19が、情報処理装置20の機能を有するようにしてもよい。
The
図1の例では、情報処理装置20は、表示装置40により仮想空間における各物体の画像を表示させながら、力覚提示装置10により力覚をユーザに提示する。
In the example of FIG. 1 , the
<力覚提示装置10の構成>
次に、図2Aから図2Cを参照し、実施形態に係る力覚提示装置10の構成の一例について説明する。図2Aから図2Cは、実施形態に係る力覚提示装置10の構成の一例(その一)について説明する図である。
<Configuration of
Next, an example of the configuration of the force
図2Aでは力覚提示装置10を横から見た場合の図が示されており、図2Bでは力覚提示装置10を上から見た場合の図が示されている。また、図2Cでは力覚提示装置10を分解した状態での斜視図が示されている。なお、図2Aから図2Cでは、説明のために、把持部12を半透明にして図示している。
2A shows a side view of the
図2Aから図2Cの例では、力覚提示装置10は、基台部(筐体)11、及びユーザが把持する把持部12を有している。図2Aから図2Cの例では、基台部11は円筒形の筐体であり、把持部12は、例えば、弾性を有する塗料の層を表面に有し、スポンジの層を内面に有する球状のカバーである。把持部12は、例えば、スポンジ等の柔らかくて弾性のある球の一部を水平に切断し、内部をくり抜くことにより形成されてもよい。また、把持部12の表面には、例えば、ポリウレタン、シリコン等のゴム弾性を有する塗料が塗られてもよい。これにより、把持部12がへこまされた後の復元力が強まるとともに、把持部12の表面に汚れが付きにくくなる。また、へこまされる際に力が加わる部分が裂けることを低減することができる。
In the example of FIGS. 2A to 2C, the force
図2Aから図2Cの例では、基台部11、及び把持部12により覆われる力覚提示装置10の内部には、振動部13、駆動部14、内部筐体15、位置センサ111、及び制御装置19等が設けられている。
In the example of FIGS. 2A to 2C, the inside of the force
制御装置19は、例えば、組み込み用の小型コンピュータ等であり、情報処理装置20からの制御コマンドを受信し、受信した制御コマンドに基づいて、振動部13、及び駆動部14等の制御を行う。
The
振動部13は、例えば、入力される電気信号を振動に変換する振動変換装置(トランスデューサー)である。図2Aから図2Cの例では、振動部13は、例えば、スピーカにおいて空気を振動させる部品であるスピーカユニットと同様の機構により、電気信号を振動に変換することにより、振動及び音をユーザに提示する振動変換装置である。
The
駆動部14は、入力される電気信号を、把持部12をへこませる物理的運動に変換するアクチュエータである。図2Aから図2Cの例では、駆動部14は、4つのサーボモータを有し、各サーボモータは、サーボホーン16Aから16Dをそれぞれ回転させる。
The
また、図2Aから図2Cの例では、引き寄せ部17Aが、サーボホーン16Aの一端部16A1と、把持部12の内側の接合点18Aとに接続されている。また、引き寄せ部17Bが、サーボホーン16Aの他端部16A2と、把持部12の内側の接合点18Bとに接続されている。また、引き寄せ部17Cが、サーボホーン16Bの一端部16B1と、把持部12の内側の接合点18Cとに接続されている。また、引き寄せ部17Dが、サーボホーン16Bの一端部16B2と、把持部12の内側の接合点18Dとに接続されている。また、引き寄せ部17Eが、サーボホーン16Cの一端部16C1と、把持部12の内側の接合点18Eとに接続されている。また、引き寄せ部17Fが、サーボホーン16Cの一端部16C2と、把持部12の内側の接合点18Fとに接続されている。また、引き寄せ部17Gが、サーボホーン16Dの一端部16D1と、把持部12の内側の接合点18Gとに接続されている。また、引き寄せ部17Hが、サーボホーン16Dの一端部16D2と、把持部12の内側の接合点18Hとに接続されている。引き寄せ部17Aから引き寄せ部17Hは、一端が引っ張られた場合には他端にも引っ張られる力を伝達し、一端が押し込まれた場合にはたわむ等により他端に力を伝達しない部材でもよい。引き寄せ部17Aから引き寄せ部17Hは、例えば、糸(紐)、及び鎖等の形状の部材でもよい。一例としては、ナイロン製等の糸等でもよい。
2A to 2C, the drawing
サーボホーン16Aの中心部104から一端部16A1までの長さ(サーボホーンの長さ)102をWとし、サーボホーン16Aの回転角度103をθとし、接合点18Aの移動距離101をDとすると、Dは、D≒|W×sinθ|で近似することができる。なお、サーボホーン16Aの長手方向が中心部104に最も近い把持部12の内側の点105と中心部104とを通る線に垂直な場合のサーボホーン16Aの回転角度を0度とする。
Let W be the
図2Bに示すように、制御装置19は、サーボホーン16Aをθ回転させて引き寄せ部17Aを引っ張ることにより、接合点18Aに対面する把持部12の表面上の位置181(「第1部位」の一例。)を、距離Dだけへこませることができる。この場合、引き寄せ部17Bはたわむだけであるため、接合点18Bに対面する把持部12の表面上の位置182は変化しない。また、制御装置19は、サーボホーン16Aを-θ回転させて引き寄せ部17Bを引っ張ることにより、接合点18Bに対面する把持部12の表面上の位置182(「第2部位」の一例。)を、距離Dだけへこませることができる。サーボホーン16Bから16Dについても同様である。
As shown in FIG. 2B, the
内部筐体15は、振動部13、駆動部14、内部筐体15、及び制御装置19等を収容する筐体である。内部筐体15により、把持部12がユーザに強く握られた場合等でも、駆動部14等を保護することができる。
The
位置センサ111は、例えば、力覚提示装置10の3次元位置(x、y、z)と姿勢角(ロール、ピッチ、ヨー)を検出するセンサである。位置センサ111は、例えば、x、y、z方向の各加速度を計測する3つの加速度センサ、x、y、z方向の各角速度を計測する3つの角速度センサ、床面からの高さを計測するレーザセンサ、床面を撮影するカメラ等を含むハイブリッドセンサーでもよい。
The
なお、力覚提示装置10は、例えば、内蔵されたバッテリーから給電されてもよいし、USBケーブル等により情報処理装置20等の外部装置または電源コンセントから給電されてもよい。なお、把持部12の形状は、図2A等に示すような球状に限らず、板状、円筒形状等でもよい。また、サーボホーンの数等は、図2A等の例に限定されない。
For example, the
<力覚提示システム1の機能構成>
次に、図3Aを参照し、実施形態に係る力覚提示システム1の機能構成について説明する。図3Aは、実施形態に係る力覚提示システム1の機能ブロック図の一例を示す図である。
<Functional configuration of
Next, the functional configuration of the force
≪力覚提示装置10の機能構成≫
図3Aの例では、実施形態に係る力覚提示装置10の制御装置19は、位置検出部191、送受信部192、及び制御部193を有する。位置検出部191、送受信部192、及び制御部193の機能は、例えば、制御装置19にインストールされた1以上のプログラムが、力覚提示装置10のCPUに実行させる処理により実現されてもよい。
<<Functional configuration of
In the example of FIG. 3A , the
位置検出部191は、例えば、位置センサ111により測定されたデータに基づいて、力覚提示装置10の位置を検出する。
The
送受信部192は、情報処理装置20とデータを送受信する。送受信部192は、例えば、位置検出部191により検出された力覚提示装置10の位置情報を情報処理装置20に送信する。また、送受信部192は、例えば、仮想空間上の物体と力覚提示装置10との衝突に応じた制御信号を情報処理装置20から受信する。
The transmitting/receiving
制御部193は、送受信部192により受信された制御信号に基づいて、振動部13を制御することにより、仮想空間上の第1物体と、力覚提示装置10に対応する仮想空間上の第2物体(アバター)との衝突に応じた振動、及び音を発生させる。
The
また、制御部193は、送受信部192により受信された制御信号に基づいて、駆動部14を制御することにより、仮想空間上の第1物体が第2物体と衝突した方向(衝突した際に第1物体から第2物体を見た方向)に、把持部12をへこませる。
Further, the
≪情報処理装置20の機能構成≫
図3Aの例では、実施形態に係る情報処理装置20は、送受信部21、及び仮想空間制御部22を有する。送受信部21、及び仮想空間制御部22の機能は、例えば、情報処理装置20にインストールされた1以上のプログラムが、情報処理装置20のCPUに実行させる処理により実現されてもよい。
<<Functional configuration of
In the example of FIG. 3A, the
送受信部21は、力覚提示装置10とデータを送受信する。送受信部21は、例えば、力覚提示装置10の位置を示す情報を力覚提示装置10から受信する。
The transmitting/receiving
仮想空間制御部22は、仮想空間における各物体の位置、移動、及び衝突を制御する。仮想空間制御部22は、仮想空間において力覚提示装置10に対応付けられる所定の物体(「第2物体」の一例)の位置を制御する。また、仮想空間制御部22は、仮想空間において一の物体と当該所定の物体とが衝突した場合、当該衝突に応じた制御情報を送受信部21により力覚提示装置10に送信させる。
The virtual
<処理>
次に、図3Bから図5Bを参照し、力覚提示システム1の処理について説明する。図3Bは、実施形態に係る力覚提示システム1の処理の一例を示すフローチャートである。図4Aから図4Cは、実施形態に係る力覚提示システム1の処理の一例について説明する図である。図5A及び図5Bは、実施形態に係る力覚提示装置10におけるへこみ、振動、及び音が提示されるタイミングの一例について説明する図である。
<Processing>
Next, the processing of the force
ステップS1において、力覚提示装置10の位置検出部191は、力覚提示装置10の位置を検出する。続いて、ステップS2において、力覚提示装置10の送受信部192は、力覚提示装置10の位置情報を情報処理装置20に送信する。
In step S<b>1 , the
続いて、ステップS3において、情報処理装置20の仮想空間制御部22は、力覚提示装置10の位置情報に基づいて、仮想空間上の第2物体の位置を制御し、仮想空間上の第1物体と第2物体との衝突を検知する。なお、情報処理装置20の仮想空間制御部22は、力覚提示装置10の現実空間における位置と無関係に、仮想空間上の第2物体の位置を制御するようにしてもよい。この場合、力覚提示装置10は、位置センサ111を有しなくともよい。続いて、ステップS4において、情報処理装置20の送受信部21は、当該衝突に応じた制御情報を力覚提示装置10に送信する。
Subsequently, in step S3, the virtual
続いて、ステップS5において、力覚提示装置10の制御部193は、送受信部192により受信された制御信号に基づいて、仮想空間上の第1物体が第2物体と衝突した方向に、把持部12をへこませる。
Subsequently, in step S5, the
なお、情報処理装置20は、仮想空間上の第1物体と第2物体との画像を、表示装置40に表示させてもよい。図4Aの例では、表示装置40に表示されている仮想空間の表示画面401において、物体404A(「第1物体」の一例。)、物体404B、力覚提示装置10の移動に応じて移動する物体402(「第2物体」の一例。)が示されている。
The
図4Bのように、ユーザが、手451で力覚提示装置10を把持し、ユーザの前方の方向452に力覚提示装置10を移動させた場合、仮想空間制御部22は、物体402の位置を表示画面401の上方向403に移動させる。そして、仮想空間制御部22は、図4Aに示すように、物体402と物体404Aとが仮想空間上で衝突した場合、図3BのステップS4の処理で、図4Aに示すベクトル405の方向である、物体404Aが物体402と衝突した方向に、力覚提示装置10を振動させるとともにへこませる制御信号を送信する。これにより、ユーザは、力覚提示装置10がどの方向からどのくらいの力で衝突されたかを認識することができる。また、ユーザは、この衝突により、力覚提示装置10がベクトル405の方向に移動していくことを認識することができる。これにより、例えば、バレーボールの試合の映像を表示しながら、バレーボールのボールがどの方向からどのくらいの力で競技者により叩かれたか等の力覚を、当該ボールをアバターとする力覚提示装置10によりユーザに提示することができる。
As shown in FIG. 4B , when the user grips the
ここで、仮想空間制御部22は、例えば、物体404Aの位置、移動方向、移動速度、材質、及び質量と、物体402の位置、移動方向、移動速度、材質、及び質量とに基づいて、衝突により物体402が受ける力のベクトル405を算出してもよい。なお、物体404Aの材質、及び質量と、物体402の材質、及び質量とは、予め設定されていてもよい。
Here, the virtual
また、仮想空間制御部22は、例えば、物体404Aの位置、及び形状と、物体402の位置、及び形状とに基づいて、衝突により物体402が力を受ける部位(衝突部位、衝突箇所)を算出してもよい。なお、物体404Aの形状と、物体402の形状とは、予め設定されていてもよい。
In addition, the virtual
そして、図3BのステップS5の処理で、力覚提示装置10の制御部193は、図4Cに示すように、受信した制御信号に基づいて、仮想空間上の第1物体が第2物体と衝突した方向462に、第1物体が第2物体と衝突した部位に対応する把持部12の部位461をへこませる。
Then, in the process of step S5 in FIG. 3B, the
また、図3BのステップS5の処理で、制御部193は、受信した制御信号に基づいて、振動部13を制御することにより、第1物体と第2物体との衝突に応じた振動、及び音を発生させる。制御部193は、振動部13の振動を開始させる第1時点を、第1物体が第2物体と衝突した方向に把持部12をへこませる制御を開始する第2時点とは異なる時点としてもよい。この場合、制御部193は、振動部13の振動を開始させた後、第1物体が第2物体と衝突した方向に把持部12をへこませる制御を開始してもよい。これにより、把持部12の振動が開始されるタイミングと、把持部12のへこみが開始されるタイミングがずれるため、振動の開始による力覚とへこみの開始による力覚とがユーザに混同されにくくなる等により、ユーザにへこむ感触を知覚させ易くすることができる。
Further, in the process of step S5 in FIG. 3B, the
または、制御部193は、第1物体が第2物体と衝突した方向に把持部12をへこませる制御を開始した後、振動部13の振動を開始させてもよい。この場合、へこみが開始される第2時点は振動が開始される第1時点よりも早い時点となる。これにより、把持部12の振動が開始されるタイミングと、把持部12のへこみが開始されるタイミングがずれるため、振動の開始による力覚とへこみの開始による力覚とがユーザに混同されにくくなる等により、ユーザにへこむ感触を知覚させ易くすることができる。
Alternatively, the
力覚提示装置10の制御部193は、第1物体の材質と第2物体の材質とに応じた音を出力させる電気信号を、第1物体と第2物体との衝突の力の大きさに応じた振幅で、第1物体の材質と第2物体の材質と第1物体と第2物体との衝突の力の大きさとに応じた時間、振動部13に出力する。制御部193は、例えば、第1物体の材質と第2物体の材質とが金属等の硬い材質であれば、高い周波数の音を振動部13に出力させる。
The
図5A、及び図5Bでは、制御部193は、振動部13の振動を開始させた後、第1物体が第2物体と衝突した方向に把持部12をへこませる制御を開始する場合の例について説明する。制御部193は、図5Bの例では、第1物体が第2物体と衝突した時点t1から、当該時間(例えば、500ms)が経過した時点t4まで、音を出力させる電気信号513を出力している。
5A and 5B show an example in which the
また、制御部193は、第1物体の材質と第2物体の材質とに応じた時間(遅延時間)が経過した後、第1物体と第2物体との衝突の力の大きさに応じた量だけ把持部12をへこませる電気信号を駆動部14のサーボモータに出力する。なお、制御部193は、情報処理装置20から受信した制御信号に基づいて、駆動部14の各サーボモータのうち、衝突した部位に対応するサーボモータを決定し、決定したサーボモータに当該電気信号を出力する。
Further, after the time (delay time) corresponding to the material of the first object and the material of the second object has elapsed, the
制御部193は、例えば、第1物体の材質と第2物体の材質とが金属等の硬い材質であれば、柔らかい材質の場合よりも当該遅延時間を短くする。これにより、材質に応じた衝突の力覚を提示できる。なお、制御部193は、第1物体が第2物体と衝突した方向に把持部12をへこませた後で振動部13の振動を開始させる場合も、同様に、材質に応じた遅延時間を算出し、へこませる制御を開始した後、当該遅延時間が経過した後、振動を開始させればよい。
For example, if the material of the first object and the material of the second object are hard materials such as metal, the
また、制御部193は、例えば、第1物体の材質と第2物体の材質とが金属等の硬い材質であれば、柔らかい材質の場合よりも短時間で把持部12をへこませる電気信号を出力する。これにより、より適切にユーザに対して衝突の力覚を提示できる。
In addition, for example, if the material of the first object and the material of the second object are hard materials such as metal, the
制御部193は、図5Aの例では、時点t1よりも当該遅延時間(例えば、100ms)後の時点t2から第1物体と第2物体との衝突の力の大きさに応じた時間が経過する時点t3までの間、所定の電圧501のパルス幅変調(PWM、Pulse Width Modulation)の電気信号502を出力している。
In the example of FIG. 5A, the
第2物体が、例えば、ボール競技(例えば、バレーボール等)のボールのような復元力のある物体の場合、制御部193は、図5Aの時点t3以降の時点において、電気信号502とは逆の波形の電気信号を駆動部14のサーボモータに出力し、サーボホーンの位置を元に戻してもよい。これにより、把持部12のスポンジ等の復元力により、へこんでいた箇所が元に戻される。
If the second object is, for example, an object with a restoring force, such as a ball for a ball game (eg, volleyball, etc.), the
制御部193は、接合点18Aから接合点18Hのうち、ユーザの指で把持される位置に対応する接合点と、ユーザの手のひらで把持される位置に対応する接合点とで、へこませる速度及び量を変化させてもよい。
The
例えば、把持部12の表面に張られたシールの表記に基づき、ユーザは、接合点18Aから接合点18Eにそれぞれ対面する把持部12の表面上の5か所の各位置を各指で把持し、接合点18Fから接合点18Hにそれぞれ対面する把持部12の表面上の3か所の各位置を手のひらで把持する。
For example, the user grips with each finger five positions on the surface of the gripping
この場合、制御部193は、第2物体が第1物体と衝突した位置に対応する把持部12における第1位置がユーザの指により接触される位置である場合は、接合点18Aから接合点18Eのうち当該位置に対応する接合点を第1速度で第1量だけ第1物体が第2物体と衝突した方向にへこませる。
In this case, if the first position on the
また、制御部193は、当該衝突した位置に対応する把持部12における位置がユーザの手のひらにより接触される第2位置である場合、接合点18Fから接合点18Hのうち当該位置に対応する接合点を第1速度よりも速い第2速度(例えば、第1速度の2倍の速度)で、第1量よりも多い第2量(例えば、第1量の2倍の量)だけ第1物体が前記第2物体と衝突した方向にへこませる。これにより、手のひらが当たっている部位をへこませる場合、指が当たっている部位をへこませる場合と比較して、より速く、より大きく把持部12をへこませるため、指と比較して感覚が鈍い手のひらが当たっている部位でも適切に力覚を提示することができる。
Further, when the position on the
<駆動部14の変形例>
駆動部14は、図2Aから図2Cに示した構成の代わりに、図6A及び図6Bに示す構成としてもよい。図6A及び図6Bは、実施形態に係る力覚提示装置10の構成の一例(その二)について説明する図である。
<Modified example of
The
図6A及び図6Bの例では、駆動部14は、サーボモータ601、及びサーボモータ603を有する。サーボモータ601は、サーボモータ603が載置された台602を水平面上で回転させる。サーボモータ603は、鉛直方向から、水平面上の一方向にサーボホーン604を倒す。
In the example of FIGS. 6A and 6B, the
また、引き寄せ部605が、サーボホーン604の先端部と、把持部12の内側の接合点606とに接続されている。引き寄せ部605は、例えば、一定の剛性を有する棒状の部材でもよい。
Also, a drawing
引き寄せ部605は、接合点606において、把持部12の内側に設置されたレール607上を移動する第1滑車にボールジョイントされている。
The
図6Aに示すように、制御装置19は、サーボホーン604を当該一方向に倒させることにより、接合点606に対面する把持部12の表面上の位置をへこませることができる。
As shown in FIG. 6A , the
図6Bに示すように、サーボモータ601によりサーボモータ603が載置された台602が水平面上で回転されると、接合点606がレール607上で移動する。サーボモータ601により台602が水平面上で回転させ、台602に載置されたサーボモータ603を動作させることにより、制御装置19は、レール607上の各位置に対面する把持部12の表面上の位置をへこませることができる。
As shown in FIG. 6B, when the table 602 on which the
<変形例>
力覚提示装置10の制御装置19、及び情報処理装置20は、例えば複数のコンピュータにより構成されるクラウドコンピューティングにより実現されていてもよい。また、情報処理装置20における処理の少なくとも一部を、力覚提示装置10の制御装置19にて実行させるようにしてもよい。
<Modification>
The
<実施形態のまとめ>
従来、例えば、バーチャルリアリティ技術の進展により、視覚(映像)、及び聴覚(音声)に加え、触力覚にも情報を提示する技術が注目されている。従来、仮想的な物体と接触した感覚を提示できる様々な手法が提案され、提案された手法の引用文献粒例えば、ビデオゲーム機のコントローラ等のユーザインターフェースとして実用化されている。
<Summary of embodiment>
2. Description of the Related Art Conventionally, due to the development of virtual reality technology, for example, technology for presenting information not only visually (video) and auditory (sound) but also by tactile sensation has attracted attention. Conventionally, various methods have been proposed that can present the feeling of contact with a virtual object, and the proposed methods have been put into practical use as user interfaces such as controllers of video game machines, for example.
仮想的な物体と接触した感覚を提示できる手法として、例えば、ユーザの手や指に振動を提示することにより擬似的に力を感じさせる手法、及びモータ等のアクチュエータを用いて物理的に反力を提示する手法等がある。 Techniques that can present the sensation of contact with a virtual object include, for example, a technique that simulates force by presenting vibrations to the user's hands and fingers, and a technique that uses an actuator such as a motor to create a physical reaction force. There is a method of presenting
上述した実施形態によれば、仮想的な第1物体と、ユーザに把持される力覚提示装置10に対応する第2物体とが仮想空間上で衝突した際、第1物体が第2物体と衝突した方向に、力覚提示装置10の把持部12をへこませる。これにより、例えば、衝突した位置及び方向をユーザに認識させることができる。
According to the above-described embodiment, when the first virtual object and the second object corresponding to the force
以上本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。また、上述した各実施例の一部又は全部を組み合わせることも可能である。 Although the preferred embodiments of the present invention have been described in detail above, the present invention is not limited to such specific embodiments, and various modifications, Change is possible. It is also possible to combine part or all of the above-described embodiments.
1 力覚提示システム
10 力覚提示装置
11 基台部
12 把持部
13 振動部
14 駆動部
15 内部筐体
16A サーボホーン
16B サーボホーン
16C サーボホーン
16D サーボホーン
111 位置センサ
19 制御装置
191 位置検出部
192 送受信部
193 制御部
20 情報処理装置
21 送受信部
22 仮想空間制御部
1 Force
Claims (3)
前記情報処理装置は、
仮想空間における第1物体の位置を制御し、前記仮想空間において前記力覚提示装置に対応付けられる第2物体の位置を制御する仮想空間制御部と、
前記仮想空間において前記第1物体と前記第2物体とが衝突した場合、当該衝突に応じた制御情報を前記力覚提示装置に送信する送信部と、を有し、
前記力覚提示装置は、
前記第1物体との衝突に応じた制御信号を前記情報処理装置から受信する受信部と、
前記受信部により受信された制御信号に基づいて、前記第1物体が前記第2物体と衝突した方向に、前記ユーザに把持される把持部をへこませる制御部と、
前記力覚提示装置を振動させる振動部と、を有し、
前記制御部は、第1時点で前記振動部の振動を開始させ、前記第1時点とは異なる第2時点で前記第1物体が前記第2物体と衝突した方向に前記把持部をへこませる制御を開始し、前記第1物体の材質及び前記第2物体の材質に応じて、前記第1時点と前記第2時点との時間差を異ならせる、力覚提示システム。 A haptic presentation system including a haptic presentation device that presents a haptic sensation to a user and an information processing device that controls the haptic presentation device,
The information processing device is
a virtual space control unit that controls the position of a first object in a virtual space and controls the position of a second object that is associated with the haptic device in the virtual space;
a transmission unit configured to transmit control information corresponding to the collision to the force sense presentation device when the first object and the second object collide in the virtual space;
The haptic presentation device includes:
a receiving unit that receives from the information processing device a control signal corresponding to the collision with the first object;
a control unit that indents the grip held by the user in a direction in which the first object collided with the second object based on the control signal received by the receiving unit;
a vibrating unit that vibrates the haptic device,
The control unit causes the vibrating unit to start vibrating at a first time point, and dents the gripping unit in a direction in which the first object collides with the second object at a second time point different from the first time point. A haptic presentation system, wherein control is started to vary the time difference between the first time point and the second time point according to the material of the first object and the material of the second object.
前記制御部は、前記第1時点で前記振動部により前記第1物体の材質及び前記第2物体の材質に応じた音の出力を開始させ、前記第2時点で前記第1物体が前記第2物体と衝突した方向に前記把持部をへこませる、
請求項1に記載の力覚提示システム。 The vibrating unit outputs sound by vibration,
The control unit causes the vibrating unit to start outputting sound corresponding to the material of the first object and the material of the second object at the first time point, and at the second time point, the first object becomes the second object. indenting the gripping portion in the direction in which it collided with the object;
The force sense presentation system according to claim 1 .
請求項2に記載の力覚提示システム。
When the time corresponding to the material of the first object elapses from the point at which the vibration unit starts outputting the sound corresponding to the material of the first object and the material of the second object, denting the grip in the direction in which the first object collided with the second object;
The force sense presentation system according to claim 2 .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019078499A JP7319813B2 (en) | 2019-04-17 | 2019-04-17 | Haptic presentation system, haptic presentation device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019078499A JP7319813B2 (en) | 2019-04-17 | 2019-04-17 | Haptic presentation system, haptic presentation device, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020177398A JP2020177398A (en) | 2020-10-29 |
JP7319813B2 true JP7319813B2 (en) | 2023-08-02 |
Family
ID=72936728
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019078499A Active JP7319813B2 (en) | 2019-04-17 | 2019-04-17 | Haptic presentation system, haptic presentation device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7319813B2 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002304246A (en) | 2001-04-04 | 2002-10-18 | Nippon Telegr & Teleph Corp <Ntt> | Tactile presenting device, and imaginary space system |
JP2005267174A (en) | 2004-03-18 | 2005-09-29 | National Institute Of Advanced Industrial & Technology | Ball type touch device |
JP2009276996A (en) | 2008-05-14 | 2009-11-26 | Canon Inc | Information processing apparatus, and information processing method |
JP2010102560A (en) | 2008-10-24 | 2010-05-06 | National Institute Of Information & Communication Technology | Gripping sense exhibition device |
JP2010287221A (en) | 2009-05-11 | 2010-12-24 | Univ Of Tokyo | Haptic device |
WO2017022635A1 (en) | 2015-08-06 | 2017-02-09 | スピーシーズ株式会社 | Figure and figure system |
JP2018202018A (en) | 2017-06-07 | 2018-12-27 | 株式会社豊田中央研究所 | Collision sensation presentation system and program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2131621C1 (en) * | 1994-07-19 | 1999-06-10 | Асахи Касеи Когио Кабусики Кайся | Virtual reality and remote reality system |
JPH11232012A (en) * | 1998-02-17 | 1999-08-27 | Omron Corp | Interface device and interface system |
-
2019
- 2019-04-17 JP JP2019078499A patent/JP7319813B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002304246A (en) | 2001-04-04 | 2002-10-18 | Nippon Telegr & Teleph Corp <Ntt> | Tactile presenting device, and imaginary space system |
JP2005267174A (en) | 2004-03-18 | 2005-09-29 | National Institute Of Advanced Industrial & Technology | Ball type touch device |
JP2009276996A (en) | 2008-05-14 | 2009-11-26 | Canon Inc | Information processing apparatus, and information processing method |
JP2010102560A (en) | 2008-10-24 | 2010-05-06 | National Institute Of Information & Communication Technology | Gripping sense exhibition device |
JP2010287221A (en) | 2009-05-11 | 2010-12-24 | Univ Of Tokyo | Haptic device |
WO2017022635A1 (en) | 2015-08-06 | 2017-02-09 | スピーシーズ株式会社 | Figure and figure system |
JP2018202018A (en) | 2017-06-07 | 2018-12-27 | 株式会社豊田中央研究所 | Collision sensation presentation system and program |
Also Published As
Publication number | Publication date |
---|---|
JP2020177398A (en) | 2020-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7199476B2 (en) | Control system, control device, control method, and program | |
JP5426713B2 (en) | Gesture catalog generation and recognition | |
Wingrave et al. | The wiimote and beyond: Spatially convenient devices for 3d user interfaces | |
US8313380B2 (en) | Scheme for translating movements of a hand-held controller into inputs for a system | |
US9393487B2 (en) | Method for mapping movements of a hand-held controller to game commands | |
JP5465948B2 (en) | How to get input to control the execution of a game program | |
US20060256081A1 (en) | Scheme for detecting and tracking user manipulation of a game controller body | |
WO2007130833A2 (en) | Scheme for detecting and tracking user manipulation of a game controller body and for translating movements thereof into inputs and game commands | |
JP5352813B2 (en) | Non-grounding type haptic device | |
EP2022039B1 (en) | Scheme for detecting and tracking user manipulation of a game controller body and for translating movements thereof into inputs and game commands | |
US20160364960A1 (en) | Systems and methods for ultrasonically induced tactile stimuli in an entertainment system | |
JP7319813B2 (en) | Haptic presentation system, haptic presentation device, and program | |
JP2009535172A (en) | Multi-input game control mixer | |
KR102251308B1 (en) | Haptic controller and system and method for providing haptic feedback using the same | |
JP6319327B2 (en) | Game controller | |
CN117251058B (en) | Control method of multi-information somatosensory interaction system | |
JP2020179005A (en) | Robot and method | |
JPH08257947A (en) | Three-dimensional display device for inner force sense and touch sense | |
KR101020509B1 (en) | Obtaining input for controlling execution of a program | |
JP2019106102A (en) | Hardness sense presentation device | |
CN117572965A (en) | Multi-information somatosensory interactive glove system for virtual reality system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220317 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230310 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230627 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230721 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7319813 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |