JP2024019508A - 触覚提示装置、自己運動提示システム、触覚提示方法、およびプログラム - Google Patents

触覚提示装置、自己運動提示システム、触覚提示方法、およびプログラム Download PDF

Info

Publication number
JP2024019508A
JP2024019508A JP2023209207A JP2023209207A JP2024019508A JP 2024019508 A JP2024019508 A JP 2024019508A JP 2023209207 A JP2023209207 A JP 2023209207A JP 2023209207 A JP2023209207 A JP 2023209207A JP 2024019508 A JP2024019508 A JP 2024019508A
Authority
JP
Japan
Prior art keywords
motion
contact
self
user
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023209207A
Other languages
English (en)
Inventor
慎也 高椋
Shinya Takamuku
裕章 五味
Hiroaki Gomi
諒真 棚瀬
Ryoma Tanase
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2023209207A priority Critical patent/JP2024019508A/ja
Publication of JP2024019508A publication Critical patent/JP2024019508A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Rehabilitation Tools (AREA)

Abstract

Figure 2024019508000001
【課題】自己運動によって生じる触覚刺激を模擬する触覚刺激によって任意の自己運動を利用者に提示する。
【解決手段】触覚提示装置(1)は、利用者が所望の自己運動を行ったときに生じる触覚刺激を模擬する模擬触覚刺激を利用者の身体に提示する。制御部(31)は、触覚提示装置(1)を駆動させる駆動信号を生成する。駆動部(32)は、駆動信号に従って模擬触覚刺激を提示する。駆動信号は、自己運動によって利用者の身体と触覚提示装置(1)との接点に生じる運動を表す接点運動情報に基づいて生成される。接点運動情報は、接点が外界に対して固定されていると仮定して、利用者が自己運動を行ったときに生じる、利用者の身体と接点との相対的な位置関係の変化に相当する。接点は複数であり、駆動部は複数の接点それぞれにおいて模擬触覚刺激を提示する。
【選択図】図11

Description

本発明は、自己運動によって生じる触覚刺激を模擬する触覚刺激により、利用者に自己運動を提示する技術に関する。
環境に対する自己身体の相対的な位置や姿勢を変化させる運動を「自己運動」と呼ぶ。例えば、歩行は自己運動である。また、自己運動によって発生する感覚刺激を模擬する感覚刺激を「自己運動を示唆する感覚刺激」と呼ぶ。例えば、移動方向に拡張焦点を持つオプティカルフローはその一例である。ヒトの脳は、様々な感覚入力に基づいて、このような自己運動を推定し、その知覚や制御に役立てている。
自己運動によって生じる触覚刺激を模擬する様々な感覚刺激を提示し、このような脳の自己運動推定過程に適切に働きかけることで、任意の自己運動を利用者に提示するシステムを実現することができる。このようなシステムでは、これまで、オプティカルフローなどの視覚刺激や前庭系への電気刺激などが利用されてきた。最近では、視覚刺激などによって提示した自己運動の感覚を強めたり、所望の方向にその感覚を調節したりするために、自己運動によって生じる触覚刺激を模擬する触覚刺激を利用するシステムも提案され始めている。例えば、非特許文献1は、座面上に触仮現運動を提示することで前進運動を提示し、拡大するドットモーションの観察から知覚される自己運動速度の知覚を操作できる可能性を示している。また、非特許文献2は、顔に風を当てて、前進運動を示唆する触覚刺激を提示することで、同様の知覚を操作できる可能性を示している。
Amemiya, T., Hirota, K. & Ikei, Y., "Tactile flow on seat pan modulates perceived forward velocity," in 2013 IEEE Symposium on 3D User Interfaces (3DUI), pp. 71-77, 2013. Seno, T., Ogawa, M., Ito, H. & Sunaga, S., "Consistent Air Flow to the Face Facilitates Vection," Perception, vol. 40, pp. 1237-1240, 2011.
しかしながら、これまでに提案されてきた、自己運動によって生じる触覚刺激を模擬する触覚刺激により自己運動を提示するシステムは、利用者と触覚提示装置が、常に、ある特定の相対的な位置関係にあることを想定して設計されていた。そのため、その位置関係が変化する状況では、自己運動によって生じる触覚刺激を模擬する触覚刺激によって、任意の自己運動を提示することができなかった。
本発明の目的は、利用者と触覚提示装置との相対的な位置関係が変化する状況において、自己運動によって生じる触覚刺激を模擬する触覚刺激によって、任意の自己運動を利用者に提示することができる技術を提供することである。
上記の課題を解決するために、本発明の一態様の触覚提示装置は、利用者が所望の自己運動を行ったときに生じる触覚刺激を模擬する模擬触覚刺激を利用者の身体に提示する触覚提示装置であって、利用者と複数の身体部位でそれぞれ接触する複数の接点と、複数の接点をそれぞれ駆動する複数の駆動信号を生成する制御部と、駆動信号に従って前記複数の接点を駆動し、複数の身体部位に模擬触覚刺激を提示する駆動部と、を含み、駆動信号は、自己運動によって利用者の身体と触覚提示装置との接点に生じる運動を表す接点運動情報に基づいて生成されたものであり、接点運動情報は、接点が外界に対して固定されていると仮定して、利用者が自己運動を行ったときに生じる、利用者の身体と接点との相対的な位置関係の変化に相当するものである。
本発明によれば、利用者と触覚提示装置との相対的な位置関係が変化する状況において、自己運動によって生じる触覚刺激を模擬する触覚刺激によって、任意の自己運動を利用者に提示することができる。
図1は実施形態で想定する環境を説明するための図である。 図2は自己運動提示システムの機能構成を例示する図である。 図3は状態計測装置の機能構成を例示する図である。 図4は状態計測装置の動作を説明するための図である。 図5は接点運動計算装置の機能構成を例示する図である。 図6は接点運動計算装置の機能構成を例示する図である。 図7は移動前接点位置計算部の動作を説明するための図である。 図8は運動後接点位置計算部の動作を説明するための図である。 図9は移動後接点位置計算部の動作を説明するための図である。 図10は移動後接点位置計算部および接点変位計算部の動作を説明するための図である。 図11は触覚提示装置の機能構成を例示する図である。 図12は接点が二箇所存在する場合を説明するための図である。 図13は片手に触覚刺激を提示した場合を説明するための図である。 図14は接点運動が示唆する自己運動を例示する図である。 図15は接点運動が示唆する自己運動を例示する図である。 図16は両手に触覚刺激を提示した場合を説明するための図である。 図17は両手に触覚刺激を提示した場合を説明するための図である。 図18はコンピュータの機能構成を例示する図である。
以下、この発明の実施の形態について詳細に説明する。なお、図面中において同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。
[実施形態]
本発明の実施形態は、利用者の手の皮膚に接点の運動としての触覚刺激を提示する触覚提示装置を用いて、並進と回転との少なくともいずれかを含む任意の自己運動の感覚を利用者に提示する自己運動提示システムである。
図1に実施形態の自己運動提示システムの概念を示す。触覚提示装置1は、例えば、ロボットアームを備えた移動式ロボットとして実装される。利用者2と触覚提示装置1は、少なくとも一箇所以上が接触しているものとする。利用者2と触覚提示装置1は、点で接触していてもよいし、面で接触していてもよい。例えば、利用者はロボットアームの先端に取り付けられたハンドルやロボットハンドを手で握っていてもよいし、ロボットアームの先端に取り付けられたパネルを掌で押さえていてもよい。以下、利用者と触覚提示装置1とが接触する箇所を代表する一点を「接点」と呼ぶ。例えば、ロボットアームの先端において利用者と接触している部材の取り付け点を接点としてもよいし、利用者と触覚提示装置1とが接触している範囲の中心を接点としてもよい。利用者2は、自己運動提示システムが提示する自己運動が行われる前の身体の位置や姿勢を表しており、利用者3は、その自己運動が行われた場合に実現される身体の位置や姿勢を表している。自己運動は、並進V23と回転R23との少なくともいずれかを含む自己運動情報S23により定義される。触覚提示装置1は、ロボットアームを駆動させて接点4を運動させることで、利用者の手に触覚刺激を提示する。これにより、自己運動提示システムは、自己運動の感覚を利用者へ提示する。自己運動提示システムは、例えば、ヘッドマウントディスプレイなどを利用したバーチャルリアリティのシステムに組み込むことができる。この場合、ヘッドマウントディスプレイの映像で提示した自己運動を、触覚刺激によっても同時に提示することで、より明瞭な自己運動の感覚を利用者に提示することができる。
本実施形態では、利用者の位置や姿勢、接点の位置や運動等が、所定の座標系で定義される。以降の説明では、図1に示した、装置座標系C1、運動前身体座標系C2、および運動後身体座標系C3を用いる。装置座標系C1は、触覚提示装置1の位置および向きを基準とする座標系である。運動前身体座標系C2は、提示したい自己運動前の利用者2の位置および向きを基準とする座標系である。運動後身体座標系C3は、提示したい自己運動後の利用者3の位置および向きを基準とする座標系である。以下では、いずれの座標系も二次元直交座標系を想定するが、これに限定されるものではない。
図2を参照して、自己運動提示システムの機能構成を説明する。自己運動提示システム100は、例えば、触覚提示装置1と状態計測装置10と接点運動計算装置20とを含む。自己運動提示システム100は、状態計測装置10および接点運動計算装置20を、触覚提示装置1の筐体内に組み込み、一台の装置として構成してもよいし、状態計測装置10および接点運動計算装置20それぞれを、触覚提示装置1とは異なる装置として構成し、各装置がネットワーク等を経由して相互に通信するように構成してもよい。
状態計測装置10は、装置座標系C1における利用者2の位置姿勢情報S12(以下、「利用者位置姿勢情報」と呼ぶ)と、装置座標系C1における接点4の位置情報S14(以下、「接点位置情報」と呼ぶ)とを計測する。接点運動計算装置20は、入力された自己運動情報S23と状態計測装置10が出力する利用者位置姿勢情報S12および接点位置情報S14とを受け取り、利用者2に提示する装置座標系C1の接点運動を表す情報S145(以下、「接点運動情報」と呼ぶ)を計算する。触覚提示装置1は、その接点運動に相当する触覚刺激(以下、「模擬触覚刺激」と呼ぶ)を利用者2に提示する。
状態計測装置10は、図3に示すように、接点位置計測部11と身体位置姿勢計測部12とを備える。
接点位置計測部11は、装置座標系C1における接点位置情報S14を計測する。接点位置情報S14は、図4に示すように、触覚提示装置1から接点4への位置ベクトルV14で表される。すなわち、接点位置情報S14は、触覚提示装置1と接点4との相対的な位置関係を表す。
身体位置姿勢計測部12は、装置座標系C1における利用者位置姿勢情報S12を計測する。利用者位置姿勢情報S12は、図4に示すように、触覚提示装置1から利用者2への位置ベクトルV12と利用者2の軸の回転R12とで表される。すなわち、利用者位置姿勢情報S12は、触覚提示装置1と利用者2との相対的な位置関係を表す。
接点位置計測部11は、例えば、触覚提示装置1のエンコーダや触覚提示装置1に固定されたカメラなどのセンサを利用する。身体位置姿勢計測部12は、例えば、触覚提示装置1に固定されたカメラ、レーザーレンジファインダー、環境に配備された床センサなどのセンサを利用する。接点位置計測部11と身体位置姿勢計測部12とは共通のセンサを利用する場合もある。また、装置座標系C1における接点4の位置が大きく変化しない状況においては、状態計測装置10は接点位置計測部11を備えなくともよい。この場合、状態計測装置10は、接点位置情報S14としてあらかじめ定められた値を出力する。
接点運動計算装置20は、図5に示すように、移動前接点位置計算部21と運動後接点位置計算部22と移動後接点位置計算部23と接点変位計算部24とを備える。
移動前接点位置計算部21は、状態計測装置10が出力する接点位置情報S14および利用者位置姿勢情報S12を受け取り、運動前身体座標系C2における接点4の位置情報S24(以下、「移動前接点位置情報」と呼ぶ)を計算する。移動前接点位置情報S24は、利用者2から接点4への位置ベクトルV24を含む。すなわち、移動前接点位置情報S24は、自己運動前の利用者2と移動前の接点4との相対的な位置関係を表す。
運動後接点位置計算部22は、接点運動計算装置20へ入力された自己運動情報S23と、移動前接点位置計算部21が出力する移動前接点位置情報S24とを受け取り、運動後身体座標系C3における接点4の位置情報S34(以下、「運動後接点位置情報」と呼ぶ)を計算する。運動後接点位置情報S34は、利用者3から接点4への位置ベクトルV34を含む。すなわち、運動後接点位置情報S34は、自己運動後の利用者3と移動前の接点4との相対的な位置関係を表す。
移動後接点位置計算部23は、運動後接点位置計算部22が出力する運動後接点位置情報S34を受け取り、自己運動前の利用者2との相対的な位置関係が運動後接点位置情報S34に相当する位置(接点4がこの位置へ移動したものを接点5とする)の装置座標系C1における位置情報S15(以下、「移動後接点位置情報」と呼ぶ)を計算する。移動後接点位置情報S15は、触覚提示装置1から接点5への位置ベクトルV15を含む。すなわち、移動後接点位置情報S15は、自己運動前の利用者2と移動後の接点5との相対的な位置関係を表す。
接点変位計算部24は、状態計測装置10が出力する接点位置情報S14と移動後接点位置計算部23が出力する移動後接点位置情報S15とを受け取り、移動後の接点5の位置から移動前の接点4の位置を差し引いて、移動前後の接点の変位を表すベクトルV145(以下、「接点変位ベクトル」と呼ぶ)を計算する。
接点運動計算装置20は、接点変位計算部24が出力する接点変位ベクトルV145を接点運動情報S145として出力する。なお、接点運動計算装置20は、図6に示すように、接点変位計算部24を備えなくともよい。この場合、移動後接点位置計算部23が出力する移動後接点位置情報S15を接点運動情報S145として出力する。言い換えると、接点運動情報S145は、自己運動によって接点4に生じる運動を表し、接点4が外界に対して固定されていると仮定して、利用者2が自己運動を行ったときに生じる、利用者2の身体と接点4との相対的な位置関係の変化に相当する、と言える。
図7を参照して、移動前接点位置計算部21の計算についてより詳しく説明する。移動前接点位置計算部21は、装置座標系C1における移動前の接点4の位置ベクトルV14を運動前身体座標系C2における位置ベクトルV24に変換する。この計算は装置座標系C1から運動前身体座標系C2への変換行列M12を用いて、以下のように計算することができる。ただし、*は行列の掛け算を意味する。
Figure 2024019508000002
変換行列M12は、状態計測装置10から得られる利用者位置姿勢情報S12を用いて計算することができる。例えば、(x, y)を装置座標系C1における接点4の位置座標とし、(x', y')を運動前身体座標系C2における接点4の位置座標とし、(Tx, Ty)を装置座標系C1における自己運動前の利用者2の身体中心の位置座標とし、Rzを軸の回転角とすると、以下のように記述することができる。
Figure 2024019508000003
図8を参照して、運動後接点位置計算部22の計算についてより詳しく説明する。運動後接点位置計算部22は、運動前身体座標系C2における移動前の接点4の位置ベクトルV24を運動後身体座標系C3における移動前の接点4の位置ベクトルV34に変換する。この計算は運動前身体座標系C2から運動後身体座標系C3への変換行列M23を用いて、以下のように計算することができる。
Figure 2024019508000004
変換行列M23は、接点運動計算装置20へ入力された自己運動情報S23を用いて計算することができる。例えば、(x', y')を運動前身体座標系C2における接点4の位置座標とし、(x", y")を運動後身体座標系C3における接点4の位置座標とし、(T'x, T'y)を運動前身体座標系C2における自己運動後の利用者3の身体中心の位置座標とし、R'zを自己運動に伴う軸の回転角とすると、以下のように記述することができる。
Figure 2024019508000005
図9および図10を参照して、移動後接点位置計算部23および接点変位計算部24の計算についてより詳しく説明する。移動後接点位置計算部23は、図9に示すように、運動後身体座標系C3における位置ベクトルV34に相当する、運動前身体座標系C2における位置ベクトルV25を、移動後の接点5の位置を表す情報として取得する。続いて、移動後接点位置計算部23は、図10に示すように、運動前身体座標系C2における移動後の接点5の位置ベクトルV25を、装置座標系C1における移動後の接点5の位置ベクトルV15に変換する。この計算は運動前身体座標系C2から装置座標系C1への変換行列M21を用いて、以下のように計算できる。
Figure 2024019508000006
変換行列M21は、状態計測装置10から得られる利用者位置姿勢情報S12を用いて計算することができる。例えば、(x", y")を運動後身体座標系C3における移動前の接点4の位置座標とし、(x''', y''')を運動前身体座標系C2における移動後の接点5の位置座標とし、(Tx, Ty)を装置座標系C1における自己運動前の利用者2の身体中心の位置座標とし、Rzを軸の回転角とすると、以下のように記述することができる。
Figure 2024019508000007
接点変位計算部24は、図10に示すように、装置座標系C1における移動後の接点5の位置ベクトルV15と、装置座標系C1における移動前の接点4の位置ベクトルV14とを用いて、以下のように接点変位ベクトルV145を計算する。
Figure 2024019508000008
触覚提示装置1は、図11に示すように、制御部31と駆動部32とを備える。制御部31は、接点運動計算装置20が出力する接点運動情報S145を受け取り、触覚提示装置1を駆動する駆動信号を生成する。駆動部32は、制御部31が出力する駆動信号に基づいて触覚提示装置1を駆動する。
触覚提示装置1は、接点運動を、例えば、利用者2と触覚提示装置1との接点の位置の変化として提示する。例えば、触覚提示装置1は、ロボットアームの先端が移動前の接点4の位置から移動後の接点5の位置へ移動するように、ロボットアームを駆動させる。また、接点変位ベクトルV145の指定する方向に、接点変位ベクトルV145の大きさと比例する長さの触覚運動、触仮現運動を提示してもよい。さらに、接点変位ベクトルV145の指定する方向に、接点変位ベクトルV145の大きさと比例する大きさの皮膚変形、外力、対称振動、もしくは、非対称振動を与えることで、力覚として、接点運動を提示してもよい。
[変形例]
上記の実施形態では、利用者2と触覚提示装置1との接点が一点の場合の計算について説明したが、利用者2と触覚提示装置1との接点は複数であってもよい。その場合は、図12に示すように、個々の接点4-1,4-2について実施形態の計算を繰り返し、それぞれの接点において計算された接点運動を提示すればよい。
同時に複数の接点運動を提示すると、一点の接点運動を提示する場合に比べて、触覚刺激が示唆する自己運動をより限定することができる。例えば、図13に示すように、利用者の左手の一点にのみ前方へ引っ張るような接点運動を提示したとする。この場合、提示した接点運動は、図14に示すような後退運動によって生じたと解釈することもできるし、図15に示すような回転運動によって生じたと解釈することもできる。このように一点の接点運動の提示だけでは、利用者に提示する自己運動を一義的に解釈することができない可能性がある。これに対して、例えば、図16に示すように、身体の中心から逆方向で等距離にある左右の手に、同じ方向と大きさの接点運動を提示すれば、自己運動の解釈を図14に示した並進運動に限定することができる。また、例えば、図17に示すように、同じ姿勢の左右の手に、同じ大きさで逆方向の接点運動を提示すれば、自己運動の解釈を図15に示した回転運動に限定することができる。このように、実施形態で説明した計算を複数の接点それぞれに対して行えば、個々の接点運動を各々の接点の距離や方向に応じて適切に選択することが可能となり、複数の接点運動によって十分に限定された自己運動を提示することができる。
[応用例]
街中を歩行するなど、利用者が移動している状況で、モバイルの触覚提示装置を利用して、利用者に自己運動を提示し、所望の経路や目的地へ利用者を案内するような応用も想定できる。また、高齢者や障がい者が利用する杖やモバイル端末に触覚提示装置を装着もしくは内蔵し、提示した自己運動を補償するような姿勢応答や歩行応答を誘発することで、歩行運動を安定化するような応用も想定できる。
以上、この発明の実施の形態について説明したが、具体的な構成は、これらの実施の形態に限られるものではなく、この発明の趣旨を逸脱しない範囲で適宜設計の変更等があっても、この発明に含まれることはいうまでもない。実施の形態において説明した各種の処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。
[プログラム、記録媒体]
上記実施形態で説明した各装置における各種の処理機能をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムを図18に示すコンピュータの記憶部1020に読み込ませ、演算処理部1010、入力部1030、出力部1040などに動作させることにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体は、例えば、非一時的な記録媒体であり、磁気記録装置、光ディスク等である。
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の非一時的な記憶装置である補助記録部1050に格納する。そして、処理の実行時、このコンピュータは、自己の非一時的な記憶装置である補助記録部1050に格納されたプログラムを一時的な記憶装置である記憶部1020に読み込み、読み込んだプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み込み、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。

Claims (7)

  1. 利用者が所望の自己運動を行ったときに生じる触覚刺激を模擬する模擬触覚刺激を前記利用者の身体に提示する触覚提示装置であって、
    前記利用者と複数の身体部位でそれぞれ接触する複数の接点と、
    前記複数の接点をそれぞれ駆動する複数の駆動信号を生成する制御部と、
    前記駆動信号に従って前記複数の接点を駆動し、前記複数の身体部位に前記模擬触覚刺激を提示する駆動部と、
    を含み、
    前記駆動信号は、前記自己運動によって前記利用者の身体と前記触覚提示装置との接点に生じる運動を表す接点運動情報に基づいて生成されたものであり、
    前記接点運動情報は、前記接点が外界に対して固定されていると仮定して、前記利用者が前記自己運動を行ったときに生じる、前記利用者の身体と前記接点との相対的な位置関係の変化に相当するものである、
    触覚提示装置。
  2. 請求項1に記載の触覚提示装置であって、
    前記駆動部は、前記接点運動情報が表す前記接点の位置の変化の方向および大きさに応じた力覚として前記模擬触覚刺激を提示するものである、
    触覚提示装置。
  3. 請求項1または2のいずれかに記載の触覚提示装置を含む自己運動提示システムであって、
    前記触覚提示装置に対する前記利用者の身体の位置姿勢を表す利用者位置姿勢情報を計測する状態計測装置と、
    前記自己運動を表す自己運動情報と前記利用者位置姿勢情報とに基づいて前記接点運動情報を計算する接点運動計算装置と、
    をさらに含む自己運動提示システム。
  4. 請求項3に記載の自己運動提示システムであって、
    前記接点運動計算装置は、
    前記触覚提示装置と前記接点との相対的な位置関係を表す接点位置情報を、前記自己運動前の前記利用者の身体と前記接点との相対的な位置関係を表す移動前接点位置情報に変換する移動前接点位置計算部と、
    前記移動前接点位置情報と前記自己運動情報とを用いて、前記自己運動後の前記利用者の身体と前記接点との相対的な位置関係を表す運動後接点位置情報を計算する運動後接点位置計算部と、
    前記自己運動前の前記利用者の身体との相対的な位置関係が前記運動後接点位置情報に相当する位置を移動後の接点の位置として、前記触覚提示装置と前記移動後の接点との相対的な位置関係を表す移動後接点位置情報を計算する移動後接点位置計算部と、
    を含む自己運動提示システム。
  5. 請求項4に記載の自己運動提示システムであって、
    前記接点運動計算装置は、
    前記移動後接点位置情報と前記接点位置情報とから前記自己運動によって生じる前記接点の位置の変位を計算する接点変位計算部、
    をさらに含む自己運動提示システム。
  6. 利用者が所望の自己運動を行ったときに生じる触覚刺激を模擬する模擬触覚刺激を前記利用者の身体に提示する触覚提示装置が実行する触覚提示方法であって、
    制御部が、前記利用者と複数の身体部位でそれぞれ接触する複数の接点をそれぞれ駆動する複数の駆動信号を生成し、
    駆動部が、前記駆動信号に従って前記複数の接点を駆動し、前記複数の身体部位に前記模擬触覚刺激を提示し、
    前記駆動信号は、前記自己運動によって前記利用者の身体と前記触覚提示装置との接点に生じる運動を表す接点運動情報に基づいて生成されたものであり、
    前記接点運動情報は、前記接点が外界に対して固定されていると仮定して、前記利用者が前記自己運動を行ったときに生じる、前記利用者の身体と前記接点との相対的な位置関係の変化に相当するものである、
    触覚提示方法。
  7. 請求項1もしくは2のいずれかに記載の触覚提示装置、または請求項3から5のいずれかに記載の状態計測装置、または請求項3から5のいずれかに記載の接点運動計算装置としてコンピュータを機能させるためのプログラム。
JP2023209207A 2020-03-19 2023-12-12 触覚提示装置、自己運動提示システム、触覚提示方法、およびプログラム Pending JP2024019508A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023209207A JP2024019508A (ja) 2020-03-19 2023-12-12 触覚提示装置、自己運動提示システム、触覚提示方法、およびプログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
PCT/JP2020/012263 WO2021186665A1 (ja) 2020-03-19 2020-03-19 触覚提示装置、自己運動提示システム、触覚提示方法、およびプログラム
JP2022507955A JP7405237B2 (ja) 2020-03-19 2020-03-19 自己運動提示システム、自己運動提示方法、およびプログラム
JP2023209207A JP2024019508A (ja) 2020-03-19 2023-12-12 触覚提示装置、自己運動提示システム、触覚提示方法、およびプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2022507955A Division JP7405237B2 (ja) 2020-03-19 2020-03-19 自己運動提示システム、自己運動提示方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2024019508A true JP2024019508A (ja) 2024-02-09

Family

ID=77771955

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022507955A Active JP7405237B2 (ja) 2020-03-19 2020-03-19 自己運動提示システム、自己運動提示方法、およびプログラム
JP2023209207A Pending JP2024019508A (ja) 2020-03-19 2023-12-12 触覚提示装置、自己運動提示システム、触覚提示方法、およびプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2022507955A Active JP7405237B2 (ja) 2020-03-19 2020-03-19 自己運動提示システム、自己運動提示方法、およびプログラム

Country Status (3)

Country Link
US (1) US20230125209A1 (ja)
JP (2) JP7405237B2 (ja)
WO (1) WO2021186665A1 (ja)

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6793619B1 (en) * 1999-06-09 2004-09-21 Yaacov Blumental Computer-implemented method and system for giving a user an impression of tactile feedback
US10936074B2 (en) * 2003-11-20 2021-03-02 National Institute Of Advanced Industrial Science And Technology Haptic information presentation system and method
FR2950187B1 (fr) * 2009-09-17 2011-11-18 Centre Nat Rech Scient Procede de simulation de mouvements propres par retour haptique et dispositif mettant en oeuvre le procede
JP2013033425A (ja) * 2011-08-03 2013-02-14 Sharp Corp 力覚システム
EP2854120A1 (en) * 2013-09-26 2015-04-01 Thomson Licensing Method and device for controlling a haptic device
US10449446B2 (en) * 2014-03-26 2019-10-22 Sony Corporation Sensation induction device, sensation induction system, and sensation induction method
JP6268234B2 (ja) * 2016-07-19 2018-01-24 山佐株式会社 遊技機
US10671167B2 (en) * 2016-09-01 2020-06-02 Apple Inc. Electronic device including sensed location based driving of haptic actuators and related methods
JP2018084920A (ja) * 2016-11-22 2018-05-31 コニカミノルタ株式会社 作業補助システム、画像形成装置
US11175738B2 (en) * 2016-12-13 2021-11-16 Immersion Corporation Systems and methods for proximity-based haptic feedback
US10698490B2 (en) * 2018-01-10 2020-06-30 Jonathan Fraser SIMMONS Haptic feedback device, method and system
DE102019106684B4 (de) * 2019-03-15 2022-08-25 Technische Universität Dresden System zur haptischen Interaktion mit virtuellen Objekten für Anwendungen in der virtuellen Realität

Also Published As

Publication number Publication date
WO2021186665A1 (ja) 2021-09-23
US20230125209A1 (en) 2023-04-27
JPWO2021186665A1 (ja) 2021-09-23
JP7405237B2 (ja) 2023-12-26

Similar Documents

Publication Publication Date Title
CN108874119B (zh) 跟踪臂移动以生成计算机系统的输入的系统和方法
Liu et al. High-fidelity grasping in virtual reality using a glove-based system
Iwata et al. Project FEELEX: adding haptic surface to graphics
Tzafestas Intelligent Systems, Control and Automation: Science and Engineering
US20110084943A1 (en) Method, apparatus, and article for force feedback based on tension control and tracking through cables
Tachi et al. Telesar vi: Telexistence surrogate anthropomorphic robot vi
US11209916B1 (en) Dominant hand usage for an augmented/virtual reality device
US20190377412A1 (en) Force Rendering Haptic Glove
Lee et al. Enlarging just noticeable differences of visual-proprioceptive conflict in VR using haptic feedback
Rotella et al. Hapi bands: a haptic augmented posture interface
Trinitatova et al. Touchvr: A wearable haptic interface for vr aimed at delivering multi-modal stimuli at the user’s palm
Inami et al. Cyborgs, human augmentation, cybernetics, and JIZAI body
US11093037B2 (en) Computer-implemented method, system and computer program product for simulating the behaviour of a hand that interacts with objects in a virtual environment
Kao et al. Novel digital glove design for virtual reality applications
de Carvalho Improving experiential learning with haptic experimentation
Ma et al. Sensing and force-feedback exoskeleton robotic (SAFER) glove mechanism for hand rehabilitation
JP7405237B2 (ja) 自己運動提示システム、自己運動提示方法、およびプログラム
Brice et al. A proof of concept integrated multi-systems approach for large scale tactile feedback in VR
Menezes et al. Touching is believing-Adding real objects to Virtual Reality
Jyothi et al. Haptic technology-a sense of touch
Aliaga Virtual and real object collisions in a merged environment
Vaibhav et al. Applications of haptics technology in advance robotics
Sharma et al. Technology based on touch: Haptics technology
Talvas et al. 3D interaction techniques for bimanual haptics in virtual environments
Mihelj et al. Haptic modality in virtual reality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231212