JP2015153387A - 仮想現実体感装置、仮想現実体感方法、及びプログラム - Google Patents

仮想現実体感装置、仮想現実体感方法、及びプログラム Download PDF

Info

Publication number
JP2015153387A
JP2015153387A JP2014029552A JP2014029552A JP2015153387A JP 2015153387 A JP2015153387 A JP 2015153387A JP 2014029552 A JP2014029552 A JP 2014029552A JP 2014029552 A JP2014029552 A JP 2014029552A JP 2015153387 A JP2015153387 A JP 2015153387A
Authority
JP
Japan
Prior art keywords
force
virtual space
force sense
sense presentation
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014029552A
Other languages
English (en)
Inventor
一仁 村田
Kazuhito Murata
一仁 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2014029552A priority Critical patent/JP2015153387A/ja
Publication of JP2015153387A publication Critical patent/JP2015153387A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザにおける実空間での移動と仮想空間での移動とのシンクロを実現し得る、仮想現実体感装置、仮想現実体感方法及びプログラムを提供する。
【解決手段】仮想現実体感装置100は、表示部20、力覚提示部材13、力覚提示部材の位置を検出する提示位置検出部30、力覚提示部材に引張力を伝達する伝達部材12、引張力を発生させる駆動部11、情報処理部40及び制御部14を備える。情報処理部は、当該装置の実空間に重ね合わされた仮想空間での位置及び向きを特定し、これと力覚提示部材の位置とから、力覚提示部材の仮想空間での位置を特定し、これに対応して仮想空間内に変化を与え、ユーザが受ける外力を算出し、当該装置の仮想空間での位置及び向きに応じて仮想空間に視点を設定し、表示部20に、この視点で表示を行なわせる。制御部14は、駆動部11に初期力を発生させ、外力が力覚として伝達されるように初期力を増加又は減少させる。
【選択図】図5

Description

本発明は、バーチャルリアリティ(仮想現実)において、ユーザにリアルな力覚を提示する、仮想現実体感装置、仮想現実体感方法、及びこれらを実現するためのプログラムに関する。
近年、コンピュータの性能の向上に伴い、バーチャルリアリティ(仮想現実)の研究開発が進んでいる。バーチャルリアリティは、仮想空間内でユーザに様々な擬似的体験を提供する技術であり、ユーザには、映像及び音声に加え、力覚が提示される。そして、仮想空間内で力覚を提示するため、種々の装置が提案されている(例えば、特許文献1及び2参照)。
具体的には、特許文献1は、異なる方向から、8本のワイヤーで引っ張られた状態にあるグリップによって力覚を提示する力覚提示装置を開示している。特許文献1に開示された力覚提示装置では、ユーザがグリップを介して入力を行うと、それに合わせて各ワイヤーに引っ張り力が与えられるので、ユーザはグリップを介して力覚を感じることができる。
また、特許文献2は、操作者の手首に取り付けられる力覚提示装置を開示している。特許文献2に開示された力覚提示装置は、手首に取り付けられた支点部と、ユーザが握る把持部と、これらを連結する複数本のワイヤーとで構成されている。そして、特許文献2に開示された力覚提示装置では、支点部はワイヤーを引っ張る機能を備えており、各ワイヤーの引張力が調整されて、ユーザに把持部を介して力覚が提示される。
このような上記特許文献1及び2に開示された装置を用いれば、ユーザは、仮想空間内において、力覚を感じることができる。バーチャルリアリティは、今後、種々の分野での利用が期待されている。
特開2001−282448号公報 特開2002−304246号公報
ところで、バーチャルリアリティの用途の拡大を図るためには、仮想空間内をユーザが自由に動き回れる必要がある。そして、このとき、ユーザの実空間での移動に合わせて、画面に表示される仮想空間の状況が変化すれば、即ち、実空間での移動と仮想空間での移動とをシンクロさせることができれば、ユーザは仮想空間内を実際に移動しているという感覚を得ることができる。また、この場合、ユーザは、実空間を移動しながら、仮想空間内に存在するオブジェクトを、様々な角度から見ることもできる。
しかしながら、特許文献1に開示された力覚提示装置は、移動を前提としておらず、固定した状態でしか使用できないため、この力覚提示装置では、実空間での移動と仮想空間での移動とをシンクロさせることは不可能である。
一方、特許文献2に開示された力覚提示装置は、ユーザの腕に装着されるため、ユーザが移動した状態でも使用することができる。また、特許文献2に開示されている表示装置は、ユーザの顔面に装着されるタイプである。
しかし、特許文献2には、実空間での移動と仮想空間での移動とをシンクロさせる技術は開示されていないので、ユーザの実空間での移動に応じて、表示装置に表示される仮想空間の状況が変化することはない。特許文献2に開示された力覚提示装置と表示装置とを用いただけでは、実空間での移動と仮想空間での移動とのシンクロは困難である。
[発明の目的]
本発明の目的の一例は、上記問題を解消し、ユーザにおける実空間での移動と仮想空間での移動とのシンクロを実現し得る、仮想現実体感装置、仮想現実体感方法及びプログラムを提供することにある。
上記目的を達成するため、本発明の一側面における仮想現実体感装置は、特定の実空間に重ね合わされた仮想空間での状況に応じてユーザに力覚を提示する装置であって、
前記仮想空間を画面に表示する、表示部と、
前記ユーザに保持又は装着されて、前記力覚を提示する際のインターフェイスとなる、力覚提示部材と、
当該装置を基準とした前記力覚提示部材の位置を検出する、提示位置検出部と、
前記装置から、前記力覚提示部材へと伸びて、前記力覚提示部材に引っ張り方向の力を伝達する伝達部材と、
前記引っ張り方向の力を発生させ、それを前記伝達部材に与える駆動部と、
情報処理部と、
前記駆動部を制御する制御部と、を備え、
前記情報処理部は、当該装置の前記実空間での位置及び向きを特定するための情報を取得し、取得した前記情報に基づいて、当該装置の前記仮想空間での位置及び向きを特定し、
特定した当該装置の前記仮想空間での位置及び向きと、前記提示位置検出部によって検出された前記力覚提示部材の位置とに基づいて、前記力覚提示部材の前記仮想空間での位置を更に特定し、特定した前記力覚提示部材の前記仮想空間での位置に対応して前記仮想空間内に変化を与え、この変化によってユーザが受けることになる外力を算出し、
更に、特定した当該装置の前記仮想空間での位置及び向きに応じて、前記画面に前記仮想空間を表示する際の視点を設定し、前記表示部に、設定した視点で前記仮想空間を前記画面に表示させ、
前記制御部は、予め、前記駆動部に、設定された大きさの前記引っ張り方向の力を初期力として発生させておき、前記情報処理部によって算出された前記外力が、力覚として、前記力覚提示部材を介して前記ユーザに伝達されるように、前記初期力を増加又は減少させる、
ことを特徴とする。
また、上記目的を達成するため、本発明の一側面における仮想現実体感方法は、特定の実空間に重ね合わされた仮想空間での状況に応じてユーザに力覚を提示するための方法であって、
前記仮想空間を画面に表示する、表示部と、前記ユーザに保持又は装着されて、前記力覚を提示する際のインターフェイスとなる、力覚提示部材と、当該装置を基準とした前記力覚提示部材の位置を検出する、提示位置検出部と、前記装置から、前記力覚提示部材へと伸びて、前記力覚提示部材に引っ張り方向の力を伝達する伝達部材と、前記引っ張り方向の力を発生させ、それを前記伝達部材に与える駆動部と、を備える装置を用い、
(a)当該装置の前記実空間での位置及び向きを特定するための情報を取得し、取得した前記情報に基づいて、当該装置の前記仮想空間での位置及び向きを特定する、ステップと、
(b)前記(a)のステップで特定した当該装置の前記仮想空間での位置及び向きと、前記提示位置検出部によって検出された前記力覚提示部材の位置とに基づいて、前記力覚提示部材の前記仮想空間での位置を特定する、ステップと、
(c)前記(b)のステップで特定した前記力覚提示部材の前記仮想空間での位置に対応して前記仮想空間内に変化を与え、この変化によってユーザが受けることになる外力を算出する、ステップと、
(d)前記(a)のステップで特定した当該装置の前記仮想空間での位置及び向きに応じて、前記画面に前記仮想空間を表示する際の視点を設定し、前記表示部に、設定した視点で前記仮想空間を前記画面に表示させる、ステップと、
(e)予め、前記駆動部に、設定された大きさの前記引っ張り方向の力を初期力として発生させておき、前記(c)のステップで算出された前記外力が、力覚として、前記力覚提示部材を介して前記ユーザに伝達されるように、前記初期力を増加又は減少させる、ステップと、
を有することを特徴とする。
更に、上記目的を達成するため、本発明の一側面におけるプログラムは、特定の実空間に重ね合わされた仮想空間での状況に応じてユーザに力覚を提示するため、
前記仮想空間を画面に表示する、表示部と、前記ユーザに保持又は装着されて、前記力覚を提示する際のインターフェイスとなる、力覚提示部材と、当該装置を基準とした前記力覚提示部材の位置を検出する、提示位置検出部と、前記装置から、前記力覚提示部材へと伸びて、前記力覚提示部材に引っ張り方向の力を伝達する伝達部材と、前記引っ張り方向の力を発生させ、それを前記伝達部材に与える駆動部と、コンピュータと、を備える装置において、
前記コンピュータに、
(a)当該装置の前記実空間での位置及び向きを特定するための情報を取得し、取得した前記情報に基づいて、当該装置の前記仮想空間での位置及び向きを特定する、ステップと、
(b)前記(a)のステップで特定した当該装置の前記仮想空間での位置及び向きと、前記提示位置検出部によって検出された前記力覚提示部材の位置とに基づいて、前記力覚提示部材の前記仮想空間での位置を特定する、ステップと、
(c)前記(b)のステップで特定した前記力覚提示部材の前記仮想空間での位置に対応して前記仮想空間内に変化を与え、この変化によってユーザが受けることになる外力を算出する、ステップと、
(d)前記(a)のステップで特定した当該装置の前記仮想空間での位置及び向きに応じて、前記画面に前記仮想空間を表示する際の視点を設定し、前記表示部に、設定した視点で前記仮想空間を前記画面に表示させる、ステップと、
(e)予め、前記駆動部に、設定された大きさの前記引っ張り方向の力を初期力として発生させておき、前記(c)のステップで算出された前記外力が、力覚として、前記力覚提示部材を介して前記ユーザに伝達されるように、前記初期力を増加又は減少させる、ステップと、
を実行させることを特徴とする。
以上のように本発明によれば、ユーザにおける実空間での移動と仮想空間での移動とのシンクロを実現することができる。
図1は、本発明の実施の形態における仮想現実体感装置の外観を示す斜視図である。 図2は、本発明の実施の形態における仮想現実体感装置の使用態様を示す図である。 図3は、本発明の実施の形態における仮想現実体感装置の各構成部品を示す分解斜視図である。 図4は、図3に示す仮想現実体感装置の背面を示す斜視図である。 図5は、本発明の実施の形態における仮想現実体感装置の構成を示すブロック図である。 図6は、本発明の実施の形態における仮想現実体感装置の動作を示すフロー図である。 図7は、図6に示したステップS103を説明するための図である。 図8は、図6に示したステップS106を説明するための図である。 図9(a)は、引張力の算出処理を説明するための図であり、図9(b)は、引張力の算出処理に用いられる座標軸を示す図である。 図10は、提示力の再設定処理を説明するための図である。 図11は、本発明の実施の形態における仮想現実体感装置の他の例を示す斜視図である。 図12は、本発明の実施の形態における仮想現実体感装置がヘッドマウントディスプレイに組み込まれている例を示す図である。 図13は、本発明の実施の形態における仮想現実体感装置の他の例を示す斜視図である。 図14も、図13に示した変形例8と同様に、本発明の実施の形態における仮想現実体感装置の他の例を示す斜視図である。
(実施の形態)
以下、本発明の実施の形態における、仮想現実体感装置、仮想現実体感方法、及びプログラムについて、図1〜図14を参照しながら説明する。
[装置構成]
最初に、図1及び図2を用いて、本実施の形態における仮想現実体感装置の外観構成及び使用態様について説明する。図1は、本発明の実施の形態における仮想現実体感装置の外観を示す斜視図である。図2は、本発明の実施の形態における仮想現実体感装置の使用態様を示す図である。
まず、図1を用いて、本実施の形態における仮想現実体感装置100の外観構成について説明する。図1に示す仮想現実体感装置100は、仮想空間での状況に応じて、ユーザ200に力覚を提示する機能を備えている。図1に示すように、仮想現実体感装置100は、ユーザに保持又は装着されて、力覚を提示する際のインターフェイスとなる、力覚提示部材13を備えている。本実施の形態では、力覚提示部材13は、ユーザ200の力覚の提示を受ける部分、例えば、指に装着可能に形成されている。
また、仮想現実体感装置100は、それを基準とした力覚提示部材13の位置を検出することができる。具体的には、仮想現実体感装置100は、装置の背面(画面101が設けられた側の反対側)の空間において、力覚提示部材13の位置を検出することができる。これにより、ユーザ200は、力覚提示部材13を装着した指の位置を動かすことによって、仮想現実体感装置100に対して入力操作を行うことができる。
また、仮想現実体感装置100は、画面101上に、仮想空間を表示することができ、更に、力覚提示部材13に相当するオブジェクト(以下「ユーザオブジェクト」と表記する。)102を、検出された位置に合わせて仮想空間内に表示することもできる。そして、仮想空間内に配置されている仮想オブジェクト103とユーザオブジェクト102とが接触した場合は、仮想現実体感装置100は、ユーザ200の指に、力覚提示部材13を介して、仮想オブジェクト103に触れた感触を伝達する。
つまり、仮想現実体感装置100を用いれば、ユーザ200が指を動かして仮想オブジェクト103に働きかけを行なうことにより、ユーザ200に、仮想空間内で生じた変化が、力覚として提示される。
また、図2に示すように、本実施の形態では、仮想空間は、特定の実空間300に重ね合わされた状態で構築される。このため、仮想現実体感装置100は、それ自体の実空間300での位置及び向きを特定するための情報(以下「外部情報」と表記する。)を外部から取得し、取得した外部情報に基づいて、それ自体の仮想空間での位置及び向きを特定する。なお、図2において、51は、外部情報を取得するために実空間300に配置されたマーカーである。マーカー51を用いた外部情報の取得方法については後述する。
また、仮想現実体感装置100は、特定した仮想空間での位置及び向きと、それを基準とした力覚提示部材13の位置に基づいて、力覚提示部材13の仮想空間での位置(ユーザオブジェクト102の位置)も特定する。更に、仮想現実体感装置100は、それ自体の仮想空間での位置及び向きに応じて、画面101に仮想空間を表示する際の視点を設定し、画面101上に、設定した視点で仮想空間を表示する。
この結果、図2に示すように、ユーザ200が仮想現実体感装置100を持って実空間を移動すると、ユーザ200の位置に応じて、仮想空間に設定される視点が連続して切り替わることになる。仮想現実体感装置100によれば、ユーザにおける実空間での移動と仮想空間での移動とのシンクロが実現される。そして、これにより、ユーザ200は、目の前に、仮想オブジェクトが存在していると感じることができる。なお、図1及び図2においては、ユーザ200と仮想オブジェクト103との位置関係を示すため、実空間300中に、仮想オブジェクト103が破線で示されている。
ここで、図1及び図2に示す例について具体的に説明する。図1及び図2の例では、仮想オブジェクト103として、自動車の形状を模した造形物(クレイモデル)の仮想オブジェクトが用いられている。更に、図1及び図2の例では、仮想現実体感装置100は、ユーザ200が、力覚提示部材13を操作して、ユーザオブジェクト102を仮想オブジェクト103に接触させると、この仮想オブジェクト103の形状に変化を与えることができる。
具体的には、仮想現実体感装置100は、ユーザオブジェクト102の位置から、更に、力覚提示部材13の仮想空間での動き、即ち、ユーザオブジェクト102の動きを特定する。そして、特定した動きが、仮想オブジェクト103の表面を削り取るような動きである場合は、仮想現実体感装置100は、仮想オブジェクト103の力覚提示部材13(ユーザオブジェクト102)と接触した部分が削られるように、仮想オブジェクト103に変化を与えることができる。また、特定した動きが、仮想オブジェクト103の表面をなぞるような動きである場合は、仮想現実体感装置100は、仮想オブジェクト103のなぞられた部分が盛り上がるように、仮想オブジェクト103に変化を与えることもできる。
つまり、図1及び図2の例では、ユーザ200は、仮想現実体感装置100を用いることによって、仮想空間内でクレイモデルの形状変更(微修正)を行なうことができる。このため、実際のクレイモデルを作成する必要がなくなるため、これを作成する場合に比べて低コストで、デザイン開発を行なうことが可能となる。また、図1及び図2の例では、ユーザ200における作業のし易さを考慮して、仮想オブジェクト103のサイズ(スケール)を自由に設定できるので、デザイン開発の効率化が図られると考えられる。
また、ユーザ100におけるリアリティを向上させるため、図1及び図2の例では、ユーザオブジェクト102として、ヘラ状に形成されたオブジェクトが用いられている。加えて、ユーザ100における更なるリアリティの向上のため、力覚提示部材13は、ユーザ200がデザイン開発で使用するツールの形状、例えばヘラ状に形成されていても良い。
また、本実施の形態では、図2に示すように、複数の仮想現実体感装置100を用い、装置間で、互いに通信させて仮想空間を共有させることもできる。この場合は、複数のユーザ200が、1つの仮想オブジェクト103に対して形状を変化させることができるので、チームによるデザイン開発が可能となる。
続いて、図3を用いて、本実施の形態における仮想現実体感装置の具体的構成について説明する。図3は、本発明の実施の形態における仮想現実体感装置の各構成部品を示す分解斜視図である。
図3に示すように、仮想現実体感装置100は、力覚提示部10と、表示部20と、提示位置検出部30と、情報処理部40とを備えている。
このうち、力覚提示部10は、ユーザ200(図1及び図2参照)に力覚を提示する。力覚提示部10については更に後述する。表示部20は、仮想空間を画面に表示する表示装置である。具体的には、表示装置20は、液晶表示パネル、有機ELパネルといった薄型の表示パネルである。
また、提示位置検出部30は、仮想現実体感装置100を基準とした、ユーザ200が操作する力覚提示部材13の位置を検出する。情報処理部40は、まず、仮想現実体感装置100の実空間300での位置及び向きを特定するための外部情報を外部から取得する。次に、情報処理部40は、取得した外部情報に基づいて、仮想現実体感装置100の仮想空間での位置及び向きを特定する。
更に、情報処理部40は、特定した仮想空間での位置及び向きと、提示位置検出部30によって検出された力覚提示部材13の位置とに基づいて、力覚提示部材13の仮想空間での位置も特定する。
続いて、情報処理部40は、特定した力覚提示部材13の仮想空間での位置に対応して仮想空間内に変化を与え、この変化によってユーザが受けることになる外力を算出する。更に、情報処理部40は、先に特定した仮想現実体感装置100の仮想空間での位置及び向きに応じて、画面に仮想空間を表示する際の視点を設定し、表示部20に、設定した視点で仮想空間を画面に表示させる。
そして、本実施の形態では、情報処理部40による処理の結果、ユーザ200が仮想現実体感装置100を持って移動すると、ユーザ200の位置に応じて、仮想空間に設定される視点が連続して切り替わる。これにより、ユーザにおける実空間での移動と仮想空間での移動とのシンクロが実現される。
また、図3に示すように、力覚提示部10は、駆動部11と、伝達部材12と、力覚提示部材13と、制御部14とを備え、これらによって、ユーザ200に、力覚提示部材13を介して、力覚を提示することができる。
伝達部材12は、仮想現実体感装置100から力覚提示部材13へと伸びて、力覚提示部材13に引っ張り方向の力(以下、「引張力」と表記する。)を伝達する部材である。また、駆動部11は、引張力を発生させ、それを伝達部材12に与えている。
また、制御部14は、まず、駆動部11に、予め、設定された大きさの引張力を初期力として発生させる。そして、制御部14は、情報処理部40によって算出された外力が、力覚として、力覚提示部材13を介してユーザ200(図2参照)に伝達されるように、駆動部11における初期力を増加又は減少させる。
このように、力覚提示部10は、仮想現実体感装置100の背面側に位置するユーザ200の指に、力覚提示部材13及び伝達部材12を介して引っ張り方向の力を伝達することによって力覚を提示する。また、力覚提示部10の構成は、コンパクトにできるので、装置の小型化も図られる。なお、本発明でいう「力覚」とは、ユーザが感じる、反発力、抵抗力、外力、感触、等を意味する。
ここで、図3に加えて図4を用いて、本実施の形態における仮想現実体感装置100の構成について更に具体的に説明する。図4は、図3に示す仮想現実体感装置の背面を示す斜視図である。
図3及び図4に示すように、本実施の形態では、仮想現実体感装置100は、更に、撮像装置50を備えている。撮像装置50は、仮想現実体感装置100の周囲を撮影できるように配置されている。また、図2に示すように、本実施の形態では、実空間に予めマーカー51が配置されている。このため、情報処理部40は、外部情報として、撮像装置50によって撮影された実空間の画像を取得する。
そして、本実施の形態では、情報処理部40は、この取得した画像から、マーカー51の画像を抽出し、抽出した画像の大きさ及び形状に基づいて、仮想現実体感装置100の実空間での位置及び向きを特定する。続いて、情報処理部40は、予め設定されている実空間300と仮想空間との位置関係に、特定した実空間での位置及び向きを照らし合わせて、仮想現実体感装置100の仮想空間での位置及び向きを特定する。
また、図3に示すように、仮想現実体感装置100は、ユーザ側から順に、枠状に形成されたカバー60と、表示部20と、箱状の筐体61とを備えている。カバー60は、表示部20の画面が露出するように、筐体61の開口部分に取り付けられる。
上述した、駆動部11、制御部14、提示位置検出部30、情報処理部40及び撮像装置50は、表示部20の背面側となる筐体61の内部に配置されている。また、図3に示すように、本実施の形態では、3本の伝達部材12が用いられており、これに対応して3つの駆動部11が配置されている。
本実施の形態では、伝達部材12それぞれは、仮想現実体感装置100の背面側の異なる位置から力覚提示部材13へと伸びる紐状の部材、例えば、ワイヤーである。また、各伝達部材12の先端は、力覚提示部材13に固定されている。
また、本実施の形態では、各駆動部11は、プーリ15が軸に取り付けられたモータであり、対応する伝達部材12をプーリ15で巻き取ることによって、対応する伝達部材12に、引っ張り方向の力を与えている。伝達部材12の一端はプーリに固定されている。
更に、筐体61の底面には、伝達部材12毎に、通し穴16が設けられており、各伝達部材12は、通し穴16を経由して、仮想現実体感装置100の背面側へと伸びる。なお、各通し穴16の位置は、特に限定されないが、後述するように、力覚の提示範囲は各通し穴16の位置によって決定される(図10の領域X参照)。よって、各通し穴16の位置は、求められる提示範囲を考慮した上で決定される。
このように、本実施の形態においては、3本の伝達部材12によって、力覚提示部材12が引っ張られることによって、ユーザ200に力覚が提示される(図1及び図2参照)。つまり、各駆動部11が力覚提示部材13に与える引張力の合力によって、力覚が提示される。
また、本実施の形態では、提示位置検出部30は、駆動部11毎に、その軸に設けられたエンコーダである。このため、提示位置検出部30は、力覚提示部材13の位置を検出するためのデータ(以下、「位置検出データ」と表記する。)として、モータの軸の回転数を特定するデータを、情報処理部40に出力する。
そして、情報処理部40は、各提示位置検出部30から出力された位置検出データを受け取ると、予め登録されている、伝達部材12の全長、プーリ15の直径、プーリ15から通し穴16までの距離等に基づいて、各伝達部材12の通し穴16から力覚提示部材13までの長さを算出する。また、情報処理部40は、後述するように、算出された各伝達部材12の長さに基づいて、力覚提示部材13の位置を算出する。
また、本実施の形態では、制御部14、情報処理部40、及び外部情報取得部50は、それぞれ、マイコン等のコンピュータによって実現されている。また、両者は、それぞれ別々のコンピュータによって実現されていても良いし、同一のコンピュータによって実現されていても良い。
以上、図3に示すように、本実施の形態では、駆動部11として機能するモータによる力の伝達機構として、紐状の部材(伝達部材12)が用いられる。従って、力覚提示部10において、構成部材の軽量化と、力覚を提示するための機構の単純化とが図られるので、仮想現実体感装置100の小型軽量化が達成される。
また、本実施の形態では、駆動部材12による引張力の伝達方向は、プーリ15及び通し穴16の位置によって、自由に設定できる。更に、伝達部材12の通し穴から力覚提示部材13までの距離は、プーリ15での巻き取り量によって、自由に設定できる。従って、ユーザが操作できる範囲を大きくできるので、広い範囲での3次元的な力覚の提示が可能となる。また、伝達部材12として、軽量な紐状の部材が用いられているので、ユーザは、指を動かす際に、機械的な抵抗などを感じ難いといえる。
続いて、図5を用いて、仮想現実体感装置100でやり取りされるデータについて説明する。図5は、本発明の実施の形態における仮想現実体感装置の構成を示すブロック図である。
図3に示すように、情報処理部40は、表示部20、提示位置検出部30、撮像装置50、及び制御部14に接続されている。また、制御部14は、駆動部(モータ)11に接続されている。
この構成では、ユーザ200が、力覚提示部材13を装着した指を、仮想現実体感装置100の背面側で動かすと、各提示位置検出部30が、位置検出データを情報処理部40に出力する。情報処理部40は、各位置検出データを受け取ると、これらに基づいて、仮想現実体感装置100を基準とした力覚提示部材13の位置を特定する。
また、情報処理部40は、撮像装置50から、外部情報として、実空間の画像(画像データ)を取得すると、マーカー51の画像を抽出し、抽出した画像の大きさ及び形状に基づいて、仮想現実体感装置100の実空間での位置及び向きを特定する。なお、撮像装置50からの画像データの出力は、例えば、設定されたフレームレートで連続して行なわれている。
続いて、情報処理部40は、仮想現実体感装置100の実空間での位置及び向きから、仮想現実体感装置100の仮想空間での位置及び向きを特定し、更に、力覚提示部材13の仮想空間での位置も特定する。そして、情報処理部40は、力覚提示部材13の仮想空間での位置を特定すると、特定した位置に応じて、ユーザオブジェクト102(図1参照)の位置を変更する。
また、情報処理部40は、力覚提示部材13の仮想空間での位置を特定すると、仮想オブジェクト103のデータを格納しているコンテンツデータデータベース41にアクセスする。更に、情報処理部40は、仮想オブジェクトのデータを用い、必要に応じて、仮想オブジェクト103に変化を与える処理を行なう。
そして、情報処理部40は、仮想現実体感装置100の仮想空間での現在の位置及び向きに対応するように視点を設定し、その視点を基準に、処理後の仮想オブジェクト103を表示させる表示データを作成して、表示部20に出力する。
なお、コンテンツデータデータベース41は、仮想現実体感装置100に備えられた記憶装置に構築されていても良いし、インターネットで接続された別の機器(コンピュータ)の記憶装置に構築されていても良い。
また、このとき、情報処理部40は、力覚提示部材13(ユーザオブジェクト102)に仮想空間内で発生した力を算出し、算出した力を特定するデータ(以下「提示データ」と表記する。)を、制御部14に出力する。この算出された力は、ユーザオブジェクト102に発生した反発力等であり、ユーザに伝達すべき力覚に相当する。
制御部14は、提示データを受け取ると、提示データによって特定される力覚がユーザ200に伝達されるように、各駆動部11が出力すべき引張力を算出する。そして、制御部14は、各駆動部11に目的の引張力を発揮させる制御データを生成し、これを各駆動部11に出力する。
具体的には、制御部14は、電源回路(図示せず)を用いて、駆動部11として機能するモータを駆動するためのパルス信号を生成し、これを制御データとして出力する。これにより、各駆動部(モータ)11は、計算された引張力で伝達部材12を引っ張り、ユーザ200の指先には、提示データによって特定される力覚が提示される。
[装置動作]
次に、本発明の実施の形態における仮想現実体感装置100の動作について図6を用いて説明する。図6は、本発明の実施の形態における仮想現実体感装置の動作を示すフロー図である。なお、以下の説明においては、適宜図1〜図5を参酌する。また、本実施の形態では、仮想現実体感装置100を動作させることによって、仮想現実体感方法が実施される。よって、本実施の形態における仮想現実体感方法の説明は、以下の仮想現実体感装置100の動作説明に代える。
最初に、情報処理部40は、撮像装置50から出力されてくる画像データを取得し、画像データから、マーカー51の画像を抽出し、抽出した画像の大きさ及び形状に基づいて、仮想現実体感装置100の実空間での位置及び向きを特定する(ステップS101)。
次に、情報処理部40は、予め設定されている実空間300と仮想空間との位置関係に、ステップS101で特定した実空間での位置及び向きを照らし合わせて、仮想現実体感装置100の仮想空間での位置及び向きを特定する(ステップS102)。
次に、情報処理部40は、各位置検出部30が出力した位置検出データから、各伝達部材12の通し穴16から力覚提示部材13までの長さを算出し、更に、算出された各伝達部材12の長さに基づいて、力覚提示部材13の仮想現実体感装置100を基準とした位置を特定する。
そして、情報処理部40は、力覚提示部材13の仮想現実体感装置100を基準とした位置と、ステップS102で特定した仮想現実体感装置100の仮想空間での位置及び向きとを用いて、力覚提示部材13の仮想空間での位置、即ち、ユーザオブジェクト102の位置を特定する(ステップS103)。また、情報処理部40は、特定した位置に応じて、ユーザオブジェクト102(図1参照)の位置を変更する。
次に、情報処理部40は、ステップS103で特定したユーザオブジェクト102の位置に応じて、仮想オブジェクト103に変化を与えると共に、ユーザオブジェクト102に仮想空間内で発生した提示力を算出し、更に提示データを制御部14に出力する(ステップS104)。
次に、情報処理部40は、ステップS102で特定した、想現実体感装置100の仮想空間での位置及び向きに対応するように、画面101に仮想空間を表示する際の視点を設定する(ステップS105)。更に、ステップS105では、情報処理部40は、設定した視点を基準に、ステップS104の処理後の仮想オブジェクト103を表示させる表示データを作成し、これを表示部20に出力する。これにより、表示部20の画面101には、ユーザ200の位置に対応した視点で、処理後の仮想オブジェクトが表示される。
次に、制御部14は、情報処理部40から提示データを受け取ると、提示データで特定される提示力を提示する上で各駆動部11が出力すべき引張力を算出する(ステップS106)。また、ステップS106では、制御部14は、更に、各駆動部11によって、算出された引張力が発生するように制御データを生成し、これを各駆動部11に出力する。
ステップS106が実行されると、各駆動部11を構成するモータは、出力されてきた制御データに応じて回転して伝達部材12を引っ張り、ユーザ200の指先に、力覚提示部材13を介して力覚を提示する(ステップS107)。
また、本実施の形態においては、ステップS101〜S107は、繰り返し実行される。よって、ユーザ200が、力覚提示部材13を、ある位置から別の位置まで指を動かした場合は、その開始から終了までの間に、ステップS101〜S107は繰り返し実行されるので、その間、ユーザ200は、連続して、力覚の提示を受けることができる。
ここで、図6に示したステップS103、S104、及びステップS106について、図5〜図8を用いて更に詳細に説明する。
[ステップS103]
まず、図7を用いて、図6に示したステップS103について説明する。図7は、図6に示したステップS103を説明するための図である。ステップS103における処理では、まず、上述したように、仮想現実体感装置100を基準とした力覚提示部材13の位置が、伝達部材12の長さによって特定される。また、伝達部材12の長さは、位置検出部30によって特定される。
具体的には、図6に示すように、各伝達部材12の通し穴16から力覚提示部材13までの長さを、それぞれ、l、l、lとし、画面の水平方向において隣り合う通し穴間の間隔をwとし、画面の垂直方向において隣り合う通し穴間の間隔をhとする。この場合、情報処理部40は、l、l、l、w、及びhを用いて、力覚提示部材13の座標(x、y、z)を幾何的に算出する。
その後、情報処理部40は、ステップS102で特定した仮想現実体感装置100の仮想空間での位置及び向きに、算出した力覚提示部材13の座標(x、y、z)を当てはめることによって、ユーザオブジェクト102の位置を特定する。
[ステップS104]
次に、図1及び図2を参照しながら、図6に示したステップS104について説明する。ステップS104では、上述したように、ユーザ200による力覚提示部材13の動きに合せて、仮想空間内でユーザオブジェクト102が動き、仮想空間内の仮想オブジェクト103に変化が与えられる。
具体的には、情報処理部40は、まず、ステップS103で特定したユーザオブジェクト102の位置と、それ以前のユーザオブジェクト102の位置とを比較して、ユーザオブジェクト102の動きを特定する。続いて、情報処理部40は、コンテンツデータデータベース41から、仮想オブジェクト103のデータを取得し、これに、ユーザオブジェクト102の動きを当てはめて、どのような動きであるかを判定する。
例えば、情報処理部40は、ユーザオブジェクト102の現在の位置と過去の位置とを結ぶ軌跡が、仮想オブジェクト103の表面より内側に存在しているときは、ユーザオブジェクト102の動きは「表面を削り取る」動きであると判定する。また、情報処理部40は、ユーザオブジェクト102の現在の位置と過去の位置とを結ぶ軌跡が、仮想オブジェクト103の表面より外側にあり、且つ、軌跡と表面との距離が設定範囲内であれば、、ユーザオブジェクト102の動きは「表面をなぞる」動きであると判定する。
そして、判定の結果、ユーザオブジェクト102の動きが、仮想オブジェクト103の表面を削り取る動きである場合は、情報処理部40は、仮想オブジェクト103のユーザオブジェクト102と接触した部分が削られるように、仮想オブジェクト103に変化を与える。一方、判定の結果、ユーザオブジェクト102の動きが、仮想オブジェクト103の表面をなぞる動きである場合は、情報処理部40は、仮想オブジェクト103のなぞられた部分が盛り上がるように、仮想オブジェクト103に変化を与える。
また、この場合において、仮想オブジェクト103の削られる部分の形状及び量と、盛り上げられる部分の形状及び量とは、仮想オブジェクト103とユーザオブジェクト102との位置関係に応じて決定される。このため、ユーザ200の感覚と仮想オブジェクト103の変化とが一致することになる。
更に、ステップS104において、提示力の算出は、例えば、仮想空間内の物理シミュレータを用いて、ユーザオブジェクト102が仮想オブジェクト103に接触した場合にうける反力をシミュレートすることによって行なわれる。また、上述したように、仮想オブジェクト103を削ったり、盛り上げたりする場合においては、提示力は、削られる部分の量又は盛り上げられる部分の量が大きい程、大きくなるように算出されるのが良い。この結果、ユーザ200は、力覚によって、削り加減と盛り上げ加減とを判断することができる。
また、算出された提示力(以下「提示力F」と表記する。)は、ユーザ200に提示すべき力覚に相当する(後述の図8及び図9参照)。よって、情報処理部40は、提示力Fが提示されるようにするため、提示力Fを特定する提示データを制御部14に出力する。
[ステップS106]
次に、図8及び図9を用いて、図6に示したステップS106について説明する。
図8は、図6に示したステップS106を説明するための図である。図8に示すように、目的の提示力Fを提示するために必要となる各伝達部材12の引張力を、それぞれ、τ、τ、τとすると、提示力Fは、基本的には、引張力τ、τ、及びτの合力に相当する。
そして、提示力Fが、外部から仮想現実体感装置100に向かう方向の力である場合には、提示力Fの方向は、引張力τ〜τの合力の方向と一致する。しかし、図8に示すように、提示力Fが仮想現実体感装置100から離れる方向の力である場合には、伝達部材12は、紐状の部材であり、仮想現実体感装置100側へと引っ張る方向の力しか伝達できないため、力覚の提示ができなくなる可能性がある。
そのため、本実施の形態では、制御部14は、上述したように、力覚を提示しない場合において、予め、力覚提示部材13に一定の力を常に初期力Fとして提示する。そして、制御部14は、提示力Fが、仮想現実体感装置100から離れる方向の力である場合は、初期力Fを緩めることにより、仮想現実体感装置100から離れる方向への力覚を提示している。
一般に、ヒトの触感覚には、その時間特性として、順応と呼ばれる現象がある。順応は、ヒトに一定の刺激を提示し続けると、刺激に対する感度が低下する現象である。つまり、ヒトの皮膚は、圧力に対してきわめて順応しやすく、指輪及び腕時計を装着した場合、その装着感は失われやすい。
また、重力に対しても同様であり、ヒトは、普段、その力を意識することはない。例えば、電車に乗っている際の加速時又は減速時において、ヒトには、その慣性力と重力との合力が力として加わっているが、電車に乗っているヒトは、合力を感じず、移動方向への慣性力のみを感じる。
このように、本実施の形態では、ヒトの順応性が利用され、初期力Fを増加又は減少させることによって、仮想現実体感装置100に向かう方向の力覚と離れる方向の力覚との提示が可能となっている。
続いて、図9を用いて、伝達部材12に与える引張力τ〜τの算出処理について具体的に説明する。図9(a)は、引張力の算出処理を説明するための図であり、図9(b)は、引張力の算出処理に用いられる座標軸を示す図である。
図9(a)及び図9(b)において、引張力τ〜τは、初期力Fを発生させるために必要となる引張力を除いた引張力であり、初期力Fに対して加算又は減算させる引張力である。また、図9(a)及び図9(b)において、座標軸の原点は、各伝達部材12の先端の位置とする。更に、x軸は画面の水平方向に平行な軸、y軸は画面の垂直方向に平行な軸、z軸は画面の法線に平行な軸とする。図9(b)において、単位ベクトルrの座標を、(r,ψ,θ)とする。この場合、引張力τ〜τは、目的の提示力を発揮するためには、下記の数1の関係を満たす必要がある。
Figure 2015153387
また、上記数1において、伝達部材12の引張力τ〜τはスカラー量であり、引張力τ〜τの方向ベクトルΦは、数2によって表わされる。
Figure 2015153387
制御部14は、上記数1及び数2を用いることで、引張力τ〜τを算出することができる。また、上記数1に示すように、目的の提示力Fは、各伝達部材12の引張力から初期力Fを減算することによって得られている。このため、提示力Fが、仮想現実体感装置100から離れる方向(−z方向)の、初期力Fを超える力でない限りは、仮想現実体感装置100から離れる方向(−z方向)においても力覚の提示が可能となる。
なお、各伝達部材12の引張力の条件として、引張力τ、τ、τは、引っ張る方向にしか力を提示できないため、これらは必ず正の値をとる。また、各引張力の最低値をτminとした場合は、下記の数3が成立する。
Figure 2015153387
ところで、伝達部材12は、引っ張り方向の力しか伝達できないため、引張力τ、τ、τの合力によって、提示すべき力覚を提示できない状況が発生することがある(図10参照)。具体的には、力覚提示部材13が、画面の法線に平行な方向(z軸方向)において、隣接する通し穴16を直線で結んで得られる領域(図10の領域X参照)と重ならない位置にある場合は、上記数1では、目的の提示力Fを算出できなくなる可能性がある。このような場合、本実施の形態では、制御部14は、提示すべき力覚(提示力F)を設定し直し、設定し直した提示力Frが提示されるように、初期力Fを増加又は減少させる。以下に、上記再設定処理について具体的に説明する。
図10は、提示力の再設定処理を説明するための図である。図10に示すように、例えば、力覚提示部材13の位置(x、y、z)が、隣接する通し穴16を直線で結んで得られる領域Xとz軸方向において重ならない位置にある場合を想定する。
図10に示す場合において、提示力Fのx軸方向の成分が正でない限り、各伝達部材12の張力をどのように設定しても、上記数1及び数2によって提示力Fを算出することは不可能である。一方、このような状況であっても、ユーザは、指を領域Xとz軸方向において重なる位置に移動させることはできる。従って、制御部14は、このような場合において、上記数1及び数2によって、引張力τ、τ、τを算出できるように、提示力Frを再設定する。
図10の例では、実際に、引張力τ、τ、及びτによって引っ張りたい方向は、提示力Fと初期力Fとの合力の方向である。しかし、この方向は、各伝達部材12の合力によって引っ張ることができる方向ではない。このため、制御部14は、提示力Fと初期力Fとの合力に最も近い力を、新たな提示力Frとして再設定する。
図10の例では、引張力τと引張力τとで発生させる提示力Frが、元の提示力Fと初期力Fとの合力に近くなる。そこで、制御部14は、引張力τと引張力τとを発生させる2本の伝達部材12によって作られる面に、元の提示力Fと初期力Fとの合力を回転射影することで、新しい提示力Frを再設定する。
具体的には、引張力τと引張力τとを発生させる2本の伝達部材12によって作られる面への射影ベクトルVは、下記の数4によって表すことができる。下記の数4において変数「a」は、図10に示すように、回転射影を行なった場合の回転角度ωを最も小さくする位置、即ち、領域Xの画面の垂直方向における辺上の位置を割合で表わしている(0<a<1)。また、Φは通し穴16を基準にしたτの方向ベクトルである。Φは通し穴16を基準にしたτの方向ベクトルである。Φ及びΦは、上述の数2から求められる。
Figure 2015153387
従って、制御部14は、下記数5を用いて、射影ベクトルVと元の提示力F及び初期力Fの合力との内積を、最も小さくする射影ベクトルを算出する。そして、制御部14は、算出した射影ベクトルを、下記の数6に適用して、新たな提示力Frを算出する。その後、制御部14は、新たな提示力Frを用いて、各伝達部材12の引張力τ、τ、τを算出し、これらが発生するように制御データdを生成し、各駆動部11に出力する。
Figure 2015153387
Figure 2015153387
[変形例1]
上述した例では、伝達部材12は三本であるが、本実施の形態では、伝達部材12の数は特に限定されるものではない。伝達部材12の数は、仮想現実体感装置100を大型化させない範囲で設定されていれば良い。
[変形例2]
上述した例では、駆動部11としてモータが用いられているが、本実施の形態では、駆動部はモータに限定されない。駆動部11は、駆動部材を引っ張ることが可能なアクチュエータであれば良く、駆動部11としては、他に、伸張動作を行なう人工筋肉アクチュエータ、繊維状の形状記憶合金アクチュエータ、などが挙げられる。
[変形例3]
また、上述した例では、位置検出部30として、伝達部材の長さを特定するエンコーダが用いられているが、本実施の形態では、位置検出部30は、エンコーダ以外であっても良い。例えば、位置検出部30として、撮像装置50を用いることができる。この場合は、力覚提示部材13の位置が光学的に検出される。また、位置検出部30として、仮想現実体感装置100の背面に設置された磁気センサを用いることもできる。この場合は、磁気を発する材料で力覚提示部材13を形成することによって、力覚提示部材13の位置検出が可能となる。
[変形例4]
また、上述した例では、図7に示したように、伝達部材12を引張し始める位置である通し穴16の位置は、縦方向をh、横方向をwとした直角三角形の頂点位置に設定されているが、本実施の形態において、通し穴16の位置は特に限定されるものではない。また、全ての通し穴は、同一平面内に配置されていなくても良い。通し穴16の位置は、仮想現実体感装置100の厚みが許す範囲で適宜設定される。
[変形例5]
また、上述した例では、仮想現実体感装置100の背面側を操作空間にして、力覚が提示されているが、本実施の形態では、仮想現実体感装置100の画面側の空間が操作空間となっていても良い。但し、この場合は、初期力Fの方向は、z軸において負の方向となる(図9参照)。
[変形例6]
また、図11は、本発明の実施の形態における仮想現実体感装置の他の例を示す斜視図である。図11に示すように、本実施の形態では、仮想現実体感装置100を構成している筐体には、力覚提示部材13を収容するための凹部17と、伝達部材12を収容するための溝18とが形成されているのが好ましい。図11に示す態様とした場合は、ユーザにおいて、仮想現実体感装置100の持ち運びが容易なものとなる。
[変形例7]
上述した例では、仮想現実体感装置は、タブレット状に形成されているが、本実施の形態は、これに限定されるものではない。本実施の形態では、例えば、図12に示すように、仮想現実体感装置は、ユーザの顔面に装着されるヘッドマウントディスプレイに組み込まれていても良い。
図12は、本発明の実施の形態における仮想現実体感装置がヘッドマウントディスプレイに組み込まれている例を示す図である。図12の例では、ユーザは、ヘッドマウントディスプレイ70の内側に取り付けられている表示パネル(図示せず)に映し出されている仮想空間を見ながら、ヘッドマウントディスプレイ70の前方で、力覚提示部材13を装着した指を動かすことで、仮想オブジェクトに変化を与えることができる。
また、図12の例では、ユーザに力覚を提示するための力覚提示部10(図3参照)は、ヘッドマウントディスプレイ70に組み込まれているが、本実施の形態は、これに限定されるものではない。例えば、本実施の形態における仮想現実体感装置は、ヘッドマウントディスプレイと、力覚提示部10として機能する装置とで構成された態様であっても良い。この場合、力覚提示部10として機能する装置は、ユーザの腕等に取り付けられても良い。
[変形例8]
本実施の形態実施では、図13に示すように、力覚提示部材13には、切換スイッチ19が備えられていてもよい。図13は、本発明の実施の形態における仮想現実体感装置の他の例を示す斜視図である。この例では、ユーザが切換スイッチ19の切り換え操作を行なうと、操作に応じて、スイッチ19から情報処理部40へと信号を出力することが可能となるので、ユーザによる仮想空間へのアクションの自由度が向上することになる。
例えば、スイッチがあるポジションにある場合は、仮想オブジェクトのユーザオブジェクトに接触した部分が削られ、スイッチが別のポジションにある場合は、仮想オブジェクトのユーザオブジェクトに接触した部分が盛り上がる、ように設定されていても良い。
また、本実施の形態では、力覚提示部材13には、図13に示す切換スイッチ19に加えて、鉛直方向に対する傾きを検出する3軸加速度センサが備えられていても良い。この場合は、情報処理部40は、3軸加速度センサからの信号に基づいて、力覚提示部材13の向きを検出することができ、向きに応じて、仮想オブジェクトに変化を与えたり、提示力を算出したりすることができる。このため、ユーザにおけるリアリティをいっそう向上させることができる。また、この態様は、力覚提示部材13が、ユーザがデザイン開発で使用するツールの形状に形成されている場合に、特に有用である。
更に、力覚提示部材13において切換スイッチ19及び3軸加速度センサを備えさせる場合は、伝達部材12の内部に導電性の線材を組み込む等して、伝達部材12を、配線として用いるのが好ましい。
[変形例9]
本実施の形態では、図14に示すように、仮想現実体感装置100の筐体61の側面に、接触センサ80が備えられていても良い。図14も、図13に示した変形例8と同様に、本発明の実施の形態における仮想現実体感装置の他の例を示す斜視図である。図14に示す例では、ユーザが接触センサ80に触れて操作を行なうと、操作に応じて、接触センサ80から情報処理部40へと信号を出力することが可能となる。よって、図14に示す例でも、変形例8と同様に、ユーザによる仮想空間へのアクションの自由度が向上することになる。
具体的には、図14の例では、接触センサ80は、ユーザ20が接触すると、接触位置に応じて異なる信号を出力するように構成されている。このため、情報処理部40は、接触センサ80からの信号を受け取ると、受け取った信号に基づいて、ユーザの接触位置を特定することができる。この場合、情報処理部40は、例えば、仮想オブジェクト103のサイズを、接触位置が上方である程大きくしたり、下方である程小さくしたりすることができる。
[変形例10]
上述した例では、仮想現実体感装置100の実空間での位置及び向きの特定は、それ自体に備えられた撮像装置の撮影画像に基づいて行なわれているが、本実施の形態は、これに限定されるものではない。その他、実空間に幾つかの定点カメラが設置されている場合は、仮想現実体感装置100の情報処理部40は、各定点カメラからの画像を取得し、そこに写っている当該装置の画像から、当該装置の実空間での位置及び向きを特定することもできる。
[適用例]
図1及び図2の例では、仮想現実体感装置100は、自動車のデザイン開発におけるクレイモデルの作成に用いられているが、本実施の形態において、仮想現実体感装置100の用途は特に限定されるものではない。仮想現実体感装置100は、建築物、自動車以外の工業製品(例えば、船舶、家電、コンピュータ、情報端末、服飾等)のデザイン開発にも用いることができる。また、本実施の形態では、図2に示したように、複数人が協力してデザイン開発を行なう場合に有用であることから、特に、大型の工業製品や建築物に有用である。更に、仮想現実体感装置100は、デザイン開発以外の用途、例えば、仮想空間に構築された街を体験するといった用途にも有用である。
[プログラム]
本実施の形態におけるプログラムは、コンピュータに、図6に示すステップS101〜S106を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、コンピュータのCPU(Central Processing Unit)は、情報処理部40及び制御部14として機能し、処理を行なう。また、この場合のコンピュータは、特に限定されず、上述したマイコンであっても良いし、汎用のパーソナルコンピュータであっても良い。更に、携帯電話、スマートフォン、又はタブレット型の情報端末に備えられているコンピュータであっても良い。
本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体に記録された状態で提供されても良いし、インターネット介して送信されても良い。なお、記録媒体の具体例としては、CF(Compact Flash)及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記憶媒体、又はCD−ROM(Compact Disk Read Only Memory)などの光学記憶媒体が挙げられる。
[実施の形態における効果]
以上のように、本実施の形態では、ユーザは、力覚提示部材を操作することで、仮想空間内に与えた変化に応じて、力覚を感じることができる。本実施の形態では、十分に大きな操作範囲が確保でき、二次元的に広いだけでなく、奥行き方向も含めた広い範囲での三次元的な力覚の提示が可能となる。
また、本実施の形態では、力覚の発生は、ヒトの知覚特性を考慮して行なわれているため、発生した力覚は、ユーザにとって違和感のないものとなる。更に、伝達部材の長さを確保することで、ユーザは指を大きく動かすことができ、この点からも、力覚は、ユーザにとって違和感のないものとなる。
更に、本実施の形態によれば、仮想空間は実空間に重ね合わされているので、ユーザが仮想現実体感装置を持って実空間を移動すると、それに応じて、仮想空間に設定される視点が連続して切り替わる。このため、ユーザにおける実空間での移動と仮想空間での移動とのシンクロが実現される。また、この結果、ユーザは、目の前に、仮想オブジェクトが存在していると感じることができる。
以上のように本発明によれば、ユーザにおける実空間での移動と仮想空間での移動とのシンクロを実現することができる。本発明は、仮想現実が利用される全ての分野に有用である。
10 力覚提示部
11 駆動部
12 伝達部材
13 力覚提示部材
14 制御部
15 プーリ
16 通し穴
17 力覚提示部材収納用の凹部
18 伝達部材収納用の凹部
19 切換スイッチ
20 表示部
30 提示位置検出部
40 情報処理部
50 撮像装置
51 マーカー
60 カバー
61 筐体
70 ヘッドマウントディスプレイ
80 接触センサ
100 仮想現実体感装置
101 画面
102 ユーザオブジェクト
103 仮想オブジェクト
200 ユーザ

Claims (10)

  1. 特定の実空間に重ね合わされた仮想空間での状況に応じてユーザに力覚を提示する装置であって、
    前記仮想空間を画面に表示する、表示部と、
    前記ユーザに保持又は装着されて、前記力覚を提示する際のインターフェイスとなる、力覚提示部材と、
    当該装置を基準とした前記力覚提示部材の位置を検出する、提示位置検出部と、
    前記装置から、前記力覚提示部材へと伸びて、前記力覚提示部材に引っ張り方向の力を伝達する伝達部材と、
    前記引っ張り方向の力を発生させ、それを前記伝達部材に与える駆動部と、
    情報処理部と、
    前記駆動部を制御する制御部と、を備え、
    前記情報処理部は、当該装置の前記実空間での位置及び向きを特定するための情報を取得し、取得した前記情報に基づいて、当該装置の前記仮想空間での位置及び向きを特定し、
    特定した当該装置の前記仮想空間での位置及び向きと、前記提示位置検出部によって検出された前記力覚提示部材の位置とに基づいて、前記力覚提示部材の前記仮想空間での位置を更に特定し、特定した前記力覚提示部材の前記仮想空間での位置に対応して前記仮想空間内に変化を与え、この変化によってユーザが受けることになる外力を算出し、
    更に、特定した当該装置の前記仮想空間での位置及び向きに応じて、前記画面に前記仮想空間を表示する際の視点を設定し、前記表示部に、設定した視点で前記仮想空間を前記画面に表示させ、
    前記制御部は、予め、前記駆動部に、設定された大きさの前記引っ張り方向の力を初期力として発生させておき、前記情報処理部によって算出された前記外力が、力覚として、前記力覚提示部材を介して前記ユーザに伝達されるように、前記初期力を増加又は減少させる、
    ことを特徴とする仮想現実体感装置。
  2. タブレット状の筐体と、複数の前記伝達部材と、複数の前記伝達部材それぞれに対応した複数の前記駆動部と、を更に備え、
    複数の前記伝達部材それぞれは、前記筐体の背面側における異なる位置から前記力覚提示部材へと伸びる紐状の部材であり、
    複数の前記駆動部は、それぞれ、前記筐体の内部に配置され、対応する前記伝達部材を巻き取ることによって、対応する前記伝達部材に、前記引っ張り方向の力を与え、
    前記制御部は、複数の駆動部それぞれが前記伝達部材に与える前記引っ張り方向の力の合力を、前記力覚として、前記ユーザに伝達する、
    請求項1に仮想現実体感装置。
  3. 前記力覚提示部材が、ヘラ状に形成され、且つ、前記仮想空間内に、造形物の仮想オブジェクトが構築されている場合において、
    前記情報処理部は、前記仮想空間内で、前記造形物の仮想オブジェクトと前記力覚提示部材とが接触すると、特定した前記力覚提示部材の前記仮想空間での位置に応じて、前記造形物の仮想オブジェクトに変化を与える、
    請求項1または2に記載の仮想現実体感装置。
  4. 前記情報処理部は、特定した前記力覚提示部材の前記仮想空間での位置から、更に、前記力覚提示部材の前記仮想空間での動きを特定し、そして、
    特定した動きが、前記造形物の仮想オブジェクトの表面を削り取るような動きである場合に、前記造形物の仮想オブジェクトの前記力覚提示部材と接触した部分が削られるように、前記造形物の仮想オブジェクトに変化を与え、
    特定した動きが、前記造形物の仮想オブジェクトの表面をなぞるような動きである場合に、前記造形物の仮想オブジェクトのなぞられた部分が盛り上がるように、前記造形物の仮想オブジェクトに変化を与える、
    請求項3に記載の仮想現実体感装置。
  5. 前記実空間に予めマーカーが配置されており、
    前記外部情報取得部が、当該装置の実空間での位置及び向きを特定するための情報として、当該装置に取り付けられた撮像装置によって撮影された前記実空間の画像を取得し、
    前記情報処理部が、前記外部情報取得部で取得された前記画像から、前記マーカーの画像を抽出し、抽出した画像の大きさ及び形状に基づいて、当該装置の前記仮想空間での位置及び向きを特定する、
    請求項1〜4のいずれかに記載の仮想現実体感装置。
  6. 前記表示部が、前記仮想空間を立体画像によって前記画面に表示する、請求項1〜3のいずれかに記載の仮想現実体感装置。
  7. 特定の実空間に重ね合わされた仮想空間での状況に応じてユーザに力覚を提示するための方法であって、
    前記仮想空間を画面に表示する、表示部と、前記ユーザに保持又は装着されて、前記力覚を提示する際のインターフェイスとなる、力覚提示部材と、当該装置を基準とした前記力覚提示部材の位置を検出する、提示位置検出部と、前記装置から、前記力覚提示部材へと伸びて、前記力覚提示部材に引っ張り方向の力を伝達する伝達部材と、前記引っ張り方向の力を発生させ、それを前記伝達部材に与える駆動部と、を備える装置を用い、
    (a)当該装置の前記実空間での位置及び向きを特定するための情報を取得し、取得した前記情報に基づいて、当該装置の前記仮想空間での位置及び向きを特定する、ステップと、
    (b)前記(a)のステップで特定した当該装置の前記仮想空間での位置及び向きと、前記提示位置検出部によって検出された前記力覚提示部材の位置とに基づいて、前記力覚提示部材の前記仮想空間での位置を特定する、ステップと、
    (c)前記(b)のステップで特定した前記力覚提示部材の前記仮想空間での位置に対応して前記仮想空間内に変化を与え、この変化によってユーザが受けることになる外力を算出する、ステップと、
    (d)前記(a)のステップで特定した当該装置の前記仮想空間での位置及び向きに応じて、前記画面に前記仮想空間を表示する際の視点を設定し、前記表示部に、設定した視点で前記仮想空間を前記画面に表示させる、ステップと、
    (e)予め、前記駆動部に、設定された大きさの前記引っ張り方向の力を初期力として発生させておき、前記(c)のステップで算出された前記外力が、力覚として、前記力覚提示部材を介して前記ユーザに伝達されるように、前記初期力を増加又は減少させる、ステップと、
    を有することを特徴とする仮想現実体感方法。
  8. 特定の実空間に重ね合わされた仮想空間での状況に応じてユーザに力覚を提示するため、
    前記仮想空間を画面に表示する、表示部と、前記ユーザに保持又は装着されて、前記力覚を提示する際のインターフェイスとなる、力覚提示部材と、当該装置を基準とした前記力覚提示部材の位置を検出する、提示位置検出部と、前記装置から、前記力覚提示部材へと伸びて、前記力覚提示部材に引っ張り方向の力を伝達する伝達部材と、前記引っ張り方向の力を発生させ、それを前記伝達部材に与える駆動部と、コンピュータと、を備える装置において、
    前記コンピュータに、
    (a)当該装置の前記実空間での位置及び向きを特定するための情報を取得し、取得した前記情報に基づいて、当該装置の前記仮想空間での位置及び向きを特定する、ステップと、
    (b)前記(a)のステップで特定した当該装置の前記仮想空間での位置及び向きと、前記提示位置検出部によって検出された前記力覚提示部材の位置とに基づいて、前記力覚提示部材の前記仮想空間での位置を特定する、ステップと、
    (c)前記(b)のステップで特定した前記力覚提示部材の前記仮想空間での位置に対応して前記仮想空間内に変化を与え、この変化によってユーザが受けることになる外力を算出する、ステップと、
    (d)前記(a)のステップで特定した当該装置の前記仮想空間での位置及び向きに応じて、前記画面に前記仮想空間を表示する際の視点を設定し、前記表示部に、設定した視点で前記仮想空間を前記画面に表示させる、ステップと、
    (e)予め、前記駆動部に、設定された大きさの前記引っ張り方向の力を初期力として発生させておき、前記(c)のステップで算出された前記外力が、力覚として、前記力覚提示部材を介して前記ユーザに伝達されるように、前記初期力を増加又は減少させる、ステップと、
    を実行させるプログラム。
  9. 実空間に重ね合わされた仮想空間での状況に応じてユーザに力覚を提示する装置であって、
    前記仮想空間を画面に表示する、表示部と、
    前記ユーザに保持又は装着されて、前記力覚を提示する際のインターフェイスとなる、力覚提示部材と、
    前記力覚提示部材の位置を検出する、提示位置検出部と、
    前記力覚提示部材に引っ張り方向の力を伝達する伝達部材と、
    前記引っ張り方向の力を発生させる駆動部と、
    情報処理部と、
    前記駆動部を制御する制御部と、を備え、
    前記情報処理部は、当該装置の前記実空間での位置及び向きを特定するための情報を取得し、取得した前記情報に基づいて、当該装置の前記仮想空間での位置及び向きを特定し、
    特定した当該装置の前記仮想空間での位置及び向きと、前記提示位置検出部によって検出された前記力覚提示部材の位置とに基づいて、前記力覚提示部材の前記仮想空間での位置を更に特定し、特定した前記力覚提示部材の前記仮想空間での位置に対応して前記仮想空間内に変化を与え、この変化によってユーザが受ける外力を算出し、
    更に、前記表示部に、特定した当該装置の前記仮想空間での位置及び向きに応じた視点で前記仮想空間を前記画面に表示させ、
    前記制御部は、予め、前記駆動部に、前記引っ張り方向の力を発生させておき、前記情報処理部によって算出された前記外力が、前記力覚提示部材を介して前記ユーザに伝達されるように、前記引っ張り方向の力を増加又は減少させる、
    ことを特徴とする仮想現実体感装置。
  10. 実空間に重ね合わされた仮想空間での状況に応じてユーザに力覚を提示するための方法であって、
    前記仮想空間を画面に表示する、表示部と、前記ユーザに保持又は装着されて、前記力覚を提示する際のインターフェイスとなる、力覚提示部材と、前記力覚提示部材の位置を検出する、提示位置検出部と、前記力覚提示部材に引っ張り方向の力を伝達する伝達部材と、前記引っ張り方向の力を発生させる駆動部と、を備える装置を用い、
    (a)当該装置の前記実空間での位置及び向きを特定するための情報を取得し、取得した前記情報に基づいて、当該装置の前記仮想空間での位置及び向きを特定する、ステップと、
    (b)前記(a)のステップで特定した当該装置の前記仮想空間での位置及び向きと、前記提示位置検出部によって検出された前記力覚提示部材の位置とに基づいて、前記力覚提示部材の前記仮想空間での位置を特定する、ステップと、
    (c)前記(b)のステップで特定した前記力覚提示部材の前記仮想空間での位置に対応して前記仮想空間内に変化を与え、この変化によってユーザが受ける外力を算出する、ステップと、
    (d)前記表示部に、前記(a)のステップで特定した当該装置の前記仮想空間での位置及び向きに応じた視点で前記仮想空間を前記画面に表示させる、ステップと、
    (e)予め、前記駆動部に、前記引っ張り方向の力を発生させておき、前記(c)のステップで算出された前記外力が、前記力覚提示部材を介して前記ユーザに伝達されるように、前記引っ張り方向の力を増加又は減少させる、ステップと、
    を有することを特徴とする仮想現実体感方法。
JP2014029552A 2014-02-19 2014-02-19 仮想現実体感装置、仮想現実体感方法、及びプログラム Pending JP2015153387A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014029552A JP2015153387A (ja) 2014-02-19 2014-02-19 仮想現実体感装置、仮想現実体感方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014029552A JP2015153387A (ja) 2014-02-19 2014-02-19 仮想現実体感装置、仮想現実体感方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2015153387A true JP2015153387A (ja) 2015-08-24

Family

ID=53895501

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014029552A Pending JP2015153387A (ja) 2014-02-19 2014-02-19 仮想現実体感装置、仮想現実体感方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP2015153387A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11989351B2 (en) 2019-05-07 2024-05-21 Adam Farley Virtual, augmented and mixed reality systems with physical feedback

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11989351B2 (en) 2019-05-07 2024-05-21 Adam Farley Virtual, augmented and mixed reality systems with physical feedback

Similar Documents

Publication Publication Date Title
US10509468B2 (en) Providing fingertip tactile feedback from virtual objects
EP3400499B1 (en) Two-handed object manipulations in virtual reality
EP3343329B1 (en) Haptic effect generation for space-dependent content
CN107771309B (zh) 处理三维用户输入的方法
EP3425481B1 (en) Control device
CN110096131B (zh) 触感交互方法、装置、以及触感可穿戴设备
KR102194164B1 (ko) 홀로그램 객체 피드백
JP4989383B2 (ja) 情報処理装置、情報処理方法
KR101548156B1 (ko) 촉감과 관절 저항감을 동시에 전달하는 무선 외골격 햅틱 인터페이스 장치 및 그 구성 방법
EP3364272A1 (en) Automatic localized haptics generation system
CN113892074A (zh) 用于人工现实系统的手臂凝视驱动的用户界面元素选通
JP2009276996A (ja) 情報処理装置、情報処理方法
JP2008108054A (ja) 接触提示装置及び方法
TW202105129A (zh) 具有用於閘控使用者介面元件的個人助理元件之人工實境系統
CN113892075A (zh) 用于人工现实系统的拐角识别手势驱动的用户界面元素选通
WO2019065846A1 (ja) プログラム、情報処理方法、情報処理システム、頭部装着型表示装置、情報処理装置
KR101638550B1 (ko) 혼합현실을 이용한 가상현실 시스템 및 그 구현방법
JP6341096B2 (ja) 触力覚提示装置、情報端末、触力覚提示方法、およびコンピュータ読み取り可能な記録媒体
JP2015134384A (ja) 遠隔操縦装置、及び遠隔操縦システム
JP2015153387A (ja) 仮想現実体感装置、仮想現実体感方法、及びプログラム
JP6428629B2 (ja) 触力覚提示装置、情報端末、触力覚提示方法、およびプログラム
WO2019043787A1 (ja) 振動制御装置
JP6387762B2 (ja) 力覚提示装置、情報端末、力覚提示方法、及びプログラム
WO2014119383A1 (ja) 触力覚提示装置、触力覚提示システム、触力覚提示方法、およびコンピュータ読み取り可能な記録媒体
JP2018181185A (ja) 力覚提示器及び仮想力覚提示装置