JP2002123840A - 臨場感型仮想現実提供処理方法および装置 - Google Patents
臨場感型仮想現実提供処理方法および装置Info
- Publication number
- JP2002123840A JP2002123840A JP2000316298A JP2000316298A JP2002123840A JP 2002123840 A JP2002123840 A JP 2002123840A JP 2000316298 A JP2000316298 A JP 2000316298A JP 2000316298 A JP2000316298 A JP 2000316298A JP 2002123840 A JP2002123840 A JP 2002123840A
- Authority
- JP
- Japan
- Prior art keywords
- data
- virtual
- person
- user
- virtual space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title description 2
- 238000004088 simulation Methods 0.000 claims description 22
- 238000000034 method Methods 0.000 claims description 18
- 238000004891 communication Methods 0.000 claims description 15
- 239000011521 glass Substances 0.000 claims description 15
- 238000005259 measurement Methods 0.000 claims description 9
- 238000001514 detection method Methods 0.000 claims description 7
- 230000005540 biological transmission Effects 0.000 claims description 4
- 210000000707 Wrist Anatomy 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 240000000218 Cannabis sativa Species 0.000 description 4
- 238000005096 rolling process Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000036536 Cave Effects 0.000 description 2
- 210000003128 Head Anatomy 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000002708 enhancing Effects 0.000 description 2
- XEEYBQQBJWHFJM-UHFFFAOYSA-N iron Chemical compound [Fe] XEEYBQQBJWHFJM-UHFFFAOYSA-N 0.000 description 2
- 230000003287 optical Effects 0.000 description 2
- 101700037352 DD11 Proteins 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000007664 blowing Methods 0.000 description 1
- 229910052742 iron Inorganic materials 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000010297 mechanical methods and process Methods 0.000 description 1
- 238000005293 physical law Methods 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 239000002023 wood Substances 0.000 description 1
Abstract
(57)【要約】
【課題】 本発明は、空間を意識させることの可能な立
体映像と、力覚提示を行うフォースフィードバックとを
用いて、臨場感の高い仮想世界を体験者に提供すること
を目的としている。 【解決手段】 立体視による仮想環境とフォースフィー
ドバックを用いており、体験者の動きデータを計測し、
視点を検出し、体験者のアバタの動きを決定して動き可
能に表示させ、フォースフィードバック処理によって仮
想物体の動きをもとに体験者が持つ操作インタフェース
に力覚提示を行う。
体映像と、力覚提示を行うフォースフィードバックとを
用いて、臨場感の高い仮想世界を体験者に提供すること
を目的としている。 【解決手段】 立体視による仮想環境とフォースフィー
ドバックを用いており、体験者の動きデータを計測し、
視点を検出し、体験者のアバタの動きを決定して動き可
能に表示させ、フォースフィードバック処理によって仮
想物体の動きをもとに体験者が持つ操作インタフェース
に力覚提示を行う。
Description
【0001】
【発明の属する技術分野】本発明は、立体視を用いた没
入型仮想環境およびフォースフィードバックを用いて体
験者に臨場感の高い仮想現実体験を提供する臨場感型仮
想現実提供処理方法、臨場感型仮想現実提供処理装置に
関するものである。
入型仮想環境およびフォースフィードバックを用いて体
験者に臨場感の高い仮想現実体験を提供する臨場感型仮
想現実提供処理方法、臨場感型仮想現実提供処理装置に
関するものである。
【0002】
【従来の技術】従来、コンピュータグラフィクスで作成
した仮想空間を画面表示して、架空の世界を体験させる
技術が提案されている。例えば、これをゴルフゲームに
適用した例として、Microsoft の「Links LS (http://w
ww.microsoft.com/games/links2000/)」がある。しかし
ながら、この例に代表される従来の手法は仮想空間を二
次元の画面に表示するものであり、ユーザはあくまで仮
想空間を平面的なものとして認識せざるを得ない。
した仮想空間を画面表示して、架空の世界を体験させる
技術が提案されている。例えば、これをゴルフゲームに
適用した例として、Microsoft の「Links LS (http://w
ww.microsoft.com/games/links2000/)」がある。しかし
ながら、この例に代表される従来の手法は仮想空間を二
次元の画面に表示するものであり、ユーザはあくまで仮
想空間を平面的なものとして認識せざるを得ない。
【0003】また、立体的な仮想空間を体験させる技術
としてイリノイ大学で開発されたCAVEシステム(htt
p://www.evl.uic.edu/EVL/VR/systems.shtml) に代表さ
れる没入型の立体映像表示技術がある。この技術では、
ユーザが立体視用の特殊眼鏡を装着することによって立
体的な仮想空間を体験することができる。
としてイリノイ大学で開発されたCAVEシステム(htt
p://www.evl.uic.edu/EVL/VR/systems.shtml) に代表さ
れる没入型の立体映像表示技術がある。この技術では、
ユーザが立体視用の特殊眼鏡を装着することによって立
体的な仮想空間を体験することができる。
【0004】
【発明が解決しようとする課題】しかしながら、従来の
手法はあくまで映像として提示される架空の世界を見て
いるにすぎない。そのため、ユーザ自らの身体を動かし
て仮想空間内の物体に操作を施し、その操作により物体
があたかも現実世界で動いているかのように動いたり、
あるいは、ユーザ自身の身体に実際に力覚が提示される
といった本当の現実世界のような臨場感の高い仮想空間
を体験することはできないという問題点があった。
手法はあくまで映像として提示される架空の世界を見て
いるにすぎない。そのため、ユーザ自らの身体を動かし
て仮想空間内の物体に操作を施し、その操作により物体
があたかも現実世界で動いているかのように動いたり、
あるいは、ユーザ自身の身体に実際に力覚が提示される
といった本当の現実世界のような臨場感の高い仮想空間
を体験することはできないという問題点があった。
【0005】本発明は、上述の問題点を解決すべくなさ
れたものであり、その目的は、空間を意識させることの
可能な立体映像と、力覚提示を行うフォースフィードバ
ックとを用いて、臨場感の高い仮想世界を体験者に提供
することにある。
れたものであり、その目的は、空間を意識させることの
可能な立体映像と、力覚提示を行うフォースフィードバ
ックとを用いて、臨場感の高い仮想世界を体験者に提供
することにある。
【0006】
【課題を解決するための手段】本発明の臨場感型仮想現
実提供処理方法は、体験者の動きデータとして、体験者
が持つ操作インタフェースと立体視用眼鏡との3次元位
置を計測する位置計測処理(ステップ1)と、前記位置
計測処理によって計測された眼鏡の3次元位置データに
基づいて体験者の目の3次元位置を検出する視点検出処
理(ステップ2)と、あらかじめデータベースに記憶し
ておいた人物動きデータを、仮想空間において体験者の
分身となる仮想人物を立体表示するために必要な人物モ
デルのデータに適用して、前記仮想人物の立体映像デー
タを生成する人物データ生成処理(ステップ3)と、前
記位置計測処理によって計測された操作インタフェース
の3次元位置データに基づいて前記仮想空間における仮
想物体の動きを決定する物理シミュレーション処理(ス
テップ4)と、前記仮想空間を立体表示するために必要
な空間モデルのデータ、および前記位置計測処理によっ
て計測された操作インタフェースの3次元位置データ、
および前記物理シミュレーション処理によって決定され
た仮想物体の動きデータ、を用いて前記仮想空間の立体
映像データを生成する仮想空間データ生成処理(ステッ
プ5)と、前記仮想人物の立体映像データ、および前記
仮想空間の立体映像データ、をもとに仮想空間の立体映
像を表示し、前記視点検出処理によって検出された体験
者の目の位置に応じて前記仮想空間の表示を変化させる
映像表示処理(ステップ6)と、前記物理シミュレーシ
ョン処理によって決定された前記仮想物体の動きをもと
に体験者が持つ操作インタフェースに力覚提示を行うフ
ォースフィードバック処理(ステップ7)と、を有する
ものである。そして更に、前記映像表示処理によって表
示される映像データを、前記体験者に提示する代わり
に、ネットワーク上に存在する別の体験者に提示するた
めに通信路へ送信する送信処理(ステップ8)と、ネッ
トワーク上に存在する別の体験者から送られてくる映像
データを通信路から受信する受信処理(ステップ9)と
を有するものである。このように、立体映像として仮想
空間を表示すると同時に、体験者が仮想空間に対して何
らかの操作を行った結果を力覚によりフォースフィード
バックするので、体験者は臨場感の高い仮想世界を体験
することができる。また、通信機能により別の体験者と
仮想空間を共有することができるので、さらに臨場感を
高めることも可能となる。
実提供処理方法は、体験者の動きデータとして、体験者
が持つ操作インタフェースと立体視用眼鏡との3次元位
置を計測する位置計測処理(ステップ1)と、前記位置
計測処理によって計測された眼鏡の3次元位置データに
基づいて体験者の目の3次元位置を検出する視点検出処
理(ステップ2)と、あらかじめデータベースに記憶し
ておいた人物動きデータを、仮想空間において体験者の
分身となる仮想人物を立体表示するために必要な人物モ
デルのデータに適用して、前記仮想人物の立体映像デー
タを生成する人物データ生成処理(ステップ3)と、前
記位置計測処理によって計測された操作インタフェース
の3次元位置データに基づいて前記仮想空間における仮
想物体の動きを決定する物理シミュレーション処理(ス
テップ4)と、前記仮想空間を立体表示するために必要
な空間モデルのデータ、および前記位置計測処理によっ
て計測された操作インタフェースの3次元位置データ、
および前記物理シミュレーション処理によって決定され
た仮想物体の動きデータ、を用いて前記仮想空間の立体
映像データを生成する仮想空間データ生成処理(ステッ
プ5)と、前記仮想人物の立体映像データ、および前記
仮想空間の立体映像データ、をもとに仮想空間の立体映
像を表示し、前記視点検出処理によって検出された体験
者の目の位置に応じて前記仮想空間の表示を変化させる
映像表示処理(ステップ6)と、前記物理シミュレーシ
ョン処理によって決定された前記仮想物体の動きをもと
に体験者が持つ操作インタフェースに力覚提示を行うフ
ォースフィードバック処理(ステップ7)と、を有する
ものである。そして更に、前記映像表示処理によって表
示される映像データを、前記体験者に提示する代わり
に、ネットワーク上に存在する別の体験者に提示するた
めに通信路へ送信する送信処理(ステップ8)と、ネッ
トワーク上に存在する別の体験者から送られてくる映像
データを通信路から受信する受信処理(ステップ9)と
を有するものである。このように、立体映像として仮想
空間を表示すると同時に、体験者が仮想空間に対して何
らかの操作を行った結果を力覚によりフォースフィード
バックするので、体験者は臨場感の高い仮想世界を体験
することができる。また、通信機能により別の体験者と
仮想空間を共有することができるので、さらに臨場感を
高めることも可能となる。
【0007】また、本発明の臨場感型仮想現実提供処理
装置は、体験者の動きデータとして、体験者が待つ操作
インタフェース(111)と立体視用眼鏡(109)の
3次元位置を計測する位置計測手段(101)と、当該
位置計測手段(101)によって計測された眼鏡の3次
元位置データに基づいて体験者の目の3次元位置を検出
する視点検出手段(102)と、あらかじめ仮想人物の
動きデータを記憶してある人物動きデータベース(10
3)と、前記仮想人物を立体表示するために必要な人物
モデルのデータ、および前記仮想空間を立体表示するた
めに必要な空間モデルのデータをあらかじめ記憶してい
る仮想オブジェクトデータベース(104)と、前記人
物動きデータベースに記憶しておいた人物動きデータ
を、仮想空間において体験者の分身となる仮想人物を立
体表示するために必要な人物モデルのデータに適用し
て、前記仮想人物の立体映像データを生成する人物デー
タ生成手段(105)と、前記位置計測手段(101)
によって計測された操作インタフェースの3次元位置デ
ータに基づいて前記仮想空間における仮想物体の動きを
決定する物理シミュレーション手段(106)と、前記
仮想空間を立体表示するために必要な空間モデルのデー
タ、および前記位置計測手段によって計測された操作イ
ンタフェースの3次元位置データ、および前記物理シミ
ュレーション手段(106)によって決定された仮想物
体の動きデータ、を用いて前記仮想空間の立体映像デー
タを生成する仮想空間データ生成手段(107)と、前
記仮想人物の立体映像データ、および前記仮想空間の立
体映像データ、をもとに仮想空間の立体映像を表示し、
前記視点検出手段(102)によって検出された体験者
の目の位置に応じて前記仮想空間の表示を変化させる映
像表示手段(108)と、前記物理シミュレーション手
段(106)によって決定された前記仮想物体の動きを
もとに体験者が持つ操作インタフェースに力覚提示を行
うフォースフィードバック手段(110)と、を有する
ものである。そして更に、前記映像表示手段(108)
によって表示される映像データを、前記体験者に提示す
る代わりに、ネットワーク上に存在する別の体験者に提
示するために通信路へ送信する送信手段(112)と、
ネットワーク上に存在する別の体験者から送られてくる
映像データを通信路から受信する受信手段(113)と
を有するものである。
装置は、体験者の動きデータとして、体験者が待つ操作
インタフェース(111)と立体視用眼鏡(109)の
3次元位置を計測する位置計測手段(101)と、当該
位置計測手段(101)によって計測された眼鏡の3次
元位置データに基づいて体験者の目の3次元位置を検出
する視点検出手段(102)と、あらかじめ仮想人物の
動きデータを記憶してある人物動きデータベース(10
3)と、前記仮想人物を立体表示するために必要な人物
モデルのデータ、および前記仮想空間を立体表示するた
めに必要な空間モデルのデータをあらかじめ記憶してい
る仮想オブジェクトデータベース(104)と、前記人
物動きデータベースに記憶しておいた人物動きデータ
を、仮想空間において体験者の分身となる仮想人物を立
体表示するために必要な人物モデルのデータに適用し
て、前記仮想人物の立体映像データを生成する人物デー
タ生成手段(105)と、前記位置計測手段(101)
によって計測された操作インタフェースの3次元位置デ
ータに基づいて前記仮想空間における仮想物体の動きを
決定する物理シミュレーション手段(106)と、前記
仮想空間を立体表示するために必要な空間モデルのデー
タ、および前記位置計測手段によって計測された操作イ
ンタフェースの3次元位置データ、および前記物理シミ
ュレーション手段(106)によって決定された仮想物
体の動きデータ、を用いて前記仮想空間の立体映像デー
タを生成する仮想空間データ生成手段(107)と、前
記仮想人物の立体映像データ、および前記仮想空間の立
体映像データ、をもとに仮想空間の立体映像を表示し、
前記視点検出手段(102)によって検出された体験者
の目の位置に応じて前記仮想空間の表示を変化させる映
像表示手段(108)と、前記物理シミュレーション手
段(106)によって決定された前記仮想物体の動きを
もとに体験者が持つ操作インタフェースに力覚提示を行
うフォースフィードバック手段(110)と、を有する
ものである。そして更に、前記映像表示手段(108)
によって表示される映像データを、前記体験者に提示す
る代わりに、ネットワーク上に存在する別の体験者に提
示するために通信路へ送信する送信手段(112)と、
ネットワーク上に存在する別の体験者から送られてくる
映像データを通信路から受信する受信手段(113)と
を有するものである。
【0008】
【発明の実施の形態】本発明では、空間を意識させるこ
との可能な立体映像を用いて、例えばゴルフコースの背
景を立体的な仮想空間として、プレーヤーやキャディを
立体アバタとして、また、ゴルフボール、ゴルフクラブ
のヘッドをそれぞれ立体オブジェクトとして表示する。
との可能な立体映像を用いて、例えばゴルフコースの背
景を立体的な仮想空間として、プレーヤーやキャディを
立体アバタとして、また、ゴルフボール、ゴルフクラブ
のヘッドをそれぞれ立体オブジェクトとして表示する。
【0009】これらは全て実物大の映像として表示され
る。プレーヤーはCAVEシステムの巨大スクリーンに
囲まれた空間内で立体視用眼鏡を装着し、へッドの無い
ゴルフクラブを持って、立体映像として表示される仮想
のゴルフボールおよび自分が持っているクラブの先端に
接続されるように表示されたクラブヘッドを見ながら実
際にゴルフのスイングを行う。
る。プレーヤーはCAVEシステムの巨大スクリーンに
囲まれた空間内で立体視用眼鏡を装着し、へッドの無い
ゴルフクラブを持って、立体映像として表示される仮想
のゴルフボールおよび自分が持っているクラブの先端に
接続されるように表示されたクラブヘッドを見ながら実
際にゴルフのスイングを行う。
【0010】クラブヘッドのみを映像として表示するこ
とにより、実際にクラブを持ち替えなくてもウッドやア
イアンを仮想的に持ち替えることが可能となる。このゴ
ルフクラブには3次元位置計測用の6自由度磁気センサ
(光学式計測用マーカー等を用いてもよい)と、フォー
スフィードバック用の振動素子が内蔵されている。プレ
ーヤーがクラブを振ると磁気センサの位置が変化するの
で、これを計測することによってスイング時のクラブの
動きを計測することができる。
とにより、実際にクラブを持ち替えなくてもウッドやア
イアンを仮想的に持ち替えることが可能となる。このゴ
ルフクラブには3次元位置計測用の6自由度磁気センサ
(光学式計測用マーカー等を用いてもよい)と、フォー
スフィードバック用の振動素子が内蔵されている。プレ
ーヤーがクラブを振ると磁気センサの位置が変化するの
で、これを計測することによってスイング時のクラブの
動きを計測することができる。
【0011】この動きデータを用いてボールの弾道を計
算し、その計算結果に応じて仮想空間内でボールが飛ん
でいくのを映像として表示する。風の強さや向き、フェ
アウェイ、ラフ等の位置によるボールの転がりやすさ、
ショット地点の芝の深さ、クラブ種類による飛距離の
差、地面の傾斜や芝目、といった情報をあらかじめデー
タベースに記憶しておいて、これらの情報も活用すれ
ば、現実世界のゴルフボールの動きを再現する物理シミ
ュレーションが可能となる。また、スイングが開始され
て仮想ゴルフボールの位置にクラブヘッドが来た瞬間
に、クラブに内蔵されている振動素子を素早くオン/オ
フすることによってボールを打った瞬間のインパクトを
再現する。振動素子による振動はゴルフクラブのグリッ
プ部分に伝わるので、プレーヤーにはボールを打った瞬
間のインパクトが伝わる。
算し、その計算結果に応じて仮想空間内でボールが飛ん
でいくのを映像として表示する。風の強さや向き、フェ
アウェイ、ラフ等の位置によるボールの転がりやすさ、
ショット地点の芝の深さ、クラブ種類による飛距離の
差、地面の傾斜や芝目、といった情報をあらかじめデー
タベースに記憶しておいて、これらの情報も活用すれ
ば、現実世界のゴルフボールの動きを再現する物理シミ
ュレーションが可能となる。また、スイングが開始され
て仮想ゴルフボールの位置にクラブヘッドが来た瞬間
に、クラブに内蔵されている振動素子を素早くオン/オ
フすることによってボールを打った瞬間のインパクトを
再現する。振動素子による振動はゴルフクラブのグリッ
プ部分に伝わるので、プレーヤーにはボールを打った瞬
間のインパクトが伝わる。
【0012】更に、プレーヤーやキャディのアバタはあ
らかじめデータベースに記憶されている動きデータによ
って再生表示される。ネットワークを経由して2つのシ
ステムを接続する場合には、位置情報、動き情報を通信
することによりリモートシステムのプレーヤーとゴルフ
場の空間を共有することができる。
らかじめデータベースに記憶されている動きデータによ
って再生表示される。ネットワークを経由して2つのシ
ステムを接続する場合には、位置情報、動き情報を通信
することによりリモートシステムのプレーヤーとゴルフ
場の空間を共有することができる。
【0013】以下、図面によって本発明の実施例を説明
する。図1は本発明の実施例を示す構成図である。
する。図1は本発明の実施例を示す構成図である。
【0014】図1において、101は、体験者が持つ操
作インタフェースであるゴルフクラブと立体視用眼鏡の
3次元位置を計測する位置センサ等からなる位置計測手
段であり、体験者の動きデータを計測する。体験者の全
身の動きを計測する場合にはモーションキャプチャ等に
より体験者の身体に取り付けた複数のセンサ(マーカ)
を計測するようにしてもよい。いずれの場合も、計測方
式は磁気式に限定はされず、光学式、機械式、超音波式
等を用いてもよい。
作インタフェースであるゴルフクラブと立体視用眼鏡の
3次元位置を計測する位置センサ等からなる位置計測手
段であり、体験者の動きデータを計測する。体験者の全
身の動きを計測する場合にはモーションキャプチャ等に
より体験者の身体に取り付けた複数のセンサ(マーカ)
を計測するようにしてもよい。いずれの場合も、計測方
式は磁気式に限定はされず、光学式、機械式、超音波式
等を用いてもよい。
【0015】102は、位置計測手段101によって計
測された動きデータに基づいて体験者の目の3次元位置
を検出する視点検出手段である。立体視用眼鏡109に
センサが内蔵されている場合には、そのセンサの位置を
そのまま視点位置として利用できるし、内蔵されていな
い場合には、他のセンサの相互位置関係から視点位置を
決定する。
測された動きデータに基づいて体験者の目の3次元位置
を検出する視点検出手段である。立体視用眼鏡109に
センサが内蔵されている場合には、そのセンサの位置を
そのまま視点位置として利用できるし、内蔵されていな
い場合には、他のセンサの相互位置関係から視点位置を
決定する。
【0016】人物動きデータベース103は、仮想空間
内で体験者の分身となる仮想人物(以下、プレーヤーア
バタ)の動きデータ(プレーヤーアバタの動きを表す各
関節点の3次元座標値)をあらかじめ記憶している。プ
レーヤーアバタの動きデータは、あらかじめモーション
キャプチャを用いて時系列的に取り込んだ動きデータで
もよいし、例えば「bva形式」「bvh形式」等の既
に普及しているフォーマットのモーションデータでもよ
い。
内で体験者の分身となる仮想人物(以下、プレーヤーア
バタ)の動きデータ(プレーヤーアバタの動きを表す各
関節点の3次元座標値)をあらかじめ記憶している。プ
レーヤーアバタの動きデータは、あらかじめモーション
キャプチャを用いて時系列的に取り込んだ動きデータで
もよいし、例えば「bva形式」「bvh形式」等の既
に普及しているフォーマットのモーションデータでもよ
い。
【0017】仮想オブジェクトデータベース104は、
(i)3次元コンピュータグラフィックスとしてプレー
ヤーアバタを立体表示するために必要な人物モデルのデ
ータ、(ii)および仮想空間の背景と仮想空間内に存在
する物体である仮想オブジェクトと仮想空間内に存在す
るプレーヤーアバタ以外のアバタ(別のプレーヤーやキ
ャディ等)とから構築される仮想空間を立体表示するた
めに必要な空間モデルのデータをあらかじめ記憶してい
る。これらモデルのデータとしては、ポリゴンデータや
テクスチャマッピングに必要なテクスチャデータがあ
る。また、仮想オブジェクトデータベース104は、プ
レーヤーアバタの無動作静止状態の各関節点座標値をあ
らかじめ記憶している。
(i)3次元コンピュータグラフィックスとしてプレー
ヤーアバタを立体表示するために必要な人物モデルのデ
ータ、(ii)および仮想空間の背景と仮想空間内に存在
する物体である仮想オブジェクトと仮想空間内に存在す
るプレーヤーアバタ以外のアバタ(別のプレーヤーやキ
ャディ等)とから構築される仮想空間を立体表示するた
めに必要な空間モデルのデータをあらかじめ記憶してい
る。これらモデルのデータとしては、ポリゴンデータや
テクスチャマッピングに必要なテクスチャデータがあ
る。また、仮想オブジェクトデータベース104は、プ
レーヤーアバタの無動作静止状態の各関節点座標値をあ
らかじめ記憶している。
【0018】人物データ生成手段105は、位置計測手
段101によって計測された体験者の動きデータおよび
人物動きデータベース103に記憶されたプレーヤーア
バタの動きデータの各々を、仮想オブジェクトデータベ
ース104に記憶された人物モデルのデータに適用し
て、プレーヤーアバタの立体映像データを生成する。ゴ
ルフクラブに内蔵されたセンサの位置とあらかじめ得ら
れているゴルフクラブの長さから体験者の手首位置とを
求め、前記プレーヤーアバタの手首位置が体験者の手首
位置に合うように映像データを生成する。
段101によって計測された体験者の動きデータおよび
人物動きデータベース103に記憶されたプレーヤーア
バタの動きデータの各々を、仮想オブジェクトデータベ
ース104に記憶された人物モデルのデータに適用し
て、プレーヤーアバタの立体映像データを生成する。ゴ
ルフクラブに内蔵されたセンサの位置とあらかじめ得ら
れているゴルフクラブの長さから体験者の手首位置とを
求め、前記プレーヤーアバタの手首位置が体験者の手首
位置に合うように映像データを生成する。
【0019】物理シミュレーション手段106は、位置
計測手段101によって計測された操作インタフェース
(ゴルフクラブ)の3次元位置データに基づいて仮想空
間における仮想ゴルフボールの動きを決定する。クラブ
の動きデータを用いてボールの弾道を計算し、その計算
結果に応じて仮想空間内でボールが飛んでいくのを映像
として表示する。風の強さや向き、フェアウェイ、ラフ
等の位置によるボールの転がりやすさ、ショット地点の
芝の深さ、クラブ種類による飛距離の差、地面の傾斜や
芝目、といった情報をあらかじめ仮想オブジェクトデー
タベース(他に専用の別データベースを用意してもよ
い)に記憶しておいて、これらの情報も活用することに
より、現実世界のゴルフボールの動きを再現する物理シ
ミュレーションが可能となる。
計測手段101によって計測された操作インタフェース
(ゴルフクラブ)の3次元位置データに基づいて仮想空
間における仮想ゴルフボールの動きを決定する。クラブ
の動きデータを用いてボールの弾道を計算し、その計算
結果に応じて仮想空間内でボールが飛んでいくのを映像
として表示する。風の強さや向き、フェアウェイ、ラフ
等の位置によるボールの転がりやすさ、ショット地点の
芝の深さ、クラブ種類による飛距離の差、地面の傾斜や
芝目、といった情報をあらかじめ仮想オブジェクトデー
タベース(他に専用の別データベースを用意してもよ
い)に記憶しておいて、これらの情報も活用することに
より、現実世界のゴルフボールの動きを再現する物理シ
ミュレーションが可能となる。
【0020】シミュレーションの具体的内容は、適用す
る物理法則、パラメータによりさまざまな場合が考えら
れる。例えば、ボールの転がりやすさの例では、フェア
ウェイとラフとで地面のモデルデータに異なる摩擦係数
を表す属性を付与しておくことにより、転がり具合を調
節できる。
る物理法則、パラメータによりさまざまな場合が考えら
れる。例えば、ボールの転がりやすさの例では、フェア
ウェイとラフとで地面のモデルデータに異なる摩擦係数
を表す属性を付与しておくことにより、転がり具合を調
節できる。
【0021】仮想空間データ生成手段107は、仮想オ
ブジェクトデータベース104に記憶されている空間モ
デルのデータ、および位置計測手段101によって計測
された操作インタフェースの3次元位置データ、および
物理シミュレーション手段106によって決定された仮
想ゴルフボールの動きデータ、を用いて仮想空間の立体
映像データを生成する。
ブジェクトデータベース104に記憶されている空間モ
デルのデータ、および位置計測手段101によって計測
された操作インタフェースの3次元位置データ、および
物理シミュレーション手段106によって決定された仮
想ゴルフボールの動きデータ、を用いて仮想空間の立体
映像データを生成する。
【0022】映像表示手段108は、人物データ生成手
段105によって生成されたプレーヤーアバタの立体映
像データ、および仮想空間データ生成手段107によっ
て生成された仮想空間の立体映像データ、をもとに、視
点検出手段102によって検出された体験者の目の位置
に応じて仮想空間を表示する。
段105によって生成されたプレーヤーアバタの立体映
像データ、および仮想空間データ生成手段107によっ
て生成された仮想空間の立体映像データ、をもとに、視
点検出手段102によって検出された体験者の目の位置
に応じて仮想空間を表示する。
【0023】ネットワーク上の複数のプレーヤーでプレ
イを行う場合には、体験者本人に映像を提示するだけで
なく、送信手段112を用いて通信路にデータを送り、
ネットワーク上に存在する別のプレーヤーにも提示を行
う。逆に、ネットワーク上の別のプレーヤーから通信路
を経由してデータが送られてきた場合には、受信手段1
13を用いて、そのデータを受信し、映像表示手段10
8で表示を行う。
イを行う場合には、体験者本人に映像を提示するだけで
なく、送信手段112を用いて通信路にデータを送り、
ネットワーク上に存在する別のプレーヤーにも提示を行
う。逆に、ネットワーク上の別のプレーヤーから通信路
を経由してデータが送られてきた場合には、受信手段1
13を用いて、そのデータを受信し、映像表示手段10
8で表示を行う。
【0024】映像表示手段108は、立体視を用いた没
入型仮想環境を提供する装置であり、例えば前方のスク
リーンの他に上下左右にもスクリーンを配置して、体験
者を映像で囲むような構造になっている立体視装置と、
この立体視装置に立体映像データを与える制御手段とか
らなる。体験者は、立体視用眼鏡109を装着するた
め、あたかもその世界に入り込んでいるかのような高い
現実感を得ることができる。
入型仮想環境を提供する装置であり、例えば前方のスク
リーンの他に上下左右にもスクリーンを配置して、体験
者を映像で囲むような構造になっている立体視装置と、
この立体視装置に立体映像データを与える制御手段とか
らなる。体験者は、立体視用眼鏡109を装着するた
め、あたかもその世界に入り込んでいるかのような高い
現実感を得ることができる。
【0025】また、映像表示手段108は、視点検出手
段102によって検出された体験者の目の位置に応じて
仮想空間の立体映像を変化させる。なお、人物データ生
成手段105、仮想空間データ生成手段107、映像表
示手段108については、例えば「増田千尋著、“3次
元ディスプレイ”、第3章〜第6章、産業図書」に記載
されている。
段102によって検出された体験者の目の位置に応じて
仮想空間の立体映像を変化させる。なお、人物データ生
成手段105、仮想空間データ生成手段107、映像表
示手段108については、例えば「増田千尋著、“3次
元ディスプレイ”、第3章〜第6章、産業図書」に記載
されている。
【0026】フォースフィードバック手段110は、物
理シミュレーション手段106によって決定された、シ
ョットの瞬間の動きデータをもとに体験者が持つゴルフ
クラブ型操作インタフェース111に内蔵された振動素
子を駆動、瞬間的にオン/オフを行い、クラブのグリッ
プ部分に力覚提示を行う。
理シミュレーション手段106によって決定された、シ
ョットの瞬間の動きデータをもとに体験者が持つゴルフ
クラブ型操作インタフェース111に内蔵された振動素
子を駆動、瞬間的にオン/オフを行い、クラブのグリッ
プ部分に力覚提示を行う。
【0027】以下、本実施の形態の臨場感型仮想現実提
供装置の動作を説明する。図2は図1の臨場感型仮想現
実提供装置の動作を示すフローチャート図である。
供装置の動作を説明する。図2は図1の臨場感型仮想現
実提供装置の動作を示すフローチャート図である。
【0028】体験者はゴルフクラブ型の操作インタフェ
ースを手に持ち、立体視用眼鏡を装着し、没入型仮想環
境の内部に入ってゴルフスイングを行う。
ースを手に持ち、立体視用眼鏡を装着し、没入型仮想環
境の内部に入ってゴルフスイングを行う。
【0029】位置計測手段101は、体験者のスイング
時の動きデータとして、体験者が持つ操作インタフェー
スと立体視用眼鏡の3次元位置を計測する(ステップS
1)。
時の動きデータとして、体験者が持つ操作インタフェー
スと立体視用眼鏡の3次元位置を計測する(ステップS
1)。
【0030】視点検出手段102は、位置計測手段10
1によって計測された眼鏡の3次元位置データに基づい
て体験者の目の3次元位置を検出する(ステップS
2)。
1によって計測された眼鏡の3次元位置データに基づい
て体験者の目の3次元位置を検出する(ステップS
2)。
【0031】次いで、人物データ生成手段105は、人
物データ生成処理を行う(ステップS3)。まず、人物
データ生成手段105は、人物動きデータベース103
を参照してアバタの動きデータを読み込むと共に、仮想
オブジェクトデータベース104を参照して人物モデル
のデータを読み込む。続いて、人物データ生成手段10
5は、位置計測手段101によって計測された体験者の
動きデータと人物動きデータベース103より読み込ん
だアバタの動きデータとから、プレーヤーアバタの手首
位置が体験者の手首位置に合うように位置の調整を行
い、仮想オブジェクトデータベース104から読み込ん
だ人物モデルのデータに適用して、プレーヤーアバタの
立体映像データを生成する。
物データ生成処理を行う(ステップS3)。まず、人物
データ生成手段105は、人物動きデータベース103
を参照してアバタの動きデータを読み込むと共に、仮想
オブジェクトデータベース104を参照して人物モデル
のデータを読み込む。続いて、人物データ生成手段10
5は、位置計測手段101によって計測された体験者の
動きデータと人物動きデータベース103より読み込ん
だアバタの動きデータとから、プレーヤーアバタの手首
位置が体験者の手首位置に合うように位置の調整を行
い、仮想オブジェクトデータベース104から読み込ん
だ人物モデルのデータに適用して、プレーヤーアバタの
立体映像データを生成する。
【0032】次に、物理シミュレーション手段106
は、位置計測手段101によって計測された操作インタ
フェースの3次元位置データを用いて、体験者がゴルフ
クラブを振ったときのクラブの軌跡やスイング速度を求
め、仮想ゴルフボールに当たる瞬間の力の大きさと方向
を計算する(ステップS4)。この計算結果を基に仮想
ゴルフボールが飛んでいく弾道を決定し、その弾道に応
じて変化する仮想空間の立体映像データを生成する。仮
想ゴルフボールが飛ぶ、転がる、跳ね返る等の場合にお
けるボールの動きは、あらかじめ風の強さや向き、フェ
アウェイ、ラフ等の位置によるボールの転がりやすさ、
ショット地点の芝の深さ、クラブ種類による飛距離の
差、地面の傾斜や芝目、といった情報をあらかじめ仮想
オブジェクトデータベース104(他に専用の別データ
ベースを用意してもよい)に記憶しておいて、これらの
情報も活用する。活用の方法(計算方法)は物理学の力
学計算に準ずる方法等を用いることができる。
は、位置計測手段101によって計測された操作インタ
フェースの3次元位置データを用いて、体験者がゴルフ
クラブを振ったときのクラブの軌跡やスイング速度を求
め、仮想ゴルフボールに当たる瞬間の力の大きさと方向
を計算する(ステップS4)。この計算結果を基に仮想
ゴルフボールが飛んでいく弾道を決定し、その弾道に応
じて変化する仮想空間の立体映像データを生成する。仮
想ゴルフボールが飛ぶ、転がる、跳ね返る等の場合にお
けるボールの動きは、あらかじめ風の強さや向き、フェ
アウェイ、ラフ等の位置によるボールの転がりやすさ、
ショット地点の芝の深さ、クラブ種類による飛距離の
差、地面の傾斜や芝目、といった情報をあらかじめ仮想
オブジェクトデータベース104(他に専用の別データ
ベースを用意してもよい)に記憶しておいて、これらの
情報も活用する。活用の方法(計算方法)は物理学の力
学計算に準ずる方法等を用いることができる。
【0033】次に、仮想空間データ生成手段107は、
仮想空間データ生成処理を行う(ステップS5)。すな
わち、仮想空間データ生成手段107は、仮想オブジェ
クトデータベース104を参照して空間モデルのデータ
を読み込み、この空間モデルのデータから仮想空間の立
体映像データを生成する。その際、位置計測手段101
から得られる操作インタフェースの3次元位置データ、
および物理シミュレーション手段106から得られる仮
想物体の動きデータも用い、体験者のゴルフスイングに
応じた仮想空間変化を実現する。なお、人物データ生成
手段105および仮想空間データ生成手段107は、立
体映像データを生成する際、立体視用に両眼の視差を考
慮し、右目用、左目用の映像データをそれぞれ生成す
る。
仮想空間データ生成処理を行う(ステップS5)。すな
わち、仮想空間データ生成手段107は、仮想オブジェ
クトデータベース104を参照して空間モデルのデータ
を読み込み、この空間モデルのデータから仮想空間の立
体映像データを生成する。その際、位置計測手段101
から得られる操作インタフェースの3次元位置データ、
および物理シミュレーション手段106から得られる仮
想物体の動きデータも用い、体験者のゴルフスイングに
応じた仮想空間変化を実現する。なお、人物データ生成
手段105および仮想空間データ生成手段107は、立
体映像データを生成する際、立体視用に両眼の視差を考
慮し、右目用、左目用の映像データをそれぞれ生成す
る。
【0034】映像表示手段108は、人物データ生成手
段105によって生成されたアバタの立体映像データ、
および仮想空間データ生成手段107によって生成され
た仮想オブジェクトの立体映像データをもとに仮想空間
の立体映像を表示する(ステップS6)。ただし、視点
検出手段102によって検出された体験者の目の位置に
応じて表示を行う。
段105によって生成されたアバタの立体映像データ、
および仮想空間データ生成手段107によって生成され
た仮想オブジェクトの立体映像データをもとに仮想空間
の立体映像を表示する(ステップS6)。ただし、視点
検出手段102によって検出された体験者の目の位置に
応じて表示を行う。
【0035】ネットワーク上に存在する別の体験者と対
戦プレイを行う場合は、表示される映像データを送信手
段112に用いて通信路に送信し(ステップS8)、ネ
ットワーク上に存在する別の体験者から送られてくる映
像データを受信手段113を用いて通信路から受信し
(ステップS9)、これを映像表示手段108で表示す
る。
戦プレイを行う場合は、表示される映像データを送信手
段112に用いて通信路に送信し(ステップS8)、ネ
ットワーク上に存在する別の体験者から送られてくる映
像データを受信手段113を用いて通信路から受信し
(ステップS9)、これを映像表示手段108で表示す
る。
【0036】以上のようなステップS1〜S9の動作を
一定時間ごとに繰り返すことにより体験者のスイングに
よって変化する仮想空間の立体表示が可能となる。
一定時間ごとに繰り返すことにより体験者のスイングに
よって変化する仮想空間の立体表示が可能となる。
【0037】また、フォースフィードバック手段110
は、物理シミュレーション手段106によって決定され
たゴルフクラブの動き情報をもとに制御される仮想ゴル
フクラブヘッドが仮想ゴルフボールの位置にくる瞬間
に、体験者が持つ操作インタフェースであるゴルフクラ
ブのグリップ部分に振動のオン/オフにより力覚提示を
行う(ステップS7)。力覚提示の方法は振動による方
法に限定されるものではなく、例えば、微弱電流を流
す、操作インタフェースの先端に風を当てる、等といっ
た他の方法を用いてもよい。
は、物理シミュレーション手段106によって決定され
たゴルフクラブの動き情報をもとに制御される仮想ゴル
フクラブヘッドが仮想ゴルフボールの位置にくる瞬間
に、体験者が持つ操作インタフェースであるゴルフクラ
ブのグリップ部分に振動のオン/オフにより力覚提示を
行う(ステップS7)。力覚提示の方法は振動による方
法に限定されるものではなく、例えば、微弱電流を流
す、操作インタフェースの先端に風を当てる、等といっ
た他の方法を用いてもよい。
【0038】
【発明の効果】以上のように、本発明によれば、立体映
像として仮想空間を表示すると同時に、体験者が仮想空
間に対して何らかの操作を行った結果を力覚によりフォ
ースフィードバックするので、体験者は臨場感の高い仮
想世界を体験することができる。また、通信機能により
別の体験者と仮想空間を共有することができるので、さ
らに臨場感を高めることも可能となる。ゴルフを例にす
れば、わざわざ本物のゴルフ場に出かけて行かなくて
も、あたかも本物のゴルフ場にいるかのようなリアルな
ゴルフ場でプレイができ、しかも、ゴルフのスイングを
行ったときに、手に持ったゴルフクラブにボールを打っ
た瞬間のインパクトが提示され、そして、ボールは立体
映像として表示される仮想ボールであるので本物のゴル
フ場のような広大な空間は必要とせず、さらには、ネッ
トワーク対戦プレイが可能であるため、対戦者の立体映
像を見ながら実際にゴルフコースを一緒にまわっている
感覚を体験できる。
像として仮想空間を表示すると同時に、体験者が仮想空
間に対して何らかの操作を行った結果を力覚によりフォ
ースフィードバックするので、体験者は臨場感の高い仮
想世界を体験することができる。また、通信機能により
別の体験者と仮想空間を共有することができるので、さ
らに臨場感を高めることも可能となる。ゴルフを例にす
れば、わざわざ本物のゴルフ場に出かけて行かなくて
も、あたかも本物のゴルフ場にいるかのようなリアルな
ゴルフ場でプレイができ、しかも、ゴルフのスイングを
行ったときに、手に持ったゴルフクラブにボールを打っ
た瞬間のインパクトが提示され、そして、ボールは立体
映像として表示される仮想ボールであるので本物のゴル
フ場のような広大な空間は必要とせず、さらには、ネッ
トワーク対戦プレイが可能であるため、対戦者の立体映
像を見ながら実際にゴルフコースを一緒にまわっている
感覚を体験できる。
【図1】本発明の実施例を示す構成図である。
【図2】本発明の処理ステップを示すフローチャート図
である。
である。
101:位置計測手段 102:視点検出手段 103:人物動きデータベース 104:仮想オブジェクトデータベース 105:人物データ生成手段 106:物理シミュレーション手段 107:仮想空間データ生成手段 108:映像表示手段 109:立体視用眼鏡 110:フォースフィードバック手段 111:操作インタフェース 112:送信手段 113:受信手段
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06F 3/033 310 G06F 3/033 310Y Fターム(参考) 5B050 AA08 BA07 BA08 BA09 BA11 BA12 CA07 EA07 EA24 EA27 FA06 FA08 5B087 AA00 AB12 AE00 BC05 BC12 BC13 BC26 BC32 DD03 DD11 DE03 5E501 AA30 BA15 CA03 CC20 FA27 FA36 FA50
Claims (4)
- 【請求項1】 立体視を用いた没入型仮想環境およびフ
ォースフィードバックを用いて体験者に臨場感の高い仮
想現実体験を提供する臨場感型仮想現実提供処理方法で
あって、 体験者の動きデータとして、体験者が持つ操作インタフ
ェースと立体視用眼鏡との3次元位置を計測する位置計
測処理と、 前記位置計測処理によって計測された眼鏡の3次元位置
データに基づいて体験者の目の3次元位置を検出する視
点検出処理と、 あらかじめデータベースに記憶しておいた人物動きデー
タを、仮想空間において体験者の分身となる仮想人物を
立体表示するために必要な人物モデルのデータに適用し
て、前記仮想人物の立体映像データを生成する人物デー
タ生成処理と、 前記位置計測処理によって計測された操作インタフェー
スの3次元位置データに基づいて前記仮想空間における
仮想物体の動きを決定する物理シミュレーション処理
と、 前記仮想空間を立体表示するために必要な空間モデルの
データ、および前記位置計測処理によって計測された操
作インタフェースの3次元位置データ、および前記物理
シミュレーション処理によって決定された仮想物体の動
きデータ、を用いて前記仮想空間の立体映像データを生
成する仮想空間データ生成処理と、 前記仮想人物の立体映像データ、および前記仮想空間の
立体映像データ、をもとに仮想空間の立体映像を表示
し、前記視点検出処理によって検出された体験者の目の
位置に応じて前記仮想空間の表示を変化させる映像表示
処理と、 前記物理シミュレーション処理によって決定された前記
仮想物体の動きをもとに体験者が持つ操作インタフェー
スに力覚提示を行うフォースフィードバック処理と、を
有することを特徴とする臨場感型仮想現実提供処理方
法。 - 【請求項2】 前記映像表示処理によって表示される映
像データを、前記体験者に提示する代わりに、ネットワ
ーク上に存在する別の体験者に提示するために通信路へ
送信する送信処理と、 ネットワーク上に存在する別の体験者から送られてくる
映像データを通信路から受信する受信処理、とを有する
ことを特徴とする請求項1記載の臨場感型仮想現実提供
処理方法。 - 【請求項3】 立体視を用いた没入型仮想環境およびフ
ォースフィードバックを用いて体験者に臨場感の高い仮
想現実体験を提供する臨場感型仮想現実提供処理装置で
あって、 体験者の動きデータとして、体験者が持つ操作インタフ
ェースと立体視用眼鏡との3次元位置を計測する位置計
測手段と、 前記位置計測手段によって計測された眼鏡の3次元位置
データに基づいて体験者の目の3次元位置を検出する視
点検出手段と、 あらかじめデータベースに記憶しておいた人物動きデー
タを、仮想空間において体験者の分身となる仮想人物を
立体表示するために必要な人物モデルのデータに適用し
て、前記仮想人物の立体映像データを生成する人物デー
タ生成手段と、 前記位置計測手段によって計測された操作インタフェー
スの3次元位置データに基づいて前記仮想空間における
仮想物体の動きを決定する物理シミュレーション手段
と、 前記仮想空間を立体表示するために必要な空間モデルの
データ、および前記位置計測手段によって計測された操
作インタフェースの3次元位置データ、および前記物理
シミュレーション手段によって決定された仮想物体の動
きデータ、を用いて前記仮想空間の立体映像データを生
成する仮想空間データ生成手段と、 前記仮想人物の立体映像データ、および前記仮想空間の
立体映像データ、をもとに仮想空間の立体映像を表示
し、前記視点検出手段によって検出された体験者の目の
位置に応じて前記仮想空間の表示を変化させる映像表示
手段と、 前記物理シミュレーション手段によって決定された前記
仮想物体の動きをもとに体験者が持つ操作インタフェー
スに力覚提示を行うフォースフィードバック手段と、を
有することを特徴とする臨場感型仮想現実提供処理装
置。 - 【請求項4】 前記映像表示手段によって表示される映
像データを、前記体験者に提示する代わりに、ネットワ
ーク上に存在する別の体験者に提示するために通信路へ
送信する送信手段と、 ネットワーク上に存在する別の体験者から送られてくる
映像データを通信路から受信する受信手段、とを有する
ことを特徴とする請求項3記載の臨場感型仮想現実提供
処理装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000316298A JP2002123840A (ja) | 2000-10-17 | 2000-10-17 | 臨場感型仮想現実提供処理方法および装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000316298A JP2002123840A (ja) | 2000-10-17 | 2000-10-17 | 臨場感型仮想現実提供処理方法および装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2002123840A true JP2002123840A (ja) | 2002-04-26 |
Family
ID=18795270
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000316298A Pending JP2002123840A (ja) | 2000-10-17 | 2000-10-17 | 臨場感型仮想現実提供処理方法および装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2002123840A (ja) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005099064A (ja) * | 2002-09-05 | 2005-04-14 | Sony Computer Entertainment Inc | 表示システム、表示制御装置、表示装置、表示方法、およびユーザインタフェイス装置 |
JP2011237891A (ja) * | 2010-05-06 | 2011-11-24 | Square Enix Co Ltd | リアルタイムシーンを照明し,発見するバーチャルフラッシュライト |
KR101147873B1 (ko) | 2010-06-24 | 2012-05-24 | 박영기 | 얼굴 인식을 이용한 스크린 골프 시스템 및 그 제어 방법 |
JP2013524351A (ja) * | 2010-03-31 | 2013-06-17 | イマージョン コーポレーション | 位置に基づいて触覚刺激を提供するシステム及び方法 |
JP2015109092A (ja) * | 2014-12-17 | 2015-06-11 | 京セラ株式会社 | 表示機器 |
US9275608B2 (en) | 2011-06-28 | 2016-03-01 | Kyocera Corporation | Display device |
KR101624595B1 (ko) | 2014-12-19 | 2016-05-26 | 아이디어링크 주식회사 | 골프 스윙 모니터링 시스템과 그에 연동되는 골프 클럽 |
US9619048B2 (en) | 2011-05-27 | 2017-04-11 | Kyocera Corporation | Display device |
JP2019008751A (ja) * | 2017-06-28 | 2019-01-17 | 株式会社コロプラ | 情報処理方法、プログラム及び情報処理装置 |
JP2019057302A (ja) * | 2008-07-15 | 2019-04-11 | イマージョン コーポレーションImmersion Corporation | 触覚メッセージを送信するためのシステム及び方法 |
JP2019061707A (ja) * | 2011-02-11 | 2019-04-18 | 得鋒 黄 | ヒューマンコンピュータインタラクションの制御方法及びその運用 |
JP2019096347A (ja) * | 2009-07-22 | 2019-06-20 | イマージョン コーポレーションImmersion Corporation | 操作ジェスチャの入力中に,及び,仮想装置の操作に関連して,複雑な触覚刺激を提供するシステム及び方法 |
WO2020026301A1 (ja) * | 2018-07-30 | 2020-02-06 | 株式会社ソニー・インタラクティブエンタテインメント | ゲーム装置、ゴルフゲームの制御方法 |
CN111652874A (zh) * | 2020-06-04 | 2020-09-11 | 崧智智能科技(深圳)有限公司 | 止通规测量方法、装置、终端和计算机可读存储介质 |
-
2000
- 2000-10-17 JP JP2000316298A patent/JP2002123840A/ja active Pending
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005099064A (ja) * | 2002-09-05 | 2005-04-14 | Sony Computer Entertainment Inc | 表示システム、表示制御装置、表示装置、表示方法、およびユーザインタフェイス装置 |
JP2019057302A (ja) * | 2008-07-15 | 2019-04-11 | イマージョン コーポレーションImmersion Corporation | 触覚メッセージを送信するためのシステム及び方法 |
JP2019096347A (ja) * | 2009-07-22 | 2019-06-20 | イマージョン コーポレーションImmersion Corporation | 操作ジェスチャの入力中に,及び,仮想装置の操作に関連して,複雑な触覚刺激を提供するシステム及び方法 |
JP2013524351A (ja) * | 2010-03-31 | 2013-06-17 | イマージョン コーポレーション | 位置に基づいて触覚刺激を提供するシステム及び方法 |
JP2011237891A (ja) * | 2010-05-06 | 2011-11-24 | Square Enix Co Ltd | リアルタイムシーンを照明し,発見するバーチャルフラッシュライト |
KR101147873B1 (ko) | 2010-06-24 | 2012-05-24 | 박영기 | 얼굴 인식을 이용한 스크린 골프 시스템 및 그 제어 방법 |
JP2019061707A (ja) * | 2011-02-11 | 2019-04-18 | 得鋒 黄 | ヒューマンコンピュータインタラクションの制御方法及びその運用 |
US9619048B2 (en) | 2011-05-27 | 2017-04-11 | Kyocera Corporation | Display device |
US9501204B2 (en) | 2011-06-28 | 2016-11-22 | Kyocera Corporation | Display device |
US9275608B2 (en) | 2011-06-28 | 2016-03-01 | Kyocera Corporation | Display device |
JP2015109092A (ja) * | 2014-12-17 | 2015-06-11 | 京セラ株式会社 | 表示機器 |
KR101624595B1 (ko) | 2014-12-19 | 2016-05-26 | 아이디어링크 주식회사 | 골프 스윙 모니터링 시스템과 그에 연동되는 골프 클럽 |
JP2019008751A (ja) * | 2017-06-28 | 2019-01-17 | 株式会社コロプラ | 情報処理方法、プログラム及び情報処理装置 |
WO2020026301A1 (ja) * | 2018-07-30 | 2020-02-06 | 株式会社ソニー・インタラクティブエンタテインメント | ゲーム装置、ゴルフゲームの制御方法 |
WO2020026458A1 (ja) * | 2018-07-30 | 2020-02-06 | 株式会社ソニー・インタラクティブエンタテインメント | ゲーム装置、ゴルフゲームの制御方法 |
JPWO2020026458A1 (ja) * | 2018-07-30 | 2021-02-15 | 株式会社ソニー・インタラクティブエンタテインメント | ゲーム装置、ゴルフゲームの制御方法 |
JP7057829B2 (ja) | 2018-07-30 | 2022-04-20 | 株式会社ソニー・インタラクティブエンタテインメント | ゲーム装置、ゴルフゲームの制御方法 |
CN111652874A (zh) * | 2020-06-04 | 2020-09-11 | 崧智智能科技(深圳)有限公司 | 止通规测量方法、装置、终端和计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9779633B2 (en) | Virtual reality system enabling compatibility of sense of immersion in virtual space and movement in real space, and battle training system using same | |
US9599821B2 (en) | Virtual reality system allowing immersion in virtual space to consist with actual movement in actual space | |
JP2552427B2 (ja) | テレビ遊戯システム | |
JP2000033184A (ja) | 全身動作入力型のゲ―ム及びイベント装置 | |
JP3927821B2 (ja) | プログラム、情報記憶媒体及びゲーム装置 | |
KR101599303B1 (ko) | 가상 현실 기반의 야구 게임 시스템 및 그것을 이용한 게임 진행 방법 | |
US20100245365A1 (en) | Image generation system, image generation method, and computer program product | |
JP2002123840A (ja) | 臨場感型仮想現実提供処理方法および装置 | |
TWI626975B (zh) | 虛擬高爾夫類比裝置、用於虛擬高爾夫的影像實現方法及存儲其的電腦可讀存儲介質 | |
JP2016047219A (ja) | 身体動作の練習支援システム | |
JPH07200162A (ja) | 仮想現実体験装置およびこれを用いたゲーム装置 | |
KR20160123017A (ko) | 모션센서를 이용한 모션정보 제공시스템 및 이를 이용한 모션정보 디스플레이 방법 | |
JP2012181616A (ja) | プログラム、情報記憶媒体、ゲーム装置及びサーバシステム | |
JP3413128B2 (ja) | 複合現実感提示方法 | |
JP2003180896A5 (ja) | ||
JP2002032788A (ja) | 仮想現実提供方法、仮想現実提供装置及び仮想現実提供プログラムを記録した記録媒体 | |
JP6571701B2 (ja) | 体感装置、およびその方法 | |
JP7060544B6 (ja) | 運動用設備 | |
JP6910809B2 (ja) | シミュレーションシステム、プログラム及びコントローラ | |
JP2000202164A (ja) | 臨場感生成装置 | |
Katz et al. | Virtual reality | |
WO2018018616A1 (zh) | 一种运动装置 | |
JP7054276B2 (ja) | 身体活動支援システム、方法、及び、プログラム | |
US20210379496A1 (en) | System and method for manipulating augmented reality golf simulation and training using interactive tools | |
KR102043559B1 (ko) | 모바일 기기를 이용한 가상 골프 플레이 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20041019 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20050308 |