JP3575868B2 - Simulated experience device - Google Patents
Simulated experience device Download PDFInfo
- Publication number
- JP3575868B2 JP3575868B2 JP11989795A JP11989795A JP3575868B2 JP 3575868 B2 JP3575868 B2 JP 3575868B2 JP 11989795 A JP11989795 A JP 11989795A JP 11989795 A JP11989795 A JP 11989795A JP 3575868 B2 JP3575868 B2 JP 3575868B2
- Authority
- JP
- Japan
- Prior art keywords
- sound
- data
- user
- head
- frequency band
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Description
【0001】
【産業上の利用分野】
本発明は、擬似体験装置に関する。
【0002】
【従来の技術】
最近、いわゆるバ−チャルリアリティ技術による擬似体験装置が脚光を浴びてきており、住宅設計や住宅設備販売等に利用されている。
例えば、住宅設計においては、設計した住宅を仮想空間内に実現し、あたかもその空間に入り込んだような感覚、いわゆる没入感を得ながら、設計住宅の評価をしたり、また、住宅設備販売、たとえばシステムキッチンの販売であれば、購入予定者に、複数のシステムキッチンを仮想空間内で体験してもらい、その中から希望のものを選択してもらったりといった具合である。
【0003】
従来の擬似体験装置では、体験者の頭部に取り付けられたゴ−グル型の立体表示装置に、立体表示装置に一体的に取り付けられたセンサ−によって検出される体験者の視線に応じた、周囲の仮想的な空間を描画していた。
【0004】
【発明が解決しようとする課題】
しかし、上述した従来の擬似体験装置では、体験者が自分の足元に視線を向けた場合、視線に応じた周囲の情景は描画されるものの、そこに見えるはずの自分の足は描画されないので、体験者は空中に浮いたような感覚を持ち、そのため、没入感が損なわれるといった問題点があった。
【0005】
本発明は、上記の問題点に鑑み、視覚的により高い没入感を得ることができる擬似体験装置を提供することを第1の目的とする。
本発明の第2の目的は、聴覚的により高い没入感を得ることができる擬似体験装置を提供することにある。
【0006】
【課題を解決するための手段】
上記第1の目的を達成するため、本発明の第1の擬似体験装置は、体験者の頭部に取り付けられて使用される立体表示装置と、立体表示装置の表示対象となる仮想空間の3次元デ−タを格納する空間デ−タ格納手段と、体験者の頭部の位置及び向きを検出する第1検出手段と、検出結果から定まる体験者の視点位置をもとに所定の空間デ−タを選択し表示装置に表示させる第1表示制御手段と、体験者の身体形状を模した仮想主体の形状デ−タを格納する主体形状デ−タ格納手段と、検出手段の検出結果に従い、体験者の視線が仮想主体の身体方向に向けられると、主体形状デ−タを主体形状デ−タ格納手段から読み出し、空間デ−タと重畳して立体表示装置にて表示する第2表示制御手段とを備え、前記主体形状デ−タ格納手段は形状デ−タ種別毎に、移動動作に伴って変化する一連の移動動作デ−タを格納しており、当該擬似体験装置は、さらに、体験者の前記空間内での移動速度を検出する速度検出手段と、前記検出手段の検出結果に従い体験者の視線が仮想主体の身体方向に向けられると前記速度検出手段で検出された体験者の移動速度に応じて前記移動動作デ−タを順次前記空間デ−タと重畳して立体表示装置にて表示する第3表示制御手段とを備えることを特徴とする。
【0011】
また、上記第2の目的を達成するため、本発明の第2の擬似体験装置は、本発明の第1の擬似体験装置にさらに、体験者の頭部に取り付けられて使用される音場再生装置と、表示対象空間の背景に存する仮想物体の表面における所定位置を音源位置とし任意の位置を受音点としたときの再生音データを生成する生成手段と、体験者の体の一部の位置を検出する第2検出手段とを備え、体験者が仮想空間内を移動することにより、第2検出手段によって検出される位置デ−タと前記仮想物体の位置デ−タとが一致した際に、前記第1検出手段の検出結果から定まる体験者の頭部の位置に対応した再生音デ−タを生成し、当該再生音デ−タを音声に変換して前記音場再生装置に出力することを特徴とする。
また、上記第2の目的を達成するため、本発明の第3の擬似体験装置は、本発明の第1の擬似体験装置にさらに、体験者の頭部に取り付けられて使用される音場再生装置と、表示対象空間の背景に存する仮想物体の表面における所定位置を音源位置とし任意の位置を受音点としたときの各周波数帯毎のエコ−タイムパターンに各周波数帯毎のバンドパスフィルタを畳み込むことによって得られる各周波数帯毎の応答を格納した帯域応答格納手段と、頭部伝達関数を格納する頭部伝達関数格納手段と、無響音の音響デ−タであり前記仮想物体に対応したドライソ−スを複数格納するドライソ−ス格納手段と、体験者の体の一部の位置を検出する第2検出手段とを備え、体験者が仮想空間内を移動することにより第2検出手段によって検出される位置デ−タと前記仮想物体の位置デ−タとが一致した際に前記第1検出手段の検出結果から定まる体験者の頭部の位置に対応した前記帯域応答に位置デ−タが一致した仮想物体に対応したドライソ−スと頭部伝達関数とを畳み込むことにより各周波数帯毎の応答を算出し、各周波数帯毎の応答を全周波数帯にわたって合成することによって再生音デ−タを生成し、前記再生音デ−タを音声に変換して前記音場再生装置に出力することを特徴とする。
【0012】
また、上記第2の目的を達成するため、本発明の第4の擬似体験装置は、本発明の第1の擬似体験装置にさらに、体験者の頭部に取り付けられて使用される音場再生装置と、体験者の口元近くでの音声を入力する音声入力手段と、前記空間内において、体験者の口元を音源位置とし体験者の両耳の近傍を受音点としたときの再生音データを生成する生成手段とを備え、前記第1検出手段の検出結果から定まる体験者の頭部の位置に対応した再生音デ−タを生成し、当該再生音デ−タを音声に変換して前記音場再生装置に出力することを特徴とする。
また、上記第2の目的を達成するため、本発明の第5の擬似体験装置は、本発明の第1の擬似体験装置にさらに、体験者の頭部に取り付けられて使用される音場再生装置と、体験者の口元近くでの音声を入力する音声入力手段と、前記空間内において体験者の口元を音源位置とし体験者の両耳の近傍を受音点とした時の各周波数帯毎のエコ−タイムパターンに各周波数帯毎のバンドパスフィルタを畳み込むことによって得られる各周波数帯毎の応答を格納した帯域応答格納手段と、頭部伝達関数を格納する頭部伝達関数格納手段とを備え、前記第1検出手段の検出結果から定まる体験者の頭部の位置に対応した前記帯域応答に前記音声入力手段から入力された音声と頭部伝達関数を畳み込むことにより各周波数帯毎の応答を算出し、各周波数帯毎の応答を全周波数帯にわたって合成することによって再生音デ−タを生成し、前記再生音デ−タを音声に変換して前記音場再生装置に出力することを特徴とする。
【0014】
【作用】
上記第1の擬似体験装置の構成によれば、立体表示装置に空間デ−タが表示された状態で、体験者の視線が仮想主体の身体方向に向けられると、体験者の身体形状を模した仮想主体の形状デ−タを空間デ−タと重畳して立体表示装置に表示し、また、立体表示装置に空間デ−タが表示された状態で、移動中に体験者の視線が仮想主体の身体方向に向けられると、移動速度に応じて順次、一連の移動動作デ−タを空間デ−タと重畳して立体表示装置に表示することができる。ここで、本明細書中「空間」とは、物体が存在しない、相当に広がりのある文字通りの空間のみならず、その背景として見える壁、床、及びそれらに設けられた装置、機器等をも含む概念で用いる。
【0017】
上記第2及び第3の擬似体験装置の構成によれば、体験者の体の一部の位置と仮想物体の表面の位置とが一致すると、一致した仮想物体に対応したドライソ−スと頭部伝達係数とを体験者の頭部位置に対応した音源毎の帯域応答にそれぞれ畳み込んで各周波数毎の応答を算出し、各周波数毎の応答を全周波数帯にわたって合成して再生音デ−タを生成し、再生音デ−タを音声に変換して音場再生装置に出力することができる。
【0018】
上記第4及び第5の擬似体験装置の構成によれば、音声入力手段から入力された音声と頭部伝達係数とを体験者の頭部位置に対応した帯域応答にそれぞれ畳み込んで各周波数毎の応答を算出し、各周波数毎の応答を全周波数帯にわたって合成して再生音デ−タを生成し、再生音デ−タを音声に変換して音場再生装置に出力することができる。
【0020】
【実施例】
本発明の実施例を図面を参照しながら説明する。
(第1実施例)
図1は、本発明の第1実施例にかかる擬似体験装置の全体構成図である。図に示すように、本擬似体験装置は、ゴ−グル型立体表示装置101、磁場発生装置102、頭部磁気センサ−103、主体選択メニュ−格納部104、手元入力装置105、磁気センサ−ユニット106、空間デ−タ格納部107、主体静止形状デ−タ格納部108、主体動作形状デ−タ格納部109、主体形状一時記憶部110、表示制御部111、プログラム格納部112、CPU113から構成されている。
【0021】
ゴ−グル型立体表示装置101は、体験者Mの頭部に装着され、頭部磁気センサ−103がたえず検出する頭の位置および方向、つまり、体験者Mの視線に応じた仮想的な室内の情景等を、左右両眼の視差を利用し、立体的に表示するものであり、左右両眼用として、2つの液晶カラ−ディスプレイを内蔵している。
磁場発生装置102は、体験者が動き回る空間に磁場を発生させる装置であり、直交コイル等を内蔵している。
【0022】
頭部磁気センサ−103は、ゴ−グル型立体表示装置101に一体的に取り付けられ、体験者Mの前記磁場内での頭部の位置および方向を検出するものであり、直交コイル等を内蔵している。
主体選択メニュ−格納部104は、その表示態様を図2に示すようなメニュ−を格納している。主体選択メニュ−は、仮想空間に表示させる主体の種類を選択するのに使用する。
【0023】
手元入力装置105は、図3に示す形状で、体験者Mが片手に持って操作する装置であり、右ボタン500、中央ボタン510、左ボタン520等を有している。右ボタン500は、前記主体選択メニュ−の前記ゴ−グル型立体表示装置101への表示をおこなうものであり、当該右ボタンを押下すると主体選択メニュ−が表示される。中央ボタン510は、前記主体選択メニュ−のポインタ400を移動させるためのものであり、当該中央ボタン510を押下する度に、ポインタ400が主体種類を示した項目420、430…と順次移動する。左ボタン520は、前記主体選択メニュ−上のメニュ−項目を選択するためのものであり、ポインタ400が選択したいメニュ−項目(主体種類)上にあるときに押下することによってその項目を選択するのに使用される。また、左ボタン530の押下に伴って、メニュ−が表示消去される。
【0024】
磁気センサ−ユニット106は、前記磁場発生装置102によって発生する磁場内に置かれた前記頭部磁気センサ−103中に誘起される電流の大きさを処理することにより、体験者Mの頭の位置、方向および体験者Mの移動速度を測定し、測定結果をCPUに出力するための装置である。
空間デ−タ格納部108は、表示対象である室内壁、天井、床、窓、テ−ブル等からなる空間の3次元形状デ−タを格納している。
【0025】
主体静止形状デ−タ格納部108は、仮想空間に表示する主体形状を、図4に示すように、体験者、大人・男性、大人・女性、等の主体種類およびその表示状態(立っている状態、座っている状態)毎に、アドレスによって特定される場所に格納している。
主体動作形状デ−タ格納部109は、体験者Mの仮想空間内の移動に伴って変化する歩行状態を示す一連の形状デ−タを、図5に示すように、主体種類毎にアドレスによって特定される場所に格納している。一連の動作は、各アドレスの末尾番号1〜12を1サイクルとして完結し、各形状デ−タは、体験者Mの移動速度に応じて順次表示される。なお、本実施例では、一連の動作の1サイクルを12パタ−ンの形状デ−タで表現しているが、このパタ−ン数に限定されるものではなく、適宜増減してもよい。
【0026】
主体形状一時記憶部110は、図6に示すように、主体静止形状デ−タ記憶領域800と主体動作形状デ−タ記憶領域900とポインタ位置管理領域300を有し、RAMなどから構成される。主体静止形状デ−タ記憶領域800と主体動作形状デ−タ記憶領域900は、前記主体選択メニュ−で選択された主体種類に対応した主体形状デ−タであり、前記主体静止形状デ−タ格納部108および前記主体動作形状デ−タ格納部109から呼び出された形状デ−タを、それぞれアドレスで特定される場所に記憶するところである。ポインタ位置管理領域300は、選択的に行う主体形状デ−タの表示管理をする場所であり、前記頭部磁気センサ−103が検出する体験者Mの頭部高さ、視線、移動速度によって、ポインタ310が切り換わり、ポインタの位置する形状デ−タを表示する。図6の320は、どの主体形状デ−タも表示しない時の、ポインタ待機領域である。
【0027】
表示制御部111は、前記空間デ−タ格納部107が格納しているデ−タを基に、体験者Mの視線に応じた描画デ−タを作成し、描画デ−タから映像信号を生成し、映像信号を前記ゴ−グル型立体表示装置101に出力したり、前記主体形状一時記憶部110が格納している形状デ−タから同様に映像信号を生成し、前記空間デ−タからの映像信号に重畳して出力したりするところである。
【0028】
プログラム格納部112は、図7に示すフローチャートに相当するプログラムを格納しており、ROMなどから構成される。
CPU113は、プログラム格納部112が格納しているプログラムに従って処理を行うところであり、マイクロプロセッサ等から構成される。
以下、図7に示すフローチャートに基づいて、本装置の制御内容について説明する。
【0029】
空間デ−タを表示した状態で(ステップS100)、体験者が視線を移動させると(ステップS110)、そのときの視線に応じた空間デ−タを表示し(ステップS111)、一方、視線を移動しなければ同じ空間デ−タの表示を続ける。そして、ステップS120で体験者のメニュ−表示指示があると処理はステップS121に進み、図2に示すのと同様な主体選択メニュ−の表示を行う。
【0030】
表示画面を見て、体験者は手元入力スイッチ105を操作し、仮想空間でなりたい主体を一つ選択する(ステップS122)。ここでは、「大人・男性」を選択したとすると、処理はステップS123に進み、選択された主体種類「大人・男性」に対応した形状デ−タを主体静止形状デ−タ格納部108および主体動作形状デ−タ格納部109から読み出し、主体形状一時記憶部110に格納する。格納結果を図8に示す。続いて、処理はステップS124に進み、体験者の仮想空間内における視点の高さを、選択された主体種類に応じた視点の高さに変更する。こうすることによって、例えば、体験者が大人で、ステップS122で選択した主体が子どもの場合では、体験者は子どもの視点(高さ)で擬似体験することができる。つづいて、処理はステップS125に進み、主体選択メニュ−表示の消去をおこない、ステップS130に進む。
【0031】
ステップS130では、頭部磁気センサ−103の検出する頭部高さから、体験者が立っている状態か、座っている状態かを判断する。ここで、体験者が座っている場合は、処理はステップS140に進み、体験者が視線を仮想主体の身体方向に向けると、処理はステップS141に進み、選択されている主体種類「大人・男性」の座った状態の主体静止形状デ−タを主体形状一時記憶部110から読み出して、空間デ−タに重畳して表示する。表示結果の一例を図9に示す。
【0032】
一方、ステップS130で、体験者は立っている状態であると判断した場合は、処理はステップS131に進み、体験者の視線が仮想主体の身体方向に向いているかどうかを判断し、向いている場合は処理はステップS132に進み、さらに体験者が移動中であるか静止中であるかを判断する。判断は、磁気センサ−ユニット106が出力する体験者の移動速度の値Vによって行い、Vがあらかじめ設定しておいた値V1以下の場合は、体験者は静止していると判断し、一方VがV1を越えている場合は、体験者は移動中であると判断する。そして、静止中であると判断した場合は、処理はステップS133に進み、選択されている主体種類「大人・男性」の立った状態の主体静止形状デ−タを主体形状一時記憶部110から読み出して、空間デ−タに重畳して表示する。表示結果の一例を図10に示す。一方、移動中であると判断した場合は、処理はステップS134に進み、図6に示す、主体形状一時記憶部に記憶されている主体動作形状デ−タを、移動速度Vに応じて、AM1、AM2、…、AM12、AM1、………と順次読み出して、空間デ−タに重畳して表示する。
【0033】
また、ステップS122で、別の主体として「ねこ」を選択し、立った状態で(ステップS130)、体験者がふり向くことにより仮想主体「ねこ」の身体方向に視線を転じ(ステップS133)、その時体験者は静止中であったとすると(ステップS132)、ステップS133の処理をおこない、主体種別「ねこ」の立った状態の主体静止形状デ−タを空間デ−タに重畳して表示する。表示結果の一例を、図11に示す。
【0034】
以上、第1実施例の擬似体験装置によれば、体験者が仮想主体の身体方向に視線を向けると、その時の体験者の頭部高さおよび移動速度に応じた仮想主体の形状デ−タが空間デ−タに重畳して表示されるので、視覚的により高い没入感を得ることができる。
(第2実施例)
図12は、本発明の第2実施例にかかる擬似体験装置の全体構成図である。図に示すように、本擬似体験装置は、ゴ−グル型立体表示装置201、磁場発生装置202、頭部磁気センサ−203、ヘッドフォン204、音源選択メニュ−格納部205、手元入力装置206、磁気センサ−ユニット207、空間デ−タ格納部208、右手形状デ−タ格納部209、接触部領域格納部210、連続音ドライソ−ス格納部211、衝撃音ドライソ−ス格納部212、マイク213、帯域応答格納部214、頭部伝達関数格納部215、音声制御部216、表示制御部217、プログラム格納部218、CPU219から構成されている。
【0035】
ゴ−グル型立体表示装置201は、体験者Mの頭部に装着され、頭部磁気センサ−203がたえず検出する頭の位置および方向、つまり、体験者Mの視線に応じた仮想的な室内の情景等を、左右両眼の視差を利用し、立体的に表示するものであり、左右両眼用として、2つの液晶カラ−ディスプレイを内蔵している。
磁場発生装置202は、体験者が動き回る空間に磁場を発生させる装置であり、直交コイル等を内蔵している。
【0036】
頭部磁気センサ−203は、ゴ−グル型立体表示装置201に一体的に取り付けられ、体験者Mの前記磁場内での頭部の位置および方向を検出するものであり、直交コイル等を内蔵している。
ヘッドフォン204は、体験者Mの頭部に装着され、頭部磁気センサ−203によりたえず検出される頭の位置および方向、つまり、体験者Mの両耳の位置と方向に応じた3次元音場の音を再生するためのものである。
【0037】
音源選択メニュ−格納部205は、その表示態様を図13に示すようなメニュ−を格納している。音源選択メニュ−は、仮想空間に存在する連続して聞こえる音の音源の内、聞きたい音源の種類を選択するのに使用する。
手元入力装置206は、その外観が、図3に示すように、第1実施例の手元入力装置105と同様な形状をしており、体験者Mが普通は右手にもって操作する装置であり、右ボタン600、中央ボタン610、左ボタン620等を有し、手元磁気センサ−(図示せず)を内蔵している。右ボタン600は、前記音源メニュ−の前記ゴ−グル型立体表示装置201への表示・非表示の切り換えを行うものであり、当該右ボタン600を押下する度に表示・非表示を繰り返す。中央ボタン610は、前記音源選択メニュ−のポインタ50を移動させるためのものであり、当該中央ボタン610を押下する度に、ポインタ50が音源種類を示した項目上を51、52、53、51、…と順次移動する。左ボタン620は、前記音源選択メニュ−上のメニュ−項目の選択または取消をするためのものであり、ポインタ50が、選択または取消をしたいメニュ−項目(音源種類)上にあるときに押下することによって、その項目を選択または取り消すのに使用される。手元磁気センサ−は、前記磁場発生装置202が発生させる磁場内における位置を検出するものであり、直交コイル等から構成される。体験者Mが手元入力装置206を右手にもった場合は、手元磁気センサ−によって、仮想空間内での体験者Mの右手の位置が検出されることになる。
【0038】
磁気センサ−ユニット207は、前記磁場発生装置202によって発生する磁場内に置かれた前記頭部磁気センサ−203および前記手元磁気センサ−中に誘起される電流の大きさを処理することにより、体験者Mの頭と右手の位置および方向を測定し、測定結果をCPU219に出力するための装置である。
空間デ−タ格納部208は、表示対象である室内壁、天井、床、窓、テ−ブル等からなる空間の3次元形状デ−タを格納している。
【0039】
右手形状デ−タ格納部209は、体験者の右手形状を模した形状デ−タを格納しており、当該右手形状デ−タは、体験者Mの視線に前記手元入力装置206が入ると、前記手元磁気センサ−が検出する位置に、前記空間デ−タに重畳して表示される。
接触部領域格納部210は、図14に示すように、仮想空間として表示される仮想物体種別毎に、その物体を構成する表面の位置情報からなる接触部領域とドライソ−スNO.とを格納している。
【0040】
連続音音源装置211は、連続音である、ステレオ等のオ−ディオ装置の出力音、ピアノ等の楽器の演奏音、自動車の走行音等の壁面等からの反射の影響の無い音声信号(ドライソ−ス)をCPU219に出力するための装置であり、複数のCD(コンパクトディスク)プレ−ヤ等から構成される。各CDプレ−ヤには、それぞれ一種類の連続音ドライソ−スを記録したCDが装着されており、各CDプレ−ヤは格納している連続音の種類によって、前記音源選択メニュ−のメニュ−項目と対応づけられている。そして、前記手元入力装置206による、前記音源選択メニュ−のメニュ−項目の選択または取消にともなって、対応するCDプレ−ヤの起動(音声信号の出力)または停止が行われる。
【0041】
衝撃音ドライソ−ス格納部212は、図15に示すように、前記接触部領域格納部210が格納しているドライソ−スNO.に対応づけて、人間の手と仮想物体種別名に対応した現実の物体とが接触した際に発生する衝撃音のドライソ−スを格納しており、ROM等から構成される。
マイク213は、体験者Mの声を音声信号に変換し、CPU219に出力する装置であり、さらに出力・非出力を切り換えるスイッチ(図示せず)を備えている。マイク213は、その出力信号をドライソ−スとするため、背景音および体験者Mの声の反射音をできるだけ検出しないような指向性の高いものが好ましい。
【0042】
帯域応答格納部214は、仮想空間内で2点を設定し、その内の一方の点を音源位置とし他方の点を受音点とした時の、各周波数帯毎のエコ−タイムパタ−ンに各周波数帯毎のバンドパスフィルタを畳み込むことによって得られる各周波数帯毎の応答である帯域応答を格納するところであり、音源の種類によって連続音用帯域応答格納領域214a、衝撃音用帯域応答格納領域214b、体験者音声用帯域応答格納領域214cを有している。連続音用帯域応答格納領域214aは、図16に示すように、仮想空間内である決まった一点を音源位置とする音源の種類毎にそれぞれの音源位置と受音点位置とから特定される帯域応答を格納している。また、図16中の連続音受音点領域とは、受音点の位置を中心とする、ある広がりを有した空間の位置情報である。衝撃音用帯域応答格納領域214bは、図17に示すように、衝撃音の音源の種類毎に、音源位置と受音点位置で特定される帯域応答を格納している。図17中、衝撃音音源領域とは、音源位置を中心とする、ある広がりを有した空間の位置情報であり、衝撃音受音点領域とは、受音点の位置を中心とする、ある広がりを有した空間の位置情報である。体験者音声用帯域応答格納領域214cは、図18に示すように、仮想空間内での前記マイク213の位置である音源位置と体験者の両耳間の中点である受音点位置とで特定される帯域応答を格納している。図18中の体験者音声受音点領域とは、受音点の位置を中心とする、ある広がりを有した空間の位置情報である。
【0043】
頭部伝達関数格納部215は、周囲から頭部に向かって入射する音が、人間の頭部の形状および耳の位置等の条件によって変化する状態を表す関数であり、予め算出されたものを格納している。
音声制御部216は、CPU219から出力される再生音デ−タを音声信号に変換して、前記ヘッドフォン204へ臨場感のある3次元音場を出力するところである。
【0044】
表示制御部217は、前記空間デ−タ格納部208が格納しているデ−タを基に、体験者Mの視線に応じた描画デ−タを作成し、描画デ−タから映像信号を生成し、映像信号を前記ゴ−グル型立体表示装置201に出力したり、前記右手形状デ−タ格納部209が格納している形状デ−タから同様に映像信号を生成し、前記空間デ−タからの映像信号に重畳して出力したりするところである。
【0045】
プログラム格納部218は、図19〜図22に示すフローチャートに相当するプログラムを格納しており、ROMなどから構成される。
CPU219は、プログラム格納部218が格納しているプログラムに従って処理を行うところであり、マイクロプロセッサ等から構成される。
以下、図19〜図22に示すフローチャートに基づいて、本装置の制御内容について説明する。
【0046】
図19は、処理手順の概略を示したフローチャートである。
空間デ−タを表示した状態で(ステップS200)、メニュ−表示指示があると(ステップS210)、図13に示すのと同様な音源選択メニュ−を表示する(ステップS211)。
ステップS211で、表示画面を見て、体験者が音源の選択指示をしたとすると、選択された音源に対応したCDプレ−ヤを起動する(ステップS213)。一方、体験者が音源の消去指示をしたとすると、消去指示された音源に対応したCDプレ−ヤを停止する(ステップS214)。また、体験者が、メニュ−表示の消去指示をしたとすると、メニュ−表示の消去を行う(ステップS215)。
【0047】
上記音源選択メニュ−表示状態での処理が終了するか、または、ステップS210でメニュ−表示指示がなかった時は、処理はステップS220に進み、連続音の選択がされていない場合は、ステップS230に進み、体験者の視線の移動があった場合は、その時の視線に応じた空間デ−タを表示し(ステップS231)、視線の移動が無ければ同じ空間デ−タの表示を続ける。一方、ステップS220で、連続音の選択有と判断した場合は、処理はステップS221に進み、連続音の再生を行い、つづいて、処理はステップS222に進み、体験者の視線の移動があった場合は、そのときの視線(頭の位置と向き)に応じた連続音の再生をし(ステップS223)、空間デ−タの表示を行う(ステップS224)。
【0048】
ステップS231またはステップS224の処理が終了するかまたはステップS230またはステップS222で視線の移動無しと判断した場合は、処理はステップS240に進み、手元磁気センサ−が検出する位置デ−タと接触部格納領域210に格納している接触部領域を示す位置デ−タとが一致したかどうかを判断し、一致有りの場合(接触した場合)は、該当する接触部領域に対応する衝撃音を再生する(ステップS241)。
【0049】
一方、ステップS240で一致無し(接触無し)の場合は、処理はステップS250に進み、マイク213からの音声入力がある場合は、入力音声を再生し、音声入力が無い場合は、ステップS210に戻る。
次に、連続音再生ステップS221、連続音再生の更新ステップS223、衝撃音再生ステップS241、音声再生ステップS251における処理手順の詳細について説明する。
【0050】
図20は、連続音再生ステップS221、連続音再生の更新ステップS223の処理手順の詳細を示すフローチャートである。
まず、頭部位置磁気センサ−203が検出する頭部位置を含む連続音受音点領域に対応した帯域応答(図16参照)を、選択されている音源種類毎に、読み込むと(ステップS2210)、処理はステップS2211に進み、音源毎に、帯域応答にドライソ−スと頭部伝達関数を畳み込み、つづいて、処理はステップS2212に進み、前ステップで各音源毎に求められた各周波数帯毎の応答を、同一周波数帯毎に合成し、つづいて、同一周波数帯毎に合成された応答を全周波数帯にわたって合成し、再生音デ−タを生成する(ステップS2213)。つづいて、処理はステップS2214に進み、前ステップで生成された再生音デ−タを音声に変換し、ヘッドフォンへ出力する(ステップS2215)。
【0051】
図21は、衝撃音再生ステップS241の処理手順の詳細を示すフローチャートである。
まず、前ステップS240で検出した一致位置を含む衝撃音音源領域とその時の頭部位置磁気センサ−203が検出する頭部位置を含む衝撃音受音点領域とから対応する帯域応答(図17参照)を読み込むと(ステップS2411)、処理はステップS2412に進み、読み込まれた帯域応答に、接触した仮想物体に対応したドライソ−ス(図14、15参照)と頭部伝達関数を畳み込み、つづいて、処理はステップS2413に進み、前ステップで求められた各周波数帯毎の応答を全周波数帯にわたって合成し、再生音デ−タを生成する。つづいて、処理はステップS2414に進み、前ステップで生成された再生音デ−タを音声に変換し、ヘッドフォンへ出力する(ステップS2415)。
【0052】
図22は、音声再生ステップS251の処理手順の詳細を示すフローチャートである。
まず、頭部位置磁気センサ−203が検出する頭部位置を含む体験者音声受音点領域から対応する帯域応答(図18参照)を読み込むと(ステップS2511)、処理はステップS2512に進み、読み込まれた帯域応答に、マイク213からの音声信号と頭部伝達関数を畳み込み、つづいて、処理はステップS2513に進み、前ステップで求められた各周波数帯毎の応答を全周波数帯にわたって合成し、再生音デ−タを生成する。つづいて、処理はステップS2514に進み、前ステップで生成された再生音デ−タを音声に変換し、ヘッドフォンへ出力する(ステップS2515)。
【0053】
なお、本実施例では、手元磁気センサ−を内蔵した手元入力装置を体験者が右手にもって、仮想空間内を移動することによって、体験者の右手と仮想物体とが接触した時の衝撃音を再生したが、磁気センサ−を体験者の体の別の部分に装着し、衝撃音ドライソ−ス格納部の内容を適宜変更した構成としてもよい。こうすることによって、体験者の体の別の部分が仮想物体に接触した時の衝撃音を再生することが可能となる。また、体験者の体に複数の磁気センサ−を装着する構成としてもよいことは言うまでもない。
【0054】
以上、第2実施例の擬似体験装置によれば、現実の空間では聞こえる、複数の音源からの音や、物体に体の一部が接触したときの衝撃音や、自分が発する声が、仮想空間における音として擬似体験者は聞くことができるので、聴覚的により高い没入感を得ることができる。
(第3実施例)
図23は、本発明の第3実施例にかかる擬似体験装置の全体構成図である。
【0055】
第3実施例は、第1実施例とは異なり、体験者は移動することなく、音声で指示することにより、ゴ−グル型立体表示装置に表示させる空間デ−タを変化させることができるよう工夫されている。
そのため、第3実施例は、第1実施例に対し、さらにマイク301、A/Dコンバ−タ302、入力音声パタ−ン一時記憶部303、基準音声パタ−ン格納部304、指示コ−ド一時記憶部305、指示量格納部306を備えており、第1実施例からは、磁気発生装置102、頭部磁気センサ−103、磁気センサ−ユニット106が省略された構成となっている。なお、第3実施例の説明に使用する図面等において、第1実施例と同様な構成のものについては同符号を付し、それらの説明については省略する。
【0056】
マイク301は、体験者Mの声を音声信号に変換し、A/Dコンバ−タ302へ出力する装置である。
A/Dコンバ−タ302は、マイク301からのアナログの音声信号をデジタル信号に変換しCPU113へ出力する装置である。
入力音声パタ−ン一時記憶部303は、マイク301から入力された1語分の音声波形を記憶するところであり、RAM等から構成される。
【0057】
基準音声パタ−ン格納部304は、図24に示すように、音声指示に使用される音声の波形を格納する基準音声パタ−ン記憶領域242と、その各々の音声波形に対応した指示コ−ドを格納する指示コ−ド格納領域243とを有している。例えば、242aには「まえ」と発音される音声の波形が格納されており、243aにはそれに対応した指示コ−ド「D1」が格納されているといった具合である。
【0058】
指示コ−ド一時記憶部305は、図25に示すように、前記入力音声パタ−ン一時記憶部303に記憶された音声波形に該当する指示コ−ドを各納するところであり、指示種類によって格納領域が定まっている。
指示量格納部306は、図26は、指示コ−ドまたはその組み合わせに対応した指示量を格納している。例えば、指示コ−ドV1(速く)に対しては速度v1が、指示コ−ドT1(少し)・A1(移動)に対しては距離m1が、指示コ−ドT2(たくさん)・A2(向く)に対しては角度a2が格納されているといった具合である。なお、指示種類「方向」に関する指示コ−ドD1〜D6については量とは無関係なので、本格納部には対応するデ−タは格納されていない。
【0059】
以下、図27に示すフローチャートに基づいて、本装置の制御内容について説明する。
まず、ゴ−グル型立体表示装置101に空間デ−タが表示された状態で(ステップS300)、体験者Mが音声入力すると(ステップS310)、処理はステップS320に進み、入力された音声の波形を入力音声パタ−ン一時記憶部303に記憶し、つづいて処理はステップS330に進み、記憶された波形に該当する波形を基準音声パタ−ン格納部304から検索する。
【0060】
ここで、該当する波形パタ−ンがなかった場合は(ステップS340)、処理は、ステップS310の手前へ戻り、音声入力待ち状態となる。一方、該当する波形があった場合は、処理はステップS350に進み、その波形の指示コ−ドを、指示コ−ド一時記憶部305の対応する指示種類の格納場所に格納する。
つづいて、処理はステップS360に進み、指示コ−ド一時記憶部305に、指示種類に対応した指示コ−ドが全て格納されたかどうかを判断し、されていない場合は、ステップS310の手前へ戻り、再び音声入力待ち状態となる。一方、すべてのコ−ドが格納されている場合は、処理はステップS370に進み、格納された指示コ−ドと指示量格納部306で対応する指示量とに応じた空間デ−タの表示の更新をおこなう。
【0061】
たとえば、体験者Mが、「まえ」、「ゆっくり」、「すこし」、「いどう」と音声入力したとすると、ステップS310〜ステップS360が繰り返され、指示コ−ド一時記憶部305には、図28に示すように、指示コ−ドが格納され、この状態で全てのコ−ドが格納されたことになるので、ゴ−グル型立体表示装置101には、「前に、速度v1で、距離m1」移動するときの空間デ−タが表示される。
【0062】
以上、第3実施例の擬似体験装置によれば、体験者は動き回ることなく、例えば椅子に腰掛けたままで、擬似体験をすることが可能となる。
【0063】
【発明の効果】
以上、本発明に係る上記第1の擬似体験装置によれば、体験者の視線が仮想主体の身体方向に向けられると、体験者の身体形状を模した仮想主体の形状デ−タが空間デ−タと重畳して立体表示装置に表示され、また、移動中に体験者の視線が仮想主体の身体方向に向けられると、一連の移動動作デ−タが空間デ−タと重畳して立体表示装置に表示されるので、視覚的により高い没入感を得られる。
【0065】
また、本発明に係る上記第2及び第3の擬似体験装置によれば、体験者の体の一部の位置と仮想物体の表面の位置とが一致すると、一致した仮想物体に対応したドライソ−スから生成した再生音デ−タが音声に変換され音場再生装置に出力されるので、聴覚的により高い没入感が得られる。
【0066】
また、本発明に係る上記第4及び第5の擬似体験装置によれば、音声入力手段から入力された音声から生成した再生音デ−タが音声に変換され音場再生装置に出力されるので、聴覚的により高い没入感が得られる。
【図面の簡単な説明】
【図1】第1実施例の擬似体験装置の全体構成を示す図である。
【図2】第1実施例における、主体選択メニュ−を示す図である。
【図3】第1、2実施例における、手元入力装置の外観形状を示す図である。
【図4】第1実施例における、主体静止形状デ−タ格納部の内容を示す図である。
【図5】第1実施例における、主体動作形状デ−タ格納部の内容を示す図である。
【図6】第1実施例における、主体形状一時記憶部の内容を示す図である。
【図7】第1実施例における、本装置の処理手順を示すフローチャートである。
【図8】第1実施例における、主体形状一時記憶部の記憶状態の内容を示す図である。
【図9】第1実施例における、ゴ−グル型立体表示装置の画面表示の一例を示す図である。
【図10】第1実施例における、ゴ−グル型立体表示装置の画面表示の一例を示す図である。
【図11】第1実施例における、ゴ−グル型立体表示装置の画面表示の一例を示す図である。
【図12】第2実施例の擬似体験装置の全体構成を示す図である。
【図13】第2実施例における、音源選択メニュ−を示す図である。
【図14】第2実施例における、接触部領域格納部の内容を示す図である。
【図15】第2実施例における、衝撃音ドライソ−ス格納部の内容を示す図である。
【図16】第2実施例における、連続音用帯域応答格納領域の内容を示す図である。
【図17】第2実施例における、衝撃音用帯域応答格納領域の内容を示す図である。
【図18】第2実施例における、体験者音声用帯域応答格納領域の内容を示す図である。
【図19】第2実施例における、本装置の処理手順を示すフローチャートである。
【図20】第2実施例における、本装置の処理手順を示すフローチャートである。
【図21】第2実施例における、本装置の処理手順を示すフローチャートである。
【図22】第2実施例における、本装置の処理手順を示すフローチャートである。
【図23】第3実施例の擬似体験装置の全体構成を示す図である。
【図24】第3実施例における、基準音声パタ−ン格納部304の内容を示す図である。
【図25】第3実施例における、指示コ−ド一時記憶部305の内容を示す図である。
【図26】第3実施例における、指示量格納部306の内容を示す図である。
【図27】第3実施例における、本装置の処理手順を示すフローチャートである。
【図28】第3実施例における、指示コ−ド一時記憶部305の記憶状態の一例を示す図である。
【符号の説明】
107 空間デ−タ格納部
108 主体静止形状デ−タ格納部
109 主体動作形状デ−タ格納部
110 主体形状一時記憶部
210 接触部領域格納部
211 連続音音源装置
212 衝撃音ドライソ−ス格納部
214 帯域応答格納部
215 頭部伝達関数格納部
303 入力音声パタ−ン一時記憶部
304 基準音声パタ−ン格納部[0001]
[Industrial applications]
The present invention relates to a virtual experience device.
[0002]
[Prior art]
In recent years, pseudo-experience devices based on so-called virtual reality technology have been spotlighted, and are used for housing design and sales of housing equipment.
For example, in a house design, a designed house is realized in a virtual space, and a design house is evaluated while obtaining a feeling of entering the space, so-called immersive feeling. In the case of selling system kitchens, the purchaser is asked to experience a plurality of system kitchens in a virtual space, and to select a desired one from among them.
[0003]
In a conventional simulated experience device, a goggle-type stereoscopic display device attached to the head of the experienced person responds to the gaze of the experienced person detected by a sensor integrally attached to the three-dimensional display device. I was drawing the surrounding virtual space.
[0004]
[Problems to be solved by the invention]
However, in the above-described conventional pseudo-experience device, when the user turns his or her gaze to his / her feet, the surrounding scene corresponding to the gaze is drawn, but his / her feet that should be visible there are not drawn. The experienced person has a feeling that he or she floats in the air, and therefore, there is a problem that an immersive feeling is impaired.
[0005]
SUMMARY OF THE INVENTION It is a first object of the present invention to provide a simulated experience device that can provide a visually higher immersion sensation in view of the above problems.
A second object of the present invention is to provide a pseudo-experience device capable of obtaining a higher auditory immersion sensation.
[0006]
[Means for Solving the Problems]
To achieve the first object,First of the present inventionIs a three-dimensional display device used by being attached to the head of the experienced person, space data storage means for storing three-dimensional data of a virtual space to be displayed by the three-dimensional display device, Detect the position and orientation of the head of the userFirstA second step of selecting predetermined spatial data based on the detecting means and the viewpoint position of the user determined from the detection result and displaying the selected spatial data on the display device;1 tableIndication control means, main body shape data storage means for storing shape data of the virtual subject imitating the body shape of the user, and the gaze of the user in the body direction of the virtual subject in accordance with the detection result of the detection means. When turned, the main shape data is read out from the main shape data storage means and superimposed on the spatial data and displayed on the stereoscopic display device.Table 2Indicating control meansThe main shape data storage means stores a series of moving operation data that changes with the moving operation for each type of shape data. Speed detecting means for detecting a moving speed in a space, and according to the moving speed of the user detected by the speed detecting means when the line of sight of the user is directed toward the body of the virtual subject according to the detection result of the detecting means. And third display control means for sequentially superimposing the movement data on the spatial data and displaying the data on the stereoscopic display device.It is characterized byYouYou.
[0011]
Also, in order to achieve the second object,Second embodiment of the present inventionSimulated experience deviceIn addition to the first pseudo experience device of the present invention,A sound field playback device attached to the head of the user and used in the background of the display target spaceTentativeA predetermined position on the surface of a virtual object is a sound source position, and an arbitrary position is a sound receiving point.WhenofGenerating means for generating reproduced sound data;No. to detect the position of a part of the body of the user2Detection means, and when the user moves in the virtual space,2When the position data detected by the detection means matches the position data of the virtual object,One testCorresponding to the position of the user's head determined from the detection resultReGenerates raw sound data,TheConverting reproduced sound data into sound and outputting the converted sound to the sound field reproducing device;I do.
Further, in order to achieve the second object, the third pseudo experience device of the present invention further comprises a sound field reproduction device used by being attached to the head of the experienced person in addition to the first pseudo experience device of the present invention. Apparatus and a band-pass filter for each frequency band in an eco-time pattern for each frequency band when a predetermined position on the surface of a virtual object existing in the background of the display target space is set as a sound source position and an arbitrary position is set as a sound receiving point Band response storage means for storing a response for each frequency band obtained by convolving the frequency domain, head-related transfer function storage means for storing a head-related transfer function, and anechoic acoustic data, which are stored in the virtual object. A second storage means for storing a plurality of corresponding dry sources; and a second detection means for detecting a position of a part of the body of the user, wherein the second detection is performed by the user moving in the virtual space. Detected by means When the placement data and the position data of the virtual object match, the position data matches the band response corresponding to the position of the head of the user determined from the detection result of the first detection means. The response for each frequency band is calculated by convolving the dry source corresponding to the virtual object and the head-related transfer function, and the reproduced sound data is generated by synthesizing the response for each frequency band over the entire frequency band. The reproduced sound data is converted into sound and output to the sound field reproducing device.
[0012]
Also, in order to achieve the second object,Fourth Embodiment of the Present InventionSimulated experience deviceIn addition to the first pseudo experience device of the present invention,A sound field reproducing device used by being attached to the head of the user, voice input means for inputting a voice near the mouth of the user, and a sound source position of the mouth of the user in the space, The points near both ears were set as sound receiving pointsWhenofGenerating means for generating reproduced sound data;Comprising the aboveFirstIt corresponds to the position of the user's head determined from the detection result of the detection means.ReGenerates raw sound data,TheConverting reproduced sound data into sound and outputting the converted sound to the sound field reproducing device;I do.
Further, in order to achieve the second object, the fifth pseudo experience device of the present invention further includes a sound field reproduction device used by being attached to the head of the user to be used in addition to the first pseudo experience device of the present invention. A device, voice input means for inputting voice near the mouth of the user, and each frequency band when the mouth of the user is a sound source position and the vicinity of both ears of the user is a sound receiving point in the space. Band response storage means for storing a response for each frequency band obtained by convolving the band-pass filter for each frequency band with the eco-time pattern, and head-related transfer function storage means for storing a head-related transfer function. A response for each frequency band by convolving the voice input from the voice input means and the head-related transfer function with the band response corresponding to the position of the head of the user determined from the detection result of the first detection means. And calculate each frequency Generate data, the reproduced sound de - - reproduced sound de by combining the response of each over the entire frequency band and outputs the convert the data into voice sound field reproducing apparatus.
[0014]
[Action]
The firstAccording to the configuration of the simulated experience device, when the gaze of the user is turned in the body direction of the virtual subject while the spatial data is displayed on the stereoscopic display device, the virtual subject imitating the body shape of the user is Shape data is superimposed on spatial data and displayed on a three-dimensional display deviceIn addition, when the user's line of sight is directed toward the body of the virtual subject while moving while the spatial data is displayed on the stereoscopic display device, a series of moving operation data is sequentially generated according to the moving speed. The data can be superimposed on the spatial data and displayed on the stereoscopic display device.Here, the “space” in the present specification includes not only a literally spacious space in which an object does not exist but a considerably wide space, but also a wall, a floor, and devices, devices, and the like provided in the background thereof. Used in the concept including.
[0017]
The second and third aboveAccording to the configuration of the simulated experience apparatus, when the position of a part of the body of the user and the position of the surface of the virtual object match, the dry source and the head transfer coefficient corresponding to the matched virtual object are determined by the user. The response for each frequency is calculated by convolving the band response for each sound source corresponding to the head position of, and the response for each frequency is synthesized over the entire frequency band to generate reproduced sound data. Converts data to sound and outputs it to sound field playback devicebe able to.
[0018]
The above fourth and fifthAccording to the configuration of the simulated experience device, the voice input from the voice input means and the head transfer coefficient are convolved with the band response corresponding to the head position of the user to calculate the response for each frequency, The reproduced sound data is generated by synthesizing the response for each frequency over the entire frequency band, and the reproduced sound data is converted into sound and output to the sound field reproducing device.be able to.
[0020]
【Example】
Embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is an overall configuration diagram of the simulation experience apparatus according to the first embodiment of the present invention. As shown in the figure, the virtual experience device includes a goggle type
[0021]
The goggle type
The
[0022]
The head
The main body selection
[0023]
The
[0024]
The
The space
[0025]
As shown in FIG. 4, the main body static shape
The subject movement shape
[0026]
As shown in FIG. 6, the main shape
[0027]
The display control unit 111 creates drawing data according to the line of sight of the user M based on the data stored in the space
[0028]
The
The
Hereinafter, the control contents of the present apparatus will be described based on the flowchart shown in FIG.
[0029]
With the spatial data displayed (step S100), when the user moves his / her gaze (step S110), the spatial data corresponding to the gaze at that time is displayed (step S111). If it does not move, the display of the same spatial data is continued. Then, if there is a menu display instruction from the user in step S120, the process proceeds to step S121, in which a subject selection menu similar to that shown in FIG. 2 is displayed.
[0030]
While looking at the display screen, the user operates the
[0031]
In step S130, it is determined from the head height detected by the head
[0032]
On the other hand, if it is determined in step S130 that the user is standing, the process proceeds to step S131, in which it is determined whether or not the line of sight of the user is in the body direction of the virtual subject. In this case, the process proceeds to step S132, and it is further determined whether the user is moving or stationary. The determination is made based on the value V of the moving speed of the user output from the
[0033]
Further, in step S122, "cat" is selected as another subject, and in a standing state (step S130), the look turns to the body direction of the virtual subject "cat" by turning around (step S133). Assuming that the user is stationary (step S132), the process of step S133 is performed, and the subject's static shape data in a state where the subject type "cat" stands is superimposed on the spatial data and displayed. FIG. 11 shows an example of the display result.
[0034]
As described above, according to the virtual experience apparatus of the first embodiment, when the user turns his or her gaze toward the body direction of the virtual subject, the shape data of the virtual subject according to the head height and the moving speed of the user at that time. Is displayed so as to be superimposed on the spatial data, so that a visually higher immersion feeling can be obtained.
(Second embodiment)
FIG. 12 is an overall configuration diagram of the simulation experience apparatus according to the second embodiment of the present invention. As shown in the figure, the pseudo experience device includes a goggle type
[0035]
The goggle type
The magnetic
[0036]
The head
The
[0037]
The sound source selection
As shown in FIG. 3, the
[0038]
The
The space data storage unit 208 stores three-dimensional shape data of a space including a room wall, a ceiling, a floor, a window, a table, and the like to be displayed.
[0039]
The right hand shape data storage unit 209 stores shape data imitating the right hand shape of the experienced person, and the right hand shape data is stored when the
As shown in FIG. 14, for each virtual object type displayed as a virtual space, the contact
[0040]
The continuous
[0041]
As shown in FIG. 15, the impact noise dry
The
[0042]
The band
[0043]
The head-related transfer function storage unit 215 is a function that represents a state in which the sound incident from the surroundings toward the head changes according to conditions such as the shape of the human head and the position of the ears. Stored.
The
[0044]
The
[0045]
The
The
Hereinafter, the control contents of the present apparatus will be described based on the flowcharts shown in FIGS.
[0046]
FIG. 19 is a flowchart showing an outline of the processing procedure.
When there is a menu display instruction in a state where the spatial data is displayed (step S200), a sound source selection menu similar to that shown in FIG. 13 is displayed (step S211).
In step S211, assuming that the user gives an instruction to select a sound source while looking at the display screen, a CD player corresponding to the selected sound source is activated (step S213). On the other hand, if the user instructs the deletion of the sound source, the CD player corresponding to the sound source instructed to delete is stopped (step S214). If the user gives an instruction to delete the menu display, the menu display is deleted (step S215).
[0047]
If the processing in the sound source selection menu display state is completed, or if no menu display instruction is given in step S210, the process proceeds to step S220. If a continuous sound is not selected, step S230 is performed. If there is a movement of the line of sight of the experienced person, space data corresponding to the line of sight at that time is displayed (step S231). If there is no movement of the line of sight, the display of the same space data is continued. On the other hand, if it is determined in step S220 that a continuous sound has been selected, the process proceeds to step S221, where a continuous sound is reproduced. Then, the process proceeds to step S222, and the user's line of sight has moved. In this case, a continuous sound is reproduced according to the line of sight (head position and direction) at that time (step S223), and spatial data is displayed (step S224).
[0048]
If the processing in step S231 or step S224 is completed, or if it is determined in step S230 or step S222 that there is no movement of the line of sight, the processing proceeds to step S240, where the position data detected by the magnetic sensor at hand and the contact portion are stored. It is determined whether or not the position data indicating the contact area stored in the
[0049]
On the other hand, if there is no match (no contact) in step S240, the process proceeds to step S250. If there is a voice input from
Next, details of the processing procedure in the continuous sound reproduction step S221, the continuous sound reproduction update step S223, the shock sound reproduction step S241, and the sound reproduction step S251 will be described.
[0050]
FIG. 20 is a flowchart showing details of the processing procedure of the continuous sound reproduction step S221 and the continuous sound reproduction update step S223.
First, the band response (see FIG. 16) corresponding to the continuous sound receiving point area including the head position detected by the head position
[0051]
FIG. 21 is a flowchart illustrating details of the processing procedure of the impact sound reproduction step S241.
First, a band response corresponding to the shock sound source area including the coincidence position detected in the previous step S240 and the shock sound receiving point area including the head position detected by the head position
[0052]
FIG. 22 is a flowchart showing details of the processing procedure of the audio reproduction step S251.
First, when a corresponding band response (see FIG. 18) is read from the experience-speaker sound receiving point area including the head position detected by the head position magnetic sensor 203 (step S2511), the process proceeds to step S2512, and the reading is performed. The speech signal from the
[0053]
In this embodiment, by moving the hand-held input device incorporating the hand-held magnetic sensor in the virtual space with the right hand of the user in the virtual space, the impulsive sound generated when the right hand of the user comes into contact with the virtual object is generated. Although the playback is performed, the magnetic sensor may be attached to another part of the body of the experienced person, and the content of the impact sound dry source storage unit may be appropriately changed. By doing so, it is possible to reproduce an impact sound when another part of the body of the user touches the virtual object. Needless to say, a configuration in which a plurality of magnetic sensors are attached to the body of the user is also possible.
[0054]
As described above, according to the simulated experience device of the second embodiment, sounds from a plurality of sound sources, impact sounds when a part of a body comes into contact with an object, and voices uttered by oneself are heard in a real space. Since the pseudo-experienced person can hear the sound in the space, a higher auditory immersion can be obtained.
(Third embodiment)
FIG. 23 is an overall configuration diagram of the simulation experience apparatus according to the third embodiment of the present invention.
[0055]
In the third embodiment, unlike the first embodiment, the user can change the spatial data displayed on the goggle type stereoscopic display device by giving an instruction by voice without moving. It is devised.
Therefore, the third embodiment is different from the first embodiment in that a
[0056]
The
The A /
The input voice pattern
[0057]
As shown in FIG. 24, the reference voice pattern storage unit 304 stores a reference voice
[0058]
As shown in FIG. 25, the instruction code
In FIG. 26, the instruction amount storage unit 306 stores an instruction amount corresponding to an instruction code or a combination thereof. For example, the speed v1 for the instruction code V1 (fast), the distance m1 for the instruction code T1 (slightly) and A1 (movement), and the instruction code T2 (many) and A2 ( For example, the angle a2 is stored with respect to (facing). Since the instruction codes D1 to D6 relating to the instruction type "direction" are not related to the quantity, the corresponding data is not stored in this storage unit.
[0059]
Hereinafter, the control contents of the present apparatus will be described based on the flowchart shown in FIG.
First, in a state where the spatial data is displayed on the goggle type stereoscopic display device 101 (step S300), when the user M inputs voice (step S310), the process proceeds to step S320, and the process proceeds to step S320. The waveform is stored in the input voice pattern
[0060]
Here, if there is no corresponding waveform pattern (step S340), the process returns to before step S310 to be in a state of waiting for voice input. On the other hand, if there is a corresponding waveform, the process proceeds to step S350, and the instruction code of the waveform is stored in the instruction code
Subsequently, the process proceeds to step S360, in which it is determined whether or not all the instruction codes corresponding to the instruction types are stored in the instruction code
[0061]
For example, assuming that the experience person M inputs voices of “before”, “slowly”, “slightly”, and “do”, steps S310 to S360 are repeated, and the instruction code
[0062]
As described above, according to the simulated experience apparatus of the third embodiment, the experienced person can perform the simulated experience without moving around, for example, while sitting on a chair.
[0063]
【The invention's effect】
that's all,BookAccording to the inventionThe firstAccording to the simulated experience device, when the line of sight of the user is directed in the body direction of the virtual subject, the shape data of the virtual subject simulating the body shape of the user is superimposed on the spatial data to be displayed on the stereoscopic display device. DisplayedAlso, when the user's line of sight is directed to the body direction of the virtual subject while moving, a series of moving operation data is displayed on the stereoscopic display device so as to be superimposed on the spatial data.So you can get a higher visual immersionYou.
[0065]
Also,BookAccording to the inventionThe second and thirdAccording to the simulated experience device, when the position of a part of the body of the user and the position of the surface of the virtual object match, the reproduced sound data generated from the dry source corresponding to the matched virtual object is converted into sound. And output to the sound field reproducing device, so that a higher auditory immersion can be obtained.
[0066]
Also,BookAccording to the inventionThe fourth and fifth aboveAccording to the simulated experience device, the reproduced sound data generated from the sound input from the sound input means is converted into sound and output to the sound field reproducing device, so that a higher auditory immersive feeling can be obtained.You.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating an overall configuration of a simulation experience apparatus according to a first embodiment.
FIG. 2 is a diagram showing a subject selection menu in the first embodiment.
FIG. 3 is a diagram showing an external shape of a hand-held input device in the first and second embodiments.
FIG. 4 is a diagram showing the contents of a main body static shape data storage unit in the first embodiment.
FIG. 5 is a diagram showing the contents of a main motion shape data storage unit in the first embodiment.
FIG. 6 is a diagram showing the contents of a main shape temporary storage unit in the first embodiment.
FIG. 7 is a flowchart illustrating a processing procedure of the present apparatus in the first embodiment.
FIG. 8 is a diagram illustrating the contents of a storage state of a temporary shape storage unit according to the first embodiment.
FIG. 9 is a diagram showing an example of a screen display of the goggle type stereoscopic display device in the first embodiment.
FIG. 10 is a diagram showing an example of a screen display of the goggle type stereoscopic display device in the first embodiment.
FIG. 11 is a diagram showing an example of a screen display of the goggle type stereoscopic display device in the first embodiment.
FIG. 12 is a diagram illustrating an overall configuration of a simulation experience apparatus according to a second embodiment.
FIG. 13 is a diagram showing a sound source selection menu in the second embodiment.
FIG. 14 is a diagram showing the contents of a contact area storage unit in the second embodiment.
FIG. 15 is a diagram showing the contents of an impact sound dry source storage unit in the second embodiment.
FIG. 16 is a diagram showing contents of a continuous sound band response storage area in the second embodiment.
FIG. 17 is a diagram showing the contents of an impact sound band response storage area in the second embodiment.
FIG. 18 is a diagram showing the contents of a band response storage area for a user's voice in the second embodiment.
FIG. 19 is a flowchart showing a processing procedure of the present apparatus in the second embodiment.
FIG. 20 is a flowchart illustrating a processing procedure of the present apparatus in the second embodiment.
FIG. 21 is a flowchart illustrating a processing procedure of the present apparatus in the second embodiment.
FIG. 22 is a flowchart illustrating a processing procedure of the present apparatus in the second embodiment.
FIG. 23 is a diagram illustrating an overall configuration of a simulation experience apparatus according to a third embodiment.
FIG. 24 is a diagram showing the contents of a reference voice pattern storage section 304 in the third embodiment.
FIG. 25 is a diagram showing the contents of an instruction code
FIG. 26 is a diagram showing the contents of an indicated amount storage unit 306 in the third embodiment.
FIG. 27 is a flowchart showing a processing procedure of the present apparatus in the third embodiment.
FIG. 28 is a diagram illustrating an example of a storage state of an instruction code
[Explanation of symbols]
107 Spatial data storage
108 Main static shape data storage unit
109 Main operation shape data storage unit
110 Temporary shape storage unit
210 Contact area storage
211 Continuous sound source device
212 Impact sound dry source storage unit
214 Band response storage
215 Head related transfer function storage
303 Input voice pattern temporary storage unit
304 Reference voice pattern storage unit
Claims (5)
立体表示装置の表示対象となる仮想空間の3次元デ−タを格納する空間デ−タ格納手段と、
体験者の頭部の位置及び向きを検出する第1検出手段と、
検出結果から定まる体験者の視点位置をもとに所定の空間デ−タを選択し表示装置に表示させる第1表示制御手段と、
体験者の身体形状を模した仮想主体の形状デ−タを格納する主体形状デ−タ格納手段と、
検出手段の検出結果に従い、体験者の視線が仮想主体の身体方向に向けられると、主体形状デ−タを主体形状デ−タ格納手段から読み出し、空間デ−タと重畳して立体表示装置にて表示する第2表示制御手段とを備え、
前記主体形状デ−タ格納手段は、形状デ−タ種別毎に、移動動作に伴って変化する一連の移動動作デ−タを格納しており、
当該擬似体験装置は、さらに、
体験者の前記空間内での移動速度を検出する速度検出手段と、
前記検出手段の検出結果に従い、体験者の視線が仮想主体の身体方向に向けられると、前記速度検出手段で検出された体験者の移動速度に応じて、前記移動動作デ−タを順次前記空間デ−タと重畳して立体表示装置にて表示する第3表示制御手段と
を備えることを特徴とする擬似体験装置。A three-dimensional display device attached to the head of the experience person and used,
Space data storage means for storing three-dimensional data of a virtual space to be displayed by the three-dimensional display device;
First detection means for detecting the position and orientation of the experience person's head;
Experience's viewpoint position predetermined space de on the basis of the determined from the detection result - a first table示制control means for displaying on the select data display device,
Main body shape data storage means for storing virtual main body shape data imitating the body shape of the experienced person;
When the line of sight of the user is directed in the body direction of the virtual subject in accordance with the detection result of the detecting means, the subject shape data is read out from the subject shape data storage means, and is superimposed on the spatial data to be superimposed on the spatial display device. and a second table示制control means for displaying Te,
The main shape data storage means stores a series of moving operation data that changes with the moving operation for each type of shape data.
The simulated experience device further includes:
Speed detecting means for detecting a moving speed of the experience person in the space;
According to the detection result of the detecting means, when the gaze of the user is directed toward the body of the virtual subject, the moving operation data is sequentially transmitted to the space according to the moving speed of the user detected by the speed detecting means. Third display control means for superimposing the data and displaying the data on the stereoscopic display device;
Pseudo experience apparatus comprising: a.
体験者の頭部に取り付けられて使用される音場再生装置と、
表示対象空間の背景に存する仮想物体の表面における所定位置を音源位置とし任意の位置を受音点としたときの再生音データを生成する生成手段と、
体験者の体の一部の位置を検出する第2検出手段とを備え、
体験者が仮想空間内を移動することにより、第2検出手段によって検出される位置デ−タと前記仮想物体の位置デ−タとが一致した際に、前記第1検出手段の検出結果から定まる体験者の頭部の位置に対応した再生音デ−タを生成し、当該再生音デ−タを音声に変換して前記音場再生装置に出力すること
を特徴とする請求項1に記載の擬似体験装置。 The simulated experience device further includes:
A sound field playback device attached to the head of the experience person and used,
Generating means for generating reproduced sound data when an arbitrary position and sound source position a predetermined position on the surface of the virtual object that Sons behind the display target space was sound receiving point,
Second detection means for detecting the position of a part of the body of the user,
By viewer moves in the virtual space, a position de detected by the second detecting means - data and position data of the virtual object - when the data and matches, from the detection result of the first detecting means determined viewer of playback sound de corresponding to the position of the head - to generate data, the reproduced sound de - the data to claim 1, characterized in that for converting the voice into the sound field reproducing apparatus The simulated experience device described.
体験者の頭部に取り付けられて使用される音場再生装置と、 A sound field playback device attached to the head of the experience person and used,
表示対象空間の背景に存する仮想物体の表面における所定位置を音源位置とし任意の位置を受音点としたときの各周波数帯毎のエコ−タイムパターンに各周波数帯毎のバンドパスフィルタを畳み込むことによって得られる各周波数帯毎の応答を格納した帯域応答格納手段と、 Convolving a band-pass filter for each frequency band with the eco-time pattern for each frequency band when a predetermined position on the surface of the virtual object in the background of the display target space is a sound source position and an arbitrary position is a sound receiving point. Band response storage means for storing a response for each frequency band obtained by
頭部伝達関数を格納する頭部伝達関数格納手段と、 Head-related transfer function storage means for storing a head-related transfer function,
無響音の音響デ−タであり、前記仮想物体に対応したドライソ−スを複数格納するドライソ−ス格納手段と、 Dry source storage means for storing a plurality of dry sources corresponding to the virtual object, the sound data being anechoic sound data;
体験者の体の一部の位置を検出する第2検出手段とを備え、 Second detection means for detecting the position of a part of the body of the user,
体験者が仮想空間内を移動することにより、第2検出手段によって検出される位置デ−タと前記仮想物体の位置デ−タとが一致した際に、前記第1検出手段の検出結果から定まる体験者の頭部の位置に対応した前記帯域応答に位置デ−タが一致した仮想物体に対応したドライソ−スと頭部伝達関数とを畳み込むことにより各周波数帯毎の応答を算出し、各周波数帯毎の応答を全周波数帯にわたって合成することによって再生音デ−タを生成し、前記再生音デ−タを音声に変換して前記音場再生装置に出力すること When the position data detected by the second detecting means coincides with the position data of the virtual object by moving the user in the virtual space, the position data is determined from the detection result of the first detecting means. By convolving the dry source corresponding to the virtual object whose position data coincides with the band response corresponding to the position of the head of the user and the head-related transfer function, the response for each frequency band is calculated. Generating reproduced sound data by synthesizing the response for each frequency band over the entire frequency band, converting the reproduced sound data into sound, and outputting the sound to the sound field reproducing device;
を特徴とする請求項1に記載の擬似体験装置。 The simulated experience device according to claim 1, wherein:
体験者の頭部に取り付けられて使用される音場再生装置と、
体験者の口元近くでの音声を入力する音声入力手段と、
前記空間内において、体験者の口元を音源位置とし体験者の両耳の近傍を受音点としたときの再生音データを生成する生成手段とを備え、
前記第1検出手段の検出結果から定まる体験者の頭部の位置に対応した再生音デ−タを生成し、当該再生音デ−タを音声に変換して前記音場再生装置に出力すること
を特徴とする請求項1に記載の擬似体験装置。 The simulated experience device further includes:
A sound field playback device attached to the head of the experience person and used,
Voice input means for inputting voice near the mouth of the user,
In the space, generating means for generating reproduction sound data when the mouth of the user is a sound source position and the vicinity of both ears of the user is a sound receiving point,
The first playback sound de corresponding to the position of the viewer's head determined from the detection result of the detecting means - to generate data, the reproduced sound de - converts the data into voice to the sound field reproduction apparatus The simulated experience device according to claim 1, wherein:
体験者の頭部に取り付けられて使用される音場再生装置と、 A sound field playback device attached to the head of the experience person and used,
体験者の口元近くでの音声を入力する音声入力手段と、 Voice input means for inputting voice near the mouth of the user,
前記空間内において、体験者の口元を音源位置とし体験者の両耳の近傍を受音点とした時の各周波数帯毎のエコ−タイムパターンに各周波数帯毎のバンドパスフィルタを畳み込むことによって得られる各周波数帯毎の応答を格納した帯域応答格納手段と、頭部伝達関数を格納する頭部伝達関数格納手段とを備え、 By convolving the band-pass filter for each frequency band with the eco-time pattern for each frequency band when the mouth of the user is a sound source position and the vicinity of both ears of the user is a sound receiving point in the space, A band response storage unit that stores the obtained response for each frequency band, and a head-related transfer function storage unit that stores a head-related transfer function,
前記第1検出手段の検出結果から定まる体験者の頭部の位置に対応した前記帯域応答に前記音声入力手段から入力された音声と頭部伝達関数を畳み込むことにより各周波数帯毎の応答を算出し、各周波数帯毎の応答を全周波数帯にわたって合成することによって再生音デ−タを生成し、前記再生音デ−タを音声に変換して前記音場再生装置に出力すること Calculate the response for each frequency band by convolving the voice input from the voice input means and the head-related transfer function with the band response corresponding to the position of the head of the user determined from the detection result of the first detection means. Generating reproduced sound data by synthesizing the response for each frequency band over the entire frequency band, converting the reproduced sound data into sound, and outputting the sound to the sound field reproducing device.
を特徴とする請求項1に記載の擬似体験装置。 The simulated experience device according to claim 1, wherein:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11989795A JP3575868B2 (en) | 1995-05-18 | 1995-05-18 | Simulated experience device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11989795A JP3575868B2 (en) | 1995-05-18 | 1995-05-18 | Simulated experience device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH08315175A JPH08315175A (en) | 1996-11-29 |
JP3575868B2 true JP3575868B2 (en) | 2004-10-13 |
Family
ID=14772936
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP11989795A Expired - Lifetime JP3575868B2 (en) | 1995-05-18 | 1995-05-18 | Simulated experience device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3575868B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4355512B2 (en) | 2003-04-17 | 2009-11-04 | 任天堂株式会社 | Image processing apparatus and image processing program |
JP4760344B2 (en) * | 2005-12-01 | 2011-08-31 | パナソニック電工株式会社 | Virtual space experience system |
JP6623199B2 (en) * | 2017-09-28 | 2019-12-18 | 株式会社コロプラ | Computer-executable program and information processing apparatus for providing virtual reality using a head-mounted device |
-
1995
- 1995-05-18 JP JP11989795A patent/JP3575868B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPH08315175A (en) | 1996-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112567767B (en) | Spatial audio for interactive audio environments | |
Serafin et al. | Sonic interactions in virtual reality: State of the art, current challenges, and future directions | |
JP4225567B2 (en) | Spatial access method for time-based information | |
CN107277736B (en) | Simulation system, sound processing method, and information storage medium | |
CN109416585A (en) | Virtually, enhancing and mixed reality | |
TWI268797B (en) | Game software and game machine | |
JP6055651B2 (en) | Information processing system, information processing program, information processing control method, and information processing apparatus | |
Wersenyi | Virtual localization by blind persons | |
JPH09190278A (en) | Selecting device for operation system of equipment | |
CN113196390A (en) | Perception system based on hearing and use method thereof | |
US20090141905A1 (en) | Navigable audio-based virtual environment | |
Sodnik et al. | Spatial auditory human-computer interfaces | |
KR20050085017A (en) | Audio based data representation apparatus and method | |
JP3575868B2 (en) | Simulated experience device | |
Kawazoe et al. | Tactile echoes: Multisensory augmented reality for the hand | |
Röber et al. | Interacting With Sound: An Interaction Paradigm for Virtual Auditory Worlds. | |
JPH0546193A (en) | Reflected sound extraction device | |
CN113825069A (en) | Audio playing system | |
JP6603734B2 (en) | GAME PROGRAM AND GAME DEVICE | |
JP2004145349A (en) | Product presentation equipment | |
JPH08263698A (en) | Environmental experience simulator | |
JP3374484B2 (en) | Video game equipment | |
KR0141357B1 (en) | Educational album for toddlers | |
CN101960849A (en) | Broadcast system, transmission device, transmission method, reception device, reception method, presentation device, presentation method, program, and recording medium | |
Serafin et al. | Sonic Interactions in Virtual Reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040302 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040427 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040615 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040706 |
|
R150 | Certificate of patent (=grant) or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20070716 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080716 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090716 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090716 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100716 Year of fee payment: 6 |