JPH08315175A - Virtual reality device - Google Patents

Virtual reality device

Info

Publication number
JPH08315175A
JPH08315175A JP11989795A JP11989795A JPH08315175A JP H08315175 A JPH08315175 A JP H08315175A JP 11989795 A JP11989795 A JP 11989795A JP 11989795 A JP11989795 A JP 11989795A JP H08315175 A JPH08315175 A JP H08315175A
Authority
JP
Japan
Prior art keywords
data
head
sound
experience
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11989795A
Other languages
Japanese (ja)
Other versions
JP3575868B2 (en
Inventor
Tsuneko Okada
常子 岡田
Mayumi Sakai
麻友美 酒井
Sachio Nagamitsu
左千男 長光
Hisashi Kodama
久 児玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP11989795A priority Critical patent/JP3575868B2/en
Publication of JPH08315175A publication Critical patent/JPH08315175A/en
Application granted granted Critical
Publication of JP3575868B2 publication Critical patent/JP3575868B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PURPOSE: To provide a virtual reality device by which a feeling of visually and auditorily deeper immersion can be obtained. CONSTITUTION: While spatial data read out of a spatial data storage part 107 are displayed on a goggle type stereoscopic display device 101, a person who is experiencing the virtual reality looks at a virtual entity and then shape data corresponding to the head height and moving speed of the person at the time are superimposed on the spatial data by using shape data on the virtual entity which are read out of an entity still shape data storage part 108 and an entity operation shape data storage part 109 and stored in an entity shape temporary storage part 110.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、擬似体験装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a simulated experience device.

【0002】[0002]

【従来の技術】最近、いわゆるバ−チャルリアリティ技
術による擬似体験装置が脚光を浴びてきており、住宅設
計や住宅設備販売等に利用されている。例えば、住宅設
計においては、設計した住宅を仮想空間内に実現し、あ
たかもその空間に入り込んだような感覚、いわゆる没入
感を得ながら、設計住宅の評価をしたり、また、住宅設
備販売、たとえばシステムキッチンの販売であれば、購
入予定者に、複数のシステムキッチンを仮想空間内で体
験してもらい、その中から希望のものを選択してもらっ
たりといった具合である。
2. Description of the Related Art Recently, a simulated experience device based on so-called virtual reality technology has been in the limelight and is used for designing houses and selling house equipment. For example, in designing a house, the designed house is realized in a virtual space, and while evaluating the designed house while getting the feeling of being in the space, that is, immersive feeling, and selling the housing equipment, for example, In the case of selling system kitchens, the prospective purchaser can experience multiple system kitchens in a virtual space and select the desired one from them.

【0003】従来の擬似体験装置では、体験者の頭部に
取り付けられたゴ−グル型の立体表示装置に、立体表示
装置に一体的に取り付けられたセンサ−によって検出さ
れる体験者の視線に応じた、周囲の仮想的な空間を描画
していた。
In the conventional simulated experience device, a goggle type stereoscopic display device attached to the head of the experience person has a line of sight of the experience person detected by a sensor integrally attached to the stereoscopic display device. According to the drawing, the surrounding virtual space was drawn.

【0004】[0004]

【発明が解決しようとする課題】しかし、上述した従来
の擬似体験装置では、体験者が自分の足元に視線を向け
た場合、視線に応じた周囲の情景は描画されるものの、
そこに見えるはずの自分の足は描画されないので、体験
者は空中に浮いたような感覚を持ち、そのため、没入感
が損なわれるといった問題点があった。
However, in the above-described conventional pseudo experience device, when the experience person turns his or her gaze toward his or her feet, the surrounding scene is drawn according to the gaze,
Since the person's feet, which should be seen there, are not drawn, the experience person feels as if they were floating in the air, which impairs the immersive feeling.

【0005】本発明は、上記の問題点に鑑み、視覚的に
より高い没入感を得ることができる擬似体験装置を提供
することを第1の目的とする。本発明の第2の目的は、
聴覚的により高い没入感を得ることができる擬似体験装
置を提供することにある。
In view of the above problems, it is a first object of the present invention to provide a simulated experience device capable of visually obtaining a higher sense of immersion. The second object of the present invention is to
It is an object of the present invention to provide a simulated experience device that can provide a higher sense of immersion.

【0006】[0006]

【課題を解決するための手段】上記第1の目的を達成す
るため、請求項1記載の擬似体験装置は、体験者の頭部
に取り付けられて使用される立体表示装置と、立体表示
装置の表示対象となる仮想空間の3次元デ−タを格納す
る空間デ−タ格納手段と、体験者の頭部の位置及び向き
を検出する検出手段と、検出結果から定まる体験者の視
点位置をもとに所定の空間デ−タを選択し表示装置に表
示させる第1の表示制御手段と、体験者の身体形状を模
した仮想主体の形状デ−タを格納する主体形状デ−タ格
納手段と、検出手段の検出結果に従い、体験者の視線が
仮想主体の身体方向に向けられると、主体形状デ−タを
主体形状デ−タ格納手段から読み出し、空間デ−タと重
畳して立体表示装置にて表示する第2の表示制御手段と
を備えていることを特徴としている。
In order to achieve the first object, a simulated experience device according to claim 1 is a stereoscopic display device mounted on a head of a user and used, and a stereoscopic display device of the stereoscopic display device. The spatial data storage means for storing the three-dimensional data of the virtual space to be displayed, the detection means for detecting the position and orientation of the head of the experiencer, and the viewpoint position of the experiencer determined from the detection result are also included. A first display control means for selecting a predetermined space data and displaying it on a display device; and a main body shape data storage means for storing the shape data of a virtual main body simulating the body shape of the experiencer. According to the detection result of the detection means, when the sight line of the experience person is directed to the body direction of the virtual subject, the main body shape data is read from the main body shape data storage means and superposed on the spatial data, thereby providing a stereoscopic display device. And second display control means for displaying It is characterized.

【0007】また、上記第1の目的を達成するため、請
求項2記載の擬似体験装置は、請求項1記載の擬似体験
装置に対して、主体形状デ−タ格納手段は、動物の種
類、雌雄の別等複数の身体形状を模した仮想主体の形状
デ−タも格納しており、前記主体形状デ−タ格納手段に
格納されている複数種類の形状デ−タの内の一つを選択
する選択手段を備え、第2の表示制御手段は、検出手段
の検出結果に従い、体験者の視線が仮想主体の身体方向
に向けられると、前記選択手段で選択された主体形状デ
−タを主体形状デ−タ格納手段から読み出し、空間デ−
タと重畳して立体表示装置にて表示することを特徴とし
ている。
Further, in order to achieve the first object, the simulated experience device according to claim 2 is different from the simulated experience device according to claim 1 in that the main shape data storage means has a type of animal, Shape data of a virtual subject imitating a plurality of body shapes such as male and female are also stored, and one of a plurality of types of shape data stored in the subject shape data storage means is stored. The second display control means is provided with a selecting means for selecting, and according to the detection result of the detecting means, when the sight line of the experience person is directed to the body direction of the virtual subject, the subject shape data selected by the selecting means is displayed. Spatial data is read from the main shape data storage means.
The feature is that it is displayed on a stereoscopic display device in a manner superimposed on the data.

【0008】また、上記第1の目的を達成するため、請
求項3記載の擬似体験装置は、請求項1または請求項2
記載の擬似体験装置に対して、主体形状デ−タ格納手段
は、形状デ−タ種別毎に、体験者の頭部高さで決定され
る姿勢状態を表す姿勢デ−タを複数格納しており、第2
の表示制御手段は、検出手段の検出結果に従い、体験者
の視線が仮想主体の身体方向に向けられると、その時の
頭部高さに応じた姿勢デ−タを主体形状デ−タ格納手段
から読み出し、空間デ−タと重畳して立体表示装置にて
表示することを特徴としている。
Further, in order to achieve the first object, the simulated experience device according to claim 3 is the claim 1 or claim 2.
In the simulated experience device, the subject shape data storage means stores a plurality of posture data representing the posture state determined by the height of the head of the experience person for each shape data type. Cage, second
According to the detection result of the detecting means, when the sight line of the experience person is directed toward the body of the virtual subject, the display control means of the subject displays posture data corresponding to the head height at that time from the subject shape data storing means. It is characterized in that it is read out and superposed on the spatial data and displayed on a stereoscopic display device.

【0009】また、上記第1の目的を達成するため、請
求項4記載の擬似体験装置は、請求項1または請求項2
記載の擬似体験装置に対して、主体形状デ−タ格納手段
は、形状デ−タ種別毎に、移動動作に伴って変化する一
連の移動動作デ−タを格納しており、体験者の空間内で
の移動速度を検出する速度検出手段と、検出手段の検出
結果に従い、体験者の視線が仮想主体の身体方向に向け
られると、前記速度検出手段で検出された体験者の移動
速度に応じて、前記移動動作デ−タを順次空間デ−タと
重畳して立体表示装置にて表示する第3の表示制御手段
とを備えていることを特徴としている。
Further, in order to achieve the first object, the simulated experience device according to claim 4 is claim 1 or claim 2.
In the simulated experience device described above, the main shape data storage means stores a series of movement motion data that changes with the movement motion for each shape data type, and the space of the experience person is stored. In accordance with the speed detecting means for detecting the moving speed in the inside and the detection result of the detecting means, when the sight line of the experience person is directed to the body direction of the virtual subject, depending on the movement speed of the experience person detected by the speed detecting means And a third display control means for sequentially superimposing the moving operation data on the spatial data and displaying the same on the stereoscopic display device.

【0010】また、上記第2の目的を達成するため、請
求項5記載の擬似体験装置は、体験者の頭部に取り付け
られて使用される立体表示装置と、立体表示装置の表示
対象となる仮想空間の3次元デ−タを格納する空間デ−
タ格納手段と、体験者の頭部の位置及び向きを検出する
検出手段と、検出結果から定まる体験者の視点位置をも
とに所定の空間デ−タを選択し表示装置に表示させる表
示制御手段と、体験者の頭部に取り付けられて使用され
る音場再生装置と、前記空間内の複数の位置を音源位置
とし任意の位置を受音点とした時の各周波数帯毎のエコ
−タイムパタ−ンに各周波数帯毎のバンドパスフィルタ
を畳み込むことによって得られる各周波数帯毎の応答を
格納した帯域応答格納手段と、頭部伝達係数を格納する
頭部伝達係数格納手段と、無響音の音響デ−タであり、
前記音源位置に対応したドライソ−スを複数格納するド
ライソ−ス格納手段とを備え、各音源毎に、前記検出手
段の検出結果から定まる体験者の頭部の位置を前記空間
中における受音点とし、その位置に対応した前記帯域応
答にドライソ−スと頭部伝達係数を畳み込むことにより
各音源の各周波数帯毎の応答を算出し、各音源の各周波
数帯毎の応答を同一周波数帯毎に合成した後に、全周波
数帯にわたって合成することによって再生音デ−タを生
成し、前記再生音デ−タを音声に変換して前記音場再生
装置に出力することを特徴としている。
In order to achieve the second object, the simulated experience device according to claim 5 is a stereoscopic display device that is used by being attached to the head of the experience person, and is a display target of the stereoscopic display device. Spatial data for storing three-dimensional data in virtual space
Data storage means, detection means for detecting the position and orientation of the head of the experience person, and display control for selecting and displaying predetermined spatial data on the display device based on the viewpoint position of the experience person determined from the detection result. Means, a sound field reproducing device used by being attached to the head of an experience person, and an eco-mode for each frequency band when a plurality of positions in the space are sound source positions and arbitrary positions are sound receiving points. Band response storage means for storing the response for each frequency band obtained by convolving the band pass filter for each frequency band in the time pattern, head-related transfer coefficient storage means for storing the head-related transfer coefficient, and anechoic Sound data of sound,
A dry source storing means for storing a plurality of dry sources corresponding to the sound source positions, and for each sound source, the position of the head of the experience person determined from the detection result of the detecting means is the sound receiving point in the space. Then, the response for each frequency band of each sound source is calculated by convolving the dry source and the head-related transfer coefficient to the band response corresponding to that position, and the response for each frequency band of each sound source is calculated for each same frequency band. After that, the reproduced sound data is generated by synthesizing over the entire frequency band, and the reproduced sound data is converted into a sound and output to the sound field reproducing device.

【0011】また、上記第2の目的を達成するため、請
求項6記載の擬似体験装置は、体験者の頭部に取り付け
られて使用される立体表示装置と、立体表示装置の表示
対象となる仮想空間の3次元デ−タを格納する空間デ−
タ格納手段と、体験者の頭部の位置及び向きを検出する
第1の検出手段と、検出結果から定まる体験者の視点位
置をもとに所定の空間デ−タを選択し表示装置に表示さ
せる表示制御手段と、体験者の頭部に取り付けられて使
用される音場再生装置と、表示対象空間の背景に存する
壁、家具、窓等の仮想物体の表面における所定位置を音
源位置とし任意の位置を受音点とした時の各周波数帯毎
のエコ−タイムパタ−ンに各周波数帯毎のバンドパスフ
ィルタを畳み込むことによって得られる各周波数帯毎の
応答を格納した帯域応答格納手段と、頭部伝達係数を格
納する頭部伝達係数格納手段と、無響音の音響デ−タで
あり、前記仮想物体に対応したドライソ−スを複数格納
するドライソ−ス格納手段と、体験者の体の一部の位置
を検出する第二の検出手段とを備え、体験者が仮想空間
内を移動することにより、第二の検出手段によって検出
される位置デ−タと前記仮想物体の位置デ−タとが一致
した際に、前記第1の検出手段の検出結果から定まる体
験者の頭部の位置に対応した前記帯域応答に位置デ−タ
が一致した仮想物体に対応したドライソ−スと頭部伝達
関数とを畳み込むことにより各周波数帯毎の応答を算出
し、各周波数帯毎の応答を全周波数帯にわたって合成す
ることによって再生音デ−タを生成し、前記再生音デ−
タを音声に変換して前記音場再生装置に出力することを
特徴としている。
Further, in order to achieve the second object, the simulated experience device according to claim 6 is a stereoscopic display device which is used by being attached to a head of an experience person, and a display target of the stereoscopic display device. Spatial data for storing three-dimensional data in virtual space
Data storage means, a first detection means for detecting the position and orientation of the head of the experience person, and a predetermined space data is selected and displayed on the display device based on the viewpoint position of the experience person determined from the detection result. Display control means, a sound field reproducing device attached to the head of the user, and a sound source position at a predetermined position on the surface of a virtual object such as a wall, furniture, or window existing in the background of the display target space. Band response storage means for storing the response for each frequency band obtained by convolving the band pass filter for each frequency band in the eco-time pattern for each frequency band when the position of is the sound receiving point, Head-related transfer coefficient storage means for storing the head-related transfer coefficient, dry sound storage means for storing a plurality of dry sources corresponding to the virtual object, which is acoustic data of anechoic sound, and a body of an experience person. The second part to detect the position of The first means when the position data detected by the second detection means and the position data of the virtual object coincide with each other when the experience person moves in the virtual space. By convolving a head-related transfer function with a dry source corresponding to a virtual object whose position data matches the band response corresponding to the position of the head of the experience person determined by the detection result of The reproduced sound data is generated by calculating the response for each frequency and synthesizing the response for each frequency band over the entire frequency band.
It is characterized in that the data is converted into voice and output to the sound field reproducing device.

【0012】また、上記第2の目的を達成するため、請
求項7記載の擬似体験装置は、体験者の頭部に取り付け
られて使用される立体表示装置と、立体表示装置の表示
対象となる仮想空間の3次元デ−タを格納する空間デ−
タ格納手段と、体験者の頭部の位置及び向きを検出する
検出手段と、検出結果から定まる体験者の視点位置をも
とに所定の空間デ−タを選択し表示装置に表示させる表
示制御手段と、体験者の頭部に取り付けられて使用され
る音場再生装置と、体験者の口元近くでの音声を入力す
る音声入力手段と、前記空間内において、体験者の口元
を音源位置とし体験者の両耳の近傍を受音点とした時の
各周波数帯毎のエコ−タイムパタ−ンに各周波数帯毎の
バンドパスフィルタを畳み込むことによって得られる各
周波数帯毎の応答を格納した帯域応答格納手段と、頭部
伝達係数を格納する頭部伝達係数格納手段とを備え、前
記検出手段の検出結果から定まる体験者の頭部の位置に
対応した前記帯域応答に前記音声入力手段から入力され
た音声と頭部伝達係数を畳み込むことにより各周波数帯
毎の応答を算出し、各周波数帯毎の応答を全周波数帯に
わたって合成することによって再生音デ−タを生成し、
前記再生音デ−タを音声に変換して前記音場再生装置に
出力することを特徴としている。
Further, in order to achieve the second object, the simulated experience device according to claim 7 is a stereoscopic display device which is attached to a head of a user and used, and a display target of the stereoscopic display device. Spatial data for storing three-dimensional data in virtual space
Data storage means, detection means for detecting the position and orientation of the head of the experience person, and display control for selecting and displaying predetermined spatial data on the display device based on the viewpoint position of the experience person determined from the detection result. Means, a sound field reproducing device used by being attached to the head of the experience person, voice input means for inputting a sound near the mouth of the experience person, and the mouth of the experience person as the sound source position in the space. A band that stores the response for each frequency band obtained by convolving the bandpass filter for each frequency band into the eco-time pattern for each frequency band when the vicinity of both ears of the experienced person is the sound receiving point. A response storage means and a head-related transfer coefficient storage means for storing a head-related transfer coefficient are provided, and the band response corresponding to the position of the experiencer's head determined from the detection result of the detection means is input from the voice input means. Voice and head communication Generates data, - calculating a response for each frequency band by convoluting number, playback sound de by the response for each frequency band is synthesized over the entire frequency band
It is characterized in that the reproduced sound data is converted into voice and outputted to the sound field reproducing device.

【0013】また、上記第1の目的を達成するため、請
求項8記載の擬似体験装置は、請求項1記載の擬似体験
装置に対して、複数の音声波形とその各々に対応した指
示情報とを格納する基準音声パタ−ン格納部を備え、検
出手段は、体験者の発する音声の波形と基準音声パタ−
ン格納部の格納内容とから指示情報を検出する検出手段
であることを特徴としている。
In order to achieve the first object, the simulated experience device according to claim 8 is different from the simulated experience device according to claim 1 in that a plurality of voice waveforms and instruction information corresponding to each of them are provided. And a reference voice pattern storage unit for storing the reference voice pattern.
It is characterized by a detection means for detecting the instruction information from the content stored in the storage unit.

【0014】[0014]

【作用】請求項1記載の擬似体験装置の構成によれば、
立体表示装置に空間デ−タが表示された状態で、体験者
の視線が仮想主体の身体方向に向けられると、体験者の
身体形状を模した仮想主体の形状デ−タを空間デ−タと
重畳して立体表示装置に表示する。ここで、本明細書中
「空間」とは、物体が存在しない、相当に広がりのある
文字通りの空間のみならず、その背景として見える壁、
床、及びそれらに設けられた装置、機器等をも含む概念
で用いる。
According to the configuration of the simulated experience device according to claim 1,
When the viewer's line of sight is directed toward the body of the virtual subject while the spatial data is displayed on the stereoscopic display device, the shape data of the virtual subject that imitates the body shape of the experience subject is displayed as the spatial data. Is superimposed and displayed on the stereoscopic display device. Here, in the present specification, "space" means not only a literal space with a considerable space in which no object exists, but also a wall that can be seen as the background,
It is used as a concept that includes floors and devices and equipment provided on them.

【0015】請求項2記載の擬似体験装置の構成によれ
ば、動物の種類、雌雄の別等複数の身体形状を模した仮
想主体の形状デ−タの内の一つが選択され、立体表示装
置に空間デ−タが表示された状態で、体験者の視線が仮
想主体の身体方向に向けられると、選択された形状デ−
タを空間デ−タと重畳して立体表示装置に表示する。請
求項3記載の擬似体験装置の構成によれば、立体表示装
置に空間デ−タが表示された状態で、体験者の視線が仮
想主体の身体方向に向けられると、その時の体験者の頭
部高さに応じた姿勢デ−タを空間デ−タと重畳して立体
表示装置に表示する。
According to the structure of the virtual experience device according to the second aspect, one of the shape data of the virtual subject imitating a plurality of body shapes such as the type of animal and male and female is selected, and the stereoscopic display device is selected. When the viewer's line of sight is directed toward the body of the virtual subject while the spatial data is displayed on the screen, the selected shape data is displayed.
The data is superimposed on the spatial data and displayed on the stereoscopic display device. According to the structure of the simulated experience device according to claim 3, when the viewer's line of sight is directed to the body direction of the virtual subject while the spatial data is displayed on the stereoscopic display device, the viewer's head at that time Posture data according to the height of the section is superimposed on the space data and displayed on the stereoscopic display device.

【0016】請求項4記載の擬似体験装置の構成によれ
ば、立体表示装置に空間デ−タが表示された状態で、移
動中に体験者の視線が仮想主体の身体方向に向けられる
と、移動速度に応じて順次、一連の移動動作デ−タを空
間デ−タと重畳して立体表示装置に表示する。請求項5
記載の擬似体験装置の構成によれば、複数の音源位置各
々に対応したドライソ−スと頭部伝達係数とを体験者の
頭部位置に対応した音源毎の帯域応答にそれぞれ畳み込
んで各音源の各周波数毎の応答を算出し、各音源の各周
波数毎の応答を同一周波数帯毎に合成した後に、全周波
数帯にわたって合成して再生音デ−タを生成し、再生音
デ−タを音声に変換して音場再生装置に出力する。
According to the structure of the simulated experience device according to the fourth aspect, when the sight line of the experience person is directed toward the body of the virtual subject while moving while the spatial data is displayed on the stereoscopic display device, A series of moving motion data is sequentially superimposed on the spatial data according to the moving speed and displayed on the stereoscopic display device. Claim 5
According to the configuration of the simulated experience device described above, the dry source corresponding to each of the plurality of sound source positions and the head-related transfer coefficient are convoluted into the band response of each sound source corresponding to the head position of the person who experiences the sound source. After calculating the response for each frequency of the sound source and synthesizing the response for each frequency of each sound source for each identical frequency band, the synthesized sound data is generated by synthesizing over all frequency bands, and the reproduced sound data is obtained. It is converted into voice and output to the sound field reproducing device.

【0017】請求項6記載の擬似体験装置の構成によれ
ば、体験者の体の一部の位置と仮想物体の表面の位置と
が一致すると、一致した仮想物体に対応したドライソ−
スと頭部伝達係数とを体験者の頭部位置に対応した音源
毎の帯域応答にそれぞれ畳み込んで各周波数毎の応答を
算出し、各周波数毎の応答を全周波数帯にわたって合成
して再生音デ−タを生成し、再生音デ−タを音声に変換
して音場再生装置に出力する。
According to the structure of the simulated experience device described in claim 6, when the position of a part of the body of the experience person and the position of the surface of the virtual object match, the dry source corresponding to the matched virtual object.
And the head-related transfer coefficient are convoluted into the band response for each sound source corresponding to the head position of the experience person to calculate the response for each frequency, and the response for each frequency is synthesized and played over all frequency bands. Sound data is generated, the reproduced sound data is converted into voice, and the sound is output to the sound field reproducing device.

【0018】請求項7記載の擬似体験装置の構成によれ
ば、音声入力手段から入力された音声と頭部伝達係数と
を体験者の頭部位置に対応した帯域応答にそれぞれ畳み
込んで各周波数毎の応答を算出し、各周波数毎の応答を
全周波数帯にわたって合成して再生音デ−タを生成し、
再生音デ−タを音声に変換して音場再生装置に出力す
る。
According to the structure of the simulated experience device according to claim 7, each frequency is obtained by convolving the voice input from the voice input means and the head-related transfer coefficient into the band response corresponding to the head position of the experiencer. The response for each frequency is calculated, and the reproduced sound data is generated by synthesizing the response for each frequency over the entire frequency band.
The reproduced sound data is converted into voice and output to the sound field reproducing device.

【0019】請求項8記載の擬似体験装置の構成によれ
ば、立体表示装置に空間デ−タが表示された状態で、体
験者が音声により、仮想主体の身体方向に向くよう指示
をすると、体験者の身体形状を模した仮想主体の形状デ
−タを空間デ−タと重畳して立体表示装置に表示する。
According to the structure of the simulated experience device according to the eighth aspect, when the experience person gives an instruction by voice to the body direction of the virtual subject while the spatial data is displayed on the stereoscopic display device, Shape data of a virtual subject imitating the body shape of the experience person is superimposed on the space data and displayed on the stereoscopic display device.

【0020】[0020]

【実施例】本発明の実施例を図面を参照しながら説明す
る。 (第1実施例)図1は、本発明の第1実施例にかかる擬
似体験装置の全体構成図である。図に示すように、本擬
似体験装置は、ゴ−グル型立体表示装置101、磁場発
生装置102、頭部磁気センサ−103、主体選択メニ
ュ−格納部104、手元入力装置105、磁気センサ−
ユニット106、空間デ−タ格納部107、主体静止形
状デ−タ格納部108、主体動作形状デ−タ格納部10
9、主体形状一時記憶部110、表示制御部111、プ
ログラム格納部112、CPU113から構成されてい
る。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention will be described with reference to the drawings. (First Embodiment) FIG. 1 is an overall configuration diagram of a simulated experience device according to a first embodiment of the present invention. As shown in the figure, the simulated experience device includes a goggle-type stereoscopic display device 101, a magnetic field generator 102, a head magnetic sensor 103, a subject selection menu storage unit 104, a hand input device 105, and a magnetic sensor.
Unit 106, spatial data storage unit 107, main stationary shape data storage unit 108, main motion shape data storage unit 10
9, a main body shape temporary storage unit 110, a display control unit 111, a program storage unit 112, and a CPU 113.

【0021】ゴ−グル型立体表示装置101は、体験者
Mの頭部に装着され、頭部磁気センサ−103がたえず
検出する頭の位置および方向、つまり、体験者Mの視線
に応じた仮想的な室内の情景等を、左右両眼の視差を利
用し、立体的に表示するものであり、左右両眼用とし
て、2つの液晶カラ−ディスプレイを内蔵している。磁
場発生装置102は、体験者が動き回る空間に磁場を発
生させる装置であり、直交コイル等を内蔵している。
The goggle-type stereoscopic display device 101 is mounted on the head of the experience person M, and the position and direction of the head constantly detected by the head magnetic sensor 103, that is, a virtual position corresponding to the sight line of the experience person M. A stereoscopic interior scene or the like is stereoscopically displayed by utilizing the parallax of the left and right eyes, and two liquid crystal color displays are built in for the left and right eyes. The magnetic field generation device 102 is a device that generates a magnetic field in a space where an experiencer moves around, and has a quadrature coil and the like built therein.

【0022】頭部磁気センサ−103は、ゴ−グル型立
体表示装置101に一体的に取り付けられ、体験者Mの
前記磁場内での頭部の位置および方向を検出するもので
あり、直交コイル等を内蔵している。主体選択メニュ−
格納部104は、その表示態様を図2に示すようなメニ
ュ−を格納している。主体選択メニュ−は、仮想空間に
表示させる主体の種類を選択するのに使用する。
The head magnetic sensor 103 is integrally attached to the goggle type stereoscopic display device 101 and detects the position and direction of the head of the experience person M in the magnetic field. Etc. are built in. Main subject selection menu
The storage unit 104 stores a menu whose display mode is shown in FIG. The subject selection menu is used to select the type of subject to be displayed in the virtual space.

【0023】手元入力装置105は、図3に示す形状
で、体験者Mが片手に持って操作する装置であり、右ボ
タン500、中央ボタン510、左ボタン520等を有
している。右ボタン500は、前記主体選択メニュ−の
前記ゴ−グル型立体表示装置101への表示をおこなう
ものであり、当該右ボタンを押下すると主体選択メニュ
−が表示される。中央ボタン510は、前記主体選択メ
ニュ−のポインタ400を移動させるためのものであ
り、当該中央ボタン510を押下する度に、ポインタ4
00が主体種類を示した項目420、430…と順次移
動する。左ボタン520は、前記主体選択メニュ−上の
メニュ−項目を選択するためのものであり、ポインタ4
00が選択したいメニュ−項目(主体種類)上にあると
きに押下することによってその項目を選択するのに使用
される。また、左ボタン530の押下に伴って、メニュ
−が表示消去される。
The hand input device 105 has a shape shown in FIG. 3 and is a device which the experience person M holds in one hand and operates, and has a right button 500, a center button 510, a left button 520 and the like. The right button 500 is for displaying the subject selection menu on the goggle type stereoscopic display device 101, and when the right button is pressed, the subject selection menu is displayed. The center button 510 is for moving the pointer 400 of the subject selection menu, and each time the center button 510 is pressed, the pointer 4 is moved.
00 sequentially moves to items 420, 430, ... The left button 520 is used to select a menu item on the subject selection menu, and the pointer 4
Used to select an item by pressing when 00 is on the menu item (subject type) to be selected. In addition, when the left button 530 is pressed, the menu is erased.

【0024】磁気センサ−ユニット106は、前記磁場
発生装置102によって発生する磁場内に置かれた前記
頭部磁気センサ−103中に誘起される電流の大きさを
処理することにより、体験者Mの頭の位置、方向および
体験者Mの移動速度を測定し、測定結果をCPUに出力
するための装置である。空間デ−タ格納部108は、表
示対象である室内壁、天井、床、窓、テ−ブル等からな
る空間の3次元形状デ−タを格納している。
The magnetic sensor unit 106 processes the magnitude of the electric current induced in the head magnetic sensor 103 placed in the magnetic field generated by the magnetic field generating device 102, so that This is a device for measuring the position and direction of the head and the moving speed of the experience person M, and outputting the measurement result to the CPU. The space data storage unit 108 stores three-dimensional shape data of a space including a room wall, a ceiling, a floor, a window, a table, and the like which are display targets.

【0025】主体静止形状デ−タ格納部108は、仮想
空間に表示する主体形状を、図4に示すように、体験
者、大人・男性、大人・女性、等の主体種類およびその
表示状態(立っている状態、座っている状態)毎に、ア
ドレスによって特定される場所に格納している。主体動
作形状デ−タ格納部109は、体験者Mの仮想空間内の
移動に伴って変化する歩行状態を示す一連の形状デ−タ
を、図5に示すように、主体種類毎にアドレスによって
特定される場所に格納している。一連の動作は、各アド
レスの末尾番号1〜12を1サイクルとして完結し、各
形状デ−タは、体験者Mの移動速度に応じて順次表示さ
れる。なお、本実施例では、一連の動作の1サイクルを
12パタ−ンの形状デ−タで表現しているが、このパタ
−ン数に限定されるものではなく、適宜増減してもよ
い。
As shown in FIG. 4, the subject stationary shape data storage unit 108 stores the subject shapes displayed in the virtual space, such as the experience subject, adult / male, adult / female, and the display state thereof. It is stored in a place specified by the address for each standing state and sitting state). The subject motion shape data storage unit 109 stores, as shown in FIG. 5, a series of shape data indicating a walking state that changes according to the movement of the experience person M in the virtual space, by address for each subject type. Stored in a specified location. A series of operations is completed with the end numbers 1 to 12 of each address as one cycle, and each shape data is sequentially displayed according to the moving speed of the experience person M. In the present embodiment, one cycle of a series of operations is represented by 12 patterns of shape data, but the number of patterns is not limited and may be increased or decreased as appropriate.

【0026】主体形状一時記憶部110は、図6に示す
ように、主体静止形状デ−タ記憶領域800と主体動作
形状デ−タ記憶領域900とポインタ位置管理領域30
0を有し、RAMなどから構成される。主体静止形状デ
−タ記憶領域800と主体動作形状デ−タ記憶領域90
0は、前記主体選択メニュ−で選択された主体種類に対
応した主体形状デ−タであり、前記主体静止形状デ−タ
格納部108および前記主体動作形状デ−タ格納部10
9から呼び出された形状デ−タを、それぞれアドレスで
特定される場所に記憶するところである。ポインタ位置
管理領域300は、選択的に行う主体形状デ−タの表示
管理をする場所であり、前記頭部磁気センサ−103が
検出する体験者Mの頭部高さ、視線、移動速度によっ
て、ポインタ310が切り換わり、ポインタの位置する
形状デ−タを表示する。図6の320は、どの主体形状
デ−タも表示しない時の、ポインタ待機領域である。
As shown in FIG. 6, the main body shape temporary storage unit 110 stores the main body still shape data storage area 800, the main body motion shape data storage area 900, and the pointer position management area 30.
It has 0 and is composed of RAM and the like. Main subject stationary shape data storage area 800 and main subject motion shape data storage area 90
Reference numeral 0 denotes main body shape data corresponding to the main body type selected in the main body selection menu, and the main body static shape data storage unit 108 and the main body motion shape data storage unit 10 are stored.
The shape data called from 9 are stored in the locations specified by the respective addresses. The pointer position management area 300 is a place for selectively managing the display of the main body shape data, and according to the head height, line of sight, and moving speed of the experience person M detected by the head magnetic sensor 103, The pointer 310 is switched to display the shape data where the pointer is located. Reference numeral 320 in FIG. 6 denotes a pointer waiting area when no main body shape data is displayed.

【0027】表示制御部111は、前記空間デ−タ格納
部107が格納しているデ−タを基に、体験者Mの視線
に応じた描画デ−タを作成し、描画デ−タから映像信号
を生成し、映像信号を前記ゴ−グル型立体表示装置10
1に出力したり、前記主体形状一時記憶部110が格納
している形状デ−タから同様に映像信号を生成し、前記
空間デ−タからの映像信号に重畳して出力したりすると
ころである。
The display control unit 111 creates drawing data according to the line of sight of the experience person M based on the data stored in the space data storage unit 107, and from the drawing data. A video signal is generated, and the video signal is used as the goggle-type stereoscopic display device 10.
1 or a video signal is similarly generated from the shape data stored in the main shape temporary storage unit 110, and is superimposed on the video signal from the spatial data and output. .

【0028】プログラム格納部112は、図7に示すフ
ローチャートに相当するプログラムを格納しており、R
OMなどから構成される。CPU113は、プログラム
格納部112が格納しているプログラムに従って処理を
行うところであり、マイクロプロセッサ等から構成され
る。以下、図7に示すフローチャートに基づいて、本装
置の制御内容について説明する。
The program storage unit 112 stores a program corresponding to the flowchart shown in FIG.
It consists of OM. The CPU 113 performs processing according to the program stored in the program storage unit 112, and includes a microprocessor and the like. Hereinafter, the control content of the present apparatus will be described based on the flowchart shown in FIG. 7.

【0029】空間デ−タを表示した状態で(ステップS
100)、体験者が視線を移動させると(ステップS1
10)、そのときの視線に応じた空間デ−タを表示し
(ステップS111)、一方、視線を移動しなければ同
じ空間デ−タの表示を続ける。そして、ステップS12
0で体験者のメニュ−表示指示があると処理はステップ
S121に進み、図2に示すのと同様な主体選択メニュ
−の表示を行う。
With the space data displayed (step S
100), the experience person moves the line of sight (step S1)
10) Display the spatial data corresponding to the line of sight at that time (step S111), while continuing to display the same spatial data if the line of sight is not moved. Then, step S12
If there is a menu display instruction from the experience-maker at 0, the process proceeds to step S121, and the same subject selection menu as shown in FIG. 2 is displayed.

【0030】表示画面を見て、体験者は手元入力スイッ
チ105を操作し、仮想空間でなりたい主体を一つ選択
する(ステップS122)。ここでは、「大人・男性」
を選択したとすると、処理はステップS123に進み、
選択された主体種類「大人・男性」に対応した形状デ−
タを主体静止形状デ−タ格納部108および主体動作形
状デ−タ格納部109から読み出し、主体形状一時記憶
部110に格納する。格納結果を図8に示す。続いて、
処理はステップS124に進み、体験者の仮想空間内に
おける視点の高さを、選択された主体種類に応じた視点
の高さに変更する。こうすることによって、例えば、体
験者が大人で、ステップS122で選択した主体が子ど
もの場合では、体験者は子どもの視点(高さ)で擬似体
験することができる。つづいて、処理はステップS12
5に進み、主体選択メニュ−表示の消去をおこない、ス
テップS130に進む。
Looking at the display screen, the experience person operates the hand input switch 105 to select one subject who wants to be in the virtual space (step S122). Here, "adult / male"
If is selected, the process proceeds to step S123,
Shape data corresponding to the selected subject type "Adult / Male"
The data is read from the main body still shape data storage unit 108 and the main body motion shape data storage unit 109 and stored in the main body shape temporary storage unit 110. The storage result is shown in FIG. continue,
The process proceeds to step S124, and the height of the viewpoint of the experience person in the virtual space is changed to the height of the viewpoint according to the selected subject type. By doing so, for example, when the experience person is an adult and the subject selected in step S122 is a child, the experience person can experience a simulated experience from the viewpoint (height) of the child. Subsequently, the process is step S12.
5, the subject selection menu display is erased, and the process proceeds to step S130.

【0031】ステップS130では、頭部磁気センサ−
103の検出する頭部高さから、体験者が立っている状
態か、座っている状態かを判断する。ここで、体験者が
座っている場合は、処理はステップS140に進み、体
験者が視線を仮想主体の身体方向に向けると、処理はス
テップS141に進み、選択されている主体種類「大人
・男性」の座った状態の主体静止形状デ−タを主体形状
一時記憶部110から読み出して、空間デ−タに重畳し
て表示する。表示結果の一例を図9に示す。
In step S130, the head magnetic sensor--
Based on the head height detected by 103, it is determined whether the experiencer is standing or sitting. Here, if the experience person is sitting, the process proceeds to step S140, and if the experience person turns his or her gaze toward the body of the virtual subject, the process proceeds to step S141, and the selected subject type "adult / male" The main body still shape data in the sitting state is read out from the main body shape temporary storage unit 110 and is displayed by being superimposed on the space data. An example of the display result is shown in FIG.

【0032】一方、ステップS130で、体験者は立っ
ている状態であると判断した場合は、処理はステップS
131に進み、体験者の視線が仮想主体の身体方向に向
いているかどうかを判断し、向いている場合は処理はス
テップS132に進み、さらに体験者が移動中であるか
静止中であるかを判断する。判断は、磁気センサ−ユニ
ット106が出力する体験者の移動速度の値Vによって
行い、Vがあらかじめ設定しておいた値V1以下の場合
は、体験者は静止していると判断し、一方VがV1を越
えている場合は、体験者は移動中であると判断する。そ
して、静止中であると判断した場合は、処理はステップ
S133に進み、選択されている主体種類「大人・男
性」の立った状態の主体静止形状デ−タを主体形状一時
記憶部110から読み出して、空間デ−タに重畳して表
示する。表示結果の一例を図10に示す。一方、移動中
であると判断した場合は、処理はステップS134に進
み、図6に示す、主体形状一時記憶部に記憶されている
主体動作形状デ−タを、移動速度Vに応じて、AM1、
AM2、…、AM12、AM1、………と順次読み出し
て、空間デ−タに重畳して表示する。
On the other hand, if it is determined in step S130 that the experiencer is standing, the process proceeds to step S130.
Proceeding to 131, it is judged whether or not the sight line of the experience person is facing the body direction of the virtual subject, and if so, the process proceeds to step S132, and it is further determined whether the experience person is moving or stationary. to decide. The determination is made based on the value V of the moving speed of the experiencer output by the magnetic sensor unit 106. If V is less than or equal to a preset value V1, it is determined that the experiencer is stationary, while V If exceeds V1, the experience person determines that the user is moving. If it is determined that the subject is still, the process proceeds to step S133, and the subject still shape data in the standing state of the selected subject type “adult / male” is read from the subject shape temporary storage unit 110. And is displayed by superimposing it on the spatial data. An example of the display result is shown in FIG. On the other hand, when it is determined that the subject is moving, the process proceeds to step S134, and the main motion shape data stored in the main shape temporary storage unit shown in FIG. ,
AM2, ..., AM12, AM1, ... Are sequentially read and displayed by superimposing them on the spatial data.

【0033】また、ステップS122で、別の主体とし
て「ねこ」を選択し、立った状態で(ステップS13
0)、体験者がふり向くことにより仮想主体「ねこ」の
身体方向に視線を転じ(ステップS133)、その時体
験者は静止中であったとすると(ステップS132)、
ステップS133の処理をおこない、主体種別「ねこ」
の立った状態の主体静止形状デ−タを空間デ−タに重畳
して表示する。表示結果の一例を、図11に示す。
Also, in step S122, "Cat" is selected as another subject, and in a standing state (step S13).
0) When the experience person turns around, the eyes turn to the body direction of the virtual subject "cat" (step S133), and it is assumed that the experience person is still at that time (step S132),
The process of step S133 is performed, and the subject type "cat"
The main body static shape data in the standing state is displayed by being superimposed on the space data. FIG. 11 shows an example of the display result.

【0034】以上、第1実施例の擬似体験装置によれ
ば、体験者が仮想主体の身体方向に視線を向けると、そ
の時の体験者の頭部高さおよび移動速度に応じた仮想主
体の形状デ−タが空間デ−タに重畳して表示されるの
で、視覚的により高い没入感を得ることができる。 (第2実施例)図12は、本発明の第2実施例にかかる
擬似体験装置の全体構成図である。図に示すように、本
擬似体験装置は、ゴ−グル型立体表示装置201、磁場
発生装置202、頭部磁気センサ−203、ヘッドフォ
ン204、音源選択メニュ−格納部205、手元入力装
置206、磁気センサ−ユニット207、空間デ−タ格
納部208、右手形状デ−タ格納部209、接触部領域
格納部210、連続音ドライソ−ス格納部211、衝撃
音ドライソ−ス格納部212、マイク213、帯域応答
格納部214、頭部伝達関数格納部215、音声制御部
216、表示制御部217、プログラム格納部218、
CPU219から構成されている。
As described above, according to the simulated experience device of the first embodiment, when the observer turns his or her line of sight in the body direction of the virtual subject, the shape of the virtual subject according to the head height and the moving speed of the experience subject at that time. Since the data is displayed so as to be superimposed on the spatial data, a higher sense of immersion can be visually obtained. (Second Embodiment) FIG. 12 is an overall configuration diagram of a simulated experience device according to a second embodiment of the present invention. As shown in the figure, the simulated experience device includes a goggle type stereoscopic display device 201, a magnetic field generation device 202, a head magnetic sensor 203, headphones 204, a sound source selection menu storage unit 205, a hand input device 206, and a magnetic field. Sensor unit 207, spatial data storage unit 208, right-hand shape data storage unit 209, contact area storage unit 210, continuous sound dry source storage unit 211, impact sound dry source storage unit 212, microphone 213, Band response storage unit 214, head related transfer function storage unit 215, voice control unit 216, display control unit 217, program storage unit 218,
It is composed of a CPU 219.

【0035】ゴ−グル型立体表示装置201は、体験者
Mの頭部に装着され、頭部磁気センサ−203がたえず
検出する頭の位置および方向、つまり、体験者Mの視線
に応じた仮想的な室内の情景等を、左右両眼の視差を利
用し、立体的に表示するものであり、左右両眼用とし
て、2つの液晶カラ−ディスプレイを内蔵している。磁
場発生装置202は、体験者が動き回る空間に磁場を発
生させる装置であり、直交コイル等を内蔵している。
The goggle type stereoscopic display device 201 is mounted on the head of the experience person M, and the position and direction of the head constantly detected by the head magnetic sensor 203, that is, the virtual line corresponding to the line of sight of the experience person M. A stereoscopic interior scene or the like is stereoscopically displayed by utilizing the parallax of the left and right eyes, and two liquid crystal color displays are built in for the left and right eyes. The magnetic field generation device 202 is a device that generates a magnetic field in a space in which an experiencer moves, and has a quadrature coil and the like built therein.

【0036】頭部磁気センサ−203は、ゴ−グル型立
体表示装置201に一体的に取り付けられ、体験者Mの
前記磁場内での頭部の位置および方向を検出するもので
あり、直交コイル等を内蔵している。ヘッドフォン20
4は、体験者Mの頭部に装着され、頭部磁気センサ−2
03によりたえず検出される頭の位置および方向、つま
り、体験者Mの両耳の位置と方向に応じた3次元音場の
音を再生するためのものである。
The head magnetic sensor 203 is integrally attached to the goggle type stereoscopic display device 201 and detects the position and direction of the head of the experience person M in the magnetic field. Etc. are built in. Headphones 20
4 is attached to the head of the experience person M, and the head magnetic sensor-2
This is for reproducing the sound in the three-dimensional sound field according to the position and direction of the head constantly detected by 03, that is, the position and direction of both ears of the experiencer M.

【0037】音源選択メニュ−格納部205は、その表
示態様を図13に示すようなメニュ−を格納している。
音源選択メニュ−は、仮想空間に存在する連続して聞こ
える音の音源の内、聞きたい音源の種類を選択するのに
使用する。手元入力装置206は、その外観が、図3に
示すように、第1実施例の手元入力装置105と同様な
形状をしており、体験者Mが普通は右手にもって操作す
る装置であり、右ボタン600、中央ボタン610、左
ボタン620等を有し、手元磁気センサ−(図示せず)
を内蔵している。右ボタン600は、前記音源メニュ−
の前記ゴ−グル型立体表示装置201への表示・非表示
の切り換えを行うものであり、当該右ボタン600を押
下する度に表示・非表示を繰り返す。中央ボタン610
は、前記音源選択メニュ−のポインタ50を移動させる
ためのものであり、当該中央ボタン610を押下する度
に、ポインタ50が音源種類を示した項目上を51、5
2、53、51、…と順次移動する。左ボタン620
は、前記音源選択メニュ−上のメニュ−項目の選択また
は取消をするためのものであり、ポインタ50が、選択
または取消をしたいメニュ−項目(音源種類)上にある
ときに押下することによって、その項目を選択または取
り消すのに使用される。手元磁気センサ−は、前記磁場
発生装置202が発生させる磁場内における位置を検出
するものであり、直交コイル等から構成される。体験者
Mが手元入力装置206を右手にもった場合は、手元磁
気センサ−によって、仮想空間内での体験者Mの右手の
位置が検出されることになる。
The sound source selection menu storage unit 205 stores a menu whose display mode is shown in FIG.
The sound source selection menu is used to select the kind of sound source desired to be heard among sound sources of continuously audible sounds existing in the virtual space. As shown in FIG. 3, the hand-held input device 206 has a shape similar to that of the hand-held input device 105 of the first embodiment, and is a device that the experience person M normally operates with his / her right hand. It has a right button 600, a center button 610, a left button 620, etc., and a magnetic sensor at hand (not shown).
Built in. The right button 600 is the sound source menu
The display / non-display is switched to the goggle type stereoscopic display device 201, and the display / non-display is repeated each time the right button 600 is pressed. Center button 610
Is for moving the pointer 50 of the sound source selection menu, and each time the center button 610 is pressed, the pointer 50 moves over the item indicating the sound source type 51, 5 or 5.
2, 53, 51, ... Left button 620
Is for selecting or canceling a menu item on the sound source selection menu, and when the pointer 50 is on a menu item (sound source type) to be selected or canceled, Used to select or cancel that item. The hand magnetic sensor detects a position in the magnetic field generated by the magnetic field generator 202, and is composed of a quadrature coil and the like. When the experience person M holds the hand input device 206 in the right hand, the position of the right hand of the experience person M in the virtual space is detected by the hand magnetic sensor.

【0038】磁気センサ−ユニット207は、前記磁場
発生装置202によって発生する磁場内に置かれた前記
頭部磁気センサ−203および前記手元磁気センサ−中
に誘起される電流の大きさを処理することにより、体験
者Mの頭と右手の位置および方向を測定し、測定結果を
CPU219に出力するための装置である。空間デ−タ
格納部208は、表示対象である室内壁、天井、床、
窓、テ−ブル等からなる空間の3次元形状デ−タを格納
している。
The magnetic sensor unit 207 processes the magnitude of the current induced in the head magnetic sensor 203 and the hand magnetic sensor placed in the magnetic field generated by the magnetic field generator 202. Is a device for measuring the position and direction of the head and right hand of the experience person M and outputting the measurement result to the CPU 219. The space data storage unit 208 includes an interior wall, a ceiling, a floor, which are display targets.
It stores the three-dimensional shape data of the space consisting of windows, tables and the like.

【0039】右手形状デ−タ格納部209は、体験者の
右手形状を模した形状デ−タを格納しており、当該右手
形状デ−タは、体験者Mの視線に前記手元入力装置20
6が入ると、前記手元磁気センサ−が検出する位置に、
前記空間デ−タに重畳して表示される。接触部領域格納
部210は、図14に示すように、仮想空間として表示
される仮想物体種別毎に、その物体を構成する表面の位
置情報からなる接触部領域とドライソ−スNO.とを格
納している。
The right-hand shape data storage unit 209 stores shape data imitating the right-hand shape of the experience person, and the right-hand shape data is in the hand input device 20 in the sight line of the experience person M.
When 6 is entered, the magnetic sensor at hand detects the position,
It is displayed by being superimposed on the space data. As shown in FIG. 14, the contact portion area storage unit 210 stores, for each virtual object type displayed as a virtual space, the contact portion area and the dry source NO. And are stored.

【0040】連続音音源装置211は、連続音である、
ステレオ等のオ−ディオ装置の出力音、ピアノ等の楽器
の演奏音、自動車の走行音等の壁面等からの反射の影響
の無い音声信号(ドライソ−ス)をCPU219に出力
するための装置であり、複数のCD(コンパクトディス
ク)プレ−ヤ等から構成される。各CDプレ−ヤには、
それぞれ一種類の連続音ドライソ−スを記録したCDが
装着されており、各CDプレ−ヤは格納している連続音
の種類によって、前記音源選択メニュ−のメニュ−項目
と対応づけられている。そして、前記手元入力装置20
6による、前記音源選択メニュ−のメニュ−項目の選択
または取消にともなって、対応するCDプレ−ヤの起動
(音声信号の出力)または停止が行われる。
The continuous sound source device 211 is a continuous sound,
A device for outputting to the CPU 219 an audio signal (dry source) which is not influenced by reflection from a wall surface such as an output sound of an audio device such as a stereo, a playing sound of a musical instrument such as a piano, a running sound of an automobile, etc. Yes, it is composed of a plurality of CD (compact disc) players and the like. For each CD player,
A CD in which one type of continuous sound dry source is recorded is mounted, and each CD player is associated with the menu item of the sound source selection menu depending on the type of continuous sound stored therein. . Then, the handheld input device 20
Along with the selection or cancellation of the menu item of the sound source selection menu by 6, the corresponding CD player is started (output of audio signal) or stopped.

【0041】衝撃音ドライソ−ス格納部212は、図1
5に示すように、前記接触部領域格納部210が格納し
ているドライソ−スNO.に対応づけて、人間の手と仮
想物体種別名に対応した現実の物体とが接触した際に発
生する衝撃音のドライソ−スを格納しており、ROM等
から構成される。マイク213は、体験者Mの声を音声
信号に変換し、CPU219に出力する装置であり、さ
らに出力・非出力を切り換えるスイッチ(図示せず)を
備えている。マイク213は、その出力信号をドライソ
−スとするため、背景音および体験者Mの声の反射音を
できるだけ検出しないような指向性の高いものが好まし
い。
The impact sound dry source storage unit 212 is shown in FIG.
As shown in FIG. 5, the dry source NO. Corresponding to, a dry source of an impact sound generated when a human hand comes into contact with an actual object corresponding to the virtual object type name is stored, and is composed of a ROM or the like. The microphone 213 is a device that converts the voice of the experience person M into a voice signal and outputs the voice signal to the CPU 219, and further includes a switch (not shown) that switches between output and non-output. Since the output signal of the microphone 213 is a dry source, it is preferable that the microphone 213 has a high directivity that does not detect the background sound and the reflected sound of the voice of the person M as much as possible.

【0042】帯域応答格納部214は、仮想空間内で2
点を設定し、その内の一方の点を音源位置とし他方の点
を受音点とした時の、各周波数帯毎のエコ−タイムパタ
−ンに各周波数帯毎のバンドパスフィルタを畳み込むこ
とによって得られる各周波数帯毎の応答である帯域応答
を格納するところであり、音源の種類によって連続音用
帯域応答格納領域214a、衝撃音用帯域応答格納領域
214b、体験者音声用帯域応答格納領域214cを有
している。連続音用帯域応答格納領域214aは、図1
6に示すように、仮想空間内である決まった一点を音源
位置とする音源の種類毎にそれぞれの音源位置と受音点
位置とから特定される帯域応答を格納している。また、
図16中の連続音受音点領域とは、受音点の位置を中心
とする、ある広がりを有した空間の位置情報である。衝
撃音用帯域応答格納領域214bは、図17に示すよう
に、衝撃音の音源の種類毎に、音源位置と受音点位置で
特定される帯域応答を格納している。図17中、衝撃音
音源領域とは、音源位置を中心とする、ある広がりを有
した空間の位置情報であり、衝撃音受音点領域とは、受
音点の位置を中心とする、ある広がりを有した空間の位
置情報である。体験者音声用帯域応答格納領域214c
は、図18に示すように、仮想空間内での前記マイク2
13の位置である音源位置と体験者の両耳間の中点であ
る受音点位置とで特定される帯域応答を格納している。
図18中の体験者音声受音点領域とは、受音点の位置を
中心とする、ある広がりを有した空間の位置情報であ
る。
The band response storage unit 214 stores 2 in the virtual space.
By setting points, and convolving the bandpass filter for each frequency band into the eco-time pattern for each frequency band when one of the points is the sound source position and the other point is the sound receiving point A band response which is a response for each obtained frequency band is stored, and a band response storage area for continuous sound 214a, a band response storage area for impact sound 214b, and a band response storage area for experience voice 214c are stored depending on the type of sound source. Have The band response storage area 214a for continuous sound is shown in FIG.
As shown in FIG. 6, the band response specified from each sound source position and the sound receiving point position is stored for each sound source whose sound source position is a fixed point in the virtual space. Also,
The continuous sound receiving point area in FIG. 16 is position information of a space centered on the position of the receiving point and having a certain spread. As shown in FIG. 17, the impact sound band response storage area 214b stores the band response specified by the sound source position and the sound receiving point position for each sound source type of the impact sound. In FIG. 17, the impulsive sound source region is position information of a space having a certain extent around the sound source position, and the impulsive sound receiving point region is centered on the position of the sound receiving point. This is position information of a space having a spread. Experienced voice band response storage area 214c
18 shows the microphone 2 in the virtual space as shown in FIG.
The band response specified by the sound source position which is the position of 13 and the sound receiving point position which is the midpoint between the ears of the experiencer is stored.
The experience-sound-voice receiving point area in FIG. 18 is position information of a space having a certain space centered on the position of the receiving point.

【0043】頭部伝達関数格納部215は、周囲から頭
部に向かって入射する音が、人間の頭部の形状および耳
の位置等の条件によって変化する状態を表す関数であ
り、予め算出されたものを格納している。音声制御部2
16は、CPU219から出力される再生音デ−タを音
声信号に変換して、前記ヘッドフォン204へ臨場感の
ある3次元音場を出力するところである。
The head-related transfer function storage unit 215 is a function representing a state in which a sound incident from the surroundings toward the head changes depending on conditions such as the shape of the human head and the position of the ear, and is calculated in advance. It stores things. Voice control unit 2
Reference numeral 16 is a portion for converting the reproduced sound data output from the CPU 219 into an audio signal and outputting a realistic three-dimensional sound field to the headphone 204.

【0044】表示制御部217は、前記空間デ−タ格納
部208が格納しているデ−タを基に、体験者Mの視線
に応じた描画デ−タを作成し、描画デ−タから映像信号
を生成し、映像信号を前記ゴ−グル型立体表示装置20
1に出力したり、前記右手形状デ−タ格納部209が格
納している形状デ−タから同様に映像信号を生成し、前
記空間デ−タからの映像信号に重畳して出力したりする
ところである。
The display control unit 217 creates drawing data according to the line of sight of the experience person M based on the data stored in the space data storage unit 208, and from the drawing data. A video signal is generated, and the video signal is used as the goggle type stereoscopic display device 20.
1, or a video signal is similarly generated from the shape data stored in the right-hand shape data storage unit 209 and is superimposed on the video signal from the spatial data and output. By the way.

【0045】プログラム格納部218は、図19〜図2
2に示すフローチャートに相当するプログラムを格納し
ており、ROMなどから構成される。CPU219は、
プログラム格納部218が格納しているプログラムに従
って処理を行うところであり、マイクロプロセッサ等か
ら構成される。以下、図19〜図22に示すフローチャ
ートに基づいて、本装置の制御内容について説明する。
The program storage section 218 is shown in FIGS.
The program corresponding to the flowchart shown in FIG. CPU 219
The processing is performed according to the program stored in the program storage unit 218, and includes a microprocessor or the like. The control contents of this apparatus will be described below based on the flowcharts shown in FIGS.

【0046】図19は、処理手順の概略を示したフロー
チャートである。空間デ−タを表示した状態で(ステッ
プS200)、メニュ−表示指示があると(ステップS
210)、図13に示すのと同様な音源選択メニュ−を
表示する(ステップS211)。ステップS211で、
表示画面を見て、体験者が音源の選択指示をしたとする
と、選択された音源に対応したCDプレ−ヤを起動する
(ステップS213)。一方、体験者が音源の消去指示
をしたとすると、消去指示された音源に対応したCDプ
レ−ヤを停止する(ステップS214)。また、体験者
が、メニュ−表示の消去指示をしたとすると、メニュ−
表示の消去を行う(ステップS215)。
FIG. 19 is a flow chart showing the outline of the processing procedure. When there is a menu display instruction while displaying the space data (step S200) (step S200)
210) and a sound source selection menu similar to that shown in FIG. 13 is displayed (step S211). In step S211,
When the user gives an instruction to select a sound source by looking at the display screen, the CD player corresponding to the selected sound source is activated (step S213). On the other hand, if the user gives an instruction to erase the sound source, the CD player corresponding to the erased sound source is stopped (step S214). In addition, if the user gives an instruction to delete the menu display, the menu is displayed.
The display is erased (step S215).

【0047】上記音源選択メニュ−表示状態での処理が
終了するか、または、ステップS210でメニュ−表示
指示がなかった時は、処理はステップS220に進み、
連続音の選択がされていない場合は、ステップS230
に進み、体験者の視線の移動があった場合は、その時の
視線に応じた空間デ−タを表示し(ステップS23
1)、視線の移動が無ければ同じ空間デ−タの表示を続
ける。一方、ステップS220で、連続音の選択有と判
断した場合は、処理はステップS221に進み、連続音
の再生を行い、つづいて、処理はステップS222に進
み、体験者の視線の移動があった場合は、そのときの視
線(頭の位置と向き)に応じた連続音の再生をし(ステ
ップS223)、空間デ−タの表示を行う(ステップS
224)。
When the processing in the sound source selection menu display state is completed or when there is no menu display instruction in step S210, the processing proceeds to step S220.
If no continuous sound has been selected, step S230.
If there is a shift in the line of sight of the experiencer, the spatial data according to the line of sight at that time is displayed (step S23).
1) If the line of sight does not move, the same spatial data is continuously displayed. On the other hand, if it is determined in step S220 that the continuous sound is selected, the process proceeds to step S221 to reproduce the continuous sound, and then the process proceeds to step S222 to move the sight line of the experiencer. In this case, a continuous sound is reproduced according to the line of sight (head position and orientation) at that time (step S223), and spatial data is displayed (step S).
224).

【0048】ステップS231またはステップS224
の処理が終了するかまたはステップS230またはステ
ップS222で視線の移動無しと判断した場合は、処理
はステップS240に進み、手元磁気センサ−が検出す
る位置デ−タと接触部格納領域210に格納している接
触部領域を示す位置デ−タとが一致したかどうかを判断
し、一致有りの場合(接触した場合)は、該当する接触
部領域に対応する衝撃音を再生する(ステップS24
1)。
Step S231 or step S224
If it is determined that there is no movement of the line of sight in step S230 or step S222, the process proceeds to step S240, and the position data detected by the magnetic sensor at hand and the contact portion storage area 210 are stored. It is determined whether or not the position data indicating the present contact area is matched, and if there is a match (contact is made), the impact sound corresponding to the corresponding contact area is reproduced (step S24).
1).

【0049】一方、ステップS240で一致無し(接触
無し)の場合は、処理はステップS250に進み、マイ
ク213からの音声入力がある場合は、入力音声を再生
し、音声入力が無い場合は、ステップS210に戻る。
次に、連続音再生ステップS221、連続音再生の更新
ステップS223、衝撃音再生ステップS241、音声
再生ステップS251における処理手順の詳細について
説明する。
On the other hand, if there is no match (no contact) in step S240, the process proceeds to step S250. If there is a voice input from the microphone 213, the input voice is reproduced, and if there is no voice input, the step is performed. Return to S210.
Next, details of the processing procedure in the continuous sound reproduction step S221, the continuous sound reproduction update step S223, the impact sound reproduction step S241, and the audio reproduction step S251 will be described.

【0050】図20は、連続音再生ステップS221、
連続音再生の更新ステップS223の処理手順の詳細を
示すフローチャートである。まず、頭部位置磁気センサ
−203が検出する頭部位置を含む連続音受音点領域に
対応した帯域応答(図16参照)を、選択されている音
源種類毎に、読み込むと(ステップS2210)、処理
はステップS2211に進み、音源毎に、帯域応答にド
ライソ−スと頭部伝達関数を畳み込み、つづいて、処理
はステップS2212に進み、前ステップで各音源毎に
求められた各周波数帯毎の応答を、同一周波数帯毎に合
成し、つづいて、同一周波数帯毎に合成された応答を全
周波数帯にわたって合成し、再生音デ−タを生成する
(ステップS2213)。つづいて、処理はステップS
2214に進み、前ステップで生成された再生音デ−タ
を音声に変換し、ヘッドフォンへ出力する(ステップS
2215)。
FIG. 20 shows a continuous sound reproducing step S221,
It is a flow chart which shows details of a processing procedure of update step S223 of continuous sound reproduction. First, the band response (see FIG. 16) corresponding to the continuous sound receiving point area including the head position detected by the head position magnetic sensor 203 is read for each selected sound source type (step S2210). The process proceeds to step S2211, the dry source and the head related transfer function are convoluted into the band response for each sound source, and then the process proceeds to step S2212 for each frequency band obtained for each sound source in the previous step. Are combined for each identical frequency band, and then the combined response for each identical frequency band is combined over all frequency bands to generate reproduced sound data (step S2213). Then, the process is step S
In step 2214, the reproduced sound data generated in the previous step is converted into sound and output to the headphone (step S
2215).

【0051】図21は、衝撃音再生ステップS241の
処理手順の詳細を示すフローチャートである。まず、前
ステップS240で検出した一致位置を含む衝撃音音源
領域とその時の頭部位置磁気センサ−203が検出する
頭部位置を含む衝撃音受音点領域とから対応する帯域応
答(図17参照)を読み込むと(ステップS241
1)、処理はステップS2412に進み、読み込まれた
帯域応答に、接触した仮想物体に対応したドライソ−ス
(図14、15参照)と頭部伝達関数を畳み込み、つづ
いて、処理はステップS2413に進み、前ステップで
求められた各周波数帯毎の応答を全周波数帯にわたって
合成し、再生音デ−タを生成する。つづいて、処理はス
テップS2414に進み、前ステップで生成された再生
音デ−タを音声に変換し、ヘッドフォンへ出力する(ス
テップS2415)。
FIG. 21 is a flow chart showing details of the processing procedure of the impact sound reproduction step S241. First, a corresponding band response is obtained from the impact sound source area including the coincident position detected in the previous step S240 and the impact sound receiving point area including the head position detected by the head position magnetic sensor-203 at that time (see FIG. 17). ) Is read (step S241)
1), the process proceeds to step S2412, and the dry source corresponding to the contacted virtual object (see FIGS. 14 and 15) and the head related transfer function are convoluted with the read band response, and then the process proceeds to step S2413. Proceeding, the response for each frequency band obtained in the previous step is synthesized over all frequency bands to generate reproduced sound data. Subsequently, the process proceeds to step S2414, the reproduced sound data generated in the previous step is converted into a sound, and the sound is output to the headphones (step S2415).

【0052】図22は、音声再生ステップS251の処
理手順の詳細を示すフローチャートである。まず、頭部
位置磁気センサ−203が検出する頭部位置を含む体験
者音声受音点領域から対応する帯域応答(図18参照)
を読み込むと(ステップS2511)、処理はステップ
S2512に進み、読み込まれた帯域応答に、マイク2
13からの音声信号と頭部伝達関数を畳み込み、つづい
て、処理はステップS2513に進み、前ステップで求
められた各周波数帯毎の応答を全周波数帯にわたって合
成し、再生音デ−タを生成する。つづいて、処理はステ
ップS2514に進み、前ステップで生成された再生音
デ−タを音声に変換し、ヘッドフォンへ出力する(ステ
ップS2515)。
FIG. 22 is a flow chart showing details of the processing procedure of the audio reproducing step S251. First, the corresponding band response from the experience-sound receiving point area including the head position detected by the head position magnetic sensor-203 (see FIG. 18)
(Step S2511), the process proceeds to step S2512, and the microphone 2 is added to the read band response.
The voice signal from 13 and the head related transfer function are convoluted, and then the process proceeds to step S2513, and the response for each frequency band obtained in the previous step is synthesized over all frequency bands to generate reproduced sound data. To do. Subsequently, the process proceeds to step S2514, the reproduced sound data generated in the previous step is converted into a sound, and the sound is output to the headphones (step S2515).

【0053】なお、本実施例では、手元磁気センサ−を
内蔵した手元入力装置を体験者が右手にもって、仮想空
間内を移動することによって、体験者の右手と仮想物体
とが接触した時の衝撃音を再生したが、磁気センサ−を
体験者の体の別の部分に装着し、衝撃音ドライソ−ス格
納部の内容を適宜変更した構成としてもよい。こうする
ことによって、体験者の体の別の部分が仮想物体に接触
した時の衝撃音を再生することが可能となる。また、体
験者の体に複数の磁気センサ−を装着する構成としても
よいことは言うまでもない。
In this embodiment, when the experience person holds the hand input device having the hand magnetic sensor in his / her right hand and moves in the virtual space, when the experience person's right hand comes into contact with the virtual object. Although the impulsive sound is reproduced, the magnetic sensor may be attached to another part of the body of the experience person, and the content of the impulsive sound dry source storage unit may be appropriately changed. By doing so, it becomes possible to reproduce the impact sound when another part of the experienceer's body comes into contact with the virtual object. Needless to say, a plurality of magnetic sensors may be attached to the body of the experiencer.

【0054】以上、第2実施例の擬似体験装置によれ
ば、現実の空間では聞こえる、複数の音源からの音や、
物体に体の一部が接触したときの衝撃音や、自分が発す
る声が、仮想空間における音として擬似体験者は聞くこ
とができるので、聴覚的により高い没入感を得ることが
できる。 (第3実施例)図23は、本発明の第3実施例にかかる
擬似体験装置の全体構成図である。
As described above, according to the simulated experience device of the second embodiment, the sounds from a plurality of sound sources that can be heard in the real space,
The impulsive sound when a part of the body comes into contact with the object and the voice uttered by the user can be heard as the sound in the virtual space, so that a higher immersive feeling can be auditorily obtained. (Third Embodiment) FIG. 23 is an overall configuration diagram of a simulated experience device according to a third embodiment of the present invention.

【0055】第3実施例は、第1実施例とは異なり、体
験者は移動することなく、音声で指示することにより、
ゴ−グル型立体表示装置に表示させる空間デ−タを変化
させることができるよう工夫されている。そのため、第
3実施例は、第1実施例に対し、さらにマイク301、
A/Dコンバ−タ302、入力音声パタ−ン一時記憶部
303、基準音声パタ−ン格納部304、指示コ−ド一
時記憶部305、指示量格納部306を備えており、第
1実施例からは、磁気発生装置102、頭部磁気センサ
−103、磁気センサ−ユニット106が省略された構
成となっている。なお、第3実施例の説明に使用する図
面等において、第1実施例と同様な構成のものについて
は同符号を付し、それらの説明については省略する。
The third embodiment differs from the first embodiment in that the experience person does not move and gives an instruction by voice,
It is devised so that the spatial data displayed on the goggle type stereoscopic display device can be changed. Therefore, the third embodiment is different from the first embodiment in that the microphone 301,
The A / D converter 302, the input voice pattern temporary storage unit 303, the reference voice pattern storage unit 304, the instruction code temporary storage unit 305, and the instruction amount storage unit 306 are provided. From the above, the magnetic generator 102, the head magnetic sensor 103, and the magnetic sensor unit 106 are omitted. In the drawings and the like used for the description of the third embodiment, the same components as those in the first embodiment are designated by the same reference numerals, and the description thereof will be omitted.

【0056】マイク301は、体験者Mの声を音声信号
に変換し、A/Dコンバ−タ302へ出力する装置であ
る。A/Dコンバ−タ302は、マイク301からのア
ナログの音声信号をデジタル信号に変換しCPU113
へ出力する装置である。入力音声パタ−ン一時記憶部3
03は、マイク301から入力された1語分の音声波形
を記憶するところであり、RAM等から構成される。
The microphone 301 is a device for converting the voice of the experience person M into a voice signal and outputting it to the A / D converter 302. The A / D converter 302 converts an analog audio signal from the microphone 301 into a digital signal and converts it into the CPU 113.
Is a device for outputting to. Input voice pattern temporary storage unit 3
Reference numeral 03 is a place for storing a voice waveform for one word input from the microphone 301, and is composed of a RAM or the like.

【0057】基準音声パタ−ン格納部304は、図24
に示すように、音声指示に使用される音声の波形を格納
する基準音声パタ−ン記憶領域242と、その各々の音
声波形に対応した指示コ−ドを格納する指示コ−ド格納
領域243とを有している。例えば、242aには「ま
え」と発音される音声の波形が格納されており、243
aにはそれに対応した指示コ−ド「D1」が格納されて
いるといった具合である。
The reference voice pattern storage unit 304 is shown in FIG.
As shown in FIG. 5, a reference voice pattern storage area 242 for storing a waveform of a voice used for voice instruction, and an instruction code storage area 243 for storing an instruction code corresponding to each voice waveform. have. For example, in 242a, a waveform of a voice pronounced as "mae" is stored.
The instruction code "D1" corresponding to that is stored in a.

【0058】指示コ−ド一時記憶部305は、図25に
示すように、前記入力音声パタ−ン一時記憶部303に
記憶された音声波形に該当する指示コ−ドを各納すると
ころであり、指示種類によって格納領域が定まってい
る。指示量格納部306は、図26は、指示コ−ドまた
はその組み合わせに対応した指示量を格納している。例
えば、指示コ−ドV1(速く)に対しては速度v1が、
指示コ−ドT1(少し)・A1(移動)に対しては距離
m1が、指示コ−ドT2(たくさん)・A2(向く)に
対しては角度a2が格納されているといった具合であ
る。なお、指示種類「方向」に関する指示コ−ドD1〜
D6については量とは無関係なので、本格納部には対応
するデ−タは格納されていない。
As shown in FIG. 25, the instruction code temporary storage section 305 stores the instruction codes corresponding to the voice waveforms stored in the input voice pattern temporary storage section 303. The storage area is determined by the type of instruction. 26, the instruction amount storage unit 306 stores the instruction amount corresponding to the instruction code or the combination thereof. For example, for the instruction code V1 (fast), the speed v1 is
The distance m1 is stored for the instruction code T1 (slight) and A1 (moving), and the angle a2 is stored for the instruction code T2 (many) and A2 (facing). The instruction codes D1 to D1 regarding the instruction type "direction"
Since D6 has nothing to do with the quantity, no corresponding data is stored in this storage unit.

【0059】以下、図27に示すフローチャートに基づ
いて、本装置の制御内容について説明する。まず、ゴ−
グル型立体表示装置101に空間デ−タが表示された状
態で(ステップS300)、体験者Mが音声入力すると
(ステップS310)、処理はステップS320に進
み、入力された音声の波形を入力音声パタ−ン一時記憶
部303に記憶し、つづいて処理はステップS330に
進み、記憶された波形に該当する波形を基準音声パタ−
ン格納部304から検索する。
The control contents of this apparatus will be described below with reference to the flow chart shown in FIG. First, go
When spatial data is displayed on the glu-type stereoscopic display device 101 (step S300) and the experience person M inputs a voice (step S310), the process proceeds to step S320, and the waveform of the input voice is input. The waveform is stored in the pattern temporary storage unit 303, and then the process proceeds to step S330, and a waveform corresponding to the stored waveform is used as a reference voice pattern.
Search from the storage unit 304.

【0060】ここで、該当する波形パタ−ンがなかった
場合は(ステップS340)、処理は、ステップS31
0の手前へ戻り、音声入力待ち状態となる。一方、該当
する波形があった場合は、処理はステップS350に進
み、その波形の指示コ−ドを、指示コ−ド一時記憶部3
05の対応する指示種類の格納場所に格納する。つづい
て、処理はステップS360に進み、指示コ−ド一時記
憶部305に、指示種類に対応した指示コ−ドが全て格
納されたかどうかを判断し、されていない場合は、ステ
ップS310の手前へ戻り、再び音声入力待ち状態とな
る。一方、すべてのコ−ドが格納されている場合は、処
理はステップS370に進み、格納された指示コ−ドと
指示量格納部306で対応する指示量とに応じた空間デ
−タの表示の更新をおこなう。
If there is no corresponding waveform pattern (step S340), the process goes to step S31.
It returns to the front of 0 and enters the voice input waiting state. On the other hand, if there is a corresponding waveform, the process proceeds to step S350, and the instruction code of the waveform is changed to the instruction code temporary storage unit 3
05 is stored in the storage location of the corresponding instruction type. Subsequently, the process proceeds to step S360, and it is determined whether or not all the instruction codes corresponding to the instruction type are stored in the instruction code temporary storage unit 305. If not, go to the step S310. It returns and enters the voice input waiting state again. On the other hand, if all the codes are stored, the process proceeds to step S370, and the space data corresponding to the stored instruction code and the instruction amount corresponding to the instruction amount storage unit 306 is displayed. Will be updated.

【0061】たとえば、体験者Mが、「まえ」、「ゆっ
くり」、「すこし」、「いどう」と音声入力したとする
と、ステップS310〜ステップS360が繰り返さ
れ、指示コ−ド一時記憶部305には、図28に示すよ
うに、指示コ−ドが格納され、この状態で全てのコ−ド
が格納されたことになるので、ゴ−グル型立体表示装置
101には、「前に、速度v1で、距離m1」移動する
ときの空間デ−タが表示される。
For example, if the experiencer M inputs voices "front", "slowly", "slightly" and "how", steps S310 to S360 are repeated, and the instruction code temporary storage section 305 is repeated. As shown in FIG. 28, since the instruction code is stored, and all the codes are stored in this state, the goggle-type stereoscopic display device 101 displays "Before, Spatial data when moving a distance m1 "at a speed v1 is displayed.

【0062】以上、第3実施例の擬似体験装置によれ
ば、体験者は動き回ることなく、例えば椅子に腰掛けた
ままで、擬似体験をすることが可能となる。
As described above, according to the simulated experience device of the third embodiment, the experienced person can perform the simulated experience without moving around, for example, while sitting on a chair.

【0063】[0063]

【発明の効果】以上、請求項1の発明に係る擬似体験装
置によれば、体験者の視線が仮想主体の身体方向に向け
られると、体験者の身体形状を模した仮想主体の形状デ
−タが空間デ−タと重畳して立体表示装置に表示される
ので、視覚的により高い没入感を得られるまた、請求項
2の発明に係る擬似体験装置によれば、体験者の視線が
仮想主体の身体方向に向けられると、動物の種類、雌雄
の別等複数の身体形状を模した仮想主体の形状デ−タの
内から選択されている形状デ−タが空間デ−タと重畳し
て立体表示装置に表示されるので、請求項1記載の擬似
体験装置の効果と同じものが得られる。
As described above, according to the simulated experience device according to the invention of claim 1, when the sight line of the experience person is directed in the body direction of the virtual subject, the shape data of the virtual subject imitating the body shape of the experience person is displayed. Since the data is superimposed on the spatial data and displayed on the stereoscopic display device, a higher immersive feeling can be visually obtained. Further, according to the simulated experience device according to the invention of claim 2, the line of sight of the experience person is virtual. When directed toward the body of the subject, the shape data selected from the shape data of the virtual subject imitating a plurality of body shapes such as the type of animal and male and female are superimposed on the spatial data. Since it is displayed on the stereoscopic display device, the same effect as the effect of the simulated experience device according to the first aspect can be obtained.

【0064】また、請求項3の発明に係る擬似体験装置
によれば、体験者の視線が仮想主体の身体方向に向けら
れると、その時の体験者の頭部高さに応じた姿勢デ−タ
が空間デ−タと重畳して立体表示装置に表示されるの
で、請求項1記載の擬似体験装置の効果と同じものが得
られる。また、請求項4の発明に係る擬似体験装置によ
れば、移動中に体験者の視線が仮想主体の身体方向に向
けられると、一連の移動動作デ−タが空間デ−タと重畳
して立体表示装置に表示されるので、請求項1記載の擬
似体験装置の効果と同じものが得られる。
According to the simulated experience device according to the third aspect of the present invention, when the sight line of the experience person is directed toward the body of the virtual subject, the posture data corresponding to the head height of the experience person at that time. Is displayed on the stereoscopic display device while being superimposed on the spatial data, the same effect as that of the simulated experience device according to the first aspect can be obtained. Further, according to the simulated experience device according to the invention of claim 4, when the line of sight of the experience person is directed toward the body of the virtual subject during movement, a series of movement motion data is superimposed on the spatial data. Since it is displayed on the stereoscopic display device, the same effect as the effect of the simulated experience device according to claim 1 can be obtained.

【0065】また、請求項5の発明に係る擬似体験装置
によれば、複数の音源位置各々に対応したドライソ−ス
から生成した再生音デ−タが音声に変換され音場再生装
置に出力されるので、聴覚的により高い没入感が得られ
る。また、請求項6の発明に係る擬似体験装置によれ
ば、体験者の体の一部の位置と仮想物体の表面の位置と
が一致すると、一致した仮想物体に対応したドライソ−
スから生成した再生音デ−タが音声に変換され音場再生
装置に出力されるので、聴覚的により高い没入感が得ら
れる。
According to the simulated experience device of the fifth aspect of the present invention, the reproduced sound data generated from the dry source corresponding to each of the plurality of sound source positions is converted into sound and output to the sound field reproducing device. As a result, a higher level of immersive feeling can be obtained auditorily. According to the simulated experience device according to the invention of claim 6, when the position of a part of the body of the experience person and the position of the surface of the virtual object match, a dry source corresponding to the matched virtual object.
Since the reproduced sound data generated from the audio data is converted into voice and output to the sound field reproducing device, a higher immersive feeling can be obtained auditorily.

【0066】また、請求項7の発明に係る擬似体験装置
によれば、音声入力手段から入力された音声から生成し
た再生音デ−タが音声に変換され音場再生装置に出力さ
れるので、聴覚的により高い没入感が得られる。また、
請求項8の発明に係る擬似体験装置によれば、体験者が
音声により、仮想主体の身体方向に向くよう指示をする
と、体験者の身体形状を模した仮想主体の形状デ−タが
空間デ−タと重畳して立体表示装置に表示されるので、
請求項1記載の擬似体験装置の効果と同じものが得ら
れ、さらに、体験者は動き回ることなく、例えば椅子に
腰掛けたままで、擬似体験をすることが可能となるとい
った効果も得られる。
According to the simulated experience device according to the invention of claim 7, the reproduced sound data generated from the sound inputted from the sound input means is converted into the sound and outputted to the sound field reproducing device. Higher immersive feeling is obtained. Also,
According to the simulated experience device according to the invention of claim 8, when the experience person gives a voice instruction to face the body of the virtual subject, the shape data of the virtual subject that imitates the body shape of the experience person is spatial data. -Because it is displayed on the stereoscopic display device in a superimposed manner,
The same effect as the effect of the simulated experience device according to the first aspect is obtained, and further, the effect that the experienced person can perform the simulated experience without moving around, for example, while sitting on a chair.

【図面の簡単な説明】[Brief description of drawings]

【図1】第1実施例の擬似体験装置の全体構成を示す図
である。
FIG. 1 is a diagram showing an overall configuration of a simulated experience device according to a first embodiment.

【図2】第1実施例における、主体選択メニュ−を示す
図である。
FIG. 2 is a diagram showing a main body selection menu in the first embodiment.

【図3】第1、2実施例における、手元入力装置の外観
形状を示す図である。
FIG. 3 is a diagram showing the external shape of the hand-held input device according to the first and second embodiments.

【図4】第1実施例における、主体静止形状デ−タ格納
部の内容を示す図である。
FIG. 4 is a diagram showing the contents of a stationary stationary shape data storage unit in the first embodiment.

【図5】第1実施例における、主体動作形状デ−タ格納
部の内容を示す図である。
FIG. 5 is a diagram showing the contents of a main motion shape data storage unit in the first embodiment.

【図6】第1実施例における、主体形状一時記憶部の内
容を示す図である。
FIG. 6 is a diagram showing the contents of a main body shape temporary storage unit in the first embodiment.

【図7】第1実施例における、本装置の処理手順を示す
フローチャートである。
FIG. 7 is a flowchart showing a processing procedure of the present apparatus in the first embodiment.

【図8】第1実施例における、主体形状一時記憶部の記
憶状態の内容を示す図である。
FIG. 8 is a diagram showing contents of a storage state of a main body shape temporary storage unit in the first embodiment.

【図9】第1実施例における、ゴ−グル型立体表示装置
の画面表示の一例を示す図である。
FIG. 9 is a diagram showing an example of a screen display of the goggle type stereoscopic display device in the first embodiment.

【図10】第1実施例における、ゴ−グル型立体表示装
置の画面表示の一例を示す図である。
FIG. 10 is a diagram showing an example of a screen display of the goggle type stereoscopic display device in the first embodiment.

【図11】第1実施例における、ゴ−グル型立体表示装
置の画面表示の一例を示す図である。
FIG. 11 is a diagram showing an example of a screen display of the goggle type stereoscopic display device in the first embodiment.

【図12】第2実施例の擬似体験装置の全体構成を示す
図である。
FIG. 12 is a diagram showing an overall configuration of a simulated experience device according to a second embodiment.

【図13】第2実施例における、音源選択メニュ−を示
す図である。
FIG. 13 is a diagram showing a sound source selection menu in the second embodiment.

【図14】第2実施例における、接触部領域格納部の内
容を示す図である。
FIG. 14 is a diagram showing the contents of a contact area storage unit in the second embodiment.

【図15】第2実施例における、衝撃音ドライソ−ス格
納部の内容を示す図である。
FIG. 15 is a diagram showing the contents of an impact sound dry source storage unit in the second embodiment.

【図16】第2実施例における、連続音用帯域応答格納
領域の内容を示す図である。
FIG. 16 is a diagram showing the contents of a continuous sound band response storage area in the second embodiment.

【図17】第2実施例における、衝撃音用帯域応答格納
領域の内容を示す図である。
FIG. 17 is a diagram showing the contents of an impact sound band response storage area in the second embodiment.

【図18】第2実施例における、体験者音声用帯域応答
格納領域の内容を示す図である。
FIG. 18 is a diagram showing the contents of a bandwidth response storage area for experience voice in the second embodiment.

【図19】第2実施例における、本装置の処理手順を示
すフローチャートである。
FIG. 19 is a flowchart showing a processing procedure of the present apparatus in the second embodiment.

【図20】第2実施例における、本装置の処理手順を示
すフローチャートである。
FIG. 20 is a flowchart showing a processing procedure of the present apparatus in the second embodiment.

【図21】第2実施例における、本装置の処理手順を示
すフローチャートである。
FIG. 21 is a flowchart showing a processing procedure of the present apparatus in the second embodiment.

【図22】第2実施例における、本装置の処理手順を示
すフローチャートである。
FIG. 22 is a flowchart showing a processing procedure of the present apparatus in the second embodiment.

【図23】第3実施例の擬似体験装置の全体構成を示す
図である。
FIG. 23 is a diagram showing an overall configuration of a simulated experience device according to a third embodiment.

【図24】第3実施例における、基準音声パタ−ン格納
部304の内容を示す図である。
FIG. 24 is a diagram showing the contents of a reference voice pattern storage unit 304 in the third embodiment.

【図25】第3実施例における、指示コ−ド一時記憶部
305の内容を示す図である。
FIG. 25 is a diagram showing the contents of an instruction code temporary storage unit 305 in the third embodiment.

【図26】第3実施例における、指示量格納部306の
内容を示す図である。
FIG. 26 is a diagram showing the contents of an instruction amount storage unit 306 in the third embodiment.

【図27】第3実施例における、本装置の処理手順を示
すフローチャートである。
FIG. 27 is a flowchart showing a processing procedure of the present device in the third embodiment.

【図28】第3実施例における、指示コ−ド一時記憶部
305の記憶状態の一例を示す図である。
FIG. 28 is a diagram showing an example of a storage state of an instruction code temporary storage unit 305 in the third embodiment.

【符号の説明】[Explanation of symbols]

107 空間デ−タ格納部 108 主体静止形状デ−タ格納部 109 主体動作形状デ−タ格納部 110 主体形状一時記憶部 210 接触部領域格納部 211 連続音音源装置 212 衝撃音ドライソ−ス格納部 214 帯域応答格納部 215 頭部伝達関数格納部 303 入力音声パタ−ン一時記憶部 304 基準音声パタ−ン格納部 107 Spatial data storage unit 108 Main stationary shape data storage unit 109 Main motion shape data storage unit 110 Main shape temporary storage unit 210 Contact area storage unit 211 Continuous sound source device 212 Impact sound dry source storage unit 214 Band response storage unit 215 Head related transfer function storage unit 303 Input voice pattern temporary storage unit 304 Reference voice pattern storage unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 児玉 久 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 ─────────────────────────────────────────────────── ─── Continuation of front page (72) Inventor Hisashi Kodama 1006 Kadoma, Kadoma City, Osaka Prefecture Matsushita Electric Industrial Co., Ltd.

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 体験者の頭部に取り付けられて使用され
る立体表示装置と、 立体表示装置の表示対象となる仮想空間の3次元デ−タ
を格納する空間デ−タ格納手段と、 体験者の頭部の位置及び向きを検出する検出手段と、 検出結果から定まる体験者の視点位置をもとに所定の空
間デ−タを選択し表示装置に表示させる第1の表示制御
手段と、 体験者の身体形状を模した仮想主体の形状デ−タを格納
する主体形状デ−タ格納手段と、 検出手段の検出結果に従い、体験者の視線が仮想主体の
身体方向に向けられると、主体形状デ−タを主体形状デ
−タ格納手段から読み出し、空間デ−タと重畳して立体
表示装置にて表示する第2の表示制御手段と、 を備えたことを特徴とする擬似体験装置。
1. A stereoscopic display device attached to a head of a user to be used, spatial data storage means for storing three-dimensional data of a virtual space to be displayed by the stereoscopic display device, and an experience. Detection means for detecting the position and orientation of the person's head; first display control means for selecting predetermined spatial data based on the viewpoint position of the experience person determined from the detection result and displaying it on the display device; The subject shape data storage means for storing the shape data of the virtual subject imitating the experience subject's body shape, and, according to the detection result of the detection means, when the sight line of the experience person is directed to the body direction of the virtual subject, A simulated experience device comprising: second display control means for reading the shape data from the main shape data storage means and superimposing the spatial data on the stereoscopic display device.
【請求項2】 前記主体形状デ−タ格納手段は、動物の
種類、雌雄の別等複数の身体形状を模した仮想主体の形
状デ−タも格納しており、 前記主体形状デ−タ格納手段に格納されている複数種類
の形状デ−タの内の一つを選択する選択手段を備え、 前記第2の表示制御手段は、前記検出手段の検出結果に
従い、体験者の視線が仮想主体の身体方向に向けられる
と、前記選択手段で選択された主体形状デ−タを主体形
状デ−タ格納手段から読み出し、前記空間デ−タと重畳
して立体表示装置にて表示することを特徴とする請求項
1記載の擬似体験装置。
2. The main body shape data storage means also stores shape data of a virtual main body imitating a plurality of body shapes such as animal types and sexes, and the main body shape data storage means. The second display control means includes a selection means for selecting one of a plurality of types of shape data stored in the means, and the second display control means determines that the line of sight of the experience person is the virtual subject. The main shape data selected by the selecting means is read from the main shape data storing means, and is superimposed on the space data and displayed on the stereoscopic display device. The simulated experience device according to claim 1.
【請求項3】 前記主体形状デ−タ格納手段は、形状デ
−タ種別毎に、体験者の頭部高さで決定される姿勢状態
を表す姿勢デ−タを複数格納しており、 前記第2の表示制御手段は、前記検出手段の検出結果に
従い、体験者の視線が仮想主体の身体方向に向けられる
と、その時の頭部高さに応じた姿勢デ−タを主体形状デ
−タ格納手段から読み出し、前記空間デ−タと重畳して
立体表示装置にて表示することを特徴とする請求項1ま
たは請求項2記載の擬似体験装置。
3. The main body shape data storage means stores a plurality of posture data representing a posture state determined by a head height of an experience person for each shape data type. According to the detection result of the detection means, the second display control means, when the sight line of the experience person is directed toward the body of the virtual subject, the posture data corresponding to the head height at that time is used as the subject shape data. The simulated experience device according to claim 1 or 2, wherein the simulated experience device is read out from a storage means, and is superimposed on the spatial data and displayed on a stereoscopic display device.
【請求項4】 前記主体形状デ−タ格納手段は、形状デ
−タ種別毎に、移動動作に伴って変化する一連の移動動
作デ−タを格納しており、 体験者の前記空間内での移動速度を検出する速度検出手
段と、 前記検出手段の検出結果に従い、体験者の視線が仮想主
体の身体方向に向けられると、前記速度検出手段で検出
された体験者の移動速度に応じて、前記移動動作デ−タ
を順次前記空間デ−タと重畳して立体表示装置にて表示
する第3の表示制御手段と、を備えたことを特徴とする
請求項1または請求項2記載の擬似体験装置。
4. The main body shape data storage means stores a series of moving motion data that changes with a moving motion for each shape data type, and in the space of the experience person. According to the detection result of the detection means of the moving speed of, the sight line of the experience person is directed to the body direction of the virtual subject, according to the movement speed of the experience person detected by the speed detection means. 3. A third display control means for sequentially superimposing the movement data on the spatial data and displaying the spatial movement data on a stereoscopic display device. Simulated experience device.
【請求項5】 体験者の頭部に取り付けられて使用され
る立体表示装置と、 立体表示装置の表示対象となる仮想空間の3次元デ−タ
を格納する空間デ−タ格納手段と、 体験者の頭部の位置及び向きを検出する検出手段と、 検出結果から定まる体験者の視点位置をもとに所定の空
間デ−タを選択し表示装置に表示させる表示制御手段
と、 体験者の頭部に取り付けられて使用される音場再生装置
と、 前記空間内の複数の位置を音源位置とし任意の位置を受
音点とした時の各周波数帯毎のエコ−タイムパタ−ンに
各周波数帯毎のバンドパスフィルタを畳み込むことによ
って得られる各周波数帯毎の応答を格納した帯域応答格
納手段と、 頭部伝達関数を格納する頭部伝達関数格納手段と、 無響音の音響デ−タであり、前記音源位置に対応したド
ライソ−スを複数格納するドライソ−ス格納手段とを備
え、 各音源毎に、前記検出手段の検出結果から定まる体験者
の頭部の位置を前記空間中における受音点とし、その位
置に対応した前記帯域応答にドライソ−スと頭部伝達関
数を畳み込むことにより各音源の各周波数帯毎の応答を
算出し、 各音源の各周波数帯毎の応答を同一周波数帯毎に合成し
た後に、全周波数帯にわたって合成することによって再
生音デ−タを生成し、 前記再生音デ−タを音声に変換して前記音場再生装置に
出力することを特徴とする擬似体験装置。
5. A stereoscopic display device attached to a head of a user for use, spatial data storage means for storing three-dimensional data of a virtual space to be displayed by the stereoscopic display device, and an experience. Detection means for detecting the position and orientation of the person's head, display control means for selecting and displaying predetermined spatial data on the display device based on the viewpoint position of the experience person determined from the detection result, and A sound field reproducing device attached to the head and used, and each frequency in an eco-time pattern for each frequency band when a plurality of positions in the space are sound source positions and arbitrary positions are sound receiving points. Band response storage means for storing a response for each frequency band obtained by convolving band-pass filters for each band, head-related transfer function storage means for storing a head-related transfer function, and acoustic data of anechoic sound. , Which corresponds to the sound source position A dry source storage means for storing a plurality of sources, and the position of the head of the experience person, which is determined from the detection result of the detection means, is set as a sound receiving point in the space for each sound source, and corresponds to the position. The response for each frequency band of each sound source is calculated by convolving the dry source and the head related transfer function to the band response, and after the responses for each frequency band of each sound source are combined for each same frequency band, A simulated experience device, wherein reproduced sound data is generated by synthesizing over a frequency band, the reproduced sound data is converted into a sound, and the sound is output to the sound field reproducing device.
【請求項6】 体験者の頭部に取り付けられて使用され
る立体表示装置と、 立体表示装置の表示対象となる仮想空間の3次元デ−タ
を格納する空間デ−タ格納手段と、 体験者の頭部の位置及び向きを検出する第1の検出手段
と、 検出結果から定まる体験者の視点位置をもとに所定の空
間デ−タを選択し表示装置に表示させる表示制御手段
と、 体験者の頭部に取り付けられて使用される音場再生装置
と、 表示対象空間の背景に存する壁、家具、窓等の仮想物体
の表面における所定位置を音源位置とし任意の位置を受
音点とした時の各周波数帯毎のエコ−タイムパタ−ンに
各周波数帯毎のバンドパスフィルタを畳み込むことによ
って得られる各周波数帯毎の応答を格納した帯域応答格
納手段と、 頭部伝達関数を格納する頭部伝達関数格納手段と、 無響音の音響デ−タであり、前記仮想物体に対応したド
ライソ−スを複数格納するドライソ−ス格納手段と、 体験者の体の一部の位置を検出する第二の検出手段とを
備え、 体験者が仮想空間内を移動することにより、第二の検出
手段によって検出される位置デ−タと前記仮想物体の位
置デ−タとが一致した際に、前記第1の検出手段の検出
結果から定まる体験者の頭部の位置に対応した前記帯域
応答に位置デ−タが一致した仮想物体に対応したドライ
ソ−スと頭部伝達関数とを畳み込むことにより各周波数
帯毎の応答を算出し、 各周波数帯毎の応答を全周波数帯にわたって合成するこ
とによって再生音デ−タを生成し、 前記再生音デ−タを音声に変換して前記音場再生装置に
出力することを特徴とする擬似体験装置。
6. A stereoscopic display device attached to a head of a user to be used, spatial data storage means for storing three-dimensional data of a virtual space to be displayed by the stereoscopic display device, and an experience. First detection means for detecting the position and orientation of the person's head; display control means for selecting predetermined space data based on the viewpoint position of the experience person determined from the detection result and displaying it on the display device; A sound field playback device that is used by being attached to the user's head and a sound source position at a predetermined position on the surface of a virtual object such as a wall, furniture, or window in the background of the display target space, and an arbitrary position as a sound receiving point And the head-related transfer function, and the band response storage means for storing the response for each frequency band obtained by convolving the band-pass filter for each frequency band into the eco-time pattern for each frequency band. Head-related transfer function storage means Dry sound storage means for storing a plurality of dry sources corresponding to the virtual object, and second detection means for detecting the position of a part of the body of the experiencer. When the experience person moves in the virtual space so that the position data detected by the second detection means and the position data of the virtual object coincide with each other, the first detection means is provided. Response for each frequency band by convolving the dry source and the head related transfer function corresponding to the virtual object whose position data coincides with the band response corresponding to the position of the head of the experience person determined from the detection result of Is calculated, reproduced sound data is generated by synthesizing responses for each frequency band over all frequency bands, and the reproduced sound data is converted into voice and output to the sound field reproducing device. Characteristic simulated experience device.
【請求項7】 体験者の頭部に取り付けられて使用され
る立体表示装置と、 立体表示装置の表示対象となる仮想空間の3次元デ−タ
を格納する空間デ−タ格納手段と、 体験者の頭部の位置及び向きを検出する検出手段と、 検出結果から定まる体験者の視点位置をもとに所定の空
間デ−タを選択し表示装置に表示させる表示制御手段
と、 体験者の頭部に取り付けられて使用される音場再生装置
と、 体験者の口元近くでの音声を入力する音声入力手段と、 前記空間内において、体験者の口元を音源位置とし体験
者の両耳の近傍を受音点とした時の各周波数帯毎のエコ
−タイムパタ−ンに各周波数帯毎のバンドパスフィルタ
を畳み込むことによって得られる各周波数帯毎の応答を
格納した帯域応答格納手段と、 頭部伝達関数を格納する頭部伝達関数格納手段とを備
え、 前記検出手段の検出結果から定まる体験者の頭部の位置
に対応した前記帯域応答に前記音声入力手段から入力さ
れた音声と頭部伝達関数を畳み込むことにより各周波数
帯毎の応答を算出し、 各周波数帯毎の応答を全周波数帯にわたって合成するこ
とによって再生音デ−タを生成し、 前記再生音デ−タを音声に変換して前記音場再生装置に
出力することを特徴とする擬似体験装置。
7. A stereoscopic display device attached to a head of a user for use, spatial data storage means for storing three-dimensional data of a virtual space to be displayed by the stereoscopic display device, and an experience. Detection means for detecting the position and orientation of the person's head, display control means for selecting and displaying predetermined spatial data on the display device based on the viewpoint position of the experience person determined from the detection result, and A sound field reproduction device attached to the head and used, a voice input means for inputting a sound near the mouth of the experience person, and a mouth of the experience person as a sound source position in the space of the experience person Band response storage means for storing the response for each frequency band obtained by convolving the bandpass filter for each frequency band into the eco-time pattern for each frequency band when the neighborhood is the sound receiving point, and Head transfer storing partial transfer functions A number storage unit, and convolves the voice input from the voice input unit and the head related transfer function into the band response corresponding to the position of the head of the experience person determined from the detection result of the detection unit, The response for each frequency is calculated, and the reproduced sound data is generated by synthesizing the response for each frequency band over the entire frequency band, and the reproduced sound data is converted into voice and output to the sound field reproducing device. A simulated experience device that is characterized by:
【請求項8】 複数の音声波形とその各々に対応した指
示情報とを格納する基準音声パタ−ン格納部を備え、 前記検出手段は、体験者の発する音声の波形と基準音声
パタ−ン格納部の格納内容とから指示情報を検出する検
出手段であることを特徴とする請求項1記載の擬似体験
装置。
8. A reference voice pattern storage unit for storing a plurality of voice waveforms and instruction information corresponding to each of the plurality of voice waveforms, wherein the detection means stores a waveform of a voice uttered by a user and a reference voice pattern storage. The simulated experience device according to claim 1, wherein the simulated experience device is a detection unit that detects the instruction information from the stored content of the unit.
JP11989795A 1995-05-18 1995-05-18 Simulated experience device Expired - Lifetime JP3575868B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11989795A JP3575868B2 (en) 1995-05-18 1995-05-18 Simulated experience device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11989795A JP3575868B2 (en) 1995-05-18 1995-05-18 Simulated experience device

Publications (2)

Publication Number Publication Date
JPH08315175A true JPH08315175A (en) 1996-11-29
JP3575868B2 JP3575868B2 (en) 2004-10-13

Family

ID=14772936

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11989795A Expired - Lifetime JP3575868B2 (en) 1995-05-18 1995-05-18 Simulated experience device

Country Status (1)

Country Link
JP (1) JP3575868B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007156642A (en) * 2005-12-01 2007-06-21 Matsushita Electric Works Ltd Virtual space experience system
US8585498B2 (en) 2003-04-17 2013-11-19 Nintendo Co., Ltd. Image processing apparatus and storing medium that stores image processing program
JP2019066906A (en) * 2017-09-28 2019-04-25 株式会社コロプラ Program implemented on computer and information processing apparatus for providing virtual reality by using head-mounted device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8585498B2 (en) 2003-04-17 2013-11-19 Nintendo Co., Ltd. Image processing apparatus and storing medium that stores image processing program
JP2007156642A (en) * 2005-12-01 2007-06-21 Matsushita Electric Works Ltd Virtual space experience system
JP2019066906A (en) * 2017-09-28 2019-04-25 株式会社コロプラ Program implemented on computer and information processing apparatus for providing virtual reality by using head-mounted device

Also Published As

Publication number Publication date
JP3575868B2 (en) 2004-10-13

Similar Documents

Publication Publication Date Title
CN112567768B (en) Spatial audio for interactive audio environments
US9906885B2 (en) Methods and systems for inserting virtual sounds into an environment
Picinali et al. Exploration of architectural spaces by blind people using auditory virtual reality for the construction of spatial knowledge
CN107277736B (en) Simulation system, sound processing method, and information storage medium
TWI268797B (en) Game software and game machine
CN101006492A (en) Hrizontal perspective display
CN110915240B (en) Method for providing interactive music composition to user
US20140119580A1 (en) Information processing system, computer-readable non-transitory storage medium having stored therein information processing program, information processing control method, and information processing apparatus
US20090141905A1 (en) Navigable audio-based virtual environment
JP3575868B2 (en) Simulated experience device
Röber et al. Interacting With Sound: An Interaction Paradigm for Virtual Auditory Worlds.
JPH0546193A (en) Reflected sound extraction device
Jäger et al. Navigation in an audio-only first person adventure game
KR100697442B1 (en) Method for simulating a movement by means of an acoustic reproduction device and sound reproduction arrangement therefor
WO1994023406A1 (en) Non-contact audio delivery system for a three-dimensional sound presentation
JP3374484B2 (en) Video game equipment
Katz et al. Exploration of virtual acoustic room simulations by the visually impaired
JP2002218599A (en) Sound signal processing unit, sound signal processing method
WO2022220182A1 (en) Information processing method, program, and information processing system
WO2022113394A1 (en) Live data delivering method, live data delivering system, live data delivering device, live data reproducing device, and live data reproducing method
WO2022113393A1 (en) Live data delivery method, live data delivery system, live data delivery device, live data reproduction device, and live data reproduction method
JP6603734B2 (en) GAME PROGRAM AND GAME DEVICE
Serafin et al. Sonic Interactions in Virtual Reality
CN101960849A (en) Broadcast system, transmission device, transmission method, reception device, reception method, presentation device, presentation method, program, and recording medium
Rajguru Shaping sound like we do with light

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040302

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040706

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070716

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080716

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090716

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090716

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100716

Year of fee payment: 6