JPH06121311A - Virtual reality space sharing system - Google Patents

Virtual reality space sharing system

Info

Publication number
JPH06121311A
JPH06121311A JP4266159A JP26615992A JPH06121311A JP H06121311 A JPH06121311 A JP H06121311A JP 4266159 A JP4266159 A JP 4266159A JP 26615992 A JP26615992 A JP 26615992A JP H06121311 A JPH06121311 A JP H06121311A
Authority
JP
Japan
Prior art keywords
voice
virtual reality
motion
reality space
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4266159A
Other languages
Japanese (ja)
Inventor
Yoshitsugu Menju
尚嗣 毛受
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP4266159A priority Critical patent/JPH06121311A/en
Publication of JPH06121311A publication Critical patent/JPH06121311A/en
Pending legal-status Critical Current

Links

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)
  • Computer And Data Communications (AREA)
  • Television Systems (AREA)

Abstract

PURPOSE:To obtain a system in which one virtual reality space can be shared by plural terminals in order to realize a communication with a presence. CONSTITUTION:Plural terminals T having virtual reality space preparing means connected with a communication line (ISDN) perform an access to one virtual reality space preparing part (CS) connected to the communication line. Thus, the information of the plural terminals T can be synthesized into one by the CS, the synthesized information can be outputted to the plural terminals T, and a virtual reality space can be prepared by the virtual reality space preparing means based on the synthesized information.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、通信回線を使用し、複
数の人間が1つの仮想現実空間を供用することによりコ
ミュニケーションをする仮想現実空間供用システムに関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a virtual reality space service system in which a plurality of people communicate by using one virtual reality space using a communication line.

【0002】[0002]

【従来の技術】従来、複数の離れた場所から会議をする
とき、会議場にテレビを配置し、遠方の人間をカメラで
撮影し、その撮影した画像を通信回線を使い転送し、そ
して、会議場に配置したテレビに放映する。他方、会議
場の人間をカメラで撮影し、同様に通信回線を使い転送
し、遠方の人間のところに配置したテレビに放映する。
これらの動作ににより遠方の人間が会議に参加すること
ができるTV会議システムが知られている。
2. Description of the Related Art Conventionally, when a conference is held from a plurality of distant places, a television is arranged in a conference room, a distant person is photographed by a camera, the photographed image is transferred through a communication line, and the conference is performed. Broadcast on the TV set on the spot. On the other hand, a person in the conference hall is photographed by a camera, similarly transferred using a communication line, and broadcast on a television placed at a distant person.
A video conferencing system is known in which a person from a distance can participate in a conference by these operations.

【0003】[0003]

【発明が解決しようとする課題】しかし、このTV会議
システムでは、人間を撮影するカメラや各会場に設置す
るテレビ等により設備が大型化する。また、複数の人間
のアクセスがあると図10のように分割されて表示さ
れ、臨場感が無くなる。さらに、画像データを転送して
いるのでデータ量が膨大な量になる等の問題点があっ
た。本発明の課題は、カメラや大型テレビを必要とせ
ず、図11に示すように仮想現実空間に作られた部屋に
複数の人間が集ることにより臨場感があり、転送データ
量の少ない仮想現実空間供用システムを提供することで
ある。
However, in this video conference system, the equipment becomes large due to the cameras for photographing humans and the televisions installed at each venue. Further, when a plurality of people access, it is divided and displayed as shown in FIG. 10, and the sense of presence is lost. Further, since the image data is transferred, there is a problem that the amount of data becomes enormous. An object of the present invention is to provide a virtual reality in which a plurality of people gather in a room created in a virtual reality space as shown in FIG. It is to provide a space service system.

【0004】[0004]

【課題を解決するための手段】請求項1記載の発明の手
段は、仮想現実空間を作成する仮想現実空間作成手段
と、通信回線に接続され前記仮想現実空間作成手段を有
する複数の端末手段と、前記通信回線に接続され前記複
数の端末手段と送受信を行ない、該複数の端末手段から
送られてくる情報を1つにまとめ、それぞれの端末手段
に該1つにまとめた情報を出力する少なくとも1つの情
報供用手段と、を有する。
According to a first aspect of the present invention, there is provided a virtual reality space creating means for creating a virtual reality space, and a plurality of terminal means connected to a communication line and having the virtual reality space creating means. , Is connected to the communication line, transmits / receives to / from the plurality of terminal means, collects information sent from the plurality of terminal means, and outputs the combined information to each terminal means. And one information providing means.

【0005】前記端末手段は、さらに、人間の動作を検
出する動作検出手段と、前記動作検出手段により検出さ
れた動作データを転送する動作データ転送手段と、を有
することが望ましい。
It is desirable that the terminal means further includes a motion detecting means for detecting a human motion and a motion data transferring means for transferring the motion data detected by the motion detecting means.

【0006】前記動作検出手段は、さらに、音声を検出
する音声検出手段と、前記音声検出手段により検出した
音声を認識する音声認識手段と、発音音声に対応した口
の動作を記憶している第1の記憶手段と、前記音声認識
手段により認識された音声に基づき前記第1の記憶手段
に記憶されている口の動作を判別する第1の判別手段
と、を有することが望ましい。
The motion detecting means further stores a voice detecting means for detecting a voice, a voice recognizing means for recognizing the voice detected by the voice detecting means, and a mouth movement corresponding to a voiced voice. It is desirable to have one storage means and a first determination means for determining the mouth movement stored in the first storage means based on the voice recognized by the voice recognition means.

【0007】前記動作検出手段は、さらに、前記音声認
識手段により認識された音声に基づいて言語を認識する
言語認識手段と、言語に対応した顔の動作を記憶してい
る第2の記憶手段と、前記言語認識手段により認識され
た言語に基づき前記第2の記憶手段に記憶されている顔
の動作を判別する第2の判別手段と、を有することが望
ましい。
The action detecting means further includes a language recognizing means for recognizing a language based on the voice recognized by the voice recognizing means, and a second storing means for storing a face action corresponding to the language. It is desirable to have a second discriminating means for discriminating the motion of the face stored in the second storage means based on the language recognized by the language recognizing means.

【0008】前記動作検出手段は、さらに、体の各部の
動作のベクトル量を検出するベクトル量検出手段を有す
ることが望ましい。
It is desirable that the motion detecting means further has a vector amount detecting means for detecting a vector amount of the motion of each part of the body.

【0009】さらに、請求項6記載の発明の手段は、1
つの仮想現実空間を複数の端末が供用する手段を有す
る。
The means of the invention according to claim 6 is 1
It has a means for a plurality of terminals to use one virtual reality space.

【0010】[0010]

【作用】複数の端末から通信回線を使用し、1つの供用
空間をアクセスし、情報を供用することにより仮想現実
空間でその供用情報再現する。
The service information is reproduced in the virtual reality space by using a communication line from a plurality of terminals to access one service space and service information.

【0011】[0011]

【実施例】以下、本発明の実施例について図面を参照し
ながら説明する。図1は、本発明の仮想現実空間供用シ
ステムの概念図である。図1において、各端末Tは、通
信回線(ISDN)に接続され、仮想現実空間を作成す
る装置を有している。さらに、この通信回線には、CS
(Community Stage)が接続されていて、このCSを各
端末Tがアクセスすることにより1つの各端末Tのそれ
ぞれの情報を供用することができる。この供用情報を各
端末Tが仮想現実空間作成装置で再生することによりあ
たかも複数の人間が1つの場所でコミュニケーションを
しているように臨場感のある会議ができる。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a conceptual diagram of a virtual reality space service system of the present invention. In FIG. 1, each terminal T has a device connected to a communication line (ISDN) and creating a virtual reality space. In addition, CS
(Community Stage) is connected, and each terminal T can access this CS to use the information of each one terminal T. When each terminal T reproduces this service information by the virtual reality space creation device, a realistic meeting can be performed as if a plurality of people were communicating at one place.

【0012】なお、送受信するデータは、画像データそ
のものを送受信するのではなく、人間の動作データを送
受信する。つまり、端末Tでは、各端末TのIDに対応
した画像データを有していて、その画像データに送信さ
れてきた動作データに基づき動いた画像を合成すること
により画像を動いているように見せる。また、IDを登
録してない端末Tは、所定フォーマットの画像データを
表示する。さらに、各端末TとCSの回線接続は、所定
の手続に従い行なわれる。
The data to be transmitted / received is not the image data itself, but the human motion data. That is, the terminal T has the image data corresponding to the ID of each terminal T, and the image is made to appear to be moving by synthesizing the moving image based on the motion data transmitted to the image data. . Further, the terminal T which has not registered the ID displays the image data in a predetermined format. Further, the line connection between each terminal T and CS is performed according to a predetermined procedure.

【0013】図2、3は、本発明の一実施例である。図
1は、端末の一実施例であり、例えば、頭にヘルメット
1をかぶり、手にグローブ2をする。このヘルメット1
には、検出部と報知部とがある。検出部は、頭の動作を
検出するものであり、動作方向と動作量を検出するベク
トルセンサと音声を検出するマイクとから成る。報知部
は、通常目で見えるべき画像を表示し、左右の目に別々
の画像を表示し、立体感がでるようにしてある表示装置
と音声を放音するスピーカとから成る。また、グローブ
2には、検出部であり、手の動作を検出するベクトルセ
ンサと指の動作を検出するベクトルセンサが備えられて
いる。
2 and 3 show an embodiment of the present invention. FIG. 1 shows an example of a terminal, for example, a helmet 1 is put on the head and a glove 2 is put on the hand. This helmet 1
Has a detection unit and a notification unit. The detection unit detects the movement of the head, and includes a vector sensor that detects the movement direction and the movement amount, and a microphone that detects a voice. The notification unit is configured by a display device that displays an image that should normally be seen by the eyes, separate images displayed on the left and right eyes, a stereoscopic effect, and a speaker that emits sound. Further, the glove 2 is a detection unit, and is provided with a vector sensor that detects a motion of a hand and a vector sensor that detects a motion of a finger.

【0014】なお、上記表示装置は、例えば、図3のよ
うに通常自分の目で見ているような表示になり、あたか
も同じ場所で会議をしているように見える。
It should be noted that, for example, as shown in FIG. 3, the above-mentioned display device has a display as seen by one's own eyes, and it looks as if a conference is being held at the same place.

【0015】それぞれの検出部及び報知部は、端末本体
に接続されており、この端末本体において認識を行い、
検出部により検出されたデータに基づいて動作データと
音声データとを作成し、通信回線を通じて接続されてい
るCSに送信する。また、通信回線を通じて受信された
動作データと音声データに基づいて画像データと音声デ
ータを作成し、報知部に出力している。
Each of the detecting section and the notifying section is connected to the terminal body, and the terminal body recognizes and
Based on the data detected by the detection unit, operation data and voice data are created and transmitted to the CS connected through the communication line. Also, image data and audio data are created based on the operation data and audio data received through the communication line, and output to the notification unit.

【0016】上記動作データは、検出部により頭の動
作、手の動作、指の動作が検出される。さらに、頭、手
の動作に付随して生じる体各部の基本動作も動作データ
として作成する。また、マイクにより検出された音声を
音声認識をし、その認識した音声から知識ベース参照す
ることにより口の動作データを作成する。さらに、音声
認識された音声から言語認識をし、その認識した言語か
ら知識ベースを参照することにより顔の動作データを作
成する。これにより動作データとして、体の動作デー
タ、口の動作データ、顔の動作データがそれぞれ作成さ
れる。
In the above-mentioned motion data, the motion of the head, the motion of the hand, and the motion of the finger are detected by the detection unit. Furthermore, basic motions of each part of the body that accompany the motions of the head and hands are also created as motion data. In addition, voice recognition is performed on the voice detected by the microphone, and the mouth movement data is created by referring to the knowledge base from the recognized voice. Furthermore, language recognition is performed from the recognized voice, and the motion data of the face is created by referring to the knowledge base from the recognized language. As a result, body motion data, mouth motion data, and face motion data are created as motion data.

【0017】送受信データは、図4に示すようにヘッダ
ー、動作データ、音声データを時分割デジタル多重化装
置(TDM)を使用して送受信する。なお、ヘッダーに
は、各端末TのID、使用者ID、時間同期データ等が
含まれている。
As for transmission / reception data, as shown in FIG. 4, a header, operation data and voice data are transmitted / received using a time division digital multiplexer (TDM). The header contains the ID of each terminal T, the user ID, the time synchronization data, and the like.

【0018】図5、6は、仮想現実空間供用システムの
ブロック図である。図5は、端末T側のブロック図で、
ベクトルセンサ10、マイク11、スピーカ12、表示
部13、知識ベース14、マイコン15、音声コーディ
ック16、動作データ圧伸部17、音声データ圧伸部1
8、TDM19から構成されている。
5 and 6 are block diagrams of the virtual reality space service system. FIG. 5 is a block diagram of the terminal T side,
Vector sensor 10, microphone 11, speaker 12, display unit 13, knowledge base 14, microcomputer 15, voice codec 16, motion data companding unit 17, voice data companding unit 1
8 and TDM 19.

【0019】まず、送信について説明する。ベクトルセ
ンサ10は、頭、手、指の動作を検出し、それぞれの各
部の動作方向と動作量をマイコン15に出力する。ま
た、マイク11からの音声データを受けて音声コーディ
ック16は、音声をディジタルに変換し、音声データ圧
伸部18に出力すると共にマイコン15にも出力する。
First, the transmission will be described. The vector sensor 10 detects movements of the head, hands, and fingers, and outputs the movement direction and movement amount of each part to the microcomputer 15. Further, upon receiving the voice data from the microphone 11, the voice codec 16 converts the voice into a digital signal and outputs it to the voice data companding unit 18 and also to the microcomputer 15.

【0020】マイコン15は、ベクトルセンサ10から
の体の各部の動作方向と動作量とに基づき検出された体
の各部の動作に付随する他の体の各部の動作方向と動作
量とを後述する知識ベース14を参照することにより推
測する。また、マイク11を介して取込まれた音声デー
タに基づき後述する知識ベース14を参照しながら音声
認識、言語認識をし、さらに、後述する知識ベース14
を参照し、音声認識した音声および言語認識した言語に
基づき口の動作および顔の動作を推測する。そして、こ
れらの動作データ(体の各部の動作、口の動作、顔の動
作)を動作データ圧伸部17に出力する。
The microcomputer 15 will be described later with reference to the movement direction and movement amount of each other body portion which accompanies the movement of each portion of the body detected based on the movement direction and movement amount of each body portion from the vector sensor 10. Guess by referring to the knowledge base 14. In addition, voice recognition and language recognition are performed while referring to a knowledge base 14 described later based on the voice data taken in through the microphone 11, and the knowledge base 14 described later is also used.
With reference to, the mouth movement and the face movement are inferred based on the voice recognized speech and the language recognized language. Then, these motion data (the motion of each part of the body, the motion of the mouth, the motion of the face) are output to the motion data companding unit 17.

【0021】知識ベース14は、上述したように検出さ
れた体の各部の動作に付随する他の体の各部の動作、音
声認識、言語認識、これらの認識データに基づく口及び
顔の動作を推測するためのデータベースである。
The knowledge base 14 infers motions of other parts of the body associated with the motions of the respective parts of the body detected as described above, voice recognition, language recognition, and mouth and face motions based on these recognition data. It is a database for doing.

【0022】マイコン15からの動作データを受けて動
作データ圧伸部17では、動作データを圧縮し、TDM
19に出力する。また、音声コーディック16からの音
声データは、音声データ圧伸部18で圧縮されTDM1
9に出力される。これら圧縮された動作データと音声デ
ータとをTDM19で時分割ディジタル多重化され所定
タイミング位置にヘッダーとして端末ID、使用者I
D、時間同期データ等を付けてISDNに出力する。
In response to the operation data from the microcomputer 15, the operation data companding unit 17 compresses the operation data,
It outputs to 19. In addition, the voice data from the voice codec 16 is compressed by the voice data companding unit 18 and the TDM1.
9 is output. These compressed operation data and voice data are time-divisionally digitally multiplexed by the TDM 19 and a terminal ID as a header and a user I at a predetermined timing position.
D, time synchronization data, etc. are added and output to ISDN.

【0023】次に、受信時の説明をする。ISDNから
TDM19に時分割ディジタル多重化された図4に示さ
れるようなデータが所定タイミング位置で送られてく
る。このタイミング位置のデータを取り出し、ヘッダ
ー、動作データ、音声データにそれぞれ分離し、ヘッダ
ー及び動作データは、動作データ圧伸部17に出力さ
れ、音声データは、音声データ圧伸部18に出力され
る。動作データ圧伸部17では、TDM19からのヘッ
ダー及び動作データを伸張し、マイコン15に出力す
る。また、音声データ圧伸部18では、TDM19から
の音声データを伸張し、音声コーディック16に出力す
る。
Next, the reception will be described. The time-division-multiplexed data as shown in FIG. 4 is sent from the ISDN to the TDM 19 at a predetermined timing position. The data at this timing position is taken out and separated into a header, motion data, and voice data. The header and motion data are output to the motion data companding unit 17, and the voice data is output to the voice data companding unit 18. . The operation data companding unit 17 expands the header and the operation data from the TDM 19 and outputs them to the microcomputer 15. Further, the audio data companding unit 18 expands the audio data from the TDM 19 and outputs it to the audio codec 16.

【0024】マイコン15では、動作データ圧伸部17
からのヘッダー及び動作データを受けて、このヘッダー
の使用者IDと時間同期データからこの動作データは、
どの使用者のどの時間のデータかを検出する。送られて
きたヘッダーの中で、この時間同期データが同じものを
検出し、このヘッダーを有する動作データからそれぞれ
の使用者の前回画像の動いた部分を書換え表示した画像
が立体的に見えるように左右の目に入力する画像を変え
て表示部13へ出力する。このタイミング(すなわち時
間同期データのタイミング)で音声コーディック16ヘ
制御信号を出力し、音声コーディック16では、音声デ
ータ圧伸部18から送られてきた音声データをアナログ
音声データに変換し、マイコン15からの制御信号のタ
イミングでスピーカ12に出力する。
In the microcomputer 15, the operation data companding unit 17
From the header and operation data from, the operation data from the user ID and time synchronization data of this header,
Detect which user's data and which time. In the headers sent, the same time synchronization data is detected, and the motion data with this header makes it possible to reconstruct and display the image in which the moving part of the previous image of each user is re-displayed. The images input to the left and right eyes are changed and output to the display unit 13. A control signal is output to the voice codec 16 at this timing (that is, the timing of the time-synchronized data), and the voice codec 16 converts the voice data sent from the voice data companding unit 18 into analog voice data, and outputs the analog voice data from the microcomputer 15. It outputs to the speaker 12 at the timing of the control signal.

【0025】次に、CS側の説明をする。図6は、CS
側のブロック図であり、交換機100で構成されてい
て、複数の端末に対応する伝送路によりISDNに接続
されている。そして、ISDNから送られてきたそれぞ
れの端末のデータ(ヘッダー、動作データ、音声デー
タ)をそのデータが送られてきた伝送路以外の他の伝送
路に出力する。つまり、ある端末のデータを他のそれぞ
れの端末に出力する。
Next, the CS side will be described. Figure 6 shows CS
FIG. 3 is a block diagram on the side, which is composed of an exchange 100 and is connected to an ISDN by transmission lines corresponding to a plurality of terminals. Then, the data (header, operation data, voice data) of each terminal sent from the ISDN is output to a transmission path other than the transmission path to which the data is sent. That is, the data of one terminal is output to each of the other terminals.

【0026】図7、8、9は、仮想現実空間供用システ
ムの動作フローチャートであり、図7、8は、端末T側
の送受信の動作フローチャートであり、図9は、CS側
の動作フローチャートである。
7, 8 and 9 are operation flowcharts of the virtual reality space service system, FIGS. 7 and 8 are operation flowcharts of transmission / reception on the terminal T side, and FIG. 9 is operation flowcharts on the CS side. .

【0027】なお、以下の動作は、所定手続によりそれ
ぞれの端末をCSに接続してから行なわれる。
The following operation is performed after connecting each terminal to CS by a predetermined procedure.

【0028】図7は、端末Tの送信処理である。各ベク
トルセンサ10により頭、手、指の動作方向と動作量を
検出し(ステップS1)、ベクトルセンサ10により検
出された頭、手、指の動作方向と動作量に基づいてその
動作に付随する他の体の各部の動作を推測し、それぞれ
動作データを作成する(ステップS2)。他方、マイク
11により音声データを検出し(ステップS3)、検出
した音声データに基づいて音声認識をする(ステップS
4)。音声認識をすることにより認識された音声に対応
する口の動作を推測し、口の動作データを作成する(ス
テップS5)。さらに、ステップS5で認識された音声
に基づき言語認識を行なう(ステップS6)。言語認識
をすることにより認識された言語に対応する顔の動作を
推測し、顔の動作データを作成する(ステップS7)。
そして、これらの動作データと音声データにヘッダーを
付けて時分割ディジタル多重化処理を行なう(ステップ
S8)。これにより送信される。
FIG. 7 shows a transmission process of the terminal T. The motion direction and motion amount of the head, hand, and finger are detected by each vector sensor 10 (step S1), and the motion is accompanied based on the motion direction and motion amount of the head, hand, and finger detected by the vector sensor 10. The motion of each part of the other body is estimated and motion data is created for each part (step S2). On the other hand, voice data is detected by the microphone 11 (step S3), and voice recognition is performed based on the detected voice data (step S).
4). The mouth movement is estimated by performing voice recognition, and mouth movement data is created (step S5). Furthermore, language recognition is performed based on the voice recognized in step S5 (step S6). The face motion corresponding to the recognized language is estimated by performing language recognition, and face motion data is created (step S7).
Then, time-division digital multiplexing processing is performed by attaching a header to these operation data and voice data (step S8). It is transmitted by this.

【0029】図8は、一端末の受信処理である。時分割
ディジタル多重化によるそれぞれの他の端末に対応する
受信データ(ヘッダー、動作データ、音声データ)を取
り出し、それぞれ分離する(ステップS11)。このそ
れぞれの端末に対応するデータのヘッダー内の時間同期
データに従い時間のマッチングを行ない(ステップS1
2)、表示装置に出力する画像を動作データに基づいて
作成する(ステップS13)。さらに、表示装置に画像
を出力すると同時に音声コーディック16からスピーカ
12へ音声データを出力する(ステップS14)。
FIG. 8 shows a receiving process of one terminal. Received data (header, operation data, voice data) corresponding to each other terminal by time division digital multiplexing is taken out and separated (step S11). Time matching is performed according to the time synchronization data in the header of the data corresponding to each terminal (step S1).
2) An image to be output to the display device is created based on the operation data (step S13). Further, the image data is output to the display device, and at the same time, the audio data is output from the audio codec 16 to the speaker 12 (step S14).

【0030】上記動作により図3に示したような画像が
使用者の目の前に配置された表示装置により映し出され
る。
By the above operation, the image as shown in FIG. 3 is displayed on the display device arranged in front of the user's eyes.

【0031】図9は、CS側の処理である。各端末から
ISDNを介して送信されてきたデータを受信し(ステ
ップS21)、各端末に対応している伝送路から送られ
てきたデータを他の伝送路にそれぞれ同じタイミングの
データを1まとめにし時分割ディジタル多重化処理を行
ない(ステップS22)、送信する。
FIG. 9 shows the processing on the CS side. The data transmitted from each terminal via ISDN is received (step S21), and the data transmitted from the transmission path corresponding to each terminal is grouped into another transmission path at the same timing. Time-division digital multiplexing processing is performed (step S22) and transmitted.

【0032】以上説明したように本発明は、あたかも同
じ場所で会議をしているような臨場感を有し、また、画
像データそのもを転送せず動作データとして転送してい
るのでデータ量が少なく効率良く転送できる。
As described above, according to the present invention, there is a sense of realism as if a conference is being held at the same place, and since the image data itself is not transferred, it is transferred as operation data. It can be transferred in a small amount and efficiently.

【0033】なお、本実施例では、伝送路をISDNに
したがこの限りでない。また、伝送方式は、時分割ディ
ジタル多重化方式を使用したがこの限りでない。さら
に、本システムは、会議システムに限らずコミニュケー
ション・システムとして、さらにはゲーム等にも応用で
きる。
In this embodiment, the transmission line is ISDN, but the present invention is not limited to this. The transmission method used is time division digital multiplexing, but the present invention is not limited to this. Further, the present system can be applied not only to the conference system but also to a communication system, a game and the like.

【0034】[0034]

【発明の効果】以上詳細に説明したように、本発明によ
れば、1つの仮想現実空間を複数の端末がアクセスする
ようにしたので臨場感のあるコミュニケーションが可能
になる。また、画像データそのものを転送するのではな
く人間の動作を検出して、その動作データを転送してい
るので画像データに対してデータ量が少なく効率良く転
送できる。
As described in detail above, according to the present invention, since one virtual reality space is accessed by a plurality of terminals, it is possible to carry out realistic communication. Further, since the motion of the person is detected and the motion data is transferred instead of transferring the image data itself, the amount of data is small with respect to the image data, and the image data can be transferred efficiently.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例における構成図である。FIG. 1 is a configuration diagram of an embodiment of the present invention.

【図2】本発明の一実施例の端末の使用例の概念図であ
る。
FIG. 2 is a conceptual diagram of a usage example of a terminal according to an embodiment of the present invention.

【図3】本発明の一実施例の端末の表示例を示す概念図
である。
FIG. 3 is a conceptual diagram showing a display example of a terminal according to an embodiment of the present invention.

【図4】本発明の一実施例の転送データの構成図であ
る。
FIG. 4 is a configuration diagram of transfer data according to an embodiment of the present invention.

【図5】本発明の一実施例の端末のブロック図である。FIG. 5 is a block diagram of a terminal according to an embodiment of the present invention.

【図6】本発明の一実施例のCSのブロック図である。FIG. 6 is a block diagram of a CS according to an embodiment of the present invention.

【図7】本発明の一実施例の端末の送信処理を示す動作
フローチャートである。
FIG. 7 is an operation flowchart showing a transmission process of the terminal according to the embodiment of the present invention.

【図8】本発明の一実施例の端末の受信処理を示す動作
フローチャートである。
FIG. 8 is an operation flowchart showing a reception process of the terminal according to the embodiment of the present invention.

【図9】本発明の一実施例のCSの信号処理を示す動作
フローチャートである。
FIG. 9 is an operational flowchart showing signal processing of CS according to an embodiment of the present invention.

【図10】従来例を示す概念図である。FIG. 10 is a conceptual diagram showing a conventional example.

【図11】本発明を示す概念図である。FIG. 11 is a conceptual diagram showing the present invention.

【符号の説明】[Explanation of symbols]

10・・・ベクトルセンサ 11・・・マイク 12・・・スピーカ 13・・・表示部 14・・・知識ベース 15・・・マイコン 16・・・音声コーディック 17・・・動作データ圧伸部 18・・・音声データ圧伸部 19・・・TDM 100・・交換機 10 ... Vector sensor 11 ... Microphone 12 ... Speaker 13 ... Display unit 14 ... Knowledge base 15 ... Microcomputer 16 ... Voice codec 17 ... Operation data companding unit 18. ..Voice data companding unit 19 ... TDM 100 ...

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 仮想現実空間を作成する仮想現実空間作
成手段と、 通信回線に接続され前記仮想現実空間作成手段を有する
複数の端末手段と、 前記通信回線に接続され前記複数の端末手段と送受信を
行ない、該複数の端末手段から送られてくる情報を1つ
にまとめ、それぞれの端末手段に該1つにまとめた情報
を出力する少なくとも1つの情報供用手段と、 を有することを特徴とする仮想現実空間供用システム。
1. A virtual reality space creating means for creating a virtual reality space, a plurality of terminal means connected to a communication line and having the virtual reality space creating means, and transmission / reception with the plurality of terminal means connected to the communication line. And collecting at least one piece of information sent from the plurality of terminal means, and outputting at least one piece of information to each terminal means. Virtual reality space service system.
【請求項2】 前記端末手段は、さらに、人間の動作を
検出する動作検出手段と、 前記動作検出手段により検出された動作データを転送す
る動作データ転送手段と、 を有することを特徴とする請求項1記載の仮想現実空間
供用システム。
2. The terminal means further comprises motion detecting means for detecting a human motion, and motion data transferring means for transferring motion data detected by the motion detecting means. Item 1. The virtual reality space service system according to Item 1.
【請求項3】 前記動作検出手段は、さらに、音声を検
出する音声検出手段と、 前記音声検出手段により検出した音声を認識する音声認
識手段と、 発音音声に対応した口の動作を記憶している第1の記憶
手段と、 前記音声認識手段により認識された音声に基づき前記第
1の記憶手段に記憶されている口の動作を判別する第1
の判別手段と、 を有することを特徴とする請求項2記載の仮想現実空間
供用システム。
3. The motion detecting means further stores a voice detecting means for detecting a voice, a voice recognizing means for recognizing the voice detected by the voice detecting means, and a mouth movement corresponding to a voiced voice. A first storage means for determining the movement of the mouth stored in the first storage means based on the voice recognized by the voice recognition means.
The virtual reality space service system according to claim 2, further comprising:
【請求項4】 前記動作検出手段は、さらに、前記音声
認識手段により認識された音声に基づいて言語を認識す
る言語認識手段と、 言語に対応した顔の動作を記憶している第2の記憶手段
と、 前記言語認識手段により認識された言語に基づき前記第
2の記憶手段に記憶されている顔の動作を判別する第2
の判別手段と、 を有することを特徴とする請求項2記載の仮想現実空間
供用システム。
4. The motion detecting means further includes a language recognizing means for recognizing a language based on the voice recognized by the voice recognizing means, and a second memory storing a face motion corresponding to the language. Second means for determining a motion of the face stored in the second storage means based on the language recognized by the language recognition means.
The virtual reality space service system according to claim 2, further comprising:
【請求項5】 前記動作検出手段は、さらに、体の各部
の動作のベクトル量を検出するベクトル量検出手段を有
することを特徴とする請求項2記載の仮想現実空間供用
システム。
5. The virtual reality space service system according to claim 2, wherein the motion detecting means further comprises vector quantity detecting means for detecting a vector quantity of a motion of each part of the body.
【請求項6】 1つの仮想現実空間を複数の端末が供用
することを特徴とする仮想現実空間供用システム。
6. A virtual reality space service system in which one virtual reality space is used by a plurality of terminals.
JP4266159A 1992-10-05 1992-10-05 Virtual reality space sharing system Pending JPH06121311A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4266159A JPH06121311A (en) 1992-10-05 1992-10-05 Virtual reality space sharing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4266159A JPH06121311A (en) 1992-10-05 1992-10-05 Virtual reality space sharing system

Publications (1)

Publication Number Publication Date
JPH06121311A true JPH06121311A (en) 1994-04-28

Family

ID=17427107

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4266159A Pending JPH06121311A (en) 1992-10-05 1992-10-05 Virtual reality space sharing system

Country Status (1)

Country Link
JP (1) JPH06121311A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07244619A (en) * 1994-01-14 1995-09-19 Nippon Telegr & Teleph Corp <Ntt> Virtual space display system
JPH0869545A (en) * 1994-08-31 1996-03-12 Sony Corp Interactive image providing method
JPH08161249A (en) * 1994-12-06 1996-06-21 Nippon Telegr & Teleph Corp <Ntt> Virtual space data transfer method
JPH10271470A (en) * 1997-03-24 1998-10-09 Olympus Optical Co Ltd Image/voice communication system and video telephone transmission/reception method
US5894307A (en) * 1996-07-19 1999-04-13 Fujitsu Limited Communications apparatus which provides a view of oneself in a virtual space
US6009460A (en) * 1996-07-19 1999-12-28 Fujitsu Limited Virtual reality space sharing system having self modifying avatars (symbols) in accordance to a category that the symbol belongs
JP2005100420A (en) * 2003-09-25 2005-04-14 Microsoft Corp Visual instruction of current voice speaker
US7945856B2 (en) 1995-11-13 2011-05-17 Worlds.Com, Inc. System and method for enabling users to interact in a virtual space

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62274962A (en) * 1986-05-23 1987-11-28 Nec Corp Picture telephone system
JPS6318458A (en) * 1986-07-10 1988-01-26 Nec Corp Method and apparatus for extracting feeling information
JPH0236687A (en) * 1988-07-27 1990-02-06 Fujitsu Ltd Face moving picture synthesis system
JPH02195787A (en) * 1989-01-24 1990-08-02 A T R Tsushin Syst Kenkyusho:Kk Video communication equipment
JPH02196585A (en) * 1989-01-26 1990-08-03 Ricoh Co Ltd Voice signal communication equipment

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62274962A (en) * 1986-05-23 1987-11-28 Nec Corp Picture telephone system
JPS6318458A (en) * 1986-07-10 1988-01-26 Nec Corp Method and apparatus for extracting feeling information
JPH0236687A (en) * 1988-07-27 1990-02-06 Fujitsu Ltd Face moving picture synthesis system
JPH02195787A (en) * 1989-01-24 1990-08-02 A T R Tsushin Syst Kenkyusho:Kk Video communication equipment
JPH02196585A (en) * 1989-01-26 1990-08-03 Ricoh Co Ltd Voice signal communication equipment

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07244619A (en) * 1994-01-14 1995-09-19 Nippon Telegr & Teleph Corp <Ntt> Virtual space display system
JPH0869545A (en) * 1994-08-31 1996-03-12 Sony Corp Interactive image providing method
JPH08161249A (en) * 1994-12-06 1996-06-21 Nippon Telegr & Teleph Corp <Ntt> Virtual space data transfer method
US7945856B2 (en) 1995-11-13 2011-05-17 Worlds.Com, Inc. System and method for enabling users to interact in a virtual space
US8082501B2 (en) 1995-11-13 2011-12-20 Worlds.Com, Inc. System and method for enabling users to interact in a virtual space
US8145998B2 (en) 1995-11-13 2012-03-27 Worlds Inc. System and method for enabling users to interact in a virtual space
US5894307A (en) * 1996-07-19 1999-04-13 Fujitsu Limited Communications apparatus which provides a view of oneself in a virtual space
US6009460A (en) * 1996-07-19 1999-12-28 Fujitsu Limited Virtual reality space sharing system having self modifying avatars (symbols) in accordance to a category that the symbol belongs
JPH10271470A (en) * 1997-03-24 1998-10-09 Olympus Optical Co Ltd Image/voice communication system and video telephone transmission/reception method
JP2005100420A (en) * 2003-09-25 2005-04-14 Microsoft Corp Visual instruction of current voice speaker

Similar Documents

Publication Publication Date Title
JP2751923B1 (en) Multipoint video conference system and multipoint video conference device
US6285392B1 (en) Multi-site television conference system and central control apparatus and conference terminal for use with the system
JPH07255044A (en) Animated electronic conference room and video conference system and method
JPH07336660A (en) Video conference system
JP2009044510A (en) Mobile unit, server, and video reproduction method in mobile unit
US20060125914A1 (en) Video input for conversation with sing language, video i/o device for conversation with sign language, and sign language interpretation system
JPH06121311A (en) Virtual reality space sharing system
JPH09271006A (en) Multi-point video conference equipment
JPH11234640A (en) Communication control system
JP3452348B2 (en) Speaker identification method in virtual space and recording medium storing the program
US6529231B1 (en) Television meeting system
JP3031320B2 (en) Video conferencing equipment
JPH09327009A (en) Video conference system and method and communication center
JPH01206765A (en) Video conference system
JPH08336166A (en) Video viewing device
JPH11308591A (en) Information communication system
JP3193254B2 (en) 3D virtual space sharing system
JP2630041B2 (en) Video conference image display control method
JP3133570B2 (en) Multipoint conference system and multiple access equipment
JPH03270390A (en) Pseudo moving image tv telephone
JPH0267889A (en) Displayed person identifying communication conference system
JP2001092990A (en) Three-dimensional virtual space participant display method, three-dimensional virtual space display device and recording medium stored with three-dimensional virtual space participant display program
JP2698212B2 (en) Videophone equipment
JPH0775075A (en) Video telephone system
JPH0463084A (en) Television conference system among scattered sites