JPH08190518A - 電子コミュニティシステム - Google Patents

電子コミュニティシステム

Info

Publication number
JPH08190518A
JPH08190518A JP290295A JP290295A JPH08190518A JP H08190518 A JPH08190518 A JP H08190518A JP 290295 A JP290295 A JP 290295A JP 290295 A JP290295 A JP 290295A JP H08190518 A JPH08190518 A JP H08190518A
Authority
JP
Japan
Prior art keywords
command
virtual space
information
voice
user terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP290295A
Other languages
English (en)
Other versions
JP3499625B2 (ja
Inventor
Tatsuro Matsumoto
達郎 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP00290295A priority Critical patent/JP3499625B2/ja
Priority to US08/518,714 priority patent/US5987416A/en
Publication of JPH08190518A publication Critical patent/JPH08190518A/ja
Application granted granted Critical
Publication of JP3499625B2 publication Critical patent/JP3499625B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Information Transfer Between Computers (AREA)
  • Computer And Data Communications (AREA)

Abstract

(57)【要約】 【目的】 本発明は、コンピュータネットワーク上に構
築された仮想的な空間内に登場する仮想的な人物等を介
してユーザ間でコミュニケーションを行う電子コミュニ
ティシステムにおいて、視覚障害のあるユーザにとって
使い勝手をよくすることを目的とする。 【構成】 ホスト及び各ユーザ端末に分散し、あるいは
それらのいずれかに設けられ、各ユーザ端末に入力され
たコマンドを解析して該仮想空間の状態または該空間内
での事象を記述する情報を生成するユニットと、ホスト
及び各ユーザ端末のいずれかに設けられ、該仮想空間の
状態または該仮想空間での事象を記述た情報を音声情報
に変換するユニットと、各ユーザ端末に設けられ、音声
情報に基づいて該仮想空間の状態または該仮想空間内で
の事象を音声にて出力するユニットとを備えるように構
成される。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、電子コミュニティシス
テムに係り、詳しくは、コンピュータネットワーク上に
構築された仮想的な空間内に登場する仮想的な人物等を
介してユーザ間でコミュニケーションを行う電子コミュ
ニティシステムに関する。
【0002】
【従来の技術】従来、所謂パソコン通信を利用した電子
コミュニティシステムが提案されている。この電子コミ
ュニティシステムにおいては、コンピュータネットワー
ク上に仮想的な空間が構築され、その仮想空間が各ユー
ザ端末に表示される。そして、各ユーザはユーザ端末に
表示された仮想空間内(複数のオブジェクトにより構成
される)に登場する人物(以下、アバタという)等をマ
ウス等で操り、他のユーザが操るアバタとコミュニケー
ションを行いながらシステムが用意するサービスを利用
する。このような電子コミュニティシステムの基本的な
構成は、例えば、図7に示すようになっている。
【0003】図7において、サービスセンタに1台乃至
数台のワークステーションにて構成されるホストコンピ
ュータ(以下、単にホストという)300が設けられて
いる。このホスト300とこの電子コミュニティサービ
スを受ける複数のユーザ端末500(1)、500
(2)、・・・500(n)が通信回線網400を介し
て接続されている。ホスト300は、電子コミュニティ
の管理及び各ユーザの管理を行う。各ユーザはユーザ端
末500(i)において、ホスト300へのログイン処
理等を経てホスト300が構築する仮想空間にアクセス
する。ホスト300及び各ユーザ端末500(以下、各
ユーザ端末を総じて指す場合は参照番号500を用い
る)は、例えば図8に示すように構成される。
【0004】図8において、ユーザ端末500は、キー
ボード1、マウス2、ディスプレイユニット3、入力部
10、入力解析部11、ユーザコマンド送信部12、シ
ステムコマンド受信部13、コマンド解釈部14、アニ
メエンジン15、アニメデータベース16及び表示部1
7を有している。また、ホスト300は、ユーザコマン
ド受信部20、ユーザコマンド解釈部21、ユーザ情報
管理部22、ユーザ情報データベース23、システムコ
マンド生成部24及びシステムコマンド送信部25を有
している。ホスト300が構築した仮想空間が各ユーザ
端末500のディスプレイユニット3に、例えば、図9
に示すように表示される。この仮想空間内において、各
ユーザ端末からの入力情報に応じてアバタA、B等が移
動、会話(会話文の表示)等を行う。具体的には、次の
ような処理が行われる。
【0005】あるユーザ端末500(i)において、ア
バタAまたはBをコントロールするためのマウス2の操
作や会話文のキーボード1による入力操作を行うと、そ
れらの操作に対応した入力情報が入力部10を介して入
力解析部11に供給される。入力解析部11は、入力部
10から供給される入力情報がどのようなユーザコマン
ド(移動を指示する情報、会話文の情報、機能を指定す
る情報等)かを解析する。そして、解析されたユーザコ
マンドがユーザコマンド送信部12から通信回線網40
0を介してホスト300に送信される。
【0006】ホスト300においては、ユーザコマンド
受信部20が各ユーザ端末500からのユーザコマンド
を受信し、その受信ユーザコマンドをユーザコマンド解
釈部21に送る。ユーザコマンド解釈部21は、ユーザ
コマンド受信部20からの受信コマンドの内容を解析
し、その解析結果をユーザ情報管理部22に送る。ユー
ザ情報管理部22は、ユーザ情報データベース23を参
照して、ユーザコマンド解釈部21からの解析結果に矛
盾がないか等をチェックする。その解析結果に矛盾がな
ければ、その解析結果がシステムコマンド生成部24に
送られ、システムコマンド生成部24がアバタAまたは
Bをどのようにコントロールするかを示すシステムコマ
ンド(仮想人物の位置、向き、動作等を指示する情報)
を生成する。システムコマンド生成部24によって生成
されたコマンド列はシステムコマンド送信部25から各
ユーザ端末500に通信回線網400を介して送信され
る。
【0007】また、各ユーザ端末500においては、ホ
スト300から送信されたコマンド列をシステムコマン
ド受信部13が受信し、この受信されたコマンド列がア
ニメエンジン15にて理解できるようにコマンド解釈部
14にて解釈される。この解釈されたコマンド列がアニ
メエンジン15に供給され、アニメエンジン15は、ア
ニメデータベース16内のアバタや他の仮想空間内の物
(オブジェクト)のアニメーションデータに基づいて、
上記コマンド列に従って各オブジェクトが動くアニメー
ションを作成する。そして、表示部17が作成されたア
ニメーションをディスプレイユニット3に表示させる。
【0008】
【発明が解決しようとする課題】上記のような電子コミ
ュニティシステムでは、各ユーザがユーザ端末のディス
プレイを見ながら、他のユーザと仮想空間内でコミュニ
ケーションを行う。従って、視覚障害のあるユーザを対
象とするものではない。
【0009】そこで、本発明の目的は、視覚障害のある
ユーザが上記のようなコンピュータネットワーク上に構
築された仮想空間内にて他のユーザとコミュニケーショ
ンができるような電子コミュニティシステムを提供する
ことである。
【0010】
【課題を解決するための手段】上記目的を達成するた
め、本発明は、請求項1に記載されるように、ホストと
複数のユーザ端末が接続され、ホストから各ユーザ端末
に送信される情報に基づいて各ユーザ端末に共有される
仮想空間を構築し、各ユーザ端末に入力されるコマンド
に基づいて該仮想空間の状態及び該仮想空間内での事象
を制御するようにした電子コミュニティシステムにおい
て、ホスト及び各ユーザ端末に分散し、あるいはそれら
のいずれかに設けられ、各ユーザ端末に入力されたコマ
ンドを解析して該仮想空間の状態または該空間内での事
象を記述する情報を生成する第一の手段と、ホスト及び
各ユーザ端末のいずれかに設けられ、該第一の手段にて
生成された該仮想空間の状態または該仮想空間での事象
を記述た情報を音声情報に変換する第二の手段と、各ユ
ーザ端末に設けられ、該第二の手段により生成された音
声情報に基づいて該仮想空間の状態または該仮想空間内
での事象を音声にて出力する音声出力手段とを備えるよ
うにした。
【0011】上記電子コミュニティシステムにおいて、
ホスト及び各ユーザ端末の処理の負担を適正にできると
いう観点から、請求項2に記載されるように、上記第一
の手段は、ホスト及び各ユーザ端末に分散して設けられ
るようにした。上記各電子コミュニティシステムにおい
て、更に、ホストの処理の負担を軽減できるいという観
点から、請求項3に記載されるように、上記第二の手段
は、各ユーザ端末に設けられるようにした。
【0012】上記各電子コミュニティシステムにおい
て、上記第一の手段は、請求項4に記載されるように、
該仮想空間の構成要素となり得るオブジェクトに関する
情報を格納したオブジェクトデータベースと、各ユーザ
端末から入力されたコマンドからオブジェクトデータベ
ース内のオブジェクトに関する情報を用いてコマンドの
内容を表すコマンド情報を生成するコマンド情報生成手
段と、該コマンド情報生成手段にて生成されたコマンド
情報から該仮想空間の状態または該仮想空間内での事象
を記述する情報となるスクリプトを作成するスクリプト
作成手段とを有するよう構成できる。
【0013】上記各電子コミュニティシステムにおい
て、上記第二の手段は、請求項5に記載されるように、
該仮想空間の状態または該仮想空間の事象を記述する情
報を音声合成にて音声信号に変換する音声合成手段を有
するように構成される。上記各電子コミュニティシステ
ムにおいて、視覚障害のあるユーザがより簡単にコマン
ド入力ができるという観点から、請求項6に記載される
ように、各ユーザ端末は、コマンドを音声にて入力する
ための音声入力手段を有するようにした。
【0014】上記各電子コミュニティシステムにおい
て、仮想空間の状態や仮想空間での事象が音声にてより
把握し易くするという観点から、請求項7に記載される
ように、上記第一の手段は、該仮想空間の状態又は該空
間内での事象を記述する情報にその状態びまたは事象に
応じた声質情報を付加する声質付加手段を有し、上記第
二の手段は、該第一の手段にて生成された該仮想空間の
状態または該仮想空間での事象を記述た情報を該声質情
報に対応した声質を持つ音声情報に変換するようにし
た。
【0015】また、同観点から、更に、請求項8に記載
されるように、上記声質付加手段は、該仮想空間の状態
を記述する情報とと仮想空間内で各ユーザ端末に入力さ
えるコマンドに従って交わされるオブジェクト間の会話
を記述する情報にそれぞれ異なった声質情報を付加する
ようにした。
【0016】更にまた、同観点から、請求項9に記載さ
れるように、上記声質付加手段は、各ユーザ端末に入力
されるコマンドに従って交わされるオブジェクト間の会
話を記述する情報に該オブジェクトに応じた声質情報を
付加するようにした。
【0017】
【作用】請求項1記載の電子コミュニティシステムで
は、ユーザがユーザ端末にコマンドを入力すると、第一
の手段がそのコマンドを解析して仮想空間の状態または
仮想空間での事象を記述する情報を生成する。そして、
この生成された情報は更に第二の手段にて音声情報に変
換される。この第二の手段にて得られた音声情報に基づ
いて音声出力手段が仮想空間の状態または仮想空間での
事象を音声にて出力する。それにより、ユーザは音声に
よりシステム内に構築された仮想空間の状態及び仮想空
間での事象を音声にて認識できる。
【0018】請求項4記載の電子コミュニティシステム
では、コマンド情報生成手段が、オブジェクトデータベ
ースを参照して、入力されたコマンドから該オブジェク
トデータベース内のオブジェクトに関する情報を用いて
該コマンドの内容を示すコマンド情報を生成する。更
に、このコマンド情報から仮想空間の状態または仮想空
間での事象を記述する情報となるスクリプトがスクリプ
ト生成手段にて生成される。そして、このスクリプトに
基づいて音声情報が生成される。
【0019】
【実施例】以下、本発明の実施例を図面に基づいて説明
する。システム全体の基本構成は、図7に示すものと同
様に、サービスを提供するホストに複数のユーザ端末が
通信回線網を介して接続されている。また、ホストは、
従来のシステムと同様に、図8に示すように構成されて
いる。
【0020】各ユーザ端末は、例えば、図1に示すよう
に構成されている。なお、図1において、図8に示す部
材と同一の部材には同一の参照番号が付されている。図
1において、ユーザ端末500’は、従来のシステムと
同様に、キーボード1、入力部10、ユーザコマンド送
信部12及びシステムコマンド受信部13を有してい
る。そして、ユーザ端末500’は、更に、従来システ
ムのものと異なる構成の入力解析部110、オブジェク
トデータベース111、スクリプト生成部160、音声
合成部171及びスピーカ30を有している。
【0021】まず、ホストは、従来のシステムと同様
に、仮想空間内のオブジェクト(アバタ、壁、床、窓、
ドア、椅子、人形、新聞等)の状態を記述したシステム
コマンドを作成し、各ユーザ端末に送信する。各ユーザ
端末では、後述するように、ホストからのシステムコマ
ンドをスクリプト(オブジェクト名及びその状態を表
す)に変換し、そのスクリプトに基づいて音声合成信号
を生成する。そして、その音声合成信号に基づいてスピ
ーカ30が駆動され、仮想空間の状態(情景)が音声に
て説明される(例えば、「あなたは、自宅にいます」
「あなたは中央の椅子の横に立っています」等)。
【0022】ユーザは、このスピーカ30から発せられ
る音声による仮想空間内の情景の説明を聞いて、該仮想
空間内のオブジェクト(アバタ等)の指定とその指定さ
れたオブジェクトの動作、会話等(仮想空間内での事
象)を特定するコマンドをキーボード1から入力する。
オブジェクトデータベース111には、ホストがコンピ
ュータネットワーク上に構築すべき仮想空間を構成する
各オブジェクトの名前、位置、その他の属性を表すデー
タが格納されている。入力解析部110は、オブジェク
トデータベース111を参照して、入力されたコマンド
を解析する。解析されたコマンドはユーザコマンド送信
部12からユーザコマンドとしてホストに送信される。
【0023】従来のシステムと同様に、ホストは、各ユ
ーザ端末からのユーザコマンドを解析してそれに対応し
て仮想空間上のオブジェクトをコントロールするための
システムコマンドを各ユーザ端末に返送する。そして、
各ユーザ端末では、システムコマンド受信部13がホス
トから送信されるシステムコマンドを受信し、その受信
システムコマンドがスクリプト生成部160に送られ
る。スクリプト生成部160は、システムコマンドにて
指定されたオブジェクトをオブジェクトデータベース1
11から検索し、更にシステムコマンドにて表されるそ
のオブジェクトの状態や動作(アバタの動作:仮想空間
内での事象)を描写したスクリプト(文)を作成する。
【0024】スクリプト生成部160にて作成されたス
クリプトは音声合成部171に送られる。音声合成部1
71は、文入力に対して対応する合成音声を出力する一
般的な音声合成ユニット(ソフトウエア)で構成されて
おり、スクリプト生成部160からのスクリプト(文)
に対応した合成音声信号を出力する。この合成音声信号
によりスピーカ30が駆動されて、仮想空間内の各オブ
ジェクトの状態や動作を表す音声がスピーカ30から発
せられる。
【0025】上記入力解析部110の詳細な構成は図2
に示されるようになっている。図2において、ユーザが
自分のアバタを仮想空間上で動作させるために、キーボ
ード1のキー操作によりコマンド(入力コマンド)を入
力すると、その入力コマンドの文字列が入力部10を介
してコマンド変換部1101に与えられる。コマンド変
換部1101は、コマンドテーブル1102を参照し
て、与えられたコマンド文字列をコマンドIDに変換す
る。コマンドテーブル1102は各コマンドとそのコマ
ンドを特定するコマンドIDとの対応関係を示してい
る。
【0026】ユーザコマンドは、例えば、次のような文
字列として入力される( 入力コマンド) 。 (1)「go ドア」 (2)「put 人形」 (3)「pick 新聞」 (4)「say " こんにちは”」 また、このような入力コマンドの受付が可能なシステム
においては、コマンドテーブル1102は、例えば、表
1のように動作を表すコマンドとコマンドIDとの関係
を示している。
【0027】
【表1】
【0028】コマンド変換部1101は、表1に示すコ
マンドテーブルを参照して動作を表すコマンドをコマン
ドIDに変換する。コマンド変換部1101にて得られ
たコマンドIDが会話コマンド(例えば "say")である
か否かを判定し(S1)、もし、会話コマンドでなけれ
ば、オブジェクト変換部1103が、オブジェクトデー
タベース111を参照して、該入力コマンドに含まれる
オブジェクト名をオブジェクトIDに変換する。オブジ
ェクトデータベース111は、オブジェクト名とオブジ
ェクトIDとの関係を例えば表2のように示している。
【0029】
【表2】
【0030】ここで、領域ID(Region-ID)は仮想空間
上においてオブジェクトの存在する領域を示している。
上記のように、コマンド文字列がコマンドIDに変換さ
れ、更に、入力コマンドに含まれるオブジェクト名がオ
ブジェクトIDに変換されると、ユーザコマンド生成部
11104が各IDを連結してユーザコマンドを生成す
る。上記動作を表す各コマンド(1) 、(2) 、(3) が入力
された場合、アバタ( オブジェクト) 、領域、コマンド
及びオブジェクトを夫々表すIDがこの順番で連結され
たフォーマットとなる次のようなユーザコマンドが生成
される。 また、コマンドIDが会話コマンド(例えば"say")を表
す場合、そのコマンドID(0x0004)を用いて、ユーザコ
マンド生成部11104がユーザコマンドを生成する。
上記会話コマンド(4) が入力した場合、アバタ、領域、
コマンドの夫々表すID及び会話の内容を表すデータ
(DATA) が連結されたフォーマットとなる次のようなユ
ーザコマンドが生成される。 上記のように生成されたユーザコマンドがユーザコマン
ド送信部12に供給され、ユーザコマンド送信部12か
らホストに送信される。
【0031】ホストは、各ユーザ端末から送信される上
述したようなフォーマットを有するユーザコマンドを解
析し、それに対応して仮想空間上のオブジェクトをコン
トロールするためのシステムコマンドを各ユーザ端末に
返送する。ユーザコマンドの解析の結果、特にユーザコ
マンドにて特定されるオブジェクトの動き等が仮想空間
内において矛盾なく実現できる場合には、システムコマ
ンドは基本的にユーザコマンドと同様の内容となる。
【0032】ユーザ端末500’におけるスクリプト生
成部160の詳細な構成は例えば図3に示すようになっ
ている。図3において、システムコマンド受信部13に
て受信されたホストからのシステムコマンドはコマンド
ID変換部1601に与えられる。コマンドID変換部
1601は、コマンドID変換テーブル1603を参照
して受信されたシステムコマンドに含まれるコマンドI
Dをスクリプトに変換する。
【0033】例えば、上記ユーザコマンド(1) 、(2) 、
(3) 及び(4) に対応するシステムコマンドは次のように
ユーザコマンドと同様の内容となっている。 このような、システムコマンドの処理が可能となるユー
ザ端末500’では、表3に示すようなコマンドID変
換テーブルが規定されている。
【0034】
【表3】
【0035】上記のようなコマンドID変換テーブル1
603を参照してシステムコマンドに含まれるコマンド
IDがスクリプトに変換されると、オブジェクトID変
換部1602が、例えば、表2に示すような内容を有す
るオブジェクトデータベース111を参照して、システ
ムコマンドに含まれるオブジェクトIDをオブジェクト
名に変換する。その後、会話文処理部1604がコマン
ドID変換部1601にて得られたコマンドに対応する
スクリプトとオブジェクトID変換部1602にて得ら
れたオブジェクト名とを合成してホストからのシステム
コマンドに対応したスクリプト(文)を作成する。
【0036】例えば、上記システムコマンド(1) 、(2)
、(3) 及び(4) に対応したスクリプト(文)が次のよ
うに得られる。 (1)「猫少年はドアへ行った」 (2)「あなたは人形を置いた」 (3)「あなたは新聞を持った」 (4)「あなたは「こんにちは」と言った」 このようにして作成されたシステムコマンドに対応する
スクリプト(文)がスクリプト生成部160から音声合
成部171に送られる。音声合成部171は、スクリプ
トに対応した音声信号を生成し、その結果、スピーカ3
0からスクリプトに対応した音声が発せられる。各ユー
ザは、各ユーザ端末での入力操作に対応した仮想空間内
での各オブジェクトの状態(状態描写)、アバタの動
き、会話等を音声にて認識する。
【0037】図4は、スクリプト生成部160の他の構
成例を示す。この例では、会話文とオブジェクトの状態
を描写する文とを異なる声質の音声(声の音色)に変換
している。図4において、図3に示す例と同様に、コマ
ンドID変換部1601がコマンドID変換テーブル1
603を参照してシステムコマンド内に含まれるコマン
ドIDをスクリプトに変換する。そして、得られたスク
リプトが会話コマンドを表すもの(例えば,"say" )で
あるか否かを判定する(S11)。ここで、会話コマン
ドを表すものでないと判定されると、前記例と同様に、
オブジェクトID前変換部1602がオブジェクトデー
タベース111を参照してシステムコマンドに含まれる
オブジェクトIDを対応するオブジェクト名に変換す
る。そして、コマンドID変換部1601にて得られた
スクリプトとオブジェクトID変換部1602にて得ら
れたオブジェクト名を結合してスクリプト(文)を生成
すると共に、その生成されたスクリプトに第一の声質
(例えば、女性の声)を指定する声質情報が付加される
(S13)。
【0038】一方、得られたスクリプトが会話コマンド
を表すものと判定されると(S11)、システムコマン
ドから会話文に相当するデータ(DATA)が抽出される(S
12)。そして、その会話文がスクリプト(文)とな
り、更に、そのスクリプト(文)に上記第一の声質と異
なる第二の声質(例えば、男性の声)を指定する声質情
報が付加される。
【0039】音声合成部171は、声質情報に対応した
声質での合成音声信号を生成する機能(公知)を有して
おり、スクリプト生成部160からのスクリプトをそれ
に付加された声質情報に対応した声質での合成音声信号
に変換する。その結果、各スクリプトに対応した音声が
指定された声質でスピーカ30から発せられる。
【0040】このような、スクリプト生成部160を有
したユーザ端末によれば、所謂ナレーションに相当する
仮想空間の情景の説明と、アバタのセリフ(会話文)と
が別の声質で聞こえるので、仮想空間内でのオブジェク
トの状態及び動作がより明確に把握することが可能とな
る。
【0041】図5は、スクリプト生成部160の更に他
の構成例を示す。この例では、会話文とオブジェクトの
状態を描写する文とを異なる声質の音声に変換し、更
に、会話文の声質も対応するアバタに応じて変えてい
る。図5において、図4に示す例と同様に、コマンドI
D変換部1601にて得られたスクリプトが会話コマン
ドに対応するものではないと判定されると(S11)、
そのスクリプトとオブジェクトID変換部1602にて
得られたオブジェクト名とが結合されたスクリプト
(文)が生成される。そして、そのスクリプトに第一の
声質を指定する声質情報が付加される(S13)。
【0042】一方、コマンドID変換部1601にて得
られたスクリプトが会話コマンドであると判定されると
(S11)、システムコマンドから会話部分が取り出さ
れ、その会話部分のスクリプトが生成される(S1
2)。アバタ−声質対応テーブル1605が予め作成さ
れており、システムコマンドに含まれるアバタIDに対
応した声質Xが選択される(S15)。そして、上記会
話部分のスクリプトに選択された声質Xを指定する声質
情報が付加される。その後、スクリプト生成部160か
らのスクリプトは、音声合成部171により、それに付
加された声質情報に対応した声質の音声信号に変換され
る。
【0043】上記のようなスクリプト生成部160を有
するユーザ端末によれば、アバタに応じてそのセリフ
(会話文)の声質が異なるので、アバタ間のコミュニケ
ーションの状況が把握され易くなる。図6は、他の実施
例に係る各ユーザ端末の構成を示す。この実施例では、
各ユーザは、キーボード1に代えてマイクロフォン10
1から音声にてコマンドを入力することができる。
【0044】図6において、このユーザ端末は、上述し
たユーザ端末におけるキーボード1、入力部10及び入
力解析部110のそれぞれに代えて、マイクロフォン1
01、音声入力部100及び音声認識部112を有して
いる。音声入力部101はマイクロフォン101からの
入力コマンドに対応した音声信号を所定の周期でサンプ
リングしてディジタル信号を生成する。このディジタル
信号は入力コマンドを表している。音声認識部112は
前記入力解析部110と同様に、このディジタル信号か
ら認識される入力コマンドをコマンドテーブル1102
を用いてコマンドIDに変換する。また、会話コマンド
以外のコマンドについては、それに含まれるオブジェク
ト名が、更に、オブジェクトデータベース111を用い
てオブジェクトIDに変換される。その結果、上記実施
例と同様に、前述したようなフォーマットのユーザコマ
ンドが生成される。このように生成されたユーザコマン
ドに従ってシステム内に構築された仮想空間上のオブジ
ェクトが、上記実施例と同様に制御される。
【0045】本実施例によれば、コマンドの入力が音声
にてできるので、視覚障害の者にとって、更に使い勝手
の良いシステムが実現される。なお、上記各実施例で
は、処理の効率的な分散化を考慮して入力解析部あるい
はスクリプト生成部を各端末ユニットに設けるようにし
たが、入力解析部やスクリプト生成部の機能をホストに
持たせることも可能である。
【0046】
【発明の効果】以上説明したように、本発明によれば、
各ユーザ端末において、システム内に構築される仮想空
間の状態及び仮想空間での事象を音声にて認識すること
ができる。従って、視覚障害のあるユーザにとって使い
勝手のよい電子コミュニティシステムを提供することが
できる。
【図面の簡単な説明】
【図1】本発明に係る電子コミュニティシステムにおけ
るユーザ端末の構成例を示すブロック図である。
【図2】図1に示すユーザ端末の入力解析部の詳細な構
成例を示すブロック図である。
【図3】図1に示すユーザ端末のスクリプト生成部の詳
細な構成例を示すブロック図である。
【図4】スクリプト生成部の他の詳細な構成例を示すブ
ロック図である。
【図5】スクリプト生成部の更に他の詳細な構成例を示
すブロック図である。
【図6】本発明に係る電子コミュニティシステムにおけ
るユーザ端末の他の構成例を示すブロック図である。
【図7】電子コミュニティシステムの基本的な構成例を
示すブロック図である。
【図8】従来の電子コミュニティシステムにおけるホス
トとユーザ端末の構成例を示すブロック図である。
【図9】従来の電子コミュニティシステムにおける仮想
空間の表示例を示す図である。
【符号の説明】
1 キーボード 10 入力部 12 ユーザコマンド送信部 13 システムコマンド受信部 20 ユーザコマンド受信部 21 ユーザコマンド解釈部 22 ユーザ情報管理部 23 ユーザ情報データベース 24 システムコマンド生成部 25 システムコマンド送信部 30 スピーカ 100 音声入力部 101 マイクロフォン 110 入力解析部 160 スクリプト生成部 171 音声合成部 300 ホスト 500、500’ ユーザ端末

Claims (9)

    【特許請求の範囲】
  1. 【請求項1】 ホストと複数のユーザ端末が接続され、
    ホストから各ユーザ端末に送信される情報に基づいて各
    ユーザ端末に共有される仮想空間を構築し、各ユーザ端
    末に入力されるコマンドに基づいて該仮想空間の状態及
    び該仮想空間内での事象を制御するようにした電子コミ
    ュニティシステムにおいて、 ホスト及び各ユーザ端末に分散し、あるいはそれらのい
    ずれかに設けられ、各ユーザ端末に入力されたコマンド
    を解析して該仮想空間の状態または該空間内での事象を
    記述する情報を生成する第一の手段と、 ホスト及び各ユーザ端末のいずれかに設けられ、該第一
    の手段にて生成された該仮想空間の状態または該仮想空
    間での事象を記述した情報を音声情報に変換する第二の
    手段と、 各ユーザ端末に設けられ、該第二の手段により生成され
    た音声情報に基づいて該仮想空間の状態または該仮想空
    間内での事象を音声にて出力する音声出力手段とを備え
    た電子コミュニティシステム。
  2. 【請求項2】 請求項1記載の電子コミュニティシステ
    ムにおいて、 上記第一の手段は、ホスト及び各ユーザ端末に分散して
    設けられた電子コミュニティシステム。
  3. 【請求項3】 請求項1または2記載の電子コミュニテ
    ィシステムにおいて、 上記第二の手段は、各ユーザ端末に設けられた電子コミ
    ュニティシステム。
  4. 【請求項4】 請求項1乃至3いずれか記載の電子コミ
    ュニティシステムにおいて、 上記第一の手段は、該仮想空間の構成要素となり得るオ
    ブジェクトに関する情報を格納したオブジェクトデータ
    ベースと、各ユーザ端末から入力されたコマンドからオ
    ブジェクトデータベース内のオブジェクトに関する情報
    を用いてコマンドの内容を表すコマンド情報を生成する
    コマンド情報生成手段と、該コマンド情報生成手段にて
    生成されたコマンド情報から該仮想空間の状態または該
    仮想空間内での事象を記述する情報となるスクリプトを
    作成するスクリプト作成手段とを有する電子コミュニテ
    ィシステム。
  5. 【請求項5】 請求項1乃至4いずれか記載の電子コミ
    ュニティシステムにおいて、 上記第二の手段は、該仮想空間の状態または該仮想空間
    の事象を記述する情報を音声合成にて音声信号に変換す
    る音声合成手段を有する。
  6. 【請求項6】 請求項1乃至5いずれか記載の電子コミ
    ュニティシステムにおいて、 各ユーザ端末は、コマンドを音声にて入力するための音
    声入力手段を有する電子コミュニティシステム。
  7. 【請求項7】 請求項1乃至3いずれか記載の電子コミ
    ュニティシステムにおいて、 上記第一の手段は、該仮想空間の状態またはは該空間内
    での事象を記述する情報にその状態または事象に応じた
    声質情報を付加する声質付加手段を有し、 上記第二の手段は、該第一の手段にて生成された該仮想
    空間の状態または該仮想空間での事象を記述した情報を
    該声質情報に対応した声質を持つ音声情報に変換する電
    子コミュニティシステム。
  8. 【請求項8】 請求項7記載の電子コミュニディシステ
    ムにおいて、 上記声質付加手段は、該仮想空間の状態を記述する情報
    と仮想空間内で各ユーザ端末に入力されるコマンドに従
    って交わされるオブジェクト間の会話を記述する情報に
    それぞれ異なった声質情報を付加する電子コミュニティ
    システム。
  9. 【請求項9】 請求項7または8記載の電子コミュニテ
    ィシステムにおいて、 上記声質付加手段は、各ユーザ端末に入力されるコマン
    ドに従って交わされるオブジェクト間の会話を記述する
    情報に該オブジェクトに応じた声質情報を付加する電子
    コミュニティシステム。
JP00290295A 1995-01-11 1995-01-11 電子コミュニティシステム Expired - Fee Related JP3499625B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP00290295A JP3499625B2 (ja) 1995-01-11 1995-01-11 電子コミュニティシステム
US08/518,714 US5987416A (en) 1995-01-11 1995-08-24 Electronic community system using speech recognition for use by the visually impaired

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP00290295A JP3499625B2 (ja) 1995-01-11 1995-01-11 電子コミュニティシステム

Publications (2)

Publication Number Publication Date
JPH08190518A true JPH08190518A (ja) 1996-07-23
JP3499625B2 JP3499625B2 (ja) 2004-02-23

Family

ID=11542294

Family Applications (1)

Application Number Title Priority Date Filing Date
JP00290295A Expired - Fee Related JP3499625B2 (ja) 1995-01-11 1995-01-11 電子コミュニティシステム

Country Status (2)

Country Link
US (1) US5987416A (ja)
JP (1) JP3499625B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001306477A (ja) * 2000-04-21 2001-11-02 Sony Corp 情報処理装置および方法、並びに格納媒体
JP2005149431A (ja) * 2003-11-20 2005-06-09 Nec Corp コミュニケーションサービス提供システム、サーバ、サービス提供方法およびサービス提供プログラム
US7228273B2 (en) 2001-12-14 2007-06-05 Sega Corporation Voice control method
JP2007175516A (ja) * 2007-02-19 2007-07-12 Sega Corp 音声制御方法
JP2009022770A (ja) * 2008-09-08 2009-02-05 Sega Corp 音声制御方法
WO2021172548A1 (ja) * 2020-02-28 2021-09-02 株式会社Cygames ゲームスクリプトの作成を支援するためのシステム及び方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6377913B1 (en) * 1999-08-13 2002-04-23 International Business Machines Corporation Method and system for multi-client access to a dialog system
JP3969908B2 (ja) * 1999-09-14 2007-09-05 キヤノン株式会社 音声入力端末器、音声認識装置、音声通信システム及び音声通信方法
DE10159850A1 (de) * 2001-12-06 2003-11-06 Siemens Ag Bedienung von Endgeräten
CN100594527C (zh) * 2004-11-22 2010-03-17 马里奥·皮尔基奥 多媒体播示中的使音频与图形同步的方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4624012A (en) * 1982-05-06 1986-11-18 Texas Instruments Incorporated Method and apparatus for converting voice characteristics of synthesized speech
JPS61252596A (ja) * 1985-05-02 1986-11-10 株式会社日立製作所 文字音声通信方式及び装置
JP2558682B2 (ja) * 1987-03-13 1996-11-27 株式会社東芝 知的ワ−クステ−シヨン
US4985697A (en) * 1987-07-06 1991-01-15 Learning Insights, Ltd. Electronic book educational publishing method using buried reference materials and alternate learning levels
US5208745A (en) * 1988-07-25 1993-05-04 Electric Power Research Institute Multimedia interface and method for computer system
US5086385A (en) * 1989-01-31 1992-02-04 Custom Command Systems Expandable home automation system
JPH03196242A (ja) * 1989-12-25 1991-08-27 Fujitsu Ltd 複合メディア情報提供サービス方式
US5278943A (en) * 1990-03-23 1994-01-11 Bright Star Technology, Inc. Speech animation and inflection system
JPH05176073A (ja) * 1991-12-03 1993-07-13 Teremaa Japan:Kk コンピュータ通信の情報通信システム
US5519809A (en) * 1992-10-27 1996-05-21 Technology International Incorporated System and method for displaying geographical information
US5347306A (en) * 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
US5491743A (en) * 1994-05-24 1996-02-13 International Business Machines Corporation Virtual conference system and terminal apparatus therefor

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001306477A (ja) * 2000-04-21 2001-11-02 Sony Corp 情報処理装置および方法、並びに格納媒体
JP4547768B2 (ja) * 2000-04-21 2010-09-22 ソニー株式会社 情報処理装置および方法、並びに記録媒体
US7228273B2 (en) 2001-12-14 2007-06-05 Sega Corporation Voice control method
JP2005149431A (ja) * 2003-11-20 2005-06-09 Nec Corp コミュニケーションサービス提供システム、サーバ、サービス提供方法およびサービス提供プログラム
JP2007175516A (ja) * 2007-02-19 2007-07-12 Sega Corp 音声制御方法
JP2009022770A (ja) * 2008-09-08 2009-02-05 Sega Corp 音声制御方法
WO2021172548A1 (ja) * 2020-02-28 2021-09-02 株式会社Cygames ゲームスクリプトの作成を支援するためのシステム及び方法
JP2021135945A (ja) * 2020-02-28 2021-09-13 株式会社Cygames ゲームスクリプトの作成を支援するためのシステム及び方法

Also Published As

Publication number Publication date
US5987416A (en) 1999-11-16
JP3499625B2 (ja) 2004-02-23

Similar Documents

Publication Publication Date Title
US6618704B2 (en) System and method of teleconferencing with the deaf or hearing-impaired
US8285257B2 (en) Emotion recognition message system, mobile communication terminal therefor and message storage server therefor
JP4122173B2 (ja) ユーザが指定する特性に基づいてネットワーク上を伝送したコンテンツデータを改変する方法
US20010051535A1 (en) Communication system and communication method using animation and server as well as terminal device used therefor
US20090198497A1 (en) Method and apparatus for speech synthesis of text message
WO1997008895A1 (fr) Systeme de telephone chirologique
US20090157223A1 (en) Robot chatting system and method
KR20060121679A (ko) 화상 합성 장치, 그리고 그 장치를 사용한 통신 단말기 및화상 커뮤니케이션 시스템, 그리고 그 시스템에 있어서의채팅 서버
JP3499625B2 (ja) 電子コミュニティシステム
CN115494941A (zh) 基于神经网络的元宇宙情感陪护虚拟人实现方法及系统
KR20170135598A (ko) 특정인의 합성된 가상 음성을 이용한 음성 대화 시스템 및 방법
KR100450319B1 (ko) 가상 환경에서 참여자간의 의사전달 장치 및 방법
US6574598B1 (en) Transmitter and receiver, apparatus and method, all for delivery of information
JP3604915B2 (ja) コミュニケーション方法及びコミュニケーション装置
JP2004193809A (ja) 通信装置
JP2001325202A (ja) 仮想空間の会話方法及びそのシステム
TW200413961A (en) Device using handheld communication equipment to calculate and process natural language and method thereof
JP2007286376A (ja) 音声案内システム
JP2000122941A (ja) 電子メールを用いた情報転送方法
CN113742473A (zh) 一种数字虚拟人交互系统及其计算传输优化方法
JP2003108376A (ja) 応答メッセージ生成装置、及び端末装置
JP2003271532A (ja) コミュニケーションシステム、当該システムのデータ転送方法、当該システムのサーバ、当該システムのための処理プログラム、および、記録媒体
JP2002101203A (ja) 音声処理システム、音声処理方法およびその方法を記憶した記憶媒体
KR20040105999A (ko) 네트워크 기반 소리 아바타 생성 방법 및 시스템
JP2001357414A (ja) アニメーション通信方法およびシステム並びにそれに用いる端末装置

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20031125

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071205

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081205

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091205

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091205

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101205

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111205

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111205

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121205

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees