JP4122173B2 - ユーザが指定する特性に基づいてネットワーク上を伝送したコンテンツデータを改変する方法 - Google Patents

ユーザが指定する特性に基づいてネットワーク上を伝送したコンテンツデータを改変する方法 Download PDF

Info

Publication number
JP4122173B2
JP4122173B2 JP2002126017A JP2002126017A JP4122173B2 JP 4122173 B2 JP4122173 B2 JP 4122173B2 JP 2002126017 A JP2002126017 A JP 2002126017A JP 2002126017 A JP2002126017 A JP 2002126017A JP 4122173 B2 JP4122173 B2 JP 4122173B2
Authority
JP
Japan
Prior art keywords
computer
output
data
sound
content data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2002126017A
Other languages
English (en)
Other versions
JP2003066984A (ja
Inventor
公之 茶谷
Original Assignee
ソニー・コンピュータ・エンタテインメント・アメリカ・インク
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー・コンピュータ・エンタテインメント・アメリカ・インク filed Critical ソニー・コンピュータ・エンタテインメント・アメリカ・インク
Publication of JP2003066984A publication Critical patent/JP2003066984A/ja
Application granted granted Critical
Publication of JP4122173B2 publication Critical patent/JP4122173B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • A63F13/12
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/215Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/34Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using peer-to-peer connections
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1081Input via voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/65Methods for processing data by generating or executing the game program for computing the condition of a game character
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/003Changing voice quality, e.g. pitch or formants
    • G10L21/007Changing voice quality, e.g. pitch or formants characterised by the process used
    • G10L21/013Adapting to target pitch
    • G10L2021/0135Voice conversion or morphing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Tourism & Hospitality (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Child & Adolescent Psychology (AREA)
  • Information Transfer Between Computers (AREA)
  • Computer And Data Communications (AREA)
  • Telephonic Communication Services (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、広義にはコンピュータネットワークに関し、特に、ネットワーク上で伝送されるデータをユーザが指定する特徴によって改変するためのシステムに関する。
【0002】
【従来の技術】
コンピュータネットワークの基本機能は、ネットワークに接続されたコンピュータ間で伝送されるデータを、伝送、交換または記録することである。実用化されているほとんどのネットワークでは、ネットワーク接続されたコンピュータ間でデータの伝送経路を定め、このようなコンピュータ間でデータをやり取りするための二地点間システムとしてコンピュータネットワークを利用しているにすぎない。圧縮や暗号化の技術など、伝送速度を高めたり伝送時の安全性を高めたりするプロセスの中には、伝送されるデータをその対象としているものもある。しかしながら、送信側コンピュータから一旦送信されたデータはのほとんどは、わずかな処理しか行われないのが普通である。
【0003】
【発明が解決しようとする課題】
データは、一般に送信側コンピュータで処理された後は、処理後の形式で受信側コンピュータに向けて送出される。したがって、コンピュータネットワークを使用した標準的な通信システムでは、受信者または第三者が受信側当事者の需要に応じてデータを改変するだけの柔軟性や機会は得られない。
【0004】
また、既存のコンピュータシステムの中には、ネットワークゲームなどの用途に用いられるものがあるが、このようなコンピュータシステムにおいてユーザを表すキャラクタのオーディオ出力に各ユーザの相対位置を反映させるような効果的なメカニズムは備わっていないのが普通である。
【0005】
したがって、必要なのは、送信側コンピュータによって生成および伝送された後に受信者の要求に従って伝送後のデータを改変することが可能なシステムである。
【0006】
本発明の他の目的は、ネットワークゲームやチャットといったインタラクティブなコンピュータアプリケーションを拡張する、改良されたコンテンツデータの出力システムを提供することにある。
【0007】
本発明のさらに他の目的は、ユーザがネットワーク内に分散している際に、彼らの相対的な物理位置を反映したコンテンツデータの出力システムを提供することにある。
【0008】
【課題を解決するための手段】
双方向通信ネットワークを介して第1のコンピュータから第2のコンピュータに伝送されるコンテンツデータを改変するデータ改変手段を備えたシステムが開示される。
【0009】
コンテンツデータがオーディオデータを含む場合、データ改変手段は、このオーディオデータを例えば音声認識プロセスによってデジタル化するとともにコンテンツデータの改変を制御するためのパラメータを第2のコンピュータのユーザから受領し、これらのパラメータに基づいて、性別、抑揚、アクセントなどの特徴を改変する。改変されたコンテンツデータは、第2のコンピュータに接続された出力機構から、その出力特徴に応じた形で出力される。一実施形態では、双方向通信ネットワークにおけるユーザの相対位置情報を検出し、この位置の情報を用いて、ユーザに関連付けられたキャラクタが発した音声などの出力形態をさらに改変する。
【0010】
本発明の他の目的、特徴および利点は、添付の図面および以下の詳細な説明から明らかになろう。
【0011】
【発明の実施の形態】
以下、双方向通信ネットワークを介して伝送され、受信側にダウンロードされるコンテンツデータを改変するための機構を備えたコンピュータシステムについて説明する。
【0012】
また、添付の図面に含まれる各図を参照し、限定的な目的ではなく一例をあげる目的で、本発明について説明する。図中、同様の要素には同様の参照符号を付してある。
【0013】
以下の説明では、わかりやすくする目的で、本発明を完全に理解できるようにすべく、多数の具体的な詳細点について述べる。しかしながら、これらの具体的な詳細点のない状態でも本発明を実施できることは当業者であれば明らかであろう。他の場合では、周知の構造および装置をブロック図の形態で示し、説明を明確化しやすくしてある。好ましい実施形態の説明は本願明細書に添付の特許請求の範囲に記載の権利範囲を限定することを意図したものではない。
【0014】
本発明のコンピュータシステムは、ソフトウェア(コンピュータプログラム)の指示を実行する1台のコンピュータまたは複数台のコンピュータによって実現することができる。複数台のコンピュータによる場合は、サーバコンピュータ(以下、単に「サーバ」と称する)およびクライアントコンピュータ(以下、単に「クライアント」と称する)からなるコンピュータシステムとして実施するのが好ましい。この場合のコンピュータシステムは、LANまたはインターネットのようなコンピュータネットワークまたは標準的な電話回線を介して、データをインタラクティブに送受信しあう。
【0015】
コンテンツデータへのアクセス、そのダウンロード、コンテンツデータの各種操作を含む処理ステップについては、個々のコンピュータが有するメモリに格納された指示ないし指示シーケンス(便宜上、以下、「指示」と表現する)に従い、そのコンピュータの中央処理装置(CPU)がそれを実行する。
【0016】
CPUは、メモリと共に、サーバおよびクライアントの各々のコンピュータに搭載される。メモリとしては、ランダムアクセスメモリ(RAM)、読取専用メモリ(ROM)、大容量記憶装置などの持続的な記憶領域、あるいは、これらの装置を任意に組み合わせたものがあげられる。
【0017】
指示は、双方向通信ネットワーク経由で、他の記憶装置または1つまたはそれ以上の他のコンピュータシステムからサーバまたはクライアントのメモリに読み込んでもよい。たとえば、サーバから双方向通信ネットワークを介してクライアントに伝送されたメッセージに応答して、クライアントからサーバに指示を伝送する場合、サーバは、受信したこれらの指示をメモリに格納する。サーバは、後から実行できるように指示格納してもよいし、あるいは、双方向通信ネットワーク接続を介して到着した時点で指示を実行できるように格納してもよい。場合によっては、格納した指示をCPUが直接サポートするようにしてもよい。他の場合では、CPUが指示を直接には実行できないようにし、代わりに指示を解釈するインタープリタによって実行するようにしてもよい。
【0018】
他の実施形態では、ソフトウェア的な指示の代わりに、あるいは、この指示との併用で、電子回路を使用して本発明を実現するようにしてもよい。
【0019】
このように、本発明は、ハードウェアとソフトウェアの特定の組み合わせに限定されるものでもなければ、サーバまたはクライアントによって実行される指示の特定のソースに限定されるものでもない。
図1は、本発明の一実施形態によるコンピュータシステムのブロック図である。
【0020】
図1のコンピュータシステム100は、コンテンツデータの伝送その改変を行うことが可能である。
【0021】
「コンテンツデータ」という用語は、本願明細書および特許請求の範囲の文脈において、コンピュータ間で伝送することができ、且つそれを受信側でダウンロード可能なあらゆるタイプのデータを意味する。このようなコンテンツデータは、テキストデータ、MPEGまたはMPEG2形式の動画データなどのビデオリニアストリーミングデータ、MP3形式の音楽データなどのリニアオーディオストリーミングデータ、バイナリプログラムデータ、音データのうちのいずれかひとつ、あるいは、これらのデータまたは同様のデータの組み合わせからなるものであってもよい。
【0022】
一般に、コンテンツデータには、主な機能がネットワーク接続を構築するだけであるブラウザソフトウェアまたはプロトコルハンドラーなど、ネットワークにアクセスするために単独で使用されるコンピュータプログラムないしデータは含まれないのが普通である。
【0023】
図1のコンピュータシステム100は、本発明の1つまたはそれ以上の実施形態を実現するためのもので、ネットワーク110を介して、1台またはそれ以上のクライアント102にサーバ104が直接または間接的に接続されている。サーバ104とクライアント102との間のネットワークインタフェースには、1つまたはそれ以上のルータが含まれている場合もある。ルータは、サーバ104とクライアント102との間で伝送されるコンテンツデータをバッファリングし、これらのコンテンツデータの経路を定めるよう機能する。ネットワーク110は、インターネット、ワイドエリアネットワーク(WAN)、ローカルエリアネットワーク(LAN)、イントラネット、エクストラネット、無線ネットワークまたはこれらを任意に組み合わせたものであればよい。
【0024】
サーバ104は、「ウェブページ」形式のデータを格納し、これらのページをハイパーテキストマークアップ言語(HTML)ファイルとして、ネットワーク110経由で1台またはそれ以上のクライアント102に伝送するワールドワイドウェブ(WWW)サーバである。
【0025】
クライアント102は、「ウェブブラウザ」のプログラム114を動作させ、サーバ104から提供されるウェブページにアクセスすることができる。補助サーバ103などの別のコンテンツプロバイダを介して、ウェブベースの別のコンテンツデータをクライアント102に提供することも可能である。
【0026】
サーバ104は、また、クライアント102を操作するユーザからのダウンロード要求を処理するように構成されたダウンロードサービス管理プロセス112を実行する。一般に、ユーザがサーバ104のダウンロード管理プロセス112に要求を送る際には、ネットワーク110上のルータを経由することで、サーバ104(複数のサーバのうちのひとつを構成するものであってもよい)に対するアクセスが容易になる。ユーザからのこのような要求を受け取ると、サーバ104は、サーバ内部で生成し、あるいは、外部に設けられたコンテンツデータベースに格納されている、要求のあったコンテンツデータを、要求元のクライアント102がダウンロードできるようにする処理を実行する。
【0027】
コンテンツデータのダウンロード要求の処理と並行して、サーバ104は、要求を行ったユーザに関する顧客データをサーバ内部又は外部に設けられた顧客データベースから検索し、この顧客データを、要求されたコンテンツデータに付加したり、この顧客データを用いてコンテンツデータまたは伝送の際のパラメータをユーザに合わせて改変するようにしてもよい。
【0028】
その後、サーバ104は、FTPなどの周知のファイル転送プロトコルネットワークプロトコル標準によって、コンテンツデータをネットワーク110経由でクライアント102に向けて伝送する。
【0029】
ネットワーク110がインターネットであるこの実施形態では、サーバ104は、ウェブサーバプロセス116も実行し、ネットワーク110に接続されたクライアント102にHTMLファイルを提供する。
【0030】
サーバ104から提供されるHTMLファイルにアクセスするために、クライアント102は、サーバ104および他のインターネットサイト上で利用できるウェブページにアクセスし、これらのページとリンクする、ウェブクライアントプロセス(一般にウェブブラウザ)114を起動させる。
【0031】
この実施形態を実現するコンピュータシステム100は、図1に示すよりも多数の相互接続されたクライアントおよびサーバを含むものであってもよいことに注意されたい。
【0032】
ネットワーク110は、通常、クライアント102のハードウェアと、サーバ104に設けられたダウンロード管理プロセス112とを接続する双方向通信可能なデジタルネットワークである。現時点での技術を用いると、CATV(ケーブルテレビ)、ISDN(総合デジタル通信網)、DSL(デジタル加入者回線)、またはxDSL高速ネットワークが、本発明の実施形態を実現するにあたって必要なネットワーク接続を可能にする既存のネットワークインフラの例である。
【0033】
クライアント102は、モデムまたはネットワークアダプタを含むパーソナルコンピュータで構成されるものであってもよいし、あるいは、単独あるいは上記のパーソナルコンピュータに接続され、着脱自在の記録媒体を内部で利用するネットワークゲームコンソール(エンターテイメントシステム)であってもよい。さらに、TV画面または他の適当な表示装置、ならびにスピーカなどの音再生装置とを含んで構成されるものであってもよい。モデムまたはネットワークアダプタは、ゲームコンソールなどのハードウェアをネットワーク110に接続するための接続用装置である。たとえば、ネットワーク110が、CATVネットワークである場合は、ケーブルモデム装置が使用される。ネットワーク110がISDNネットワークである場合は、ターミナルアダプタが使用される。
【0034】
サーバ104は、音声データ、音楽クリップ、フルレングスオーディオおよびビデオプログラム、映画、静止画像データ、および他の同様のタイプのコンテンツデータを供給することができる。コンテンツデータには、映画の予告編、デモゲーム、サンプルデータおよび他の同様のタイプのコンテンツなどの一次コンテンツに関連した販促用データまたは広告データが含まれることもある。
【0035】
この実施形態において、コンピュータシステム100は、サーバ104からクライアント102に伝送されるデータを改変し、ユーザインタフェースおよびエンターテイメントの品質を改善するための変換手段を含む。伝送されるコンテンツデータがオーディオデータを含む場合、上記の変換手段は、音声変換手段となる。この音声変換手段は、さまざまなIP技術、ネットワークチャット、ビデオゲームまたは3Dバーチャルチャットなどの用途に、利用することができる。
【0036】
図2は、上記の音声変換手段の概要を示すブロック図である。
【0037】
図2に示す例では、伝送されるコンテンツデータは、サーバによって生成され、ネットワーク210経由で、音再生装置を備えたクライアントに伝送されるテキストデータ201である。
【0038】
このテキストデータ201は、クライアントに接続されたデジタルアナログ(D/A)変換器208によってオーディオ出力データに変換されて出力される。音声変換システム202は、変換部204と、受信側プリファレンスデータベース206とを含む。
【0039】
音声変換システム202は、通常は、クライアント内に備えられるが、ネットワークに接続された別のコンピュータ内に含ませておくことも可能である。
【0040】
変換部204は、入力されたテキストデータ201を変換して出力する回路またはプロセス、ならびに、テキストデータ201の特徴を改変する、または変えるプロセスを実行する。たとえば、オーディオ声出力についてみると、変換部204を動作させることにより、人が発する言動の口調、アクセント、イントネーションの他、エコーや反響などの効果といったさまざまな特徴を表現することが可能である。
【0041】
スピーチ出力を例に挙げると、変換部204は、言語、方言、抑揚などの特徴を表現することが可能である。この場合、変換部204は、一言語でのスピーチを他の言語に翻訳する翻訳機によってそれを実現してもよい。変換部204は、また、周知のゲームキャラクタまたは人物が発する音声の特徴を模倣するプロセスを含むことも可能である。
図3は、音声データを含むコンテンツデータ用の音声変換システムの他のブロック図を示す。図3の例の音声変換システム312の場合、伝送されるコンテンツデータは、サーバによって生成され、ネットワーク310経由でクライアントに伝送される音声データを含む。音声データは、サーバに接続されているマイクロフォン等の音入力装置を通じて入力されるデータである。合成音の基データとなるテキストデータから変換されたデータであってもよい。
【0042】
サーバは、アナログデジタル(A/D)変換器302タによりデジタルの音声データをユニキャスト形式、マルチキャスト形式、ブロードキャスト形式を含む、さまざまな伝送方式のうちの1つによって送出する。なお、サーバに入力される音声は、マイクロフォンのような音入力装置から入力された音声であってもよく、テキストデータに従って合成された合成音であってもよい。コ。装置デジタル化された音声データは、音声変換システム312によって改変できるように、ネットワーク310経由で伝送する。
【0043】
サーバでは、伝送対象となるコンテンツデータの音声部分を変更し、Voice over IP(VoIP)などのプロトコルを利用して、割当てられた他のユーザにネットワーク経由でこれを送信することが可能である。
【0044】
音声変換システム312は、規則テーブル316に格納された変換規則に従って音声データを改変する音声変換プロセス実行部314を有し、例えば、バーチャルキャラクタのしゃべりのパラメータまたはユーザが提供するプリファレンスなどのさまざまな要因に基づいて音声を改変する。改変された音声データは、クライアントに伝送される。
【0045】
クライアントでは、デジタルアナログ(D/A)変換器304によってデジタルの音声データをアナログ音声に変え、これをスピーカなどの音再生装置で再生させる。
【0046】
なお、上記の音声変換システム312をクライアント側に設け、サーバのA/D変換器302から伝送されたデジタル音声データを自己の音声変換システム312でアナログ音声に変えるようにしてもよい。
あるいは、クライアントから出力された後に、外部のD/A変換器によってデジタル化音声データをアナログ形式に変換することも可能である。D/A変換器を、クライアントに接続される音再生装置に組み込んでおいてもよい。
【0047】
図4は、図3に示す音声変換システム312におけるデータ変換の基本フローを示す。
【0048】
このフロー400において、オーディオデータ402は、マイクロフォンなどの入力装置によってサーバに入力された後、A/D変換器で出力されるデータである。このオーディオデータ402を、それと等価なテキストデータに変換する音声認識部412によって、テキストデータ404に変換する。次に、このテキストデータ404をテキスト変換部414によって修正し、修正テキストデータ406を生成する。次に、この修正テキストデータ406を音声合成部416によって音声合成し、修正オーディオデータ408を生成する。修正オーディオデータ408は、クライアントのスピーカーから出力されるアナログ音声への変換用にD/A変換器304に入力される。
【0049】
テキスト変換部414は、もとの音声データを改変して、クライアントで再生される際の音声を変えるサブプロセスをいくつか含む。このような改変には、もとの音声の口調、アクセント、イントネーションなどの改変を含むことが可能である。また、テキスト変換部414には、言語の翻訳(英語からフランス語など)または方言の翻訳など、入力データの実体を変更するプロセスを含むことも可能である。
【0050】
テキスト変換プロセスでは、もとの音声データの抑揚を変更することが可能である。抑揚は、例えば所定のキャラクタの人格または属性(男性または女性または子供のスピーカーなど)、そのキャラクタの境遇その他の環境(トンネル内、洞窟の中など)、キャラクタの状態(例えば興奮している、悲しい、負傷しているなど)を反映させることができる。また、テキスト変換プロセスに、ドップラー効果やエコーなどの入力音声データを変更する特別な効果を含ませることも可能である。
【0051】
この例の実施形態では、音声データがどのように変換されるかを示す特徴を、規則テーブル316によって提供する。規則テーブル316は、入力された音声データの変換を行う音声変換プロセス実行部314が利用するいくつかのパラメータを指定する。規則テーブル316は、ユーザが提供するキャラクタプロフィールを上記のパラメータの一つとして含めることができる。一実施形態において、キャラクタプロフィールは、クライアントに設けられたユーザインタフェースを介してユーザによって入力される。
【0052】
このキャラクタプロフィールを利用して、ビデオゲーム、教育プログラム、インタラクティブアプリケーション、テキスト読み上げプログラムなどの双方向のアプリケーションで、表示されたキャラクタが話す音声を目的に合わせて変更することが可能である。周波数、波形などの基本パラメータによってキャラクタが話す音声を判断する。音声変換プロセスでは、基本波形を変形させ、選択されたキャラクタプロフィールに対応する変換後の音声を生成する。一実施形態において、ユーザがキャラクタごとにプロフィールを設定することも可能である。
【0053】
図5は、キャラクタプロフィールを入力するためにクライアントのディスプレイ等に表示される画面の例を示す。この図に示されるウインドウを、キャラクタプロフィール設定表示ウインドウ500と呼ぶ。
【0054】
このキャラクタプロフィール設定表示ウィンドウ500は、ユーザが変更して音声出力の特徴を変えることのできるユーザ選択可能な入力フィールドをいくつか含む。ユーザは、まず、音声を朗読することになるキャラクタの性別を選択する。図示のように、ユーザは、男性の音声か女性の音声を選択することができる。子供や赤ん坊など他の音声タイプの特徴を提供することも可能である。年齢、社交性、活動力、知能、男らしさなどのさまざまな音声の特徴も提供されている。これらの特徴が各々音声再生パラメータを形作る。たとえば、選択する年齢を上げたり男らしさを増したりすると、一般に音声は低くなる。社交性、活動力および知能の特徴は、一般に、再生音声をどれだけ元気にはっきりと表現するかを左右する。
【0055】
図5に示す例では、ユーザの特徴がバースライドとして表示される。
【0056】
ユーザは、マウスなどの入力装置を使ってこのスライドを動かし、それぞれの特徴の相対値を選択することができる。数値入力、パーセント値入力など、他のさまざまな入力方法を提供できることに注意されたい。
【0057】
別の実施形態では、あらかじめ設定した各キャラクタプロフィールに基づいてキャラクタの発話音声を作成する。これを可能にするため、この実施形態では、上記の規則テーブル316に、音声データのさまざまな変数についての特定のパラメータまたはデータ入力を格納するユーザ指定のデータベースを含ませておく。たとえば、データベースのパラメータに出力音声の性別、言語、抑揚などを示す値を含ませておくこのようなデータベースを利用することで、たとえば、英語のアクセントで男性の音声で英語を話すようにクライアントコンピュータの音声データ出力を設定することができる。
【0058】
本発明の一実施形態では、2人またはそれ以上のユーザ間で接続された複数のネットワークゲームを含む分散型インタラクティブゲームシステムで音声変換プロセスを実行することができる。
【0059】
図6は、ユーザのゲームコンソール(それ自体が、通信機能を有するコンピュータとして動作する)がネットワーク経由で通信を行うときのネットワークゲームシステムの例を示す。
【0060】
第1のゲームコンソール605は、ケーブルモデム606を介してネットワーク608に接続されている。この場合のネットワーク608は、一般に、ケーブルTV(CATV)ネットワークである。また、音声出力用の一対のスピーカ604と、音声入力用のマイクロフォン602もゲームコンソール605に接続されている。
【0061】
第2のゲームコンソール607は、ケーブルモデム612を介してネットワーク608に接続されている。この第2のゲームコンソールクロフォン614と一対のスピーカ616とが接続されている。
【0062】
ネットワークゲームシステム600は、サーバ610をネットワーク608に接続している。このサーバ610は、ゲームコンソール605、607で実行されるゲームの監視、ゲームプログラムその他のアプリケーションプログラムの提供、ユーザアカウントの管理などのさまざまな機能を実行することが可能なものである。
【0063】
図7は、複数のゲームコンソールがネットワーク経由で通信を行うときの他のネットワークゲームシステムの例を示す。このネットワークゲームシステム700におけるネットワーク708はインターネットで構成され、Voice over IPゲートウェイ706および712を介して第1のゲームコンソール705が第2のゲームコンソール707に接続されている。各ゲームコンソール705,707には、それぞれスピーカ704、716と、マイクロフォン702、714と接続されている。
【0064】
図6および図7に示す例では、出力される音声の特徴が各々のゲームコンソール705,707を操作するユーザの情報によって左右される。各ユーザは、それぞれ自分のキャラクタまたはゲームコンソールに割当てられた異なる音声を利用する。
【0065】
各ユーザがゲームコンソールに表示されるキャラクタを制御することが想定されるため、この実施形態では、各ゲームコンソールにユーザ位置決定プロセスを含ませる。すなわち、キャラクタと関連付けられたユーザの位置に応じてそのキャラクタの音声の特徴を決める。たとえば、各ゲームコンソール705,707の左右のスピーカのうち、送信側のユーザのいる位置に応じて左右のスピーカーの出力音声の音量比率を変える。これによって、話をしているキャラクタの位置からみて音声に何らかの特別な効果が与えられる。送信者(送信側のゲームコンソール)と受信者(受信側のゲームコンソール)との物理的な距離に応じて音量を変更することも可能である。あるいは、複数のユーザが互いに通信を行っているような場合は、それぞれの位置に応じて各ユーザの音声を各スピーカーに割り当てる。
【0066】
ユーザ位置決定プロセスは、ユーザのゲームコンソールで再生されるキャラクタの音声を変更する手段として音声変換プロセスに含まれる。このユーザ位置決定プロセスでは、送信者と受信者との距離および/又は方向を計算し、算出されたデータに基づいて左右のスピーカーの音量比率を設定する。複数のスピーカがゲームコンソールに接続されたサラウンドサウンド環境の場合は、他のスピーカについても考慮する。
【0067】
一実施形態では、プレーヤー各々のアドレス情報を利用して、複数のプレーヤーの位置情報を求める。アドレス情報については、各ゲームコンソールに設けられたデータベースに格納しておくことが可能である。
【0068】
プレーヤーごとの電話番号を利用してアドレス情報または位置情報を提供するようにしてもよい。この場合、ユーザが他のユーザに対してどのような相対位置にいるのかを市外局番によって大雑把に推定する。電話番号に関連したアドレスデータベースを各ゲームコンソールのメモリに格納する。あるゲームコンソールで送信者の電話番号を受信すると、そのゲームコンソールで、電話番号をもとに送信者の位置データを検索する。検索した位置データとユーザ自身の位置データとに基づいて受信側のゲームコンソールは方向または/および距離を計算する。
【0069】
別の実施形態では、各ゲームコンソールのメモリ(二次メモリなど)に格納されたパーソナルデータベースを用いて位置情報を提供する。この場合、各ユーザが前もって他のユーザの住所を入力しておく必要がある。郵便番号情報を利用してユーザの位置を相応に推定するようにしてもよい。この情報をゲームコンソールのメモリ位置に格納する。ユーザが操作するゲームコンソール間の接続が確立されると、ID情報(ユーザID、電話番号など)が各ユーザに送信される。このID情報を用いて、各パーソナルデータベースでユーザ位置を検索し、ユーザ位置に基づいて方向および/または距離を計算する。
【0070】
各ゲームコンソールにユーザの位置情報を格納しておくのではなく、ネットワークユーザのグループについて、図6に示すサーバ610などの中央のサーバに住所情報を格納しておくことも可能である。この場合は、データベースに含まれる全てのユーザについて、住所または位置情報(郵便番号、市外局番など)をサーバに格納しておき、このサーバに格納されたユーザ情報に基づいて方向および/または距離を計算する。計算されたユーザの方向および/または距離の情報は、サーバから各ユーザに送信される。その後、ゲームコンソールでそれぞれ位置情報に基づいて音量比率または全体の音量を設定する。
【0071】
出力される音声の特徴に基づいてデータを変更するプロセスについては、サーバ(データ送信側)やクライアント(データ受信側)で実現することも可能であるし、サーバおよびクライアントに接続された他のネットワークサーバで実現することも可能であることに注意されたい。
【0072】
伝送されるデータを変更可能な各コンピュータを、図4に示すものなどの音声またはテキスト変換手段と関連させておいてもよい。
【0073】
このような変換手段は、コンピュータに接続されたハードウェア回路、コンピュータによって実行されるソフトウェアプログラム、あるいは、専用のハードウェアとソフトウェアプロセスとの組み合わせで実現することが可能なものである。さらに、関連するクライアントまたはキャラクタ各々についてさまざまな音声の特徴を格納している、クライアント内のデータベースを、ローカルで各クライアントに格納することも可能であるし、サーバにアクセス可能なデータベースに集中的に格納しておくことも可能である。
【0074】
出力される音声の改変をどこで行うかに応じて、コンテンツデータを伝送し、変更し、あるいは受信するステップを、多種多様なステップシーケンスで行うことが可能である。
【0075】
たとえば、データをまずサーバから伝送し、サーバまたは他のコンピュータで変更した上で、クライアントで受信することが可能である。変更プロセスをクライアントで実施する場合、まず、コンテンツデータをサーバからクライアントに伝送し、クライアントでコンテンツデータを受信した上で、指定された出力の特徴に応じてそれを改変することで、上記のプロセスを実施することが可能である。
【0076】
ゲームプログラムその他のエンターテイメントプログラム以外にも、図6および図7に従って説明した音声変換プロセスを、複数のユーザ間で伝送されるスピーチコンテンツが関与する他のさまざまなアプリケーションで利用することが可能である。
【0077】
一例として、チャットルームアプリケーション、インターネット電話、他の同様のアプリケーションがあげられる。
【0078】
要約すると、本発明の一形態によれば、第1のコンピュータから第2のコンピュータにコンピュータネットワーク経由で伝送されるコンテンツデータを変換するためのシステムが開示される。テキストまたはオーディオデータを含むコンテンツデータを第1のコンピュータに入力する。このコンテンツデータをデジタル化してデジタル化コンテンツデータを生成する。コンテンツデータがオーディオデータを含む場合、音声認識プロセスによってデータをデジタル化する。デジタル化コンテンツデータの改変を制御するパラメータを第2のコンピュータのユーザから受信する。これらのパラメータをユーザ用に提供されたグラフィカルインタフェースに入力し、性別、抑揚、アクセント、言語などの出力音声の特徴を指示する。ユーザが指定したコンテンツデータ出力の特徴に応じてデジタル化コンテンツデータを変更し、改変音声データとして出力すべく第2のコンピュータに送信する。
【0079】
以上、ユーザの好みに応じて伝送されるコンテンツデータを改変するためのシステムについて説明した。
【0080】
一例としての具体的な実施形態を参照して本発明を説明したが、特許請求の範囲に記載される本発明の一層広義な趣旨および範囲を逸脱することなくこれらの実施形態に対してさまざまな改変および変更を施し得ることは明らかであろう。したがって、明細書および図面については、限定的な意味合いではなく一例としてみなすものとする。
【図面の簡単な説明】
【図1】 本発明の実施形態が実現されるコンピュータネットワークシステムのブロック図である。
【図2】 本発明の一実施形態による、テキストデータ用のコンテンツデータ変換プロセスを含むネットワークのブロック図である。
【図3】 本発明の一実施形態による、音声データ用のコンテンツデータ変換プロセスを含むネットワークのブロック図である。
【図4】 本発明の一実施形態による、図3に示す音声変換プロセスによるデータ処理を示す流れ図である。
【図5】 本発明の一実施形態による、グラフィカルインタフェースシステムに表示されたキャラクタプロフィール設定入力画面を示す図である。
【図6】 本発明の一実施形態による、ユーザのゲームコンソール同士がネットワークを介して通信を行う、ネットワークゲーム環境を示す図である。
【図7】 本発明の別の実施形態による、ユーザのゲームコンソール同士がネットワークを介して通信を行う、ネットワークゲーム環境を示す図である。
【符号の説明】
100 コンピュータシステム
102 クライアント
104 サーバ
110 ネットワーク
112 管理プロセス
116 ウェブサーバプロセス
201 テキストデータ
202 音声変換システム
204 変換部
206 受信側プリファレンスデータベース
208 変換器
210 ネットワーク
302 変換器
304 変換器
310 ネットワーク
312 音声変換システム
314 音声変換プロセス実行部
316 規則テーブル
402 オーディオデータ
404 テキストデータ
406 修正テキストデータ
408 修正オーディオデータ
412 音声認識部
414 テキスト変換部
416 音声合成部
500 設定表示ウインドウ
600 ネットワークゲームシステム
602 音声入力用のマイクロフォン
604 音声出力用の一対のスピーカ
605 ゲームコンソール
606 ケーブルモデム
607 ゲームコンソール
608 ネットワーク

Claims (25)

  1. 双方向通信ネットワークを介して第1のコンピュータからコンテンツデータの出力機構を備えた第2のコンピュータに伝送されるコンテンツデータを改変する方法であって、
    前記第1のコンピュータのユーザ又は前記第2のコンピュータのユーザから、前記出力機構における出力特徴の指示を受領するステップと、
    前記第1のコンピュータが、前記第2のコンピュータに伝送するコンテンツデータを生成又は外部装置から取得するとともに、前記第2のコンピュータに出力される前記コンテンツデータを前記指示された出力特徴に応じて改変するステップと、を有し、前記指示された出力特徴には、前記第1のコンピュータ及び第2のコンピュータの位置情報が含まれ、この位置情報は前記コンテンツデータの改変に影響を与えるものであり、前記コンテンツデータは音成分を含み、この音成分は、前記第1のコンピュータ及び第2のコンピュータの位置情報によって決定される音量比率により改変され、
    更に、改変後のコンテンツデータを前記双方向通信ネットワークに出力するステップを含み、
    前記複数の第2のコンピュータの各々が、複数の音出力装置を含み、前記出力特徴が、前記複数の音出力装置からの音出力の相対的な音量比率を表すパラメータを含む、コンテンツデータ改変方法。
  2. 改変前の前記コンテンツデータが、当該第1のコンピュータに接続されたマイクロフォンによって入力される音データ、又は、合成音の基データとなるテキストデータを含み、前記改変されたコンテンツデータが、前記第2のコンピュータに接続された音再生装置により再生されるオーディオ出力データを含む、
    請求項1に記載の方法。
  3. 前記オーディオ出力データが、所定のキャラクタが発する音声を含む音特徴を表現するためのデータであり、前記出力特徴が、前記音再生装置の機構によって定まる、そのキャラクタの性別、そのキャラクタの状態、そのキャラクタの環境および発する言語のうち少なくとも1つの特徴を前記オーディオ出力データによって表現するためのパラメータを含む、
    請求項2に記載の方法。
  4. 複数種類の前記出力特徴を、前記第1のコンピュータに接続されているメモリ、又は前記第2のコンピュータに接続されているメモリに格納しておき、いずれかのコンピュータのユーザに、グラフィカルユーザインタフェースを通じて、前記格納されている複数の出力特徴の中から所望のものを選択させ、これによって選択された出力特徴を前記第1のコンピュータに入力させる、
    請求項1に記載の方法。
  5. 前記第2のコンピュータを前記双方向通信ネットワークに複数接続するとともに、個々の第2のコンピュータを操作するユーザ毎に、そのユーザと当該第2のコンピュータで実行されるプログラムで表現されるキャラクタとを関連付け、さらに、そのキャラクタを特定のコンテンツデータについての前記出力特徴と関連付ける、
    請求項3に記載の方法。
  6. 前記第1のコンピュータ及び第2のコンピュータの位置情報から、前記プログラムによって定義された環境で前記キャラクタの相対位置を決めておき、この相対位置に基づいて前記出力特徴を変更する、
    請求項5に記載の方法。
  7. 個々のユーザの前記相対位置を表す情報を、ユーザごとにローカルで保持する、
    請求項6に記載の方法。
  8. 前記相対位置が、前記双方向通信ネットワークに対する個々の第2のコンピュータの相対的な物理位置によって定める、
    請求項6に記載の方法。
  9. 2台またはそれ以上のコンピュータを前記双方向ネットワーク経由で接続するとともに、前記双方向通信ネットワークを介して前記2台またはそれ以上のコンピュータのうちの第1のコンピュータと第2のコンピュータから伝送されるコンテンツデータを改変するように構成された、2台またはそれ以上のコンピュータを前記双方向ネットワーク経由で接続してなるシステムであって、
    前記2台またはそれ以上のコンピュータのうち前記コンテンツデータの出力機構を備えた第2のコンピュータの前記出力機構から出力されるコンテンツデータに関連する出力特徴の指示を受領する指示受領手段と、
    前記指示された出力特徴に応じて前記コンテンツデータをリアルタイムに改変するとともに前記指示された出力特徴は、前記第1のコンピュータと第2のコンピュータの位置情報を含むと共に前記位置情報は前記コンテンツデータの改変に影響を与えるものであるデータ改変手段と、を有し、前記コンテンツデータは、音成分を含み、この音成分は、前記第1のコンピュータと前記第2のコンピュータの位置情報によって決定される音量比率により改変され、改変されたコンテンツデータは前記第1のコンピュータから前記第2のコンピュータへと送られるものであり、
    前記第2のコンピュータが、複数の音出力装置を含み、前記出力特徴が、前記複数の音出力装置からの音出力の相対的な音量比率を表すパラメータを含む、システム。
  10. 前記コンテンツデータが、前記第1のコンピュータに接続されたマイクロフォンによって入力される音データ、又は合成音の基データとなるテキストデータを含み、前記改変後のコンテンツデータが、前記第2のコンピュータに接続された音再生装置により再生されるオーディオ出力データを含む、
    請求項に記載のシステム。
  11. 前記オーディオ出力データが、音、所定のキャラクタが発する音声を含む音特徴を表現するためのデータであり、前記出力特徴が、前記音再生装置の機構によって定まる、そのキャラクタの性別、そのキャラクタの状態、そのキャラクタの環境および発する言語のうち少なくとも1つの特徴を前記オーディオ出力データによって表現するためのパラメータを含む、
    請求項に記載のシステム。
  12. 前記第2のコンピュータが前記双方向通信ネットワークに複数接続されており、
    個々の第2のコンピュータは、他の第2のコンピュータとの関係でそれを操作するユーザの相対的な物理位置が一意に定められるものであり、
    個々のユーザの情報は、第2のコンピュータで実行されるプログラムで表現されるキャラクタと関連付けられており、
    前記データ改変手段は、2人またはそれ以上のユーザの各々に関連した前記キャラクタの位置に基づいて、前記オーディオ出力データの内容を改変させる、
    請求項に記載のシステム。
  13. コンテンツデータの出力機構が接続されたクライアントコンピュータと双方向通信ネットワークを介してインタラクティブな通信を行うサーバコンピュータであって、
    前記クライアントコンピュータにおける前記出力機構からのコンテンツデータの出力特徴の指示を受領する指示受領手段と、
    前記双方向通信ネットワークを介して前記クライアントコンピュータにコンテンツデータを伝送する伝送手段と、
    前記伝送するコンテンツデータを前記指示された出力特徴に応じて改変するデータ改変手段と、を含み、前記指示された出力特徴は、第1のコンピュータと第2のコンピュータの位置情報を含むとともに共に前記コンテンツデータの改変に影響を与えるものであり、前記コンテンツデータは音成分を含み、この音成分は、前記第1のコンピュータと前記第2のコンピュータとの位置情報によって決定される音量比率により改変され
    前記第2のコンピュータが、複数の音出力装置を含み、前記出力特徴が、前記複数の音 出力装置からの音出力の相対的な音量比率を表すパラメータを含む、サーバコンピュータ。
  14. 音再生装置を備えた音出力手段を有し、
    改変前の前記コンテンツデータは、マイクロフォンによって入力される音声データを含むか、又は、前記コンテンツデータは、合成音の基データとなるテキストデータを含み、
    前記改変されたコンテンツデータが、前記音再生装置により再生される、所定のキャラクタが発する音声を含む音特徴を表現するためのオーディオ出力データを含み、
    前記出力特徴が、前記音再生装置の機構によって定まる、前記キャラクタの性別、前記キャラクタの状態、前記キャラクタの環境および発する言語のうち少なくとも1つの特徴を表現するためのパラメータを含む、
    請求項13に記載のサーバコンピュータ。
  15. 前記出力手段が、前記クライアントコンピュータを操作するユーザと関連付けられたキャラクタが登場するゲームプログラムの実行を可能にするゲームコンソールと、このゲームコンソールに連動して音を再生する前記音再生装置とを含むものであり、
    前記ゲームコンソールとの間でインタラクティブなゲーム環境を構築するように構成されている、
    請求項13に記載のサーバコンピュータ。
  16. 前記クライアントコンピュータに接続されるゲームコンソールおよび音再生装置と同一機能のゲームコンソールおよび音再生装置とを備え、当該ゲームコンソールと前記クライアントコンピュータのゲームコンソールとの間で共通のゲームプログラムを実行しあうことにより、前記ゲーム環境を構築するように構成されている、
    請求項15に記載のサーバコンピュータ。
  17. 前記出力特徴が、前記クライアントコンピュータに接続されたゲームコンソールに登場するキャラクタが発する言語を含む挙動の特徴に関連する、
    請求項16に記載のサーバコンピュータ。
  18. 前記双方向通信ネットワークには、前記ゲームコンソールおよび音再生装置が接続されたクライアントコンピュータが複数接続されており、
    個々のクライアントコンピュータは、それを操作するユーザの相対的な物理位置が一意に定められるものであり、
    個々のユーザの情報は、当該ゲームコンソールにおいて実行されるゲームプログラムで表現されるキャラクタと関連付けられており、
    前記データ改変手段は、2人またはそれ以上のユーザの各々に関連した前記キャラクタの位置を検出するとともに、検出した位置に基づいて前記オーディオ出力データ内容を改変させるように構成されるものである、
    請求項17に記載のサーバコンピュータ。
  19. 前記各クライアントコンピュータは、左スピーカと右スピーカとを有し、前記コンテンツデータの前記指示された出力特徴には、前記左右の各スピーカからの出力のオーディオ出力比率が含まれる、請求項18記載のサーバコンピュータ。
  20. インタラクティブなネットワークシステムであって、
    第1のコンピュータを有し、
    第2のコンピュータを有し、この第2のコンピュータは、前記第1のコンピュータからコンテンツデータを受信し、当該コンテンツデータは、前記第1のコンピュータから指示されるコンテンツデータの出力特徴に従って改変され、前記コンテンツデータの出力特徴は、前記第1のコンピュータと前記第2のコンピュータの位置情報を含み、前記位置情報は、前記第2のコンピュータに受信されると前記コンテンツデータの改変に少なくとも部分的に影響を与えるものであり、前記コンテンツデータは音成分を含み、この音成分は、前記第1のコンピュータと前記第2のコンピュータとの位置情報によって決定される音量比率により改変され、
    前記第2のコンピュータが、複数の音出力装置を含み、前記出力特徴が、前記複数の音 出力装置からの音出力の相対的な音量比率を表すパラメータを含む、インタラクティブなネットワークシステム。
  21. 前記第2のコンピュータで受信した前記コンテンツデータはオーディオデータを含み、このオーディオデータは、前記コンテンツデータの指示された出力特徴に基づいて改変される、請求項20記載のインタラクティブなネットワークシステム。
  22. 前記第1のコンピュータ及び第2のコンピュータの位置情報は、前記第1のコンピュータ及び第2のコンピュータのディスプレイに表示されるそれぞれのキャラクタに関連する、請求項20記載のインタラクティブなネットワークシステム。
  23. 前記キャラクターは、前記第1のコンピュータ及び第2のコンピュータを通じて行われるインタラクティブなネットワークゲームのキャラクターである、請求項22記載のインタラクティブなネットワークシステム。
  24. 前記第1のコンピュータ及び第2のコンピュータは、互いにネットワーク接続され、前記第1のコンピュータと前記第2のコンピュータの通信及びデータ処理がサーバを介して行われる、請求項20記載のインタラクティブなネットワークシステム。
  25. ゲームシステムであって、
    ゲームサーバを介して第2のゲームコンピュータに接続された第1のゲームコンピュータを有し、これら第1のゲームコンピュータ及び第2のゲームコンピュータのそれぞれを介して、それぞれのゲームオブジェクトが制御されるものであり、
    前記第1のゲームコンピュータは、それぞれのゲームオブジェクトのコンテンツデータの出力特徴の定義及び指示が可能で、前記コンテンツデータの指示される出力特徴には、前記第1のゲームコンピュータの位置が含まれ、
    前記第2のゲームコンピュータは、それぞれのゲームオブジェクトのコンテンツデータの出力特徴の定義及び指示が可能で、前記コンテンツデータの指示される出力特徴には、前記第2のゲームコンピュータの位置が含まれ、
    前記第1のゲームコンピュータの位置は、前記第2のゲームコンピュータで出力されるオーディオデータの改変における第1の音量比率を決定するために用いられ、前記第2のゲームコンピュータで出力されるオーディオデータは、それぞれのゲームオブジェクトに関連しており、前記第2のゲームコンピュータの位置は、前記第1のゲームコンピュータで出力されるオーディオデータの改変における第2の音量比率を決定するために用いられ、前記第1のゲームコンピュータで出力されるオーディオデータは、それぞれのゲームオブジェクトに関連し、
    前記第1及び第2のゲームコンピュータが、複数の音出力装置を含み、前記出力特徴が、前記複数の音出力装置からの音出力の相対的な音量比率を表すパラメータを含む、ゲームシステム。
JP2002126017A 2001-04-30 2002-04-26 ユーザが指定する特性に基づいてネットワーク上を伝送したコンテンツデータを改変する方法 Expired - Lifetime JP4122173B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/846,115 US8108509B2 (en) 2001-04-30 2001-04-30 Altering network transmitted content data based upon user specified characteristics
US09/846,115 2001-04-30

Publications (2)

Publication Number Publication Date
JP2003066984A JP2003066984A (ja) 2003-03-05
JP4122173B2 true JP4122173B2 (ja) 2008-07-23

Family

ID=25296986

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002126017A Expired - Lifetime JP4122173B2 (ja) 2001-04-30 2002-04-26 ユーザが指定する特性に基づいてネットワーク上を伝送したコンテンツデータを改変する方法

Country Status (5)

Country Link
US (2) US8108509B2 (ja)
EP (1) EP1255203A3 (ja)
JP (1) JP4122173B2 (ja)
KR (1) KR100482666B1 (ja)
CN (1) CN1253807C (ja)

Families Citing this family (89)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8108509B2 (en) * 2001-04-30 2012-01-31 Sony Computer Entertainment America Llc Altering network transmitted content data based upon user specified characteristics
JP2003181136A (ja) * 2001-12-14 2003-07-02 Sega Corp 音声制御方法
US20040054534A1 (en) * 2002-09-13 2004-03-18 Junqua Jean-Claude Client-server voice customization
US8549574B2 (en) * 2002-12-10 2013-10-01 Ol2, Inc. Method of combining linear content and interactive content compressed together as streaming interactive video
GB0306875D0 (en) * 2003-03-25 2003-04-30 British Telecomm Apparatus and method for generating behavior in an object
US7503006B2 (en) * 2003-09-25 2009-03-10 Microsoft Corporation Visual indication of current voice speaker
JP2007041012A (ja) * 2003-11-21 2007-02-15 Matsushita Electric Ind Co Ltd 声質変換装置および音声合成装置
US20150163342A1 (en) * 2004-07-30 2015-06-11 Searete Llc Context-aware filter for participants in persistent communication
US9704502B2 (en) * 2004-07-30 2017-07-11 Invention Science Fund I, Llc Cue-aware privacy filter for participants in persistent communications
US9779750B2 (en) * 2004-07-30 2017-10-03 Invention Science Fund I, Llc Cue-aware privacy filter for participants in persistent communications
US7774707B2 (en) * 2004-12-01 2010-08-10 Creative Technology Ltd Method and apparatus for enabling a user to amend an audio file
WO2007010303A2 (en) * 2005-07-18 2007-01-25 Big Ideas Product Development Limited Electronic entertainment device
US8650035B1 (en) * 2005-11-18 2014-02-11 Verizon Laboratories Inc. Speech conversion
KR100779089B1 (ko) * 2005-12-07 2007-11-27 한국전자통신연구원 단말 정보에 기반한 맞춤형 컨텐츠 제공 방법 및 그 장치
US8504605B2 (en) * 2006-05-30 2013-08-06 Microsoft Corporation Proximity filtering of multiparty VoIP communications
JP4919395B2 (ja) * 2006-06-15 2012-04-18 任天堂株式会社 ゲームプログラムおよびゲーム装置
US20080040094A1 (en) * 2006-08-08 2008-02-14 Employease, Inc. Proxy For Real Time Translation of Source Objects Between A Server And A Client
US20080201369A1 (en) * 2007-02-16 2008-08-21 At&T Knowledge Ventures, Lp System and method of modifying media content
GB0703974D0 (en) * 2007-03-01 2007-04-11 Sony Comp Entertainment Europe Entertainment device
WO2008134676A1 (en) 2007-04-30 2008-11-06 Acres-Fiore, Inc. Gaming device with personality
US8996409B2 (en) 2007-06-06 2015-03-31 Sony Computer Entertainment Inc. Management of online trading services using mediated communications
US20090058862A1 (en) * 2007-08-27 2009-03-05 Finn Peter G Automatic avatar transformation for a virtual universe
FR2920583A1 (fr) * 2007-08-31 2009-03-06 Alcatel Lucent Sas Procede de synthese vocale et procede de communication interpersonnelle, notamment pour jeux en ligne multijoueurs
KR20230156158A (ko) * 2007-09-26 2023-11-13 에이큐 미디어 인크 오디오-비주얼 내비게이션 및 통신
CN101904151A (zh) * 2007-12-17 2010-12-01 皇家飞利浦电子股份有限公司 控制在通信系统的至少两个用户之间通信的方法
CN101505253B (zh) * 2008-02-05 2013-03-20 突触计算机系统(上海)有限公司 网络设备的附属设备中为网络设备提供数据的方法及装置
US20090210803A1 (en) * 2008-02-15 2009-08-20 International Business Machines Corporation Automatically modifying communications in a virtual universe
US9110890B2 (en) * 2008-02-15 2015-08-18 International Business Machines Corporation Selecting a language encoding of a static communication in a virtual universe
US8214751B2 (en) 2008-04-15 2012-07-03 International Business Machines Corporation Dynamic spawning of focal point objects within a virtual universe system
US10096032B2 (en) * 2008-04-15 2018-10-09 International Business Machines Corporation Proximity-based broadcast virtual universe system
US8875026B2 (en) * 2008-05-01 2014-10-28 International Business Machines Corporation Directed communication in a virtual environment
JP5349860B2 (ja) * 2008-08-07 2013-11-20 株式会社バンダイナムコゲームス プログラム、情報記憶媒体及びゲーム装置
US8290604B2 (en) * 2008-08-19 2012-10-16 Sony Computer Entertainment America Llc Audience-condition based media selection
US8447421B2 (en) 2008-08-19 2013-05-21 Sony Computer Entertainment Inc. Traffic-based media selection
US8315409B2 (en) * 2008-09-16 2012-11-20 International Business Machines Corporation Modifications of audio communications in an online environment
US9384469B2 (en) 2008-09-22 2016-07-05 International Business Machines Corporation Modifying environmental chat distance based on avatar population density in an area of a virtual world
US20100077318A1 (en) * 2008-09-22 2010-03-25 International Business Machines Corporation Modifying environmental chat distance based on amount of environmental chat in an area of a virtual world
US20100137030A1 (en) * 2008-12-02 2010-06-03 Motorola, Inc. Filtering a list of audible items
US9529423B2 (en) * 2008-12-10 2016-12-27 International Business Machines Corporation System and method to modify audio components in an online environment
JP5299018B2 (ja) * 2009-03-26 2013-09-25 ソニー株式会社 情報処理装置、コンテンツ処理方法及びプログラム
US8150695B1 (en) 2009-06-18 2012-04-03 Amazon Technologies, Inc. Presentation of written works based on character identities and attributes
US20110029889A1 (en) * 2009-07-31 2011-02-03 International Business Machines Corporation Selective and on-demand representation in a virtual world
US8504487B2 (en) 2010-09-21 2013-08-06 Sony Computer Entertainment America Llc Evolution of a user interface based on learned idiosyncrasies and collected data of a user
US8484219B2 (en) 2010-09-21 2013-07-09 Sony Computer Entertainment America Llc Developing a knowledge base associated with a user that facilitates evolution of an intelligent user interface
US9069757B2 (en) * 2010-10-31 2015-06-30 Speech Morphing, Inc. Speech morphing communication system
JP5363452B2 (ja) * 2010-11-19 2013-12-11 株式会社スクウェア・エニックス ゲーム装置,ゲームプログラム,及び情報記憶媒体
US8994779B2 (en) 2011-03-28 2015-03-31 Net Power And Light, Inc. Information mixer and system control for attention management
US9049033B2 (en) 2011-03-28 2015-06-02 Net Power And Light, Inc. Information mixer and system control for attention management
US8968103B2 (en) * 2011-11-02 2015-03-03 Andrew H B Zhou Systems and methods for digital multimedia capture using haptic control, cloud voice changer, and protecting digital multimedia privacy
US8958567B2 (en) 2011-07-07 2015-02-17 Dolby Laboratories Licensing Corporation Method and system for split client-server reverberation processing
US8781436B2 (en) * 2011-08-09 2014-07-15 Htc Corporation Method and system for enabling a user to configure custom voice alarms/events for mobile communication devices
US10154361B2 (en) * 2011-12-22 2018-12-11 Nokia Technologies Oy Spatial audio processing apparatus
US8849666B2 (en) 2012-02-23 2014-09-30 International Business Machines Corporation Conference call service with speech processing for heavily accented speakers
WO2013149079A1 (en) * 2012-03-28 2013-10-03 Net Power And Light, Inc. Information mixer and system control for attention management
US9224260B2 (en) 2012-04-12 2015-12-29 Patent Investment & Licensing Company Method of apparatus for communicating information about networked gaming machines to prospective players
US20130282844A1 (en) 2012-04-23 2013-10-24 Contact Solutions LLC Apparatus and methods for multi-mode asynchronous communication
US9635067B2 (en) 2012-04-23 2017-04-25 Verint Americas Inc. Tracing and asynchronous communication network and routing method
JP2015517684A (ja) * 2012-05-07 2015-06-22 オーディブル・インコーポレイテッドAudible, Inc. コンテンツのカスタマイズ
US9105178B2 (en) 2012-12-03 2015-08-11 Sony Computer Entertainment Inc. Remote dynamic configuration of telemetry reporting through regular expressions
CN103856390B (zh) * 2012-12-04 2017-05-17 腾讯科技(深圳)有限公司 即时通讯方法及系统、通讯信息处理方法、终端
US9372531B2 (en) 2013-03-12 2016-06-21 Gracenote, Inc. Detecting an event within interactive media including spatialized multi-channel audio content
US20140370989A1 (en) 2013-06-13 2014-12-18 Patent Investment & Licensing Company System to facilitate communication with casino employees and players and to log data related to employee work
US20170186270A1 (en) 2013-08-06 2017-06-29 Patent Investment & Licensing Company Method and system for dispatching casino personnel and tracking interactions with players
US9087431B2 (en) 2013-08-06 2015-07-21 Patent Investment & Licensing Company Method for creating an electronic log for documenting entries into gaming machines
JP2015060423A (ja) * 2013-09-19 2015-03-30 株式会社東芝 音声翻訳装置、音声翻訳方法およびプログラム
GB2518880A (en) * 2013-10-04 2015-04-08 Glasswall Ip Ltd Anti-Malware mobile content data management apparatus and method
WO2015120263A1 (en) 2014-02-06 2015-08-13 Contact Solutions LLC Systems, apparatuses and methods for communication flow modification
US9282434B2 (en) * 2014-03-17 2016-03-08 International Business Machines Corporation Query based volume determination
CN103949053B (zh) * 2014-05-23 2017-07-07 无锡梵天信息技术股份有限公司 多人在线的电子游戏通讯系统
DE102014119606A1 (de) * 2014-12-23 2016-06-23 Deutsche Telekom Ag Kommunikationssystem für eine interaktive Avatar-Kommunikation
US9166881B1 (en) 2014-12-31 2015-10-20 Contact Solutions LLC Methods and apparatus for adaptive bandwidth-based communication management
US9558760B2 (en) 2015-03-06 2017-01-31 Microsoft Technology Licensing, Llc Real-time remodeling of user voice in an immersive visualization system
US20160283469A1 (en) * 2015-03-25 2016-09-29 Babelman LLC Wearable translation device
WO2016187477A1 (en) * 2015-05-20 2016-11-24 Daqri, Llc Virtual personification for augmented reality system
WO2017024248A1 (en) 2015-08-06 2017-02-09 Contact Solutions LLC Tracing and asynchronous communication network and routing method
US10007482B2 (en) * 2015-09-16 2018-06-26 Hashplay Inc. Method and system for voice chat in virtual environment
US20170097930A1 (en) * 2015-10-06 2017-04-06 Ruby Thomas Voice language communication device and system
CN106873936A (zh) * 2017-01-20 2017-06-20 努比亚技术有限公司 电子设备及信息处理方法
CN109417504A (zh) * 2017-04-07 2019-03-01 微软技术许可有限责任公司 自动聊天中的语音转发
US20180300100A1 (en) * 2017-04-17 2018-10-18 Facebook, Inc. Audio effects based on social networking data
CN108874354B (zh) * 2017-05-16 2021-07-23 宏碁股份有限公司 游戏平台及其音频处理方法
US10732811B1 (en) * 2017-08-08 2020-08-04 Wells Fargo Bank, N.A. Virtual reality trading tool
US10600404B2 (en) * 2017-11-29 2020-03-24 Intel Corporation Automatic speech imitation
JP7073116B2 (ja) * 2018-01-22 2022-05-23 システムインテリジェント株式会社 オフィス用バーチャルリアリティシステム、及びオフィス用バーチャルリアリティプログラム
US10706347B2 (en) 2018-09-17 2020-07-07 Intel Corporation Apparatus and methods for generating context-aware artificial intelligence characters
US11520821B2 (en) 2018-11-27 2022-12-06 Rovi Guides, Inc. Systems and methods for providing search query responses having contextually relevant voice output
US11928731B1 (en) 2020-04-09 2024-03-12 Cboe Exchange, Inc. Virtual trading floor
US11838336B2 (en) * 2020-08-27 2023-12-05 Varty Inc. Virtual events-based social network
US12022235B2 (en) * 2022-07-20 2024-06-25 Katmai Tech Inc. Using zones in a three-dimensional virtual environment for limiting audio and video

Family Cites Families (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4021613A (en) * 1975-06-09 1977-05-03 Clive Kennedy Audio information modifying apparatus
US4218585A (en) * 1979-04-05 1980-08-19 Carver R W Dimensional sound producing apparatus and method
US4624012A (en) * 1982-05-06 1986-11-18 Texas Instruments Incorporated Method and apparatus for converting voice characteristics of synthesized speech
US4489432A (en) * 1982-05-28 1984-12-18 Polk Audio, Inc. Method and apparatus for reproducing sound having a realistic ambient field and acoustic image
US4864626A (en) * 1987-11-03 1989-09-05 Yang Pei Chuan Voice modifier
JPH03113932A (ja) * 1989-09-27 1991-05-15 Toshiba Corp 蓄積交換装置
US5187735A (en) * 1990-05-01 1993-02-16 Tele Guia Talking Yellow Pages, Inc. Integrated voice-mail based voice and information processing system
JPH04158397A (ja) * 1990-10-22 1992-06-01 A T R Jido Honyaku Denwa Kenkyusho:Kk 声質変換方式
US5613056A (en) * 1991-02-19 1997-03-18 Bright Star Technology, Inc. Advanced tools for speech synchronized animation
US5309505A (en) * 1991-05-20 1994-05-03 Inventions, Inc. Automated voice system for improving agent efficiency and improving service to parties on hold
DE69322805T2 (de) * 1992-04-03 1999-08-26 Yamaha Corp. Verfahren zur Steuerung von Tonquellenposition
JPH05308226A (ja) * 1992-04-30 1993-11-19 Sony Corp 周波数変換回路
US5524137A (en) * 1993-10-04 1996-06-04 At&T Corp. Multi-media messaging system
US6122036A (en) * 1993-10-21 2000-09-19 Nikon Corporation Projection exposure apparatus and method
US5572625A (en) * 1993-10-22 1996-11-05 Cornell Research Foundation, Inc. Method for generating audio renderings of digitized works having highly technical content
US5347306A (en) * 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
EP0774186A4 (en) * 1994-05-05 2005-07-20 Catapult Entertainment Inc NETWORK ARCHITECTURE FOR REAL-TIME VIDEO GAMES
US5736982A (en) * 1994-08-03 1998-04-07 Nippon Telegraph And Telephone Corporation Virtual space apparatus with avatars and speech
JPH08125760A (ja) * 1994-10-28 1996-05-17 Hitachi Ltd 情報処理装置
US6052441A (en) * 1995-01-11 2000-04-18 Fujitsu Limited Voice response service apparatus
US5617407A (en) * 1995-06-21 1997-04-01 Bareis; Monica M. Optical disk having speech recognition templates for information access
JP3401587B2 (ja) * 1995-11-15 2003-04-28 富士通株式会社 仮想近接サービス制御システム
KR0176563B1 (ko) * 1996-01-17 1999-04-15 김광호 스케쥴 데이터를 이용한 예약녹화시스템에서의 녹화정보를 음성으로 출력하는 장치 및 방법
US6005870A (en) * 1996-08-12 1999-12-21 At&T Corp. Method for called party control of telecommunications network services
JPH1074098A (ja) * 1996-09-02 1998-03-17 Yamaha Corp 音声変換装置
US5784468A (en) * 1996-10-07 1998-07-21 Srs Labs, Inc. Spatial enhancement speaker systems and methods for spatially enhanced sound reproduction
JPH10133852A (ja) 1996-10-31 1998-05-22 Toshiba Corp パーソナルコンピュータおよび音声属性パラメータの管理方法
US20010044725A1 (en) 1996-11-19 2001-11-22 Koichi Matsuda Information processing apparatus, an information processing method, and a medium for use in a three-dimensional virtual reality space sharing system
JPH10207684A (ja) 1996-11-19 1998-08-07 Sony Corp 3次元仮想現実空間共有システムにおける情報処理装置、情報処理方法および媒体
US5875427A (en) * 1996-12-04 1999-02-23 Justsystem Corp. Voice-generating/document making apparatus voice-generating/document making method and computer-readable medium for storing therein a program having a computer execute voice-generating/document making sequence
US6188985B1 (en) * 1997-01-06 2001-02-13 Texas Instruments Incorporated Wireless voice-activated device for control of a processor-based host system
JP3244014B2 (ja) * 1997-02-14 2002-01-07 日本電気株式会社 マルチメディア変換装置および変換方式
US6026400A (en) * 1997-02-19 2000-02-15 Casio Computer Co., Ltd. Information processors which provide advice information, and recording mediums
US6138036A (en) * 1997-03-13 2000-10-24 Oki Telecom, Inc. Wireless telephone with voice data interface mode
JP3900580B2 (ja) * 1997-03-24 2007-04-04 ヤマハ株式会社 カラオケ装置
JP3317181B2 (ja) * 1997-03-25 2002-08-26 ヤマハ株式会社 カラオケ装置
US5960085A (en) * 1997-04-14 1999-09-28 De La Huerga; Carlos Security badge for automated access control and secure data gathering
JPH10304088A (ja) 1997-05-01 1998-11-13 Nippon Telegr & Teleph Corp <Ntt> 端末装置
US6106399A (en) * 1997-06-16 2000-08-22 Vr-1, Inc. Internet audio multi-user roleplaying game
US6061718A (en) * 1997-07-23 2000-05-09 Ericsson Inc. Electronic mail delivery system in wired or wireless communications system
JP3681145B2 (ja) 1997-12-11 2005-08-10 株式会社東芝 発話装置及び発話方法
US5950167A (en) * 1998-01-26 1999-09-07 Lucent Technologies Inc. Screen-less remote voice or tone-controlled computer program operations via telephone set
US6125115A (en) * 1998-02-12 2000-09-26 Qsound Labs, Inc. Teleconferencing method and apparatus with three-dimensional sound positioning
US6144938A (en) * 1998-05-01 2000-11-07 Sun Microsystems, Inc. Voice user interface with personality
US6593956B1 (en) * 1998-05-15 2003-07-15 Polycom, Inc. Locating an audio source
US6931134B1 (en) * 1998-07-28 2005-08-16 James K. Waller, Jr. Multi-dimensional processor and multi-dimensional audio processor system
US6389114B1 (en) * 1998-08-06 2002-05-14 At&T Corp. Method and apparatus for relaying communication
CN1102271C (zh) * 1998-10-07 2003-02-26 国际商业机器公司 具有习惯用语处理功能的电子词典
US6408327B1 (en) * 1998-12-22 2002-06-18 Nortel Networks Limited Synthetic stereo conferencing over LAN/WAN
US6385586B1 (en) * 1999-01-28 2002-05-07 International Business Machines Corporation Speech recognition text-based language conversion and text-to-speech in a client-server configuration to enable language translation devices
US6282507B1 (en) * 1999-01-29 2001-08-28 Sony Corporation Method and apparatus for interactive source language expression recognition and alternative hypothesis presentation and selection
US6901360B1 (en) * 1999-12-16 2005-05-31 Xerox Corporation System and method for transferring packed linguistic structures
US6559863B1 (en) * 2000-02-11 2003-05-06 International Business Machines Corporation System and methodology for video conferencing and internet chatting in a cocktail party style
US6907571B2 (en) * 2000-03-01 2005-06-14 Benjamin Slotznick Adjunct use of instant messenger software to enable communications to or between chatterbots or other software agents
US6539354B1 (en) * 2000-03-24 2003-03-25 Fluent Speech Technologies, Inc. Methods and devices for producing and using synthetic visual speech based on natural coarticulation
JP3666364B2 (ja) * 2000-05-30 2005-06-29 ヤマハ株式会社 コンテンツ生成サービス装置、システム及び記録媒体
US6654722B1 (en) * 2000-06-19 2003-11-25 International Business Machines Corporation Voice over IP protocol based speech system
US7249197B1 (en) * 2000-10-20 2007-07-24 Nortel Networks Limited System, apparatus and method for personalising web content
US6618704B2 (en) * 2000-12-01 2003-09-09 Ibm Corporation System and method of teleconferencing with the deaf or hearing-impaired
GB0029576D0 (en) * 2000-12-02 2001-01-17 Hewlett Packard Co Voice site personality setting
US8108509B2 (en) * 2001-04-30 2012-01-31 Sony Computer Entertainment America Llc Altering network transmitted content data based upon user specified characteristics

Also Published As

Publication number Publication date
US20020161882A1 (en) 2002-10-31
KR100482666B1 (ko) 2005-04-13
JP2003066984A (ja) 2003-03-05
US20070168359A1 (en) 2007-07-19
KR20020084417A (ko) 2002-11-07
CN1253807C (zh) 2006-04-26
US8108509B2 (en) 2012-01-31
EP1255203A3 (en) 2004-02-11
EP1255203A2 (en) 2002-11-06
CN1384445A (zh) 2002-12-11

Similar Documents

Publication Publication Date Title
JP4122173B2 (ja) ユーザが指定する特性に基づいてネットワーク上を伝送したコンテンツデータを改変する方法
US7203759B1 (en) System and method for receiving multi-media messages
US9214154B2 (en) Personalized text-to-speech services
US6987514B1 (en) Voice avatars for wireless multiuser entertainment services
JP4280901B2 (ja) 音声チャットシステム
US7912725B2 (en) Method and system for providing news information by using three dimensional character for use in wireless communication network
US20090013048A1 (en) Multimedia mood messages
JP2001296899A (ja) 音声メッセージと個人音声識別子とを介しての通信システム、方法および装置
JP2003521750A (ja) スピーチシステム
US8504605B2 (en) Proximity filtering of multiparty VoIP communications
JP2004128614A (ja) 画像表示制御装置及び画像表示制御プログラム
KR100450319B1 (ko) 가상 환경에서 참여자간의 의사전달 장치 및 방법
JP2007072511A (ja) チャットシステム,チャットサーバ,プログラム,およびメッセージ交換方法
JP2002288101A (ja) チャット文字表示方法、チャット文字表示プログラム、チャット文字表示プログラム格納媒体、および共有仮想空間表示装置
JP4997022B2 (ja) 仮想空間提供サーバ及びシステム
KR20020003833A (ko) 음성아바타를 이용한 이메일 또는 채팅 시스템에서음향효과가 가미된 음성메일 또는 음성채팅 방법
JP3864808B2 (ja) 端末装置及びそのプログラム
JP2022157293A (ja) コンテンツ再生制御システム及びプログラム
WO2022243851A1 (en) Method and system for improving online interaction
US20040117854A1 (en) Method for processing moving pictures responding to user&#39;s action
KR20020021567A (ko) 가상현실 인터페이스 에이전트 시스템 및 방법
Divjak et al. Visual and audio communication between visitors of virtual worlds
JP2004294519A (ja) 通信装置、通信方法及びプログラム
JP2007029506A (ja) ゲーム装置、音声データの生成方法及びプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040601

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20040901

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20040907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041201

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050608

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20050613

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20050909

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20071024

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20071030

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20071126

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20071129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080501

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110509

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4122173

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110509

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120509

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120509

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130509

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140509

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term