JP2004267433A - Information processor, server, program, recording medium for providing voice chat function - Google Patents

Information processor, server, program, recording medium for providing voice chat function Download PDF

Info

Publication number
JP2004267433A
JP2004267433A JP2003061544A JP2003061544A JP2004267433A JP 2004267433 A JP2004267433 A JP 2004267433A JP 2003061544 A JP2003061544 A JP 2003061544A JP 2003061544 A JP2003061544 A JP 2003061544A JP 2004267433 A JP2004267433 A JP 2004267433A
Authority
JP
Japan
Prior art keywords
voice
chat
data
user
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003061544A
Other languages
Japanese (ja)
Inventor
Yusuke Matsuzaki
祐介 松崎
Takashi Aoki
青木  隆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP2003061544A priority Critical patent/JP2004267433A/en
Publication of JP2004267433A publication Critical patent/JP2004267433A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To make a user feel as if he/she is talking as a character in a virtual space in the case of performing voice chat arranging the character in the virtual space. <P>SOLUTION: Voice transforming processing (S103, S105, S107) or voice synthesizing process (S109) which makes the relationship between the virtual space and voice intimate is performed prior to outputting the chat voice (S110). For example, the voice gets differently heard depending on the presence of objects other than the characters arranged in the virtual space, or character's voice made while he/she is moving the virtual space gets heard changing with the movement in real time. Further, the chat voice gets affected by voices other than the chat voice made in the virtual space or affected by the body condition the user really uttering the voice. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、仮想空間に配置されたキャラクタを介して会話する音声チャットシステムへの適用に適した情報処理装置、サーバおよびそれらを制御するコンピュータプログラムに関する。
【0002】
【従来の技術】
インターネット上で提供されているチャットサービスは、ユーザから入力されたテキストデータをネットワークを介してリアルタイムに他のユーザに転送することにより、物理的に離れているユーザ同士が文字による会話を楽しめるようにしたサービスである。もともとは、ユーザ同士の直接的なコミュニケーション手段として提案されたものであるが、近年、コンピュータ画面に表示されたキャラクタ同士を会話させるための機能としても利用されるようになった。例えば特許文献1には、3次元仮想現実空間にアバタと呼ばれるユーザの分身キャラクタを配置して、各ユーザが入力した文字を分身キャラクタの発言として他のユーザに伝えるシステムが開示されている。
【0003】
また、近年、マイク入力された音声をデジタルデータに変換して交換することによって、電話と同様に音声で会話することができる音声チャットサービスも提供されはじめた。
【0004】
【特許文献1】
特開2001−312744号公報
【0005】
【発明が解決しようとする課題】
前述のように、チャットには、ユーザが自分自身として会話する形態と、分身キャラクタとして会話する形態の2通りがある。前者と後者では、チャットシステムに期待される役割は若干異なる。前者の場合には各ユーザの発言がリアルタイムに正確に伝達されれば十分である。しかし、後者の場合、特にネットワーク・ロールプレイング・ゲームなどでは、正確な情報伝達のみならず、各ユーザが分身キャラクタに十分に感情移入できる雰囲気作りも重要である。
【0006】
上記特許文献1記載の発明は、チャット文字列の属性を変えることによってアバタ同士の距離感を表現しようとしているが、このような文字による雰囲気作りには限界がある。そこで、本発明は、仮想空間の雰囲気を盛り上げ、臨場感溢れる会話を楽しむことができる音声チャットシステムを提供することを目的とする。さらには、臨場感を重視したことにより起こり得るいくつかの問題点も、合わせて解決する。
【0007】
【課題を解決するための手段】
本発明は、音声チャットを行う際の臨場感を高めるための手段として、以下に説明するようなキャラクタ制御手段、チャットデータ発信手段、およびチャット音声出力手段を備える情報処理装置を提供する。また、コンピュータをそのような情報処理装置として機能させるプログラムも合わせて提供する。なお、プログラムは、DVD、CD−ROM、メモリカードなどのコンピュータ読み取り可能な記録媒体に記録して提供することができる。
【0008】
キャラクタ制御手段は、複数のユーザによる共有が可能な仮想空間およびその仮想空間に配置されたユーザごとのキャラクタを管理するサーバと交信することにより、その情報処理装置のユーザが仮想空間に配置したキャラクタの行動を制御するための手段である。
【0009】
チャットデータ発信手段は、情報処理装置のユーザが発した音声を表す第1音声データを取得し、その第1音声データを含むチャットデータを生成して発信する手段である。
【0010】
チャット音声出力手段は、サーバと交信中の情報処理装置により生成されたチャットデータを取得し、そのチャットデータに含まれる第1音声データを使用して、チャットデータが生成された情報処理装置のユーザが配置したキャラクタの音声を出力する手段である。
【0011】
本発明が提案する第1の情報処理装置あるいはプログラムでは、チャット音声出力手段は、取得したチャットデータに含まれる第1音声データを、仮想空間に配置されたオブジェクトの音声に係る属性に基づいて変換することにより第2音声データを生成し、その第2音声データが表す音声を前記キャラクタの音声として出力する。但し、変換の結果第1音声データと第2音声データが等しくなる場合もあり得る。オブジェクトの音声に係る属性は、例えば音吸収、音反射、音程変更などであり、仮想空間を構成する際にオブジェクトの他の属性とともに定義される。
【0012】
言い換えれば、仮想空間内のキャラクタ以外のオブジェクトの存在によって音声の聞こえ方が変わるようにして、ユーザが、視覚のみならず聴覚によっても仮想空間の構造を認識できるようにする。これにより、臨場感を高めることができる。
【0013】
また、本発明が提案する第2の情報処理装置あるいはプログラムでは、チャット音声出力手段は、取得したチャットデータに含まれる第1音声データを、チャットデータが生成された情報処理装置のユーザが配置したキャラクタと、この情報処理装置のユーザが配置したキャラクタの位置関係の単位時間あたりの変位量、すなわち変位速度に基づいて変換することにより第2音声データを生成し、第2音声データが表す音声を前記キャラクタの音声として出力する。
【0014】
移動するキャラクタが発する音声をリアルタイムに変化させることにより、ユーザはキャラクタが移動中であることを聴覚によっても認識できるようになるので、ユーザの臨場感を高めることができる。
【0015】
また、本発明が提案する第3の情報処理装置あるいはプログラムでは、チャットデータ発信手段は、ユーザに装着された所定のセンサによりユーザの身体情報を取得して、その身体情報を含むチャットデータを生成して発信する。また、チャット音声出力手段は、取得したチャットデータに含まれる第1音声データを、チャットデータに含まれる身体情報に基づいて変換することにより第2音声データを生成し、第2音声データが表す音声を前記キャラクタの音声として出力する。
【0016】
ユーザの身体情報とは、キャラクタを操作するユーザの身体状態の変化を表す情報であり、例えば脈拍、発汗状態、体温などがある。キャラクタを操作するユーザの身体状態に合わせてキャラクタの声を変化させることにより、ユーザとキャラクタとが同化したように感じさせる効果を狙ったものである。
【0017】
また、本発明が提案する第4の情報処理装置あるいはプログラムでは、チャット音声出力手段は、仮想空間を演出するための効果音を表す効果音データを取得し、第1音声データと効果音データを合成することにより第2音声データを生成し、第2音声データが表す音声を前記キャラクタの音声として出力する。
【0018】
効果音とチャット音声の出力タイミングが重なった場合に、ユーザが発する音声が仮想空間内で発生する他の音の影響を受けるようにすることで、ユーザはあたかも仮想空間内で声を発しているかのように感じることができる。
【0019】
さらに、上記各情報処理装置のチャット音声出力手段は、音声を出力する音声出力装置(スピーカ)と情報処理装置のユーザの位置関係に基づいて、音声出力装置ごとに第2音声データを生成することが望ましい。チャット音声をスピーカの配置を生かして出力することで、臨場感をさらに高めることができる。
【0020】
次に、本発明は音声チャットの新たな機能として、チャット音声の再生機能を提案し、そのような機能を実現するための手段として、次のような情報処理装置とサーバ、さらにはコンピュータをそのような情報処理装置あるいはサーバとして機能させるプログラムを提供する。
【0021】
本発明が提供する第5の情報処理装置およびプログラムは、第1から第4までの情報処理装置などと同じく、前述のようなキャラクタ制御手段、チャットデータ発信手段、およびチャット音声出力手段を備える。第5の情報処理装置およびプログラムでは、チャット音声出力手段は、各情報処理装置により生成された直後のチャットデータを取得してキャラクタの音声を出力する機能に加え、各情報処理装置により生成されサーバに蓄積保存されたチャットデータを取得してキャラクタの音声を再生する機能を提供する。なお、チャット音声出力手段は、音声データが取得された速度と異なる速度で前記キャラクタの音声を再生できることが望ましい。再生時の音声の早送りなどを可能にするためである。
【0022】
さらに、チャット音声の再生機能を提供するために、以下のようなキャラクタ制御手段、チャットデータ配信手段、およびチャットデータ検索手段を備えたサーバおよびサーバ用のプログラムを提供する。
【0023】
キャラクタ制御手段は、複数のユーザによる共有が可能な仮想空間を提供するとともに、仮想空間に各ユーザが配置したキャラクタの行動を、各ユーザの情報処理装置と交信することにより制御する手段である。
【0024】
チャットデータ配信手段は、各ユーザの情報処理装置から、各ユーザが発した音声を表す音声データを含むチャットデータを受信して、そのチャットデータを所定の記憶媒体に記憶するとともに交信中の複数の情報処理装置に対し配信する手段である。チャットデータに含まれる音声データは、文字データに変換してから記憶媒体に記憶してもよい。
【0025】
チャットデータ検索手段は、記憶媒体に記憶されたチャットデータの中からユーザが要求するチャットデータを検索し、そのユーザの情報処理装置に送信する手段である。これにより、サーバにアクセスする情報処理装置は、チャット音声を再生することができる。
【0026】
さらに、本発明は、第6の情報処理装置あるいはプログラムとして、第1から第4までの情報処理装置と同じく、前述のようなキャラクタ制御手段、チャットデータ発信手段、およびチャット音声出力手段を備え、チャット音声出力手段が、この情報処理装置を使用するユーザが配置したキャラクタや出力する音声データが取得された情報処理装置のユーザが配置したキャラクタが有する属性やアイテムに基づいて、キャラクタの音声を出力する装置とプログラムを提供する。この装置あるいはプログラムによれば、ユーザは所定の属性やアイテムを獲得することで、自らの選択により音声の聞こえ方を変化させることができる。ユーザに、好みの聞こえ方を選択させることにより、チャット音声の聞こえ方に関してユーザにストレスを感じさせないようにするためである。
【0027】
【発明の実施の形態】
以下、本発明の実施の形態について、ネットワークロールプレイングゲームを例にあげて説明する。はじめに、図1を参照して、ネットワークロールプレイングゲームと、その音声チャット機能の概要について説明する。
【0028】
一般に、ネットワークゲームサービスは、ゲーム会社などが管理するサーバコンピュータにより提供される。本実施の形態のネットワークロールプレイングゲームサービスも、インターネットなどのネットワーク1に接続された1台または複数のコンピュータ(以下、サーバ2とする)により提供される。ゲームサービスの利用者(以下、ユーザと称する)は、通信機能を備えた情報処理装置、例えば家庭用ゲーム機器、パソコン、携帯用ゲーム機器、携帯電話、携帯情報端末などを操作し、ネットワーク1を介してサーバ2にアクセスしてゲームを行う。なお、通信機能は有線に限らず無線通信機能でもよい。図は、2人のユーザ4A、4Bが、それぞれ情報処理装置3A,3Bを使用してサーバ2にアクセスしている状態を表している。
【0029】
サーバ2は、土地、建造物、その他多種多様なオブジェクトにより構成される仮想空間5を定義し、その仮想空間5をサーバ2にアクセスしたユーザが共有できるような状態で提供する。ユーザは、サーバ2により提供される仮想空間5に自分の分身に相当するキャラクタを配置して、そのキャラクタを動かすことによって、あたかも自分が仮想空間にいるかのような感覚を楽しむことができる。ユーザは、情報処理装置に接続された操作機器(コントローラ)を操作してサーバ2に所定の指示信号を送ることにより自分のキャラクタを動かすことができる。図は、ユーザ4Aがコントローラ11Aを操作してキャラクタ6Aを動かし、ユーザ4Bがコントローラ11Bを操作してキャラクタ6Bを動かした結果、仮想空間においてキャラクタ6Aとキャラクタ6Bが遭遇したところを例示している。
【0030】
各ユーザが使用する情報処理装置3A、3Bには、音声を入力するためのマイクおよび音声を出力するためのスピーカが、内蔵または接続されている。さらに、本実施の形態では、各ユーザは、身体のいずれかの部位に、脈拍を測定するための脈拍センサを装着する。マイク、スピーカ、脈拍センサの形態は、どのような形態であってもよい。例えば、図は、ユーザ4A、4Bが、音声入力用マイク7A,7Bと音声出力用イヤホン8A,8Bを備えたマイク付きヘッドホンを装備し、さらに、頭のこめかみ部分にあたるように脈拍センサ12A,12Bを装着した状態を例示している。
【0031】
音声チャットは、マイク7A,7Bから入力された音声を表す音声データを含むチャットデータを生成し、ネットワーク1およびサーバ2を介してチャットデータを交換することにより実現される。例えばユーザ4Bの発声音9がマイク7Bを通して情報処理装置3Bに入力されると、情報処理装置3Bからサーバ2に発声音9を表す音声データを含むチャットデータが転送される。そのチャットデータはサーバ2により情報処理装置3A,3Bに配信され、ユーザ4Aのイヤホン8A、ユーザ4Bのイヤホン8Bから音声10が出力される。
【0032】
ネットワークロールプレイングゲームでは、音声チャットを行うユーザは、通常分身キャラクタになったつもりで音声を発する。言い換えれば、ユーザ同士の直接的な会話ではなく、キャラクタを介した間接的な会話が行われる。このため、以下の説明では、ユーザがキャラクタとして発声することを、必要に応じて「キャラクタが発声する」などと表現する。
【0033】
本実施の形態のネットワークロールプレイングゲームの音声チャット機能は、以下に説明するようないくつかの特徴を有する。
【0034】
第1に、キャラクタが発した音声が、そのキャラクタの周辺にある物体の形状、位置、向き、特性などによって変化して聞こえる。言い換えれば、仮想空間に配置されたキャラクタ以外のオブジェクトの属性が、キャラクタが発した音声の聞こえ方に影響する。各オブジェクトの属性は、仮想空間を構成する時点で定義される。
【0035】
例えば、図1に例示した仮想空間5では、オブジェクト13(トンネル)の属性の1つとして、音反響特性が定義されている。この場合、オブジェクト13付近にいるキャラクタ6Cがオブジェクト13の方を向いて音声を発した場合に、その音声が反響して聞こえる。キャラクタ6Cがオブジェクト13と反対の方向を向いて音声を発した場合には、音声が反響することはない。また、オブジェクト14(植物)は、音吸収特性を有する。この場合、オブジェクト14を挟んで会話しようとしたキャラクタ6Dとキャラクタ6Eは、いずれも発した音声がオブジェクト14により吸収されてしまうため、互いの声が聞こえず、会話することができない。一方、オブジェクト13からもオブジェクト14からも所定距離以上離れた位置にいるキャラクタ6Aおよび6Bは、オブジェクトの影響を受けることなく、普通に会話することができる。
【0036】
音声に係るオブジェクト属性としては、上記反響、吸収以外にも、例えば発した音声が段階的に小さくなって聞こえる特性や、オクターブ高くなって聞こえる特性など、多種多様な属性を自由に定義することができる。音声に係る属性は、オブジェクト13の例のように現実世界に近い環境となるように定義してもよいし、オブジェクト14の例のように非現実的な現象を起こす属性としてもよい。
【0037】
キャラクタのいる場所によってそのキャラクタが発した音声の聞こえ方が変化するということは、音声が仮想空間の構造と密接に関連しているということに他ならない。これにより、各ユーザは、あるキャラクタが仮想空間のある場所から別の場所に移動したということを、そのキャラクタが発した音声の聞こえ方の変化から感じとることができる。すなわち、従来、視覚でのみ捉えていた事象を、聴覚によっても捉えることになるので、従来よりも臨場感が増す。
【0038】
また、音声チャットは、本来はコミュニケーションを図るための機能であるが、本実施の形態では、キャラクタを移動させながら独り言を発し、音声の聞こえ方の変化を楽しむこともできる。さらには、会話したくない相手と遭遇した際に、わざと音声が聞こえにくくなる場所にキャラクタを移動させるなど、音声の聞こえ方を利用しながらゲームを進行させることもできる。
【0039】
次に、第2の特徴について説明する。本実施の形態のゲームでは、会話をしているキャラクタの位置関係が時間の経過とともに変化する場合、音声もまた時間の経過とともにリアルタイムに変化する。例えば、車に乗って走り去ろうとするキャラクタが車を走らせながら発した音声は、その音声を聞くキャラクタとの距離が離れるほどに徐々に小さくなって聞こえる。すなわち、キャラクタ同士の相対的な位置関係のみならず位置関係の変化をも検出して、検出した変化を出力する音声に反映させる。位置関係の変化と音声変化の関係は、上記例のように現実世界に類似した関係としてもよいが、仮想空間特有の非現実的な関係を定義してもよい。例えば発声中のキャラクタが仮想空間内を瞬時移動(ワープ)した場合に、ワープしたタイミングで音声が聞こえなくなったり、あるいは突然音声が聞こえるようになるといった関係を定義することができる。
【0040】
キャラクタの動きに合わせてそのキャラクタが発した音声の聞こえ方が変化するということもまた、ユーザが発した音声と仮想空間との関係を密にすることに他ならない。上記第1の特徴と同様に、ユーザは、あるキャラクタが仮想空間のある場所から別の場所に移動中であるということを、そのキャラクタが発した音声の聞こえ方の変化から感じとることができる。従来、視覚でのみ捉えていた事象を、聴覚によっても捉えることができるようになるので、臨場感が増す。
【0041】
次に、第3の特徴について説明する。ロールプレイングゲームでは、通常、場面あるいはキャラクタがとった行動に合わせて、演出のための効果音が出力される。例えば風の音や衝突音などである。これらの効果音は仮想空間と同じく、ゲームを作成し提供する側によって定義される。本実施の形態のロールプレイングゲームでは、キャラクタが音声を発したタイミングが、このような効果音の出力タイミングと重なった場合に、キャラクタの音声の聞こえ方が変化する。言い換えれば、ゲーム制御プログラムにより出力される音声データと、マイク入力により取得された音声データとが、所定の規則にしたがって合成された後に出力される。
【0042】
例えば、強風の場面では、風の音とキャラクタの声が重なって聞こえることとなるが、この場合には、風の音の重み付けを大きくすることにより、キャラクタの音声が風の音にかき消されて聞こえにくくなるようにする。音声を合成する際の規則は、現実世界に類似する聞こえ方になるような規則としてもよいし、仮想世界特有の非現実的な聞こえ方になるような規則としてもよい。いずれの場合も、種々の規則が考えられることは言うまでもない。
【0043】
仮想空間の中で発生した音によって、キャラクタが発した音声の聞こえ方が変化するということもまた、ユーザが発した音声と仮想空間との関係を密にすることに他ならない。これにより、音声を発するユーザは、あたかも自分自身が仮想空間内で音声を発しているかのような臨場感を味わうことができ、音声を聞く側のユーザは、仮想空間内のキャラクタが実際に音声を発しているかのような感覚を味わうことができる。
【0044】
次に、第4の特徴について説明する。本実施の形態のロールプレイングゲームでは、前述のように各ユーザは脈拍センサ12A,12Bを装着しており、ユーザが発した音声は、ユーザの脈拍に応じて変化する。
【0045】
例えば、脈拍が極度に高いことが検出された場合には、ユーザ自身が平常通りの声を発していたとしても、その音声を聞く側のユーザには、声が震えたり、高くなったりして聞こえる。さらには、脈拍の高いユーザのキャラクタは、例えば、顔色が赤くなる(あるいは青くなる)など、画面表示も変化する。なお、脈拍センサに代えて発汗センサや温度センサを装着するようにしてもよい。センサは、ユーザの身体状態の変化を検出する目的で装着するものであるため、この目的にかなうセンサであればどのようなものであってもよい。
【0046】
上述のように、ユーザの身体情報をユーザのキャラクタの発声音に反映させた場合、発声する側のユーザはキャラクタと同化してゲームを楽しむことができる。また、音声を聞く側のユーザは、キャラクタの発声音から、そのキャラクタを操作するユーザの状態、あるいは性格を垣間見ることができる。
【0047】
次に、上述の音声チャット機能を提供するための手段について説明する。図2はユーザが使用する情報処理装置3の機能について説明するための図である。図に示すように、情報処理装置3は、キャラクタ制御機能16と、チャットデータ発信機能17とチャット音声出力機能18を備える。詳細には、これらの機能は、情報処理装置3に組み込まれる制御プログラムにより実現される。
【0048】
キャラクタ制御機能16は、図示されないサーバからネットワーク1を介して仮想空間やキャラクタの配置位置の情報を受信し、受信した情報に基づいてディスプレイ15に仮想空間の一部の領域を表示する一方、コントローラ11からの操作入力を受け付けて、サーバに対しキャラクタの行動を指定する情報を送信する機能である。
【0049】
チャットデータ発信機能17は、マイク7からの音声入力と、センサ12からの脈拍情報の入力を受け付けて、それらの情報を含むチャットデータを生成し、ネットワーク1を介してサーバに発信する機能である。チャットデータは、図3に示すように、少なくとも、マイク入力されデジタル化された発声音21、発声音21の発声時刻19、および発声キャラクタ20の情報の3種類の情報を含むフォーマットとする必要がある。あるいは、発声キャラクタ20に代えて、ユーザを特定する情報を付加してもよい。また、本実施の形態では、チャットデータには、センサにより取得した脈拍などのユーザ身体情報22も含まれている。
【0050】
チャット音声出力機能18は、サーバ2からネットワーク1を介して転送される音声のデータを受信して、スピーカ8に出力する機能である。サーバ2から転送される音声のデータには、各情報処理装置のチャットデータ発信機能17により発信されたチャットデータのほか、演出のための効果音を表す演出音データがある。演出音データは、図4に示すように、少なくとも、効果音24と、効果音24の出力タイミング23の情報が含まれている。演出音データは、サーバ2から転送される場合もあるが、予め情報処理装置3が保持している場合もある。
【0051】
図5は、情報処理装置3のハードウェア構成を表す図である。情報処理装置3は、少なくともCPU25,RAM26,通信制御部27、入出力制御部28、操作入力制御部29、表示出力制御部30、音声入出力制御部31、センサ入力制御部32およびそれらを接続するシステムバス33を備えている。
【0052】
通信制御部27はネットワーク1と接続され、サーバ2とのプログラム、データのやりとりを制御する。また、入出力制御部28は、CD−ROMやDVD33、メモリカード34、ハードディスク35などの記録媒体からのデータの読取りおよびそれらの記録媒体へのデータの書き込みを制御する。操作入力制御部29は、情報処理装置3に外部接続されたコントローラ11などの入力機器からのユーザ入力を制御する。受け付けた入力はシステムバス33を介してCPU25に伝達される。表示出力制御部30は、制御プログラムが出力する画像のディスプレイ15への表示を制御する。音声入出力制御部31は、マイク7からの音声入力とスピーカ8への音声出力を制御する。さらに、センサ入力制御部32は、脈拍センサ12からのセンサ入力を制御する。
【0053】
図2の各機能を提供する制御プログラムは、CD−ROMやDVD33によって提供されるか、またはサーバ2からのダウンロードにより提供される。いずれの場合も、制御プログラムはRAM26にロードされ、CPU25によって実行される。CPU25は、制御プログラムに基づいて、操作入力制御部29、表示出力制御部30および通信制御部27との間で指示信号などを交換することによりキャラクタ制御機能16を実現する。同様に、チャットデータ発信機能17は、CPU25が制御プログラムに基づいて音声入出力制御部31、センサ入力制御部32および通信制御部27と信号などを交換することにより実現され、チャット音声出力機能18は、通信制御部27や音声入出力制御部31と信号などを交換することにより実現される。
【0054】
図6は、図2のチャット音声出力機能18に対応する制御プログラムの処理の概要を表すフローチャートである。図に示すように、制御プログラムは、ステップS101においてチャットデータを受信すると、まずステップS102において、そのチャットデータの発信元のユーザに対応するキャラクタの周辺に音声出力に影響する属性を有するオブジェクトが存在するか否かを判定する。仮想空間の構成とキャラクタの配置位置についての情報は、前述のようにキャラクタ制御機能により取得済みであるので、判定はその情報を利用して行うことができる。例えば、音声を発したキャラクタを中心とした所定半径の円状領域、あるいはキャラクタの正面の所定角度の扇型領域内に、音声に係る属性を有するオブジェクトが存在するか否かを判定する。
【0055】
音声に係る属性を有するオブジェクトが存在した場合には、次にステップS103においてそのオブジェクト属性に基づいて、チャットデータに含まれる発声音を変換する。例えば、オブジェクトの属性が音反響特性であれば、発声音に対しエコー処理を施した後、処理後の音声データをメモリに保存する。音声に係る属性を有するオブジェクトがキャラクタの周辺に存在しない場合には、ステップS103の処理は実行しない。
【0056】
次に、ステップS104において、音声を発したキャラクタと、この音声出力処理を実行する装置を使用しているユーザのキャラクタとの相対的な位置関係を、仮想空間およびキャラクタ配置の情報に基づいて計算する。さらに、2キャラクタのいずれか、もしくは両方が移動中である場合には、単位時間あたりの位置関係の変化(変位速度)を求め、変位速度が音声に影響する程度の速度か否かを所定の閾値との比較により判定する。
【0057】
変位速度が閾値以上である場合には、ステップS105において、変位速度に基づく音声変換処理を行う。ステップS103において、変換処理が行われていた場合には、メモリに保存されている処理後の音声データに対してさらに変換処理を施す。変位速度が音声に影響しない程度である場合には、ステップS105の処理は実行しない。
【0058】
次に、ステップS106においてチャットデータに脈拍などのユーザ身体情報が含まれているか否かを判定する。音声に影響するようなユーザ身体情報(例えば脈拍が非常に高いという情報)が含まれている場合には、ステップS107において、そのユーザ身体情報に基づく変換処理を実行する。例えば前述のように、声が震えて聞こえるように発声音を変換する。ステップS103あるいはS105において、変換処理が行われていた場合には、メモリに保存されている変換後の音声データに対してさらに変換処理を施す。変換後のデータは再びメモリに保存する。一方、音声に影響するようなユーザ身体情報が含まれていなかった場合には、ステップS107の処理は実行しない。
【0059】
次に、ステップS108において、出力中あるいはこれから出力しようとする効果音があるか否かを演出音データに含まれる出力タイミングの情報に基づいて判定する。効果音がある場合には、ステップS109において、発声音と効果音を、前述のように所定の重み付けを行うなどして、合成する。合成の方法は、効果音の種類ごとに、予め定義しておくのがよい。ステップS103、S105あるいはS107において変換処理が行われていた場合には、メモリに保存されている処理後の音声を効果音と合成する。なお、効果音がない場合には、ステップS109の処理は行わない。
【0060】
次に、ステップS110において変換あるいは合成された音声を出力する。以上の処理により、前述の4つの特徴を備えた音声チャット機能を実現することができる。但し、図6に示したフローチャートは、上記4つの特徴すべてを備えるための処理を示したものであるが、上記各特徴は単独で臨場感を増す効果を奏するものであり、必ずしもすべての特徴を組み合わせる必要はない。
【0061】
以上に説明したように、音声の聞こえ方は、音声変換や、他の音声との合成により音声データ自体を加工することにより、変化させることができる。一方、音声の聞こえ方は、音声を聞くユーザと音声が出力されるスピーカの位置によっても変わることは経験的に知られている。
【0062】
そこで、本実施の形態では、上記音声の変換や合成を行う際に、ユーザの右側に配置されるスピーカ用、左側に配置されるスピーカ用というように、スピーカの配置位置ごとに異なる出力用データを生成する。例えば、あるキャラクタが音声を発しながら、情報処理装置を使用するユーザのキャラクタからみて右方向に高速で移動した場合には、左側のスピーカから出力する発声音は音量が段階的に小さくなるようにし、右側のスピーカから出力する発声音は音量が段階的に大きくなるようにする。これにより、発声キャラクタが右方向に高速移動したことが聴覚により実感でき、臨場感が増す。3以上のスピーカが配置されることを想定して、より多くの出力用データを生成するようにしてもよいことは言うまでもない。
【0063】
次に、臨場感を増すことにより起こり得る問題と、その問題を解決するための手段について説明する。前述の説明からも明らかであるように、音声の聞こえ方を変化させることにより臨場感を増すということと、音声を聞こえやすくするということは、必ずしも両立しない。このため、臨場感を楽しむユーザがいる一方で、音声が聞こえにくいことにストレスを感じるユーザもいる可能性がある。そこで、本実施の形態のネットワークロールプレイングゲームは、すべてのユーザがストレスを感じることなく前述の臨場感を楽しめるよう、いくつかの新たな機能を備える。
【0064】
図7は、聞き取りにくさのストレスを緩和するための第1の機能について説明するための図である。仮想空間において、ユーザ4Aのキャラクタ6Aと他のユーザが操作するキャラクタ6Bおよび6Cの間には、大音量ノイズを発するオブジェクト36が配置されている。ユーザ4Aのヘッドホンのスピーカ8Aからは、音声10が出力されているが、オブジェクト36の影響を受けて音質が悪化しているため、ユーザ4Aは音声10が、どのキャラクタの声であるかを判別することができない。
【0065】
第1の機能は、このようなケースで、発声キャラクタを容易に判別できるようにするための機能である。具体的には、図7に示すように、発声中のキャラクタ6Bの周辺に、発声中であることを示すマーク37を表示する。あるいは、「発声中」などの文字を発声キャラクタ6Bの周辺の表示してもよい。さらには、発声キャラクタ本体の色を変化させたり、キャラクタの口を動かすなどしてもよい。これにより、ユーザ4Aは、音声10の発生元がキャラクタ6Bであることを容易に認識することができる。これにより、例えばキャラクタ6Aをキャラクタ6Bの近くまで移動させて、再度会話を交わすことにより、聞き取り損ねた発言の内容を確認することができる。第1の機能は、図2に示した制御プログラムの構成において、チャット音声出力機能18とキャラクタ制御機能16を連携させることにより実現することができる。
【0066】
ここで、第1の機能では、キャラクタ6Aがキャラクタ6Bに問いかけを行い、キャラクタ6Bが再度同じ発言をすることによってはじめて、聞き取り損ねた発言の内容が明らかになる。言い換えれば、キャラクタ6Bが発言を繰り返すことを拒んだ場合には、聞き取り損ねた発言の内容を知ることができない。そこで、そのような場合でも、聞き取り損ねた発言の内容を知ることができるように、本実施の形態では、第2の機能として音声再生機能を提供する。
【0067】
第2の機能として提供する音声再生機能は、ユーザから所定の指示入力があった場合に、キャラクタの過去の発声音を再生する機能である。指示入力のためのユーザインタフェースは種々考えられるが、例えば図8に示すように、画面に音声再生指示のためのメニュー38を表示する方法が考えられる。図8の例は、キャラクタ6Bにカーソル39を合わせて所定のボタン操作を行うことにより操作メニュー38を表示させる例である。さらにカーソル39を操作してメニュー項目の中から所望の指示を選択すれば、過去の発言の一部または全部を再生することができる。第1の機能のみとした場合には、キャラクタ6Bを操作するユーザは、多数のキャラクタから再発言を求められた場合に何度も同じ発言を繰り返さなければならないが、第2の機能によれば、キャラクタ6Bを操作するユーザは再発言を求められることはない。また、キャラクタ6Aを操作するユーザ4Aも、キャラクタ6Bを操作するユーザに気兼ねすることなく、知りたい内容を確認することができる。
【0068】
さらに、本実施の形態では、図9に示すように、キャラクタを指定することなく、仮想空間内の所定の場所(部屋など)で行われた会話を、まとめて再生する機能も提供する。この機能によれば、ユーザが所定のボタン操作を行った場合に操作メニュー40が画面に現れる。ユーザは、カーソル39を操作することによりメニュー項目のいずれかを選択し、仮想空間内の所定の場所において、過去に行われた会話の一部あるいは全部を再生することができる。本実施の形態では、多くの会話を短時間に再生できるように、早送り再生機能も提供する。
【0069】
なお、音声再生機能は、音声を聞き取り損ねた場合の聞き直しに限らず、ゲームに途中から参加したユーザにとっても有用な機能である。例えば図9は、キャラクタ6Aを操作するユーザがゲームに途中参加し、会話中のキャラクタ6B〜6Dに遭遇した例を示している。このようなケースで、キャラクタ6Aを操作するユーザは、この場所で過去に行われた会話を再生することにより、3人のキャラクタの間でなされた会話の内容を把握することができる。この場合、キャラクタ6Aが、状況把握のために多くの質問をして他のユーザを煩わせることがなくなる。
【0070】
第2の機能を提供するためには、過去の発言に係る音声データをすべて記憶しておく必要がある。聞き直しのみを目的とした再生機能を提供する場合には、情報処理装置側に再生用のデータを蓄積してもよいが、前述のように聞き直し目的に限らず全キャラクタの全発言内容を再生できるようにするためには、サーバ側に再生用のデータを蓄積しておくのがよい。
【0071】
図10は、音声再生を行うために必要なサーバ側の機能を示す図である。図に示すように、サーバ2は、仮想空間を提供するとともにキャラクタの配置を管理する仮想空間/キャラクタ制御機能41と、各情報処理装置からチャットデータを受信して他の情報処理装置に配信するチャットデータ配信機能42と、各情報処理装置からの要求に応じてデータベース44を検索することにより要求されたチャットデータを取得して送信するチャットデータ検索機能43を備える。
【0072】
チャットデータは、チャットデータ配信機能42によりデータベース44に蓄積保存される。この際、チャットデータに含まれる発声時刻、発声キャラクタの情報に加え、発声場所など検索に必要な他の情報が付加される。チャットデータの保存は、受信したままのチャットデータを保存する方法のほか、チャットデータに含まれる音声データを文字データに変換し、発声時刻、発声キャラクタ、発声内容を表す文字データを含むデータとして保存する方法も考えられる。発声内容を文字データとして保存した場合には、音声の再生を要求された場合に、音声と合わせて文字を表示することも可能になる。また、文字情報の検索技術は数多く知られているため、それらの技術を用いれば、発声キャラクタ、発声時刻のみならず、発声内容の検索も可能になる。さらには、近年、音声データを標準音声符号に変換して音声符号の一致、不一致により音声の検索を行う技術も提案されている。したがって、音声データを標準音声符号に変換して保存し、音声符号に基づく検索を行ってもよい。
【0073】
また、例えばMP3などの標準音声圧縮技術の多くは、音声の早送り再生についても規格を定めている。したがって、チャットデータに含まれる発声音の情報を、標準のデータ形式で保存すれば、前述の早送り機能を提供することができる。なお、検索用データと一括再生や早送り再生用のデータを別個に異なるデータ形式で保存しておき、目的に応じて使い分けてもよい。
【0074】
図11は、情報処理装置3により実行される再生処理と、サーバ2により実行される検索処理を表したフローチャートである。図に示すように、情報処理装置3は、ステップS201において、図8あるいは図9のような操作メニューから音声再生指示の入力を受け付けると、ステップS202において、キャラクタ、発声時刻、会話がなされた場所など検索のキーワードの情報を含む再生要求をサーバ2に送信する。サーバ2は、ステップS301において再生要求を受信すると、ステップS302において、検索キーワードの有無を確認することによって、一部再生が要求されているか、過去の全音声の再生が要求されているかを判定する。検索キーワードが含まれている場合には、ステップS303において、そのキーワードを使用してデータベース44の検索を行う。ステップS304では、検索により取得したチャットデータを再生要求を送信した情報処理装置に送信する。なお、過去の全音声の再生が要求された場合には、データベース44に保管されているチャットデータを時系列に並べて情報処理装置に送信する。
【0075】
情報処理装置は、ステップS203において、サーバ2が送信したチャットデータを受信し、ステップS204においてそのチャットデータに含まれる音声を再生出力する。
【0076】
次に、聞き取りにくさのストレスを緩和するための第3の機能について説明する。第3の機能は、キャラクタが所定のアイテムを所持している場合、あるいはキャラクタが所定の属性を有する場合など、キャラクタが所定の条件を満たす場合に、臨場感を出すための音声変換処理あるいは音声合成処理を省略して音声を出力する機能である。
【0077】
図12は、第3の機能を提供するための処理を示すフローチャートである。図に示すように、図12に示すフローチャートは、図6に示したフローチャートのステップS101の後に、チャットデータを受信したユーザ(音声の聞き手のユーザ)のキャラクタが、指定アイテムを所持しているか否かを判定するステップS111を追加したものである。指定アイテムは固定的としてもよいが、チャットデータごとに定義してもよい。すなわち、チャットデータに指定アイテムの情報を含めておいてもよい。
【0078】
ステップS111において、聞き手のキャラクタが指定アイテムを所持していないと判定した場合には、図6のステップS102以降の処理を実行する。一方、聞き手のキャラクタが指定アイテムを所持している場合には、図6のステップS102〜S109までの処理は実行しない。この場合、音声変換や合成処理は行われないので、ステップS110では、チャットデータに含まれる音声がそのまま出力される。
【0079】
第3の機能によれば、例えば指定アイテムをトランシーバとした場合、図13に示すように、トランシーバ45Aを所持するキャラクタ6Aとトランシーバ45Bを所持するキャラクタ6Bは、周辺オブジェクトや効果音の影響を受けることなく、常に聞き取りやすい音声で会話することができる。
【0080】
同様に、図12のステップS111においてキャラクタの属性を参照し、属性によって、音声変換あるいは合成の要否を決定してもよい。この場合、例えば、人間属性のキャラクタがロボット属性のキャラクタと会話する際には音声が聞き取りにくくなることがあるが、人間属性のキャラクタ同士が会話するときには常に鮮明な音声で会話できるといった仕様を実現することができる。グループに分かれて対戦を行うタイプのゲームであれば、グループ分けを属性として定義しておくことにより、味方グループのみとチャットできる仕様を実現することもできる。
【0081】
第3の機能によれば、ユーザは、所定の条件を満たすことによって、従来と同じく発声したままの音声によって会話を行うことができるようになるため、臨場感を優先するユーザと、聞き取りやすさを優先するユーザが、いずれもストレスを感じることなく一緒にゲームを楽しむことができるようになる。
【0082】
以上に説明したように、本実施の形態のロールプレイングゲームでは、音声チャットを行う際に、仮想空間と密接に関連した音声が出力されるため、ユーザは、視覚のみならず聴覚によっても臨場感を感じることができる。また、臨場感を重視した結果、一時的に音声が聞き取りにくくなることがあるとしても、音声を聞き直す、あるいは鮮明な音声に聞くための工夫が施されているため、ユーザがストレスを感じることはない。
【0083】
なお、ネットワークロールプレイングゲームを例に説明したが、本発明はキャラクタを介して音声チャットを行うあらゆるシステムに適用可能な技術であることは言うまでもない。
【0084】
【発明の効果】
本発明の各情報処理装置あるいはプログラムによれば、チャット音声は、仮想空間と音声の関連を密にする処理が施された後に出力されるので、その音声を聞くユーザは、あたかも仮想空間内で会話をしているような臨場感を感じることができる。
【0085】
また、本発明の他の各情報処理装置あるいはプログラムによれば、チャット音声が聞き取りにくい場合でも、ユーザにストレスを感じさせることがない。
【図面の簡単な説明】
【図1】ネットワークロールプレイングゲームと、その音声チャット機能の概要について説明するための図である。
【図2】本発明の情報処理装置の機能を示す図である。
【図3】チャットデータのフォーマットの一例を表す図である。
【図4】演出音データのフォーマットの一例を表す図である。
【図5】情報処理装置のハードウェア構成を表す図である。
【図6】本発明のプログラムの一実施の形態における処理概要を表すフローチャートである。
【図7】発声キャラクタを判別するための機能について説明するための図である。
【図8】チャット音声のキャラクタごとの再生機能について説明するための図である。
【図9】チャット音声の一括再生機能について説明するための図である。
【図10】チャット音声の再生に必要なサーバの機能を示す図である。
【図11】チャット音声を再生する処理の概要を表すフローチャートである。
【図12】所持アイテムに基づく音声出力処理を表すフローチャートである。
【図13】所持アイテムに基づく音声出力処理について説明するための図である。
【符号の説明】
2 サーバ、 3,3A,3B 情報処理装置、 4A,4B ユーザ、 5仮想空間、 6A〜6E キャラクタ、 7,7A,7B マイク、 8,8A,8B スピーカ(イヤホン)、 9 発声音、 10 出力される音声、 11,11A,11B コントローラ、 12,12A,12B センサ、 13,14,36 オブジェクト、 33 システムバス、 34 メモリカード、 35 ハードディスク、 37 マーク、 38,40 操作メニュー、 39 カーソル、 45A,45B トランシーバ。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an information processing apparatus, a server, and a computer program that controls the information processing apparatus suitable for application to a voice chat system in which conversation is performed via characters arranged in a virtual space.
[0002]
[Prior art]
The chat service provided on the Internet allows users who are physically separated to enjoy text-based conversations by transferring text data input from users to other users in real time via the network. Service. Originally proposed as a means for direct communication between users, it has recently been used as a function for allowing characters displayed on a computer screen to have a conversation. For example, Patent Document 1 discloses a system in which a user's surrogate character called an avatar is placed in a three-dimensional virtual reality space, and a character input by each user is transmitted to another user as an utterance of the surrogate character.
[0003]
In recent years, a voice chat service has started to be provided that enables voice conversation similar to a telephone by converting voice inputted by a microphone into digital data and exchanging it.
[0004]
[Patent Document 1]
JP 2001-31744 A
[0005]
[Problems to be solved by the invention]
As described above, there are two types of chat: a mode in which the user has a conversation as himself and a mode in which the user has a conversation as a substitute character. The roles expected of the chat system are slightly different between the former and the latter. In the former case, it is sufficient that each user's speech is accurately transmitted in real time. However, in the latter case, particularly in network role-playing games, etc., it is important not only to accurately transmit information, but also to create an atmosphere in which each user can fully transfer emotions to the characters.
[0006]
The invention described in Patent Document 1 tries to express a sense of distance between avatars by changing attributes of a chat character string, but there is a limit to creating an atmosphere using such characters. Accordingly, an object of the present invention is to provide a voice chat system that can enhance the atmosphere of a virtual space and enjoy a conversation full of realism. Furthermore, some problems that may arise due to the importance of presence are also solved.
[0007]
[Means for Solving the Problems]
The present invention provides an information processing apparatus including character control means, chat data transmission means, and chat voice output means as described below as means for enhancing the sense of presence when performing voice chat. A program for causing a computer to function as such an information processing apparatus is also provided. The program can be provided by being recorded on a computer-readable recording medium such as a DVD, a CD-ROM, or a memory card.
[0008]
The character control means communicates with a server that manages a virtual space that can be shared by a plurality of users and a character for each user placed in the virtual space, so that a character placed by the user of the information processing device in the virtual space. It is a means for controlling the behavior.
[0009]
The chat data transmission means is means for acquiring first voice data representing voice uttered by a user of the information processing apparatus, generating chat data including the first voice data, and transmitting the chat data.
[0010]
The chat voice output means acquires chat data generated by the information processing apparatus in communication with the server, and uses the first voice data included in the chat data to use the user of the information processing apparatus that generated the chat data. Is means for outputting the voice of the arranged character.
[0011]
In the first information processing apparatus or program proposed by the present invention, the chat voice output means converts the first voice data included in the acquired chat data based on the attribute relating to the voice of the object arranged in the virtual space. By doing so, the second voice data is generated, and the voice represented by the second voice data is output as the voice of the character. However, the first audio data and the second audio data may be equal as a result of the conversion. The attributes relating to the sound of the object are, for example, sound absorption, sound reflection, and pitch change, and are defined together with other attributes of the object when configuring the virtual space.
[0012]
In other words, the way the sound is heard changes depending on the presence of an object other than the character in the virtual space, so that the user can recognize the structure of the virtual space not only visually but also by hearing. Thereby, a sense of reality can be enhanced.
[0013]
In the second information processing apparatus or program proposed by the present invention, the chat voice output means arranges the first voice data included in the acquired chat data by the user of the information processing apparatus in which the chat data is generated. The second voice data is generated by converting the character and the positional relationship between the character placed by the user of the information processing apparatus based on the displacement amount per unit time, that is, the displacement speed, and the voice represented by the second voice data is converted into the second voice data. Output as the voice of the character.
[0014]
By changing the sound produced by the moving character in real time, the user can recognize that the character is moving by hearing, so that the user's sense of reality can be enhanced.
[0015]
Further, in the third information processing apparatus or program proposed by the present invention, the chat data transmission means acquires the user's physical information by a predetermined sensor attached to the user and generates chat data including the physical information. Then make a call. The chat voice output means generates second voice data by converting the first voice data included in the acquired chat data based on the physical information included in the chat data, and the voice represented by the second voice data. Is output as the voice of the character.
[0016]
The user's physical information is information representing a change in the physical state of the user who operates the character, and includes, for example, a pulse, a sweating state, and a body temperature. By changing the voice of the character in accordance with the physical state of the user who operates the character, the effect is to make the user and the character feel assimilated.
[0017]
In the fourth information processing apparatus or program proposed by the present invention, the chat sound output means acquires sound effect data representing sound effects for producing a virtual space, and uses the first sound data and sound effect data. The second voice data is generated by the synthesis, and the voice represented by the second voice data is output as the voice of the character.
[0018]
If the output timing of the sound effect and chat voice overlap, the user's voice is affected by other sounds generated in the virtual space, so that the user is speaking in the virtual space. Can feel like.
[0019]
Further, the chat voice output means of each information processing device generates second voice data for each voice output device based on the positional relationship between the voice output device (speaker) that outputs voice and the user of the information processing device. Is desirable. By outputting the chat voice by utilizing the arrangement of the speakers, the sense of reality can be further enhanced.
[0020]
Next, the present invention proposes a chat voice playback function as a new function of voice chat. As means for realizing such a function, the following information processing apparatus and server as well as a computer are used. Provided is a program that functions as an information processing apparatus or server.
[0021]
A fifth information processing apparatus and program provided by the present invention includes the character control means, chat data transmission means, and chat voice output means as described above, as in the first to fourth information processing apparatuses. In the fifth information processing apparatus and program, the chat voice output means is a server generated by each information processing apparatus in addition to the function of acquiring the chat data immediately after being generated by each information processing apparatus and outputting the voice of the character. The function of acquiring the chat data stored and stored in and reproducing the voice of the character is provided. It is desirable that the chat voice output means can reproduce the voice of the character at a speed different from the speed at which the voice data is acquired. This is to enable fast-forwarding of audio during playback.
[0022]
Furthermore, in order to provide a chat voice reproduction function, a server and a server program including the following character control means, chat data distribution means, and chat data search means are provided.
[0023]
The character control means is a means for providing a virtual space that can be shared by a plurality of users and controlling the actions of the characters arranged by each user in the virtual space by communicating with the information processing apparatus of each user.
[0024]
The chat data distribution means receives chat data including voice data representing voice uttered by each user from the information processing apparatus of each user, stores the chat data in a predetermined storage medium, and communicates with the plurality of chat data. It is means for delivering to the information processing apparatus. The voice data included in the chat data may be stored in a storage medium after being converted into character data.
[0025]
The chat data search means is means for searching for chat data requested by the user from the chat data stored in the storage medium and transmitting it to the information processing apparatus of the user. Thereby, the information processing apparatus that accesses the server can reproduce the chat voice.
[0026]
Furthermore, the present invention includes, as the sixth information processing apparatus or program, the character control means, the chat data transmission means, and the chat voice output means as described above, similar to the first to fourth information processing apparatuses. The chat voice output means outputs the voice of the character based on the attributes and items of the character arranged by the user using the information processing apparatus and the character arranged by the user of the information processing apparatus from which the output voice data is acquired. Devices and programs are provided. According to this apparatus or program, the user can change the way the sound is heard by his / her selection by acquiring predetermined attributes and items. This is to prevent the user from feeling stressed about how to listen to the chat voice by allowing the user to select a preferred listening method.
[0027]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described by taking a network role playing game as an example. First, an overview of a network role playing game and its voice chat function will be described with reference to FIG.
[0028]
In general, the network game service is provided by a server computer managed by a game company or the like. The network role playing game service of the present embodiment is also provided by one or a plurality of computers (hereinafter referred to as server 2) connected to the network 1 such as the Internet. A user of a game service (hereinafter referred to as a user) operates an information processing apparatus having a communication function, for example, a home game machine, a personal computer, a portable game machine, a mobile phone, a portable information terminal, etc. The server 2 is accessed through the game. Note that the communication function is not limited to wired, but may be a wireless communication function. The figure shows a state in which two users 4A and 4B are accessing the server 2 using the information processing apparatuses 3A and 3B, respectively.
[0029]
The server 2 defines a virtual space 5 constituted by land, buildings, and other various objects, and provides the virtual space 5 in a state that can be shared by users who have accessed the server 2. The user can enjoy a feeling as if he / she is in the virtual space by placing a character corresponding to his / herself in the virtual space 5 provided by the server 2 and moving the character. The user can move his / her character by operating a control device (controller) connected to the information processing apparatus and sending a predetermined instruction signal to the server 2. In the figure, as a result of the user 4A operating the controller 11A to move the character 6A and the user 4B operating the controller 11B to move the character 6B, the character 6A and the character 6B encounter each other in the virtual space. .
[0030]
The information processing apparatuses 3A and 3B used by each user have a built-in or connected microphone for inputting sound and a speaker for outputting sound. Further, in the present embodiment, each user wears a pulse sensor for measuring a pulse at any part of the body. The form of the microphone, the speaker, and the pulse sensor may be any form. For example, in the figure, the users 4A and 4B are equipped with microphone-equipped headphones equipped with voice input microphones 7A and 7B and voice output earphones 8A and 8B, and pulse sensors 12A and 12B so as to hit the temples of the head. The state which mounted | wore is illustrated.
[0031]
Voice chat is realized by generating chat data including voice data representing voice input from the microphones 7 </ b> A and 7 </ b> B and exchanging chat data via the network 1 and the server 2. For example, when the utterance sound 9 of the user 4B is input to the information processing apparatus 3B through the microphone 7B, chat data including voice data representing the utterance sound 9 is transferred from the information processing apparatus 3B to the server 2. The chat data is distributed by the server 2 to the information processing apparatuses 3A and 3B, and the sound 10 is output from the earphone 8A of the user 4A and the earphone 8B of the user 4B.
[0032]
In the network role-playing game, a user who performs voice chat usually utters a voice with the intention of becoming a substitute character. In other words, not a direct conversation between users but an indirect conversation via a character. For this reason, in the following description, when a user utters as a character, it expresses as "a character utters" etc. as needed.
[0033]
The voice chat function of the network role-playing game according to the present embodiment has several features as described below.
[0034]
First, the voice uttered by a character is heard depending on the shape, position, orientation, characteristics, etc. of objects around the character. In other words, the attribute of an object other than the character arranged in the virtual space affects the way in which the voice uttered by the character is heard. The attribute of each object is defined at the time of configuring the virtual space.
[0035]
For example, in the virtual space 5 illustrated in FIG. 1, sound echo characteristics are defined as one of the attributes of the object 13 (tunnel). In this case, when the character 6C in the vicinity of the object 13 makes a sound while facing the object 13, the sound is reverberated and heard. When the character 6C makes a sound in the opposite direction to the object 13, the sound does not reverberate. The object 14 (plant) has sound absorption characteristics. In this case, the character 6D and the character 6E trying to communicate with each other with the object 14 sandwiched between them are absorbed by the object 14 and thus cannot hear each other's voice and cannot talk. On the other hand, the characters 6A and 6B located at a predetermined distance or more from the object 13 and the object 14 can talk normally without being influenced by the object.
[0036]
As object attributes related to sound, in addition to the above-mentioned echo and absorption, various attributes such as a characteristic that the emitted sound can be heard in a stepwise manner and a characteristic that it can be heard in an octave higher can be freely defined. it can. The attribute relating to the sound may be defined so as to be an environment close to the real world as in the example of the object 13, or may be an attribute causing an unrealistic phenomenon as in the example of the object 14.
[0037]
The way in which the voice uttered by the character changes depending on the location of the character is nothing other than that the voice is closely related to the structure of the virtual space. Thus, each user can feel that a certain character has moved from one place in the virtual space to another place from a change in how the voice uttered by the character is heard. In other words, since an event that has been captured only by vision can be captured by hearing, a sense of reality is increased as compared with the past.
[0038]
Voice chat is originally a function for communication, but in the present embodiment, it is also possible to enjoy the change in how the voice is heard by speaking to the character while moving the character. Furthermore, when encountering a partner who does not want to have a conversation, the game can be advanced while utilizing the way the sound is heard, such as moving the character to a place where it is difficult to hear the sound.
[0039]
Next, the second feature will be described. In the game of the present embodiment, when the positional relationship between characters having a conversation changes with the passage of time, the sound also changes in real time with the passage of time. For example, a voice uttered by a character trying to run away while riding a car is gradually reduced as the distance from the character that hears the voice increases. That is, not only a relative positional relationship between characters but also a change in the positional relationship is detected, and the detected change is reflected in the output voice. The relationship between the change in the positional relationship and the change in the sound may be a relationship similar to the real world as in the above example, but an unrealistic relationship unique to the virtual space may be defined. For example, when the character being uttered moves (warps) in the virtual space instantaneously, it is possible to define a relationship such that no sound can be heard or suddenly the sound can be heard at the warped timing.
[0040]
The fact that the way in which the voice uttered by the character changes in accordance with the movement of the character is nothing but the close relationship between the voice uttered by the user and the virtual space. Similar to the first feature, the user can feel that a certain character is moving from one place in the virtual space to another place from a change in how the voice uttered by the character is heard. Conventionally, an event that has been captured only by vision can be captured by auditory sense.
[0041]
Next, the third feature will be described. In role-playing games, sound effects for production are usually output in accordance with the action taken by the scene or character. For example, wind sound or collision sound. These sound effects, like the virtual space, are defined by the side that creates and provides the game. In the role playing game of the present embodiment, when the timing at which the character utters the voice overlaps with the output timing of such a sound effect, the way the character's voice is heard changes. In other words, the sound data output by the game control program and the sound data acquired by the microphone input are output after being synthesized according to a predetermined rule.
[0042]
For example, in a strong wind scene, the sound of the wind and the voice of the character will be heard, but in this case, the weight of the sound of the wind is increased so that the sound of the character is drowned out by the sound of the wind and becomes difficult to hear. . The rule for synthesizing speech may be a rule that makes it sound like the real world, or a rule that makes an unreal sound that is unique to the virtual world. In any case, it goes without saying that various rules can be considered.
[0043]
The fact that the sound heard by the character changes depending on the sound generated in the virtual space is nothing but the close relationship between the sound emitted by the user and the virtual space. As a result, the user who emits the sound can feel the presence as if he / she is speaking in the virtual space, and the user who listens to the sound can actually hear the character in the virtual space. You can enjoy the feeling as if
[0044]
Next, the fourth feature will be described. In the role playing game according to the present embodiment, each user wears the pulse sensors 12A and 12B as described above, and the sound produced by the user changes according to the user's pulse.
[0045]
For example, when it is detected that the pulse is extremely high, even if the user himself / herself utters a normal voice, the voice of the user who listens to the voice may be trembling or high. hear. Furthermore, the user's character with a high pulse changes the screen display, for example, the face color becomes red (or blue). Instead of the pulse sensor, a sweat sensor or a temperature sensor may be attached. Since the sensor is worn for the purpose of detecting a change in the user's physical condition, any sensor that meets this purpose may be used.
[0046]
As described above, when the user's body information is reflected in the utterance sound of the user's character, the uttering user can enjoy the game assimilating with the character. In addition, the user who listens to the voice can catch a glimpse of the state or character of the user who operates the character from the voice of the character.
[0047]
Next, means for providing the above-described voice chat function will be described. FIG. 2 is a diagram for explaining functions of the information processing apparatus 3 used by the user. As illustrated, the information processing apparatus 3 includes a character control function 16, a chat data transmission function 17, and a chat voice output function 18. Specifically, these functions are realized by a control program incorporated in the information processing apparatus 3.
[0048]
The character control function 16 receives information on the virtual space and the arrangement position of the characters from a server (not shown) via the network 1 and displays a partial area of the virtual space on the display 15 based on the received information. 11 is a function of receiving an operation input from 11 and transmitting information specifying the character's action to the server.
[0049]
The chat data transmission function 17 is a function that receives voice input from the microphone 7 and pulse information from the sensor 12, generates chat data including such information, and transmits the chat data to the server via the network 1. . As shown in FIG. 3, the chat data needs to be in a format including at least three types of information, that is, the uttered sound 21 input by the microphone and digitized, the utterance time 19 of the uttered sound 21, and the information of the uttered character 20. is there. Alternatively, information specifying the user may be added in place of the utterance character 20. In the present embodiment, the chat data also includes user physical information 22 such as a pulse acquired by a sensor.
[0050]
The chat voice output function 18 is a function that receives voice data transferred from the server 2 via the network 1 and outputs the voice data to the speaker 8. The voice data transferred from the server 2 includes production sound data representing sound effects for production, in addition to chat data transmitted by the chat data transmission function 17 of each information processing apparatus. As shown in FIG. 4, the effect sound data includes at least information on the sound effect 24 and the output timing 23 of the sound effect 24. The effect sound data may be transferred from the server 2 but may be held in advance by the information processing device 3.
[0051]
FIG. 5 is a diagram illustrating a hardware configuration of the information processing apparatus 3. The information processing apparatus 3 includes at least a CPU 25, a RAM 26, a communication control unit 27, an input / output control unit 28, an operation input control unit 29, a display output control unit 30, a voice input / output control unit 31, a sensor input control unit 32, and a connection between them. The system bus 33 is provided.
[0052]
The communication control unit 27 is connected to the network 1 and controls exchange of programs and data with the server 2. Further, the input / output control unit 28 controls reading of data from a recording medium such as a CD-ROM, DVD 33, memory card 34, and hard disk 35 and writing of data to the recording medium. The operation input control unit 29 controls user input from an input device such as the controller 11 externally connected to the information processing apparatus 3. The accepted input is transmitted to the CPU 25 via the system bus 33. The display output control unit 30 controls display on the display 15 of an image output by the control program. The voice input / output control unit 31 controls voice input from the microphone 7 and voice output to the speaker 8. Further, the sensor input control unit 32 controls sensor input from the pulse sensor 12.
[0053]
A control program that provides each function of FIG. 2 is provided by a CD-ROM or DVD 33 or downloaded from the server 2. In either case, the control program is loaded into the RAM 26 and executed by the CPU 25. The CPU 25 implements the character control function 16 by exchanging instruction signals and the like among the operation input control unit 29, the display output control unit 30, and the communication control unit 27 based on the control program. Similarly, the chat data transmission function 17 is realized by the CPU 25 exchanging signals and the like with the voice input / output control unit 31, the sensor input control unit 32, and the communication control unit 27 based on the control program. Is realized by exchanging signals with the communication control unit 27 and the voice input / output control unit 31.
[0054]
FIG. 6 is a flowchart showing an outline of the processing of the control program corresponding to the chat voice output function 18 of FIG. As shown in the figure, when the control program receives chat data in step S101, first, in step S102, there is an object having an attribute that affects voice output around the character corresponding to the user who sent the chat data. It is determined whether or not to do. Since the information about the configuration of the virtual space and the arrangement position of the character has been acquired by the character control function as described above, the determination can be performed using the information. For example, it is determined whether or not an object having a sound attribute exists in a circular area with a predetermined radius centered on the character that made the sound or a fan-shaped area with a predetermined angle in front of the character.
[0055]
If there is an object having an attribute related to voice, in step S103, the utterance sound included in the chat data is converted based on the object attribute. For example, if the attribute of the object is a sound echo characteristic, after the echo processing is performed on the uttered sound, the processed sound data is stored in the memory. If there is no object having the attribute related to the voice around the character, the process of step S103 is not executed.
[0056]
Next, in step S104, the relative positional relationship between the character that produced the sound and the character of the user who is using the device that executes the sound output process is calculated based on the virtual space and character placement information. To do. Further, when one or both of the two characters are moving, a change in positional relationship (displacement speed) per unit time is obtained, and whether or not the displacement speed is a speed that affects the voice is determined in advance. Judgment is made by comparison with a threshold value.
[0057]
If the displacement speed is greater than or equal to the threshold value, a voice conversion process based on the displacement speed is performed in step S105. If conversion processing has been performed in step S103, the conversion processing is further performed on the processed audio data stored in the memory. If the displacement speed does not affect the sound, the process of step S105 is not executed.
[0058]
Next, in step S106, it is determined whether or not user physical information such as a pulse is included in the chat data. If user physical information that affects voice (for example, information that the pulse is very high) is included, a conversion process based on the user physical information is executed in step S107. For example, as described above, the utterance sound is converted so that the voice can be heard trembling. If conversion processing has been performed in step S103 or S105, conversion processing is further performed on the converted audio data stored in the memory. The converted data is stored again in the memory. On the other hand, if the user physical information that affects the voice is not included, the process of step S107 is not executed.
[0059]
Next, in step S108, it is determined based on the output timing information included in the effect sound data whether there is a sound effect that is being output or is about to be output. If there is a sound effect, in step S109, the uttered sound and the sound effect are synthesized by performing predetermined weighting as described above. The synthesis method is preferably defined in advance for each type of sound effect. If the conversion process has been performed in step S103, S105, or S107, the processed sound stored in the memory is synthesized with the sound effect. If there is no sound effect, the process of step S109 is not performed.
[0060]
Next, the voice converted or synthesized in step S110 is output. With the above processing, a voice chat function having the above-described four features can be realized. However, the flowchart shown in FIG. 6 shows a process for providing all the above four features, but each of the above features has an effect of increasing the sense of reality alone, and all the features are not necessarily included. There is no need to combine them.
[0061]
As described above, how the sound is heard can be changed by processing the sound data itself by sound conversion or synthesis with another sound. On the other hand, it is empirically known that how to hear the sound changes depending on the user who listens to the sound and the position of the speaker from which the sound is output.
[0062]
Therefore, in the present embodiment, when performing the above voice conversion and synthesis, output data that differs depending on the speaker placement position, such as the speaker placed on the right side of the user and the speaker placed on the left side. Is generated. For example, when a certain character emits sound and moves at high speed in the right direction as viewed from the character of the user who uses the information processing apparatus, the volume of the uttered sound output from the left speaker is gradually reduced. The volume of the uttered sound output from the right speaker is increased stepwise. Thereby, it can be felt by hearing that the utterance character has moved in the right direction at high speed, and the sense of reality increases. Needless to say, more output data may be generated assuming that three or more speakers are arranged.
[0063]
Next, problems that may occur due to increased realism and means for solving the problems will be described. As is clear from the above description, increasing the sense of presence by changing the way the sound is heard does not necessarily make it easier to hear the sound. For this reason, while there are users who enjoy a sense of realism, there is a possibility that some users feel stressed that it is difficult to hear sound. Therefore, the network role-playing game according to the present embodiment has some new functions so that all users can enjoy the above-mentioned presence without feeling stress.
[0064]
FIG. 7 is a diagram for explaining a first function for alleviating stress that is difficult to hear. In the virtual space, an object 36 that emits loud sound noise is arranged between the character 6A of the user 4A and the characters 6B and 6C operated by other users. The sound 10 is output from the speaker 8A of the headphone of the user 4A, but the sound quality is deteriorated due to the influence of the object 36. Therefore, the user 4A determines which character the voice 10 is. Can not do it.
[0065]
The first function is a function for making it possible to easily distinguish the voice character in such a case. Specifically, as shown in FIG. 7, a mark 37 indicating that the voice is being spoken is displayed around the character 6B being voiced. Alternatively, characters such as “speaking” may be displayed around the speaking character 6B. Furthermore, the color of the voice character body may be changed, or the mouth of the character may be moved. Accordingly, the user 4A can easily recognize that the sound 10 is generated from the character 6B. Thereby, for example, by moving the character 6 </ b> A to the vicinity of the character 6 </ b> B and exchanging the conversation again, it is possible to confirm the content of the speech that has been missed. The first function can be realized by linking the chat voice output function 18 and the character control function 16 in the configuration of the control program shown in FIG.
[0066]
Here, in the first function, the character 6A makes an inquiry to the character 6B, and the character 6B makes the same statement again, so that the content of the missed statement becomes clear. In other words, if the character 6B refuses to repeat a statement, the content of the statement that has been missed cannot be known. Therefore, in this case, in this embodiment, an audio playback function is provided as the second function so that the content of the speech that has been missed can be known.
[0067]
The voice reproduction function provided as the second function is a function for reproducing a past utterance sound of a character when a predetermined instruction is input from the user. Various user interfaces for inputting instructions can be considered. For example, as shown in FIG. 8, a method of displaying a menu 38 for instructing voice reproduction on a screen is conceivable. The example of FIG. 8 is an example in which the operation menu 38 is displayed by moving the cursor 39 to the character 6B and performing a predetermined button operation. Furthermore, if a desired instruction is selected from the menu items by operating the cursor 39, a part or all of past utterances can be reproduced. In the case of only the first function, the user who operates the character 6B must repeat the same remarks many times when many characters ask for repetitive remarks. The user who operates the character 6B is not required to restate. Also, the user 4A who operates the character 6A can confirm the content he wants to know without hesitation of the user who operates the character 6B.
[0068]
Furthermore, as shown in FIG. 9, the present embodiment also provides a function of collectively playing back conversations conducted in a predetermined place (such as a room) in the virtual space without specifying a character. According to this function, the operation menu 40 appears on the screen when the user performs a predetermined button operation. The user can select any of the menu items by operating the cursor 39, and can reproduce a part or all of a conversation that has been performed in the past at a predetermined location in the virtual space. In this embodiment, a fast-forward playback function is also provided so that many conversations can be played back in a short time.
[0069]
Note that the audio playback function is useful not only for re-listening when the voice is missed, but also for users who have joined the game from the middle. For example, FIG. 9 shows an example in which a user operating the character 6A participates in the game halfway and encounters characters 6B to 6D in conversation. In such a case, the user who operates the character 6A can grasp the content of the conversation between the three characters by playing back the conversation that has been performed in the past at this place. In this case, the character 6A does not bother other users by asking many questions for grasping the situation.
[0070]
In order to provide the second function, it is necessary to store all audio data related to past utterances. When providing a playback function for the purpose of only re-listening, data for playback may be stored on the information processing device side, but as described above, not only for the purpose of re-listening, In order to enable playback, it is preferable to store playback data on the server side.
[0071]
FIG. 10 is a diagram showing functions on the server side necessary for performing audio reproduction. As shown in the figure, the server 2 provides virtual space and manages a character space / character control function 41 for managing the arrangement of characters, and receives chat data from each information processing device and distributes it to other information processing devices. A chat data distribution function 42 and a chat data search function 43 for acquiring and transmitting the requested chat data by searching the database 44 in response to a request from each information processing apparatus are provided.
[0072]
Chat data is stored and stored in the database 44 by the chat data distribution function 42. At this time, in addition to the utterance time and utterance character information included in the chat data, other information necessary for the search, such as the utterance location, is added. In addition to the method of saving chat data as it is received, chat data can be saved by converting voice data contained in chat data into character data and saving it as data containing the voice time, voice character, and voice data. A way to do this is also possible. When the utterance content is stored as character data, it is also possible to display the characters together with the voice when the reproduction of the voice is requested. In addition, since many techniques for retrieving character information are known, using these techniques makes it possible to retrieve not only the utterance character and utterance time but also the utterance content. Furthermore, in recent years, a technique has also been proposed in which voice data is converted into a standard voice code and a voice search is performed by matching or mismatching of the voice codes. Therefore, the voice data may be converted into a standard voice code and stored, and a search based on the voice code may be performed.
[0073]
For example, many standard audio compression techniques such as MP3 also set standards for fast-forward playback of audio. Therefore, if the utterance information included in the chat data is stored in a standard data format, the aforementioned fast-forward function can be provided. Note that the search data and the data for batch playback or fast-forward playback may be stored separately in different data formats and used separately according to the purpose.
[0074]
FIG. 11 is a flowchart showing a reproduction process executed by the information processing apparatus 3 and a search process executed by the server 2. As shown in the figure, in step S201, when the information processing apparatus 3 receives an input of a voice reproduction instruction from the operation menu as shown in FIG. 8 or FIG. 9, in step S202, the character, the utterance time, and the place where the conversation was made. The reproduction request including the search keyword information is transmitted to the server 2. When the server 2 receives the reproduction request in step S301, in step S302, the server 2 determines whether or not partial reproduction is requested or reproduction of all past audio is requested by confirming the presence or absence of the search keyword. . If a search keyword is included, the database 44 is searched using the keyword in step S303. In step S304, the chat data acquired by the search is transmitted to the information processing apparatus that transmitted the reproduction request. When reproduction of all past audio is requested, the chat data stored in the database 44 is arranged in time series and transmitted to the information processing apparatus.
[0075]
In step S203, the information processing apparatus receives the chat data transmitted by the server 2, and reproduces and outputs the voice included in the chat data in step S204.
[0076]
Next, a third function for alleviating stress that is difficult to hear will be described. The third function is a voice conversion process or voice for giving a sense of reality when the character satisfies a predetermined condition, such as when the character possesses a predetermined item or when the character has a predetermined attribute. This is a function for outputting a sound without synthesizing processing.
[0077]
FIG. 12 is a flowchart illustrating a process for providing the third function. As shown in the figure, the flowchart shown in FIG. 12 shows whether or not the character of the user who received the chat data (the user who listened to the voice) possesses the designated item after step S101 of the flowchart shown in FIG. Step S111 for determining whether or not is added. The specified item may be fixed, but may be defined for each chat data. That is, information on the designated item may be included in the chat data.
[0078]
If it is determined in step S111 that the listener's character does not possess the specified item, the processing from step S102 onward in FIG. 6 is executed. On the other hand, when the listener's character possesses the designated item, the processes from steps S102 to S109 in FIG. 6 are not executed. In this case, since voice conversion and synthesis processing are not performed, in step S110, the voice included in the chat data is output as it is.
[0079]
According to the third function, for example, when the designated item is a transceiver, as shown in FIG. 13, the character 6A carrying the transceiver 45A and the character 6B carrying the transceiver 45B are affected by surrounding objects and sound effects. You can always talk with a voice that is easy to hear.
[0080]
Similarly, in step S111 in FIG. 12, the attribute of the character may be referred to and the necessity of speech conversion or synthesis may be determined based on the attribute. In this case, for example, when a human attribute character has a conversation with a robot attribute character, it may be difficult to hear the voice, but when a human attribute character has a conversation with each other, it is possible to always talk with a clear voice. can do. In the case of a game of a type in which a battle is divided into groups, by defining the grouping as an attribute, it is possible to realize a specification that allows chatting with only the ally group.
[0081]
According to the third function, when the user satisfies a predetermined condition, the user can have a conversation with the voice that is uttered as in the conventional case. Any user who prioritizes can enjoy the game together without feeling stressed.
[0082]
As described above, in the role-playing game according to the present embodiment, when voice chat is performed, voice closely related to the virtual space is output. Can feel. In addition, as a result of emphasizing the sense of presence, even if it may be difficult to hear the sound temporarily, the user feels stressed because the device has been devised to rehearse the sound or listen to a clear sound. There is no.
[0083]
Although the network role playing game has been described as an example, it is needless to say that the present invention is a technique applicable to any system that performs voice chat via a character.
[0084]
【The invention's effect】
According to each information processing apparatus or program of the present invention, the chat voice is output after the processing for making the relation between the virtual space and the voice dense, so that the user who listens to the voice is as if in the virtual space. You can feel a sense of realism like having a conversation.
[0085]
Further, according to each other information processing apparatus or program of the present invention, even when chat voice is difficult to hear, the user is not stressed.
[Brief description of the drawings]
FIG. 1 is a diagram for explaining an outline of a network role-playing game and its voice chat function.
FIG. 2 is a diagram illustrating functions of an information processing apparatus according to the present invention.
FIG. 3 is a diagram illustrating an example of a format of chat data.
FIG. 4 is a diagram illustrating an example of a format of effect sound data.
FIG. 5 is a diagram illustrating a hardware configuration of an information processing apparatus.
FIG. 6 is a flowchart showing an outline of processing in an embodiment of the program of the present invention.
FIG. 7 is a diagram for explaining a function for discriminating a voice character;
FIG. 8 is a diagram for explaining a playback function for each character of chat voice;
FIG. 9 is a diagram for explaining a chat sound batch reproduction function;
FIG. 10 is a diagram illustrating server functions necessary for playing chat voice.
FIG. 11 is a flowchart showing an outline of processing for reproducing chat voice.
FIG. 12 is a flowchart showing audio output processing based on possessed items.
FIG. 13 is a diagram for explaining audio output processing based on possessed items.
[Explanation of symbols]
2 server, 3, 3A, 3B information processing device, 4A, 4B user, 5 virtual space, 6A-6E character, 7, 7A, 7B microphone, 8, 8A, 8B speaker (earphone), 9 vocal sound, 10 output 11, 11A, 11B controller, 12, 12A, 12B sensor, 13, 14, 36 object, 33 system bus, 34 memory card, 35 hard disk, 37 mark, 38, 40 operation menu, 39 cursor, 45A, 45B Transceiver.

Claims (21)

音声チャット機能を提供する情報処理装置であって、
複数のユーザによる共有が可能な仮想空間および該仮想空間に配置されたユーザごとのキャラクタを管理するサーバと交信することにより、当該情報処理装置のユーザが前記仮想空間に配置したキャラクタの行動を制御するキャラクタ制御手段と、
当該情報処理装置のユーザが発した音声を表す第1音声データを取得し、該第1音声データを含むチャットデータを生成して発信するチャットデータ発信手段と、
前記サーバと交信中の情報処理装置により生成されたチャットデータを取得し、該チャットデータに含まれる第1音声データを使用して、該チャットデータが生成された情報処理装置のユーザが配置したキャラクタの音声を出力するチャット音声出力手段とを備え、
前記チャット音声出力手段は、取得したチャットデータに含まれる第1音声データを、前記仮想空間に配置されたオブジェクトの音声に係る属性に基づいて変換することにより第2音声データを生成し、該第2音声データが表す音声を前記キャラクタの音声として出力することを特徴とする情報処理装置。
An information processing apparatus that provides a voice chat function,
By controlling a virtual space that can be shared by multiple users and a server that manages the characters for each user placed in the virtual space, the user of the information processing apparatus controls the behavior of the characters placed in the virtual space Character control means for
Chat data transmission means for acquiring first voice data representing voice uttered by a user of the information processing apparatus, generating chat data including the first voice data, and transmitting the chat data;
The character arranged by the user of the information processing apparatus that has acquired chat data generated by the information processing apparatus in communication with the server and uses the first voice data included in the chat data and generated the chat data Chat voice output means for outputting the voice of
The chat voice output means generates second voice data by converting the first voice data included in the acquired chat data based on an attribute relating to voice of an object arranged in the virtual space, and the second voice data is generated. 2. An information processing apparatus that outputs a voice represented by two voice data as the voice of the character.
音声チャット機能を提供する情報処理装置であって、
複数のユーザによる共有が可能な仮想空間および該仮想空間に配置されたユーザごとのキャラクタを管理するサーバと交信することにより、当該情報処理装置のユーザが前記仮想空間に配置したキャラクタの行動を制御するキャラクタ制御手段と、
当該情報処理装置のユーザが発した音声を表す第1音声データを取得し、該第1音声データを含むチャットデータを生成して発信するチャットデータ発信手段と、
前記サーバと交信中の情報処理装置により生成されたチャットデータを取得し、該チャットデータに含まれる第1音声データを使用して、該チャットデータが生成された情報処理装置のユーザが配置したキャラクタの音声を出力するチャット音声出力手段とを備え、
前記チャット音声出力手段は、取得したチャットデータに含まれる第1音声データを、前記チャットデータが生成された情報処理装置のユーザが配置したキャラクタと当該情報処理装置のユーザが配置したキャラクタの位置関係の単位時間あたりの変位量に基づいて変換することにより第2音声データを生成し、該第2音声データが表す音声を前記キャラクタの音声として出力することを特徴とする情報処理装置。
An information processing apparatus that provides a voice chat function,
By controlling a virtual space that can be shared by multiple users and a server that manages the characters for each user placed in the virtual space, the user of the information processing apparatus controls the behavior of the characters placed in the virtual space Character control means for
Chat data transmission means for acquiring first voice data representing voice uttered by a user of the information processing apparatus, generating chat data including the first voice data, and transmitting the chat data;
The character arranged by the user of the information processing apparatus that has acquired chat data generated by the information processing apparatus in communication with the server and uses the first voice data included in the chat data and generated the chat data Chat voice output means for outputting the voice of
The chat voice output means includes a first voice data included in the acquired chat data, and a positional relationship between a character arranged by a user of the information processing apparatus in which the chat data is generated and a character arranged by the user of the information processing apparatus An information processing apparatus that generates second voice data by performing conversion based on a displacement amount per unit time and outputs the voice represented by the second voice data as the voice of the character.
音声チャット機能を提供する情報処理装置であって、
複数のユーザによる共有が可能な仮想空間および該仮想空間に配置されたユーザごとのキャラクタを管理するサーバと交信することにより、当該情報処理装置のユーザが前記仮想空間に配置したキャラクタの行動を制御するキャラクタ制御手段と、
当該情報処理装置のユーザが発した音声を表す第1音声データを取得し、該第1音声データを含むチャットデータを生成して発信するチャットデータ発信手段と、
前記サーバと交信中の情報処理装置により生成されたチャットデータを取得し、該チャットデータに含まれる第1音声データを使用して、該チャットデータが生成された情報処理装置のユーザが配置したキャラクタの音声を出力するチャット音声出力手段とを備え、
前記チャットデータ発信手段は、前記ユーザに装着された所定のセンサにより前記ユーザの身体情報を取得して、該身体情報を含むチャットデータを生成して発信し、
前記チャット音声出力手段は、取得したチャットデータに含まれる第1音声データを、該チャットデータに含まれる身体情報に基づいて変換することにより第2音声データを生成し、該第2音声データが表す音声を前記キャラクタの音声として出力することを特徴とする情報処理装置。
An information processing apparatus that provides a voice chat function,
By controlling a virtual space that can be shared by multiple users and a server that manages the characters for each user placed in the virtual space, the user of the information processing apparatus controls the behavior of the characters placed in the virtual space Character control means for
Chat data transmission means for acquiring first voice data representing voice uttered by a user of the information processing apparatus, generating chat data including the first voice data, and transmitting the chat data;
The character arranged by the user of the information processing apparatus that has acquired chat data generated by the information processing apparatus in communication with the server and uses the first voice data included in the chat data and generated the chat data Chat voice output means for outputting the voice of
The chat data transmitting means acquires the user's physical information by a predetermined sensor attached to the user, generates and transmits chat data including the physical information,
The chat voice output unit generates second voice data by converting the first voice data included in the acquired chat data based on the physical information included in the chat data, and the second voice data represents the second voice data. An information processing apparatus that outputs voice as the voice of the character.
音声チャット機能を提供する情報処理装置であって、
複数のユーザによる共有が可能な仮想空間および該仮想空間に配置されたユーザごとのキャラクタを管理するサーバと交信することにより、当該情報処理装置のユーザが前記仮想空間に配置したキャラクタの行動を制御するキャラクタ制御手段と、
当該情報処理装置のユーザが発した音声を表す第1音声データを取得し、該第1音声データを含むチャットデータを生成して発信するチャットデータ発信手段と、
前記サーバと交信中の情報処理装置により生成されたチャットデータを取得し、該チャットデータに含まれる第1音声データを使用して、該チャットデータが生成された情報処理装置のユーザが配置したキャラクタの音声を出力するチャット音声出力手段とを備え、
前記チャット音声出力手段は、前記仮想空間を演出するための効果音を表す効果音データを取得し、前記第1音声データと前記効果音データを合成することにより第2音声データを生成し、該第2音声データが表す音声を前記キャラクタの音声として出力することを特徴とする情報処理装置。
An information processing apparatus that provides a voice chat function,
By controlling a virtual space that can be shared by multiple users and a server that manages the characters for each user placed in the virtual space, the user of the information processing apparatus controls the behavior of the characters placed in the virtual space Character control means for
Chat data transmission means for acquiring first voice data representing voice uttered by a user of the information processing apparatus, generating chat data including the first voice data, and transmitting the chat data;
The character arranged by the user of the information processing apparatus that has acquired chat data generated by the information processing apparatus in communication with the server and uses the first voice data included in the chat data and generated the chat data Chat voice output means for outputting the voice of
The chat sound output means acquires sound effect data representing sound effects for producing the virtual space, generates second sound data by synthesizing the first sound data and the sound effect data, An information processing apparatus that outputs the voice represented by the second voice data as the voice of the character.
請求項1から4のいずれかに記載された情報処理装置において、
前記チャット音声出力手段は、前記音声を出力する音声出力装置と当該情報処理装置のユーザの位置関係に基づいて、音声出力装置ごとに前記第2音声データを生成することを特徴とする情報処理装置。
In the information processing apparatus according to any one of claims 1 to 4,
The chat voice output unit generates the second voice data for each voice output device based on a positional relationship between a voice output device that outputs the voice and a user of the information processing device. .
音声チャット機能を提供する情報処理装置であって、
複数のユーザによる共有が可能な仮想空間および該仮想空間に配置されたユーザごとのキャラクタを管理するサーバと交信することにより、当該情報処理装置のユーザが前記仮想空間に配置したキャラクタの行動を制御するキャラクタ制御手段と、
当該情報処理装置のユーザが発した音声を表す音声データを取得し、該音声データを含むチャットデータを生成して発信するチャットデータ発信手段と、
前記サーバと交信中の情報処理装置により生成されたチャットデータを取得し、該チャットデータに含まれる音声データを使用して、該チャットデータが生成された情報処理装置のユーザが配置したキャラクタの音声を出力するチャット音声出力手段とを備え、
前記チャット音声出力手段は、各情報処理装置により生成された直後のチャットデータを取得して前記キャラクタの音声を出力する機能と、各情報処理装置により生成され前記サーバに蓄積保存されたチャットデータを取得して前記キャラクタの音声を再生する機能とを提供することを特徴とする情報処理装置。
An information processing apparatus that provides a voice chat function,
By controlling a virtual space that can be shared by multiple users and a server that manages the characters for each user placed in the virtual space, the user of the information processing apparatus controls the behavior of the characters placed in the virtual space Character control means for
Chat data transmission means for acquiring voice data representing voice uttered by a user of the information processing apparatus, generating chat data including the voice data, and transmitting the chat data;
The chat data generated by the information processing apparatus in communication with the server is acquired, and the voice of the character arranged by the user of the information processing apparatus in which the chat data is generated using the voice data included in the chat data Chat voice output means for outputting,
The chat voice output means obtains chat data immediately after generated by each information processing apparatus and outputs the voice of the character, and chat data generated by each information processing apparatus and stored and stored in the server. An information processing apparatus that provides a function of acquiring and reproducing the voice of the character.
前記チャット音声出力手段は、前記音声データが取得された速度と異なる速度で前記キャラクタの音声を再生できることを特徴とする請求項6記載の情報処理装置。The information processing apparatus according to claim 6, wherein the chat voice output unit can reproduce the voice of the character at a speed different from a speed at which the voice data is acquired. 音声チャット機能を提供するサーバであって、
複数のユーザによる共有が可能な仮想空間を提供するとともに、前記仮想空間に前記各ユーザが配置したキャラクタの行動を、前記各ユーザの情報処理装置と交信することにより制御するキャラクタ制御手段と、
前記各ユーザの情報処理装置から、前記各ユーザが発した音声を表す音声データを含むチャットデータを受信して、該チャットデータを所定の記憶媒体に記憶するとともに交信中の複数の情報処理装置に対し配信するチャットデータ配信手段と、
前記記憶媒体に記憶されたチャットデータの中から前記ユーザが要求するチャットデータを検索し、該ユーザの情報処理装置に送信するチャットデータ検索手段とを備えることにより、前記情報処理装置によるチャット音声の再生を可能にしたことを特徴とするサーバ。
A server that provides a voice chat function,
A character control means for providing a virtual space that can be shared by a plurality of users, and controlling the behavior of the character placed by each user in the virtual space by communicating with the information processing device of each user;
Chat data including voice data representing the voice uttered by each user is received from the information processing apparatus of each user, the chat data is stored in a predetermined storage medium, and the plurality of information processing apparatuses in communication Chat data delivery means for delivery to
Chat data search means for searching for chat data requested by the user from chat data stored in the storage medium and transmitting the chat data to the information processing apparatus of the user. A server characterized by enabling playback.
前記チャットデータ配信手段は、前記チャットデータに含まれる前記音声データを文字データに変換し、該文字データを前記所定の記憶媒体に記憶することを特徴とする請求項8記載のサーバ。9. The server according to claim 8, wherein the chat data distribution unit converts the voice data included in the chat data into character data, and stores the character data in the predetermined storage medium. 音声チャット機能を提供する情報処理装置であって、
複数のユーザによる共有が可能な仮想空間および該仮想空間に配置されたユーザごとのキャラクタを管理するサーバと交信することにより、当該情報処理装置のユーザが前記仮想空間に配置したキャラクタの行動を制御するキャラクタ制御手段と、
当該情報処理装置のユーザが発した音声を表す音声データを取得し、該音声データを含むチャットデータを生成して発信するチャットデータ発信手段と、
前記サーバと交信中の情報処理装置により生成されたチャットデータを取得し、該チャットデータに含まれる音声データを使用して、該チャットデータが生成された情報処理装置のユーザが配置したキャラクタの音声を出力するチャット音声出力手段とを備え、
前記チャット音声出力手段は、当該情報処理装置を使用するユーザが配置したキャラクタおよび/または出力する音声データが取得された情報処理装置のユーザが配置したキャラクタが有する属性および/またはアイテムに基づいて、前記キャラクタの音声を出力することを特徴とする情報処理装置。
An information processing apparatus that provides a voice chat function,
By controlling a virtual space that can be shared by multiple users and a server that manages the characters for each user placed in the virtual space, the user of the information processing apparatus controls the behavior of the characters placed in the virtual space Character control means for
Chat data transmission means for acquiring voice data representing voice uttered by a user of the information processing apparatus, generating chat data including the voice data, and transmitting the chat data;
The chat data generated by the information processing apparatus in communication with the server is acquired, and the voice of the character arranged by the user of the information processing apparatus in which the chat data is generated using the voice data included in the chat data Chat voice output means for outputting,
The chat voice output means is based on attributes and / or items of a character arranged by a user using the information processing apparatus and / or a character arranged by a user of the information processing apparatus from which output voice data is acquired. An information processing apparatus that outputs voice of the character.
音声チャット機能を提供するプログラムであって、コンピュータを、
複数のユーザによる共有が可能な仮想空間および該仮想空間に配置されたユーザごとのキャラクタを管理するサーバと交信することにより、前記コンピュータのユーザが前記仮想空間に配置したキャラクタの行動を制御するキャラクタ制御手段、
前記コンピュータのユーザが発した音声を表す第1音声データを取得し、該第1音声データを含むチャットデータを生成して発信するチャットデータ発信手段、および
前記サーバと交信中のコンピュータにより生成されたチャットデータを取得し、該チャットデータに含まれる第1音声データを使用して、該チャットデータが生成されたコンピュータのユーザが配置したキャラクタの音声を出力するチャット音声出力手段として機能させ、
前記チャット音声出力手段は、取得したチャットデータに含まれる第1音声データを、前記仮想空間に配置されたオブジェクトの音声に係る属性に基づいて変換することにより第2音声データを生成し、該第2音声データが表す音声を前記キャラクタの音声として出力することを特徴とするプログラム。
A program that provides a voice chat function.
A character that controls the action of a character placed in the virtual space by a user of the computer by communicating with a virtual space that can be shared by a plurality of users and a server that manages the character for each user placed in the virtual space Control means,
The first voice data representing the voice uttered by the user of the computer is acquired, the chat data transmitting means for generating and transmitting the chat data including the first voice data, and the computer generated by the computer in communication with the server The chat data is acquired, and the first voice data included in the chat data is used to function as a chat voice output means for outputting the voice of the character arranged by the computer user who generated the chat data,
The chat voice output means generates second voice data by converting the first voice data included in the acquired chat data based on an attribute relating to voice of an object arranged in the virtual space, and the second voice data is generated. 2. A program that outputs the voice represented by the voice data as the voice of the character.
音声チャット機能を提供するプログラムであって、コンピュータを、
複数のユーザによる共有が可能な仮想空間および該仮想空間に配置されたユーザごとのキャラクタを管理するサーバと交信することにより、前記コンピュータのユーザが前記仮想空間に配置したキャラクタの行動を制御するキャラクタ制御手段、
前記コンピュータのユーザが発した音声を表す第1音声データを取得し、該第1音声データを含むチャットデータを生成して発信するチャットデータ発信手段、および
前記サーバと交信中のコンピュータにより生成されたチャットデータを取得し、該チャットデータに含まれる第1音声データを使用して、該チャットデータが生成されたコンピュータのユーザが配置したキャラクタの音声を出力するチャット音声出力手段として機能させ、
前記チャット音声出力手段は、取得したチャットデータに含まれる第1音声データを、前記チャットデータが生成されたコンピュータのユーザが配置したキャラクタと当該プログラムが動作するコンピュータのユーザが配置したキャラクタの位置関係の単位時間あたりの変位量に基づいて変換することにより第2音声データを生成し、該第2音声データが表す音声を前記キャラクタの音声として出力することを特徴とするプログラム。
A program that provides a voice chat function.
A character that controls the action of a character placed in the virtual space by a user of the computer by communicating with a virtual space that can be shared by a plurality of users and a server that manages the character for each user placed in the virtual space Control means,
The first voice data representing the voice uttered by the user of the computer is acquired, the chat data transmitting means for generating and transmitting the chat data including the first voice data, and the computer generated by the computer in communication with the server The chat data is acquired, and the first voice data included in the chat data is used to function as a chat voice output means for outputting the voice of the character arranged by the computer user who generated the chat data,
The chat voice output means includes a first voice data included in the acquired chat data, and a positional relationship between a character arranged by a computer user who generates the chat data and a character arranged by a computer user who operates the program A program for generating second voice data by converting based on a displacement amount per unit time and outputting the voice represented by the second voice data as the voice of the character.
音声チャット機能を提供するプログラムであって、コンピュータを、
複数のユーザによる共有が可能な仮想空間および該仮想空間に配置されたユーザごとのキャラクタを管理するサーバと交信することにより、前記コンピュータのユーザが前記仮想空間に配置したキャラクタの行動を制御するキャラクタ制御手段、
前記コンピュータのユーザが発した音声を表す第1音声データを取得し、該第1音声データを含むチャットデータを生成して発信するチャットデータ発信手段、および
前記サーバと交信中のコンピュータにより生成されたチャットデータを取得し、該チャットデータに含まれる第1音声データを使用して、該チャットデータが生成されたコンピュータのユーザが配置したキャラクタの音声を出力するチャット音声出力手段として機能させ、
前記チャットデータ発信手段は、前記ユーザに装着された所定のセンサにより前記ユーザの身体情報を取得して、該身体情報を含むチャットデータを生成して発信し、
前記チャット音声出力手段は、取得したチャットデータに含まれる第1音声データを、該チャットデータに含まれる身体情報に基づいて変換することにより第2音声データを生成し、該第2音声データが表す音声を前記キャラクタの音声として出力することを特徴とするプログラム。
A program that provides a voice chat function.
A character that controls the action of a character placed in the virtual space by a user of the computer by communicating with a virtual space that can be shared by a plurality of users and a server that manages the character for each user placed in the virtual space Control means,
The first voice data representing the voice uttered by the user of the computer is acquired, the chat data transmitting means for generating and transmitting the chat data including the first voice data, and the computer generated by the computer in communication with the server The chat data is acquired, and the first voice data included in the chat data is used to function as a chat voice output means for outputting the voice of the character arranged by the computer user who generated the chat data,
The chat data transmitting means acquires the user's physical information by a predetermined sensor attached to the user, generates and transmits chat data including the physical information,
The chat voice output unit generates second voice data by converting the first voice data included in the acquired chat data based on the physical information included in the chat data, and the second voice data represents the second voice data. A program for outputting a voice as the voice of the character.
音声チャット機能を提供するプログラムであって、コンピュータを、
複数のユーザによる共有が可能な仮想空間および該仮想空間に配置されたユーザごとのキャラクタを管理するサーバと交信することにより、前記コンピュータのユーザが前記仮想空間に配置したキャラクタの行動を制御するキャラクタ制御手段、
前記コンピュータのユーザが発した音声を表す第1音声データを取得し、該第1音声データを含むチャットデータを生成して発信するチャットデータ発信手段、および
前記サーバと交信中のコンピュータにより生成されたチャットデータを取得し、該チャットデータに含まれる第1音声データを使用して、該チャットデータが生成されたコンピュータのユーザが配置したキャラクタの音声を出力するチャット音声出力手段として機能させ、
前記チャット音声出力手段は、前記仮想空間を演出するための効果音を表す効果音データを取得し、前記第1音声データと前記効果音データを合成することにより第2音声データを生成し、該第2音声データが表す音声を前記キャラクタの音声として出力することを特徴とするプログラム。
A program that provides a voice chat function.
A character that controls the action of a character placed in the virtual space by a user of the computer by communicating with a virtual space that can be shared by a plurality of users and a server that manages the character for each user placed in the virtual space Control means,
The first voice data representing the voice uttered by the user of the computer is acquired, the chat data transmitting means for generating and transmitting the chat data including the first voice data, and the computer generated by the computer in communication with the server The chat data is acquired, and the first voice data included in the chat data is used to function as a chat voice output means for outputting the voice of the character arranged by the computer user who generated the chat data,
The chat sound output means acquires sound effect data representing sound effects for producing the virtual space, generates second sound data by synthesizing the first sound data and the sound effect data, A program that outputs the voice represented by the second voice data as the voice of the character.
請求項11から14のいずれかに記載されたプログラムであって、
前記チャット音声出力手段は、前記音声を出力する音声出力装置と当該プログラムが動作するコンピュータのユーザの位置関係に基づいて、音声出力装置ごとに前記第2音声データを生成することを特徴とするプログラム。
A program according to any one of claims 11 to 14,
The chat voice output unit generates the second voice data for each voice output device based on a positional relationship between a voice output device that outputs the voice and a computer user who operates the program. .
音声チャット機能を提供するプログラムであって、コンピュータを、
複数のユーザによる共有が可能な仮想空間および該仮想空間に配置されたユーザごとのキャラクタを管理するサーバと交信することにより、前記コンピュータのユーザが前記仮想空間に配置したキャラクタの行動を制御するキャラクタ制御手段、
前記コンピュータのユーザが発した音声を表す第1音声データを取得し、該第1音声データを含むチャットデータを生成して発信するチャットデータ発信手段、および
前記サーバと交信中のコンピュータにより生成されたチャットデータを取得し、該チャットデータに含まれる第1音声データを使用して、該チャットデータが生成されたコンピュータのユーザが配置したキャラクタの音声を出力するチャット音声出力手段として機能させ、
前記チャット音声出力手段は、前記各コンピュータにより生成された直後のチャットデータを取得して前記キャラクタの音声を出力する機能と、各コンピュータにより生成され前記サーバに蓄積保存されたチャットデータを取得して前記キャラクタの音声を再生する機能とを提供することを特徴とするプログラム。
A program that provides a voice chat function.
A character that controls the action of a character placed in the virtual space by a user of the computer by communicating with a virtual space that can be shared by a plurality of users and a server that manages the character for each user placed in the virtual space Control means,
The first voice data representing the voice uttered by the user of the computer is acquired, the chat data transmitting means for generating and transmitting the chat data including the first voice data, and the computer generated by the computer in communication with the server The chat data is acquired, and the first voice data included in the chat data is used to function as a chat voice output means for outputting the voice of the character arranged by the computer user who generated the chat data,
The chat voice output means acquires chat data immediately after being generated by each computer and outputs the voice of the character, and acquires chat data generated by each computer and stored in the server. And a function of reproducing the voice of the character.
前記チャット音声出力手段は、前記音声データが取得された速度と異なる速度で前記キャラクタの音声を再生できることを特徴とする請求項16記載のプログラム。The program according to claim 16, wherein the chat voice output unit can play back the voice of the character at a speed different from the speed at which the voice data is acquired. 音声チャット機能を提供するサーバ用のプログラムであって、コンピュータを、
複数のユーザによる共有が可能な仮想空間を提供するとともに、前記仮想空間に前記各ユーザが配置したキャラクタの行動を、前記各ユーザの情報処理装置と交信することにより制御するキャラクタ制御手段、
前記各ユーザの情報処理装置から、前記各ユーザが発した音声を表す音声データを含むチャットデータを受信して、該チャットデータを所定の記憶媒体に記憶するとともに交信中の複数の情報処理装置に対し配信するチャットデータ配信手段、および
前記記憶媒体に記憶されたチャットデータの中から前記ユーザが要求するチャットデータを検索し、該ユーザの情報処理装置に送信するチャットデータ検索手段として機能させることにより、前記情報処理装置によるチャット音声の再生を可能にしたことを特徴とするサーバ用のプログラム。
A program for a server that provides a voice chat function.
A character control means for providing a virtual space that can be shared by a plurality of users, and controlling the behavior of the character placed by each user in the virtual space by communicating with the information processing device of each user,
Chat data including voice data representing the voice uttered by each user is received from the information processing apparatus of each user, the chat data is stored in a predetermined storage medium, and the information processing apparatuses in communication By functioning as chat data distribution means for distributing to the user and chat data requested by the user from chat data stored in the storage medium and functioning as chat data search means for transmitting to the information processing apparatus of the user A server program characterized in that chat information can be reproduced by the information processing apparatus.
前記チャットデータ配信手段は、前記チャットデータに含まれる前記音声データを文字データに変換し、該文字データを前記所定の記憶媒体に記憶することを特徴とする請求項18記載のプログラム。19. The program according to claim 18, wherein the chat data distribution unit converts the voice data included in the chat data into character data, and stores the character data in the predetermined storage medium. 音声チャット機能を提供するプログラムであって、コンピュータを、
複数のユーザによる共有が可能な仮想空間および該仮想空間に配置されたユーザごとのキャラクタを管理するサーバと交信することにより、前記コンピュータのユーザが前記仮想空間に配置したキャラクタの行動を制御するキャラクタ制御手段、
前記コンピュータのユーザが発した音声を表す音声データを取得し、該音声データを含むチャットデータを生成して発信するチャットデータ発信手段、および前記サーバと交信中のコンピュータにより生成されたチャットデータを取得し、該チャットデータに含まれる音声データを使用して、該チャットデータが生成されたコンピュータのユーザが配置したキャラクタの音声を出力するチャット音声出力手段として機能させ、
前記チャット音声出力手段は、当該プログラムが動作するコンピュータを使用するユーザが配置したキャラクタおよび/または出力する音声データが取得されたコンピュータのユーザが配置したキャラクタが有する属性および/またはアイテムに基づいて、前記キャラクタの音声を出力することを特徴とするプログラム。
A program that provides a voice chat function.
A character that controls the action of a character placed in the virtual space by a user of the computer by communicating with a virtual space that can be shared by a plurality of users and a server that manages the character for each user placed in the virtual space Control means,
Acquires voice data representing voice uttered by a user of the computer, generates chat data including the voice data and transmits the chat data, and acquires chat data generated by the computer in communication with the server The voice data included in the chat data is used to function as chat voice output means for outputting the voice of the character arranged by the computer user who generated the chat data.
The chat voice output means is based on an attribute and / or an item of a character arranged by a user using a computer that operates the program and / or a character arranged by a user of a computer from which audio data to be output is acquired. A program for outputting the voice of the character.
請求項11から20までのいずれかに記載されたプログラムが記録されたコンピュータ読み取り可能な記録媒体。A computer-readable recording medium on which the program according to any one of claims 11 to 20 is recorded.
JP2003061544A 2003-03-07 2003-03-07 Information processor, server, program, recording medium for providing voice chat function Pending JP2004267433A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003061544A JP2004267433A (en) 2003-03-07 2003-03-07 Information processor, server, program, recording medium for providing voice chat function

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003061544A JP2004267433A (en) 2003-03-07 2003-03-07 Information processor, server, program, recording medium for providing voice chat function

Publications (1)

Publication Number Publication Date
JP2004267433A true JP2004267433A (en) 2004-09-30

Family

ID=33123735

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003061544A Pending JP2004267433A (en) 2003-03-07 2003-03-07 Information processor, server, program, recording medium for providing voice chat function

Country Status (1)

Country Link
JP (1) JP2004267433A (en)

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006132276A1 (en) * 2005-06-08 2006-12-14 Konami Digital Entertainment Co., Ltd. User speech synthesizer, virtual space sharing system, computer control method, and information storage medium
JP2007094001A (en) * 2005-09-29 2007-04-12 Konami Digital Entertainment:Kk Voice information processing apparatus, voice information processing method and program
WO2007105689A1 (en) * 2006-03-13 2007-09-20 Konami Digital Entertainment Co., Ltd. Game sound output device, game sound control method, information recording medium, and program
JP2008065675A (en) * 2006-09-08 2008-03-21 Ritsumeikan Mixed reality system, event input method thereof, and head mounted display
WO2008047621A1 (en) * 2006-10-18 2008-04-24 Konami Digital Entertainment Co., Ltd. Game device, message display method, information recording medium and program
JP2008287210A (en) * 2007-04-16 2008-11-27 Sony Corp Speech chat system, information processor, speech recognition method and program
JP2009122776A (en) * 2007-11-12 2009-06-04 Internatl Business Mach Corp <Ibm> Information control method and device in virtual world
KR100903500B1 (en) 2005-03-04 2009-06-18 가부시키가이샤 코나미 데지타루 엔타테인멘토 Voice output device, voice output method, and computer-readable information recording medium having a program recorded thereon
JP2009199198A (en) * 2008-02-20 2009-09-03 Nomura Research Institute Ltd Virtual space providing server, virtual space providing method, and computer program
JP2010005133A (en) * 2008-06-26 2010-01-14 Taito Corp Game apparatus and game program
JP2010035908A (en) * 2008-08-07 2010-02-18 Namco Bandai Games Inc Program, information storage medium, and game device
JP2010509810A (en) * 2006-11-08 2010-03-25 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション Apparatus and method for creating an audio scene
JP2010110622A (en) * 2008-10-08 2010-05-20 Copcom Co Ltd Game program, storage medium, computer, and game system
JP2010134037A (en) * 2008-12-02 2010-06-17 Taito Corp Electronic device
JP2011510409A (en) * 2008-01-17 2011-03-31 ヴィヴォックス インコーポレイテッド A scalable technique for providing real-time avatar-specific streaming data in a virtual reality system using an avatar-rendered environment
US8156184B2 (en) 2008-02-20 2012-04-10 International Business Machines Corporation Dialog server for handling conversation in virtual space method and computer program for having conversation in virtual space
JP2012081063A (en) * 2010-10-12 2012-04-26 Rohm Co Ltd Game system, program, and information storage medium
US8234342B2 (en) 2006-01-31 2012-07-31 Konami Digital Entertainment Co., Ltd. Chat system, chat device and control method of chat server, and information storage medium for advancing an end timing of a message reception stopping period
US8620658B2 (en) 2007-04-16 2013-12-31 Sony Corporation Voice chat system, information processing apparatus, speech recognition method, keyword data electrode detection method, and program for speech recognition
JP2014094160A (en) * 2012-11-09 2014-05-22 Nintendo Co Ltd Game system,game processing control method, game apparatus, and game program
JP2015023534A (en) * 2013-07-23 2015-02-02 富士通株式会社 Information providing device, information providing system, and information providing program
JP2017176728A (en) * 2016-03-31 2017-10-05 株式会社バンダイナムコエンターテインメント Simulation system and program
JP2018114241A (en) * 2017-01-20 2018-07-26 株式会社ソニー・インタラクティブエンタテインメント Information processing device and game image/sound generation method
JP2018139115A (en) * 2018-03-20 2018-09-06 株式会社 ディー・エヌ・エー System, method and program that enable voice chat
JP2019054838A (en) * 2017-09-19 2019-04-11 ヤフー株式会社 Information processing apparatus, information processing method and information processing program
CN110215692A (en) * 2019-07-10 2019-09-10 网易(杭州)网络有限公司 The processing method of voice messaging, device, storage medium and electronic device in game
US10469422B2 (en) 2014-07-01 2019-11-05 DeNA Co., Ltd. System, method, and program that allow audio chatting
CN112612445A (en) * 2020-12-28 2021-04-06 维沃移动通信有限公司 Audio playing method and device
KR20210119589A (en) * 2017-02-28 2021-10-05 매직 립, 인코포레이티드 Virtual and real object recording in mixed reality device
JP2022091892A (en) * 2020-12-01 2022-06-21 グリー株式会社 Information processing system, information processing method and information processing program
US11445305B2 (en) 2016-02-04 2022-09-13 Magic Leap, Inc. Technique for directing audio in augmented reality system
KR102458703B1 (en) * 2022-05-10 2022-10-25 (주)에어패스 Communication system between users in voice recognition-based XR content or metaverse content service
WO2024014266A1 (en) * 2022-07-13 2024-01-18 ソニーグループ株式会社 Control device, control method, information processing device, information processing method, and program

Cited By (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100903500B1 (en) 2005-03-04 2009-06-18 가부시키가이샤 코나미 데지타루 엔타테인멘토 Voice output device, voice output method, and computer-readable information recording medium having a program recorded thereon
JP2006343447A (en) * 2005-06-08 2006-12-21 Konami Digital Entertainment:Kk Virtual space sharing system and control method of same
KR100946611B1 (en) * 2005-06-08 2010-03-09 가부시키가이샤 코나미 데지타루 엔타테인멘토 User speech synthesizer, virtual space sharing system, computer control method, and information storage medium
WO2006132276A1 (en) * 2005-06-08 2006-12-14 Konami Digital Entertainment Co., Ltd. User speech synthesizer, virtual space sharing system, computer control method, and information storage medium
CN101189048B (en) * 2005-06-08 2011-05-25 科乐美数码娱乐株式会社 User speech synthesizer, virtual space sharing system, computer control method
US8219388B2 (en) 2005-06-08 2012-07-10 Konami Digital Entertainment Co., Ltd. User voice mixing device, virtual space sharing system, computer control method, and information storage medium
JP4722652B2 (en) * 2005-09-29 2011-07-13 株式会社コナミデジタルエンタテインメント Audio information processing apparatus, audio information processing method, and program
JP2007094001A (en) * 2005-09-29 2007-04-12 Konami Digital Entertainment:Kk Voice information processing apparatus, voice information processing method and program
US8234342B2 (en) 2006-01-31 2012-07-31 Konami Digital Entertainment Co., Ltd. Chat system, chat device and control method of chat server, and information storage medium for advancing an end timing of a message reception stopping period
WO2007105689A1 (en) * 2006-03-13 2007-09-20 Konami Digital Entertainment Co., Ltd. Game sound output device, game sound control method, information recording medium, and program
US8221237B2 (en) 2006-03-13 2012-07-17 Konami Digital Entertainment Co., Ltd. Game sound output device, game sound control method, information recording medium, and program
KR100945130B1 (en) 2006-03-13 2010-03-02 가부시키가이샤 코나미 데지타루 엔타테인멘토 Game sound output device, game sound control method, and information recording medium for recording a program
JP2008065675A (en) * 2006-09-08 2008-03-21 Ritsumeikan Mixed reality system, event input method thereof, and head mounted display
CN101528314A (en) * 2006-10-18 2009-09-09 科乐美数码娱乐株式会社 Game device, message display method, information recording medium and program
KR101030508B1 (en) 2006-10-18 2011-04-25 가부시키가이샤 코나미 데지타루 엔타테인멘토 Game device, message display method and information recording medium
WO2008047621A1 (en) * 2006-10-18 2008-04-24 Konami Digital Entertainment Co., Ltd. Game device, message display method, information recording medium and program
US8137191B2 (en) 2006-10-18 2012-03-20 Konami Digital Entertainment Co., Ltd. Game device, message display method, information recording medium and program
CN101528314B (en) * 2006-10-18 2015-07-15 科乐美数码娱乐株式会社 Game device and message display method
RU2495538C2 (en) * 2006-11-08 2013-10-10 Долби Лэборетериз Лайсенсинг Корпорейшн Apparatus and methods for use in creating audio scene
US8403751B2 (en) 2006-11-08 2013-03-26 Dolby Laboratories Licensing Corporation Apparatuses and methods for use in creating an audio scene
KR101225475B1 (en) 2006-11-08 2013-01-23 돌비 레버러토리즈 라이쎈싱 코오포레이션 Apparatuses and methods for use in creating an audio scene
KR101201695B1 (en) * 2006-11-08 2012-11-15 돌비 레버러토리즈 라이쎈싱 코오포레이션 Apparatuses and methods for use in creating an audio scene
JP2012196465A (en) * 2006-11-08 2012-10-18 Dolby Lab Licensing Corp Apparatus and method for use in creating audio scene
RU2449496C2 (en) * 2006-11-08 2012-04-27 Долби Лэборетериз Лайсенсинг Корпорейшн Devices and methods to be used in audio scene creation
JP2010509810A (en) * 2006-11-08 2010-03-25 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション Apparatus and method for creating an audio scene
JP2008287210A (en) * 2007-04-16 2008-11-27 Sony Corp Speech chat system, information processor, speech recognition method and program
US8620658B2 (en) 2007-04-16 2013-12-31 Sony Corporation Voice chat system, information processing apparatus, speech recognition method, keyword data electrode detection method, and program for speech recognition
JP2009122776A (en) * 2007-11-12 2009-06-04 Internatl Business Mach Corp <Ibm> Information control method and device in virtual world
US8386566B2 (en) 2007-11-12 2013-02-26 International Business Machines Corporation Method and apparatus for controlling information in virtual world
US20130151627A1 (en) * 2007-11-12 2013-06-13 International Business Machines Corporation Method and apparatus for controlling information in virtual world
US9344468B2 (en) * 2007-11-12 2016-05-17 International Business Machines Corporation Method and apparatus for controlling information in virtual world
JP2011510409A (en) * 2008-01-17 2011-03-31 ヴィヴォックス インコーポレイテッド A scalable technique for providing real-time avatar-specific streaming data in a virtual reality system using an avatar-rendered environment
JP2013254501A (en) * 2008-01-17 2013-12-19 Vivox Inc Scalable techniques for providing real-lime per-avatar streaming data in virtual reality systems that employ per-avatar rendered environments
US9583109B2 (en) 2008-02-20 2017-02-28 Activision Publishing, Inc. Dialog server for handling conversation in virtual space method and computer program for having conversation in virtual space
US8156184B2 (en) 2008-02-20 2012-04-10 International Business Machines Corporation Dialog server for handling conversation in virtual space method and computer program for having conversation in virtual space
JP2009199198A (en) * 2008-02-20 2009-09-03 Nomura Research Institute Ltd Virtual space providing server, virtual space providing method, and computer program
US8554841B2 (en) 2008-02-20 2013-10-08 Activision Publishing, Inc. Dialog server for handling conversation in virtual space method and computer program for having conversation in virtual space
US10001970B2 (en) 2008-02-20 2018-06-19 Activision Publishing, Inc. Dialog server for handling conversation in virtual space method and computer program for having conversation in virtual space
JP2010005133A (en) * 2008-06-26 2010-01-14 Taito Corp Game apparatus and game program
JP2010035908A (en) * 2008-08-07 2010-02-18 Namco Bandai Games Inc Program, information storage medium, and game device
JP2010110622A (en) * 2008-10-08 2010-05-20 Copcom Co Ltd Game program, storage medium, computer, and game system
JP2010134037A (en) * 2008-12-02 2010-06-17 Taito Corp Electronic device
JP2012081063A (en) * 2010-10-12 2012-04-26 Rohm Co Ltd Game system, program, and information storage medium
JP2014094160A (en) * 2012-11-09 2014-05-22 Nintendo Co Ltd Game system,game processing control method, game apparatus, and game program
JP2015023534A (en) * 2013-07-23 2015-02-02 富士通株式会社 Information providing device, information providing system, and information providing program
US10469422B2 (en) 2014-07-01 2019-11-05 DeNA Co., Ltd. System, method, and program that allow audio chatting
US11812222B2 (en) 2016-02-04 2023-11-07 Magic Leap, Inc. Technique for directing audio in augmented reality system
US11445305B2 (en) 2016-02-04 2022-09-13 Magic Leap, Inc. Technique for directing audio in augmented reality system
JP2017176728A (en) * 2016-03-31 2017-10-05 株式会社バンダイナムコエンターテインメント Simulation system and program
JP2018114241A (en) * 2017-01-20 2018-07-26 株式会社ソニー・インタラクティブエンタテインメント Information processing device and game image/sound generation method
WO2018135393A1 (en) * 2017-01-20 2018-07-26 株式会社ソニー・インタラクティブエンタテインメント Information processing device and game image/sound generation method
KR20220101210A (en) * 2017-02-28 2022-07-19 매직 립, 인코포레이티드 Virtual and real object recording in mixed reality device
KR20210119589A (en) * 2017-02-28 2021-10-05 매직 립, 인코포레이티드 Virtual and real object recording in mixed reality device
KR102419065B1 (en) * 2017-02-28 2022-07-07 매직 립, 인코포레이티드 Virtual and real object recording in mixed reality device
US11669298B2 (en) 2017-02-28 2023-06-06 Magic Leap, Inc. Virtual and real object recording in mixed reality device
KR102616220B1 (en) * 2017-02-28 2023-12-20 매직 립, 인코포레이티드 Virtual and real object recording in mixed reality device
JP2019054838A (en) * 2017-09-19 2019-04-11 ヤフー株式会社 Information processing apparatus, information processing method and information processing program
JP2018139115A (en) * 2018-03-20 2018-09-06 株式会社 ディー・エヌ・エー System, method and program that enable voice chat
CN110215692A (en) * 2019-07-10 2019-09-10 网易(杭州)网络有限公司 The processing method of voice messaging, device, storage medium and electronic device in game
CN110215692B (en) * 2019-07-10 2023-02-28 网易(杭州)网络有限公司 Method and device for processing voice information in game, storage medium and electronic device
JP2022091892A (en) * 2020-12-01 2022-06-21 グリー株式会社 Information processing system, information processing method and information processing program
CN112612445A (en) * 2020-12-28 2021-04-06 维沃移动通信有限公司 Audio playing method and device
KR102458703B1 (en) * 2022-05-10 2022-10-25 (주)에어패스 Communication system between users in voice recognition-based XR content or metaverse content service
WO2024014266A1 (en) * 2022-07-13 2024-01-18 ソニーグループ株式会社 Control device, control method, information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
JP2004267433A (en) Information processor, server, program, recording medium for providing voice chat function
US10001970B2 (en) Dialog server for handling conversation in virtual space method and computer program for having conversation in virtual space
JP3949701B1 (en) Voice processing apparatus, voice processing method, and program
TWI333424B (en) Game sound output device, method for controlling game sound, and information recording medium
JP6055657B2 (en) GAME SYSTEM, GAME PROCESSING CONTROL METHOD, GAME DEVICE, AND GAME PROGRAM
US9525958B2 (en) Multidimensional virtual learning system and method
JP6515057B2 (en) Simulation system, simulation apparatus and program
US20100125633A1 (en) On-line conversation system, on-line conversation server, on-line conversation control method, and information storage medium
JP3740518B2 (en) GAME DEVICE, COMPUTER CONTROL METHOD, AND PROGRAM
JP7243639B2 (en) Information processing device, information processing method and program
JP2008299135A (en) Speech synthesis device, speech synthesis method and program for speech synthesis
CN110915240B (en) Method for providing interactive music composition to user
CN115834775A (en) Online call management device and storage medium storing online call management program
JP2006094315A (en) Stereophonic reproduction system
JP6817281B2 (en) Voice generator and voice generator
JP7131550B2 (en) Information processing device and information processing method
JP2006140595A (en) Information conversion apparatus and information conversion method, and communication apparatus and communication method
JP7053074B1 (en) Appreciation system, appreciation device and program
JP4327179B2 (en) Audio output device, audio output device control method and program
JP6817282B2 (en) Voice generator and voice generator
WO2023084933A1 (en) Information processing device, information processing method, and program
US20230218998A1 (en) 3D Spatialisation of Voice Chat
US20230412766A1 (en) Information processing system, information processing method, and computer program
JP2023132236A (en) Information processing device, sound reproduction device, information processing system, information processing method, and virtual sound source generation device
US20240135912A1 (en) Audio cancellation system and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070130

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070529