JP2014090251A - 情報処理システム、情報処理プログラム、情報処理制御方法、および情報処理装置 - Google Patents

情報処理システム、情報処理プログラム、情報処理制御方法、および情報処理装置 Download PDF

Info

Publication number
JP2014090251A
JP2014090251A JP2012237973A JP2012237973A JP2014090251A JP 2014090251 A JP2014090251 A JP 2014090251A JP 2012237973 A JP2012237973 A JP 2012237973A JP 2012237973 A JP2012237973 A JP 2012237973A JP 2014090251 A JP2014090251 A JP 2014090251A
Authority
JP
Japan
Prior art keywords
speaker
music data
sound source
information processing
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012237973A
Other languages
English (en)
Other versions
JP6055651B2 (ja
Inventor
Junya Osada
潤也 長田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2012237973A priority Critical patent/JP6055651B2/ja
Priority to US13/867,469 priority patent/US9241231B2/en
Publication of JP2014090251A publication Critical patent/JP2014090251A/ja
Application granted granted Critical
Publication of JP6055651B2 publication Critical patent/JP6055651B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/54Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/11Transducers incorporated or for use in hand-held devices, e.g. mobile phones, PDA's, camera's
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)
  • Television Receiver Circuits (AREA)

Abstract

【課題】仮想空間内で再生される音楽について、より臨場感の高い視聴効果が得られる新たなユーザ体験が提供可能な情報処理システム等を提供すること。
【解決手段】情報処理部と第1のスピーカおよび第2のスピーカとを備える情報処理システムにおいて、2チャンネルで構成されている所定の音楽データを第1チャンネル音楽データと第2チャンネル音楽データとに分離する。また、分離された音楽データのうちの一方に対応付けられた第1の音源オブジェクトと、他方に対応付けられた第2の音源オブジェクトと、更に仮想マイクを仮想3次元空間内に配置する。そして、仮想マイクの向きと第1の音源オブジェクトおよび第2の音源オブジェクトとの位置関係に基づいて、第1のスピーカから再生される音声と第2のスピーカから再生される音声の再生音量を決定する。
【選択図】図16

Description

本発明は、情報処理システム、情報処理プログラム、情報処理制御方法、および情報処理装置に関し、より特定的には、情報処理部と、第1のスピーカおよび第2のスピーカを備える情報処理システム、情報処理プログラム、情報処理制御方法、および情報処理装置に関する。
従来、一般的なテレビ装置(第1の映像出力装置)と、これとは別の、映像出力可能な表示部を備えたコントローラ(第2の映像出力装置)とを併用するゲームシステムについて知られている。このようなゲームシステムでは、例えば、第1のゲーム映像をテレビ装置に表示し、この第1のゲーム映像とは異なる第2のゲーム映像をコントローラの表示部に表示したりすることで、新しい遊びを提案していた。
特開2012−135337号公報
しかし、上記提案は、主にどのような映像を表示し、また、これらをゲーム処理との関係でどのように連携させて表示するかを主眼としたものであった。そのため、音声に関する処理に関しては特に言及や提案をするものではなかった。
それ故に、本発明の目的は、仮想空間内の音源から再生される音楽について、より臨場感の高い視聴効果が得られる新たなユーザ体験が提供可能な情報処理システム等を提供することである。
上記目的は、例えば以下のような構成により達成される。
構成例の一例は、情報処理部と、第1のスピーカおよび第2のスピーカとを備える情報処理システムであって、音楽データ分離手段と、音源オブジェクト配置手段と、仮想マイク配置手段と、音声出力制御手段とを備える。音楽データ分離手段は、2チャンネルで構成されている所定の音楽データを第1チャンネル音楽データと第2チャンネル音楽データとに分離する。音源オブジェクト配置手段は、分離された音楽データのうちの一方に対応付けられた第1の音源オブジェクトと、当該分離された音楽データの他方に対応付けられた第2の音源オブジェクトとを仮想3次元空間内のそれぞれ異なる位置に配置する。仮想マイク配置手段は、仮想3次元空間内の所定の位置に仮想マイクを配置する。音声出力制御手段は、仮想3次元空間内に配置された仮想マイクの向きと第1の音源オブジェクトおよび第2の音源オブジェクトとの位置関係に基づいて、第1のスピーカから再生される第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量と、第2のスピーカから再生される第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量とを決定する。
上記構成例によれば、仮想空間内の音源から発せられるBGMの再生に関して、より臨場感の高いユーザ体験を提供できる。
また、情報処理システムは、第1出力装置と、姿勢検出手段と、仮想マイク姿勢変更手段とを更に備えていてもよい。第1出力装置は、動きセンサ、第1のスピーカ、第2のスピーカ、および仮想3次元空間の様子が表示される第1の表示部とが設けられているハウジングを有していてもよい。また、姿勢検出手段は、動きセンサの出力に基づいて第1出力装置自身の姿勢をリアルタイム、あるいはほぼリアルタイムで検出するようにしてもよい。仮想マイク姿勢変更手段は、第1出力装置の姿勢に応じて仮想マイクの向きを変更してもよい。
上記構成例によれば、2つのスピーカを有する第1出力装置自身の姿勢をプレイヤが変化させることによって第1の表示部に表示される仮想空間の表示を変化させるようなゲーム等において、音源オブジェクトが発するBGMについてより臨場感の高い再生が可能となる。
また、情報処理システムは、第1出力装置の姿勢に基づいて第1のスピーカと第2のスピーカとの位置関係を認識するスピーカ位置関係認識部を更に備えていてもよい。そして、音声出力制御手段は、仮想3次元空間内に配置された仮想マイクの向きと第1の音源オブジェクトおよび第2の音源オブジェクトとの位置関係に加え、更に第1のスピーカおよび第2のスピーカの位置関係に基づいて、当該第1のスピーカから出力される第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量と、当該第2のスピーカから出力される第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量を決定するようにしてもよい。
上記構成例によれば、仮想空間内の音源オブジェクトが発する音声の表現について、現実空間におけるスピーカの位置関係を反映させた表現が可能となる。
また、情報処理システムは、第3のスピーカ、第4のスピーカ、および第2の表示部を有する第2出力装置を更に備えていてもよい。そして、音声出力制御部は、第1出力装置が有する第1のスピーカおよび第2のスピーカと、第2出力装置が有する第3のスピーカおよび第4のスピーカとの間の位置関係に基づいて各スピーカからの再生音量を決定するようにしてもよい。
上記構成例によれば、例えば、ゲームコントローラとして利用可能な第1出力装置にかかる第1の組のスピーカと、モニタとして利用可能な第2出力装置にかかる第2の組のスピーカのそれぞれを用いてより臨場感の高い音声出力が可能となる。例えば、プレイヤから見て上下方向にかかる音声出力を第1出力装置にかかるスピーカに担当させ、左右方向にかかる音声出力を第2出力装置にかかるスピーカに担当させることで、仮想空間における空間の広がり、空間的感覚をプレイヤにより体感させることが可能となる。
また、音楽データはステレオ2チャンネルで構成された音楽データであってもよい。更に、第1のスピーカおよび第2のスピーカは、組となるステレオスピーカであってもよい。
上記構成例によれば、仮想空間内で左右方向に沿って配置された音源オブジェクトから発せられる音楽の表現について、プレイヤに違和感を与えず、より臨場感を高めた表現ができる。
本発明によれば、仮想空間内に存在する音源オブジェクトが発する音声に関して、より臨場感を高めた音声出力を行うことができる。
本発明の一実施形態に係るゲームシステム1の一例を示す外観図 図1のゲーム装置本体5の一例を示す機能ブロック図 図1の端末装置6の外観構成の一例を示す図 端末装置6の内部構成の一例を示すブロック図 ゲーム画面の一例を示す図 ゲーム画面の一例を示す図 ゲーム画面の一例を示す図 ゲーム画面の一例を示す図 ゲーム画面の一例を示す図 ゲーム画面の一例を示す図 ゲーム画面の一例を示す図 メモリ12のメモリマップ 端末操作データ83の構成の一例 音源オブジェクトデータ88の構成の一例 ゲーム処理プログラム81に基づくゲーム処理の流れを示すフローチャート 図15の初期設定処理の詳細を示すフローチャート 図15のゲーム音声生成処理の詳細を示すフローチャート 端末装置6の制御処理の流れを示すフローチャート
図1を参照して、本発明の一実施形態に係るゲームシステムについて説明する。
図1において、ゲームシステム1は、表示手段の一例である家庭用テレビジョン受像機(以下、モニタと記載する)2と、モニタ2に接続コードを介して接続する据置型のゲーム装置3とから構成される。モニタ2は、2chのステレオスピーカであるスピーカ2L、2Rを備える。また、ゲーム装置3は、ゲーム装置本体5と、端末装置6とを含む。
モニタ2は、ゲーム装置本体5から出力されるゲーム画像を表示する。モニタ2は左スピーカ2Lおよび右スピーカ2Rを有している。スピーカ2Lおよび2Rは、ゲーム装置本体5から出力されるゲーム音声を出力する。なお、この例ではモニタ2がこれらスピーカを有する例を示したが、この他、モニタ2に別途外部のスピーカを接続するような形態であってもよい。
ゲーム装置本体5は、当該ゲーム装置本体5で読み取り可能な光ディスクに記憶されたゲームプログラム等に基づいてゲーム処理等を実行する。
端末装置6は、ユーザが把持可能な入力装置である。ユーザは端末装置6を手に持って動かしたり、あるいは、端末装置6を自由な位置に配置したりして使用することが可能である。端末装置6は、表示手段であるLCD(Liquid Crystal Display:液晶表示装置)21、2chのステレオスピーカであるスピーカ23Lおよび23R(以降では総称してスピーカ23と示すこともある)、ヘッドホン端子、および入力手段(アナログスティックや押下型のボタン、タッチパネル等)等を備える。端末装置6とゲーム装置本体5とは無線(有線であってもよい)によって通信可能である。端末装置6は、ゲーム装置本体5で生成された画像(例えばゲーム画像)のデータをゲーム装置本体5から受信し、当該データが示す画像をLCD21に表示する。また、端末装置6は、ゲーム装置本体5で生成された音声(例えばゲームの効果音やBGM)のデータをゲーム装置本体5から受信し、当該データが示す音声をスピーカ23から出力する。また、端末装置6は、ゲーム装置本体5へ、自機に対して行われた操作の内容を表す操作データを送信する。
図2は、ゲーム装置本体5のブロック図である。図2において、ゲーム装置本体5は、情報処理装置の一例である。本実施形態においては、ゲーム装置本体5はCPU(制御部)11およびメモリ12、システムLSI13、無線通信部14およびAV−IC(Audio Video−Integrated Circuit)15等を有する。
CPU11は、メモリ12やシステムLSI13等を用いて所定の情報処理プログラムを実行する。これにより、ゲーム装置3における各種機能(例えば、ゲーム処理)が実現される。
システムLSI13には、GPU(Graphics Processor Unit)16、DSP(Digital Signal Processor)17、入出力プロセッサ18、等が含まれる。
GPU16は、CPU11からのグラフィクスコマンド(作画命令)に従って画像を生成する。なお、本実施形態においては、ゲーム装置本体5は、モニタ2に表示するゲーム画像と、端末装置6に表示するゲーム画像との両方を生成することがある。以下では、モニタ2に表示されるゲーム画像を「モニタ用ゲーム画像」と呼び、端末装置6に表示されるゲーム画像を「端末用ゲーム画像」と呼ぶことがある。
DSP17は、オーディオプロセッサとして機能し、メモリ12に記憶されるサウンドデータや音波形(音色)データを用いて、音声データを生成する。なお、本実施形態においては、ゲーム音声についてもゲーム画像と同様、モニタ2のスピーカ2Lおよび2Rから出力するゲーム音声と、端末装置6のスピーカ23(あるいは端末装置6に接続されたヘッドホン)から出力するゲーム音声との両方が生成されることがある。以下では、モニタ2から出力されるゲーム音声を「モニタ用ゲーム音声」と呼び、端末装置6から出力されるゲーム音声を「端末用ゲーム音声」と呼ぶことがある。
入出力プロセッサ18は、無線通信部14を介して、端末装置6との間でデータの送受信を実行したりする。本実施形態では、入出力プロセッサ18は、GPU16が生成したゲーム画像(端末用ゲーム画像)、および、DSP17が生成したゲーム音声(端末用ゲーム音声)のデータを、無線通信部14を経由して端末装置6に送信する。この際、端末用ゲーム画像については、表示画像の遅延が生じないように圧縮して送信するようにしても良い。また、入出力プロセッサ18は、上記無線通信部14を介して、端末装置6から送信される操作データ等を受信し、メモリ12のバッファ領域に記憶(一時記憶)する。
また、ゲーム装置本体5において生成される画像および音声のうち、モニタ2に出力される画像データおよび音声データは、AV−IC15によって読み出される。AV−IC15は、図示しないAVコネクタを介して、読み出した画像データをモニタ2に出力するとともに、読み出した音声データをモニタ2に内蔵されるスピーカ2aに出力する。これによって、モニタ2に画像が表示されるとともにスピーカ2aから音声が出力される。
図3は、端末装置6の外観構成の一例を示す図である。図3に示すように、端末装置6は略板状のハウジング20を備える。ハウジング20は、ユーザが両手または片手で把持可能な大きさ(形状)である。また、端末装置6は、表示部の一例であるLCD21を備える。LCD21には、上記端末用ゲーム画像が表示される。
また、端末装置6は、スピーカ23を備える。当該スピーカ23はステレオスピーカである。スピーカ23からは、上記端末用ゲーム音声が出力される。また、端末装置6は、所定のヘッドホンが着脱可能なヘッドホン端子24を備える。ここで、端末装置6は、当該ヘッドホン端子にヘッドホンが接続されていないときはスピーカ23からの音声出力を行うが、当該ヘッドホン端子にヘッドホンが接続されているときは、スピーカ23からの音声出力は行わない。つまり、本実施形態では、両者の同時出力は行われず、スピーカ23からの出力とヘッドホンからの出力とは排他的な関係になっている(但し、他の実施例においては同時出力可能としてもよい)。
また、端末装置6はタッチパネル22を備える。タッチパネル22は、ハウジング20に設けられる所定の入力面(表示部の画面)に対して入力された位置を検出する位置検出部の一例である。さらに、端末装置6は、操作部(図4に示す操作部31)として、アナログスティック25、十字キー26、およびボタン27等を備える。
図4は、端末装置6の電気的な構成を示すブロック図である。図4に示すように、端末装置6は、上述のLCD21、タッチパネル22、スピーカ23、および操作部31を備える。また、ヘッドホン端子24を介してヘッドホンが接続可能である。また、端末装置6の姿勢を検出するためのモーションセンサ32を備える。本実施形態では、当該モーションセンサ32として、加速度センサおよびジャイロセンサが備えられている。加速度センサは、xyzの3軸の加速度が検出可能である。ジャイロセンサは、xyzの3軸の角速度が検出可能である。
また、端末装置6は、ゲーム装置本体5との無線通信が可能な無線通信部34を備える。本実施形態においては、端末装置6とゲーム装置本体5との間では無線通信が行われるが、他の実施形態においては有線で通信が行われてもよい。
また、端末装置6は、端末装置6における動作を制御する制御部33を備える。具体的には、制御部33は、各入力部(タッチパネル22、操作部31、モーションセンサ32)からの出力データを受け取り、操作データとして無線通信部34を介してゲーム装置本体5へ送信する。また、制御部33は、ゲーム装置本体5からの端末用ゲーム画像が無線通信部34において受信されると、必要に応じて適宜の処理(例えば、画像データが圧縮されている場合には伸張処理)を行い、ゲーム装置本体5からの画像をLCD21に表示させる。更に、ゲーム装置本体5からの端末用ゲーム音声が無線通信部34において受信されると、制御部33は、スピーカ23に当該端末用ゲーム音声を出力する。
次に、図5〜図11を参照して、本実施形態のシステムにおいて実行される処理の概要を説明する。
本実施形態で実行される処理は、仮想3次元空間(以下、単に仮想空間と呼ぶ)内に存在する音源オブジェクトから発せられる音楽の新しい鳴らし方を提供するものである。なお、音源オブジェクトとは、所定の音声を発することが可能なオブジェクトとして定義されたオブジェクトである。
本実施形態の処理の一例として、次のようなゲーム処理を想定する。本ゲーム処理で実現されるゲームは、テーマパークを模した仮想空間内をプレイヤキャラクタが自由に移動できるゲームである。当該仮想空間には複数の「アトラクション」が設定されており、アトラクション毎に異なるミニゲームがプレイ可能である。
図5は、当該端末装置6に表示されるゲーム画面の一例である。図5では、プレイヤキャラクタ101、および、所定のアトラクションの入り口である入り口オブジェクト102が表示されている。プレイヤキャラクタ101については、これを背面側から見た様子で表示されている。また、当該入り口オブジェクト102には、左スピーカ画像103Lと右スピーカ画像103Rが表示されている(以下では、総称してスピーカ画像103と呼ぶこともある)。
ここで、本ゲームでは、ゲーム画面の表示に関して、実空間の座標系と仮想空間の座標系とを常に一致させて表示している。換言すれば、重力方向と仮想空間内の地面が常に垂直交差しているようにしている。また、端末装置6には、上記のようにモーションセンサ32が備えられている。これを利用することで、端末装置6自体の姿勢が検出可能である。そして、本ゲームでは、端末装置6の姿勢にあわせて仮想カメラも同時に傾けることで、端末装置6を、あたかも仮想空間を覗く「覗き窓」のように扱うことができる。例えば、端末装置6のLCD21がプレイヤの顔の正面に対面するように把持した姿勢を想定する。このとき、当該LCD21には、仮想空間内のZ軸正方向の様子が表示されているとする。この状態から、プレイヤが180度回転して真後ろを向いたとする。すると、当該LCD21には、仮想空間内のZ軸負方向の様子が表示されることになる。
ところで、上記のような仮想空間が表現されているゲームにおいて音声を鳴らす場合がある。この音声は、大きく分けて、「効果音」と「音楽(BGM)」の2種類がある。これらの音声の再生手法として、従来は、効果音については、仮想空間内に仮想マイクを設置し、この仮想マイクで視聴したとみなす音場計算(音量や定位)を行うことで効果音を再生していた。一方、音楽、特にBGMに関しては、仮想カメラや仮想マイクの位置に関わらず、常に一定の音量や定位で再生することが一般的であった。つまり、仮想空間の状態に関係なく、いわば仮想空間の「外」でBGMが再生されていた。
ここで、仮想空間「内」でBGMが再生されているような表現を行いたい場合を想定する。特に、このBGMが、ステレオ音声、つまり、LRのステレオ2chで構成されているBGMである場合を想定する。この場合は、当該2chで構成されているBGMデータに基づく音声を発する音源オブジェクトを仮想空間内に配置して再生させる。そして、その音を上記仮想マイクで視聴したとみなす処理を行うことが考えられる。例えば、上記図5において、入り口オブジェクト102の有するスピーカ画像103からBGMが流れているような表現を行いたい場合を考える。この場合は、図6に示すように、2つのスピーカ画像103のほぼ真ん中あたりに音源オブジェクト(これはプレイヤからは見えない透明なオブジェクトである)を配置する。そして、当該音源オブジェクトから2chで構成されているBGMを発する(再生する)処理を行う。更に、この発せられた音声を仮想マイクで拾うような処理が行われる。ここでは、仮想マイクは、プレイヤキャラクタ101と同じ位置に設置されているとする。すなわち、音源オブジェクトのほぼ正面に配置されているとする。その結果、BGMデータのLチャンネルにかかる音声がスピーカ23Lから出力され、BGMデータのRチャンネルにかかる音声がスピーカ23Rから出力される。換言すれば、図6の状態であれば、音源オブジェクトのLRチャンネルの左右の位置(定位)関係と、端末装置6のスピーカ23Lおよび23Rの左右の位置関係とは同じものとなっている。
次に、上記のような図6の状態から、プレイヤキャラクタ101を180度回転させたような場合を想定する。例えば、プレイヤが、端末装置6のLCD21がプレイヤの顔の正面に対面するように両手で端末装置6を把持した姿勢のまま、180度回転して真後ろを向いたような場合である。図7は、上記図6の状態から180度回転した状態の画面を示す図である。このプレイヤ(端末装置6)の回転に伴い、プレイヤキャラクタ101、仮想カメラ、および仮想マイクの向きも180度回転している。この場合、仮想空間内の位置関係としては、プレイヤキャラクタ101(仮想マイク)のほぼ真後ろに上記音源オブジェクトが位置するような関係となる。また、左スピーカ画像103Lは、プレイヤキャラクタ101の右後方に位置し、右スピーカ画像103Rは、プレイヤキャラクタ101の左後方に位置するような関係となる。一方、音源オブジェクトから発せられるBGMの定位は維持されたままである。つまり、上記図6の場合と同様、スピーカ23LからはBGMのLチャンネルの音が出力され、スピーカ23RからはBGMのRチャンネルの音が出力される。これは、プレイヤからすると、LRのチャンネルが図6の状態とは逆転して聞こえることになり、違和感のある聞こえ方となる。プレイヤキャラクタ101が180度回転した場合の位置関係を考慮すると、上記図6の状態におけるLチャンネルの音は、図7の状態ではスピーカ23Rから出力され、Rチャンネルの音は、図7の状態ではスピーカ23Lから出力されたほうがより自然な聞こえ方となる。
そこで、本実施形態では、上記のような姿勢変化(位置関係の変化)が起こった場合でも、上記BGMが自然に聞こえるような処理を行う。具体的には、本実施形態では、まず、再生したいBGMデータについて、LチャンネルとRチャンネルとを別のサウンドデータとして分離する。そして、2つの音源オブジェクトを別々の位置に配置し、一方にLチャンネルのサウンドデータ(以下、Lチャンネルデータ)を割り当て、他方にRチャンネルのサウンドデータ(以下、Rチャンネルデータ)を割り当てて再生する。つまり、上記のようなLRチャンネルを含む1つのBGMデータを再生する音源オブジェクトを配置するのではなく、LRチャンネル毎に別の音源オブジェクトを設定して配置する。そして、この音源オブジェクトから発せられる音を拾う仮想マイクの向きと上記2つの音源オブジェクトとの位置関係に応じて、スピーカ23Lおよび23Rからの出力音声を調整するという処理を行うものである。具体的には、仮想マイクを基準とするローカル座標系(以下、仮想マイク座標系)において、2つの音源オブジェクトのそれぞれの位置がx軸正方向上に位置するかx軸負方向上に位置するかを判定する。これにより、2つの音源オブジェクトそれぞれの位置が仮想マイクから見て右か左かを判断できる。この位置関係に基づいてスピーカ23Lおよび23RそれぞれにおけるLチャンネルデータおよびRチャンネルデータの再生音量の大きさが決定される。
図8は、本実施形態におけるゲーム画面と音源オブジェクトの配置の一例を示す図である。図8では、音源オブジェクト105Lが左スピーカ画像103Lに重なるような位置に配置され、音源オブジェクト105Rが右スピーカ画像103Rに重なるような位置に配置されている。これら音源オブジェクトは、プレイヤからは視認できない透明なオブジェクトである。そして、音源オブジェクト105Lには、再生したいBGMのLチャンネルデータが対応付けられている。一方、音源オブジェクト105Rには、再生したいBGMのRチャンネルデータが対応付けられている。つまり、音源オブジェクト105LはLチャンネルデータを再生し、音源オブジェクト105RはRチャンネルデータを再生するように設定されている。また、上記同様、プレイヤキャラクタの位置に仮想マイクが設置されており、当該仮想マイクは正面方向(z軸正方向)を向いている。このような状態でBGMが再生されると、音源オブジェクト105Lから発せられる音声は主にスピーカ23Lのほうから聞こえる(スピーカ23Rよりも大きな音で聞こえる)ことになる。また、音源オブジェクト105Rから発せられる音声は主にスピーカ23Rのほうから聞こえる(スピーカ23Lよりも大きな音で聞こえる)ことになる。
一方、図8の状態から上記のようにプレイヤ(端末装置6)が180度回転した場合を想定する。図9は、このときのゲーム画面を示す図である。この状態では、プレイヤキャラクタ101(仮想マイク)の右後方に音源オブジェクト105Lが位置し、プレイヤキャラクタ101の左後方に音源オブジェクト105Rが位置するという位置関係になる。また、端末装置6の姿勢変化に伴い、仮想マイクの向きについても、その正面方向が仮想空間のz軸負方向を向いていることになる。つまり、仮想マイクを基準にすると、その右側に音源オブジェクト105L、左側に音源オブジェクト105Rがあるという位置関係になる。そして、このような状態で上記BGMが再生されると、音源オブジェクト105Lから発せられる音声は主にスピーカ23Rのほうから聞こえ、音源オブジェクト105Rから発せられる音声は主にスピーカ23Lのほうから聞こえることになる。つまり、プレイヤキャラクタ(仮想マイク)の位置および向きと上記2つの音源オブジェクトの位置関係とが反映されるようにBGMの再生が行われる。これにより、仮想空間内に存在する音源からのBGM再生をより正確に表現でき、プレイヤに違和感を与えないようなBGM再生が実現できる。
なお、上記のように、本実施形態では、仮想空間内の音源オブジェクトの位置を反映するように再生処理を行うため、例えば、次のような音声再生も可能である。例えば、図10に示すように、プレイヤキャラクタ101の正面方向かつ上方向に音源オブジェクト105Lおよび105Rが存在し、BGMが再生されているとする。図10では、音源オブジェクト105Lおよび105Rの下半分だけが画面内に入っているような状態である。この状態では、マイク座標系で考えると、音源オブジェクトが仮想マイクの上方(仮想空間の空間座標系のy軸正方向)に位置することになる。この場合、スピーカ23Lおよび23Rから出力される音声の音量は、ほぼ同じとなる。
次に、図10の状態から、図11に示すように、端末装置6を左方向に90度回転させた場合を想定する(例えば、プレイヤが端末装置6を縦持ちにした場合)。この場合、スピーカ23Lおよび23Rの位置関係に着目すると、左右方向に配置されていた状態から上下方向に配置されたような位置関係に変化することになる。また、この端末装置6の姿勢変化に併せて、仮想マイクの姿勢も左に90度回転させられる(つまり、端末装置6の姿勢と仮想マイクの姿勢を連動させる)。その結果、マイク座標系で考えると、音源オブジェクト105Lおよび105Rは仮想マイクの右側に位置することになる。このような場合、本実施形態では、スピーカ23R、つまり、現実空間において上側にあるスピーカからの音量を相対的に大きくし、スピーカ23L、つまり、現実空間において下側にあるスピーカからの音量を相対的に小さくして出力する。換言すれば、スピーカ23Lおよび23Rの音量の左右バランスを調整している。これにより、仮想空間内における上下方向(y軸方向)に関する音源オブジェクトの位置関係についてもその音声出力に反映できる。また、この例では上下方向の例えを挙げたが、例えば、奥行き方向(仮想空間のz軸方向)に関しても同様に、この方向についての位置関係をスピーカ23Lおよび23Rからの出力音量に反映できる。例えば、端末装置6の姿勢を、LCD21が上面を向くような姿勢にしたような場合に、奥行き方向にかかる位置関係を反映した音声出力が可能である。
次に、図12〜図18を参照して、上記のようなゲーム処理を実現するためのシステム1の動作について詳細に説明する。
図12は、上記ゲームを実行するときにゲーム装置本体5のメモリ12に記憶される各種データの一例を示している。
ゲーム処理プログラム81は、ゲーム装置本体5のCPU11に、上記ゲームを実現するためのゲーム処理を実行させるためのプログラムである。ゲーム処理プログラム81は、例えば、光ディスクからメモリ12にロードされる。
処理用データ82は、CPU11において実行されるゲーム処理において用いられるデータである。処理用データ82は、端末操作データ83、端末送信用データ84、ゲーム音声データ85、端末装置姿勢データ86、仮想マイク姿勢データ87、音源オブジェクトデータ88等を含む。
端末操作データ83は、端末装置6から周期的に送信される操作データである。図13は、端末操作データ83の構成の一例を示す図である。端末操作データ83には、操作ボタンデータ91、タッチ位置データ92、モーションセンサデータ93等が含まれる。操作ボタンデータ91は、操作部31(アナログスティック25、十字キー26、およびボタン27)に対する入力状態を示すデータである。また、モーションセンサ32に対する入力内容も操作ボタンデータ91に含まれる。タッチ位置データ92は、タッチパネル22の入力面において入力が行われた位置(タッチ位置)を示すデータである。モーションセンサデータ93は、上記モーションセンサに含まれる加速度センサおよび角速度センサで検出された加速度および角速度を示すデータである。
図12に戻り、端末送信用データ84は、端末装置6へ周期的に送信するデータである。端末送信用データ84には、上記端末用ゲーム画像や端末用ゲーム音声が含まれる。
ゲーム音声データ85は、上記端末用ゲーム音声およびモニタ用ゲーム音声の素になるデータである。ゲーム音声データ85には、効果音の音声データや、上述したようなLR2chで構成されるBGMデータが複数含まれている。
端末装置姿勢データ86は、端末装置6の姿勢を示すデータである。仮想マイク姿勢データ87は、上記仮想マイクの姿勢を示すデータである。これらの姿勢データは、例えば、3軸のベクトルデータの組み合わせとして示される。なお、仮想マイク姿勢データ87には、端末用仮想マイクの姿勢データとモニタ用仮想マイクの姿勢データのそれぞれが含まれる。但し、以下の説明では、単に「仮想マイク姿勢データ87」と示した場合は端末用仮想マイクの姿勢データを指すものとする。
音源オブジェクトデータ88は、上記音源オブジェクトに関するデータである。また、複数の音源オブジェクトデータ88がメモリ12に格納されている。図14は、各音源オブジェクトデータ88の構成の一例を示す図である。音源オブジェクトデータ88は、オブジェクトID881、セット対象識別データ882、対応BGM識別データ883、担当チャンネル識別データ884、分離後BGMデータ885を含む。
オブジェクトID881は、各音源オブジェクトを識別するためのIDである。セット対象識別データ882は、自身と組になる音源オブジェクトを示すデータである。本実施形態では、1つのBGMデータをLチャンネルとRチャンネルに分離して2つの音源オブジェクトに割り当てる。そのため、この2つの音源オブジェクトを1組の音源オブジェクト(以下、セット型音源オブジェクトと呼ぶ)として扱う。そして、当該セット対象識別データは、自身と組になる他方の音源オブジェクトを示すデータである。例えば、組となる相手のオブジェクトID881が当該データとして示される。また、このような組とはならない音源オブジェクト(例えば効果音のみを発する音源オブジェクト等。以下、単体型音源オブジェクトと呼ぶ)である場合は、その旨を示す情報が当該セット対象識別データ882として設定される。
対応BGM識別データ883は、当該音源オブジェクトが再生するBGMであると定義されているBGMデータを示すデータである。例えば、上記ゲーム音声データ85に含まれているBGMデータ(2chで構成されたBGMデータ)を示す情報が本データである。
担当チャンネル識別データは、当該音源オブジェクトがセット型音源オブジェクトである場合に、LチャンネルとRチャンネルのいずれを担当するかを示すデータである。
分離後BGMデータ885は、LR2chで構成されたBGMデータをLチャンネルおよびRチャンネルのサウンドデータに分離した後のいずれか一方のデータである。
その他、図示は省略するが、当該音源オブジェクトが音声発生中か否かを示す情報や、当該音源オブジェクトが発する音声の音の大きさやその音の指向性等を定義した情報等、音源オブジェクトが発する音声に関する情報も適宜含まれている。
次に、図15〜図17のフローチャートを参照し、ゲーム処理プログラム81に基づいてゲーム装置本体5のCPU11によって実行されるゲーム処理の流れを説明する。
図15において、ゲーム処理プログラム81の実行が開始されると、ステップS1において、CPU11は、初期設定処理を行う。この初期設定処理では、上記音源オブジェクト等の各種オブジェクトの初期設定および仮想空間内への配置、仮想カメラや仮想マイクの姿勢(仮想マイク姿勢データ87)の初期化が実行される。図16は、当該初期設定処理の詳細を示すフローチャートである。当該初期設定処理では、まず、セット型音源オブジェクトの設定処理が行われる。すなわち、ステップS41で、CPU11は、音源オブジェクトの中から、上記セット型音源オブジェクトを抽出する。
次に、ステップS42で、CPU11は、抽出したセット型音源オブジェクトのうち、処理対象とする1組のセット型音源オブジェクトを選択する。以下、これを処理対象オブジェクトと呼ぶ。
次に、ステップS43で、CPU11は、対応BGM識別データ883に基づいて、当該処理対象が再生するBGMのデータをゲーム音声データ85から取得する。続くステップS44で、CPU11は、当該取得したBGMデータに基づいて、上記LチャンネルデータおよびRチャンネルデータを生成する。
次に、ステップS45で、CPU11は、上記生成したLチャンネルデータおよびRチャンネルデータを処理対象オブジェクト(2つの音源オブジェクト)に1つずつ割り当てる。すなわち、まず、CPU11は、当該処理対象オブジェクトのうちの一方の音源オブジェクトの担当チャンネル識別データ884を参照する。そして、これに示されているチャンネルに対応するLチャンネルデータ、またはRチャンネルデータを分離後BGMデータ885に格納する。同様に、処理対象オブジェクトのうちの他方の音源オブジェクトの分離後BGMデータ885に、残りのLチャンネルデータ、またはRチャンネルデータを格納する。これにより、あるBGMについて、Lチャンネルの音のみ再生する音源オブジェクトと、Rチャンネルの音のみ再生する音源オブジェクトとの2つの音源オブジェクトが設定されることになる。
次に、ステップS46で、CPU11は、上記処理対象オブジェクトを仮想空間内の所定の位置に配置する。なお、この配置位置については、上記図8の音源オブジェクト105Lおよび105Rのように、2つの音源オブジェクトが左右にある程度離れているような位置関係(つまり、ステレオ効果が得られるような位置関係)となるように配置することが好ましい。
次に、ステップS47で、CPU11は、上記ステップS41で抽出したセット型音源オブジェクトの全てについて上記のような処理が行われたか否かを判定する。その結果、まだ未処理のセット型音源オブジェクトが残っているときは(ステップS47でNO)、上記ステップS42に戻り処理が繰り返される。一方、全て処理済みであれば(ステップS47でYES)、続くステップS48で、CPU11は、その他の初期設定処理を実行する。すなわち、各種オブジェクト(単体型音源オブジェクトやプレイヤキャラクタ等)の仮想空間内への配置や、仮想カメラおよび仮想マイク等の姿勢の初期化、その他各種変数の初期化等が実行される。なお、仮想カメラおよび仮想マイクの初期値は、マイク座標系の各軸の向きを仮想3次元空間の空間座標系の各軸の向きに一致させた状態である。以上で、初期設定処理は終了する。
図15に戻り、次に、ステップS2において、CPU11は、端末操作データ83の取得を行う。
次に、ステップS3において、CPU11は、モーションセンサデータ93(加速度データおよび角速度データ)に基づいて、端末装置6の現在の姿勢を算出する。算出された姿勢を示すデータは、端末装置姿勢データ86としてメモリ12に格納される。
次に、ステップS4において、CPU11は、端末装置6の現在の姿勢を仮想マイク(端末用仮想マイク)の姿勢に反映する。具体的には、端末装置姿勢データ86で示される姿勢を仮想マイク姿勢データ87に反映させる。
次に、ステップS5において、CPU11は、端末操作データ83で示される操作内容(主に操作ボタンデータ91やタッチ位置データ92で示される操作内容)に基づき、所定のゲーム処理を実行する。例えば、プレイヤキャラクタ等の各種キャラクタを移動させる処理等が行われる。
次に、ステップS6において、CPU11は、上記ゲーム処理の結果が反映されたゲーム画像を生成する処理を実行する。例えば、上記操作内容に基づいてプレイヤキャラクタが移動した後の仮想ゲーム空間を仮想カメラで撮影することでゲーム画像が生成される。また、このとき、CPU11は、ゲーム内容に応じて、適宜、モニタ用ゲーム画像と端末用ゲーム画像の2つの画像を生成する。例えば、2つの仮想カメラを用いることでそれぞれの画像が生成される。
次に、ステップS7において、CPU11は、モニタ用ゲーム音声および端末用ゲーム音声を生成するためのゲーム音声生成処理を実行する。図17は、上記ステップS7で示したゲーム音声生成処理の詳細を示すフローチャートである。図17において、まず、ステップS21で、CPU11は、処理対象とする音源オブジェクトを一つ選択する。音源オブジェクトが仮想空間内に複数存在する場合に、これらを一つずつ順番に処理していくためである。また、処理対象となる音源オブジェクトは、例えば、現在音声発生中の状態にある音源オブジェクトである。
次に、ステップS22において、CPU11は、上記処理対象の音源オブジェクトのマイク座標系における位置および向きを算出する。これにより、マイク座標系において、音源オブジェクトが仮想マイク(の正面方向を基準として)の右側に位置するか左側に位置するかを認識することができる。
次に、ステップS23で、CPU11は、マイク座標系における仮想マイクから音源オブジェクトまでの直線距離を算出する。続くステップS24において、CPU11は、上記算出したマイク座標系における音源オブジェクトの位置、向き、距離、および、仮想マイク自身の向きに基づいて、スピーカ23Lおよび23Rのそれぞれの音量値を決定する。つまり、スピーカ23Lおよび23Rの左右の音量バランスが決定される。
次に、ステップS25において、CPU11は、当該音源オブジェクトに対応付けられているゲーム音声データ85を再生する。但し、当該音源オブジェクトが上記セット型音源オブジェクトにかかるものである場合は、再生される音声は分離後BGMデータ885に基づくものとなる。その結果、セット型音源オブジェクトに関しては、所定のBGMのLチャンネルの音声のみ、あるいは、Rチャンネルの音声のみが再生されることになる。なお、再生音量については、上記ステップS24で決定された音量に従う。
次に、ステップS26において、CPU11は、処理対象となる音源オブジェクトの全てについて上記のような処理を行ったか否かを判定する。そして、まだ未処理の音源オブジェクトが残っていれば(ステップS26でNO)、CPU11は、上記ステップS21に戻り処理を繰り返す。一方、全て処理が終わっていれば(ステップS26でYES)、ステップS27において、CPU11は、上記処理を行った各音源オブジェクトにかかる音声を含む端末用ゲーム音声を生成する。
続くステップS27で、CPU11は、モニタ用仮想マイクを用いて、ゲーム処理の結果に応じたモニタ用ゲーム音声を適宜生成する。ここでは、当該モニタ用ゲーム音声も、その対象をスピーカ2Lおよび2Rとして、基本的には上記端末用ゲーム音声と同様の処理で生成されるものとする。以上で、ゲーム音声生成処理は終了する。
図15に戻り、ゲーム音声生成処理の次に、ステップS8において、CPU11は、上記ステップS3で生成された端末用ゲーム画像およびステップS7で生成された端末用ゲーム音声を端末送信用データ84に格納し、当該端末送信用データ84を端末装置6に送信する。なお、ここでは説明の便宜上、端末用ゲーム音声の送信周期を端末用ゲーム画像の送信周期を合わせている例を挙げているが、他の実施形態では、端末用ゲーム音声の送信周期については端末用ゲーム画像の送信周期よりも短くしてもよい。例えば、端末用ゲーム画像については1/60秒周期で送信するようにし、端末用ゲーム音声については1/180秒周期で送信するようにしてもよい。
次に、ステップS9において、CPU11は、上記ステップS6で生成されたモニタ用ゲーム画像をモニタ2に出力する。続くステップS10において、CPU11は、上記ステップS7で生成されたモニタ用ゲーム音声をスピーカ2Lおよび2Rに出力する。
次に、ステップS11で、CPU11は、ゲーム処理を終了するための所定の条件が満たされたか否かを判定する。その結果、所定の条件が満たされていないときは(ステップS11でNO)、上記ステップS2に戻り、上述の処理を繰り返す。所定の条件が満たされたときは(ステップS11でYES)、CPU11は当該ゲーム処理を終了する。
次に、図18のフローチャートを参照して、端末装置6の制御部33が実行する制御処理の流れを説明する。まず、ステップS41において、制御部33は、ゲーム装置本体5から送信された端末送信用データ84を受信する。
次に、ステップS42において、制御部33は、上記受信した端末送信用データ84に含まれている端末用ゲーム画像をLCD21に出力する。
次に、ステップS43において、制御部33は、上記受信した端末送信用データ84に含まれている端末用ゲーム音声をスピーカ23Lおよび23Rに出力する。また、その音量バランスは、上記ステップS24で決定された音量に従う。
次に、ステップS44において、制御部33は、操作部31やモーションセンサ32、タッチパネル22に対する入力(操作内容)を検出し、操作ボタンデータ91、タッチ位置データ92、および、モーションセンサデータ93を生成する。
次に、ステップS45において、制御部33は、上記ステップS44で生成した操作ボタンデータ91、タッチ位置データ92、を含む端末操作データ83を生成し、ゲーム装置本体5に送信する。
次に、ステップS46において、制御部33は、端末装置6の制御処理を終了するための所定の条件が満たされたか否かを判定する(例えば、電源オフ操作が行われたか否か等)。その結果、所定の条件が満たされていないときは(ステップS46でNO)、上記ステップS41に戻り、上述の処理を繰り返す。所定の条件が満たされたときは(ステップS46でYES)、制御部33は当該端末装置6の制御処理を終了する。
このように、本実施形態では、仮想空間内の音源オブジェクト(特に、セット型音源オブジェクト)と仮想マイクとの位置関係やその向きを反映したBGMの再生処理を行っている。これにより、仮想空間内の音源から2chで構成されたBGMが再生されるときの音響表現をより正確に表現でき、仮想空間の臨場感をより高めることができる。特に、上述したような、端末装置6自体の姿勢を変化させて「覗き窓」のように仮想空間の様子を表示するようなシステムのゲーム処理等に上記の処理は好適である。
なお、上記実施形態では、初期設定処理において所定のBGMをLRチャンネルのデータに分離し、異なる音源オブジェクトに割り当てる処理を行っていた。このような処理の他、次のような処理を行っても良い。例えば、ゲームソフトの開発段階で上記のような2chのBGMをチャンネル分離したサウンドデータ(LチャンネルデータおよびRチャンネルデータ)を予め作成しておき、ゲーム音声データ85に含めておくようにしてもよい。そして、所定の音源オブジェクトに対応するBGMデータとして、LチャンネルデータあるいはRチャンネルデータを対応付けた音源オブジェクトデータを予め作成しておくようにしてもよい。この場合は、図14で示したような音源オブジェクトデータ88の構成としては、オブジェクトID881および対応BGM識別データ883のみが含まれる構成でもよい。そして、上記初期設定処理においては、他の音源オブジェクトのデータと共に、当該LチャンネルデータあるいはRチャンネルデータを再生する音源オブジェクトのデータを読み出し、仮想空間内に適宜配置するだけでよい。これは、初期設定処理にかかる処理時間が短縮される点で有利である。
また、その他、上記ステップS7のゲーム音声生成処理において、上記のBGMのチャンネル分離処理等をリアルタイムに実行するようにしてもよい。例えば、上記音源オブジェクトデータ88の構成として、図14に示した構成から分離後BGMデータ885のみを外した構成としておく。そして、ゲーム音声生成処理において、セット型音源オブジェクトについては、その組を構成する各音源オブジェクトの担当チャンネル識別データ884を参照する。そして、その音源オブジェクトが担当するチャンネルを識別できれば、BGMデータをLチャンネルとRチャンネルのサウンドデータに分離し、担当チャンネルのサウンドデータのみを再生するようにしてもよい。
また、上記実施形態では、モニタ2および端末装置6という、2つの画面と2セットのステレオスピーカ(4つのスピーカ)を有するゲームシステムを例に挙げた。このような構成に限らず、例えば、携帯型ゲーム装置のように、画面およびステレオスピーカがハウジングに一体化するよう設けられている情報処理装置にも上記の処理は適用可能である。また、このような情報処理装置は、モーションセンサを内蔵しており、自身の姿勢が検知可能な情報処理装置であることが好ましい。そして、このような情報処理装置で、上述したような仮想空間の表示システムを利用する処理を行う場合に好適である。この場合は、仮想カメラや仮想マイクを一つだけにして上記と同様の処理を行えばよい。
また、例えば、プレイヤの直接的な操作対象となるゲーム画面の表示や各種操作に関しては端末装置6を用いるが、音声出力に関しては、端末装置6のスピーカ23は使わずにモニタ2のスピーカのみを利用するような構成の場合も上記のような処理は適用可能である。例えば、プレイヤが端末装置6を把持したまま、モニタ2に対面している姿勢から180度回転した場合(つまり、モニタ2に背を向けた場合)、上記の処理を用いてセット型音源オブジェクトの音声をモニタ2のスピーカ2Lおよび2Rに出力するようにすればよい。
また、外付けスピーカとして、例えば5.1chサラウンドシステムのスピーカを用いるような場合も、同様の処理が適用できる。この場合は、例えば、5.1ch対応のBGMデータをチャンネル毎のデータに分離し(6つのサウンドデータとなる)、これらを6つの音源オブジェクトに割り当てるようにすればよい、そして、上記のように端末装置6の姿勢変化に応じて仮想マイクの向きを変化させ、仮想空間内の音源オブジェクトと仮想マイクとの位置関係や向きに基づいてBGM再生処理を行えば、スピーカの数が多い分、より臨場感の高いBGM再生の音響効果を提供することができる。
また、例えば端末装置6にステレオヘッドホンを接続し、プレイヤがこれを用いてゲーム音声を聴くような場合も上記処理は適用可能である。この場合は、ヘッドホン端子24へのヘッドホンの接続状態をゲーム装置本体5が検出できるように構成する。例えば、接続状態を示すデータを上記端末操作データ83に含めるように構成する。そして、上述の処理におけるスピーカ23Lおよび23Rへの出力をこのようなヘッドホンの左右スピーカへの出力に置き換えるようにして上記処理を適用すればよい。但し、上記図11で示したような、端末装置6を縦持ちにしたときの上下方向にかかる音声の鳴らし分けの処理に関しては、ヘッドホン装着時は適用しないようにしてもよい。プレイヤがヘッドホンを装着しているときは、スピーカの位置関係は左右方向にかかる配置という位置関係に固定されるためである。
また、その他、端末装置6自体の姿勢は変更せずに、仮想カメラの向きのみをプレイヤが操作可能な場合にも上記処理を適用してもよい(例えば、アナログスティック25を用いて仮想カメラの向きを変更する等)。プレイヤからすると、仮想カメラの向きの操作によって、自分を中心にして仮想空間自体が回転しているような感覚となる。この場合は、端末装置6の姿勢の代わりに、プレイヤの操作によって変更された仮想カメラの姿勢に併せて仮想マイクの向きを変更すればよい。すなわち、仮想マイクの正面方向(z軸正方向)が仮想カメラの正面方向(z軸正方向)に一致するように仮想マイクの姿勢を変更し、上記のような処理を行うようにしてもよい。
また、その他、モニタ2のスピーカ2Lおよび2Rと、端末装置6のスピーカ23Lおよび23Rの、合計2セットのステレオスピーカ(計4つのスピーカ)を用いて上記の処理を適用しても良い。特に、端末装置6を主に「縦向き姿勢」で利用する場合に好適である。この場合、例えば、仮想空間内の左右方向についての音源オブジェクトの移動に関してはモニタ2のスピーカ23Lおよび23Rからの出力に反映させる。そして、上下方向についての音源オブジェクトの移動については、端末装置6のスピーカ23Lおよび23Rからの出力に反映させる。これにより、例えば5.1chのスピーカセットを用いずとも、臨場感の高い音響効果を得られる。
また、上述の実施例にかかる処理を実行するためのゲーム処理プログラムは、任意のコンピュータ読み取り可能な記憶媒体(例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、半導体メモリカード、ROM、RAMなど)に格納され得る。
また、上記実施例ではゲーム処理を一例に説明しているが、情報処理の内容はゲーム処理に限るものではなく、上記のような仮想空間の表示システムを利用する他の情報処理においても上記実施例の処理は適用可能である。
また、上記実施形態においては、2chで構成されるBGMデータをLRそれぞれのチャンネルに分離し、別々の音源オブジェクトで再生するような制御を行うための一連の処理が単一の装置(ゲーム装置本体5)において実行される場合を説明したが、他の実施形態においては、上記一連の処理が複数の情報処理装置からなる情報処理システムにおいて実行されてもよい。例えば、ゲーム装置本体5と、当該ゲーム装置本体5とネットワークを介して通信可能なサーバ側装置とを含む情報処理システムにおいて、上記一連の処理のうちの一部の処理がサーバ側装置によって実行されてもよい。また、上記情報処理システムにおいて、サーバ側のシステムは、複数の情報処理装置によって構成され、サーバ側で実行するべき処理を複数の情報処理装置が分担して実行してもよい。
1…ゲームシステム
2…モニタ
2L、2R…スピーカ
3…ゲーム装置
5…ゲーム装置本体
6…端末装置
20…ハウジング
21…LCD
23L、23R…スピーカ

Claims (11)

  1. 情報処理部と、第1のスピーカおよび第2のスピーカとを備える情報処理システムであって、
    2チャンネルで構成されている所定の音楽データを第1チャンネル音楽データと第2チャンネル音楽データとに分離する音楽データ分離手段と、
    前記分離された音楽データのうちの一方に対応付けられた第1の音源オブジェクトと、当該分離された音楽データの他方に対応付けられた第2の音源オブジェクトとを仮想3次元空間内のそれぞれ異なる位置に配置する音源オブジェクト配置手段と、
    前記仮想3次元空間内の所定の位置に仮想マイクを配置する仮想マイク配置手段と、
    前記仮想3次元空間内に配置された前記仮想マイクの向きと前記第1の音源オブジェクトおよび第2の音源オブジェクトとの位置関係に基づいて、前記第1のスピーカから再生される前記第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量と、前記第2のスピーカから再生される前記第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量とを決定する音声出力制御手段と、を備える、情報処理システム。
  2. 前記情報処理システムは、
    動きセンサ、前記第1のスピーカ、前記第2のスピーカ、および前記仮想3次元空間の様子が表示される第1の表示部とが設けられているハウジングを有する第1出力装置と、
    前記動きセンサの出力に基づいて前記第1出力装置自身の姿勢をリアルタイム、あるいはほぼリアルタイムで検出する姿勢検出手段と、
    前記第1出力装置の姿勢に応じて前記仮想マイクの向きを変更する仮想マイク姿勢変更手段と、を更に備える、請求項1に記載の情報処理システム。
  3. 前記情報処理システムは、前記第1出力装置の姿勢に基づいて前記第1のスピーカと前記第2のスピーカとの位置関係を認識するスピーカ位置関係認識部を更に備え、
    前記音声出力制御手段は、前記仮想3次元空間内に配置された前記仮想マイクの向きと前記第1の音源オブジェクトおよび第2の音源オブジェクトとの位置関係に加え、更に前記第1のスピーカおよび前記第2のスピーカの位置関係に基づいて、当該第1のスピーカから出力される前記第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量と、当該第2のスピーカから出力される第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量を決定する、請求項2に記載の情報処理システム。
  4. 前記情報処理システムは、第3のスピーカ、第4のスピーカ、および第2の表示部を有する第2出力装置を更に備え、
    前記音声出力制御部は、前記第1出力装置が有する第1のスピーカおよび第2のスピーカと、前記第2出力装置が有する第3のスピーカおよび第4のスピーカとの間の位置関係に基づいて、各スピーカからの前記再生音量を決定する、請求項2に記載の情報処理システム。
  5. 前記音楽データはステレオ2チャンネルで構成された音楽データであり、
    前記第1のスピーカおよび第2のスピーカは、組となるステレオスピーカである、請求項1ないし4のいずれかに記載の情報処理システム。
  6. 情報処理部と、第1のスピーカおよび第2のスピーカを備える音声出力システムのコンピュータに実行させる情報処理プログラムであって
    2チャンネルで構成されている所定の音楽データを第1チャンネル音楽データと第2チャンネル音楽データとに分離する音楽データ分離手段と、
    前記分離された音楽データのうちの一方に対応付けられた第1の音源オブジェクトと、当該分離された音楽データの他方に対応付けられた第2の音源オブジェクトとを仮想3次元空間内のそれぞれ異なる位置に配置する音源オブジェクト配置手段と、
    前記仮想3次元空間内の所定の位置に仮想マイクを配置する仮想マイク配置手段と、
    前記仮想3次元空間内に配置された前記仮想マイクの向きと前記第1の音源オブジェクトおよび第2の音源オブジェクトとの位置関係に基づいて、前記第1のスピーカから再生される前記第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量と、前記第2のスピーカから再生される前記第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量とを決定する音声出力制御手段として前記コンピュータを機能させる、情報処理プログラム。
  7. 前記情報処理システムは、動きセンサ、前記第1のスピーカ、前記第2のスピーカ、および前記仮想3次元空間の様子が表示される第1の表示部とが設けられているハウジングを有する第1出力装置を更に備え、
    前記情報処理プログラムは、前記コンピュータを、
    前記動きセンサの出力に基づいて前記第1出力装置自身の姿勢をリアルタイム、あるいはほぼリアルタイムで検出する姿勢検出手段と、
    前記第1出力装置の姿勢に応じて前記仮想マイクの向きを変更する仮想マイク姿勢変更手段として更に機能させる、請求項6に記載の情報処理プログラム。
  8. 情報処理部と、第1のスピーカおよび第2のスピーカを備える情報処理システムを制御するための情報処理制御方法であって
    2チャンネルで構成されている所定の音楽データを第1チャンネル音楽データと第2チャンネル音楽データとに分離する音楽データ分離ステップと、
    前記分離された音楽データのうちの一方に対応付けられた第1の音源オブジェクトと、当該分離された音楽データの他方に対応付けられた第2の音源オブジェクトとを仮想3次元空間内のそれぞれ異なる位置に配置する音源オブジェクト配置ステップと、
    前記仮想3次元空間内の所定の位置に仮想マイクを配置するマイク配置ステップと、
    前記仮想3次元空間内に配置された前記仮想マイクの向きと前記第1の音源オブジェクトおよび第2の音源オブジェクトとの位置関係に基づいて、前記第1のスピーカから再生される前記第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量と、前記第2のスピーカから再生される前記第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量とを決定する音声出力制御ステップとを備える、情報処理制御方法。
  9. 前記情報処理システムには、動きセンサ、前記第1のスピーカ、前記第2のスピーカ、および前記仮想3次元空間の様子が表示される第1の表示部とが設けられているハウジングを有する第1出力装置を有しており、
    前記情報処理制御方法は、
    前記動きセンサの出力に基づいて前記第1出力装置自身の姿勢をリアルタイム、あるいはほぼリアルタイムで検出する姿勢検出ステップと、
    前記第1出力装置の姿勢に応じて前記仮想マイクの向きを変更する仮想マイク姿勢変更ステップと、を更に備える、請求項8に記載の情報処理システム。
  10. 第1のスピーカおよび第2のスピーカを備える情報処理装置であって、
    2チャンネルで構成されている所定の音楽データを第1チャンネル音楽データと第2チャンネル音楽データとに分離する音楽データ分離手段と、
    前記分離された音楽データのうちの一方に対応付けられた第1の音源オブジェクトと、当該分離された音楽データの他方に対応付けられた第2の音源オブジェクトとを仮想3次元空間内のそれぞれ異なる位置に配置する音源オブジェクト配置手段と、
    前記仮想3次元空間内の所定の位置に仮想マイクを配置する仮想マイク配置手段と、
    前記仮想3次元空間内に配置された前記仮想マイクの向きと前記第1の音源オブジェクトおよび第2の音源オブジェクトとの位置関係に基づいて、前記第1のスピーカから再生される前記第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量と、前記第2のスピーカから再生される前記第1チャンネル音楽データおよび第2チャンネル音楽データの再生音量とを決定する音声出力制御手段と、を備える、情報処理装置。
  11. 前記情報処理装置は、
    動きセンサと、
    前記仮想3次元空間の様子が表示される第1の表示手段と、
    前記動きセンサの出力に基づいて前記情報処理装置自身の姿勢をリアルタイム、あるいはほぼリアルタイムで検出する姿勢検出手段と、
    前記情報処理の姿勢に応じて前記仮想マイクの向きを変更する仮想マイク姿勢変更手段と、を更に備える、請求項10に記載の情報処理装置。
JP2012237973A 2012-10-29 2012-10-29 情報処理システム、情報処理プログラム、情報処理制御方法、および情報処理装置 Active JP6055651B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012237973A JP6055651B2 (ja) 2012-10-29 2012-10-29 情報処理システム、情報処理プログラム、情報処理制御方法、および情報処理装置
US13/867,469 US9241231B2 (en) 2012-10-29 2013-04-22 Information processing system, computer-readable non-transitory storage medium having stored therein information processing program, information processing control method, and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012237973A JP6055651B2 (ja) 2012-10-29 2012-10-29 情報処理システム、情報処理プログラム、情報処理制御方法、および情報処理装置

Publications (2)

Publication Number Publication Date
JP2014090251A true JP2014090251A (ja) 2014-05-15
JP6055651B2 JP6055651B2 (ja) 2016-12-27

Family

ID=50547216

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012237973A Active JP6055651B2 (ja) 2012-10-29 2012-10-29 情報処理システム、情報処理プログラム、情報処理制御方法、および情報処理装置

Country Status (2)

Country Link
US (1) US9241231B2 (ja)
JP (1) JP6055651B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016088306A1 (ja) * 2014-12-03 2016-06-09 株式会社ソシオネクスト 音声再生システム
JP6207691B1 (ja) * 2016-08-12 2017-10-04 株式会社コロプラ 情報処理方法および当該情報処理方法をコンピュータに実行させるためのプログラム
JP6223533B1 (ja) * 2016-11-30 2017-11-01 株式会社コロプラ 情報処理方法および当該情報処理方法をコンピュータに実行させるためのプログラム
WO2024085444A1 (ko) * 2022-10-18 2024-04-25 삼성전자 주식회사 콘텐트를 제공하는 방법 및 디스플레이 장치

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10038947B2 (en) * 2013-10-24 2018-07-31 Samsung Electronics Co., Ltd. Method and apparatus for outputting sound through speaker
US10293253B2 (en) 2015-11-27 2019-05-21 Gree, Inc. Program, game control method, and information processing apparatus
JP6670202B2 (ja) * 2016-08-10 2020-03-18 任天堂株式会社 音声処理プログラム、情報処理プログラム、音声処理方法、音声処理装置、及びゲームプログラム
KR20220164568A (ko) * 2020-05-20 2022-12-13 소니그룹주식회사 가상 환경들에서의 믹스 테이프 디지털 자산들

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0991461A (ja) * 1995-09-26 1997-04-04 Nippon Telegr & Teleph Corp <Ntt> 音場制御装置
JP2003244786A (ja) * 2002-02-15 2003-08-29 Fujitsu Ltd 電子機器
JP2003257162A (ja) * 2002-02-27 2003-09-12 Yamaha Corp 音制御装置、音制御方法、プログラムおよび記録媒体
US20060067534A1 (en) * 2004-09-27 2006-03-30 Nintendo Co., Ltd. Storage medium storing stereo enhancement processing program, stereo enhancement apparatus and stereo enhancement method
US20100034404A1 (en) * 2008-08-11 2010-02-11 Paul Wilkinson Dent Virtual reality sound for advanced multi-media applications
JP2012183256A (ja) * 2011-03-08 2012-09-27 Nintendo Co Ltd 情報処理システム、情報処理プログラム、および情報処理方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7146296B1 (en) * 1999-08-06 2006-12-05 Agere Systems Inc. Acoustic modeling apparatus and method using accelerated beam tracing techniques
GB2359177A (en) * 2000-02-08 2001-08-15 Nokia Corp Orientation sensitive display and selection mechanism
KR100542129B1 (ko) * 2002-10-28 2006-01-11 한국전자통신연구원 객체기반 3차원 오디오 시스템 및 그 제어 방법
US9015051B2 (en) * 2007-03-21 2015-04-21 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Reconstruction of audio channels with direction parameters indicating direction of origin
US20090282335A1 (en) * 2008-05-06 2009-11-12 Petter Alexandersson Electronic device with 3d positional audio function and method
JP5036797B2 (ja) 2009-12-11 2012-09-26 株式会社スクウェア・エニックス 発音処理装置、発音処理方法、及び発音処理プログラム
KR101844511B1 (ko) * 2010-03-19 2018-05-18 삼성전자주식회사 입체 음향 재생 방법 및 장치
US8665321B2 (en) * 2010-06-08 2014-03-04 Lg Electronics Inc. Image display apparatus and method for operating the same
KR101401775B1 (ko) * 2010-11-10 2014-05-30 한국전자통신연구원 스피커 어레이 기반 음장 합성을 이용한 음장 재생 장치 및 방법
JP5780755B2 (ja) 2010-12-24 2015-09-16 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、およびゲーム処理方法
JP5969200B2 (ja) * 2011-11-11 2016-08-17 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
KR20130098770A (ko) 2012-02-28 2013-09-05 한국전자통신연구원 입체감 확장형 가상 스포츠 체험 시스템
US20130279706A1 (en) * 2012-04-23 2013-10-24 Stefan J. Marti Controlling individual audio output devices based on detected inputs

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0991461A (ja) * 1995-09-26 1997-04-04 Nippon Telegr & Teleph Corp <Ntt> 音場制御装置
JP2003244786A (ja) * 2002-02-15 2003-08-29 Fujitsu Ltd 電子機器
JP2003257162A (ja) * 2002-02-27 2003-09-12 Yamaha Corp 音制御装置、音制御方法、プログラムおよび記録媒体
US20060067534A1 (en) * 2004-09-27 2006-03-30 Nintendo Co., Ltd. Storage medium storing stereo enhancement processing program, stereo enhancement apparatus and stereo enhancement method
JP2006094275A (ja) * 2004-09-27 2006-04-06 Nintendo Co Ltd ステレオ音拡大処理プログラムおよびステレオ音拡大装置
US20100034404A1 (en) * 2008-08-11 2010-02-11 Paul Wilkinson Dent Virtual reality sound for advanced multi-media applications
JP2012183256A (ja) * 2011-03-08 2012-09-27 Nintendo Co Ltd 情報処理システム、情報処理プログラム、および情報処理方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016088306A1 (ja) * 2014-12-03 2016-06-09 株式会社ソシオネクスト 音声再生システム
JP6207691B1 (ja) * 2016-08-12 2017-10-04 株式会社コロプラ 情報処理方法および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018026048A (ja) * 2016-08-12 2018-02-15 株式会社コロプラ 情報処理方法および当該情報処理方法をコンピュータに実行させるためのプログラム
JP6223533B1 (ja) * 2016-11-30 2017-11-01 株式会社コロプラ 情報処理方法および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018088946A (ja) * 2016-11-30 2018-06-14 株式会社コロプラ 情報処理方法および当該情報処理方法をコンピュータに実行させるためのプログラム
US10504296B2 (en) 2016-11-30 2019-12-10 Colopl, Inc. Information processing method and system for executing the information processing method
WO2024085444A1 (ko) * 2022-10-18 2024-04-25 삼성전자 주식회사 콘텐트를 제공하는 방법 및 디스플레이 장치

Also Published As

Publication number Publication date
US20140119580A1 (en) 2014-05-01
JP6055651B2 (ja) 2016-12-27
US9241231B2 (en) 2016-01-19

Similar Documents

Publication Publication Date Title
JP6055651B2 (ja) 情報処理システム、情報処理プログラム、情報処理制御方法、および情報処理装置
JP6243595B2 (ja) 情報処理システム、情報処理プログラム、情報処理制御方法、および情報処理装置
JP6147486B2 (ja) ゲームシステム、ゲーム処理制御方法、ゲーム装置、および、ゲームプログラム
JP5992210B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP6055657B2 (ja) ゲームシステム、ゲーム処理制御方法、ゲーム装置、および、ゲームプログラム
CN107277736B (zh) 模拟系统、声音处理方法及信息存储介质
JP6504157B2 (ja) 体感導入装置、体感導入システム、及び体感導入方法
TW201804315A (zh) 虛擬、擴充及混合實境
CN109691141B (zh) 空间化音频系统以及渲染空间化音频的方法
CN103218198A (zh) 运动用户的声音定位
JP2017119032A (ja) ゲーム装置及びプログラム
EP3477466A1 (en) Provision of virtual reality content
CN110270088A (zh) 异步虚拟现实交互
JP4688267B2 (ja) ゲーム装置及び情報記憶媒体
JP6616023B2 (ja) 音声出力装置、ヘッドマウントディスプレイ、音声出力方法及びプログラム
US9277340B2 (en) Sound output system, information processing apparatus, computer-readable non-transitory storage medium having information processing program stored therein, and sound output control method
JP4789145B2 (ja) コンテンツ再生装置及びコンテンツ再生プログラム
JP2019208185A (ja) 情報処理装置および音発生方法
JP6159515B2 (ja) ゲームシステム、ゲーム装置、ゲームプログラム、およびゲーム処理制御方法
JP7053074B1 (ja) 鑑賞システム、鑑賞装置及びプログラム
EP4306192A1 (en) Information processing device, information processing terminal, information processing method, and program
JP6603734B2 (ja) ゲームプログラムおよびゲーム装置
WO2022149497A1 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
WO2022149496A1 (ja) エンタテインメントシステムおよびロボット

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150907

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161205

R150 Certificate of patent or registration of utility model

Ref document number: 6055651

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250