JP3674808B2 - Audio processing method, game system, and recording medium - Google Patents

Audio processing method, game system, and recording medium Download PDF

Info

Publication number
JP3674808B2
JP3674808B2 JP19639797A JP19639797A JP3674808B2 JP 3674808 B2 JP3674808 B2 JP 3674808B2 JP 19639797 A JP19639797 A JP 19639797A JP 19639797 A JP19639797 A JP 19639797A JP 3674808 B2 JP3674808 B2 JP 3674808B2
Authority
JP
Japan
Prior art keywords
parameter
data
character
voice
audio data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP19639797A
Other languages
Japanese (ja)
Other versions
JPH1078792A (en
Inventor
治 笠井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Corp
Original Assignee
Konami Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Corp filed Critical Konami Corp
Priority to JP19639797A priority Critical patent/JP3674808B2/en
Publication of JPH1078792A publication Critical patent/JPH1078792A/en
Application granted granted Critical
Publication of JP3674808B2 publication Critical patent/JP3674808B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1081Input via voice recognition

Abstract

PROBLEM TO BE SOLVED: To output a voice as a game player likes by simple operation by reading out the voice data answering to a registered character, displaying a setting image for setting the parameter of the voice data and processing the voice data based on the value of the parameter. SOLUTION: A CPU 1 controls image processing, sound processing and internal processing based on the instructive contents instructed by the game player through a controller 22. The control of the sound processing is the processing of the sound data on a main memory 5 and specification of issue, etc., of a sound output command for a sound processing processor 13. Then, the sound data according to characters are recorded beforehand, and the strength, the pitch and the speed are revised under the environment that a GUI(graphical user interface) is ready by a setting picture related to respective sound data of constitutional characters of names registered on a register picture. Thus, capacity consumption of a recording medium 30 by the sound data are reduced most, and all names are able to be answered to.

Description

【0001】
【発明の属する技術分野】
本発明は、ゲームデータの記録された、光ディスク、磁気ディスク、半導体メモリを用いるゲームシステムに適用して好適な音声加工方法、ゲームシステム及び記録媒体に関する。
【0002】
【従来の技術】
ゲームシステムは数多く提案されている。家庭用の専用機とテレビジョンモニタとからなるシステム、業務用の専用機、パーソナルコンピュータ若しくはワークステーションとディスプレイと音声出力機とからなるシステム等である。これらのシステムは、何れも、プレーヤが操作するためのコントローラと、ゲームプログラムデータと画像や音声などのデータからなるゲームデータの記録された記録媒体と、ゲームプログラムデータに基いて音声や画像の生成のための制御を行うCPUと、画像を処理するためのプロセッサと、音声を処理するためのプロセッサと、画像を表示するためのCRTと、音声を出力するためのスピーカとで構成される。上記記録媒体としては、CD−ROM、半導体メモリ、半導体メモリを内蔵したカセット等が多い。ゲームシステムの構成は以上の通りである。
【0003】
一方、ゲームの種類は増加の一途をたどり、また、ゲームの内容は、日増しに複雑、且つ、多様化してきている。最近では、ゲームプレーヤの操作に応じて、ゲームプレーヤとゲーム空間上のキャラクタとの親密度を示すパラメータが可変され、当該パラメータの値に応じて、キャラクタからゲームプレーヤに対して様々なメッセージが送られるゲームまで登場している。代表的なものとして、恋愛シミュレーションゲームがあげられる。キャラクタからゲームプレーヤに対するメッセージの送出は、画面上に吹き出し及びこの吹き出し内に文字を示す画像を表示することで行われる。
【0004】
【発明が解決しようとする課題】
ところで、ゲーム空間上のキャラクタとゲームプレーヤが、擬似的にコミュニケーションをとるようなゲームでは、予めゲームプレーヤによって登録されたゲームプレーヤの名前が、あたかもゲーム空間上のキャラクタによって呼ばれるように、音声として出力されることが好ましい。ゲームプレーヤに、ゲーム空間上のキャラクタが人格を持った人間であるかのように錯覚させることにより、ゲームプレーヤが、よりゲームに没頭することができるようにするためである。つまり、このようなゲームでは、ゲームプレーヤが、ゲーム空間上のキャラクタを、人格を持ったゲーム空間上の人間として認めることが、ゲームとして成立するための必須要件である。
【0005】
ゲームプレーヤの名前を音声として出力するためには、殆どのゲームプレーヤの名前に対応すべく、予め記録媒体に多数の音声データを記録すること、並びに、ゲームプレーヤが名前を選択できるようにすることが必要である。このようにすると、ゲームプレーヤは、画面上に文字として表示される多数の名前の内から、自分の名前、若しくは自分が所望する名前を選択することができる。名前が選択されると、ゲームシステムのCPUは、音声データを記録媒体から読み出し、当該音声データをメモリに記憶し、更に音声データのメモリ上におけるアドレスを記憶する。そして、CPUは、ゲームの進行中に、必要に応じて上記アドレスが示す上記メモリ上の記憶位置から音声データを読み出し、当該音声データを、音声を処理するためのプロセッサに供給する。これによって、ゲームプレーヤの選択した名前が、音声としてスピーカから出力される。
【0006】
しかしながら、上記音声データは、予めゲーム製造メーカーが用意したデータなので、上記音声データがスピーカから出力される音声は、ゲームプレーヤが気に入るような音声であるとは限らない。
【0007】
また、音声データは、1つの名前毎に予め記録媒体に記録されるので、全てのゲームプレーヤの名前に対応することは不可能であり、また、記録媒体の製造時における音声データの記録による記録媒体の消費容量も大きくなりる。
【0008】
本発明はこのような点を考慮してなされたもので、ゲームプレーヤの好みの音声を簡単な操作で出力できるようにすると共に、記録媒体の製造時における音声データによる記録媒体の消費容量を低減し、ゲームプレーヤ固有の条件に対応することを目的とする。
【0009】
【課題を解決するための手段】
主要な発明の1つは、択可能な文字の画像を含む文字列の登録画面を表示する登録画面表示ステップと、上記登録画面上で選択された文字のそれぞれに対応する音声データを読み出す音声データ読み出しステップと、上記音声データ読み出しステップにおいて読み出された音声データを記憶部に記憶させるステップと、上記記憶部に記憶される音声データのパラメータを設定するためのパラメータ設定画像を文字毎に有する設定画面を表示する設定画面表示ステップと、操作部の操作に応じて、該操作において指定された文字に対応する上記パラメータ設定画像の一部を、視覚的にパラメータの値の増減を認識できるように変形させるとともに、パラメータの値を変更するパラメータ値変更ステップと、上記パラメータ値変更ステップにおいてパラメータの値が変更されるとき、該パラメータの値に基いて、上記記憶部に記憶される音声データのうち上記指定された文字に対応する音声データを変更する音声データ処理ステップと、操作部の操作に応じて、上記記憶部に記憶される音声データに基いて、上記登録画面において登録された文字列の音声データを生成するステップと、を含むものである。また、上記発明において、上記設定画面は、上記記憶部に記憶される音声データに基く波形画像をさらに文字毎に有し、上記音声データ処理ステップは、変更後の音声データに基いて、上記波形画像を更に変更するようにしてもよい。
【0010】
また、上記発明において、上記パラメータは、強さ、ピッチ及び速度であるようにしてもよい
【0011】
また、上記発明において、上記パラメータ設定画像は、上記パラメータ毎に設けられるようにしてもよい
【0012】
また、上記発明において、上記音声データを生成するステップは、複数の音声データ間をクロスフェード処理により接続するようにしてもよい
【0013】
【発明の実施の形態】
以下に、図1〜図10を順次参照して本発明の実施の形態について詳細に説明する。
【0014】
本発明の実施の形態の説明は、次に示す項目説明を各項目の先頭に記載し、各項目について次に示す順序で説明する。
【0015】
A.ゲームシステムの構成(図1)
B.図1に示したCPU1の有する機能(図2)
C.画面表示例(図3及び図4)
D.ゲームプログラムのメインルーチンによる制御動作(図5及び図6)
E.音声加工処理ルーチンによる制御動作(図7〜図10)
【0016】
A.ゲームシステムの構成(図1)
【0017】
図1は、本発明の一実施の形態としてのゲームシステムの構成例を示す構成図である。
【0018】
〔接続及び構成〕
この図1に示されるゲームシステムは、ゲーム機本体と、画像や音声、並びにプログラムデータからなるゲームデータの記録された記録媒体30とからなる。ゲーム機本体は、CPU1と、このCPU1に、グラフィックデータ生成プロセッサ3、並びにアドレス、データ及びコントロールバスからなるバス2が接続され、このバス2に、インターフェース回路4、メインメモリ5、ROM6、伸張回路7、パラレルポート8、シリアルポート9、描画処理プロセッサ10及びバッファ11、音声処理プロセッサ13及びバッファ14、デコーダ17及びバッファ18、インターフェース回路20及びメモリ21とが夫々接続され、更に、描画処理プロセッサ10にテレビジョンモニタ12が接続され、音声処理プロセッサ13に増幅回路15を介してスピーカ16が接続され、デコーダ17に記録媒体ドライバ19が接続され、インターフェース回路20にコントローラ22が接続されて構成される。
【0019】
ここで、上記ゲームシステムは、用途に応じてその形態が異なる。即ち、上記ゲームシステムが、家庭用として構成されている場合においては、テレビジョンモニタ12及びスピーカ16は、ゲーム機本体とは別体となる。また、上記ゲームシステムが、業務用として構成されている場合においては、図1に示されている構成要素はすべて一体型となっている1つの筺体に収納される。また、上記ゲームシステムが、パーソナルコンピュータやワークステーションを核として構成されている場合においては、上記テレビジョンモニタ12は、上記コンピュータ用のディスプレイに対応し、上記描画処理プロセッサ10、音声処理プロセッサ13、伸張回路7は、夫々上記記録媒体30に記録されているゲームプログラムデータの一部若しくはコンピュータの拡張スロットに搭載される拡張ボードやマザーボード上のハードウエアに対応し、上記インターフェース回路4、上記パラレルポート8、上記シリアルポート9及びインターフェース回路20は、コンピュータの拡張スロットに搭載される拡張ボード上のハードウエアに対応する。また、上記バッファ11、14及び18は、夫々メインメモリ5若しくは図示しない拡張メモリの各エリアに対応する。本形態では、上記ゲームシステムが、家庭用として構成されている場合を例にとり説明する。
【0020】
次に、図1に示した各構成要素についてより詳細に説明する。グラフィックスデータ生成プロセッサ3は、CPU1のいわばコプロセッサとしての役割を果たす。即ち、このグラフィックスデータ生成プロセッサ3は、座標変換や光源計算、例えば固定小数点形式の行列やベクトルの演算を、並列処理により行う。このグラフィックスデータ生成プロセッサ3の主な処理は、座標変換処理及び光源計算処理である。座標変換処理は、CPU1から供給される画像データの2次元若しくは3次元面内における各頂点の絶対座標データを、移動量データ及び回転量データに基いて、処理対象画像の表示エリア上におけるアドレスを求め、当該アドレスデータを、再びCPU1に返す処理である。この座標変換処理については後に詳述する。
【0021】
また、光源計算処理は、光線のベクトルデータと、ポリゴンの面の向きを表す法線データと、面の色を示すデータとに応じて、画像の輝度を計算する処理である。
【0022】
上記インターフェース回路4は、周辺デバイス、例えばマウスやトラックボール等のポインティングデバイス等のインターフェース用である。上記ROM6にゲームシステムのオペレーティングシステムとしてのプログラムデータが、記憶されている。パーソナルコンピュータで言えば、BIOS(Basic Input Output System)に相当する。
【0023】
上記伸張回路7においては、MPEG(Moving Picture Engineering Group)やJPEG(Joint Picture Engineering Group)に準拠したイントラ符号化により圧縮された圧縮画像に対し、伸張処理が施される。伸張処理は、デコード処理(VLC:Variable Length Codeによりエンコードされたデータのデコード)、逆量子化処理、IDCT(Inverse Discrete Cosine Transform)処理、イントラ画像の復元処理等である。
【0024】
描画処理プロセッサ10は、CPU1が発行する描画命令に基いて、バッファ11に対する描画処理を行う。バッファ11は、表示エリアと非表示エリアとからなる。表示エリアは、テレビジョンモニタ12の表示面上に表示されるデータの展開エリアである。非表示エリアは、テクスチャデータやカラーパレットデータ等の記憶エリアである。ここで、テクスチャデータは、2次元の画像データである。カラーパレットデータは、テクスチャデータ等の色を指定するためのデータである。これらのデータは、CPU1により、記録媒体30から1回、若しくはゲームの進行状況に応じて複数回に分けて読み出され、予めバッファ11の非表示エリアに記憶される。
【0025】
描画命令としては、例えばラインを描画するための描画命令、ポリゴンを用いて立体的な画像を描画するための描画命令、通常の2次元画像を描画するための描画命令がある。ここで、ポリゴンは、多角形の2次元画像である。
【0026】
ラインを描画するための描画命令は、ラインの描画開始及び終了アドレス、色及びライン描画を意味するデータからなる。このライン描画命令は、CPU1により、直接、描画処理プロセッサ10に対して発行される。
【0027】
ポリゴンを用いて立体的な画像を描画するための描画命令は、バッファ11の表示エリア上におけるポリゴン頂点アドレスデータ、ポリゴンに貼り付けるテクスチャデータのバッファ11上における記憶位置を示すテクスチャアドレスデータ、テクスチャデータの色を示すカラーパレットデータのバッファ11上における記憶位置を示すカラーパレットアドレスデータ並びにテクスチャの輝度を示す輝度データとからなる。これらのデータの内、ポリゴン頂点アドレスデータは、グラフィックスデータ生成プロセッサ3が、CPU1からの、ポリゴン絶対座標データと、ポリゴンの動きを示すデータと、視点位置の動きを示すデータとに基いて演算を行うことによって得られる。
【0028】
通常の2次元画像を描画するための描画命令は、頂点アドレスデータ、テクスチャアドレスデータ、カラーパレットアドレスデータ並びにテクスチャの輝度を示す輝度データとからなる。これらのデータの内、頂点アドレスデータは、グラフィックスデータ生成プロセッサ3が、CPU1からの平面上における頂点座標データを、CPU1からの移動量データに基いて、座標変換して得られる座標データである。以下、描画処理については、「描画命令を発行する」等のように簡略化して記載する。
【0029】
音声処理プロセッサ13は、記録媒体30から読み出されたPCM或いはADPCMデータを、バッファ14若しくはメインメモリ5に記憶し、このバッファ14若しくはメインメモリ5に記憶されたPCM或いはADPCMデータを音源とする。勿論、記録媒体30内の半導体メモリそのものが音源になる場合もある。そして、音声処理プロセッサ13は、PCM或いはADPCMデータを、例えば44.1KHzの周波数のクロックで読み出す。そして音声処理プロセッサ13は、バッファ14、メインメモリ5ないし記録媒体30から読み出したPCM或いはADPCMデータに対し、ピッチの変換、ノイズの付加、エンベロープの設定、レベルの設定、リバーブの付加等の処理を施す。
【0030】
音声処理プロセッサ13が、ADPCMデータを扱うタイプの場合、且つ、記録媒体30から読み出された音声データを加工する必要がある場合には、次のようになる。即ち、記録媒体30から読み出されたPCMデータは、CPU1によって種々の加工処理が施され、その後、再度CPU1によってADPCMデータにエンコードされ、バッファ14若しくはメインメモリ5に記憶される。ADPCMフォーマットのデータにエンコードされたデータ、若しくは加工後のPCMデータは、音声処理プロセッサ13に供給されて上述した各種処理が施された後に、音声としてスピーカ16から出力される。
【0031】
記録媒体ドライバ19は、例えばハードディスクドライブ、光ディスクドライブ、フレキシブルディスクドライブ、シリコンディスクドライブ、カセット媒体読みとり機等である。記録媒体30は、例えばハードディスク、光ディスク、フレキシブルディスク、半導体メモリ等である。記録媒体ドライバ19は、記録媒体30から画像、音声、ゲームプログラムデータを読み出し、読み出したデータを、デコーダ17に供給する。デコーダ17は、記録媒体ドライバ19からの再生データに対し、ECC(Error Correction Code)によるエラー訂正処理を施し、エラー訂正処理を施したデータを、メインメモリ5若しくは音声処理プロセッサ13に供給する。
【0032】
メモリ21は、例えば、ホルダ及びカード型のメモリからなる。カード型のメモリは、例えば終了時点の状態を保持する等のように、ゲームの各種パラメータを保持するためのものである。コントローラ22は、左キーL、右キーR、上キーU、下キーDからなる十字キーと、左ボタン22L、右ボタン22R、スタートボタン22a、セレクトボタン22b、第1ボタン22c、第2ボタン22d、第3ボタン22e、第4ボタン22fとからなる。十字キーは、ゲームプレーヤが、CPU1に対し、上下左右を示すコマンドを与えるものである。スタートボタン22aは、ゲームプレーヤが、記録媒体30からロードされるゲームプログラムデータの開始を、CPU1に指示するためのものである。セレクトボタン22bは、ゲームプレーヤが、記録媒体30からメインメモリ5にロードされるゲームプログラムデータに関する各種選択を、CPU1に指示するためのものである。尚、左キー22L、右キー22R、第1〜第4ボタン22c、22d、22e、22fの機能は、記録媒体30からロードされるゲームプログラムデータによって異なる。
【0033】
〔動作〕
電源スイッチ(図示せず)がオンにされ、ゲームシステムに電源が投入される。このとき、記録媒体30が、記録媒体ドライバ19に装填されていると、CPU1が、ROM6に記憶されているオペレーティングシステムに基いて、記録媒体ドライバ19に対し、記録媒体30からのゲームデータの読み出しを指示する。これにより、記録媒体ドライバ19は、記録媒体30から画像、音声及びゲームプログラムデータを読み出す。読み出された画像、音声及びゲームプログラムデータは、デコーダ17に供給され、ここで、エラー訂正処理が施される。デコーダ17においてエラー訂正処理の施された画像データは、バス2を介して伸張回路7に供給され、ここで、上述した伸張処理が施された後に、描画処理プロセッサ10に供給され、この描画処理プロセッサ10により、バッファ11の非表示エリアに書き込まれる。
【0034】
デコーダ17においてエラー訂正処理の施された音声データは、メインメモリ5若しくは音声処理プロセッサ13に供給され、メインメモリ5若しくはバッファ14に書き込まれる。また、デコーダ17においてエラー訂正処理の施されたゲームプログラムデータは、メインメモリ5に供給され、このメインメモリ5に書き込まれる。以降、CPU1は、メインメモリ5に記憶されているゲームプログラムデータ、並びにゲームプレーヤが、コントローラ22を介して指示する内容に基いて、ゲームを進行する。
【0035】
即ち、CPU1は、コントローラ22を介してゲームプレーヤから指示される指示内容に基いて、適宜、画像処理の制御、音声処理の制御、内部処理の制御を行う。画像処理の制御とは、上述した回転量及び移動量データや絶対座標データのグラフィックスデータ生成プロセッサ3への供給、グラフィックスデータ生成プロセッサ3が求めたバッファ11の表示エリア上のアドレスデータや輝度データを含む描画命令の発行等である。音声処理の制御とは、メインメモリ5上の音声データの処理や、音声処理プロセッサ13に対する音声出力コマンドの発行、レベル、リバーブ等の指定である。内部処理の制御とは、例えばコントローラ22の操作に応じた演算等である。
【0036】
B.図1に示したCPU1の有する機能(図2)
【0037】
図2は、図1に示したCPU1の有する機能を示す説明図である。CPU1は、図1に示した記録媒体30から読み出され、メインメモリ5に記憶されたプログラムデータを読むことにより、図2に示す機能を持つ。この図2に示されているCPU1の機能は、ボタン操作検出手段1a、変数設定手段1b、演算手段1c、判断手段1d、ボリウム手段1e、ピッチシフト手段1f、時間軸圧縮手段1g、クロスフェード手段1h、音声出力命令発行手段1i、画像変換手段1j、描画命令発行手段1k、エンコード手段1mと、テーブル1nとで構成される。ここで、上記クロスフェード手段1hは、ボリュームのクロスフェード、音色のクロスフェード(時間軸に対する音色の変化をスムーズに行うクロスフェード)、ピッチのクロスフェード(時間軸に対する音程の変化をスムーズに行うクロスフェード)の3つのクロスフェード機能を有する。また、これらの手段は、項目D及び項目Eにおいて説明する制御の主体となる。
【0038】
C.画面表示例(図3及び図4)
【0039】
図3及び図4は、夫々、画面表示例を示す説明図である。本形態は、ゲームプレーヤとゲーム空間上のキャラクタとが擬似的にコミュニケーションをとるゲーム、若しくはこのような場面のあるゲームを前提とする。つまり、CPU1の制御により、ゲームプレーヤの名前が音声としてスピーカから出力されると共に、ゲーム空間上のキャラクタがゲームプレーヤの名前を呼んでいるような視覚的処理が行われる。これにより、ゲーム空間上のキャラクタがゲームプレーヤに呼びかけているような錯覚を、ゲームプレーヤに与えることができる。よって、ゲームプレーヤは、よりゲームに没頭することができる。以下、「ゲームプレーヤの名前を音声としてスピーカから出力すると共に、ゲーム空間上のキャラクタがゲームプレーヤの名前を呼んでいるような視覚的処理を行うこと」を、「ゲーム空間上のキャラクタがゲームプレーヤの名前を呼ぶ」等のように記述する。
【0040】
そして、本形態では、ゲームの開始前に、図3Aに示される登録画面が表示される。この登録画面は、ゲームプレーヤが、自分の名前を登録するためのものである。ゲームプレーヤの名前が登録されると、図4に示される設定画面が表示される。この設定画面は、登録された名前の構成文字に夫々対応する音声データを加工するためのものである。加工された名前の構成文字に夫々対応する音声データは、ゲームの進行中に、「キャラクタがゲームプレーヤの名前を呼ぶ」ことが必要となったときに、スピーカ16から音声として出力される。
【0041】
図3Aに示される登録画面は、50音の文字を示す画像と、図1に示したコントローラ22の十字キーの操作により、上記50音の文字の画像及び「終了」の文字画像の表示位置に移動するように表示されるカーソル画像CAと、選択された文字列の画像が表示されるエリアAr1と、登録したい文字の選択が全て終了したことをCPU1に指示するための「終了」の文字画像が表示されるエリアAr2とからなる。尚、本形態では、個々の文字の決定は、コントローラ22の第4ボタン22fの押圧により行われる。例えば、「たろう」という名前は、最初に「た」、次に「ろ」、次に「う」の文字が十字キーの操作及び第4ボタン22fの押圧により選択され、続いて、「終了」の文字が十字キーの操作で選択され、次に、第4ボタン22fの押圧により決定されることにより登録される。
【0042】
図4に示される設定画面は、音の強さを設定するためのゲージ画像Bar1と、音のピッチを設定するためのゲージ画像Bar2と、音の速度を設定するためのゲージ画像Bar3と、設定された強さ、ピッチ及び速度に応じた音の波形画像を表示するためのエリアAr1と、上記音に対応する文字を表示するためのエリアAr2と、設定されている音声の出力をCPU1に指示するための「確認」の文字画像B1と、全ての音の設定を終了したことをCPU1に報知するための「終了」の文字画像B2とからなる。
【0043】
1つの文字について、波形表示エリアAr1、文字表示エリアAr2、ゲージ画像Bar1、Bar2及びBar3が表示される。この例では、「た」、「ろ」及び「う」の文字が選択されている場合について示されている。従って、上記ゲージ画像Bar1、Bar2及びBar3、エリアAr1、並びにエリアAr2は、「た」、「ろ」、「う」について夫々表示される。ゲージ画像Bar1、Bar2、Bar3の選択は、十字キーの上キーU若しくは下キーDの操作により行われる。選択されているゲージ画像Bar1、Bar2、Bar3は、その枠部分が強調して表示される。この例では、「た」の文字に対応する強さの設定用のゲージ画像Bar1が、選択されている。ゲージ画像Bar1、Bar2、Bar3が選択されている状態で、十字キーの右キーRが押される都度、ゲージ画像Bar1、Bar2、Bar3の長さが右方向に伸び、且つ、各パラメータの値が大きくなる。また、十字キーの左キーLが押される都度、ゲージ画像Bar1、Bar2、Bar3の長さが左方向に縮み、且つ、各パラメータの値が小さくなる。そして、上記パラメータの値の変化に応じて、波形表示エリアAr1に表示されている波形画像の形状が変化する。
【0044】
ちなみに、強さのパラメータは、例えば、名前のどの文字の音声データを強く出力するかを決定するパラメータである。ピッチのパラメータは、音声の高低を決定するパラメータである。速度のパラメータは、音声の出力時間を決定するためのパラメータである。
【0045】
以上が、登録画面上における名前の登録、設定画面上における音声の加工である。尚、内部的な処理については、後に詳述する。
【0046】
D.メインルーチンによる制御動作(図5及び図6)
【0047】
図5及び図6は、ゲームのメインルーチンによる制御動作を説明するためのフローチャートである。
【0048】
尚、ステップS1のみ、図1に示したROM6に記憶されているオペレーティングシステムによる制御動作である。他のステップは、記録媒体30から読み出されたゲームプログラムデータによる制御動作である。また、ゲームプログラムデータによる制御の主体は、既に説明したように、図2に示したCPU1の機能としての各手段である。
【0049】
ステップS1では、オペレーティングシステムの命令により、記録媒体ドライバ19が、記録媒体30から画像、音声及びゲームプログラムデータを読み出す。読み出されたデータの内、プログラムデータは、メインメモリ5に記憶される。これにより、CPU1は、図2に示した機能を有する。尚、このとき、画像、即ち、テクスチャデータは、描画処理プロセッサ10のバッファ11の非表示エリアに記憶され、夫々テクスチャ番号が割り当てられるものとする。また、音声データは、音声処理プロセッサ13のバッファ14に記憶され、夫々音声番号データが割り当てられるものとする。通常、すべての画像及び音声データが、ステップS1においてバッファ11及び14に保持されることはないが、説明の便宜上、すべての画像及び音声データが、ステップS1においてロードされるものとする。
ステップS2では、ボタン操作検出手段1aが、コントローラ22のスタートボタン22aが押された否かを判断し、「YES」であればステップS3に移行する。
【0050】
ステップS3では、描画命令発行手段1kが、セレクト画像の描画を示す描画命令を、図1に示した描画処理プロセッサ10に対して発行する。描画処理プロセッサ10は、上記描画命令に基いて、セレクト画像の画像データを、バッファ11の表示面上に展開する。これにより、テレビジョンモニタ12の表示面上には、セレクト画像が表示される。
ステップS4では、ボタン操作手段1aが、コントローラ22のスタートボタン22aが押されたか否かを判断し、「YES」であればステップS5に移行する。
【0051】
ステップS5では、CPU1が、セレクトされたゲームにセットする。ここで、「セレクトされる」とは、ゲームプレーヤが、ステップS3で表示されたセレクト画像を参照して、十字キーを用いてゲームを選択し、この後に、スタートボタン22aを押すことを意味する。また、ここで「ゲーム」とは、ゲームそのものの他、例えば対戦型格闘ゲームにおけるキャラクタ等も含む。要するに、ゲームが実際に開始される前の選択事項である。
ステップS6では、描画命令発行手段1kが、セレクトされたゲームの初期画像の描画を示す描画命令を、描画処理プロセッサ10に対して発行する。この描画命令により、描画処理プロセッサ10は、バッファ11の表示エリア上に初期画像の画像データを書き込む。これにより、テレビジョンモニタ12の表示面上には、初期画像が表示される。
【0052】
ステップS7では、CPU1が、メインメモリ5に保持しているフラグや変数を夫々リセットする。
ステップS100では、音声加工処理が行われる。この音声加工処理ルーチンS100については、後に詳述する。
【0053】
ステップS8では、描画命令発行手段1kが、初期画像情報を出力することを示す描画命令を、描画処理プロセッサ10に対して発行する。
ステップS9では、判断手段1dが、音声出力処理か否かを判断する。ここで、「音声出力処理」とは、例えばキャラクタがゲームプレーヤの名前を呼ぶこと、即ち、図4に示した設定画面上で設定されたゲームプレーヤの名前の音声データを、スピーカ16から出力することである。
【0054】
ステップS150では、音声出力処理が行われる。
ステップS200では、他の処理が行われる。
【0055】
ステップS10では、判断手段1dが、ボタン操作検出手段1aから供給される操作内容を示すデータに基いて、ゲームプレーヤによるセーブ指示が有るか否かを判断し、「YES」と判断した場合には、ステップS11に移行し、「NO」と判断した場合には、再びステップS9に移行する。
ステップS11では、CPU1が、現時点における各種パラメータデータを、インターフェース回路20を介してメモリ21に供給する。これにより、各種パラメータデータは、メモリ21に記憶される。メモリ21に記憶された各種パラメータデータは、次にゲームが開始されたときに、メインメモリ5にロードされる。CPU1は、ロードされた各種パラメータデータを用いることにより、前回の進行位置からゲームを開始する。
【0056】
ステップS12では、判断手段1dが、ボタン操作検出手段1aから供給される操作内容を示すデータに基いて、ゲームプレーヤによるセーブ指示が有るか否かを判断し、「YES」であればステップS13に移行し、「NO」であれば再びステップS9に移行する。
ステップS13では、描画命令発行手段1kが、終了用の画像情報の出力を示す描画命令を、描画処理プロセッサ10に対し発行する。この描画命令により、描画処理プロセッサ10は、バッファ11の表示エリア上に終了用の画像データを書き込む。これにより、テレビジョンモニタ12の表示面上には、終了用の画像が表示される。
【0057】
E.音声加工処理ルーチンによる制御動作(図7〜図10)
【0058】
図7〜図11は、図3に示した音声加工処理ルーチンの内容を示すフローチャートである。
【0059】
ステップS101では、描画命令発行手段1kが、登録画像の表示を示す描画命令を、描画処理プロセッサ10に対して発行する。描画処理プロセッサ10は、登録画像データを、バッファ11の表示エリアに書き込む。これにより、テレビジョンモニタ12の表示面上には、図3Aに示したような登録画像が表示される。
ステップS102では、CPU1が、文字データ及びこの文字データに対応する音声データの記録媒体上のアドレスデータとからなるテーブルを読み出すことを示す命令を、記録媒体ドライバ19に対して発行する。記録媒体ドライバ19は、上記命令に基いて、記録媒体30からテーブルデータを読み出す。読み出されたテーブルデータは、デコーダ17を介してメインメモリ5に供給され、メインメモリ5に記憶される。
【0060】
ステップS103では、ボタン操作検出手段1aが、十字キーが押された否かを判断し、「YES」であればステップS104に移行する。
ステップS104では、描画命令発行手段1kが、押されたキーに対応する位置に、図3Aに示したカーソル画像CAを表示することを示す描画命令を、描画処理プロセッサ10に対して発行する。描画処理プロセッサ10は、カーソル画像データCAを、バッファ11の表示エリアに書き込む。これにより、テレビジョンモニタ12の表示面上には、カーソル画像CAが表示される。またこのとき、CPU1は、押されているキーに対応するテーブル上の位置データを、一時的に記憶する。ここで、カーソル画像CAの位置を変更するために有効となるキーは、上キーU及び下キーDである。
【0061】
ステップS105では、ボタン操作検出手段1aが、第4ボタン22fが押されたか否かを判断し、「YES」であればステップS106に移行し、「NO」であれば再びステップS103に移行する。
ステップS106では、判断手段1dが、選択され決定された位置が、「終了」の文字の表示位置か否かを判断し、「YES」であればこの音声加工処理ルーチンS100を抜け、「NO」であればステップS107に移行する。
【0062】
ステップS107では、CPU1が、登録された文字数を示す値を文字数データMとして、メインメモリ5に記憶する。
【0063】
ステップS108では、演算手段1cが、文字数データMの3倍の値を求める。そして、CPU1は、文字数データMの3倍の値を、ポインタデータPの最大値データPmaxとして、メインメモリ5に記憶する。ここで、ポインタデータPは、強さ、ピッチ及び速度の各ゲージ画像Bar1、Bar2、Bar3を示す。例えば図4に示した「た」の文字に対応するゲージ画像Bar1、Bar2、Bar3、「ろ」の文字に対応するゲージ画像Bar1、Bar2、Bar3、「う」の文字に対応するゲージ画像Bar1、Bar2、Bar3には、1〜9までの番号が割り当てられている。従って、例えばポインタデータPの値が“9”の場合には、「う」の文字に対応する「速度」のゲージ画像Bar3が選択される。また、ポインタデータPの最大値データPmaxの値が文字数データMの「3倍」とされるのは、1つの文字に対応する音声データのパラメータが3つだからである。
ステップS109では、CPU1が、ステップS104において一時的に記憶したテーブル上の位置データを、メインメモリ5に記憶する。
【0064】
ステップS110では、テーブル上の位置データについてテーブルに登録されているアドレスデータを、読み出し命令と共に、記録媒体ドライバ19に供給する。記録媒体ドライバ19は、上記アドレスデータに基いて、記録媒体30上から音声データを読み出す。記録媒体30から読み出された音声データは、デコーダ17を介してメインメモリ5に供給され、メインメモリ5に記憶される。
ステップS111では、CPU1が、記録媒体ドライバ19に対し、各パラメータの初期値データの記録されているアドレスデータ及び読み出し命令を、供給する。これにより、記録媒体ドライバ19は、記録媒体30から各パラメータの初期値データを読み出す。読み出された各パラメータの初期値データは、デコーダ17を介してメインメモリ5に供給され、メインメモリ5に記憶される。
【0065】
ステップS112では、CPU1が、各パラメータの初期値データの値に対応したゲージ画像を示すテクスチャアドレスデータを、選択する。ここで、ゲージ画像は、パラメータの値に応じて複数種類用意されている。例えばパラメータの値が、1から10までの場合には、10種類のゲージ画像が用意される。ここでは、各パラメータの値が夫々初期値であるから、強さ、ピッチ及び速度の各ゲージ画像Bar1、Bar2、Bar3を夫々表示するために、同一の長さのゲージ画像が選択される。
ステップS113では、画像変換手段1jが、音声データを、画像データに変換する。ここで、画像変換手段1jは、PCM音声データのサンプル点毎のレベルデータの圧縮値を、メインメモリ5上におけるy方向アドレスの値とすることにより、PCM音声データのサンプル毎のレベルデータを、メインメモリ5上でマッピングする。このとき、x軸上における各サンプル間の距離は、例えばnピクセル分である。続いて、画像変換手段1jは、各サンプル間の補間処理を行う。これにより、図4に示すような波形画像を得ることができる。
【0066】
ステップS114では、描画命令発行手段1jが、設定画像を表示することを示す描画命令、並びに波形画像データ及びゲージ画像を示すテクスチャアドレスデータを、描画処理プロセッサ10に対して供給する。これにより、描画処理プロセッサ10は、バッファ11の表示エリア上に、設定画像データ、波形画像データ及びゲージ画像データを書き込む。従って、テレビジョンモニタ12の表示面上には、図4に示した設定画像が表示される。但し、各パラメータの値は初期値であるから、この図4に示される状態と異なり、各ゲージ画像Bar1、Bar2、Bar3の長さは同一となる。
ステップS115では、変数設定手段1bが、ポインタデータPの値を“1”にする。すると、描画命令発行手段1kが、ポインタデータPの値に対応する位置のゲージ画像Bar1、Bar2またはBar3の輝度データを、描画処理プロセッサ10に供給する。ここで、上記画像は、図4に示したゲージ画像Bar1、Bar2、Bar3である。また、上記輝度データの値は、最大の値に近い値である。描画処理プロセッサ10は、ポインタデータPの値に対応する位置のゲージ画像Bar1、Bar2またはBar3の輝度値を、上記輝度データの値が示す輝度値に変更する。これにより、テレビジョンモニタ12の表示面上における上記ポインタデータPの値に対応する位置のゲージ画像Bar1、Bar2またはBar3の輝度が、他のゲージ画像Bar1、Bar2及びBar3と比較して高くなる。
【0067】
ステップS116では、ボタン操作検出手段1aが、十字キーが押されたか否かを判断し、「YES」であればステップS117に移行する。
ステップS117では、ボタン操作検出手段1aが、上キーUが押されたか否かを判断し、「YES」であればステップS118に移行し、「NO」であればステップS122に移行する。ここで、上キーUは、ポインタデータPの値をインクリメントするためのキーである。
【0068】
ステップS118では、判断手段1dが、ポインタデータPの値がポインタデータPの最大値Pmaxか否かを判断し、「YES」であればステップS119に移行し、「NO」であればステップS120に移行する。
ステップS119では、演算手段1cが、ポインタデータPに“1”を代入する。
【0069】
ステップS120では、演算手段1dが、ポインタデータPに“1”を加算する。
ステップS121では、描画命令発行手段1kが、ポインタデータPの値に対応する位置の画像の輝度データを、描画処理プロセッサ10に対して発行する。描画処理プロセッサ10は、上記輝度データに基いて、ポインタデータPの値に対応する位置のゲージ画像Bar1、Bar2またはBar3の輝度を変更する。これにより、テレビジョンモニタ12の表示面上に表示されている、ポインタPの値に対応するゲージ画像Bar1、Bar2またはBar3の輝度は、他のゲージ画像Bar1、Bar2及びBar3の輝度よりも高くなる。
【0070】
ステップS122では、ボタン操作検出手段1aが、下キーDが押されたか否かを判断し、「YES」であればステップS123に移行し、「NO」であればステップS126に移行する。ここで、下キーDは、ポインタデータPの値をデクリメントするためのキーである。
ステップS123では、判断手段1dが、ポインタデータPの値が“1”か否かを判断し、「YES」であればステップS124に移行し、「NO」であればステップS125に移行する。
【0071】
ステップS124では、演算手段1cが、ポインタデータPにポインタデータPの最大値データPmaxを代入する。
ステップS125では、演算手段1dが、ポインタデータPから“1”を減算する。
【0072】
ステップS126では、ボタン操作検出手段1aが、第4ボタン22fが押されたか否かを判断し、「YES」であればステップS127に移行し、「NO」であれば再びステップS116に移行する。
ステップS127では、ボタン操作検出手段1aが、十字キーが押されたか否かを判断し、「YES」であればステップS128に移行する。
【0073】
ステップS128では、ボタン操作検出手段1aが、上キーUが押されたか否かを判断し、「YES」であればステップS129に移行し、「NO」であればステップS132に移行する。
ステップS129では、演算手段1cが、ポインタデータPの値に対応するパラメータデータPdに対し、基準値データRefを加算する。本形態においては、基準値データの値を“1”とする。
【0074】
ステップS130では、判断手段1dが、パラメータデータPdの値が最大値Pdmaxよりも大きいか否かを判断し、「YES」であればステップS131に移行し、「NO」であればステップS136に移行する。
ステップS131では、変数設定手段1bが、パラメータデータPdに、最大値Pdmaxを代入する。本形態においては、パラメータデータPdの値を“1”から“10”の範囲内の値とする。また、強さ、ピッチ及び速度は、上記パラメータデータPdの値に応じて変化量が決められている。
【0075】
強さは、PCM音声データのボリウム値の変更によって変えることができる。16ビットPCM音声データの場合においては、上記16ビットPCM音声データは、上記パラメータデータPdの値の“1”の増減に対して、16ビットで表される最大値/10だけ各サンプルについて増減する。
ピッチは、PCM音声データの間引き若しくは補間によって変えることができる。サンプリング時間が1秒、サンプリング周波数が44.1KHzの1文字分の16ビットPCM音声データでは、上記パラメータPdの値のデフォルト値を“0”として、±5の増減に対して、2〜3サンプル毎に1サンプル分のレベルデータの間引き若しくは補間となる。
速度は、数学的演算によって行う。例えば、元の波形をフーリエ変換して、各帯域毎の周波数特性を求め、演算で元に戻す(逆フーリエ変換)ときにサンプル数を増減する方法や、同じような波形が連続しているものについては、似た波形を抽出してカットないし重複させて行う方法等がある。
【0076】
ステップS132では、ボタン操作検出手段1aが、下キーUが押されたか否かを判断し、「YES」であればステップS133に移行し、「NO」であれば再びステップS128に移行する。
ステップS133では、演算手段1cが、ポインタデータPの値に対応するパラメータデータPdから、基準値データRefを減算する。
【0077】
ステップS134では、判断手段1dが、パラメータデータPdの値が最小値Pdminよりも小さいか否かを判断し、「YES」であればステップS135に移行し、「NO」であればステップS136に移行する。
ステップS135では、変数設定手段1bが、パラメータデータPdに、最小値Pdminを代入する。
【0078】
ステップS136では、描画命令発行手段1kが、パラメータデータPdの値に対応するゲージ画像Bar1、Bar2またはBar3の描画を示す描画命令を、描画処理プロセッサ10に対して発行する。既に説明したように、ゲージ画像は、“1”から“10”までのパラメータデータPdの値に夫々対応した長さのものが10種類用意されている。そして、この10種類のゲージ画像は、バッファ11の非表示エリアに記憶されている。描画命令発行手段1kは、パラメータデータPdの値に対応するゲージ画像が記憶されている、上記バッファ11上のアドレスを示すテクスチャアドレスデータを、描画処理プロセッサ10に供給する。
ステップS137では、ボリウム手段1e、ピッチシフト手段1f若しくは時間軸圧縮手段1gが、パラメータデータPdの値に応じて音声データを変更する。パラメータデータPdの増減と、音声データの増減の関係については、既に説明した通りである。
ステップS138では、画像変換手段1jが、音声データを、波形を示す画像データに変換する。音声データの画像データへの変換処理については、既に説明した。
【0079】
ステップS139では、描画命令発行手段1kが、波形を示す画像データを、描画処理プロセッサ10に供給する。描画処理プロセッサ10は、バッファ11の表示エリア上に、波形を示す画像データを、書き込む。これにより、テレビジョンモニタ12の表示面上には、波形を示す画像が表示される。
ステップS140では、ボタン操作検出手段1aが、第4ボタンが押されたか否かを判断し、「YES」であればステップS141に移行し、「NO」であれば再びステップS128に移行する。
【0080】
ステップS141では、クロスフェード手段1hが、変更後の音声データに対し、ボリューム、ピッチ、音色にわたってクロスフェード処理を施す。
ステップS142では、エンコード手段1nが、PCM音声データを、ADPCMフォーマットの音声データにエンコードする。このステップは、音声処理プロセッサ13がADPCM対応の場合である。
【0081】
ステップS143では、エンコード手段1nが、エンコード後の音声データを、音声処理プロセッサ13に供給する。音声処理プロセッサ13は、上記音声データを、バッファ14に書き込む。
ステップS144では、ボタン操作検出手段1aが、第3ボタン22eが押されたか否かを判断し、「YES」であればステップS145に移行し、「NO」であればステップS147に移行する。ここで、第3ボタン22eは、確認のために音声を出力させる指示をCPU1に与えるために用いられる。
【0082】
ステップS145では、描画命令発行手段1kが、図4に示した設定画像上の「確認」の文字の画像に対応する輝度データを、描画処理プロセッサ10に供給する。描画処理プロセッサ10は、輝度データに基いて、「確認」の文字の画像の輝度を変更する。これにより、テレビジョンモニタ12の表示面上においては、「確認」の文字の画像の輝度が高く表示される。
ステップS146では、音声出力命令発行手段1iが、音声出力命令を、音声処理プロセッサ13に対して発行する。音声処理プロセッサ13は、音声出力命令に基いて、バッファ14から音声データを読み出し、当該音声データを、増幅回路15を介してスピーカ16に供給する。これにより、スピーカ16から、ゲームプレーヤが設定した名前が、ゲームプレーヤが設定した状態で、音声として出力される。
【0083】
ステップS147では、ボタン操作検出手段1aが、キャンセルボタンとしての第2ボタン22dが押されたか否かを判断し、「YES」であればステップS116に移行し、「NO」であればステップS148に移行する。
ステップS148では、ボタン操作検出手段1aが、第4ボタン22fが押されたか否かを判断し、「YES」であればこの音声加工処理ルーチンを抜け、「NO」であれば再びステップS114に移行する。
【0084】
〔実施の形態における効果〕
以上説明したように、本形態においては、文字に応じた音声データを予め記録しておき、登録画面上で登録された名前の構成文字の各音声データについて、設定画面により、GUI(グラフィカル・ユーザー・インターフェース)の整った環境下で、強さ、ピッチ、速度を変更できるようにし、更に、クロスフェード処理により、1つの連続した音声データとするようにした。従って、記録媒体30の音声データによる消費容量を最も少なくし、且つ、あらゆる名前に対応できる。そして、GUI環境下でゲームプレーヤの最も好む音声にすることが簡単に行うことができる。
【0085】
【発明の効果】
上述せる本発明によれば、少なくとも選択可能な多数の文字の画像からなる文字列の登録画像を表示する登録画像表示ステップにより表示され、上記登録画像上で選択された文字に対応する音声データが音声データ読み出しステップで読み出され、上記音声データ読み出しステップにおいて読み出された音声データのパラメータを設定するためのパラメータ設定画像を有する設定画像が設定画像表示ステップで表示され、操作部の操作状態に応じて、上記パラメータ設定画像の一部が、視覚的に増減を認識できるようパラメータ画像変形ステップで変形され、上記操作部の操作状態に応じてパラメータの値がパラメータ値変更ステップで変更され、パラメータ変更ステップにおいて変更されたパラメータの値に基いて音声データ処理ステップで音声データが処理される。従って、ゲームプレーヤは、音声データを、簡単な操作で所望の状態に変更できるという効果がある。
【0086】
また、上記発明において、上記パラメータは、強さ、ピッチ及び速度である。従って、ゲームプレーヤは、必要最小限の操作で、最も効率良く、音声データを変更できるという効果がある。
【0087】
また、上記発明において、上記パラメータ設定画像は、上記パラメータ毎に設けられるものである。従って、ゲームプレーヤは、パラメータ毎のパラメータ設定画像を見ながら、各パラメータの値を変更することができるという効果がある。
【0088】
また、上記発明において、複数の音声データ間をクロスフェード処理により接続するクロスフェード処理ステップを更に設けたものである。従って、ゲームプレーヤの選択した複数の音声データを、滑らかな連続音声として出力することができるという効果がある。
【図面の簡単な説明】
【図1】本発明の一実施の形態を示すゲームシステムの構成図である。
【図2】図1に示したCPU1が有する機能を示す機能ブロック図である。
【図3】登録画面の画面表示例を示す説明図である。
【図4】設定画面の画面表示例を示す説明図である。
【図5】ゲームプログラムのメインルーチンによる制御動作を説明するためのフローチャートである。
【図6】ゲームプログラムのメインルーチンによる制御動作を説明するためのフローチャートである。
【図7】図3に示した音声加工処理ルーチンによる制御動作を説明するためのフローチャートである。
【図8】図3に示した音声加工処理ルーチンによる制御動作を説明するためのフローチャートである。
【図9】図3に示した音声加工処理ルーチンによる制御動作を説明するためのフローチャートである。
【図10】図3に示した音声加工処理ルーチンによる制御動作を説明するためのフローチャートである。
【符号の説明】
1 CPU
1a ボタン操作検出手段
1b 変数設定手段
1c 演算手段
1d 判断手段
1e ボリウム手段
1f ピッチシフト手段
1g 時間軸圧縮手段
1h クロスフェード手段
1i 音声出力命令発行手段
1j 画像変換手段
1k 描画命令発行手段
1m エンコード手段
1n テーブル
2 バス
3 グラフィックスデータ生成プロセッサ
4、20 インターフェース回路
5 メインメモリ
6 ROM
7 伸張回路
8 パラレルポート
9 シリアルポート
10 描画処理プロセッサ
11、14、18 バッファ
13 音声処理プロセッサ
15 増幅回路
16 スピーカ
17 デコーダ
19 記録媒体ドライバ
21 メモリ
22 コントローラ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a sound processing method, a game system, and a recording medium suitable for application to a game system using an optical disk, a magnetic disk, and a semiconductor memory in which game data is recorded.
[0002]
[Prior art]
Many game systems have been proposed. A system composed of a home-use machine and a television monitor, a business-use machine, a personal computer or a system composed of a workstation, a display, and an audio output device. Each of these systems includes a controller for operation by the player, a recording medium on which game data including game program data and data such as images and sounds, and generation of sounds and images based on the game program data. The CPU includes a CPU for performing control, a processor for processing an image, a processor for processing sound, a CRT for displaying an image, and a speaker for outputting sound. As the recording medium, there are many CD-ROMs, semiconductor memories, cassettes incorporating semiconductor memories, and the like. The configuration of the game system is as described above.
[0003]
On the other hand, the types of games are steadily increasing, and the contents of games are becoming increasingly complex and diversified. Recently, a parameter indicating intimacy between the game player and the character in the game space is changed according to the operation of the game player, and various messages are sent from the character to the game player according to the value of the parameter. Even games that can be played have appeared. A typical example is a love simulation game. A message is sent from the character to the game player by displaying a balloon on the screen and an image indicating the character in the balloon.
[0004]
[Problems to be solved by the invention]
By the way, in a game in which a character in the game space and the game player communicate with each other in a pseudo manner, the name of the game player registered in advance by the game player is output as sound so that it is called by the character in the game space. It is preferred that This is to allow the game player to be more immersed in the game by making the game player have the illusion that the character in the game space is a person with a personality. In other words, in such a game, it is an essential requirement for a game player to recognize a character in the game space as a person in the game space having a personality.
[0005]
In order to output the name of the game player as audio, a large number of audio data is recorded in advance on a recording medium so as to correspond to the name of most game players, and the name can be selected by the game player. is required. In this way, the game player can select his own name or a name he desires from among a large number of names displayed as characters on the screen. When the name is selected, the CPU of the game system reads the audio data from the recording medium, stores the audio data in the memory, and further stores the address of the audio data on the memory. Then, during the game, the CPU reads the audio data from the storage position on the memory indicated by the address as necessary, and supplies the audio data to a processor for processing the audio. As a result, the name selected by the game player is output as sound from the speaker.
[0006]
However, since the sound data is data prepared in advance by a game manufacturer, the sound output from the speaker is not necessarily sound that the game player likes.
[0007]
Also, since the audio data is recorded in advance on the recording medium for each name, it is impossible to correspond to the names of all game players, and recording by recording the audio data at the time of manufacturing the recording medium The consumption capacity of the medium also increases.
[0008]
The present invention has been made in consideration of the above points, and allows the user's favorite sound to be output by a simple operation and reduces the consumption capacity of the recording medium due to the sound data when the recording medium is manufactured. The object is to deal with conditions specific to the game player.
[0009]
[Means for Solving the Problems]
One of the main inventions isSelectionSelectableSentenceCharacter imageincludingRegistration of character stringscreenRegister to displayscreenDisplay step and above registrationscreenSelected character aboveEach ofAn audio data read step for reading audio data corresponding toStoring the audio data read in the audio data reading step in a storage unit;the aboveStored in storageParameter setting image for setting audio data parametersFor each characterSettingscreenSetting to displayscreenDisplay step and operationTo workDepending on,A part of the parameter setting image corresponding to the character designated in the operation is deformed so that the increase or decrease of the parameter value can be visually recognized,A parameter value changing step for changing the parameter value;When the parameter value is changed in the parameter value changing step,Based on the value of the parameter, Corresponding to the designated character in the voice data stored in the storage unitAudio dataChangeAudio data processing steps toGenerating voice data of a character string registered on the registration screen based on voice data stored in the storage unit in response to an operation of the operation unit;Is included.In the above invention, the setting screen further includes a waveform image based on the audio data stored in the storage unit for each character, and the audio data processing step includes the waveform based on the changed audio data. The image may be further changed.
[0010]
In the above invention, the parameters are strength, pitch, and speed.You may do.
[0011]
In the above invention, the parameter setting image is provided for each parameter.You may do.
[0012]
In the above invention,The step of generating the audio data includesConnect multiple audio data by crossfadingYou may make it.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to FIGS.
[0014]
In the description of the embodiment of the present invention, the following item descriptions are described at the head of each item, and each item will be described in the following order.
[0015]
A. Game system configuration (Figure 1)
B. Functions of the CPU 1 shown in FIG. 1 (FIG. 2)
C. Screen display examples (Figs. 3 and 4)
D. Control action by main routine of game program (FIGS. 5 and 6)
E. Control operation by voice processing routine (FIGS. 7 to 10)
[0016]
A. Game system configuration (Figure 1)
[0017]
FIG. 1 is a configuration diagram showing a configuration example of a game system as an embodiment of the present invention.
[0018]
[Connection and configuration]
The game system shown in FIG. 1 includes a game machine body and a recording medium 30 on which game data including images, sounds, and program data is recorded. The game machine main body is connected to a CPU 1, a graphic data generation processor 3, and a bus 2 including an address, data, and control bus. The bus 2 is connected to an interface circuit 4, a main memory 5, a ROM 6, and an expansion circuit. 7, parallel port 8, serial port 9, drawing processor 10 and buffer 11, audio processor 13 and buffer 14, decoder 17 and buffer 18, interface circuit 20 and memory 21. The television monitor 12 is connected to the audio processor 13, the speaker 16 is connected to the audio processor 13 via the amplifier circuit 15, the recording medium driver 19 is connected to the decoder 17, and the controller 22 is connected to the interface circuit 20. .
[0019]
Here, the form of the game system differs depending on the application. That is, when the game system is configured for home use, the television monitor 12 and the speaker 16 are separate from the game machine main body. When the game system is configured for business use, all the components shown in FIG. 1 are housed in a single casing. When the game system is configured with a personal computer or workstation as the core, the television monitor 12 corresponds to the display for the computer, and the drawing processor 10, the audio processor 13, The decompression circuit 7 corresponds to a part of the game program data recorded on the recording medium 30 or hardware on an expansion board or a motherboard mounted in an expansion slot of the computer, and the interface circuit 4 and the parallel port. 8. The serial port 9 and the interface circuit 20 correspond to the hardware on the expansion board mounted in the expansion slot of the computer. The buffers 11, 14, and 18 correspond to the areas of the main memory 5 or an expansion memory (not shown), respectively. In this embodiment, a case where the game system is configured for home use will be described as an example.
[0020]
Next, each component shown in FIG. 1 will be described in more detail. The graphics data generation processor 3 functions as a coprocessor of the CPU 1. That is, the graphics data generation processor 3 performs coordinate conversion and light source calculation, for example, calculation of a fixed-point format matrix or vector by parallel processing. The main processing of the graphics data generation processor 3 is coordinate conversion processing and light source calculation processing. In the coordinate conversion process, the absolute coordinate data of each vertex in the two-dimensional or three-dimensional plane of the image data supplied from the CPU 1 is converted into the address on the display area of the processing target image based on the movement amount data and the rotation amount data. In this process, the address data is returned to the CPU 1 again. This coordinate conversion process will be described in detail later.
[0021]
The light source calculation process is a process for calculating the luminance of the image according to the light vector data, the normal data representing the orientation of the polygon surface, and the data representing the surface color.
[0022]
The interface circuit 4 is for an interface of a peripheral device such as a pointing device such as a mouse or a trackball. The ROM 6 stores program data as an operating system for the game system. In terms of a personal computer, this corresponds to BIOS (Basic Input Output System).
[0023]
In the decompression circuit 7, decompression processing is performed on a compressed image that has been compressed by intra coding in accordance with MPEG (Moving Picture Engineering Group) or JPEG (Joint Picture Engineering Group). The decompression process includes a decoding process (decoding of data encoded by VLC: Variable Length Code), an inverse quantization process, an IDCT (Inverse Discrete Cosine Transform) process, an intra image restoration process, and the like.
[0024]
The drawing processor 10 performs drawing processing on the buffer 11 based on a drawing command issued by the CPU 1. The buffer 11 includes a display area and a non-display area. The display area is a development area for data displayed on the display surface of the television monitor 12. The non-display area is a storage area for texture data, color palette data, and the like. Here, the texture data is two-dimensional image data. The color palette data is data for designating a color such as texture data. These data are read by the CPU 1 from the recording medium 30 once or divided into a plurality of times according to the progress of the game, and stored in the non-display area of the buffer 11 in advance.
[0025]
Examples of the drawing command include a drawing command for drawing a line, a drawing command for drawing a stereoscopic image using a polygon, and a drawing command for drawing a normal two-dimensional image. Here, the polygon is a polygonal two-dimensional image.
[0026]
A drawing command for drawing a line includes line drawing start and end addresses, color, and data indicating line drawing. This line drawing command is issued directly to the drawing processor 10 by the CPU 1.
[0027]
The drawing command for drawing a stereoscopic image using polygons is polygon vertex address data on the display area of the buffer 11, texture address data indicating the storage position of the texture data to be pasted on the polygon on the buffer 11, and texture data. Color pallet address data indicating the storage position of the color pallet data indicating the color in the buffer 11 and luminance data indicating the luminance of the texture. Among these data, the polygon vertex address data is calculated by the graphics data generation processor 3 based on the polygon absolute coordinate data, the data indicating the movement of the polygon, and the data indicating the movement of the viewpoint position from the CPU 1. Is obtained by performing
[0028]
A drawing command for drawing a normal two-dimensional image includes vertex address data, texture address data, color palette address data, and luminance data indicating the luminance of the texture. Among these data, the vertex address data is coordinate data obtained by the graphics data generating processor 3 converting the vertex coordinate data on the plane from the CPU 1 based on the movement amount data from the CPU 1. . Hereinafter, the drawing process is described in a simplified manner such as “issue a drawing command”.
[0029]
The audio processor 13 stores the PCM or ADPCM data read from the recording medium 30 in the buffer 14 or the main memory 5, and uses the PCM or ADPCM data stored in the buffer 14 or the main memory 5 as a sound source. Of course, the semiconductor memory itself in the recording medium 30 may be a sound source. Then, the voice processor 13 reads the PCM or ADPCM data with a clock having a frequency of 44.1 KHz, for example. The audio processor 13 performs processing such as pitch conversion, noise addition, envelope setting, level setting, and reverb addition on the PCM or ADPCM data read from the buffer 14, the main memory 5 or the recording medium 30. Apply.
[0030]
When the audio processor 13 is of a type that handles ADPCM data, and when it is necessary to process the audio data read from the recording medium 30, it is as follows. That is, the PCM data read from the recording medium 30 is subjected to various processing processes by the CPU 1, and is then encoded again by the CPU 1 into ADPCM data and stored in the buffer 14 or the main memory 5. Data encoded in ADPCM format data or processed PCM data is supplied to the audio processor 13 and subjected to the various processes described above, and then output as audio from the speaker 16.
[0031]
The recording medium driver 19 is, for example, a hard disk drive, an optical disk drive, a flexible disk drive, a silicon disk drive, a cassette medium reader, or the like. The recording medium 30 is, for example, a hard disk, an optical disk, a flexible disk, a semiconductor memory, or the like. The recording medium driver 19 reads image, sound, and game program data from the recording medium 30 and supplies the read data to the decoder 17. The decoder 17 performs error correction processing by ECC (Error Correction Code) on the reproduction data from the recording medium driver 19 and supplies the data subjected to the error correction processing to the main memory 5 or the audio processor 13.
[0032]
The memory 21 includes, for example, a holder and a card type memory. The card-type memory is for holding various parameters of the game, such as holding the state at the end time. The controller 22 includes a cross key including a left key L, a right key R, an up key U, and a down key D, a left button 22L, a right button 22R, a start button 22a, a select button 22b, a first button 22c, and a second button 22d. , A third button 22e and a fourth button 22f. The cross key is used by the game player to give a command indicating up, down, left, and right to the CPU 1. The start button 22a is used by the game player to instruct the CPU 1 to start game program data loaded from the recording medium 30. The select button 22b is for the game player to instruct the CPU 1 to make various selections regarding the game program data loaded from the recording medium 30 to the main memory 5. The functions of the left key 22L, the right key 22R, and the first to fourth buttons 22c, 22d, 22e, and 22f differ depending on the game program data loaded from the recording medium 30.
[0033]
[Operation]
A power switch (not shown) is turned on, and the game system is powered on. At this time, if the recording medium 30 is loaded in the recording medium driver 19, the CPU 1 reads game data from the recording medium 30 to the recording medium driver 19 based on the operating system stored in the ROM 6. Instruct. Thereby, the recording medium driver 19 reads the image, sound, and game program data from the recording medium 30. The read image, sound, and game program data are supplied to the decoder 17 where error correction processing is performed. The image data that has been subjected to error correction processing in the decoder 17 is supplied to the expansion circuit 7 via the bus 2, where it is supplied to the drawing processor 10 after being subjected to the expansion processing described above. The data is written in the non-display area of the buffer 11 by the processor 10.
[0034]
The audio data that has been subjected to the error correction processing in the decoder 17 is supplied to the main memory 5 or the audio processing processor 13 and written into the main memory 5 or the buffer 14. The game program data that has been subjected to error correction processing in the decoder 17 is supplied to the main memory 5 and written into the main memory 5. Thereafter, the CPU 1 proceeds with the game based on the game program data stored in the main memory 5 and the content instructed by the game player via the controller 22.
[0035]
That is, the CPU 1 appropriately controls image processing, audio processing, and internal processing based on the instruction content instructed by the game player via the controller 22. The image processing control includes the above-described rotation amount / movement amount data and absolute coordinate data supplied to the graphics data generation processor 3, address data on the display area of the buffer 11 obtained by the graphics data generation processor 3, and luminance. For example, a drawing command including data is issued. The audio processing control is processing of audio data on the main memory 5, issuance of audio output commands to the audio processing processor 13, level, reverberation, and the like. The internal process control is, for example, calculation according to the operation of the controller 22.
[0036]
B. Functions of the CPU 1 shown in FIG. 1 (FIG. 2)
[0037]
FIG. 2 is an explanatory diagram showing functions of the CPU 1 shown in FIG. The CPU 1 has the function shown in FIG. 2 by reading the program data read from the recording medium 30 shown in FIG. 1 and stored in the main memory 5. The functions of the CPU 1 shown in FIG. 2 are as follows: button operation detection means 1a, variable setting means 1b, calculation means 1c, determination means 1d, volume means 1e, pitch shift means 1f, time axis compression means 1g, crossfade means. 1h, voice output command issuing means 1i, image conversion means 1j, drawing command issuing means 1k, encoding means 1m, and table 1n. Here, the crossfade means 1h includes a volume crossfade, a timbre crossfade (crossfade that smoothly changes the timbre with respect to the time axis), and a pitch crossfade (crossover that smoothly changes the pitch with respect to the time axis). (Fade) has three crossfade functions. In addition, these means are the main subjects of control described in item D and item E.
[0038]
C. Screen display examples (Figs. 3 and 4)
[0039]
3 and 4 are explanatory diagrams showing examples of screen display, respectively. The present embodiment is premised on a game in which a game player and a character in the game space perform pseudo communication, or a game with such a scene. In other words, under the control of the CPU 1, the name of the game player is output as sound from the speaker, and visual processing is performed such that a character in the game space calls the name of the game player. This makes it possible to give the game player the illusion that a character in the game space is calling to the game player. Therefore, the game player can be more immersed in the game. In the following, “the player outputs the name of the game player as a sound and performs a visual process such that the character in the game space calls the name of the game player”, “the character in the game space is the game player "Call your name".
[0040]
In this embodiment, the registration screen shown in FIG. 3A is displayed before the game is started. This registration screen is for the game player to register his name. When the name of the game player is registered, a setting screen shown in FIG. 4 is displayed. This setting screen is for processing the voice data corresponding to the constituent characters of the registered name. The sound data corresponding to the processed characters of the processed name is output as sound from the speaker 16 when it is necessary to “call the name of the game player” while the game is in progress.
[0041]
The registration screen shown in FIG. 3A is displayed at the display position of the image of the 50-note character and the image of the 50-tone character and the “end” character image by operating the cross key of the controller 22 shown in FIG. A cursor image CA displayed to move, an area Ar1 in which an image of the selected character string is displayed, and an “end” character image for instructing the CPU 1 that selection of all characters to be registered has been completed. The area Ar2 is displayed. In this embodiment, each character is determined by pressing the fourth button 22f of the controller 22. For example, in the name “Taro”, the characters “TA”, “RO”, and “U” are first selected by operating the cross key and pressing the fourth button 22f, followed by “END”. Is selected by the operation of the cross key, and then registered by being determined by pressing the fourth button 22f.
[0042]
The setting screen shown in FIG. 4 includes a gauge image Bar1 for setting the sound intensity, a gauge image Bar2 for setting the sound pitch, a gauge image Bar3 for setting the sound speed, and a setting. The CPU 1 is instructed to output an area Ar1 for displaying a sound waveform image corresponding to the intensity, pitch, and speed, an area Ar2 for displaying characters corresponding to the sound, and a set voice output. “Confirmation” character image B1 to be performed, and “End” character image B2 to notify the CPU 1 that all sound settings have been completed.
[0043]
For one character, a waveform display area Ar1, a character display area Ar2, and gauge images Bar1, Bar2, and Bar3 are displayed. In this example, the case where the characters “ta”, “ro”, and “u” are selected is shown. Therefore, the gauge images Bar1, Bar2, and Bar3, the area Ar1, and the area Ar2 are displayed for “ta”, “ro”, and “u”, respectively. Selection of the gauge images Bar1, Bar2, and Bar3 is performed by operating the up key U or down key D of the cross key. The selected gauge images Bar1, Bar2, and Bar3 are displayed with their frame portions highlighted. In this example, the gauge image Bar1 for setting the strength corresponding to the character “ta” is selected. Each time the right key R of the cross key is pressed while the gauge images Bar1, Bar2, and Bar3 are selected, the length of the gauge images Bar1, Bar2, and Bar3 is increased in the right direction, and the value of each parameter is increased. Become. Each time the left key L of the cross key is pressed, the lengths of the gauge images Bar1, Bar2, and Bar3 are reduced in the left direction, and the values of the parameters are reduced. The shape of the waveform image displayed in the waveform display area Ar1 changes according to the change in the parameter value.
[0044]
Incidentally, the strength parameter is, for example, a parameter that determines which character of the name is to be output strongly. The pitch parameter is a parameter that determines the level of voice. The speed parameter is a parameter for determining the sound output time.
[0045]
The above is the registration of the name on the registration screen and the processing of the voice on the setting screen. The internal processing will be described later in detail.
[0046]
D. Control operation by main routine (FIGS. 5 and 6)
[0047]
5 and 6 are flowcharts for explaining the control operation by the main routine of the game.
[0048]
Note that only step S1 is a control operation by the operating system stored in the ROM 6 shown in FIG. The other step is a control operation based on the game program data read from the recording medium 30. Further, as described above, the main body of control by the game program data is each means as a function of the CPU 1 shown in FIG.
[0049]
In step S <b> 1, the recording medium driver 19 reads image, sound, and game program data from the recording medium 30 according to an instruction of the operating system. Of the read data, the program data is stored in the main memory 5. Thus, the CPU 1 has the function shown in FIG. At this time, the image, that is, the texture data is stored in the non-display area of the buffer 11 of the rendering processor 10 and is assigned a texture number. The audio data is stored in the buffer 14 of the audio processor 13 and is assigned audio number data. Normally, not all image and audio data are held in the buffers 11 and 14 in step S1, but for convenience of explanation, it is assumed that all image and audio data are loaded in step S1.
In step S2, the button operation detection unit 1a determines whether or not the start button 22a of the controller 22 has been pressed. If “YES”, the process proceeds to step S3.
[0050]
In step S3, the drawing command issuing unit 1k issues a drawing command indicating drawing of the selected image to the drawing processor 10 shown in FIG. The drawing processor 10 develops the image data of the selected image on the display surface of the buffer 11 based on the drawing command. Thereby, a select image is displayed on the display surface of the television monitor 12.
In step S4, the button operating means 1a determines whether or not the start button 22a of the controller 22 has been pressed. If “YES”, the process proceeds to step S5.
[0051]
In step S5, the CPU 1 sets the selected game. Here, “selected” means that the game player selects a game using the cross key with reference to the selected image displayed in step S3, and then presses the start button 22a. . Here, the “game” includes, in addition to the game itself, for example, a character in a battle game. In short, it is a choice before the game is actually started.
In step S <b> 6, the drawing command issuing unit 1 k issues a drawing command indicating drawing of the initial image of the selected game to the drawing processor 10. In response to this drawing command, the drawing processor 10 writes the image data of the initial image on the display area of the buffer 11. As a result, an initial image is displayed on the display surface of the television monitor 12.
[0052]
In step S7, the CPU 1 resets the flags and variables held in the main memory 5, respectively.
In step S100, voice processing is performed. The voice processing routine S100 will be described in detail later.
[0053]
In step S8, the drawing command issuing unit 1k issues a drawing command indicating that the initial image information is output to the drawing processor 10.
In step S9, the determination unit 1d determines whether the sound output process is performed. Here, “sound output processing” means that, for example, the character calls the name of the game player, that is, the sound data of the name of the game player set on the setting screen shown in FIG. That is.
[0054]
In step S150, an audio output process is performed.
In step S200, other processing is performed.
[0055]
In step S10, the determination unit 1d determines whether there is a save instruction from the game player based on the data indicating the operation content supplied from the button operation detection unit 1a. When the process proceeds to step S11 and it is determined “NO”, the process proceeds to step S9 again.
In step S <b> 11, the CPU 1 supplies various parameter data at the present time to the memory 21 via the interface circuit 20. As a result, various parameter data are stored in the memory 21. Various parameter data stored in the memory 21 is loaded into the main memory 5 when the game is started next time. The CPU 1 starts the game from the previous progress position by using the loaded various parameter data.
[0056]
In step S12, the determination unit 1d determines whether there is a save instruction from the game player based on the data indicating the operation content supplied from the button operation detection unit 1a. If "YES", the process proceeds to step S13. If “NO”, the process proceeds to the step S9 again.
In step S <b> 13, the drawing command issuing unit 1 k issues a drawing command indicating output of image information for termination to the drawing processing processor 10. In response to this drawing command, the drawing processor 10 writes the end image data on the display area of the buffer 11. As a result, an end image is displayed on the display surface of the television monitor 12.
[0057]
E. Control operation by voice processing routine (FIGS. 7 to 10)
[0058]
7 to 11 are flowcharts showing the contents of the voice processing routine shown in FIG.
[0059]
In step S <b> 101, the drawing command issuing unit 1 k issues a drawing command indicating display of the registered image to the drawing processing processor 10. The drawing processor 10 writes the registered image data in the display area of the buffer 11. As a result, a registered image as shown in FIG. 3A is displayed on the display surface of the television monitor 12.
In step S <b> 102, the CPU 1 issues an instruction to the recording medium driver 19 indicating that a table including character data and address data on the recording medium of audio data corresponding to the character data is read. The recording medium driver 19 reads the table data from the recording medium 30 based on the command. The read table data is supplied to the main memory 5 via the decoder 17 and stored in the main memory 5.
[0060]
In step S103, the button operation detection unit 1a determines whether or not the cross key is pressed. If “YES”, the process proceeds to step S104.
In step S104, the drawing command issuing means 1k issues a drawing command indicating that the cursor image CA shown in FIG. 3A is displayed at the position corresponding to the pressed key to the drawing processor 10. The drawing processor 10 writes the cursor image data CA in the display area of the buffer 11. Thereby, the cursor image CA is displayed on the display surface of the television monitor 12. At this time, the CPU 1 temporarily stores position data on the table corresponding to the pressed key. Here, the keys that are effective for changing the position of the cursor image CA are the up key U and the down key D.
[0061]
In step S105, the button operation detection unit 1a determines whether or not the fourth button 22f has been pressed. If “YES”, the process proceeds to step S106, and if “NO”, the process proceeds to step S103 again.
In step S106, the determination unit 1d determines whether or not the selected and determined position is the display position of the character “END”. If “YES”, the voice processing routine S100 is exited and “NO”. If so, the process proceeds to step S107.
[0062]
In step S107, the CPU 1 stores a value indicating the registered number of characters in the main memory 5 as character number data M.
[0063]
In step S108, the computing means 1c obtains a value that is three times the character count data M. Then, the CPU 1 stores a value three times the character count data M in the main memory 5 as the maximum value data Pmax of the pointer data P. Here, the pointer data P indicates the gauge images Bar1, Bar2, and Bar3 of strength, pitch, and speed. For example, gauge images Bar1, Bar2, Bar3, gauge images Bar1, Bar2, Bar3 corresponding to the characters “RO”, gauge images Bar1, corresponding to the characters “U”, corresponding to the characters “TA” shown in FIG. Numbers 1 to 9 are assigned to Bar2 and Bar3. Therefore, for example, when the value of the pointer data P is “9”, the “speed” gauge image Bar3 corresponding to the character “u” is selected. Further, the reason why the maximum value data Pmax of the pointer data P is set to “three times” the number-of-characters data M is that there are three parameters of voice data corresponding to one character.
In step S109, the CPU 1 stores the position data on the table temporarily stored in step S104 in the main memory 5.
[0064]
In step S110, the address data registered in the table for the position data on the table is supplied to the recording medium driver 19 together with the read command. The recording medium driver 19 reads audio data from the recording medium 30 based on the address data. The audio data read from the recording medium 30 is supplied to the main memory 5 via the decoder 17 and stored in the main memory 5.
In step S111, the CPU 1 supplies the recording medium driver 19 with address data in which initial value data of each parameter is recorded and a read command. Thereby, the recording medium driver 19 reads the initial value data of each parameter from the recording medium 30. The read initial value data of each parameter is supplied to the main memory 5 via the decoder 17 and stored in the main memory 5.
[0065]
In step S112, the CPU 1 selects texture address data indicating a gauge image corresponding to the value of the initial value data of each parameter. Here, a plurality of types of gauge images are prepared according to parameter values. For example, when the parameter value is 1 to 10, ten types of gauge images are prepared. Here, since the values of the respective parameters are initial values, the gauge images having the same length are selected in order to display the gauge images Bar1, Bar2, and Bar3 of strength, pitch, and speed, respectively.
In step S113, the image conversion unit 1j converts the sound data into image data. Here, the image conversion means 1j uses the compressed value of the level data for each sample point of the PCM audio data as the value of the y-direction address on the main memory 5, thereby obtaining the level data for each sample of the PCM audio data, Mapping is performed on the main memory 5. At this time, the distance between each sample on the x-axis is, for example, n pixels. Subsequently, the image conversion unit 1j performs an interpolation process between the samples. Thereby, a waveform image as shown in FIG. 4 can be obtained.
[0066]
In step S114, the drawing command issuing unit 1j supplies the drawing processor 10 with a drawing command indicating that the setting image is displayed, and texture address data indicating the waveform image data and the gauge image. As a result, the drawing processor 10 writes the set image data, the waveform image data, and the gauge image data on the display area of the buffer 11. Therefore, the setting image shown in FIG. 4 is displayed on the display surface of the television monitor 12. However, since the values of the parameters are initial values, the lengths of the gauge images Bar1, Bar2, and Bar3 are the same as in the state shown in FIG.
In step S115, the variable setting unit 1b sets the value of the pointer data P to “1”. Then, the drawing command issuing means 1k supplies the drawing processor 10 with the luminance data of the gauge image Bar1, Bar2 or Bar3 at the position corresponding to the value of the pointer data P. Here, the images are the gauge images Bar1, Bar2, and Bar3 shown in FIG. Further, the value of the luminance data is a value close to the maximum value. The drawing processor 10 changes the luminance value of the gauge image Bar1, Bar2 or Bar3 at the position corresponding to the value of the pointer data P to the luminance value indicated by the value of the luminance data. Thereby, the luminance of the gauge image Bar1, Bar2 or Bar3 at the position corresponding to the value of the pointer data P on the display surface of the television monitor 12 is higher than that of the other gauge images Bar1, Bar2 and Bar3.
[0067]
In step S116, the button operation detection unit 1a determines whether or not the cross key is pressed. If “YES”, the process proceeds to step S117.
In step S117, the button operation detection unit 1a determines whether or not the up key U has been pressed. If “YES”, the process proceeds to step S118, and if “NO”, the process proceeds to step S122. Here, the upper key U is a key for incrementing the value of the pointer data P.
[0068]
In step S118, the determination unit 1d determines whether or not the value of the pointer data P is the maximum value Pmax of the pointer data P. If “YES”, the process proceeds to step S119, and if “NO”, the process proceeds to step S120. Transition.
In step S119, the computing means 1c substitutes “1” for the pointer data P.
[0069]
In step S120, the computing means 1d adds “1” to the pointer data P.
In step S121, the drawing command issuing unit 1k issues the luminance data of the image at the position corresponding to the value of the pointer data P to the drawing processor 10. The drawing processor 10 changes the luminance of the gauge image Bar1, Bar2 or Bar3 at the position corresponding to the value of the pointer data P based on the luminance data. Thereby, the luminance of the gauge image Bar1, Bar2 or Bar3 corresponding to the value of the pointer P displayed on the display surface of the television monitor 12 is higher than the luminance of the other gauge images Bar1, Bar2 and Bar3. .
[0070]
In step S122, the button operation detection unit 1a determines whether or not the down key D is pressed. If “YES”, the process proceeds to step S123, and if “NO”, the process proceeds to step S126. Here, the lower key D is a key for decrementing the value of the pointer data P.
In step S123, the determination unit 1d determines whether the value of the pointer data P is “1”. If “YES”, the process proceeds to step S124, and if “NO”, the process proceeds to step S125.
[0071]
In step S124, the calculation means 1c substitutes the maximum value data Pmax of the pointer data P for the pointer data P.
In step S125, the computing means 1d subtracts “1” from the pointer data P.
[0072]
In step S126, the button operation detection unit 1a determines whether or not the fourth button 22f has been pressed. If “YES”, the process proceeds to step S127, and if “NO”, the process proceeds to step S116 again.
In step S127, the button operation detection unit 1a determines whether or not the cross key is pressed. If “YES”, the process proceeds to step S128.
[0073]
In step S128, the button operation detection unit 1a determines whether or not the up key U is pressed. If “YES”, the process proceeds to step S129, and if “NO”, the process proceeds to step S132.
In step S129, the calculation means 1c adds the reference value data Ref to the parameter data Pd corresponding to the value of the pointer data P. In this embodiment, the value of the reference value data is “1”.
[0074]
In step S130, the determination unit 1d determines whether the value of the parameter data Pd is larger than the maximum value Pdmax. If “YES”, the process proceeds to step S131, and if “NO”, the process proceeds to step S136. To do.
In step S131, the variable setting unit 1b substitutes the maximum value Pdmax for the parameter data Pd. In this embodiment, the value of the parameter data Pd is set to a value within the range of “1” to “10”. The amount of change in the strength, pitch, and speed is determined according to the value of the parameter data Pd.
[0075]
The strength can be changed by changing the volume value of the PCM audio data. In the case of 16-bit PCM audio data, the 16-bit PCM audio data increases / decreases for each sample by the maximum value / 10 represented by 16 bits with respect to the increase / decrease of "1" in the value of the parameter data Pd. .
The pitch can be changed by thinning out or interpolating PCM audio data. For 16-bit PCM audio data for one character with a sampling time of 1 second and a sampling frequency of 44.1 KHz, the default value of the parameter Pd is set to “0”, and 2 to 3 samples for ± 5 increase / decrease Each level data is thinned out or interpolated for one sample.
The speed is determined by mathematical calculation. For example, the original waveform is Fourier transformed to find the frequency characteristics for each band, and when it is restored by computation (inverse Fourier transform), the number of samples is increased or decreased, or similar waveforms are continuous For example, there is a method in which similar waveforms are extracted and cut or overlapped.
[0076]
In step S132, the button operation detection unit 1a determines whether or not the down key U is pressed. If “YES”, the process proceeds to step S133, and if “NO”, the process proceeds to step S128 again.
In step S133, the calculation unit 1c subtracts the reference value data Ref from the parameter data Pd corresponding to the value of the pointer data P.
[0077]
In step S134, the determination unit 1d determines whether or not the value of the parameter data Pd is smaller than the minimum value Pdmin. If “YES”, the process proceeds to step S135, and if “NO”, the process proceeds to step S136. To do.
In step S135, the variable setting unit 1b substitutes the minimum value Pdmin for the parameter data Pd.
[0078]
In step S136, the drawing command issuing unit 1k issues a drawing command indicating drawing of the gauge image Bar1, Bar2, or Bar3 corresponding to the value of the parameter data Pd to the drawing processor 10. As already described, ten types of gauge images having lengths corresponding to the values of the parameter data Pd from “1” to “10” are prepared. These ten types of gauge images are stored in the non-display area of the buffer 11. The drawing command issuing means 1k supplies the drawing processor 10 with texture address data indicating the address on the buffer 11 in which a gauge image corresponding to the value of the parameter data Pd is stored.
In step S137, the volume unit 1e, the pitch shift unit 1f, or the time axis compression unit 1g changes the audio data according to the value of the parameter data Pd. The relationship between the increase / decrease in the parameter data Pd and the increase / decrease in the audio data is as described above.
In step S138, the image conversion unit 1j converts the sound data into image data indicating a waveform. The conversion process of audio data to image data has already been described.
[0079]
In step S139, the drawing command issuing unit 1k supplies image data indicating a waveform to the drawing processor 10. The drawing processor 10 writes image data indicating a waveform on the display area of the buffer 11. As a result, an image showing a waveform is displayed on the display surface of the television monitor 12.
In step S140, the button operation detection unit 1a determines whether or not the fourth button has been pressed. If “YES”, the process proceeds to step S141, and if “NO”, the process proceeds to step S128 again.
[0080]
In step S141, the crossfade means 1h performs a crossfade process on the changed audio data over the volume, pitch, and timbre.
In step S142, the encoding unit 1n encodes the PCM audio data into ADPCM format audio data. This step is when the audio processor 13 is ADPCM compatible.
[0081]
In step S143, the encoding unit 1n supplies the encoded audio data to the audio processing processor 13. The audio processor 13 writes the audio data in the buffer 14.
In step S144, the button operation detection unit 1a determines whether or not the third button 22e is pressed. If “YES”, the process proceeds to step S145, and if “NO”, the process proceeds to step S147. Here, the third button 22e is used to give the CPU 1 an instruction to output a sound for confirmation.
[0082]
In step S145, the drawing command issuing unit 1k supplies the drawing processor 10 with luminance data corresponding to the image of the “confirmation” character on the setting image shown in FIG. The drawing processor 10 changes the brightness of the image of the “confirmation” character based on the brightness data. Thereby, on the display surface of the television monitor 12, the brightness of the image of the “confirm” character is displayed high.
In step S146, the voice output command issuing unit 1i issues a voice output command to the voice processing processor 13. The audio processor 13 reads audio data from the buffer 14 based on the audio output command, and supplies the audio data to the speaker 16 via the amplifier circuit 15. As a result, the name set by the game player is output from the speaker 16 as sound in a state set by the game player.
[0083]
In step S147, the button operation detection unit 1a determines whether or not the second button 22d as the cancel button has been pressed. If “YES”, the process proceeds to step S116, and if “NO”, the process proceeds to step S148. Transition.
In step S148, the button operation detection unit 1a determines whether or not the fourth button 22f has been pressed. If “YES”, the sound processing routine is exited, and if “NO”, the process proceeds to step S114 again. To do.
[0084]
[Effect in the embodiment]
As described above, in this embodiment, voice data corresponding to characters is recorded in advance, and each voice data of a constituent character with a name registered on the registration screen is displayed on the GUI (graphical user). -In an environment where the interface is complete, the strength, pitch, and speed can be changed, and one continuous audio data is created by cross-fade processing. Therefore, the consumption capacity by the audio data of the recording medium 30 is minimized, and any name can be handled. Then, it is possible to easily make the sound most preferred by the game player in the GUI environment.
[0085]
【The invention's effect】
According to the present invention described above, voice data corresponding to a character selected on the registered image is displayed by a registered image display step for displaying a registered image of a character string including at least a plurality of selectable character images. A setting image read in the audio data reading step and having a parameter setting image for setting the parameters of the audio data read in the audio data reading step is displayed in the setting image display step, and the operation state of the operation unit is set. Accordingly, a part of the parameter setting image is deformed in the parameter image deforming step so that the increase / decrease can be visually recognized, and the parameter value is changed in the parameter value changing step in accordance with the operation state of the operation unit. Audio data processing step based on the parameter value changed in the changing step Voice data is processed. Therefore, there is an effect that the game player can change the sound data to a desired state by a simple operation.
[0086]
In the above invention, the parameters are strength, pitch, and speed. Therefore, there is an effect that the game player can change the sound data most efficiently with the minimum necessary operation.
[0087]
In the above invention, the parameter setting image is provided for each parameter. Therefore, there is an effect that the game player can change the value of each parameter while viewing the parameter setting image for each parameter.
[0088]
In the above invention, a crossfade processing step for connecting a plurality of audio data by crossfade processing is further provided. Therefore, it is possible to output a plurality of audio data selected by the game player as smooth continuous audio.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a game system showing an embodiment of the present invention.
FIG. 2 is a functional block diagram illustrating functions of the CPU 1 shown in FIG.
FIG. 3 is an explanatory diagram showing a screen display example of a registration screen.
FIG. 4 is an explanatory diagram illustrating a screen display example of a setting screen.
FIG. 5 is a flowchart for explaining a control operation by a main routine of the game program.
FIG. 6 is a flowchart for explaining a control operation by a main routine of the game program.
7 is a flowchart for explaining a control operation by the sound processing routine shown in FIG. 3;
8 is a flowchart for explaining a control operation by the sound processing routine shown in FIG. 3;
FIG. 9 is a flowchart for explaining a control operation by the sound processing routine shown in FIG. 3;
10 is a flowchart for explaining a control operation by the sound processing routine shown in FIG. 3;
[Explanation of symbols]
1 CPU
1a Button operation detection means
1b Variable setting means
1c Calculation means
1d judgment means
1e Volume means
1f Pitch shift means
1g Time axis compression means
1h Crossfade means
1i Voice output command issuing means
1j Image conversion means
1k drawing command issuing means
1m encoding means
1n table
2 buses
3 Graphics data generation processor
4, 20 Interface circuit
5 Main memory
6 ROM
7 Stretching circuit
8 Parallel port
9 Serial port
10 Drawing processor
11, 14, 18 buffers
13 Speech processor
15 Amplifier circuit
16 Speaker
17 Decoder
19 Recording medium driver
21 memory
22 Controller

Claims (21)

選択可能な文字の画像を含む文字列の登録画面を表示する登録画面表示ステップと、
上記登録画面上で選択された文字のそれぞれに対応する音声データを読み出す音声データ読み出しステップと、
上記音声データ読み出しステップにおいて読み出された音声データを記憶部にそれぞれ記憶させるステップと、
上記記憶部に記憶される音声データのパラメータを設定するためのパラメータ設定画像を文字毎に有する設定画面を表示する設定画面表示ステップと、
パラメータの値を変更するための第1操作がなされる毎に、該操作において指定された文字に対応する上記パラメータ設定画像の一部を、視覚的にパラメータの値の増減を認識できるように変形させるとともに、パラメータの値を変更するパラメータ値変更ステップと、
上記パラメータ値変更ステップにおいてパラメータの値が変更される毎に、該パラメータの値に基いて、上記記憶部に記憶される音声データのうち上記指定された文字に対応する音声データを変更する音声データ処理ステップと、
文字列の音声データを生成するための、前記第1操作とは異なる第2操作に応じて、上記記憶部に記憶される音声データに基いて、上記登録画面において登録された文字列の音声データを生成するステップと、
を含む音声加工方法。
A registration screen display step for displaying a registration screen of a character string including images of selectable characters;
A voice data reading step of reading voice data corresponding to each of the characters selected on the registration screen;
A step of storing each respective audio data read in the voice data reading step in a storage unit,
A setting screen display step for displaying a setting screen for each character having a parameter setting image for setting a parameter of each audio data stored in the storage unit;
Each time the first operation for changing the parameter value is performed, a part of the parameter setting image corresponding to the character designated in the operation is deformed so that the increase or decrease of the parameter value can be visually recognized. A parameter value changing step for changing the parameter value, and
Every time the value of the parameter in the parameter value changing step is changed, based on the value of the parameter, to change the voice data corresponding to the specified character among the audio data stored in the storage unit speech Data processing steps;
The voice of the character string registered on the registration screen based on each voice data stored in the storage unit in response to a second operation different from the first operation for generating voice data of the character string Generating data; and
Voice processing method including
上記設定画面は、上記記憶部に記憶される音声データに基く波形画像をさらに文字毎に有し、
上記音声データ処理ステップは、変更後の音声データに基いて、上記波形画像を更に変更する請求項1記載の音声加工方法。
The setting screen further includes, for each character, a waveform image based on voice data stored in the storage unit,
The audio processing method according to claim 1, wherein the audio data processing step further changes the waveform image based on the changed audio data.
上記文字は、夫々通常に読まれた場合の音声である請求項1記載の音声加工方法。The voice processing method according to claim 1, wherein each of the characters is a voice when normally read. 上記音声データを生成するステップにおいて生成される音声データを音声として出力する出力ステップとが更に設けられた請求項1記載の音声加工方法。The speech processing method according to claim 1, further comprising an output step of outputting the speech data generated in the step of generating the speech data as speech. 上記パラメータは、強さ、ピッチ及び速度である請求項1記載の音声加工方法。The speech processing method according to claim 1, wherein the parameters are strength, pitch, and speed. 上記パラメータ設定画像は、上記パラメータ毎に設けられる請求項1記載の音声加工方法。The audio processing method according to claim 1, wherein the parameter setting image is provided for each parameter. 上記音声データを生成するステップは、複数の音声データ間をクロスフェード処理により接続する請求項1記載の音声加工方法。The sound processing method according to claim 1, wherein the step of generating sound data connects a plurality of sound data by a cross-fade process. ゲームプレーヤの操作に基いて、ゲームプレーヤに対し、ゲームプレーヤが予め登録、設定した特定の文字若しくは文字列に対応する音声を出力するようにされたゲームシステムで用いられる音声加工方法であって、
選択可能な文字の画像を含む文字列の登録画面を表示する登録画面表示ステップと、
上記登録画面上で選択された文字のそれぞれに対応する音声データを読み出す音声データ読み出しステップと、
上記音声データ読み出しステップにおいて読み出された音声データを記憶部にそれぞれ記憶させるステップと、
上記記憶部に記憶される音声データのパラメータを設定するためのパラメータ設定画像を文字毎に有する設定画面を表示する設定画面表示ステップと、
パラメータの値を変更するための第1操作がなされる毎に、該操作において指定された文字に対応する上記パラメータ設定画像の一部を、視覚的にパラメータの値の増減を認識できるように変形させるとともに、パラメータの値を変更するパラメータ値変更ステップと、
上記パラメータ値変更ステップにおいてパラメータの値が変更される毎に、該パラメータの値に基いて、上記記憶部に記憶される音声データのうち上記指定された文字に対応する音声データを変更する音声データ処理ステップと、
文字列の音声データを生成するための、前記第1操作とは異なる第2操作に応じて、上記記憶部に記憶される音声データに基いて、上記登録画面において登録された文字列の音声データを生成するステップと、
を含む音声加工方法。
A sound processing method used in a game system configured to output a sound corresponding to a specific character or character string previously registered and set by a game player to a game player based on an operation of the game player,
A registration screen display step for displaying a registration screen of a character string including images of selectable characters;
A voice data reading step of reading voice data corresponding to each of the characters selected on the registration screen;
A step of storing each respective audio data read in the voice data reading step in a storage unit,
A setting screen display step for displaying a setting screen for each character having a parameter setting image for setting a parameter of each audio data stored in the storage unit;
Each time the first operation for changing the parameter value is performed, a part of the parameter setting image corresponding to the character designated in the operation is deformed so that the increase or decrease of the parameter value can be visually recognized. A parameter value changing step for changing the parameter value, and
Every time the value of the parameter in the parameter value changing step is changed, based on the value of the parameter, to change the voice data corresponding to the specified character among the audio data stored in the storage unit speech Data processing steps;
The voice of the character string registered on the registration screen based on each voice data stored in the storage unit in response to a second operation different from the first operation for generating voice data of the character string Generating data; and
Voice processing method including
上記設定画面は、上記記憶部に記憶される音声データに基く波形画像をさらに文字毎に有し、
上記音声データ処理ステップは、変更後の音声データに基いて、上記波形画像を更に変更する請求項8記載の音声加工方法。
The setting screen further includes, for each character, a waveform image based on voice data stored in the storage unit,
9. The audio processing method according to claim 8, wherein the audio data processing step further changes the waveform image based on the changed audio data.
上記パラメータは、強さ、ピッチ及び速度である請求項8記載の音声加工方法。The voice processing method according to claim 8, wherein the parameters are strength, pitch, and speed. 上記パラメータ設定画像は、上記パラメータ毎に設けられる請求項8記載の音声加工方法。The voice processing method according to claim 8, wherein the parameter setting image is provided for each parameter. 上記音声データを生成するステップは、複数の音声データ間をクロスフェード処理により接続する請求項8記載の音声加工方法。The sound processing method according to claim 8, wherein the step of generating sound data connects a plurality of sound data by a cross-fade process. ゲームプレーヤの行う操作手段の操作内容に基いて、ゲームプレーヤに対し、ゲームプレーヤが予め登録、設定した特定の文字若しくは文字列に対応する音声を出力するようにされたゲームシステムであって、
上記ゲームシステムは、
選択可能な文字の画像を含む文字列の登録画面を表示する登録画面表示手段と、
上記登録画面上で選択された文字のそれぞれに対応する音声データを読み出す音声データ読み出し手段と、
上記音声データ読み出し手段によって読み出された音声データをそれぞれ記憶する記憶手段と、
上記記憶手段に記憶される音声データのパラメータを設定するためのパラメータ設定画像を文字毎に有する設定画面を表示する設定画面表示手段と、
パラメータの値を変更するための第1操作がなされる毎に、該操作において指定された文字に対応する上記パラメータ設定画像の一部を、視覚的にパラメータの値の増減を認識できるように変形させるとともに、パラメータの値を変更するパラメータ値変更手段と、
上記パラメータ値変更手段によってパラメータの値が変更される毎に、該パラメータの値に基いて、上記記憶手段に記憶される音声データのうち上記指定された文字に対応する音声データを変更する音声データ処理手段と、
文字列の音声データを生成するための、前記第1操作とは異なる第2操作に応 じて、上記記憶手段に記憶される音声データに基いて、上記登録画面において登録された文字列の音声データを生成する手段と、
とを有するゲームシステム。
A game system configured to output a sound corresponding to a specific character or character string previously registered and set by the game player to the game player based on the operation content of the operation means performed by the game player.
The above game system
A registration screen display means for displaying a registration screen of a character string including images of selectable characters;
Voice data reading means for reading voice data corresponding to each of the characters selected on the registration screen;
Storage means for storing each of the audio data read by the sound data reading means,
Setting screen display means for displaying a setting screen for each character having a parameter setting image for setting parameters of each audio data stored in the storage means;
Each time the first operation for changing the parameter value is performed, a part of the parameter setting image corresponding to the character designated in the operation is deformed so that the increase or decrease of the parameter value can be visually recognized. Parameter value changing means for changing the parameter value, and
Every time the value of the parameter by the parameter value changing means is changed, based on the value of the parameter, to change the voice data corresponding to the specified character among the audio data stored in said storage means voice Data processing means;
For generating audio data of a character string, wherein the first operation depending on the different second operation, on the basis of each audio data stored in the storage means, the character string registered in the registration screen Means for generating audio data;
And a game system.
上記設定画面は、上記記憶手段に記憶される音声データに基く波形画像をさらに文字毎に有し、
上記音声データ処理手段は、変更後の音声データに基いて、上記波形画像を更に変更する請求項13記載のゲームシステム。
The setting screen further includes, for each character, a waveform image based on voice data stored in the storage means,
The game system according to claim 13, wherein the sound data processing means further changes the waveform image based on the changed sound data.
上記パラメータは、強さ、ピッチ及び速度であり、
上記音声データ処理手段は、
上記パラメータの値に応じて上記音声データのボリウムを決定するボリウム手段と、
上記パラメータの値に応じて上記音声データのピッチをシフトするピッチシフト手段と、
上記パラメータの値に応じて上記音声データの時間軸を圧縮する時間軸圧縮手段とを有する請求項13記載のゲームシステム。
The above parameters are strength, pitch and speed,
The voice data processing means is
Volume means for determining the volume of the audio data according to the value of the parameter;
Pitch shift means for shifting the pitch of the audio data in accordance with the value of the parameter;
14. The game system according to claim 13, further comprising time axis compression means for compressing the time axis of the audio data in accordance with the value of the parameter.
上記音声データを生成する手段は、複数の音声データ間をクロスフェード処理により接続する請求項13記載のゲームシステム。14. The game system according to claim 13, wherein the means for generating sound data connects a plurality of sound data by a cross-fade process. ゲームプレーヤの操作に基いて、ゲームプレーヤに対し、ゲームプレーヤが予め登録、設定した特定の文字若しくは文字列に対応する音声を出力するようにされたゲームプログラムが、コンピュータによって読み出され、実行が可能となるように記録された記録媒体であって、
上記ゲームプログラムは、
選択可能な文字の画像を含む文字列の登録画面を表示する登録画面表示ステップと、
上記登録画面上で選択された文字のそれぞれに対応する音声データを読み出す音声データ読み出しステップと、
上記音声データ読み出しステップにおいて読み出された音声データを記憶部にそれぞれ記憶させるステップと、
上記記憶部に記憶される音声データのパラメータを設定するためのパラメータ設定画像を文字毎に有する設定画面を表示する設定画面表示ステップと、
パラメータの値を変更するための第1操作がなされる毎に、該操作において指定された文字に対応する上記パラメータ設定画像の一部を、視覚的にパラメータの値の増減を認識できるように変形させるとともに、パラメータの値を変更するパラメータ値変更ステップと、
上記パラメータ値変更ステップにおいてパラメータの値が変更される毎に、該パラメータの値に基いて、上記記憶部に記憶される音声データのうち上記指定された文字に対応する音声データを変更する音声データ処理ステップと、
文字列の音声データを生成するための、前記第1操作とは異なる第2操作に応じて、上記記憶部に記憶される音声データに基いて、上記登録画面において登録された文字列の音声データを生成するステップと、
を含む記録媒体。
Based on the operation of the game player, a game program that is output to the game player corresponding to a specific character or character string registered and set in advance by the game player is read by the computer and executed. A recording medium recorded as possible,
The above game program
A registration screen display step for displaying a registration screen of a character string including images of selectable characters;
A voice data reading step of reading voice data corresponding to each of the characters selected on the registration screen;
A step of storing each respective audio data read in the voice data reading step in a storage unit,
A setting screen display step for displaying a setting screen for each character having a parameter setting image for setting a parameter of each audio data stored in the storage unit;
Each time the first operation for changing the parameter value is performed, a part of the parameter setting image corresponding to the character designated in the operation is deformed so that the increase or decrease of the parameter value can be visually recognized. A parameter value changing step for changing the parameter value, and
Every time the value of the parameter in the parameter value changing step is changed, based on the value of the parameter, to change the voice data corresponding to the specified character among the audio data stored in the storage unit speech Data processing steps;
The voice of the character string registered on the registration screen based on each voice data stored in the storage unit in response to a second operation different from the first operation for generating voice data of the character string Generating data; and
Including recording medium.
上記設定画面は、上記記憶部に記憶される音声データに基く波形画像をさらに文字毎に有し、
上記音声データ処理ステップは、変更後の音声データに基いて、上記波形画像を更に変更する請求項17記載の記録媒体。
The setting screen further includes, for each character, a waveform image based on voice data stored in the storage unit,
The recording medium according to claim 17, wherein the audio data processing step further changes the waveform image based on the changed audio data.
上記パラメータは、強さ、ピッチ及び速度である請求項17記載の記録媒体。The recording medium according to claim 17, wherein the parameters are strength, pitch, and speed. 上記パラメータ設定画像は、上記パラメータ毎に設けられる請求項17記載の記録媒体。The recording medium according to claim 17, wherein the parameter setting image is provided for each parameter. 上記音声データを生成するステップは、複数の音声データ間をクロスフェード処理により接続する請求項17記載の記録媒体。The recording medium according to claim 17, wherein the step of generating audio data connects a plurality of audio data by a cross-fade process.
JP19639797A 1996-07-12 1997-07-08 Audio processing method, game system, and recording medium Expired - Fee Related JP3674808B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP19639797A JP3674808B2 (en) 1996-07-12 1997-07-08 Audio processing method, game system, and recording medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP20100996 1996-07-12
JP8-201009 1996-07-12
JP19639797A JP3674808B2 (en) 1996-07-12 1997-07-08 Audio processing method, game system, and recording medium

Publications (2)

Publication Number Publication Date
JPH1078792A JPH1078792A (en) 1998-03-24
JP3674808B2 true JP3674808B2 (en) 2005-07-27

Family

ID=26509726

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19639797A Expired - Fee Related JP3674808B2 (en) 1996-07-12 1997-07-08 Audio processing method, game system, and recording medium

Country Status (1)

Country Link
JP (1) JP3674808B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3450237B2 (en) 1999-10-06 2003-09-22 株式会社アルカディア Speech synthesis apparatus and method
GB2443027B (en) * 2006-10-19 2009-04-01 Sony Comp Entertainment Europe Apparatus and method of audio processing
JPWO2015111256A1 (en) * 2014-01-24 2017-03-23 クラリオン株式会社 Audio adjustment system, server, and in-vehicle device

Also Published As

Publication number Publication date
JPH1078792A (en) 1998-03-24

Similar Documents

Publication Publication Date Title
US6760041B2 (en) Electronic equipment that performs enlargement, reduction and shape-modification processing of images on a monitor, depending on output from pressure-sensitive means, method therefor and recording medium recorded with the method
US6364770B1 (en) Image creating apparatus, displayed scene switching method for the image creating apparatus, computer-readable recording medium containing displayed scene switching program for the image creating apparatus, and video game machine
JP3674808B2 (en) Audio processing method, game system, and recording medium
JPH09192353A (en) Icon display control device, command input support, control and recording medium storing computer program
US7034832B2 (en) Computer readable medium storing 3-D image processing program, 3-D image processing method and device, 3-D image processing program, and video game device
JP2000157734A (en) Game device, event occurrence processing, and computer- readable storage medium
JP2992499B2 (en) Image processing method and apparatus, recording medium
US7154484B2 (en) Recording medium, computer and method for selecting computer display items
US6585594B2 (en) Storage medium storing display control program, entertainment apparatus, and display control program
JP3539839B2 (en) Cursor display method, game system, and recording medium in pseudo-three-dimensionally displayed field
US6208358B1 (en) Image processing device, image processing method and storage medium
JPH10323455A (en) Picture processor and character form design device
JP3712065B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP2002541600A (en) Apparatus and method for perspective transformation
JP3223170B2 (en) GAME DEVICE, IMAGE GENERATION METHOD, AND RECORDING MEDIUM RECORDING IMAGE GENERATION PROGRAM
JP3617960B2 (en) Three-dimensional game image processing program, three-dimensional game image processing method, and video game apparatus
JP4123524B2 (en) Image processing apparatus and method, and program
JP2906888B2 (en) Game device having radar display function and display method thereof
JP2001162040A (en) Video game device and recording medium storing program
JP3566953B2 (en) Data reading program, data reading method, and video game apparatus
JP3502073B2 (en) Recording medium, program, image processing method, and image processing apparatus
JP4741164B2 (en) Program execution system, program execution device, recording medium, and image display method
JP2002236942A (en) Recording medium, program, program executing system and program executing device
JPH11231872A (en) Musical sound generation device, image generation device, game device and information storage medium
JP2001162039A (en) Video game device and recording medium storing program

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20030527

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050421

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090513

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090513

Year of fee payment: 4

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090513

Year of fee payment: 4

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090513

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100513

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110513

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110513

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120513

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130513

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130513

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees