JP6616435B2 - 音声生成装置、音声生成プログラム - Google Patents

音声生成装置、音声生成プログラム Download PDF

Info

Publication number
JP6616435B2
JP6616435B2 JP2018010748A JP2018010748A JP6616435B2 JP 6616435 B2 JP6616435 B2 JP 6616435B2 JP 2018010748 A JP2018010748 A JP 2018010748A JP 2018010748 A JP2018010748 A JP 2018010748A JP 6616435 B2 JP6616435 B2 JP 6616435B2
Authority
JP
Japan
Prior art keywords
audio
loop
audio data
data
length
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018010748A
Other languages
English (en)
Other versions
JP2019128492A (ja
Inventor
秀基 細井
佑樹 五十嵐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Capcom Co Ltd
Original Assignee
Capcom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Capcom Co Ltd filed Critical Capcom Co Ltd
Priority to JP2018010748A priority Critical patent/JP6616435B2/ja
Publication of JP2019128492A publication Critical patent/JP2019128492A/ja
Application granted granted Critical
Publication of JP6616435B2 publication Critical patent/JP6616435B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

本発明は、ループ音声を作成するための音声生成装置および音声生成プログラムに関する。
近年、仮想ゲーム空間において、多種多様なBGMが使用されている。例えば、プレイヤキャラクタが三次元の仮想ゲーム空間で移動する際に、草むらを通るときに草の種類に応じたBGMを再生したり、移動空間の天候に応じたBGMを再生したりしている。そして、それらの環境音等を複数重ねあわせることで、リアリティのある多様な環境を表現している。また、これらの環境音には、記憶容量の削減等を目的として、所定期間でループするBGM(以下、ループ音声という)が用いられている。
例えば、特許文献1には、コンテンツをループ再生する技術が開示されている。
特開2015−153442号公報
ところで、ループ音声を生成する場合に、任意の音声素材をそのままループさせると、ループポイントで波形の不連続が生じ、ループポイントでノイズが乗るおそれがある。
そこで、従来技術では、(1)ループさせたいBGMの起点付近および終点付近で音声の波形がゼロクロスするポイントを探し、そのゼロクロスポイント間をループリージョンに指定する。(2)ループリージョンの音声データをループ再生し、プチノイズ等がないかを確認する。という作業を経てループ音声データを生成していた。すなわち、上記の(1)、(2)作業が、各ループ音声データを作成するごとに必要であり、大変手間のかかるものであった。
そこで、本発明の目的は、ループ音声データを生成する作業量を少なくすることである。
第1発明は、コンピュータを、
音声素材が記憶された記憶部から前記音声素材を取得する情報取得手段と、
前記音声素材の先頭から所定のループ開始時刻までの波形データである第1音声データを切り取り、前記第1音声データを前記音声素材の後に移動させ、前記音声素材の末尾と前記第1音声データの先頭とを所定のクロスフェード期間でクロスフェードにより結合してループ音声データを生成する合成手段と、して機能させ
前記合成手段は、前記ループ音声データの長さが所定のサンプル数の倍数になっているかを判定し、当該所定のサンプル数の倍数になっていない場合に、前記ループ音声データの長さが前記所定のサンプル数の倍数になるように、前記音声素材の末尾を削ってから前記音声素材の末尾と前記第1音声データの先頭とを結合する
ことを特徴とする音声生成プログラムである。
第2発明は、コンピュータを、
音声素材が記憶された記憶部から前記音声素材を取得する情報取得手段と、
前記音声素材のうち、所定の始点時刻と所定のループ開始時刻との間の波形データである第1音声データを読み出し、前記音声素材の末尾と前記第1音声データの先頭とを所定のクロスフェード期間でクロスフェードにより結合してループ音声データを生成する合成手段と、
前記ループ音声データにおいて、前記ループ開始時刻から前記第1音声データの末尾までの間をループリージョンに設定するループ設定手段と、して機能させ
前記合成手段は、前記ループ音声データの長さが所定のサンプル数の倍数になっているかを判定し、当該所定のサンプル数の倍数になっていない場合に、前記ループ音声データの長さが前記所定のサンプル数の倍数になるように、前記音声素材の末尾を削ってから前記音声素材の末尾と前記第1音声データの先頭とを結合する
ことを特徴とする音声生成プログラム。
である。
また、第1発明または第2発明において、コンピュータを、前記音声素材の長さおよび前記クロスフェード期間に基づいて、前記ループ音声データの長さを推定演算する推定演算手段としてさらに機能させ、前記合成手段は、前記推定演算手段で演算されたループ音声データの長さと、所定の規定長とを比較し、その差分に応じた長さの波形データを前記音声素材の末尾から削除し、残った前記音声素材の末尾と前記第1音声データの先頭とを前記クロスフェード期間でクロスフェードにより結合してループ音声データを生成する、ことができる。
第3の発明は、前述の音声生成プログラムを記憶した記憶部と、前記音声生成プログラムを実行するコンピュータと、を備える音声生成装置である。
本発明によれば、ループ音声を生成する作業量を少なくすることができる。
第1実施形態における音声生成装置の構成を示すブロック図である。 第1実施形態における音声生成プログラムによる音声生成処理の流れを示すフローチャートである。 図2の音声生成処理過程の波形データの例である。 第1実施形態における音声生成処理の他の例を示すフローチャートである。 第2実施形態における音声生成装置の構成を示すブロック図である。 第2実施形態における音声生成プログラムによる音声生成処理の流れを示すフローチャートである。 図6の音声生成処理過程の波形データの例である。 音声生成プログラムを実装したゲーム装置の構成を示すブロック図である。
[第1実施形態]
本実施形態で説明する音声生成装置では、例えば、ゲームに使用されるループ音声を生成することができる。このようなゲームは、例えば、パーソナルコンピュータ、プレイステーション(登録商標)、XBox(登録商標)、PlayStation Vita(登録商標)などのゲーム装置において実行される。
ゲームでは、各ユーザの操作を受けて、プレイヤキャラクタを三次元の仮想ゲーム空間で活動させたり、プレイヤキャラクタ同士でグループを編成して様々なアクションを行わせたりする。そのプレイヤキャラクタの移動過程やアクション等において、所定のトリガ条件を満たすとBGMが流れる。所定のトリガ条件とは、例えば、プレイヤキャラクタの所定場所への移動、敵キャラクタの出現、敵キャラクタを倒した後、などである。本発明の実施形態にかかる音声生成装置で生成されたループ音声データは、そのような場面において流れるBGMとして使用できる。
以下、本発明の実施形態にかかる音声生成装置について、図面を参照して説明する。
<音声生成装置の構成>
図1は、本実施形態に係る音声生成装置1の構成を示すブロック図である。図1では、後述するループ音声の生成に関する構成を主として示しており、その他の構成については適宜省略する。
図1に示すように、音声生成装置は、例えば、デスクトップ型またはラップトップ型のパーソナルコンピュータで実現することが可能であり、装置本体10と、入力操作部21と、ディスプレイ22と、スピーカ23とを備える。
入力操作部21は、キーボード、ボタン、スイッチなどユーザの操作入力を受ける手段である。
装置本体10は、受信部11と、演算処理部12と、記憶部13と、出力部14とを備える。受信部11は、入力操作部21に入力操作がされた場合の入力信号を受け付ける。出力部14は、演算処理部12の制御を受けて、ディスプレイ22に演算処理部12の処理結果等を表示させたり、音声生成装置1で生成された音声をスピーカ23で再生させる。
記憶部13は、主にHDD(Hard Disk Drive)、RAM(Random Access Memory)およびROM(Read Only Memory)で構成される。記憶部13には、ループ音声データを生成するために使用される音声素材と、本実施形態に係る音声生成プログラムとが格納されている。音声素材は、記憶部13に波形データとして記憶されている。音声素材の種別は、特に限定されないが、例えば、風の音や水の流れる音のようにゲームのバックグラウンドで流れるベース・設置環境音、恒常的なエフェクト音等である。
演算処理部12は、入力操作部21からのユーザ操作に従って各種の演算処理を実行する。また、演算処理部12は、記憶部13に格納された本実施形態に係る音声生成プログラムを読み出して実行することで、情報取得手段121、合成手段122および推定演算手段123として機能する。
<情報取得手段の説明>
情報取得手段121は、記憶部13からループ音声データの基となる音声素材を読み出す。さらに、情報取得手段121は、受信部11を介して、ユーザが入力操作部21に設定したループリージョン情報およびクロスフェード期間を取得する。本実施形態において、ループリージョン情報は、音声素材の先頭から切り取る波形の長さ(時間Ta:図3参照)を含んでいる。
<合成手段の説明>
合成手段122は、ループリージョン情報に基づいて、音声素材の先頭から所定のループ開始時刻までの間の波形データを抽出する音声抽出工程と、抽出した波形データの先頭を音声素材の末尾にクロスフェードにより結合してループ音声データを生成する音声結合工程とを実行する。
以下の説明では、音声素材のうち、先頭から時間Ta経過後の時刻T11までを第1音声データRa、時刻T11から末尾までを第2音声データRbと呼ぶ。また、第1音声データRaと第2音声データRbとの境界の時刻である上記時刻T11をループ開始時刻と呼ぶ(図3参照)。
<推定演算手段の説明>
推定演算手段123は、音声素材の長さおよびクロスフェード期間Txに基づいて、ループ音声データの長さLRを演算する。具体的に、ループ音声データの長さLRは、
LR=(Ta+Tb)−Tx ・・・(1)
により求めることができる(図3参照)。
<音声生成装置の動作>
図2は、本実施形態に係る音声生成装置1の動作、すなわち、音声生成プログラムによる音声生成処理の流れを示すフローチャートである。図3は、図2の音声生成処理過程の波形データ例を示している。
まず、情報取得手段121は、記憶部13から音声素材を読み出す。さらに、情報取得手段121は、受信部11を介して、ユーザが入力操作部21に設定したループリージョン情報およびクロスフェード期間を取得する(ステップS11)。
次いで、合成手段122は、ループリージョン情報に基づいて、音声素材から所定の波形データを切り取る(抽出する)(ステップS12)。具体的に、合成手段122は、音声素材の先頭から時間Taの波形データを切り取る(図3(a),(b)参照)。
合成手段122は、第1音声データRaを第2音声データRbの後に移動させる。そして、合成手段122は、第2音声データRbの末尾部分と第1音声データRaの先頭部分とを互いにクロスフェード期間Tx重ね、相互間をクロスフェードにより結合する(ステップS13)。これにより、ループ音声データが生成される。なお、クロスフェード期間Txは、任意に設定することができる。ただし、クロスフェード期間Txは、第1音声データRaおよび第2音声データRbよりも短い期間である。
以上をまとめると、本件発明は、コンピュータとしての音声生成装置1を、音声素材が記憶された記憶部13から音声素材を取得する情報取得手段121と、音声素材の先頭から所定のループ開始時刻T11までの間の波形データである第1音声データRaを切り取り、第1音声データRaを第2音声データRbの後、すなわち、音声素材の後に移動させ、音声素材(第2音声データRb2)の末尾と第1音声データRaの先頭とをユーザが設定したクロスフェード期間Txでクロスフェードにより結合してループ音声データを生成する合成手段122と、して機能させる音声生成プログラムである。
<発明の効果>
本実施形態の音声生成プログラムによれば、音声素材からループ音声データを生成する作業量を少なくすることができる。具体的に、本実施形態の音声生成プログラムにより生成されたループ音声データは、先頭が第2音声データRbの先頭であり、末尾が第1音声データRaの末尾である。そして、第1音声データRaの末尾と第2音声データRbの先頭との間は、音声素材では繋がっている連続波形である。すなわち、従来技術のように、音声素材の波形のゼロクロスポイントを見つけなくても、自動的に、先頭と末尾が連続するループ音声データを生成することができる。ここで、ループ音声データにおいて、第2音声データRbの末尾と第1音声データRaの先頭との間は、クロスフェードにより結合されているので、両者間の境界でノイズが発生することもない。本実施形態の音声生成プログラムは、特に、始点と終点にこだわらないようなループ音声データの生成に適している。
また、ループ開始時刻T11を任意に設定することができるので、音声素材の波形(音程等)に応じた設定をすることができる。すなわち、音声素材の生成や、使用する音声素材の選択における自由度が向上する。例えば、低音から高音に変化する領域を含むような音声素材の場合に、その変化過程を避け、音程が比較的に落ち着いているところにループ開始時刻を設定することができる。実際の作業では、ユーザがディスプレイで音声素材の波形データを確認しながら作業できるので、本実施形態の技術を適用することで、そういった設定が可能になる。
<変形例>
図4は、音声生成装置の動作、すなわち、音声生成プログラムによる音声生成処理の他の例の流れを示すフローチャートである。図4では、図2と共通の処理に同じ符号を付している。以下の説明では、図2との相違点を中心に説明する。
なお、図4の処理を実行する場合、合成手段122では、生成されるループ音声データを所定の規格長にすることができる。具体的に、合成手段122は、推定演算手段12で演算されたループ音声データの長さが所定の規格長になるように、音声結合工程前の音声素材の末尾を削除したうえで、上記音声結合工程を実行する。
具体的に、図4では、推定演算手段123は、ステップS11後に、「音声素材の長さ」および「クロスフェード期間」に基づいて、ループ音声データの長さを計算する推定演算を実施する(ステップS31)。
合成手段122は、ステップS31で求めた「ループ音声データの長さ」が所定の規格長を満足しているかどうかを判断する(ステップS32)。例えば、音声ファイルフォーマットによっては、音声データのサンプル数が256サンプルの倍数に制限されていることがある。そこで、図6のステップS32に示すように、「ループ音声データ」のサンプル数が256サンプルの倍数になっているかどうか判定する。
そして、「ループ音声データ」のサンプル数が256サンプルの倍数になっている場合(ステップS32でYES)、フローはステップS12に進み、以後、図2と同様の処理が実行される。
一方で、「ループ音声データ」のサンプル数が256サンプルの倍数になっていない場合(ステップS32でNO)、合成手段122は、ステップS13の処理後の「ループ音声データ」のサンプル数が256サンプルの倍数になるように、第2音声データRbの末尾を削り、Tbの値を小さくする(ステップS33)。その後、フローはステップS12に進み、以後、図2と同様の処理が実行される。
これにより、音声素材の長さにかかわらず、所定の規定長のループ音声データを容易にかつ自動的に生成することができる。
ここで、ステップS33において、第2音声データRbの末尾を削るが、第2音声データRbの末尾部分は、第1音声データの先頭部分にクロスフェードして結合させるので、プチノイズや音飛び等が発生することはない。
[第2実施形態]
図5は、本実施形態に係る音声生成装置1の構成を示すブロック図である。図5において、図1と共通の構成要素に同じ符号を付している。以下の説明では、図1との相違点を中心に説明する。
本実施形態では、演算処理部12は、記憶部13に格納された本実施形態に係る音声生成プログラムを読み出して実行することで、情報取得手段121、合成手段122、推定演算手段123およびループ設定手段124として機能する。
<情報取得手段の説明>
情報取得手段121は、第1実施形態と同様に、記憶部13から音声素材を読み出すとともに、ユーザが入力操作部21に設定したループリージョン情報およびクロスフェード期間を取得する。本実施形態において、ループリージョン情報は、音声素材の波形データの読み出し期間の情報を含む。具体的に、ループリージョン情報は、波形データの読み出しの始点となる始点時刻T21および始点時刻T21から読み出す長さ(時間Tc)の情報を含む(図7参照)。
<合成手段の説明>
合成手段122は、ループリージョン情報に基づいて、音声抽出工程と、音声結合工程とを実行する。音声抽出工程では、合成手段122は、音声素材のうち、情報取得手段121で読み出された始点時刻T21からループ開始時刻T22までの間の波形データを抽出する(図7参照)。音声結合工程では、合成手段122は、抽出した波形データの先頭を音声素材の末尾にクロスフェードにより結合してループ音声データを生成する。
以下の説明では、音声素材のうち、先頭から始点時刻T21までを序奏音声データRi、始点時刻T21から時間Tc経過後の時刻T22までを第1音声データRa、時刻T22から末尾までを第2音声データRbと呼ぶ(図7参照)。また、第1音声データRaと第2音声データRbとの境界の時刻T22をループ開始時刻と呼ぶ。
<ループ設定手段の説明>
ループ設定手段124は、合成手段122で生成したループ音声データのうち、上記始点時刻T21とループ音声データの末尾までの間をループリージョンに設定する(図7参照)。
<音声生成装置の動作>
図6は、本実施形態に係る音声生成プログラムによる音声生成処理の流れを示すフローチャートである。図7は、図6の音声生成処理過程の波形データ例を示している。なお、ここでは、前述の第1実施形態との違いを中心に説明するものとし、共通する内容について、説明を省略する場合がある。
まず、情報取得手段121は、記憶部13から音声素材を読み出し、ユーザが入力操作部に設定したループリージョン情報およびクロスフェード期間Txを取得する(ステップS21)。
次いで、合成手段122は、音声素材の始点時刻T21から時間Tcの波形データを第1音声データRaとして読み出す(ステップS22)(図7(a)参照)。
合成手段122は、読み出した第1音声データRaを第2音声データRbの後に貼り付ける(ステップS23)。このとき、第2音声データRbの末尾部分と第1音声データRaの先頭部分とが互いにクロスフェード期間Txが重なるように貼り付ける。そして、第2音声データRbと第1音声データRaの相互間をクロスフェードにより結合する。これにより、ループ音声データが生成される。
なお、クロスフェード期間Txは、任意に設定することができる。ただし、クロスフェード期間Txは、第1音声データRaおよび第2音声データRbよりも短い期間である。
ループ設定手段124は、ループリージョンLRを設定する(ステップS24)。ここでは、ループ設定手段124は、第2音声データRbの先頭から第1音声データRaの末尾までの間をループリージョンLRに設定する(図7(b)参照)。なお、図7(b)では、発明の理解を容易にするために、ループ音声データのループリージョンLRの部分が連続再生されている様子を示している。
以上をまとめると、本件発明は、コンピュータとしての音声生成装置1を、音声素材が記憶された記憶部13から音声素材を取得する情報取得手段121と、音声素材のうち、始点時刻T21とループ開始時刻T22との間の波形データである第1音声データRaを読み出し、音声素材(第2音声データRb)の末尾と第1音声データRaの先頭とをクロスフェード期間Txでクロスフェードにより結合してループ音声データを生成する合成手段122と、ループ音声データにおいて、ループ開始時刻T22から第1音声データRaの末尾までの間をループリージョンLRに設定するループ設定手段124と、して機能させる音声生成プログラムである。
ここで、情報取得手段121は、始点時刻T21およびループ開始時刻T22を、例えば、入力操作部21にユーザが設定したループリージョン情報から取得することができる。具体的に、ループ開始時刻T22は、例えば、ループリージョン情報に含まれる「始点時刻T21」から「音声素材の先頭から切り取る波形の長さTc」が経過した時刻である。
<発明の効果>
本実施形態においても、第1実施形態と同様に、音声素材からループ音声データを生成する作業量を少なくすることができる。具体的に、ループ音声データのループリージョンLRに設定された範囲では、先頭が第2音声データRbの先頭であり、末尾が第1音声データRaの末尾である。そして、第1音声データRaの末尾と第2音声データRbの先頭との間は、音声素材では繋がっている連続波形である。したがって、従来技術のように、音声素材のゼロクロスポイントを見つけなくても、自動的に、ループリージョンLRの先頭と末尾が連続するループ音声データを生成することができる。
さらに、始点時刻T21を設定するようにしているので、序奏音声データRiを含むようなループ音声データを生成することができる。これにより、例えば、ゲームにおいて、イベント発生時に、印象的かつ特有の導入音を流し、そのあとは、次のイベントが発生するまで所定のサウンドがループ再生されるようなループ音声データを生成することができる。
[他の実施形態]
上記実施形態において説明した各種制御手段および処理手順は一例であって、本発明、その適用物、或いはその用途の範囲を制限することを意図するものではない。各種制御手段および処理手順は、本発明の要旨を変更しない範囲で適宜設計変更が可能である。また、各実施形態を組み合わせて、新たな実施形態としてもよい。
例えば、上記実施形態では、音声生成プログラムの処理をパーソナルコンピュータで実行する例について説明した。しかし、本発明の実施形態はこれには限られない。
例えば、音声生成プログラムの処理を、サーバ装置で実行するようにしてもよいし、ゲーム装置で実行するようにしてもよい。サーバ装置で音声生成プログラムを実行する場合、例えば、音声生成プログラムが、サーバ装置に内蔵されたCPU(中央演算装置)を情報取得手段や合成手段として機能させればよい。その具体的な動作については、前述の「音声生成装置の動作」と同じである。
音声生成プログラムの処理を、ゲーム装置で実行する例について、図8を参照して説明する。
<ゲーム装置5の構成>
図8のゲーム装置5には、ディスプレイ61、スピーカ62およびコントローラ63が外部接続または内蔵される。ゲーム装置5では、例えば、図示しない外部のサーバ装置から受信したゲームプログラムおよびゲームデータに基づいてゲームが進行する。
ゲーム装置5は、ネットワークインターフェース51、グラフィック処理部52、オーディオ処理部53、操作部54、記憶部55および制御部56を有する。ネットワークインターフェース51、グラフィック処理部52、オーディオ処理部53、操作部54および記憶部55は、バス59を介して制御部56と電気的に接続されている。以下では、ループ音声データの生成・出力に関連する機能部についてのみ説明する。
オーディオ処理部53は、制御部56の指示に従ってデジタルのゲーム音声を再生および合成する。オーディオ処理部53はスピーカ62と接続されており、再生および合成されたゲーム音声は、スピーカ62から出力される。
記憶部55には、ループ音声データを生成するために使用される音声素材、音声生成プログラム、ループリージョン情報およびクロスフェード期間が格納されている。
制御部56は、CPU及び半導体メモリを含むマイクロコンピュータで構成され、自装置5の動作を制御する。また、制御部56は、記憶部55に格納された本実施形態に係る音声生成プログラムを読み出して実行することで、情報取得手段121、合成手段122、推定演算手段123およびループ設定手段124として機能する。
<ゲーム装置5の動作>
ゲーム装置5の制御部56は、ゲームの進行中に、ループ音声を再生するイベントが発生すると、そのイベントに対応する音声素材を記憶部55から読み出して、ループ音声データを生成する。そして、制御部56は、オーディオ処理部53を制御して、スピーカ62からループ音声データを出力させる。なお、ループ音声データの生成において、ループリージョン情報およびクロスフェード期間が、ユーザの入力によるか、あらかじめ記憶部に格納されているかの違いがあるが、実質的な動作は、前述の第1および第2実施形態の「音声生成装置の動作」と同様であり、ここではその詳細説明を省略する。
このように、ゲーム装置に本発明に係る音声生成プログラムを実装することにより、記憶部に格納された音声素材をループ再生させることができる。これにより、多種多様なBGMを再生する場合においても、記憶容量の増大を防ぐことができる。
さらに、同じ音声素材のなかで、互いに異なる任意の範囲で切り出した音声データに基づいて、ループ音声データを生成し、再生させることができる。すなわち、単一の音声素材から、互いに異なるループ音声データを生成することが可能になる。これにより、限られた容量の中で、多様な表現を実現することができる。
前記実施形態では、ループリージョン情報およびクロスフェード期間は、ユーザの入力によるものとしたが、これに限定されない。例えば、上記ゲーム装置の説明のように、ループリージョン情報およびクロスフェード期間が、あらかじめ記憶部に格納されていてもよい。
また、前述の実施形態において、図3や図7のMKで示すように、クロスフェード期間の先頭に、マーカーを付すようにしてもよい。これにより、ユーザがループ音声データのチェックをする際の手間を削減することができる。
また、前述の第2実施形態と第1実施形態の変形例とを組み合わせてもよい。この場合、図6のフローチャートにおいて、ステップS21とステップS22との間に、図4のステップS31からS33のフローを追加すればよい。具体的な動作は、第1実施形態の変形例に記載したものと同様であり、ここではその詳細説明を省略する。
これらの他の実施形態を採用した場合においても、本発明の作用効果は発揮される。また、本実施形態と他の実施形態、および他の実施形態同士を適宜組み合わせることも可能である。
10 音声生成装置(コンピュータ)
121 情報取得手段
122 合成手段
123 推定演算手段
124 ループ設定手段
5 ゲーム装置(コンピュータ)

Claims (4)

  1. コンピュータを、
    音声素材が記憶された記憶部から前記音声素材を取得する情報取得手段と、
    前記音声素材の先頭から所定のループ開始時刻までの波形データである第1音声データを切り取り、前記第1音声データを前記音声素材の後に移動させ、前記音声素材の末尾と前記第1音声データの先頭とを所定のクロスフェード期間でクロスフェードにより結合してループ音声データを生成する合成手段と、して機能させ
    前記合成手段は、前記ループ音声データの長さが所定のサンプル数の倍数になっているかを判定し、当該所定のサンプル数の倍数になっていない場合に、前記ループ音声データの長さが前記所定のサンプル数の倍数になるように、前記音声素材の末尾を削ってから前記音声素材の末尾と前記第1音声データの先頭とを結合する
    ことを特徴とする音声生成プログラム。
  2. コンピュータを、
    音声素材が記憶された記憶部から前記音声素材を取得する情報取得手段と、
    前記音声素材のうち、所定の始点時刻と所定のループ開始時刻との間の波形データである第1音声データを読み出し、前記音声素材の末尾と前記第1音声データの先頭とを所定のクロスフェード期間でクロスフェードにより結合してループ音声データを生成する合成手段と、
    前記ループ音声データにおいて、前記ループ開始時刻から前記第1音声データの末尾までの間をループリージョンに設定するループ設定手段と、して機能させ
    前記合成手段は、前記ループ音声データの長さが所定のサンプル数の倍数になっているかを判定し、当該所定のサンプル数の倍数になっていない場合に、前記ループ音声データの長さが前記所定のサンプル数の倍数になるように、前記音声素材の末尾を削ってから前記音声素材の末尾と前記第1音声データの先頭とを結合する
    ることを特徴とする音声生成プログラム。
  3. コンピュータを、
    前記音声素材の長さおよび前記クロスフェード期間に基づいて、前記ループ音声データの長さを推定演算する推定演算手段としてさらに機能させ、
    前記合成手段は、前記推定演算手段で演算されたループ音声データの長さと、所定の規定長とを比較し、その差分に応じた長さの波形データを前記音声素材の末尾から削除し、残った前記音声素材の末尾と前記第1音声データの先頭とを前記クロスフェード期間でクロスフェードにより結合してループ音声データを生成する
    ことを特徴とする請求項1または2に記載の音声生成プログラム。
  4. 請求項1〜3のいずれか一つに記載の音声生成プログラムを記憶した記憶部と、前記音声生成プログラムを実行するコンピュータと、を備える音声生成装置。
JP2018010748A 2018-01-25 2018-01-25 音声生成装置、音声生成プログラム Active JP6616435B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018010748A JP6616435B2 (ja) 2018-01-25 2018-01-25 音声生成装置、音声生成プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018010748A JP6616435B2 (ja) 2018-01-25 2018-01-25 音声生成装置、音声生成プログラム

Publications (2)

Publication Number Publication Date
JP2019128492A JP2019128492A (ja) 2019-08-01
JP6616435B2 true JP6616435B2 (ja) 2019-12-04

Family

ID=67472099

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018010748A Active JP6616435B2 (ja) 2018-01-25 2018-01-25 音声生成装置、音声生成プログラム

Country Status (1)

Country Link
JP (1) JP6616435B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7381856B2 (ja) * 2019-11-12 2023-11-16 株式会社カプコン 音声再生プログラム、音声再生装置、および音声生成方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59188697A (ja) * 1983-04-11 1984-10-26 ヤマハ株式会社 楽音発生装置
JP3644263B2 (ja) * 1998-07-31 2005-04-27 ヤマハ株式会社 波形形成装置及び方法
JP3674526B2 (ja) * 2001-03-23 2005-07-20 ヤマハ株式会社 波形合成方法、音データ転送装置およびプログラム
JP3780857B2 (ja) * 2001-03-26 2006-05-31 ヤマハ株式会社 波形編集方法および波形編集装置
JP3829732B2 (ja) * 2002-02-20 2006-10-04 ヤマハ株式会社 波形生成装置及び方法
JP3829134B2 (ja) * 2003-11-12 2006-10-04 株式会社コナミデジタルエンタテインメント 生成装置、再生装置、生成方法、再生方法、および、プログラム

Also Published As

Publication number Publication date
JP2019128492A (ja) 2019-08-01

Similar Documents

Publication Publication Date Title
WO2017154894A1 (ja) 装置、プログラム及び情報処理方法
JP4274152B2 (ja) 楽音合成装置
TW201230009A (en) Speech synthesis information editing apparatus
JP2017040867A (ja) 情報処理装置
JP6616435B2 (ja) 音声生成装置、音声生成プログラム
JP2003122358A (ja) 音響信号出力方法、音響信号生成装置及びプログラム
JP4757704B2 (ja) 音楽再生プログラム、音楽再生装置、音楽再生方法及び音楽再生システム
JP7339512B2 (ja) 音声再生プログラム、および音声再生装置
JP2007183442A (ja) 楽音合成装置及びプログラム
JP2010113278A (ja) 楽曲処理装置およびプログラム
JP2006189471A (ja) プログラム、歌唱力判定方法、ならびに、判定装置
EP1650747B1 (en) Audio playback program, audio playback method, and audio playback device
JP7381856B2 (ja) 音声再生プログラム、音声再生装置、および音声生成方法
JP2013046661A (ja) ゲーム機における楽曲切り替え装置
JP3829134B2 (ja) 生成装置、再生装置、生成方法、再生方法、および、プログラム
JP4607210B2 (ja) 再生装置、再生方法、ならびに、プログラム
JP7492104B2 (ja) 音声再生プログラム、音声再生装置、および音声生成方法
JP6840715B2 (ja) ゲームプログラム、およびゲーム装置
JP5359203B2 (ja) 楽曲処理装置およびプログラム
JP2013105085A (ja) 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
JP6322907B2 (ja) 楽譜表示装置、楽譜表示方法、及びプログラム
JP6185136B1 (ja) 音声生成プログラムおよびゲーム装置
JP4714230B2 (ja) 音声処理装置、音声処理方法、ならびに、プログラム
JP6299532B2 (ja) 歌唱模範表示装置、プログラム
JP5652522B1 (ja) 歌唱模範表示装置、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191107

R150 Certificate of patent or registration of utility model

Ref document number: 6616435

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250