JP6185136B1 - 音声生成プログラムおよびゲーム装置 - Google Patents

音声生成プログラムおよびゲーム装置 Download PDF

Info

Publication number
JP6185136B1
JP6185136B1 JP2016216134A JP2016216134A JP6185136B1 JP 6185136 B1 JP6185136 B1 JP 6185136B1 JP 2016216134 A JP2016216134 A JP 2016216134A JP 2016216134 A JP2016216134 A JP 2016216134A JP 6185136 B1 JP6185136 B1 JP 6185136B1
Authority
JP
Japan
Prior art keywords
voice
sound
speech
synthesized
recorded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016216134A
Other languages
English (en)
Other versions
JP2018072764A (ja
Inventor
善樹 山東
善樹 山東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Capcom Co Ltd
Original Assignee
Capcom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Capcom Co Ltd filed Critical Capcom Co Ltd
Priority to JP2016216134A priority Critical patent/JP6185136B1/ja
Application granted granted Critical
Publication of JP6185136B1 publication Critical patent/JP6185136B1/ja
Publication of JP2018072764A publication Critical patent/JP2018072764A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)

Abstract

【課題】自由度の高い内容の音声を表情豊かに生成できる音声生成プログラムを提供する。【解決手段】音声生成プログラムは、コンピュータを、テキストデータを複数のフレーズに分割するテキスト分割手段、テキストデータに基づく音声信号である合成音声を生成する音声合成手段、合成音声を分割された各フレーズ毎に順次再生する第1音声再生手段、第1音声再生手段による各フレーズの合成音声の再生の境目に、予め録音された音声信号である録音音声を再生する第2音声再生手段として機能させる。録音音声は、テキストデータの感情を表情豊かに表現した人声などからなる。【選択図】図7

Description

この発明は、テキストに基づいて合成された音声を含む音声を再生する音声生成プログラムよびゲーム装置に関する。
ビデオゲームなどで、場面に応じた音声を生成(generate)する場合、テキストデータに基いて音声波形を合成する音声合成(特許文献1参照)や、予め録音しておいた音声を再生する音声再生などが用いられる。
特開2001−034282
音声合成は、どのような文でもテキストデータに基いて音声を合成できるため、自由度が高く、臨機応変な文の音声化が可能である。その反面、音声信号波形の合成に時間が掛かるため、即座の音声の生成ができない。また、人工的に合成された音声波形であるため単調で感情表現が十分できないという欠点がある。
一方、録音音声の再生は、メモリから音声データを読みだすだけで再生できるため、即座の再生が可能であるとともに、録音音声として感情を込めた音を録音しておけば、感情豊かな表情のある音声の生成が可能である。その一方で、予め録音された音声しか再生できないため、自由度が低く臨機応変な内容を生成できないという欠点がある。
この発明の目的は、自由度の高い内容の音声を表情豊かに生成できる音声生成プログラムよびゲーム装置を提供することにある。
本発明の音声生成プログラムは、表示部、操作部および記憶部を備えたコンピュータを、表示部に仮想的な話者であるキャラクタを表示するキャラクタ表示手段、操作部から入力された語句を記憶部に記憶させる語句記憶手段、語句記憶手段に記憶された語句を含むテキストデータを生成するテキストデータ生成手段、テキストデータ生成手段が生成したテキストデータに基づく音声信号である合成音声を生成する音声合成手段、音声合成手段に供給するテキストデータの長さを判定し、音声合成に要する時間が所定時間を超えると予想される場合、このテキストデータを第1および第2のフレーズを含む複数のフレーズに分割するテキスト分割手段、音声合成手段によって合成された合成音声を再生する第1音声再生手段、予め録音された音声信号である録音音声を再生する第2音声再生手段として機能させ
テキストデータが複数のフレーズに分割されなかった場合、第1音声再生手段および第2音声再生手段は、キャラクタが発する音声として、第1の録音音声、テキストデータの合成音声、および、第2の録音音声の順に音声を再生し、
テキストデータが複数のフレーズに分割された場合、第1音声再生手段および第2音声再生手段は、キャラクタが発する音声として、第1の録音音声、第1のフレーズの合成音声、第2の録音音声、第2のフレーズの合成音声、および、第3の録音音声の順に音声を再生することを特徴とする。
上記発明において、音声合成手段は、第2音声再生手段が録音音声を再生している間に、その次に第1音声再生手段によって再生されるフレーズの合成音声を生成してもよい。
また、上記発明において、音声合成手段は、第1音声再生手段による再生前に、テキストデータ全体を合成音声に生成し、第1音声再生手段は、生成された合成音声を、各フレーズ毎に読み出して再生してもよい。
上記発明において、音声合成手段は、複数カテゴリから選択された1のカテゴリのテキストデータに基づいて合成音声を生成し、第2音声再生手段は、テキストデータと同一カテゴリの録音音声を再生してもよい。
本発明のゲーム装置は、上記音声生成プログラムを記憶する記憶部と、該音声生成プログラムを実行する制御部と、を備える。キャラクタにはゲームの進行に応じて変化する連続的または段階的な感情パラメータが設定され、カテゴリは、キャラクタの感情パラメータに基づいて設定される。
この発明によれば、テキストデータに基づく自由度の高い音声を録音音声で表情づけして生成することが可能になる。
本発明が適用される音声生成装置のブロック図である。 音声生成装置による音声生成の手順を説明する図である。 ゲーム装置のブロック図である。 ゲーム装置のメモリ構成図である。 ゲーム装置で実行されるゲームの進行手順を説明する図である。 ゲーム装置制御部のゲームにおける会話処理を示すフローチャートである。 合成音声の生成を分割し、途中に録音音声を挿入する場合の音声生成の手順を説明する図である。 合成音声の再生を分割し、途中に録音音声を挿入する場合の音声生成の手順を説明する図である。
図面を参照してこの発明が適用される音声生成装置(generator)100について説明する。図1は音声生成装置100の機能ブロック図である。図2は、音声生成装置100による音声生成の基本的な手順を示す図である。この音声生成装置100は、テキストデータ(以下、単にテキストと呼ぶ。)110に基いて音声データを合成(synthesize)する音声合成部101、および、音声データを再生(playback)する音声再生部104を備えている。
音声再生部104は、予め録音された音声データ(録音音声)111、および、音声合成部101が合成した音声データ(合成音声)112の両方を再生する。音声合成部101がテキスト110に基づく音声を合成するとき、音声再生部104が、図2に示すように、その合成音声112を再生する前後に、予め録音されていた録音音声111(前音声111A、後音声111B)を再生する。
録音音声は、たとえば声優などが表情豊かに発声した音声(生声)である。これにより、人工的に合成されて表情が乏しい合成音声112を録音音声で補完することができる。
音声合成部101に供給されるテキスト110は、例えば、何らかの感情(例えば喜びや驚き)を伴ったものである。録音音声メモリ103には、種々の感情に対応し、その感情を表現する複数の録音音声が記憶されている。前音声111Aおよび後音声111Bは、供給されるテキストの感情と同じような感情を表現するもの(同じようなカテゴリに分類されるもの(図4参照))が選択される。
テキスト110を音声合成して出力するプロセスがスタートすると、まず、前音声111Aがメモリ103から読み出され、これを音声再生部104で再生する。前音声111Aが再生されている間に、音声合成部101は、供給されたテキスト110を音声化(音声合成)する。音声合成部101によって合成された合成音声112は合成バッファ102に記憶され、前音声111Aの再生が終了したのち、前音声111Aに続いて再生される。合成音声112の再生中に後音声111Bが読み出される。合成音声112の再生が終了すると、音声再生部104は、これに続けて後音声111Bを再生する。
後音声111Bも前音声111Aと同様に、メモリ103に記憶されている録音音声111のなかから、音声合成部101に供給されるテキスト110(音声合成部101で合成された合成音声112)に対応するものが選択される。なお、後音声111Bのメモリ103からの読み出しは、前音声111Aの読み出しと同時に行われてもよい。
後音声111Bは前音声111Aとは別のものが選択されるのが好ましいが、同じものであってもよい。前音声111Aと合成音声112との間、および、合成音声112と後音声111Bとの間は、完全に連続していてもいなくてもよいが、ユーザが聴覚的に一連の発声として聞こえる程度の間隔(たとえば1秒以内)で連続して再生されることが好ましい。図2に示した前音声111A、後音声111Bは、両方再生されてもよいが前音声111Aのみでもよい。
図1、図2に説明した音声生成装置100は、音声を合成する種々の装置に適用可能である。例えば、ビデオゲームにおけるキャラクタの会話音声の生成に用いてもよい。以下、音声生成装置100の適用例として携帯ゲーム機およびこの携帯ゲーム装置で実行されるゲームについて説明する。
以下一例として説明するゲームは、ゲーム中のキャラクタ(女の子)とユーザ(ゲームのプレイヤ)が会話をしながら、キャラクタ(AI)の知識を増やしてゆく育成ゲームである。キャラクタは、ユーザと会話する言葉を発する。この言葉の生成機能を上述の音声生成装置100が担当する。
図3は、上記音声生成装置100の機能がプログラムとの協働で実現されるゲーム装置1のブロック図である。図3において、ゲーム装置1は、バス26上に、制御部20、操作部30、ゲームメディアインタフェース31、SDカードインタフェース32、無線通信回路部33およびマイクインタフェース34を有している。制御部20は、CPU21、ROM(フラッシュメモリ)22、RAM23、画像プロセッサ24および音声プロセッサ25を含んでいる。
画像プロセッサ24には、ビデオRAM(VRAM)40が接続され、VRAM40には表示部41が接続されている。表示部41は、上述の上部ディスプレイ10および下部ディスプレイ11を含む。音声プロセッサ25には、D/Aコンバータを含むアンプ42が接続され、アンプ42にはスピーカ16およびイヤホン端子17が接続されている。
操作部30は、上述のタッチパネル12、ボタン群13およびスライドパッド14を含み、それぞれユーザの操作を受け付けて、その操作内容に応じた操作信号を発生する。この操作信号はCPU21によって読み取られる。マイクインタフェース34は、A/Dコンバータを内蔵している。マイクインタフェース34には、マイク18が接続されている。マイクインタフェース34は、マイク18が集音した音声をデジタル信号に返還して制御部20に入力する。
ゲームメディアインタフェース31はメディアスロット31Aを含み、メディアスロット31Aにセットされたゲームメディア5に対するリード/ライトを行う。ゲームメディア5は、専用の半導体メモリであり、内部にゲームデータおよびゲームプログラムが記憶されている。ゲームデータは、キャラクタが話す会話文のテキスト110、および、前音声、後音声として用いられる録音音声111などを含んでいる。また、ゲームメディア5は、ゲーム履歴データ記憶エリア50を有している。
ゲーム履歴データは、ユーザがこのゲームにおいて入力した語句などを含む。ゲームが一旦終了されたとき、そのときのゲームの状態を示すゲーム履歴データがRAM23からゲーム履歴データ記憶エリア50に保存される。その後、ゲームが再開されるとき、ゲーム履歴データ記憶エリア50からRAM23に転送される。なお、ゲームメディア5は、専用の半導体メモリに限定されず、汎用の半導体メモリ、光ディスクなどでも構わない。
SDカードインタフェース32にはSDカード6が接続される。SDカード6は、マイクロSDカードであり、下部筐体1Bに内蔵されている。SDカード6には、ダウンロードされたゲームプログラムなどが記憶される。
RAM23には、ゲームメディア5から読み込まれたゲームプログラムおよびゲームデータを記憶するロードエリア、および、CPU21がゲームプログラムを実行する際に使用されるワークエリアが設定される。したがって、RAM23には、会話文テキスト110や録音音声111を記憶する記憶エリア61や、初期設定やキャラクタとの会話においてユーザが入力した語句を記憶する入力語句記憶エリア60が設けられている。また、図1の合成音声バッファ102もRAM23内に設けられる。ROM22は、フラッシュメモリで構成され、ゲーム装置1がゲームメディア5からゲームプログラムを読み込んでゲームを実行するための基本プログラムが設定される。
画像プロセッサ24は、GPU(Graphics Processing Unit,グラフィックス・プロセッシング・ユニット)を有し、上述の上部ディスプレイ10に表示されるキャラクタの画像や下部ディスプレイ11に表示される文字パネルの画像などを形成しVRAM40上に描画する。
音声プロセッサ25は、DSP(Digital Signal Processor,デジタル・シグナル・プロセッサ)を有し、ゲーム音声を生成する。このゲームにおいて、ゲーム音声には、キャラクタがユーザと会話する音声が含まれており、図1に示した音声生成装置100は、ゲーム装置1の制御部20(特に音声プロセッサ25)およびゲームプログラムの協働によって実現される。アンプ42は、音声プロセッサ25によって音声信号を増幅してスピーカ16およびイヤホン端子17に出力する。
無線通信回路部33は、2.4GHz帯のデジタル通信回路を備えており、無線アクセスポイントを介したインターネット通信を行うとともに、直接他のゲーム装置1と通信を行う。無線通信回路部33は、インターネット通信を行う場合にはIEEE802.11g(いわゆるWi−Fi)規格で通信を行い、ローカル通信を行う場合にはIEEE802.11b規格のアドホックモードまたは独自の規格で通信を行う。
なお、図1の音声合成部101および音声再生部104は、制御部20とゲームプログラムとの協働で実現される。
図4は、ゲームデータの一部である会話文のテキスト110と録音音声111の記憶形態を説明する図である。図4(A)は、テキスト110および録音音声111の記憶エリア61の構成を示す図である。記憶エリア61は、複数のカテゴリに区分され、各カテゴリは複数のサブカテゴリに区分されている。
カテゴリは、たとえば、「よろこび」、「通常」、「ドッキリ」などの大雑把な感情の分類である。サブカテゴリは、カテゴリ(大雑把な感情)中の具体的な感情を表している。たとえば、「よろこび」カテゴリは、「うれしい」、「満足」、「しあわせ」、「気楽」、「リラックス」などのサブカテゴリを含んでいる。また、「通常」カテゴリは、「確認」、「否定」、「思いつき」、「ひとりごと」などのサブカテゴリを含んでいる。
各サブカテゴリに、1または複数の会話文のテキスト(会話文データ)、および、1または複数の録音音声が記憶される。所定の会話のタイミングにゲームの進行状況に応じたカテゴリおよび会話文110が選択され、このカテゴリに対応する録音音声が前音声111A、後音声111Bとして選択される。
図4(B)は、音声生成データ記憶領域の一部の具体例を示した図である。この図は、「よろこび」カテゴリの記憶エリアの例を示した図である。「よろこび」カテゴリには「うれしい」、「満足」、「しあわせ」、「気楽」、「リラックス」のサブカテゴリを含み、それぞれのサブカテゴリ領域には1または複数の会話文および録音音声が記憶されている。
会話文としては、「○○をもらってうれしいです。」や「○○おいしそう。」などの文が記憶される。文中の「○○」は空欄を示し、この箇所にユーザによって入力された語句が当てはめられる。
録音音声としては「うわ〜」、「わーい」、「やった!」など「うれしい」の感情を表現する間投詞などの短い音声が記憶される。この記憶されている会話文および録音音声に基づいて「うわ〜、プレゼントをもらってうれしいです。やった!」などのキャラクタの発言が生成される。
また、記憶された一部または全部の録音音声を複数のカテゴリに共通のものとしてもよい。たとえば、「え〜」、「う〜ん」、「あ〜」などの会話の間をつなぐ言葉または「ははは」「うふ」「キャ」などの笑い声などを共通の録音音声として記憶してもよい。これらの録音音声が、全てのカテゴリで共通に用いられてもよく、一部の(複数の)カテゴリで共通に用いられてもよい。
また、同じ言葉、たとえば「う〜ん」などが複数のカテゴリで用いられる場合、各カテゴリ毎に録音音声として記憶されてもよい。この場合、それぞれそのカテゴリに応じた表情づけで発音されたものが録音されればよい。
なお、制御部20は、会話文への語句の当てはめを、意味を考慮せずにランダムに行ってもよい。たとえば、「え〜、そのゲームって美味しそうですね。う〜ん。」などの通常とは異なる用法で入力語句が使用されてもよい。このゲームでは、この語句の間違った用法により、キャラクタの可愛さや学習レベルを演出している。
また、制御部20は、キャラクタに「え〜、そのゲームって美味しそうですね。う〜ん。」との会話をさせたあと、たとえば、「ゲームってどんな味ですか?」とユーザに質問させる。このとき、ユーザが「ゲームは食べ物ではない。」と返答をすると、制御部20は、ゲームが食べ物ではないことを記憶する(学習する)。制御部20は、質問と並行して複数の回答用選択肢を表示し、ユーザに適当な選択肢を選択させることで、ユーザの返答を得るようにしてもよい。なお、制御部20(キャラクタ)の学習については後述する。
また、会話文中に設けられる空欄は複数であってもよい。たとえば、「○○さんは、△△が好きなんですか?」などである。○○、△△のところに、たとえばユーザの名前やユーザによって登録された語句が当てはめられる。
図5はゲーム装置1の制御部20およびユーザによって行われる会話の順序・流れを示す図である。ゲームのスタート時に、ユーザがゲーム装置1に対してプロファイルや好みを登録する(S100)。そして、入力された内容を制御部20が入力語句記憶エリア60に記憶する(S101)。
その後、ユーザとキャラクタがゲーム中で一緒に旅に出るゲームを開始させる(S110)。そして、制御部20は、旅の途中の場面ごとにキャラクタとユーザが会話するイベントを実行する(S120)。
会話は以下の手順で行われる。まず、制御部20はキャラクタがユーザに質問するイベントを実行させ(S121)、これに対するユーザの回答を受け付ける(S122)。
キャラクタは、ユーザによって登録された語句を会話文に当てはめることで会話を行う。これに対するユーザの会話の入力は、下画面に表示される文字パレットで文字を選択することで行われる。
制御部20は、ユーザによって入力された回答を記憶し、その内容(質問に対する回答)を更新(学習)する。この会話イベントを繰り返すことで、入力語句記憶エリア60に記憶される語句が増加し、且つ、その語句の属性(意味)を蓄積する。これにより、キャラクタが成長する様子を表現することができる。
図6は、キャラクタの発言を作成する制御部20の動作を示すフローチャートである。この処理は、定期的なトリガに応じて実行される。まず、現在のゲームの状況を判断する(S10)。このゲームの状況に基いて今が会話タイミングか否かを決定する(S11)。タイミングでない場合には(S11でNO)そのまま動作を終了する。
会話のタイミングであると判断された場合は(S11でYES)、現在のゲームの状況に基づき生成する会話のカテゴリや会話文を選択する(S12)。なお、このカテゴリ、会話文の選択はランダムに行われてもよい。
次に、選択された会話文の空欄に当てはめる語句を入力語句記憶エリア60から選択する(S13)。これで会話文のテキスト110が完成する。そして、この会話文と同じカテゴリに分類されている録音音声111のなかから、前音声111Aおよび後音声111Bを選択する(S14)。
完成した会話文のテキストを音声合成部101に出力して音声データの合成を指示するとともに(S15)、前音声111Aを音声再生部104に入力して再生させる(S16)。前音声111Aの再生は1〜2秒程度継続し、この間に音声合成部101は会話文の音声を合成する。
前音声111Aの再生が終了すると(S17)、音声合成部101によって合成された合成音声112を音声再生部104に再生させる(S18)。合成音声112の再生が終了すると(S19)、後音声111Bを音声再生部104に再生させる(S20)。この再生とともに、ユーザによる回答の入力を受け付ける(S21)。入力された回答の語句を入力語句記憶エリア60に記憶する(S22)。
図7、図8は、本発明の実施形態である音声生成の手順を説明する図である。この実施形態では、会話文を複数(この例では2つ)のフレーズに分割し、フレーズとふれーずの境目に「え〜」、「あ〜」、「んと〜」などの短い録音音声を挿入する。これにより、会話文の表情付けをより効率的に行う。なお、図7、図8はテキストを2つに分割した場合を例示しているが、分割数は2に限定されない。
図7は、会話文を2つのフレーズに分割し、フレーズ毎に音声合成する場合の手順を示した図である。音声合成装置としては、図1に示したものが適用可能である。
テキスト110を音声合成して出力するプロセスがスタートすると、まず、前音声111Aがメモリ103から読み出され、これを音声再生部104で再生する。前音声111Aが再生されている間に、音声合成部101は、供給されたテキスト110をスキャンして分割箇所を決定する。一般的に、テキストの句読点や文節の切れ目が分割箇所とされる。分割箇所が決定されると前半のフレーズ(会話文の前半)を音声化(音声合成)する。音声合成部101によって合成された合成音声112Aは合成バッファ102に記憶され、前音声111Aの再生が終了したのち、前音声111Aに続いて再生される。合成音声112Aの再生中にフレーズ間で再生される録音音声である中音声111Cが読み出される。合成音声112Aの再生が終了すると、音声再生部104は、これに続けて中音声111Cを再生する。なお、中音声111Cの読み出しは、前音声111Aの読み出し後、合成音声112Aの生成終了までであればいつでもよい。
中音声111Cとしては、たとえば上述したような「え〜」、「あ〜」、「んと〜」など、次の言葉を考える場合に発せられるような音声が選択される。また、中音声111Cとして、咳払い、息継ぎなどの声でない音声を用いてもよい。中音声111Cも前音声111Aと同様に、メモリ103に記憶されている録音音声111のなかから、会話文と同じカテゴリのものを選択すればよい。中音声111Cが再生されている間に、音声合成部101は後半のフレーズ(会話文の後半)を音声合成する。音声合成部101によって合成された後半の合成音声112Bは合成バッファ102に記憶され、中音声111Cの再生が終了したのち、中音声111Cに続いて再生される。後半の合成音声112Bの再生中に後音声111Bが読み出される。合成音声112Bの再生が終了すると、音声再生部104は、これに続けて後音声111Bを再生する。
このように、会話文を複数のフレーズに分割し、その間に生声である録音音声111を挿入することにより、長い合成音声で表情が不足する場合でも、途中で表情のある録音音声111を挿入して表情を豊かにすることができる。また、長い会話文を音声合成するには長い時間が必要であるが、会話文を複数のフレーズに分割することで、それぞれのフレーズを短時間で合成し、合成時間を録音音声でカバーすることが可能になる。
図7の例では、テキスト110を2つのフレーズに分割し、前半のフレーズを前音声111Aの再生中に合成し、後半のフレーズを中音声111Cの再生中に合成したが、テキスト110を前音声111Aの再生中に全部合成し、その再生を前半・後半に分割してもよい。
図8は、テキスト110を前音声111Aの再生中に全部合成し、その再生を前半・後半に分割する場合の手順を示した図である。以下、図7の手順と異なる部分のみ説明する。前音声111Aが再生されている間に、音声合成部101は、供給されたテキスト110をスキャンして分割箇所を決定する。この分割箇所の決定と平行して音声合成部101がテキスト110を音声化(音声合成)する。音声合成部101によって合成された合成音声112は合成バッファ102に記憶される。前音声111Aの再生が終了したのち、合成バッファ102に記憶された合成音声112のうち、前半のフレーズにあたる部分が前半の合成音声112Aとして再生される。合成音声112Aの再生中にフレーズ間で再生される録音音声である中音声111Cが読み出される。中音声111Cの再生が終了したのち、合成バッファ102に記憶された合成音声112のうち、後半のフレーズにあたる部分が後半の合成音声112Bとして再生される。
上述したように中音声111Cは、「え〜」、「あ〜」、「んと〜」など短い言葉である場合が多いので、テキスト110全体を先に音声合成しておく手順も有効である。選択されたテキスト110、および、前音声111A、中音声111Bの長さなどに応じて、図7の手順と図8の手順を併用してもよい。
たとえば、「テキスト110の文字数が所定数(例えば50字)を超える場合は、音声合成を図7のように前後に分けて行う。音声合成に掛かる時間が所定時間(例えば10秒)を超える場合は、音声合成を図7のように前後に分けて行う。合成音声の再生時間が所定時間(例えば10秒)を超える場合は、音声合成を図7のように前後に分けて行う。これら以外の場合は、音声合成を図8のように一括して行う。」などの方式で併用が可能である。
以上の実施形態では、図7、図8に示したように、会話文(合成音声)112の前後に録音音声111(前音声111A、後音声111B)を付加した、すなわち、会話文を録音音声で挟んでいる。これら前音声111A、後音声111Bは無くてもよく、また、いずれか一方のみ付加されていてもよい。
また、テキスト110が3以上のフレーズに分割される場合には、各フレーズの境目に中音声110Cが挿入される(再生される)ようにすればよい。
なお、音声合成部101は、会話文の内容やゲームの状況に応じて、合成される音声112の速さ、ピッチ、音量などを変化させてもよい。その場合、そのパラメータが音声再生部104に提供され、音声再生部104は、合成音声112に合わせた速さ、ピッチ、音量で録音音声111を再生する。また、音声合成部101は通常の速さ、ピッチ、音量で音声を合成し、音声再生部104が、会話文の内容やゲームの状況に応じて、合成音声112、録音音声111の両方の速さ、ピッチ、音量を調整して再生するようにしてもよい。
なお、後音声111Bの語尾を、キャラクタの性格、キャラクタの成長度合い、キャラクタの服装などに応じて変化させてもよい。すなわち、「〜にゃ」、「〜でございます。」などの語を選択された後音声の語尾に付加して再生してもよい。また、予め「○○にゃ」、「○○でございます。」(○○は語句)の音声を録音音声として記憶しておいてもよい。
また、ゲーム上の場所に応じて、生成する音声(キャラクタが喋る音声)の音量や音質を変化させてもよい。例えば、場所が電車内の場合にはヒソヒソ声、青空の下では元気な声の音声を生成してもよい。
1 ゲーム装置
5 ゲームメディア
20 制御部
21 CPU
22 ROM(フラッシュメモリ)
50 ゲーム履歴データ記憶エリア
60 入力語句記憶エリア
61 (会話文、録音音声の)記憶エリア
100 音声生成装置
101 音声合成部
104 音声再生部

Claims (5)

  1. 表示部、操作部および記憶部を備えたコンピュータを、
    前記表示部に、仮想的な話者であるキャラクタを表示するキャラクタ表示手段、
    前記操作部から入力された語句を前記記憶部に記憶させる語句記憶手段、
    前記語句記憶手段に記憶された語句を含むテキストデータを生成するテキストデータ生成手段、
    前記テキストデータ生成手段が生成したテキストデータに基づく音声信号である合成音声を生成する音声合成手段、
    前記音声合成手段に供給するテキストデータの長さを判定し、音声合成に要する時間が所定時間を超えると予想される場合、このテキストデータを第1および第2のフレーズを含む複数のフレーズに分割するテキスト分割手段、
    前記音声合成手段によって合成された合成音声を再生する第1音声再生手段、
    予め録音された音声信号である録音音声を再生する第2音声再生手段、
    として機能させ
    前記テキストデータが複数のフレーズに分割されなかった場合、前記第1音声再生手段および前記第2音声再生手段は、前記キャラクタが発する音声として、第1の録音音声、テキストデータの合成音声、および、第2の録音音声の順に音声を再生し、
    前記テキストデータが複数のフレーズに分割された場合、前記第1音声再生手段および前記第2音声再生手段は、前記キャラクタが発する音声として、第1の録音音声、第1のフレーズの合成音声、第2の録音音声、第2のフレーズの合成音声、および、第3の録音音声の順に音声を再生する音声生成プログラム。
  2. 前記音声合成手段は、前記第2音声再生手段が録音音声を再生している間に、その次に第1音声再生手段によって再生されるフレーズの合成音声を生成する請求項1に記載の音声生成プログラム。
  3. 前記音声合成手段は、前記第1音声再生手段による再生前に、テキストデータ全体を合成音声に生成し、
    前記第1音声再生手段は、前記生成された合成音声を、各フレーズ毎に読み出して再生する
    請求項1に記載の音声生成プログラム。
  4. 前記音声合成手段は、複数カテゴリから選択された1のカテゴリのテキストデータに基づいて合成音声を生成し、
    前記第2音声再生手段は、前記テキストデータと同一カテゴリの録音音声を再生する
    請求項1乃至請求項3のいずれかに記載の音声生成プログラム。
  5. 請求項4に記載の音声生成プログラムを記憶する記憶部と、該音声生成プログラムを実行する制御部と、を備え、
    前記キャラクタには前記ゲームの進行に応じて変化する連続的または段階的な感情パラメータが設定され、
    前記カテゴリは、前記キャラクタの前記感情パラメータに基づいて設定される、
    ゲーム装置。
JP2016216134A 2016-11-04 2016-11-04 音声生成プログラムおよびゲーム装置 Active JP6185136B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016216134A JP6185136B1 (ja) 2016-11-04 2016-11-04 音声生成プログラムおよびゲーム装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016216134A JP6185136B1 (ja) 2016-11-04 2016-11-04 音声生成プログラムおよびゲーム装置

Publications (2)

Publication Number Publication Date
JP6185136B1 true JP6185136B1 (ja) 2017-08-23
JP2018072764A JP2018072764A (ja) 2018-05-10

Family

ID=59678198

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016216134A Active JP6185136B1 (ja) 2016-11-04 2016-11-04 音声生成プログラムおよびゲーム装置

Country Status (1)

Country Link
JP (1) JP6185136B1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62229198A (ja) * 1986-03-29 1987-10-07 株式会社東芝 音声応答装置
JPH01222300A (ja) * 1988-03-01 1989-09-05 Fujitsu Ltd 音声合成装置
JPH0575482A (ja) * 1991-09-12 1993-03-26 Toshiba Corp 音声送信装置
JPH11109991A (ja) * 1997-10-08 1999-04-23 Mitsubishi Electric Corp マンマシンインターフェースシステム
JP2000066696A (ja) * 1998-08-21 2000-03-03 Victor Co Of Japan Ltd 音声合成装置
JP2001209820A (ja) * 2000-01-25 2001-08-03 Nec Corp 感情表出装置及びプログラムを記録した機械読み取り可能な記録媒体
JP2008064972A (ja) * 2006-09-06 2008-03-21 Nissan Motor Co Ltd 音声合成装置、音声合成方法及び音声合成用プログラム
JP2011013564A (ja) * 2009-07-03 2011-01-20 Nissan Motor Co Ltd 情報提示装置および情報提示方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62229198A (ja) * 1986-03-29 1987-10-07 株式会社東芝 音声応答装置
JPH01222300A (ja) * 1988-03-01 1989-09-05 Fujitsu Ltd 音声合成装置
JPH0575482A (ja) * 1991-09-12 1993-03-26 Toshiba Corp 音声送信装置
JPH11109991A (ja) * 1997-10-08 1999-04-23 Mitsubishi Electric Corp マンマシンインターフェースシステム
JP2000066696A (ja) * 1998-08-21 2000-03-03 Victor Co Of Japan Ltd 音声合成装置
JP2001209820A (ja) * 2000-01-25 2001-08-03 Nec Corp 感情表出装置及びプログラムを記録した機械読み取り可能な記録媒体
JP2008064972A (ja) * 2006-09-06 2008-03-21 Nissan Motor Co Ltd 音声合成装置、音声合成方法及び音声合成用プログラム
JP2011013564A (ja) * 2009-07-03 2011-01-20 Nissan Motor Co Ltd 情報提示装置および情報提示方法

Also Published As

Publication number Publication date
JP2018072764A (ja) 2018-05-10

Similar Documents

Publication Publication Date Title
JP6446993B2 (ja) 音声制御装置およびプログラム
WO2017006766A1 (ja) 音声対話方法および音声対話装置
JP2001209820A (ja) 感情表出装置及びプログラムを記録した機械読み取り可能な記録媒体
CN104574478A (zh) 一种编辑动画人物口型的方法及装置
JP6170604B1 (ja) 音声生成装置
JP2010140278A (ja) 音声情報可視化装置及び音声情報可視化プログラム
JP2008217447A (ja) コンテンツ生成装置及びコンテンツ生成プログラム
JP6185136B1 (ja) 音声生成プログラムおよびゲーム装置
JP6190030B1 (ja) 音声生成プログラム
JP6134043B1 (ja) 音声生成プログラムおよびゲーム装置
JP6625089B2 (ja) 音声生成プログラムおよびゲーム装置
WO2010084830A1 (ja) 音声処理装置、チャットシステム、音声処理方法、情報記憶媒体、ならびに、プログラム
JP2018025706A (ja) 音声生成装置
JP2018159779A (ja) 音声再生態様決定装置、および音声再生態様決定プログラム
JP4651168B2 (ja) 合成音声出力装置およびその方法並びに記録媒体
JP2001314649A (ja) 音声遊技方法、装置および記録媒体
JP6922306B2 (ja) 音声再生装置、および音声再生プログラム
JP7572388B2 (ja) データ処理装置、データ処理方法及びプログラム
JP2009000248A (ja) ゲーム機
JP3718116B2 (ja) 音声合成装置、音声合成方法及び情報記憶媒体
JP6911398B2 (ja) 音声対話方法、音声対話装置およびプログラム
JP3463804B2 (ja) 音声合成装置並びに方法及び情報記憶媒体
Székely et al. Off the cuff: Exploring extemporaneous speech delivery with TTS
CN118304650A (zh) 一种游戏开发方法、系统、计算机设备及存储介质
JP2023071043A (ja) カラオケシステム、ガイド音声制御方法、及びプログラム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170726

R150 Certificate of patent or registration of utility model

Ref document number: 6185136

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S802 Written request for registration of partial abandonment of right

Free format text: JAPANESE INTERMEDIATE CODE: R311802

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250