JP6277597B2 - 音声翻訳装置、音声翻訳方法及びプログラム - Google Patents
音声翻訳装置、音声翻訳方法及びプログラム Download PDFInfo
- Publication number
- JP6277597B2 JP6277597B2 JP2013089358A JP2013089358A JP6277597B2 JP 6277597 B2 JP6277597 B2 JP 6277597B2 JP 2013089358 A JP2013089358 A JP 2013089358A JP 2013089358 A JP2013089358 A JP 2013089358A JP 6277597 B2 JP6277597 B2 JP 6277597B2
- Authority
- JP
- Japan
- Prior art keywords
- pitch
- language
- envelope
- character data
- speech
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
Description
第1言語で発声された音声のデータに基づいて、前記音声のピッチの時系列の変化を示すピッチエンベロープである第1ピッチエンベロープを検出するピッチ検出手段と、
前記第1言語で発声された音声のデータを音声認識するとともに、前記音声認識した内容を表わした前記第1言語に属する文字データを生成する文字データ生成手段と、
前記文字データ生成手段により生成された前記文字データを、前記第1言語とは異なる第2言語に翻訳するとともに、前記翻訳された内容を前記第2言語に属する文字のデータに変換する文字データ変換手段と、
前記文字データ変換手段により変換された、前記第2言語に属する前記文字のデータに対応する前記ピッチエンベロープである第2ピッチエンベロープを取得するピッチ取得手段と、
前記ピッチ取得手段により取得された前記第2ピッチエンベロープの時系列の変化を平滑化するピッチ平滑化手段と、
前記ピッチ検出手段により検出された前記第1ピッチエンベロープで示される各時刻でのピッチの値と、前記ピッチ平滑化手段により時系列の変化が平滑化された前記第2ピッチエンベロープで示される各時刻でのピッチの値とを足し合わせるとともに補正値を掛け合わせることで、前記第2言語に属する前記文字のデータに対応する文字を発声するための新たな第3ピッチエンベロープを算出するピッチ算出手段と、
前記ピッチ算出手段により算出された前記第3ピッチエンベロープのデータに基づいて、前記第2言語に属する前記文字のデータに対応する文字を発声させて得られる音声であって、前記第3ピッチエンベロープで示されるようにピッチが時系列で変化する音声を生成する音声生成手段と、
を備える。
初めに、図1を参照して、本発明の一実施形態としての音声翻訳システムSの概要について説明する。
図1に示すように、本実施形態の音声翻訳システムSは、複数の音声翻訳装置1、を含んで構成される。また、音声翻訳システムSは、音声翻訳装置1が様々な国に存在するように構成される。複数の音声翻訳装置1は、通信ネットワークNを介して接続されて、互いにデータの送受信を行う。即ち、複数の音声翻訳装置1は、いずれも、送信側及び受信側の両方の処理を実行することができる。
その際、図9を参照して後述するピッチエンベロープ反映処理により、送信側の音声翻訳装置1は、翻訳前の音声のピッチのニュアンスが付加された翻訳後の音声のデータを、受信側の音声翻訳装置1に送信する。
したがって、様々な国の人間とのコミュニケーションがより面白みのあるものになる。
RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
スイッチ15は、各種釦等で構成され、ユーザの指示操作に応じて各種情報が入力される。
I/F16は、音声翻訳装置1の外部の通信ネットワークNと接続されており、音声翻訳装置1で生成された音声のデータを、通信ネットワークNを介して他の音声翻訳装置1に送信する。また、I/F16は、通信ネットワークNを介して他の音声翻訳装置1から送信されてきた音声のデータを受信する。
A/D18は、音声翻訳装置1の外部のマイクロフォン31と接続されており、マイクロフォン31により集音された、ユーザにより発話された音声のデータを、アナログからデジタルに変換する。
D/A19は、音声翻訳装置1にて生成された音声のデータを、デジタルからアナログに変換する。更に、D/A19は、音声翻訳装置1の外部のオーディオ装置21と接続されている。なお、オーディオ装置21は、D/A19から出力されたアナログ信号を増幅して出力するアンプ回路(図示せず)と、アンプ回路から出力されたオーディオ信号に基づいて音声を放音するスピーカ(図示せず)と、を備える。
図3は、本実施形態に係る音声翻訳装置1において実行されるメインフローを示すフローチャートである。
ステップS3では、CPU11は、スイッチ処理(図5で後述する)を実行する。スイッチ処理では、後述する第1の反映データ又は第2の反映データの選択するためのフラグのセット、及び、翻訳先の言語の種類の入力が実行される。
ステップS4では、CPU11は、発話抽出処理(図6で後述する)を実行する。発話抽出処理では、ユーザにより発話された音声のデータのピッチを抽出するとともに、音声認識により、当該発話された音声を表わす所定の言語、例えば日本語の文字データが取得される。
ステップS5では、CPU11は、翻訳処理(図7で後述する)を実行する。翻訳処理では、ユーザにより発話された音声を認識して取得された文字データが翻訳先の言語、例えば英語に翻訳され、この翻訳後の文字データに対応する音声のデータを生成する。
ステップS6では、CPU11は、ピッチエンベロープ反映処理(図9で後述する)を実行する。本実施形態のピッチエンベロープ反映処理では、他の音声翻訳装置1への送信対象となる翻訳された音声データのピッチに対して、2種類のピッチエンベロープの変化を反映させた音声データが、後述する第1の反映データ及び第2の反映データとして作成される。
ステップS7では、CPU11は、ステップS3においてセットされたフラグに基づいて、詳しくは、図5で後述する送信フラグの値に基づいて、後述する第1の反映データ又は第2の反映データのいずれかを選択して、他の音声翻訳装置1へ送信する。
ステップS8では、CPU11は、ステップS2〜S7の処理においてRAM13に記憶されたデータを消去する。ステップS8の処理が終了すると、CPU11は、処理をステップS2に戻して、ステップS2〜S8の処理を繰り返す。
図4は、本実施形態に係る音声翻訳装置1において実行される発話取込処理を示すフローチャートである。
図5は、本実施形態に係る音声翻訳装置1において実行されるスイッチ処理を示すフローチャートである。
ステップS22では、CPU11は、ステップS21で受け付けられた反映データ選択情報が「1」であるか「2」であるかを判定する。「1」であると判定された場合、CPU11は、処理をステップS23に移し、送信フラグを1にセットする。一方、「2」であると判定された場合、CPU11は、処理をステップS24に移し、送信フラグを2にセットする。送信フラグが1の場合、後述する第1の反映データがステップS7(図3)において選択され、他の音声翻訳装置1に送信される。送信フラグが2の場合、後述する第2の反映データがステップS7(図3)において選択され、他の音声翻訳装置1に送信される。
ステップS25において、CPU11は、翻訳先となる言語の種類の入力を、スイッチ15を介して受け付ける。翻訳先となる言語の種類として、例えば、英語、中国語、ロシア語など、様々な言語の種類が入力可能である。ステップS25の処理が終了すると、CPU11は、スイッチ処理を終了する。
図6は、本実施形態に係る音声翻訳装置1において実行される発話抽出処理を示すフローチャートである。
ステップS32では、CPU11は、発話音声データに公知の音声認識技術を適用して、文字データを検出し、RAM13に記憶する。例えば、ユーザにより「こんにちは」と、日本語で発話された場合、CPU11は、「こんにちは」という文字データをRAM13に記憶する。ステップS32の処理が終了すると、CPU11は、発話抽出処理を終了する。
図7は、本実施形態に係る音声翻訳装置1において実行される翻訳処理を示すフローチャートである。
ステップS42では、CPU11は、ステップS41において変換された「Hello」という文字データに対応するピッチエンベロープをROM12から取得する。ROM12には、予め、各種言語の各文字データに対応するピッチエンベロープが格納されている。具体的には、CPU11は、言語の種類である「英語」と、文字データ「Hello」を検索キーとして、ROM12から、対応するピッチエンベロープを取得し、RAM13に記憶する。例えば、CPU11は、図11に示されるようなピッチエンベロープを取得し、RAM13に記憶する。ステップS42においてRAM13に記憶されたピッチエンベロープを、以下、「翻訳後ピッチエンベロープ」と呼ぶ。
ステップS43では、CPU11は、図8を参照して後述する平滑ピッチ化処理を実行する。平滑ピッチ化処理とは、翻訳後ピッチエンベロープを平滑化する処理である。ステップS43の処理が終了すると、CPU11は、翻訳処理を終了する。
なお、ステップS42の処理は、上記に限られず、CPU11は、ステップS41において変換された「Hello」という文字データと、言語の種類である「英語」とに基づいて、音声データを生成して、当該音声データのピッチエンベロープを検出してもよい。
図8は、本実施形態に係る音声翻訳装置1において実行される平滑ピッチ化処理を示すフローチャートである。
ステップS52において、CPU11は、ステップS51で取得された(N+1)個のピッチのデータの平均値Phを算出する。
ステップS53において、CPU11は、カウンタCに0を代入して、初期化する。
ΔP=PC−Ph(C=0〜N) (1)
ステップS55において、CPU11は、PC−ΔP(=Ph)を算出して、PCをPhに更新する。即ち、上述したピッチデータテーブルのPCの値がPhに更新される。
ステップS56において、CPU11は、カウンタCを1インクリメントする。
ステップS57において、CPU11は、CがNより大きいか否かを判定する。CがN以下と判定された場合、CPU11は、処理をステップS54に戻す。一方、CがNより大きいと判定された場合、CPU11は、平滑ピッチ化処理を終了する。
このように、ステップS54〜S57の処理が(N+1)回繰り返されることにより、上述したピッチデータテーブルに格納されたピッチデータP0〜PNの値は、図13に示すように、夫々Phに更新される。これにより、図14に示されるように、翻訳後ピッチエンベロープが平滑化される。
図9は、本実施形態に係る音声翻訳装置1において実行されるピッチエンベロープ反映処理を示すフローチャートである。
この第1の反映データによれば、英語の「Hello」のピッチエンベロープに、日本語の「こんにちは」のピッチエンベロープが混ぜ合わされることで、日本語のイントネーションが混ざった、面白みのある英語の「Hello」が発話されるためのピッチエンベロープが作成される。
この第2の反映データによれば、平滑化された英語の「Hello」のピッチエンベロープに、日本語の「こんにちは」のピッチエンベロープが混ぜ合わされることで、日本語の「こんにちは」のピッチエンベロープで英語の「Hello」が発話されるためのピッチエンベロープのグラフが作成される。ステップS62の処理が終了すると、CPU11は、ピッチエンベロープ反映処理を終了する。
本実施形態において、音声翻訳装置1は、通信ネットワークNにより他の音声翻訳装置1と接続され、ユーザにより発声された言語の音声を集音するマイクロフォン31を備えている。CPU11は、集音された音声のデータを録音し、録音された音声のデータに基づいて、音声の翻訳前ピッチエンベロープを検出し、録音された音声のデータに基づいて、音声の文字のデータを検出し、検出された文字のデータを、当該文字が属する第1言語(日本語)とは異なる第2言語(英語)に属する文字のデータに変換し、第2言語に属する文字のデータに対応する翻訳後ピッチエンベロープを取得する。更に、CPU11は、翻訳前ピッチエンベロープと、翻訳後ピッチエンベロープとに基づいて、新たなピッチエンベロープを作成し、第2言語に属する文字のデータに対応する音声データを生成する際、この音声データのピッチに対して、この新たなピッチエンベロープの変化を反映させる。こうして生成された第2言語の音声データを第1の反映データとして、他の音声翻訳装置1に送信する。
したがって、音声翻訳装置において、英語の「Hello」のピッチの変化を表わすピッチエンベロープに対して、日本語の「こんにちは」のピッチ変化を表わすピッチエンベロープを反映させることにより、日本語のイントネーションが混ざった、面白みのある英語の「Hello」が発話される。
また、逆に、第1言語が英語、第2言語が日本語である場合、音声翻訳装置において、日本語の「こんにちは」のピッチエンベロープに、英語の「Hello」のピッチエンベロープが混ぜ合わされることで、英語のイントネーションが混ざった、面白みのある日本語の「こんにちは」が発話されるためのピッチエンベロープを他の音声翻訳装置に提供できる。
よって、他の言語を話す人間とのコミュニケーションにより面白みを持たせることができる。
したがって、音声翻訳装置において、平滑化された英語の「Hello」のピッチの変化を表わすピッチエンベロープに、日本語の「こんにちは」のピッチの変化を表わすピッチエンベロープを反映させることで、日本語の「こんにちは」のピッチエンベロープで英語の「Hello」が発話されるためのピッチエンベロープを他の音声翻訳装置に提供できる。
また、逆に、第1言語が英語、第2言語が日本語である場合、音声翻訳装置において、平滑化された日本語の「こんにちは」のピッチ変化を表わすピッチエンベロープに、英語の「Hello」のピッチ変化を表わすピッチエンベロープを反映させることで、英語の「Hello」のピッチエンベロープで日本語の「こんにちは」が発話されるためのピッチエンベロープを他の音声翻訳装置に提供できる。
よって、他の言語を話す人間とのコミュニケーションにより面白みを持たせることができる。
したがって、ユーザは、第1の反映データ又は第2の反映データを選択することができる。よって、更に、他の言語を話す人間とのコミュニケーションにより面白みを持たせることができる。
したがって、ユーザは、送信先の音声翻訳装置1のユーザの母国語を選択できるので、利便性の高い音声翻訳装置が提供される。
[付記1]
発声された音声のデータに基づいて、前記音声の第1ピッチを検出するピッチ検出手段と、
前記音声のデータを認識して、第1言語に属する文字のデータを生成する文字データ生成手段と、
前記文字データ生成手段により生成された前記文字のデータを、前記文字が属する第1言語とは異なる第2言語に属する文字のデータに変換する文字データ変換手段と、
前記ピッチ検出手段により検出された前記第1ピッチに基づいて、前記第2言語に属する前記文字のデータに対応する文字を発声するための新たなピッチを算出する第1ピッチ算出手段と、
前記第1ピッチ算出手段により算出された新たなピッチのデータに基づいて、前記第2言語に属する前記文字のデータに対応する文字を発声させて得られる音声を生成する音声生成手段と、
を備える音声翻訳装置。
[付記2]
前記音声翻訳装置はさらに、前記文字データ変換手段により変換された、前記第2言語に属する前記文字のデータに対応する第2ピッチを取得するピッチ取得手段を有し、
前記第1ピッチ算出手段は、前記ピッチ検出手段により検出された前記第1ピッチと、前記ピッチ取得手段により取得された前記第2ピッチとに基づいて、前記第2言語に属する前記文字のデータに対応する文字を発声するための新たなピッチを算出する付記1に記載の音声翻訳装置。
[付記3]
前記音声翻訳装置はさらに、
前記ピッチ取得手段により取得された前記第2ピッチを時系列に平滑化するピッチ平滑化手段と、
前記ピッチ検出手段により検出された前記第1ピッチと、前記ピッチ平滑化手段により時系列に平滑化された前記第2ピッチとに基づいて、前記第2言語に属する前記文字のデータに対応する文字を発声するための新たなピッチを算出する第2ピッチ算出手段と、を備えた
付記2に記載の音声翻訳装置。
[付記4]
前記音声生成手段は、前記第1ピッチ算出手段により算出された新たなピッチのデータ、又は、前記第2ピッチ算出手段により算出された新たなピッチのデータのいずれかに基づいて、前記第2言語に属する前記文字のデータに対応する文字を発声させて得られる音声を生成する、付記3に記載の音声翻訳装置。
[付記5]
前記音声翻訳装置はさらに、前記第2言語としての言語の種類を決定する言語決定手段を備える、付記1から4のいずれかに記載の音声翻訳装置。
[付記6]
発声された音声のデータに基づいて、前記音声の第1ピッチを検出し、
前記音声のデータを認識して、第1言語に属する文字のデータを生成し、
前記生成された前記文字のデータを、前記文字が属する第1言語とは異なる第2言語に属する文字のデータに変換し、
前記検出された前記第1ピッチに基づいて、前記第2言語に属する前記文字のデータに対応する文字を発声するための新たなピッチを算出し、
前記算出された新たなピッチのデータに基づいて、前記第2言語に属する前記文字のデータに対応する文字を発声させて得られる音声を生成する、音声翻訳方法。
[付記7]
発声された音声のデータに基づいて、前記音声の第1ピッチを検出するピッチ検出ステップと、
前記音声のデータを認識して、第1言語に属する文字のデータを生成する文字データ生成ステップと、
前記生成された前記文字のデータを、前記文字が属する第1言語とは異なる第2言語に属する文字のデータに変換する文字データ変換ステップと、
前記検出された前記第1ピッチに基づいて、前記第2言語に属する前記文字のデータに対応する文字を発声するための新たなピッチを算出する第1ピッチ算出ステップと、
前記算出された新たなピッチのデータに基づいて、前記第2言語に属する前記文字のデータに対応する文字を発声させて得られる音声を生成する音声生成ステップと、
をコンピュータに実行させるプログラム。
Claims (6)
- 第1言語で発声された音声のデータに基づいて、前記音声のピッチの時系列の変化を示すピッチエンベロープである第1ピッチエンベロープを検出するピッチ検出手段と、
前記第1言語で発声された音声のデータを音声認識するとともに、前記音声認識した内容を表わした前記第1言語に属する文字データを生成する文字データ生成手段と、
前記文字データ生成手段により生成された前記文字データを、前記第1言語とは異なる第2言語に翻訳するとともに、前記翻訳された内容を前記第2言語に属する文字のデータに変換する文字データ変換手段と、
前記文字データ変換手段により変換された、前記第2言語に属する前記文字のデータに対応する前記ピッチエンベロープである第2ピッチエンベロープを取得するピッチ取得手段と、
前記ピッチ取得手段により取得された前記第2ピッチエンベロープの時系列の変化を平滑化するピッチ平滑化手段と、
前記ピッチ検出手段により検出された前記第1ピッチエンベロープで示される各時刻でのピッチの値と、前記ピッチ平滑化手段により時系列の変化が平滑化された前記第2ピッチエンベロープで示される各時刻でのピッチの値とを足し合わせるとともに補正値を掛け合わせることで、前記第2言語に属する前記文字のデータに対応する文字を発声するための新たな第3ピッチエンベロープを算出するピッチ算出手段と、
前記ピッチ算出手段により算出された前記第3ピッチエンベロープのデータに基づいて、前記第2言語に属する前記文字のデータに対応する文字を発声させて得られる音声であって、前記第3ピッチエンベロープで示されるようにピッチが時系列で変化する音声を生成する音声生成手段と、
を備える音声翻訳装置。 - 前記ピッチ取得手段は、前記文字データ変換手段により変換された、前記第2言語に属する前記文字のデータに対応して予め記憶手段に記憶されている前記第2ピッチエンベロープを取得する
請求項1に記載の音声翻訳装置。 - 前記ピッチ算出手段は更に、前記ピッチ検出手段により検出された前記第1ピッチエンベロープで示される各時刻でのピッチの値と、前記ピッチ平滑化手段による時系列の変化の平滑化がなされていない前記第2ピッチエンベロープで示される各時刻でのピッチの値とを足し合わせるとともに、補正値を掛け合わせることで、前記第2言語に属する前記文字のデータに対応する文字を発声するための新たな第4ピッチエンベロープを算出し、
前記音声生成手段は、前記第3ピッチエンベロープのデータと前記第4ピッチエンベロープのデータのいずれかを選択し、選択されたピッチエンベロープのデータに基づいて、前記第2言語に属する前記文字のデータに対応する文字を発声させて得られる音声であって、前記選択されたピッチエンベロープで示されるようにピッチが時系列で変化する音声を生成する、請求項1または2に記載の音声翻訳装置。 - 前記音声翻訳装置はさらに、複数の言語の種類の中から前記第2言語としての言語の種類を選択する言語決定手段を備える、請求項1乃至3のいずれかに記載の音声翻訳装置。
- 第1言語で発声された音声のデータに基づいて、前記音声のピッチの時系列の変化を示すピッチエンベロープである第1ピッチエンベロープを検出し、
前記第1言語で発声された音声のデータを音声認識するとともに、前記音声認識した内容を表わした前記第1言語に属する文字データを生成し、
前記生成された前記文字データを、前記第1言語とは異なる第2言語に翻訳するとともに、前記翻訳された内容を前記第2言語に属する文字のデータに変換し、
前記変換された、前記第2言語に属する前記文字のデータに対応する前記ピッチエンベロープである第2ピッチエンベロープを取得し、
前記取得された前記第2ピッチエンベロープの時系列の変化を平滑化し、
前記第1ピッチエンベロープで示される各時刻でのピッチの値と、前記時系列の変化が平滑化された前記第2ピッチエンベロープで示される各時刻でのピッチの値とを足し合わせるとともに補正値を掛け合わせることで、前記第2言語に属する前記文字のデータに対応する文字を発声するための新たな第3ピッチエンベロープを算出し、
前記算出された前記第3ピッチエンベロープのデータに基づいて、前記第2言語に属する前記文字のデータに対応する文字を発声させて得られる音声であって、前記第3ピッチエンベロープで示されるようにピッチが時系列で変化する音声を生成する、音声翻訳方法。 - 第1言語で発声された音声のデータに基づいて、前記音声のピッチの時系列の変化を示すピッチエンベロープである第1ピッチエンベロープを検出するピッチ検出ステップと、
前記第1言語で発声された音声のデータを音声認識するとともに、前記音声認識した内容を表わした前記第1言語に属する文字データを生成する文字データ生成ステップと、
前記生成された前記文字データを、前記第1言語とは異なる第2言語に翻訳するとともに、前記翻訳された内容を前記第2言語に属する文字のデータに変換する文字データ変換ステップと、
前記変換された、前記第2言語に属する前記文字のデータに対応する前記ピッチエンベロープである第2ピッチエンベロープを取得するピッチ取得ステップと、
前記取得された前記第2ピッチエンベロープの時系列の変化を平滑化するピッチ平滑化 前記第1ピッチエンベロープで示される各時刻でのピッチの値と、前記時系列の変化が平滑化された前記第2ピッチエンベロープで示される各時刻でのピッチの値とを足し合わせるとともに補正値を掛け合わせることで、前記第2言語に属する前記文字のデータに対応する文字を発声するための新たな第3ピッチエンベロープを算出するピッチ算出ステップと、
前記算出された前記第3ピッチエンベロープのデータに基づいて、前記第2言語に属する前記文字のデータに対応する文字を発声させて得られる音声であって、前記第3ピッチエンベロープで示されるようにピッチが時系列で変化する音声を生成する音声生成ステップと、
をコンピュータに実行させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013089358A JP6277597B2 (ja) | 2013-04-22 | 2013-04-22 | 音声翻訳装置、音声翻訳方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013089358A JP6277597B2 (ja) | 2013-04-22 | 2013-04-22 | 音声翻訳装置、音声翻訳方法及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2014215302A JP2014215302A (ja) | 2014-11-17 |
JP2014215302A5 JP2014215302A5 (ja) | 2016-06-16 |
JP6277597B2 true JP6277597B2 (ja) | 2018-02-14 |
Family
ID=51941137
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013089358A Active JP6277597B2 (ja) | 2013-04-22 | 2013-04-22 | 音声翻訳装置、音声翻訳方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6277597B2 (ja) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000010581A (ja) * | 1998-06-19 | 2000-01-14 | Nec Corp | 音声合成装置 |
JP2006189544A (ja) * | 2005-01-05 | 2006-07-20 | Matsushita Electric Ind Co Ltd | 通訳装置、通訳方法、通訳プログラムを記録した記録媒体、および通訳プログラム |
JP2009186820A (ja) * | 2008-02-07 | 2009-08-20 | Hitachi Ltd | 音声処理システム、音声処理プログラム及び音声処理方法 |
-
2013
- 2013-04-22 JP JP2013089358A patent/JP6277597B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014215302A (ja) | 2014-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108447486B (zh) | 一种语音翻译方法及装置 | |
TW201513099A (zh) | 基於聽覺場景分析及語音模型化之語音信號分離及合成 | |
US9190048B2 (en) | Speech dialogue system, terminal apparatus, and data center apparatus | |
Quené | Longitudinal trends in speech tempo: The case of Queen Beatrix | |
JPWO2013027360A1 (ja) | 音声認識システム、認識辞書登録システム及び音響モデル識別子系列生成装置 | |
CN113066511B (zh) | 一种语音转换方法、装置、电子设备和存储介质 | |
KR102296878B1 (ko) | 외국어 학습평가장치 | |
US8793128B2 (en) | Speech signal processing system, speech signal processing method and speech signal processing method program using noise environment and volume of an input speech signal at a time point | |
US10269349B2 (en) | Voice interactive device and voice interaction method | |
KR20200013907A (ko) | 비디오 특성에 부합하는 오디오 합성 방법 | |
JP5402089B2 (ja) | 音響信号変換装置、方法、及びプログラム | |
JP7339151B2 (ja) | 音声合成装置、音声合成プログラム及び音声合成方法 | |
JP6277597B2 (ja) | 音声翻訳装置、音声翻訳方法及びプログラム | |
JP2019045831A (ja) | 音声処理装置、方法およびプログラム | |
JP6827004B2 (ja) | 音声変換モデル学習装置、音声変換装置、方法、及びプログラム | |
JP2005196020A (ja) | 音声処理装置と方法並びにプログラム | |
JP6233103B2 (ja) | 音声合成装置、音声合成方法及び音声合成プログラム | |
JP5949634B2 (ja) | 音声合成システム、及び音声合成方法 | |
JP6260138B2 (ja) | コミュニケーション処理装置、コミュニケーション処理方法、及び、コミュニケーション処理プログラム | |
JP6213217B2 (ja) | 音声合成装置及び音声合成用コンピュータプログラム | |
JP2020197629A (ja) | 音声テキスト変換システムおよび音声テキスト変換装置 | |
JPWO2019021953A1 (ja) | 音声操作装置及びその制御方法 | |
JP7296214B2 (ja) | 音声認識システム | |
CN112542159B (zh) | 一种数据处理方法以及设备 | |
JP2014235263A (ja) | 音声認識装置およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160422 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160422 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170529 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170606 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170803 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170919 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180101 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6277597 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |