JP3999812B2 - 音復元装置および音復元方法 - Google Patents

音復元装置および音復元方法 Download PDF

Info

Publication number
JP3999812B2
JP3999812B2 JP2007500432A JP2007500432A JP3999812B2 JP 3999812 B2 JP3999812 B2 JP 3999812B2 JP 2007500432 A JP2007500432 A JP 2007500432A JP 2007500432 A JP2007500432 A JP 2007500432A JP 3999812 B2 JP3999812 B2 JP 3999812B2
Authority
JP
Japan
Prior art keywords
sound
information
characteristic
restored
restoration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007500432A
Other languages
English (en)
Other versions
JPWO2006080149A1 (ja
Inventor
伸一 芳澤
哲 鈴木
良久 中藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Application granted granted Critical
Publication of JP3999812B2 publication Critical patent/JP3999812B2/ja
Publication of JPWO2006080149A1 publication Critical patent/JPWO2006080149A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、収音ミス、周囲騒音の挿入、伝送ノイズの挿入などの原因により歪んだ音(音声、音楽、報知音や自動車の音などの環境音を含む)を歪む前の音に復元する音復元装置およびその方法に関するものである。
近年、生活空間に、街角音楽や報知音などの人工的に作成した音や自動車などの人工物が発生した音など様々な音があふれるようになり、安全性、機能性、快適性の観点から大きな問題となってきている。例えば、都会の駅において、発車ベル、電車の音、周囲の人の声などでアナウンスが聞こえなかったり、携帯電話の話し声が周囲騒音により聞こえなかったり、自転車のベルの音が自動車の音で聞こえなかったり、安全性、機能性、快適性が損なわれている。
これらの社会環境の変化を鑑みると、収音ミス、周囲騒音の挿入、伝送ノイズの挿入などの原因により歪んだ音を自然かつ聞きやすい音で復元して利用者に提供することが望まれると考えられる。その中でも特に、実際の環境で聞いて不自然さを感じさせないために、実際の音の、声質、口調、音色、音量、残響特性、音質などの音特性に基づいて実際の音に近い音で復元することが重要になると考えられる。
第1の従来の音復元方法としては、突発性雑音により歪んだ区間に前記区間に時間的に連結した区間の音声波形を歪んだ音と入れ替えて挿入して音声を復元しているものがあった(例えば、非特許文献1参照)。図1は、前記非特許文献1に記載された従来の音復元方法を示すものである。
図1において、音声抽出ステップ3201では、突発性雑音の挿入により歪んだ音声波形から突発性雑音の区間を取り除いて音声部分を抽出していた。音声復元ステップ3202では、突発性雑音の存在した直前の歪んでいない音声波形を雑音が存在していた位置に挿入することで音声の復元を行っていた(本発明と関連のある範囲を示す)。
第2の従来の音復元方法としては、車両に搭載され、放送局から送信される道路交通情報の電波を受信して運転者に報知する道路交通情報報知装置において、伝送ノイズの挿入により歪んだ音声を言語分析手段により音韻系列を復元して、復元した音韻系列を音声合成により読み上げるものがあった(例えば、特許文献1参照)。図2は、前記特許文献1に記載された従来の音復元装置を示すものである。
図2において、受信装置3302は放送局3301から送信される道路交通情報の電波を受信して音声信号に変換していた。音声認識装置3303は前記音声信号を音声認識して言語データに変換していた。言語分析装置3304は音声認識装置3303から繰り返し出力される同一内容の言語データに基づいて、欠落部分の補正を行いながら言語分析を行っていた(本発明と関連のある範囲を示す)。音声合成器3305は言語分析装置3304より復元された音韻系列により表現された交通状況の情報のうち必要であると判断された情報を音声合成により読み上げていた。
第3の従来の音復元方法としては、欠落した音声パケットを、欠落以前に入力した音声パケットの信号により欠落部に補間する音声パケット補間方式において、テンプレートに相当するサンプル値を入力する度に、前記欠落以前に入力した音声パケットの信号との最適マッチング波形の算出を、非規格化差分演算処理により行い、欠落部の音声パケットを補間していた(例えば、特許文献2参照)。
第4の従来の音復元方法としては、パケットを用いる音声通信に関し、入力される音声信号データ列に消失区間があるか否かを判定し、判定結果を示す第1の信号を出力するための判定手段と、入力される音声信号データ列に対して、音響モデルと言語モデルとを用いて音声認識を行い、認識結果を出力するための音声認識手段と、前記音声認識手段の認識結果から音声合成を行って、音声信号を出力するための音声合成手段と、前記第1の信号に応答して変化する混合比で、前記入力される音声信号データ列と前記音声合成手段の出力とを混合して出力するための混合手段とを含むものがあった(例えば、特許文献3参照)。図3は、前記特許文献3に記載された従来の音復元装置を示すものである。
図3において、入力部3401は、入来する音声パケットの各々から音声信号データ部分を抽出して順次出力していた。音声認識部3404は、入力部3401から時系列的に出力される音声信号データに対して、音声認識用音響モデル3402と言語モデル3403とを用いて音声認識を行って、認識結果として状態時系列を出力していた。モニタ部3407は、入来する各パケットを監視し、パケットロスが発生しているか否かを示す付随情報を音声認識部3404に与えていた。音声合成部3406は、音声合成用音響モデル3405を用いて音声認識部3404から出力された音素系列に基づいて音声合成を行い、デジタルの音声信号を出力していた。バッファ3408は、入力部3401からの出力を蓄積していた。信号混合部3409は、モニタ部3407に制御されて、パケットロスに対応する期間では音声合成部3406の出力のみを、それ以外の期間ではバッファ3408の出力のみを選択して出力していた。
野口、外3名、"1チャネル入力信号中の突発性雑音の判別と除去"、2004年3月、日本音響学会講演論文集、pp.665−656 特開2000−222682号公報(請求項2、第1図) 特開平2−4062号公報(請求項1) 特開2004−272128号公報(請求項1、第1図)
しかしながら、前記第1の従来の構成では、復元する音が繰り返し波形であることが前提であり、しかもその一部分のみが消失したというごく稀な場合にしか音を復元することができない。繰り返し波形で表現できない実環境に存在する多くの一般的な音や、復元する音が全体的に歪んだ場合に対して音を復元することができないという課題を有していた。
前記第2の従来の構成では、歪んだ音を復元するときに言語分析により音構造に関する知識を用いて音韻系列に関して復元を行うため、繰り返し波形でない一般的な音や復元する音が全体的に歪んだ場合に対しても言語的に復元することが可能となる。しかしながら、実際の音の、話者性、声質などの音特性情報に基づいて実際の音に近い音で復元するという概念がないため、実際の環境で聞いて自然な音を復元することができないという課題を有していた。たとえば、DJ(Disc Jockey)の声をこの方法で復元すると、音声合成器に蓄積された他の人の声で復元されてしまう。
前記第3の従来の構成では、波形レベルのパターンマッチングで欠落部分の音を作成しているため、波形が変化する区間全体が欠落した場合に欠落部分の音を復元することができないという課題を有していた。たとえば、「こんにちは」という発声において「こ××ちは」(「×」は音韻が欠落した部分を示す)のように複数の音韻が欠落した場合に復元することができなかった。
前記第4の従来の構成では、言語モデルという音構造に関する知識を用いているため、複数の音韻が欠落しても前後のコンテキストから復元する音の音韻系列を推定して言語的に復元することできる。しかしながら、入力音声から、声質、口調、音量、残響特性などの音特性を抽出して、抽出した音特性に基づいて音声を復元するという概念がないため、同じ人の声でも気分や疲れ方により時々刻々と声質や口調などが変化する場合に現実の音特性に忠実な音声を復元することができないという課題を有していた。
これらの従来の技術の構成では、繰り返し波形でない実世界に存在する一般的な音が歪んだ場合に、実際の音特性で歪む前の音を復元することができなかった。
本発明は、前記従来の課題を解決するもので、収音ミス、周囲騒音の挿入、伝送ノイズの挿入などの原因により歪んだ音(音声、音楽、報知音や自動車の音などの環境音を含む)を歪む前の音に復元する音復元装置等を提供することを目的とする。
本願発明者らは、実環境での音は、「Aさんが話した後にBさんが話す」、「AさんとBさんが同時に話す」など複数の人の声が存在し、同じ人の声でも気分や疲れ方により時々刻々と声質や口調などが変化し、環境音なども周りの環境の変化により音量や残響特性などが時々刻々と変化するという事実に着目することが重要であることに気づいた。このような状況では、実環境に存在する全ての音特性を事前に記憶しておくことは困難であり、混合音に含まれる復元対象音を抽出して、抽出した復元対象音から復元したい音の実際の音特性を抽出する必要がある。しかし、音特性を精度良く抽出するためには比較的時間長が長い波形データが必要となるため、単純に復元対象音の欠落部分における時間的近傍の音のみを用いて音特性を抽出して復元すると復元対象音が歪んでしまう。また、復元音の欠落部分における時間的近傍が音特性の変化点である場合に、現実の音特性と異なる音特性を抽出することになる。そこで、混合音から抽出した復元対象音に対して音特性の変化を監視して、復元対象音を音特性が同一である時間領域で区分けする。すなわち、復元対象音を音特性が異なる時刻で分割するとともに、音特性が同一である時間領域ごとに分類する。欠落した部分が位置する音特性が同一である時間領域において、比較的時間長が長い音データ(波形データ等)を用いて音特性を抽出することにより、現実の音特性を忠実に再現することができる。この音特性が同一である時間領域は刻々と状況が変わる混合音中の復元対象音の性質に依存して変化するため、実際に入力された混合音中の復元対象音に対してその都度求める必要がある。
本発明に係る音復元装置は、混合音に含まれる、音の一部が欠落した復元対象音を復元する音復元装置であって、前記混合音に含まれる復元対象音を抽出する混合音分離手段と、音の意味内容が登録されている音構造知識データベースに基づいて、前記抽出された復元対象音の音が欠落した部分の音素系列、文字系列および音符系列のうちの少なくとも1つを作成する音構造分析手段と、前記抽出された復元対象音を、同一の音特性を有する時間領域に区分けする同一音特性領域分析手段と、前記区分けされた時間領域の中から欠落された部分が位置する時間領域を特定し、当該特定された時間領域において、前記欠落された部分以外の音から、前記復元対象音の音特性を抽出する音特性抽出手段と、前記音構造分析手段で作成された前記音素系列、文字系列および音符系列のうちの少なくとも1つと前記抽出された音特性とを用いて、復元対象音において欠落した部分の音を復元する音復元手段とを備える。
本構成によると、音の意味内容が登録されている音構造知識データベースを用いて音構造情報、すなわち音素系列、文字系列および音符系列のうちの少なくとも1つを作成するとともに、当該音構造情報に基づいて音を復元する。このため、幅広い一般的な音(音声、音楽、環境音を含む)を復元することができる。それとともに、復元対象音において欠落した部分の音を、同一音特性を有する時間領域における復元対象音の音特性に基づいて復元しているため、実際の音特性に忠実な音の復元、すなわち、復元対象音が歪む前または欠落する前の音を復元することができる。
好ましくは、前記同一音特性領域分析手段は、声質の変化、口調の変化、音色の変化、音量の変化、残響特性の変化および音質の変化のうちの少なくとも1つに基づいて、音特性が同一である時間領域を決定する。
これによって、同一音特性を有する時間領域を正確に求めることができる。このため、高い精度で音特性情報を作成することができ、ひいては、復元対象音を正確に復元することができる。
さらに好ましくは、前記音復元手段は、前記欠落した部分の音と前記欠落した部分以外の音とを合わせた復元対象音全体を、前記音構造分析手段で作成された前記音素系列、文字系列および音符系列のうちの少なくとも1つと前記抽出された音特性とを用いて復元する。
この構成によると、欠落した部分の音と欠落した部分以外の音とを、同じ音特性を用いて復元している。このため、欠落した部分と欠落していない部分との間で整合性が高い音を復元することができる。
本発明の音復元装置によれば、幅広い一般的な音(音声、音楽、環境音を含む)を復元することができ、さらに、実際の音の音特性に対して忠実に復元することができるため、その実用価値は極めて高い。
以下本発明の実施の形態について、図面を参照しながら説明する。なお、図中同一または相当部分には同一符号を付し、その説明は繰り返さない。
(実施の形態1)
図4は、本発明の実施の形態1における音復元装置の全体構成を示すブロック図である。ここでは、本発明に係る音復元装置がヘッドホン装置101に組み込まれた例を用いて説明する。
以下の説明では、復元する音として、〈I〉音声を復元する場合、〈II〉楽音を復元する場合、〈III〉重なった2種類の音(音声と環境音)を復元する場合について述べる。また、音を復元する方法として、〈i〉欠落部分のみを復元する方法、〈ii〉欠落部分を含む全体の音を復元する方法、について述べる。
図4において、ヘッドホン装置101は、携帯電話、携帯型音楽ステレオ、補聴器などの機能を付加して利用することも可能であり、混合音の中から利用者が必要とする音を復元するという音復元機能を実装している。ヘッドホン装置101は、マイク102と、混合音分離部103と、音構造分析部104と、音構造知識データベース105と、同一音特性領域分析部106と、音特性抽出部107と、音復元部108と、スピーカ109と、を備える。
ヘッドホン装置101は、混合音に含まれる、音の一部が欠落した復元対象音を復元する音復元装置の一例である。混合音分離部103は、前記混合音に含まれる復元対象音を抽出する混合音分離手段の一例である。音構造分析部104は、音の意味内容が登録されている音構造知識データベース105に基づいて、前記抽出された復元対象音の音が欠落した部分の音素系列、文字系列および音符系列のうちの少なくとも1つを作成する音構造分析手段の一例である。同一音特性領域分析部106は、前記抽出された復元対象音を、同一音特性を有する時間領域に区分けする同一音特性領域分析手段の一例である。音特性抽出部107は、前記区分けされた時間領域の中から欠落された部分が位置する時間領域を特定し、当該特定された時間領域における復元対象音の音特性を抽出する音特性抽出手段の一例である。音復元部108は、前記音構造分析手段で作成された前記音素系列、文字系列および音符系列のうちの少なくとも1つと前記抽出された音特性とを用いて、復元対象音において欠落した部分の音を復元する音復元手段の一例である。なお、「音素系列」とは、音素の系列以外にも、音韻の系列等も含む。また、「文字系列」とは、文字の系列以外にも、単語の系列、文章の系列等も含む。さらに、「音符系列」とは、後述するように、音楽における音符の系列を示す。
以下、ヘッドホン装置101を構成する各処理部について具体的に説明する。
マイク102は、混合音S101を入力して混合音分離部103へ出力する。
混合音分離部103は、混合音S101から復元する音の材料、すなわち分離された音の波形に関する情報および音の欠落に関する情報を分離音情報S102として抽出する。
音構造分析部104は、混合音分離部103が抽出した分離音情報S102と音構造知識データベース105とに基づいて復元する音の意味的内容を示す音構造情報S103を作成する。なお、波形に関する情報には、時間軸上の音波形のみならず、後述するスペクトログラムも含む。
同一音特性領域分析部106は、混合音分離部103が抽出した分離音情報S102から同一の音特性からなる領域を求めて同一音特性領域情報S104を作成する。音特性とは、音の表現方法に対応する。また、請求項における「区分け」が、同一の音特性からなる領域を求めることに相当する。
音特性抽出部107は、同一音特性領域分析部106が作成した同一音特性領域情報S104に基づいて復元する音の音特性を同一の音特性よりなる領域ごとに抽出して音特性情報S105を作成する。
音復元部108は、音構造分析部104が作成した音構造情報S103および音特性抽出部107が作成した音特性情報S105に基づいて復元音S106を作成する。
スピーカ109は、音復元部108が作成した復元音S106を利用者へ出力する。
図5は、本発明の実施の形態1における音復元装置の処理の流れを示すフローチャートである。
はじめに、混合音分離部103は、混合音S101から復元する音の材料を分離音情報S102として抽出する(ステップ401)。次に、音構造分析部104は、抽出した分離音情報S102と音構造知識データベース105とに基づいて音構造情報S103を作成する(ステップ402)。また、同一音特性領域分析部106は、抽出した分離音情報S102から同一の音特性から成る領域を求めて同一音特性領域情報S104を作成する(ステップ403)。そして、音特性抽出部107は、同一音特性領域情報S104に基づいて復元する音の音特性を同一の音特性より成る領域ごとに抽出して音特性情報S105を作成する(ステップ404)。最後に、音復元部108は、音構造情報S103と領域ごとの音特性情報S105とに基づいて復元音S106を作成する(ステップ405)。
次に、本実施の形態をヘッドホン装置101の音復元機能に適用した具体例について説明する。ここでは、いろいろな人の話し声や、自転車のベルの音、自動車の走る音、電車の音、駅のホームでのアナウンスやチャイムの音、街角音楽などが交じり合った混合音から利用者が必要とする音を復元する場合を例として考える。
〈I〉音声を復元する場合
〈i〉欠落部分の音声を復元する方法
利用者は、駅のホームで自分の乗る電車がホームに何時に到着するのかを確認するために駅のアナウンスに耳を傾けている。しかし、突然チャイムがなりアナウンスの音声が部分的に欠落してしまっている。そこで本発明の音復元装置を用いることでアナウンスの音声を復元する方法について述べる。
この例では、図4において、混合音S101は、アナウンスの音声とチャイムが重なった混合音であり、復元したい復元音S106は、アナウンスの音声である。音構造知識データベース105は、音素辞書、単語辞書、形態素辞書、言語連鎖辞書、シソーラス辞書、用例辞書から構成される。同一音特性領域分析部106は、音素の区切り、単語の区切り、文節の区切り、文章の区切り、発話内容の区切り、発声の区切りに基づいて、同一の音特性から成る領域を決定する。その他にも、同一音特性領域分析部106は、声質の変化、口調の変化、音色の変化、音量の変化、残響特性の変化、音質の変化等に基づいて、音特性が同一である時間領域を決定してもよい。
音復元部108は、復元する音の欠落部分の音を、音構造情報S103および音特性情報S105に基づいて復元を行い、それ以外の音を、分離音情報S102を用いて作成する。
はじめに、ヘッドホン装置101に装着されたマイク102を用いて混合音S101であるアナウンスの音声とチャイムが重なった音を取り込む。図6(a)に、アナウンスの音声とチャイムが重なった混合音を模式的に図示した例を示す。この例では、チャイムにより、アナウンスの音声である「つぎは〜おおさか〜おおさか〜」という音声が部分的に欠落してしまい、図6(b)に示すように「つぎは〜■■さか〜■おさ■」という音声に歪んでしまっている。ここでは、歪まずに聞こえている音声はそのままの音を利用して、「■」が示す欠落部分の音声を復元する。
まず、混合音分離部103は、マイク102が取り込んだ混合音S101を用いて分離音情報S102を抽出する(図5のステップ401に対応)。ここでは、分離音情報S102として、復元する音であるアナウンスの音声の成分を抽出した音声波形とアナウンスの音声の欠落区間情報とを抽出する。ここでは、混合音を周波数分析して、パワーの立ち上がり、立ち下り、特定の周波数帯域のパワーの変化などによりチャイムが挿入された時間を検出する。チャイムは音声と異なり全周波数帯域で一定のパワーをもつためこの特性を利用してチャイムが挿入された時間を検出する。そして、チャイムが挿入されなかった時間の混合音(アナウンスの音声、波形情報)とチャイムが挿入された時間フレーム情報(欠落区間フレーム)とを分離音情報S102として抽出する(図6(c)を参照)。
なお、聴覚情景分析、独立成分分析、複数のマイクを用いたアレイ処理を利用して分離音情報S102を抽出してもよい。また、図7に示すように、分離音情報S102の一部として、波形情報の代わりに、周波数分析を行ったあとのスペクトログラム上での情報(たとえば、[時間情報,周波数情報,パワー]の組)で表現してもよい。
次に、音構造分析部104は、混合音分離部103が抽出した分離音情報S102と、音素辞書、単語辞書、形態素辞書、言語連鎖辞書、シソーラス辞書および用例辞書から構成された音構造知識データベース105とに基づいて、アナウンスの音声の音構造情報S103を作成する(図5のステップ402に対応)。ここでは、音構造情報S103として、アナウンスの音声の音韻系列情報を作成する。まず、図6(c)に示すような分離音情報S102の一部である抽出されたアナウンスの音声波形を特徴量分析して音声認識で用いられるケプストラム係数に変換する。次に、変換されたケプストラム係数を用いて音声認識を行う。ケプストラム係数を、事前に多くの音声データで学習された隠れマルコフモデルで構成された音素辞書に入力して各音素モデルとの尤度を計算する。そして、計算された尤度に基づいて各音素の可能性を考慮して、駅のホームで利用される単語が登録された単語辞書と、連続する単語間の形態素のルールが記述された形態素辞書と、駅のホームで利用する発話内容から作成されたN-グラムという確率モデルで表現された言語連鎖辞書と、単語の置き換えができるように類似単語を登録したシソーラス辞書と、複数のアナウンスの発声内容が登録された用例辞書とを用いて、一番可能性の高い音韻系列を決定する。そして、音韻系列情報(音構造情報S103)を作成する。
図8に、分離音情報S102より音構造情報S103を作成する例が示されている。ここでは、チャイムにより、アナウンスの音声である「つぎは〜おおさか〜おおさか〜」という音声が部分的に欠落してしまい、「つぎは〜■■さか〜■おさ■」という音声に歪んでしまっている分離音情報S102から、音構造知識データベース105を用いることで、「つぎは〜おおさか〜おおさか〜」という音韻系列情報を復元している例が示されている。
また、図9には、音韻系列情報を求める別の例が示されている。図9(a)に示すように、単語辞書を用いることで、「こんに■は」を「こんにちは」と決定することができ、「しん■■■ん」を「しんかんせん」と決定することができる。また、図9(b)に示すように、用例辞書を用いることで、「信号の色は赤と■と黄色だ」を「信号の色は赤と青と黄色だ」と決定することができ、「サルも■■■落ちる」を「サルも木から落ちる」と決定することができる。
なお、ミシングフューチャーという、欠落部分の波形情報は利用せずに尤度を一定として音声認識モデルとマッチングして音韻系列を求めるという音声認識の手法を用いてもよい。また、この例では6種類の辞書を全て利用したが、その一部のみを利用してもよい。また、音構造知識データベースを必要に応じて更新してもよい。
次に、同一音特性領域分析部106は、混合音分離部103が抽出した分離音情報S102に基づいて同一の音特性から成る領域を求めて同一音特性領域情報S104を作成する(図5のステップ403に対応)。ここでは、音素の区切り、単語の区切り、文節の区切り、文章の区切り、発話内容の区切り、発声の区切りに基づいて、同一の音特性から成る領域を決定して同一音特性領域情報S104を作成する。まず、分離音情報S102を用いて音構造分析部104と同様にして音韻系列情報を作成する。この音韻系列情報に基づいて音素の区切り、単語の区切り、文節の区切り、文章の区切りを決定することができる。このとき、同一音特性領域分析部106の内部に音構造データベースを蓄積しておく。たとえば、音素の区切りを[フレーム,音素の種類]として表現することができる。また、単語の区切りを「次」「は」「大阪」「大阪」のように表現することができる。また、文節の区切りを「次は」「大阪」「大阪」のように表現することができる。また、音韻系列情報と用例辞書とに基づいて、発声内容の区切りを決定することができる。たとえば、同じ発声内容の用例をグループ化しておいて、音韻系列情報より発声した内容がどのグループに属するかを検出しておいて、グループが変わった場合に発声内容が変化したとして、発声内容の区切りを決定することができる。また、音声の周波数帯域において無音区間を検知することで発声の区切りを決定することができる。これらの区切り情報に基づいて、音特性が同一である領域の情報を示す同一音特性領域情報S104を作成する。
図10に、同一音特性領域情報S104の例を示す。図10(a)は、音特性が同一である領域を音素の区切りとして表現したものである。例えば、フレーム2〜3は、音素が「/u/」であり、声質が同一であることを示している。図10(b)は、音特性が同一である領域を単語の区切りにより表現したものである。例えば、フレーム1〜10が1つの同一音特性領域であり、「次」という単語が含まれていることを示している。図10(c)は、音特性が同一である領域を時間と文章とにより表現したものである。例えば、1秒目から5秒目までが1つの同一音特性領域であり、その間の文章が「次は大阪大阪」であることを示している。また、図10(d)で示すように、抽出したい音特性ごとに、音特性が同一である領域を決定してもよい。たとえば、音特性を声質とした場合の同一音特性領域、音特性を口調とした場合の同一音特性領域、音特性を話者性、性別特性、声年齢、音量、残響特性、音質とした場合の同一音特性領域などを同時に決定してもよい。
このように、アナウンスの音声は、話し方の抑揚が大きく変化し、鼻にかけた発声など音素ごとに特殊な特性を持ち、話す内容によっても声の特性が変化する。このように、たとえ同じ人の発声であっても音特性は時々刻々変化する。そのため、音素単位、単語単位、文節単位、文章単位、発声内容単位、発声単位などで、同一の音特性から成る領域を決定してから音特性を抽出して音を復元することは極めて重要である。
なお、ここでは、音素の区切り、単語の区切り、文節の区切り、文章の区切り、発話内容の区切り、発声の区切り、の全てを用いて同一音特性領域情報を作成したが、その一部を用いて同一音特性領域情報を作成してもよい。
次に、音特性抽出部107は、混合音分離部103が抽出した分離音情報S102と同一音特性領域分析部106が作成した同一音特性領域情報S104とに基づいて復元するアナウンスの音声の音特性を同一の音特性より成る領域ごとに抽出して音特性情報S105を作成する(図5のステップ404に対応)。ここでは、誰の声であるか、男性の声か女性の声か、子供の声か高齢者の声か、透き通った声かダミ声か風邪を引いたときの声か、優しい口調か怒った口調の声か、叫び声かひそひそ声か、残響が大きいか小さいか、音質が高いか低いかなどの音特性を抽出する。ここでは、復元するアナウンスの音声の、話者性、性別特性、声年齢、声質、口調、音量、残響特性、音質を領域ごとに抽出して音特性情報S105を作成する。ここでは、音特性情報S105として、同一音特性領域情報S104に基づいた領域ごとに、音声合成で利用する基本周波数F0、パワー、スペクトルレート、スペクトルの特徴を抽出する。ここでは、図6(c)に示す分離音情報S102(図11(a))と、図10(b)の同一音特性領域情報S104(図11(b))とを用いて説明する。まず、図11(b)に示す同一音特性領域情報S104に基づいて、同一の音特性から成る領域に分割する。ここでは、図11(c)に示されるようにフレーム1〜10の領域、フレーム11〜15の領域、フレーム16〜32の領域、フレーム33〜55の4つの領域に分割される。次に分割された各領域において、分離音情報S102の一部である欠落区間以外のフレームの音声波形情報を用いて音特性を抽出する。ここでは、図11(a)に示すように、欠落部分は、フレーム16〜21、フレーム33〜36、フレーム49〜55の3箇所である。図11(d)に、音特性情報S105の例を示す。この例では、分割された領域ごとにF0、パワー、スペクトルレート、スペクトルの特徴が決定されている。例えば、3番目の領域「領域3」の音特性(F0、パワー、スペクトルレート、スペクトル)は、領域3に含まれる欠落していない部分の音特性Aであるものとして決定される。
なお、同一音特性領域情報S104として図10(d)を用いたときは、図12に示すように音特性ごとに領域が異なる音特性情報S105が作成される。この例では、F0、パワー、スペクトルレート、スペクトルの特徴という音特性ごとに、音特性を抽出する領域が異なっている。ここで、F0は、話者性、性別特性、口調などを表現できるパラメータであり、パワーは、音量などを表現できるパラメータであり、スペクトルレートは、口調などを表現できるパラメータであり、スペクトルの特性は、話者性、性別特性、声年齢、声質、口調、音質などを表現できるパラメータである。なお、残響特性は、残響特性を測定する装置を別途付属して計測して利用してもよい。なお、音特性抽出部107は、欠落部分を含まない領域での音特性を抽出せず、音特性情報S105に欠落部分を含まない領域での音特性情報を記載しなくてもよい。
このように、混合音から抽出した復元対象音の波形成分(分離音情報)に対して音特性の変化を監視することで、音特性が同一である時間領域を示す同一音特性領域情報を作成して、音特性が同一である時間領域における比較的時間長が長い波形データを用いて音特性を抽出することで、高い精度で混合音の中の復元対象音を復元することが可能となる。
次に、音復元部108は、音構造分析部104が作成した音構造情報S103と音特性抽出部107が作成した音特性情報S105とに基づいてアナウンスの音声を復元する(図5のステップ405に対応)。ここでは、音復元部108は、音声合成により、アナウンスの欠落した部分の音声を合成音声により復元する。まず、分離音情報S102を用いて欠落部分のフレーム(欠落区間)を決定する(図6(c)を参照)。ここでは、欠落部分は、フレーム16〜21、フレーム33〜36、フレーム49〜55の3箇所である。次に、音特性情報S105に基づいて欠落部分の音特性は、欠落部分を含む領域の音特性により決定される。図11の例の場合は、「■■さか」の■の欠落部分の音特性は「さか」から抽出された音特性Aを用いる。次に、音構造情報S103に基づいて、欠落部分の音韻系列情報と、欠落部分を含む単語より欠落部分のアクセント情報とを決定し、欠落部分を含む発声情報から欠落部分のイントネーション情報を決定する。図11の例の場合は、「■■さか」の欠落部分の音韻系列「おお」であり、欠落部分を含む単語「おおさか」から「おお」のアクセント情報を決定する。また、欠落部分を含む発声情報「つぎはおおさかおおさか」から「おお」のイントネーション情報を決定する。そして、欠落部分の音特性(F0、パワー、スペクトルレート、スペクトルの特徴)と、欠落部分の音韻系列情報と、アクセント情報と、イントネーション情報とに基づいて、音声合成により欠落部分の音声を復元する。そして、分離音情報S102を用いて、欠落部分以外のアナウンスの音声を作成して欠落部分の復元された音声と結合することでアナウンスの音声を復元する。すなわち、「■■さか」の■の部分を音声合成で復元して「さか」の部分はマイク102が取り込んだ音をそのまま利用する。
なお、音声を復元する方法として、抽出した音特性に基づいて、欠落部分の音特性と音韻系列情報との類似度が高い波形を波形データベース(図示せず)、すなわち音のテンプレートから選択して音声を復元してもよい。これにより、欠落部分が多い場合でも波形データベースにより音特性をより精度よく推定できるため、精度のよい音声を復元することができる。また、選択した波形を実際の音特性や欠落部分の周囲の音声に基づいて学習により修正して欠落部分の音を復元してもよい。このとき、音声合成により音を復元した場合は、一般的な音声合成の使い方とは異なり、音韻系列情報だけでなく欠落部分以外の実際の音声が存在するため、その音声に合うようにチューニングすることができ、精度のよい音声を復元することができる。また、音特性抽出部107が抽出した音特性情報S105に加えて、復元したい音の事前情報を用いて音特性を推定して音声を復元してもよい。たとえば、アナウンスを発声する人の声の音特性を事前にヘッドホン装置101にダウンロードしておいて、その音特性も参考にして音声を復元してもよい。たとえば、人の声の基本的な音特性を事前にヘッドホン装置101に記憶しておいて利用してもよい。これにより、精度のよい音声を復元することができる。
このように、欠落部分以外の音声については、復元対象音の波形をそのまま利用するため、高い精度で音復元を行なうことができる。
最後に、スピーカ109を介して、利用者は復元されたアナウンスの音声を聞くことができる。
なお、同一音特性領域分析部106は、図13に示すように、同一音特性領域分析部106Zとして、音構造分析部104が作成した音構造情報S103を用いて同一音特性領域情報S104を作成してもよい。
図14に、この場合の音復元処理のフローチャートを示す。はじめに、混合音分離部103は、混合音S101から復元する音の材料を分離音情報S102として抽出する(ステップ1301)。次に、音構造分析部104は、抽出した分離音情報S102と音構造知識データベース105とに基づいて音構造情報S103を作成する(ステップ1302)。次に、同一音特性領域分析部106Zは、音構造情報作成処理(ステップ1302)で求めた音構造情報S103に基づいて抽出した分離音情報S102から同一の音特性から成る領域を求めて同一音特性領域情報S104を作成する(ステップ1303)。そして、音特性抽出部107は、同一音特性領域情報S104に基づいて復元する音の音特性を同一の音特性より成る領域ごとに抽出して音特性情報S105を作成する(ステップ1304)。最後に、音復元部108は、音構造情報S103と領域ごとの音特性情報S105とに基づいて復元する音を作成する(ステップ1305)。同一音特性領域分析部106Zは、音構造分析部104が作成した音構造情報S103を用いて、音素の区切り、単語の区切り、文節の区切り、文章の区切り、を決定することができるため、計算量を大幅に削減できる。
〈ii〉欠落部分を含む全体の音声を復元する方法
利用者は、交差点で友達2人と話しをしている。しかし、自動車の騒音や周りの人の話し声などで友達の音声が聞こえにくくなっているものとする。そこで本発明の音復元装置を用いることで友達2人の音声を復元する方法について述べる。この例では、図4において、混合音S101に対応するものは、友達の話し声と、自動車の騒音や周囲の人の声が重なった混合音であり、復元音S106に対応するものは、友達2人の話し声である。〈I〉の〈i〉の例と異なる点は、混合音分離部103の動作、同一音特性領域分析部106の動作、音特性抽出部107の動作、音復元部108の動作である。そこで、図15に示すように、混合音分離部103を混合音分離部103A、同一音特性領域分析部106を同一音特性領域分析部106A、音特性抽出部107を音特性抽出部107A、音復元部108を音復元部108Aとする。音復元部108Aは、欠落した部分の音と欠落した部分以外の音とを合わせた復元対象音全体を、上述の音構造分析手段で作成された音素系列、文字系列および音符系列のうちの少なくとも1つと抽出された音特性とを用いて復元する音復元手段の一例である。
また、混合音S101を混合音S101A、分離音情報S102を分離音情報S102A、音構造情報S103を音構造情報S103A、同一音特性領域情報S104を同一音特性領域情報S104A、音特性情報S105を音特性情報S105A、復元音S106を復元音S106Aとする。ここでの音復元部108Aは、復元する音の欠落部分(歪んだ部分を含む)を含む全体の音を、音構造情報S103Aおよび音特性情報S105Aに基づいて復元を行う。このとき、全体の音のバランス情報に基づいて音全体を復元する。すなわち、歪んでいない部分も合わせて修正することで音全体を復元する。
はじめに、ヘッドホン装置101に装着されたマイク102を用いて混合音S101Aを取り込む。図16に、混合音S101Aを模式的に図示した例を示す。この例では、男友達Aが元気よく「何食べる」と聞いたあとに、女友達Bが元気よく「フランス料理」と答えたがそのあと女友達Bがフランス料理の値段が高いと知って落胆して「だけど高すぎるね」と答えた例が示されている。また、2人の話し声は、自動車の騒音や周囲の人の声で部分的に欠落しており、さらに全体的にところどころ歪んでいる。
まず、混合音分離部103Aは、マイク102が取り込んだ混合音S101Aを用いて分離音情報S102Aを抽出する(図5のステップ401に対応)。ここでは、音の波形の局所的な構造を利用して音を分離する聴覚情景分析技術により、友達2人の話し声を抽出した音声波形を分離音情報S102Aの一部として抽出する。このとき、抽出した音声のパワーなどに基づいて、抽出した音声の歪み度合いも合わせて分離音情報S102Aとして抽出する。図17に、分離音情報S102Aの例を示す。この例では、フレームごとの音声波形と歪み度合いとのペアを分離音情報S102Aとしている。ここでは、歪み度合い「0.0」は歪みなし、歪み度合い「1.0」は欠落部分を意味している。すなわち、歪み度合いは、音声波形の信頼度合いに対応する。
なお、分離音情報S102の一部として、図18に示すように、波形ではなく、周波数分析を行ったスペクトログラム上での[時間情報,周波数情報,パワー]の組で表現してもよい。たとえば、自動車の騒音は低い周波数に存在する。このように、周囲騒音の種類によって存在する周波数帯域が限られるので、スペクトログラム上で分離音情報S102Aを抽出すると、復元する音の情報を精度よく抽出することができる。なお、友達2人の話し声を、独立成分分析や複数のマイクを用いたアレイ処理により抽出してもよい。
次に、音構造分析部104は、〈I〉の〈i〉の例と同様にして音構造情報S103Aを抽出する(図5のステップ402に対応)。
なお、分離音情報S102Aに含まれる歪み度合いに基づいて、信頼度付きの音声認識により音構造情報S103Aを精度よく抽出してもよい。
次に、同一音特性領域分析部106Aは、混合音分離部103Aが抽出した分離音情報S102Aに基づいて同一の音特性から成る領域を求めて同一音特性領域情報S104Aを作成する(図5のステップ403に対応)。ここでは、話者性の変化、性別特性の変化、声年齢の変化、声質の変化、口調の変化に基づいて、同一の音特性から成る領域を決定して同一音特性領域情報S104Aを作成する。ここで、話者性の変化は、ガウス分布で表現された複数の話者モデルとの尤度のバランスにより測定することができる。たとえば、尤度が一番大きい話者モデルがAさんモデルからBさんモデルに変化したとき話者性が変化したと判断する。また、性別特性の変化は、F0の変化などで測定することができる。たとえば、男性はF0が低く女性は高いことを利用する。また、声年齢の変化は、年齢別確率モデルを作成しておいてそれとの比較で判断することができる。また、声質の変化は、声質別確率モデルを作成しておいてそれとの比較で判断することができる。また、口調の変化は、F0の変化やスペクトルレートの変化などで判断することができる。これらの変化が小さい区間を音特性が同一である領域として、同一音特性領域情報S104を作成する。図16の例を用いた場合は、話者性の変化、性別の変化、声年齢の変化などに基づき、男友達Aの話し声と女友達Bの話し声が異なる領域として分割される。また、声質の変化、口調の変化などに基づき、女友達Bの話し声の中で、元気よく話している「フランスりょうり」の領域と、落胆して話している「だけどたかすぎるね」の領域は異なる領域として分割される。
なお、〈I〉の〈i〉の例と同様に音特性が同一である領域を音特性ごとに決定してもよい(図12を参照)。ここで、図16の例を考えてみると、話者性、性別特性、口調の変化により、「なにたべる」「フランスりょうり」「だけどたかすぎるね」の区間で少なくとも領域が分割され、このあと、領域ごとに独立に音特性を抽出することになる。このとき、「だけどたかすぎるね」の発声のテンションが次第に低くなる場合は、さらに領域を分割して音特性を抽出することになる。
このように、複数の話者が発声した音声を復元する場合や、口調が変化する音声を復元する場合は、話者の切れ目、口調の切れ目などを判断して、同一の音特性から成る領域を決定してから音特性を抽出して音を復元することが極めて重要である。
なお、ここでは、話者性の変化、性別特性の変化、声年齢の変化、声質の変化、口調の変化の全てを用いて同一音特性領域情報を作成したが、その一部を用いて同一音特性領域情報を作成してもよい。
次に、音特性抽出部107Aは、混合音分離部103Aが抽出した分離音情報S102Aと同一音特性領域分析部106Aが作成した同一音特性領域情報S104Aとに基づいて、復元する音声の音特性を同一の音特性より成る領域ごとに抽出して音特性情報S105Aを作成する(図5のステップ404に対応)。ここでは、図17に示すような分離音情報S102Aを用いて、歪み度合いが大きいフレームの音特性を、歪み度合いが小さいフレームの音特性を用いて推定する。例えば、単純に歪み度合いの小さいフレームの音特性をそのまま歪み度合いが大きいフレームの音特性とする。また、所定の領域の音特性を、歪み度合いの大きさに比例した重み付けで音特性の量を線形加算して推定する。
混合音から抽出した復元対象音に対して音特性の変化を監視することで、復元対象音を音特性が同一である時間領域で区分けして、欠落した部分が位置する音特性が同一である時間領域における比較的時間長が長い音データ(波形データ等)を用いて音特性を抽出することで、現実の音特性を忠実に再現することができる。
次に、音復元部108Aは、音構造分析部104が作成した音構造情報S103Aと音特性抽出部107Aが作成した音特性情報S105Aとに基づいて、友達の音声が欠落していない部分を含めた友達2人の話し声全体を復元する(図5のステップ405に対応)。
まず、音構造情報S103Aに基づいて、復元したい音声全体の音韻系列情報を決定する。次に、決定した音韻系列情報に基づいて、単語単位や発声単位などの音声全体を考慮したアクセント情報、イントネーション情報を決定する。そして、音特性情報S105Aを用いて、復元する音声の音特性(F0、パワー、スペクトルレート、スペクトルの特徴)、音韻系列情報、アクセント情報、イントネーション情報に基づいて、欠落した部分だけではなく、音声合成により友達2人の音声全体を、音声全体のバランスを考慮して復元する。
なお、音声を復元する方法として、抽出した音特性に基づいて、音特性、音韻情報、アクセント情報、イントネーション情報、との類似度が高い波形を波形データベースから選択して音声を復元してもよい。これにより、欠落部分が多い場合でも波形データベースにより音特性をより精度よく推定できるため、精度のよい音声を復元することができる。また、選択した波形を実際の音特性や周辺の音声に基づいて学習により修正して音を復元してもよい。また、音特性抽出部107Aが抽出した音特性情報S105Aに加えて、復元したい音の事前情報により音特性を推定して音声を復元してもよい。たとえば、友達2人の声の音特性を事前にヘッドホン装置101にダウンロードしておいて、その音特性も参考にして音声を復元してもよい。たとえば、人の声の基本的な音特性を事前にヘッドホン装置101に記憶しておいて利用してもよい。これにより、精度のよい音声を復元することができる。
このように、欠落部分のみでなく、音声全体を復元することで、欠落部分とそれ以外の音声のバランスがよくなり、より自然な音声を復元することができる。
最後に、スピーカ109により復元音が出力され、利用者は復元された友達の音声を聞くことができる。
なお、〈I〉の〈i〉の例のように、音素の区切り、単語の区切り、文節の区切り、文章の区切り、発話内容の区切り、発声の区切りに基づいて、同一の音特性から成る領域を決定して同一音特性領域情報S104Aを作成してもよい。
なお、音復元部108Aは、分離音情報S102Aを用いずに、音構造情報S103Aおよび音特性情報S105Aに基づいて、音声を復元してもよい。
〈II〉楽音を復元する場合
〈i〉欠落部分の楽音を復元する方法
利用者は、街角でながれる街角BGM(Back Ground Music)を聞いている。しかし、自動車のクラクションがなり街角BGMの楽音が部分的に欠落してしまっている。そこで本発明の音復元装置を用いることで街角BGMを復元する方法について述べる。この例では、図4において、混合音S101に対応するものは、街角BGMと自動車のクラクションが重なった混合音であり、復元音S106に対応するものは、街角BGMである。〈I〉の〈i〉の例と異なる点は、音構造知識データベース105の記憶内容、音構造分析部104の動作、同一音特性領域分析部106の動作、音特性抽出部107の動作、音復元部108の動作である。そこで、図19に示すように、音構造知識データベース105を音構造データベース105B、音構造分析部104を音構造分析部104B、同一音特性領域分析部106を同一音特性領域分析部106B、音特性抽出部107を音特性抽出部107B、音復元部108を音復元部108Bとする。また、混合音S101を混合音S101B、分離音情報S102を分離音情報S102B、音構造情報S103を音構造情報S103B、同一音特性領域情報S104を同一音特性領域情報S104B、音特性情報S105を音特性情報S105B、復元音S106を復元音S106Bとする。ここでは、音声ではなく楽音を復元する。音復元部108Bは、復元する楽音の欠落部分の音を、音構造情報S103Bおよび音特性情報S105Bに基づいて復元を行い、それ以外の音を分離音情報S102Bにより作成する。
はじめに、ヘッドホン装置101に装着されたマイク102を用いて混合音S101Bである街角BGMに自動車のクラクションが重なった音を取り込む。図20(a)に、街角BGMと自動車のクラクションが重なった混合音を模式的に図示した例を示す。この例では、自動車のクラクションにより、図20(b)に示すように街角BGMが部分的に欠落している。ここでは、欠落していない(聞こえている)街角BGMはそのままの音を利用して、街角BGMを復元する。
まず、混合音分離部103は、〈I〉の〈i〉の例と同様にして、マイク102が取り込んだ混合音S101Bを用いて、混合音を周波数分析して、パワーの立ち上がりなどにより自動車のクラクションが挿入された時刻を検出して、分離音情報S102Bを抽出する(図5のステップ401に対応)。ここでは、抽出する分離音情報は音声に関するものではなく楽音に関するものである。図20(c)に、分離音情報S102Bの例を示す。この例では、分離音情報は、街角BGMの成分を抽出した楽音波形と、街角BGMが欠落した区間情報から構成される。
なお、聴覚情景分析、独立成分分析、複数のマイクを用いたアレイ処理を利用して分離音情報S102Bを抽出してもよい。また、分離音情報S102Bの一部として、波形情報ではなく、周波数分析を行ったスペクトログラム上での周波数情報(たとえば、[時間情報,周波数情報,パワー]の組)で表現してもよい。
次に、音構造分析部104Bは、混合音分離部103が抽出した分離音情報S102Bと、音オントロジー辞書、楽譜辞書とから構成された音構造知識データベース105Bとに基づいて、復元する楽音である街角BGMの音構造情報S103Bを作成する(図5のステップ402に対応)。ここでは、音構造情報S103Bの一部として、街角BGMの音符系列情報を作成する。まず、図20(c)に示すように、分離音情報S102Bである街角BGMの成分を抽出した音波形を周波数分析する。次に、分析された周波数構造と音オントロジー辞書とを用いて欠落した部分の音符系列を推定する。音オントロジー辞書には、楽音に関する和音、変調、リズムなどの規則が記憶されており、その規則に基づいて音符系列を推定する。また、楽譜辞書に登録されている複数の楽曲の楽譜と比較することで欠落部分の音符系列をさらに精度よく推定する。たとえば、分離音情報S102Bにより分析され推定された一部が欠落した音符系列と、楽譜辞書に登録された楽譜の音符系列とを比較して、対応する同じ音符系列の部分から欠落した音符系列を決定することができる。
なお、楽譜辞書は、音構造知識データベース105Bに事前に登録しておいてもよいし、音楽サイトなどからダウンロードすることで更新して登録してもよい。また、利用者の位置情報などに基づいて、1もしくは複数の楽譜を選択してから音符系列を決定してもよい。たとえば、お店AからはいつもBGM-Aが流れているとすると、お店Aに近づいたときは、BGM-Aの楽譜を選択して音符系列を選択して利用することで推定精度を向上することができる。
次に、同一音特性領域分析部106Bは、混合音分離部103が抽出した分離音情報S102Bに基づいて同一の音特性から成る領域を求めて同一音特性領域情報S104Bを作成する(図5のステップ403に対応)。ここでは、音構造の変化、メロディーの変化、音量の変化、残響特性の変化、音質の変化、音色の変化、に基づいて、同一の音特性から成る領域を決定して同一音特性領域情報S104Bを作成する。音構造の変化は、まず、音構造分析部104Bと同様にして音構造情報を抽出する。そして、事前に、音色、音量などの音特性が同一の音構造ごとにグループ化しておき、抽出した音構造の属するグループにより音構造の変化を検知することができる。たとえば、ピアノ演奏の複数の音構造とギター演奏の複数の音構造とをそれぞれ別のグループにしておいて、入力された楽音の音構造のグループが変化しないときは同一領域、変化した場合は別の領域とする。このとき、事前に作成した音構造のグループの音特性が今復元したい音の音特性と完全に一致することはまれであり、音構造の変化に基づいて音特性を抽出する領域を分割して、復元したい音の実際の音特性をその領域から抽出することは重要である。また、メロディーの変化は、まず、音構造分析部104Bと同様にして音構造情報を抽出する。そして、事前に、音色、音量などの音特性が同一のメロディーごとにグループ化しておき、抽出した音構造の属するグループによりメロディーの変化を検知することができる。メロディーに基づいて、明るい音色、暗い音色、音量などが決定される場合があり、メロディーの区切りで同一の音特性から成る領域を決定することで、精度よく音特性を抽出することができる。また、音量の変化は、パワーを測定することで検知できる。パワーが一定範囲の領域を同一の音特性から成る領域と決定する。また、残響特性の変化、音質の変化は、分離音情報S102Bより計算して、残響度合い、音質が一定範囲の領域を同一の音特性から成る領域と決定する。また、音色の変化は、ピアノ、ギター、バイオリンなどの音をグループ化して作成したガウス分布で表現された音色モデルとの尤度により測定することができ、同じ音色と判断された部分を同一の音特性から成る領域と決定する。ここでは、音の欠落部分の、音構造の変化、メロディーの変化、音量の変化、残響特性の変化、音質の変化、音色の変化、は変化していないとする。
図21に、同一音特性領域情報S104Bの例を示す。ここでは、音特性である、音色、音量、残響特性、音質ごとに音特性が同一である領域を決定している。また、この例では、音色の領域を音構造の変化、メロディーの変化、音色の変化から求め、音量を音量の変化から求め、残響特性は残響特性の変化から求め、音質を音質の変化から求めている。
このように、楽曲は、同じ曲であっても、音色、音量、残響特性、音質などの音特性が変化する。たとえば、歩きながら街角BGMを聴いた場合などは、周囲の建物の位置や周囲の人の位置、温度や湿度などで音量や残響特性は時々刻々変化する。そのため、音構造の変化、メロディーの変化、音色の変化、音量の変化、残響特性の変化、音質の変化、などで、同一の音特性から成る領域を決定してから音特性を抽出して音を復元することは極めて重要である。
なお、ここでは、音構造の変化、メロディーの変化、音量の変化、残響特性の変化、音質の変化、音色の変化の全てを用いて同一音特性領域情報S104Bを作成したが、その一部を用いて同一音特性領域情報を作成してもよい。また、音構造分析部104Bが作成した音構造情報103Bを用いて音構造の変化、メロディーの変化を抽出してもよい。
次に、音特性抽出部107Bは、混合音分離部103が抽出した分離音情報S102Bと同一音特性領域分析部106Bが作成した同一音特性領域情報S104Bとに基づいて復元する街角BGMの音特性を同一の音特性より成る領域ごとに抽出して音特性情報S105Bを作成する(図5のステップ404に対応)。ここでは、街角BGMの、音色、音量、残響特性、音質、を領域ごとに抽出して音特性情報S105Bを作成する。たとえば、MIDI(Musical Instrument Digital Interface)音源に基づく表現方法でこれらの音特性を抽出する。たとえば、音色は、音特性情報S105Bに含まれる波形情報を周波数分析して周波数構造を調べることにより決定することができる。
ここで音特性について考えてみると、ギターの演奏であれば音色はギターであり、ピアノ演奏であれば音色はピアノであり、ピアノ演奏だけを考えた場合でも実際に演奏されるピアノの種類や演奏場所の温度や湿度などにより音色は異なる。また、利用者の耳元(この例ではマイク102の位置)と音源との距離などにより音量は異なる。移動しながら街角BGMを聴いた場合は時々刻々音量は変化する。また、残響特性により奥行き感や臨場感を表現できる。また、スピーカやマイクの特性により音質は異なる。このため、音特性を抽出し、しかも同一の音特性の領域を決定してから音特性を抽出して音を復元することは極めて重要である。
このように混合音から抽出した復元対象音に対して音特性の変化を監視することで、復元対象音を音特性が同一である時間領域で区分けして、欠落した部分が位置する音特性が同一である時間領域における比較的時間長が長い音データ(波形データ等)を用いて音特性を抽出することで、現実の音特性を忠実に再現することができる。
次に、音復元部108Bは、音構造分析部104Bが作成した音構造情報S103Bと音特性抽出部107Bが作成した音特性情報S105Bとに基づいて街角BGMを復元する(図5のステップ405に対応)。ここでは、音復元部108Bは、音構造情報S103Bに記述された音符系列情報と、音特性情報S105Bに記述されたMIDI音源に基づく音特性情報とにより、MIDI音源に基づく楽音合成により、欠落部分の音を復元する。欠落していない(歪んでいない)部分は、分離音情報S102Bによりマイク102で入力された街角BGMの音をそのまま利用する。
なお、楽音を復元する方法として、抽出した音特性に基づいて、音特性と音符系列との類似度が高い波形を波形データベース(図示せず)から選択して楽音を復元してもよい。これにより、欠落部分が多い場合でも波形データベースにより音特性をより精度よく推定できるため、精度のよい楽音を復元することができる。また、選択した波形を実際の音特性や欠落部分の周囲の楽音に基づいて学習により修正して欠落部分の音を復元してもよい。また、音特性抽出部107Bが抽出した音特性情報S105Bに加えて、復元したい楽音に関する一般的な情報により音特性を推定して楽音を復元してもよい。たとえば、一般的な街角BGMの音特性を事前にヘッドホン装置101に記憶しておいてその音特性を参考にして音を復元してもよい。これにより、精度のよい楽音を復元することができる。
このように、欠落部分以外の楽音については、復元対象音の波形をそのまま利用するため、高い精度で音復元を行なうことができる。
最後に、スピーカ109を介して、利用者は復元された街角BGMを聞くことができる。たとえば、あるお店から街角BGMが流れていたとすると、利用者は、お店に近づくほど大きな音で街角BGMが聞こえ遠ざかると小さく聞こえ、実際の感覚とあい、自然な音でしかも周囲騒音を除去した形で街角BGMを楽しむことができる。
〈ii〉欠落部分を含む全体の楽音を復元する方法
利用者は、コンサート会場でクラシック音楽を聞いている。しかし、隣の人がお菓子をボリボリ食べ始めたために音楽が聞こえにくくなっているものとする。そこで本発明の音復元装置を用いることでクラシック音楽を復元する方法について述べる。この例では、図4において、混合音S101に対応するものは、クラシック音楽にお菓子をボリボリ食べる音が重なった混合音であり、復元音S106に対応するものは、クラシック音楽である。図19の〈II〉の〈i〉の例と異なる点は、混合音分離部103の動作、音特性抽出部107Bの動作、音復元部108Bの動作である。そこで、図22に示すように、混合音分離部103Bは混合音分離部103A(〈I〉の〈ii〉の例を参照)を用い、音特性抽出部107Bを音特性抽出部107C、音復元部108Bを音復元部108Cとする。また、混合音S101Bを混合音S101C、分離音情報S102Bを分離音情報S102C、音構造情報S103Bを音構造情報S103C、同一音特性領域情報S104Bを同一音特性領域情報S104C、音特性情報S105Bを音特性情報S105C、復元音S106Bを復元音S106Cとする。ここで音復元部108Cは、〈I〉の〈ii〉の例と同様に、復元する音の欠落部分を含む全体の音を、音構造情報S103Cおよび音特性情報S105Cに基づいて復元を行う。このとき、全体の音のバランス情報に基づいて音全体を復元する。ここで〈I〉の〈ii〉の例と異なる点は、復元する音が音声ではなく楽音であることである。
はじめに、ヘッドホン装置101に装着されたマイク102を用いて混合音S101Cであるクラシック音楽にお菓子をボリボリ食べる音が重なった音を取り込む。図23に、クラシック音楽にお菓子をボリボリ食べる音が重なった混合音を模式的に図示した例を示す。この例では、クラシック音楽の音がお菓子を食べる音によって全体的に歪んでいる。まず、混合音分離部103Aは、〈I〉の〈ii〉の例と同様にして、マイク102が取り
込んだ混合音S101Cを用いて分離音情報S102Cを抽出する(図5のステップ401に対応)。ここでは、抽出する分離音情報は音声に関するものではなく楽音に関するものである。ここでは、図17と同様な形式の分離音情報が抽出できる。ただし、この例では、音声波形ではなく楽音波形である。
なお、分離音情報S102Cを、波形情報ではなく、周波数分析を行ったスペクトログラム上での周波数情報(たとえば、[時間情報,周波数情報,パワー]の組)で表現してもよい。また、分離音情報S102Cの一部であるクラシック音楽の波形情報を、独立成分分析や複数のマイクを用いたアレイ処理により抽出してもよい。
次に、音構造分析部104Bは、〈II〉の〈i〉の例と同様にして、復元する音である
クラシック音楽の音構造情報S103Cを作成する(図5のステップ402に対応)。
なお、楽譜辞書は、音構造知識データベース105Bに事前に登録しておいてもよいし、コンサート会場の音楽サイトなどから本日演奏される楽曲の楽譜をダウンロードすることで更新して登録してもよい。
次に、同一音特性領域分析部106Bは、〈II〉の〈i〉の例と同様にして、同一音特
性領域情報S104Cを作成する(図5のステップ403に対応)。
次に、音特性抽出部107Cは、混合音分離部103Aが抽出した分離音情報S102Cと同一音特性領域分析部106Bが作成した同一音特性領域情報S104Cとに基づいて復元するクラシック音楽の音特性を同一の音特性より成る領域ごとに抽出して音特性情報S105Cを作成する(ステップ404に対応)。ここでは、〈II〉の〈i〉の例とは
異なり、図17のような歪み度合いを含む分離音情報S102Cを用いて、歪み度合いの小さいフレームの音特性を利用して音特性を推定する。なお、歪み度合いの大きさに比例した重み付けで音特性の量を線形加算して推定してもよい。
このように、混合音から抽出した復元対象音に対して音特性の変化を監視することで、復元対象音を音特性が同一である時間領域で区分けして、欠落した部分が位置する音特性が同一である時間領域における比較的時間長が長い音データ(波形データ等)を用いて音特性を抽出することで、現実の音特性を忠実に再現することができる。
次に、音復元部108Cは、音構造分析部104Bが作成した音構造情報S103Cと音特性抽出部107Cが作成した音特性情報S105Cとに基づいて、クラシック音楽が欠落した部分、歪んだ部分、歪んでいない部分を含めたクラシック音楽全体を復元する(図5のステップ405に対応)。まず、音構造情報S103Cに基づいて、復元したい楽音全体の音韻系列情報を決定する。次に、決定した音韻系列情報に基づいて、曲、小節などを単位とした楽曲全体を考慮したリズム情報、音量変化情報などを決定する。そして、音復元部108Cは、音構造情報S103Cに記述された音符系列と、音特性情報S105Cに記述されたMIDI音源に基づく音特性とにより、MIDI音源に基づく楽音合成により、音全体のバランスを考慮して復元する。
このように、欠落部分のみでなく、楽音全体のバランスを考慮して復元することで、欠落部分とそれ以外の楽音のバランスがよくなり、より自然な楽音を復元することができる。最後に、スピーカ109により、利用者は復元されたクラシック音楽を聞くことができる。
〈III〉重なった2種類の音(音声と環境音)を復元する場合
利用者は、街角を友達と話しをしながら歩いている。しかし、自動車の騒音や周りの人の話し声で友達の声が聞き取りにくい。そのとき、自転車が後ろからきて自転車のベルの音がなった。しかし、周りの騒音で自転車のベルの音が聞き取りにくくなっているものとする。そこで本発明の音復元装置を用いることで友達の話し声と自転車のベルの音を復元する方法について述べる。この例では、図4において、混合音S101に対応するものは、友達の話し声と自転車のベルの音と周囲の騒音が重なった混合音であり、復元音S106に対応するものは、友達の話し声と自転車のベルの音である。〈I〉の〈i〉の例と異なる点は、復元する音が音声だけではなく音声と環境音の2つであり、しかも、復元したい音である音声と環境音が一部重なっていることである。
図24に、この実施例の全体構成を示すブロック図を示す。
マイク102は、混合音S101Dを入力して混合音分離部103Dへ出力する。
混合音分離部103Dは、混合音S101Dから復元する音の材料を分離音情報S102Dとして抽出する。
音構造分析部104Dは、混合音分離部103Dが抽出した分離音情報S102Dと音構造知識データベース105Dとに基づいて復元する音の音構造情報S103Dを作成する。
同一音特性領域分析部106Dは、混合音分離部103Dが抽出した分離音情報S102Dから同一の音特性からなる領域を求めて同一音特性領域情報S104Dを作成する。
音特性抽出部107Dは、同一音特性領域分析部106Dが作成した同一音特性領域情報S104Dに基づいて復元する音の音特性を同一の音特性よりなる領域ごとに抽出して音特性情報S105Dを作成する。
音復元部108Dは、音構造分析部104Dが作成した音構造情報S103Dおよび音特性抽出部107Dが作成した音特性情報S105Dと基づいて復元音S106Dを作成する。
スピーカ109は、音復元部108Dが作成した復元音S106Dを利用者へ出力する。
はじめに、ヘッドホン装置101に装着されたマイク102を用いて混合音S101Dである友達の話し声と自転車のベルの音と周囲の騒音が重なった音を取り込む。図25に、友達の話し声と自転車のベルの音と周囲の騒音が重なった混合音を模式的に図示した例を示す。この例では、復元したい音である友達の話し声と自転車のベルの音が一部重なっている。また、友達の話し声と自転車のベルの両方に周囲の騒音が重なっている。
まず、混合音分離部103Dは、マイク102が取り込んだ混合音S101Dを用いて分離音情報S102Dを抽出する(図5のステップ401に対応)。ここでは、混合音S101Dを周波数分析してスペクトログラムで表現したのちに音の波形の局所的な構造を利用して聴覚情景分析を行い、時間と周波数の微小領域ごとに友達の話し声の領域、自転車のベルの領域、周囲の騒音の領域を決定する。ここでは、各微小領域には1つの音のみが優先的にパワーをしめていることを仮定した方法を用いて3種類の音を分離する。図26に、聴覚情景分析を行った結果を模式的に示す。この例をみると、友達の話し声と自転車のベルが時間的に重なった場合でも、周波数ごとに領域を区分すればそれぞれの成分を分離できることがわかる。そして、聴覚情景分析の結果に基づいて図27の例のような分離音情報S102Dを抽出する。図27に示す分離音情報の例では、時間フレームと周波数ごとに、その領域の成分が友達の話し声か自転車のベルかが記載され、それぞれのパワーの値とそれぞれの歪み度合いが記載されている。歪み度合いは、各領域において聴覚情景分析により抽出した成分と抽出前の混合音の成分との比に基づいて計算することができる。
なお、独立成分分析、複数のマイクを用いたアレイ処理などを用いて分離音情報S102Dを抽出してもよい。
次に、音構造分析部104Dは、混合音分離部103Dが抽出した分離音情報S102Dと、音素辞書、単語辞書、言語連鎖辞書、音源モデル辞書、とから構成された音構造知識データベース105Dとに基づいて、復元する音である友達の話し声と自転車のベルの音構造情報S103Dを作成する(図5のステップ402に対応)。ここでは、音構造情報S103Dとして、友達の話し声の音韻系列情報を、音素辞書、単語辞書、言語連鎖辞書を用いて作成し、環境音である自転車のベルの音符系列情報を、音源モデル辞書を用いて作成する。まず、分離音情報S102Dの一部である友達の話し声の成分(たとえば、図27の分離音情報の「音の種類」が「友達」と記載されたところの周波数情報)と、事前に多くの音声データで学習された周波数領域上で表現された音素辞書(隠れマルコフモデル)との尤度を計算して音素の候補を予測する。さらに、単語辞書、言語連鎖辞書を用いて制約をかけて音韻系列を決定する。また、分離音情報S102Dの一部である自転車のベルの成分(たとえば、図27の分離音情報の「音の種類」が「ベル」と記載されたところの周波数情報)と、事前に多くのベルデータで学習された周波数領域上で表現された音素辞書(隠れマルコフモデル)との尤度を計算して音符の候補を予測する。さらに、自転車のベルの時間的構造などが記憶された音源モデル辞書を用いて制約をかけて音符系列を決定する。ここで、図27の分離音情報に記載された「歪み度合い」を用いて精度よく音韻系列または音符系列を決定してもよい。
次に、同一音特性領域分析部106Dは、混合音分離部103Dが抽出した分離音情報S102Dに基づいて同一の音特性から成る領域を求めて同一音特性領域情報S104Dを作成する(図5のステップ403に対応)。ここでは、分離音情報S102Dに基づいて、どの時間と周波数の領域とを同じ音特性から成る領域にしたらよいかを決定して、同一音特性領域情報とする。図28に、同一音特性領域情報S104Dの例を示す。ここでは、友達の話し声の時間と周波数の領域、自転車のベルの時間と周波数の領域と2つの領域が抽出されている。すなわち、次に示す音特性抽出部107Dで2種類の音特性を抽出することになる。この例での特徴は、同一の音特性と考えられる領域が時間的に途切れていることと、周波数を考慮した領域であることである。
次に、音特性抽出部107Dは、混合音分離部103Dが抽出した分離音情報S102Dと同一音特性領域分析部106Dとに基づいて、友達の話し声と自転車のベルとの音特性をそれぞれ抽出して音特性情報S105Dを作成する(ステップ404に対応)。ここで、友達の話し声の音特性として話者性などを抽出して、自転車のベルの音特性として音色などを抽出する。そして、抽出した情報を音特性情報S105Dとする。ここでは、友達の話し声全体で1つの音特性を抽出し、自動車のベルの音全体でもう1つの音特性を抽出して音特性情報S105Dを作成する。
このように、混合音から抽出した復元対象音に対して音特性の変化を監視することで、復元対象音を音特性が同一である時間領域で区分けして、欠落した部分が位置する音特性が同一である時間領域における比較的時間長が長い音データ(波形データ等)を用いて音特性を抽出することで、現実の音特性を忠実に再現することができる。
次に、音復元部108Dは、音構造分析部104Dが作成した音構造情報S103Dと音特性抽出部107Dが作成した音特性情報S105Dに基づいて、友達の話し声と自転車のベルの音を復元する(図5のステップ405に対応)。友達の話し声は〈I〉の〈ii〉の例と同様にして、自転車のベルの音はMIDI音源を用いることで復元する。
このように、複数の復元対象音が重なった場合において、それぞれの復元対象音に対して高い精度で音復元を行なうことができる。
なお、図27の分離音情報を用いて、歪み度合いが小さいもしくは歪んでいない領域は、分離音情報の「パワー」の値をそのまま利用して音を復元してもよい。このときは、歪み度合いが大きい領域の周波数のパワーを復元することになる。
最後に、スピーカ109により、利用者は復元された友達の話し声と自転車のベルを選択的に聴くことができる。たとえば、安全のために自転車のベルの音を優先的に聞き、そのあとに、必要に応じて復元された友達の話し声をオフラインで聞くことができる。また、右耳と左耳の2つのスピーカを用いて2つの音源の位置を意図的にずらして聞くこともできる。このとき、自転車のベルの音は音源の位置が変わらないように設定すると自転車の到来方向がわかり安全で好ましい。
以上説明したように、本発明の実施の形態1によれば、音構造知識データベースを用いて作成した音構造情報に基づいて音を復元するため、幅広い一般的な音(音声、音楽、環境音を含む)を復元することができるとともに、同一の音特性からなる領域ごとに抽出した音特性情報に基づいて音を復元するため、実際の音特性に忠実に歪む前の音を復元することができる。また、混合音分離部により、複数の音が混在した混合音から音を復元することができる。特に、混合音から抽出した復元対象音に対して音特性の変化を監視することで、復元対象音を音特性が同一である時間領域で区分けして、欠落した部分が位置する音特性が同一である時間領域における比較的時間長が長い音データ(波形データ等)を用いて音特性を抽出することで、現実の音特性を忠実に再現することができる。
なお、〈I〉の〈i〉、〈I〉の〈ii〉、〈II〉の〈i〉、〈II〉の〈ii〉、〈III〉の全ての例において、音復元部は、利用者の聴覚特性に基づいて音を復元してもよい。たとえば、マスキング効果を考慮して利用者に聞こえない部分は復元しなくてもよい。また、利用者の可聴範囲を考慮して音を復元してもよい。
なお、音特性抽出部が作成した音特性情報に基づいて、声質、口調、音量、音質などを忠実に復元し、音特性の一部を変更して、残響だけを小さくすることで、利用者に聞き取りやすく加工してもよい。また、音構造分析部が作成した音構造情報を一部変更して、音構造情報に基づいた音韻系列に従って、敬語表現にしたり方言表現に変更したりしてもよい。これらの変形例に関しては、実施の形態2および実施の形態3において説明を加える。
(実施の形態2)
実施の形態2では、音特性一部変更部により音特性を一部変更することで、利用者に聞きやすくかつ自然な音で復元できることについて述べる。ここでは、本発明に係る音復元装置が音編集装置に組み込まれた例で説明する。復元する音として、〈IV〉音声を復元する場合、〈V〉楽音を復元する場合、について述べる。
〈IV〉音声を復元する場合
図29は、本発明の実施の形態2における〈IV〉の例の音復元装置の全体構成を示すブロック図である。図29において、音編集装置201は、テレビ、パソコン、DVD(Digital Versatile Disc)編集器などに組み込むことも可能であり、混合音の中から利用者が必要とする音を、音特性の一部を変更して聞きやすい音で復元するという音復元機能を実装している。音編集装置201は、データ読み取り部202と、混合音分離部103と、音構造分析部104と、音構造知識データベース105と、同一音特性領域分析部106と、音特性抽出部107と、音特性一部変更部203と、音復元部204と、記憶部205と、スピーカ206とを備える。
データ読み取り部202は、混合音S101を入力して混合音分離部103へ出力する。
混合音分離部103は、混合音S101から復元する音の材料を分離音情報S102として抽出する。
音構造分析部104は、混合音分離部103が抽出した分離音情報S102と音構造知識データベース105とに基づいて復元する音の音構造情報S103を作成する。
同一音特性領域分析部106は、混合音分離部103が抽出した分離音情報S102から同一の音特性からなる領域を求めて同一音特性領域情報S104を作成する。
音特性抽出部107は、同一音特性領域分析部106が作成した同一音特性領域情報S104に基づいて復元する音の音特性を同一の音特性よりなる領域ごとに抽出して音特性情報S105を作成する。
音特性一部変更部203は、音特性抽出部107が作成した音特性情報S105を一部変更して変更音特性情報S201を作成する。
音復元部204は、音構造分析部104が作成した音構造情報S103および音特性一部変更部203が作成した変更音特性情報S201に基づいて復元音S202を作成する。
記憶部205は、音復元部204が作成した復元音S202を記憶する。
スピーカ206は、記憶部205が記憶した復元音S202を利用者へ出力する。
図30は、本発明の実施の形態2における音復元装置の処理の流れを示すフローチャートである。はじめに、混合音分離部103は、混合音S101から復元する音の材料を分離音情報S102として抽出する(ステップ401)。次に、音構造分析部104は、抽出した分離音情報S102と音構造知識データベース105とに基づいて音構造情報S103を作成する(ステップ402)。また、同一音特性領域分析部106は、抽出した分離音情報S102から同一の音特性から成る領域を求めて同一音特性領域情報S104を作成する(ステップ403)。そして、音特性抽出部107は、同一音特性領域情報S104に基づいて復元する音の音特性を同一の音特性より成る領域ごとに抽出して音特性情報S105を作成する(ステップ404)。そして、音特性一部変更部203は、音特性情報S105を一部変更して変更音特性情報S201を作成する(ステップ2801)。最後に、音復元部204は、音構造情報S103と変更音特性情報S201とに基づいて復元音S202を作成する(ステップ2802)。
次に、本実施の形態の〈IV〉の例を音編集装置の音復元機能に適用した具体例について説明する。ここでは、実施の形態1の〈I〉の〈i〉の例と同じように、アナウンスの音声とチャイムが重なった混合音S101からアナウンスの音声を復元する方法について説明する。ここで実施の形態1と異なる点は、音復元部204は、作成した音特性情報S105をそのまま利用するのではなく、音特性一部変更部203により作成された変更音特性情報S201を用いて音を復元することである。
はじめに、音編集装置101に装着されたデータ読み取り部202を用いて混合音S101であるアナウンスの音声とチャイムが重なった音(図6を参照)を取り込む。
まず、混合音分離部103は、データ読み取り部202が取り込んだ混合音S101を用いて、実施の形態1の〈I〉の〈i〉の例と同様にして、分離音情報S102を抽出する(図30のステップ401に対応)。
次に、音構造分析部104は、実施の形態1の〈I〉の〈i〉の例と同様にして、アナウンスの音声の音構造情報S103を作成する(図30のステップ402に対応)。
次に、同一音特性領域分析部106は、実施の形態1の〈I〉の〈i〉の例と同様にして、混合音分離部103が抽出した分離音情報S102に基づいて同一の音特性から成る領域を求めて同一音特性領域情報S104を作成する(図30のステップ403に対応)。
次に、音特性抽出部107は、実施の形態1の〈I〉の〈i〉の例と同様にして、混合音分離部103が抽出した分離音情報S102と同一音特性領域分析部106が作成した同一音特性領域情報S104とに基づいて復元するアナウンスの音声の音特性を同一の音特性より成る領域ごとに抽出して音特性情報S105を作成する(図30のステップ404に対応)。ここでは、音特性として、話者性、性別特性、声年齢、声質、口調、音量、残響特性、音質を抽出する。
次に、音特性一部変更部203は、音特性抽出部107が作成した音特性情報S105を一部変更して変更音特性情報S201を作成する(図30のステップ2801に対応)。ここでは、音特性情報S105である、話者性、性別特性、声年齢、声質、口調、音量、音質、残響特性、音色、の情報の一部を変更して利用者が聞き取りやすい音特性を作成する。たとえば、話者性だけを変更して発話者の特徴を少し強調することで、実際の音特性はほとんど変更することなしに、聞きやすい自然な音を復元することができる。また、口調を変更して、アナウンス口調を丁寧な口調にすることができ、どもった声を明瞭にすることで聞きやすい音を復元することができる。また、音量を大きくしたり、残響を少なくしたりすることでも聞きやすい音を復元することができる。ここで、変更する音特性は全体の音特性の一部であるため、自然な音を復元することができる。たとえば、残響特性だけを変更した場合は、話者性は保持されるため、発話者のリアルな音声を復元することができる。
次に、音復元部204は、音構造分析部104が作成した音構造情報S103と音特性一部変更部203が作成した変更音特性情報S201とに基づいてアナウンスの音声を復元する(図30のステップ2802に対応)。ここでは、音声合成により、変更された音特性に基づいてアナウンス全体の音声を復元音S202として復元する。
次に、記憶部205は、音復元部204が作成した復元音S202を記憶する。
最後に、利用者は、復元されたアナウンスをスピーカ206で聞くことができる。
〈V〉楽音を復元する場合
図31は、本発明の実施の形態2における〈V〉の例の音復元装置の全体構成を示すブロック図である。図31において、〈IV〉の例と同じように、音編集装置201は、テレビ、パソコン、DVD編集器などに組み込むことも可能であり、混合音の中から利用者が必要とする音を、音特性の一部を変更して聞きやすい音で復元するという音復元機能を実装している。音編集装置201は、データ読み取り部202と、混合音分離部103と、音構造分析部104Bと、音構造知識データベース105Bと、同一音特性領域分析部106Bと、音特性抽出部107Bと、音特性一部変更部203Bと、音復元部204Bと、記憶部205と、スピーカ206とを備える。
データ読み取り部202は、混合音S101Bを入力して混合音分離部103へ出力する。
混合音分離部103は、混合音S101Bから復元する音の材料を分離音情報S102Bとして抽出する。
音構造分析部104Bは、混合音分離部103が抽出した分離音情報S102Bと音構造知識データベース105Bとに基づいて復元する音の音構造情報S103Bを作成する。
同一音特性領域分析部106Bは、混合音分離部103が抽出した分離音情報S102Bから同一の音特性からなる領域を求めて同一音特性領域情報S104Bを作成する。
音特性抽出部107Bは、同一音特性領域分析部106Bが作成した同一音特性領域情報S104Bに基づいて復元する音の音特性を同一の音特性よりなる領域ごとに抽出して音特性情報S105Bを作成する。
音特性一部変更部203Bは、音特性抽出部107Bが作成した音特性情報S105Bを一部変更して変更音特性情報S201Bを作成する。
音復元部204Bは、音構造分析部104Bが作成した音構造情報S103Bおよび音特性一部変更部203Bが作成した変更音特性情報S201Bに基づいて復元音S202Bを作成する。
記憶部205は、音復元部204Bが作成した復元音S202Bを記憶する。
スピーカ206は、記憶部205が記憶した復元音S202Bを利用者へ出力する。
次に、本実施の形態の〈V〉の例を音編集装置の音復元機能に適用した具体例について説明する。ここでは、実施の形態1の〈II〉の〈i〉の例と同じように、街角BGMと自動車のクラクションの音が重なった混合音S101Bから街角BGMを復元する方法について説明する。ここで、〈IV〉の例とことなる点は、復元する音は音声ではなく楽音であることである。
はじめに、音編集装置101に装着されたデータ読み取り部202を用いて混合音S101Bである街角BGMと自動車のクラクションの音が重なった音(図20を参照)を取り込む。
まず、混合音分離部103は、データ読み取り部202が取り込んだ混合音S101Bを用いて、実施の形態1の〈II〉の〈i〉の例と同様にして、分離音情報S102Bを抽出する(図30のステップ401に対応)。
次に、音構造分析部104Bは、実施の形態1の〈II〉の〈i〉の例と同様にして、街角BGMの音構造情報S103Bを作成する(図30のステップ402に対応)。
次に、同一音特性領域分析部106Bは、実施の形態1の〈II〉の〈i〉の例と同様にして、混合音分離部103が抽出した分離音情報S102Bに基づいて同一の音特性から成る領域を求めて同一音特性領域情報S104Bを作成する(図30のステップ403に対応)。
次に、音特性抽出部107Bは、実施の形態1の〈II〉の〈i〉の例と同様にして、混
合音分離部103が抽出した分離音情報S102Bと同一音特性領域分析部106Bが作成した同一音特性領域情報S104Bとに基づいて復元する街角BGMの音特性を同一の音特性より成る領域ごとに抽出して音特性情報S105Bを作成する(図30のステップ404に対応)。ここでは、音特性として、音量、音質、残響特性、音色を抽出する。
次に、音特性一部変更部203Bは、音特性抽出部107Bが作成した音特性情報S105Bを一部変更して変更音特性情報S201Bを作成する(図30のステップ2801に対応)。ここでは、音特性情報S105Bである、音量、音質、残響特性、音色、の情報の一部を変更して利用者が聞き取りやすい音特性を作成する。たとえば、音色だけを変更して、演奏している楽器の音色を少し強調することで、聞きやすい自然な音を復元することができる。また、音量を大きくしたり、残響を少なくしたり、音質をよくしたりすることで、聞きやすい音を復元することができる。ここで、変更する音特性は全体の音特性の一部であるため、自然な音を復元することができる。
次に、音復元部204Bは、音構造分析部104Bが作成した音構造情報S103Bと音特性一部変更部203Bが作成した変更音特性情報S201Bとに基づいて街角BGMを復元する(図30のステップ2802に対応)。ここでは、楽音合成により、変更された音特性に基づいて街角BGM全体の音を復元音S202Bとして復元する。
次に、記憶部205は、音復元部204Bが作成した復元音S202Bを記憶する。
最後に、利用者は、復元された街角BGMをスピーカ206で聞くことができる。
以上説明したように、本発明の実施の形態2によれば、混合音から抽出した復元対象音に対して音特性の変化を監視することで、復元対象音を音特性が同一である時間領域で区分けして、欠落した部分が位置する音特性が同一である時間領域における比較的時間長が長い音データ(波形データ等)を用いて音特性を抽出することで、保持した音特性に対して忠実に、高い精度で混合音の中の復元対象音を復元することができる。さらに、音特性一部変更部を備えることで、利用者に聞きやすく復元することができる。
なお、〈IV〉、〈V〉の例において、音復元部は、利用者の聴覚特性に基づいて音を復元してもよい。たとえば、マスキング効果を考慮して利用者に聞こえない部分は復元しなくてもよい。また、利用者の可聴範囲を考慮して音を復元してもよい。また、音特性一部変更部は、利用者の聴覚特性に基づいて音特性を変更してもよい。たとえば、低い周波数が聞こえにくい利用者に対しては、低い周波数のパワーを大きくして復元してもよい。
なお、〈IV〉、〈V〉の例で、実施の形態1の〈I〉の〈i〉、〈II〉の〈i〉を一部として用いて説明を行ったが、この形態に限らず、〈I〉の〈ii〉、〈II〉の〈ii〉、〈IV〉を一部として用いて音を復元してもよい。
(実施の形態3)
音構造一部変更部により音構造情報を一部変更することで、利用者にわかりやすくかつ自然な音で復元できることについて述べる。ここでは、本発明に係る音復元装置が携帯型テレビ電話装置に組み込まれた例で説明する。復元する音として、〈VI〉音声を復元する場合、〈VII〉楽音を復元する場合、について述べる。
〈VI〉音声を復元する場合
図32は、本発明の実施の形態3における〈VI〉の例の音復元装置の全体構成を示すブロック図である。図32において、携帯型テレビ電話装置301は、混合音の中から利用者が必要とする音を、音構造の一部を変更してわかりやすい音で復元するという音復元機能を実装している。携帯型テレビ電話装置301は、受信部302と、混合音分離部103と、音構造分析部104と、音構造知識データベース105と、音構造一部変更部303と、同一音特性領域分析部106と、音特性抽出部107と、音復元部204と、スピーカ305とを備える。
受信部302は、混合音S101を入力して混合音分離部103へ出力する。
混合音分離部103は、混合音S101から復元する音の材料を分離音情報S102として抽出する。
音構造分析部104は、混合音分離部103が抽出した分離音情報S102と音構造知識データベース105とに基づいて復元する音の音構造情報S103を作成する。
音構造一部変更部303は、音構造分析部104が作成した音構造情報S103を一部変更して変更音構造情報S301を作成する。
同一音特性領域分析部106は、混合音分離部103が抽出した分離音情報S102から同一の音特性からなる領域を求めて同一音特性領域情報S104を作成する。
音特性抽出部107は、同一音特性領域分析部106が作成した同一音特性領域情報S104に基づいて復元する音の音特性を同一の音特性よりなる領域ごとに抽出して音特性情報S105を作成する。
音復元部304は、音構造一部変更部303が作成した変更音構造情報S301および音特性抽出部107が作成した音特性情報S105に基づいて復元音S302を作成する。
スピーカ305は、音復元部304が作成した復元音S302を利用者へ出力する。
図33は、本発明の実施の形態3における音復元装置の処理の流れを示すフローチャートである。はじめに、混合音分離部103は、混合音S101から復元する音の材料を分離音情報S102として抽出する(ステップ401)。次に、音構造分析部104は、抽出した分離音情報S102と音構造知識データベース105とに基づいて音構造情報S103を作成する(ステップ402)。そして、音構造一部変更部303は、音構造情報S103を一部変更して変更音構造情報S301を作成する(ステップ3001)。また、同一音特性領域分析部106は、抽出した分離音情報S102から同一の音特性から成る領域を求めて同一音特性領域情報S104を作成する(ステップ403)。そして、音特性抽出部107は、同一音特性領域情報S104に基づいて復元する音の音特性を同一の音特性より成る領域ごとに抽出して音特性情報S105を作成する(ステップ404)。最後に、音復元部304は、変更音構造情報S301と音特性情報S105とに基づいて復元音S302を作成する(ステップ3002)。
次に、本実施の形態の〈VI〉の例を携帯型テレビ電話装置の音復元機能に適用した具体例について説明する。ここでは、実施の形態1の〈I〉の〈i〉の例と同じように、アナウンスの音声とチャイムが重なった混合音S101からアナウンスの音声を復元する方法について説明する。ここで実施の形態1と異なる点は、音復元部304は、作成した音構造情報S103をそのまま利用するのではなく、音構造一部変更部303により作成された変更音特性情報S301を用いて音を復元することである。
はじめに、携帯型テレビ電話装置101に装着された受信部302を用いて混合音S101であるアナウンスの音声とチャイムが重なった音(図6を参照)を取り込む。
まず、混合音分離部103は、受信部302が取り込んだ混合音S101を用いて、実施の形態1の〈I〉の〈i〉の例と同様にして、分離音情報S102を抽出する(図33のステップ401に対応)。
次に、音構造分析部104は、実施の形態1の〈I〉の〈i〉の例と同様にして、アナウンスの音声の音構造情報S103を作成する(図33のステップ402に対応)。
次に、音構造一部変更部303は、音構造分析部104が作成した音構造情報S103を一部変更して変更音構造情報S301を作成する(図33のステップ3001に対応)。ここでは、音構造情報S103である音韻系列情報の一部を変更して利用者がわかりやすい音構造を作成する。たとえば、文末の音韻系列を敬語形態に変更したり、地方の方言を標準語の音韻系列に変更したりすることで、わかりやすい自然な音を復元することができる。この例では、話している内容は変更しない。
次に、同一音特性領域分析部106は、実施の形態1の〈I〉の〈i〉の例と同様にして、混合音分離部103が抽出した分離音情報S102に基づいて同一の音特性から成る領域を求めて同一音特性領域情報S104を作成する(図33のステップ403に対応)。
次に、音特性抽出部107は、実施の形態1の〈I〉の〈i〉の例と同様にして、混合音分離部103が抽出した分離音情報S102と同一音特性領域分析部106が作成した同一音特性領域情報S104とに基づいて復元するアナウンスの音声の音特性を同一の音特性より成る領域ごとに抽出して音特性情報S105を作成する(図33のステップ404に対応)。
次に、音復元部304は、音構造一部変更部303が作成した変更音構造情報S301と音特性抽出部107が作成した音特性情報S105とに基づいてアナウンスの音声を復元する(図33のステップ3002に対応)。ここでは、音声合成により、変更された音特性に基づいてアナウンス全体の音声を復元音S302として復元する。
最後に、利用者は、復元されたアナウンスをスピーカ305で聞くことができる。
〈VII〉楽音を復元する場合
図34は、本発明の実施の形態3における〈VII〉の例の音復元装置の全体構成を示すブロック図である。図34において、〈VI〉の例と同じように、携帯型テレビ電話装置301は、混合音の中から利用者が必要とする音を、音構造の一部を変更してわかりやすい音で復元するという音復元機能を実装している。携帯型テレビ電話装置301は、受信部302と、混合音分離部103と、音構造分析部104Bと、音構造知識データベース105Bと、音構造一部変更部303Bと、同一音特性領域分析部106Bと、音特性抽出部107Bと、音復元部304Bと、スピーカ305とを備える。
受信部302は、混合音S101Bを入力して混合音分離部103へ出力する。
混合音分離部103は、混合音S101Bから復元する音の材料を分離音情報S102Bとして抽出する。
音構造分析部104Bは、混合音分離部103が抽出した分離音情報S102Bと音構造知識データベース105Bとに基づいて復元する音の音構造情報S103Bを作成する。
音構造一部変更部303Bは、音構造分析部104Bが作成した音構造情報S103Bを一部変更して変更音構造情報S301Bを作成する。
同一音特性領域分析部106Bは、混合音分離部103が抽出した分離音情報S102Bから同一の音特性からなる領域を求めて同一音特性領域情報S104Bを作成する。
音特性抽出部107Bは、同一音特性領域分析部106Bが作成した同一音特性領域情報S104Bに基づいて復元する音の音特性を同一の音特性よりなる領域ごとに抽出して音特性情報S105Bを作成する。
音復元部304Bは、音構造一部変更部303Bが作成した変更音構造情報S301Bおよび音特性抽出部107Bが作成した音特性情報S105Bに基づいて復元音S302Bを作成する。
スピーカ305は、音復元部304Bが作成した復元音S302Bを利用者へ出力する。
次に、本実施の形態の〈VII〉の例を携帯型テレビ電話装置の音復元機能に適用した具体例について説明する。ここでは、実施の形態1の〈II〉の〈i〉の例と同じように、街角BGMと自動車のクラクションの音が重なった混合音S101Bから街角BGMを復元する方法について説明する。ここで、〈VI〉の例とことなる点は、復元する音は音声ではなく楽音であることである。
はじめに、携帯型テレビ電話装置301に装着された受信部302を用いて混合音S101Bである街角BGMと自動車のクラクションの音が重なった音(図20を参照)を取り込む。
まず、混合音分離部103は、受信部302が取り込んだ混合音S101Bを用いて、実施の形態1の〈II〉の〈i〉の例と同様にして、分離音情報S102Bを抽出する(図33のステップ401に対応)。
次に、音構造分析部104Bは、実施の形態1の〈II〉の〈i〉の例と同様にして、街角BGMの音構造情報S103Bを作成する(図33のステップ402に対応)。
次に、音構造一部変更部303Bは、音構造分析部104Bが作成した音構造情報S103Bを一部変更して変更音構造情報S301Bを作成する(図33のステップ3001に対応)。ここでは、音構造情報S103Bである、音符系列情報を変更して、利用者にわかりやすい音を復元する。たとえば、高齢者に対して街角BGMのテンポが速い場合は、ゆっくりとしたテンポの音符系列情報に変更する。なお、復元する音が報知音などの場合は、音の繰返し周期を変更してもよい。たとえば、高齢者は、速い周期の音は聞き取りにくいため、スピードを少しゆっくりにして音を復元してもよい。
次に、同一音特性領域分析部106Bは、実施の形態1の〈II〉の〈i〉の例と同様に
して、混合音分離部103が抽出した分離音情報S102Bに基づいて同一の音特性から成る領域を求めて同一音特性領域情報S104Bを作成する(図33のステップ403に対応)。
次に、音特性抽出部107Bは、実施の形態1の〈II〉の〈i〉の例と同様にして、混合音分離部103が抽出した分離音情報S102Bと同一音特性領域分析部106Bが作成した同一音特性領域情報S104Bとに基づいて復元する街角BGMの音特性を同一の音特性より成る領域ごとに抽出して音特性情報S105Bを作成する(図33のステップ404に対応)。
次に、音復元部304Bは、音構造一部変更部303Bが作成した変更音構造情報S301Bと音特性抽出部107Bが作成した音特性情報S105Bとに基づいて街角BGMを復元する(図33のステップ3002に対応)。ここでは、楽音合成により、変更された音特性に基づいて街角BGM全体の音を復元音S302Bとして復元する。
最後に、利用者は、復元された街角BGMをスピーカ305で聞くことができる。
以上説明したように、本発明の実施の形態3によれば、混合音から抽出した復元対象音に対して音特性の変化を監視することで、復元対象音を音特性が同一である時間領域で区分けして、欠落した部分が位置する音特性が同一である時間領域における比較的時間長が長い音データ(波形データ等)を用いて音特性を抽出することで、現実の音特性を忠実に再現することができる。さらに、音構造一部変更部を備えることで、利用者にわかりやすくかつ自然な音で復元することができる。
なお、〈VI〉、〈VII〉の例において、音復元部は、利用者の聴覚特性に基づいて音を
復元してもよい。たとえば、聴覚の時間分解能などを考慮して音構造を変更してもよい。なお、〈VI〉、〈VII〉の例で、実施の形態1の〈I〉の〈i〉、〈II〉の〈i〉を一部として用いて説明を行ったが、この形態に限らず、〈I〉の〈ii〉、〈II〉の〈ii〉、〈IV〉を一部として用いて音を復元してもよい。
なお、混合音は、伝送ノイズ、収音ミスなどにより歪んだ音を含んでもよい。
なお、実施の形態2の音特性一部変更部と組み合わせて音を復元してもよい。
本発明にかかる音復元装置は、音編集装置、携帯電話、携帯端末、テレビ会議システム、ヘッドホン、補聴器等の音復元機能を必要とする装置等として利用することができる。
図1は、第1の従来の音復元方法を説明する図である。 図2は、第2の従来の音復元方法を説明する図である。 図3は、第4の従来の音復元方法を説明する図である。 図4は、本発明の実施の形態1における音復元装置の全体構成を示すブロック図である。 図5は、本発明の実施の形態1における音復元装置の処理の流れを示すフローチャートである。 図6は、混合音と分離音情報の一例を示す図である。 図7は、分離音情報の一例を示す図である。 図8は、音構造情報の作成方法の一例を示す図である。 図9は、音構造情報の作成方法の一例を示す図である。 図10は、同一音特性領域情報の一例を示す図である。 図11は、音特性情報の一例を示す図である。 図12は、音特性情報の一例を示す図である。 図13は、本発明の実施の形態1における音復元装置の別の全体構成を示すブロック図である。 図14は、本発明の実施の形態1における音復元装置の処理の別の流れを示すフローチャートである。 図15は、本発明の実施の形態1における音復元装置の別の全体構成を示すブロック図である。 図16は、混合音の一例を示す図である。 図17は、分離音情報の一例を示す図である。 図18は、分離音情報の一例を示す図である。 図19は、本発明の実施の形態1における音復元装置の別の全体構成を示すブロック図である。 図20は、混合音と分離音情報の一例を示す図である。 図21は、同一音特性領域情報の一例を示す図である。 図22は、本発明の実施の形態1における音復元装置の別の全体構成を示すブロック図である。 図23は、混合音の一例を示す図である。 図24は、本発明の実施の形態1における音復元装置の別の全体構成を示すブロック図である。 図25は、混合音の一例を示す図である。 図26は、分離音情報の一例を示す図である。 図27は、分離音情報の一例を示す図である。 図28は、同一音特性領域情報の一例を示す図である。 図29は、本発明の実施の形態2における音復元装置の全体構成を示すブロック図である。 図30は、本発明の実施の形態2における音復元装置の処理の流れを示すフローチャートである。 図31は、本発明の実施の形態2における音復元装置の別の全体構成を示すブロック図である。 図32は、本発明の実施の形態3における音復元装置の全体構成を示すブロック図である。 図33は、本発明の実施の形態3における音復元装置の処理の流れを示すフローチャートである。 図34は、本発明の実施の形態3における音復元装置の別の全体構成を示すブロック図である。
符号の説明
101 ヘッドホン装置
102 マイク
103、103A、103D 混合音分離部
104、104B、104D 音構造分離部
105、105B、105D 音構造知識データベース
106、106Z、106A、106B、106D 同一音特性領域分析部
107、107A、107B、107C、107D 音特性抽出部
108、204、304、108A、108B、108C、108D、204B、304B 音復元部
109、206、305 スピーカ
201 音編集装置
202 データ読み取り部
203、203B 音特性一部変更部
205 記憶部
301 携帯型テレビ電話装置
302 受信部
303、303B 音構造一部変更部
S101、S101A、S101B、S101C、S101D 混合音
S102、S102A、S102B、S102C、S102D 分離音情報
S103、S103A、S103B、S103C、S103D 音構造情報
S104、S104A、S104B、S104C、S104D 同一音特性領域情報
S105、S105A、S105B、S105C、S105D 音特性情報
S106、S202、S302、S106A、S106B、S106C、S106D、S202B、S302B 復元音
S201、S201B 変更音特性情報
S301、S301B 変更音構造情報
3301 放送局
3302 受信装置
3303 音声認識装置
3304 言語分析装置
3305 音声合成器
3306 スピーカ
3401 入力部
3402 音声認識用音響モデル
3403 言語モデル
3404 音声認識部
3405 音声合成用音響モデル
3406 音声合成部
3407 モニタ部
3408 バッファ
3409 信号混合部

Claims (5)

  1. 混合音に含まれる、音の一部が欠落した復元対象音を復元する音復元装置であって、
    前記混合音に含まれる復元対象音を抽出する混合音分離手段と、
    音の意味内容が登録されている音構造知識データベースに基づいて、前記抽出された復元対象音の音が欠落した部分の音素系列、文字系列および音符系列のうちの少なくとも1つを作成する音構造分析手段と、
    前記抽出された復元対象音を、同一の音特性を有する時間領域に区分けする同一音特性領域分析手段と、
    前記区分けされた時間領域の中から欠落された部分が位置する時間領域を特定し、当該特定された時間領域において、前記欠落された部分以外の音から、前記復元対象音の音特性を抽出する音特性抽出手段と、
    前記音構造分析手段で作成された前記音素系列、文字系列および音符系列のうちの少なくとも1つと前記抽出された音特性とを用いて、復元対象音において欠落した部分の音を復元する音復元手段と
    を備える音復元装置。
  2. 前記同一音特性領域分析手段は、声質の変化、口調の変化、音色の変化、音量の変化、残響特性の変化および音質の変化のうちの少なくとも1つに基づいて、音特性が同一である時間領域を決定する
    請求項1に記載の音復元装置。
  3. 前記音復元手段は、前記欠落した部分の音と前記欠落した部分以外の音とを合わせた復元対象音全体を、前記音構造分析手段で作成された前記音素系列、文字系列および音符系列のうちの少なくとも1つと前記抽出された音特性とを用いて復元する
    請求項1に記載の音復元装置。
  4. 混合音に含まれる音の一部が欠落した復元対象音を復元する音復元方法であって、
    前記混合音に含まれる復元対象音を抽出し、
    音の意味内容が登録されている音構造知識データベースに基づいて、前記抽出された復元対象音の音が欠落した部分の音素系列、文字系列および音符系列のうちの少なくとも1つを作成し、
    前記抽出された復元対象音を、同一の音特性を有する時間領域に区分けし、
    前記区分けされた時間領域の中から欠落された部分が位置する時間領域を特定し、当該特定された時間領域において、前記欠落された部分以外の音から、前記復元対象音の音特性を抽出し、
    作成された前記音素系列、文字系列および音符系列のうちの少なくとも1つと前記抽出された音特性とを用いて、復元対象音において欠落した部分の音を復元する
    音復元方法。
  5. 混合音に含まれる音の一部が欠落した復元対象音を復元するプログラムであって、
    前記混合音に含まれる復元対象音を抽出するステップと、
    音の意味内容が登録されている音構造知識データベースに基づいて、前記抽出された復元対象音の音が欠落した部分の音素系列、文字系列および音符系列のうちの少なくとも1つを作成するステップと、
    前記抽出された復元対象音を、同一の音特性を有する時間領域に区分けするステップと、
    前記区分けされた時間領域の中から欠落された部分が位置する時間領域を特定し、当該特定された時間領域において、前記欠落された部分以外の音から、前記復元対象音の音特性を抽出するステップと、
    作成された前記音素系列、文字系列および音符系列のうちの少なくとも1つと前記抽出された音特性とを用いて、復元対象音において欠落した部分の音を復元するステップと
    をコンピュータに実行させるプログラム。
JP2007500432A 2005-01-25 2005-12-12 音復元装置および音復元方法 Expired - Fee Related JP3999812B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005017424 2005-01-25
JP2005017424 2005-01-25
PCT/JP2005/022802 WO2006080149A1 (ja) 2005-01-25 2005-12-12 音復元装置および音復元方法

Publications (2)

Publication Number Publication Date
JP3999812B2 true JP3999812B2 (ja) 2007-10-31
JPWO2006080149A1 JPWO2006080149A1 (ja) 2008-06-19

Family

ID=36740183

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007500432A Expired - Fee Related JP3999812B2 (ja) 2005-01-25 2005-12-12 音復元装置および音復元方法

Country Status (3)

Country Link
US (1) US7536303B2 (ja)
JP (1) JP3999812B2 (ja)
WO (1) WO2006080149A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100555287C (zh) * 2007-09-06 2009-10-28 腾讯科技(深圳)有限公司 互联网音乐文件排序方法、系统和搜索方法及搜索引擎
US20090129605A1 (en) * 2007-11-15 2009-05-21 Sony Ericsson Mobile Communications Ab Apparatus and methods for augmenting a musical instrument using a mobile terminal
US8103511B2 (en) * 2008-05-28 2012-01-24 International Business Machines Corporation Multiple audio file processing method and system
US8892228B2 (en) * 2008-06-10 2014-11-18 Dolby Laboratories Licensing Corporation Concealing audio artifacts
CN101304391A (zh) * 2008-06-30 2008-11-12 腾讯科技(深圳)有限公司 一种基于即时通讯系统的语音通话方法及系统
KR101042515B1 (ko) * 2008-12-11 2011-06-17 주식회사 네오패드 사용자의 의도에 기반한 정보 검색방법 및 정보 제공방법
US8611558B2 (en) 2009-02-26 2013-12-17 Adobe Systems Incorporated System and method for dynamic range extension using interleaved gains
GB0919672D0 (en) * 2009-11-10 2009-12-23 Skype Ltd Noise suppression
CN102834842B (zh) * 2010-03-23 2016-06-29 诺基亚技术有限公司 用于确定用户年龄范围的方法和装置
JP5529635B2 (ja) * 2010-06-10 2014-06-25 キヤノン株式会社 音声信号処理装置および音声信号処理方法
US9330675B2 (en) 2010-11-12 2016-05-03 Broadcom Corporation Method and apparatus for wind noise detection and suppression using multiple microphones
US8571873B2 (en) * 2011-04-18 2013-10-29 Nuance Communications, Inc. Systems and methods for reconstruction of a smooth speech signal from a stuttered speech signal
US8682678B2 (en) * 2012-03-14 2014-03-25 International Business Machines Corporation Automatic realtime speech impairment correction
JP6056172B2 (ja) * 2012-03-30 2017-01-11 ソニー株式会社 データ処理装置、データ処理方法、及び、プログラム
US10452986B2 (en) 2012-03-30 2019-10-22 Sony Corporation Data processing apparatus, data processing method, and program
JP2014106247A (ja) * 2012-11-22 2014-06-09 Fujitsu Ltd 信号処理装置、信号処理方法および信号処理プログラム
KR101475894B1 (ko) * 2013-06-21 2014-12-23 서울대학교산학협력단 장애 음성 개선 방법 및 장치
CN105335592A (zh) * 2014-06-25 2016-02-17 国际商业机器公司 生成时间数据序列的缺失区段中的数据的方法和设备
US10140089B1 (en) * 2017-08-09 2018-11-27 2236008 Ontario Inc. Synthetic speech for in vehicle communication
WO2020226001A1 (ja) * 2019-05-08 2020-11-12 ソニー株式会社 情報処理装置および情報処理方法
US11727949B2 (en) * 2019-08-12 2023-08-15 Massachusetts Institute Of Technology Methods and apparatus for reducing stuttering
CN111556254B (zh) * 2020-04-10 2021-04-02 早安科技(广州)有限公司 利用视频内容进行视频切割的方法、系统、介质及智能设备
CN113612808B (zh) * 2021-10-09 2022-01-25 腾讯科技(深圳)有限公司 音频处理方法、相关设备、存储介质及程序产品

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2543577B2 (ja) 1988-06-20 1996-10-16 沖電気工業株式会社 音声パケット補間方法
FI97758C (fi) * 1992-11-20 1997-02-10 Nokia Deutschland Gmbh Järjestelmä audiosignaalin käsittelemiseksi
US5673210A (en) * 1995-09-29 1997-09-30 Lucent Technologies Inc. Signal restoration using left-sided and right-sided autoregressive parameters
JP2000222682A (ja) 1999-02-01 2000-08-11 Honda Motor Co Ltd 道路交通情報報知装置
JP3594514B2 (ja) * 1999-07-12 2004-12-02 株式会社ソニー・コンピュータエンタテインメント エンコーダ、デコーダ、音声データ処理装置、音声データ処理システム、音声データ圧縮方法、音声データ伸張方法、音声データ処理方法及び記録媒体
US7031980B2 (en) * 2000-11-02 2006-04-18 Hewlett-Packard Development Company, L.P. Music similarity function based on signal analysis
GB0202386D0 (en) * 2002-02-01 2002-03-20 Cedar Audio Ltd Method and apparatus for audio signal processing
JP2003295880A (ja) * 2002-03-28 2003-10-15 Fujitsu Ltd 録音音声と合成音声を接続する音声合成システム
US7243060B2 (en) * 2002-04-02 2007-07-10 University Of Washington Single channel sound separation
JP3950930B2 (ja) * 2002-05-10 2007-08-01 財団法人北九州産業学術推進機構 音源の位置情報を利用した分割スペクトルに基づく目的音声の復元方法
JP3898660B2 (ja) * 2003-03-12 2007-03-28 株式会社国際電気通信基礎技術研究所 音声信号の復元装置及びコンピュータプログラム
US7024360B2 (en) * 2003-03-17 2006-04-04 Rensselaer Polytechnic Institute System for reconstruction of symbols in a sequence
EP1630791A4 (en) * 2003-06-05 2008-05-28 Kenwood Corp SPEECH SYNTHESIS DEVICE, SPEECH SYNTHESIS METHOD, AND PROGRAM
JP4287785B2 (ja) 2003-06-05 2009-07-01 株式会社ケンウッド 音声合成装置、音声合成方法及びプログラム
WO2005122143A1 (ja) * 2004-06-08 2005-12-22 Matsushita Electric Industrial Co., Ltd. 音声認識装置および音声認識方法
WO2007023660A1 (ja) * 2005-08-24 2007-03-01 Matsushita Electric Industrial Co., Ltd. 音識別装置
KR100733965B1 (ko) * 2005-11-01 2007-06-29 한국전자통신연구원 객체기반 오디오 전송/수신 시스템 및 그 방법
US8019089B2 (en) * 2006-11-20 2011-09-13 Microsoft Corporation Removal of noise, corresponding to user input devices from an audio signal

Also Published As

Publication number Publication date
JPWO2006080149A1 (ja) 2008-06-19
US7536303B2 (en) 2009-05-19
WO2006080149A1 (ja) 2006-08-03
US20060193671A1 (en) 2006-08-31

Similar Documents

Publication Publication Date Title
JP3999812B2 (ja) 音復元装置および音復元方法
US10789290B2 (en) Audio data processing method and apparatus, and computer storage medium
McLoughlin Applied speech and audio processing: with Matlab examples
US8898062B2 (en) Strained-rough-voice conversion device, voice conversion device, voice synthesis device, voice conversion method, voice synthesis method, and program
RU2294565C2 (ru) Способ и система динамической адаптации синтезатора речи для повышения разборчивости синтезируемой им речи
US6865533B2 (en) Text to speech
Airas et al. Emotions in vowel segments of continuous speech: analysis of the glottal flow using the normalised amplitude quotient
CN104081453A (zh) 用于声学变换的系统和方法
JPH10507536A (ja) 言語認識
JP2007086316A (ja) 音声合成装置、音声合成方法、音声合成プログラムおよび音声合成プログラムを記憶したコンピュータ読み取り可能な記憶媒体
CN110663080A (zh) 通过频谱包络共振峰的频移动态修改语音音色的方法和装置
CN112289300B (zh) 音频处理方法、装置及电子设备和计算机可读存储介质
US11727949B2 (en) Methods and apparatus for reducing stuttering
JP2002366173A (ja) 感性データ算出方法および感性データ算出装置
Hinterleitner Quality of Synthetic Speech
WO2011122522A1 (ja) 感性表現語選択システム、感性表現語選択方法及びプログラム
JP2005070430A (ja) 音声出力装置および方法
JP2000152394A (ja) 軽度難聴者用補聴装置、軽度難聴者対応伝送システム、軽度難聴者対応記録再生装置、及び軽度難聴者対応再生装置
JP2007025042A (ja) 音声合成装置および音声合成プログラム
EP1271469A1 (en) Method for generating personality patterns and for synthesizing speech
JP3914612B2 (ja) 通信システム
CN114783408A (zh) 一种音频数据处理方法、装置、计算机设备以及介质
Laaksonen Artificial bandwidth extension of narrowband speech-enhanced speech quality and intelligibility in mobile devices
US7092884B2 (en) Method of nonvisual enrollment for speech recognition
Ferris Techniques and challenges in speech synthesis

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070717

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070809

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3999812

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100817

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110817

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110817

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120817

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130817

Year of fee payment: 6

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees