JP6039577B2 - 音声処理装置、音声処理方法、プログラムおよび集積回路 - Google Patents

音声処理装置、音声処理方法、プログラムおよび集積回路 Download PDF

Info

Publication number
JP6039577B2
JP6039577B2 JP2013548126A JP2013548126A JP6039577B2 JP 6039577 B2 JP6039577 B2 JP 6039577B2 JP 2013548126 A JP2013548126 A JP 2013548126A JP 2013548126 A JP2013548126 A JP 2013548126A JP 6039577 B2 JP6039577 B2 JP 6039577B2
Authority
JP
Japan
Prior art keywords
unit
section
boundary
vector
audio signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013548126A
Other languages
English (en)
Other versions
JPWO2013157190A1 (ja
Inventor
小沼 知浩
知浩 小沼
上野山 努
上野山  努
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Publication of JPWO2013157190A1 publication Critical patent/JPWO2013157190A1/ja
Application granted granted Critical
Publication of JP6039577B2 publication Critical patent/JP6039577B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/60Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/54Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for retrieval
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/147Scene change detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/57Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for processing of video signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Stereophonic System (AREA)

Description

本発明は、オーディオ信号から周波数などの特徴の変化点を検出する技術に関する。
デジタルカメラなどを用いてユーザが撮影したAVコンテンツについて、ユーザにとって不要なシーンをスキップしてユーザの所望するシーンだけを視聴することを可能にする機能が求められている。
そこで、AVコンテンツにおける音圧や周波数などの音声情報を用いて、シーンとシーンの間の変化点(以降、シーン変化点と呼ぶ)を検出する技術が注目されている。
例えば、AVコンテンツのフレーム毎に音声情報を特徴量として定量化し、フレーム間の特徴量の変化が閾値を超えるフレームをシーン変化点として検出する手法が提案されている(特許文献1参照)。
特開平5−20367号公報
ところで、ユーザが撮影したAVコンテンツは、ユーザの趣向により内容がバラエティに富み、その結果、検出すべきシーン変化点も多岐にわたるものである。この多岐にわたるシーン変化点に対して特定の手法のみを用いて検出すべきシーン変化点を網羅することは困難であり、上記従来の手法を用いても検出することが困難なシーン変化点が存在する。
そこで、本発明は、従来の手法では検出することが困難であったシーン変化点を検出することを可能とした音声処理装置を提供することを目的とする。
上記課題を解決するために本発明に係る音声処理装置は、入力されたオーディオ信号の所定時間長の単位区間ごとに、前記オーディオ信号の特徴を表現する区間特徴を計算する特徴計算手段と、複数の前記単位区間それぞれに対して、当該単位区間を含む前記区間特徴の類似する複数の前記単位区間からなる類似区間と他の区間との境界に関する境界情報を計算する境界計算手段と、前記境界情報で示される境界それぞれの優先度を計算し、前記優先度に基づいて、前記境界それぞれがシーン変化点であるか否かを判定する判定手段とを備えることを特徴とする。
本発明に係る音声処理装置によれば、複数の単位区間それぞれに対して設定される類似区間の境界をシーン変化点として検出することが可能である。
AVコンテンツを構成するシーンとオーディオ信号の具体例を示す図 特徴量ベクトルの算出方法を示す図 特徴量ベクトルの一例を示す図 アンカーモデルの一例を示す図 2つの第1単位区間における尤度ベクトルの例を示す図 第1単位区間と第2単位区間との関係を示す図 頻度ベクトルの一例を示す図 境界情報計算部の計算する境界情報の一例を示す図 横軸に時刻、縦軸に境界度を示したグラフ 音声処理装置を備える映像視聴装置の機能構成例を示すブロック図 音声処理装置の機能構成例を示すブロック図 基準ベクトルの算出に用いる基準区間の一例を示す図 基準ベクトル、頻度ベクトルおよびしきい値をベクトル空間の概念を用いて示した図 類似区間の時間軸逆方向の区間伸長処理を示す模式図 インデクス生成部の機能構成例を示すブロック図 アンカーモデル作成装置の機能構成例を示すブロック図 音声処理装置の動作を示すフローチャート 区間伸長基準指標計算処理を示すフローチャート 境界情報計算処理を示すフローチャート インデクス生成処理を示すフローチャート 音声処理装置の機能構成例を示すブロック図 境界情報計算部の計算する境界情報の一例を示す図 インデクス生成部の機能構成例を示すブロック図 インデクス生成部の生成するインデクス情報の一例を示す図 映像視聴システムの構成例を示すブロック図 映像視聴システムにおけるクライアントの構成例を示すブロック図 映像視聴システムにおけるサーバの構成例を示すブロック図
<本発明を想到するに至った経緯>
AVコンテンツは、シーンを捉える粒度により様々な長さの区間から構成される。例えば、AVコンテンツが、パーティを撮影したものであり、図1(a)に示すシーンで構成されているとする。そして、図1(b)は、そのシーンにおけるオーディオ信号を表現しているとする。図に示すように、パーティには、乾杯のシーン10およびそれに続く食事のシーン20が存在し、食事のシーン20は、さらに、おもに食事をしているシーン21、および、おもに歓談をしているシーン22から構成される。シーン20は、おもに食事をしているシーン21からおもに歓談しているシーン22へ移り変わっていく過渡シーンである。
このような過渡シーンは、音声情報の変化が緩やかであり、従来のようにフレーム間の音声情報の変化量を用いて、シーン内の変化点を検出することは困難である。
しかしながら、このような過渡シーン内のある程度の長さを持った区間の両端では音声情報の変化量が蓄積するため、両端のそれぞれが過渡シーン内の別々のシーンに属していることを検出できるという性質がある。本発明者らは、この性質に着目し、過渡シーン内の変化点が、音声情報が類似する区間(類似区間)と他の区間の境界、例えば、シーン前半の類似区間とシーン後半の類似区間との境界として検出できることを見出した。
オーディオ信号において類似区間は、その区間内のある基準となる位置(基準位置)の音声情報とその前後の音声情報とを比較していくことにより求められる。従って、過渡シーン内の類似区間は、基準位置として過渡シーンの1点を指定することで求められる。
ところで、オーディオ信号内のどの位置に存在するかを事前に知ることができない過渡シーン内の類似区間を求めるためには、オーディオ信号の随所を基準位置として指定する必要がある。しかしながら、基準位置を多く設定すると、設定した基準位置の数に応じて求まる境界(変化点)の数が多くなる。
ユーザの所望するシーン数に対して検出される変化点の数が多いと、ユーザが所望するシーンを視聴するまでの動作が煩雑化してしまう。すなわち、ユーザは、膨大な数の変化点の中から所望するシーンの開始となる変化点を検索する必要が出てくる。つまり、ユーザは、変化点の数の増加により、所望するシーンを容易に視聴できるという効果を得ることができなくなる可能性がある。
この課題を解決する一手法として、検出された変化点を選別して、インデクス化する変化点の数を抑制する方法が考えられる。
本発明者らは、上述した経緯により本発明を想到したものである。以下、本発明の実施形態について、図面を参照しながら詳細に説明する。

<実施の形態1>
<1−1.概要>
本発明の一の実施の形態に係る音声処理装置の概要を示す。
本実施の形態に係る音声処理装置は、まず、動画ファイルに含まれるオーディオ信号を所定時間長に分割した単位区間について、単位区間それぞれにおけるオーディオ信号の特徴を表現する特徴量を算出する。
次に、音声処理装置は、単位区間それぞれに対して、算出した特徴量の類似性に基づいて、当該単位区間と類似している区間と他の区間との境界を算出する。
そして、音声処理装置は、算出した境界ごとに境界度を算出し、境界度に基づいてシーン変化点を検出する。
最後に、音声処理装置は、検出したシーン変化点をインデクス情報として出力する。
本実施の形態において、境界度は、同一の時刻を示す境界の数である。本実施の形態の音声処理装置は、ユーザが所望する同一のシーンに属する単位区間からは、同一の時刻を示す境界が算出されるという仮定の下で、ユーザの所望するシーンと他のシーンとの変化点を優先的に検出することが可能となる。

<1−2.データ>
ここで、本実施の形態に係る音声処理装置で使用するデータについて説明する。
<動画ファイル>
動画ファイルは、オーディオ信号X(t)と複数の画像データとから構成される。オーディオ信号X(t)は、振幅値の時系列データであり、図2(a)に示すような波形で表現することができる。図2(a)は、横軸に時間、縦軸に振幅をとった、オーディオ信号の波形例である。
<特徴量ベクトル>
特徴量ベクトルMは、オーディオ信号X(t)の特徴を表現するものであり、本実施の形態では、特徴量ベクトルMを示すものとして、第1単位区間毎に分割されたオーディオ信号のメル周波数ケプストラム係数MFCC(Mel-Frequency Cepstrum Coefficients)を用いる。ここで、第1単位区間は、オーディオ信号X(t)の時間軸における所定の長さ(例えば、10msec)の区間であり、図2(a)における時刻TnからTn+1までの区間である。
この特徴量ベクトルMは、第1単位区間毎に算出される。従って、図3に示すように、時刻0secから時刻1secまでの間のオーディオ信号から100個の特徴量ベクトルMが生成されることになる。なお、図3は、時刻0secから時刻1secまでの間の各第1単位区間に対して算出される特徴量ベクトルMの一例である。
<アンカーモデル>
アンカーモデルAr(r=1,2,…,K)は、複数種類のサウンド素片となる音声データから生成される特徴量ベクトルを用いて作成される確率モデルであり、各種サウンド素片それぞれの特徴を表現するものである。即ち、アンカーモデルは各種サウンド素片に対応して作成される。本実施の形態では、混合正規分布モデル(GMM, Gaussian Mixture Model)を採用し、各アンカーモデルArは、正規分布を規定するパラメータで構成される。
図4に示すように、アンカーモデルは、複数種類(本実施の形態では1024種類)のサウンド素片毎に作成され、複数種類のサウンド素片それぞれに対応する特徴量出現確率関数bAr(M)により表される。特徴量出現確率関数bAr(M)は、各アンカーモデルArが規定する正規分布の確率密度関数であり、特徴量ベクトルMを引数としてオーディオ信号X(t)のサウンド素片それぞれに対する尤度Lr=bAr(M)を算出する。
<尤度ベクトル>
尤度ベクトルFは、上記アンカーモデルArに基づいて算出されるオーディオ信号X(t)の複数種類のサウンド素片それぞれに対する尤度Lrを成分とするベクトルである。
図5は、2つの第1単位区間における尤度ベクトルFを示す図である。図5(a)は、例えば、時刻0から数えてn番目の第1単位区間(時刻(10×n)msecから時刻(10×(n+1))msecの間の区間)に対応する尤度ベクトルFnを示し、図5(b)は、例えば、時刻0から数えてm番目の第1単位区間(時刻(10×m)msecから時刻(10×(m+1))msecの間の区間)に対応する尤度ベクトルFmを示している(n<m)。
<頻度ベクトル>
頻度ベクトルNFは、オーディオ信号の第2単位区間毎の特徴を表現するベクトルであり、特に、オーディオ信号の第2単位区間に係る各サウンド素片の出現頻度を表現するベクトルである。ここで、第2単位区間は、オーディオ信号X(t)の時間軸における所定の長さ(例えば、1sec)の区間であり、図6に示すように、複数個の連続する第1単位区間の長さに相当する。
頻度ベクトルNFは、具体的には、第2単位区間に含まれる尤度ベクトルFの正規化累積尤度、つまり、第2単位区間に含まれる尤度ベクトルFの各成分の累積値を正規化したものである。なお、ここで正規化とは、頻度ベクトルNFのノルムを1にすることである。図7は、頻度ベクトルNFの一例を示す模式図である。
<境界情報>
境界情報は、オーディオ信号の第2単位区間毎に計算される当該第2単位区間と頻度ベクトルが類似する類似区間の境界に関する情報である。本実施の形態の音声処理装置は、境界情報として、類似区間の始端の時刻および類似区間の終端の時刻を計算する。図8は、本実施の形態で計算する境界情報の一例である。例えば、0番目の第2単位区間(時刻0〜1sの間の区間)からは、始端時刻として0s、終端時刻として10sを示す境界情報が算出されたことを示している。
<境界度>
上述したように、境界度は、同一の時刻を示す境界情報の数である。例えば、図8において、始端時刻または終端時刻で0sを示す境界情報は、0番目の第2単位区間(時刻0〜1sの間の区間)、1番目の第2単位区間(時刻1〜2sの間の区間)、および、2番目の第2単位区間(時刻2〜3sの間の区間)から計算される境界情報の3つであるから、時刻0sの境界度は3となる。図9は、横軸に時刻、縦軸に計算された境界度を示したグラフの一例である。
<1−3.構成>
以下、本実施の形態に係る音声処理装置104を備える映像視聴装置100の機能構成について説明する。
<映像視聴装置100>
図10は、映像視聴装置100の機能構成例を示すブロック図である。図に示すように、映像視聴装置100は、入力装置101、コンテンツ記憶装置102、音声抽出装置103、音声処理装置104、インデクス記憶装置105、出力装置106、アンカーモデル作成装置107、音声データ蓄積装置108およびインタフェース装置109を備える。
<入力装置101>
入力装置101は、ディスクドライブ装置などで実現され、記録媒体120が装着されると、記録媒体120から動画ファイルを読み込んで、取得した動画ファイルをコンテンツ記憶装置102に格納する。なお、記録媒体120は、各種データを記憶する機能を有する媒体であり、例えば、光ディスクや、フレキシブルディスク、SDカード、フラッシュメモリなどである。
<コンテンツ記憶装置102>
コンテンツ記憶装置102は、例えば、ハードディスク装置などで実現され、入力装置101が記録媒体120から取得した動画ファイルを格納している。動画ファイルは、動画ファイルそれぞれに固有のIDが付されて格納される。
<音声抽出装置103>
音声抽出装置103は、コンテンツ記憶装置102に格納されている動画ファイルからオーディオ信号を抽出し、抽出したオーディオ信号を音声処理装置104に入力する。なお、音声抽出装置103は、符号化されているオーディオ信号に対して復号化処理を行って、図2(a)に示すようなオーディオ信号X(t)を生成する。なお、音声抽出装置103は、例えば、プログラムを実行するプロセッサ等により実現される。
<音声処理装置104>
音声処理装置104は、音声抽出装置103から入力されるオーディオ信号X(t)に基づいてシーン変化点の検出を行い、検出したシーン変化点からなるインデクス情報をインデクス記憶装置105に格納する。音声処理装置104の機能構成の詳細については後述する。
<インデクス記憶装置105>
インデクス記憶装置105は、例えば、ハードディスク装置などから実現され、音声処理装置104から入力されるインデクス情報を記憶する。インデクス情報は、動画ファイルのIDおよび動画ファイルにおける時刻(シーン変化点の時刻)からなる。
<出力装置106>
出力装置106は、インデクス記憶装置105からインデクス情報を取得し、取得したインデクス情報に対応する映像データ(コンテンツ記憶装置102に格納されている動画ファイルの一部)を表示装置130に出力する。出力装置106は、表示装置130に出力される映像データに、例えば、インデクス情報に対応する時刻に目印を付けたプログレスバーなどのユーザインタフェース(UI:User Interface)に関する情報を付与し、インタフェース装置109に入力されるユーザからの操作に応じて、スキップなどの再生制御を行う。
なお、音声抽出装置103は、例えば、プログラムを実行するプロセッサ等により実現される。
<アンカーモデル作成装置107>
アンカーモデル作成装置107は、音声データ蓄積装置108に記憶されているオーディオ信号に基づいてアンカーモデルArを作成し、作成したアンカーモデルArを音声処理装置104に出力する。アンカーモデル作成装置107の機能構成の詳細については後述する。
なお、アンカーモデル作成装置107がアンカーモデルArを作成するときに用いられるオーディオ信号は、シーン変化点を検出する対象となる動画ファイルとは別の複数の動画ファイルから、予め抽出して得られたオーディオ信号である。
<音声データ蓄積装置108>
音声データ蓄積装置108は、例えば、ハードディスク装置などで実現され、アンカーモデル作成装置107がアンカーモデルArを作成するときに用いられる音声データをあらかじめ記憶している。
<インタフェース装置109>
インタフェース装置109は、キーボードなどの操作部(図示せず)を備え、ユーザからの入力操作を受け付けて、プログレスバーの操作情報などを出力装置106に、作成すべきアンカーモデルの個数Kをアンカーモデル作成装置107に通知する。
<音声処理装置104(詳細)>
音声処理装置104は、メモリ(図示せず)およびプロセッサ(図示せず)から構成され、プロセッサがメモリに書き込まれたプログラムを実行することにより、図11に示す構成を実現している。
図11は、音声処理装置104の機能構成例を示すブロック図である。図に示すように、音声処理装置104は、特徴量ベクトル生成部201、尤度ベクトル生成部202、尤度ベクトルバッファ203、頻度ベクトル生成部204、頻度ベクトルバッファ205、区間伸長基準指標計算部206、境界情報計算部207、インデクス生成部208およびアンカーモデル蓄積部209を備える。以下、各構成について説明する。
<特徴量ベクトル生成部201>
特徴量ベクトル生成部201は、音声抽出装置103から入力されたオーディオ信号X(t)に基づいて、第1単位区間毎に、特徴量ベクトルMを生成する。
以下、オーディオ信号X(t)から特徴量ベクトルMを生成するまでの概要を述べる。
まず、特徴量ベクトル生成部201は、第1単位区間のオーディオ信号X(t)のパワースペクトラムS(ω)を算出する(図2(b)参照)。パワースペクトラムS(ω)は、オーディオ信号X(t)を時間軸から周波数軸に変換し、各周波数成分を二乗したものである。
次に、特徴量ベクトル生成部201は、パワースペクトラムS(ω)の周波数軸をメル周波数軸に変換したメル周波数スペクトラムS(ωmel)を算出する(図2(c)参照)。
最後に、特徴量ベクトル生成部201は、メル周波数スペクトラムS(ωmel)からメル周波数ケプストラムを算出し、所定数(本実施の形態では26個)の成分を特徴量ベクトルMとする。
<アンカーモデル蓄積部209>
アンカーモデル蓄積部209は、メモリの一部の領域により構成され、アンカーモデル作成装置107により作成されたアンカーモデルArを記憶している。本実施の形態では、アンカーモデル蓄積部209は、音声処理装置104の各処理の実行前に、あらかじめアンカーモデルArを記憶している。
<尤度ベクトル生成部202>
尤度ベクトル生成部202は、特徴量ベクトル生成部201により生成される特徴量ベクトルMおよびアンカーモデル蓄積部209に蓄積されているアンカーモデルArを用いて、オーディオ信号X(t)の、サウンド素片それぞれに対する尤度Lrを算出し、各尤度を成分とする尤度ベクトルFを第1単位区間毎に生成する。
<尤度ベクトルバッファ203>
尤度ベクトルバッファ203は、メモリの一部の領域により構成され、尤度ベクトル生成部202により生成される尤度ベクトルFを記憶する。
<頻度ベクトル生成部204>
頻度ベクトル生成部204は、尤度ベクトルバッファ203で記憶されている尤度ベクトルFに基づいて、第2単位区間毎に頻度ベクトルNFを生成する。
<頻度ベクトルバッファ205>
頻度ベクトルバッファ205は、メモリの一部の領域により構成され、頻度ベクトル生成部204により生成される頻度ベクトルNFを記憶する。
<区間伸長基準指標計算部206>
区間伸長基準指標計算部206は、第2単位区間それぞれに対して、後述する区間伸長処理の基準指標となる基準区間、基準ベクトルS及びしきい値Rthを算出する。
区間伸長基準指標計算部206は、処理対象の第2単位区間近傍の複数の第2単位区間を基準区間として、頻度ベクトルバッファ205から基準区間の頻度ベクトルを取得し、取得した複数の頻度ベクトルの重心を基準ベクトルSとして算出する。図12に、処理対象の第2単位区間近傍の合計9区間を基準区間とした場合における、基準区間の頻度ベクトル(NF1〜NF9)を用いた、基準ベクトルSの算出例を示す。
区間伸長基準指標計算部206は、更に、基準ベクトルSを生成する際に用いた複数の頻度ベクトルNFと基準ベクトルSとの間のユークリッド距離をそれぞれ算出し、基準ベクトルSとの間のユークリッド距離が最も大きい頻度ベクトルNFと基準ベクトルSとの間のユークリッド距離を類似区間に属するか否かの判断に用いるしきい値Rthとして算出する。
図13は、基準ベクトルS、各頻度ベクトルNF、および、しきい値Rthをベクトル空間の概念を用いて示した図である。図13において、白丸印は、それぞれ、基準ベクトルSの算出に用いた頻度ベクトルNF(図12に示す基準区間内の各頻度ベクトルNF1〜NF9に対応)を示し、円状になっているハッチ領域の中心の黒丸印が基準ベクトルSを示している。基準ベクトルSから各頻度ベクトルNFへの矢印の長さが、頻度ベクトルNFと基準ベクトルSとの間のユークリッド距離を示し、その最大距離がしきい値Rthとなる。
<境界情報計算部207>
図11に戻り、境界情報計算部207は、第2単位区間に対して、頻度ベクトルの類似する区間からなる類似区間を算出し、類似区間の始端の時刻および終端の時刻を特定する。境界情報計算部207は、頻度ベクトルバッファ205に記憶されている頻度ベクトルNF、処理対象の第2単位区間、および、区間伸長基準指標計算部206により算出された基準指標(基準区間、基準ベクトルSとしきい値Rth)を入力とし、特定した始端の時刻および終端の時刻を境界情報としてインデクス生成部208へ出力する。
まず、境界情報計算部207は、類似区間の初期値として、区間伸長基準指標計算部206で算出した基準区間を設定する。境界情報計算部207は、図14に示すように、時間軸逆方向へ遡りながら、類似区間の直前の第2単位区間を対象区間として、対象区間を類似区間に含めるか否かについて判定していく。具体的には、境界情報計算部207は、対象区間における頻度ベクトルNFと基準ベクトルSとの間のユークリッド距離を算出し、算出したユークリッド距離がしきい値Rth以下の場合に、対象区間を類似区間に含める。境界情報計算部207は、上記処理を繰り返し、算出したユークリッド距離がしきい値Rthを最初に超えた時点における類似区間の始端の時刻を特定する。
上記処理は、1区間ずつ類似区間を伸長していくので、区間伸長処理と呼称する。境界情報計算部207は、時間軸順方向についても区間伸長処理を行い、類似区間の終端の時刻を特定する。
境界情報計算部207は、区間伸長処理にあたって、対象区間が類似区間に含まれるか否かを判定するとともに、同時に類似区間の長さが予め設定された類似区間の長さleよりも短いか否かも判断する。算出したユークリッド距離がしきい値Rthを超えず、かつ、類似区間の長さが予め設定された類似区間の長さの上限leよりも短い場合、境界情報計算部207は、対象区間を類似区間に含める。類似区間の長さが類似区間の長さの上限le以上になった場合には、境界情報計算部207は、その時点での類似区間の境界情報を算出する。なお、類似区間の長さの上限leは、あらかじめ設定された値を用いる。
境界情報計算部207は、第2単位区間ごとに境界情報を算出する(図8参照)。
<インデクス生成部208>
インデクス生成部208は、境界情報計算部207で算出された境界情報に基づいて、シーン変化点を検出し、検出したシーン変化点をインデクス化したインデクス情報をインデクス記憶装置105に出力する。図15は、インデクス生成部208の機能構成例を示すブロック図である。図15に示すように、インデクス生成部208は、投票部301、閾値計算部302および境界判定部303を備える。以下、各構成について説明する。
<投票部301>
投票部301は、境界情報計算部207で計算された境界情報の示す時刻ごとに、同一時刻を示す境界情報の数を境界度として算出する。投票部301は、境界情報計算部207から入力される境界情報それぞれに対して、入力された境界情報の示す時刻に投票(時刻iに対応する境界度KKiに1を加算)することにより、境界度を算出する。なお、投票部301は、1つの境界情報で指定される始端の時刻および終端の時刻の両方に投票を行う。
<閾値計算部302>
閾値計算部302は、投票部301により算出された時刻ごとの境界度の平均μおよび標準偏差σを用いて、閾値Thを算出する。境界情報の示す時刻がTi(i=1,2,3,…,N)、それに対応する境界度がKKi(i=1,2,3,…,N)であった場合、平均値μ、標準偏差σおよび閾値THは、以下の式(1)、(2)および(3)で与えられる。
Figure 0006039577
Figure 0006039577
Figure 0006039577
<境界判定部303>
境界判定部303は、投票部301で算出された時刻ごとの境界度KKiおよび閾値計算部302で算出された閾値THを用いて、以下の式(4)の条件を満たす時刻をシーン変化点と判定し、インデクス情報としてインデクス記憶装置105に出力する。
Figure 0006039577
音声処理装置104は、上記<3−2−1>から<3−2−9>までの構成により、動画ファイルのインデクス情報を生成する。図8の映像視聴装置100の構成について説明を続ける。
<アンカーモデル作成装置107(詳細)>
アンカーモデル作成装置107は、メモリ(図示せず)およびプロセッサ(図示せず)から構成され、プロセッサがメモリに書き込まれたプログラムを実行することにより、図16に示す構成を実現している。
図16は、アンカーモデル作成装置の機能構成および周辺機器を示すブロック図である。図16に示すように、アンカーモデル作成装置107は、特徴量ベクトル生成部401、特徴量ベクトル分類部402およびアンカーモデル生成部403を備え、音声データ蓄積装置108に記憶されている音声データに基づいてアンカーモデルを作成し、作成したアンカーモデルをアンカーモデル蓄積部209に記憶する機能を有する。以下、各構成について説明する。
<特徴量ベクトル生成部401>
特徴量ベクトル生成部401は、音声データ蓄積装置108に記憶されている音声データに基づいて、第1単位区間毎に、特徴量ベクトルMを生成する。
<特徴量ベクトル分類部402>
特徴量ベクトル分類部402は、特徴量ベクトル生成部401により生成された特徴量ベクトルを、クラスタリング(分類)する。
特徴量ベクトル分類部402は、インタフェース装置109から入力されるアンカーモデルArの個数Kに基づいて、K−means法により複数の特徴量ベクトルMをK個のクラスタに分類する。なお、本実施の形態では、K=1024である。
<アンカーモデル生成部403>
アンカーモデル生成部403は、特徴量ベクトル分類部402により分類されたK個のクラスタそれぞれの平均および分散を算出し、アンカーモデルAr(r=1,2,…,K)としてアンカーモデル蓄積部209に記憶する。
<1−4.動作>
以下、本実施の形態に係る音声処理装置104の動作について図面を参照しながら説明する。
<音声処理装置全体の動作>
図17は、音声処理装置104の動作を示すフローチャートである。図に示すように、音声処理装置はオーディオ信号を入力とする(ステップS1701)。
次に、音声処理装置104は、入力されたオーディオ信号を用いて、オーディオ信号の第2単位区間毎の特徴を表現した区間特徴(特徴量ベクトル、尤度ベクトルおよび頻度ベクトル)を生成する(ステップS1702)。
区間特徴の生成には、特徴量ベクトル生成部201による特徴量ベクトル生成処理、尤度ベクトル生成部202による尤度ベクトル生成処理、および、頻度ベクトル生成部204による頻度ベクトル生成処理が含まれる。
頻度ベクトルの生成を終了すると、次に、音声処理装置104は、処理対象となる第2単位区間を1つ選択し、ステップS1703の区間伸長基準指標計算部206で実行される区間伸長基準指標計算処理およびステップS1704の境界情報計算部207で実行される境界情報計算処理を行う。音声処理装置104は、全ての第2単位区間に対して、ステップS1703およびステップS1704の処理を実行するまでループ処理を行う。
ループ処理が終了すると、音声処理装置104のインデクス生成部208は、インデクス生成処理を行う(ステップS1705)。
最後に、音声処理装置104は、インデクス生成部208の生成したインデクス情報をインデクス記憶装置に出力する(ステップS1706)。
<基準指標計算処理>
図18は、図17におけるステップS1703の区間伸長基準指標計算部206で実行される基準指標計算処理の詳細を示すフローチャートである。図18に示すように、基準指標計算処理において、区間伸長基準指標計算部206は、処理対象の第2単位区間および頻度ベクトルバッファ205で保持する頻度ベクトルを入力とする(ステップS1801)。
区間伸長基準指標計算部206は、処理対象の第2単位区間および当該第2単位区間前後4区間の計9区間の第2単位区間を基準区間として設定する(ステップS1802)。
次に、区間伸長基準指標計算部206は、頻度ベクトルバッファ205により入力される基準区間内の頻度ベクトル(NF1〜NF9)の重心を算出し、基準ベクトルSとする(ステップS1803)。
続いて、区間伸長基準指標計算部206は、基準ベクトルSと基準区間内の頻度ベクトル(NF1〜NF9)との間のユークリッド距離D(S,NF1),〜,D(S,NF9)をそれぞれ算出し、算出したユークリッド距離の最大値をしきい値Rthとする(ステップS1804)。
最後に、区間伸長基準指標計算部206は、算出した基準指標を境界情報計算部207へ出力する(ステップS1805)。
<境界情報計算処理>
図19は、図17におけるステップS1704の境界情報計算部207で実行される境界情報計算処理の詳細を示すフローチャートである。図19に示すように、境界情報計算処理において、境界情報計算部207は、処理対象の第2単位区間、区間伸長基準指標計算部206で算出される基準指標、あらかじめ設定される類似区間の長さの上限および頻度ベクトルバッファ205で保持する頻度ベクトルを入力とする(ステップS1901)。
境界情報計算部207は、区間伸長基準指標計算部206から入力された基準区間を類似区間の初期値とする(ステップS1902)。
次に、境界情報計算部207は、ステップS1902で設定した類似区間の初期値に対して、ステップS1903〜S1906の処理を実行して、オーディオ信号の時間軸逆方向の区間伸長処理を行う。
境界情報計算部207は、オーディオ信号の時間軸で類似区間の直前の第2単位区間を対象区間とする(ステップS1903)。
境界情報計算部207は、頻度ベクトルバッファ205から入力された対象区間の頻度ベクトルNFと、区間伸長基準指標計算部206により入力された基準ベクトルSとの間のユークリッド距離D(NF,S)を算出し、算出したユークリッド距離D(NF,S)と区間伸長基準指標計算部206から入力されたしきい値Rthとの比較を行う(ステップS1904)。
境界情報計算部207は、算出したユークリッド距離D(NF,S)がしきい値Rthよりも短い場合(ステップS1904:Yes)、対象区間を含むように類似区間を更新する(ステップS1905)。
境界情報計算部207は、類似区間を更新したあと、類似区間の長さが、類似区間の長さの上限leとの比較を行い(ステップS1906)、類似区間の長さが上限leよりも短ければ(ステップS1906:Yes)、ステップS1803に戻り、類似区間の長さが上限le以上ならば(ステップS1906:No)、ステップS1911に進む。
境界情報計算部207は、算出したユークリッド距離D(NF,S)がしきい値Rth以上の場合(ステップS1904:No)、オーディオ信号の時間軸逆方向の区間伸長処理を終了してステップS1907〜S1910へ進み、オーディオ信号の時間軸順方向の区間伸長処理を行う。
時間軸順方向の区間伸長処理は、ステップS1907の類似区間の直後の第2単位区間を対象区間とすること除いて、時間軸逆方向の区間伸長処理と同じ処理なので、説明を省略する。
境界情報計算部207は、時間軸逆方向の区間伸長処理および時間軸順方向の区間伸長処理を終了した時点における類似区間の始端の時刻および終端の時刻からなる境界情報を計算する(ステップS1911)。
最後に、境界情報計算部207は、計算した境界情報をインデクス生成部208に出力する(ステップS1912)。
<インデクス生成処理>
図20は、図17におけるステップS1705のインデクス生成部208で実行されるインデクス生成処理の動作を示すフローチャートである。図20に示すように、インデクス生成処理において、インデクス生成部208は、境界情報計算部207で計算される境界情報を入力とする(ステップS2001)。
投票部301は、境界情報計算部207から境界情報が入力されると、境界情報の示す時刻に投票して境界度を算出する(ステップS2002)。
ステップS1902の投票処理が終了すると、閾値計算部302は、投票部301により算出された境界度を用いて閾値を算出する(ステップS2003)。
境界判定部303は、投票部301で算出された境界度および閾値計算部302で算出された閾値を用いてシーン変化点を検出し、検出したシーン変化点をインデクス化したインデクス情報を生成する(ステップS2004)。
境界判定部303は、生成したインデクス情報をインデクス記憶装置105に出力する(ステップS2005)。
<1−5.まとめ>
本実施の形態の音声処理装置は、オーディオ信号の所定時間長の単位区間ごとに、オーディオ信号の単位区間における特徴を示す区間特徴(特徴量ベクトル、尤度ベクトルおよび頻度ベクトル)を算出し、算出した区間特徴の類似する区間からなる類似区間の境界からシーン変化点を検出する。
この構成により、音声処理装置は、音声情報が緩やかに変化するシーン変化点をであっても検出することが可能である。
また、音声処理装置は、単位区間ごとに算出し境界情報に対して、境界ごとに同一の境界を示す境界情報の数を優先度(境界度)として算出し、閾値を超える優先度の境界のみをシーン変化点としてインデクス化する。
この構成により、音声処理装置は、多くの単位区間(第2単位区間)から算出される境界を、優先的に、ユーザの所望するシーン変化点として検出することが可能となる。さらに、インデクス化する変化点を選別するため、ユーザは、所望するシーンを検索することが容易になる。
<実施の形態2>
実施の形態2では、実施の形態1と比較して、2つの点で異なっている。
1つは、境界度の算出方法である。実施の形態1では、同一の時刻を示す境界の数を境界度として計算した。実施の形態2では、境界度として、同一の時刻を示す境界情報における境界変化度の最大値を計算する。ここで、境界変化度は、境界情報計算部により、類似区間の境界情報として、当該類似区間内で、区間特徴(特徴量ベクトル、尤度ベクトルおよび頻度ベクトル)がどの程度変化しているかを示す指標として計算される。
実施の形態1と比較して、異なっているもう1つの点は、インデクス情報である。実施の形態1では、インデクス情報に、シーン変化点の時刻のみを用いた。実施の形態2では、シーン変化点を音環境情報で分類した分類情報を、インデクス情報に付加する。ここで、音環境情報は、シーン変化点におけるオーディオ信号の特徴を表現する情報であり、境界情報計算部により、類似区間の境界情報として、当該類似区間における区間特徴を用いて計算される。
以下、本実施の形態に係る音声処理装置について説明する。実施の形態1と同じ構成要素については同じ符号を用い、説明を省略する。
<2−1.構成>
図21は、実施の形態2に係る音声処理装置110の機能構成例を示すブロック図である。音声処理装置110は、実施の形態1の音声処理装置104と比較して、境界情報計算部207の代わりに境界情報計算部211を備え、インデクス生成部208の代わりにインデクス生成部212を備える。
<境界情報計算部211>
境界情報計算部211は、境界情報計算部207の機能に加え、境界情報として、さらに、処理対象の第2単位区間近傍におけるオーディオ信号の特徴と、類似区間の境界におけるオーディオ信号の特徴の変化の度合いを示す境界変化度、および、類似区間における代表的な音環境を示す音環境情報を計算する機能を有する。
本実施の形態において、境界情報計算部211は、始端変化度Din(類似区間の始端における境界変化度)として、時間軸逆方向の区間伸長処理において、区間を伸長する際に計算した基準ベクトルSと頻度ベクトルNFとのユークリッド距離のうち、しきい値Rthを超えたものを用いる。すなわち、基準ベクトルSと類似区間直前の第2単位区間の頻度ベクトルNFとのユークリッド距離を用いる。なお、類似区間直前の第2単位区間が存在しない場合は、類似区間開始の第2単位区間を代わりに用いる
同様に、境界情報計算部211は、終端変化度Dout(類似区間の始端における境界変化度)として、基準ベクトルSと類似区間直後の第2単位区間の頻度ベクトルNFとのユークリッド距離を用いる。
また、境界情報計算部211は、音環境情報として、基準ベクトルSを用いる。
図22に示すように、境界情報計算部211は、境界情報として、類似区間の始端の時刻、始端変化度、終端の時刻、終端変化度、および、音環境情報を計算する。
<インデクス生成部212>
図23は、インデクス生成部212の機能構成例を示すブロック図である。インデクス生成部212は、実施の形態1のインデクス生成部208と比較して、投票部301の代わりに境界度計算部311を備え、さらに、音環境分類部312が、境界判定部303とインデクス記憶装置105の間に挿入される。
<境界度計算部311>
境界度計算部311は、境界情報計算部211で計算された境界情報の示す時刻ごとに、境界情報の境界変化度の最大値を境界度として算出する。より具体的には、境界度計算部311は、時刻Tiの境界度として、始端の時刻がTiの境界情報における始端変化度および終端の時刻がTiの境界情報における終端変化度の最大値を算出する。
また、境界度計算部311は、境界変化度の最大値を与えた境界情報の音環境情報を境界(時刻)の音環境情報と対応付ける。
<音環境分類部312>
音環境分類部312は、境界判定部303で、シーン変化点と判定された時刻に対応付けられた音環境情報を、例えば、K−means法を用いて複数のグループ(例えば、3グループ)に分類する。音環境分類部312は、分類結果の分類情報をインデクス情報に付与し、分類情報付のインデクス情報をインデクス記憶装置105に出力する。図24に、分類情報の付与されたインデクス情報の具体例を示す。
<2−2.まとめ>
本実施の形態の音声処理装置は、境界度として、類似区間内におけるオーディオ信号の特徴の変化の度合いを示す境界変化度の最大値を用いている。オーディオ信号の特徴の変化は、動画ファイルにおける被写体に動きに伴って出現することが多い。つまり、本実施の形態の音声処理装置は、境界度として境界変化度の最大値を用いることで、被写体に動きあるシーンを優先して検出することが可能である。
本実施の形態の音声処理装置は、シーン変化点を音環境情報で分類した分類情報をインデクス情報に付与している。映像視聴装置は、分類情報を利用することで、多彩なユーザインタフェース機能をユーザに提供することが可能となる。
例えば、映像視聴装置は、シーン変化点を分類ごとに区別できる形(例えば、分類ごとに色分けする、分類ごとに目印の形状を変化させる)でプログレスバーに表示する構成が考えられる。この構成により、ユーザは、プログレスバーを見ることで、AVコンテンツの大まかなシーン構成を把握することが可能となり、目的のシーンをより直観的に検索することが可能となる。
また、映像視聴装置は、現在視聴しているシーンのシーン変化点と同じ分類のシーン変化点をプログレスバー上で強調表示する構成が考えられる。この構成により、ユーザは、現在視聴しているシーンに類似するシーンまで、素早くスキップすることが可能となる。
<3.変形例>
上記実施の形態に従って、本発明に係る音声処理装置について説明してきたが、本発明はこれに限られるものではない。以下、本発明の思想として含まれる各種変形例について説明する。
(1)上記実施の形態において、音声処理装置は、境界度として、同一の境界を示す境界情報の数、または、同一の境界を示す境界情報における境界変化度の最大値を計算したがこれに限られるものではない。例えば、同一の境界を示す境界情報における境界変化度の累積値を用いてもよい。この構成によると、音声処理装置は、より多くの単位区間(第2単位区間)から算出され、かつ、同一シーン内で特徴の変化が大きいシーンの境界を、優先して検出することが可能となる。
(2)上記実施の形態において、境界情報計算部は、境界情報として、類似区間の始端の時刻および終端の時刻の両方を計算しているが、始端の時刻のみを計算してもよいし、終端の時刻のみを計算してもよい。なお、境界情報計算部は、始端の時刻のみを計算する構成では、時間軸順方向の区間伸長処理を行う必要がなく、終端の時刻のみを計算する構成では、時間軸逆方向の区間伸長処理を行う必要がなくなる。
(3)上記実施の形態において、閾値計算部は、式(3)を用いて閾値の計算を行うとしたが、閾値の計算方法はこの限りではない。例えば、以下に示す式(5)の係数kを0〜3の間で変化させたものを用いてもよい。
Figure 0006039577
また、閾値計算部は、複数の閾値を計算し、境界判定部は、複数の閾値それぞれに対してシーン変化点を計算してもよい。例えば、閾値計算部は、係数k=0として第1の閾値TH1を計算し、境界判定部は、第1の閾値TH1に対するシーン変化点を検出する。その後、閾値計算部は、係数k=2として第2の閾値TH2を計算し、境界判定部は、第2の閾値TH2に対するシーン変化点を検出するとしてもよい。
ここで、第2の閾値よりも小さい第1の閾値TH1を用いて検出されたシーン変化点は、例えば、図1におけるシーン20の中に含まれるシーン21およびシーン22のように、より大きいシーンに含まれる小さいシーンの境界と推定することができる。逆に、第1の閾値よりも大きい第2の閾値TH2を用いて検出されたシーン変化点は、例えば、図1におけるシーン21およびシーン22を含むシーン20のように、より小さいシーンを含む大きいシーンの境界と推定することができる。
つまり、複数の閾値それぞれに対してシーン変化点を検出する構成により、閾値計算部および境界判定部は、オーディオ信号におけるシーンの階層構造を推定するシーン構造推定部として機能する。
(4)上記実施の形態において、境界判定部は、閾値計算部から入力される閾値を超える境界度の時刻をシーン変化点として検出するとしたが、この限りではない。境界判定部は、例えば、境界度の高い順に所定数N(Nは正整数)の時刻をシーン変化点として検出してもよい。さらに、上記所定数Nは、オーディオ信号の長さに応じて決定してもよい。例えば、境界判定部は、10分の長さのオーディオ信号の場合には、N=10とし、20分の長さのオーディオ信号の場合には、N=20としてもよい。
また、境界判定部は、境界度の高い順に所定数N(Nは正整数)の時刻を第1のシーン変化点として検出し、境界度の高い順に所定数M(MはNよりおおきい整数)の時刻を第2のシーン変化点として検出してもよい。
この場合、第1のシーン変化点は、例えば、図1におけるシーン21およびシーン22を含むシーン20のように、より小さいシーンを含む大きいシーンの境界と推定することができる。また、第2のシーン変化点は、図1におけるシーン20の中に含まれるシーン21およびシーン22のように、より大きいシーンに含まれる小さいシーンの境界と推定することができる。
つまり、上記第1のシーン変化点と第2のシーン変化点とを検出する構成によると、境界判定部は、オーディオ信号におけるシーンの階層構造を推定するシーン構造推定部として機能する。
(5)上述の実施の形態において、類似区間(および境界情報)は、第2単位区間ごとに算出するとしたが、この限りではない。例えば、境界情報計算部は、Nを正整数として、第2単位区間N個おきに類似区間を算出してもよい。また、境界情報計算部は、インタフェース装置などからユーザの指定する第2単位区間を複数取得し、ユーザの指定する複数の第2単位区間それぞれの類似区間を算出するとしてもよい。
(6)上述の実施の形態において、区間伸長基準指標計算部の実施する区間伸長基準指標算出処理に用いる基準区間は、処理対象の第2単位区間近傍の合計9区間としたが、これに限られるものではない。基準区間は、例えば、処理対象の第2単位区間近傍の合計N区間(Nは2以上の整数)であってもよい。
ここで、Nが大きいと境界情報計算部において計算される類似区間は、比較的広い区間になる。その結果、インデックス生成部において検出されるシーン変化点は、例えば、図1におけるシーン21およびシーン22を含むシーン20のように、より小さいシーンを含む大きいシーンの境界を示すと推定される。逆に、Nが小さいと境界情報計算部において計算される類似区間は、比較的狭い区間になる。その結果、インデックス生成部において検出されるシーン変化点は、例えば、図1におけるシーン20の中に含まれるシーン21およびシーン22のように、より大きいシーンに含まれる小さいシーンの境界を示すと推定される。
これを踏まえ、区間伸長基準指標計算部、境界情報計算部およびインデックス生成部は、まず、Nが大きい場合におけるシーン変化点を検出し、その後、Nが小さい場合におけるシーン変化点を検出する構成としてもよい。この構成によると、区間伸長基準指標計算部、境界情報計算部およびインデックス生成部は、オーディオ信号における大きなシーンの境界と、その大きなシーンに含まれる小さなシーンの境界とを検出することができる。つまり、この構成によれば、区間伸長基準指標計算部、境界情報計算部およびインデックス生成部は、オーディオ信号におけるシーンの階層構造を推定するシーン構造推定部として機能する。
(7)上述の実施の形態において、基準ベクトルは、基準区間に含まれる第2単位区間の頻度ベクトルの重心として説明したが、基準ベクトルはこれに限られるものではない。例えば、基準区間に含まれる第2単位区間の頻度ベクトルの成分毎の中央値を成分とするベクトルでもよいし、基準区間に含まれる第2単位区間の数が100個など多い場合には、各頻度ベクトルの成分の最頻値を成分とするベクトルを基準ベクトルとしてもよい。
(8)上述の実施形態においては、境界情報計算部は、対象区間における頻度ベクトルと基準ベクトルSの間のユークリッド距離がしきい値Rthを超えず、かつ、類似区間の長さがあらかじめ設定された類似区間の長さの上限leよりも短いと判断すると対象区間を類似区間に含ませる旨を記載した。これは、類似区間の長さがある一定以上の長さになることを防ぐための措置であるが、類似区間の長さに制限がなければ、類似区間の長さと上限leとの比較処理は行わずに対象区間を類似区間に含ませてもよい。
また、上述の実施の形態では、類似区間の長さの上限leは、あらかじめ設定された値を用いるとしたが、この限りではない。類似区間の長さの上限leは、例えば、インタフェースを介してユーザが指定した値を用いてもよい。
(9)上述の実施の形態においては、類似区間を時間軸逆方向に伸長していき、その後に、時間軸順方向に伸長していく構成についてのみ説明したが、例えば、以下のような構成としてもよい。
例えば、境界情報計算部は、区間伸長処理の順は時間軸順方向が時間軸逆方向よりも先に行われてもよいし、類似区間を第2単位区間単位で時間軸逆方向と時間軸順方向とで交互に伸長していく構成をとってもよい。交互に伸長を行う際には、第2単位区間単位に交互でなくともよく、一定数(例えば、5個)の第2単位区間毎に交互に伸長する手法をとってもよい。
(10)上記実施の形態においては、境界情報計算部は、基準ベクトルと対象区間の頻度ベクトルとの間のユークリッド距離が、しきい値Rthを超えるか否かに応じて、対象区間を類似区間に含めるか否かを判定していた。しかし、これは、基準ベクトルと頻度ベクトルが一定以上似ているか否かを判定できれば、必ずしもユークリッド距離を用いる必要はない。
例えば、基準ベクトルおよび頻度ベクトルの各成分を対応するアンカーモデルの規定する確率分布の重みとする混合分布について、2つの混合分布の両方向のカルバック・ライブラー情報量(Kullback-Leibler divergence、相対エントロピーと呼称されることもある)を距離として利用し、類似区間を抽出する構成としてもよい。この際、しきい値Rthもカルバック・ライブラー情報量を用いて計算するとよい。
なお、カルバック・ライブラー情報量は、確率論や情報理論において2つの確率分布の差異を図る尺度として一般に知られており、本発明の一実施形態に係る頻度ベクトルと基準ベクトル間のKL距離は以下のようにして算出できる。
まず、頻度ベクトルNFと各アンカーモデルの規定する確率分布を用いて一つの混合分布を構成する。具体的には、頻度ベクトルNF=(α1,…,αr,…,α1024)を、各アンカーモデルの規定する確率分布(bA1,…,bAr,…,bA1024)に対する重みと捉えることで、混合分布GNFは、以下の式(6)で与えることができる。
Figure 0006039577
一方、基準ベクトルでも同様に混合分布を構成する。即ち、基準ベクトルS=(μ1,…,μr,…,μ1024)を、各アンカーモデルの規定する確率分布(bA1,…,bAr,…,bA1024)に対する重みと捉えることで、混合分布GSは、以下の式(7)で与えることができる。
Figure 0006039577
すると、この2つの混合分布GNF及びGSを用いて、GNFからGSに対するカルバック・ライブラー情報量は以下の式(8)で与えることができる。
Figure 0006039577
上記式(8)においてXは混合分布GNF及びGSの引数全体の集合である。
また、GSからGNFに対するカルバック・ライブラー情報量は以下の式(9)で与えることができる。
Figure 0006039577
式(8)と式(9)の間に対称性はないので、二つの確率分布間のKL距離は、以下の式(10)から算出される。
Figure 0006039577
上記実施の形態に示したユークリッド距離の代わりに、この式(10)に示されるKL距離を用いて、対象区間を類似区間に含めるか否かの判定を行ってもよい。このとき、しきい値Rthは、ユークリッド距離の代わりに、基準区間に含まれる複数の第2単位区間の頻度ベクトルのうち、それら複数の頻度ベクトルと基準ベクトルとの間のKL距離が最大の頻度ベクトルとの間のKL距離を用いればよい。
また、その他にも、ユークリッド距離を用いない手法としては、例えば、基準ベクトルと対象区間の頻度ベクトルとの相関演算(コサイン類似度やピアソンの相関係数の算出など)を行って、その相関値が一定値以上(例えば、0.6以上)であれば、対象区間を類似区間に含めるというような手法をとってもよい。
(11)上述の実施形態では、第2単位区間における頻度ベクトルは、それぞれの区間に含まれる尤度ベクトルの各成分の正規化累積尤度を成分とするベクトルであるとしたが、頻度ベクトルは、その区間におけるオーディオ信号の特徴を表すものであればよく、特に、頻出する音の成分を特定できるものであれば、正規化累積尤度以外を成分とするベクトルであってもよい。例えば、単位区間に含まれる尤度ベクトルの各成分を累積し、累積尤度の高い上位k個(kは複数であり、例えば、10)のアンカーモデルのみに対応する累積尤度を正規化したベクトルであってもよい。あるいは、頻度ベクトルは、累積した値を正規化することなく、そのまま累積した尤度を成分とするベクトルや、各尤度の平均値を成分とするベクトルであってもよい。
(12)上述の実施形態では、特徴量ベクトルとしてMFCCを用いるとしたが、オーディオ信号の第1単位区間における特徴を表現するものであればこれに限られるものではない。例えば、パワースペクトラムなどのオーディオ信号の周波数特性を用いてもよいし、オーディオ信号の振幅の時系列そのものを特徴量として用いてもよい。
また、上述の実施形態では、MFCC26次元を用いるとしているが、これは実験により26次元とすることで好適な結果得られたためであり、本発明の特徴量ベクトルを26次元に制限するものではない。
(13)上述の実施形態では、音データ記憶装置に予め蓄積されている音データからクラスタリングを用いて分類した複数種類のサウンド素片それぞれのアンカーモデルArを作成する(いわゆる教師無しでアンカーモデルを作成する)例について説明したが、アンカーモデル作成手法は、これに限定されるものではない。例えば、音データ記憶装置に蓄積されている音データについて、ユーザが各サウンド素片それぞれに対応する音データを選択し、それぞれに種別ラベルを付与し、種別ラベルが同一な音データから対応するサウンド素片のアンカーモデルを作成する(いわゆる教師ありでアンカーモデルArを作成する)こととしてもよい。
(14)上述の実施形態における第1単位区間、第2単位区間それぞれの時間の長さは一例である。その時間長は、第1単位区間<第2単位区間となっていれば、上記実施の形態に示した以外の長さであってもよい。なお、このとき、第2単位区間の長さは、第1単位区間の長さの倍数になっていると処理が簡易になる。
(15)上述の実施形態では、尤度ベクトルバッファ、頻度ベクトルバッファ、および、アンカーモデル蓄積部は、メモリの一部により構成されるとしたが、音声処理装置が読み書き可能な記憶装置であればこの限りではない。例えば、ハードディスクやフレキシブルディスクであってもよいし、外部接続の記憶装置であってもよい。
(16)上述の実施形態に示した音データ記憶装置に記憶される音声データは、適宜新たな音声データが追加されてよく、また、コンテンツ記憶装置に記憶された動画ファイルの音データを記憶してもよい。
そして、新たな音データの追加に伴い、アンカーモデル作成装置107は新たなアンカーモデルを作成してもよい。
(17)上述の実施形態では、映像視聴装置の構成要素として音声処理装置を説明したが、音声編集装置の構成要素としても良い。また、外部装置からオーディオ信号を含む動画ファイルを取得して、検出結果のシーン変化点に対応する画像データをサムネイル画像として出力する画像表示装置であってもよい。
(18)上述の実施形態では、記録媒体から動画ファイルを取得することとしたが、取得の手段は記録媒体を用いる方法に限らない。例えば、無線又は有線の放送や、ネットワークなどから取得してもよいし、音声処理装置がマイクなどの音声入力装置を備え、音声入力装置により入力されたオーディオ信号からシーン変化点を検出してもよい。
(19)本発明は、上記実施形態の音声処理装置をネットワークに接続し、当該音声処理装置および当該ネットワークに接続される1以上の端末からなる映像視聴システムとして実現することも可能である。
このような映像視聴システムでは、例えば、ある1つの端末が音声処理装置に動画ファイルを送信し、音声処理装置が受信した動画ファイルのシーン変化点を検出して端末に送信する。
この構成により、シーン変化点の検出などの編集機能を持たない端末でも、編集の施された(シーン変化点の検出された)映像を再生することが可能である。
また、上記映像視聴システムにおいて、音声処理装置の機能を分割して、分割された機能の一部を端末が備えてもよい。ここでは、分割された機能の一部を備える端末をクライアントと称し、残る機能を備える装置をサーバと称する。
図25〜27は、音声処理装置の機能を分割した映像視聴システムの構成の一例を示す図である。
図25に示すように、映像視聴システムは、クライアント2600およびサーバ2700から成る。
クライアント2600は、コンテンツ記憶装置102、音声抽出装置103、音声処理装置2602、および送受信装置2604を備える。
コンテンツ記憶装置102および音声抽出装置103は、上記実施形態におけるコンテンツ記憶装置102および音声抽出装置103と同様である。
音声処理装置2602は、上記実施形態における音声処理装置104の一部の機能、具体的には、オーディオ信号から頻度ベクトルを生成する機能を有する。
送受信装置2604は、音声処理装置2602の生成した頻度ベクトルをサーバ2700に送信する機能、および、サーバ2700からインデクス情報を受信する機能を有する。
サーバ2700は、インデクス記憶装置105、音声処理装置2702、および送受信装置2704を備える。
インデクス記憶装置105は、上記実施の形態におけるインデクス記憶装置105と同様である。
音声処理装置2702は、上記実施形態における音声処理装置104の一部の機能、具体的には、頻度ベクトルからインデクス情報を生成する機能を有する。
送受信装置2704は、クライアント2600から頻度ベクトルを受信する機能、および、インデクス記憶装置105に記憶されるインデクス情報をクライアント2600に送信する機能を有する。
図26は、クライアント2600の備える音声処理装置2602の機能構成の一例を示す図である。図に示すように、音声処理装置2602は、特徴量ベクトル生成部201、尤度ベクトル生成部202、尤度ベクトルバッファ203、頻度ベクトル生成部204、およびアンカーモデル蓄積部209を備える。各構成部は、上記実施形態の同名同符号の構成部と同様の機能を有する。
図27は、サーバ2700の備える音声処理装置2702の機能構成の一例を示す図である。図に示すように、音声処理装置2702は、頻度ベクトルバッファ205、区間伸長基準指標計算部206、境界情報計算部207およびインデクス生成部208を備える。各構成部は、上記実施形態の同名同符号の構成部と同様の機能を有する。
この構成によると、映像視聴システム内の通信は、頻度ベクトルおよびインデクス情報に限られる。従って、音声処理装置を分割せずに動画ファイルを送信する場合と比較して、通信量を減らすことが可能となる。
また、上記映像視聴システムにおいて、サーバは、生成したインデクス情報に対応するサムネイル画像などをクライアントから受信して、ネットワーク内の他の端末に対して、生成したインデクス情報と共に対応するサムネイル画像を配信する機能を備えてもよい。
この構成によれば、ネットワーク内の他の端末においてクライアントに保存されている動画ファイルを視聴する場合に、他の端末のユーザは、配信されたサムネイル画像に基づいて、興味のあるシーンのみを選択して視聴することが可能である。つまり、この構成により、映像視聴システムは、ユーザにとって興味のあるシーンのみを抽出したストリーミング配信を行うことができる。
(20)上述の各実施形態及び各変形例を、部分的に組み合せてもよい。
(21)上述実施形態で示した基準指標算出処理、境界情報計算処理、インデクス生成処理を、音声処理装置のプロセッサ、及びそのプロセッサに接続された各種回路に実行させるための機械語或いは高級言語のプログラムコードからなる制御プログラムを、記録媒体に記録すること、又は各種通信路等を介して流通させ頒布することもできる。このような記録媒体には、ICカード、ハードディスク、光ディスク、フレキシブルディスク、ROM、フラッシュメモリ等がある。流通、頒布された制御プログラムはプロセッサに読み出され得るメモリ等に格納されることにより利用に供され、そのプロセッサがその制御プログラムを実行することにより各実施形態で示したような各機能が実現されるようになる。なお、プロセッサは、制御プログラムを直接実行する他、コンパイルして実行或いはインタプリタにより実行してもよい。
(22)上述の実施形態で示した各機能構成要素(特徴単位区間検出部、区間伸長基準指標計算部、興味区間抽出部等)は、その機能を実行する回路として実現されてもよいし、1又は複数のプロセッサによりプログラムを実行することで実現されてもよい。また、上述の実施形態の音声処理装置は、IC、LSIその他の集積回路のパッケージとして構成されるものとしてもよい。このパッケージは各種装置に組み込まれて利用に供され、これにより各種装置は、各実施形態で示したような各機能を実現するようになる。
なお、特徴単位区間検出部、区間伸長基準指標計算部、興味区間抽出部等の各機能ブロックは典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。

<6−2.補足>
以下、更に本発明の一実施形態としての音声処理装置の構成及びその変形例と効果について説明する。
(A)本発明の一実施形態の音声処理装置は、入力されたオーディオ信号の単位区間の特徴を表現する区間特徴を単位区間ごとに計算する特徴計算手段と、複数の単位区間それぞれに対して、当該単位区間を含む区間特徴の類似する複数の単位区間からなる類似区間と他の区間との境界に関する境界情報を計算する境界計算手段と、前記境界情報で示される境界それぞれの優先度を計算し、前記優先度に基づいて、前記境界それぞれがシーン変化点であるか否かを判定する判定手段とを備える。
音声処理装置は、この構成により、区間特徴(特徴量ベクトル、尤度ベクトルおよび頻度ベクトル)の類似する類似区間の境界の中から選出したものをシーン変化点として検出する。音声処理装置は、類似区間の境界をシーン変化点とすることで、過渡シーンにおける変化点を検出することが可能である。また、音声処理装置は、境界を選別したものをシーン変化点としてインデクス化することで、ユーザは容易に所望するシーン変化点を検索することが可能となる。
(B)上記実施形態(A)の音声処理装置において、前記判定手段は、前記優先度として、同一の境界を示す境界情報の数を計算するとしてもよい。
この構成によると、音声処理装置は、ユーザが所望する同一のシーンに属する単位区間からは、同一の時刻を示す境界が算出されるという仮定の下で、ユーザの所望するシーンと他のシーンとの変化点を優先的に検出することが可能となる。
(C)上記実施形態(A)の音声処理装置において、前記境界計算手段は、前記境界情報として、さらに、前記類似区間と他の区間との間のオーディオ信号の特徴の変化の度合いを示す変化度を計算し、前記判定手段は、前記優先度として、同一の境界を示す境界情報の前記変化度の累積値を計算するとしてもよい。
この構成によると、音声処理装置は、オーディオ信号の特徴に変化のあるシーンの境界および多くの単位区間から計算される境界の両方を優先的に検出することが可能である。
(D)上記実施形態(A)の音声処理装置において、前記境界計算手段は、前記境界情報として、さらに、前記類似区間と他の区間との間のオーディオ信号の特徴の変化の度合いを示す変化度を計算し、前記判定手段は、前記優先度として、同一の境界を示す境界情報の前記変化度の最大値を計算するとしてもよい。
この構成によると、音声処理装置は、オーディオ信号の特徴に変化のあるシーンの境界を優先して検出することが可能である。
(E)上記実施形態(D)の音声処理装置において、前記境界計算手段は、前記境界情報として、さらに、前記類似区間に含まれる前記単位区間の区間特徴を用いて、当該類似区間の音環境を表現する音環境情報を計算し、さらに、前記音環境情報を用いて、前記シーン変化点を分類し、分類結果の分類情報を前記シーン変化点に付与する分類手段を備えるとしてもよい。
この構成によると、音声処理装置の出力を利用する映像表示装置などは、分類情報に基づいて、多彩なユーザインタフェース機能をユーザに提供することが可能となる。
(F)上記実施形態(A)の音声処理装置は、さらに、前記優先度に基づいて、閾値を計算する閾値計算手段を備え、前記判定手段は、前記閾値を超える優先度の境界の時刻を前記シーン変化点として検出するとしてもよい。
この構成によると、音声処理装置は、各オーディオ信号に対して、適応的に閾値を計算することが可能となる。その結果、あらゆるオーディオ信号に対して、安定した精度でシーン変化点を検出することが可能となる。
(G)上記実施形態(A)の音声処理装置において、前記境界計算手段は、前記境界情報として、前記類似区間の始端の時刻を計算するとしてもよい。
また、上記実施形態(B)の音声処理装置において、前記境界計算手段は、前記境界情報として、前記類似区間の終端の時刻を計算するとしてもよい。
この構成によると、音声処理装置は、単位区間ごとに類似区間を求める際に、時間軸順方向もしくは時間軸逆方向のいずれか一方のみの境界を求めればよく、計算量が削減される。
(H)上記実施形態(A)の音声処理装置において、前記単位区間を第2単位区間とし、前記第2単位区間は、複数の連続する第1単位区間からなり、さらに、複数種類のサウンド素片それぞれの特徴を表現する確率モデルをあらかじめ記憶しているモデル記憶手段と、前記確率モデルを用いて、前記オーディオ信号の前記サウンド素片それぞれに対する尤度を成分とする尤度ベクトルを、前記第1単位区間ごとに生成する尤度ベクトル生成手段とを備え、前記区間特徴は、前記第2単位区間に含まれる複数の第1単位区間の尤度ベクトルを用いて生成され、前記サウンド素片それぞれの出現頻度を示す頻度ベクトルであるとしてもよい。
この構成によると、音声処理装置は、サウンド素片を表現する確率モデルに基づいて、尤度ベクトルおよび頻度ベクトルを生成することで、オーディオ信号の各第1単位区間および各第2単位区間にサウンド素片の成分がどの程度含まれているかを尤度ベクトルおよび頻度ベクトルで表現することができる。
(I)上記実施形態(H)の音声処理装置は、さらに、オーディオ信号の前記第1単位区間における周波数特性を示す特徴量ベクトルを算出する特徴量ベクトル生成手段を備え、前記尤度ベクトル生成手段は、前記特徴量ベクトルおよび前記確率モデルを用いて前記尤度ベクトルを生成するとしてもよい。
この構成によると、音声処置装置は、オーディオ信号の周波数特性を用いて、シーン変化点を検出することができる。
(J)本発明の一実施形態の音声処理装置は、入力されたオーディオ信号の単位区間の特徴を表現する区間特徴を単位区間ごとに計算する特徴計算手段と、複数の単位区間それぞれに対して、当該単位区間を含む区間特徴の類似する複数の単位区間からなる類似区間と他の区間との境界に関する境界情報を計算する境界計算手段と、前記境界情報の示す境界の中から、前記オーディオ信号によって表現されるシーンに含まれる第1のシーンの境界と、当該第1のシーンに含まれる第2のシーンの境界とを検出するシーン構造推定手段とを備えることを特徴とする。
音声処理装置は、オーディオ信号におけるシーンの階層構造を推定するので、ユーザは、推定された階層構造に基づき、所望するシーンを容易に検索することが可能となる。
本発明に係る音声処理装置および音声処理方法は、音声、家中の音、外出時の音などを含むAVコンテンツなどのオーディオ信号からシーン変化点を検出することにより、ユーザが興味の対象とするシーンを容易に検索したり、興味の対象とするシーンの強調再生(トリック再生やフィルタ処理)などを行うことが可能となり、音声編集装置や動画編集装置などに有用である。
100 映像視聴装置
101 入力装置
102 コンテンツ記憶装置
103 音声抽出装置
104 音声処理装置
105 インデクス記憶装置
106 出力装置
107 アンカーモデル作成装置
108 音声データ蓄積装置
109 インタフェース装置
201 特徴量ベクトル生成部
202 尤度ベクトル生成部
203 尤度ベクトルバッファ
204 頻度ベクトル生成部
205 頻度ベクトルバッファ
206 区間伸長基準指標計算部
207,211 境界情報計算部
208,212 インデクス生成部
209 アンカーモデル蓄積部
301 投票部
302 閾値計算部
303 境界判定部
311 境界度計算部
312 音環境分類部
401 特徴量ベクトル生成部
402 特徴量ベクトル分類部
403 アンカーモデル生成部

Claims (14)

  1. 入力されたオーディオ信号の単位区間の特徴を表現する区間特徴を単位区間ごとに計算する特徴計算手段と、
    複数の単位区間それぞれに対して、当該単位区間を含む区間特徴の類似する複数の単位区間からなる類似区間と他の区間との境界に関する境界情報を計算する境界計算手段と、
    前記境界情報で示される境界それぞれの優先度を計算し、前記優先度に基づいて、前記境界それぞれがシーン変化点であるか否かを判定する判定手段と
    を備え、
    前記境界計算手段は、前記境界情報として、前記類似区間の始端の時刻または終端の時刻の少なくとも一方を計算し、
    前記単位区間を第2単位区間とし、前記第2単位区間は、複数の連続する第1単位区間からなり、
    さらに、複数種類のサウンド素片それぞれの特徴を表現する確率モデルをあらかじめ記憶しているモデル記憶手段と、
    前記確率モデルを用いて、前記オーディオ信号の前記サウンド素片それぞれに対する尤度を成分とする尤度ベクトルを、前記第1単位区間ごとに生成する尤度ベクトル生成手段とを備え、
    前記区間特徴は、前記第2単位区間に含まれる複数の第1単位区間の尤度ベクトルを用いて生成され、前記サウンド素片それぞれの出現頻度を示す頻度ベクトルである
    ことを特徴とする音声処理装置。
  2. 前記判定手段は、前記境界の前記優先度として、当該境界と同一の時刻を示す境界情報の数を計算する
    ことを特徴とする請求項1記載の音声処理装置。
  3. 前記境界計算手段は、前記境界情報として、さらに、前記類似区間と他の区間との間のオーディオ信号の特徴の変化の度合いを示す変化度を計算し、
    前記判定手段は、前記境界の前記優先度として、当該境界と同一の時刻を示す境界情報の前記変化度の累積値を計算する
    ことを特徴とする請求項1記載の音声処理装置。
  4. 前記境界計算手段は、前記境界情報として、さらに、前記類似区間と他の区間との間のオーディオ信号の特徴の変化の度合いを示す変化度を計算し、
    前記判定手段は、前記境界の前記優先度として、当該境界と同一の時刻を示す境界情報の前記変化度の最大値を計算する
    ことを特徴とする請求項1記載の音声処理装置。
  5. 前記境界計算手段は、前記境界情報として、さらに、前記類似区間に含まれる前記単位区間の区間特徴を用いて、当該類似区間の音環境を表現する音環境情報を計算し、
    さらに、前記音環境情報を用いて、前記シーン変化点を分類し、分類結果の分類情報を前記シーン変化点に付与する分類手段
    を備えることを特徴とする請求項4記載の音声処理装置。
  6. さらに、前記優先度の平均及び標準偏差を用いて、閾値を計算する閾値計算手段を備え、
    前記判定手段は、前記閾値を超える優先度の境界の時刻を前記シーン変化点として検出する
    ことを特徴とする請求項1に記載の音声処理装置。
  7. 前記判定手段は、前記優先度の高い順に、所定数の前記境界を前記シーン変化点として検出する
    ことを特徴とする請求項1に記載の音声処理装置。
  8. 前記判定手段は、前記所定数を前記オーディオ信号の長さに応じて決定する
    ことを特徴とする請求項7に記載の音声処理装置。
  9. 前記境界計算手段は、前記オーディオ信号の全単位区間に対して、前記境界情報を計算する
    ことを特徴とする請求項1記載の音声処理装置。
  10. さらに、オーディオ信号の前記第1単位区間における周波数特性を示す特徴量ベクトルを算出する特徴量ベクトル生成手段を備え、
    前記尤度ベクトル生成手段は、前記特徴量ベクトルおよび前記確率モデルを用いて前記尤度ベクトルを生成する
    ことを特徴とする請求項1記載の音声処理装置。
  11. 入力されたオーディオ信号の単位区間の特徴を表現する区間特徴を単位区間ごとに計算する特徴計算手段と、
    複数の単位区間それぞれに対して、当該単位区間を含む区間特徴の類似する複数の単位区間からなる類似区間と他の区間との境界に関する境界情報を計算する境界計算手段と、
    前記境界情報の示す境界の中から、前記オーディオ信号によって表現されるシーンに含まれる第1のシーンの境界と、当該第1のシーンに含まれる第2のシーンの境界とを検出するシーン構造推定手段と
    を備え、
    前記境界計算手段は、前記境界情報として、前記類似区間の始端の時刻または終端の時刻の少なくとも一方を計算し、
    前記単位区間を第2単位区間とし、前記第2単位区間は、複数の連続する第1単位区間からなり、
    さらに、複数種類のサウンド素片それぞれの特徴を表現する確率モデルをあらかじめ記憶しているモデル記憶手段と、
    前記確率モデルを用いて、前記オーディオ信号の前記サウンド素片それぞれに対する尤度を成分とする尤度ベクトルを、前記第1単位区間ごとに生成する尤度ベクトル生成手段とを備え、
    前記区間特徴は、前記第2単位区間に含まれる複数の第1単位区間の尤度ベクトルを用いて生成され、前記サウンド素片それぞれの出現頻度を示す頻度ベクトルである
    ことを特徴とする音声処理装置。
  12. 入力されたオーディオ信号の単位区間の特徴を表現する区間特徴を単位区間ごとに計算する特徴計算ステップと、
    複数の単位区間それぞれに対して、当該単位区間を含む区間特徴の類似する複数の単位区間からなる類似区間と他の区間との境界に関する境界情報を計算する境界計算ステップと、
    前記境界情報で示される境界それぞれの優先度を計算し、前記優先度に基づいて、前記境界それぞれがシーン変化点であるか否かを判定する判定ステップと
    を含み、
    前記境界計算ステップでは、前記境界情報として、前記類似区間の始端の時刻または終端の時刻の少なくとも一方を計算し、
    前記単位区間を第2単位区間とし、前記第2単位区間は、複数の連続する第1単位区間からなり、
    さらに、複数種類のサウンド素片それぞれの特徴を表現する確率モデルをあらかじめ記憶するモデル記憶ステップと、
    前記確率モデルを用いて、前記オーディオ信号の前記サウンド素片それぞれに対する尤度を成分とする尤度ベクトルを、前記第1単位区間ごとに生成する尤度ベクトル生成ステップとを含み、
    前記区間特徴は、前記第2単位区間に含まれる複数の第1単位区間の尤度ベクトルを用いて生成され、前記サウンド素片それぞれの出現頻度を示す頻度ベクトルである
    ことを特徴とする音声処理方法。
  13. コンピュータ読取可能な非一時的な記録媒体に記録され、オーディオ信号からシーン変化点を検出するシーン変化点検出処理を実行するプログラムであって、
    前記シーン変化点検出処理は、
    入力されたオーディオ信号の単位区間の特徴を表現する区間特徴を単位区間ごとに計算する特徴計算ステップと、
    複数の単位区間それぞれに対して、当該単位区間を含む区間特徴の類似する複数の単位区間からなる類似区間と他の区間との境界に関する境界情報を計算する境界計算ステップと、
    前記境界情報で示される境界それぞれの優先度を計算し、前記優先度に基づいて、前記境界それぞれがシーン変化点であるか否かを判定する判定ステップと
    を含み、
    前記境界計算ステップでは、前記境界情報として、前記類似区間の始端の時刻または終端の時刻の少なくとも一方を計算し、
    前記単位区間を第2単位区間とし、前記第2単位区間は、複数の連続する第1単位区間からなり、
    さらに、複数種類のサウンド素片それぞれの特徴を表現する確率モデルをあらかじめ記憶するモデル記憶ステップと、
    前記確率モデルを用いて、前記オーディオ信号の前記サウンド素片それぞれに対する尤度を成分とする尤度ベクトルを、前記第1単位区間ごとに生成する尤度ベクトル生成ステップとを含み、
    前記区間特徴は、前記第2単位区間に含まれる複数の第1単位区間の尤度ベクトルを用いて生成され、前記サウンド素片それぞれの出現頻度を示す頻度ベクトルである
    ことを特徴とするプログラム。
  14. 入力されたオーディオ信号の単位区間の特徴を表現する区間特徴を単位区間ごとに計算する特徴計算部と、
    複数の単位区間それぞれに対して、当該単位区間を含む区間特徴の類似する複数の単位区間からなる類似区間と他の区間との境界に関する境界情報を計算する境界計算部と、
    前記境界情報で示される境界それぞれの優先度を計算し、前記優先度に基づいて、前記境界それぞれがシーン変化点であるか否かを判定する判定部と
    を備え、
    前記境界計算部は、前記境界情報として、前記類似区間の始端の時刻または終端の時刻の少なくとも一方を計算し、
    前記単位区間を第2単位区間とし、前記第2単位区間は、複数の連続する第1単位区間からなり、
    さらに、複数種類のサウンド素片それぞれの特徴を表現する確率モデルをあらかじめ記憶するモデル記憶部と、
    前記確率モデルを用いて、前記オーディオ信号の前記サウンド素片それぞれに対する尤度を成分とする尤度ベクトルを、前記第1単位区間ごとに生成する尤度ベクトル生成部とを備え、
    前記区間特徴は、前記第2単位区間に含まれる複数の第1単位区間の尤度ベクトルを用いて生成され、前記サウンド素片それぞれの出現頻度を示す頻度ベクトルである
    ことを特徴とする集積回路。
JP2013548126A 2012-04-20 2013-03-11 音声処理装置、音声処理方法、プログラムおよび集積回路 Active JP6039577B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012096332 2012-04-20
JP2012096332 2012-04-20
PCT/JP2013/001568 WO2013157190A1 (ja) 2012-04-20 2013-03-11 音声処理装置、音声処理方法、プログラムおよび集積回路

Publications (2)

Publication Number Publication Date
JPWO2013157190A1 JPWO2013157190A1 (ja) 2015-12-21
JP6039577B2 true JP6039577B2 (ja) 2016-12-07

Family

ID=49383165

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013548126A Active JP6039577B2 (ja) 2012-04-20 2013-03-11 音声処理装置、音声処理方法、プログラムおよび集積回路

Country Status (4)

Country Link
US (1) US8930190B2 (ja)
JP (1) JP6039577B2 (ja)
CN (1) CN103534755B (ja)
WO (1) WO2013157190A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6003972B2 (ja) * 2014-12-22 2016-10-05 カシオ計算機株式会社 音声検索装置、音声検索方法及びプログラム
CN104469487B (zh) * 2014-12-31 2019-02-12 优酷网络技术(北京)有限公司 一种场景切换点的检测方法及装置
US10922551B2 (en) 2017-10-06 2021-02-16 The Nielsen Company (Us), Llc Scene frame matching for automatic content recognition
CN109981970B (zh) * 2017-12-28 2021-07-27 深圳市优必选科技有限公司 一种确定拍摄场景的方法、装置和机器人
EP3570186B1 (en) * 2018-05-17 2021-11-17 FRAUNHOFER-GESELLSCHAFT zur Förderung der angewandten Forschung e.V. Device and method for detecting partial matches between a first time varying signal and a second time varying signal
US11475887B2 (en) * 2018-10-29 2022-10-18 Spotify Ab Systems and methods for aligning lyrics using a neural network
CN110136735B (zh) * 2019-05-13 2021-09-28 腾讯音乐娱乐科技(深圳)有限公司 一种音频修复方法、设备及可读存储介质
EP3944100A1 (en) * 2020-07-20 2022-01-26 Mimi Hearing Technologies GmbH Method of selecting a suitable content for subjective preference judgement
US11144764B1 (en) * 2020-09-30 2021-10-12 Cbs Interactive Inc. Systems, methods, and storage media for selecting video portions for a video synopsis of streaming video content

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0520367A (ja) 1991-07-15 1993-01-29 Hitachi Ltd インデツクス作成方式
EP1073272B1 (en) * 1999-02-15 2011-09-07 Sony Corporation Signal processing method and video/audio processing device
JP3757719B2 (ja) * 1999-11-19 2006-03-22 松下電器産業株式会社 音響データ分析方法及びその装置
JP2004056739A (ja) 2002-07-24 2004-02-19 Fuji Photo Film Co Ltd ディジタルカメラ
DE60320414T2 (de) * 2003-11-12 2009-05-20 Sony Deutschland Gmbh Vorrichtung und Verfahren zur automatischen Extraktion von wichtigen Ereignissen in Audiosignalen
EP2136358A4 (en) * 2007-03-16 2011-01-19 Panasonic Corp LANGUAGE ANALYSIS DEVICE, LANGUAGE ANALYSIS PROCEDURE, LANGUAGE ANALYSIS PROGRAM AND SYSTEM INTEGRATION CIRCUIT
WO2008143345A1 (ja) * 2007-05-23 2008-11-27 Nec Corporation コンテンツ分割位置判定装置、コンテンツ視聴制御装置及びプログラム
JP5060224B2 (ja) * 2007-09-12 2012-10-31 株式会社東芝 信号処理装置及びその方法
JP5356527B2 (ja) 2009-09-19 2013-12-04 株式会社東芝 信号分類装置
WO2011145249A1 (ja) 2010-05-17 2011-11-24 パナソニック株式会社 音声分類装置、方法、プログラム及び集積回路

Also Published As

Publication number Publication date
US8930190B2 (en) 2015-01-06
JPWO2013157190A1 (ja) 2015-12-21
WO2013157190A1 (ja) 2013-10-24
CN103534755A (zh) 2014-01-22
CN103534755B (zh) 2017-03-01
US20140043543A1 (en) 2014-02-13

Similar Documents

Publication Publication Date Title
JP6039577B2 (ja) 音声処理装置、音声処理方法、プログラムおよび集積回路
US11483268B2 (en) Content navigation with automated curation
CN108140032B (zh) 用于自动视频概括的设备和方法
JP6419830B2 (ja) 画像検索のためのシステム、方法、および装置
RU2693906C2 (ru) Основанный на правилах анализ важности видео
US11810597B2 (en) Video ingestion and clip creation
US8583647B2 (en) Data processing device for automatically classifying a plurality of images into predetermined categories
US20120039539A1 (en) Method and system for classifying one or more images
KR20180120146A (ko) 분류기 모델과 컨텍스트 파라미터를 사용한 원격 미디어 분류 쿼리에 대한 응답
JP5723446B2 (ja) 興味区間特定装置、興味区間特定方法、興味区間特定プログラム、及び、興味区間特定集積回路
US20120136823A1 (en) Audio classification device, method, program and integrated circuit
US9275483B2 (en) Method and system for analyzing sequential data based on sparsity and sequential adjacency
US9549162B2 (en) Image processing apparatus, image processing method, and program
JP5658285B2 (ja) 興味区間抽出装置、興味区間抽出方法
JP5620474B2 (ja) アンカーモデル適応装置、集積回路、AV(AudioVideo)デバイス、オンライン自己適応方法、およびそのプログラム
JP6274114B2 (ja) 制御方法、制御プログラム、および制御装置
JP5908924B2 (ja) 音声処理装置、方法、プログラムおよび集積回路
JP2014067333A (ja) 画像処理装置、画像処理方法、およびプログラム
JP6583285B2 (ja) 情報処理方法、映像処理装置及びプログラム
KR101804679B1 (ko) 스토리에 기초하는 멀티미디어 콘텐츠 개발 장치 및 방법
KR101969230B1 (ko) 학습을 이용한 모션 인식 장치 및 방법과 이에 대한 기록 매체
JP5254900B2 (ja) 映像再構成方法、映像再構成装置および映像再構成プログラム
JP2014002336A (ja) コンテンツ処理装置、コンテンツ処理方法、およびコンピュータプログラム
US20230274549A1 (en) Systems and Methods for Video Event Segmentation Derived from Simultaneously Recorded Sensor Data
EP3038108A1 (en) Method and system for generating a video album

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160506

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161104

R150 Certificate of patent or registration of utility model

Ref document number: 6039577

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150