JP2007306327A - 楽曲区間検出方法、及びその装置、並びにデータ記録方法、及びその装置 - Google Patents

楽曲区間検出方法、及びその装置、並びにデータ記録方法、及びその装置 Download PDF

Info

Publication number
JP2007306327A
JP2007306327A JP2006132898A JP2006132898A JP2007306327A JP 2007306327 A JP2007306327 A JP 2007306327A JP 2006132898 A JP2006132898 A JP 2006132898A JP 2006132898 A JP2006132898 A JP 2006132898A JP 2007306327 A JP2007306327 A JP 2007306327A
Authority
JP
Japan
Prior art keywords
music
section
detected
music section
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006132898A
Other languages
English (en)
Other versions
JP2007306327A5 (ja
JP4442585B2 (ja
Inventor
Hidetsugu Suginohara
英嗣 杉之原
Isao Otsuka
功 大塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2006132898A priority Critical patent/JP4442585B2/ja
Priority to US12/300,325 priority patent/US8682132B2/en
Priority to EP07706416.0A priority patent/EP2017827B1/en
Priority to PCT/JP2007/050069 priority patent/WO2007132569A1/ja
Publication of JP2007306327A publication Critical patent/JP2007306327A/ja
Publication of JP2007306327A5 publication Critical patent/JP2007306327A5/ja
Application granted granted Critical
Publication of JP4442585B2 publication Critical patent/JP4442585B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/27Arrangements for recording or accumulating broadcast information or broadcast-related information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/37Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying segments of broadcast information, e.g. scenes or extracting programme ID
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/56Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
    • H04H60/58Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 of audio
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/046Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for differentiation between music and non-music signals, based on the identification of musical parameters, e.g. based on tempo detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/061Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of musical phrases, isolation of musically relevant segments, e.g. musical thumbnail generation, or for temporal structure analysis of a musical piece, e.g. determination of the movement sequence of a musical work
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • G11B2020/10537Audio or video recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/781Television signal recording using magnetic recording on disks or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Library & Information Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】 本発明は、テレビジョン放送から楽曲シーンを高精度に検出する方法を提供するものである。
【解決手段】 本発明に係る楽曲区間検出方法は、音声信号と映像信号とを含むデータを入力するデータ入力ステップと、各々異なる基準に基づいて、音声信号から入力データの楽曲候補区間を検出する複数の楽曲候補区間検出ステップと、音声信号の特徴の変化、および/または映像信号の特徴の変化に基づいて、入力データの変化点を検出する変化点検出ステップと、検出された複数の楽曲候補区間と、検出された入力データの変化点とに基づいて、楽曲区間を検出する楽曲区間検出ステップとを備える。
【選択図】 図1

Description

この発明は、テレビジョン放送等のデータから楽曲区間を検出する方法、及び装置、並びに、この方法により検出された楽曲区間を含むデータを、DVD−RやDVD−RWなどを含む記録型DVDディスク、ハードディスクドライブ、またはBlu−ray Discなどの記録媒体に記録する記録方法、及び装置に関するものである。
テレビジョン放送の一つに、所謂「歌番組」や「音楽番組」と呼ばれるジャンルが存在する。音楽番組は出演者による演奏や歌唱、あるいはビデオ映像による楽曲の映像(以下、「楽曲シーン」と記す。なお、この明細書において、「楽曲シーン」とは歌や演奏などの音楽が音声に含まれる映像を全般に指す。)と、司会者などによる楽曲の紹介や出演者とのトーク(会話)ショーなどの楽曲以外の映像(以下、「非楽曲シーン」と記す。)とから構成される場合が多い。
また民間放送であれば、番組の広告主の宣伝や、放送局自らの広告宣伝のためのコマーシャルメッセージ放送(以下、「CM放送」と記す。)が番組の構成に含まれる場合もある。
ところで、録画した音楽番組を再生する場合、楽曲に集中したい視聴者にとっては非楽曲シーンやCM放送などの楽曲シーン以外を効率よく見飛ばしたい要望がある。また逆に、楽曲には興味が無い視聴者には、楽曲シーンやCM放送を見飛ばしてトークショーなどの非楽曲シーンのみを視聴したいとする要望もある。
このような要望に対し、従来の楽曲検出方法及び記録方法では、音情報の周波数スペクトルのピークが周波数方向に対して時間的に安定している特徴を用いて楽曲シーンを特定し、楽曲の映像音声のみを蓄積している(例えば、特許文献1参照)。
特開平11−266435号公報(第5頁、第1図)
しかし、特許文献1に記載されているような楽曲検出方法では、楽曲シーンの検出を単一の手法により判定していたために、ロックや演歌、クラシックなど、曲調の異なる全ての楽曲に対して一様に検出精度を確保することは困難であった。
また、特許文献1に記載されているような楽曲検出方法では、楽曲シーンの始点や終点を精度よく検出することが困難であり、楽曲シーンのうち、開始や終了のシーンが欠けて検出される場合があった。
この発明は、上述のような課題を解消するためになされたもので、テレビジョン放送等の映像信号及び音声信号を含むデータから楽曲シーンを効率よく検出する方法、及び装置を提供するものである。
本発明に係わる楽曲区間検出方法は、
音声信号と映像信号とを含むデータを入力するデータ入力ステップと、
各々異なる基準に基づいて、前記音声信号から、前記入力データの楽曲候補区間を検出する複数の楽曲候補区間検出ステップと、
前記音声信号の特徴の変化、および/または映像信号の特徴の変化に基づいて、前記入力データの変化点を検出する変化点検出ステップと、
前記検出された複数の楽曲候補区間と、前記検出された入力データの変化点とに基づいて、楽曲区間を検出する楽曲区間検出ステップと
を備えることとしたものである。
本発明の楽曲区間検出方法によれば、音声信号に対して各々異なる複数の基準に基づいて楽曲候補区間を検出し、さらにこの検出された複数の楽曲候補区間と入力データの変化点とから楽曲区間を検出するので、楽曲シーンの開始や終了のシーンを精度よく検出でき、視聴者にとって違和感のない楽曲シーンを提供することが可能となる。
実施の形態1.
以下、図を用いて本実施の形態1に係る楽曲検出方法、及び検出装置、並びに記録方法、及び記録装置を説明する。本実施の形態1に係る楽曲検出方法は、音声信号に対して各々異なる複数の基準に基づいて楽曲候補区間を検出し、さらにこの検出された複数の楽曲候補区間と入力データの変化点とから、楽曲区間を検出することに特徴がある。
図1は、本実施の形態1の映像音声記録装置を示すシステムブロック図である。また、図2は、本実施の形態1の楽曲区間の検出、記録方法を示すフローチャートである。まず、図1及び図2を用いて本実施の形態1の映像音声記録装置について概説する。映像音声記録装置2000には、記録を行う対象となるテレビジョン放送などの映像信号3と音声信号4が入力される(ST1、9)。次に、映像信号3は、ビデオエンコーダ5においてMPEG−2方式などにより符号化圧縮されて、映像データとなる(ST10)。
一方、音声信号4がアナログ信号である場合には、アナログデジタル変換機(A/Dコンバータ)6によって音声波形を一定時間おきにサンプリングして振幅をデータ化したPCM(Pulse Code Modulation)方式などによりデジタル信号に変換される(ST2)。その後、オーディオエンコーダ7においてドルビーAC−3方式などによって符号化圧縮されて、音声データとなる。
マルチプレクサ8では、映像データと音声データとを多重化してマルチメディアデータを生成する。その後、書き込みバッファ9でマルチメディアデータを逐次取り込んだ後に書き込みドライブ2に送出し、DVD−RやDVD−RWディスクあるいは記録型Blu−ray Discなどのリムーバブルな蓄積メディア1に記録(一連の処理は「録画」とも言われる。)が行われる。映像音声記録装置2000および書き込みドライブ2の動作は、マイクロプロセッサなどから構成する記録制御部16によって統括的に管理して制御されている。なお蓄積メディア1と書き込みドライブ2は、ハードディスクドライブ(HDD)などのリムーバブルではない蓄積メディアに置き換わっても構わない。
次に、本実施の形態1の映像音声記録装置における複数の楽曲候補区間検出部について説明する。第一の楽曲候補区間検出部10では、A/Dコンバータ6から出力されるPCM方式のデジタル信号を分析して楽曲候補区間を検出する(ST3、4)。第一の楽曲候補区間検出部10で検出された楽曲候補区間は、必要に応じて、第一の補正部12によって検出誤差が補正される(ST6)。また、第一の楽曲候補区間検出部10とは異なる基準を持つ第二の楽曲候補区間検出部11でも、第一の楽曲候補区間検出部10と同様に、楽曲候補区間が検出されて(ST3、5)、第二の補正部13にて必要に応じて検出誤差が補正される(ST7)。
第一の楽曲候補区間検出部10と第一の補正部12により検出・補正された楽曲候補区間と、第二の楽曲候補区間検出部11と第二の補正部13により検出・補正された楽曲候補区間は楽曲検出部15内の第一の楽曲検出部16において統合あるいは取捨選択の判断が行われ、第一の楽曲区間が検出される(ST8)。
一方、映像データに関する変化点検出部であるシーンチェンジ検出部14は、ビデオエンコーダ5から出力される映像データを分析し、映像内容が切り替わったシーンチェンジの発生を検出する(ST11)。
第一の楽曲検出部16から出力される第一の楽曲区間と、シーンチェンジ検出部14から出力されるシーンチェンジに関する情報は、楽曲検出部15内の第二の楽曲検出部17に入力される。第二の楽曲検出部17は、シーンチェンジに関する情報を参照しながら、第一の楽曲区間の補正を行い、第二の楽曲区間を出力する(ST12)。本実施の形態1では、第二の楽曲区間が検出処理後の最終的な楽曲区間となる。
第二の楽曲検出部17で検出された楽曲区間は、メタデータ生成部15にてメタデータファイルに生成されて、書込みバッファメモリ9を介して蓄積メディア1に記録される(ST13)。なお、メタデータ生成部15は、逐次算出されて決定する楽曲区間の楽曲情報を保持するメモリ機能を有している。
なお、映像音声記録装置2000の記録部の概念としては、書き込みドライブ2のみを含めてもよいし、マルチプレクサ8、メタデータ生成部15、書き込みバッファ9、記録制御部16を含めてもよい。
また、ここでは楽曲候補区間を検出する楽曲候補区間検出部10、11が2つの場合について記載したが、さらに多くの楽曲候補区間検出部を有する構成であっても良い。また、補正部12、13は、楽曲候補区間検出部10、11の各々に対して個別に補正を行った後に、楽曲検出部15に補正後の楽曲候補区間を出力する構成について記載したが、個別の補正は行わずに、一つの補正部により補正された後、楽曲検出部15に補正後の楽曲候補区間を出力する構成としてもよい。また、楽曲検出部15にて検出した後の楽曲区間に対して補正を行う構成としてもよい。
また、上記の説明では、楽曲区間の検出を第一の楽曲区間の検出(ST8)と第二の楽曲区間の検出(ST12)とに分けて説明したが、両者をあわせて楽曲区間の検出ステップ(ST14)とすることも可能である。
<第一の楽曲候補区間検出部>
図3は、本実施の形態1の第一の楽曲候補区間検出部10を詳細に記した機能ブロック図である。第一の楽曲候補区間検出部10は、直交変換処理部20と尤度比較処理部21、および参照のためのデータテーブルであるモデルデータ22から構成される。図に示すように、A/Dコンバータ6で変換されたデジタル信号の直交変換係数が直交変換処理部20で算出され、さらに尤度比較処理部21がモデルデータ22を参照してラベルが割り当てられた後、第一の補正部12に出力される。
さらに、第一の楽曲候補区間検出部10による楽曲候補区間の検出の詳細について述べる。音声信号4がステレオ信号である場合、A/Dコンバータ6では右チャンネルと左チャンネルのPCMデータが個々に得られる。このステレオ信号は、民生用レコーダ機器であれば、サンプリング周波数は48kHz、量子化ビット数は16bitなどの品質が使われる。
次に、直交変換処理部20では、時間領域のPCMデータを周波数領域に直交変換を施す(ST3)。直交変換には、PCMデータを時間的に50%重複するMDCT(変形離散コサイン変換)を使用する例について述べる。50%のオーバーラップを行うため、512個のPCMデータをサンプリングすると、256個の直交変換係数(MDCT係数)が右チャンネルと左チャンネルの各々について得られる。ステレオ信号の片チャンネル(例えば左チャンネル)、あるいはモノラル信号の1チャンネルに対する直交変換係数から、256次元の係数ベクトルが得られる。係数ベクトルは計算量の軽減を目的に、射影変換により次元数の低減を図っても良い。
なお、入力された音声信号を分析するに先立ち、あらかじめ主観評価で顕著に楽曲シーンと判断される音声の係数ベクトルを収集してトレーニングデータとして、係数ベクトルの分布傾向を、混合ガウス分布モデル(GMM法)を使用してモデル化しておく。楽曲シーンから作成したものを「音楽クラスモデル」と呼ぶ。この他、顕著な観客の歓声や声援、拍手、笑い声、出演者のトークシーン、などの非楽曲シーンについても同様にトレーニングデータを収集して混合ガウス分布モデルを作成して、複数の音声クラスモデルを用意する。
モデルデータ22は、これらの音声クラスモデルが参照できるデータテーブルとなる。尤度比較処理部21では、モデルデータ22を参照して、記録を行っている音声信号の直交変換係数ベクトルがベクトル空間として最も尤度の高い音声クラスを探して、その音声のクラスを当該区間のラベルとして割り当てる(ST4)。
すなわち、音楽クラスモデルの周波数特性と尤度の高い音声入力があった場合に楽曲を示すラベルが割り当てられ、その区間が楽曲シーンであるとの検出が可能になる。なお、あらかじめ用意したモデルを参照して入力信号の音声クラスを特定する手法であれば混合ガウス分布モデルによる尤度比較でなくても良く、隠れマルコフ法(HMM法)などの統計的な手法を使用しても構わない。
混合ガウス分布モデルによる尤度比較によって楽曲を示すラベルを割り当てる手法は、ステレオ放送やモノラル放送などのチャンネル数に影響を受けずに高い確度で楽曲シーンのみを検出できるという長所がある。その一方、楽曲シーンと非楽曲シーンとの境界を検出する精度は若干曖昧になる短所もある。またトレーニングデータの収集方法によっては、ロックや演歌、クラシックなど、曲調や楽器構成による得手、不得手が生じる場合がある。
<第二の楽曲候補区間検出部>
次に、第二の楽曲候補区間検出部11について説明する。図4は、本実施の形態1の第二の楽曲候補区間検出部11を詳細に記した機能ブロック図である。第二の楽曲候補区間検出部11は、直交変換処理部20と差分演算処理部30から構成される。図に示すように、A/Dコンバータ6で変換されたデジタル信号の直交変換係数が直交変換処理部20で算出され、さらに差分演算処理部30で直交変換係数の差異量が算出された後、第二の補正部13に出力される。
さらに、第二の楽曲候補区間検出部11による楽曲候補区間の検出の詳細について述べる。音声信号4から直交変換処理部20を経て256個の直交変換係数(MDCT係数)が得られるまでの過程(ST3)は第一の楽曲候補区間検出部10で述べたものと共通であり、ここでは省略する。
直交変換係数を(1×256)行列として、n行目の右チャンネルの直交変換係数をMr(n)、左チャンネルの直行変換係数をMl(n)とすると、差分演算処理部30では両チャンネルの直交変換係数行列の差を算出して、係数の二乗和である差異量Dを次式で得る。
Figure 2007306327
この処理を継続的に行うことにより、記録を行う番組の差異量Dの変化を把握することが出来る(ST5)。なお、差異量Dは直交係数行列の差による係数の二乗和としたが、右チャンネルと左チャンネルの差異が数値化される手法であれば、他の算出式を使用しても構わない。
ここで、差異量は、右チャンネルと左チャンネルの違いを表すものであり、音の広がり感、ステレオ感、などとも言い表せる。一般的に、楽曲シーンでは音の広がり感が大きく、出演者によるトークシーンなどの非楽曲シーンでは音の広がり感が小さいことが分かっている。すなわち、差異量が所定の値(閾値)を超える区間が楽曲シーンであるとの検出が可能になる。
一般的に、楽曲シーンと非楽曲シーンとの境界では差異量が大きく変動することから、左右チャンネルの直交係数行列の差異量を検出する手法は、楽曲区間の開始時刻および終了時刻が高い精度で検出できるという長所がある。その一方、コンサートやライブ会場など常に音の広がり感が高い番組では非楽曲シーンでも高い差異量を検出したり、またモノラル放送では差異量が検出できない等の短所もある。またロックや演歌、クラシックなど、曲調や楽器構成などによる得手、不得手が生じる場合がある。
図5は、本実施の形態1の補正処理(ST6)の過程を示すチャート図である。同図において、(1)は第二の楽曲候補検出部11で算出された差異量42をプロットしたグラフ400であり、横軸は記録した番組の時間経過40、縦軸41は差異量である。
第二の補正部13では、差異量42を所定の閾値43で二値化して、閾値43を超える区間に楽曲を示すラベル付けを行い、閾値43を下回る区間は非楽曲を示すラベル付けを行う。同図において、(2)は二値化したラベル45をプロットしたグラフ405で、楽曲を示すラベルが付いた区間をHigh、非楽曲シーンを示すラベルが付いた区間をLowとしてラベル軸44で表している。さらに、同図(3)はラベル45に対して補正の処理を行うことで得られる補正後のラベル47をプロットしたグラフ407である。
ここで、図5を用いて、第二の楽曲候補区間検出部11で算出された差異量に対する第二の補正部13による補正処理の詳細について説明する。一例である差異量42を閾値43で二値化すると、ラベル45のように3つの楽曲候補区間46a、46b、46cが検出される。
そして、次に、二値化により得たラベル45に対して、次の3通りの補正処理を必要に応じて行う。
(a)楽曲候補区間が所定時間T1(例えば5秒)以下であれば、楽曲にラベル付けされた区間は、非楽曲(Low)にラベルを変更する。
(b)連続する楽曲候補区間の間隔が所定時間T2(例えば5秒)以内であれば、非楽曲にラベル付けされた間隔は、楽曲(High)にラベルを変更する。
(c)上記の(a)、(b)のラベル変更を行った後、楽曲にラベル付けされた区間が所定時間T3(例えば60秒)を超える区間を補正後の楽曲候補区間とする。なお、(a)と(b)はどちらか一方であっても良い。
図5(2)を用いて説明すると、楽曲候補区間46cは間隔Aは、所定時間T1を満たないために、補正処理(a)によって非楽曲区間となり、楽曲候補区間46aと46bとの間隔Bは、所定時間T2よりも短いために、補正処理(b)によってひとつの楽曲候補区間となる。その結果、得られる楽曲候補区間の間隔Cは所定時間T3を越えるので、この補正処理によって楽曲区間48が得られることになる。
また、第一の楽曲候補区間検出部10で算出したラベルに対する第一の補正部12による補正処理について、同じく図5を用いて説明する。第一の楽曲候補区間検出部10では楽曲を示すラベルと非楽曲を示すラベルが、もとより二値で算出されているので、そのまま図5(2)のラベル45のプロットとなる。一例として示したラベル45では、3つの楽曲候補区間46a、46b、46cが検出されたことになり、これに対して第二の補正部13と同様に、補正処理(a)、(b)、(c)を必要に応じて施すことで、楽曲候補区間48が得られることになる。
このように、それぞれの補正部において補正処理を施すことにより、出演者によるトークショーでの効果音などの非楽曲シーンにて、瞬間的に楽曲シーンと誤検出されてしまった区間や、あるいは演奏途中の演出としての全休止など楽曲シーンであるにも関わらず部分的に非楽曲シーンと誤検出されてしまった区間などを補正することが可能となる。また、一般的に、楽曲の1コーラスに相当する60秒などの所定時間を越えて楽曲が検出される区間を楽曲候補区間とすることで、トークショーでの短時間のBGMや宣伝用に楽曲のサビ部分のビデオクリップ紹介、あるいは番組のオープニングやエンディングテーマのような、楽曲シーンとして扱うには適切ではないシーンを除外することもできる。
<第一の楽曲検出部での処理>
次に、図1の第一の楽曲検出部16での処理(ST8)について説明する。図6は、本実施の形態1の第一の楽曲検出部16による、第一の楽曲区間の検出処理の過程を示すチャート図である。同図において(1)は、第一の楽曲候補区間検出部10で算出されたラベルに対し、第一の補正部12によって補正処理を施して得たラベル50をプロットしたグラフ500である。また同じく、同図(2)は、第二の楽曲候補区間検出部11で算出された差異量に対し、第二の補正部13によって補正処理を施して得たラベル52をプロットしたグラフ502である。同図(3)は、ラベル50とラベル51とに基づいて検出処理したラベル54をプロットしたグラフ600である。グラフ500、502、600はいずれも、楽曲を示すラベルが付いた区間をHigh、非楽曲シーンを示すラベルが付いた区間をLowとしてラベル軸44で表している。
一例として、図に示すように、ラベル50に示す楽曲候補区間51a、51b、51cと、ラベル52に示す楽曲候補区間53a、53b、53c、53dが検出されているとする。ここでは、ラベル50を基点とする場合について説明する。
まず、楽曲候補区間51aの開始時刻A1の近傍でラベル52の楽曲候補区間の開始時刻を検索すると、B1が見つかる。開始時刻A1とB1が同じであれば、検出後の楽曲区間61aの開始時刻はP1で決定する。次に、楽曲候補区間51aの終了時刻A2の近傍でラベル52の楽曲候補区間の終了時刻を検索するとB2が見つかるので、検出後の楽曲区間61aの終了時刻はB2の時刻を採用してP2となる。
さらに、楽曲候補区間51bの開始時刻A3の近傍で、ラベル52の楽曲候補区間の開始時刻を検索するとB3が見つかるので、検出後の楽曲区間61bの開始時刻はB3を採用してP3となる。同様に、終了時刻A4については終了時刻B4が見つかるので、検出後の楽曲区間61bの終了点はB4を採用してP4となる。
なお、この時、A3を基点としてラベル52における楽曲候補区間の開始時刻を検索する範囲はA2からA4までの時刻とし、A4を基点としてラベル52における楽曲候補区間の終了時刻を検索する範囲はA3からA5までとする。この場合、仮に、ラベル52の楽曲候補区間が存在しない場合には、ラベル50の楽曲候補区間が検出後の楽曲区間となる。
以下同様に、楽曲区間61cについても検出処理によって開始時刻P5と終了時刻P6が決定する。なお、ラベル52の楽曲候補区間53cについては、基点となるラベル50の楽曲候補区間が存在しないために、検出処理によって削除されることになる。
このように、図6では、高い確度で楽曲シーン、即ち楽曲区間の途中を検出できるが、楽曲シーンと非楽曲シーンとの境界を検出する精度は若干曖昧になるとの検出特性を有する第一の楽曲候補区間検出手段10により検出された楽曲候補区間を基準とする。そして、楽曲区間の開始時刻や終了時刻が高い精度で検出できる一方で非楽曲シーンを検出してしまう検出特性を持つ第二の楽曲候補区間検出手段11により検出された楽曲候補区間の有無を検出する。
つまり、検出時に、両者の検出特性を考慮して、楽曲区間の開始時刻及び終了時刻を、第二の楽曲候補区間検出手段11により検出された楽曲候補区間の開始時刻と終了時刻を優先的に採用する検出処理を行う。これにより、非楽曲シーンの誤検出を低減できると共に楽曲区間の開始時刻と終了時刻とを高い精度で検出することが可能となる。
すなわち、両者が互いに補完的な関係にある検出特性を考慮して、楽曲区間の途中である楽曲シーンを基準に楽曲区間の開始時刻と終了時刻とを検出することにより、高い精度で楽曲区間を検出することが可能となる。
なお、本実施の形態1では、図6に示したように、一方の楽曲候補区間を基準とし、他の楽曲候補区間を参照して第一の楽曲区間を検出する方法について説明した。しかし、この方法以外にも、複数の楽曲候補区間を論理OR(論理和)で検出する方法を用いてもよい。この場合、複数の楽曲検出手段によって異なる判断基準で検出された楽曲候補区間を全て第一の楽曲区間とするので、採用する楽曲検出手段に応じて、広い範囲のジャンルの楽曲を検出することが可能となる。また、検出された楽曲候補期間は第一の楽曲区間内に含まれるので、楽曲シーンが削除されてしまうことがない。
<シーンチェンジ検出部>
ところで、上記で説明したように、第一の楽曲区間の検出は音声データの情報のみに基づいて行われている。そこで、映像データの情報を考慮した楽曲区間の検出が可能となるように、本実施の形態1の映像音声記録装置2000は、映像信号に関する変化点検出部であるシーンチェンジ検出部14を備える。これにより、映像のシーンとしては連続性を持っている第一の楽曲区間の途中を始点あるいは終点とした楽曲シーンにも対応可能となる。以下、第一の楽曲区間の始点、あるいは終点を、映像データから検出した際に補正する方法について述べる。
図7は、本実施の形態1のシーンチェンジ検出部14を詳細に記した機能ブロック図である。シーンチェンジ検出部14は、ビデオデコーダ71、ヒストグラム生成器72、ヒストグラムバッファA73、ヒストグラムバッファB74、および差異判定部75から構成される。
図に示すように、ビデオデコーダ71は、ビデオエンコーダ5で例えばMPEG−2プログラムストリームに符号化されたビデオストリームを各フレーム単位で復号化し、各画素がYUV各256階調で表現される映像データを生成するものである。ヒストグラム生成器72は、各画素がYUV256階調で表現されている映像データに対して、YUV各256値を要素とし、該当フレーム内でそのYUV要素分布に一致した画素数を値とするヒストグラム分布(以下「ヒストグラムデータ」と記す。)を生成する。
ヒストグラムバッファA73、およびヒストグラムバッファB74は、ヒストグラム生成器72によって生成されたヒストグラムデータを保持する機能を有しており、後述の差異判定部75に対して必要に応じてヒストグラムデータを提供するためのバッファである。このように、本実施の形態1のシーンチェンジ検出部14が二つのバッファを持つのは、フレーム間の映像データの差を検出するためである。
差異判定部75は、ヒストグラムバッファA73およびヒストグラムバッファB74に保持された2つのヒストグラムデータを比較し、その差が所定値以上であればシーンチェンジが発生したと判定する。具体的なシーンチェンジの判定方法は以下の通りである。まず、ヒストグラムバッファA73のヒストグラム値Ha(y、u、v)と、ヒストグラムバッファB74のヒストグラム値Hb(y、u、v)のYUV同一要素値ごとに差の絶対値をとる。さらに、算出した全ての要素値の差を総和する。この総和値を2つのフレーム間の差異値と定義し、この差異値があらかじめ設定しておいた閾値以上の場合にシーンチェンジが発生したと判定する。シーンチェンジの発生が検出された場合、シーンチェンジに関する時間情報が第二の楽曲区間検出部17に出力される。
<シーンチェンジ検出部の処理>
次に、フレームデータPiと、フレームデータPiの時間的に次に表示されるフレームデータPjとの間のシーンチェンジの検出方法について、さらに具体的に説明する。ここでは説明の簡略化のため、例えばMPEG−2のデコードフレームオーダーは、ビデオデコーダ71から出力された時点において表示オーダーに並び替えられているものとする。
さて、ビデオデコーダ71から出力されたYUV256階調で表現された映像データはヒストグラム生成器72に入力される。ヒストグラム生成期72では、Y、U、V各256階調で表現されるヒストグラムを下記の形式で表す。
Figure 2007306327
さらに、フレームデータPi、およびフレームデータPjのそれぞれのヒストグラムを下記の形式で表す。
Figure 2007306327
Figure 2007306327
先行するフレームデータPiがビデオデコーダ71から出力された後、ヒストグラム生成器72によってフレームデータPiのヒストグラムHi(y、u、v)が生成され、ヒストグラムバッファA73に記憶される。次に、フレームデータPiに後続するフレームデータPjがビデオデコーダ71で復号化されると、ヒストグラムHj(y、u、v)が生成され、今度はヒストグラムバッファB74に記憶される。2つのヒストグラムHi(y、u、v)およびHj(y、u、v)がヒストグラムバッファA73およびヒストグラムバッファB74に記憶されると、差異判定部75は、下記に示す差異値Dvを求める。
Figure 2007306327
上記差異値Dvは0から最大1までの値をとり、その値が大きいほど2つのフレーム間の映像の変化度合いが大きいものと判定できる。例えば、フレームデータPiと、フレームデータPjが全く同じ映像であれば、Dv=0となる。一方、全く違う映像、例えばフレームデータPiが真っ白、フレームデータPjが真っ黒であればDv=1となる。よって、例えば、閾値を0.8とし、差異値Dが閾値0.8を越えた場合に、シーンチェンジが発生したと判定する構成する。差異判定部75は、フレームデータPiとフレームデータPjの間でシーンチェンジが発生したと判定した場合、後続のフレームであるフレームデータPjでシーンチェンジが発生したものとして、フレームデータPjのPTM、もしくはフレーム番号などの時間情報を第二の楽曲区間検出部17に出力する。
上記操作をビデオエンコーダ5が出力するフレームデータに対して継続的に行うことにより、映像データのシーンチェンジを検出することが可能になる。
<第二の楽曲区間検出部>
図8は、本実施の形態1の第二の楽曲区間検出部17における処理を説明した図であり、第一の楽曲区間検出部16で検出された第一の楽曲区間を、シーンチェンジ検出部14で得られたシーンチェンジ情報を用いて、その始点と終点を補正する処理を示す(ST12)。同図において、(1)は第一の楽曲区間検出部16で検出された第一の楽曲区間を表すラベル60をプロットしたグラフ600である。同図(2)は、シーンチェンジ検出部14で検出されたシーンチェンジの時間位置をラベル85としてプロットしたグラフ700で、横軸は録画した番組の時間経過40、縦軸86はシーンチェンジの有無を表す。同図(3)は、第二の楽曲区間を示すものであり、第一の楽曲区間を表すラベル60を、シーンチェンジの時間位置を表すラベル85を用いて補正して得られるラベル100をプロットしたグラフ1000である。グラフ600、1000はいずれも、楽曲を示すラベルが付いた区間をHigh、非楽曲シーンを示すラベルが付いた区間をLowとしてラベル軸44で表している。
図8を用いて、第二の楽曲区間検出部17における、シーンチェンジ情報を用いた第二の楽曲区間の検出処理について説明する。一般に、楽曲区間と非楽曲区間は、それぞれ独立したシーンとして、その変化点(区切り目)にシーンチェンジが発生することが多い。そこで、検出した第一の楽曲区間の始点および終点をシーンチェンジが発生した時刻に補正することで、楽曲区間の開始点と終了点を極めて正確に抽出することが可能になる。
一例として、ラベル60から得られる第一の楽曲区間61a、61b、61cが検出されている場合について説明する。第二の楽曲区間検出部17は、これらの楽曲区間の始点あるいは終点P1、P2、P3、P4、P5、P6の近傍にある、シーンチェンジが発生した時刻を用いて、楽曲区間の始点あるいは終点を決定する。なお、ここでいう「近傍」とは、ある基準となる時刻から、その前後に決まった時間幅をもった区間を表す。
以下、図8を用いて具体的に説明する。まず、楽曲区間61aの開始時刻P1に対し、その前後(例えば前後2秒間)にシーンチェンジ点がないか検索すると、P1よりも前の時刻(時間軸左方向)のS1でシーンチェンジがあることがわかる。この時、補正後の楽曲区間101aの開始時刻G1として時刻S1を採用する。同様に、楽曲区間61aの終了時刻P2の前後でシーンチェンジを検索すると、P2と同時刻であるS2でシーンチェンジがあることがわかる。この時、補正後の楽曲区間101aの終了時刻G2として時刻S2(=P2)を採用する。
さらに、楽曲区間61bの開始時刻P3の前後でシーンチェンジを検索すると、S3aとS3bの2つのシーンチェンジが見つかる。この時、補正後の楽曲区間101bの開始時刻G3として、よりP3に近い時刻である時刻S3bを採用する。同様に、楽曲区間61bの終了時刻P4の前後でシーンチェンジを検索すると、前後2秒間の範囲にはシーンチェンジが見つからない。この場合、楽曲区間が延長する方向、すなわち終点P4に対し後ろの時刻に対してさらに(例えば10秒間)シーンチェンジがないかの検索を行なう。すると、時刻S4にシーンチェンジが見つかるので、補正後の楽曲区間101bの終了時刻G4としてS4を採用する。
さらに、楽曲区間61cの開始時刻P5の前後でシーンチェンジを検索すると、その前後にはシーンチェンジが見つからない。そこで、楽曲区間が延長する方向、すなわち始点P5に対し前の時刻に対してさらに(例えば10秒間)シーンチェンジを検索してもシーンチェンジが見つからない。この場合、補正後の楽曲区間101cの終了時刻G5としてP5を採用する。楽曲区間62cの終了時刻P6についても同様に、その前後でのシーンチェンジ発生時刻S6を補正後の楽曲区間101cの終了時刻G6として採用する。
以上説明した方法により、最終的な楽曲区間である第二の楽曲区間を決定する。これにより、シーンの変化点が第二の楽曲区間の始点・終点になるため、楽曲区間の開始点と終了点を正確に抽出することが可能になると共に、視聴者にとって違和感のないシーンの区切り目を始点・終点とした一連の楽曲シーンを検出することが可能になる。
次に、図9、10を用いて、検出された楽曲区間の楽曲情報をメタデータ生成部15にてメタデータファイルに生成する方法を説明する。図9は、本実施の形態1の映像音声記録装置のファイル構成図である。すなわち、図9は、蓄積メディア1の論理ファイル構造を示したものであり、論理的に階層構造を成すディレクトリ構造の最上位階層にルートディレクトリ90が配置され、そのルートディレクトリ90の下位層に、マルチメディアディレクトリ91、およびメタデータディレクトリ92が配置されている。
マルチメディアディレクトリ91には、蓄積メディア1に記録されている番組の管理番号を含む管理情報を記述した情報管理ファイル93、番組の映像信号または音声信号を符号化圧縮して多重化したマルチメディアデータファイル94、さらに情報管理ファイル93などのバックアップファイル95が配置されている。
一方、メタデータディレクトリ92には、番組を記録してマルチメディアデータファイル94が生成された際に検出された楽曲区間の楽曲情報が、独立した論理ファイルで成るメタデータファイル96に記述され、配置される。
なお、図9では、マルチメディアデータファイル94とメタデータファイル96とが個別のディレクトリに配置する例を示した。しかし、同一のディレクトリ内に配置されたり、メタデータファイル96がルートディレクトリ90に直接配置されてもよい。また、マルチメディアデータファイル94、あるいはメタデータファイル96は、記録した番組の数に応じて分割されたり、ファイル容量の制限などによって複数に分割されてもよい。
さらに、本実施の形態1におけるメタデータファイル96は、そのデータ形式は問わず、テキスト形式であってもバイナリ形式であってもよい。また、メタデータファイル96に記述されているデータの改ざんや、情報の流出を阻むために、暗号処理を施してもよい。
また、管理情報ファイル93に、所望の番組に対応するメタデータファイル96が存在しているか否か、あるいはメタデータファイル96に有効な値が存在するか否か、などの情報を記述しておいてもよい。このような情報が管理情報ファイル93に記録されていると、番組を再生する際に、当該情報を参照することで、素早く楽曲情報の存在あるいは有効性を判断することができる。
このように、メタデータファイル96をマルチメディアデータファイル94に重畳、多重化せずに独立した論理ファイルとする。これにより、番組を再生する際に、ファイル容量が大きなマルチメディアデータファイル94を走査することなく、比較的ファイル容量の小さなメタデータファイル96を読み出すことで楽曲情報を素早く取得することが可能となる。
なお、メタデータファイル96をマルチメディアデータファイル94に重畳してもよい。この場合は、ファイル数を少なくでき、また、マルチメディアデータと同一のファイルなので、楽曲情報を伴うマルチメディアデータをリムーバブルな記録媒体に記録して他機器で編集やコピーなどのファイル操作を行う際、メタデータが散逸することを抑制できる。
図10は、階層構造である本実施の形態1のメタデータ構造図である。図において、(A)は、データ構造の最上位の階層のメタデータ130である。
次に、図10(B)を用いて、メタデータ130のデータ構造を説明する。メタデータ全体の情報は、メタデータ管理情報131aに統括的に記述されている。この階層には、楽曲情報を持つ番組の数(1からn個)に応じた番組メタデータ情報131cと、番組メタデータ情報131cを個々にアクセスするためのアドレス情報である番組メタデータ情報サーチポインタ131bが配置される。
ここで、蓄積メディア1に楽曲情報を持つ番組が存在しない場合には、メタデータファイル96を作成しなくてもよく、また、メタデータ管理情報131aに番組メタデータ情報131cを0個と記述したメタデータファイル96を用意しても良い。
次に、図10(C)を用いて、番組メタデータ情報131cのデータ構造を説明する。この階層には、メタデータ一般情報132aと、楽曲マップ情報132bが配置される。メタデータ一般情報132aには、楽曲マップ情報132bをアクセスするためのアドレス情報などの他、番組メタデータ情報131cが対応するべき番組の管理番号が記述される。これは音楽番組以外を記録した時など、番組によっては楽曲情報を生成しない場合もあるために、情報管理ファイル93で管理される番組の管理番号と番組メタデータ情報131cの番号とが一致しない場合に、番組とメタデータとを関連付けるためのテーブルである。
次に、図10(D)を用いて、楽曲マップ情報132bのデータ構造を説明する。この階層には、楽曲マップ一般情報133aと、検出した楽曲の数(1からm個)に応じた楽曲エントリ133bが配置される。楽曲マップ一般情報133aには、楽曲エントリ133bを個々にアクセスするためのアドレス情報が記述される。
最後に、図10(E)を用いて、楽曲エントリ133bのデータ構造を説明する。この階層には、検出した楽曲区間の楽曲開始時刻情報134aと、楽曲終了時刻情報134bが配置される。時刻情報には、プレゼンテーションタイム(PTM)などが使用される。
なお、ここでは、第二の楽曲区間の情報をメタデータとして保存する場合について説明したがこれに限られるものではない。例えば、メタデータとして、第一の楽曲区間検出部16で得られる第一の楽曲区間の情報と、シーンチェンジ検出部14で得られるシーンチェンジ情報とを保存し、再生時に、第二の楽曲区間検出部17において第二の楽曲区間の検出処理を行なっても良い。
以上説明したように、本実施の形態1では、楽曲区間の開始時刻と終了時刻をメタデータに記述する方法の例を述べたが、記録した番組から楽曲情報が特定できるデータ構造であれば良い。例えば、番組を1秒間などの固定時間で離散化した時に楽曲シーンである区間はHigh(1)、非楽曲シーンである区間はLow(0)とするなど二値化した結果を楽曲マップ情報として列挙するデータ構造としても、同等の機能が実現できる。
これにより、蓄積メディア1に記録した番組を再生する際にはメタデータファイル96からメタデータ130を読み出し、番組に存在する楽曲の楽曲情報を把握することができる。したがって、楽曲情報に基づく再生制御を行うことで、楽曲区間のみを連続再生したり、楽曲区間の開始点あるいは終了点に手動でスキップする機能など、効率的に楽曲シーンを視聴することが可能となる。
すなわち、従来は、非楽曲シーンやCM放送(CM放送については、実施の形態3で説明する。)を見飛ばすには、手動操作による早送りや早戻し再生によって楽曲シーンの先頭や終端などの境界を検索する必要があった。
また、記録媒体に長時間記録された番組から楽曲シーンを視聴したい場合、あるいは非楽曲シーンを視聴したい場合などは、視聴者が早送り(フォワードスキャン)や早戻し(バックワードスキャン)映像を見ながら所望のシーンを探したり、15秒などの固定時間のスキップによって所望のシーンが現れるまで操作を繰り返したりしなければならない。そのため、楽曲シーンの始点や終点の箇所を誤って行き過ぎることなく再生するには、予め楽曲シーンの箇所を正確に把握していなければ至難であった。特に、初見の番組を再生する場合においては、番組中のどこに楽曲シーンがあるのかわからないために、番組の冒頭から楽曲シーンを検索して行く手間を要していた。
しかし、本実施の形態1により記録された番組を再生する場合は、上記のような操作をする必要が無い。すなわち、再生時には初見の番組でも楽曲区間をあらかじめ把握することができるので、楽曲区間のみの連続再生や、楽曲区間の始点や終点への手動でのスキップ等の再生制御が可能となる。
なお、本実施の形態1では、映像信号3と音声信号4としてテレビジョン放送を例に説明したが、例えば、別の映像再生装置を使って外部入力端子から供給される映像音声信号であっても良い。あるいは、リムーバブルな蓄積メディア1や映像記録再生装置に内蔵したハードディスク(図示なし)などに記録している映像音声データを読み出し、符号化圧縮した音声データをデコード(複号)処理してPCM信号を得て楽曲情報を検出しても良い。この方法であれば、記録時にリアルタイムで楽曲区間の検出処理を行う必要が無いので、記録制御部の処理能力が低い場合であっても、記録後に時間を掛けて検出が可能となる。さらに、既に蓄積メディアに記録済の番組からも楽曲情報を得ることが出来る。
実施の形態2.
本実施の形態2は、音声信号の情報を用いて、シーンの変化点を検出することに特徴がある。図11は、本実施の形態2の映像音声記録装置2001を示すシステムブロック図である。また、図12は、本実施の形態2の楽曲区間の検出、記録方法を示すフローチャートである。映像音声記録装置2001には、録画を行う対象となるテレビジョン放送などの音声信号4に基づいて、シーンの変化点を検出する音声レベル検出部80を備える(ST15)。音声レベル検出部15では音声レベルの変化から、会話の区切り目等のシーンの変化点を検出し、シーンの変化点が発生した時間位置をプレゼンテーションタイム(PTM)などの時間情報として第二の楽曲区間検出部17に出力する。その他のものは実施の形態1で示したものと同じであり、ここでは説明を省略する。
<音声レベル検出部>
図13は、本実施の形態2の音声レベル検出部80(ST15)を詳細に示した機能ブロック図である。音声レベル検出部80は、直交変換処理部20とエネルギー算出処理部23、および変化点判定部24から構成される。
次に、各構成要素の機能について説明する。直交変換処理部20は、A/Dコンバータ6で変換された音声に関するデジタル信号の直交変換係数を算出する。算出された係数値は、エネルギー算出処理部23においてエネルギーが算出される。最後に、変化点判定部24において、エネルギーの変化から変化点を検出し、第二の楽曲区間検出部17に出力する。
図13を用いて、音声レベル検出部80による、シーンの変換点を検出する処理の詳細について説明する。まず、入力される音声信号4がステレオ信号である場合、A/Dコンバータ6では右チャンネルと左チャンネルのPCMデータが個々に得られる。例えば、民生用レコーダ機器であれば、サンプリング周波数は48kHz、量子化ビット数は16bitなどの品質が用いられる。
次に、直交変換処理部20では、これら時間領域のPCMデータを周波数領域に変換する直交変換を行なう。直交変換には、例えばMDCT(変形離散コサイン変換)を用いる。MDCTを用いた場合、512個のPCMデータをサンプリングすると、256個の直交変換係数値(MDCT係数)、すなわち256次元の係数行列が、右チャンネルと左チャンネルの各々について算出される。
次に、エネルギー算出処理部23は、直交変換処理部20で算出された直交変換係数値を用いて、音声信号のエネルギーを算出する。エネルギーは、直交変換係数値の二乗和を算出することで求める。なお、この時、256次元の係数値全てを用いるのではなく、特定の係数値のみを用いて、特定の周波数帯域における音声信号のエネルギーを算出してもよい。256次元の係数行列は、その要素ごとがある周波数帯における音に対応している。従って、例えば、人の声の周波数帯域として顕著な200Hzから4kHzの周波数帯域に相当する直交変換係数値を用いてエネルギーを算出することで、人の声に相当する音のエネルギーを算出することが出来る。
エネルギー算出処理部23で得られたエネルギーは、変化点判定部24に出力される。変化点判定部24では、エネルギーがある値(閾値)以下となった状態が一定の区間(例えば200ミリ秒)以上連続して検出された場合を会話の区切り目に基づく「シーンの変化点」と定義しておき、入力される音声信号4を評価して、シーンの変換点の検出を行う。
例えば、上記の説明のように、人の声の周波数帯に相当する直交変換行列値を用いてエネルギーを算出し、その変化点を検出した場合、これを会話の区切り目として扱うことができる。なお、シーンの変化点の検出に用いる閾値であるが、BGMなど音楽は広帯域の周波数成分を含むため、上記の説明のように人の声の周波数帯に注目した場合でも、一定の音を含む。したがって、このオフセットを考慮した閾値を用いることで、会話の区切り目を検出することが可能となる。検出されたシーンの区切り目は、シーンの変化点が発生した時間位置を特定し得るプレゼンテーションタイム(PTM)などの時間情報として出力する。
なお、特定周波数でノイズが発生することが予め予測可能な場合は、エネルギー算出処理部23のエネルギーの算出処理において、該当する係数値を除外して二乗和を求めても良い。例えば、NTSC放送を録画する場合には、受信環境によって垂直走査周波数60Hzや水平走査周波数15.75kHzとのクロストークによって、音声信号にノイズが発生する場合がある。このような特定周波数のノイズの影響を除去するため、該当する帯域のMDCT係数値を減衰させる、あるいはマスクするなどのフィルタ処理を行う。なお、このフィルタ処理は、第一の楽曲候補区間検出部10や第二の楽曲候補区間検出部による音声識別処理において行うことも可能である。
また、本実施の形態2では、音声信号4からシーンの変化点を検出する手法として、音声データに関するエネルギーを用いる方法について述べたが、これに限られるものではない。例えば、A/Dコンバータ6を介さずに、アナログの音声信号4を直接取得して、信号振幅からシーンの変換点を検出する方法を用いてもよい。また、アナログの音声信号4に対して、バンドパスフィルタ回路を用いて特定の周波数帯だけを取り出すことも可能である。そして、バンドパスフィルタを通過したアナログ音声信号に対してコンパレータを用い、ある基準レベルを閾値として入力信号を二値に分離し、コンパレータの出力をマイコンで監視してシーンの変化点が発生した時間位置や継続時間をタイマーでカウントする方法を用いてもよい。
図14は、本実施の形態2の第二の楽曲区間検出部17における処理を説明した図であり、第一の楽曲区間検出部16で検出された第一の楽曲区間を、音声レベル検出部80で得られたシーンの区切り目を用いて、その始点と終点の補正する処理を示す(図12のST12)を示すチャート図である。同図において、(1)は第一の楽曲区間検出部16で検出された楽曲区間を示したラベル60をプロットしたグラフ600である。検出処理の方法については、実施の形態1で説明したものを用いる。また、同図(2)は、音声レベル検出部80で検出されたシーンの変化点の一例として、会話の区切り目の時間位置を示したラベル87をプロットしたグラフ800であり、横軸は録画した番組の時間経過40、縦軸88は会話の区切りの有無を表す。同図(3)は、第二の楽曲区間を示すものであり、第一の楽曲区間を表すラベル60を、会話の区切り目の時間位置を表すラベル80を用いて補正して得られるラベル110をプロットしたグラフ1100である。グラフ600、1100はいずれも、楽曲を示すラベルが付いた区間をHigh、非楽曲シーンを示すラベルが付いた区間をLowとしてラベル軸44で表している。
図14を用いて、第二の楽曲区間検出部17における、シーンの変化点を用いた楽曲区間の検出処理について説明する。一般に、楽曲区間と非楽曲区間の間には、司会者による曲の紹介などがあった後に楽曲が始まる場合など、会話の区切りが発生する。このように、楽曲区間の始点あるいは終点に会話の区切り目を用いることで、楽曲区間の開始点と終了点を正確に抽出することが可能になる。
一例として、ラベル60から得られる第一の楽曲区間61a、61b、61cが検出されている場合について説明する。第二の楽曲区間検出部17は、これらの楽曲区間の始点あるいは終点P1、P2、P3、P4、P5、P6の近傍にある、会話の区切りが発生した時刻を使って楽曲区間の始点あるいは終点を決定する。この始点あるいは終点の補正処理は、実施の形態1で説明したものと同じであるため、ここでは説明を省略する。
このように、会話の区切りを用いて、最終的な楽曲区間である第二の楽曲区間を決定する。これにより、データ量が多いために演算負荷が高くなる映像データを用いることなく、音声データだけを用いて、楽曲区間の開始点と終了点を正確に抽出することが可能になる。
また、このようにして楽曲区間を決定することで、会話の途中から再生が始まったり、会話の途中で再生が終わったりすることがなくなるため、会話が途切れて内容が分からないなどといった違和感のない再生結果を得ることができる。
実施の形態3.
本実施の形態3では、テレビジョン放送がデジタル放送であった場合について説明する。図15は、本実施の形態3の映像音声記録装置2002を示すシステムブロック図である。テレビジョン放送が地上波デジタル放送やBSデジタル、CSデジタル放送などのデジタル放送の場合、装置に入力される信号は映像データと音声データが重畳して符号化圧縮されている。したがって、デマルチプレクサ301によってデジタル放送信号300を映像データ302と音声データ303に分離する。分離された映像データ302はシーンチェンジ検出部14で解析される。また、分離された音声データ303に対しては第一の楽曲候補区間検出部10および第二の楽曲候補区間検出部11において、楽曲候補区間の検出が行なわれる。デジタル放送信号300はすでにデジタルデータとなっているため、書き込みバッファ9を介して書き込みドライブ2によって蓄積メディア1に記録される。これ以外の部分は実施の形態1と同じであるため、ここでは説明を省略する。
次に、デマルチプレクサ301における処理について説明する。例えば、地上波デジタル放送の場合、デマルチプレクサ301では、MPEG2−TS(トランスポートストリーム)として映像データと音声データが重畳して符号化圧縮されているデータから、例えばMPEG―2方式の映像データ302とMPEG−2 Audio(AAC)方式の音声データ303を分離して出力する。この時、音声データ303については、デコード処理を行なってPCM方式(例えばサンプリング周波数は48kHz、量子化ビット数は16bitなどの品質)として出力することで、これ以降の処理を実施の形態1と同様に扱うことが出来る。
一方で、音声信号を符号化圧縮する際には、符号化効率を上げるために多くの場合、時間領域から周波数領域への変換処理が行なわれる。このため、符号化圧縮された音声信号には周波数領域における情報が含まれている。例えば、MPEG−2 Audio(AAC)方式であれば、周波数領域への変換処理としてMDCTが行なわれている。そこで、第一の楽曲候補区間検出部10および第二の楽曲候補区間検出部11の直交変換処理部20において、符号化圧縮された音声データから直接、周波数領域における情報を抽出して、直交変換係数値を求めても良い。
このように、図15に示したような装置の構成にすることで、地上波デジタル放送やBSデジタル、CSデジタル放送などのデジタル放送において符号化圧縮して重畳された映像データと音声データを受信して録画する場合にも、楽曲区間を高い精度を確保して検出することができると共に、視聴者にとって違和感のないシーンの区切り目を始点・終点とした一連の楽曲シーンを検出することができる。
実施の形態4.
本実施の形態4では、テレビジョン放送ではなく、リムーバブルな蓄積メディア1に記録されている符号化圧縮された映像音声データを入力とすることに特徴がある。図16は、本実施の形態4の映像音声記録装置2003を示すシステムブロック図である。蓄積メディア1にはあらかじめ映像音声データ309が記録されており、このデータを読込/書込ドライブ310で読み出し、デマルチプレクサ301に入力する。なお、蓄積メディア1は映像音声データが記録されているハードディスクドライブ(HDD)などであってもよい。映像音声データ309としては、例えばMPEG2−PS(プログラムストリーム)などがある。記録制御部19は、映像音声記録装置2003と読込/書込ドライブ310の動作を統括的に管理し制御する。第二の楽曲区間検出部17で検出された楽曲区間は、メタデータ生成部18にてその時間情報を表すメタデータファイルが生成されて、書込みバッファメモリ9を介して蓄積メディア1に記録される。このとき、蓄積メディア1に記録されている映像音声データは書き換えず、メタデータファイルを追加する形で記録することが望ましい。その他のものは実施の形態1もしくは実施の形態3で示したものと同じであり、ここでは説明を省略する。
上記で説明した方法は、録画時にリアルタイムで楽曲区間の検出処理を行う必要が無い。したがって、記録制御部の処理能力が高くない場合であっても、録画後に時間を掛けて検出が可能となると共に、既に蓄積メディア1に録画済の番組に対しても楽曲区間を高い精度を確保して検出することができ、視聴者にとって違和感のないシーンの区切り目を始点・終点とした一連の楽曲シーンを検出することができる。
なお、上記実施の形態1から4では、楽曲候補区間検出手段と補正手段とを別の手段として構成したが、これら二つの手段の機能を有する一つの楽曲候補区間検出手段としてもよい。
また、上記実施の形態1から4では、楽曲区間を含んだマルチメディアデータを記録するとしたが、検出された楽曲区間のみのマルチメディアデータを記録してもよい。
実施の形態1の映像音声記録装置を示すシステムブロック図である。 実施の形態1の楽曲区間の検出、記録方法を示すフローチャートである。 実施の形態1の第一の楽曲候補区間検出部を示すブロック図である。 実施の形態1の第二の楽曲候区間補検出部を示すブロック図である。 実施の形態1の補正処理を示すチャート図である。 実施の形態1の第1の楽曲区間の検出処理を示すチャート図である。 実施の形態1のシーンチェンジ検出部を示すブロック図である。 実施の形態1の第二の楽曲区間の検出処理を示すチャート図である。 実施の形態1の映像音声記録装置のファイル構成図である。 実施の形態1のメタデータ構造図である。 実施の形態2の映像音声記録装置を示すシステムブロック図である。 実施の形態2の楽曲区間の検出、記録方法を示すフローチャートである。 実施の形態2の音声レベル検出部を示すブロック図である。 実施の形態2の第二の楽曲区間の検出処理を示すチャート図である。 実施の形態3の映像音声記録装置を示すシステムブロック図である。 実施の形態4の映像音声記録装置を示すシステムブロック図である。
符号の説明
1 蓄積メディア、 2 書込みドライブ、 3 映像信号、 4 音声信号、 5 ビデオエンコーダ、 6 A/Dコンバータ、 7 オーディオエンコーダ、 8 マルチプレクサ、 9 書込みバッファメモリ、 10 第一の楽曲候補区間検出部、 11 第二の楽曲候補区間検出部、 12 第一の補正部、 13 第二の補正部、 14 シーンチェンジ検出部、 15 楽曲区間検出部、 16 第一の楽曲区間検出部、 17 第二の楽曲区間検出部、 18 メタデータ生成部、 19 記録制御部、 20 直交変換処理部、 21 尤度比較処理部、 22 モデルデータ、 23 エネルギー算出部、 24 変化点判定部、 30 差分演算処理部、 40 時間経過(横軸)、 41 差異量(縦軸)、 42 差異量、 43 閾値、 44 ラベル軸、 45 ラベル、 46a、46b、46c 楽曲候補区間、 47 補正処理後のラベル、 48 補正処理後の楽曲候補区間、 50 補正処理後のラベル、 51a、51b、51c 補正処理後の楽曲候補区間、 52 補正処理後のラベル、 53a、53b、53c、53d 補正処理後の楽曲候補区間、 54 検出処理後のラベル、 55a、55b、55c、55d 楽曲区間、 60 検出処理後のラベル、 61a、61b、61c 第一の楽曲区間、 71 ビデオデコーダ、 72 ヒストグラム生成器、 73 ヒストグラムバッファA、 74 ヒストグラムバッファB、 75 差異判定部、 80 音声レベル検出部、 85 シーンチェンジのラベル、 86 シーンチェンジの有無(縦軸)、 87 会話の区切り目のラベル、 88 会話の区切りの有無(縦軸)、 90 ルートディレクトリ、 91 マルチメディアディレクトリ、 92 メタデータディレクトリ、 93 情報管理ファイル、 94 マルチメディアデータファイル、 95 バックアップファイル、 96 メタデータファイル、 100 検出処理後のラベル、 101a、101b、101c 第二の楽曲区間、 110 検出処理後のラベル、 111a、111b、111c 第二の楽曲区間、 130 メタデータ、 131a メタデータ管理情報、 131b 番組メタデータ情報サーチポインタ、 131c 番組メタデータ情報、 132a メタデータ一般情報、 132b 楽曲マップ情報、 133a 楽曲マップ一般情報、 133b 楽曲エントリ、 134a 楽曲開始時刻情報、 134b 楽曲終了時刻情報、 300 デジタル信号、 301 デマルチプレクサ、 302 映像データ、 303 音声データ、 310 読込/書込ドライブ、 400 差異量のグラフ、 405 ラベルのグラフ、 407 補正処理後のラベルのグラフ、 500 補正処理後のラベルのグラフ、 502 補正処理後のラベルのグラフ、 504 検出処理後のラベルのグラフ、 600 検出処理後のラベルのグラフ、 700 シーンチェンジのラベルのグラフ、 800 会話の区切りのラベルのグラフ、 1000 検出処理後のラベルのグラフ、 1100 検出処理後のラベルのグラフ。

Claims (12)

  1. 音声信号と映像信号とを含むデータを入力するデータ入力ステップと、
    各々異なる基準に基づいて、前記音声信号から、前記入力データの楽曲候補区間を検出する複数の楽曲候補区間検出ステップと、
    前記音声信号の特徴の変化、および/または映像信号の特徴の変化に基づいて、前記入力データの変化点を検出する変化点検出ステップと、
    前記検出された複数の楽曲候補区間と、前記検出された入力データの変化点とに基づいて、楽曲区間を検出する楽曲区間検出ステップと
    を備える楽曲区間検出方法。
  2. 前記入力データの変化点は、
    前記映像信号の変化に基づくシーンチェンジであること
    を特徴とする請求項1に記載の楽曲区間検出方法。
  3. 前記入力データの変化点は、
    前記音声信号のエネルギーが所定値以下となる個所であること
    を特徴とする請求項1に記載の楽曲区間検出方法。
  4. 前記楽曲区間検出ステップは、
    前記検出された複数の楽曲候補区間に基づいて、第1の楽曲区間を検出する第1の楽曲区間検出ステップと、
    前記検出された入力データの変化点と、前記検出された第1の楽曲区間とに基づいて、第2の楽曲区間を検出する第2の楽曲区間検出ステップと
    を備える請求項1に記載の楽曲区間検出方法。
  5. 前記第2の楽曲区間検出ステップは、
    前記検出された入力データの変化点に基づいて、前記第1の楽曲区間の始点、および/または終点を変更する
    請求項4に記載の楽曲区間検出方法。
  6. 各々異なる基準に基づいて、音声信号と映像信号とを含む入力データの前記音声信号から、前記入力データの楽曲候補区間を検出する複数の楽曲候補区間検出部と、
    前記音声信号の特徴の変化、および/または映像信号の特徴の変化に基づいて、前記入力データの変化点を検出する変化点検出部と、
    前記検出された複数の楽曲候補区間と、前記入力データの変化点とに基づいて、楽曲区間を検出する楽曲区間検出部と
    を備える楽曲区間検出装置。
  7. 前記入力データの変化点は、
    前記映像信号の変化に基づくシーンチェンジであること
    を特徴とする請求項6に記載の楽曲区間検出装置。
  8. 前記入力データの変化点は、
    前記音声信号のエネルギーが所定値以下となる個所であること
    を特徴とする請求項6に記載の楽曲区間検出装置。
  9. 前記楽曲区間検出ステップは、
    前記検出された複数の楽曲候補区間に基づいて、第1の楽曲区間を検出する第1の楽曲区間検出部と、
    前記検出された入力データの変化点と、前記検出された第1の楽曲区間とに基づいて、第2の楽曲区間を検出する第2の楽曲区間検出部と
    を備える請求項6に記載の楽曲区間検出装置。
  10. 前記第2の楽曲区間検出部は、
    前記検出された入力データの変化点に基づいて、前記第1の楽曲区間の始点、および/または終点を変更する
    請求項9に記載の楽曲区間検出装置。
  11. 請求項1から5のいずれか1項に記載の楽曲区間検出方法により検出された楽曲区間を含むデータを記録するデータ記録ステップを備え、
    前記データ記録ステップは、前記楽曲区間の時間情報を記録する
    データ記録方法。
  12. 請求項6から10のいずれか1項に記載の楽曲区間検出装置により検出された楽曲区間を含むデータを記録するデータ記録部を備え、
    前記データ記録部は、前記楽曲区間の時間情報を記録する
    データ記録装置。
JP2006132898A 2006-05-11 2006-05-11 楽曲区間検出方法、及びその装置、並びにデータ記録方法、及びその装置 Expired - Fee Related JP4442585B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2006132898A JP4442585B2 (ja) 2006-05-11 2006-05-11 楽曲区間検出方法、及びその装置、並びにデータ記録方法、及びその装置
US12/300,325 US8682132B2 (en) 2006-05-11 2007-01-09 Method and device for detecting music segment, and method and device for recording data
EP07706416.0A EP2017827B1 (en) 2006-05-11 2007-01-09 Music section detecting method and its device, data recording method, and its device
PCT/JP2007/050069 WO2007132569A1 (ja) 2006-05-11 2007-01-09 楽曲区間検出方法、及びその装置、並びにデータ記録方法、及びその装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006132898A JP4442585B2 (ja) 2006-05-11 2006-05-11 楽曲区間検出方法、及びその装置、並びにデータ記録方法、及びその装置

Publications (3)

Publication Number Publication Date
JP2007306327A true JP2007306327A (ja) 2007-11-22
JP2007306327A5 JP2007306327A5 (ja) 2008-08-21
JP4442585B2 JP4442585B2 (ja) 2010-03-31

Family

ID=38693670

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006132898A Expired - Fee Related JP4442585B2 (ja) 2006-05-11 2006-05-11 楽曲区間検出方法、及びその装置、並びにデータ記録方法、及びその装置

Country Status (4)

Country Link
US (1) US8682132B2 (ja)
EP (1) EP2017827B1 (ja)
JP (1) JP4442585B2 (ja)
WO (1) WO2007132569A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012037910A (ja) * 2011-11-07 2012-02-23 Toshiba Corp 音楽検出装置
WO2013183078A1 (ja) * 2012-06-04 2013-12-12 三菱電機株式会社 自動記録装置

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4398994B2 (ja) * 2007-04-27 2010-01-13 株式会社東芝 映像処理装置及び方法
JP5091806B2 (ja) * 2008-09-01 2012-12-05 株式会社東芝 映像処理装置及びその方法
US9459768B2 (en) 2012-12-12 2016-10-04 Smule, Inc. Audiovisual capture and sharing framework with coordinated user-selectable audio and video effects filters
US10381022B1 (en) * 2015-12-23 2019-08-13 Google Llc Audio classifier
US10764643B2 (en) 2016-06-15 2020-09-01 Opentv, Inc. Context driven content rewind
US10599702B2 (en) * 2017-10-05 2020-03-24 Audible Magic Corporation Temporal fraction with use of content identification
US11755758B1 (en) * 2017-10-30 2023-09-12 Amazon Technologies, Inc. System and method for evaluating data files
US11544806B2 (en) 2019-02-27 2023-01-03 Audible Magic Corporation Aggregated media rights platform
CN111641863A (zh) * 2019-03-01 2020-09-08 深圳Tcl新技术有限公司 一种环绕声的播放控制方法、系统、装置及存储介质
CN113345470B (zh) * 2021-06-17 2022-10-18 青岛聚看云科技有限公司 一种k歌内容审核方法、显示设备及服务器

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5794194A (en) 1989-11-28 1998-08-11 Kabushiki Kaisha Toshiba Word spotting in a variable noise level environment
KR940001861B1 (ko) 1991-04-12 1994-03-09 삼성전자 주식회사 오디오 대역신호의 음성/음악 판별장치
EP0517233B1 (en) 1991-06-06 1996-10-30 Matsushita Electric Industrial Co., Ltd. Music/voice discriminating apparatus
JPH08265660A (ja) 1995-03-20 1996-10-11 Nippon Telegr & Teleph Corp <Ntt> 音楽管理方法および装置
JPH099199A (ja) 1995-06-19 1997-01-10 Sony Corp 映像信号記録/再生装置
US5712953A (en) 1995-06-28 1998-01-27 Electronic Data Systems Corporation System and method for classification of audio or audio/video signals based on musical content
JPH09284704A (ja) 1996-04-15 1997-10-31 Sony Corp 映像信号選択装置及びダイジェスト記録装置
US6525255B1 (en) 1996-11-20 2003-02-25 Yamaha Corporation Sound signal analyzing device
JP3669129B2 (ja) 1996-11-20 2005-07-06 ヤマハ株式会社 音信号分析装置及び方法
JP3475317B2 (ja) 1996-12-20 2003-12-08 日本電信電話株式会社 映像分類方法および装置
JPH1155613A (ja) * 1997-07-30 1999-02-26 Hitachi Ltd 記録および/または再生装置およびこれに用いられる記録媒体
JP3434195B2 (ja) 1998-03-18 2003-08-04 日本電信電話株式会社 音楽映像管理方法、装置および音楽映像管理プログラムを記録した記録媒体
JP2000099069A (ja) 1998-09-24 2000-04-07 Sony Corp 情報信号処理方法及び装置
JP4300697B2 (ja) 2000-04-24 2009-07-22 ソニー株式会社 信号処理装置及び方法
JP4596196B2 (ja) 2000-08-02 2010-12-08 ソニー株式会社 ディジタル信号処理方法、学習方法及びそれらの装置並びにプログラム格納媒体
US6625600B2 (en) 2001-04-12 2003-09-23 Telelogue, Inc. Method and apparatus for automatically processing a user's communication
JP2002344852A (ja) 2001-05-14 2002-11-29 Sony Corp 情報信号処理装置および情報信号処理方法
JP2003099083A (ja) 2001-09-25 2003-04-04 Nippon Hoso Kyokai <Nhk> 音声認識装置
US7386217B2 (en) * 2001-12-14 2008-06-10 Hewlett-Packard Development Company, L.P. Indexing video by detecting speech and music in audio
KR100472904B1 (ko) 2002-02-20 2005-03-08 안호성 음악 부분을 자동으로 선별해 저장하는 디지털 음악 재생장치 및 그 방법
KR100880480B1 (ko) 2002-02-21 2009-01-28 엘지전자 주식회사 디지털 오디오 신호의 실시간 음악/음성 식별 방법 및시스템
JP2003298981A (ja) 2002-04-03 2003-10-17 Oojisu Soken:Kk 要約画像作成装置、要約画像作成方法、要約画像作成プログラム、及び要約画像作成プログラムを記憶したコンピュータ読取可能な記憶媒体
JP4086532B2 (ja) 2002-04-16 2008-05-14 キヤノン株式会社 動画再生装置、動画再生方法及びそのコンピュータ・プログラム
US7286749B2 (en) 2002-04-16 2007-10-23 Canon Kabushiki Kaisha Moving image playback apparatus, moving image playback method, and computer program thereof with determining of first voice period which represents a human utterance period and second voice period other than the first voice period
JP4109065B2 (ja) 2002-09-27 2008-06-25 クラリオン株式会社 記録再生装置、記録装置、それらの制御方法、制御プログラム及び記録媒体
CN1726489A (zh) 2002-10-28 2006-01-25 格雷斯诺特有限公司 个人音频录制系统
US7031915B2 (en) 2003-01-23 2006-04-18 Aurilab Llc Assisted speech recognition by dual search acceleration technique
US7336890B2 (en) 2003-02-19 2008-02-26 Microsoft Corporation Automatic detection and segmentation of music videos in an audio/video stream
US20040167767A1 (en) 2003-02-25 2004-08-26 Ziyou Xiong Method and system for extracting sports highlights from audio signals
US20050154987A1 (en) 2004-01-14 2005-07-14 Isao Otsuka System and method for recording and reproducing multimedia
EP1708101B1 (en) 2004-01-14 2014-06-25 Mitsubishi Denki Kabushiki Kaisha Summarizing reproduction device and summarizing reproduction method
US20060149693A1 (en) 2005-01-04 2006-07-06 Isao Otsuka Enhanced classification using training data refinement and classifier updating
US20060212297A1 (en) 2005-03-18 2006-09-21 International Business Machines Corporation System and method using blind change detection for audio segmentation
JP2006301134A (ja) 2005-04-19 2006-11-02 Hitachi Ltd 音楽検出装置、音楽検出方法及び録音再生装置
GB2465917B (en) * 2005-05-03 2010-08-04 Codemasters Software Co Rhythm action game apparatus and method
JP4201204B2 (ja) 2005-05-26 2008-12-24 Kddi株式会社 オーディオ情報分類装置
KR100749045B1 (ko) 2006-01-26 2007-08-13 삼성전자주식회사 음악 내용 요약본을 이용한 유사곡 검색 방법 및 그 장치

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012037910A (ja) * 2011-11-07 2012-02-23 Toshiba Corp 音楽検出装置
WO2013183078A1 (ja) * 2012-06-04 2013-12-12 三菱電機株式会社 自動記録装置
CN104350545A (zh) * 2012-06-04 2015-02-11 三菱电机株式会社 自动记录装置

Also Published As

Publication number Publication date
EP2017827A1 (en) 2009-01-21
US20100232765A1 (en) 2010-09-16
JP4442585B2 (ja) 2010-03-31
US8682132B2 (en) 2014-03-25
EP2017827B1 (en) 2017-10-11
WO2007132569A1 (ja) 2007-11-22
EP2017827A4 (en) 2015-11-11

Similar Documents

Publication Publication Date Title
JP4321518B2 (ja) 楽曲区間検出方法、及びその装置、並びにデータ記録方法、及びその装置
JP4442585B2 (ja) 楽曲区間検出方法、及びその装置、並びにデータ記録方法、及びその装置
JP4081120B2 (ja) 記録装置、記録再生装置
JPWO2005069172A1 (ja) 要約再生装置および要約再生方法
KR20060027826A (ko) 비디오 처리장치, 비디오 처리장치용 집적회로, 비디오처리방법, 및 비디오 처리 프로그램
US20070168188A1 (en) Time-scale modification method for digital audio signal and digital audio/video signal, and variable speed reproducing method of digital television signal by using the same method
JP4491700B2 (ja) 音響検索処理方法、音響情報検索装置、音響情報蓄積方法、音響情報蓄積装置および音響映像検索処理方法、音響映像情報検索装置、音響映像情報蓄積方法、音響映像情報蓄積装置
JP2007049515A (ja) 映像音声記録装置
JP4259500B2 (ja) 映像音声記録装置
JP4432823B2 (ja) 特定条件区間検出装置および特定条件区間検出方法
JP4743228B2 (ja) デジタル音声信号解析方法、その装置、及び映像音声記録装置
JP2006270233A (ja) 信号処理方法及び信号記録再生装置
JP2009100427A (ja) 映像音声記録装置
JP2008020767A (ja) 記録再生装置および方法、プログラム、並びに記録媒体
WO2010125776A1 (ja) デジタル信号再生装置及びデジタル信号圧縮装置
JP2010074823A (ja) 録画編集装置
JP2008124551A (ja) ダイジェスト作成装置
JP2008047203A (ja) 楽曲結合装置、楽曲結合方法、及び楽曲結合プログラム
JP2008262000A (ja) オーディオ信号特徴検出装置及び特徴検出方法
JP4422538B2 (ja) 音付映像の再生装置
JPH11317058A (ja) 再生装置及び記録再生装置
JP5132789B2 (ja) 動画像符号化装置及び方法
JP4984948B2 (ja) 番組記録再生装置
JP2005223794A (ja) 映像音響コンテンツの記録装置及び方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091222

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100104

R151 Written notification of patent or utility model registration

Ref document number: 4442585

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130122

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130122

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees