JP2004356682A - Contents recording system and method, information processing apparatus and method, recording apparatus and method, program, and recording medium - Google Patents

Contents recording system and method, information processing apparatus and method, recording apparatus and method, program, and recording medium Download PDF

Info

Publication number
JP2004356682A
JP2004356682A JP2003148513A JP2003148513A JP2004356682A JP 2004356682 A JP2004356682 A JP 2004356682A JP 2003148513 A JP2003148513 A JP 2003148513A JP 2003148513 A JP2003148513 A JP 2003148513A JP 2004356682 A JP2004356682 A JP 2004356682A
Authority
JP
Japan
Prior art keywords
program
jingle
data
recording
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003148513A
Other languages
Japanese (ja)
Inventor
Yasunori Oto
康紀 大戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003148513A priority Critical patent/JP2004356682A/en
Publication of JP2004356682A publication Critical patent/JP2004356682A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To surely achieve video recording of a desired program even when a broadcast time of the program is changed. <P>SOLUTION: In a recording apparatus, a program reservation section 91 reserves a program on the basis of a jingle attached program guide 73, a jingle monitor section 92 monitors a jingle in a broadcast signal and a video recording section 93 stores the program into a storage section 94 on the basis of the detected jingle. A desired program is selected from among stored programs and a reproduction section 95 reproduces the desired program. The recording apparatus or the like is applicable to hard disk recorders. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、コンテンツ記録システムおよび方法、情報処理装置および方法、記録装置および方法、プログラム、並びに記録媒体に関し、特に、番組の放送時刻が変更されても、所望の番組を確実に録画できるようにするコンテンツ記録システムおよび方法、情報処理装置および方法、記録装置および方法、プログラム、並びに記録媒体に関する。
【0002】
【従来の技術】
従来、テレビ番組(コンテンツ)などの録画を行う場合、放送局から提供される番組表を用いて、所望の番組の放送開始時刻と放送終了時刻を調査して、記録装置に記録開始時刻と記録終了時刻を指定することにより記録を行っていた。
【0003】
図1は、従来の番組記録処理の流れを説明するフローチャートである。ステップS1において、記録装置は、番組表を表示する。番組表は、図2に示されるように構成されており、番組が放送される日付を表す情報21、番組が放送される放送局(チャネル)を現す情報11、番組の放送開始時刻を表す情報14、および番組タイトルを表す情報13により構成されている。
【0004】
例えば、番組13を録画するとき、ユーザは、図3に示されるような記録予約情報を作成し、記録装置にセットする。図3には、番組13が放送されるチャネルを表す情報11、記録開始時刻を表す情報14、および記録終了時刻を表す情報15が設定されている。このようにすることで、図4Aに示されるように2003年1月23日(木曜日)の16時から17時に放送された番組13が記録される。
【0005】
また、放送される番組のメタデータを事前に取得し、取得されたメタデータに基づいて、番組の録画の開始または終了を行う技術が提案されている(例えば、特許文献1参照)。
【0006】
【特許文献1】
特開2003−061023号公報
【0007】
【発明が解決しようとする課題】
しかしながら、放送局の都合などにより番組の放送開始時刻または放送終了時刻が、番組表の記載と異なる場合がある。図14Bは、番組13の前に放送される番組21の放送時間が延長され、番組13の放送開始時刻と放送終了時刻が変更された例を示している。図14Cは番組13の放送時間が延長され、番組13の放送開始時刻と放送終了時刻が変更された例を示している。図4Dは、番組13の放送日、放送開始時刻、および放送終了時刻が変更された例を示している。
【0008】
従来の技術では、図14B乃至図14Dに示されるように録画対象となる番組の放送日、放送開始時刻、または放送終了時刻が変更された場合、所望の番組を確実に録画できないという課題があった。
【0009】
本発明はこのような状況に鑑みてなされたものであり、番組の放送時刻(日時)が変更されても、所望の番組を確実に録画できるようにするものである。
【0010】
【課題を解決するための手段】
本発明のコンテンツ記録システムは、ネットワークを介して相互に接続される記録装置と情報処理装置からなるコンテンツ記録システムであって、情報処理装置は、放送された番組の映像または音声のデータと、番組の放送時刻を表す番組表データを取得し、前記映像または音声のデータと前記番組表データに基づいて、番組の区切点を表すジングルのジングルデータを作成し、番組表データにジングルデータを付与し、ジングルデータが付与された番組表データを、ネットワークを介して記録装置に提供し、記録装置は、ジングルデータが付与された番組表データを取得し、ジングルデータが付与された番組表データに基づいて、番組の録画予約を設定し、放送される番組の映像または音声のデータを解析し、録画予約が設定された番組の開始または終了を特定するジングルを抽出し、抽出されたジングルに基づいて、番組の録画を開始または終了し、録画された番組をデータベースに記憶することを特徴とする。
【0011】
本発明のコンテンツ記録方法は、ネットワークを介して相互に接続される記録装置からなるコンテンツ記録システムのコンテンツ記録方法であって、情報処理装置は、放送された番組の映像または音声のデータと、番組の放送時刻を表す番組表データを取得し、映像または音声のデータと番組表データに基づいて、番組の区切点を表すジングルのジングルデータを作成し、番組表データにジングルデータを付与し、ジングルデータが付与された番組表データを、ネットワークを介して記録装置に提供し、記録装置は、ジングルデータが付与された番組表データを取得し、ジングルデータが付与された番組表データに基づいて、番組の録画予約を設定し、放送される番組の映像または音声のデータを解析し、録画予約が設定された番組の開始または終了を特定するジングルを抽出し、抽出されたジングルに基づいて、番組の録画を開始または終了し、録画された番組をデータベースに記憶することを特徴とする。
【0012】
本発明のコンテンツ記録システムおよび方法においては、情報処理装置により、放送された番組の映像または音声のデータと、番組の放送時刻を表す番組表データが取得され、映像または音声のデータと番組表データに基づいて、番組の区切点を表すジングルのジングルデータが作成され、番組表データにジングルデータが付与され、ジングルデータが付与された番組表データが、ネットワークを介して記録装置に提供される。また、記録装置により、ジングルデータが付与された番組表データが取得され、ジングルデータが付与された番組表データに基づいて、番組の録画予約が設定され、放送される番組の映像または音声のデータが解析され、録画予約が設定された番組の開始または終了を特定するジングルが抽出され、抽出されたジングルに基づいて、番組の録画が開始または終了され、録画された番組がデータベースに記憶される。
【0013】
本発明の情報処理装置は、ネットワークを介して記録装置と接続され、放送された番組の映像または音声のデータと、番組の放送時刻を表す番組表データを取得し、映像または音声のデータと番組表データに基づいて、番組の区切点を表すジングルのジングルデータを作成する情報処理装置であって、映像または音声のデータに含まれるジングルを抽出し、抽出されたジングルのジングルデータを作成する作成手段と、ジングルデータを番組表に付与する付与手段とを備え、ジングルデータが付与された番組表を、ネットワークを介して記録装置に提供することを特徴とする。
【0014】
前記作成手段により作成されたジングルデータに基づいて、番組の開始または終了を特定するジングルのパターンを生成する生成手段をさらに備え、付与手段は、パターンを番組表に付与するようにすることができる。
【0015】
前記ジングルデータは、ジングルの音声データの特徴を表す、音響成分および音声成分と、ジングルの映像データの特徴を表す、映像成分と、音響成分、音声成分、および映像成分の重要度を表す重み情報と、音響成分、音声成分、および映像成分に基づいて、ジングルを特定するために必要な閾値とを有するようにすることができる。
【0016】
音響成分および音声成分は、ジングルの音声データの周波数成分に基づいて生成され、映像成分は、ジングルの映像データの周波数成分に基づいて生成されるようにすることができる。
【0017】
本発明の情報処理方法は、ネットワークを介して記録装置と接続され、放送された番組の映像または音声のデータと、番組の放送時刻を表す番組表データを取得し、映像または音声のデータと番組表データに基づいて、番組の区切点を表すジングルのジングルデータを作成する情報処理装置の情報処理方法であって、映像または音声のデータに含まれるジングルを抽出し、抽出されたジングルのジングルデータを作成する作成ステップと、ジングルデータを番組表に付与する付与ステップとを含み、ジングルデータが付与された番組表を、ネットワークを介して記録装置に提供することを特徴とする。
【0018】
本発明の第1のプログラムは、ネットワークを介して記録装置と接続され、放送された番組の映像または音声のデータと、番組の放送時刻を表す番組表データを取得し、映像または音声のデータと番組表データに基づいて、番組の区切点を表すジングルのジングルデータを作成する情報処理装置のプログラムであって、映像または音声のデータに含まれるジングルを抽出し、抽出されたジングルのジングルデータの作成を制御する作成制御ステップと、ジングルデータを番組表に付与するように制御する付与制御ステップとをコンピュータに実行させることを特徴とする。
【0019】
本発明の第1の記録媒体は、ネットワークを介して記録装置と接続され、放送された番組の映像または音声のデータと、番組の放送時刻を表す番組表データを取得し、映像または音声のデータと番組表データに基づいて、番組の区切点を表すジングルのジングルデータを作成する情報処理装置のプログラムが記録される記録媒体であって、映像または音声のデータに含まれるジングルを抽出し、抽出されたジングルのジングルデータの作成を制御する作成制御ステップと、ジングルデータを番組表に付与するように制御する付与制御ステップとをコンピュータに実行させるプログラムが記録されることを特徴とする。
【0020】
本発明の情報処理装置および方法、並びに第1のプログラムにおいては、映像または音声のデータに含まれるジングルが抽出され、抽出されたジングルのジングルデータが作成され、ジングルデータが番組表に付与され、ジングルデータが付与された番組表が、ネットワークを介して記録装置に提供される。
【0021】
本発明の記録装置は、ネットワークを介して情報処理装置と接続され、放送される番組を記録する記録装置であって、情報処理装置から番組の区切点を表すジングルのジングルデータが付与された番組表データを取得し、ジングルデータが付与された番組表データに基づいて、番組の録画予約を設定する予約手段と、放送される番組の映像または音声のデータを解析し、録画予約が設定された番組の開始または終了を特定するジングルを抽出する抽出手段と、抽出されたジングルに基づいて、番組の録画を開始または終了し、録画された番組のうち不要な部分を削除し、保存すべき部分を特定する録画手段と、録画手段により特定された保存すべき部分をデータベースとして記憶する記憶手段とを備えることを特徴とする。
【0022】
ユーザの指示に基づいて、記憶手段によりデータベースに記憶された番組を再生する再生手段をさらに備えるようにすることができる。
【0023】
前記抽出手段は、番組の開始を特定するジングルまたはジングルのパターンを検出する開始検出手段と、番組の終了を特定するジングルまたはジングルのパターンを検出する終了検出手段とを備えるようにすることができる。
【0024】
前記抽出手段は、番組の映像または音声のデータの特徴量を算出し、観測値を演算する観測値演算手段と、観測値演算手段により演算された観測値と、情報処理装置から取得されたジングルデータを比較し、観測値とジングルデータの近似性を表す近似評価値を演算する評価値演算手段とをさらに備えるようにすることができる。
【0025】
前記観測値演算手段は、番組の音声データの周波数成分に基づいて、観測値の音響成分と音声成分を演算し、番組の映像データの周波数成分に基づいて、観測値の映像成分を演算するようにすることができる。
【0026】
前記評価値演算手段は、ジングルデータの音響成分と観測値の音響成分を比較して音響評価値を演算し、ジングルデータの音声成分と観測値の音声成分を比較して音声評価値を演算し、ジングルデータの映像成分と観測値の映像成分を比較して映像評価値を演算し、音響評価値、音声評価値、および映像評価値に対してジングルデータに含まれる重みを付加し、重みが付加された音響評価値、音声評価値、および映像評価値に基づいて、近似評価値を演算するようにすることができる。
【0027】
前記抽出手段は、近似評価値とジングルデータに含まれる閾値を比較し、比較の結果に基づいて、番組の開始または終了を特定するジングルを抽出するようにすることができる。
【0028】
前記録画手段は、録画予約が設定された番組に番組の開始または終了を特定するジングルまたはパターンがあるか否かを判定する判定手段を備え、判定手段により、録画予約が設定された番組の開始または終了を特定するジングルまたはパターンがないと判定された場合、番組と時間的に連続する番組の開始または終了を特定するジングルまたはジングルのパターンに基づいて、録画予約が設定された番組のうち保存すべき部分を特定し、判定手段により、録画予約が設定された番組の開始または終了を特定するジングルまたはパターンがあると判定された場合、ジングルまたはパターンに基づいて、番組のうち保存すべき部分を特定するようにすることができる。
【0029】
本発明の記録方法は、ネットワークを介して情報処理装置と接続され、放送される番組を記録する記録装置の記録方法であって、情報処理装置から番組の区切点を表すジングルのジングルデータが付与された番組表データを取得し、ジングルデータが付与された番組表データに基づいて、番組の録画予約を設定する予約ステップと、放送される番組の映像または音声のデータを解析し、録画予約が設定された番組の開始または終了を特定するジングルを抽出し、抽出されたジングルに基づいて、番組の録画を開始または終了する抽出ステップと、録画された番組のうち不要な部分を削除し、保存すべき部分を特定する録画ステップとを含むことを特徴とする。
【0030】
本発明の第2のプログラムは、ネットワークを介して情報処理装置と接続され、放送される番組を記録する記録装置のプログラムであって、情報処理装置から番組の区切点を表すジングルのジングルデータが付与された番組表データを取得し、ジングルデータが付与された番組表データに基づいて、番組の録画予約の設定を制御する予約制御ステップと、放送される番組の映像または音声のデータを解析し、録画予約が設定された番組の開始または終了を特定するジングルを抽出し、抽出されたジングルに基づいて、番組の録画の開始または終了を制御する抽出制御ステップと、録画された番組のうち不要な部分を削除し、保存すべき部分を特定するように制御する録画制御ステップとをコンピュータに実行させることを特徴とする。
【0031】
本発明の第2の記録媒体は、ネットワークを介して情報処理装置と接続され、放送される番組を記録する記録装置のプログラムが記録される記録媒体であって、情報処理装置から番組の区切点を表すジングルのジングルデータが付与された番組表データを取得し、ジングルデータが付与された番組表データに基づいて、番組の録画予約の設定を制御する予約制御ステップと、放送される番組の映像または音声のデータを解析し、録画予約が設定された前記番組の開始または終了を特定するジングルを抽出し、抽出されたジングルに基づいて、番組の録画の開始または終了を制御する抽出制御ステップと、録画された番組のうち不要な部分を削除し、保存すべき部分を特定するように制御する録画制御ステップとをコンピュータに実行させるプログラムが記録されることを特徴とする。
【0032】
本発明の記録装置および方法、並びに第2のプログラムにおいては、情報処理装置から番組の区切点を表すジングルのジングルデータが付与された番組表データが取得され、ジングルデータが付与された番組表データに基づいて、番組の録画予約が設定され、放送される番組の映像または音声のデータが解析され、録画予約が設定された番組の開始または終了を特定するジングルが抽出され、抽出されたジングルに基づいて、番組の録画を開始または終了され、録画された番組のうち不要な部分が削除され、保存すべき部分が特定される。
【0033】
【発明の実施の形態】
以下に本発明の実施の形態を説明するが、請求項に記載の構成要件と、発明の実施の形態における具体例との対応関係を例示すると、次のようになる。この記載は、請求項に記載されている発明をサポートする具体例が、発明の実施の形態に記載されていることを確認するためのものである。従って、発明の実施の形態中には記載されているが、構成要件に対応するものとして、ここには記載されていない具体例があったとしても、そのことは、その具体例が、その構成要件に対応するものではないことを意味するものではない。逆に、具体例が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その具体例が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。
【0034】
さらに、この記載は、発明の実施の形態に記載されている具体例に対応する発明が、請求項に全て記載されていることを意味するものではない。換言すれば、この記載は、発明の実施の形態に記載されている具体例に対応する発明であって、この出願の請求項には記載されていない発明の存在、すなわち、将来、分割出願されたり、補正により追加される発明の存在を否定するものではない。
【0035】
請求項1に記載のコンテンツ記録システムは、ネットワークを介して相互に接続される記録装置(例えば、図5の記録装置52)と情報処理装置(例えば、図5のサーバ51)からなるコンテンツ記録システム(例えば、図5のコンテンツ記録システム41)であって、前記情報処理装置は、放送された番組の映像または音声のデータと、番組の放送時刻を表す番組表データ(例えば、図5の番組表53)を取得し、前記映像または音声のデータと前記番組表データに基づいて、番組の区切点を表すジングルのジングルデータを作成し(例えば、図7のステップS31)、前記番組表データに前記ジングルデータを付与し(例えば、図7のステップS33)、前記ジングルデータが付与された番組表データ(例えば、図5のジングル付番組表73)を、前記ネットワークを介して前記記録装置に提供し、前記記録装置は、前記ジングルデータが付与された番組表データを取得し、前記ジングルデータが付与された番組表データに基づいて、番組の録画予約を設定し(例えば、図15のステップS94)、放送される番組の映像または音声のデータを解析し、録画予約が設定された前記番組の開始または終了を特定するジングルを抽出し(例えば、図15のステップS95またはS96)、抽出されたジングルに基づいて、前記番組の録画を開始または終了し(例えば、図15のステップS135、または図31のステップS155)、録画された前記番組をデータベースに記憶することを特徴とする。
【0036】
請求項3に記載の情報処理装置は、ネットワークを介して記録装置と接続され、放送された番組の映像または音声のデータと、番組の放送時刻を表す番組表データを取得し、前記映像または音声のデータと前記番組表データに基づいて、番組の区切点を表すジングルのジングルデータを作成する情報処理装置であって、前記映像または音声のデータに含まれるジングルを抽出し、抽出された前記ジングルのジングルデータを作成する作成手段(例えば、図6の自動抽出部114)と、前記ジングルデータを前記番組表に付与する付与手段(例えば、図5のジングル付与部71)とを備え、前記ジングルデータが付与された前記番組表を、前記ネットワークを介して前記記録装置に提供することを特徴とする。
【0037】
請求項4に記載の情報処理装置は、前記作成手段により作成されたジングルデータに基づいて、番組の開始または終了を特定するジングルのパターンを生成する生成手段(例えば、図6の手動調整部112)をさらに備え、前記付与手段は、前記パターンを前記番組表に付与することを特徴とする。
【0038】
請求項7に記載の情報処理方法は、ネットワークを介して記録装置と接続され、放送された番組の映像または音声のデータと、番組の放送時刻を表す番組表データを取得し、前記映像または音声のデータと前記番組表データに基づいて、番組の区切点を表すジングルのジングルデータを作成する情報処理装置の情報処理方法であって、前記映像または音声のデータに含まれるジングルを抽出し、抽出された前記ジングルのジングルデータを作成する作成ステップ(例えば、図7のステップS31)と、前記ジングルデータを前記番組表に付与する付与ステップ(例えば、図7のステップS33)とを含み、前記ジングルデータが付与された前記番組表を、前記ネットワークを介して前記記録装置に提供することを特徴とする。
【0039】
請求項8に記載のプログラムは、ネットワークを介して記録装置と接続され、放送された番組の映像または音声のデータと、番組の放送時刻を表す番組表データを取得し、前記映像または音声のデータと前記番組表データに基づいて、番組の区切点を表すジングルのジングルデータを作成する情報処理装置のプログラムであって、前記映像または音声のデータに含まれるジングルを抽出し、抽出された前記ジングルのジングルデータの作成を制御する作成制御ステップ(例えば、図7のステップS31)と、前記ジングルデータを前記番組表に付与するように制御する付与制御ステップ(例えば、図7のステップS33)とをコンピュータに実行させることを特徴とする。
【0040】
請求項9に記載の記録媒体は、ネットワークを介して記録装置と接続され、放送された番組の映像または音声のデータと、番組の放送時刻を表す番組表データを取得し、前記映像または音声のデータと前記番組表データに基づいて、番組の区切点を表すジングルのジングルデータを作成する情報処理装置のプログラムが記録される記録媒体であって、前記映像または音声のデータに含まれるジングルを抽出し、抽出された前記ジングルのジングルデータの作成を制御する作成制御ステップ(例えば、図7のステップS31)と、前記ジングルデータを前記番組表に付与するように制御する付与制御ステップ(例えば、図7のステップS33)とをコンピュータに実行させるプログラムが記録されることを特徴とする。
【0041】
請求項10に記載の記録装置は、ネットワークを介して情報処理装置と接続され、放送される番組を記録する記録装置であって、前記情報処理装置から番組の区切点を表すジングルのジングルデータが付与された番組表データを取得し、前記ジングルデータが付与された番組表データに基づいて、番組の録画予約を設定する予約手段(例えば、図5の番組予約部91)と、放送される番組の映像または音声のデータを解析し、録画予約が設定された前記番組の開始または終了を特定するジングルを抽出する抽出手段(例えば、図5のジングルモニタ部92)と、抽出されたジングルに基づいて、前記番組の録画を開始または終了し、録画された前記番組のうち不要な部分を削除し、保存すべき部分を特定する録画手段(例えば、図5の録画部93)と、前記録画手段により特定された前記保存すべき部分をデータベースとして記憶する記憶手段(例えば、図5の記憶94)と、を備えることを特徴とする。
【0042】
請求項11に記載の記録装置は、ユーザの指示に基づいて、前記記憶手段により前記データベースに記憶された前記番組を再生する再生手段(例えば、図5の再生部95)をさらに備えることを特徴とする。
【0043】
請求項12に記載の記録装置は、前記抽出手段が、前記番組の開始を特定するジングルまたはジングルのパターンを検出する開始検出手段(例えば、図15のステップS95の処理を実行する図5のジングルモニタ部92)と、前記番組の終了を特定するジングルまたはジングルのパターンを検出する終了検出手段(例えば、図15のステップS96の処理を実行する図5のジングルモニタ部92)とを備えることを特徴とする。
【0044】
請求項13に記載の記録装置は、前記抽出手段が、前記番組の映像または音声のデータの特徴量を算出し、観測値を演算する観測値演算手段(例えば、図18の観測値演算部401)と、前記観測値演算手段により演算された観測値と、前記情報処理装置から取得されたジングルデータを比較し、前記観測値と前記ジングルデータの近似性を表す近似評価値を演算する評価値演算手段(例えば、図18の評価値演算部402)とをさらに備えることを特徴とする。
【0045】
請求項17に記載の記録装置は、前記録画手段が、録画予約が設定された前記番組に番組の開始または終了を特定する前記ジングルまたは前記パターンがあるか否かを判定する判定手段(例えば、図33のステップS171の処理を実行する図5の録画部93)を備え、前記判定手段により、録画予約が設定された前記番組の開始または終了を特定する前記ジングルまたは前記パターンがないと判定された場合、前記番組と時間的に連続する番組の開始または終了を特定するジングルまたはジングルのパターンに基づいて、録画予約が設定された番組のうち保存すべき部分を特定し、前記判定手段により、録画予約が設定された前記番組の開始または終了を特定する前記ジングルまたは前記パターンがあると判定された場合、前記ジングルまたは前記パターンに基づいて、前記番組のうち保存すべき部分を特定することを特徴とする。
【0046】
請求項18に記載の記録方法は、ネットワークを介して情報処理装置と接続され、放送される番組を記録する記録装置の記録方法であって、前記情報処理装置から番組の区切点を表すジングルのジングルデータが付与された番組表データを取得し、前記ジングルデータが付与された番組表データに基づいて、番組の録画予約を設定する予約ステップ(例えば、図15のステップS94)と、放送される番組の映像または音声のデータを解析し、録画予約が設定された前記番組の開始または終了を特定するジングルを抽出し、抽出されたジングルに基づいて、前記番組の録画を開始または終了する抽出ステップ(例えば、図15のステップS95、またはS96)と、録画された前記番組のうち不要な部分を削除し、保存すべき部分を特定する録画ステップ(例えば、図15のステップS97)とを含むことを特徴とする。
【0047】
請求項19に記載のプログラムは、ネットワークを介して情報処理装置と接続され、放送される番組を記録する記録装置のプログラムであって、前記情報処理装置から番組の区切点を表すジングルのジングルデータが付与された番組表データを取得し、前記ジングルデータが付与された番組表データに基づいて、番組の録画予約の設定を制御する予約制御ステップ(例えば、図15のステップS94)と、放送される番組の映像または音声のデータを解析し、録画予約が設定された前記番組の開始または終了を特定するジングルを抽出し、抽出されたジングルに基づいて、前記番組の録画の開始または終了を制御する抽出制御ステップ(例えば、図15のステップS95、またはS96)と、録画された前記番組のうち不要な部分を削除し、保存すべき部分を特定するように制御する録画制御ステップ(例えば、図15のステップS97)とをコンピュータに実行させることを特徴とする。
【0048】
請求項20に記載の記録媒体は、ネットワークを介して情報処理装置と接続され、放送される番組を記録する記録装置のプログラムが記録される記録媒体であって、前記情報処理装置から番組の区切点を表すジングルのジングルデータが付与された番組表データを取得し、前記ジングルデータが付与された番組表データに基づいて、番組の録画予約の設定を制御する予約制御ステップ(例えば、図15のステップS94)と、放送される番組の映像または音声のデータを解析し、録画予約が設定された前記番組の開始または終了を特定するジングルを抽出し、抽出されたジングルに基づいて、前記番組の録画の開始または終了を制御する抽出制御ステップ(例えば、図15のステップS95、またはS96)と、録画された前記番組のうち不要な部分を削除し、保存すべき部分を特定するように制御する録画制御ステップ(例えば、図15のステップS97)とをコンピュータに実行させるプログラムが記録されることを特徴とする。
【0049】
以下、図面を参照して、本発明の実施の形態について説明する。図5は、本発明を適用したコンテンツ記録システム41の構成例を示す図である。この構成例においては、インターネットなどに代表されるネットワーク55を介してサーバ51と記録装置52が接続されている。
【0050】
サーバ51には、ジングルデータを作成するジングル作成部74とジングル作成部74により作成されたジングルデータを蓄積するジングルDB72が設けられている。ジングルは、テレビ番組またはラジオ番組の中で、番組のオープニング、エンディング、または番組内のコーナーのオープニングで用いられる特定の画像または音楽フレーズ、あるいはマルチメディアコンテンツ内の情報を区切るために用いられる短い音楽やポーズである。
【0051】
また、番組表53を取得し、取得された番組表にジングルデータを付与して、ジングル付番組表73を作成するジングル付与部71が設けられており、ジングル付番組表73は、ネットワーク55を介して記録装置52に提供される。番組表53は、例えば、ネットワーク55を介して別のサーバから取得されるようにしてもよいし、オンエアされた放送が受信され、放送番組本体を構成する映像データおよび音声データと、この放送番組本体に付随するデータに分解され、後者に含まれるEPG(Electronic Program Guide)が番組表53として取得されるようにしてもよい。
【0052】
記録装置52には、ネットワーク55を介して、サーバ51からジングル付番組表73を取得し、取得されたジングル付番組表73に基づいて、ユーザによる番組の録画予約の設定を受け付ける番組予約部91が設けられている。また、受信された放送信号の中から所定のジングルを検出するジングルモニタ部92と受信された放送信号の中の所定の番組を録画する録画部93が設けられている。
【0053】
番組予約部91は、ジングル付番組表73に基づいて、ユーザに番組表を表示し、ユーザは記録すべき番組を指定する。放送局54により放送された放送信号は、記録装置52の図示せぬアンテナなどにより受信され、さらに、ジングルモニタ部92と録画部93に供給される。ジングルモニタ部92は、番組予約部91により録画予約が設定された番組の開始と終了を特定するジングルを検出し、録画部92は、ジングルモニタ部92により特定されたジングルに基づいて、放送信号をA/D変換し、番組データを録画する。
【0054】
さらに、録画部93により録画された番組のデータを記憶する記憶部94が設けられている。記憶部94は、例えば、HDD(Hard Disk Drive)などにより構成される。また、ユーザの指示に基づいて、記憶部94に記憶された所定の番組のデータを再生する再生部95が設けられている。
【0055】
図6は、図5のジングル作成部74の構成例を示すブロック図である。ジングル作成部74には、放送局54により放送された放送信号をA/D変換し、放送された番組のデータを蓄積する放送スプール部111、および取得された番組表のデータを蓄積する番組表スプール部113が設けられている。また、ジングルデータを作成する自動抽出部114と手動調整部112が設けられている。放送スプール部111および番組表スプール部113に蓄積された放送された番組のデータおよび番組表のデータは、自動抽出部114と手動調整部112にそれぞれ供給される。自動抽出部114と手動調整部112は、放送された番組のデータおよび番組表のデータに基づいて、ジングルデータを作成し、ジングルDB72に記憶させる。
【0056】
次に、図7を参照して、ジングル作成部74のジングルデータ作成処理について説明する。ステップS31において、自動抽出部114は、図8を参照して後述する自動抽出処理を実行する。ステップS32において、手動調整部112は、図9を参照して後述する手動調整処理を実行する。これにより、放送された番組のデータの中からジングルが特定され、ジンルデータとして記憶される。ステップS33において、ジングル付与部71は、記憶されたジングルデータを番組表53に付与し、ジングル付番組表73を生成する。
【0057】
次に、図8を参照して、図7のステップS31の自動抽出処理について説明する。ステップS51において、自動抽出部114は、既知ジングルを抽出する。このとき、放送された番組のデータのうち、既にジングルDB72に記憶されていたジングルデータに対応するジングルの部分が抽出される。ステップS52において、自動抽出部114は、ステップS51で抽出されたジングルの部分以外の領域を調査対象領域として設定する。
【0058】
ステップS53において、自動抽出部114は、調査対象領域に対する自己相関を行うことによりジングルを抽出する。ステップS54において、自動抽出部114は、ジングルが抽出されたか否かを判定し、ジングルが抽出されなかったと判定された場合、処理は終了される。
【0059】
一方、ステップS54において、ジングルが抽出されたと判定された場合、ステップS55に進みジングルの画像マスクを推定する。なお、画像マスクについては、図27を参照して後述する。ステップS56において、自動抽出部114は、ジングルデータを構成する成分の重みを推定し、ステップS57において閾値を推定する。なお、成分の重みと閾値については、図20を参照して後述する。
【0060】
ステップS58において、自動抽出部114は、ステップS53で抽出されたジングルのジングルデータを新規ジングルとしてジングルDB72に記憶する。このとき、図10に示されるようなジングルデータが記憶される。
【0061】
図10は、ジングルデータの構成例を示す図であり、ジングルデータには、ステップS57において推定された閾値201、そのジングルデータのデータ長を表す情報であるジングル長202が含まれている。また、そのジングルの音響成分204、音声成分205、および映像成分206、並びにステップS56において推定された各成分の重み203−1乃至203−3が含まれている。
【0062】
ステップS59において、自動抽出部114は、ステップ58において新規ジングルとして記憶されたジングルをステップS52において設定された調査対象領域から抽出し、ステップS52に戻り、それ以降の処理を繰り返し実行する。
【0063】
このようにして、ジングルが自動的に抽出される。
【0064】
次に、図9を参照して、図7のステップS32の手動抽出処理について説明する。この処理は、例えば、ユーザが、図示せぬモニタなどを用いて番組データを参照しながら実行される。
【0065】
ステップS71において、手動調整部112は、放送された番組のデータを再生し、モニタに表示させる。ステップS72において、手動調整部112は、ユーザから番組特定部位の指定を受け付け、その部位をジングルとして抽出する。ステップS73において、手動調整部112は、ジングルを認識するためのデータの指定を受け付ける。このとき例えば、ジングルの画像マスク、ジングルデータを構成する成分の重み、閾値などが指定され、ジングルデータが作成される。ステップS74において、手動調整部112は、番組特定ジングルパターンの入力を受け付ける。
【0066】
ここで、図11と図12を参照して、番組とジングルの関係について説明する。図11は、順番に放送された番組Aと番組Bを時間軸上に示した図である。図中格子模様で示された部分241と242、および図中斜線で示された部分243と244がジングルである。ジングル242とジングル243は、番組Aと番組Bに跨って存在するジングルであり、例えば、CMや番組案内などと考えられる。本発明においては、このようなジングルをスペーサジングルと称する。
【0067】
一方ジングル241は、番組Aの中だけに存在するジングルであり、ジングル244は、番組Bの中だけに存在するジングルであり、番組の中のコーナーのオープニングなどと考えられる。本発明においては、このようなジングルを番組内構造化識別用ジングルと称する。
【0068】
図12は、番組内構造化識別用ジングルの例を示す図である。図12は、シリーズとして放送される番組Cの第1回目223−1と第2回目223−2を時間軸上に示した図である。同図に示されるように、番組Cはジングル261とジングル262により区切られたコーナー、図中左側のジングル262と図中右側のジングル262により区切られたコーナー、ジングル262とジングル263により区切られたコーナー、およびジングル263とジングル264により区切られたコーナーの4つのコーナーに階層化されていることが分かる。なお、番組内構造化識別用ジングルには、ジングル262のように、1つの番組内で複数回使用されるものもある。
【0069】
図13は、番組の開始端を時間軸上に表した例を示す図である。図13Aは、その番組の開始を表す開始ジングル281が放送された後、番組が放送される例を示している。このような場合、番組を録画するとき、開始ジングル281以後を番組内容として認識する必要がある。
【0070】
図13Bは、開始ジングル281が放送される前に、番組の先頭部分301が放送される例を示している。このような場合、番組を録画するとき、番組の先頭部分301以後を番組内容として認識する必要がある。
【0071】
図13Cは、スペーサジングル282が放送された後、番組の先頭部分301が放送され、その後開始ジングル281が放送される例を示している。このような場合、番組を録画するとき、番組の先頭部分301以後を番組内容として認識する必要がある。
【0072】
図13Dは、スペーサジングル282が放送される前に、番組の先頭部分302が放送され、スペーサジングルが放送された後、番組の別の部分303が放送され、その後開始ジングル281が放送される例を示している。このような場合、番組を録画するとき、番組の先頭部分302以後を番組内容として認識する必要がある。
【0073】
図13Eは、番組スペーサジングル283が放送された後、番組の先頭部分304が放送され、その後再びスペーサジングル282が放送され、その後番組の別の部分305が放送され、その後開始ジングル281が放送される例を示している。このような場合、番組を録画するとき、番組の先頭部分304以後を番組内容として認識する必要がある。
【0074】
図14は、番組の終了端の例を示す図である。図14Aは、その番組の終了を表す終了ジングル321が放送され、番組が終了される例を示している。このような場合、番組を録画するとき、終了ジングル321以前を番組内容として認識する必要がある。
【0075】
図14Bは、終了ジングル321が放送された後、番組の最後の部分341が放送され、番組が終了される例を示している。このような場合、番組を録画するとき、番組の最後の部分341以前を番組内容として認識する必要がある。
【0076】
図14Cは、終了ジングル321が放送された後、番組の最後の部分341が放送され、その後スペーサジングル322が放送される例を示している。このような場合、番組を録画するとき、番組の最後の部分341以前を番組内容として認識する必要がある。
【0077】
図14Dは、終了ジングル321が放送された後、番組の一部分342が放送され、その後スペーサジングル322が放送され、その後番組の最後の部分343が放送され、番組が終了される例を示している。このような場合、番組を録画するとき、番組の最後の部分343以前を番組内容として認識する必要がある。
【0078】
図14Eは、終了ジングル321が放送された後、番組の一部分344が放送され、その後スペーサジングル322が放送され、その後番組の最後の部分345が放送され、その後スペーサジングル323が放送される例を示している。このような場合、番組を録画するとき、番組の最後の部分345以前を番組内容として認識する必要がある。
【0079】
図9のステップS74では、番組毎に、図13および図14に示されるような、番組の開始ジングルパターンおよび終了ジングルパターンが、その番組の番組特定ジングルパターンとして指定され、指定されたジングルパターンがジングルDB72に記憶される。
【0080】
このようにして、ジングルデータおよびジングルパターンが記憶される。
【0081】
次に、図15を参照して、記録装置52の番組記録処理について説明する。ステップS94において、番組予約部91は、図16を参照して後述する番組予約処理を実行する。これにより、録画すべき番組が指定される。
【0082】
ステップS95において、ジングルモニタ部92は、図17を参照して後述する開始ジングルパターンモニタ処理を実行する。これにより、番組の開始位置が特定され、番組の記録が開始される。ステップS96において、ジングルモニタ部92は、図31を参照して後述する終了ジングルパターンモニタ処理を実行する。これにより、番組の終了位置が特定され、番組の記録が終了される。
【0083】
ステップS97において、録画部93は、図33を参照して後述する保存部分特定処理を実行する。これにより、記録されたデータのうち不要な部分が削除され、保存すべき部分が特定され、録画予約された番組のデータとして記憶部94に記憶される。
【0084】
このようにして、番組が録画される。
【0085】
次に、図16を参照して、図15のステップS94の番組予約処理について説明する。ステップS111において、番組予約部91は、記録装置52の図示せぬモニタに番組表を表示する。ステップS112において、番組予約部91は、録画対象番組の指定を受け付ける。録画対象番組の指定は、例えば、ユーザが、表示された番組表に基づいて、記録装置52の図示せぬ入力部を操作することにより行われる。ステップS113において、番組予約部91は、ネットワーク55を介してサーバ51から録画対象番組として指定された番組を特定するジングルのジングルデータを取得する。
【0086】
このようにして、番組の録画予約が行われる。
【0087】
次に、図17を参照して、図15のステップS95の開始ジングルパターンモニタ処理について説明する。この処理は、ジングルモニタ部92により実行される。図18は、ジングルモニタ部92の詳細な構成例を示すブロック図である。この例では、放送信号の中からジングルを抽出し、抽出されたジングルの音声または映像の特徴量を表す観測値を演算する観測値演算部401が設けられている。
【0088】
また、観測値演算部401で演算された観測値と、ネットワーク55を介してサーバ51から取得されたジングルデータを比較し、観測値とジングルデータとの近似性を表す近似評価値を演算する評価値演算部402が設けられている。
【0089】
さらに、各部を制御する制御部403が設けられており、観測値演算部401、および評価値演算部402と、バス404を介して相互に接続されている。
【0090】
図17に戻って、ステップS131において、観測値演算部401は、放送信号の中からジングル指定部分を抽出し、観測値を演算する。このとき、観測値の演算は、次のようにして行われる。
【0091】
図19は、このときの処理の流れを示す図である。放送信号451の中から所定のジングル指定部分が抽出され、観測値演算部401の音響抽出部411と映像抽出部421に供給される。
【0092】
このとき、音響抽出部411は、放送信号の中の音声信号を抽出し、周波数フィルタ412に出力する。図21は、このとき出力される音声信号の例を示す図である。この例では、縦軸に出力、横軸に時間が示され、音声信号が波形として示されている。
【0093】
映像抽出部421は、放送信号の中の映像信号を抽出し、輝度分離部422に出力する。図26は、このとき出力される映像信号の例を示す図である。この映像信号は図26A乃至Cのフレームで構成され、図27に示される映像信号551の中の一部分552に対応する。
【0094】
図19に戻って、周波数フィルタ412は、入力された音声信号をバンドパスフィルタを通して音声域と、音声以外の音響域に分離し、音響域の信号を周波数スペクトル生成部413に出力し、音声域の信号を周波数スペクトル生成部414に出力する。図22は、このとき用いられるバンドパスフィルタの例を示す図である。この例においては、横軸に周波数が示され、縦軸に透過率が示されている。
【0095】
輝度分離部422は、映像信号の輝度情報に対して、例えば図27に示されるマスク553を作用させ、フレームセル生成部423に出力する。マスク553は、図中濃い色で表示されるマスク部分571と、図中白く表示される透過部分572により構成されている。
【0096】
図19に戻って、周波数スペクトル生成部413は、音響域の信号の周波数スペクトルに変換し、その周波数スペクトルをメッシュ分解して観測値の音響成分471を生成する。周波数スペクトル生成部414は、音声域の信号の周波数スペクトルに変換し、その周波数スペクトルをメッシュ分解して観測値の音声成分472を生成する。
【0097】
このとき、生成される周波数スペクトルの例を図23に示す。この例では、横軸に時間、縦軸に周波数が示され、周波数スペクトルが図中淡い色で表示されている。そして、図23に示される周波数スペクトルが図24に示されるように、所定の時間(t1,t2,t3,・・・tn)と、所定の周波数(f1,f2,f3,・・・fm)でメッシュ分解され、図25に示されるような観測値の音響成分(または音声成分)が生成される。図25は、観測値の音響成分(または音声成分)の構成例を示す図であり、時間t1,t2,・・・tnにおける周波数の値f1,f2,・・・fnが、データ数と時間または周波数の間隔を表す刻み幅とともに記述されている。
【0098】
図19に戻って、フレームセル生成部423は、輝度分離部422から出力された信号にDFT(Descreate Fourier Transform:離散フーリエ変換)を行い、図27に示されるような周波数成分573をフレーム単位に取得し、その周波数成分をメッシュ分解して観測値の映像成分473を生成する。このとき生成される観測値の映像成分の構成例を図28に示す。この例では、フレーム単位のメッシュ化された周波数成分573−1乃至573−nの値が、この映像信号のフレーム数、メッシュ分解するときに用いられた縦セル数、横セル数、および刻み幅とともに記述されている。また、図27のマスク553に関するマスク情報が記述されている。
【0099】
このようにして、観測値が演算される。
【0100】
図17に戻って、ステップS132において、評価値演算部402は、評価値を演算する。評価値の演算は次のようにして行われる。図20は、評価値演算部402の詳細な構成例を示すブロック図である。評価値演算部402の音響評価部431は、観測値502の音響成分471とジングルデータ501の音響成分491を比較し、音響成分の評価値を演算する。
【0101】
このとき、図29に示されるようにジングルデータの音響成分491の中から時間t1に対応する周波数成分(f1,f2,・・・fm)が抽出され、所定の重み(a1,a2,・・・am)で重み付けされてベクトルt1(a1・f1,a2・f2,・・・an・fm)が生成される。同様に観測値の音響成分471の時間r1に対応する周波数成分(f’1,f’2,・・・f’m)が抽出され、やはり所定の重み(a1,a2,・・・am)で重み付けされてベクトルr1(a1・f’1,a2・f’2,・・・an・f’m)が生成される。なお、図29では、ベクトルt1とr1が3次元のベクトルとして表示されているが実際には、m次元のベクトルとなる。
【0102】
同様に、ジングルデータの音響成分491の中から時間t2,t3,・・・tnに対応する周波数成分が抽出され、所定の重みで重み付けされ、ベクトルt2,t3,・・・tnが生成され、観測値の音響成分471の時間r2,r3,・・・rnに対応する周波数成分が抽出され、所定の重みで重み付けされ、ベクトルr2,r3,・・・rnが生成される。
【0103】
音響評価部431は、図29に示されるベクトルt1とr1がなす角度601、ベクトルt2とr2がなす角度、・・・ベクトルtnとrnがなす角度の総和を求めて音響成分の評価値を演算する。各ベクトル間の角度の総和は、次式により求められる。
【0104】
【数1】

Figure 2004356682
【0105】
また、音響成分の評価値は、ベクトルt1とr1の距離602、ベクトルt2のr2距離、・・・ベクトルtnとrnの距離の総和により演算されるようにしてもよい。各ベクトル間の距離の総和は、次式により求められる。
【0106】
【数2】
Figure 2004356682
【0107】
図20に戻って、音響評価部431は、音響成分の評価値に所定の重み(w1)を乗じて評価値決定部434に出力される。
【0108】
音声評価部432においても、音響評価部431と同様の処理が行われ、音声成分の評価値が求められ、音声成分の評価値に所定の重み(w2)が乗じられ評価値決定部434に出力される。
【0109】
映像評価部433は、観測値502の映像成分473とジングルデータ501の映像成分493を比較し、映像成分の評価値を演算する。このとき図30に示されるようにジングルデータの映像成分473の中からフレームt1に対応する周波数成分が抽出され、所定の重みで重み付けされてベクトルt1が生成される。同様に、観測値の映像成分473のフレームr1に対応する周波数成分が抽出され、やはり所定の重みで重み付けされてベクトルr1が生成される。この例ではベクトルt1とr1はそれぞれ12次元のベクトルとされる。なお、図30では、ベクトルt1とr1が3次元のベクトルとして表示されているが実際には、12次元のベクトルとなる。
【0110】
同様に、ジングルデータの映像成分493の中からフレームt2,t3,・・・tnに対応する周波数成分が抽出され、所定の重みで重み付けされ、ベクトルt2,t3,・・・tnが生成され、観測値の音響成分473のフレームr2,r3,・・・rnに対応する周波数成分が抽出され、所定の重みで重み付けされ、ベクトルr2,r3,・・・rnが生成される。
【0111】
映像評価部433は、図30に示されるベクトルt1とr1がなす角度621、ベクトルt2とr2がなす角度、・・・ベクトルtnとrnがなす角度の総和を求めて映像成分の評価値を演算する。また、映像成分の評価値は、ベクトルt1とr1の距離622、ベクトルt2のr2距離、・・・ベクトルtnとrnの距離の総和により演算されるようにしてもよい。
【0112】
図20に戻って、映像評価部433は、映像成分の評価値に所定の重み(w3)を乗じて、評価値決定部434に出力する。
【0113】
なお、上述した重みw1乃至w3は、ジングルデータに記述された重み(図10の203−1乃至203−3)に基づいて、決定される。
【0114】
評価値決定部434は、音響評価部431、音声評価部432、および映像評価部433の出力値を足し合わせて近似評価値を決定する。なお、近似評価値は、音響評価部431、音声評価部432、および映像評価部433の出力値の平均値として決定されるようにしてもよい。近似評価値は、小さいほど、観測値とジングルデータの近似性は高くなる。
【0115】
図17に戻って、ステップS133において、評価値演算部402は、近似評価値が閾値より小さいか否かを判定する。なお、閾値は、ジングルデータに記述された閾値(図10の201)に基づいて決定される。ステップS133において、近似評価値は閾値より小さいと判定された場合、ステップS134に進み、評価値演算部402は、制御部403に開始ジングル発見を通知する。そして、ステップS135において、制御部403は、録画部93に録画を開始させる。
【0116】
ステップS133において、近似評価値は閾値より小さくないと判定された場合、処理は、ステップS131に戻る。
【0117】
このようにして、録画が開始される。このようにすることで、録画の開始は、番組を特定するジングルを発見することにより開始されるようになるので、番組の放送日時が変更されても、例えば、放送開始時刻が番組表に記載の時刻と異なるように変更されても、所望の番組が記録されるようにすることができる。
【0118】
次に図31を参照して、図15のステップS96の終了ジングルパターンモニタ処理について説明する。ステップS151乃至S153の処理は、図17のステップS131乃至133の処理と同様の処理なので、詳細な説明は省略する。
【0119】
ステップS153において、近似評価値は閾値より小さいと判定された場合、ステップS154に進み、評価値演算部402は、制御部403に終了ジングル発見を通知する。そして、ステップS155において、制御部403は、録画部93に録画を終了させる。
【0120】
ステップS153において、近似評価値は閾値より小さくないと判定された場合、処理は、ステップS151に戻る。
【0121】
このようにして、録画が終了される。このようにすることで、録画の終了は、番組を特定するジングルを発見することにより終了されるようになるので、番組の放送日時が変更されても、例えば、放送終了時刻が番組表に記載の時刻と異なるように変更されても、所望の番組が記録されるようにすることができる。
【0122】
以上においては、番組の開始ジングルと終了ジングルに基づいて、番組の録画の開始と終了が行われる例について説明したが、図13と図14を参照して、上述した番組の開始パターンと番組の終了パターンに基づいて、番組の録画の開始と終了が行われるようにすることもできる。
【0123】
また、録画対象となる番組が、番組開始または終了を特定するためのジングルを持っていない場合も考えられる。この場合、録画対象となる番組に隣接する番組、すなわち録画対象となる番組と時間的に連続する番組の開始または終了を特定するジングルに基づいて、番組の録画を開始または終了させることができる。
【0124】
図32A乃至Cは、録画対象となる番組642、番組642の(時間的に)前番組641、および番組642の(時間的に)後番組643を時間軸上に表した例を示す図である。
【0125】
図32Aは、録画対象となる番組642に開始ジングル652が存在し、終了ジングルが存在せず、録画対象となる番組642の後番組643に開始ジングル653が存在する場合の例を示している。この場合、記録装置52は、番組642の開始ジングル652に基づいた、番組開始パターン672を特定し、録画開始位置640−1を設定し、番組643の開始ジングル653に基づいた、番組開始パターン673を特定し、記録終了位置640−2を設定する。
【0126】
図32Bは録画対象となる番組642に開始ジングル652が存在し、終了ジングルが存在せず、番組642の前番組641に終了ジングルが存在し、番組642の後番組643に開始ジングル653が存在する場合の例を示している。この場合、記録装置52は、番組641の終了ジングル651に基づく、番組終了パターン671を特定し、さらに番組642の開始ジングル652に基づいた、番組開始パターン672を特定し、録画開始位置640−1を設定する。このような場合、図32Aと比較して、より正確に番組の開始位置を設定することができる。記録終了位置640−2は図32Aの場合と同様に設定される。
【0127】
図32Cは録画対象となる番組642に開始ジングルと終了ジングルが存在しない場合の例を示している。この場合、記録装置52は、番組641の終了ジングル651に基づいた、番組終了パターン671を特定し、録画開始位置640−1を設定し、番組643の開始ジングル653に基づいた、番組開始パターン673を特定し、記録終了位置640−2を設定する。
【0128】
このようにすることで、録画対象となる番組に、番組の開始または終了を特定するジングルが存在しない場合であっても、所望の番組を正確に録画することができる。
【0129】
勿論、番組表に記載された時刻に基づいて記録開始位置と記録終了位置を設定することも可能である。
【0130】
次に図33を参照して、図15のステップS97の保存部分特定処理について説明する。ステップS171において、録画部93は、録画対象番組に、その番組を特定するジングルパターンがあるか否かを判定する。
【0131】
ステップS171において、録画対象番組に、その番組を特定するジングルパターンがあると判定された場合、ステップS172に進み、録画部93は、対象番組のジングルパターンを用いて番組の端処理、すなわち番組の開始点と終了点を、より正確に特定し、不要な部分を削除する処理を行う。
【0132】
このとき、例えば、ユーザが、記録装置52の図示せぬ入力部を操作して、図34に示されるような端処理コマンドが入力される。また、録画された番組が解析され、自動的に端処理コマンドが入力されるようにしてもよい。図34は、番組開始位置が、その番組の開始ジングル721の1つ前のスペーサジングルの後であり、その番組の終了位置が、その番組の終了ジングル722の1つ後のスペーサジングルの前であることを表している。
【0133】
図35は、端処理が行われる録画対象番組700、番組700の前番組701、および番組700の後番組702の構成を時間軸上に表す図である。図35Aには、録画対象番組700の開始ジングル721と終了ジングル722が示されている。前番組701には終了ジングル723と、複数のスペーサジングルで構成されるスペーサジングル群725が示されている。また、後番組702の開始ジングル724と、複数のスペーサジングルで構成されるスペーサジングル群726が示されている。
【0134】
例えば、記録装置52が、図17を参照して上述した開始ジングルパターンモニタ処理において、前番組701の終了ジングル723を検出することにより番組の記録を開始し、図31を参照して上述した終了ジングルパターンモニタ処理において、後番組702の開始ジングル724を検出することにより、番組の記録を終了していた場合、図35Bに示す記録範囲700−1が一旦、記憶部94に記憶される。
【0135】
しかし、図34を参照して上述したように、録画対象番組700の番組開始位置は、その番組の開始ジングル721の1つ前のスペーサジングルの後であり、番組の終了位置は、その番組の終了ジングル722の1つ後のスペーサジングルの前であるので、記録部93は、ジングルモニタ部92に、図35Cに示されるように、開始ジングル721の1つ前のスペーサジングル725−1と、終了ジングル722の1つ後のスペーサジングル726−1を検出させる。そして、図35Dに示した、記録範囲の先頭部分727と終了部分728は、不要部分として削除され、保存部分700−2が特定される。
【0136】
図33に戻って、ステップS171において、録画対象番組に、その番組を特定するジングルパターンがないと判定された場合、ステップS173に進み、録画部93は、対象番組の隣接番組のジングルパターンを用いて番組の端処理を行う。
【0137】
このとき、例えば、ユーザが、記録装置52の図示せぬ入力部を操作して、図36に示されるような端処理コマンドが入力される。また、録画された番組が解析され、自動的に端処理コマンドが入力されるようにしてもよい。図36は、図34と異なり、録画対象番組に、番組開始位置を表すジングルパターン、および番組終了位置を表すジングルパターンがないことを表している。
【0138】
図37は、端処理が行われる録画対象番組750、番組750の前番組751、および番組750の後番組752の構成を時間軸上に表す図である。図37Aにおいて、前番組751には終了ジングル771と、複数のスペーサジングルで構成されるスペーサジングル群773が示されている。また、後番組752の開始ジングル772と、複数のスペーサジングルで構成されるスペーサジングル群774が示されている。
【0139】
例えば、記録装置52が、図17を参照して上述した開始ジングルパターンモニタ処理において、前番組751の終了ジングル771を検出することにより番組の記録を開始し、図31を参照して上述した終了ジングルパターンモニタ処理において、後番組752の開始ジングル772を検出することにより、番組の記録を終了していた場合、図35Bに示す記録範囲750−1が一旦、記憶部94に記憶される。
【0140】
その後、記録部93は、ジングルモニタ部92に、図37Cに示されるように、前番組751の終了ジングル771の後のスペーサジングル群773の先頭のスペーサジングル773−1、および後番組開始ジングル772の前のスペーサジングル群774の最後のスペーサジングル774−1を検出させ、終了ジングル771とスペーサジングル773−1で挟まれた部分751−1を不要部分とし、開始ジングル772とスペーサジングル774−1で挟まれた部分(この場合は、開始ジングル772のみ)を不要部分とし、それぞれの不要部分を削除する。
【0141】
さらに、記録部93は、ジングルモニタ部92に、図37Dに示されるように、スペーサジングル群773の最後のスペーサジングル773−2、および後番組開始ジングル772の前のスペーサジングル群774の先頭のスペーサジングル774−2を検出させ、スペーサジングル群773と774を不要部分として削除する。そして、保存部分750−2が特定される。
【0142】
図33にもどって、ステップS174において、記録部93は、ステップS172またはS173において特定された保存部分を保存する。
【0143】
このようにして、録画された番組の保存部分が特定される。番組の開始位置と終了位置は、番組の開始ジングルまたは終了ジングルと、スペーサジングルを組み合わせて、特定され、不要な部分が削除されるので、所望の番組を正確に録画し保存することができる。さらに、録画対象番組にその番組を特定するジングルパターンがない場合でも、隣接する番組のジングルパターンを用いて、所望の番組を正確に録画し保存することができる。
【0144】
このように、記録装置52により録画(保存)された番組は、例えば、番組の放送日毎に分類され、記憶部94にデータベースとして記憶される。ユーザは、記録装置52の図示せぬ入力部を操作することにより、再生部95を制御して保存された番組を再生することができる。
【0145】
このとき、番組を再生するためのGUI(Graphical User Interface)として、例えば、記録装置52に接続されるテレビジョン受像機のモニタに図38に示されるような画面が表示される。図38右側には、記憶部94に保存されている番組を日付毎に一覧表示する番組履歴表示部800が表示されている。ユーザは、番組履歴表示部800に示された日付の中から所望の日付を選択し、所定のコマンドを投入することにより番組を再生する。また、このとき選択された日付において録画された番組の一覧が階層化されて表示されるようにしてもよい。
【0146】
再生が指示された番組は、番組表示部803に表示される。また、ボタン801または802を操作することにより、番組を早送りしたり、巻き戻したりすることができる。
【0147】
このようにして、録画された番組の中から、ユーザが所望する番組が再生される。
【0148】
なお、上述した一連の処理をハードウェアで実現するか、ソフトウェアで実現するかは問わない。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば図39に示されるような汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。
【0149】
図39において、CPU(Central Processing Unit)901は、ROM(Read Only Memory)902に記憶されているプログラム、または記憶部908からRAM(Random Access Memory)903にロードされたプログラムに従って各種の処理を実行する。RAM903にはまた、CPU901が各種の処理を実行する上において必要なデータなども適宜記憶される。
【0150】
CPU901、ROM902、およびRAM903は、バス904を介して相互に接続されている。このバス904にはまた、入出力インタフェース905も接続されている。
【0151】
入出力インタフェース905には、キーボード、マウスなどよりなる入力部906、CRT(Cathode Ray Tube)、LCD(Liquid Crystal display)などよりなるディスプレイ(表示部)、並びにスピーカなどよりなる出力部907、ハードディスクなどより構成される記憶部908、モデム、ターミナルアダプタなどより構成される通信部909が接続されている。通信部909は、インターネットなどのネットワークを介しての通信処理を行う。
【0152】
入出力インタフェース905にはまた、必要に応じてドライブ910が接続され、ドライブ910には、本発明のプログラムが記録された記録媒体として、例えば、リムーバブルメディア911が装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部908にインストールされる。
【0153】
なお、本明細書において上述した一連の処理を実行するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
【0154】
【発明の効果】
以上の如く本発明によれば、番組の放送時刻が変更されても、所望の番組を確実に録画できるようにすることができる。
【図面の簡単な説明】
【図1】従来の記録装置による番組記録処理を説明するフローチャートである。
【図2】番組表の構成例を示す図である。
【図3】従来の記録装置において設定される情報の例を示す図である。
【図4】録画対象番組の放送時刻の変更の例を示す図である。
【図5】本発明のコンテンツ記録システムの構成例を示すブロック図である。
【図6】図5のジングル作成部の構成例を示すブロック図である。
【図7】ジングルデータ作成処理を説明するフローチャートである。
【図8】自動抽出処理を説明するフローチャートである。
【図9】手動抽出処理を説明するフローチャートである。
【図10】ジングルデータの構成例を示す図である。
【図11】番組とジングルの関係を示す図である。
【図12】番組内のジングルの構成例を示す図である。
【図13】番組の開始端の例を示す図である。
【図14】番組の終了端の例を示す図である。
【図15】番組録画処理を説明するフローチャートである。
【図16】番組予約処理を説明するフローチャートである。
【図17】開始ジングルパターンモニタ処理を説明するフローチャートである。
【図18】図5のジングルモニタ部の構成例を示すブロック図である。
【図19】図18の観測値演算部の構成例を示すブロック図である。
【図20】図18の評価値演算部の構成例を示すブロック図である。
【図21】ジングルの音声信号の波形の例を示す図である。
【図22】バンドパスフィルタにおける周波数と透過率の関係を示す図である。
【図23】周波数スペクトルに分解された音声信号の例を示す図である。
【図24】図23の周波数スペクトルスペクトルをメッシュ分解した例を示す図である。
【図25】観測値の音響成分または音声成分の構成例を示す図である。
【図26】ジングルの映像の例を示す図である。
【図27】図26の映像に作用させるマスクの例、および図26の映像を周波数成分に分解した例を示す図である。
【図28】観測値の映像成分の構成例を示す図である。
【図29】観測値とジングルデータの音響成分または音声成分をベクトル化する例を示す図である。
【図30】観測値とジングルデータの映像成分をベクトル化する例を示す図である。
【図31】終了ジングルパターンモニタ処理を説明するフローチャートである。
【図32】番組の記録開始位置と記録終了位置の例を示す図である。
【図33】保存部分特定処理を説明するフローチャートである。
【図34】番組開始位置と番組終了位置を指定するコマンドの例を示す図である。
【図35】録画対象番組の開始ジングルパターンと終了ジングルパターンを用いて番組の端処理を行う例を示す図である。
【図36】番組開始位置と番組終了位置を指定するコマンドの例を示す図である。
【図37】録画対象番組に隣接する番組の開始ジングルパターンと終了ジングルパターンを用いて番組の端処理を行う例を示す図である。
【図38】番組を再生するとき表示される画面の表示例を示す図である。
【図39】パーソナルコンピュータの構成例を示すブロック図である。
【符号の説明】
51 サーバ, 52 記録装置, 71 ジングル付与部, 72 ジングルDB, 74 ジングル作成部, 91 番組予約部, 92 ジングルモニタ部, 93 録画部, 94 記憶部, 95 再生部, 114 自動抽出部, 112 手動抽出部, 401 観測値演算部, 402 評価値演算部, 403 制御部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a content recording system and method, an information processing device and method, a recording device and method, a program, and a recording medium, and more particularly, to recording a desired program reliably even when the broadcast time of the program is changed. The present invention relates to a content recording system and method, an information processing device and method, a recording device and method, a program, and a recording medium.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, when recording a television program (content), a broadcast start time and a broadcast end time of a desired program are investigated using a program table provided from a broadcast station, and the recording start time and the recording time are recorded in a recording device. Recording was performed by specifying the end time.
[0003]
FIG. 1 is a flowchart illustrating the flow of a conventional program recording process. In step S1, the recording device displays a program guide. The program table is configured as shown in FIG. 2, and includes information 21 indicating a date when the program is broadcast, information 11 indicating a broadcast station (channel) where the program is broadcast, and information indicating a broadcast start time of the program. 14 and information 13 representing a program title.
[0004]
For example, when recording the program 13, the user creates recording reservation information as shown in FIG. 3 and sets it in the recording device. In FIG. 3, information 11 indicating a channel on which the program 13 is broadcast, information 14 indicating a recording start time, and information 15 indicating a recording end time are set. By doing so, the program 13 broadcasted from 16:00 to 17:00 on Thursday, January 23, 2003 is recorded as shown in FIG. 4A.
[0005]
In addition, a technique has been proposed in which metadata of a broadcasted program is acquired in advance, and recording or recording of the program is started or ended based on the acquired metadata (for example, see Patent Document 1).
[0006]
[Patent Document 1]
JP-A-2003-061023
[0007]
[Problems to be solved by the invention]
However, the broadcast start time or the broadcast end time of the program may be different from the description in the program table due to the circumstances of the broadcast station. FIG. 14B shows an example in which the broadcast time of the program 21 broadcast before the program 13 is extended, and the broadcast start time and the broadcast end time of the program 13 are changed. FIG. 14C shows an example in which the broadcast time of the program 13 is extended, and the broadcast start time and the broadcast end time of the program 13 are changed. FIG. 4D shows an example in which the broadcast date, broadcast start time, and broadcast end time of the program 13 are changed.
[0008]
In the related art, as shown in FIGS. 14B to 14D, when the broadcast date, broadcast start time, or broadcast end time of a program to be recorded is changed, there is a problem that a desired program cannot be reliably recorded. Was.
[0009]
The present invention has been made in view of such circumstances, and aims to reliably record a desired program even if the broadcast time (date and time) of the program is changed.
[0010]
[Means for Solving the Problems]
A content recording system according to the present invention is a content recording system including a recording device and an information processing device interconnected via a network, wherein the information processing device includes video or audio data of a broadcasted program, The program table data representing the broadcast time of the program is acquired, and jingle data of a jingle representing a break point of a program is created based on the video or audio data and the program table data, and jingle data is added to the program table data. Providing the program guide data to which the jingle data has been provided to the recording device via the network, the recording device acquires the program guide data to which the jingle data has been provided, and based on the program guide data to which the jingle data has been provided. To set a recording reservation for the program, analyze the video or audio data of the broadcasted program, and Extracting jingle to identify the start or end, based on the extracted jingle, the recording of the program starts or ends, and to store the recorded program in the database.
[0011]
A content recording method according to the present invention is a content recording method for a content recording system comprising recording devices connected to each other via a network, wherein the information processing device includes: The program table data indicating the broadcast time of the program is acquired, jingle data of a jingle indicating a break point of a program is created based on the video or audio data and the program table data, and jingle data is added to the program table data. The program table data to which the data has been provided is provided to the recording device via the network, the recording device acquires the program table data to which the jingle data has been provided, and based on the program table data to which the jingle data has been provided, Set the recording reservation of the program, analyze the video or audio data of the broadcasted program, and start the program with the recording reservation set. Extracts jingle identifying the ends, based on the extracted jingle, the recording of the program starts or ends, and to store the recorded program in the database.
[0012]
In the content recording system and method according to the present invention, the information processing apparatus acquires video or audio data of a broadcasted program and program guide data indicating a broadcast time of the program, and acquires the video or audio data and the program guide data. The jingle data of the jingle representing the break point of the program is created based on the jingle data, the jingle data is added to the program table data, and the program table data to which the jingle data is added is provided to the recording device via the network. In addition, the recording device acquires program table data to which jingle data is added, sets a recording reservation of the program based on the program table data to which jingle data is added, and stores video or audio data of a broadcast program. Is analyzed, a jingle that specifies the start or end of a program for which recording reservation has been set is extracted, recording of the program is started or ended based on the extracted jingle, and the recorded program is stored in a database. .
[0013]
An information processing apparatus according to the present invention is connected to a recording apparatus via a network, acquires video or audio data of a broadcasted program, and program table data indicating the broadcast time of the program, and stores the video or audio data and the program data. An information processing apparatus for creating jingle data of jingles representing breakpoints of a program based on table data, extracting jingles included in video or audio data and creating jingle data of the extracted jingles. Means for providing the jingle data to the program guide, and providing the program guide to which the jingle data is provided to the recording device via the network.
[0014]
The apparatus may further include a generation unit that generates a jingle pattern that specifies the start or end of the program based on the jingle data created by the creation unit, and the assigning unit may assign the pattern to a program table. .
[0015]
The jingle data includes audio components and audio components representing the characteristics of the audio data of the jingle, and weight information representing the importance of the video components, the audio component, the audio component, and the video component, representing the characteristics of the video data of the jingle. And a threshold necessary for specifying the jingle based on the audio component, the audio component, and the video component.
[0016]
The audio component and the audio component may be generated based on the frequency component of the jingle audio data, and the video component may be generated based on the frequency component of the jingle video data.
[0017]
The information processing method of the present invention is connected to a recording device via a network, acquires video or audio data of a broadcasted program, and program table data indicating a broadcast time of the program, and stores the video or audio data and the program data. An information processing method of an information processing apparatus for creating jingle data of a jingle representing a break point of a program based on table data, wherein the jingle included in video or audio data is extracted, and jingle data of the extracted jingle is extracted. And a providing step of providing jingle data to the program guide, wherein the program guide provided with the jingle data is provided to the recording device via a network.
[0018]
A first program of the present invention is connected to a recording device via a network, acquires video or audio data of a broadcasted program, and program guide data indicating a broadcast time of the program, and acquires video or audio data. A program of an information processing apparatus for creating jingle jingle data representing a break point of a program based on program table data, wherein the jingle included in video or audio data is extracted, and jingle data of the extracted jingle data is extracted. The present invention is characterized by causing a computer to execute a creation control step of controlling creation and an assignment control step of controlling to assign jingle data to a program guide.
[0019]
A first recording medium of the present invention is connected to a recording device via a network, acquires video or audio data of a broadcasted program, and program guide data representing a broadcast time of the program, and acquires video or audio data. And extracting a jingle included in video or audio data on a recording medium in which a program of an information processing device for creating jingle data of a jingle representing a break point of a program based on the program guide data is recorded. A program for causing a computer to execute a creation control step of controlling creation of jingle data of the selected jingle and an assignment control step of controlling assignment of jingle data to the program guide is recorded.
[0020]
In the information processing apparatus and method of the present invention, and in the first program, jingles included in video or audio data are extracted, jingle data of the extracted jingles is created, and jingle data is added to a program table. The program guide provided with the jingle data is provided to the recording device via the network.
[0021]
A recording device according to the present invention is a recording device that is connected to an information processing device via a network and records a broadcasted program, and is provided with a jingle jingle data representing a break point of the program from the information processing device. The table data is acquired, and based on the program table data to which the jingle data is added, the recording means for setting the recording reservation of the program and the video or audio data of the broadcast program are analyzed, and the recording reservation is set. Extraction means for extracting a jingle for specifying the start or end of a program, and start or end of recording of the program based on the extracted jingle, delete unnecessary portions of the recorded program, and save a portion to be saved And a storage unit for storing, as a database, a portion to be stored specified by the recording unit.
[0022]
A reproducing unit that reproduces a program stored in the database by the storage unit based on a user's instruction can be further provided.
[0023]
The extracting means may include a start detecting means for detecting a jingle or a jingle pattern for specifying the start of a program, and an end detecting means for detecting a jingle or a jingle pattern for specifying the end of the program. .
[0024]
The extraction means calculates an observation value by calculating a feature amount of video or audio data of a program, calculates an observation value, an observation value calculated by the observation value calculation means, and a jingle obtained from the information processing apparatus. Evaluation value calculation means for comparing data and calculating an approximate evaluation value representing the similarity between the observed value and the jingle data may be further provided.
[0025]
The observation value calculation means calculates an audio component and an audio component of the observation value based on the frequency component of the audio data of the program, and calculates the video component of the observation value based on the frequency component of the video data of the program. Can be
[0026]
The evaluation value calculating means calculates a sound evaluation value by comparing the sound component of the jingle data with the sound component of the observation value, and calculates a sound evaluation value by comparing the sound component of the jingle data with the sound component of the observation value. The video component of the jingle data is compared with the video component of the observation value to calculate the video evaluation value, and the weight included in the jingle data is added to the audio evaluation value, the audio evaluation value, and the video evaluation value, and the weight is calculated. An approximate evaluation value can be calculated based on the added sound evaluation value, sound evaluation value, and video evaluation value.
[0027]
The extracting means may compare the approximate evaluation value with a threshold value included in the jingle data, and extract a jingle for specifying the start or end of the program based on a result of the comparison.
[0028]
The recording means includes a judgment means for judging whether or not there is a jingle or a pattern for specifying the start or end of the program in the program for which the recording reservation has been set. Or, if it is determined that there is no jingle or pattern that specifies the end, save the program that has been set for recording reservation based on the jingle or the jingle pattern that specifies the start or end of the program that is temporally continuous with the program. When the determination unit determines that there is a jingle or pattern for specifying the start or end of the program for which recording reservation has been set, the determination unit determines the portion of the program to be stored based on the jingle or pattern. Can be specified.
[0029]
The recording method according to the present invention is a recording method of a recording device that is connected to an information processing device via a network and records a broadcasted program, and is provided with jingle jingle data indicating a break point of the program from the information processing device. A recording step of setting a recording reservation of a program based on the program table data to which the jingle data is added, and analyzing video or audio data of a broadcasted program to obtain a recording reservation. Extracting jingles that specify the start or end of a set program, extracting steps to start or end recording of the program based on the extracted jingles, and deleting and saving unnecessary parts of the recorded program Recording a part to be specified.
[0030]
A second program of the present invention is a program of a recording device that is connected to an information processing device via a network and records a broadcasted program, and the jingle data of a jingle indicating a break point of the program is transmitted from the information processing device. Acquiring the provided program table data, and based on the program table data provided with jingle data, a reservation control step of controlling setting of program recording reservation, and analyzing video or audio data of the broadcast program. Extracting a jingle specifying the start or end of a program for which recording reservation has been set, and an extraction control step of controlling the start or end of recording of the program based on the extracted jingle; And a recording control step of controlling to specify a portion to be saved by deleting the unnecessary portion.
[0031]
A second recording medium according to the present invention is a recording medium that is connected to an information processing apparatus via a network and records a program of a recording apparatus that records a broadcasted program. A reservation control step of acquiring program table data to which jingle data of a jingle representing the program is assigned, and controlling setting of recording reservation of the program based on the program table data to which the jingle data is added; Or extracting audio data, extracting a jingle specifying the start or end of the program for which recording reservation has been set, and controlling the start or end of recording of the program based on the extracted jingle. And a recording control step of controlling the computer to delete an unnecessary portion of the recorded program and specify a portion to be stored. Grams characterized in that it is recorded.
[0032]
In the recording device and method and the second program according to the present invention, program table data to which jingle jingle data representing a break point of a program is obtained from an information processing apparatus, and program table data to which jingle data is added. Based on the recording schedule of the program is set, the video or audio data of the broadcasted program is analyzed, and a jingle that specifies the start or end of the program for which the recording reservation is set is extracted. Based on this, recording of the program is started or ended, unnecessary portions of the recorded program are deleted, and portions to be saved are specified.
[0033]
BEST MODE FOR CARRYING OUT THE INVENTION
Embodiments of the present invention will be described below. The correspondence between constituent elements described in the claims and specific examples in the embodiments of the present invention is as follows. This description is for confirming that a specific example supporting the invention described in the claims is described in the embodiment of the invention. Therefore, even if there is a specific example which is described in the embodiment of the invention but is not described here as corresponding to the configuration requirement, the fact that the specific example is It does not mean that it does not correspond to the requirement. Conversely, even if a specific example is described here as corresponding to a configuration requirement, this means that the specific example does not correspond to a configuration requirement other than the configuration requirement. not.
[0034]
Furthermore, this description does not mean that the invention corresponding to the specific examples described in the embodiments of the invention is all described in the claims. In other words, this description is an invention corresponding to the specific example described in the embodiment of the invention, and the existence of the invention not described in the claims of this application, that is, It does not deny the existence of the invention added by the amendment.
[0035]
The content recording system according to claim 1, comprising a recording device (for example, the recording device 52 in FIG. 5) and an information processing device (for example, the server 51 in FIG. 5) interconnected via a network. (For example, the content recording system 41 in FIG. 5), wherein the information processing apparatus includes video or audio data of a broadcasted program and program table data indicating a broadcast time of the program (for example, the program table in FIG. 5). 53), and based on the video or audio data and the program guide data, create jingle data of a jingle indicating a break point of the program (for example, step S31 in FIG. 7), and Jingle data is added (for example, step S33 in FIG. 7), and the program table data to which the jingle data is added (for example, the program table with jingle in FIG. 5) 3) is provided to the recording device via the network, the recording device acquires the program table data to which the jingle data is added, and executes the program based on the program table data to which the jingle data is added. (For example, step S94 in FIG. 15), the video or audio data of the broadcast program is analyzed, and a jingle for specifying the start or end of the program for which the recording reservation is set is extracted ( For example, the recording of the program is started or ended based on the extracted jingles (step S95 or S96 in FIG. 15) (for example, step S135 in FIG. 15 or step S155 in FIG. 31), and the recorded program is Is stored in a database.
[0036]
4. The information processing apparatus according to claim 3, wherein the information processing apparatus is connected to a recording device via a network, acquires video or audio data of a broadcasted program, and program guide data indicating a broadcast time of the program, and acquires the video or audio. An information processing apparatus for creating jingle jingle data representing a break point of a program based on the data of the program and the program guide data, wherein the jingle included in the video or audio data is extracted, and the extracted jingle is extracted. 6 (for example, the automatic extraction unit 114 in FIG. 6), and an application unit (for example, the jingle application unit 71 in FIG. 5) for applying the jingle data to the program table. The program guide provided with the data is provided to the recording device via the network.
[0037]
The information processing apparatus according to claim 4, wherein the generation unit (for example, the manual adjustment unit 112 in FIG. 6) generates a jingle pattern that specifies the start or end of the program based on the jingle data created by the creation unit. ), Wherein the assigning means assigns the pattern to the program table.
[0038]
8. The information processing method according to claim 7, wherein the information processing method is connected to a recording device via a network, and acquires video or audio data of a broadcasted program and program guide data indicating a broadcast time of the program. An information processing method of an information processing apparatus for creating jingle data of a jingle representing a break point of a program based on the data of the program and the program guide data, wherein the jingle included in the video or audio data is extracted and extracted. A creation step (eg, step S31 in FIG. 7) of creating the jingle data of the jingle, and an assigning step (eg, step S33 in FIG. 7) of assigning the jingle data to the program guide. The program guide provided with the data is provided to the recording device via the network.
[0039]
The program according to claim 8, wherein the program is connected to a recording device via a network, acquires video or audio data of a broadcasted program, and program guide data indicating a broadcast time of the program, and acquires the video or audio data. And a program of an information processing apparatus for creating jingle data of a jingle representing a break point of a program based on the program guide data, wherein the jingle included in the video or audio data is extracted, and the extracted jingle is extracted. A creation control step (for example, step S31 in FIG. 7) for controlling the creation of jingle data and an assignment control step (for example, step S33 in FIG. 7) for assigning the jingle data to the program guide. It is characterized by being executed by a computer.
[0040]
The recording medium according to claim 9, which is connected to a recording device via a network, acquires video or audio data of a broadcasted program and program guide data indicating a broadcast time of the program, and acquires the video or audio data. Extracting a jingle included in the video or audio data on a recording medium in which a program of an information processing device for creating jingle data of a jingle representing a break point of a program is recorded based on the data and the program guide data; A creation control step (eg, step S31 in FIG. 7) for controlling creation of jingle data of the extracted jingle, and an assignment control step (eg, FIG. 7) for assigning the jingle data to the program table. 7 is recorded, in which a program for causing a computer to execute step S33) is recorded.
[0041]
The recording device according to claim 10, wherein the recording device is connected to an information processing device via a network and records a broadcasted program, and the jingle data of a jingle representing a break point of the program is transmitted from the information processing device. A reservation unit (for example, a program reservation unit 91 in FIG. 5) for acquiring the provided program table data and setting a recording reservation of the program based on the program table data to which the jingle data is provided; Extracting means (for example, the jingle monitor unit 92 in FIG. 5) for analyzing the video or audio data and extracting a jingle for specifying the start or end of the program for which recording reservation has been set; Recording means for starting or ending recording of the program, deleting unnecessary portions of the recorded program, and specifying a portion to be stored (for example, a recording unit shown in FIG. 5). And 3), characterized in that it comprises a storage means for storing the identified said to be conserved portion as a database (e.g., memory 94 in FIG. 5), a by the recording means.
[0042]
12. The recording apparatus according to claim 11, further comprising a reproducing unit (for example, the reproducing unit 95 in FIG. 5) for reproducing the program stored in the database by the storing unit based on a user's instruction. And
[0043]
13. The recording apparatus according to claim 12, wherein the extraction unit detects a jingle or a jingle pattern that specifies the start of the program (for example, the jingle of FIG. 5 that executes the processing of step S95 of FIG. 15). (A monitor unit 92) and an end detection unit (for example, the jingle monitor unit 92 in FIG. 5 for executing the processing in step S96 in FIG. 15) for detecting a jingle or a jingle pattern for specifying the end of the program. Features.
[0044]
14. The recording apparatus according to claim 13, wherein the extraction unit calculates a feature amount of video or audio data of the program and calculates an observation value (for example, the observation value calculation unit 401 in FIG. 18). ) And the evaluation value calculated by comparing the observation value calculated by the observation value calculation means with the jingle data obtained from the information processing apparatus, and calculating an approximate evaluation value representing the closeness between the observation value and the jingle data. And a calculating means (for example, the evaluation value calculating unit 402 in FIG. 18).
[0045]
18. The recording apparatus according to claim 17, wherein the recording unit determines whether the program for which recording reservation has been set includes the jingle or the pattern for specifying the start or end of the program. The recording unit 93 shown in FIG. 5 for executing the process of step S171 in FIG. 33 is provided, and the determination unit determines that the jingle or the pattern for specifying the start or end of the program for which recording reservation is set is not present. In the case of, based on a jingle or a jingle pattern that specifies the start or end of a program temporally continuous with the program, a portion to be saved of the program for which recording reservation is set is specified, and the determination unit If it is determined that there is the jingle or the pattern for specifying the start or end of the program for which recording reservation is set, the jingle or the pattern is determined. It is based on the pattern, and identifies the portion to be stored out of the program.
[0046]
19. The recording method according to claim 18, wherein the recording method is a recording apparatus that is connected to an information processing apparatus via a network and records a broadcasted program. A reservation step (for example, step S94 in FIG. 15) of acquiring program table data to which jingle data is added, setting recording reservation of a program based on the program table data to which the jingle data is added, and broadcasting. Analyzing video or audio data of a program, extracting a jingle for specifying the start or end of the program for which recording reservation has been set, and extracting or starting recording of the program based on the extracted jingle. (For example, step S95 or S96 in FIG. 15), the unnecessary part of the recorded program is deleted, and the part to be saved is specified. Image step (e.g., step S97 of FIG. 15), characterized in that it comprises a.
[0047]
20. The program according to claim 19, wherein the program is connected to an information processing apparatus via a network and records a program to be broadcast, wherein the jingle data of a jingle representing a break point of the program from the information processing apparatus. A program control data (e.g., step S94 in FIG. 15) that acquires program table data to which the jingle data has been added, and controls setting of program recording reservation based on the program table data to which the jingle data has been added; Analyzes video or audio data of a program to be extracted, extracts a jingle that specifies the start or end of the program for which recording reservation is set, and controls the start or end of recording of the program based on the extracted jingle. (E.g., step S95 or S96 in FIG. 15), and deleting unnecessary portions of the recorded program. Recording control step of controlling so as to identify the portion to Sons (e.g., step S97 of FIG. 15), characterized in that to execute on the computer.
[0048]
21. A recording medium according to claim 20, wherein the recording medium is connected to an information processing device via a network and records a program of a recording device for recording a broadcasted program. A program control data to which jingle data of a jingle representing a point is added, and a reservation control step of controlling setting of recording reservation of a program based on the program table data to which the jingle data is added (for example, FIG. Step S94), analyzing the video or audio data of the broadcast program, extracting a jingle for specifying the start or end of the program for which recording reservation has been set, and based on the extracted jingle, An extraction control step (for example, step S95 or S96 in FIG. 15) for controlling the start or end of the recording, Remove the a portion, the recording control step of controlling so as to identify the portion to be stored (e.g., step S97 of FIG. 15) is programmed to execute the computer, characterized in that it is recorded.
[0049]
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 5 is a diagram showing a configuration example of a content recording system 41 to which the present invention has been applied. In this configuration example, the server 51 and the recording device 52 are connected via a network 55 represented by the Internet or the like.
[0050]
The server 51 is provided with a jingle creating unit 74 for creating jingle data and a jingle DB 72 for storing jingle data created by the jingle creating unit 74. Jingles are specific pictures or music phrases used in television or radio programs to open, end, or open corners within a program, or short music used to separate information in multimedia content. And poses.
[0051]
Further, a jingle assigning unit 71 is provided for acquiring the program table 53, adding jingle data to the acquired program table, and creating a jingle-attached program table 73. The recording device 52 is provided to the recording device 52 via an external device. The program table 53 may be acquired from another server via the network 55, for example, or the broadcast data received on air may be received, and the video data and audio data constituting the broadcast program main body and the broadcast program The program may be decomposed into data attached to the main body, and an EPG (Electronic Program Guide) included in the latter may be acquired as the program guide 53.
[0052]
The recording device 52 acquires a jingle-attached program table 73 from the server 51 via the network 55, and, based on the acquired jingle-attached program table 73, a program reservation unit 91 that accepts a user's setting for program recording reservation by the user. Is provided. Further, a jingle monitor unit 92 for detecting a predetermined jingle from the received broadcast signal and a recording unit 93 for recording a predetermined program in the received broadcast signal are provided.
[0053]
The program reservation section 91 displays a program table to the user based on the program table with jingles 73, and the user specifies a program to be recorded. The broadcast signal broadcast by the broadcast station 54 is received by an antenna (not shown) of the recording device 52 or the like, and further supplied to the jingle monitor 92 and the recording unit 93. The jingle monitor unit 92 detects a jingle that specifies the start and end of the program for which recording reservation has been set by the program reservation unit 91, and the recording unit 92 generates a broadcast signal based on the jingle specified by the jingle monitor unit 92. Is A / D converted and the program data is recorded.
[0054]
Further, a storage unit 94 for storing data of a program recorded by the recording unit 93 is provided. The storage unit 94 includes, for example, an HDD (Hard Disk Drive). In addition, a reproduction unit 95 that reproduces data of a predetermined program stored in the storage unit 94 based on a user's instruction is provided.
[0055]
FIG. 6 is a block diagram illustrating a configuration example of the jingle creation unit 74 of FIG. The jingle creation unit 74 converts the broadcast signal broadcast by the broadcast station 54 from analog to digital and stores the broadcasted program data. The broadcast spool unit 111 stores the acquired program table data. A spool unit 113 is provided. Further, an automatic extraction unit 114 and a manual adjustment unit 112 for creating jingle data are provided. The broadcast program data and the program guide data stored in the broadcast spool unit 111 and the program guide spool unit 113 are supplied to the automatic extraction unit 114 and the manual adjustment unit 112, respectively. The automatic extracting unit 114 and the manual adjusting unit 112 create jingle data based on the data of the broadcasted program and the data of the program guide, and store the jingle data in the jingle DB 72.
[0056]
Next, the jingle data creation processing of the jingle creation unit 74 will be described with reference to FIG. In step S31, the automatic extraction unit 114 executes an automatic extraction process described later with reference to FIG. In step S32, the manual adjustment unit 112 performs a manual adjustment process described later with reference to FIG. Thus, the jingle is specified from the data of the broadcasted program and stored as the jingle data. In step S33, the jingle assigning unit 71 assigns the stored jingle data to the program table 53, and generates a jingle-attached program table 73.
[0057]
Next, the automatic extraction processing in step S31 in FIG. 7 will be described with reference to FIG. In step S51, the automatic extraction unit 114 extracts a known jingle. At this time, a portion of the jingle corresponding to the jingle data already stored in the jingle DB 72 is extracted from the broadcasted program data. In step S52, the automatic extraction unit 114 sets a region other than the jingle portion extracted in step S51 as a research target region.
[0058]
In step S53, the automatic extraction unit 114 extracts a jingle by performing autocorrelation on the investigation target area. In step S54, the automatic extraction unit 114 determines whether or not the jingle has been extracted. If it is determined that the jingle has not been extracted, the process ends.
[0059]
On the other hand, if it is determined in step S54 that the jingle has been extracted, the process proceeds to step S55 to estimate the jingle image mask. The image mask will be described later with reference to FIG. In step S56, the automatic extraction unit 114 estimates the weight of the component constituting the jingle data, and estimates the threshold in step S57. The component weights and thresholds will be described later with reference to FIG.
[0060]
In step S58, the automatic extraction unit 114 stores the jingle data of the jingle extracted in step S53 as a new jingle in the jingle DB 72. At this time, jingle data as shown in FIG. 10 is stored.
[0061]
FIG. 10 is a diagram illustrating a configuration example of the jingle data. The jingle data includes a threshold 201 estimated in step S57 and a jingle length 202 that is information indicating the data length of the jingle data. Further, the audio component 204, the audio component 205, and the video component 206 of the jingle, and the weights 203-1 to 203-3 of the components estimated in step S56 are included.
[0062]
In step S59, the automatic extraction unit 114 extracts the jingle stored as the new jingle in step 58 from the investigation target area set in step S52, returns to step S52, and repeatedly executes the processing thereafter.
[0063]
In this way, the jingles are automatically extracted.
[0064]
Next, the manual extraction processing in step S32 in FIG. 7 will be described with reference to FIG. This process is executed, for example, by the user referring to the program data using a monitor (not shown) or the like.
[0065]
In step S71, the manual adjustment unit 112 reproduces the data of the broadcast program and causes the monitor to display the data. In step S72, the manual adjustment unit 112 receives designation of a program specific portion from the user, and extracts the portion as a jingle. In step S73, the manual adjustment unit 112 receives designation of data for recognizing the jingle. At this time, for example, a jingle image mask, weights of components constituting the jingle data, a threshold value, and the like are designated, and the jingle data is created. In step S74, the manual adjustment unit 112 receives an input of a program-specific jingle pattern.
[0066]
Here, the relationship between the program and the jingle will be described with reference to FIG. 11 and FIG. FIG. 11 is a diagram showing a program A and a program B broadcasted in order on a time axis. In the figure, portions 241 and 242 indicated by a lattice pattern and portions 243 and 244 indicated by hatching in the diagram are jingles. The jingles 242 and 243 are jingles that extend over the program A and the program B, and are considered to be, for example, CMs and program guides. In the present invention, such a jingle is referred to as a spacer jingle.
[0067]
On the other hand, the jingle 241 is a jingle existing only in the program A, and the jingle 244 is a jingle existing only in the program B, and is considered to be an opening of a corner in the program. In the present invention, such a jingle is referred to as a program-structured identification jingle.
[0068]
FIG. 12 is a diagram showing an example of a jingle for structured identification in a program. FIG. 12 is a diagram showing, on a time axis, a first 223-1 and a second 223-2 of a program C broadcast as a series. As shown in the figure, the program C is divided by a jingle 261 and a jingle 262, a corner separated by a left jingle 262 in the figure, and a corner separated by a right jingle 262 in the figure, and separated by a jingle 262 and a jingle 263. It can be seen that the layers are hierarchized into four corners, namely, corners and corners separated by jingles 263 and 264. In addition, some jingles for structured identification in a program, such as the jingle 262, are used a plurality of times in one program.
[0069]
FIG. 13 is a diagram illustrating an example in which the start end of a program is represented on a time axis. FIG. 13A shows an example in which a program is broadcast after a start jingle 281 indicating the start of the program is broadcast. In such a case, when recording the program, it is necessary to recognize the contents of the program after the start jingle 281 as the program content.
[0070]
FIG. 13B shows an example in which the head portion 301 of the program is broadcast before the start jingle 281 is broadcast. In such a case, when recording the program, it is necessary to recognize the program portion 301 and subsequent portions as the program contents.
[0071]
FIG. 13C shows an example in which after the spacer jingle 282 is broadcast, the head portion 301 of the program is broadcasted, and then the start jingle 281 is broadcasted. In such a case, when recording the program, it is necessary to recognize the program portion 301 and subsequent portions as the program contents.
[0072]
FIG. 13D shows an example in which the head portion 302 of the program is broadcast before the spacer jingle 282 is broadcast, another portion 303 of the program is broadcast after the spacer jingle is broadcast, and then the start jingle 281 is broadcast. Is shown. In such a case, when the program is recorded, it is necessary to recognize the portion after the head portion 302 of the program as the program content.
[0073]
FIG. 13E shows that after the program spacer jingle 283 has been broadcast, the beginning portion 304 of the program is broadcast, then the spacer jingle 282 is broadcast again, then another portion 305 of the program is broadcast, and then the start jingle 281 is broadcast. An example is shown. In such a case, when recording the program, it is necessary to recognize the part after the beginning part 304 of the program as the program contents.
[0074]
FIG. 14 is a diagram illustrating an example of the end of the program. FIG. 14A shows an example in which an end jingle 321 indicating the end of the program is broadcast and the program is ended. In such a case, when recording the program, it is necessary to recognize before the end jingle 321 as the program content.
[0075]
FIG. 14B shows an example in which after the end jingle 321 is broadcast, the last part 341 of the program is broadcast, and the program is ended. In such a case, when recording the program, it is necessary to recognize before the last part 341 of the program as the program content.
[0076]
FIG. 14C shows an example in which after the end jingle 321 is broadcast, the last part 341 of the program is broadcast, and then the spacer jingle 322 is broadcast. In such a case, when recording the program, it is necessary to recognize before the last part 341 of the program as the program content.
[0077]
FIG. 14D shows an example in which after the end jingle 321 is broadcast, a part 342 of the program is broadcast, then the spacer jingle 322 is broadcast, and then the last part 343 of the program is broadcast and the program is ended. . In such a case, when recording the program, it is necessary to recognize the part before the last part 343 of the program as the program content.
[0078]
FIG. 14E shows an example in which after the end jingle 321 is broadcast, a portion 344 of the program is broadcast, then the spacer jingle 322 is broadcast, then the last portion 345 of the program is broadcast, and then the spacer jingle 323 is broadcast. Is shown. In such a case, when recording the program, it is necessary to recognize the part before the last part 345 of the program as the program content.
[0079]
In step S74 of FIG. 9, for each program, the start jingle pattern and the end jingle pattern of the program as shown in FIGS. 13 and 14 are designated as the program specific jingle pattern of the program, and the designated jingle pattern is It is stored in the jingle DB 72.
[0080]
Thus, the jingle data and the jingle pattern are stored.
[0081]
Next, a program recording process of the recording device 52 will be described with reference to FIG. In step S94, the program reservation section 91 executes a program reservation process described later with reference to FIG. Thereby, a program to be recorded is specified.
[0082]
In step S95, the jingle monitor 92 executes a start jingle pattern monitoring process described later with reference to FIG. Thus, the start position of the program is specified, and recording of the program is started. In step S96, the jingle monitor 92 executes an end jingle pattern monitoring process described later with reference to FIG. Thus, the end position of the program is specified, and the recording of the program is ended.
[0083]
In step S97, the recording unit 93 executes a storage portion specifying process described later with reference to FIG. As a result, an unnecessary portion of the recorded data is deleted, a portion to be saved is specified, and the data is stored in the storage unit 94 as data of a program reserved for recording.
[0084]
In this way, the program is recorded.
[0085]
Next, the program reservation processing in step S94 in FIG. 15 will be described with reference to FIG. In step S111, the program reservation unit 91 displays a program guide on a monitor (not shown) of the recording device 52. In step S112, the program reservation section 91 receives designation of a program to be recorded. The designation of the recording target program is performed, for example, by the user operating an input unit (not shown) of the recording device 52 based on the displayed program table. In step S113, the program reservation unit 91 acquires jingle data of a jingle that specifies a program specified as a recording target program from the server 51 via the network 55.
[0086]
In this manner, the recording reservation of the program is performed.
[0087]
Next, the start jingle pattern monitoring process in step S95 in FIG. 15 will be described with reference to FIG. This processing is executed by the jingle monitor unit 92. FIG. 18 is a block diagram illustrating a detailed configuration example of the jingle monitor unit 92. In this example, there is provided an observation value calculation unit 401 that extracts a jingle from a broadcast signal and calculates an observation value representing a feature amount of audio or video of the extracted jingle.
[0088]
Also, an evaluation value that compares the observation value calculated by the observation value calculation unit 401 with the jingle data acquired from the server 51 via the network 55 and calculates an approximate evaluation value indicating the closeness between the observation value and the jingle data. A value calculation unit 402 is provided.
[0089]
Further, a control unit 403 for controlling each unit is provided, and the control unit 403 is connected to the observation value calculation unit 401 and the evaluation value calculation unit 402 via a bus 404.
[0090]
Returning to FIG. 17, in step S131, the observation value calculation unit 401 extracts a jingle designated portion from the broadcast signal and calculates an observation value. At this time, the calculation of the observation value is performed as follows.
[0091]
FIG. 19 is a diagram showing the flow of the process at this time. A predetermined jingle designated portion is extracted from the broadcast signal 451 and supplied to the sound extraction unit 411 and the video extraction unit 421 of the observation value calculation unit 401.
[0092]
At this time, the sound extraction unit 411 extracts a sound signal from the broadcast signal and outputs the sound signal to the frequency filter 412. FIG. 21 is a diagram showing an example of the audio signal output at this time. In this example, the vertical axis shows the output, the horizontal axis shows the time, and the audio signal is shown as a waveform.
[0093]
The video extracting unit 421 extracts a video signal from the broadcast signal and outputs the video signal to the luminance separating unit 422. FIG. 26 is a diagram illustrating an example of a video signal output at this time. This video signal is composed of the frames of FIGS. 26A to 26C and corresponds to a part 552 of the video signal 551 shown in FIG.
[0094]
Returning to FIG. 19, the frequency filter 412 separates the input audio signal into an audio region and an audio region other than audio through a band-pass filter, and outputs a signal in the audio region to the frequency spectrum generation unit 413, Is output to the frequency spectrum generation unit 414. FIG. 22 is a diagram illustrating an example of a bandpass filter used at this time. In this example, the horizontal axis indicates frequency, and the vertical axis indicates transmittance.
[0095]
The luminance separating unit 422 causes the mask 553 shown in FIG. 27 to act on the luminance information of the video signal, for example, and outputs the information to the frame cell generating unit 423. The mask 553 includes a mask portion 571 displayed in a dark color in the figure and a transmissive portion 572 displayed in white in the figure.
[0096]
Returning to FIG. 19, the frequency spectrum generation unit 413 converts the frequency spectrum of the signal in the acoustic range into a frequency spectrum, and generates a sound component 471 of the observed value by mesh decomposition. The frequency spectrum generation unit 414 converts the frequency spectrum of the audio signal into a frequency spectrum, mesh-decomposes the frequency spectrum, and generates an audio component 472 of the observed value.
[0097]
FIG. 23 shows an example of the frequency spectrum generated at this time. In this example, the horizontal axis indicates time and the vertical axis indicates frequency, and the frequency spectrum is displayed in a pale color in the figure. Then, as shown in FIG. 24, the frequency spectrum shown in FIG. 23 has a predetermined time (t1, t2, t3,... Tn) and a predetermined frequency (f1, f2, f3,. Then, a sound component (or a sound component) of the observation value as shown in FIG. 25 is generated. FIG. 25 is a diagram illustrating a configuration example of an acoustic component (or a voice component) of an observation value. The frequency values f1, f2,... Fn at times t1, t2,. Or, it is described together with a step width indicating a frequency interval.
[0098]
Returning to FIG. 19, the frame cell generation unit 423 performs DFT (Discrete Fourier Transform: Discrete Fourier Transform) on the signal output from the luminance separation unit 422, and converts the frequency component 573 shown in FIG. The obtained frequency component is mesh-decomposed to generate a video component 473 of the observed value. FIG. 28 shows a configuration example of the video component of the observation value generated at this time. In this example, the values of the frequency components 573-1 to 573-n meshed in frame units are determined by the number of frames of the video signal, the number of vertical cells, the number of horizontal cells, and the step size used when performing the mesh decomposition. It is described with. Also, mask information regarding the mask 553 in FIG. 27 is described.
[0099]
In this way, the observation value is calculated.
[0100]
Returning to FIG. 17, in step S132, the evaluation value calculation unit 402 calculates an evaluation value. The calculation of the evaluation value is performed as follows. FIG. 20 is a block diagram illustrating a detailed configuration example of the evaluation value calculation unit 402. The sound evaluation unit 431 of the evaluation value calculation unit 402 compares the sound component 471 of the observation value 502 with the sound component 491 of the jingle data 501, and calculates the evaluation value of the sound component.
[0101]
At this time, as shown in FIG. 29, frequency components (f1, f2,... Fm) corresponding to time t1 are extracted from the acoustic components 491 of the jingle data, and predetermined weights (a1, a2,. .Am) to generate a vector t1 (a1 · f1, a2 · f2,... An · fm). Similarly, frequency components (f′1, f′2,..., F′m) corresponding to the time r1 of the acoustic component 471 of the observation value are extracted, and predetermined weights (a1, a2,. And the vector r1 (a1 · f′1, a2 · f′2,... An · f′m) is generated. In FIG. 29, the vectors t1 and r1 are displayed as three-dimensional vectors, but are actually m-dimensional vectors.
[0102]
Similarly, frequency components corresponding to the times t2, t3,... Tn are extracted from the acoustic components 491 of the jingle data and weighted by predetermined weights to generate vectors t2, t3,. The frequency components corresponding to the time r2, r3,... Rn of the acoustic component 471 of the observation value are extracted and weighted by a predetermined weight, and the vectors r2, r3,.
[0103]
The sound evaluation unit 431 calculates the sum of the angles formed by the vectors t1 and r1, the angle formed by the vectors t2 and r2, and the angle formed by the vectors tn and rn shown in FIG. I do. The sum of the angles between the vectors is obtained by the following equation.
[0104]
(Equation 1)
Figure 2004356682
[0105]
Further, the evaluation value of the acoustic component may be calculated by the sum of the distance 602 between the vectors t1 and r1, the distance r2 between the vectors t2,..., And the distance between the vectors tn and rn. The sum of the distances between the vectors is obtained by the following equation.
[0106]
(Equation 2)
Figure 2004356682
[0107]
Returning to FIG. 20, the sound evaluation unit 431 multiplies the evaluation value of the sound component by a predetermined weight (w1) and outputs the result to the evaluation value determination unit 434.
[0108]
In the sound evaluation unit 432, the same processing as that of the sound evaluation unit 431 is performed, the evaluation value of the sound component is obtained, and the evaluation value of the sound component is multiplied by a predetermined weight (w2) and output to the evaluation value determination unit 434. Is done.
[0109]
The video evaluation unit 433 compares the video component 473 of the observation value 502 with the video component 493 of the jingle data 501 and calculates an evaluation value of the video component. At this time, as shown in FIG. 30, a frequency component corresponding to the frame t1 is extracted from the video component 473 of the jingle data and weighted by a predetermined weight to generate a vector t1. Similarly, a frequency component corresponding to the frame r1 of the video component 473 of the observed value is extracted and weighted with a predetermined weight to generate a vector r1. In this example, the vectors t1 and r1 are each a 12-dimensional vector. In FIG. 30, the vectors t1 and r1 are displayed as three-dimensional vectors, but are actually 12-dimensional vectors.
[0110]
Similarly, the frequency components corresponding to the frames t2, t3,... Tn are extracted from the video components 493 of the jingle data, weighted by a predetermined weight, and the vectors t2, t3,. The frequency components corresponding to the frames r2, r3,... Rn of the sound component 473 of the observed value are extracted and weighted by predetermined weights, and the vectors r2, r3,.
[0111]
The video evaluation unit 433 calculates the evaluation value of the video component by calculating the sum of the angle 621 formed by the vectors t1 and r1, the angle formed by the vectors t2 and r2,... I do. Further, the evaluation value of the video component may be calculated by the sum of the distance 622 between the vectors t1 and r1, the distance r2 between the vectors t2,..., And the distance between the vectors tn and rn.
[0112]
Returning to FIG. 20, the video evaluation unit 433 multiplies the evaluation value of the video component by a predetermined weight (w3) and outputs the result to the evaluation value determination unit 434.
[0113]
The weights w1 to w3 described above are determined based on the weights described in the jingle data (203-1 to 203-3 in FIG. 10).
[0114]
The evaluation value determination unit 434 determines the approximate evaluation value by adding the output values of the audio evaluation unit 431, the audio evaluation unit 432, and the video evaluation unit 433. Note that the approximate evaluation value may be determined as an average value of output values of the audio evaluation unit 431, the audio evaluation unit 432, and the video evaluation unit 433. The smaller the approximate evaluation value, the higher the similarity between the observed value and the jingle data.
[0115]
Returning to FIG. 17, in step S133, the evaluation value calculation unit 402 determines whether the approximate evaluation value is smaller than a threshold. The threshold value is determined based on the threshold value (201 in FIG. 10) described in the jingle data. If it is determined in step S133 that the approximate evaluation value is smaller than the threshold, the process proceeds to step S134, and the evaluation value calculation unit 402 notifies the control unit 403 of the discovery of the start jingle. Then, in step S135, the control unit 403 causes the recording unit 93 to start recording.
[0116]
If it is determined in step S133 that the approximate evaluation value is not smaller than the threshold, the process returns to step S131.
[0117]
In this way, recording is started. In this way, the start of recording will be started by finding a jingle that identifies the program. Therefore, even if the broadcast date and time of the program is changed, for example, the broadcast start time will be described in the program table. Even if the time is changed to be different from the time, the desired program can be recorded.
[0118]
Next, the end jingle pattern monitoring process in step S96 in FIG. 15 will be described with reference to FIG. The processing of steps S151 to S153 is the same as the processing of steps S131 to S133 in FIG. 17, and thus detailed description is omitted.
[0119]
If it is determined in step S153 that the approximate evaluation value is smaller than the threshold, the process proceeds to step S154, and the evaluation value calculation unit 402 notifies the control unit 403 of the end jingle discovery. Then, in step S155, the control unit 403 causes the recording unit 93 to end recording.
[0120]
If it is determined in step S153 that the approximate evaluation value is not smaller than the threshold, the process returns to step S151.
[0121]
In this way, the recording ends. In this way, the end of recording will be terminated by finding a jingle that identifies the program. Therefore, even if the broadcast date and time of the program is changed, for example, the broadcast end time will be described in the program table. Even if the time is changed to be different from the time, the desired program can be recorded.
[0122]
In the above, an example in which the recording and the start of the program are started and ended based on the start jingle and the end jingle of the program has been described. However, referring to FIGS. 13 and 14, the program start pattern and the program Based on the end pattern, the start and end of the recording of the program may be performed.
[0123]
It is also conceivable that the program to be recorded does not have a jingle for specifying the start or end of the program. In this case, the recording of the program can be started or ended based on the jingle for specifying the start or end of the program adjacent to the program to be recorded, that is, the program temporally continuous with the program to be recorded.
[0124]
32A to 32C are diagrams showing examples in which a program 642 to be recorded, a program 641 (temporarily) before the program 642, and a program 643 (temporarily) after the program 642 are represented on a time axis. .
[0125]
FIG. 32A shows an example in which the start jingle 652 exists in the program 642 to be recorded, the end jingle does not exist, and the start jingle 653 exists in the program 643 after the program 642 to be recorded. In this case, the recording device 52 specifies the program start pattern 672 based on the start jingle 652 of the program 642, sets the recording start position 640-1, and sets the program start pattern 673 based on the start jingle 653 of the program 643. Is specified, and the recording end position 640-2 is set.
[0126]
32B, the start jingle 652 exists in the program 642 to be recorded, the end jingle does not exist, the end jingle exists in the program 641 before the program 642, and the start jingle 653 exists in the program 643 after the program 642. An example of the case is shown. In this case, the recording device 52 specifies the program end pattern 671 based on the end jingle 651 of the program 641, further specifies the program start pattern 672 based on the start jingle 652 of the program 642, and specifies the recording start position 640-1. Set. In such a case, the start position of the program can be set more accurately than in FIG. 32A. The recording end position 640-2 is set as in the case of FIG. 32A.
[0127]
FIG. 32C shows an example in which the start jingle and the end jingle do not exist in the program 642 to be recorded. In this case, the recording device 52 specifies the program end pattern 671 based on the end jingle 651 of the program 641, sets the recording start position 640-1, and sets the program start pattern 673 based on the start jingle 653 of the program 643. Is specified, and the recording end position 640-2 is set.
[0128]
In this way, a desired program can be accurately recorded even if there is no jingle for specifying the start or end of the program in the program to be recorded.
[0129]
Of course, it is also possible to set the recording start position and the recording end position based on the time described in the program guide.
[0130]
Next, with reference to FIG. 33, the storage portion specifying process in step S97 of FIG. 15 will be described. In step S171, the recording unit 93 determines whether the recording target program has a jingle pattern that specifies the program.
[0131]
If it is determined in step S171 that the recording target program has a jingle pattern that specifies the program, the process proceeds to step S172, where the recording unit 93 performs the end processing of the program using the jingle pattern of the target program, that is, the program end processing. The start point and the end point are specified more accurately, and a process of deleting unnecessary portions is performed.
[0132]
At this time, for example, the user operates an input unit (not shown) of the recording device 52 to input an end processing command as shown in FIG. Alternatively, the recorded program may be analyzed and an end processing command may be automatically input. FIG. 34 shows that the program start position is after the spacer jingle immediately before the start jingle 721 of the program, and the program end position is before the spacer jingle after the end jingle 722 of the program. It represents something.
[0133]
FIG. 35 is a diagram showing the configuration of the recording target program 700, the preceding program 701 of the program 700, and the subsequent program 702 of the program 700 on which the edge processing is performed on a time axis. FIG. 35A shows a start jingle 721 and an end jingle 722 of the recording target program 700. The previous program 701 shows an end jingle 723 and a spacer jingle group 725 composed of a plurality of spacer jingles. Also, a start jingle 724 of the subsequent program 702 and a spacer jingle group 726 composed of a plurality of spacer jingles are shown.
[0134]
For example, in the start jingle pattern monitoring process described above with reference to FIG. 17, the recording device 52 starts recording a program by detecting the end jingle 723 of the previous program 701, and ends the recording described above with reference to FIG. In the jingle pattern monitoring process, when the recording of the program has been completed by detecting the start jingle 724 of the subsequent program 702, the recording range 700-1 shown in FIG. 35B is temporarily stored in the storage unit 94.
[0135]
However, as described above with reference to FIG. 34, the program start position of the recording target program 700 is after the spacer jingle immediately before the start jingle 721 of the program, and the end position of the program is Since it is before the spacer jingle immediately after the end jingle 722, the recording unit 93 causes the jingle monitor unit 92 to output the spacer jingle 725-1 immediately before the start jingle 721 as shown in FIG. The spacer jingle 726-1 after the end jingle 722 is detected. Then, the leading portion 727 and the ending portion 728 of the recording range shown in FIG. 35D are deleted as unnecessary portions, and the storage portion 700-2 is specified.
[0136]
Returning to FIG. 33, when it is determined in step S171 that the program to be recorded does not have a jingle pattern that specifies the program, the process proceeds to step S173, where the recording unit 93 uses the jingle pattern of a program adjacent to the target program. End processing of the program.
[0137]
At this time, for example, the user operates an input unit (not shown) of the recording device 52 to input an end processing command as shown in FIG. Alternatively, the recorded program may be analyzed and an end processing command may be automatically input. FIG. 36 shows that, unlike FIG. 34, the recording target program has no jingle pattern indicating the program start position and no jingle pattern indicating the program end position.
[0138]
FIG. 37 is a diagram showing, on a time axis, a configuration of a recording target program 750 to be subjected to end processing, a program 751 before the program 750, and a program 752 after the program 750. In FIG. 37A, the previous program 751 shows an end jingle 771 and a spacer jingle group 773 composed of a plurality of spacer jingles. Also, a start jingle 772 of the subsequent program 752 and a spacer jingle group 774 composed of a plurality of spacer jingles are shown.
[0139]
For example, in the start jingle pattern monitoring process described above with reference to FIG. 17, the recording device 52 starts recording the program by detecting the end jingle 771 of the previous program 751, and ends the recording described above with reference to FIG. In the jingle pattern monitoring process, when the recording of the program has been ended by detecting the start jingle 772 of the subsequent program 752, the recording range 750-1 shown in FIG. 35B is temporarily stored in the storage unit 94.
[0140]
Thereafter, the recording unit 93 causes the jingle monitor unit 92 to display the first spacer jingle 773-1 of the spacer jingle group 773 after the end jingle 771 of the previous program 751 and the next program start jingle 772 as shown in FIG. 37C. , The last spacer jingle 774-1 of the spacer jingle group 774 is detected, the part 751-1 sandwiched between the end jingle 771 and the spacer jingle 773-1 is regarded as an unnecessary part, and the start jingle 772 and the spacer jingle 774-1 are used. (In this case, only the start jingle 772) are regarded as unnecessary portions, and each unnecessary portion is deleted.
[0141]
Further, as shown in FIG. 37D, the recording unit 93 causes the jingle monitor unit 92 to display the last spacer jingle 773-2 of the spacer jingle group 773 and the head of the spacer jingle group 774 before the post-program start jingle 772, as shown in FIG. The spacer jingles 774-2 are detected, and the spacer jingles 773 and 774 are deleted as unnecessary portions. Then, the storage part 750-2 is specified.
[0142]
Returning to FIG. 33, in step S174, the recording unit 93 stores the storage portion specified in step S172 or S173.
[0143]
In this way, the storage part of the recorded program is specified. The start position and end position of the program are specified by combining the start jingle or end jingle of the program with the spacer jingle, and unnecessary portions are deleted, so that the desired program can be accurately recorded and stored. Furthermore, even if the recording target program does not have a jingle pattern for specifying the program, a desired program can be accurately recorded and stored using the jingle pattern of an adjacent program.
[0144]
As described above, the programs recorded (stored) by the recording device 52 are classified, for example, for each broadcast date of the programs, and stored in the storage unit 94 as a database. By operating an input unit (not shown) of the recording device 52, the user can control the reproducing unit 95 to reproduce the stored program.
[0145]
At this time, a screen as shown in FIG. 38 is displayed on a monitor of a television receiver connected to the recording device 52, for example, as a GUI (Graphical User Interface) for reproducing the program. On the right side of FIG. 38, a program history display unit 800 that displays a list of programs stored in the storage unit 94 by date is displayed. The user selects a desired date from the dates shown in the program history display section 800 and inputs a predetermined command to reproduce the program. At this time, a list of programs recorded on the selected date may be displayed in a hierarchical manner.
[0146]
The program whose reproduction has been instructed is displayed on the program display unit 803. By operating the buttons 801 or 802, the program can be fast-forwarded or rewinded.
[0147]
In this way, a program desired by the user is reproduced from the recorded programs.
[0148]
It does not matter whether the above-described series of processing is implemented by hardware or software. When the above-described series of processes is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or installing various programs. It is installed from a network or a recording medium into a general-purpose personal computer as shown in FIG.
[0149]
In FIG. 39, a CPU (Central Processing Unit) 901 executes various processes according to a program stored in a ROM (Read Only Memory) 902 or a program loaded from a storage unit 908 into a RAM (Random Access Memory) 903. I do. The RAM 903 also appropriately stores data necessary for the CPU 901 to execute various processes.
[0150]
The CPU 901, the ROM 902, and the RAM 903 are mutually connected via a bus 904. The input / output interface 905 is also connected to the bus 904.
[0151]
The input / output interface 905 includes an input unit 906 including a keyboard and a mouse, a display (display unit) including a CRT (Cathode Ray Tube), an LCD (Liquid Crystal Display), an output unit 907 including a speaker, a hard disk, and the like. And a communication unit 909 including a modem, a terminal adapter, and the like. The communication unit 909 performs communication processing via a network such as the Internet.
[0152]
A drive 910 is connected to the input / output interface 905 as necessary, and a removable medium 911, for example, is mounted on the drive 910 as a recording medium on which the program of the present invention is recorded. The computer program is installed in the storage unit 908 as needed.
[0153]
Note that the steps of executing a series of processes described above in the present specification include, in addition to processes performed in chronological order according to the described order, not only chronological processes but also parallel or individual execution. This includes the processing to be performed.
[0154]
【The invention's effect】
As described above, according to the present invention, it is possible to reliably record a desired program even if the broadcast time of the program is changed.
[Brief description of the drawings]
FIG. 1 is a flowchart illustrating a program recording process performed by a conventional recording device.
FIG. 2 is a diagram showing a configuration example of a program table.
FIG. 3 is a diagram illustrating an example of information set in a conventional recording apparatus.
FIG. 4 is a diagram showing an example of changing the broadcast time of a recording target program.
FIG. 5 is a block diagram illustrating a configuration example of a content recording system according to the present invention.
FIG. 6 is a block diagram illustrating a configuration example of a jingle creating unit in FIG. 5;
FIG. 7 is a flowchart illustrating a jingle data creation process.
FIG. 8 is a flowchart illustrating an automatic extraction process.
FIG. 9 is a flowchart illustrating a manual extraction process.
FIG. 10 is a diagram illustrating a configuration example of jingle data.
FIG. 11 is a diagram showing a relationship between a program and a jingle.
FIG. 12 is a diagram illustrating a configuration example of a jingle in a program.
FIG. 13 is a diagram illustrating an example of a start end of a program.
FIG. 14 is a diagram illustrating an example of an end end of a program.
FIG. 15 is a flowchart illustrating a program recording process.
FIG. 16 is a flowchart illustrating a program reservation process.
FIG. 17 is a flowchart illustrating a start jingle pattern monitoring process.
18 is a block diagram illustrating a configuration example of a jingle monitor unit of FIG.
19 is a block diagram illustrating a configuration example of an observation value calculation unit in FIG. 18;
20 is a block diagram illustrating a configuration example of an evaluation value calculation unit in FIG.
FIG. 21 is a diagram illustrating an example of a waveform of a jingle audio signal.
FIG. 22 is a diagram showing a relationship between frequency and transmittance in a bandpass filter.
FIG. 23 is a diagram illustrating an example of an audio signal decomposed into a frequency spectrum.
24 is a diagram showing an example in which the frequency spectrum spectrum of FIG. 23 is mesh-decomposed.
FIG. 25 is a diagram illustrating a configuration example of an acoustic component or a speech component of an observation value.
FIG. 26 is a diagram illustrating an example of a jingle image.
27 is a diagram illustrating an example of a mask applied to the image of FIG. 26 and an example of decomposing the image of FIG. 26 into frequency components.
FIG. 28 is a diagram illustrating a configuration example of a video component of an observation value.
FIG. 29 is a diagram illustrating an example of vectorizing an acoustic component or an audio component of an observation value and jingle data.
FIG. 30 is a diagram illustrating an example of vectorizing an observation value and a video component of jingle data.
FIG. 31 is a flowchart illustrating an end jingle pattern monitoring process.
FIG. 32 is a diagram showing an example of a recording start position and a recording end position of a program.
FIG. 33 is a flowchart illustrating a saved part specifying process.
FIG. 34 is a diagram illustrating an example of a command for specifying a program start position and a program end position.
FIG. 35 is a diagram illustrating an example in which end processing of a program is performed using a start jingle pattern and an end jingle pattern of a recording target program.
FIG. 36 is a diagram showing an example of a command for designating a program start position and a program end position.
FIG. 37 is a diagram illustrating an example in which end processing of a program is performed using a start jingle pattern and an end jingle pattern of a program adjacent to a recording target program.
FIG. 38 is a diagram showing a display example of a screen displayed when a program is reproduced.
FIG. 39 is a block diagram illustrating a configuration example of a personal computer.
[Explanation of symbols]
51 server, 52 recording device, 71 jingle providing section, 72 jingle DB, 74 jingle creation section, 91 program reservation section, 92 jingle monitor section, 93 recording section, 94 storage section, 95 playback section, 114 automatic extraction section, 112 manual Extraction unit, 401 observation value calculation unit, 402 evaluation value calculation unit, 403 control unit

Claims (20)

ネットワークを介して相互に接続される記録装置と情報処理装置からなるコンテンツ記録システムであって、
前記情報処理装置は、
放送された番組の映像または音声のデータと、番組の放送時刻を表す番組表データを取得し、前記映像または音声のデータと前記番組表データに基づいて、番組の区切点を表すジングルのジングルデータを作成し、
前記番組表データに前記ジングルデータを付与し、
前記ジングルデータが付与された番組表データを、前記ネットワークを介して前記記録装置に提供し、
前記記録装置は、
前記ジングルデータが付与された番組表データを取得し、
前記ジングルデータが付与された番組表データに基づいて、番組の録画予約を設定し、
放送される番組の映像または音声のデータを解析し、録画予約が設定された前記番組の開始または終了を特定するジングルを抽出し、
抽出されたジングルに基づいて、前記番組の録画を開始または終了し、
録画された前記番組をデータベースに記憶する
ことを特徴とするコンテンツ記録システム。
A content recording system comprising a recording device and an information processing device interconnected via a network,
The information processing device,
Video or audio data of a broadcasted program and program table data representing the broadcast time of the program are obtained, and jingle data of a jingle representing a breakpoint of the program based on the video or audio data and the program table data. To create
Adding the jingle data to the program guide data,
The program table data to which the jingle data is provided, is provided to the recording device via the network,
The recording device,
Obtain the program guide data to which the jingle data is added,
Based on the program table data to which the jingle data is added, set a recording reservation of the program,
Analyzing the video or audio data of the broadcasted program, extracting a jingle that specifies the start or end of the program for which recording reservation has been set,
Start or end recording of the program based on the extracted jingles,
A content recording system, wherein the recorded program is stored in a database.
ネットワークを介して相互に接続される記録装置からなるコンテンツ記録システムのコンテンツ記録方法であって、
前記情報処理装置は、
放送された番組の映像または音声のデータと、番組の放送時刻を表す番組表データを取得し、前記映像または音声のデータと前記番組表データに基づいて、番組の区切点を表すジングルのジングルデータを作成し、
前記番組表データに前記ジングルデータを付与し、
前記ジングルデータが付与された番組表データを、前記ネットワークを介して前記記録装置に提供し、
前記記録装置は、
前記ジングルデータが付与された番組表データを取得し、
前記ジングルデータが付与された番組表データに基づいて、番組の録画予約を設定し、
放送される番組の映像または音声のデータを解析し、録画予約が設定された前記番組の開始または終了を特定するジングルを抽出し、
抽出されたジングルに基づいて、前記番組の録画を開始または終了し、
録画された前記番組をデータベースに記憶する
ことを特徴とするコンテンツ記録方法。
A content recording method for a content recording system including recording devices interconnected via a network,
The information processing device,
Video or audio data of a broadcasted program and program table data representing the broadcast time of the program are obtained, and jingle data of a jingle representing a breakpoint of the program based on the video or audio data and the program table data. To create
Adding the jingle data to the program guide data,
The program table data to which the jingle data is provided, is provided to the recording device via the network,
The recording device,
Obtain the program guide data to which the jingle data is added,
Based on the program table data to which the jingle data is added, set a recording reservation of the program,
Analyzing the video or audio data of the broadcasted program, extracting a jingle that specifies the start or end of the program for which recording reservation has been set,
Start or end recording of the program based on the extracted jingles,
A content recording method, wherein the recorded program is stored in a database.
ネットワークを介して記録装置と接続され、放送された番組の映像または音声のデータと、番組の放送時刻を表す番組表データを取得し、前記映像または音声のデータと前記番組表データに基づいて、番組の区切点を表すジングルのジングルデータを作成する情報処理装置であって、
前記映像または音声のデータに含まれるジングルを抽出し、抽出された前記ジングルのジングルデータを作成する作成手段と、
前記ジングルデータを前記番組表に付与する付与手段と
を備え、
前記ジングルデータが付与された前記番組表を、前記ネットワークを介して前記記録装置に提供する
ことを特徴とする情報処理装置。
Connected to a recording device via a network, the video or audio data of the broadcasted program, to obtain program table data representing the broadcast time of the program, based on the video or audio data and the program table data, An information processing apparatus for creating jingle data of a jingle representing a break point of a program,
Creation means for extracting jingles included in the video or audio data and creating jingle data of the extracted jingles,
Providing means for giving the jingle data to the program table,
An information processing apparatus, wherein the program guide provided with the jingle data is provided to the recording device via the network.
前記作成手段により作成されたジングルデータに基づいて、番組の開始または終了を特定するジングルのパターンを生成する生成手段をさらに備え、
前記付与手段は、前記パターンを前記番組表に付与する
ことを特徴とする請求項3に記載の情報処理装置。
The apparatus further includes a generation unit configured to generate a jingle pattern that specifies a start or end of a program based on the jingle data created by the creation unit.
The information processing apparatus according to claim 3, wherein the assigning unit assigns the pattern to the program guide.
前記ジングルデータは、
前記ジングルの音声データの特徴を表す、音響成分および音声成分と、
前記ジングルの映像データの特徴を表す、映像成分と、
前記音響成分、前記音声成分、および前記映像成分の重要度を表す重み情報と、
前記音響成分、前記音声成分、および前記映像成分に基づいて、ジングルを特定するために必要な閾値とを有する
ことを特徴とする請求項3に記載の情報処理装置。
The jingle data,
An acoustic component and an audio component representing the characteristics of the jingle audio data;
An image component representing characteristics of the image data of the jingle;
Weight information representing the importance of the audio component, the audio component, and the video component,
The information processing apparatus according to claim 3, further comprising a threshold necessary for specifying a jingle based on the audio component, the audio component, and the video component.
前記音響成分および前記音声成分は、前記ジングルの音声データの周波数成分に基づいて生成され、
前記映像成分は、前記ジングルの映像データの周波数成分に基づいて生成される
ことを特徴とする請求項5に記載の情報処理装置。
The audio component and the audio component are generated based on frequency components of the audio data of the jingle,
The information processing apparatus according to claim 5, wherein the video component is generated based on a frequency component of video data of the jingle.
ネットワークを介して記録装置と接続され、放送された番組の映像または音声のデータと、番組の放送時刻を表す番組表データを取得し、前記映像または音声のデータと前記番組表データに基づいて、番組の区切点を表すジングルのジングルデータを作成する情報処理装置の情報処理方法であって、
前記映像または音声のデータに含まれるジングルを抽出し、抽出された前記ジングルのジングルデータを作成する作成ステップと、
前記ジングルデータを前記番組表に付与する付与ステップと
を含み、
前記ジングルデータが付与された前記番組表を、前記ネットワークを介して前記記録装置に提供する
ことを特徴とする情報処理方法。
Connected to a recording device via a network, the video or audio data of the broadcasted program, to obtain program table data representing the broadcast time of the program, based on the video or audio data and the program table data, An information processing method of an information processing apparatus for creating jingle data of jingles representing a break point of a program,
A creation step of extracting jingles included in the video or audio data and creating jingle data of the extracted jingles,
An application step of applying the jingle data to the program guide,
An information processing method, wherein the program guide provided with the jingle data is provided to the recording device via the network.
ネットワークを介して記録装置と接続され、放送された番組の映像または音声のデータと、番組の放送時刻を表す番組表データを取得し、前記映像または音声のデータと前記番組表データに基づいて、番組の区切点を表すジングルのジングルデータを作成する情報処理装置のプログラムであって、
前記映像または音声のデータに含まれるジングルを抽出し、抽出された前記ジングルのジングルデータの作成を制御する作成制御ステップと、
前記ジングルデータを前記番組表に付与するように制御する付与制御ステップと
をコンピュータに実行させることを特徴とするプログラム。
Connected to a recording device via a network, the video or audio data of the broadcasted program, to obtain program table data representing the broadcast time of the program, based on the video or audio data and the program table data, A program of an information processing device for creating jingle data of a jingle representing a break point of a program,
A creation control step of extracting a jingle included in the video or audio data and controlling creation of jingle data of the extracted jingle,
And a providing control step of controlling to provide the jingle data to the program table.
ネットワークを介して記録装置と接続され、放送された番組の映像または音声のデータと、番組の放送時刻を表す番組表データを取得し、前記映像または音声のデータと前記番組表データに基づいて、番組の区切点を表すジングルのジングルデータを作成する情報処理装置のプログラムが記録される記録媒体であって、
前記映像または音声のデータに含まれるジングルを抽出し、抽出された前記ジングルのジングルデータの作成を制御する作成制御ステップと、
前記ジングルデータを前記番組表に付与するように制御する付与制御ステップと
をコンピュータに実行させるプログラムが記録されることを特徴とする記録媒体。
Connected to a recording device via a network, the video or audio data of the broadcasted program, to obtain program table data representing the broadcast time of the program, based on the video or audio data and the program table data, A recording medium on which a program of an information processing device for creating jingle data of a jingle representing a break point of a program is recorded,
A creation control step of extracting a jingle included in the video or audio data and controlling creation of jingle data of the extracted jingle,
A program for causing a computer to execute an application control step of applying the jingle data to the program table.
ネットワークを介して情報処理装置と接続され、放送される番組を記録する記録装置であって、
前記情報処理装置から番組の区切点を表すジングルのジングルデータが付与された番組表データを取得し、前記ジングルデータが付与された番組表データに基づいて、番組の録画予約を設定する予約手段と、
放送される番組の映像または音声のデータを解析し、録画予約が設定された前記番組の開始または終了を特定するジングルを抽出する抽出手段と、
抽出されたジングルに基づいて、前記番組の録画を開始または終了し、録画された前記番組のうち不要な部分を削除し、保存すべき部分を特定する録画手段と、
前記録画手段により特定された前記保存すべき部分をデータベースとして記憶する記憶手段と、
を備えることを特徴とする記録装置。
A recording device that is connected to an information processing device via a network and records a broadcasted program,
Reservation means for acquiring program table data to which jingle data of a jingle representing a breakpoint of a program is provided from the information processing apparatus, and setting recording reservation of a program based on the program table data to which the jingle data is provided. ,
Extraction means for analyzing video or audio data of a broadcasted program and extracting a jingle for specifying the start or end of the program for which recording reservation has been set,
Recording means for starting or ending recording of the program based on the extracted jingles, deleting unnecessary portions of the recorded program, and specifying a portion to be stored,
Storage means for storing the portion to be stored specified by the recording means as a database,
A recording device comprising:
ユーザの指示に基づいて、前記記憶手段により前記データベースに記憶された前記番組を再生する再生手段をさらに備える
ことを特徴とする請求項10に記載の記録装置。
11. The recording apparatus according to claim 10, further comprising a reproducing unit that reproduces the program stored in the database by the storage unit based on a user's instruction.
前記抽出手段は、
前記番組の開始を特定するジングルまたはジングルのパターンを検出する開始検出手段と、
前記番組の終了を特定するジングルまたはジングルのパターンを検出する終了検出手段と
を備えることを特徴とする請求項10に記載の記録装置。
The extracting means,
Start detection means for detecting a jingle or a jingle pattern for specifying the start of the program,
11. The recording apparatus according to claim 10, further comprising: an end detecting unit that detects a jingle or a jingle pattern that specifies the end of the program.
前記抽出手段は、
前記番組の映像または音声のデータの特徴量を算出し、観測値を演算する観測値演算手段と、
前記観測値演算手段により演算された観測値と、前記情報処理装置から取得されたジングルデータを比較し、前記観測値と前記ジングルデータの近似性を表す近似評価値を演算する評価値演算手段と
をさらに備えることを特徴とする請求項10に記載の記録装置。
The extracting means,
Observation value calculation means for calculating a feature amount of video or audio data of the program, and calculating an observation value;
An observation value calculated by the observation value calculation means, and jingle data obtained from the information processing apparatus, and an evaluation value calculation means for calculating an approximate evaluation value representing the closeness of the observation value and the jingle data; The recording apparatus according to claim 10, further comprising:
前記観測値演算手段は、
前記番組の音声データの周波数成分に基づいて、前記観測値の音響成分と音声成分を演算し、
前記番組の映像データの周波数成分に基づいて、前記観測値の映像成分を演算する
ことを特徴とする請求項13に記載の記録装置。
The observation value calculation means,
Based on the frequency component of the audio data of the program, calculate the audio component and the audio component of the observation value,
14. The recording apparatus according to claim 13, wherein a video component of the observed value is calculated based on a frequency component of video data of the program.
前記評価値演算手段は、
前記ジングルデータの音響成分と前記観測値の音響成分を比較して音響評価値を演算し、
前記ジングルデータの音声成分と前記観測値の音声成分を比較して音声評価値を演算し、
前記ジングルデータの映像成分と前記観測値の映像成分を比較して映像評価値を演算し、
前記音響評価値、前記音声評価値、および前記映像評価値に対して前記ジングルデータに含まれる重みを付加し、
重みが付加された前記音響評価値、前記音声評価値、および前記映像評価値に基づいて、前記近似評価値を演算する
ことを特徴とする請求項13に記載の記録装置。
The evaluation value calculation means,
Calculate the sound evaluation value by comparing the sound component of the jingle data and the sound component of the observation value,
A sound evaluation value is calculated by comparing a sound component of the jingle data with a sound component of the observation value,
Calculate a video evaluation value by comparing the video component of the jingle data and the video component of the observation value,
The sound evaluation value, the audio evaluation value, and the weight included in the jingle data to the video evaluation value,
14. The recording apparatus according to claim 13, wherein the approximate evaluation value is calculated based on the weighted sound evaluation value, the sound evaluation value, and the video evaluation value.
前記抽出手段は、前記近似評価値と前記ジングルデータに含まれる閾値を比較し、比較の結果に基づいて、前記番組の開始または終了を特定するジングルを抽出する
ことを特徴とする請求項13に記載の記録装置。
14. The method according to claim 13, wherein the extraction unit compares the approximate evaluation value with a threshold value included in the jingle data, and extracts a jingle specifying a start or end of the program based on a result of the comparison. The recording device according to the above.
前記録画手段は、
録画予約が設定された前記番組に番組の開始または終了を特定する前記ジングルまたは前記パターンがあるか否かを判定する判定手段を備え、
前記判定手段により、録画予約が設定された前記番組の開始または終了を特定する前記ジングルまたは前記パターンがないと判定された場合、前記番組と時間的に連続する番組の開始または終了を特定するジングルまたはジングルのパターンに基づいて、録画予約が設定された番組のうち保存すべき部分を特定し、
前記判定手段により、録画予約が設定された前記番組の開始または終了を特定する前記ジングルまたは前記パターンがあると判定された場合、前記ジングルまたは前記パターンに基づいて、前記番組のうち保存すべき部分を特定する
ことを特徴とする請求項10に記載の記録装置。
The recording means,
Determining means for determining whether or not there is the jingle or the pattern to specify the start or end of the program in the program set for recording reservation,
When the determining means determines that there is no jingle or the pattern that specifies the start or end of the program for which recording reservation has been set, a jingle that specifies the start or end of a program that is temporally continuous with the program Or, based on the jingle pattern, identify the part of the program that has been set for recording
When the determining unit determines that there is the jingle or the pattern that specifies the start or end of the program for which recording reservation has been set, a part of the program to be stored based on the jingle or the pattern. The recording apparatus according to claim 10, wherein:
ネットワークを介して情報処理装置と接続され、放送される番組を記録する記録装置の記録方法であって、
前記情報処理装置から番組の区切点を表すジングルのジングルデータが付与された番組表データを取得し、前記ジングルデータが付与された番組表データに基づいて、番組の録画予約を設定する予約ステップと、
放送される番組の映像または音声のデータを解析し、録画予約が設定された前記番組の開始または終了を特定するジングルを抽出し、抽出されたジングルに基づいて、前記番組の録画を開始または終了する抽出ステップと、
録画された前記番組のうち不要な部分を削除し、保存すべき部分を特定する録画ステップと
を含むことを特徴とする記録方法。
A recording method of a recording device that is connected to an information processing device via a network and records a broadcast program,
A reservation step of acquiring program table data to which jingle data of a jingle representing a break point of a program is provided from the information processing apparatus, and setting a recording reservation of a program based on the program table data to which the jingle data is provided; ,
Analyzing the video or audio data of the broadcasted program, extracting a jingle specifying the start or end of the program for which recording reservation has been set, and starting or ending recording of the program based on the extracted jingle. Extracting step;
A recording step of deleting an unnecessary part of the recorded program and specifying a part to be stored.
ネットワークを介して情報処理装置と接続され、放送される番組を記録する記録装置のプログラムであって、
前記情報処理装置から番組の区切点を表すジングルのジングルデータが付与された番組表データを取得し、前記ジングルデータが付与された番組表データに基づいて、番組の録画予約の設定を制御する予約制御ステップと、
放送される番組の映像または音声のデータを解析し、録画予約が設定された前記番組の開始または終了を特定するジングルを抽出し、抽出されたジングルに基づいて、前記番組の録画の開始または終了を制御する抽出制御ステップと、
録画された前記番組のうち不要な部分を削除し、保存すべき部分を特定するように制御する録画制御ステップと
をコンピュータに実行させることを特徴とするプログラム。
A program for a recording device that is connected to an information processing device via a network and records a broadcasted program,
Reservation for acquiring program guide data to which jingle data of a jingle representing a break point of a program is added from the information processing apparatus, and controlling setting of recording reservation of a program based on the program guide data to which the jingle data is added. A control step;
Analyzing the video or audio data of the broadcasted program, extracting a jingle specifying the start or end of the program for which recording reservation has been set, and starting or ending recording of the program based on the extracted jingle. An extraction control step of controlling
A recording control step of performing control to delete an unnecessary portion of the recorded program and to specify a portion to be stored.
ネットワークを介して情報処理装置と接続され、放送される番組を記録する記録装置のプログラムが記録される記録媒体であって、
前記情報処理装置から番組の区切点を表すジングルのジングルデータが付与された番組表データを取得し、前記ジングルデータが付与された番組表データに基づいて、番組の録画予約の設定を制御する予約制御ステップと、
放送される番組の映像または音声のデータを解析し、録画予約が設定された前記番組の開始または終了を特定するジングルを抽出し、抽出されたジングルに基づいて、前記番組の録画の開始または終了を制御する抽出制御ステップと、
録画された前記番組のうち不要な部分を削除し、保存すべき部分を特定するように制御する録画制御ステップと
をコンピュータに実行させるプログラムが記録されることを特徴とする記録媒体。
A recording medium that is connected to the information processing device via a network and records a program of a recording device that records a broadcasted program,
Reservation for acquiring program guide data to which jingle data of a jingle representing a break point of a program is added from the information processing apparatus, and controlling setting of recording reservation of a program based on the program guide data to which the jingle data is added. A control step;
Analyzing the video or audio data of the broadcasted program, extracting a jingle specifying the start or end of the program for which recording reservation has been set, and starting or ending recording of the program based on the extracted jingle. An extraction control step of controlling
A recording medium characterized by recording a program for causing a computer to execute a recording control step of performing control so as to delete an unnecessary portion of the recorded program and specify a portion to be stored.
JP2003148513A 2003-05-27 2003-05-27 Contents recording system and method, information processing apparatus and method, recording apparatus and method, program, and recording medium Withdrawn JP2004356682A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003148513A JP2004356682A (en) 2003-05-27 2003-05-27 Contents recording system and method, information processing apparatus and method, recording apparatus and method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003148513A JP2004356682A (en) 2003-05-27 2003-05-27 Contents recording system and method, information processing apparatus and method, recording apparatus and method, program, and recording medium

Publications (1)

Publication Number Publication Date
JP2004356682A true JP2004356682A (en) 2004-12-16

Family

ID=34044855

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003148513A Withdrawn JP2004356682A (en) 2003-05-27 2003-05-27 Contents recording system and method, information processing apparatus and method, recording apparatus and method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP2004356682A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007274237A (en) * 2006-03-30 2007-10-18 Denso Corp Broadcast receiver for moving body

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007274237A (en) * 2006-03-30 2007-10-18 Denso Corp Broadcast receiver for moving body
JP4662208B2 (en) * 2006-03-30 2011-03-30 株式会社デンソー Broadcast receiver for mobile objects

Similar Documents

Publication Publication Date Title
US8103107B2 (en) Video-attribute-information output apparatus, video digest forming apparatus, computer program product, and video-attribute-information output method
US8121349B2 (en) Electronic apparatus and video processing method
US9477304B2 (en) Information processing apparatus, information processing method, and program
US7587124B2 (en) Apparatus, method, and computer product for recognizing video contents, and for video recording
US8200061B2 (en) Signal processing apparatus and method thereof
JP4332988B2 (en) Signal processing apparatus and method
JP2008022103A (en) Apparatus and method for extracting highlight of moving picture of television program
US7865063B2 (en) Signal processing apparatus and method, recording medium, and program
JP2005173569A (en) Apparatus and method for classifying audio signal
JP4300697B2 (en) Signal processing apparatus and method
US8804973B2 (en) Signal clustering apparatus
US20100008641A1 (en) Electronic apparatus, video content editing method, and program
CA2566637A1 (en) Method, system, and program product for measuring audio video synchronization
JP5218766B2 (en) Rights information extraction device, rights information extraction method and program
JP6095381B2 (en) Data processing apparatus, data processing method, and program
US11503375B2 (en) Systems and methods for displaying subjects of a video portion of content
US9749550B2 (en) Apparatus and method for tuning an audiovisual system to viewer attention level
JP4759745B2 (en) Video classification device, video classification method, video classification program, and computer-readable recording medium
US20070153125A1 (en) Method, system, and program product for measuring audio video synchronization
KR20050026965A (en) Method of and system for controlling the operation of a video system
KR102294817B1 (en) Apparatus and method for analyzing video
JP2004356682A (en) Contents recording system and method, information processing apparatus and method, recording apparatus and method, program, and recording medium
JP2004363749A (en) System and method for content recording, device and method for recording, program, and recording medium
JP4272611B2 (en) VIDEO PROCESSING METHOD, VIDEO PROCESSING DEVICE, VIDEO PROCESSING PROGRAM, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING THE PROGRAM
WO2011161820A1 (en) Video processing device, video processing method and video processing program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060801