JP2006129133A - Content reproducing apparatus - Google Patents
Content reproducing apparatus Download PDFInfo
- Publication number
- JP2006129133A JP2006129133A JP2004315450A JP2004315450A JP2006129133A JP 2006129133 A JP2006129133 A JP 2006129133A JP 2004315450 A JP2004315450 A JP 2004315450A JP 2004315450 A JP2004315450 A JP 2004315450A JP 2006129133 A JP2006129133 A JP 2006129133A
- Authority
- JP
- Japan
- Prior art keywords
- content
- picture
- synchronization
- metadata
- video content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、一般放送番組を録画して得られたコンテンツを、メタデータを用いて効率よく再生するコンテンツ再生装置に関するものである。 The present invention relates to a content reproduction apparatus that efficiently reproduces content obtained by recording a general broadcast program using metadata.
従来、メタデータを用いるコンテンツ再生装置としては、特許文献1に記載されたものが知られている。これによれば、ビデオ再生装置は、ビデオマテリアルを記録するビデオマテリアル記録手段(コンテンツストレージ装置)と、ビデオマテリアルの情報コンテンツを定義する関連付けられた情報データ(メタデータ)を受け取り、記憶するメタデータ保存装置と、メタデータに基づいて、ビデオマテリアル記録手段に記録されたビデオマテリアルの再生を制御する再生制御手段とを備える、というものである。メタデータには固有の識別インデクスであるUMID、及び開始/終了タイムコードを含んでおりこれら情報に基づいて、あまり動きの無い映像は早送りし、コンテンツ全体を見るのに要する時間を短縮しようというものである。
しかしながら上記のような構成では、メタデータはビデオコンテンツに特化されたものである必要があり、例えば、各家庭にてそれぞれで録画した番組(コンテンツ)に対して第3者(別の機器)が作成した同じコンテンツに対するメタデータを用いてコンテンツ再生を行なうことを考えると以下のような不都合が生じる。即ち、1)録画を行なった機器によってコンテンツ録画を開始した時刻がことなり、同じ映像であっても録画開始時からの時刻が異なってくる。2)個々の録画用機器でそれが有している時計がずれており、仮に同時に録画を開始した場合であっても、録画されたコンテンツに付加される録画開始時刻が異なってくる。また、圧縮時のビットレートや、更に言えば、各家庭に送られてくる電波の状態により、受診された画像そのものがノイズやゴーストにより全く同一とは限らない。 However, in the configuration as described above, the metadata needs to be specialized for video content. For example, a third party (another device) for a program (content) recorded in each home. Considering that content reproduction is performed using metadata for the same content created by the above, the following inconvenience occurs. That is, 1) The time at which content recording is started differs depending on the device that performed the recording, and the time from the recording start time is different even for the same video. 2) Each recording device has a different clock, and even if recording starts simultaneously, the recording start time added to the recorded content differs. In addition, depending on the bit rate at the time of compression and, more specifically, the state of the radio wave transmitted to each home, the received image itself is not always the same due to noise or ghost.
故に、メタデータに記載されている時刻を基に再生を行なおうとすると、思い通りのシーンから正しく再生できない。 Therefore, if playback is performed based on the time described in the metadata, it cannot be correctly played back from the desired scene.
本発明は上記の問題点に鑑み、第3者が作成した同じコンテンツに対するメタデータを用いても希望どおりのコンテンツ再生を行うことができるメタデータ及びコンテンツ再生装置を提供するものである。 SUMMARY OF THE INVENTION In view of the above problems, the present invention provides metadata and a content playback apparatus that can perform content playback as desired even when metadata for the same content created by a third party is used.
この課題を解決するために本発明のコンテンツ再生装置は、ビデオコンテンツの情報が抽出され、抽出に用いたビデオコンテンツにおけるシーンチェンジに基づいた同期用情報を含むメタデータを蓄積するメタデータ蓄積手段と、ビデオコンテンツを蓄積するコンテンツ蓄積手段と、メタデータとコンテンツ蓄積手段に蓄積されたビデオコンテンツとの同期を取る同期手段と、同期手段出力に基づき、メタデータを補正する補正手段とを備えるようにしたものである。 In order to solve this problem, a content playback apparatus according to the present invention includes metadata storage means for storing video content information and storing metadata including synchronization information based on scene changes in the video content used for extraction. A content storage unit that stores video content, a synchronization unit that synchronizes the metadata and the video content stored in the content storage unit, and a correction unit that corrects the metadata based on the output of the synchronization unit. It is a thing.
更に、本発明のコンテンツ再生装置は、同期用情報が、同期用情報が付加された箇所の直前の画面に対して、どのように変化したかを示す特徴差に関する情報を含むようにしたものである。 Furthermore, the content reproduction apparatus of the present invention is configured such that the synchronization information includes information regarding a feature difference indicating how the synchronization information is changed with respect to the screen immediately before the location where the synchronization information is added. is there.
以上のように本発明によれば、第三者が作成したメタデータを用いて独自に録画したビデオコンテンツを再生でき、逆に、独自に録画したビデオコンテンツより作成したメタデータを用いて、第三者が自身で録画したビデオコンテンツを再生することができるという効果が得られる。 As described above, according to the present invention, it is possible to reproduce video content uniquely recorded using metadata created by a third party, and conversely, using metadata created from uniquely recorded video content, There is an effect that the video content recorded by the three parties can be reproduced.
本発明の請求項1に記載の発明は、ビデオコンテンツの情報が抽出され、抽出に用いたビデオコンテンツにおけるシーンチェンジに基づいた同期用情報を含むメタデータを蓄積するメタデータ蓄積手段と、ビデオコンテンツを蓄積するコンテンツ蓄積手段と、前記メタデータと前記コンテンツ蓄積手段に蓄積されたビデオコンテンツとの同期を取る同期手段と、前記同期手段出力に基づき、前記メタデータを補正する補正手段とを備えることを特徴としたものであり、これにより、どこか1箇所においてメタデータによって示される画面がどのフレームであるのかが決められれば、ある画面からある画面までのフレーム数は画質、録画したコンテンツのビットレートによらず同じであるので、第3者が作成したメタデータを用いて自身の有するビデオコンテンツと同期がとれたメタデータを得ることができるという作用を有する。 According to a first aspect of the present invention, there is provided a metadata storage means for storing video content information, and storing metadata including synchronization information based on a scene change in the video content used for the extraction, and the video content Content storage means for storing data, synchronization means for synchronizing the metadata and video content stored in the content storage means, and correction means for correcting the metadata based on the output of the synchronization means As a result, if it is possible to determine which frame is the screen indicated by the metadata at one location, the number of frames from one screen to another is the image quality, bit of recorded content. Because it is the same regardless of the rate, it has its own using metadata created by a third party An effect that can be obtained metadata of the video content and synchronization is established.
また、請求項2に記載の発明は、請求項1記載のコンテンツ再生装置において、前記同期用情報が、該同期用情報が付加された箇所の直前の画面に対してどのように変化したかを示す特徴差に関する情報を含むことを特徴としたものであり、これにより、メタデータによって予め示されている比較結果と実際の比較結果が一致するかをみることでより効率的に同期用情報によって示された箇所を絞り込むことができるという作用を有する。
The invention according to
また、請求項3に記載の発明は、請求項1記載のコンテンツ再生装置において、前記抽出に用いたビデオコンテンツ及びコンテンツ蓄積手段に蓄積されたビデオコンテンツがMPEG方式により圧縮されたストリームであることを特徴としたものであり、これにより、コンテンツ蓄積手段に蓄えられたビデオコンテンツにおけるフレーム毎の特徴がより少ないデータ量でより顕著に現れるという作用を有する。
Further, the invention according to
また、請求項4に記載の発明は、請求項3記載のコンテンツ再生装置において、前記同期用情報が、該同期用情報が付加された箇所とその直前、直後のIピクチャの少なくとも一方に対してどのように変化したかを示す特徴差に関する情報を含むことを特徴としたものであり、これにより、メタデータによって予め示されている比較結果と実際の比較結果が一致するかをみることでより効率的に同期用情報によって示された箇所を絞り込むことができるという作用を有する。 According to a fourth aspect of the present invention, there is provided the content reproduction apparatus according to the third aspect, wherein the synchronization information is applied to at least one of the location where the synchronization information is added and the immediately preceding and immediately following I picture. It is characterized by including information on the feature difference indicating how it has changed, and by this, it is more possible to see whether the comparison result shown in advance by the metadata matches the actual comparison result It has the effect that the location indicated by the synchronization information can be narrowed down efficiently.
また、請求項5に記載の発明は、請求項3記載のコンテンツ再生装置において、前記同期用情報が、直前のIピクチャとの特徴差が特に大きい箇所に付されている情報であることを特徴としたものであり、これにより、同期を検出する際、隣接するIピクチャの特徴を比較し、その差が最も大きいところを第1候補とすることでより効率的に同期をとることができるという作用を有する。
Further, the invention according to
また、請求項6に記載の発明は、請求項4または5に記載のコンテンツ再生装置において、前記特徴差が、Iピクチャのサイズ、輝度、色相、色の濃さ、のうち少なくとも1つを含むことを特徴としたものであり、これにより、誤ったIピクチャを選択した場合に、メタデータによって予め示されている比較結果と実際の比較結果が一致する確率が低くなり、同期情報によって示されるIピクチャがどれに相当するかをより効率的に絞り込むことができるという作用を有する。
The content reproduction apparatus according to
また、請求項7に記載の発明は、請求項3記載のコンテンツ再生装置において、前記同期用情報が、該同期用情報により指示されるシーンチェンジの前後に少なくとも数秒間以上シーンチェンジがない箇所に付されている情報であることを特徴としたものであり、これにより、同期用情報によって示される箇所のみ直前のIピクチャとの差異が大きくなり、同期用情報によって示されるIピクチャがどれに相当するかがより求め易くなるという作用を有する。 Further, according to a seventh aspect of the present invention, in the content reproduction device according to the third aspect, the synchronization information is located at a place where there is no scene change for at least several seconds before and after the scene change indicated by the synchronization information. As a result, the difference from the immediately preceding I picture increases only at the location indicated by the synchronization information, and which corresponds to the I picture indicated by the synchronization information. This has the effect of making it easier to obtain.
また、請求項8に記載の発明は、請求項3記載のコンテンツ再生装置において、前記同期用情報がメタデータ内に複数個存在することを特徴としたものであり、これにより、より誤検出を防ぐという作用を有する。
The invention according to
また、請求項9に記載の発明は、請求項8記載のコンテンツ再生装置において、前記同期手段が、同期用情報が付加された箇所間のフレーム数を算出し、前記ビデオコンテンツにおいて前記算出値どおりの箇所にIピクチャあるいは該ピクチャを挟む形で存在するIピクチャの中でサイズが最大となるBピクチャまたはPピクチャが存在することを利用して同期検出を行なうようにしたことを特徴としたものであり、これにより、Iピクチャ、Bピクチャ、Pピクチャのデータ量のみを調べるだけで検出処理を行なうことができ、MPEG圧縮されたコンテンツをデコードすることなく同期をとることができるという作用を有する。
The content reproduction apparatus according to
また、請求項10に記載の発明は、請求項1記載のコンテンツ再生装置において、前記コンテンツ蓄積手段に格納されたビデオコンテンツを再生するための再生条件を蓄積する蓄積手段と、前記補正手段出力及び前記再生条件に基づき、前記ビデオコンテンツの再生を制御する制御手段と、前記コンテンツ蓄積手段出力と前記制御手段出力に基づき前記ビデオコンテンツの再生を行なう再生手段とを備えたことを特徴としたものであり、これにより、補正されたメタデータを用いて自由に好みの条件によりコンテンツを再生することができるという作用を有する。
Further, the invention according to
また、請求項11に記載の発明は、請求項1記載のコンテンツ再生装置において、前記補正手段により補正されたメタデータを保存するか補正前のメタデータと置き換える手段を有することを特徴としたものであり、これにより、一度メタデータと蓄積されたビデオコンテンツの同期をとれば、次回、そのメタデータを用いてビデオコンテンツを再生する場合に同期を取り直す必要がなくなるという作用を有する。
The invention according to claim 11 is the content playback apparatus according to
また、請求項12に記載の発明は、請求項11記載のコンテンツ再生装置において、前記メタデータが前記第1の蓄積手段に蓄積されたビデオコンテンツと既に同期がとれているものであるのかを識別する手段を有していることを特徴としたものであり、これにより、メタデータを用いてビデオコンテンツの再生を行なう際、予め同期を取る必要の有無を瞬時に判断できるという作用を有する。 The invention according to claim 12 is the content playback apparatus according to claim 11, wherein whether the metadata is already synchronized with the video content stored in the first storage means is identified. Therefore, when reproducing video content using metadata, it is possible to instantaneously determine whether or not synchronization is required in advance.
また、請求項13に記載の発明は、請求項1記載のコンテンツ再生装置において、前記コンテンツ蓄積手段に蓄積されたビデオコンテンツが、どのような方式で圧縮されているかを示す情報を有していることを特徴としたものであり、これにより、第3者が作成したビデオコンテンツに対してもメタデータとの同期を取ることが可能となるという作用を有する。
The invention described in claim 13 has information indicating in what manner the video content stored in the content storage means is compressed in the content playback apparatus described in
以下、本発明の実施の形態について図面を用いて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(実施の形態)
図1は本発明の実施の形態によるコンテンツ再生装置の構成を示すブロック図である。この図を説明すると、コンテンツ蓄積手段6にはビデオコンテンツが記録されており、ここでは一般にテレビ放送された番組が録画機器によってMPEG2圧縮録画されたビデオコンテンツが蓄積されている。ビデオコンテンツはファイル化されており、ファイルのアトリビュート(attribute)を読みとることにより、録画日時やその内容の概略を知ることが出来る。
(Embodiment)
FIG. 1 is a block diagram showing a configuration of a content reproduction apparatus according to an embodiment of the present invention. Referring to this figure, video content is recorded in the content storage means 6, and here, video content that is generally MPEG2 compressed and recorded by a recording device is stored. Video contents are filed, and by reading the file attributes, the recording date and time and the outline of the contents can be known.
メタデータ蓄積手段2にはコンテンツ蓄積手段6に蓄積されたビデオコンテンツに対応したメタデータが蓄積されている。ここでは、第3者(別個の機器)が前述のテレビ放送を個別に録画し、その録画映像を基に作成したメタデータが格納されている。メタデータには、録画日時や、その内容、また、該当するビデオコンテンツにおいてどこにどのようなシーンが録画されているか、また、このメタデータを、例えば、他のビデオ録画機器で録画した同一の番組に適応するときに用いるための同期用情報が所定のフォーマットによって示されている。
The
図2には、本発明に適用可能なメタデータの具体例が示されている。ここでは、メタデータはXML記法(eXtensible Markup Language)によって記述されており、メタデータの概略の内容を示すヘッダ部とビデオコンテンツの具体的な内容を示すボディ部によって構成されている。 FIG. 2 shows a specific example of metadata applicable to the present invention. Here, the metadata is described in XML notation (eXtensible Markup Language), and is composed of a header portion indicating the general content of the metadata and a body portion indicating the specific content of the video content.
ヘッダ部はヘッダタグ(<header>)により開始部が示されており、ビデオコンテンツの番組のタイトル(<title>)、番組ジャンル(<category>)、録画日時(date)、録画時間(duration)、内容を示すキーワード(kywd)、このメタデータを作成したときに用いたビデオコンテンツがどのように圧縮されたかを示すエンコード情報(<enc>)が設定されている。エンコード情報は、エンコード方式を示すmethodパラメータとそのモードを示すmodeパラメータより成る。methodパラメータは、mpeg2、mpeg4、none、の3とおりがあり、mpeg2、mpeg4は文字通り、そのビデオコンテンツがMPEG2、またはMPEG4方式で圧縮されたものであったことを示す。またnoneとは、MPEG圧縮されていないビデオコンテンツであったことを示す。modeパラメータは、methodパラメータの値がnone以外の場合に有効であり、ここでは、シーンチェンジに関わらず、Iピクチャが一定の周期で挿入されるモードを意味するconstantと、シーンチェンジ毎にIピクチャが強制的に割り当てられ、次のシーンチェンジがあるまでは一定の周期でIピクチャが挿入されるモードを意味するoptimumの2種類を用意している。本実施の形態ではconstantであることが示されている。オフセットタグ(<offset>)はメタデータ補正用のタグであり、後述する。 The header part is indicated by a header tag (<header>), and the title of the video content program (<title>), program genre (<category>), recording date and time (date), recording time (duration), A keyword indicating the content (kywd) and encoding information (<enc>) indicating how the video content used when the metadata is created are compressed are set. The encoding information includes a method parameter indicating the encoding method and a mode parameter indicating the mode. There are three method parameters, mpeg2, mpeg4, and none, and mpeg2 and mpeg4 literally indicate that the video content was compressed by the MPEG2 or MPEG4 system. “None” indicates that the video content is not MPEG-compressed. The mode parameter is effective when the value of the method parameter is other than “none”. Here, “constant” means a mode in which an I picture is inserted at a constant period regardless of a scene change, and an I picture for each scene change. Are forcibly assigned, and two types of optimum, which means a mode in which an I picture is inserted at a constant period until the next scene change, are prepared. In the present embodiment, it is shown to be constant. The offset tag (<offset>) is a metadata correction tag, which will be described later.
ここでは、番組のジャンルが「sports/baseball」となっており、スポーツ番組であり、そのスポーツが野球であることがわかる。ここでは、「/」を用いてジャンルの更なる細かな分類をするようにしている。また、エンコード情報に「method=mpeg2;mode=constant」とあるように、MPEG2でエンコードされ、シーンチェンジの際にIピクチャを強制的に割り当てないconstantモードであること等が示されている。なお、ここではすべてローマ字を用いて表記しているが、無論カタカナや漢字を用いて良いものである。 Here, the genre of the program is “sports / baseball”, which indicates that the program is a sports program and that the sport is baseball. Here, “/” is used to further categorize the genre. Further, the encoding information is “method = mpeg2; mode = constant”, which is encoded in MPEG2 and is in a constant mode in which an I picture is not forcibly assigned at the time of a scene change. In addition, although all are described using Roman characters here, it is a matter of course that katakana and kanji may be used.
ボディ部はボディタグ(<body>)によってその開始部が示されており、どこにどのようなシーンが記録されているかを、各シーンをセグメントと見なして、セグメントタグ(<seg>)で示されている。セグメントタグ内には、そのブロックが全体のビデオコンテンツにおいてどの録画期間にあるのかを示すポジションタグ(<pos>)、また、その内容を示すキーワードタグ(<kywd>)などが含まれている。ポジションタグには、そのセグメントがビデオコンテンツ上において開始からどの時刻より開始するかを示すfromパラメータと、セグメントの長さを示すdurationパラメータ、更には、それらに与えられた数値の単位を指定するunitパラメータを有している。 The start of the body part is indicated by the body tag (<body>). The scene tag is recorded as a segment tag (<seg>), where each scene is regarded as a segment. ing. The segment tag includes a position tag (<pos>) indicating which recording period the block is in the entire video content, a keyword tag (<kywd>) indicating the content, and the like. In the position tag, the from parameter indicating from which time the segment starts on the video content, the duration parameter indicating the length of the segment, and the unit for specifying the unit of the numerical value given to them Has parameters.
ここでは、セグメント1では、キーワードとしては、N.Y.、batter #1、等とあり、ニューヨーク、最初の打者、のシーンであり、fromパラメータが12000、durationパラメータが5500、単位がmsであるので、ビデオコンテンツ開始から12000ms、即ち12秒後から5500ms、つまり、5.5秒間がそのシーンに該当していることが示されている。セグメント4では、セグメントタグ内に「sync=on」として表示されており、このセグメントを用いてビデオコンテンツとの同期を取ればよいこが示されており、同期を取りやすくするために、ここでは、ヘッダ部にあるとおり、このメタデータはMPEG2で圧縮されたビデオコンテンツを基に作成されているので、そのセグメントの開始フレームとその直前、直後のIピクチャとの特徴差を示す情報が表示されている。ここでは、直前、直後のIピクチャとの特徴差を示すようにしているが、通常、シーンチェンジ直後はそれほど映像に差がでない場合が多いので、直前のIピクチャとの特徴差のみを示すようにしてもよい。
Here, in
以下、図5とともにその動作について説明する。制御手段10によりコンテンツ蓄積手段6及びメタデータ蓄積手段2よりビデオコンテンツ及びそれに該当するメタデータが選択される(ステップ31)。コンテンツ蓄積手段6及びメタデータ蓄積手段2においてビデオコンテンツ及びメタデータの読み込みが開始され(ステップ32)、選択されたメタデータが表示される(ステップ33)。表示装置については特に新規のものではないので図示していない。
The operation will be described below with reference to FIG. The control means 10 selects video contents and corresponding metadata from the content storage means 6 and the metadata storage means 2 (step 31). The
表示されたメタデータに基づき、利用者は制御手段10を介して再生条件設定を行なう(ステップ34)。どのように設定するかは設定者の好みで自由に設定可能であるが、例えば、特定のシーンを繰り返し何度か再生する、あるいは、特定のシーンはスキップする、などがあり得る。 Based on the displayed metadata, the user sets playback conditions via the control means 10 (step 34). The setting method can be freely set according to the preference of the setter. For example, a specific scene can be repeatedly reproduced several times, or a specific scene can be skipped.
一方、ステップ32において読み込まれたメタデータからは同期用タグの検索が行なわれる(ステップ35)。ここでは、同期用タグは図2、セグメント4、及びセグメント9に示されるとおり、セグメントタグ内に「sync=on」として表示されており、このセグメントを同期用に用いてビデオコンテンツとの同期を取ればよいこと意味している。「sync=on」以降に表示されているパラメータは、ここでは使用していない。
On the other hand, the synchronization tag is searched from the metadata read in step 32 (step 35). Here, as shown in FIG. 2,
同期用タグが見つかると、該当するセグメントが実際にどこに存在するかを調べるために、ビデオコンテンツの解析が行なわれる(ステップ36)。解析が終了し、同期がとれた場合にはステップ37において「同期完了」が選択され、ステップ38へと移行する。コンテンツ解析がどのようにしてなされるかについては後述する。
When the synchronization tag is found, the video content is analyzed in order to find out where the corresponding segment actually exists (step 36). When the analysis is completed and synchronization is established, “synchronization complete” is selected in
ステップ37において同期OKとなると、ステップ38に移りメタデータの補正を行なう。即ち、ステップ36、37、41による一連の操作によって得られた、メタデータに示される各シーンの開始時刻と、コンテンツ蓄積手段6に格納されたビデオコンテンツのアトリビュート等より実際に得られた該当するシーンの開始時刻との差を補正する。ここでは、図2に示すメタデータのヘッダ部において、オフセットタグを用い、上記のメタデータによって示される各シーンの開始時刻と実際の開始時刻との差を表記することで補正を行なっている。
If the synchronization is OK in
即ち、オフセットタグには、このメタデータにて示されているセグメントの開始時刻と、再生しようとする実際のビデオコンテンツにおける時刻の差を示す数値と、その数値の単位をtimeパラメータ、unitパラメータで示し、更には、このオフセットデータがどのビデオ再生装置で補正されたものかを示す情報をbaseパラメータで明示している。ここではbaseパラメータには、再生装置のシリアル番号を書き込むようにしている。逆に、このbaseパラメータの値が再生装置のシリアル番号と一致すれば、このメタデータは補正済みのものとして扱われる。 In other words, the offset tag includes a numerical value indicating the difference between the start time of the segment indicated in the metadata, the time difference in the actual video content to be reproduced, and the unit of the numerical value by the time parameter and the unit parameter. In addition, information indicating which video playback device has corrected the offset data is clearly indicated by a base parameter. Here, the serial number of the playback device is written in the base parameter. Conversely, if the value of the base parameter matches the serial number of the playback device, the metadata is treated as corrected.
オフセットタグの値は次のように用いられる。即ち、再生条件データ蓄積手段4においてセグメント1の再生が指定されていたとすると、再生制御手段3は、メタデータ補正手段8よりメタデータ・ヘッダ部におけるオフセットタグを読み取る。time=−1233、unit=msとなっているので、−1233msを各セグメントのfromパラメータに加えることとなる。
The offset tag value is used as follows. That is, assuming that the reproduction of the
次に、セグメントタグ<seg=1>におけるポジションタグの値を読み取る。ここにはfromパラメータに12000、unitパラメータにmsとなっているので、ビデオコンテンツ開始より、12000msに先ほどのオフセットタグによる−1233msを加えた10767ms後からのビデオ映像を再生するようコンテンツ再生手段5に対して指令を与える。 Next, the value of the position tag in the segment tag <seg = 1> is read. Here, since the from parameter is 12000 and the unit parameter is ms, the content reproduction means 5 is configured to reproduce the video image from 10767 ms after adding 1233 ms to the previous 20001 offset tag from the start of the video content. Give a command to it.
各家庭にてそれぞれで録画したビデオ映像は、その録画開始時刻が異なっていた場合であっても、フレーム単位で見れば必ず同じ映像が各家庭に送信されており、一度同期がとれればすべての部分において完全な同期が得られる。故に、上述したように、どこか一箇所で同期の補正を行なえば、すべての箇所で確実に同期をとることが可能となる。 Even if the recording start time is different for each video recorded at each home, the same video is always sent to each home when viewed in frame units, and once synchronized, all video Full synchronization is obtained in the part. Therefore, as described above, if synchronization correction is performed at one location, it is possible to ensure synchronization at all locations.
補正ステップ(ステップ38)が終了すると通常の再生が開始される(ステップ39)。ここでは、再生制御手段3が、再生条件データ蓄積手段4に格納されている、どのシーンを再生するか、といった情報に基づき、メタデータ蓄積手段2より該当するシーンのセグメントタグを選び、メタデータ補正手段8よって補正されたタグ情報に基づいてコンテンツ再生手段5に対し、ビデオコンテンツのどの部分を再生するかの指示を出す。
When the correction step (step 38) is completed, normal reproduction is started (step 39). Here, the reproduction control means 3 selects the segment tag of the corresponding scene from the metadata accumulation means 2 based on the information stored in the reproduction condition data accumulation means 4 such as which scene is reproduced, and the metadata. Based on the tag information corrected by the correcting
以下同様にして再生条件データ蓄積手段4において指定されたとおりの順でビデオコンテンツが再生される。 In the same manner, video contents are reproduced in the order designated by the reproduction condition data storage means 4.
ステップ36において同期用タグがついたセグメントがどこに存在するかが解析できなかった場合は、ステップ37において「No」が選択され、ステップ41へ移行し、同期がとれなかった旨を表示し、ビデオコンテンツを冒頭部から通常再生を行なう(ステップ42)。
If it is not possible to analyze where the segment with the synchronization tag exists in
なお、上記実施の形態においては、単位を示すunitパラメータとしてms(ミリ秒)を用いたが無論これに限ったものではなく、秒、分、あるいは、フレームやフィールドを単位として用いてもよい。特にビデオ映像はフレーム単位で管理されている場合が多いため、単位としてフレームを用いると個々のコンテンツ再生装置においてクロック信号を発生する源発振器のバラツキを抑えることができ、有効である。 In the above embodiment, ms (millisecond) is used as the unit parameter indicating the unit. However, the present invention is not limited to this, and the unit may be seconds, minutes, or a frame or field. In particular, since video images are often managed in units of frames, using a frame as a unit is effective because it can suppress variations in source oscillators that generate clock signals in individual content playback apparatuses.
このように構成することにより、利用者はコンテンツ再生装置1において、ビデオコンテンツとそれに該当するメタデータを選択し、どのシーンを見たいかを入力するだけで簡単に第3者が作成したメタデータを用いてのビデオコンテンツ再生が可能となる。
With this configuration, the user can select the video content and the corresponding metadata in the
次に、コンテンツ解析手法について述べる。説明を分かり易くするため、具体的な手法を述べる前に、MPEG圧縮を用いたビデオレコーダで一般的に行なわれる画像圧縮について図3とともに説明する。図3(1)は圧縮前のビデオ映像、即ち放送局から送信されてきたテレビ映像番組を示す。各区切りはフレームを表す。(2)はその信号をMPEG圧縮した結果である。Iと示しているのはIピクチャ、Pと示しているのはPピクチャ、Bと示しているのはBピクチャである。 Next, a content analysis method will be described. In order to make the explanation easy to understand, before describing a specific method, image compression generally performed in a video recorder using MPEG compression will be described with reference to FIG. FIG. 3 (1) shows a video image before compression, that is, a television image program transmitted from a broadcasting station. Each break represents a frame. (2) is the result of MPEG compression of the signal. I represents an I picture, P represents a P picture, and B represents a B picture.
通常、ビデオ映像を圧縮・録画するとき、他のフレームと無相関のIピクチャ、Iピクチャとの差分を示すPピクチャ、その前後にあるIピクチャ、あるいはPピクチャとの差分を表すBピクチャを周期的に割り当てることで圧縮シーケンスの簡略化と再生時の利便性を達成するようにしている。多くは、図3(2)の時刻A以前の部分に示すように、「IBBPBBPBBPBBPBB」を周期的に繰り返す等の方法を採っている。しかし、例えば、図3(1)において、時刻Aでシーンチェンジがあった場合、前の映像データとの差分を取ると膨大なデータ量となるため、このような場合には、この画面をIピクチャで構成し、ここを起点として前述のIBBPBB・・・の周期を繰り返すようにしている。メタデータ・ヘッダ部におけるエンコード情報・modeパラメータ=optimumに相当する。しかし機種によっては、データ量が増えることよりもエンコードに要する演算量を優先させるため、図4(2)に示すように、シーンチェンジの有無に関わらず、前述のIBBPBB…の周期を守るようにしているものもある。メタデータ・ヘッダ部におけるエンコード情報・modeパラメータ=constantに相当する。 Usually, when video images are compressed / recorded, an I picture uncorrelated with other frames, a P picture indicating a difference from the I picture, an I picture before or after the I picture, or a B picture indicating a difference from the P picture Thus, the compression sequence is simplified and the convenience during reproduction is achieved. In many cases, as shown in the part before time A in FIG. 3B, a method of periodically repeating “IBBPBBPBBPBBPBB” is employed. However, for example, in FIG. 3 (1), when there is a scene change at time A, if the difference from the previous video data is taken, the amount of data becomes huge. It is composed of pictures, and the cycle of IBBPBB... Described above is repeated starting from this. This is equivalent to encoding information in the metadata header part, mode parameter = optimum. However, depending on the model, the calculation amount required for encoding is given priority over the increase in the amount of data. Therefore, as shown in FIG. 4 (2), the cycle of IBBPBB... Some have. This is equivalent to encoding information / mode parameter = constant in the metadata header section.
図3(3)は、図3(1)に示すビデオコンテンツを他のビデオレコーダで録画した場合のMPEG圧縮結果である。録画開始時刻が異なるため、録画開始から暫くの期間は、送信されてきた映像がI、P、Bのどれに割り当てられるかはビデオレコーダ次第である。この図においては、エンコーダがシーンチェンジの有無に関わらず、前述のIBBPBB・・・の周期を守るようにしているため、時刻Aにおけるシーンチェンジが発生した後も、図3(2)、(3)でI、P、Bの同期はとれないことがわかる。 FIG. 3 (3) shows an MPEG compression result when the video content shown in FIG. 3 (1) is recorded by another video recorder. Since the recording start time is different, it is up to the video recorder whether the transmitted video is assigned to I, P, or B for a period of time from the start of recording. In this figure, since the encoder keeps the above-described cycle of IBBPBB... Regardless of whether or not there is a scene change, even after a scene change at time A occurs, FIGS. ) That I, P, and B cannot be synchronized.
図4(3)はビデオレコーダにおけるエンコード方式が異なった場合を示しており、この図においては、エンコーダがシーンチェンジの毎にIピクチャを割り当てるようにし、ここを起点として前述のIBBPBB・・・の周期を繰り返している。 FIG. 4 (3) shows a case where the encoding method in the video recorder is different. In this figure, the encoder allocates an I picture at every scene change, and this point is used as a starting point for the IBBPBB. The cycle is repeated.
コンテンツ蓄積手段6に蓄積されているビデオコンテンツが図3(3)、図4(3)のいずれのタイプであるかは、このコンテンツが自分自身で録画したものであれば当然把握で着るものであるが、仮に第3者が録画したものであればいずれであるか判明しない場合がある。そこでここでは、コンテンツ蓄積手段6に蓄積された各ビデオコンテンツのヘッダ部に、図3(3)、図4(3)のいずれのタイプであるかを示す情報を、メタデータに倣い、optimumモード、constantモードとして付加するようにしている。 The type of the video content stored in the content storage means 6 can be determined as a matter of course as long as this content is recorded by itself, as shown in FIG. 3 (3) or FIG. 4 (3). However, there is a case where it is not clear if it is recorded by a third party. Therefore, here, in the header portion of each video content stored in the content storage means 6, information indicating which type is shown in FIG. 3 (3) or FIG. , A constant mode is added.
一方、メタデータにおける同期用タグは、シーンチェンジが発生した時を中心に付加するようにしている。特に、シーンチェンジが発生し、しかもその際に作成されたピクチャのデータ量が特に多いものを選んで付すようにすると効果的である。 On the other hand, a synchronization tag in metadata is added mainly when a scene change occurs. In particular, it is effective to select and attach a scene change that has a particularly large amount of picture data.
さて、コンテンツ解析手法に戻ると、図6はステップ36におけるコンテンツ解析の具体例を示すシーケンス図である。解析が開始されると、同期検出手段7は、同期用タグがついているセグメントを抽出し、それらセグメントの間隔を算出する(ステップ51)。各セグメントにはその開始時刻を示すポジションタグがあるため、それに表示されているfromパラメータを読み込み、その差を求めれば容易にその値を得ることが出来る。ここでは、フレームを単位としてそれらセグメントの間隔を求めるようにしており、N番目の同期タグが付加されたセグメントとN+1番目の同期タグが付加されたセグメントとの間隔をFNフレームとしている。
Returning to the content analysis method, FIG. 6 is a sequence diagram showing a specific example of content analysis in
同期タグが付加された各セグメント間の間隔が求まると、次は同期タグが付加された先頭のセグメントとなる候補選びに入る。 When the interval between the segments to which the synchronization tag is added is obtained, the next candidate selection for the first segment to which the synchronization tag is added is entered.
仮に、今同期を取ろうとしているビデオコンテンツがMPEG圧縮時に図4(3)に示すような方式、即ちoptimumモードを用いていれば、シーンチェンジ毎にIピクチャが割り当てられ、同期タグはシーンチェンジの際に付されるようになっているので、ステップ52では候補となるフレームとしてIピクチャを選べば良い。実際には、ビデオコンテンツのアトリビュートに示される録画開始時刻や、セグメントタグに示される同期用タグの時刻から概略のIピクチャを算出し、近傍にあるIピクチャを選択すればよい。
If the video content to be synchronized now uses the method shown in FIG. 4 (3) at the time of MPEG compression, that is, the optimum mode, an I picture is assigned for each scene change, and the synchronization tag is set to the scene change. In
逆に、今同期を取ろうとしているビデオコンテンツがMPEG圧縮時に図3(3)に示すような方式、即ちconstantモードを用いていれば、シーンチェンジの有無に関わらず一定の周期でIピクチャ、Pピクチャ、Bピクチャが割り当てられていくので、ステップ52では候補となるフレームとして、ビデオコンテンツのアトリビュートに示される録画開始時刻や、セグメントタグに示される同期用タグの時刻から概略の位置を算出し、近傍にあり、サイズが極大となっているPピクチャまたはBピクチャ、あるいはIピクチャを選択すればよい。ここで言う「極大」とは、該ピクチャを挟む形で存在するIピクチャの中でサイズが最大であることを意味する。以下も特に指定しない限り同様である。
On the contrary, if the video content to be synchronized now uses the method as shown in FIG. 3 (3) at the time of MPEG compression, that is, the constant mode, the I picture, Since P pictures and B pictures are allocated, in
ステップ53では、仮に、今同期を取ろうとしているビデオコンテンツがoptimumモードを用いていれば、シーンチェンジ毎にIピクチャが割り当てられるので、もし、候補として選択したIピクチャが同期用タグによって示されているシーンであればステップ53によって選ばれたピクチャはすべてIピクチャとなっている筈である。この場合は同期がとれたものと判断してステップ55に進み、候補として選択したシーンの実際のビデオコンテンツにおける時刻と、メタデータによって示されるデータとの差を抽出し、解析を終了する。
In
今同期を取ろうとしているビデオコンテンツがMPEG圧縮時にconstantモードを用いていれば、前述のように、同期用タグは必ずシーンチェンジの際に付加されており、シーンチェンジの際には、ピクチャサイズは必ず極大となるか、たまたまIピクチャが割り当てられているかのいずれかであるので、もし、候補として選択したピクチャが該当するシーンであればステップ53によって選ばれたピクチャは、必ず、サイズが極大となっているPピクチャまたはBピクチャであるか、あるいはIピクチャのいずれかである筈である。その場合は同期がとれたものと判断してステップ55に進み、候補として選択したシーンの実際のビデオコンテンツにおける時刻と、メタデータによって示されるデータとの差を抽出し、解析を終了する。
If the video content to be synchronized now uses the constant mode at the time of MPEG compression, as described above, the synchronization tag is always added at the time of the scene change, and at the time of the scene change, the picture size Is always the maximum or happens to be assigned an I picture, so if the picture selected as a candidate is a corresponding scene, the picture selected in
逆に、ステップ53にて選択されたピクチャの1枚以上が条件を満たしたピクチャでは無い場合は、同期がとれていないと判断されるため次の候補を抽出しなければならない。この場合は、ステップ57へ移行し、候補となりうるIピクチャ、あるいはサイズが極大となるPピクチャかBピクチャがまだ存在するかどうかを判定する。実際には前回選択したピクチャの前後にあるIピクチャ、または、サイズが極大となっているPピクチャかBピクチャのいずれかを選択する。
Conversely, if one or more of the pictures selected in
仮に、今同期を取ろうとしているビデオコンテンツがMPEG圧縮時にoptimumモードを用いているとして、Iピクチャとして20番目にあるものが最初に候補とされた場合には、次候補としては、21番目、19番目、22番目、18番目、・・・、といった具合に、徐々に最初の候補から離れたIピクチャを候補として選択するとよい。 If the video content to be synchronized now uses the optimum mode during MPEG compression, and the 20th I picture is the first candidate, the next candidate is the 21st, It is preferable to select an I picture that gradually moves away from the first candidate as a candidate, such as 19th, 22nd, 18th,.
今同期を取ろうとしているビデオコンテンツがMPEG圧縮時にconstantモードを用いていれば、次候補としては、その前にあって極大となるPピクチャ、Bピクチャ、あるいはIピクチャ、最初の候補のその後ろにあって極大となるPピクチャ、Bピクチャ、あるいはIピクチャ、その更に前、あるいは後ろ、といった具合に、徐々に最初の候補から離れていくように候補を選択するとよい。 If the video content to be synchronized now uses the constant mode at the time of MPEG compression, the next candidate is the P picture, B picture, or I picture, which is the maximum before that, and behind the first candidate. In this case, the candidate may be selected so as to gradually move away from the first candidate, such as a P picture, a B picture, or an I picture, which is a maximum, and before or after that.
また、次候補のあり/無しに関しては、最初の候補として選択されたIピクチャからの距離が一定以上離れた場合に「次候補無し」とする。「一定以上」をどの程度とするかは、利用者が選択できるようにする。 As for the presence / absence of the next candidate, “no next candidate” is set when the distance from the I picture selected as the first candidate is more than a certain distance. The user can select how much “a certain level or more” is set.
ステップ57において「次候補無し」となった場合は、ステップ59へ進み、同期がとれなかったことを示す「検出不能フラグ」を立ててシーケンスを終了する。
If “no next candidate” is found in
なお、上記実施例において、メタデータはMPEG圧縮されたビデオコンテンツを基に作成されたものとして説明したが、もし、このメタデータがMPEG2やMPEG4で圧縮されたビデオコンテンツではなく、デジタルビデオムービーで用いられているMiniDV方式等で録画されたビデオコンテンツを基に作成されている場合は、そのセグメントの開始フレームとその直前、直後のフレームとの特徴差を示す情報を表示するようにメタデータを作成する。ここでは、直後のフレームとの特徴差、としているが、これはあくまで一例であり、例えば図3、4におけるIピクチャが挿入される周期である15フレーム後のフレームとの特徴差としても良い。このようにすることで、もしコンテンツ再生装置1において、ビデオコンテンツがMPEG圧縮であってoptimumモードを用いていた場合にはメタデータに示されている特徴差との一致度をより高くすることができる。
In the above embodiment, the metadata is described as being created based on the MPEG compressed video content. However, if the metadata is not a video content compressed by MPEG2 or MPEG4, it is a digital video movie. If it is created based on video content recorded in the MiniDV format, etc., the metadata is displayed so that information indicating the feature difference between the start frame of the segment and the immediately preceding and immediately following frames is displayed. create. Here, the feature difference from the immediately subsequent frame is merely an example, and for example, the feature difference from the frame after 15 frames, which is the period in which the I picture in FIGS. 3 and 4 is inserted, may be used. In this way, in the
図7は本発明によるコンテンツ再生装置の他の実施の形態である。この図において、図5、図6と同一機能を有するステップにおいては同一の符号を付し細かな説明は省略する。この実施の形態においては、メタデータは同様のものが用いられているがコンテンツ解析を行なうステップが図5と異なっている。 FIG. 7 shows another embodiment of the content reproduction apparatus according to the present invention. In this figure, steps having the same functions as those in FIGS. 5 and 6 are denoted by the same reference numerals, and detailed description thereof is omitted. In this embodiment, the same metadata is used, but the content analysis step is different from FIG.
ステップ35において、ステップ32において読み込まれたメタデータからは同期用タグの検索が行なわれ、同期用タグが見つかると、該当するセグメントが実際にどこに存在するかを調べるために、ビデオコンテンツの解析が行なわれる(ステップ46)。解析が終了し、同期がとれた場合にはステップ37において「同期完了」が選択され、ステップ38へと移行する。以下、図5に示した場合と同様、メタデータの補正、ビデオコンテンツの再生が開始される。コンテンツ解析の詳細については後述する。
In
ステップ46において同期用タグがついたセグメントがどこに存在するかが解析できなかった場合は、ステップ37において「No」が選択され、次の同期用タグをサーチする(ステップ43)。同期用タグが見つかればステップ46に戻り、再度コンテンツ解析が実施される。逆に、同期用タグが見つからなければステップ41へ移行し、同期がとれなかった旨を表示し、ビデオコンテンツを冒頭部から通常再生を行なう(ステップ42)。
If it is not possible to analyze where the segment with the synchronization tag exists in
次に、コンテンツ解析手法について図8とともに述べる。前述のように、同期タグが付加されたセグメントはシーンチェンジの際に付されるようになっているので、仮に、今同期を取ろうとしているビデオコンテンツがMPEG圧縮時にoptimumモードを用いていれば、シーンチェンジ毎にIピクチャが割り当てられているので、ステップ61で候補となるフレームとしてIピクチャを選ぶ。逆に、今同期を取ろうとしているビデオコンテンツがMPEG圧縮時にconstantモードを用いていれば、シーンチェンジの有無に関わらず一定の周期でIピクチャ、Pピクチャ、Bピクチャが割り当てられていくので、ステップ61では候補となるフレームとして、ビデオコンテンツのアトリビュートに示される録画開始時刻や、セグメントタグに示される同期用タグの時刻から概略の位置を算出し、近傍にあり、サイズが極大となっているPピクチャまたはBピクチャ、あるいはIピクチャを選択する。 Next, the content analysis method will be described with reference to FIG. As described above, since the segment to which the synchronization tag is added is added at the time of the scene change, if the video content to be synchronized now uses the optimum mode at the time of MPEG compression Since an I picture is assigned for each scene change, an I picture is selected as a candidate frame in step 61. Conversely, if the video content to be synchronized now uses the constant mode during MPEG compression, I pictures, P pictures, and B pictures will be allocated at a constant cycle regardless of the presence or absence of a scene change. In step 61, as a candidate frame, an approximate position is calculated from the recording start time indicated in the video content attribute and the time of the synchronization tag indicated in the segment tag. Select P picture, B picture, or I picture.
実際には、ビデオコンテンツのアトリビュートに示される録画開始時刻や、セグメントタグに示される同期用タグの時刻から概略のピクチャを算出し、近傍にある上記条件を満たすピクチャを候補として選択する。 Actually, a rough picture is calculated from the recording start time indicated by the attribute of the video content and the time of the synchronization tag indicated by the segment tag, and a picture that satisfies the above condition is selected as a candidate.
ステップ62、63では、仮に、今同期を取ろうとしているビデオコンテンツがMPEG圧縮時にoptimumモードを用いていれば以下のとおりの処理を行なう。即ち、先ず候補となるIピクチャの手前、9個目、10個目、11個目のIピクチャを抽出する。仮に候補となるIピクチャがビデオコンテンツ先頭から50個目であったとすると、IP41、IP40、IP39を抽出する。Iピクチャはそれ単独で1枚の画像をデコードすることが可能なので、ステップ63においてこれらをデコードし、その特徴差を抽出する。ここでは、Iピクチャのサイズ、全体の輝度、色合いの変化、それぞれのIピクチャに付加されている音声信号の音量差を比べている。これらの変化がどうあるべきかについては、同期用タグの後に表記されており、今、セグメント4について調べているとすれば、セグメント4のタグには、frame=ip brite=updc size=downup col=updown tint=updown audio=upncとあり、これらはそれぞれ、タグが付加されているピクチャの種類(I、P、Bのいずれであるか)、輝度の変化、ピクチャのサイズの変化、色の濃さの変化、色合いの変化、音量の変化、を示しており、直前、直後のIピクチャとの比較を表示している。updownとあれば、直前のIピクチャより増加しており、直後のIピクチャは現在のものより減少していることを意味する。dcはdont careで「不問」を意味し、ncはno changeで「変化なし」を意味する。
In
メタデータ作成の際に用いたビデオコンテンツでは、輝度は増、不問、サイズは減、増、色合いは増、減、音量は増、変化なし、と記載されているので、実際にIピクチャIP41、IP40、IP39においてそのように変化しているかどうかをチェックする。すべての項目が記載内容と合致していれば同期がとれたものと考えてステップ55に進み、時間差を抽出し、コンテンツ解析処理を終了する。1項目でも合致しないものがあればステップ67に進む。 In the video content used in creating the metadata, it is described that the luminance is increased, no question, the size is decreased, increased, the hue is increased, decreased, the volume is increased, and there is no change. It is checked whether or not IP40 and IP39 have changed in that way. If all items match the description, it is considered that synchronization has been achieved, the process proceeds to step 55, a time difference is extracted, and the content analysis process is terminated. If even one item does not match, go to step 67.
一方、今同期を取ろうとしているビデオコンテンツがMPEG圧縮時にconstantモードを用いていれば、ステップ62、63では、以下のとおりの処理を行なう。即ち、解析しようとしているビデオコンテンツは、シーンチェンジの有無に関わらず一定の周期でIピクチャ、Pピクチャ、Bピクチャが割り当てられていくので、候補となるピクチャの手前、9個目と10個目のIピクチャ間にある、極大となるPピクチャまたやBピクチャとそれを挟む形で存在するIピクチャを抽出する。仮に候補となるピクチャがBピクチャであり、ビデオコンテンツ先頭から50個目と51個目のIピクチャに挟まれたピクチであったとすると、IP42、IP41とBピクチャを抽出する。候補となったピクチャがIピクチャであった場合もその前後のIピクチャを抽出する。
On the other hand, if the video content to be synchronized now uses the constant mode at the time of MPEG compression, the following processing is performed in
Bピクチャは、そのピクチャから画面を再現しようとすると、その前のIピクチャ、Pピクチャを用いてデコード処理を行なう必要があるが、直前のIピクチャからのデコードでよいので処理に要する時間は人間の感覚からは無視できる範囲で済むと考えられる。Iピクチャはそれ単独で1枚の画像をデコードすることが可能なので、ステップ63においてこれらをデコードし、その特徴差を抽出する。以下、optimumモード時と同様に、サイズ、輝度、色合い、音量の差を比べ、すべての項目がメタデータに記載されている内容と合致していれば同期がとれたものと考えてステップ55に進み、時間差を抽出し、コンテンツ解析処理を終了する。1項目でも合致しないものがあればステップ67に進む。
When a B picture is reproduced from the picture, it is necessary to perform decoding processing using the previous I picture and P picture. However, since the decoding from the immediately preceding I picture is sufficient, the time required for processing is human. From this sense, it can be ignored. Since one picture can be decoded by itself as an I picture, these are decoded in
ステップ67では、同期検出を行なう範囲が一定の範囲内であることを確認し、ここでは、optimumモードの場合は20回以上、constantモードの場合は、40回以上ステップ63による比較処理を行なうと同期検出不能としてステップ59へ進む。規定回数に以下の場合は、ステップ68において次の候補となるピクチャを抽出する。optimumモードの場合はその次に存在するIピクチャを抽出し、constantモードの場合は、前回抽出したピクチャがIピクチャの場合はその次にある極大値を有するBピクチャかPピクチャを、そうでない場合は、そのピクチャの直後にあるIピクチャを抽出する。
In
以上のとおりのコンテンツ解析を行ない、同期検出を行なっている。 The content analysis as described above is performed, and synchronization detection is performed.
メタデータを作成する基となったビデオコンテンツと再生しようとするビデオコンテンツではMPEG圧縮を行なう際のアルゴリズムが必ずしも全く同じとは限らず、また、前述のように、電波の状態によってはノイズやゴーストによって大元の画面においても差異があり得るが、輝度、Iピクチャのサイズ等の変化という切り口で画面の特徴を見ると、両者の差異は殆どないものと考えられ、これらのパラメータを用いることでメタデータとビデオコンテンツとの同期を容易に取ることができるものである。 The video content used to create the metadata and the video content to be played are not necessarily the same in the MPEG compression algorithm. As described above, depending on the radio wave condition, noise and ghost Depending on the characteristics of the screen, it is considered that there is almost no difference between the two. The metadata and the video content can be easily synchronized.
なお、本実施の形態では、ステップ62において、候補となるピクチャの手前10個目のIピクチャをスタートとして解析を開始したが、どの範囲を解析範囲とするかは利用者が設定できるようにして良いことは言うまでもない。また、10個手前から順次合致を検査するようにしたが、候補となるピクチャを中心として順次そのピクチャから遠ざかっていくように(+1、−1、+2、−2、…、のように)しても良い。
In the present embodiment, in
また、この実施の形態においては、同期タグが付加されたピクチャ1個のみでの特徴比較を行なうようにしたが、ステップ65で時間差を補正した後、次の同期タグが付加されたピクチャを求め、このピクチャに対してステップ62、63の処理を行ない、ステップ64において合致が得られることを確認するようにしてもよい。もし合致が得られなければ、ステップ67の判定がYesとなる範囲で、次なる候補となるピクチャを抽出し、ステップ62、63、64、67、68より成るループ処理を行ない、全項目が合致するIピクチャがあるかどうかを検索するようにしてもよい。
In this embodiment, the feature comparison is performed only for one picture to which a synchronization tag is added. However, after the time difference is corrected in
また、この実施の形態においては、候補となるピクチャの前後のIピクチャとの特徴差を行なうようにしたが、直前のIピクチャのみとの差を求めてメタデータの記載内容との比較を取るようにしても良いものである。 In this embodiment, the feature difference between the previous and next I pictures of the candidate picture is performed. However, the difference from only the previous I picture is obtained and compared with the content described in the metadata. It may be good.
また、ピクチャの輝度、色相、といった値を得る場合、例えば、輝度であれば画面全体の平均的な明るさ(輝度)を求めるようにし、色相の場合は、画面の中央部のみの平均的な色相を求めるように決めておくと、ピクチャの特徴がより鮮明化し、誤判定をより少なくすることが可能である。 In addition, when obtaining values such as the brightness and hue of a picture, for example, if it is luminance, the average brightness (luminance) of the entire screen is obtained, and in the case of hue, the average of only the center of the screen is obtained. If the hue is determined to be obtained, the feature of the picture becomes clearer, and it is possible to reduce misjudgment.
なお、同期用タグの個数やその間隔については、ビデオコンテンツの長さにもよるが、3〜5分毎に1箇所程度の割合で、コンテンツの最初の方に少なくとも4〜5箇所あるようにすると同期をとりやすく適当であると考えられる。 Note that the number of synchronization tags and the interval thereof depend on the length of the video content, but there should be at least 4-5 locations at the beginning of the content at a rate of about 1 location every 3-5 minutes. Then, it is considered easy to synchronize and is appropriate.
本発明にかかるコンテンツ再生装置は、異なる機器で作成したメタデータを用いて独自に録画したビデオコンテンツを再生でき、逆に、独自に録画したビデオコンテンツより作成したメタデータを用いて、他の機器で録画したビデオコンテンツを再生することができるという効果を有し、放送番組を録画して得られたコンテンツを、メタデータを用いて効率よく再生するコンテンツ再生装置、映像再生装置等として有用である。 The content reproduction apparatus according to the present invention can reproduce video content uniquely recorded using metadata created by different devices, and conversely, by using metadata created from video content originally recorded, It is useful as a content playback device, video playback device, etc. that can efficiently play back video content recorded by using the metadata. .
1 コンテンツ再生装置
2 メタデータ蓄積手段
3 再生制御手段
4 再生条件データ蓄積手段
5 コンテンツ再生手段
6 コンテンツ蓄積手段
7 同期検出手段
DESCRIPTION OF
Claims (13)
ビデオコンテンツを蓄積するコンテンツ蓄積手段と、
前記メタデータと前記コンテンツ蓄積手段に蓄積されたビデオコンテンツとの同期を取る同期手段と、
前記同期手段出力に基づき、前記メタデータを補正する補正手段と
を備えたコンテンツ再生装置。 Metadata storage means for extracting video content information and storing metadata including information for synchronization based on scene changes in the video content used for extraction;
Content storage means for storing video content;
Synchronization means for synchronizing the metadata and the video content stored in the content storage means;
A content reproducing apparatus comprising: a correcting unit that corrects the metadata based on the output of the synchronizing unit.
前記コンテンツ蓄積手段に格納されたビデオコンテンツを再生するための再生条件を蓄積する蓄積手段と、
前記補正手段出力及び前記再生条件に基づき、前記ビデオコンテンツの再生を制御する制御手段と、
前記コンテンツ蓄積手段出力と前記制御手段出力に基づき前記ビデオコンテンツの再生を行なう再生手段と
を備えたことを特徴とする請求項1記載のコンテンツ再生装置。 The content reproduction apparatus is
Accumulation means for accumulating reproduction conditions for reproducing the video content stored in the content accumulation means;
Control means for controlling reproduction of the video content based on the output of the correction means and the reproduction condition;
2. The content reproduction apparatus according to claim 1, further comprising: reproduction means for reproducing the video content based on the output of the content storage means and the output of the control means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004315450A JP2006129133A (en) | 2004-10-29 | 2004-10-29 | Content reproducing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004315450A JP2006129133A (en) | 2004-10-29 | 2004-10-29 | Content reproducing apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006129133A true JP2006129133A (en) | 2006-05-18 |
Family
ID=36723323
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004315450A Pending JP2006129133A (en) | 2004-10-29 | 2004-10-29 | Content reproducing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006129133A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008078876A (en) * | 2006-09-20 | 2008-04-03 | Hitachi Ltd | Program recording reproducing device, program reproducing position control method and program information providing device |
-
2004
- 2004-10-29 JP JP2004315450A patent/JP2006129133A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008078876A (en) * | 2006-09-20 | 2008-04-03 | Hitachi Ltd | Program recording reproducing device, program reproducing position control method and program information providing device |
JP4668875B2 (en) * | 2006-09-20 | 2011-04-13 | 株式会社日立製作所 | Program recording / playback apparatus, program playback position control method, and program information providing apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5322550B2 (en) | Program recommendation device | |
US7894709B2 (en) | Video abstracting | |
KR100899051B1 (en) | Techniques for navigating multiple video streams | |
JP4584250B2 (en) | Video processing device, integrated circuit of video processing device, video processing method, and video processing program | |
US7978957B2 (en) | Information processing apparatus and method, and program | |
JP5173337B2 (en) | Abstract content generation apparatus and computer program | |
EP1954041A1 (en) | Digest generating device, and program therefor | |
US20060104609A1 (en) | Reproducing device and method | |
CN100466708C (en) | A video recorder unit and method of operation therefor | |
US20070179786A1 (en) | Av content processing device, av content processing method, av content processing program, and integrated circuit used in av content processing device | |
US20090103886A1 (en) | Same scene detection method, device, and storage medium containing program | |
JP4668875B2 (en) | Program recording / playback apparatus, program playback position control method, and program information providing apparatus | |
JP4215681B2 (en) | Moving image processing apparatus and method | |
JP4259500B2 (en) | Video / audio recording device | |
WO2010125757A1 (en) | Video/audio reproduction device, video/audio recording/ reproduction device, video/audio reproduction method, and video/audio recording/reproduction method | |
KR20020007179A (en) | Video-signal recording and playback apparatus, video-signal recording and playback method, and recording medium | |
US20050232598A1 (en) | Method, apparatus, and program for extracting thumbnail picture | |
US20040246259A1 (en) | Music program contents menu creation apparatus and method | |
JP2006129133A (en) | Content reproducing apparatus | |
JP4301180B2 (en) | EDITING DEVICE, EDITING METHOD, EDITING PROGRAM, AND RECORDING DEVICE | |
JP2007288697A (en) | Video recording and reproducing apparatus | |
JP2006129132A (en) | Content reproducing apparatus | |
JP4168395B2 (en) | Method for creating thumbnail image for recorded program list and video signal recording / reproducing apparatus | |
JP2007201988A (en) | Recording and reproducing apparatus | |
JP2008053991A (en) | Digital broadcast receiver |