JP2007208651A - Content viewing apparatus - Google Patents

Content viewing apparatus Download PDF

Info

Publication number
JP2007208651A
JP2007208651A JP2006024956A JP2006024956A JP2007208651A JP 2007208651 A JP2007208651 A JP 2007208651A JP 2006024956 A JP2006024956 A JP 2006024956A JP 2006024956 A JP2006024956 A JP 2006024956A JP 2007208651 A JP2007208651 A JP 2007208651A
Authority
JP
Japan
Prior art keywords
content
metadata
highlight
data
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006024956A
Other languages
Japanese (ja)
Inventor
Takashi Anpo
隆司 安保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2006024956A priority Critical patent/JP2007208651A/en
Publication of JP2007208651A publication Critical patent/JP2007208651A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To shorten viewing time by eliminating the display of events unnecessary for a viewer. <P>SOLUTION: This content viewing device A comprises: a content input part 1; a video/audio/data separation part 3 which separates video/audio data and meta data; a highlight segment extraction part 7 which extracts segment information of a highlight part based on the meta data and the taste data; an operation part 23; a prosperity degree measurement part 21 which measures a degree of prosperity in a program; a user taste update part 17 which updates and stores the user taste data; a video/audio/data combining part 11 which combines a highlight segment and the separated video/audio data and a display part 15. In the above configuration, matching as mentioned later is performed by the meta data received by separating video/audio from content (media such as broadcast/communication/DVD) and a retrieval formula based on viewer's tastes to display an event which satisfies conditions. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、コンテンツ視聴装置に関し、特に、メタデータを用いたコンテンツ視聴スタイルによって、ユーザー嗜好データを自動更新し、より効率的な時短視聴を視聴者に提供するコンテンツ視聴装置に関する。   The present invention relates to a content viewing apparatus, and more particularly to a content viewing apparatus that automatically updates user preference data according to a content viewing style using metadata and provides viewers with more efficient time-saving viewing.

コンテンツを視聴するためのコンテンツ視聴装置においても、多機能化が進んでおり、例えば特許文献1では、以下のような技術が開示されている。1)ビデオコンテンツの時間軸に対応するタイムバーを画面上に表示する。2)タイムバー上には、動画中の特徴的な場面であるイベント場面の開始位置を示すアイコンを表示する。3)視聴者がリモコンを操作して、フォーカスをアイコン上に移動させ、所望のアイコンを選択することによって、選択されたアイコンに対応するイベント場面の開始位置から映像の再生を開始できる。   Multi-functionalization is also progressing in content viewing apparatuses for viewing content. For example, Patent Document 1 discloses the following technique. 1) A time bar corresponding to the time axis of the video content is displayed on the screen. 2) On the time bar, an icon indicating the start position of the event scene, which is a characteristic scene in the moving image, is displayed. 3) When the viewer operates the remote control, moves the focus on the icon, and selects a desired icon, video playback can be started from the start position of the event scene corresponding to the selected icon.

特開2001−292402号JP 2001-292402 A

しかしながら、上記特許文献1に記載の装置では、受け取ったメタデータからイベント場面を表すアイコンが表示され、視聴者にとって好ましくないシーンもメタデータ通りゆえにアイコン表示されてしまう。メタデータをそのまま使うのではアイコンの表示が多くなりすぎる上に、視聴者にとって好ましくないシーンを選択・再生した場合、スキップするのに手間がかかるという問題がある。   However, in the device described in Patent Document 1, an icon representing an event scene is displayed from the received metadata, and a scene unfavorable for the viewer is displayed as an icon because it is in accordance with the metadata. If the metadata is used as it is, there are too many icons to be displayed, and there is a problem that it takes time and effort to skip a scene that is undesirable for the viewer.

本発明は、視聴者にとって不必要なイベントを表示しないようにし、視聴時間の短縮を図ることを目的とする。   An object of the present invention is to prevent an unnecessary event for the viewer from being displayed and to shorten the viewing time.

本発明においては、受け取ったメタデータと、視聴者の嗜好とに基づいて、視聴者の好みであろうイベントのみを表示する。また視聴者の嗜好の検索式を、視聴スタイルを元に随時自動更新することでイベント表示の精度をより高めていくことを特徴とする。   In the present invention, based on the received metadata and the viewer's preference, only events that may be the viewer's preference are displayed. Further, the present invention is characterized in that the accuracy of event display is further improved by automatically updating the search formula for the viewer's preference as needed based on the viewing style.

視聴者にとって不必要なイベントが表示されずに表示画面がすっきりとし、また、再生時に不必要なシーンのスキップをする手間が省け、より効果的な時短視聴ができる。   Unnecessary events for the viewer are not displayed, the display screen is clean, and there is no need to skip unnecessary scenes during playback, enabling more effective time viewing.

以下、本発明の一実施の形態によるコンテンツ視聴装置について図面を参照しながら説明を行なう。図1は、本実施の形態によるコンテンツ視聴装置の一構成例を示す機能ブロック図である。図1に示すように、コンテンツ視聴装置Aは、コンテンツを入力させるコンテンツ入力部1と、コンテンツ内の映像・音声データとメタデータとを分離する映像・音声・データ分離部3と、ユーザーの嗜好データを格納するユーザー嗜好データベース5と、映像・音声・データ分離部3において分離されたメタデータと、ユーザー嗜好データベース5に格納されている嗜好データと、に基づいてハイライト部分のセグメント情報を抽出するハイライトセグメント抽出部7と、ユーザーが操作を行なう操作部23と、操作部23からの操作とハイライトセグメント抽出部7により抽出されたハイライトセグメントとに基づいて番組中の盛況度を計測する盛況度計測部21と、盛況度計測部21において計測された盛況度に基づいてユーザー嗜好データを更新し、更新されたユーザー嗜好をユーザー嗜好データベース5に格納するユーザー嗜好データ更新部17と、ハイライトセグメント抽出部7により抽出されたハイライトセグメントと、映像・音声・データ分離部3においてデータと分離された映像・音声データとを合成する映像・音声・データ合成部11と、その出力を表示する表示部15と、を有している。   A content viewing apparatus according to an embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a functional block diagram showing a configuration example of a content viewing apparatus according to the present embodiment. As shown in FIG. 1, the content viewing apparatus A includes a content input unit 1 for inputting content, a video / audio / data separation unit 3 for separating video / audio data and metadata in the content, and user preferences. The segment information of the highlight part is extracted based on the user preference database 5 for storing data, the metadata separated in the video / audio / data separation unit 3, and the preference data stored in the user preference database 5. The highlight segment extraction unit 7 to be operated, the operation unit 23 operated by the user, the operation from the operation unit 23 and the highlight segment extracted by the highlight segment extraction unit 7 are measured. And a user preference based on the degree of success measured by the degree of success measurement unit 21. The user preference data update unit 17 that updates the user preferences and stores the updated user preferences in the user preference database 5, the highlight segment extracted by the highlight segment extraction unit 7, and the video / audio / data separation unit 3 The video / audio / data synthesizing unit 11 for synthesizing the data and the separated video / audio data, and the display unit 15 for displaying the output.

上記構成において、コンテンツ(放送・通信・DVDなどのメディアなど)から映像・音声を分離して受け取ったメタデータと、視聴者の嗜好に基づく検索式とにより後述するようなマッチングを行ない、条件を満たすイベントを表示する。   In the above configuration, matching is performed as described later by using metadata obtained by separating video / audio from content (broadcasting / communication / DVD media, etc.) and a search formula based on viewer's preference. Show events that meet.

尚、本実施の形態では、一旦記録したコンテンツを再生する場合を例に示している。メタデータの取得方法の例としては、放送にメタデータが含まれていれば放送データの中からとることができる。映像中の実況内容又は実況放送の音声認識からメタデータを取る方法、映像の背番号やテロップから文字認識により作成することも可能である。   In the present embodiment, a case where the content once recorded is reproduced is shown as an example. As an example of the metadata acquisition method, if metadata is included in the broadcast, it can be taken from the broadcast data. It is also possible to create metadata based on the actual content in the video or the voice recognition of the live broadcast, or by character recognition from the back number or telop of the video.

図2は、上述した一般的な技術であって、メタデータのみによってハイライトセグメントを抽出する様子を示す図であり、メタデータにより特定される各イベントが、時間軸に沿ってメタデータの内容とともに配置されている。例えば、図2に符号31で示されるように、メタデータのみによれば、前の時間から順番に、符号51におけるHチームが3得点したシーン、ある時間間隔を空けて生じたKがホームランを打ったシーン53、ある時間だけ空けて7回表のHの攻撃シーン55、さらに、9回裏のGの攻撃シーン57、が抽出される。   FIG. 2 is a diagram illustrating a state in which highlight segments are extracted only by metadata, which is the general technique described above, and each event specified by the metadata is the content of the metadata along the time axis. It is arranged with. For example, as indicated by reference numeral 31 in FIG. 2, according to the metadata alone, in order from the previous time, the scene in which the H team in the reference numeral 51 scored three points, K generated at a certain time interval, The hit scene 53, the H attack scene 55 in the front 7 times after a certain time interval, and the G attack scene 57 in the back 9 times are extracted.

一方、図3は、本実施の形態による技術であって、メタデータとユーザー嗜好データとに基づいて、ハイライトセグメントを抽出する様子を示す図であり、図2と比較すると明らかなように、メタデータにより特定されるイベントのうち、イベント53とイベント57とが、対象から外れている。   On the other hand, FIG. 3 is a technique according to the present embodiment, and shows a state in which highlight segments are extracted based on metadata and user preference data. As is clear from comparison with FIG. Of the events specified by the metadata, the event 53 and the event 57 are excluded from the target.

この点について、図4から図7までを参照しながら説明を行なう。図4は、ハイライトセグメント抽出部を中心としたハイライトセグメントの抽出に関連する処理の様子を示す図である。映像・音声・データ分離部3と、ハイライトセグメント抽出部7と、ユーザー嗜好データベース5と、の関連性とそれぞれのデータ内容例とが、図2に示す例に沿って示されている。また、プラス評価のキーワードとマイナス評価のキーワードとが予め評価基準として設定されている。図では、プラス評価のキーワードとしてH球団(+20ポイント)、得点(+10ポイント)、攻撃(+8ポイント)などが、マイナス評価のキーワードとして、K選手(−10ポイント)、G球団(−18ポイント)などとなっている。この表を参照しながら、ユーザーの嗜好を計測する。まず、映像・音声・データ分離部3において、Hが3得点、Kがホームラン、7回表Hの攻撃、9回裏Gの攻撃などのメタデータを抽出する。次いで、ハイライトセグメント抽出部7において、上記メタデータと評価基準とに基づいて、得点があればそれを計算する。新語であるホームランは0ポイントに設定される。抽出されたハイライトセグメントのうちで、+のポイントのもの、すなわちH3得点(+30)と7回表Hの攻撃(+28)とを抽出する。ジャンル毎(種目毎)に検索式を設定し、精度をより高めることも可能である。異なる種目に同じ姓の選手がいる場合などに有効である。   This point will be described with reference to FIGS. FIG. 4 is a diagram showing a state of processing related to highlight segment extraction centering on the highlight segment extraction unit. The relevance of the video / audio / data separation unit 3, the highlight segment extraction unit 7, and the user preference database 5 and respective data content examples are shown along the example shown in FIG. Further, a positive evaluation keyword and a negative evaluation keyword are set in advance as evaluation criteria. In the figure, H teams (+20 points), points (+10 points), attacks (+8 points), etc. as positive evaluation keywords, and K players (−10 points), G teams (−18 points) as negative evaluation keywords. And so on. The user's preference is measured while referring to this table. First, the video / audio / data separation unit 3 extracts metadata such as 3 points for H, home run for K, 7-time front H attack, and 9-time back G attack. Next, the highlight segment extraction unit 7 calculates a score, if any, based on the metadata and the evaluation criteria. The new home run is set to 0 points. Among the extracted highlight segments, those with + points, that is, H3 score (+30) and 7 times H attack (+28) are extracted. It is also possible to set a search expression for each genre (for each event) to further improve accuracy. This is effective when there are players with the same surname in different events.

次に、ポイントの求め方について説明を行なう。図5は、記録済みコンテンツの再生時間tに沿って、コンテンツの時間的な盛り上がり方(盛況度)の一指標であるコンテンツの音量を縦軸にプロットしたグラフである。コンテンツの再生時には、リアルタイムでなくても音声が録音されているため、再生開始時からの時間とともに音量をプロットすると、ある時間における盛り上がりの度合いを推定することが可能である。例えば、時間t1から時間t2までと、時間t3から時間t4までのそれぞれの期間において音量があるしきい値を上回っている。この期間が盛況度の高い期間といえる。換言すれば、この期間はポイントを高くする必要がある。   Next, how to obtain points will be described. FIG. 5 is a graph in which the volume of content, which is an index of how content rises (prosperity), is plotted on the vertical axis along the playback time t of recorded content. Since audio is recorded at the time of content reproduction even if it is not real time, it is possible to estimate the degree of excitement at a certain time by plotting the volume with the time from the start of reproduction. For example, the volume exceeds a certain threshold value in each period from time t1 to time t2 and from time t3 to time t4. It can be said that this period is a period of high prosperity. In other words, the points need to be raised during this period.

図6は、図5に基づいて作成した図であり、コンテンツの再生時間を横軸にし、再生時間tにおける盛況度の積分値(%)を右縦軸にとっている。図6に示すように、あるコンテンツの盛況度L1の積分値は、この例では後半になって急上昇している。尚、L2は標準的なコンテンツの盛況度であり、時間に対してリニアに上昇するコンテンツであり、特にポイントとなるような時間帯がないものである。一方、L3では、時間tまでの間に盛況度が高くなりその後はあまり増加しないことがわかる。この場合、コンテンツL3では、時間10〜tまでの間において盛況度が高くなり、左縦軸よりこの時間帯にポイント+7が付与される。コンテンツL1では、tよりも後の時間帯において高いポイント(+10)が付与される。このようにして、コンテンツ毎に盛況度に基づくポイントが付与される。   FIG. 6 is a diagram created based on FIG. 5, where the reproduction time of the content is on the horizontal axis, and the integral value (%) of the degree of success at the reproduction time t is on the right vertical axis. As shown in FIG. 6, the integral value of the prosperity L1 of a certain content rises rapidly in the second half in this example. Note that L2 is a standard content prosperity, is a content that rises linearly with respect to time, and does not have a time zone that is particularly important. On the other hand, in L3, it can be seen that the prosperity increases until time t and does not increase much thereafter. In this case, in the content L3, the degree of success is high between time 10 and t, and a point +7 is given to this time zone from the left vertical axis. In the content L1, a high point (+10) is given in a time zone after t. In this way, points based on the degree of success are given to each content.

図7は、上記処理の流れをまとめたフローチャート図である。図7に示すように、コンテンツの視聴を開始し(ステップS1)、ステップS2において10秒以上視聴したか否かを判定する(尚、10秒は目安であり、任意に設定できる。)。このような規定時間以上であれば(YES)ステップS3に進み、規定時間に達しなければステップS5に進み、ユーザが興味を持っていないとして例えば−10ポイントを加算し、ステップS7で終了する。ステップS3においては、コンテンツの全てを視聴したか否かを判定し、全てを視聴していればステップS4に進み例えば+10ポイントを加算し、ステップS7に進む。ステップS3で全てを視聴したわけではない場合には、ステップS6に進み、視聴内容(視聴時間)に応じてポイントを加算し、ステップS7に進む。このようにしてポイントの加減算を行なう。このような評価処理は、場合によって異なる結果が現れるため、例えば最新の処理手順を次の評価処理にも利用するようにするのが好ましい。以上の処理によって例えばポイントが+になったハイライトセグメントを抽出する(図3参照)。   FIG. 7 is a flowchart summarizing the flow of the above processing. As shown in FIG. 7, the content viewing is started (step S1), and it is determined whether or not the content has been viewed for 10 seconds or more in step S2 (note that 10 seconds is a guide and can be arbitrarily set). If it is longer than the specified time (YES), the process proceeds to step S3. If the specified time is not reached, the process proceeds to step S5, and for example, -10 points are added assuming that the user is not interested, and the process ends in step S7. In step S3, it is determined whether or not all of the content has been viewed. If all of the content has been viewed, the process proceeds to step S4, for example, +10 points are added, and the process proceeds to step S7. If not all have been viewed in step S3, the process proceeds to step S6, points are added according to the viewing content (viewing time), and the process proceeds to step S7. In this way, addition / subtraction of points is performed. Since such an evaluation process produces different results depending on circumstances, it is preferable to use, for example, the latest processing procedure for the next evaluation process. For example, a highlight segment having a point of + is extracted by the above processing (see FIG. 3).

図8は、上記の処理により得られたハイライトに関する視聴例を示す図である。図8に示すように、表示画面15と時間帯情報とが設けられている。ユーザーの操作により時間帯情報を時間軸方向に移動させることができるタイムバー33が設けられている。ユーザーは、ハイライト抽出部41、43、45、47を目安に時間軸上においてこのタイムバー33を移動させることができる。タイムバー33のフォーカスがあたっている時間におけるコンテンツ表示が表示部15になされる。該当するタイムバー33にフォーカスが当たるとイベント情報や実際の動画が画面の例えば1/4程度の大きさでコンテンツの映像が表示される。これにより、ハイライト部分のコンテンツの内容を確認することができる。   FIG. 8 is a diagram showing a viewing example regarding the highlight obtained by the above processing. As shown in FIG. 8, a display screen 15 and time zone information are provided. A time bar 33 capable of moving the time zone information in the time axis direction by a user operation is provided. The user can move the time bar 33 on the time axis using the highlight extraction units 41, 43, 45, 47 as a guide. Content display during the time when the time bar 33 is in focus is displayed on the display unit 15. When the corresponding time bar 33 is focused, the event information or the actual moving image is displayed with a size of, for example, about 1/4 of the screen. As a result, the content of the highlighted portion can be confirmed.

図9は、ユーザー嗜好データ更新部17における処理の概要を示す図である。図9に示すように、例えば7回表Hの攻撃というメタデータ61を加算すると、図7の処理においてHの攻撃のハイライト部分を+7ポイントになる分だけ視聴したとすると、Hは+20から+27に変更される。その他のポイントはこの時点では変更されない。従って、+評価とマイナス評価とは図のようになり、この図がユーザー嗜好データベース5に新たに格納される(更新)。   FIG. 9 is a diagram showing an outline of processing in the user preference data update unit 17. As shown in FIG. 9, for example, when the metadata 61 of the attack of the 7th table H is added, if the highlight portion of the attack of H is viewed by +7 points in the process of FIG. It is changed to +27. Other points are not changed at this point. Accordingly, the positive evaluation and the negative evaluation are as shown in the figure, and this figure is newly stored in the user preference database 5 (update).

次に、上記全体の処理について図面を参照しながら説明を行なう。図10はハイライト再生手順の流れを示す図であり、図11は、ユーザー嗜好データベースの更新手順の流れを示す図である。図10に示すように、まず、ステップS0においてコンテンツを取得する。例えば、HDD内に記録されているコンテンツ又はリアルタイムに受信しているコンテンツを、コンテンツ入力部へ渡す。次いで、ステップS1において、映像・音声・メタデータを入力する。次いで、ステップS2において、映像・音声データからメタデータを分離する。ステップS3において、分離したメタデータとユーザー嗜好データとをマッチングしてポイントの高いものをハイライトセグメントとして抽出し、ハイライトセグメントメタデータを作成する。上記の例では0ポイント以上の時間帯のコンテンツを抽出する。次いで、ステップS4において、抽出されたハイライトセグメントメタデータをもとに、ハイライト部分の映像・音声をハイライト再生する。   Next, the entire process will be described with reference to the drawings. FIG. 10 is a diagram showing a flow of a highlight reproduction procedure, and FIG. 11 is a diagram showing a flow of a user preference database update procedure. As shown in FIG. 10, first, content is acquired in step S0. For example, the content recorded in the HDD or the content received in real time is passed to the content input unit. In step S1, video / audio / metadata is input. Next, in step S2, the metadata is separated from the video / audio data. In step S3, the separated metadata and user preference data are matched to extract the one with a high point as a highlight segment to create highlight segment metadata. In the above example, content in a time zone of 0 points or more is extracted. Next, in step S4, based on the extracted highlight segment metadata, the video / audio of the highlighted portion is highlighted and reproduced.

尚、リアルタイムで受信している場合には、最新のメタデータを使ってハイライトセグメントメタデータを作成し、視聴以前の部分をハイライト再生するようにすれば良い。   In the case of receiving in real time, highlight segment metadata may be created using the latest metadata, and the portion before viewing may be highlighted and reproduced.

図11に示すように、ステップS11において、ハイライトセグメント内で時間に対する盛況度の積分値を計算しておく。例えば録画途中からリアルタイムで計算し、番組終了時には計算が終わっているようにする。次いで、ステップS12において、ハイライトセグメントの再生を開始する。ステップS13において、ハイライトセグメント再生時において、主にスキップなどユーザーの操作によって、視聴時間がt1秒のときの盛況度の積分値から求められるポイントをユーザー嗜好データに反映させる。t1秒までの盛況度の積分値が高ければ、その分ユーザー嗜好に反映されるポイントが高くなる。ステップS14に示すように、次回視聴時には、上記のステップで更新された新しいユーザー嗜好データを用いてハイライトセグメント抽出を行う。   As shown in FIG. 11, in step S11, an integral value of the degree of success with respect to time is calculated in the highlight segment. For example, the calculation is performed in real time from the middle of recording, and the calculation is completed when the program ends. Next, in step S12, reproduction of the highlight segment is started. In step S13, at the time of highlight segment reproduction, the point obtained from the integrated value of the prosperity when the viewing time is t1 seconds is reflected in the user preference data mainly by user operation such as skipping. If the integral value of the degree of success up to t1 seconds is high, the point reflected in the user preference increases accordingly. As shown in step S14, at the time of next viewing, highlight segment extraction is performed using the new user preference data updated in the above step.

以上に説明したように、本実施の形態によれば、盛況度を用いてユーザー嗜好データを作成することにより一層、視聴者にとって不必要なイベントが表示されずに表示画面がすっきりとする。また、再生時に不必要なシーンのスキップをする手間が省け、より効果的な時短視聴ができる。   As described above, according to the present embodiment, the user preference data is created using the prosperity, thereby further reducing the display screen without displaying unnecessary events for the viewer. In addition, it is possible to save time and time viewing more effectively by skipping unnecessary scenes during playback.

本発明はコンテンツの時短視聴に利用可能である。   The present invention can be used for short-time viewing of content.

本発明の一実施の形態によるコンテンツ視聴装置の一構成例を示す機能ブロック図である。It is a functional block diagram which shows the example of 1 structure of the content viewing-and-listening apparatus by one embodiment of this invention. 一般的な技術であって、メタデータのみによってハイライトセグメントを抽出する様子を示す図であり、メタデータにより特定される各イベントが、時間軸に沿ってメタデータの内容とともに配置されている。It is a general technique and shows a state in which highlight segments are extracted only by metadata, and each event specified by metadata is arranged along with the content of metadata along the time axis. 本実施の形態による技術であって、メタデータとユーザー嗜好データとに基づいて、ハイライトセグメントを抽出する様子を示す図である。It is the technique by this Embodiment, Comprising: It is a figure which shows a mode that a highlight segment is extracted based on metadata and user preference data. ハイライトセグメント抽出部を中心としたハイライトセグメントの抽出に関連する処理の様子を示す図である。It is a figure which shows the mode of the process relevant to extraction of the highlight segment centering on a highlight segment extraction part. 記録済みコンテンツの再生時間tに沿って、コンテンツの時間的な盛り上がり方(盛況度)の一指標であるコンテンツの音量を縦軸にプロットしたグラフである。It is the graph which plotted on the vertical axis | shaft the volume of the content which is one parameter | index of how the content rises (prosperity) along the reproduction time t of the recorded content. 図5に基づいて作成した図であり、コンテンツの再生時間を横軸にし、再生時間tにおける盛況度の積分値(%)を右横軸にとっている。FIG. 6 is a diagram created on the basis of FIG. 5, where the reproduction time of the content is on the horizontal axis, and the integral value (%) of the liveliness at the reproduction time t is on the right horizontal axis. 図4から図6までの処理の流れをまとめたフローチャート図である。It is the flowchart figure which put together the flow of the process from FIG. 4 to FIG. 図4から図6までに得られたハイライトに関する視聴例を示す図である。It is a figure which shows the viewing example regarding the highlight obtained from FIG. 4 to FIG. ユーザー嗜好データ更新部における処理の概要を示す図である。It is a figure which shows the outline | summary of the process in a user preference data update part. ハイライト再生手順の流れを示す図である。It is a figure which shows the flow of a highlight reproduction | regeneration procedure. ユーザー嗜好データベースの更新手順の流れを示す図である。It is a figure which shows the flow of the update procedure of a user preference database.

符号の説明Explanation of symbols

A…コンテンツ視聴装置、1…コンテンツ入力部、3…映像・音声・データ分離部、5…ユーザー嗜好データベース、7…ハイライトセグメント抽出部、11…映像・音声・データ合成部、15…表示部、17…ユーザー嗜好更新部、21…盛況度計測部、23…操作部。   A ... content viewing device, 1 ... content input unit, 3 ... video / audio / data separation unit, 5 ... user preference database, 7 ... highlight segment extraction unit, 11 ... video / audio / data synthesis unit, 15 ... display unit , 17 ... User preference update unit, 21 ... Activeness measurement unit, 23 ... Operation unit.

Claims (9)

映像・音声データを含むコンテンツが入力されるコンテンツ入力部と、
ユーザーの嗜好度の高低を示す嗜好データを格納するユーザー嗜好データベースと、
前記入力されたコンテンツのメタデータと前記嗜好データとのマッチング処理により、ハイライトセグメントを抽出するハイライトセグメント抽出部と、
該ハイライトセグメント抽出部により抽出されたハイライトセグメントと、前記映像・音声データと前記メタデータとを合成する合成部と、
該合成部からの出力に基づいてコンテンツをハイライト再生する再生部と
を有することを特徴とするコンテンツ視聴装置。
A content input unit to which content including video / audio data is input;
A user preference database that stores preference data indicating the level of user preference,
A highlight segment extraction unit that extracts a highlight segment by matching processing between the metadata of the input content and the preference data;
A highlight unit extracted by the highlight segment extraction unit, and a synthesis unit that synthesizes the video / audio data and the metadata;
A content viewing apparatus comprising: a reproduction unit that highlights and reproduces content based on an output from the synthesis unit.
前記ハイライトセグメント抽出部は、マッチングされた前記メタデータと対応するハイライト部分であって、前記嗜好データのうち前記嗜好度の高いメタデータを含むコンテンツのハイライト部分を優先的に抽出することを特徴とする請求項1に記載のコンテンツ視聴装置。   The highlight segment extraction unit preferentially extracts a highlight portion corresponding to the matched metadata, the highlight portion of the content including the metadata having a high preference degree from the preference data. The content viewing / listening apparatus according to claim 1. コンテンツ内の映像・音声データとメタデータとを分離する分離部を有し、該分離部において分離されたメタデータを前記メタデータとして利用することを特徴とする請求項1又は2に記載のコンテンツ視聴装置。   3. The content according to claim 1, further comprising: a separation unit that separates video / audio data and metadata in the content, and using the metadata separated by the separation unit as the metadata. Viewing device. コンテンツの実況内容のうち、映像データを文字認識した結果又は音声データを音声認識した結果に基づいて前記メタデータを取得することを特徴とする請求項1又は2に記載のコンテンツ視聴装置。   3. The content viewing apparatus according to claim 1, wherein the metadata is acquired based on a result of character recognition of video data or a result of voice recognition of audio data among actual contents of the content. 前記コンテンツにおける盛り上がりの度合いを示す盛況度を測定する盛況度計測部と、
該盛況度計測部における盛況度の測定に基づいて、ユーザーの嗜好データを更新するユーザー嗜好データ更新部と
を有することを特徴とする請求項1から4までのいずれか1項に記載のコンテンツ視聴装置。
A prosperity measuring unit that measures the prosperity indicating the degree of excitement in the content;
5. The content viewing / listening according to claim 1, further comprising: a user preference data update unit that updates user preference data based on the measurement of the popularity level in the success level measurement unit. apparatus.
前記盛況度は、抽出されたハイライトセグメントの再生時において、ユーザーの操作によって、視聴時間毎の盛況度の積分値から求められるポイントをユーザー嗜好データに反映させるために用いられることを特徴とする請求項5に記載のコンテンツ視聴装置。   The prosperity is used to reflect, in the user preference data, a point obtained from an integral value of the prosperity for each viewing time by a user operation during reproduction of the extracted highlight segment. The content viewing apparatus according to claim 5. 前記コンテンツはリアルタイムに受信しているコンテンツである場合には、最新のメタデータを使ってハイライトセグメントメタデータを作成し、該ハイライトセグメントメタデータに基づいて視聴前のコンテンツ部分をハイライト再生することを特徴とする請求項1から6までのいずれか1項に記載のコンテンツ視聴装置。   When the content is content received in real time, highlight segment metadata is created using the latest metadata, and the content portion before viewing is highlighted based on the highlight segment metadata. The content viewing / listening device according to claim 1, wherein the content viewing / listening device is a device. メタデータと映像・音声データとを含むコンテンツを取得するステップと
前記コンテンツからメタデータを分離するステップと、
分離した前記メタデータとユーザー嗜好の高低を示すユーザー嗜好データとをマッチングするステップと、
マッチングした部分に対してユーザー嗜好の高低に基づいてポイントを付与するステップと、
ポイントの高い部分をハイライトセグメントとして抽出し、ハイライトセグメントメタデータを作成するステップと、
抽出されたハイライトセグメントメタデータをもとに、ハイライト部分の映像・音声をハイライト再生するステップと
を有することを特徴とするコンテンツ再生方法。
Obtaining content including metadata and video / audio data; separating the metadata from the content;
Matching the separated metadata and user preference data indicating the level of user preference;
Assigning points to the matched parts based on user preferences,
Extracting the high point portion as a highlight segment and creating highlight segment metadata,
A content reproduction method comprising: highlighting video / audio of a highlight portion based on the extracted highlight segment metadata.
ハイライトセグメント内で時間に対する盛況度の積分値を計算しておくステップと、
ハイライトセグメントの再生時において、ユーザーの操作によって、視聴時間毎の盛況度の積分値から求められるポイントをユーザー嗜好データに反映させるステップと、
更新された新しいユーザー嗜好データを用いてハイライトセグメント抽出を行うステップとを有することを特徴とする請求項8に記載のコンテンツ再生方法。
Calculating an integral value of the prosperity with respect to time in the highlight segment;
Reflecting the points obtained from the integrated value of the prosperity for each viewing time in the user preference data by the user's operation during highlight segment playback,
The content reproduction method according to claim 8, further comprising a step of performing highlight segment extraction using the updated new user preference data.
JP2006024956A 2006-02-01 2006-02-01 Content viewing apparatus Pending JP2007208651A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006024956A JP2007208651A (en) 2006-02-01 2006-02-01 Content viewing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006024956A JP2007208651A (en) 2006-02-01 2006-02-01 Content viewing apparatus

Publications (1)

Publication Number Publication Date
JP2007208651A true JP2007208651A (en) 2007-08-16

Family

ID=38487709

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006024956A Pending JP2007208651A (en) 2006-02-01 2006-02-01 Content viewing apparatus

Country Status (1)

Country Link
JP (1) JP2007208651A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010074775A (en) * 2008-09-22 2010-04-02 Sony Corp Display controller, display control method and program
US8938151B2 (en) 2010-12-14 2015-01-20 Canon Kabushiki Kaisha Video distribution apparatus and video distribution method
CN110446093A (en) * 2019-08-15 2019-11-12 天脉聚源(杭州)传媒科技有限公司 A kind of video progress bar display methods, device and storage medium
CN110891198A (en) * 2019-11-29 2020-03-17 腾讯科技(深圳)有限公司 Video playing prompt method, multimedia playing prompt method, bullet screen processing method and device
JP2021510026A (en) * 2017-12-21 2021-04-08 ロヴィ ガイズ, インコーポレイテッド Systems and methods to provide a progress bar for updating the viewing status of previously viewed content

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004187029A (en) * 2002-12-04 2004-07-02 Toshiba Corp Summary video chasing reproduction apparatus
JP2004233541A (en) * 2003-01-29 2004-08-19 Riyuukoku Univ Highlight scene detection system
JP2005109566A (en) * 2003-09-26 2005-04-21 Toshiba Corp Video image summary instrument, explanation note forming instrument, video image summary method, explanation note forming method and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004187029A (en) * 2002-12-04 2004-07-02 Toshiba Corp Summary video chasing reproduction apparatus
JP2004233541A (en) * 2003-01-29 2004-08-19 Riyuukoku Univ Highlight scene detection system
JP2005109566A (en) * 2003-09-26 2005-04-21 Toshiba Corp Video image summary instrument, explanation note forming instrument, video image summary method, explanation note forming method and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010074775A (en) * 2008-09-22 2010-04-02 Sony Corp Display controller, display control method and program
JP4591586B2 (en) * 2008-09-22 2010-12-01 ソニー株式会社 Display control apparatus, display control method, and program
US8938151B2 (en) 2010-12-14 2015-01-20 Canon Kabushiki Kaisha Video distribution apparatus and video distribution method
JP2021510026A (en) * 2017-12-21 2021-04-08 ロヴィ ガイズ, インコーポレイテッド Systems and methods to provide a progress bar for updating the viewing status of previously viewed content
JP7224354B2 (en) 2017-12-21 2023-02-17 ロヴィ ガイズ, インコーポレイテッド Systems and methods for providing a progress bar for updating viewing status of previously viewed content
CN110446093A (en) * 2019-08-15 2019-11-12 天脉聚源(杭州)传媒科技有限公司 A kind of video progress bar display methods, device and storage medium
CN110891198A (en) * 2019-11-29 2020-03-17 腾讯科技(深圳)有限公司 Video playing prompt method, multimedia playing prompt method, bullet screen processing method and device

Similar Documents

Publication Publication Date Title
US8168876B2 (en) Method of displaying music information in multimedia playback and related electronic device
JP4550725B2 (en) Video viewing support system
JP4065142B2 (en) Authoring apparatus and authoring method
JP5244877B2 (en) Content processing device
CN101150699B (en) Information processing apparatus, information processing method
US20080059526A1 (en) Playback apparatus, searching method, and program
JP5135024B2 (en) Apparatus, method, and program for notifying content scene appearance
TWI474200B (en) Scene clip playback system, method and recording medium
WO2007132566A1 (en) Video reproduction device, video reproduction method, and video reproduction program
JP2008022103A (en) Apparatus and method for extracting highlight of moving picture of television program
US10341727B2 (en) Information processing apparatus, information processing method, and information processing program
JP2007060060A (en) Reproduction system, reproducing apparatus, reproducing method, information processing apparatus, information processing method, and program
JP2011223325A (en) Content retrieval device and method, and program
JP2010055501A (en) Information providing server, information providing method and information providing system
JP2007336283A (en) Information processor, processing method and program
JP4668875B2 (en) Program recording / playback apparatus, program playback position control method, and program information providing apparatus
JP2007208651A (en) Content viewing apparatus
JP2009004994A (en) Digest picture information creating method, digest picture information creating program, and picture apparatus
JP2007250097A (en) Contents reproducing device, contents reproduction restarting method, and contents reproducing program
JP4331706B2 (en) Editing apparatus and editing method
JP5300296B2 (en) Display device, server device, system, and display method
TWI497959B (en) Scene extraction and playback system, method and its recording media
JP4272611B2 (en) VIDEO PROCESSING METHOD, VIDEO PROCESSING DEVICE, VIDEO PROCESSING PROGRAM, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING THE PROGRAM
JP2006332765A (en) Contents searching/reproducing method, contents searching/reproducing apparatus, and program and recording medium
KR20080064364A (en) Method and apparatus for scene search

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091215

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100413