JP2004521525A - Visualization and playback of TV show programs at a lower level than the programs - Google Patents

Visualization and playback of TV show programs at a lower level than the programs Download PDF

Info

Publication number
JP2004521525A
JP2004521525A JP2002515823A JP2002515823A JP2004521525A JP 2004521525 A JP2004521525 A JP 2004521525A JP 2002515823 A JP2002515823 A JP 2002515823A JP 2002515823 A JP2002515823 A JP 2002515823A JP 2004521525 A JP2004521525 A JP 2004521525A
Authority
JP
Japan
Prior art keywords
content
segment
segments
user
program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002515823A
Other languages
Japanese (ja)
Inventor
マーマロポウロス,ジョージ
ヴァン ヒールデン,クライヴ アール
ズィマーマン,ジョン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of JP2004521525A publication Critical patent/JP2004521525A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234336Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by media transcoding, e.g. video is transformed into a slideshow of still pictures or audio is converted into text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2353Processing of additional data, e.g. scrambling of additional data or processing content descriptors specifically adapted to content descriptors, e.g. coding, compressing or processing of metadata
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25866Management of end-user data
    • H04N21/25891Management of end-user data being end-user preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • H04N21/42661Internal components of the client ; Characteristics thereof for reading from or writing on a magnetic storage medium, e.g. hard disk drive
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440236Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by media transcoding, e.g. video is transformed into a slideshow of still pictures, audio is converted into text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4532Management of client data or end-user data involving end-user characteristics, e.g. viewer profile, preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • H04N21/4828End-user interface for program selection for searching program descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/454Content or additional data filtering, e.g. blocking advertisements

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Library & Information Science (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Television Systems (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)

Abstract

本発明は、テレビ番組のようなコンテンツをセグメントレベルで表示する方法及びシステムである。本発明は、コンテンツを少なくとも二つのセグメントに区分し、少なくとも二つのセグメントのうちの少なくとも一方の表現情報を表示し、少なくとも二つのセグメントのうちの少なくとも一方がコンテンツに関係する程度を示す。用語「コンテンツ」は、放送され、ユーザによって蓄積され、或いは、ユーザへ伝送される任意のタイプの番組又は情報に関係する。The present invention is a method and system for displaying content such as television programs at a segment level. The present invention divides the content into at least two segments, displays expression information of at least one of the at least two segments, and indicates a degree to which at least one of the at least two segments is related to the content. The term "content" relates to any type of program or information that is broadcast, stored by a user, or transmitted to a user.

Description

【0001】
〔関連出願へのクロスリファレンス〕
本願は、2000年7月28日に、George MarmaropoulosとJohn Zimmermanを発明者として仮出願された、発明の名称が”VISUALIZATION AND PLAYBACK OF TELEVISION SHOWS AT A SUB−SHOW LEVEL”である米国特許出願S.N. 60/221,404に基づく本出願であり、この仮出願の全文を参考のため引用する。
【0002】
〔発明の背景〕
本発明は、一般的に、テレビ視聴プロセスのカスタマイズに関連したユーザ対話パラダイムに関する。
【0003】
デジタルテレビ及びデジタル情報は、家庭用娯楽を変化させているが、大量のデジタルコンテンツを提供することによって、今後も変化させ続けるであろう。チャネルの数及び入手可能なコンテンツの多様性は非常に膨大であるため、視聴者は、従来のチャネル・サーフィング法を用いてコンテンツを見て回ることは不可能である。参考のため引用する米国特許第4,706.121号及び第5,353,121号に記載されているような電子番組ガイド(EPG)は、視聴者が設定した選択基準に基づいて番組を選択する便利な方法を視聴者に提供するスケジュール情報処理システムを実現する。しかし、現在発展中のEPGの場合でも、直ぐに入手可能になるような大量の情報を個人化するレベルを実現するには不十分である。
【0004】
パーソナル・テレビ・レコーダ及びエージェント・テクノロジーのような種々の装置及びシステムは、ある程度のレベルの個人化を達成する。これらのシステムは、EPGとユーザの嗜好とを用いてメタデータレベルで動作する。このような装置は、通常、お気に入りの番組を視聴するプロセスを容易にするため、数時間のビデオコンテンツを記憶する能力を備えたハードディスクを有する。しかし、ユーザが自分の見聞したい特定のコンテンツを直観的に検索し発見できるようにさせる新しいパラダイムが必要になり始めている。
【0005】
これまで、ユーザは、個別の分割できないショー番組の単位でコンテンツを概念化している。したがって、ユーザは、ショー番組レベルでなければコンテンツの視聴を選択できない。
【0006】
〔発明の概要〕
本発明の一局面によれば、セグメントレベルでコンテンツを表示する方法は、幾つかの手順により構成される。一つの手順では、コンテンツを少なくとも二つのセグメントに区分けする(区分手順)。別の手順では、少なくとも二つのセグメントのうちの少なくとも一方の表現情報を表示する(表示手順)。更なる手順では、少なくとも二つのセグメントのうちの少なくとも一方がコンテンツに関係する程度を指示する(指示手順)。
【0007】
ここで、用語「コンテンツ」は、放送され、ユーザによって蓄積され、或いは、ユーザへ伝送される任意のタイプの番組又は情報に関係する。
【0008】
本発明の一部の実施例では、区分手順は、サンプリングされたフレーム内の画素色解析、会話解析、物体認識技術、記入されたコンテンツ解説、クローズドキャプション、スピーチ・ツー.・テキスト、MPEG 7、又は、オーディオ解析に基づく区分けを行なう。
【0009】
本発明の別の実施例では、指示手順は、各セグメントの長さ、又は、各セグメントが収容されているコンテンツの長さに対するセグメントの長さを指示する。指示手順は、セグメントが収容されているコンテンツ内におけるそのセグメントの時間的位置を指示する。
【0010】
別の実施例では、指示手順は、ピクチャー又はテキストでもよいシンボルを生成する。ユーザは、このシンボルを用いてコンテンツを検索する。
【0011】
他の実施例では、ユーザは、完全フォーマット若しくは部分フォーマットでセグメントを表示(すなわち、再生)するためセグメントの表現情報を選択可能である。
【0012】
他の実施例では、本発明の方法は、セグメントを記憶媒体に保持する。ユーザは、二つ以上のセグメントを蓄積し、表示してもよい。
【0013】
本発明の他の局面によれば、セグメントレベルでコンテンツを表示するシステムは、少なくとも一つのコンテンツ情報源と、コンテンツを区分けする手段と、区分けされたセグメントの少なくとも一つの表現情報を表示する表示手段と、を有する。
【0014】
一部の実施例では、表示手段はテレビ若しくはモニターである。コンテンツは、少なくとも一つのテレビ番組情報源であるか、又は、リニア・メディアの情報源である。さらに、テレビ番組又はストリーミング・メディアの情報源は、衛星情報源、地上基地情報源、又は、放送情報源である。
【0015】
他の実施例において、コンテンツを区分けする手段は、コンテンツ・ヘッドエンド、ユーザ側の場所、或いは、コンテンツ・ヘッドエンドとユーザ側の場所の両方で動作する。
【0016】
他の実施例において、コンテンツを区分けする手段は、ユーザの個々の視聴習慣に基づいて自動的にコンテンツを区分けする。さらに、表示手段は、少なくとも二つのセグメントのうちの少なくとも一方を表示する。
【0017】
本発明の別の局面において、セグメントレベルでコンテンツを表示する機能を実現させる、プロセッサ読取可能な媒体に記録されたプログラムは、種々の手順を実行する部分を有する。プログラムは、コンテンツを少なくとも二つのセグメントに区分けする部分と、少なくとも二つのセグメントのうちの少なくとも一方を表示する部分と、少なくとも二つのセグメントのうちの少なくとも一方がコンテンツと関係する程度を指示する部分と、を有する。
【0018】
本発明は、幾つかの効果を奏する。たとえば、システム、方法、及びプログラムは、コンテンツを区分けし、区分けされたコンテンツを表示させ得る。ユーザは、自分が見たいセグメントだけを選択し、大量のコンテンツの中から特定のセグメントだけを検索することができる。これにより、チャネル数と情報量が増加し続けると共に、テレビの視聴は、より簡単になり、より個人化が進む。さらに、大量の情報は、余分な探し読みを行なわなくても、直ちに、かつ、簡単に編成され、閲覧される。これらの効果、並びに、その他の多数の効果は、以下の実施例を参照して解明される。
【0019】
〔主な実施例の詳細な説明〕
提案された方法、システム、及びプログラムは、テレビ視聴者に、番組よりも下位レベル(以下では、セグメントレベルと呼ぶ)でコンテンツを選択する能力を付与する。
【0020】
図1は、セグメントレベル表現情報を具体化する提案されたユーザ・インタフェースの好ましい一実施例の説明図である。ユーザは、最初に、ユーザ・インタフェース100上のカテゴリーメニュー10から項目を選択する。ここで、ユーザは、あるカテゴリー内のコンテンツを検索できる。図1において、ユーザは、リモートコントローラやキーボードのような通常の入力装置を使用してトークショー番組を選択する。これにより、選択されたトークショー番組カテゴリーに適合したコンテンツ(すなわち、アイコンによって表現されたテレビ番組)が現れる。カテゴリーに適合したコンテンツの各部分は、選択することができる。図1において、ユーザは、リモートコントローラやキーボードのような通常の入力装置を使用して、アイコン11を選択する。このアイコンは、別のコンテンツ(すなわち、別の番組)を表現する。
【0021】
アイコン11は、テレビ番組「David Lettermanが送る深夜ショー番組」(以下では、「深夜ショー番組」と呼ぶ)に対応する。この番組は、ゲストのインタビュー、ミュージシャンによる演奏、コメディアンによる演芸などの多数のセグメントを含む。
【0022】
コンテンツをセグメントレベルで表示するためコンテンツを区分けする数通りの方法が知られている。一つの方法は、セグメントの開始と終了の手がかりを識別するため、コンテンツに関連したクローズドキャプション(字幕)を調べることにより、コンテンツをセグメントに解体する。一例として、セグメントが開始する場所を識別するための手がかり(合図)は、単語列「今夜の次のゲストは、〜」である。セグメントの終了を識別するための手がかりは、単語列「ありがとう〜」である。
【0023】
別の方法は、番組の固有の構成からセグメントを識別する。これは、たとえば、音楽が演奏される継続した部分を認識することによって、トークショー番組内で音楽演奏を識別することにより実現される。手がかりは、音楽の開始するときと、終了するときである。
【0024】
更に別の方法は、たとえば、フットボールの試合の1クォーターの開始時と終了時に鳴らされるホイッスルのようなセグメントと関連したサウンド、或いは、拍手が閾値音量に達した部分(すなわち、スポーツイベントのおける素晴らしい演技)を認識する。その他の多数のコンテンツ区分方法を利用することが可能であり、本発明においても使用され得る。
【0025】
アイコン11は、図1において選択され、セグメント表示領域12は、セグメント表現情報13〜17を表示する。セグメント描画13〜17は、深夜ショー番組の様々なセグメントを表現する。たとえば、セグメント描画13は、深夜ショー番組中でDolly Partonがゲストとして登場するセグメントに対応する。セグメント描画14は、深夜ショー番組中で、Drew Careyが登場するセグメントに対応する。ユーザが深夜ショー番組中の一つ以上のセグメントを視聴したい場合、ユーザは対応したセグメント表現情報を選択することができる。セグメント表現情報がせんたくされると、セグメントが表示されるか、或いは、蓄積される。一例として、ユーザがセグメント表示領域12からセグメント表現情報13を選択した場合を考える。ユーザは、そのセグメントを視聴し、選択したセグメントの系列を作成し、全体を編集可能なモンタージュとして視聴し、或いは、後で視聴するためセグメントを保存することが可能である。
【0026】
セグメント表現情報の面積は、セグメントの時間的長さに比例する。一例として、図1において、セグメント表示領域12をちょっと見るだけで、セグメント表現情報13及び14は、セグメント表現情報15及び16よりも長いということがわかる。さらに、ユーザは、セグメント表現情報の長さを、コンテンツの全体(すなわち、番組)の長さと、直ちに、かつ、簡単に比較することが可能である。一例として、ユーザは、セグメント表現情報13がセグメント表示領域12の長さの約1/5の長さであると見積もる。その結果として、ユーザは、深夜ショー番組は1時間番組であるので、セグメント表現情報13に対応したこのセグメントの長さは、1時間の1/5、すなわち、12分間であると判定できる。或いは、ユーザがセグメント表現情報をハイライトさせたとき、セグメントの長さと、コンテンツ全体に対するセグメントの長さが与えられる。
【0027】
図2は、セグメント表現情報がユーザにコンテンツ部のセグメントに関する詳細情報を提供するユーザ・インタフェース101の説明図である。表示領域12は、アイコン21のようなアイコンによって示されたセグメント表現情報13〜17を収容する。ユーザがセグメント表現情報をハイライトさせたとき、著名人に関する情報、セグメントを形成する手がかり、テーマなどのような情報が提供される。図2において、ユーザがDolly Partonに対応したセグメント表現情報13をハイライトさせたとき、ハイライトされたセグメントを保存するか、視聴するかを決める際にユーザを補助する情報20が出現する。上述のようにセグメント表現情報を表示させることは、その他の理由からも有用である。一般的に、コンテンツ部は、その中に含まれる特定のセグメントに重点を置く。たとえば、ニュース番組は、「トップ記事」セグメントに重点を置く。さらに、「トップ記事」は、通常、コンテンツ部の始めの方で登場する。セグメントレベルでコンテンツを表示することによって、ユーザは、セグメントのコンテンツ全体に対する関係に基づいて、セグメントがコンテンツ全体の中で置かれた位置、並びに、そのセグメントの重要性の程度を知ることができる。
【0028】
図3は、ユーザがセグメントを用いてコンテンツを検索できるようにさせるユーザ・インタフェースの説明図である。ユーザ・インタフェース102では、ユーザは、図1に示されたカテゴリーメニュー10から金融に関するコンテンツ部を検索した。アイコン31〜33によって表現されるコンテンツ部は、ユーザの検索によって見つけられた。ユーザは、次に、セグメントレベルでコンテンツ部31〜33を検索し得る。ユーザは、検索エンジン36から特定のセグメント37を選択することにより、このセグメントレベル検索を実行する。図3において、ユーザは、金融に関係したコンテンツ部の中でNokiaに関するセグメントを見つけることだけを希望している。表示領域34及び35に示されるように、セグメント表現情報38及び39が見つけられた。ユーザは、アイコン33によって表現されたコンテンツ部の中には所望のセグメントを収容するセグメントが存在しない、ということを知る。さらに、ユーザは、アイコン32に対応するコンテンツ部が、アイコン31に対応したNokiaに関するコンテンツ部よりも詳細なNokiaに関するセグメント(すなわち、セグメント表現情報39)を視覚化することが可能である。ユーザは、検索によって発見した両方のセグメント、短いセグメント(すなわち、セグメント表現情報38に対応したセグメント)だけ、或いは、長いセグメント(すなわち、セグメント表現情報39に対応したセグメント)だけ、を視聴若しくは蓄積することを希望するかもしれない。
【0029】
図4は、セグメントレベルでコンテンツを表示するシステムの説明図である。表示画面401は、ユーザ・インタフェース101を表示する。セグメント表現情報、及び、メニューは、選択され、編集され、或いは、カーソル(図示せず)を用いて操作される。カーソルは、リモートコントローラ47若しくはその他の公知の通例的な入力装置のような通常の入力装置を使用して上下左右に動かされる。
【0030】
ユーザがコンテンツ部のカテゴリーを選択したとき、マイクロプロセッサ45は、選択されたコンテンツ部を見つけるためコンテンツ情報源44を調べる。マイクロプロセッサ45は、次に、ユーザの入力に応じて、選択されたコンテンツ部を区分けする。これは、たとえば、ユーザがコンテンツ部を表現するアイコンを選択した場合に行なわれる。マイクロプロセッサ45は、上述の通り番組を区分けし、セグメント表現情報としてセグメントを表示する。或いは、マイクロプロセッサ45は、コンテンツ情報源44を調べて、二つ以上のカテゴリーに亘って番組を区分けしてもよい。
【0031】
ユーザがセグメント表現情報を選択したとき、マイクロプロセッサ45は、ディスプレイ401に対し、セグメントを表示するよう命令してもよい。マイクロプロセッサ45は、選択されたセグメントを記憶媒体46に保存してもよい。マイクロプロセッサ45は、ユーザの個別の番組視聴習慣に基づいて、自動的にセグメントを推奨してもよい。
【0032】
セグメントレベル表示は、無線、及び、インターネットからのストリーミング供給のようなあらゆる形式のストリーミング媒体に広く関係する。たとえば、無線装置(たとえば、デジタルケーブル無線供給のような装置)に関係する。無線コンテンツ部は、ユーザによる選択のため、区分け、検索、及び、表示される。
【0033】
図5は、セグメントレベルでコンテンツを表示する、プロセッサ読取可能な媒体に記録されたプログラムを説明するブロック図である。プログラムは、ユーザがコンテンツのカテゴリーを選択したかどうかをステップ500で質問する。選択されていない場合、プログラムは、ステップ502において、マイクロプロセッサ45に対し、カテゴリーメニューを生成するように指令する。生成後、プログラムは、マイクロプロセッサ45に対し、ステップ503で入力を要求し、ステップ504で受け取るように指令する。ユーザがステップ500でカテゴリーを選択していた場合、或いは、ステップ503で入力が受け取られていた場合、プログラムは、マイクロプロセッサ45に対し、ステップ501で、選択されたカテゴリーに基づいてコンテンツを検索及び/又はフィルタリングするように指令する。
【0034】
選択されたカテゴリーに基づいてコンテンツが検索及び/又はフィルタリングされた後、プログラムは、ユーザに対し、カテゴリーの結果の範囲内でセグメントを検索することを希望するかどうかを質問する。これは、ステップ505で行なわれる。ユーザが選択されたカテゴリー内でのセグメントの検索を望まない場合、プログラムは、コンテンツ部を表現するアイコンが選択されたかどうかを問い合わせる。これは、ステップ506で行われる。選択されていない場合、プログラムは、ステップ507でアイコンが選択されるまで待機する。ユーザがアイコンを選択したとき、アイコンが表現するコンテンツ部はステップ508で区分けされる。
【0035】
ユーザが選択されたカテゴリー内でセグメントを検索したい場合、プログラムは、マイクロプロセッサ45に対し、ステップ509において、カテゴリー内の全てのコンテンツ部を区分けするように指令する。ステップ510において、プログラムは、ユーザがセグメントカテゴリーを選択したかどうかを問い合わせる。選択していない場合、プログラムは、マイクロプロセッサ45に対し、ステップ511でセグメントカテゴリーメニューを生成するように指令する。カテゴリーメニューの生成後、プログラムは、マイクロプロセッサ45に対し、ステップ512で入力を要求し、ステップ513で入力を受け取るように指令する。ユーザがステップ510でセグメントカテゴリーを選択していた場合、或いは、入力がステップ513で受け取られた場合、プログラムは、マイクロプロセッサ45に対し、ステップ514において、選択されたセグメントカテゴリーに基づいてセグメントを検索及び/又はフィルタリングするように指令する。アイコンが表現するコンテンツ部がステップ508で区分けされた場合、又は、プログラムが、マイクロプロセッサ45に対し、ステップ514で選択されたセグメントカテゴリーに基づいてセグメントを検索及び/又はフィルタリングするように指令した場合、プログラムは、ディスプレイ401に対し、ステップ515において、セグメントをセグメント表現情報として表示するように指令する。
【0036】
上述の記載事項及び例は、典型的な例であって、請求項に係る発明の範囲を制限することを意図するものではない。
【図面の簡単な説明】
【図1】
セグメントレベル表現情報を具体化するユーザ/インタフェースの好ましい一実施例の説明図である。
【図2】
セグメント表現情報が付加情報を含むユーザ/インタフェースの好ましい一実施例の説明図である。
【図3】
ユーザがセグメントによってコンテンツを検索することができるユーザ/インタフェースの好ましい一実施例の説明図である。
【図4】
セグメントレベルでコンテンツを表示するシステムの好ましい一実施例の説明図である。
【図5】
セグメントレベルでコンテンツを表示する機能を実現させる、プロセッサ読取可能な媒体に記録されたプログラムの説明図である。
[0001]
[Cross-reference to related applications]
This application was filed on July 28, 2000, with the provisional application of George Marmaropoulos and John Zimmerman as the inventor, entitled "VISUALIZATION AND PLAYBACK OF TELEVISION SHOWS AT S.A. US Patent Application. N. No. 60 / 221,404, the entire application of which is incorporated by reference.
[0002]
[Background of the Invention]
The present invention relates generally to a user interaction paradigm associated with customizing the television viewing process.
[0003]
Digital television and digital information are changing home entertainment, but will continue to change by providing large amounts of digital content. The vast number of channels and the variety of available content makes it impossible for viewers to browse through the content using conventional channel surfing techniques. Electronic program guides (EPGs), such as those described in US Pat. Nos. 4,706,121 and 5,353,121, which are incorporated by reference, select programs based on selection criteria set by the viewer. A schedule information processing system that provides a convenient method for a viewer to perform is provided. However, even the evolving EPG is not sufficient to achieve a level of personalization of large amounts of information that is readily available.
[0004]
Various devices and systems, such as personal television recorders and agent technology, achieve some level of personalization. These systems operate at the metadata level using EPGs and user preferences. Such devices typically have a hard disk with the ability to store hours of video content to facilitate the process of watching favorite programs. However, a new paradigm is beginning to be needed that allows users to intuitively search and find the specific content they want to see.
[0005]
Heretofore, users have conceptualized content in units of individually indivisible show programs. Therefore, the user cannot select the viewing of the content only at the show program level.
[0006]
[Summary of the Invention]
According to one aspect of the invention, a method for displaying content at the segment level comprises several steps. In one procedure, the content is partitioned into at least two segments (a partitioning procedure). In another procedure, expression information of at least one of at least two segments is displayed (display procedure). In a further procedure, the extent to which at least one of the at least two segments relates to the content is indicated (instruction procedure).
[0007]
Here, the term "content" relates to any type of program or information that is broadcast, stored by a user, or transmitted to a user.
[0008]
In some embodiments of the present invention, the segmentation procedure includes pixel color analysis in sampled frames, speech analysis, object recognition techniques, filled-in content descriptions, closed captions, speech to. Perform segmentation based on text, MPEG 7, or audio analysis.
[0009]
In another embodiment of the invention, the indicating procedure indicates the length of each segment or the length of the segment relative to the length of the content in which each segment is contained. The instruction procedure indicates the temporal position of the segment within the content in which the segment is contained.
[0010]
In another embodiment, the pointing procedure generates a symbol, which may be a picture or text. The user searches for the content using the symbol.
[0011]
In other embodiments, the user can select segment representation information to display (ie, play) the segment in full or partial format.
[0012]
In another embodiment, the method retains the segments on a storage medium. The user may accumulate and display more than one segment.
[0013]
According to another aspect of the present invention, a system for displaying content at a segment level includes at least one content information source, a means for dividing the content, and a display means for displaying at least one expression information of the divided segment. And
[0014]
In some embodiments, the display means is a television or monitor. The content is at least one television program information source or a linear media information source. Further, the source of the television program or streaming media is a satellite information source, a terrestrial base information source, or a broadcast information source.
[0015]
In other embodiments, the means for segmenting content operates at the content headend, at the user's location, or at both the content headend and the user's location.
[0016]
In another embodiment, the means for segmenting content automatically segments the content based on a user's individual viewing habits. Further, the display means displays at least one of the at least two segments.
[0017]
In another aspect of the present invention, a program for realizing a function of displaying content at a segment level and recorded on a processor-readable medium has portions for executing various procedures. The program includes a portion that divides the content into at least two segments, a portion that displays at least one of the at least two segments, and a portion that indicates the degree to which at least one of the at least two segments is related to the content. And
[0018]
The present invention has several advantages. For example, systems, methods, and programs may partition content and cause the partitioned content to be displayed. The user can select only the segment that he / she wants to see, and search only a specific segment from a large amount of content. As a result, the number of channels and the amount of information continue to increase, and television viewing becomes simpler and more personalized. In addition, large amounts of information are organized and viewed immediately and easily without extra browsing. These effects, as well as numerous other effects, will be elucidated with reference to the following examples.
[0019]
[Detailed description of main embodiments]
The proposed methods, systems and programs provide television viewers with the ability to select content at a lower level than the program (hereinafter referred to as the segment level).
[0020]
FIG. 1 is an illustration of a preferred embodiment of a proposed user interface embodying segment level representation information. The user first selects an item from the category menu 10 on the user interface 100. Here, the user can search for content in a certain category. In FIG. 1, a user selects a talk show program using a normal input device such as a remote controller or a keyboard. As a result, content (that is, a television program represented by an icon) suitable for the selected talk show program category appears. Each piece of content that fits into a category can be selected. In FIG. 1, the user selects the icon 11 using a normal input device such as a remote controller or a keyboard. This icon represents another content (ie, another program).
[0021]
The icon 11 corresponds to the television program “Late Night Show Program sent by David Letterman” (hereinafter, referred to as “Late Night Show Program”). The program includes a number of segments, including guest interviews, musician performances, and comedian performances.
[0022]
There are several known methods of segmenting content to display the content at the segment level. One method breaks up the content into segments by examining closed captions associated with the content to identify clues to the start and end of the segment. As an example, a clue to identify where the segment starts is the word string "Tonight's next guest is ~". A clue to identify the end of a segment is the word string "thank you".
[0023]
Another way is to identify segments from the unique composition of the program. This is achieved, for example, by identifying the music performance within the talk show program by recognizing the continuous part where the music is played. The clues are when the music starts and when it ends.
[0024]
Still other methods include, for example, the sound associated with a segment such as a whistle that is played at the beginning and end of a quarter of a football game, or where applause reaches a threshold volume (i.e., the great Acting). Many other content segmentation methods are available and may be used in the present invention.
[0025]
The icon 11 is selected in FIG. 1, and the segment display area 12 displays segment expression information 13 to 17. The segment drawings 13 to 17 represent various segments of the late-night show program. For example, the segment drawing 13 corresponds to a segment in which Dolly Parton appears as a guest in a late-night show program. The segment drawing 14 corresponds to a segment in which a Drew Carey appears in a late-night show program. If the user wants to watch one or more segments in the late night show program, the user can select the corresponding segment expression information. When the segment expression information is deleted, the segment is displayed or accumulated. As an example, consider a case where the user selects the segment expression information 13 from the segment display area 12. The user can view the segment, create a sequence of selected segments, view the whole as an editable montage, or save the segment for later viewing.
[0026]
The area of the segment expression information is proportional to the time length of the segment. As an example, in FIG. 1, it is understood that the segment expression information 13 and 14 are longer than the segment expression information 15 and 16 by simply looking at the segment display area 12. Further, the user can immediately and easily compare the length of the segment expression information with the length of the entire content (that is, the program). As an example, the user estimates that the segment expression information 13 is about 5 of the length of the segment display area 12. As a result, the user can determine that the length of this segment corresponding to the segment expression information 13 is 1/5 of one hour, that is, 12 minutes, because the late-night show program is a one-hour program. Alternatively, when the user highlights the segment expression information, the segment length and the segment length for the entire content are given.
[0027]
FIG. 2 is an explanatory diagram of a user interface 101 in which segment expression information provides a user with detailed information on a segment of a content section. The display area 12 contains segment expression information 13 to 17 indicated by icons such as the icons 21. When the user highlights the segment expression information, information such as information about celebrities, clues to form the segment, themes, etc. is provided. In FIG. 2, when the user highlights the segment expression information 13 corresponding to Dolly Parton, information 20 appears to assist the user in deciding whether to save or view the highlighted segment. Displaying the segment expression information as described above is useful for other reasons. Generally, the content department focuses on the specific segments contained therein. For example, news programs focus on the "Top Stories" segment. In addition, "Top Articles" usually appear early in the Content Department. By displaying content at the segment level, a user can know where the segment is located within the entire content, as well as the degree of importance of the segment, based on the segment's relationship to the entire content.
[0028]
FIG. 3 is an explanatory diagram of a user interface that allows a user to search for content using a segment. In the user interface 102, the user has searched for a financial content section from the category menu 10 shown in FIG. The content part represented by the icons 31 to 33 was found by the user's search. The user may then search for content portions 31-33 at the segment level. The user performs this segment-level search by selecting a specific segment 37 from the search engine 36. In FIG. 3, the user only wants to find a segment relating to Nokia in the content section related to finance. As shown in display areas 34 and 35, segment representation information 38 and 39 has been found. The user knows that there is no segment containing the desired segment in the content part represented by the icon 33. Further, the user can visualize a segment related to Nokia (that is, segment expression information 39) in which the content part corresponding to the icon 32 is more detailed than the content part related to Nokia corresponding to the icon 31. The user views or accumulates both segments found by the search, only short segments (ie, segments corresponding to segment expression information 38), or only long segments (ie, segments corresponding to segment expression information 39). You might want to do that.
[0029]
FIG. 4 is an explanatory diagram of a system that displays content at a segment level. The display screen 401 displays the user interface 101. The segment expression information and menu are selected, edited, or operated using a cursor (not shown). The cursor is moved up, down, left and right using a conventional input device such as a remote controller 47 or other well-known conventional input device.
[0030]
When a user selects a category of content portion, microprocessor 45 consults content information source 44 to find the selected content portion. The microprocessor 45 then divides the selected content section according to the user's input. This is performed, for example, when the user selects an icon representing the content section. The microprocessor 45 divides the program as described above and displays the segment as segment expression information. Alternatively, the microprocessor 45 may consult the content information source 44 to divide the program into two or more categories.
[0031]
When the user selects the segment representation information, the microprocessor 45 may instruct the display 401 to display the segment. Microprocessor 45 may store the selected segment on storage medium 46. Microprocessor 45 may automatically recommend segments based on the user's individual program viewing habits.
[0032]
Segment level representation is broadly relevant to all forms of streaming media, such as wireless and streaming feeds from the Internet. For example, it relates to a wireless device (eg, a device such as a digital cable wireless feed). The wireless content section is sorted, searched, and displayed for selection by the user.
[0033]
FIG. 5 is a block diagram illustrating a program for displaying content at the segment level and recorded on a processor-readable medium. The program queries at step 500 whether the user has selected a category of content. If not, the program instructs the microprocessor 45 at step 502 to generate a category menu. After generation, the program instructs the microprocessor 45 to request input at step 503 and receive it at step 504. If the user has selected a category in step 500, or if input has been received in step 503, the program instructs the microprocessor 45 to search and, in step 501, content based on the selected category. And / or command to be filtered.
[0034]
After the content has been searched and / or filtered based on the selected category, the program asks the user if he wants to search for the segment within the category results. This is performed in step 505. If the user does not want to search for the segment in the selected category, the program queries whether the icon representing the content part has been selected. This is performed in step 506. If not, the program waits at step 507 until an icon is selected. When the user selects the icon, the content part represented by the icon is classified in step 508.
[0035]
If the user wishes to search for a segment within the selected category, the program instructs the microprocessor 45 to partition all content parts within the category at step 509. At step 510, the program queries whether the user has selected a segment category. If not, the program instructs the microprocessor 45 to generate a segment category menu in step 511. After generating the category menu, the program instructs the microprocessor 45 to request input in step 512 and to receive input in step 513. If the user had selected a segment category in step 510, or if input was received in step 513, the program causes the microprocessor 45 to search in step 514 for segments based on the selected segment category. And / or to filter. When the content part represented by the icon is classified in step 508, or when the program instructs the microprocessor 45 to search and / or filter the segment based on the segment category selected in step 514. , The program instructs the display 401 in step 515 to display the segment as segment expression information.
[0036]
The above description and examples are typical examples, and are not intended to limit the scope of the claimed invention.
[Brief description of the drawings]
FIG.
FIG. 4 is an explanatory diagram of a preferred embodiment of a user / interface for embodying segment level expression information.
FIG. 2
FIG. 5 is an explanatory diagram of a preferred embodiment of a user / interface in which segment expression information includes additional information.
FIG. 3
FIG. 3 is an illustration of a preferred embodiment of a user / interface that allows a user to search for content by segment.
FIG. 4
FIG. 1 is an explanatory diagram of a preferred embodiment of a system for displaying content at a segment level.
FIG. 5
FIG. 4 is an explanatory diagram of a program recorded on a processor-readable medium, which realizes a function of displaying content at a segment level.

Claims (19)

コンテンツを少なくとも二つのセグメントに区分けする区分手順と、
少なくとも二つのセグメントのうちの少なくとも一方の表現情報を表示する表示手順と、
少なくとも二つのセグメントのうちの少なくとも一方がコンテンツに関係する程度を指示する指示手順と、
を有する、セグメントレベルでコンテンツを表示する方法。
A segmentation procedure for segmenting the content into at least two segments;
A display procedure for displaying expression information of at least one of the at least two segments;
An instruction procedure indicating an extent to which at least one of the at least two segments is relevant to the content;
A method for displaying content at the segment level, comprising:
区分手順は、サンプリングされたフレーム内の画素色解析、会話解析、物体認識技術、記入されたコンテンツ解説、クローズドキャプション、スピーチ・ツー.・テキスト、MPEG 7、及び、オーディオ解析のうちの一つに基づく区分けを行なう、請求項1記載の方法。The segmentation procedure includes pixel color analysis in a sampled frame, conversation analysis, object recognition technology, filled-in content description, closed caption, speech-to-text. The method of claim 1, wherein the segmentation is based on one of text, MPEG7, and audio analysis. 指示手順は、各セグメントの長さを記号的に指示する、請求項1記載の方法。The method of claim 1 wherein the indicating procedure indicates the length of each segment symbolically. 指示手順は、少なくとも二つのセグメントのうちの少なくとも一方のセグメントの長さを、該セグメントが収容されているコンテンツの長さに対する長さによって指示する、請求項1記載の方法。The method of claim 1, wherein the indicating procedure indicates the length of at least one of the at least two segments by a length relative to the length of the content in which the segment is contained. 指示手順は、少なくとも二つのセグメントのうちの少なくとも一方のセグメントの長さを、コンテンツ内の時間的位置によって指示する、請求項1記載の方法。The method of claim 1, wherein the indicating procedure indicates a length of at least one of the at least two segments by a temporal position in the content. 表現情報は、ピクチャー部とテキスト部のうちの少なくとも一方を含む、請求項1記載の方法。The method of claim 1, wherein the presentation information includes at least one of a picture part and a text part. ユーザは、表現情報を用いてコンテンツを検索し得る、請求項6記載の方法。7. The method of claim 6, wherein a user can search for content using the presentation information. ユーザは、セグメントを表示するため、少なくとも二つのセグメントのうちの少なくとも一方の表現情報を選択し得る、請求項1記載の方法。The method of claim 1, wherein a user may select the presentation information of at least one of the at least two segments to display the segment. 少なくとも二つのセグメントのうちの少なくとも一方の表現情報によって表現されたセグメントを記憶媒体に格納する手順を更に有する請求項1記載の方法。The method according to claim 1, further comprising the step of storing the segment represented by the representation information of at least one of the at least two segments on a storage medium. ユーザは、二つ以上のセグメントを蓄積し、表示することができる、請求項9記載の方法。10. The method of claim 9, wherein the user is able to store and display more than one segment. 少なくとも一つのコンテンツ情報源と、
コンテンツを少なくとも二つのセグメントに区分けする手段と、
少なくとも二つのセグメントのうちの少なくとも一方の表現情報を表示する表示手段と、
を有する、セグメントレベルでコンテンツを表示するシステム。
At least one content source,
Means for dividing the content into at least two segments;
Display means for displaying expression information of at least one of the at least two segments;
A system for displaying content at a segment level.
表示手段はテレビ若しくはモニターである、請求項11記載のシステム。The system according to claim 11, wherein the display means is a television or a monitor. コンテンツは、少なくとも一つのテレビ番組の情報源、又は、リニア・メディアの情報源である、請求項11記載のシステム。12. The system of claim 11, wherein the content is at least one television program source or linear media source. テレビ番組又はストリーミング・メディアの少なくとも一つの情報源は、衛星情報源、地上基地情報源、又は、放送情報源である、請求項11記載のシステム。12. The system of claim 11, wherein the at least one source of television programs or streaming media is a satellite source, a terrestrial base source, or a broadcast source. コンテンツを区分けする手段は、コンテンツ・ヘッドエンド、ユーザ側の場所、又は、コンテンツ・ヘッドエンドとユーザ側の場所の両方で動作する、請求項11記載のシステム。12. The system of claim 11, wherein the means for segmenting content operates at a content headend, a user location, or both a content headend and a user location. コンテンツを区分けする手段は、ユーザの個々の視聴習慣に基づいて自動的にコンテンツを区分けする、請求項11記載のシステム。The system of claim 11, wherein the means for segmenting content automatically segments content based on a user's individual viewing habits. 記憶媒体を更に有する請求項11記載のシステム。The system of claim 11, further comprising a storage medium. 表示手段は、少なくとも二つのセグメントのうちの少なくとも一方を表示する、請求項11記載のシステム。The system of claim 11, wherein the display means displays at least one of the at least two segments. コンテンツを少なくとも二つのセグメントに区分けする機能と、
少なくとも二つのセグメントのうちの少なくとも一方を表示する機能と、
少なくとも二つのセグメントのうちの少なくとも一方がコンテンツと関係する程度を指示する機能と、
をプロセッサに実行させ、セグメントレベルでコンテンツを表示する、プロセッサ読取可能な媒体に記録されたプログラム。
The ability to divide content into at least two segments,
Displaying at least one of at least two segments;
The ability to indicate the extent to which at least one of the at least two segments is relevant to the content;
A program recorded on a processor-readable medium that causes a processor to execute the program and display content at a segment level.
JP2002515823A 2000-07-28 2001-07-27 Visualization and playback of TV show programs at a lower level than the programs Pending JP2004521525A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US22140400P 2000-07-28 2000-07-28
PCT/US2001/023800 WO2002011428A2 (en) 2000-07-28 2001-07-27 Visualization and playback of television shows at a sub-show level

Publications (1)

Publication Number Publication Date
JP2004521525A true JP2004521525A (en) 2004-07-15

Family

ID=27623146

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002515823A Pending JP2004521525A (en) 2000-07-28 2001-07-27 Visualization and playback of TV show programs at a lower level than the programs

Country Status (4)

Country Link
EP (1) EP1308028A2 (en)
JP (1) JP2004521525A (en)
CN (1) CN1218567C (en)
WO (1) WO2002011428A2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8225355B2 (en) 2006-05-01 2012-07-17 Canon Kabushiki Kaisha Program search apparatus and program search method for same

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7333712B2 (en) * 2002-02-14 2008-02-19 Koninklijke Philips Electronics N.V. Visual summary for scanning forwards and backwards in video content
CN102137300A (en) * 2011-03-24 2011-07-27 深圳创维数字技术股份有限公司 Set top box and program watching method and device based on set top box
CN103796060B (en) * 2012-11-26 2017-07-28 深圳Tcl新技术有限公司 Television set and its CC pattern-recognitions display methods, device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08153350A (en) * 1994-11-29 1996-06-11 Toshiba Corp Switch signal generation device, reproducing device and tv receiver
JPH09139913A (en) * 1995-11-16 1997-05-27 Matsushita Electric Ind Co Ltd Video display method and device therefor

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0332286A3 (en) * 1988-03-09 1990-02-28 Hewlett-Packard Company Programmable protocol analyzer
US5353121A (en) * 1989-10-30 1994-10-04 Starsight Telecast, Inc. Television schedule system
US5682326A (en) * 1992-08-03 1997-10-28 Radius Inc. Desktop digital video processing system
US5987211A (en) * 1993-01-11 1999-11-16 Abecassis; Max Seamless transmission of non-sequential video segments
US5835667A (en) * 1994-10-14 1998-11-10 Carnegie Mellon University Method and apparatus for creating a searchable digital video library and a system and method of using such a library
US6263507B1 (en) * 1996-12-05 2001-07-17 Interval Research Corporation Browser for use in navigating a body of information, with particular application to browsing information represented by audiovisual data

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08153350A (en) * 1994-11-29 1996-06-11 Toshiba Corp Switch signal generation device, reproducing device and tv receiver
JPH09139913A (en) * 1995-11-16 1997-05-27 Matsushita Electric Ind Co Ltd Video display method and device therefor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8225355B2 (en) 2006-05-01 2012-07-17 Canon Kabushiki Kaisha Program search apparatus and program search method for same

Also Published As

Publication number Publication date
WO2002011428A3 (en) 2002-04-18
CN1393097A (en) 2003-01-22
EP1308028A2 (en) 2003-05-07
CN1218567C (en) 2005-09-07
WO2002011428A2 (en) 2002-02-07

Similar Documents

Publication Publication Date Title
KR101111537B1 (en) Apparatus and method for supporting viewing and listening
JP5099879B2 (en) Interactive television system with automatic switching from broadcast media to streaming media
US7293280B1 (en) Skimming continuous multimedia content
US7313808B1 (en) Browsing continuous multimedia content
EP1470708B1 (en) Method for displaying epg video-clip previews on demand
US8078036B2 (en) Custom content compilation using digital chapter marks
EP1102482B1 (en) Recorded program viewing support method
KR100904151B1 (en) Method of selecting a scheduled content item, method of accessing scheduled content data, method of displaying a hierarchical program guide, method of controlling a hierarchical program guide, computer readable medium, system for selecting a scheduled content item, system for accessing scheduled content data, and system for controlling a hierarchical program guide
JP4792842B2 (en) Information processing apparatus, information processing method, and computer program
JP4247638B2 (en) Recording / reproducing apparatus and recording / reproducing method
US20020012526A1 (en) Digital video reproduction method, digital video reproducing apparatus and digital video recording and reproducing apparatus
US20060013557A1 (en) Suppression of trick modes in commercial playback
US20060013554A1 (en) Commercial storage and retrieval
JP6781208B2 (en) Systems and methods for identifying audio content using interactive media guidance applications
KR20070086558A (en) Improved method and apparatus for managing tv channel lists
JP2011072033A (en) Systems and methods for providing promotions with recorded programs
JP2004534978A (en) System and method for determining the desirability of a video programming event
JP2007534234A (en) Display guide method and system for video selection
US20050034650A1 (en) Ultrahard diamonds and method of making thereof
KR20060014426A (en) System and method for generating audio-visual summaries for audio-visual program content
JP2008131413A (en) Video recording/playback unit
KR101099474B1 (en) Video recording and playback apparatus
US7519269B2 (en) Video recording/reproducing apparatus and method based on program information
JP4208434B2 (en) Broadcast receiver, broadcast control method, computer-readable recording medium, and computer program
EP1351501A2 (en) Method and system for accessing video data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110201

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110502

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110607