JP2009105770A - Information processor, information processing method, program, and recording medium - Google Patents

Information processor, information processing method, program, and recording medium Download PDF

Info

Publication number
JP2009105770A
JP2009105770A JP2007276933A JP2007276933A JP2009105770A JP 2009105770 A JP2009105770 A JP 2009105770A JP 2007276933 A JP2007276933 A JP 2007276933A JP 2007276933 A JP2007276933 A JP 2007276933A JP 2009105770 A JP2009105770 A JP 2009105770A
Authority
JP
Japan
Prior art keywords
content
program
video
unit
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007276933A
Other languages
Japanese (ja)
Inventor
Takuo Ema
拓郎 江間
Tetsujiro Kondo
哲二郎 近藤
Yoshinori Watanabe
義教 渡邊
Takeshi Tanaka
剛 田中
Yusuke Akiwa
祐介 秋和
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007276933A priority Critical patent/JP2009105770A/en
Publication of JP2009105770A publication Critical patent/JP2009105770A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enable a viewer to efficiently comprehend contents. <P>SOLUTION: In an information processing apparatus which acquires contents performs predetermined processing thereto and outputs a result, first contents and second contents are acquired, and the acquired first contents and second contents are stored in a storage section. After the second contents read from the storage section are analyzed, a video image of the first contents is then outputted and based on a result of analysis, auxiliary information indicating features of the second contents with temporal changes is outputted. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、例えば複数のコンテンツを提示するのに好適な情報処理装置、情報処理方法、プログラム並びに記録媒体に関する。   The present invention relates to an information processing apparatus, an information processing method, a program, and a recording medium suitable for presenting a plurality of contents, for example.

近年、情報処理技術の向上とともに、テレビジョン受信機の多機能化も進み、単に、放送局より放送されるテレビジョン放送を受信し、テレビジョン放送番組としての画像を表示するだけでなく、様々な機能を有するようになってきている。   In recent years, with the improvement of information processing technology, the multi-functionality of television receivers has progressed, not only receiving television broadcasts broadcast from broadcast stations and displaying images as television broadcast programs, but also various It has come to have a function.

例えば、それぞれ個別にテレビジョン放送を受信する第1及び第2のチューナと、第1のチューナで受信したテレビジョン放送に多重化された映像データを復号し表番組映像として出力する第1のビデオデコーダと、第2のチューナで受信したテレビジョン放送に多重化された映像データを構成する画像データの一部を復号し、裏番組画像として出力する第2のビデオデコーダとを備え、当該裏番組画像(サブ画像)を、第2のチューナで受信したテレビジョン放送の番組情報に付加して出力するテレビジョン受信機が提案されている(例えば、特許文献1参照)。   For example, first and second tuners that individually receive television broadcasts, and first video that decodes video data multiplexed in the television broadcasts received by the first tuner and outputs them as table program videos A decoder and a second video decoder for decoding a part of the image data constituting the video data multiplexed in the television broadcast received by the second tuner and outputting it as a back program image; There has been proposed a television receiver that adds an image (sub-image) to program information of a television broadcast received by a second tuner and outputs it (for example, see Patent Document 1).

上記テレビジョン受信機は、簡易な構成で、視聴中の番組(表番組)以外の番組(裏番組)の内容をユーザに対してわかりやすく提供することができる。
特開2005−347871号公報
The television receiver can provide the user with easy-to-understand information on the contents of programs (back programs) other than the program being viewed (front program) with a simple configuration.
JP 2005-347871 A

ところで、本願出願人が実施した実験では、視聴者が複数のコンテンツ(映像、音声)を同時に視聴する際、時分割で視聴するのが効率的であるという結果が得られた。このことから、コンテンツの内容を理解する上でも時分割で視聴することが効果的であると考えられる。また同様の実験から、少しでも次に視聴する番組の内容を知っていることでその番組をより早く理解できることもわかった。   By the way, in an experiment conducted by the applicant of the present application, it was found that when a viewer views a plurality of contents (video and audio) at the same time, it is efficient to view in a time division manner. For this reason, it is considered effective to view the content in a time division manner in order to understand the content. The same experiment also showed that knowing the contents of the next program to be watched can understand the program more quickly.

本発明は、このような点に鑑みてなされたものであり、視聴者に複数のコンテンツを効率よく理解させることができるようにするものである。   The present invention has been made in view of these points, and enables a viewer to efficiently understand a plurality of contents.

本発明の第1の側面の情報処理装置は、第1のコンテンツ及び第2のコンテンツを取得する取得部と、この取得部で取得した第1のコンテンツと第2のコンテンツを記憶する記憶部と、この記憶部から読み出した第2のコンテンツを解析するコンテンツ解析部と、第1のコンテンツの映像を出力するとともに、コンテンツ解析部の解析結果に基づいて第2のコンテンツの時間変化を伴う特徴を示す補助情報を出力する最適提示処理部と、を有することを特徴とする。   An information processing apparatus according to a first aspect of the present invention includes an acquisition unit that acquires first content and second content, and a storage unit that stores the first content and the second content acquired by the acquisition unit. The content analysis unit that analyzes the second content read from the storage unit, and the video of the first content are output, and the characteristics of the second content that change with time based on the analysis result of the content analysis unit And an optimum presentation processing unit that outputs auxiliary information to be displayed.

本発明の第1の側面の情報処理方法は、コンテンツを取得し所定の処理を行って出力する情報処理装置の情報処理方法であって、第1のコンテンツ及び第2のコンテンツを取得し、取得した第1のコンテンツと第2のコンテンツを記憶部に記憶する。そして、記憶部から読み出した第2のコンテンツを解析した後、第1のコンテンツの映像を出力するとともに、解析の結果に基づいて第2のコンテンツの時間変化を伴う特徴を示す補助情報を出力することを特徴とする。   An information processing method according to a first aspect of the present invention is an information processing method of an information processing apparatus that acquires content, performs predetermined processing, and outputs the content, and acquires and acquires the first content and the second content. The first content and the second content are stored in the storage unit. And after analyzing the 2nd content read from the memory | storage part, while outputting the image | video of a 1st content, the auxiliary information which shows the characteristic accompanying the time change of a 2nd content is output based on the result of an analysis. It is characterized by that.

本発明の第1の側面のプログラムは、第1のコンテンツ及び第2のコンテンツを取得する処理と、取得した第1のコンテンツと第2のコンテンツを記憶部に記憶する処理と、記憶部から読み出した第2のコンテンツを解析する処理と、第1のコンテンツの映像を出力するとともに、解析の結果に基づいて第2のコンテンツの時間変化を伴う特徴を示す補助情報を出力する処理と、を含むことを特徴とする。   The program according to the first aspect of the present invention is a process for acquiring the first content and the second content, a process for storing the acquired first content and the second content in the storage unit, and reading from the storage unit. A process of analyzing the second content, and a process of outputting the video of the first content and outputting auxiliary information indicating characteristics of the second content with time change based on the result of the analysis. It is characterized by that.

本発明の第1の側面の記録媒体に記録されているプログラムは、第1のコンテンツ及び第2のコンテンツを取得する処理と、取得した第1のコンテンツと第2のコンテンツを記憶部に記憶する処理と、記憶部から読み出した第2のコンテンツを解析する処理と、第1のコンテンツの映像を出力するとともに、解析の結果に基づいて第2のコンテンツの時間変化を伴う特徴を示す補助情報を出力する処理と、を含むことを特徴とする。   The program recorded on the recording medium according to the first aspect of the present invention is a process for acquiring the first content and the second content, and stores the acquired first content and second content in the storage unit. Processing, processing for analyzing the second content read from the storage unit, output of the video of the first content, and auxiliary information indicating characteristics of the second content with time change based on the analysis result Output processing.

本発明の第1の側面においては、第1のコンテンツと第2のコンテンツを取得し、取得した第2のコンテンツをコンテンツ解析部で解析する。そして、第1のコンテンツの映像を出力するとともに、コンテンツ解析部の解析結果に基づいて第2のコンテンツの時間変化を伴う特徴を示す補助情報を出力する。   In the first aspect of the present invention, the first content and the second content are acquired, and the acquired second content is analyzed by the content analysis unit. And while outputting the image | video of 1st content, the auxiliary information which shows the characteristic accompanying the time change of 2nd content based on the analysis result of a content analysis part is output.

本発明によれば、視聴者に複数のコンテンツを効率よく理解させることができる。   According to the present invention, a viewer can efficiently understand a plurality of contents.

以下、本発明の実施の形態の例について、添付図面を参照しながら説明する。なお、以下に述べる実施の形態は、本発明の好適な具体例であるから、技術的に好ましい種々の限定が付されているが、本発明は、以下の説明において特に本発明を限定する旨の記載がない限り、これらの形態に限られるものではない。例えば、以下の説明で挙げる使用材料とその使用量、処理時間、処理順序及び各パラメータの数値的条件等は好適例に過ぎず、説明に用いた各図における寸法、形状及び配置関係も一例を示す概略的なものである。   Hereinafter, examples of embodiments of the present invention will be described with reference to the accompanying drawings. The embodiments described below are preferable specific examples of the present invention, and thus various technically preferable limitations are given. However, the present invention is particularly limited in the following description. Unless otherwise stated, the present invention is not limited to these forms. For example, the materials used in the following description, the amount used, the processing time, the processing order, and the numerical conditions of each parameter are only suitable examples, and the dimensions, shapes, and arrangement relationships in the drawings used for the description are also examples. It is the rough thing to show.

図1は、各実施の形態(第1〜第6の実施の形態)に係る情報提示システムの概要を示す構成図である。図1に示すように、情報提示システムは、テレビジョン放送波を受信して得られるコンテンツに後述する処理を行い表示装置2に出力する情報処理装置1と、その情報処理装置1から出力されるコンテンツを表示する表示装置2からなる。   FIG. 1 is a configuration diagram showing an overview of an information presentation system according to each embodiment (first to sixth embodiments). As shown in FIG. 1, the information presentation system performs processing described later on content obtained by receiving television broadcast waves and outputs the information to the display device 2, and the information processing device 1 outputs the information. The display device 2 displays content.

情報処理装置1は、チューナ部3、蓄積部4、コンテンツ解析部5、最適提示処理部6、入力部7を有する。ユーザのリモートコントローラを用いた操作入力などにより後述するアシスト情報を提示するモード(アシストモード)を選択させ、その選択されたモードに準じた情報提示を行う。   The information processing apparatus 1 includes a tuner unit 3, a storage unit 4, a content analysis unit 5, an optimum presentation processing unit 6, and an input unit 7. A mode (assist mode) for presenting assist information, which will be described later, is selected by an operation input using the user's remote controller, and information presentation according to the selected mode is performed.

チューナ部3は、複数チャンネルの番組を含むテレビジョン放送波(テレビジョン放送信号)からユーザ(視聴者)から要求されたテレビジョン放送波を、アンテナ(図示せず)を介して受信及び復調する。このチューナ部3は、特許請求の範囲に記載した取得部の一例である。なお、本実施の形態においては、情報処理装置1はチューナ部3を2つ以上有しており、2以上のチャンネルのテレビジョン放送信号を同時に受信することができるもの(いわゆるダブルチューナ、トリプルチューナ)とする。放送は、テレビジョン放送に替えて衛星放送でもよい。これらの放送は、デジタル放送でもアナログ放送でもよい。   The tuner unit 3 receives and demodulates a television broadcast wave requested by a user (viewer) from a television broadcast wave (television broadcast signal) including a program of a plurality of channels via an antenna (not shown). . The tuner unit 3 is an example of an acquisition unit described in the claims. In the present embodiment, the information processing apparatus 1 has two or more tuner sections 3 and can simultaneously receive television broadcast signals of two or more channels (so-called double tuner, triple tuner). ). Broadcasting may be satellite broadcasting instead of television broadcasting. These broadcasts may be digital broadcasts or analog broadcasts.

蓄積部4は、特許請求の範囲に記載した記録部の一例であり、チューナ部3が受信したテレビジョン放送波に含まれるテレビジョン放送番組(以下、単に「番組」ともいう)を、一旦蓄積(記録)する。チューナ部3が2つ以上ある場合、蓄積部4は、それぞれのチューナ部3で受信したテレビジョン放送番組を記録、保存する。蓄積部4には、一例としてハードディスク(HDD:Hard Disk Drive)、DVD(Digital Versatile Disc)及び半導体メモリ等を適用することができる。この蓄積部4は、チューナ部3の数に対応する台数分設けてもよい。あるいは、1台の蓄積部4を複数のパーティション(領域)に分割し、チューナ部3が受信した複数のテレビジョン放送番組をそれぞれの領域に記録するようにしてもよい。   The storage unit 4 is an example of a recording unit described in the claims, and temporarily stores a television broadcast program (hereinafter simply referred to as “program”) included in a television broadcast wave received by the tuner unit 3. (Record. When there are two or more tuner units 3, the storage unit 4 records and stores the television broadcast program received by each tuner unit 3. For example, a hard disk (HDD), a DVD (Digital Versatile Disc), a semiconductor memory, or the like can be applied to the storage unit 4. The storage units 4 may be provided in the number corresponding to the number of tuner units 3. Alternatively, one storage unit 4 may be divided into a plurality of partitions (areas), and a plurality of television broadcast programs received by the tuner unit 3 may be recorded in the respective areas.

コンテンツ解析部5は、チューナ部3から入力されるテレビジョン放送波などのコンテンツ源より得られる映像情報、音声情報を解析し、解析結果を最適提示処理部6へ出力する。解析の内容としては、入力されたコンテンツの時間変化を伴う特徴(またはその時点での特徴)を検出することである。なお、コンテンツの蓄積が必要となるような提示モードの場合(例えば、受信したストリーミングデータを使用できないような場合)は、予めコンテンツの保存処理を実施しておいた蓄積部4よりコンテンツデータを取得する工程が必要である。   The content analysis unit 5 analyzes video information and audio information obtained from a content source such as a television broadcast wave input from the tuner unit 3, and outputs the analysis result to the optimum presentation processing unit 6. The content of the analysis is to detect a feature (or a feature at that time) accompanying a time change of the input content. In the case of a presentation mode that requires content storage (for example, when the received streaming data cannot be used), the content data is acquired from the storage unit 4 that has previously performed content storage processing. The process to do is necessary.

最適提示処理部6は、コンテンツ解析部5から解析結果として、コンテンツの時間変化を伴う特徴(またはその時点での特徴)を示す情報を受け取る。この解析結果を含む情報に基づいて、ユーザによる表番組又は裏番組の内容の理解を支援するための補助情報(アシスト情報)を、表示装置2等の出力手段へ出力する。主提示、すなわち表番組の提示においては、通常のテレビジョン放送番組などのコンテンツに対し何も処理をせず提示を行う。裏番組(又は表番組)の補助情報を提示する場合には、図2に示すような提示方法でユーザにアシスト情報を提示する。このような提示方法をサブ提示(副提示)と称す。   The optimum presentation processing unit 6 receives information indicating a feature (or a feature at that time) accompanying a time change of the content as an analysis result from the content analysis unit 5. Based on the information including the analysis result, auxiliary information (assist information) for assisting the user in understanding the contents of the front program or the back program is output to output means such as the display device 2. In main presentation, that is, presentation of a table program, the content such as a normal television broadcast program is presented without any processing. When the auxiliary information of the back program (or front program) is presented, the assist information is presented to the user by a presentation method as shown in FIG. Such a presentation method is referred to as sub-presentation (sub-presentation).

サブ提示方法としては、図2に示すように、(a)メイン画面(主画面)2aにPinP(ピクチャ・イン・ピクチャ)によってサブ提示画面2bを提示する方法、(b)表示画面上にメイン画面2cとともに子画面としてサブ提示画面2bを提示する方法、(c)マルチディスプレイシステムであればメイン画面2Aと別画面2Bに提示する方法などが考えられる。他にもアシスト情報を音声によって提示する方法も考えられる。   As shown in FIG. 2, the sub-presentation method includes (a) a method of presenting the sub-presentation screen 2b on the main screen (main screen) 2a by PinP (picture-in-picture), and (b) a main on the display screen. A method of presenting the sub-presentation screen 2b as a sub-screen together with the screen 2c, or a method of presenting it on the main screen 2A and the separate screen 2B in the case of a (c) multi-display system can be considered. In addition, a method of presenting assist information by voice can be considered.

また、最適提示処理部6は、情報処理装置1全体の動作を制御し、入力部7から入力されるユーザの操作入力に応じて、情報処理装置1内の各部へ対して処理の指示を出す。また、最適提示処理部6は、チューナ部3から入力された又は蓄積部4に記録された各テレビジョン放送番組(コンテンツ)をデコードして映像信号と音声信号に分離することができる。最適提示処理部6は、ユーザの要求に応じて、テレビジョン放送番組に含まれる映像信号を、後述する表示装置2に出力するよう制御する。以降において、映像信号を単に「映像」ということもある。また、最適提示処理部6は、ユーザの要求に応じて、テレビジョン放送番組に含まれる音声信号を、後述する表示装置2に設けられたスピーカ(図示せず)に出力する。上述した補助情報は、これらの映像信号又は音声信号を利用して提示される。以降において、音声信号を単に「音声」ということもある。   Further, the optimum presentation processing unit 6 controls the operation of the entire information processing apparatus 1 and issues a processing instruction to each unit in the information processing apparatus 1 in accordance with a user operation input input from the input unit 7. . Also, the optimum presentation processing unit 6 can decode each television broadcast program (content) input from the tuner unit 3 or recorded in the storage unit 4 and separate it into a video signal and an audio signal. The optimum presentation processing unit 6 controls to output a video signal included in the television broadcast program to the display device 2 described later in response to a user request. Hereinafter, the video signal may be simply referred to as “video”. The optimum presentation processing unit 6 outputs an audio signal included in the television broadcast program to a speaker (not shown) provided in the display device 2 to be described later in response to a user request. The auxiliary information described above is presented using these video signals or audio signals. Hereinafter, the audio signal may be simply referred to as “audio”.

入力部7は、リモートコントローラ(図示せず)等を利用したユーザのチャンネル選択の入力信号等を受信し、最適提示処理部6へ伝える。当該入力部7により受信された入力信号に基づいて、ユーザが選択したチャンネルのテレビジョン放送番組が蓄積部4から読み出され、最適提示処理部6により映像信号及び音声信号がデコードされて映像化及び音声化される。入力部7は、どの裏番組のアシスト情報をサブ提示させるか、どの特徴量を用いたアシスト情報をサブ提示させるかなどを決定する際のリモートコントローラ等からの指令を入力するのに使用される。同時に提示される裏番組の数やアシスト情報の数は限定しないが、各実施の形態においては一つの場合として説明を行う。   The input unit 7 receives an input signal for channel selection of the user using a remote controller (not shown) or the like and transmits it to the optimum presentation processing unit 6. Based on the input signal received by the input unit 7, the television broadcast program of the channel selected by the user is read from the storage unit 4, and the video signal and the audio signal are decoded by the optimum presentation processing unit 6 to be visualized. And voiced. The input unit 7 is used to input a command from a remote controller or the like when determining which back program assist information is to be sub-presented and which assist information using which feature amount is to be sub-presented. . Although the number of back programs and the number of assist information presented at the same time is not limited, each embodiment will be described as one case.

表示装置2は、最適提示処理部6から入力される映像信号を表示画面に表示する。また、最適提示処理部6から入力される音声信号を備え付けのスピーカから出力(放音)する。この表示装置2には、例えば例えばLCD(Liquid Crystal Display)、有機EL(Electro Luminescence)ディスプレイ、プラズマディスプレイ、FED(Field Emission Display)、CRT(Cathode Ray Tube)等を適用できる。なお、表示装置2は、複数の表示装置からなる表示システム、いわゆるマルチディスプレイでもよい。また、本実施の形態の例では、表示装置2の表示画面に近傍に図示しないスピーカが配置されているものとしているが、スピーカは表示装置2と別体でもよいことは勿論である。   The display device 2 displays the video signal input from the optimum presentation processing unit 6 on the display screen. In addition, the audio signal input from the optimum presentation processing unit 6 is output (sound emission) from an attached speaker. For example, an LCD (Liquid Crystal Display), an organic EL (Electro Luminescence) display, a plasma display, an FED (Field Emission Display), a CRT (Cathode Ray Tube), or the like can be applied to the display device 2. Note that the display device 2 may be a display system including a plurality of display devices, that is, a so-called multi-display. In the example of the present embodiment, a speaker (not shown) is disposed in the vicinity of the display screen of the display device 2, but it is needless to say that the speaker may be separate from the display device 2.

なお、以降の各実施の形態における複数コンテンツは、表番組・裏番組でもマルチディスプレイ上に表示された複数コンテンツでもよいが、以下の例では1つの表示画面を有する表示装置2における表番組と裏番組を複数コンテンツとして扱う。   The plurality of contents in each of the following embodiments may be a front program / back program or a plurality of contents displayed on a multi-display, but in the following example, the front program and back program in the display device 2 having one display screen are used. Treat the program as multiple contents.

また、コンテンツの例として、チューナ部3で受信したテレビジョン放送番組を挙げているが、これに限られるものではない。例えば外部記録媒体(リムーバブルメディア)に保存されている複数の映像コンテンツ及び音声コンテンツを、蓄積部4の各領域に記録するようにしてもよい。映像は動画に限らず静止画であっても構わない。   Further, as an example of content, a television broadcast program received by the tuner unit 3 is cited, but the present invention is not limited to this. For example, a plurality of video content and audio content stored in an external recording medium (removable medium) may be recorded in each area of the storage unit 4. The video is not limited to moving images, and may be still images.

次に、図3のフローチャートを参照して、システム全体の処理例を説明する。
まず、ユーザが提示したいアシストモードをリモートコントローラなどにより選択する(ステップS1)。続いて、ユーザがアシスト提示したいチャンネルをリモートコントローラなどにより選択する(ステップS2)。
Next, a processing example of the entire system will be described with reference to the flowchart of FIG.
First, the assist mode that the user wants to present is selected by a remote controller or the like (step S1). Subsequently, the channel for which the user wants to present an assist is selected by a remote controller or the like (step S2).

ここで、最適提示処理部6は、選択されたアシストモードがコンテンツの蓄積が必要なモードかどうかを判定する(ステップS3)。例えば、トピック残り時間通知モードの場合は、トピックの残り時間を算出するため、トピックの区切りの終了位置がわかっている必要がある。このように、予め蓄積部4に蓄積しておいたコンテンツでないと、要求された処理を実行できないことになる。したがって、モードによっては予め蓄積部4にコンテンツを蓄積しておく必要が生じるのである。   Here, the optimum presentation processing unit 6 determines whether or not the selected assist mode is a mode that requires content storage (step S3). For example, in the topic remaining time notification mode, the topic remaining time needs to be known in order to calculate the remaining time of the topic. In this way, the requested processing cannot be executed unless the content is stored in advance in the storage unit 4. Therefore, depending on the mode, it is necessary to store the content in the storage unit 4 in advance.

ステップS3において、コンテンツの蓄積が必要ないモードの場合、最適提示処理部6はコンテンツ解析部5がチューナ部3からコンテンツデータを取得するよう制御する(ステップS4)。   In step S3, in a mode that does not require content accumulation, the optimum presentation processing unit 6 controls the content analysis unit 5 to acquire content data from the tuner unit 3 (step S4).

一方、ステップS3において、コンテンツの蓄積を必要とするモードの場合、最適提示処理部6は、コンテンツ解析部5が蓄積部4からコンテンツデータを読み出し(ステップS5)、さらに蓄積部4から事前解析データを取得するよう制御する(ステップS6)。   On the other hand, in the mode that requires the accumulation of content in step S3, the optimum presentation processing unit 6 reads the content data from the accumulation unit 4 by the content analysis unit 5 (step S5), and further the preanalysis data from the accumulation unit 4 (Step S6).

ステップS4及びステップS6の処理が終了後、コンテンツ解析部6は取得したコンテンツの解析を行う(ステップS7)。   After the processing of step S4 and step S6 is completed, the content analysis unit 6 analyzes the acquired content (step S7).

最適提示処理部6は、コンテンツ解析部6による解析結果を受けて、アシストモードに応じた最適提示データを作成する(ステップS8)。   The optimum presentation processing unit 6 receives the analysis result from the content analysis unit 6 and creates optimum presentation data corresponding to the assist mode (step S8).

そして、ユーザがアシスト提示したい場所をリモートコントローラで選択すると(ステップS9)、最適提示処理部6はアシスト情報を表示装置2などに出力して提示する(ステップS10)。   Then, when the user selects a place where the user wants to present the assist with the remote controller (step S9), the optimum presentation processing unit 6 outputs the assist information to the display device 2 and presents it (step S10).

最後に、最適提示処理部6は、アシストモードを終了するか否かをユーザに判断させ、アシストモードを終了する場合には一連の処理を終了する。また、アシストモードを終了しない場合は、ステップS1に戻り処理を継続する。   Finally, the optimum presentation processing unit 6 causes the user to determine whether or not to end the assist mode. When the assist mode ends, the series of processes ends. If the assist mode is not terminated, the process returns to step S1 and continues.

ここで、本明細書において用いられる用語の定義を説明する。   Here, definitions of terms used in this specification will be described.

「トピック」:
番組内の区切り(ニュースの1話題、スポーツの前半・後半、バラエティ番組の1コーナー等)を指している。トピックの検出方法の一例として、図4にフローチャートを示し後述する。図4に示す例は、特定位置におけるテロップ抽出とシーンチェンジ検出を複合的に利用する検出方法になっている。なお、テロップ抽出方法とシーンチェンジ検出については図6、図7のフローチャートに示しており、後述する。
"topic":
It refers to a break in a program (one topic of news, the first or second half of sports, one corner of a variety program, etc.). As an example of a topic detection method, a flowchart is shown in FIG. The example shown in FIG. 4 is a detection method that uses telop extraction at a specific position and scene change detection in combination. The telop extraction method and scene change detection are shown in the flowcharts of FIGS. 6 and 7 and will be described later.

「カメラワーク情報」:
コンテンツの映像を撮影しているカメラ(撮像手段)の向き、ズーム、シーンチェンジなどを検出した情報である。カメラワーク情報の検出方法の一例としては、フレーム間マッチングやフレーム間差分を用いる方法が挙げられる。
"Camera work information":
This is information that detects the orientation, zoom, scene change, etc. of the camera (imaging means) that captures the content video. As an example of the camerawork information detection method, there is a method using interframe matching or interframe difference.

上記トピックの検出方法を、図4のフローチャートを参照して説明する。
まず、コンテンツ解析部5は、入力されたコンテンツの特徴量を検出する(ステップS21)。
The method for detecting the topic will be described with reference to the flowchart of FIG.
First, the content analysis unit 5 detects the feature amount of the input content (step S21).

次に、コンテンツの映像フレーム内の特定位置にテロップが検出されたか否かを判定する(ステップS22)。特定位置にテロップが検出された場合は、ステップS23に移行する。一方、特定位置にテロップが検出されない場合は、フレームカウント値を1加算(ステップS24)した後、ステップS21へ戻る。   Next, it is determined whether or not a telop is detected at a specific position in the video frame of the content (step S22). If a telop is detected at the specific position, the process proceeds to step S23. On the other hand, if no telop is detected at the specific position, the frame count value is incremented by 1 (step S24), and the process returns to step S21.

続いて、ステップS22においてテロップが検出された後、直前にシーンチェンジが検出されたか否かを判定する(ステップS23)。直前にシーンチェンジが検出された場合は、 トピックの節目としてカウントする。すなわちフレームカウント値を1にリセットする(ステップS25)。   Subsequently, after a telop is detected in step S22, it is determined whether or not a scene change has been detected immediately before (step S23). If a scene change is detected immediately before, it is counted as a topic milestone. That is, the frame count value is reset to 1 (step S25).

一方、直前にシーンチェンジが検出されない場合は、フレームカウント値を1加算(ステップS24)した後、ステップS21へ戻る。   On the other hand, if a scene change is not detected immediately before, the frame count value is incremented by 1 (step S24), and the process returns to step S21.

図4に示すトピック検出アルゴリズムを実行した結果を、図5に示すようなデータ形式で予め蓄積部4に保存しておく。   The result of executing the topic detection algorithm shown in FIG. 4 is stored in advance in the storage unit 4 in the data format shown in FIG.

図5に示すデータ形式において、入力フレーム、トピック区切り、フレームカウント、映像フレームの項目がある。入力フレームはコンテンツ内での映像フレームの通しのフレーム番号である。トピック区切りは、トピックの区切りを表し、トピックの開始位置の映像フレームの符号を「1」としている。フレームカウントは、トピック内のフレームカウント値である。映像フレームの項目では、各映像フレームの映像をサムネイルで表示している。   In the data format shown in FIG. 5, there are items of an input frame, a topic break, a frame count, and a video frame. The input frame is a serial frame number of the video frame in the content. The topic delimiter represents a topic delimiter, and the code of the video frame at the start position of the topic is “1”. The frame count is a frame count value in the topic. In the video frame item, the video of each video frame is displayed as a thumbnail.

この蓄積部4に保存されたトピック範囲検出データを用いてトピックの残り時間を算出する。算出した結果は、アシスト情報として提示する。   The topic remaining time is calculated using the topic range detection data stored in the storage unit 4. The calculated result is presented as assist information.

次に、図4のステップS22におけるテロップ抽出処理を、図6のフローチャートを参照して説明する。   Next, the telop extraction process in step S22 of FIG. 4 will be described with reference to the flowchart of FIG.

図6において、まずコンテンツ解析部5は、映像内の任意のフレームF(t)の特定位置における所定の輝度値を持つ画素(エッジ)の数、すなわちエッジ数を検出する(ステップS31)。   In FIG. 6, first, the content analysis unit 5 detects the number of pixels (edges) having a predetermined luminance value at a specific position of an arbitrary frame F (t) in the video, that is, the number of edges (step S31).

次に、コンテンツ解析部5は、検出されたエッジ数が設定された閾値以上であるか否かを判定する(ステップS32)。エッジ数が閾値以上の場合は、ステップS33に移行する。一方、エッジ数が閾値以上ではない場合は、フレーム番号tをt+1とした後、ステップS31へ戻る(ステップS35)。すなわち、テロップの抽出対象を次のフレームへ変更するのである。   Next, the content analysis unit 5 determines whether or not the detected number of edges is equal to or greater than a set threshold (step S32). If the number of edges is greater than or equal to the threshold, the process proceeds to step S33. On the other hand, if the number of edges is not greater than or equal to the threshold, the frame number t is set to t + 1, and the process returns to step S31 (step S35). That is, the telop extraction target is changed to the next frame.

コンテンツ解析部5は、ステップS32においてエッジ数が閾値以上であると判定されると、フレームカウントを1加算する(ステップ33)。   If it is determined in step S32 that the number of edges is greater than or equal to the threshold, the content analysis unit 5 adds 1 to the frame count (step 33).

そして、コンテンツ解析部5は、フレームカウント値を1加算した後、フレームカウント値が閾値以上であるか否かを判定する(ステップS34)。フレームカウント値が閾値以上の場合、テロップとして抽出し(ステップS36)、テロップ抽出処理を終了する。   Then, after adding 1 to the frame count value, the content analysis unit 5 determines whether or not the frame count value is greater than or equal to a threshold value (step S34). If the frame count value is greater than or equal to the threshold, it is extracted as a telop (step S36), and the telop extraction process is terminated.

一方、フレームカウント値が閾値以上ではない場合、フレーム番号tをt+1とした後(ステップS35)、ステップS31へ戻り処理を続ける。   On the other hand, if the frame count value is not greater than or equal to the threshold value, the frame number t is set to t + 1 (step S35), and then the process returns to step S31 and continues.

次に、図4のステップS23におけるシーンチェンジ検出処理を、図7のフローチャートを参照して説明する。   Next, the scene change detection process in step S23 of FIG. 4 will be described with reference to the flowchart of FIG.

図7において、まずコンテンツ解析部5は、取得した映像から連続する任意の映像フレームF(t)と映像フレームF(t+1)を取り出す(ステップS41)。   In FIG. 7, the content analysis unit 5 first extracts arbitrary video frames F (t) and video frames F (t + 1) from the acquired video (step S41).

これら2つの映像フレームF(t)と映像フレームF(t+1)の間のフレーム間差分を計算する(ステップS42)。   An inter-frame difference between these two video frames F (t) and F (t + 1) is calculated (step S42).

次に、映像フレーム内のフレーム間差分を計算し、画素ごとの差分の平均値が設定された一定値を超えているか否かを判定する(ステップS43)。平均値が一定値を超えている場合、シーンチェンジとして時刻tを出力する(ステップS44)。   Next, the inter-frame difference in the video frame is calculated, and it is determined whether or not the average value of the differences for each pixel exceeds a set constant value (step S43). If the average value exceeds a certain value, time t is output as a scene change (step S44).

一方、平均値が一定値を超えていない場合、フレーム番号tをt+1とした後、ステップS41へ戻る(ステップS46)。すなわち、フレーム間差分の検出対象を次のフレームへ変更する。   On the other hand, if the average value does not exceed the predetermined value, the frame number t is set to t + 1, and the process returns to step S41 (step S46). That is, the detection target of the interframe difference is changed to the next frame.

ステップS44においてシーンチェンジと判断して時刻tを出力した後、フレーム番号t+1が最終フレームか否かを判定する(ステップS45)。最終フレームである場合、シーンチェンジ検出処理を終了する。   After determining the scene change in step S44 and outputting the time t, it is determined whether or not the frame number t + 1 is the last frame (step S45). If it is the last frame, the scene change detection process ends.

一方、最終フレームではない場合、フレーム番号tをt+1として検出対象を次のフレームに移動した後(ステップS46)、ステップS41へ戻って処理を続ける。   On the other hand, if it is not the last frame, the frame number t is set to t + 1 and the detection target is moved to the next frame (step S46), and then the process returns to step S41 to continue the processing.

<第1の実施の形態>
次に、本発明の第1の実施の形態について、図8〜図9を参照して説明する。
第1の実施の形態においては、現在視聴中でない裏番組のトピックの先頭及び終了点を検出しておくことで、その裏番組のトピックの終了時間までの残り時間をユーザに提示する。
<First Embodiment>
Next, a first embodiment of the present invention will be described with reference to FIGS.
In the first embodiment, by detecting the top and end points of the topic of the back program that is not currently being viewed, the remaining time until the end time of the topic of the back program is presented to the user.

図8のフローチャートを参照して、トピック時間検出アルゴリズムを説明する。
まず、番組のオープニング、視聴開始からトピック時間検出処理を開始する。あるいは、モード選択により、裏番組トピック残り時間通知モードが選択された場合に、このトピック時間検出処理を開始する。
The topic time detection algorithm will be described with reference to the flowchart of FIG.
First, the topic time detection process starts from the opening of the program and the start of viewing. Alternatively, when the back program topic remaining time notification mode is selected by mode selection, this topic time detection process is started.

トピック時間検出処理を開始後、まずコンテンツ解析部5は、入力されたコンテンツの特徴量を検出する(ステップS51)。   After starting the topic time detection process, the content analysis unit 5 first detects the feature amount of the input content (step S51).

次に、コンテンツの映像フレーム内の特定位置にテロップが検出されたか否かを判定する(ステップS52)。特定位置にテロップが検出された場合は、ステップS53に移行する。一方、特定位置にテロップが検出されない場合は、フレームカウント値を1加算(ステップS54)した後、ステップS51へ戻る。   Next, it is determined whether or not a telop is detected at a specific position in the video frame of the content (step S52). If a telop is detected at the specific position, the process proceeds to step S53. On the other hand, if no telop is detected at the specific position, the frame count value is incremented by 1 (step S54), and the process returns to step S51.

続いて、ステップS52においてテロップが検出された後、直前にシーンチェンジが検出されたか否かを判定する(ステップS53)。直前にシーンチェンジが検出された場合は、 トピックの節目として検出し、当該トピックのトータルフレームカウント数を、蓄積部4に保存されたデータ(図5参照)から取得する(ステップS55)。   Subsequently, after a telop is detected in step S52, it is determined whether or not a scene change is detected immediately before (step S53). If a scene change is detected immediately before, it is detected as a topic node, and the total frame count of the topic is obtained from the data stored in the storage unit 4 (see FIG. 5) (step S55).

一方、直前にシーンチェンジが検出されない場合は、フレームカウント値を1加算(ステップS54)した後、ステップS51へ戻る。   On the other hand, if no scene change is detected immediately before, the frame count value is incremented by 1 (step S54), and the process returns to step S51.

次に、コンテンツ解析部5は、トピックの残り時間を計算し、その結果を最適提示処理部6へ出力する(ステップS56)。   Next, the content analysis unit 5 calculates the remaining time of the topic and outputs the result to the optimum presentation processing unit 6 (step S56).

ステップS56が終了後、フレームカウントをリセットする(ステップS57)。   After step S56 is completed, the frame count is reset (step S57).

ステップS57が終了後、映像フレームが最終フレームか否かを判定する(ステップS58)。最終フレームである場合、トピック時間検出アルゴリズムを終了する。   After step S57 is completed, it is determined whether the video frame is the final frame (step S58). If it is the last frame, the topic time detection algorithm is terminated.

一方、ステップS69において、最終フレームでない場合、ステップS51の処理へ戻り処理を続ける。   On the other hand, if it is not the last frame in step S69, the process returns to step S51 and continues.

上述のトピック時間検出アルゴリズムと蓄積部4に保存されたトピック範囲検出データを用いてトピックの残り時間を算出し、最適提示処理部6からアシスト情報として表示装置2へ出力する。これにより表番組を視聴し続けた方がよいのか、裏番組に切り替えた方がよいのかの判断を促すアシスト(支援)となる。   The remaining time of the topic is calculated using the topic time detection algorithm and the topic range detection data stored in the storage unit 4 and is output from the optimum presentation processing unit 6 to the display device 2 as assist information. As a result, it is an assist (support) that prompts the user to decide whether to continue watching the front program or to switch to the back program.

このようにした場合、例えば、裏番組で行っているニュース番組のうち天気のコーナーは飛ばしたいが、その次のニュースから見たい場合、ユーザは、天気コーナーの残り時間がゼロになるまで余裕を持って他のチャンネルを見続けることができる。   In this case, for example, if you want to skip the weather corner of the news program that is running in the back program, but want to watch it from the next news, the user will have enough time until the remaining time in the weather corner becomes zero. You can keep watching other channels.

図9は、裏番組トピック残り時間通知の一例を示すものである。図9において、表番組の映像11〜14と、そのときの裏番組の映像21〜24を示している。表番組の映像11(裏番組の映像21)のとき、表示画面に表示される裏番組のトピック残り時間のサブ提示は「0:01:50」である。時間が経って表番組の映像13(裏番組の映像23)になると、裏番組のトピック残り時間のサブ提示は「0:00:01」となる。そして、この直後、裏番組では現在のトピックが終了して新トピックが開始される。裏番組では新トピックとなり、表番組の映像14(裏番組の映像24)のとき表示画面のサブ提示には、新トピックの残り時間「0:10:30」が表示される。   FIG. 9 shows an example of the back program topic remaining time notification. FIG. 9 shows the front program videos 11 to 14 and the back program videos 21 to 24 at that time. In the case of the front program video 11 (back program video 21), the sub-representation of the topic remaining time of the back program displayed on the display screen is “0:01:50”. If time passes and it becomes the video 13 of the front program (back program video 23), the sub-representation of the topic remaining time of the back program will be “0:00:01”. Immediately after this, in the back program, the current topic ends and a new topic starts. In the back program, it becomes a new topic, and the remaining time “0:10:30” of the new topic is displayed in the sub-presentation of the display screen in the case of the video 14 of the front program (the video 24 of the back program).

<第2の実施の形態>
次に、本発明の第2の実施の形態について、図10〜図11を参照して説明する。
第2の実施の形態においては、現在視聴中でない裏番組のトピックの先頭及び終了点を検出しておくことで、その裏番組のトピック視聴の経過時間を呈示する。
<Second Embodiment>
Next, a second embodiment of the present invention will be described with reference to FIGS.
In the second embodiment, by detecting the beginning and end point of a topic of a back program that is not currently being viewed, the elapsed time of viewing the topic of the back program is presented.

図10のフローチャートを参照して、トピック視聴時間検出アルゴリズムを説明する。
まず、番組のオープニング、視聴開始からトピック視聴時間検出処理を開始する。あるいは、モード選択により、裏番組トピック経過時間通知モードが選択された場合に、このトピック視聴時間検出処理を開始する。
The topic viewing time detection algorithm will be described with reference to the flowchart of FIG.
First, the topic viewing time detection process starts from the opening of the program and the start of viewing. Alternatively, when the back program topic elapsed time notification mode is selected by mode selection, the topic viewing time detection process is started.

トピック視聴時間検出処理を開始後、まずコンテンツ解析部5は、入力されたコンテンツの特徴量を検出する(ステップS61)。   After starting the topic viewing time detection process, the content analysis unit 5 first detects the feature amount of the input content (step S61).

次に、コンテンツの映像フレーム内の特定位置にテロップが検出されたか否かを判定する(ステップS62)。特定位置にテロップが検出された場合は、ステップS63に移行する。一方、特定位置にテロップが検出されない場合は、ユーザがトピックを見ているか否かを判定し(ステップS64)、見ていない場合はステップS61に戻る。ユーザが見ている場合は、ステップS65へ進み、フレームカウント値を1加算(ステップS65)した後、ステップS61へ戻る。   Next, it is determined whether or not a telop is detected at a specific position in the video frame of the content (step S62). If a telop is detected at the specific position, the process proceeds to step S63. On the other hand, if no telop is detected at the specific position, it is determined whether or not the user is looking at the topic (step S64). If not, the process returns to step S61. If the user is watching, the process proceeds to step S65, and the frame count value is incremented by 1 (step S65), and then the process returns to step S61.

続いて、ステップS62においてテロップが検出された後、直前にシーンチェンジが検出されたか否かを判定する(ステップS63)。直前にシーンチェンジが検出された場合は、トピックの節目としてカウントとして検出し、当該トピックのトータルフレームカウント数を、蓄積部4に保存されたデータ(図5参照)から取得する(ステップS66)。   Subsequently, after a telop is detected in step S62, it is determined whether or not a scene change has been detected immediately before (step S63). If a scene change is detected immediately before, it is detected as a count of topics, and the total frame count number of the topic is acquired from the data (see FIG. 5) stored in the storage unit 4 (step S66).

一方、直前にシーンチェンジが検出されない場合は、ステップS64へ移行する。そして、ユーザがトピックを見ていない場合はステップS61へ戻り、ユーザが見ている場合にはフレームカウント値を1加算(ステップS65)した後、ステップS61へ戻る。   On the other hand, if no scene change is detected immediately before, the process proceeds to step S64. If the user is not viewing the topic, the process returns to step S61. If the user is viewing, the frame count value is incremented by 1 (step S65), and then the process returns to step S61.

次に、コンテンツ解析部5は、トピックの視聴時間を計算し、その結果を最適提示処理部6へ出力する(ステップS67)。   Next, the content analysis unit 5 calculates the viewing time of the topic, and outputs the result to the optimum presentation processing unit 6 (step S67).

ステップS67が終了後、フレームカウントをリセットする(ステップS68)。   After step S67 is completed, the frame count is reset (step S68).

ステップS68が終了後、映像フレームが最終フレームか否かを判定する(ステップS69)。最終フレームである場合、トピック時間検出アルゴリズムを終了する。   After step S68 ends, it is determined whether the video frame is the last frame (step S69). If it is the last frame, the topic time detection algorithm is terminated.

一方、ステップS69において、最終フレームでない場合、ステップS61の処理へ戻り処理を続ける。   On the other hand, if it is not the last frame in step S69, the process returns to step S61 and continues.

上述のトピック視聴時間検出アルゴリズムと蓄積部4に保存されたトピック範囲検出データを用いてトピックの視聴時間を算出し、最適提示処理部6からアシスト情報として表示装置2へ出力する。これにより、第1の実施の形態と同様に、ユーザは、表番組を視聴し続けた方がよいのか、裏番組に切り替えた方がよいのかの判断材料とすることができる。   The topic viewing time is calculated using the topic viewing time detection algorithm and the topic range detection data stored in the storage unit 4, and is output from the optimum presentation processing unit 6 to the display device 2 as assist information. As a result, as in the first embodiment, the user can use it as a material for determining whether to continue watching the front program or to switch to the back program.

例えば、裏番組でのニュース番組においてトピックが開始したばかりならすぐに裏番組と表番組を切り替えることで、トピックの始めから見始めることができるが、すでにだいぶ時間が経過しているなら現在の表番組を視聴し続ける、というような判断が可能になる。   For example, if a topic has just started in a news program in the back program, you can start watching from the beginning of the topic by switching between the back program and the front program immediately, but if the time has already passed, the current table A judgment such as continuing to watch the program can be made.

図11は、裏番組トピック経過時間通知の一例を示すものである。図11において、表番組の映像31〜34と、そのときの裏番組の映像41〜44を示している。表番組の映像31(裏番組の映像41)のとき、裏番組がトピック区切り直前なので、表示画面に表示されるトピック経過時間のサブ提示は「0:10:30」と大きい値である。そして、次の映像フレームで新トピックが開始されているので、表番組の映像32(裏番組の映像42)になると、裏番組のトピック経過時間のサブ提示は「0:00:01」となる。これ以降は時間の経過とともに経過時間が計上される。そして、所定時間経過後の表番組の映像34(裏番組の映像44)のときサブ提示には、例えば「0:01:50」と表示される。   FIG. 11 shows an example of notification of the back program topic elapsed time. In FIG. 11, videos 31 to 34 of the front program and videos 41 to 44 of the back program at that time are shown. In the case of the front program video 31 (back program video 41), since the back program is just before the topic break, the sub-presentation of the topic elapsed time displayed on the display screen is a large value of “0:10:30”. Then, since a new topic is started in the next video frame, when the front program video 32 (back program video 42) is reached, the sub-presentation of the topic elapsed time of the back program is “0:00:01”. . After that, the elapsed time is counted as time passes. For example, “0:01:50” is displayed in the sub-presentation for the front program video 34 (back program video 44) after a predetermined time has elapsed.

<第3の実施の形態>
次に、本発明の第3の実施の形態について、図12を参照して説明する。
第3の実施の形態は、裏番組のカメラ向きの時間変化を通知するモードである。図12において、表番組の映像51〜54と、そのときの裏番組の映像61〜64を示している。本実施の形態によると、裏番組におけるカメラワーク情報を抽出し、それを瞬時に理解しやすい矢印や簡単な映像(カメラワーク情報51A〜54A)で提示する。それにより裏番組の映像における変化を、瞬時に理解しやすい形でユーザに伝えることができ、チャンネル切り替えの判断材料となる。
<Third Embodiment>
Next, a third embodiment of the present invention will be described with reference to FIG.
The third embodiment is a mode for notifying the time change of the back program for the camera. In FIG. 12, videos 51 to 54 of the front program and videos 61 to 64 of the back program at that time are shown. According to the present embodiment, camera work information in a back program is extracted and presented in an easy-to-understand arrow or simple video (camera work information 51A to 54A). As a result, changes in the video of the back program can be instantly communicated to the user in an easily understandable manner, which can be used as a channel switching judgment material.

カメラワーク情報を表示画面にサブ提示することにより、例えば、裏番組でのサッカー中継において、カメラ向きが左から右に変わったことにより、攻める方向が変わったというようなことがわかる。また、裏番組での野球中継においてカメラ切り替えがあったことなども表番組を見ながらにして把握することができる。   By sub-presenting the camera work information on the display screen, it can be seen that, for example, in the soccer broadcast in the back program, the attack direction has changed due to the camera direction changing from left to right. It is also possible to grasp the fact that the camera has been switched during the baseball broadcast in the back program while watching the front program.

<第4の実施の形態>
次に、本発明の第4の実施の形態について、図13を参照して説明する。
第4の実施の形態は、裏番組における特徴量(音声のゲイン、音声の周波数、フレーム間差分の平均値、平均輝度値)などの時間変化を例えばスペクトルのような波形として提示するモードである。図13において、表番組の映像51〜54と、そのときの裏番組の映像61〜64を示している。図13に示すように、裏番組の映像に対応する波形情報51B〜54Bを表示画面に示すことにより、裏番組で起こっている変化を把握することができ、チャンネル切り替えの判断材料となる。
<Fourth embodiment>
Next, a fourth embodiment of the present invention will be described with reference to FIG.
The fourth embodiment is a mode for presenting temporal changes such as feature quantities (sound gain, sound frequency, average value of difference between frames, average luminance value) in a back program as a waveform such as a spectrum. . In FIG. 13, videos 51 to 54 of the front program and videos 61 to 64 of the back program at that time are shown. As shown in FIG. 13, by displaying the waveform information 51B to 54B corresponding to the video of the back program on the display screen, the change occurring in the back program can be grasped, and it becomes a judgment material for channel switching.

例えば、裏番組の音声ゲインの波形を提示しておき、その急激な上昇により盛り上がりやCM(コマーシャル)があったのではないかと予測することができる。また、裏番組のフレーム間差分の平均値の波形を提示しておき、その変化が少ない場合は同一シーンが継続しているが、急激な変化があった場合、シーンが変わったことを予測することができ、ユーザはその瞬間にチャンネルを切り替えるかどうかの判断材料とすることができる。   For example, the waveform of the audio gain of the back program can be presented, and it can be predicted that there will be excitement and CM (commercial) due to the rapid rise. In addition, the waveform of the average value of the difference between frames of the back program is presented, and if the change is small, the same scene continues, but if there is a sudden change, it is predicted that the scene has changed And the user can use it to determine whether to switch channels at that moment.

上述した第1〜第4の実施の形態によると、特定の番組(表番組)の視聴時であっても裏番組の動向の理解をアシスト(支援又は補助)することができる。このように、裏番組の情報を表番組画面にサブ提示する場合に、 アシスト用の提示は裏番組をそのままサブ提示するのではなく、映像・音声情報を特徴量などに縮退しているので、表番組の視聴への影響を最小に抑えることができる。また、ユーザは表番組の視聴に集中したままでも裏番組の情報を取得することができる。   According to the first to fourth embodiments described above, it is possible to assist (support or assist) understanding of the trend of the back program even when viewing a specific program (front program). In this way, when the back program information is sub-presented on the front program screen, the assisting presentation does not sub-present the back program as it is, but the video / audio information is reduced to feature quantities, etc. The influence on the viewing of the front program can be minimized. In addition, the user can acquire information on the back program even while concentrating on viewing the front program.

<第5の実施の形態>
次に、本発明の第5の実施の形態について、図14を参照して説明する。
第5の実施の形態は、基本的な構成・仕組みは、第1の実施の形態とほぼ同じである。ただし、情報をサブ提示する対象は裏番組ではなく、表番組であるという点が異なる。図14に示す表番組のトピック残り時間通知の例では、表番組の映像52〜55が示してあり、映像54と映像55の間にトピックの区切りがある。この場合、サブ提示によって、表番組の現在のトピックが終了するまでの経過時間を知ることができる。
<Fifth embodiment>
Next, a fifth embodiment of the present invention will be described with reference to FIG.
The basic configuration and mechanism of the fifth embodiment is almost the same as that of the first embodiment. However, the difference is that the target to which information is sub-presented is not a back program but a front program. In the example of the topic remaining time notification of the front program shown in FIG. 14, videos 52 to 55 of the front program are shown, and there is a topic break between the video 54 and the video 55. In this case, it is possible to know the elapsed time until the current topic of the front program ends by sub-presentation.

<第6の実施の形態>
次に、本発明の第6の実施の形態について、図15を参照して説明する。
第6の実施の形態は、基本的な構成・仕組みは、第2の実施の形態とほぼ同じである。ただし、情報をサブ提示する対象は裏番組ではなく、表番組であるという点が異なる。図15に示す表番組のトピック見逃し時間通知の例では、表番組の映像54〜57が示してあり、映像54と映像55の間にトピックの区切りがある。この場合、サブ提示によって、表番組の現在のトピックが新しくなってからの経過時間(見逃し時間もしは視聴時間)を知ることができる。
<Sixth Embodiment>
Next, a sixth embodiment of the present invention will be described with reference to FIG.
The basic configuration and mechanism of the sixth embodiment is almost the same as that of the second embodiment. However, the difference is that the target to which information is sub-presented is not a back program but a front program. In the example of the topic missed time notification of the front program shown in FIG. 15, videos 54 to 57 of the front program are shown, and there is a topic break between the video 54 and the video 55. In this case, it is possible to know the elapsed time (missing time or viewing time) since the current topic of the front program is renewed by sub-presentation.

上述した第5〜第6の実施の形態によると、特定の番組の視聴時にその番組を効率的に視聴できるようなアシスト提示をすることで裏番組を視聴する余裕を与えるアシスト提示を行うことができる。このように、表番組自体の情報を表番組画面にアシスト提示する場合、現在視聴中の表番組をより効率的に理解でき、裏番組を視聴する余裕を視聴者に与えることができる。また、現在視聴中の表番組の情報を提示することによって現在視聴中の表番組をより効率的に理解でき、裏番組を視聴する余裕を視聴者に与えることができる。   According to the fifth to sixth embodiments described above, it is possible to perform assist presentation that gives a margin for viewing a back program by performing assist presentation so that the program can be efficiently viewed when the specific program is viewed. it can. As described above, when information on the front program itself is presented on the front program screen as an assist, the front program currently being viewed can be understood more efficiently, and a viewer can be afforded to view the back program. Also, by presenting information on the front program currently being viewed, the front program currently being viewed can be understood more efficiently, and a viewer can be afforded to view the back program.

また、上述の各実施の形態においては、本発明をテレビジョン放送波を受信して表示装置に出力する情報処理装置に適用した場合について述べたが、本発明はこれに限らず、テレビジョン放送波の受信機能を備えたテレビジョンチューナやテレビジョン放送波を受信して記録する録画再生装置等に適用できる。さらに、表示装置と一体か別体かは問わず、テレビジョン放送波の受信機能を備えた携帯電話機やパーソナルコンピュータ等、種々のテレビジョン受信機に適用することができる。   In each of the above-described embodiments, the case where the present invention is applied to an information processing apparatus that receives a television broadcast wave and outputs it to a display device has been described. However, the present invention is not limited thereto, and the television broadcast is not limited thereto. The present invention can be applied to a television tuner having a wave receiving function, a recording / playback apparatus that receives and records a television broadcast wave, and the like. Further, it can be applied to various television receivers such as a mobile phone and a personal computer having a function of receiving a television broadcast wave regardless of whether the display device is integrated or separated.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで各種の機能を実行することが可能な、例えば汎用のコンピュータなどに、プログラム記録媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, it is possible to execute various functions by installing a computer in which a program constituting the software is incorporated in dedicated hardware, or by installing various programs. For example, it is installed from a program recording medium in a general-purpose computer or the like.

図16は、チューナ部を備え上述した一連の処理をプログラムにより実行するパーソナルコンピュータ110の構成例を示すブロック図である。   FIG. 16 is a block diagram illustrating a configuration example of a personal computer 110 that includes a tuner unit and executes the above-described series of processes by a program.

パーソナルコンピュータ110のCPU(Central Processing Unit)111は、ROM(Read Only Memory)112、または記録部118に記録されているプログラムに従って、上記一連の処理の他、各種の処理を実行する。RAM(Random Access Memory)113には、CPU111が実行するプログラムやデータなどが適宜記憶される。これらのCPU111、ROM112、およびRAM113は、バス114により相互に接続されている。   A CPU (Central Processing Unit) 111 of the personal computer 110 executes various processes in addition to the series of processes described above according to a program recorded in a ROM (Read Only Memory) 112 or a recording unit 118. A RAM (Random Access Memory) 113 appropriately stores programs executed by the CPU 111 and data. The CPU 111, the ROM 112, and the RAM 113 are connected to each other by a bus 114.

CPU111にはまた、バス114を介して入出力インタフェース115が接続されている。入出力インタフェース115には、キーボード、マウス、マイクロホンなどよりなる入力部116、ディスプレイ、スピーカなどよりなる出力部117が接続されている。CPU111は、入力部116から入力される指令に対応して各種の処理を実行する。そして、CPU111は、処理の結果を出力部117に出力する。   An input / output interface 115 is also connected to the CPU 111 via the bus 114. The input / output interface 115 is connected to an input unit 116 including a keyboard, a mouse, and a microphone, and an output unit 117 including a display and a speaker. The CPU 111 executes various processes in response to commands input from the input unit 116. Then, the CPU 111 outputs the processing result to the output unit 117.

入出力インタフェース115に接続されている記録部118は、例えばハードディスクからなり、CPU111が実行するプログラムや各種のデータを記録する。   The recording unit 118 connected to the input / output interface 115 includes, for example, a hard disk, and records programs executed by the CPU 111 and various data.

通信部119は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。また通信部119を介してプログラムを取得し、記録部118に記録してもよい。   The communication unit 119 communicates with an external device via a network such as the Internet or a local area network. A program may be acquired via the communication unit 119 and recorded in the recording unit 118.

入出力インタフェース115に接続されているドライブ120は、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリなどのリムーバブルメディア131が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記録部118に転送され、記録される。   The drive 120 connected to the input / output interface 115 drives a removable medium 131 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and drives programs and data recorded there. Get etc. The acquired program and data are transferred to the recording unit 118 and recorded as necessary.

チューナ部121は、複数チャンネルの番組を含むテレビジョン放送波(テレビジョン放送信号)からユーザから要求されたテレビジョン放送波を、アンテナ(図示せず)を介して受信及び復調する。なお、本実施の形態においては、パーソナルコンピュータ110はチューナ部121を2つ以上有しており、2以上のチャンネルのテレビジョン放送信号を同時に受信することができる。   The tuner unit 121 receives and demodulates a television broadcast wave requested by a user from a television broadcast wave (television broadcast signal) including a program of a plurality of channels via an antenna (not shown). In the present embodiment, personal computer 110 has two or more tuner units 121 and can simultaneously receive television broadcast signals of two or more channels.

コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図8に示すように、リムーバブルメディア131によりパッケージメディアとして提供される。リムーバブルメディア131としては、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD−ROM(Compact Disc - Read Only Memory),DVD(Digital Versatile Disc),光磁気ディスクを含む)、もしくは半導体メモリなどを適用することができる。あるいは、プログラム記録媒体は、プログラムが一時的もしくは永続的に格納(記録)されるROM112や、記録部118を構成するハードディスクなどにより構成される。   A program recording medium that stores a program that is installed in a computer and can be executed by the computer is provided as a package medium by a removable medium 131 as shown in FIG. As the removable medium 131, a magnetic disk (including a flexible disk), an optical disk (including a CD-ROM (Compact Disc-Read Only Memory), a DVD (Digital Versatile Disc), a magneto-optical disk), or a semiconductor memory is applied. be able to. Alternatively, the program recording medium includes a ROM 112 that stores (records) a program temporarily or permanently, a hard disk that forms the recording unit 118, and the like.

プログラム記録媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインタフェースである通信部119を介して、ローカルエリアネットワーク(LAN:Local Area Network)、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。   The program is stored in the program recording medium via wired or wireless communication such as a local area network (LAN), the Internet, or digital satellite broadcasting via a communication unit 119 that is an interface such as a router or a modem as necessary. The communication medium is used.

なお、本明細書において、プログラム記録媒体に格納されるプログラムを記述する処理ステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)をも含むものである。   In the present specification, the processing steps describing the program stored in the program recording medium are not limited to the processing performed in time series in the described order, but are not necessarily performed in time series. This includes processing that is executed manually or individually (for example, parallel processing or object processing).

また、プログラムは、一つのコンピュータにより処理されるものであってもよいし、複数のコンピュータによって分散処理されるものであってもよい。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであってもよい。   Further, the program may be processed by a single computer, or may be processed in a distributed manner by a plurality of computers. Furthermore, the program may be transferred to a remote computer and executed.

本発明の実施の形態に係る情報提示システムの概要を示す構成図である。It is a lineblock diagram showing an outline of an information presentation system concerning an embodiment of the invention. サブ提示方法の説明図であり、(a)はPinP、(b)は子画面、(c)はマルチディスプレイを示す。It is explanatory drawing of a sub presentation method, (a) is PinP, (b) is a subscreen, (c) shows a multi-display. 本発明の実施の形態に係るシステム全体の処理例を示すフローチャートである。It is a flowchart which shows the process example of the whole system which concerns on embodiment of this invention. 本発明の実施の形態に係るトピック検出アルゴリズムの例を示すフローチャートである。It is a flowchart which shows the example of the topic detection algorithm which concerns on embodiment of this invention. 本発明の実施の形態に係る蓄積部に蓄積されるデータ形式の例を示す説明図である。It is explanatory drawing which shows the example of the data format accumulate | stored in the storage part which concerns on embodiment of this invention. 本発明の実施の形態に係るテロップ検出アルゴリズムの例を示すフローチャートである。It is a flowchart which shows the example of the telop detection algorithm which concerns on embodiment of this invention. 本発明の実施の形態に係るシーンチェンジ検出アルゴリズムの例を示すフローチャートである。It is a flowchart which shows the example of the scene change detection algorithm which concerns on embodiment of this invention. 本発明の第1の実施の形態に係るトピック時間検出アルゴリズムの例を示すフローチャートである。It is a flowchart which shows the example of the topic time detection algorithm which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る裏番組トピック残り時間通知の一例を示す説明図である。It is explanatory drawing which shows an example of the back program topic remaining time notification which concerns on the 1st Embodiment of this invention. 本発明の第2の実施の形態に係るトピック視聴時間検出アルゴリズムの例を示すフローチャートである。It is a flowchart which shows the example of the topic viewing-and-listening time detection algorithm which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施の形態に係る裏番組トピック経過時間通知の一例を示す説明図である。It is explanatory drawing which shows an example of the back program topic elapsed time notification which concerns on the 2nd Embodiment of this invention. 本発明の第3の実施の形態に係る裏番組カメラワーク情報通知の一例を示す説明図である。It is explanatory drawing which shows an example of the back program camera work information notification which concerns on the 3rd Embodiment of this invention. 本発明の第4の実施の形態に係る裏番組特徴量の時間波形通知の一例を示す説明図である。It is explanatory drawing which shows an example of the time waveform notification of the back program feature-value based on the 4th Embodiment of this invention. 本発明の第5の実施の形態に係る表番組トピック残り時間通知の一例を示す説明図である。It is explanatory drawing which shows an example of the table program topic remaining time notification which concerns on the 5th Embodiment of this invention. 本発明の第6の実施の形態に係る表番組見逃し時間通知の一例を示す説明図である。It is explanatory drawing which shows an example of the table program missed time notification which concerns on the 6th Embodiment of this invention. パーソナルコンピュータの内部構成の一例を示すブロック図である。It is a block diagram which shows an example of an internal structure of a personal computer.

符号の説明Explanation of symbols

1…情報処理装置、2…表示装置、2a…メイン提示画面、2b…サブ提示画面、2c…メイン提示画面、2A…メイン提示画面、2B…サブ提示画面、3…チューナ部、4…蓄積部、5…コンテンツ解析部、6…最適提示処理部、7…入力部、11〜14…表番組の映像、21〜24…裏番組の映像、31〜34…表番組の映像、41〜44…裏番組の映像、51〜57…表番組の映像、51A〜54A…カメラワーク情報、51B〜54B…時間波形、61〜64…裏番組の映像、110…パーソナルコンピュータ、111…CPU、112…ROM、113…RAM、114…バス、115…入出力インタフェース、116…入力部、117…出力部、118…記録部、119…通信部、120…ドライブ、121A,121B…チューナ部、131…リムーバブルメディア、121…チューナ部   DESCRIPTION OF SYMBOLS 1 ... Information processing apparatus, 2 ... Display apparatus, 2a ... Main presentation screen, 2b ... Sub presentation screen, 2c ... Main presentation screen, 2A ... Main presentation screen, 2B ... Sub presentation screen, 3 ... Tuner part, 4 ... Accumulation part 5 ... Content analysis section, 6 ... Optimal presentation processing section, 7 ... Input section, 11-14 ... Front program video, 21-24 ... Back program video, 31-34 ... Front program video, 41-44 ... Back program video, 51-57 ... Front program video, 51A-54A ... Camerawork information, 51B-54B ... Time waveform, 61-64 ... Back program video, 110 ... Personal computer, 111 ... CPU, 112 ... ROM 113 ... RAM, 114 ... bus, 115 ... input / output interface, 116 ... input unit, 117 ... output unit, 118 ... recording unit, 119 ... communication unit, 120 ... drive, 121A, 121B ... chu Na part, 131 ... removable media, 121 ... tuner section

Claims (11)

第1のコンテンツ及び第2のコンテンツを取得する取得部と、
前記取得部で取得した前記第1のコンテンツと前記第2のコンテンツを記憶する記憶部と、
前記記憶部から読み出した前記第2のコンテンツを解析するコンテンツ解析部と、
前記第1のコンテンツの映像を出力するとともに、前記コンテンツ解析部の解析結果に基づいて前記第2のコンテンツの時間変化を伴う特徴を示す補助情報を出力する最適提示処理部と、
を有する情報処理装置。
An acquisition unit for acquiring the first content and the second content;
A storage unit for storing the first content and the second content acquired by the acquisition unit;
A content analysis unit that analyzes the second content read from the storage unit;
An optimum presentation processing unit that outputs the video of the first content and outputs auxiliary information indicating characteristics accompanying temporal change of the second content based on an analysis result of the content analysis unit;
An information processing apparatus.
前記第1のコンテンツ及び前記第2のコンテンツは、それぞれテレビジョン放送番組であり、第1のテレビジョン放送番組を表番組とし、第2のテレビジョン放送番組を裏番組とする
請求項1に記載の情報処理装置。
The first content and the second content are each a television broadcast program, the first television broadcast program is a front program, and the second television broadcast program is a back program. Information processing device.
前記第2のコンテンツの現時点での特徴を示す補助情報は、前記裏番組内の現時点の再生位置から該再生位置を含むトピック範囲の終了位置までの残り時間である
請求項2に記載の情報処理装置。
The information processing according to claim 2, wherein the auxiliary information indicating the current characteristics of the second content is a remaining time from the current playback position in the back program to the end position of the topic range including the playback position. apparatus.
前記第2のコンテンツの現時点での特徴を示す補助情報は、前記裏番組内の現時点の再生位置を含むトピック範囲の開始位置から現時点の再生位置までの経過時間である
請求項2に記載の情報処理装置。
The information according to claim 2, wherein the auxiliary information indicating the current characteristics of the second content is an elapsed time from the start position of the topic range including the current playback position in the back program to the current playback position. Processing equipment.
前記第2のコンテンツの現時点での特徴を示す補助情報は、前記裏番組の映像を撮影している撮像手段のカメラワーク情報である
請求項2に記載の情報処理装置。
The information processing apparatus according to claim 2, wherein the auxiliary information indicating the current characteristics of the second content is camera work information of an imaging unit that is capturing the video of the back program.
前記第2のコンテンツの現時点での特徴を示す補助情報は、前記裏番組における特徴量の時間変化を示した波形情報である
請求項2に記載の情報処理装置。
The information processing apparatus according to claim 2, wherein the auxiliary information indicating the current feature of the second content is waveform information indicating a temporal change in the feature amount in the back program.
少なくとも前記最適提示処理部から出力された前記表番組の映像を表示する表示手段、
を備える請求項2に記載の情報処理装置。
Display means for displaying at least the video of the table program output from the optimum presentation processing unit;
An information processing apparatus according to claim 2.
前記第2のコンテンツに関する補助情報は、前記第2のコンテンツの現時点での特徴を含む情報である
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the auxiliary information related to the second content is information including a current characteristic of the second content.
コンテンツを取得し所定の処理を行って出力する情報処理装置の情報処理方法であって、
第1のコンテンツ及び第2のコンテンツを取得するステップと、
取得した前記第1のコンテンツと前記第2のコンテンツを記憶部に記憶するステップと、
前記記憶部から読み出した前記第2のコンテンツを解析するステップと、
前記第1のコンテンツの映像を出力するとともに、前記解析の結果に基づいて前記第2のコンテンツの時間変化を伴う特徴を示す補助情報を出力するステップと、
を含む情報処理方法。
An information processing method of an information processing apparatus that acquires content, performs predetermined processing, and outputs the content,
Obtaining a first content and a second content;
Storing the acquired first content and the second content in a storage unit;
Analyzing the second content read from the storage unit;
Outputting the video of the first content, and outputting auxiliary information indicating a feature accompanying a time change of the second content based on the result of the analysis;
An information processing method including:
コンテンツを取得し所定の処理を行って出力する情報処理装置を制御するコンピュータに実行させるプログラムにおいて、
第1のコンテンツ及び第2のコンテンツを取得する処理と、
取得した前記第1のコンテンツと前記第2のコンテンツを記憶部に記憶する処理と、
前記記憶部から読み出した前記第2のコンテンツを解析する処理と、
前記第1のコンテンツの映像を出力するとともに、前記解析の結果に基づいて前記第2のコンテンツの時間変化を伴う特徴を示す補助情報を出力する処理と、
をコンピュータに実行させるプログラム。
In a program to be executed by a computer that controls an information processing apparatus that acquires content, performs predetermined processing, and outputs the content,
Processing for obtaining the first content and the second content;
A process of storing the acquired first content and the second content in a storage unit;
A process of analyzing the second content read from the storage unit;
A process of outputting the video of the first content, and outputting auxiliary information indicating a feature accompanying a time change of the second content based on a result of the analysis;
A program that causes a computer to execute.
コンテンツを取得し所定の処理を行って出力する情報処理装置を制御するコンピュータに実行させるプログラムが記録された記録媒体において、
第1のコンテンツ及び第2のコンテンツを取得する処理と、
取得した前記第1のコンテンツと前記第2のコンテンツを記憶部に記憶する処理と、
前記記憶部から読み出した前記第2のコンテンツを解析する処理と、
前記第1のコンテンツの映像を出力するとともに、前記解析の結果に基づいて前記第2のコンテンツの時間変化を伴う特徴を示す補助情報を出力する処理と、
をコンピュータに実行させるプログラムが記録された記録媒体。
In a recording medium recorded with a program to be executed by a computer that controls an information processing apparatus that acquires content, performs predetermined processing, and outputs the content,
Processing for obtaining the first content and the second content;
A process of storing the acquired first content and the second content in a storage unit;
A process of analyzing the second content read from the storage unit;
A process of outputting the video of the first content, and outputting auxiliary information indicating a feature accompanying a time change of the second content based on a result of the analysis;
A recording medium on which a program for causing a computer to execute is recorded.
JP2007276933A 2007-10-24 2007-10-24 Information processor, information processing method, program, and recording medium Pending JP2009105770A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007276933A JP2009105770A (en) 2007-10-24 2007-10-24 Information processor, information processing method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007276933A JP2009105770A (en) 2007-10-24 2007-10-24 Information processor, information processing method, program, and recording medium

Publications (1)

Publication Number Publication Date
JP2009105770A true JP2009105770A (en) 2009-05-14

Family

ID=40707017

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007276933A Pending JP2009105770A (en) 2007-10-24 2007-10-24 Information processor, information processing method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP2009105770A (en)

Similar Documents

Publication Publication Date Title
US8014649B2 (en) Method of performing time-shift function and television receiver using the same
US7990473B2 (en) Image processing apparatus, image processing method, and image processing program
JP2007013568A (en) Electronic equipment, and device and method for processing image
US20100045868A1 (en) Broadcast receiver and method of providing preferred channel thereof
JP2003209756A (en) Method for selecting channel in digital television
US20090103886A1 (en) Same scene detection method, device, and storage medium containing program
JP2008277967A (en) Information processing device and information processing method, program, and recording medium
US8872975B2 (en) Receiving device, display controlling method, and program
JP2006352208A (en) Video display apparatus
KR20070022469A (en) Picture capturing apparatus using picture in picture function
JP4293073B2 (en) Television broadcast receiver
US8627400B2 (en) Moving image reproducing apparatus and control method of moving image reproducing apparatus
JP2009105580A (en) Information processing apparatus, information processing method, program, and recording medium
JP2009105770A (en) Information processor, information processing method, program, and recording medium
KR100854824B1 (en) Method and apparatus for display a record list of image display device
JP2004072617A (en) Device and method system for detecting particular information, program, recording medium, and system for detecting particular information
JP2009124325A (en) Television receiver, and broadcast image display method
JP2008141435A (en) Broadcast receiver and broadcast reception method
JP5476179B2 (en) Tuner switching device, tuner switching system, and method for controlling tuner switching device
JP5192325B2 (en) Video playback apparatus and video playback method
JP2009147669A (en) Video display device and video processor
US8570439B2 (en) Broadcasting processing apparatus and control method thereof
EP3554092A1 (en) Video system with improved caption display
JP5350037B2 (en) Display control apparatus, control method thereof, and program
JP2011095316A (en) Image display device and method