JP5354664B2 - Digital data receiver and program - Google Patents

Digital data receiver and program Download PDF

Info

Publication number
JP5354664B2
JP5354664B2 JP2009129715A JP2009129715A JP5354664B2 JP 5354664 B2 JP5354664 B2 JP 5354664B2 JP 2009129715 A JP2009129715 A JP 2009129715A JP 2009129715 A JP2009129715 A JP 2009129715A JP 5354664 B2 JP5354664 B2 JP 5354664B2
Authority
JP
Japan
Prior art keywords
data
broadcast
subtitle
broadcast data
caption
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009129715A
Other languages
Japanese (ja)
Other versions
JP2010278790A (en
Inventor
浩二 浦脇
真一 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Casio Mobile Communications Ltd
Original Assignee
NEC Casio Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Casio Mobile Communications Ltd filed Critical NEC Casio Mobile Communications Ltd
Priority to JP2009129715A priority Critical patent/JP5354664B2/en
Publication of JP2010278790A publication Critical patent/JP2010278790A/en
Application granted granted Critical
Publication of JP5354664B2 publication Critical patent/JP5354664B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To determine either 1-segment broadcast or 12-segment broadcast and to switch both broadcasts without uncomfortable feeling for simulcast. <P>SOLUTION: Caption data of 1-segment broadcast and 12-segment broadcast are received to search for caption PES (Packetized Elementary Stream) data with identical caption data. When the identical caption data is found, the simulcast is recognized to analyze a time difference of presentation timing of each broadcast data by comparing presentation information of each caption PES data and PTS (Presentation Time Stamp). A broadcast switching control part 404 monitors a broadcast reception level to determine a broadcast switching of 1-segment broadcast and 12-segment broadcast and outputs it as switched data to a broadcast switching part 412. A timing control part 405 receives information on a broadcast timing difference of the 1-segment broadcast and 12-segment broadcast analyzed by the broadcast switching control part 404, and controls the start timing of decoding the PES data stored in a buffer to correct the time difference. <P>COPYRIGHT: (C)2011,JPO&amp;INPIT

Description

本発明は、複数種類の受信サービスを切り換えて使用することができるデジタル放送受信機等のデジタルデータ受信機、及び、プログラムに関する。   The present invention relates to a digital data receiver such as a digital broadcast receiver capable of switching and using a plurality of types of reception services, and a program.

日本の地上デジタル放送では、1つのチャンネルを13個のセグメントに分割して伝送している。13セグメントのうち、中心の1セグメントを使用した放送が「1セグ放送」、その他、12セグメントを使用した放送が「12セグ放送」と呼ばれており、日本の地上デジタル放送ではこれらの放送が運用されている。1セグ放送と12セグ放送の2種類の放送で、同一内容の番組の放送(以下、サイマル放送と称す)を実施する場合と、各放送で異なる番組の放送を実施する場合と、がある。   In Japanese terrestrial digital broadcasting, one channel is divided into 13 segments for transmission. Among the 13 segments, broadcasting using one central segment is called “1 segment broadcasting”, and broadcasting using 12 segments is called “12 segment broadcasting”. It is in operation. There are two types of broadcasting, 1-segment broadcasting and 12-segment broadcasting, in which broadcasting of programs with the same content (hereinafter referred to as simulcasting) is performed and in broadcasting of different programs in each broadcasting.

1セグ放送は、高品質なデータの伝送はできないが受信安定性が高く、例えば、移動体端末向けの放送として利用されている。一方、12セグ放送は、高品質なデータを伝送できるが受信安定性が低いため、例えば、固定端末向けの放送として利用されている。   One-segment broadcasting cannot transmit high-quality data, but has high reception stability, and is used, for example, as a broadcast for mobile terminals. On the other hand, 12-segment broadcasting can transmit high-quality data but has low reception stability, and is therefore used, for example, as a broadcast for fixed terminals.

1セグ放送と12セグ放送とでは、それぞれの信号階層毎に異なる符号化処理が施された上で、放送毎に多重化されアンテナから送信されるため、放送間で数ミリ秒から数秒程度の放送信号の放送タイミング差が発生する。そのため、1セグ放送と12セグ放送とで同じ内容の番組を提供するサイマル放送の同じシーンであっても、1セグ放送と12セグ放送とでは数ミリ秒から数秒程度の視聴するタイミングに時間差が生じることになる。   In 1-segment broadcasting and 12-segment broadcasting, different signal layers are subjected to different encoding processes, and are multiplexed for each broadcast and transmitted from an antenna. A broadcast timing difference of the broadcast signal occurs. Therefore, even in the same scene of the simulcast that provides the same content program in the 1-segment broadcast and the 12-segment broadcast, there is a time difference between the viewing timing of several milliseconds to several seconds in the 1-segment broadcast and the 12-segment broadcast. Will occur.

1セグ放送と12セグ放送の各放送間に生じる数ミリ秒から数秒程度の放送信号の時間差(以下、放送タイミング差と称す)を抑制し、相互に放送を切り換えながら視聴する(以下、切換視聴と称す)ことが可能なデジタル放送受信機が提案されている(例えば、特許文献1参照)。   The time difference between broadcast signals of several milliseconds to several seconds (hereinafter referred to as “broadcast timing difference”) generated between each broadcast of 1-segment broadcast and 12-segment broadcast is suppressed and viewed while switching between broadcasts (hereinafter switched viewing) Digital broadcast receivers that can be referred to) have been proposed (see, for example, Patent Document 1).

特許文献1に記載のデジタル放送受信機では、相互に放送を切り換える際に、1セグ放送と12セグ放送のそれぞれ映像シーンが切り換わる時刻を測定する。また、測定した各時刻を比較することで放送タイミング差を解析する。そして、1セグ放送、もしくは、12セグ放送のうち、放送タイミングが早い方に視聴を切り換えるときに放送タイミング差に相当する時間遅らせることで、映像のずれを抑制した切換視聴を行う。   The digital broadcast receiver described in Patent Document 1 measures the time at which video scenes of 1-segment broadcast and 12-segment broadcast are switched when switching between broadcasts. Also, the broadcast timing difference is analyzed by comparing the measured times. Then, when viewing is switched to the earlier broadcasting timing of 1-segment broadcasting or 12-segment broadcasting, the switching viewing is performed while delaying the time corresponding to the difference in broadcasting timing, thereby suppressing the shift of the video.

また、1セグ放送と12セグ放送とが同一の番組であるかを判定することで、各放送の番組が同一であるか(サイマル放送であるか)否かを調べるサイマル放送の判定(以下、サイマル判定と称す)について、実現方法が提案されている(例えば、特許文献2参照)。   In addition, by determining whether the 1-segment broadcast and the 12-segment broadcast are the same program, it is determined whether or not the programs of each broadcast are the same (simultaneous broadcast). An implementation method has been proposed (referred to as Patent Document 2).

特許文献2に記載のサイマル判定では、1セグ放送と12セグ放送との音声データを比較し、その相関性を解析する。そして、相関が高い場合はサイマル放送であると判定し、相関が低い場合は非サイマル放送であると判定する。   In the simulcast determination described in Patent Document 2, the audio data of 1-segment broadcasting and 12-segment broadcasting are compared and their correlation is analyzed. When the correlation is high, it is determined that the broadcast is simultaneous, and when the correlation is low, it is determined that the broadcast is non-simultaneous.

特開2008−92100号公報JP 2008-92100 A 特開2007−295470号公報JP 2007-295470 A

1セグ放送と12セグ放送との放送タイミング差を抑えながらサイマル放送をシームレスに切り換えるため、前記特許文献1と特許文献2とにおいては、映像データや音声データを比較することにより放送タイミング差の解析を行っていた。1セグ放送、または、12セグ放送で放送されるデータは主に映像や音声であるため、これらのデータを受信しているときに放送タイミング差を解析することができる。   In order to seamlessly switch the simulcast while suppressing the broadcast timing difference between the 1-segment broadcast and the 12-segment broadcast, the Patent Document 1 and Patent Document 2 analyze the broadcast timing difference by comparing video data and audio data. Had gone. Since the data broadcast in the 1-segment broadcast or the 12-segment broadcast is mainly video and audio, the broadcast timing difference can be analyzed while receiving these data.

しかしながら、1セグ放送と12セグ放送との各放送データの中から、同じシーンの映像データや音声データを探索する場合、映像では、解像度やコントラストの比較演算を行う。一方、音声では、音程やテンポなどの比較演算が必要となる。これらの比較演算は機器動作上の大きな負荷を要することが懸念される。   However, when searching for video data and audio data of the same scene from the broadcast data of 1-segment broadcasting and 12-segment broadcasting, the video is subjected to a comparison operation of resolution and contrast. On the other hand, for voice, comparison operations such as pitch and tempo are required. There is a concern that these comparison operations require a large load on device operation.

本発明は、上記実情を鑑みてなされたもので、1セグ放送と12セグ放送とのサイマル放送か否かを好適に判別し、かつ、サイマル放送である場合には、1セグ放送と12セグ放送とのずれを低減した切換が可能なデジタルデータ受信機、及び、プログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and preferably determines whether or not a 1-segment broadcast and a 12-segment broadcast are simultaneous broadcasts. An object of the present invention is to provide a digital data receiver and a program that can be switched with reduced deviation from broadcasting.

上記目的を達成するため、本発明のデジタルデータ受信機は、
放送波から第1の放送データと第2の放送データとを受信する放送受信手段と、
前記放送受信手段が受信した前記第1の放送データ及び前記第2の放送データから、それぞれの放送データに対応する字幕データを抽出する字幕データ抽出手段と、
前記字幕データ抽出手段が抽出した前記第1の放送データに対応する第1の字幕データと、前記第2の放送データに対応する第2の字幕データと、を比較することにより、前記第1の放送データと前記第2の放送データとの時間差を測定する字幕データ解析手段と、
を備え
前記字幕データ解析手段は、
前記第1の字幕データと前記第2の字幕データとに含まれるテキストデータを用いて同一のシーンを検索し、検索したシーンの各字幕データを提示する時刻を比較することにより、前記第1の放送データと前記第2の放送データとの時間差を測定し、
前記第1の字幕データと前記第2の字幕データとに含まれるテキストデータにおいて、同じ文字を含む割合を算出することで同一のシーンであるか否かを判別する
とを特徴とする。
To achieve the above object, digital data receiver of the present invention,
Broadcast receiving means for receiving first broadcast data and second broadcast data from a broadcast wave;
Caption data extraction means for extracting caption data corresponding to each broadcast data from the first broadcast data and the second broadcast data received by the broadcast receiving means;
By comparing the first subtitle data corresponding to the first broadcast data extracted by the subtitle data extracting means and the second subtitle data corresponding to the second broadcast data, the first subtitle data is extracted. Subtitle data analysis means for measuring a time difference between broadcast data and the second broadcast data;
Equipped with a,
The caption data analysis means includes
By searching for the same scene using text data included in the first subtitle data and the second subtitle data, and comparing the time when each subtitle data of the searched scene is presented, Measuring the time difference between the broadcast data and the second broadcast data;
In the text data included in the first subtitle data and the second subtitle data, it is determined whether or not they are the same scene by calculating a ratio including the same characters.
And wherein a call.

また、本発明のデジタルデータ受信機は、
放送波から第1の放送データと第2の放送データとを受信する放送受信手段と、
前記放送受信手段が受信した前記第1の放送データ及び前記第2の放送データから、それぞれの放送データに対応する字幕データを抽出する字幕データ抽出手段と、
前記字幕データ抽出手段が抽出した前記第1の放送データに対応する第1の字幕データと、前記第2の放送データに対応する第2の字幕データと、を比較することにより、前記第1の放送データと前記第2の放送データとの時間差を測定する字幕データ解析手段と、
を備え、
前記字幕データ解析手段は、前記第1の字幕データを提示する時間間隔のパターンと、前記第2の字幕データを提示する時間間隔のパターンと、が互いに類似している類似パターン部分を検索し、当該類似パターン部分の時間差を算出することにより、前記第1の放送データと前記第2の放送データとの時間差を測定する
The digital data receiver of the present invention is
Broadcast receiving means for receiving first broadcast data and second broadcast data from a broadcast wave;
Caption data extraction means for extracting caption data corresponding to each broadcast data from the first broadcast data and the second broadcast data received by the broadcast receiving means;
By comparing the first subtitle data corresponding to the first broadcast data extracted by the subtitle data extracting means and the second subtitle data corresponding to the second broadcast data, the first subtitle data is extracted. Subtitle data analysis means for measuring a time difference between broadcast data and the second broadcast data;
With
The subtitle data analyzing means searches for a similar pattern portion in which a time interval pattern for presenting the first subtitle data and a time interval pattern for presenting the second subtitle data are similar to each other, By calculating the time difference between the similar pattern portions, the time difference between the first broadcast data and the second broadcast data is measured .

また、本発明のデジタルデータ受信機は、
放送波から第1の放送データと第2の放送データとを受信する放送受信手段と、
前記放送受信手段が受信した前記第1の放送データ及び前記第2の放送データから、それぞれの放送データに対応する字幕データを抽出する字幕データ抽出手段と、
前記字幕データ抽出手段が抽出した前記第1の放送データに対応する第1の字幕データと、前記第2の放送データに対応する第2の字幕データと、を比較することにより、前記第1の放送データと前記第2の放送データとの時間差を測定する字幕データ解析手段と、
を備え、
前記字幕データ解析手段は、前記放送受信手段が受信する番組が変わったときに前記第1の放送データと前記第2の放送データとの時間差を測定する
The digital data receiver of the present invention is
Broadcast receiving means for receiving first broadcast data and second broadcast data from a broadcast wave;
Caption data extraction means for extracting caption data corresponding to each broadcast data from the first broadcast data and the second broadcast data received by the broadcast receiving means;
By comparing the first subtitle data corresponding to the first broadcast data extracted by the subtitle data extracting means and the second subtitle data corresponding to the second broadcast data, the first subtitle data is extracted. Subtitle data analysis means for measuring a time difference between broadcast data and the second broadcast data;
With
The subtitle data analyzing means measures a time difference between the first broadcast data and the second broadcast data when a program received by the broadcast receiving means changes .

前記第1の放送データをデコードする第1のデコード手段と、
前記第2の放送データをデコードする第2のデコード手段と、
前記各々の放送データのデコード開始のタイミングを制御するタイミング制御手段と、
前記第1の放送データと前記第2の放送データとがサイマル放送の放送データであるか否かを判別するサイマル放送判別手段と、をさらに備え、
前記タイミング制御手段は、前記第1の放送データと前記第2の放送データとが前記サイマル放送の放送データであると判別された場合、前記字幕データ解析手段が測定した前記第1の放送データと前記第2の放送データとの時間差に基づいて前記各々の放送データのデコード開始タイミングを制御するようにしてもよい。
First decoding means for decoding the first broadcast data;
Second decoding means for decoding the second broadcast data;
Timing control means for controlling the timing of starting decoding of each of the broadcast data;
A simulcast broadcast discriminating means for discriminating whether or not the first broadcast data and the second broadcast data are simulcast broadcast data;
The timing control means, when it is determined that the first broadcast data and the second broadcast data are the broadcast data of the simulcast, the first broadcast data measured by the caption data analysis means You may make it control the decoding start timing of each said broadcast data based on the time difference with said 2nd broadcast data.

前記タイミング制御手段は、前記第1の放送データと前記第2の放送データとのうち、受信タイミングが早い方の放送データを前記時間差に相当するデータ量をバッファに蓄積してデコード開始のタイミングを遅らせるようにしてもよい。   The timing control means accumulates the data amount corresponding to the time difference in the buffer for the broadcast data with the earlier reception timing out of the first broadcast data and the second broadcast data, and sets the decoding start timing. It may be delayed.

前記サイマル放送判別手段は、前記字幕データ抽出手段が抽出した前記第1の放送データに対応する第1の字幕データと、前記第2の放送データに対応する第2の字幕データと、を比較することにより、サイマル放送の放送データであるか否かを判別するようにしてもよい。   The simulcast discrimination unit compares the first subtitle data corresponding to the first broadcast data extracted by the subtitle data extraction unit and the second subtitle data corresponding to the second broadcast data. Thus, it may be determined whether or not the data is simulcast broadcast data.

また、本発明のデジタルデータ受信機は、
放送波から第1の放送データと第2の放送データとを受信する放送受信手段と、
前記放送受信手段が受信した前記第1の放送データ及び前記第2の放送データから、それぞれの放送データに対応する字幕データを抽出する字幕データ抽出手段と、
前記字幕データ抽出手段が抽出した前記第1の放送データに対応する第1の字幕データと、前記第2の放送データに対応する第2の字幕データと、を比較することにより、前記第1の放送データと前記第2の放送データとの時間差を測定する字幕データ解析手段と、
前記字幕データ抽出手段により前記字幕データを抽出できないときに、前記第1の放送データ及び前記第2の放送データに含まれる映像データまたは音声データに基づいて、前記第1の放送データと前記第2の放送データとの時間差を測定する時間差測定手段と、
を備える。
The digital data receiver of the present invention is
Broadcast receiving means for receiving first broadcast data and second broadcast data from a broadcast wave;
Caption data extraction means for extracting caption data corresponding to each broadcast data from the first broadcast data and the second broadcast data received by the broadcast receiving means;
By comparing the first subtitle data corresponding to the first broadcast data extracted by the subtitle data extracting means and the second subtitle data corresponding to the second broadcast data, the first subtitle data is extracted. Subtitle data analysis means for measuring a time difference between broadcast data and the second broadcast data;
When the caption data cannot be extracted by the caption data extraction means, the first broadcast data and the second broadcast data are based on video data or audio data included in the first broadcast data and the second broadcast data. a time difference measuring means for measuring a time difference between the broadcast data,
Is provided.

本発明のプログラムは、コンピュータを、
放送波から第1の放送データと第2の放送データとを受信する放送受信手段、
前記放送受信手段が受信した前記第1の放送データ及び前記第2の放送データから、それぞれの放送データに対応する字幕データを抽出する字幕データ抽出手段、
前記字幕データ抽出手段が抽出した前記第1の放送データに対応する第1の字幕データと、前記第2の放送データに対応する第2の字幕データと、を比較することにより、前記第1の放送データと前記第2の放送データとの時間差を測定する字幕データ解析手段、
として機能させ
前記字幕データ解析手段は、
前記第1の字幕データと前記第2の字幕データとに含まれるテキストデータを用いて同一のシーンを検索し、検索したシーンの各字幕データを提示する時刻を比較することにより、前記第1の放送データと前記第2の放送データとの時間差を測定し、
前記第1の字幕データと前記第2の字幕データとに含まれるテキストデータにおいて、同じ文字を含む割合を算出することで同一のシーンであるか否かを判別する
とを特徴とする。
また、本発明のプログラムは、コンピュータを、
放送波から第1の放送データと第2の放送データとを受信する放送受信手段、
前記放送受信手段が受信した前記第1の放送データ及び前記第2の放送データから、それぞれの放送データに対応する字幕データを抽出する字幕データ抽出手段、
前記字幕データ抽出手段が抽出した前記第1の放送データに対応する第1の字幕データと、前記第2の放送データに対応する第2の字幕データと、を比較することにより、前記第1の放送データと前記第2の放送データとの時間差を測定する字幕データ解析手段、
として機能させ、
前記字幕データ解析手段は、前記第1の字幕データを提示する時間間隔のパターンと、前記第2の字幕データを提示する時間間隔のパターンと、が互いに類似している類似パターン部分を検索し、当該類似パターン部分の時間差を算出することにより、前記第1の放送データと前記第2の放送データとの時間差を測定する
ことを特徴とする。
また、本発明のプログラムは、コンピュータを、
放送波から第1の放送データと第2の放送データとを受信する放送受信手段、
前記放送受信手段が受信した前記第1の放送データ及び前記第2の放送データから、それぞれの放送データに対応する字幕データを抽出する字幕データ抽出手段、
前記字幕データ抽出手段が抽出した前記第1の放送データに対応する第1の字幕データと、前記第2の放送データに対応する第2の字幕データと、を比較することにより、前記第1の放送データと前記第2の放送データとの時間差を測定する字幕データ解析手段、
として機能させ、
前記字幕データ解析手段は、前記放送受信手段が受信する番組が変わったときに前記第1の放送データと前記第2の放送データとの時間差を測定する
ことを特徴とする。
また、本発明のプログラムは、コンピュータを、
放送波から第1の放送データと第2の放送データとを受信する放送受信手段、
前記放送受信手段が受信した前記第1の放送データ及び前記第2の放送データから、それぞれの放送データに対応する字幕データを抽出する字幕データ抽出手段、
前記字幕データ抽出手段が抽出した前記第1の放送データに対応する第1の字幕データと、前記第2の放送データに対応する第2の字幕データと、を比較することにより、前記第1の放送データと前記第2の放送データとの時間差を測定する字幕データ解析手段、
前記字幕データ抽出手段により前記字幕データを抽出できないときに、前記第1の放送データ及び前記第2の放送データに含まれる映像データまたは音声データに基づいて、前記第1の放送データと前記第2の放送データとの時間差を測定する時間差測定手段、
として機能させることを特徴とする。
Program of the present invention, a computer,
Broadcast receiving means for receiving first broadcast data and second broadcast data from a broadcast wave;
Caption data extraction means for extracting caption data corresponding to each broadcast data from the first broadcast data and the second broadcast data received by the broadcast receiving means;
By comparing the first subtitle data corresponding to the first broadcast data extracted by the subtitle data extracting means and the second subtitle data corresponding to the second broadcast data, the first subtitle data is extracted. Subtitle data analysis means for measuring a time difference between broadcast data and the second broadcast data;
To function as,
The caption data analysis means includes
By searching for the same scene using text data included in the first subtitle data and the second subtitle data, and comparing the time when each subtitle data of the searched scene is presented, Measuring the time difference between the broadcast data and the second broadcast data;
In the text data included in the first subtitle data and the second subtitle data, it is determined whether or not they are the same scene by calculating a ratio including the same characters.
And wherein a call.
The program of the present invention is a computer,
Broadcast receiving means for receiving first broadcast data and second broadcast data from a broadcast wave;
Caption data extraction means for extracting caption data corresponding to each broadcast data from the first broadcast data and the second broadcast data received by the broadcast receiving means;
By comparing the first subtitle data corresponding to the first broadcast data extracted by the subtitle data extracting means and the second subtitle data corresponding to the second broadcast data, the first subtitle data is extracted. Subtitle data analysis means for measuring a time difference between broadcast data and the second broadcast data;
Function as
The subtitle data analyzing means searches for a similar pattern portion in which a time interval pattern for presenting the first subtitle data and a time interval pattern for presenting the second subtitle data are similar to each other, The time difference between the first broadcast data and the second broadcast data is measured by calculating the time difference between the similar pattern portions.
It is characterized by that.
The program of the present invention is a computer,
Broadcast receiving means for receiving first broadcast data and second broadcast data from a broadcast wave;
Caption data extraction means for extracting caption data corresponding to each broadcast data from the first broadcast data and the second broadcast data received by the broadcast receiving means;
By comparing the first subtitle data corresponding to the first broadcast data extracted by the subtitle data extracting means and the second subtitle data corresponding to the second broadcast data, the first subtitle data is extracted. Subtitle data analysis means for measuring a time difference between broadcast data and the second broadcast data;
Function as
The caption data analyzing means measures a time difference between the first broadcast data and the second broadcast data when a program received by the broadcast receiving means changes.
It is characterized by that.
The program of the present invention is a computer,
Broadcast receiving means for receiving first broadcast data and second broadcast data from a broadcast wave;
Caption data extraction means for extracting caption data corresponding to each broadcast data from the first broadcast data and the second broadcast data received by the broadcast receiving means;
By comparing the first subtitle data corresponding to the first broadcast data extracted by the subtitle data extracting means and the second subtitle data corresponding to the second broadcast data, the first subtitle data is extracted. Subtitle data analysis means for measuring a time difference between broadcast data and the second broadcast data;
When the caption data cannot be extracted by the caption data extraction means, the first broadcast data and the second broadcast data are based on video data or audio data included in the first broadcast data and the second broadcast data. Time difference measuring means for measuring the time difference from the broadcast data of
It is made to function as.

本発明によれば、1セグ放送と12セグ放送との放送タイミングの時間差を抑制したスムーズな切換視聴を実現することができる。また、機器動作の負荷を軽減し、消費電力を抑えて切換視聴をすることができる。   ADVANTAGE OF THE INVENTION According to this invention, the smooth switching viewing which suppressed the time difference of the broadcast timing of 1 segment broadcast and 12 segment broadcast is realizable. In addition, switching viewing can be performed while reducing the load of device operation and suppressing power consumption.

映像、音声、字幕などの放送データを作成する送信機のシステムの概要を示す図である。It is a figure which shows the outline | summary of the system of the transmitter which produces broadcast data, such as an image | video, an audio | voice, and a caption. 放送データの構造を説明する概略図である。It is the schematic explaining the structure of broadcast data. TSデータを受信して映像、音声、字幕を同期再生する受信機のシステム概要を示す図である。It is a figure which shows the system outline | summary of the receiver which receives TS data and reproduces | regenerates a video, an audio | voice, and a subtitle synchronously. 実施形態1の放送受信機の機能ブロック図である。2 is a functional block diagram of a broadcast receiver according to Embodiment 1. FIG. タイミング制御部の機能ブロック図である。It is a functional block diagram of a timing control part. 放送切換制御部の機能ブロック図である。It is a functional block diagram of a broadcast switching control unit. 放送タイミング差解析処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a broadcast timing difference analysis process. 放送切換処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a broadcast switching process. 放送切換部の動作例として、放送受信機が1セグ放送を受信している状態から、12セグ放送に放送を切り換えるまでの流れを示すフローチャートである。It is a flowchart which shows the flow from the state in which the broadcast receiver is receiving 1 segment broadcast as an example of operation | movement of a broadcast switching part to switching broadcast to 12 segment broadcast. タイミング制御部のバッファからデコード部へのデータの流れを示す図である。It is a figure which shows the flow of the data from the buffer of a timing control part to a decoding part. 実施形態2の放送受信機の機能ブロック図である。It is a functional block diagram of the broadcast receiver of Embodiment 2. 放送切換制御部のブロック図である。It is a block diagram of a broadcast switching control unit. 12セグ放送と1セグ放送の字幕PESデータを同じ時間分保存し、PTSが示す時間情報に沿って時刻上にマッピングしたタイミングチャートである。12 is a timing chart in which subtitle PES data of 12-segment broadcasting and 1-segment broadcasting is stored for the same time and mapped on time according to time information indicated by PTS. 図13に示した字幕PTSのマッピングデータを用いてPTSのパターンマッチングを行うタイミング差解析処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the timing difference analysis process which performs PTS pattern matching using the mapping data of subtitles PTS shown in FIG.

以下、本発明における放送受信機について、図面を用いて説明する。まずは、放送規格において一般的に実用化されている、映像、音声、字幕などの放送データを受信機で同期再生させる仕組みについて、図1から図3を用いて以下に説明する。   Hereinafter, a broadcast receiver according to the present invention will be described with reference to the drawings. First, a mechanism for synchronously reproducing broadcast data such as video, audio, and subtitles that is generally put into practical use in the broadcast standard with a receiver will be described below with reference to FIGS. 1 to 3.

図1は、映像、音声、字幕などの放送データを作成する送信機10のシステムの概要を示している。そして、図2は、送信機10が送信する放送データの構造の概要を示している。   FIG. 1 shows an overview of a system of a transmitter 10 that creates broadcast data such as video, audio, and captions. FIG. 2 shows an outline of the structure of broadcast data transmitted by the transmitter 10.

図1に示すように、送信機10は、映像エンコード部1、音声エンコード部2、字幕エンコード部3、TSエンコード部4、STC(System Time Clock)5、を備える。   As shown in FIG. 1, the transmitter 10 includes a video encoding unit 1, an audio encoding unit 2, a subtitle encoding unit 3, a TS encoding unit 4, and an STC (System Time Clock) 5.

送信機10が放送データを送信するとき、まず、放送に対応する映像、音声、字幕の各データをそれぞれ映像エンコード部1、音声エンコード部2、字幕エンコード部3でエンコードし、PES(Packetized Elementary Stream)データ21を作成する。各エンコード部1〜3では、PESデータ21を作成する際に、PTS(Presentation Time Stamp)22という映像、音声、字幕データの再生時刻を示す時間情報をPESヘッダ23に記述する。そして、PESヘッダ23とPESデータ21をPESパケット24という一つの可変長パケットにまとめる(図2参照)。   When the transmitter 10 transmits broadcast data, first, video, audio, and subtitle data corresponding to the broadcast are encoded by the video encoding unit 1, the audio encoding unit 2, and the subtitle encoding unit 3, respectively, and then the PES (Packetized Elementary Stream). ) Data 21 is created. In each of the encoding units 1 to 3, when creating the PES data 21, time information indicating the reproduction time of video, audio, and subtitle data called PTS (Presentation Time Stamp) 22 is described in the PES header 23. Then, the PES header 23 and the PES data 21 are combined into one variable-length packet called a PES packet 24 (see FIG. 2).

PTS22は、各エンコード部1〜3がエンコードを行う際に、STC5から送信機10自らの動作上の基準時刻情報を取得し、その基準時刻に基づいて作成される。同じPTS22が記述されている映像、音声、字幕の各PESデータ21は、同一のシーンのデータに該当する。   The PTS 22 acquires reference time information on the operation of the transmitter 10 itself from the STC 5 when the encoding units 1 to 3 perform encoding, and is created based on the reference time. The video, audio, and caption PES data 21 in which the same PTS 22 is described corresponds to the same scene data.

最後に、TSエンコーダ部4が、PESパケット24をTS(Transport Stream)データ25に多重化した形で放送データとして送信する。   Finally, the TS encoder unit 4 transmits the PES packet 24 as broadcast data in a form multiplexed with TS (Transport Stream) data 25.

TSデータ25を作成する際には、TSデータ25のヘッダ部分であるTSヘッダ26にPCR(Program Clock Reference)27という送信側の時計のリファレンス値を含め多重化する(図2参照)。このようにすることより、TSデータ25を受けた受信機側では、PCR27を参照し、自らのSTCと送信機側のSTCとを同期させることができる。   When creating the TS data 25, the TS header 26, which is the header portion of the TS data 25, is multiplexed including a reference value of a clock on the transmitting side called a PCR (Program Clock Reference) 27 (see FIG. 2). In this way, the receiver that receives the TS data 25 can synchronize its own STC with the STC on the transmitter side with reference to the PCR 27.

次に、放送データを受ける受信機側の動作について説明する。図3は、TSデータ25を受信して映像、音声、字幕を同期再生する一般的な受信機30のシステム概要を示している。受信機30は、受信部301、TSデコード部302、タイミング制御部307、映像デコード部308、音声デコード部309、字幕デコード部310、STC311、を備える。タイミング制御部307は、バッファ制御部303、映像バッファ304、音声バッファ305、字幕バッファ306、を備える。   Next, the operation on the receiver side that receives broadcast data will be described. FIG. 3 shows a system overview of a general receiver 30 that receives TS data 25 and synchronously reproduces video, audio, and subtitles. The receiver 30 includes a receiving unit 301, a TS decoding unit 302, a timing control unit 307, a video decoding unit 308, an audio decoding unit 309, a caption decoding unit 310, and an STC 311. The timing control unit 307 includes a buffer control unit 303, a video buffer 304, an audio buffer 305, and a caption buffer 306.

受信部301は、アンテナを介して受信した放送信号をTSデータ25に復調し、TSデコード部302に出力する。TSデコード部302は、受信したTSデータ25を多重分離し、動画、音声、字幕の各PESデータ21をそれぞれ映像バッファ304、音声バッファ305、字幕バッファ306に一時的に保存する。さらに、TSデコード部302は、受信したTSデータ25からPCR27を分離して、それを用いて受信機30側の基準クロックであるSTC311を送信機10側のSTC5に同期させる。各PESデータ21には、先述のとおり再生時刻を示すPTS22がヘッダに含まれている。   The receiving unit 301 demodulates the broadcast signal received via the antenna into the TS data 25 and outputs it to the TS decoding unit 302. The TS decoding unit 302 demultiplexes the received TS data 25 and temporarily stores the video, audio, and subtitle PES data 21 in the video buffer 304, audio buffer 305, and subtitle buffer 306, respectively. Further, the TS decoding unit 302 separates the PCR 27 from the received TS data 25 and uses it to synchronize the STC 311 that is the reference clock on the receiver 30 side with the STC 5 on the transmitter 10 side. Each PES data 21 includes the PTS 22 indicating the reproduction time in the header as described above.

バッファ制御部303は、各バッファ304〜306から各デコード部308〜310に各PESデータ21を送るタイミングを制御する。バッファ制御部303は、STC311の時刻情報がPTS22のタイミングになると、各バッファ304〜306から各デコード部308〜310に各PESデータ21を送り、各デコード部308〜310では、映像、音声、字幕のシーンを同期させてデコードを行う。最後に、デコードを行った映像、音声、字幕の各データを、モニタやスピーカーなどの出力機器に表示、再生することで、ユーザが視聴できるようになる。   The buffer control unit 303 controls the timing of sending each PES data 21 from each buffer 304 to 306 to each decoding unit 308 to 310. When the time information of the STC 311 comes to the timing of the PTS 22, the buffer control unit 303 sends the PES data 21 from the buffers 304 to 306 to the decoding units 308 to 310, and the decoding units 308 to 310 transmit video, audio, and subtitles. The scene is synchronized and decoded. Finally, the decoded video, audio, and subtitle data is displayed and reproduced on an output device such as a monitor or a speaker, so that the user can view the data.

PESパケット24には、提示情報であるPTS22に加え、デコード開始時刻を示すDTS(Decoding Time Stamp)が含まれている場合がある。DTSがPESデータ21に記述されている場合は、その時刻とSTC311を参照してデコード開始のタイミングを決めることもできる。   The PES packet 24 may include a DTS (Decoding Time Stamp) indicating a decoding start time in addition to the PTS 22 that is presentation information. When the DTS is described in the PES data 21, the decoding start timing can be determined with reference to the time and the STC 311.

受信機30側では、映像や音声などのデータ量の変動により、データごとのバッファへ一時保存する際、また、バッファからデータの読み出しを行う際にそれぞれ遅延が発生する。これらの遅延を補うために、各データがバッファに一時保存されてから、バッファから読み出しされるまでに発生する遅延時間のうち、最も大きな遅延時間を共通の遅延時間(以下、共通遅延時間と称す)を設ける。そして、PTS22やDTSの時刻から、更に共通遅延時間の分遅くしたタイミングでデコードを行うことで、動画、音声、字幕などのデータをそれぞれ同じように遅延させながら再生を行うことができる。   On the receiver 30 side, due to fluctuations in the amount of data such as video and audio, a delay occurs when temporarily storing data in a buffer and when reading data from the buffer. In order to compensate for these delays, the largest delay time from the time each data is temporarily stored in the buffer to the time the data is read out is referred to as the common delay time (hereinafter referred to as the common delay time). ). Then, decoding is performed at a timing further delayed by the common delay time from the time of the PTS 22 and the DTS, so that reproduction of data such as moving images, audio, and subtitles can be performed with the same delay.

送信側のSTC5は、放送局ごとに設定されているため、放送局ごとに放送時刻が異なる場合がある。また、同じ放送局でも、1セグ放送と12セグ放送とでサイマル放送を行う場合には、1セグ放送と12セグ放送の各データを作成する際に、異なる送信機が使用される。これにより、各々の放送でSTC5も異なる時刻となり、放送タイミング差が生じることがある。   Since the STC 5 on the transmission side is set for each broadcasting station, the broadcasting time may be different for each broadcasting station. Further, even when the same broadcasting station performs simultaneous broadcasting with 1-segment broadcasting and 12-segment broadcasting, different transmitters are used when creating data for 1-segment broadcasting and 12-segment broadcasting. Thereby, STC5 also becomes different time by each broadcast, and a broadcast timing difference may arise.

(実施形態1)
続いて、本発明の実施形態1における放送受信機について図4〜図10を参照しながら説明する。図4は、本発明における放送受信機40の概要を示すブロック図である。放送受信機40は、受信部401、1セグ用TSデコード部402、12セグ用TSデコード部403、放送切換制御部404、タイミング制御部405、1セグ用映像デコード部406、1セグ用音声デコード部407、1セグ用字幕デコード部408、12セグ用映像デコード部409、12セグ用音声デコード部410、12セグ用字幕デコード部411、放送切換部412、モニタ413、を備える。
(Embodiment 1)
Next, the broadcast receiver in Embodiment 1 of the present invention will be described with reference to FIGS. FIG. 4 is a block diagram showing an outline of the broadcast receiver 40 in the present invention. The broadcast receiver 40 includes a receiving unit 401, a 1-segment TS decoding unit 402, a 12-segment TS decoding unit 403, a broadcast switching control unit 404, a timing control unit 405, a 1-segment video decoding unit 406, and a 1-segment audio decoding. 407, a 1-segment subtitle decoding section 408, a 12-segment video decoding section 409, a 12-segment audio decoding section 410, a 12-segment subtitle decoding section 411, a broadcast switching section 412, and a monitor 413.

受信部401は、アンテナを介して受信した放送信号をTSデータに復調する。そして、受信部401は、1セグ放送のTSデータを1セグ用TSデコード部402に出力する。また、受信部401は、12セグ放送のTSデータを12セグ用TSデコード部403に出力する。受信部401は、放送データの受信レベルを示すCNR(Carrier to Noise Ratio)、BER(Bit Error Rate)といった放送受信レベル情報を放送切換制御部404に出力する。   The receiving unit 401 demodulates the broadcast signal received via the antenna into TS data. Then, receiving section 401 outputs 1-segment broadcasting TS data to 1-segment TS decoding section 402. The receiving unit 401 outputs 12-segment broadcasting TS data to the 12-segment TS decoding unit 403. The reception unit 401 outputs broadcast reception level information such as CNR (Carrier to Noise Ratio) and BER (Bit Error Rate) indicating the reception level of broadcast data to the broadcast switching control unit 404.

1セグ用TSデコード部402は、1セグ放送のTSデータを多重分離し、動画、音声、字幕のPESデータをタイミング制御部405に出力する。同様に、12セグ用TSデコード部403は、12セグ放送のTSデータを多重分離し、タイミング制御部405に各PESデータを出力する。   The 1-segment TS decoding unit 402 demultiplexes 1-segment broadcast TS data, and outputs PES data of moving images, audio, and captions to the timing control unit 405. Similarly, the 12-segment TS decoding unit 403 demultiplexes the 12-segment broadcasting TS data and outputs each PES data to the timing control unit 405.

放送切換制御部404は、受信部401から受け取った放送受信レベル情報を監視して、1セグ放送と12セグ放送とのうち、再生する放送を選択する。そして、放送切換制御部404は、選択した放送の情報を切換情報として放送切換部412に出力する。また、放送切換制御部404は、前述の1セグ放送と12セグ放送の放送タイミング差を解析する。   The broadcast switching control unit 404 monitors broadcast reception level information received from the reception unit 401 and selects a broadcast to be reproduced from the 1-segment broadcast and the 12-segment broadcast. Then, the broadcast switching control unit 404 outputs the selected broadcast information to the broadcast switching unit 412 as switching information. Also, the broadcast switching control unit 404 analyzes the broadcast timing difference between the 1-segment broadcast and the 12-segment broadcast described above.

図5を用いて、タイミング制御部405の構成を説明する。タイミング制御部405は、1セグ映像バッファ51、1セグ音声バッファ52、1セグ字幕バッファ53と、12セグ映像バッファ54、12セグ音声バッファ55、12セグ字幕バッファ56、バッファ制御部57、を備える。   The configuration of the timing control unit 405 will be described with reference to FIG. The timing control unit 405 includes a 1-segment video buffer 51, a 1-segment audio buffer 52, a 1-segment subtitle buffer 53, a 12-segment video buffer 54, a 12-segment audio buffer 55, a 12-segment subtitle buffer 56, and a buffer control unit 57. .

タイミング制御部405では、1セグ放送のTSデータを1セグ用TSデコード部402で多重分離して作成された映像、音声、字幕の各PESデータをそれぞれのバッファ51、52、53に蓄積する。   The timing control unit 405 stores the video, audio, and subtitle PES data created by demultiplexing the 1-segment broadcasting TS data by the 1-segment TS decoding unit 402 in the respective buffers 51, 52, and 53.

また、タイミング制御部405では、12セグ放送のTSデータを12セグ用TSデコード部403で多重分離し、その結果作成された12放送の映像、音声、字幕の各PESデータをそれぞれのバッファ54、55、56に蓄積する。バッファ制御部57は、各バッファに蓄積されたPESデータをデコードするために、各バッファ部51〜56からの各デコード部406〜411に対するPESデータの出力タイミングを制御する。   In addition, the timing control unit 405 demultiplexes the 12-segment broadcasting TS data by the 12-segment TS decoding unit 403, and the resulting PES data of the 12 broadcasting video, audio, and subtitles is stored in the respective buffers 54, Accumulate at 55 and 56. The buffer control unit 57 controls the output timing of the PES data from the buffer units 51 to 56 to the decoding units 406 to 41 1 in order to decode the PES data stored in the buffers.

バッファ制御部57は、放送切換制御部404が解析した1セグ放送と12セグ放送との放送タイミング差の情報を受ける。そして、バッファ制御部57は、各放送間を切り換える際に、放送タイミング差を抑えるため、各放送のうち、放送タイミングが早い方のデコード開始タイミングを、放送タイミング差に相当する時間分、PTSが示す本来の時間よりも遅延させる。   The buffer control unit 57 receives information on the broadcast timing difference between the 1-segment broadcast and the 12-segment broadcast analyzed by the broadcast switching control unit 404. Then, when switching between broadcasts, the buffer control unit 57 suppresses the broadcast timing difference among the broadcasts, so that the decoding start timing with the earlier broadcast timing is set to the PTS corresponding to the broadcast timing difference. Delay from the original time shown.

映像、音声、字幕の各デコード部406〜411は、各種PESデータをデコードし、放送切換部412に出力する。   The video, audio, and subtitle decoding units 406 to 411 decode various PES data and output them to the broadcast switching unit 412.

放送切換部412は、各デコード部406〜411からデコードされた映像、音声、字幕などのデータを受けて、モニタ413に対して各データを表示、再生を行う。放送切換部412は、1セグ放送と12セグ放送との間で、表示再生する放送を切り換える機能を備えており、放送切換制御部404で、選択した切換情報を基に、1セグ放送と12セグ放送とを切り換えてモニタ413に出力する。   The broadcast switching unit 412 receives data such as video, audio and subtitles decoded from the decoding units 406 to 411 and displays and reproduces each data on the monitor 413. The broadcast switching unit 412 has a function of switching between broadcasts to be displayed and reproduced between 1-segment broadcasts and 12-segment broadcasts. The broadcast switch control unit 404 selects 1-segment broadcasts and 12-segment broadcasts based on the switching information selected. Switch to segment broadcasting and output to the monitor 413.

モニタ413は、映像表示や音声出力機能を備えており、放送切換部412から映像、音声、字幕などの各種データを受けて、表示再生を行う。   The monitor 413 has a video display and audio output function, receives various data such as video, audio, and subtitles from the broadcast switching unit 412 and performs display reproduction.

放送切換制御部404、バッファ制御部57は、各制御部の機能を実現するためのプログラムを格納するROM(Read Only Memory)や、そのプログラムを実行するCPU(Central Processing Unit)や、CPUのワークエリアとなるRAM(Random Access Memory)などから構成される。   The broadcast switching control unit 404 and the buffer control unit 57 are a ROM (Read Only Memory) that stores a program for realizing the functions of each control unit, a CPU (Central Processing Unit) that executes the program, a CPU work The area is composed of a RAM (Random Access Memory).

放送切換制御部404における放送タイミング差の解析方法について、図6及び図7を用いて説明する。図6は、放送切換制御部404の機能ブロックを示している。放送切換制御部404は、字幕データ解析部61、受信状況解析部62、切換判定部63、を備える。放送タイミング差の解析は、字幕データ解析部61にて行う。   A method for analyzing a broadcast timing difference in the broadcast switching control unit 404 will be described with reference to FIGS. FIG. 6 shows functional blocks of the broadcast switching control unit 404. The broadcast switching control unit 404 includes a caption data analysis unit 61, a reception status analysis unit 62, and a switching determination unit 63. The subtitle data analysis unit 61 analyzes the broadcast timing difference.

図7は、放送受信機40が1セグ放送と12セグ放送の各放送データを受信してから字幕データ解析部61において、放送タイミング差を解析するまでのタイミング差解析処理の動作を示すフローチャートである。字幕データ解析部61は、動作システムの基準時刻である前述のSTCを備えている。しかしながら、送信機側の1セグ放送と12セグ放送のSTCがそれぞれ異なる可能性があるため、まずは、字幕データ解析部61は、1セグ放送と12セグ放送のそれぞれのSTCを比較し、基準時刻のタイミング差(以下、基準時間差と称す)を求める(ステップS701)。   FIG. 7 is a flowchart showing the operation of timing difference analysis processing from when the broadcast receiver 40 receives broadcast data of 1-segment broadcasting and 12-segment broadcasting until the caption data analysis unit 61 analyzes the broadcast timing difference. is there. The caption data analysis unit 61 includes the above-described STC that is the reference time of the operation system. However, since there is a possibility that the STC of the 1-segment broadcasting and the 12-segment broadcasting on the transmitter side are different, first, the caption data analysis unit 61 compares the STCs of the 1-segment broadcasting and the 12-segment broadcasting, and the reference time Timing difference (hereinafter referred to as a reference time difference) is obtained (step S701).

次に、1セグ放送、及び12セグ放送の各PESデータに含まれるPTSを比較することで、各データをデコードしてモニタ413に提示する時刻の差(以下、提示時刻差と称す)を求める。このとき、同じシーンのPESデータに対応したPTSの比較が必要となる。そこで本発明では、映像及び音声データの代わりに字幕のPESデータ(以下、字幕PESデータと称す)を用いる。このようにすることで、映像や音声を用いた方法より、低い処理負荷で同一となるシーンのPESデータの探索を行うことができる。字幕PESデータは、前述のモニタ413への提示時刻を表すPTSに加え、提示する位置、文字の色、文字サイズなどの提示制御情報と、提示する字幕の本文を示すテキストデータ(以下、字幕本文データと称す)で構成される。   Next, by comparing the PTS included in each PES data of the 1-segment broadcasting and the 12-segment broadcasting, a difference in time when each data is decoded and presented to the monitor 413 (hereinafter referred to as a presentation time difference) is obtained. . At this time, it is necessary to compare PTSs corresponding to PES data of the same scene. Therefore, in the present invention, subtitled PES data (hereinafter referred to as subtitle PES data) is used instead of video and audio data. In this way, it is possible to search for PES data of the same scene with a lower processing load than a method using video and audio. The caption PES data includes presentation control information such as a presentation position, character color, and character size, and text data indicating a caption text to be presented (hereinafter referred to as caption text) in addition to the PTS representing the presentation time to the monitor 413 described above. Data).

同一シーンの字幕PESデータを探索する方法を以下に説明する。字幕データ解析部61は、12セグ用字幕デコード部411から、デコードされた特定の1シーンに相当する字幕本文データである字幕本文データC1を取り出す(ステップS702)。次に、字幕データ解析部61は、1セグ用字幕デコード部408から、12セグ放送と同様に、特定の1シーン分に該当するデコード済みの字幕本文データC2を取り出す(ステップS703)。   A method for searching for subtitle PES data of the same scene will be described below. The subtitle data analysis unit 61 extracts subtitle text data C1, which is subtitle text data corresponding to one specific decoded scene, from the 12-segment subtitle decoding unit 411 (step S702). Next, the caption data analysis unit 61 extracts the decoded caption text data C2 corresponding to one specific scene from the 1-segment caption decoding unit 408 as in the case of 12-segment broadcasting (step S703).

そして、字幕データ解析部61は、字幕本文データC1とC2を比較し、互いに同一シーンの字幕本文データであるか否かを判別する(ステップS704)。同一シーンの字幕本文データであるか否かの判別方法は、例えば、字幕本文データC1とC2のそれぞれ先頭文字から順に最後まで比較することで実現可能である。しかしながら、放送規格上、一部、1セグ放送と12セグ放送の字幕に使用可能な文字セットが異なっており、12セグ放送の字幕だけ使用可能な文字がある。そのため、全ての文字が同じにはならなくても、互いの本文中に同じ文字が一定の割合で含まれていれば、同一の文と判断して同じシーンのPESと判別するようにしても良い。   Then, the caption data analysis unit 61 compares the caption text data C1 and C2, and determines whether or not the caption text data is the same scene (step S704). The method for determining whether or not the caption text data is in the same scene can be realized by, for example, comparing the caption text data C1 and C2 from the first character to the last in order. However, some character sets that can be used for subtitles of 1-segment broadcasting and 12-segment broadcasting differ depending on the broadcast standard, and there are characters that can be used only for subtitles of 12-segment broadcasting. For this reason, even if not all characters are the same, if the same characters are included in each text in a certain ratio, they are determined to be the same sentence and determined to be PES in the same scene. good.

字幕本文データC1とC2が同一シーンの字幕本文データでない場合(ステップS704;No)、字幕データ解析部61は、比較した1セグ放送用の字幕データの次に受信している字幕データを1セグ用字幕デコード部408から取得して、再度、同一シーンの字幕本文データであるか否かを判別して、同一シーンの字幕本文データが見つかるまでこれを繰り返す(ステップS703〜S705)。   When the subtitle text data C1 and C2 are not subtitle text data of the same scene (step S704; No), the subtitle data analysis unit 61 sets the subtitle data received next to the compared subtitle data for 1 segment broadcasting to 1 segment. It is obtained from the subtitle decoding unit 408, and again it is determined whether or not it is subtitle text data of the same scene, and this is repeated until subtitle text data of the same scene is found (steps S703 to S705).

ここで、比較する各字幕データを受信したタイミングが、想定される12セグ放送と1セグ放送の放送タイミング差である数秒よりはるかに離れているデータは、サイマル放送ではないと判別し、タイミング差解析処理を中断しても良い。   Here, it is determined that the data at which the subtitle data to be compared is received is far away from the assumed 12-segment broadcast and the 1-segment broadcast, which is a few seconds, which is the broadcast timing difference between the sub-segment broadcasts. The analysis process may be interrupted.

字幕本文データC1とC2が同一の字幕PESデータが見つかった場合(ステップS704;Yes)、字幕データ解析部61は、各字幕PESパケットのPESヘッダに記述されているPTSを比較して、提示時刻差を解析する(ステップS706)。   When caption PES data having the same caption text data C1 and C2 is found (step S704; Yes), the caption data analysis unit 61 compares the PTS described in the PES header of each caption PES packet, and presents the presentation time. The difference is analyzed (step S706).

その後、字幕データ解析部61は、解析した基準時刻差と提示時刻差を総計して、12セグ放送と1セグ放送の番組がサイマル放送であるか否かを判別し、各放送間の放送タイミング差を解析する(ステップS707)。字幕データ解析部61は、解析した放送タイミング差の情報は、放送切換部412に通知する。   Thereafter, the caption data analysis unit 61 adds up the analyzed reference time difference and presentation time difference to determine whether the 12-segment broadcast program and the 1-segment broadcast program are simultaneous broadcasts, and broadcast timing between the broadcasts. The difference is analyzed (step S707). The caption data analysis unit 61 notifies the broadcast switching unit 412 of the analyzed broadcast timing difference information.

本実施形態では、12セグ放送の特定の字幕本文データと同一の1セグ放送の字幕本文データを探索しているが、その反対に、1セグ放送の特定の字幕本文データと同一の12セグ放送の字幕本文データを探索するようにしても良い。   In the present embodiment, subtitle text data of 1 segment broadcast that is the same as specific subtitle text data of 12 segment broadcasting is searched, but conversely, 12 segment broadcasting that is the same as specific subtitle text data of 1 segment broadcast is searched. It is also possible to search for subtitle text data.

1セグ放送と12セグ放送の放送データに同一の字幕本文データが見つからない場合は、第1と第2の番組が、同一の番組では無い、つまりは、サイマル放送では無いと判別することができる。この結果が得られた場合は、以降に説明する1セグ放送と12セグ放送の受信切換は実施しない。   If the same caption text data is not found in the broadcast data of 1-segment broadcasting and 12-segment broadcasting, it can be determined that the first and second programs are not the same program, that is, are not simulcast. . When this result is obtained, reception switching between 1-segment broadcasting and 12-segment broadcasting described later is not performed.

次に、前記字幕データ解析部61にて解析した放送タイミング差を用いて、1セグ放送と12セグ放送の相互の放送切換時に時間差を補正する方法について説明する。   Next, a method for correcting the time difference at the time of switching between the 1-segment broadcast and the 12-segment broadcast using the broadcast timing difference analyzed by the caption data analysis unit 61 will be described.

図6に示す放送切換制御部404の機能ブロックの中で、受信状況解析部62が1セグ放送と12セグ放送の各受信レベルを解析し、切換判定部63が、放送切換部412に対して、切換の指示を行う。   In the functional block of the broadcast switching control unit 404 shown in FIG. 6, the reception status analysis unit 62 analyzes each reception level of the 1-segment broadcasting and the 12-segment broadcasting, and the switching determination unit 63 determines the broadcast switching unit 412. Instruct switching.

図8は、1セグ放送と12セグ放送の受信レベルに応じた放送切換を行う放送切換処理の動作を示すフローチャートである。まず、受信状況解析部62は、受信部401から1セグ放送と12セグ放送それぞれのCNRとBERを取得する(ステップS801)。このとき、CNRやBERの値から12セグ放送の受信が良好と判断できる場合(ステップS802;Yes)、受信状況解析部62は、12セグ放送の視聴を選択する(ステップS803)。   FIG. 8 is a flowchart showing the operation of a broadcast switching process for performing broadcast switching according to the reception level of 1-segment broadcasting and 12-segment broadcasting. First, the reception status analysis unit 62 acquires the CNR and BER of the 1-segment broadcast and the 12-segment broadcast from the reception unit 401 (step S801). At this time, if it can be determined that the reception of the 12-segment broadcast is good from the values of CNR and BER (step S802; Yes), the reception status analysis unit 62 selects viewing of the 12-segment broadcast (step S803).

一方、12セグ放送の受信レベルが低く、1セグ放送のみ受信良好な場合(ステップS802;No)、受信状況解析部62は、1セグ放送の視聴を選択する(ステップS804)。12セグ放送と1セグ放送のいずれも受信状況が良くない場合は、共に視聴することができないため、いずれの放送も選択しない。または、この場合、受信安定性が高い1セグ放送を選択している状態にしておき、逐次、受信状況を監視して受信状況が良好になる時を監視するようにしてもよい。   On the other hand, if the reception level of the 12-segment broadcast is low and only the 1-segment broadcast is received well (step S802; No), the reception status analysis unit 62 selects viewing of the 1-segment broadcast (step S804). If both the 12-segment broadcasting and the 1-segment broadcasting are in poor reception status, they cannot be viewed together, so neither broadcasting is selected. Alternatively, in this case, the 1-segment broadcasting with high reception stability may be selected, and the reception status may be sequentially monitored to monitor when the reception status is good.

切換判定部63は、受信状況解析部62の放送選択結果を受け、放送切換部412に切換の指示をする。   The switching determination unit 63 receives the broadcast selection result of the reception status analysis unit 62 and instructs the broadcast switching unit 412 to switch.

図9は、放送切換部412の動作例として、放送受信機が1セグ放送を受信している状態から、12セグ放送に放送を切り換えるまでの流れを示すフローチャートである。放送受信機40は、受信部401で1セグ放送を受信し、PTSに従い受信データをデコードしてモニタ413に出力する(ステップS901)。続いて、放送受信機40は、受信部401で12セグ放送の受信を開始し、受信状況を監視して、1セグ放送と12セグ放送の放送タイミング差の解析をすると同時に、サイマル放送か否かを判別する(ステップS902)。   FIG. 9 is a flowchart showing a flow from the state in which the broadcast receiver is receiving the 1-segment broadcast to the broadcast switching to the 12-segment broadcast as an operation example of the broadcast switching unit 412. The broadcast receiver 40 receives the 1-segment broadcast at the receiving unit 401, decodes the received data according to the PTS, and outputs the decoded data to the monitor 413 (step S901). Subsequently, the broadcast receiver 40 starts reception of the 12-segment broadcast at the reception unit 401, monitors the reception status, analyzes the broadcast timing difference between the 1-segment broadcast and the 12-segment broadcast, and at the same time determines whether the broadcast is a simultaneous broadcast. Is determined (step S902).

放送タイミング差の解析が完了すると、放送受信機40は、前記解析した放送タイミング差分、タイミングを遅らせながら、12セグ放送の放送データをバッファから映像、音声、字幕の各デコード部409〜411に送信する(ステップS903)。放送切換制御部404は、12セグ放送に放送を切り換えるタイミングを監視し、切換タイミングになると放送切換部412に対して放送切換を指示する(ステップS904)。放送切換部412は、指示された切換タイミングに従って、モニタ413に出力している1セグ放送のデータを、12セグ放送のデータに切り換える(ステップS905)。   When the analysis of the broadcast timing difference is completed, the broadcast receiver 40 transmits the broadcast data of the 12-segment broadcast from the buffer to the video, audio, and subtitle decoding units 409 to 411 while delaying the analyzed broadcast timing difference and timing. (Step S903). The broadcast switching control unit 404 monitors the timing for switching the broadcast to 12-segment broadcasting, and instructs the broadcast switching unit 412 to switch the broadcast when the switching timing comes (step S904). The broadcast switching unit 412 switches the 1-segment broadcast data output to the monitor 413 to the 12-segment broadcast data according to the instructed switching timing (step S905).

以上の手順により、前述の放送タイミング差の解析によって得られた放送タイミング差を用いて、12セグ放送のデコード開始を遅らせることで、放送タイミング差を抑制しつつ、1セグ放送の視聴状態から、12セグ放送の視聴を開始することができる。   By the above procedure, using the broadcast timing difference obtained by the above-described analysis of the broadcast timing difference, by delaying the start of decoding of the 12-segment broadcast, while suppressing the broadcast timing difference, from the viewing state of the 1-segment broadcast, Viewing of 12-segment broadcasting can be started.

図10は、タイミング制御部405の各バッファ51〜56から各デコード部406〜411へのデータの流れを示している。タイミング制御部405では、デコード前に各PESデータを各バッファ51〜56に保存しておき、放送タイミング差の分だけ12セグ放送のデータのデコード開始時間を遅らせている。   FIG. 10 shows the flow of data from the buffers 51 to 56 of the timing control unit 405 to the decoding units 406 to 411. The timing control unit 405 stores each PES data in the buffers 51 to 56 before decoding, and delays the decoding start time of 12-segment broadcast data by the difference in broadcast timing.

本実施形態では、放送タイミング差を補正するための各バッファ51〜56をタイミング制御部405に設けていたが、1セグ放送、12セグ放送の各データをデコードした後に、タイミング調整用のバッファを用意しても良い。1セグ放送と12セグ放送のデータのデコード時間に大きな差があり、そのデコードの時間差が、最終的にモニタに各データを出力するタイミングにずれを与える場合は、予めデコードを行った映像、音声、字幕等の出力データをバッファに蓄積しておき、出力機器に表示、再生を行う際に、前述の放送タイミング差に基づき出力するタイミングを制御することによって、放送タイミング差を抑えた表示、再生ができるようになる。   In this embodiment, each of the buffers 51 to 56 for correcting the broadcast timing difference is provided in the timing control unit 405. However, after decoding each data of 1-segment broadcasting and 12-segment broadcasting, a buffer for timing adjustment is provided. You may prepare. If there is a large difference in the decoding time of 1-segment broadcasting data and 12-segment broadcasting data, and the time difference between the decoding results in a shift in the timing of finally outputting each data to the monitor, video and audio that have been decoded in advance Output data such as subtitles is stored in a buffer, and when it is displayed and played back on an output device, display and playback that suppresses the broadcast timing difference by controlling the output timing based on the aforementioned broadcast timing difference Will be able to.

前記放送タイミング差は、放送局の違いや、生放送か録画かといった番組の放送形態により、異なる可能性がある。そのため、受信機側で受信する放送や、視聴している番組に変更が生じたときには、新たに放送タイミング差を調べなおすことで、変更後もスムーズな放送切換ができるようにすればよい。番組の変更は、ストリームと同様、放送データとして送信される番組情報データであるEIT(Event Information Table)から、番組のタイトルなどを取得し、随時チェックすることで、変更の有無を確認する。   The broadcast timing difference may vary depending on the broadcast station and the broadcast form of the program such as live broadcast or recording. Therefore, when a change occurs in a broadcast received at the receiver side or a program being viewed, a new broadcast timing difference may be reexamined so that smooth broadcast switching can be performed after the change. As with the stream, the program is changed by acquiring the title of the program from the EIT (Event Information Table), which is program information data transmitted as broadcast data, and checking it as needed to check whether there is a change.

ただし、解析した放送タイミング差のデータは、一定期間保存しておき、既に放送タイミング差が解析されているチャンネルや番組を視聴しなおす場合は、保存しておいた放送タイミング差のデータを用いることで、再度調べる処理を省くことができる。具体的には、放送タイミング差を解析した時間、解析対象とした番組のチャンネル番号、番組タイトル名、放送タイミング差のデータを1つのデータセットとして保存すればよい。   However, the analyzed broadcast timing difference data should be stored for a certain period, and if the channel or program for which the broadcast timing difference has already been analyzed is viewed again, the stored broadcast timing difference data should be used. Thus, it is possible to omit the process of checking again. Specifically, the time when the broadcast timing difference is analyzed, the channel number of the program to be analyzed, the program title name, and the data of the broadcast timing difference may be stored as one data set.

放送タイミング差を解析する番組が、字幕放送に対応していないときに限り、映像や音声のデータを代用して該タイミング差の解析を行う。例えば、映像データを用いる場合は、1セグ放送と12セグ放送の各映像データから輝度ヒストグラムや色ヒストグラムを算出して比較することで、同一シーンの映像データか判別することができる。   Only when the program for analyzing the broadcast timing difference does not support subtitle broadcasting, the timing difference is analyzed by substituting video and audio data. For example, when video data is used, it is possible to determine whether the video data is in the same scene by calculating and comparing a luminance histogram and a color histogram from video data of 1-segment broadcasting and 12-segment broadcasting.

字幕放送の対応状況を判別する方法は、ある一定時間の放送データの中に字幕データが含まれているか、または、番組の情報を含むEIT(Event Information Table)データのタイトルや番組詳細説明などの項目に、字幕対応か否かの情報が含まれているため、その情報を確認することで字幕対応状況を判別することができる。   The method of determining the correspondence status of subtitle broadcasting is that the subtitle data is included in the broadcast data for a certain period of time, or the title of the EIT (Event Information Table) data including the program information, the detailed program description, etc. Since the item includes information indicating whether or not captions are supported, it is possible to determine the caption support status by checking the information.

(実施形態2)
次に、本発明における放送受信機の実施形態2について、図11から図14を用いて説明する。図11は、本実施形態における放送受信機110の機能ブロック構成を示している。放送受信機110は、受信部1101、1セグ用TSデコード部1102、12セグ用TSデコード部1103、放送切換制御部1104、タイミング制御部1105、1セグ用映像デコード部1106、1セグ用音声デコード部1107、1セグ用字幕デコード部1108、12セグ用映像デコード部1109、12セグ用音声デコード部1110、12セグ用字幕デコード部1111、放送切換部1112、モニタ1113を備える。
(Embodiment 2)
Next, a second embodiment of the broadcast receiver according to the present invention will be described with reference to FIGS. FIG. 11 shows a functional block configuration of the broadcast receiver 110 in the present embodiment. The broadcast receiver 110 includes a receiving unit 1101, a 1-segment TS decoding unit 1102, a 12-segment TS decoding unit 1103, a broadcast switching control unit 1104, a timing control unit 1105, a 1-segment video decoding unit 1106, and a 1-segment audio decoding. Unit 1107, 1-segment subtitle decoding unit 1108, 12-segment video decoding unit 1109, 12-segment audio decoding unit 1110, 12-segment subtitle decoding unit 1111, broadcast switching unit 1112, and monitor 1113.

受信部1101は、アンテナを介して受信した放送信号をTSデータに復調する。受信部1101は、1セグ放送のTSデコーダを1セグ用TSデコード部1102に出力する。受信部1101は、12セグ放送のTSデータを12セグ用TSデコード部1103に出力する。また、受信部1101は、前述の放送受信レベル情報を放送切換制御部1104に出力する。   The receiving unit 1101 demodulates the broadcast signal received via the antenna into TS data. The receiving unit 1101 outputs the 1-segment broadcasting TS decoder to the 1-segment TS decoding unit 1102. The receiving unit 1101 outputs 12-segment broadcasting TS data to the 12-segment TS decoding unit 1103. In addition, receiving section 1101 outputs the above-mentioned broadcast reception level information to broadcast switching control section 1104.

1セグ用TSデコード部1102は、1セグ放送のTSデータを多重分離し、動画、音声、字幕のPESデータをタイミング制御部1105に出力する。一方、12セグ用TSデコード部1103は、12セグ放送のTSデータを多重分離し、1セグ用TSデコーダ部1102と同様に、タイミング制御部1105に各PESデータを出力する。また、各TSデコード部1102、1103は、それぞれ一定期間の放送データに含まれる字幕データのPTSを、放送切換制御部1104に出力する。   The 1-segment TS decoding unit 1102 demultiplexes 1-segment broadcasting TS data, and outputs PES data of moving images, audio, and captions to the timing control unit 1105. On the other hand, the 12-segment TS decoding unit 1103 demultiplexes the 12-segment broadcasting TS data, and outputs each PES data to the timing control unit 1105 in the same manner as the 1-segment TS decoder unit 1102. Also, each TS decoding section 1102 and 1103 outputs the PTS of the caption data included in the broadcast data for a certain period to the broadcast switching control section 1104.

放送切換制御部1104は、受信部1101から受け取った放送受信レベル情報を監視して、1セグ放送と12セグ放送のうち、受信する放送の選択し、選択した放送の情報を切換情報として放送切換部1112に出力する。また、放送切換制御部1104では、1セグ放送と12セグ放送の放送タイミングの時間差を解析する。なお、他の構成は、実施形態1と同様である。   The broadcast switching control unit 1104 monitors the broadcast reception level information received from the receiving unit 1101, selects a broadcast to be received from the 1-segment broadcast and the 12-segment broadcast, and performs broadcast switching using the selected broadcast information as switching information. Output to the unit 1112. Also, the broadcast switching control unit 1104 analyzes the time difference between the broadcast timings of the 1-segment broadcast and the 12-segment broadcast. Other configurations are the same as those in the first embodiment.

図12は、本実施形態の放送切換制御部1104の機能ブロックを示している。放送切換制御部1104は、字幕データ解析部1201、受信状況解析部1202、切換判定部1203、を備える。前述の字幕PESデータのPTSは、字幕データ解析部1201で受信する。そして、字幕データ解析部1201は、放送タイミング差の解析を行う。   FIG. 12 shows functional blocks of the broadcast switching control unit 1104 of this embodiment. The broadcast switching control unit 1104 includes a caption data analysis unit 1201, a reception status analysis unit 1202, and a switching determination unit 1203. The subtitle PES data PTS is received by the subtitle data analysis unit 1201. Then, the caption data analysis unit 1201 analyzes the broadcast timing difference.

字幕データ解析部1201における放送タイミング差の解析方法について説明する。実施形態2では、1セグ放送と12セグ放送の字幕PESデータに記述されたPTSを、同時にそれぞれ複数記録しておき、各PTSに記述されている時刻情報の間隔パターンが1セグ放送と12セグ放送とで類似している部分のマッチングを取り、PTSの時間差を示す提示時間差を解析することで、放送タイミング差を調べる方法を用いる。   A method for analyzing a broadcast timing difference in the caption data analysis unit 1201 will be described. In the second embodiment, a plurality of PTSs described in subtitle PES data of 1-segment broadcasting and 12-segment broadcasting are simultaneously recorded, and the interval pattern of time information described in each PTS is 1-segment broadcasting and 12-segment broadcasting. A method of checking a broadcast timing difference by matching a portion similar to the broadcast and analyzing a presentation time difference indicating a PTS time difference is used.

以下に、字幕PTS(字幕PESデータのPTS)のパターンマッチングによる解析方法を説明する。図13は、12セグ放送と1セグ放送の字幕PESデータを同じ時間分保存し、字幕PTSが示す時間情報に沿って時刻上にマッピングした例を示す。12セグ放送のPESに記載された字幕PTSを早いものから順にa1、a2、a3、…とし、同様に1セグ放送の字幕PTSを順にb1、b2、b3、…とする。また、各字幕PTSの間隔をΔa1(a1とa2の間隔)、Δa2(a2とa3の間隔)、…とする。   Hereinafter, an analysis method by pattern matching of subtitle PTS (PTS of subtitle PES data) will be described. FIG. 13 shows an example in which subtitle PES data of 12-segment broadcasting and 1-segment broadcasting is stored for the same time and mapped on time according to time information indicated by subtitle PTS. The subtitles PTS described in the 12-segment broadcasting PES are a1, a2, a3,... In order from the earliest, and the subtitle PTS of the 1-segment broadcasting is similarly b1, b2, b3,. Also, the interval between the subtitles PTS is Δa1 (the interval between a1 and a2), Δa2 (the interval between a2 and a3), and so on.

図14は、図13に示した字幕PTSのマッピングデータを用いてPTSのパターンマッチングを行うタイミング差解析処理の動作を示すフローチャートである。まず、字幕データ解析部1201は、12セグ放送と1セグ放送の字幕PTSを、それぞれ特定の数(M個)保存する(ステップS1401)。上述したように、12セグ放送の字幕PTSをa1〜aM、1セグ放送の字幕PTSをb1〜bMとする。   FIG. 14 is a flowchart showing an operation of a timing difference analysis process for performing PTS pattern matching using the subtitle PTS mapping data shown in FIG. First, the caption data analysis unit 1201 stores a specific number (M) of subtitles PTS of 12-segment broadcasting and 1-segment broadcasting, respectively (step S1401). As described above, subtitle PTS for 12-segment broadcasting is a1 to aM, and subtitle PTS for 1-segment broadcasting is b1 to bM.

次に、字幕データ解析部1201は、各字幕PTSの間隔Δa1〜Δa(M−1)、Δb1〜Δb(M−1)を計算する(ステップS1402)。   Next, the caption data analysis unit 1201 calculates the intervals Δa1 to Δa (M−1) and Δb1 to Δb (M−1) between the caption PTSs (step S1402).

そして、字幕データ解析部1201は、計算した字幕PTSについて、1セグ放送と12セグ放送の間でパターンマッチングを取る(ステップS1403)。パターンマッチングの例としては、初めに1セグ放送の間隔データΔb1〜ΔbMの中で、Δa1と同じ値になるものを探し、同じ間隔データが見つかれば、マッチングが取れた各データの次の間隔データが同じになるか否かを判別する。このとき、同じ値と判別されれば、更に次の間隔データを比較して、同じになるか否かを判別する。もし、間隔が異なった場合は、Δa1と同じになるものを探し直し、繰り返し連続的にマッチングが取れる組み合わせを見つける。   The caption data analysis unit 1201 then performs pattern matching between the 1-segment broadcast and the 12-segment broadcast on the calculated caption PTS (step S1403). As an example of pattern matching, first, the interval data Δb1 to ΔbM of 1 segment broadcasting is searched for the same value as Δa1, and if the same interval data is found, the next interval data of each matched data is found. Are determined to be the same. At this time, if it is determined that the values are the same, the next interval data is further compared to determine whether or not they are the same. If the intervals are different, a search is made again for those that are equal to Δa1, and a combination that can be repeatedly and continuously matched is found.

連続的に同じ値となる数が多いほど正確なマッチングを取ることができる。ただし、比較データが多くなり、計算にかかる時間と比較対象とするデータを多く保存する必要がある。前述のマッチングでは、12セグ放送と1セグ放送の字幕PTS間隔が同じ値になるか判定を行っているが、これらの間隔には、放送タイミング差で想定される数百ミリ秒〜数秒より小さい誤差が含まれるため、誤差を含めマッチングを判定する。   As the number of the same value continuously increases, more accurate matching can be obtained. However, the amount of comparison data increases, and it is necessary to store a large amount of time for calculation and data to be compared. In the above-mentioned matching, it is determined whether the subtitle PTS interval of 12-segment broadcasting and 1-segment broadcasting is the same value, but these intervals are smaller than several hundred milliseconds to several seconds assumed by the broadcast timing difference. Since an error is included, matching is determined including the error.

パターンマッチングの結果、同じシーンが見つかった場合は(ステップS1404;Yes)、字幕データ解析部1201は、1セグ放送と12セグ放送でマッチングが取れたPTSの差を計算し、提示時刻差を求める(ステップS1405)。一方、パターンマッチングが成立せず、同じシーンが見つからなかった場合は(ステップS1404;No)、1セグ放送の番組が、12セグ放送のサイマル放送では無いと判別する(ステップS1406)。   If the same scene is found as a result of pattern matching (step S1404; Yes), the caption data analysis unit 1201 calculates the difference between PTSs that match between the 1-segment broadcast and the 12-segment broadcast, and obtains the presentation time difference. (Step S1405). On the other hand, if pattern matching is not established and the same scene is not found (step S1404; No), it is determined that the 1-segment broadcast program is not a 12-segment broadcast simultaneous broadcast (step S1406).

実施形態2では、字幕PTSのパターンマッチングにより放送タイミング差の解析を行った。実施形態1で説明した放送タイミング差の解析方法では、字幕本文が1セグ放送と12セグ放送で同じとなる字幕PESデータのPTSを比較することで、提示時刻差を解析する。そのため、字幕PESデータをデコードして字幕本文のデータを取得していたが、実施形態2では、字幕PESデータのデコードは必要なく、PESヘッダに含まれたPTSを用いることで提示時刻差を解析することができる。   In the second embodiment, the broadcast timing difference is analyzed by pattern matching of the caption PTS. In the broadcast timing difference analysis method described in the first embodiment, the presentation time difference is analyzed by comparing the PTSs of the caption PES data in which the caption text is the same in the 1-segment broadcast and the 12-segment broadcast. For this reason, subtitle PES data is decoded to obtain subtitle text data. However, in the second embodiment, subtitle PES data need not be decoded, and the presentation time difference is analyzed by using the PTS included in the PES header. can do.

本実施形態においても、実施形態1に記載の基準時刻差の解析方法を用いることができ、同様の方法により解析した基準時刻差と、本実施形態で説明した提示時刻差の解析方法を用いて求めた提示時刻差を用い、それぞれ総計することにより、1セグ放送との12セグ放送の放送タイミング差を解析することができる。   Also in the present embodiment, the reference time difference analysis method described in the first embodiment can be used, and the reference time difference analyzed by the same method and the presentation time difference analysis method described in the present embodiment are used. By using the obtained presentation time differences and totaling them, it is possible to analyze the broadcast timing difference between the 12-segment broadcast and the 1-segment broadcast.

そして、解析した放送タイミング差を用いることで、1セグ放送と12セグ放送のずれを抑えた放送切換が行える。この切換方法については、実施形態1において、放送切換部412の動作例として説明した方法を、実施形態2の放送切換部1112で同様に適用することで実現することができる。   Then, by using the analyzed broadcast timing difference, broadcast switching can be performed while suppressing the difference between 1-segment broadcast and 12-segment broadcast. This switching method can be realized by applying the method described as the operation example of the broadcast switching unit 412 in the first embodiment in the same manner in the broadcast switching unit 1112 of the second embodiment.

なお、上記各実施形態では、CPUが実行するプログラムは、予めROMに格納されているものとして説明した。このプログラムは、外部記憶媒体や通信網を介して所定の記憶領域などに格納されるものであってもよい。   In the above embodiments, the program executed by the CPU has been described as being stored in the ROM in advance. This program may be stored in a predetermined storage area or the like via an external storage medium or a communication network.

1…映像エンコード部、2…音声エンコード部、3…字幕エンコード部、4…TSエンコード部、10…送信機、21…PESデータ、22…PTS、23…PESヘッダ、24…PESパケット、25…TSデータ、26…TSヘッダ、27…PCR、30…受信機、301…受信部、302…TSデコード部、303…バッファ制御部、304…映像バッファ、305…音声バッファ、306…字幕バッファ、307…タイミング制御部、308…映像デコード部、309…音声デコード部、310…字幕デコード部、311…STC、40…放送受信機、401…受信部、402…1セグ用TSデコード部、403…12セグ用TSデコード部、404…放送切換制御部、405…タイミング制御部、406…1セグ用映像デコード部、407…1セグ用音声デコード部、408…1セグ用字幕デコード部、409…12セグ用映像デコード部、410…12セグ用音声デコード部、411…12セグ用字幕デコード部、412…放送切換部、413…モニタ、51…1セグ映像バッファ、52…1セグ音声バッファ、53…1セグ字幕バッファ、54…12セグ映像バッファ、55…12セグ用音声バッファ、56…12セグ字幕バッファ、57…バッファ制御部、61…字幕データ解析部、62…受信状況解析部、63…切換判定部、110…放送受信機、1101…受信部、1102…1セグ用TSデコード部、1103…12セグ用TSデコード部、1104…放送切換制御部、1105…タイミング制御部、1106…1セグ用映像デコード部、1107…1セグ用音声デコード部、1108…1セグ用字幕デコード部、1109…12セグ用映像デコード部、1110…12セグ用音声デコード部、1111…12セグ用字幕デコード部、1112…放送切換部、1113…モニタ、1201…字幕データ解析部、1202…受信状況解析部、1203…切換判定部 DESCRIPTION OF SYMBOLS 1 ... Video encoding part, 2 ... Audio encoding part, 3 ... Subtitle encoding part, 4 ... TS encoding part, 10 ... Transmitter, 21 ... PES data, 22 ... PTS, 23 ... PES header, 24 ... PES packet, 25 ... TS data, 26 ... TS header, 27 ... PCR, 30 ... receiver, 301 ... receiving unit, 302 ... TS decoding unit, 303 ... buffer control unit, 304 ... video buffer, 305 ... audio buffer, 306 ... subtitle buffer, 307 ... Timing control unit, 308 ... Video decoding unit, 309 ... Audio decoding unit, 310 ... Subtitle decoding unit, 311 ... STC, 40 ... Broadcast receiver, 401 ... Receiving unit, 402 ... TS decoding unit for 1 segment, 403 ... 12 TS decoding unit for seg, 404 ... broadcast switching control unit, 405 ... timing control unit, 406 ... video decoding unit for 1 seg 407 ... 1-segment audio decoding section, 408 ... 1-segment subtitle decoding section, 409 ... 12-segment video decoding section, 410 ... 12-segment audio decoding section, 411 ... 12-segment subtitle decoding section, 412 ... broadcast switching section 413 ... Monitor, 51 ... 1 segment video buffer, 52 ... 1 segment audio buffer, 53 ... 1 segment subtitle buffer, 54 ... 12 segment video buffer, 55 ... 12 segment audio buffer, 56 ... 12 segment subtitle buffer, 57 ... Buffer control unit 61 ... Subtitle data analysis unit 62 ... Reception status analysis unit 63 ... Switch determination unit 110 ... Broadcast receiver 1101 ... Reception unit 1102 ... 1 segment TS decoding unit 1103 ... 12 segment TS Decoding unit, 1104 ... broadcast switching control unit, 1105 ... timing control unit, 1106 ... 1-segment video decoding unit, 1107 ... 1-segment Audio decoding unit, 1108 ... 1-segment subtitle decoding unit, 1109 ... 12-segment video decoding unit, 1110 ... 12-segment audio decoding unit, 1111 ... 12-segment subtitle decoding unit, 1112 ... broadcast switching unit, 1113 ... monitor, 1201 ... Subtitle data analysis unit 1202 ... Reception status analysis unit 1203 ... Switch determination unit

Claims (11)

放送波から第1の放送データと第2の放送データとを受信する放送受信手段と、
前記放送受信手段が受信した前記第1の放送データ及び前記第2の放送データから、それぞれの放送データに対応する字幕データを抽出する字幕データ抽出手段と、
前記字幕データ抽出手段が抽出した前記第1の放送データに対応する第1の字幕データと、前記第2の放送データに対応する第2の字幕データと、を比較することにより、前記第1の放送データと前記第2の放送データとの時間差を測定する字幕データ解析手段と、
を備え
前記字幕データ解析手段は、
前記第1の字幕データと前記第2の字幕データとに含まれるテキストデータを用いて同一のシーンを検索し、検索したシーンの各字幕データを提示する時刻を比較することにより、前記第1の放送データと前記第2の放送データとの時間差を測定し、
前記第1の字幕データと前記第2の字幕データとに含まれるテキストデータにおいて、同じ文字を含む割合を算出することで同一のシーンであるか否かを判別する
とを特徴とするデジタルデータ受信機。
Broadcast receiving means for receiving first broadcast data and second broadcast data from a broadcast wave;
Caption data extraction means for extracting caption data corresponding to each broadcast data from the first broadcast data and the second broadcast data received by the broadcast receiving means;
By comparing the first subtitle data corresponding to the first broadcast data extracted by the subtitle data extracting means and the second subtitle data corresponding to the second broadcast data, the first subtitle data is extracted. Subtitle data analysis means for measuring a time difference between broadcast data and the second broadcast data;
Equipped with a,
The caption data analysis means includes
By searching for the same scene using text data included in the first subtitle data and the second subtitle data, and comparing the time when each subtitle data of the searched scene is presented, Measuring the time difference between the broadcast data and the second broadcast data;
In the text data included in the first subtitle data and the second subtitle data, it is determined whether or not they are the same scene by calculating a ratio including the same characters.
Digital data receiver, wherein the this.
放送波から第1の放送データと第2の放送データとを受信する放送受信手段と、
前記放送受信手段が受信した前記第1の放送データ及び前記第2の放送データから、それぞれの放送データに対応する字幕データを抽出する字幕データ抽出手段と、
前記字幕データ抽出手段が抽出した前記第1の放送データに対応する第1の字幕データと、前記第2の放送データに対応する第2の字幕データと、を比較することにより、前記第1の放送データと前記第2の放送データとの時間差を測定する字幕データ解析手段と、
を備え、
前記字幕データ解析手段は、前記第1の字幕データを提示する時間間隔のパターンと、前記第2の字幕データを提示する時間間隔のパターンと、が互いに類似している類似パターン部分を検索し、当該類似パターン部分の時間差を算出することにより、前記第1の放送データと前記第2の放送データとの時間差を測定する
ことを特徴とするデジタルデータ受信機。
Broadcast receiving means for receiving first broadcast data and second broadcast data from a broadcast wave;
Caption data extraction means for extracting caption data corresponding to each broadcast data from the first broadcast data and the second broadcast data received by the broadcast receiving means;
By comparing the first subtitle data corresponding to the first broadcast data extracted by the subtitle data extracting means and the second subtitle data corresponding to the second broadcast data, the first subtitle data is extracted. Subtitle data analysis means for measuring a time difference between broadcast data and the second broadcast data;
With
The subtitle data analyzing means searches for a similar pattern portion in which a time interval pattern for presenting the first subtitle data and a time interval pattern for presenting the second subtitle data are similar to each other, by calculating the time difference of the similar pattern portion, wherein the to Lud digital data receivers to measure the time difference between the first broadcast data and the second broadcast data.
放送波から第1の放送データと第2の放送データとを受信する放送受信手段と、
前記放送受信手段が受信した前記第1の放送データ及び前記第2の放送データから、それぞれの放送データに対応する字幕データを抽出する字幕データ抽出手段と、
前記字幕データ抽出手段が抽出した前記第1の放送データに対応する第1の字幕データと、前記第2の放送データに対応する第2の字幕データと、を比較することにより、前記第1の放送データと前記第2の放送データとの時間差を測定する字幕データ解析手段と、
を備え、
前記字幕データ解析手段は、前記放送受信手段が受信する番組が変わったときに前記第1の放送データと前記第2の放送データとの時間差を測定する
ことを特徴とするデジタルデータ受信機。
Broadcast receiving means for receiving first broadcast data and second broadcast data from a broadcast wave;
Caption data extraction means for extracting caption data corresponding to each broadcast data from the first broadcast data and the second broadcast data received by the broadcast receiving means;
By comparing the first subtitle data corresponding to the first broadcast data extracted by the subtitle data extracting means and the second subtitle data corresponding to the second broadcast data, the first subtitle data is extracted. Subtitle data analysis means for measuring a time difference between broadcast data and the second broadcast data;
With
The subtitle data analysis means, the broadcast receiving means of the first broadcast data, wherein the to Lud digital data receivers to measure the time difference between the second broadcast data when the program is changed to receive .
前記第1の放送データをデコードする第1のデコード手段と、
前記第2の放送データをデコードする第2のデコード手段と、
前記各々の放送データのデコード開始のタイミングを制御するタイミング制御手段と、
前記第1の放送データと前記第2の放送データとがサイマル放送の放送データであるか否かを判別するサイマル放送判別手段と、をさらに備え、
前記タイミング制御手段は、前記第1の放送データと前記第2の放送データとが前記サイマル放送の放送データであると判別された場合、前記字幕データ解析手段が測定した前記第1の放送データと前記第2の放送データとの時間差に基づいて前記各々の放送データのデコード開始タイミングを制御する
ことを特徴とする請求項1からのいずれか1項に記載のデジタルデータ受信機。
First decoding means for decoding the first broadcast data;
Second decoding means for decoding the second broadcast data;
Timing control means for controlling the timing of starting decoding of each of the broadcast data;
A simulcast broadcast discriminating means for discriminating whether or not the first broadcast data and the second broadcast data are simulcast broadcast data;
The timing control means, when it is determined that the first broadcast data and the second broadcast data are the broadcast data of the simulcast, the first broadcast data measured by the caption data analysis means The digital data receiver according to any one of claims 1 to 3 , wherein the decoding start timing of each broadcast data is controlled based on a time difference from the second broadcast data.
前記タイミング制御手段は、前記第1の放送データと前記第2の放送データとのうち、受信タイミングが早い方の放送データを前記時間差に相当するデータ量をバッファに蓄積してデコード開始のタイミングを遅らせる
ことを特徴とする請求項に記載のデジタルデータ受信機。
The timing control means accumulates the data amount corresponding to the time difference in the buffer for the broadcast data with the earlier reception timing out of the first broadcast data and the second broadcast data, and sets the decoding start timing. The digital data receiver according to claim 4 , wherein the digital data receiver is delayed.
前記サイマル放送判別手段は、前記字幕データ抽出手段が抽出した前記第1の放送データに対応する第1の字幕データと、前記第2の放送データに対応する第2の字幕データと、を比較することにより、サイマル放送の放送データであるか否かを判別する
ことを特徴とする請求項またはに記載のデジタルデータ受信機。
The simulcast discrimination unit compares the first subtitle data corresponding to the first broadcast data extracted by the subtitle data extraction unit and the second subtitle data corresponding to the second broadcast data. it allows digital data receiver according to claim 4 or 5, characterized in that discrimination between broadcasting data simulcast.
放送波から第1の放送データと第2の放送データとを受信する放送受信手段と、
前記放送受信手段が受信した前記第1の放送データ及び前記第2の放送データから、それぞれの放送データに対応する字幕データを抽出する字幕データ抽出手段と、
前記字幕データ抽出手段が抽出した前記第1の放送データに対応する第1の字幕データと、前記第2の放送データに対応する第2の字幕データと、を比較することにより、前記第1の放送データと前記第2の放送データとの時間差を測定する字幕データ解析手段と、
前記字幕データ抽出手段により前記字幕データを抽出できないときに、前記第1の放送データ及び前記第2の放送データに含まれる映像データまたは音声データに基づいて、前記第1の放送データと前記第2の放送データとの時間差を測定する時間差測定手段と、
を備えることを特徴とするデジタルデータ受信機。
Broadcast receiving means for receiving first broadcast data and second broadcast data from a broadcast wave;
Caption data extraction means for extracting caption data corresponding to each broadcast data from the first broadcast data and the second broadcast data received by the broadcast receiving means;
By comparing the first subtitle data corresponding to the first broadcast data extracted by the subtitle data extracting means and the second subtitle data corresponding to the second broadcast data, the first subtitle data is extracted. Subtitle data analysis means for measuring a time difference between broadcast data and the second broadcast data;
When the caption data cannot be extracted by the caption data extraction means, the first broadcast data and the second broadcast data are based on video data or audio data included in the first broadcast data and the second broadcast data. a time difference measuring means for measuring a time difference between the broadcast data,
Features and to Lud digital data receiver that comprises a.
コンピュータを、
放送波から第1の放送データと第2の放送データとを受信する放送受信手段、
前記放送受信手段が受信した前記第1の放送データ及び前記第2の放送データから、それぞれの放送データに対応する字幕データを抽出する字幕データ抽出手段、
前記字幕データ抽出手段が抽出した前記第1の放送データに対応する第1の字幕データと、前記第2の放送データに対応する第2の字幕データと、を比較することにより、前記第1の放送データと前記第2の放送データとの時間差を測定する字幕データ解析手段、
として機能させ
前記字幕データ解析手段は、
前記第1の字幕データと前記第2の字幕データとに含まれるテキストデータを用いて同一のシーンを検索し、検索したシーンの各字幕データを提示する時刻を比較することにより、前記第1の放送データと前記第2の放送データとの時間差を測定し、
前記第1の字幕データと前記第2の字幕データとに含まれるテキストデータにおいて、同じ文字を含む割合を算出することで同一のシーンであるか否かを判別する
とを特徴とするプログラム。
Computer
Broadcast receiving means for receiving first broadcast data and second broadcast data from a broadcast wave;
Caption data extraction means for extracting caption data corresponding to each broadcast data from the first broadcast data and the second broadcast data received by the broadcast receiving means;
By comparing the first subtitle data corresponding to the first broadcast data extracted by the subtitle data extracting means and the second subtitle data corresponding to the second broadcast data, the first subtitle data is extracted. Subtitle data analysis means for measuring a time difference between broadcast data and the second broadcast data;
To function as,
The caption data analysis means includes
By searching for the same scene using text data included in the first subtitle data and the second subtitle data, and comparing the time when each subtitle data of the searched scene is presented, Measuring the time difference between the broadcast data and the second broadcast data;
In the text data included in the first subtitle data and the second subtitle data, it is determined whether or not they are the same scene by calculating a ratio including the same characters.
Program which is characterized a call.
コンピュータを、  Computer
放送波から第1の放送データと第2の放送データとを受信する放送受信手段、  Broadcast receiving means for receiving first broadcast data and second broadcast data from a broadcast wave;
前記放送受信手段が受信した前記第1の放送データ及び前記第2の放送データから、それぞれの放送データに対応する字幕データを抽出する字幕データ抽出手段、  Caption data extraction means for extracting caption data corresponding to each broadcast data from the first broadcast data and the second broadcast data received by the broadcast receiving means;
前記字幕データ抽出手段が抽出した前記第1の放送データに対応する第1の字幕データと、前記第2の放送データに対応する第2の字幕データと、を比較することにより、前記第1の放送データと前記第2の放送データとの時間差を測定する字幕データ解析手段、  By comparing the first subtitle data corresponding to the first broadcast data extracted by the subtitle data extracting means and the second subtitle data corresponding to the second broadcast data, the first subtitle data is extracted. Subtitle data analysis means for measuring a time difference between broadcast data and the second broadcast data;
として機能させ、  Function as
前記字幕データ解析手段は、前記第1の字幕データを提示する時間間隔のパターンと、前記第2の字幕データを提示する時間間隔のパターンと、が互いに類似している類似パターン部分を検索し、当該類似パターン部分の時間差を算出することにより、前記第1の放送データと前記第2の放送データとの時間差を測定する  The subtitle data analyzing means searches for a similar pattern portion in which a time interval pattern for presenting the first subtitle data and a time interval pattern for presenting the second subtitle data are similar to each other, The time difference between the first broadcast data and the second broadcast data is measured by calculating the time difference between the similar pattern portions.
ことを特徴とするプログラム。  A program characterized by that.
コンピュータを、  Computer
放送波から第1の放送データと第2の放送データとを受信する放送受信手段、  Broadcast receiving means for receiving first broadcast data and second broadcast data from a broadcast wave;
前記放送受信手段が受信した前記第1の放送データ及び前記第2の放送データから、それぞれの放送データに対応する字幕データを抽出する字幕データ抽出手段、  Caption data extraction means for extracting caption data corresponding to each broadcast data from the first broadcast data and the second broadcast data received by the broadcast receiving means;
前記字幕データ抽出手段が抽出した前記第1の放送データに対応する第1の字幕データと、前記第2の放送データに対応する第2の字幕データと、を比較することにより、前記第1の放送データと前記第2の放送データとの時間差を測定する字幕データ解析手段、  By comparing the first subtitle data corresponding to the first broadcast data extracted by the subtitle data extracting means and the second subtitle data corresponding to the second broadcast data, the first subtitle data is extracted. Subtitle data analysis means for measuring a time difference between broadcast data and the second broadcast data;
として機能させ、  Function as
前記字幕データ解析手段は、前記放送受信手段が受信する番組が変わったときに前記第1の放送データと前記第2の放送データとの時間差を測定する  The caption data analyzing means measures a time difference between the first broadcast data and the second broadcast data when a program received by the broadcast receiving means changes.
ことを特徴とするプログラム。  A program characterized by that.
コンピュータを、  Computer
放送波から第1の放送データと第2の放送データとを受信する放送受信手段、  Broadcast receiving means for receiving first broadcast data and second broadcast data from a broadcast wave;
前記放送受信手段が受信した前記第1の放送データ及び前記第2の放送データから、それぞれの放送データに対応する字幕データを抽出する字幕データ抽出手段、  Caption data extraction means for extracting caption data corresponding to each broadcast data from the first broadcast data and the second broadcast data received by the broadcast receiving means;
前記字幕データ抽出手段が抽出した前記第1の放送データに対応する第1の字幕データと、前記第2の放送データに対応する第2の字幕データと、を比較することにより、前記第1の放送データと前記第2の放送データとの時間差を測定する字幕データ解析手段、  By comparing the first subtitle data corresponding to the first broadcast data extracted by the subtitle data extracting means and the second subtitle data corresponding to the second broadcast data, the first subtitle data is extracted. Subtitle data analysis means for measuring a time difference between broadcast data and the second broadcast data;
前記字幕データ抽出手段により前記字幕データを抽出できないときに、前記第1の放送データ及び前記第2の放送データに含まれる映像データまたは音声データに基づいて、前記第1の放送データと前記第2の放送データとの時間差を測定する時間差測定手段、  When the caption data cannot be extracted by the caption data extraction means, the first broadcast data and the second broadcast data are based on video data or audio data included in the first broadcast data and the second broadcast data. Time difference measuring means for measuring the time difference from the broadcast data of
として機能させることを特徴とするプログラム。  A program characterized by functioning as
JP2009129715A 2009-05-28 2009-05-28 Digital data receiver and program Expired - Fee Related JP5354664B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009129715A JP5354664B2 (en) 2009-05-28 2009-05-28 Digital data receiver and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009129715A JP5354664B2 (en) 2009-05-28 2009-05-28 Digital data receiver and program

Publications (2)

Publication Number Publication Date
JP2010278790A JP2010278790A (en) 2010-12-09
JP5354664B2 true JP5354664B2 (en) 2013-11-27

Family

ID=43425330

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009129715A Expired - Fee Related JP5354664B2 (en) 2009-05-28 2009-05-28 Digital data receiver and program

Country Status (1)

Country Link
JP (1) JP5354664B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012093425A1 (en) * 2011-01-07 2012-07-12 株式会社スピードワープロ研究所 Digital subtitle broadcast recorder
KR101192207B1 (en) 2012-03-05 2012-10-17 전정환 System for providing real-time subtitles service of many languages for online live broadcasting and method thereof
JP2015032934A (en) * 2013-08-01 2015-02-16 ソニー株式会社 Control device, control method, transmission terminal, transmission method, reception terminal, reception method, and control system
JP6700658B2 (en) * 2014-11-28 2020-05-27 シャープ株式会社 Receiving device, receiving method, and program
US9418296B1 (en) * 2015-03-17 2016-08-16 Netflix, Inc. Detecting segments of a video program
KR102228599B1 (en) * 2019-12-09 2021-03-16 주식회사 텔레칩스 Transmitter and receiver for providing seamless switching of isdb transport stream

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010124199A (en) * 2008-11-19 2010-06-03 Sharp Corp Digital broadcast receiver

Also Published As

Publication number Publication date
JP2010278790A (en) 2010-12-09

Similar Documents

Publication Publication Date Title
US20200077162A1 (en) System and method for synchronizing metadata with audiovisual content
JP4894858B2 (en) Receiving machine
EP1956848A2 (en) Image information transmission system, image information transmitting apparatus, image information receiving apparatus, image information transmission method, image information transmitting method, and image information receiving method
JP6184408B2 (en) Receiving apparatus and receiving method thereof
JP5354664B2 (en) Digital data receiver and program
JP2006115264A (en) Transmission device of digital broadcasting, reception device, and digital broadcasting system
JP2006345169A (en) Digital television receiving terminal device
US20070081563A1 (en) Synchronization device and synchronization method in digital broadcast receiver
JP5271544B2 (en) Digital broadcast receiving apparatus and digital broadcast receiving method
JP2008199117A (en) Digital broadcast receiver
US20130209063A1 (en) Digital receiver and content processing method in digital receiver
JP5924728B2 (en) Signal processing apparatus and program
US8238446B2 (en) Method and apparatus for reproducing digital broadcasting
JP2006270299A (en) Cm detecting device and cm detecting method
KR20150041403A (en) Display aparatus and method for channel changing
US20060132504A1 (en) Content combining apparatus and method
JP4723715B2 (en) Multi-channel display data creation device and multi-channel display data creation method
JP2008053991A (en) Digital broadcast receiver
JP6157679B2 (en) Signal processing apparatus and program
US20080104656A1 (en) Method of storing and reproducing interactive digital broadcast signals and apparatus therefor
KR100782196B1 (en) (an) image display device for having time shift function and method for playing of the same
JP2001091680A (en) Time calibration method for digital broadcasting and device therefor
JP2004140505A (en) Providing method, receiver, and transmitter for broadcast program
EP3528505A1 (en) Apparatus and method for operating a media device to select from plural instances of content for play back
JP2010124199A (en) Digital broadcast receiver

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120411

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130501

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130507

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130822

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees