JP2004282137A - Television broadcast receiver - Google Patents

Television broadcast receiver Download PDF

Info

Publication number
JP2004282137A
JP2004282137A JP2003066804A JP2003066804A JP2004282137A JP 2004282137 A JP2004282137 A JP 2004282137A JP 2003066804 A JP2003066804 A JP 2003066804A JP 2003066804 A JP2003066804 A JP 2003066804A JP 2004282137 A JP2004282137 A JP 2004282137A
Authority
JP
Japan
Prior art keywords
additional information
information
superimposition
television broadcast
main information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003066804A
Other languages
Japanese (ja)
Other versions
JP4185790B2 (en
Inventor
Yoshito Yamazaki
義人 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2003066804A priority Critical patent/JP4185790B2/en
Publication of JP2004282137A publication Critical patent/JP2004282137A/en
Application granted granted Critical
Publication of JP4185790B2 publication Critical patent/JP4185790B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a television broadcast receiver capable of displaying main information with attached information superimposed thereon in a way that viewing of the main information is not disturbed. <P>SOLUTION: The television broadcast receiver includes: an information separation means for separating a broadcast signal from a television broadcast station into the main information and the attached information; a superimposed region detection means for detecting a superimposed region object wherein an image of the attached information is superimposed on an image of the main information and the resulting information is displayed; a superimposition decision means for deciding a position of the superimposed region object at which the image of the attached information is superimposed and displayed on the basis of the superimposed region object detected by the superimposed region object detection means; and a superimposition processing means for superimposing the attached information on the main information and outputting the resulting information as broadcast program data. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、視聴中の番組の画面に、文字、画像等のデータを重畳して表示する機能を供えたデジタルテレビジョン放送受信機に関する。
【0002】
【従来の技術】
デジタルテレビジョン放送システムでは、番組である主情報に画像、音声データ等の付加情報を重畳して送信するデータ放送が行われている。データ放送は、放送番組を提供する放送事業者が、番組である主情報と同時に付加情報を送信するものであり、付加情報として送信するデータは、その番組に関する情報、その放送局で放送されている他の番組に関する情報、宣伝、更に、地震、津波等の緊急情報等である。視聴者は、要求信号を入力することによって、データ放送の視聴を選択することができる。
【0003】
図19を参照して、特開2001−251565号公報に記載された従来のデジタルテレビジョン放送受信機の例を説明する。このデジタルテレビジョン放送受信機は、受信部301、情報分離部302、付加情報再生部314、重畳判断部316、重畳処理部318、内部メモリ320及びユーザ入力部321を有する。内部メモリ320は、時刻と主情報のシーン番号の関連表320A、シーン番号とそのときに重畳する付加情報の関連表320B及び付加情報を蓄積する付加情報記憶部320Cを有する。
【0004】
受信部301は、放送局からの放送信号を放送ストリームにデコードし、それを情報分離部302に送信する。情報分離部302は、放送ストリームを主情報ストリームと付加情報ストリームに分離し、それぞれ重畳処理部318と付加情報再生部314に送信する。付加情報再生部314は、付加情報ストリームから付加情報画像データと重畳パラメータを抽出し、内部メモリ320に送信する。重畳判断部316は、内部メモリ320とユーザ入力部321からの情報より、主情報に重畳する付加情報画像データを生成し、重畳処理部318に送信する。重畳処理部318は、情報分離部302からの主情報ストリームと重畳判断部316からの付加情報画像データを重畳し、それを放送番組データとして出力する。
【0005】
図20を参照して、従来のデジタルテレビジョン放送受信機において、付加情報を主情報に重畳して画面に表示する方法の概念を説明する。図20Aに示すように、主情報の画像として、テーブルに2人の人物が座って話をしている場面を仮定する。図20Bに示すように、内部メモリ320にて設定されたシーンが表示されると、主情報の画像内の指定された位置2001に付加情報を重畳して表示する。
【0006】
また、主情報の画面内にボタンのような小さな画像2002を表示し、ユーザ入力部321から付加情報の表示の要求が入力されると、付加情報を本来の大きな画像として表示することも可能である。
【0007】
【特許文献1】
特開2001−251565号公報
【特許文献2】
特開平11−164235号公報
【0008】
【発明が解決しようとする課題】
従来の技術では、主情報に付加情報を重畳して表示する重畳位置及び重畳時間を予め決めておく必要がある。従って、主情報の視聴の妨げにならぬように、主情報の場面を考慮しながら付加情報の重畳位置及び時間を考慮する必要があった。しかしながら、実際には、主情報の視聴を妨げる位置及び時間に付加情報が表示されることがあった。
【0009】
付加情報の代わりに、付加情報の存在を示すボタンのような小さな画像を表示させる場合であっても、そのような小さな画像は、主情報中の定位置に表示されるため、主情報の視聴を妨げる可能性がある。
【0010】
本発明の目的は、主情報の視聴を妨げないように、主情報に付加情報を重畳して表示することができるデジタルテレビジョン放送の受信機を提供することにある。
【0011】
本発明の目的は、付加情報提供者が主情報の視聴を妨げないように重畳位置及び重畳時間を予め設定する必要がないデジタルテレビジョン放送の受信機を提供することにある。
【0012】
【課題を解決するための手段】
一般に、テレビジョン放送の映像は次の特徴を有する。
(1)画面中心部分に比較的重要な情報が表示され、画面の端部分には、比較的重要でない情報が表示される傾向がある。
(2)主情報の画像のうち空間的に色階調の変化量の少ない部分は、単色構成で構成されており、その情報の重要度は低いことが多い。
(3)主情報の画像のうち時間的に色階調の変化量の少ない部分は、背景等のように情報の重要度は低い場合が多い。
(4)主情報の画像の重要度が高い部分と重要度が低い部分は、番組内容によって異なる。
【0013】
本発明によると、このようなテレビジョン放送の映像の特徴に基づいて主情報中の重要度の低いと思われる部分を検出し、その部分に付加情報を重畳して表示する。
【0014】
本発明によると、テレビジョン放送受信機は、テレビジョン放送局からの放送信号を主情報と付加情報に分離する情報分離手段と、主情報の画像中に付加情報の画像を重畳して表示するための重畳領域候補を検出する重畳領域検出手段と、該重畳領域検出手段によって検出された重畳領域候補より付加情報の画像を重畳して表示する位置を決定する重畳判断手段と、上記主情報に上記付加情報を重畳しそれを放送番組データとして出力する重畳処理手段と、を有する。
【0015】
本発明によると、テレビジョン放送受信機において、更に、上記情報分離手段によって分離された主情報を蓄積する主情報蓄積手段と、上記情報分離手段によって分離された付加情報を蓄積する付加情報蓄積手段と、を有する。
【0016】
更に、次の機能を付加することにより、付加情報の重畳に関して、より柔軟な対応が可能となる。
(1)主情報及び付加情報の番組内容に基づいて、付加情報の重畳領域の検出に使用するパラメータを変更させる。
(2)主情報及び付加情報が蓄積されたデータである場合、各番組の全時間データを使用して付加情報の重畳領域の検出が可能となる。
【0017】
また、視聴者が主情報に付加情報を重畳する条件を入力するための手段を設けることによって、視聴者に不快感を与えないで付加情報を表示することができる。さらに、付加情報の重畳位置を自動的に検出するため、付加情報送信者は主情報の放送構成を考える必要がなく、付加情報を提供することが可能となる。
【0018】
【発明の実施の形態】
図1を参照して、本発明によるデジタルテレビジョン放送受信機において、付加情報を主情報に重畳して画面に表示する方法の概念を説明する。図1Aに示すように、主情報の画像として、テーブルに2人の人物が座って話をしている場面を仮定する。図1Bに示すように、主情報の画像より、付加情報を表示する領域候補を検出する。付加情報を表示する領域候補として、時間的に又は空間的に色の変化が少ない領域、又は主情報量が少ない領域が選択される。例えば、背景等の時間的に色の変化が少ない領域B1、テーブル等の空間的に色の変化が少ない領域B2及び画面の周辺部分B3が選択される。
【0019】
図1Cに示すように、例えば、「AB市のお知らせ」の付加情報A1を重畳して表示する領域として、時間的に色の変化が少ない領域B1を選択し、例えば、「CD商店」の付加情報A2を重畳して表示する領域として、空間的に色の変化が少ない領域B2を選択する。尚、図示していないが、画面の周辺部分B3に、他の付加情報を重畳して表示してよい。付加情報A1、A2は、文字、映像等を含む。図1Dは、主情報に付加情報A1及びA2が重畳して表示された画面を示す。
【0020】
こうして、本例では、時間的に又は空間的に色の変化が少ない領域又は主情報量が少ない領域に付加情報を重畳して表示するから、視聴者の視聴を妨げることなく、主情報に付加情報を重畳して表示することができる。
【0021】
図2を参照して本発明によるデジタルテレビジョン放送受信機の第1の例を説明する。本例のデジタルテレビジョン放送受信機は、受信部101、情報分離部102、主情報再生部110、空間色変化量解析部111、時間色変化量解析部112、主情報加工部113、付加情報再生部114、重畳領域検出部115、重畳判断部116、付加情報加工部117、重畳処理部118、内部メモリ120及びユーザ入力部121を有する。内部メモリ120は、領域検出パラメータ部120Aと付加情報重畳パラメータ部120Bを有する。内部メモリ120に記録されたデータは、ユーザ入力部121を介して入力されたユーザの命令によって変更されることができる。
【0022】
受信部101は、放送局からの放送信号を放送ストリームにデコードし、それを情報分離部102に送信する。情報分離部102は、放送ストリームを主情報ストリームと付加情報ストリームに分離する。なお、本例の付加情報は、文字情報及び映像情報を含むが、従来例の付加情報と異なり、付加情報の重畳位置及び重畳時間を含む必要はない。
【0023】
主情報再生部110は、主情報ストリームを、1枚1枚の画像データである主情報色階調データMcに変換し、それを空間色変化量解析部111、時間色変化量解析部112、主情報加工部113及び重畳領域検出部115に送信する。
【0024】
空間色変化量解析部111は、主情報色階調データMcに基づいて、所定の時刻における基準画素の色と隣接画素の色を比較し、両者の差から空間色変化量Scを計算する。時間色変化量解析部112は、主情報色階調データMcに基づいて、基準画素における所定の時刻の色と過去の色を比較し、両者の差から時間色変化量Tcを計算する。
【0025】
付加情報再生部114は、付加情報ストリームを画像データである付加情報色階調データAcに変換し、それを重畳領域検出部115及び付加情報加工部117に送信する。同時に、付加情報の受信時間及び画像の大きさなどのデータを重畳領域検出部115及び重畳判断部116に送信する。
【0026】
重畳領域検出部115は、次のパラメータに基づいて、付加情報毎に重畳領域候補を検出する。
(1)領域検出パラメータ部120Aの設定値
(2)付加情報重畳パラメータ部120Bの設定値
(3)主情報再生部110からの主情報色階調データMc
(4)空間色変化量解析部111からの空間色変化量Sc
(5)時間色変化量解析部112からの時間色変化量Tc
(6)付加情報再生部114からの付加情報色階調データAc
(7)付加情報再生部114からの付加情報の受信時間及び画像の大きさ
【0027】
重畳領域検出部115は、検出した重畳領域候補データを重畳判断部216に送信する。重畳判断部116は、付加情報再生部114から付加情報受信時間及び画像の大きさ、重畳領域検出部115から各付加情報の重畳領域候補データ、付加情報重畳パラメータ部120Bから重畳領域優先順位等を受信し、主情報中に付加情報を重畳する位置、即ち、重畳領域を決定する。重畳判断部116は、決定した重畳領域を、主情報加工部113と付加情報加工部117に送信する。
【0028】
主情報加工部113は、重畳判断部116からの条件に基づいて、主情報再生部110からの主情報色階調データMcを、重畳に適切な形態に加工する。付加情報加工部117は、重畳判断部116からの条件に基づいて、付加情報再生部114からの付加情報色階調データAcを、重畳に適切な形態に加工する。最後に、重畳処理部118は、加工された主情報色階調データMc及び付加情報色階調データAcを重畳し、放送番組データとして出力する。
【0029】
図3を参照して、空間色変化量解析部111における空間色変化量Sc(X,Y,T)の計算例を説明する。ここで空間色変化量Sc(X,Y,T)を、時刻Tにおける座標(X,Y,T)の画素とその隣接画素との色階調差を数値化した値であると定義する。座標(X,Y,T)を基準座標、その画素を基準画素と称する。
【0030】
図3の例では、基準画素の主情報色階調データをMc(X,Y,T)とし、X座標方向及びY座標方向に隣り合う4つの画素の主情報色階調データをMc(X+1,Y,T)、Mc(X−1,Y,T)、Mc(X,Y+1,T)及びMc(X,Y−1,T)とする。空間色変化量Sc(X,Y,T)は、4つの画素の主情報色階調データMc(X+1,Y,T)、Mc(X−1,Y,T)、Mc(X,Y+1,T)及びMc(X,Y−1,T)と基準画素の主情報色階調データMc(X,Y,T)の差の絶対値の総和であり、次の式によって表される。
【0031】
【数1】
Mc(X,Y,T)=|Mc(X+1,Y,T)−Mc(X,Y,T)|+|Mc(X−1,Y,T)−Mc(X,Y,T)|+|Mc(X,Y+1,T)−Mc(X,Y,T)|+|Mc(X,Y−1,T)−Mc(X,Y,T)|
【0032】
この値が大きければ大きいほど、基準座標(X,Y,T)の周辺は色階調の空間的変化が大きいと言える。例えば、基準座標(X,Y,T)の画素の色階調を1、X座標方向に隣接する座標(X−1,Y,T)及び(X+1,Y,T)の画素の色階調を3及び1、Y座標方向に隣接する座標(X,Y−1,T)及び(X,Y+1,T)の画素の色階調を2及び1とすると、空間色変化量Sc(X,Y,T)は次のようになる。
【0033】
【数2】
Sc(X,Y,T)=2+0+1+0=3
【0034】
なおこの例では、空間色変化量Sc(X,Y,T)は、単色画像での基準画素と隣接4画素の間の色階調差の絶対値によって示される。しかしながら、画素周辺の色階調変化の度合を数値化できれば、このような計算方法に依らなくてもよい。例えば、次のような方法によって修正してもよい。
(1)(図3の例では単色画像であるが)カラー画像のように複数色の画像とする。
(2)(図3の例では隣接4画素と比較するが)基準画素と比較する隣接画素数を増減する。基準画素と隣接画素ではなく近傍の画素を比較する。
(3)(図3の例では重み付けは無いが)画素や階調により重み付けを行う。
(4)(図3の例では色階調の差の絶対値であるが)基準画素と隣接画素の色変化量の計算方法を変更する。
【0035】
次に、図4を参照して、時間色変化量解析部112における時間色変化量Tc(X,Y,T)の計算例を説明する。ここで時間色変化量Tc(X,Y,T)を、所定の座標(X,Y)において、時刻Tにおける画素とそれより過去の時刻における画素との色階調差を数値化した値であると定義する。座標(X,Y,T)を基準座標、その画素を基準画素と称する。
【0036】
図4の例では、基準画素の主情報色階調データをMc(X,Y,T)とし、過去の時刻T−1及びT−2における当該画素の主情報色階調データをMc(X,Y,T−1)、Mc(X,Y、T−2)とする。時間色変化量Tc(X,Y,T)は、過去2枚の画像における当該画素の主情報色階調データMc(X,Y,T−1)、Mc(X,Y、T−2)と基準画素の主情報色階調データMc(X,Y,T)の差の絶対値の総和であり次に式によって表される。
【0037】
【数3】
Tc(X,Y,T)=|Mc(X,Y,T)−Mc(X,Y,T−1)|+|Mc(X,Y,T)−Mc(X,Y,T−2)|
【0038】
この値が大きければ大きいほど、基準座標(X,Y,T)の画素は色階調の時間的変化が大きいと言える。例えば、時刻Tにおける基準座標(X,Y,T)の画素の色階調を2、時刻T−1における座標(X,Y,T−1)の画素の色階調を1、時刻T−2における座標(X,Y,T−2)の画素の色階調を1とすると、時間色変化量Tc(X,Y,T)は次のようになる。
【0039】
【数4】
Tc(X,Y,T)=1+1=2
【0040】
なおこの例では、時間色変化量Tc(X,Y,T)を単色画像での基準画素と過去の2画素の間の色階調差の絶対値によって示される。しかしながら、画素の時間経過による色階調変化の度合を数値化できれば、この方法に依らなくてもよい。例えば、次のような方法によって修正してもよい。
(1)(図4の例では単色画像であるが)カラー画像のように複数の色画像とする。
(2)(図4の例では基準画素と過去2画素を比較するが)基準画素と比較する過去の画素数を増減する。
(3)(図4の例では過去の画素のみを使用したが)蓄積データ等で、未来の画素を色階調変化の検出に使用する。
(4)(図4の例では重み付けは無いが)画素や階調により重み付けを行う。
(5)(図4の例では色階調の差の絶対値を使用したが)基準画素と過去の画素との色変化量の計算方法を変更する。
【0041】
図5を参照して、領域検出パラメータ部120Aに記録されるデータの例を説明する。領域検出パラメータ部には次の5つのパラメータが記録される。
(1)重畳可能領域:主情報の画像上の付加情報を重畳することが可能な領域。図5の第1の例では、重畳可能領域は、主情報の画像の4辺の縁から200画素以内であり、第2の例では、重畳可能領域は、主情報の画像の4辺の縁から300画素以内である。重畳可能領域は図7に示すように、主情報の画像のうち縁に沿った額縁状の部分である。
(2)空間色変化量平均値Ave(Sc):領域D内の全座標に関する空間色変化量の平均値の基準値又は条件
(3)空間色変化量分散値Dist(Sc):領域D内の全座標に関する空間色変化量の分散値の基準値又は条件
(4)時間色変化量平均値Ave(Tc):領域D内の全座標に関する時間色変化量の平均値の基準値又は条件
(5)時間色変化量分散値Dist(Tc):領域D内の全座標に関する時間色変化量の平均値の基準値又は条件
【0042】
これらの条件に従って、重畳領域検出部115は重畳領域候補を検出する。これらのパラメータの値は、ユーザ入力部121を介して入力されたユーザの命令によって変更することが可能である。またここでは、例としてこの5つのパラメータを示しているが、重畳領域の特徴を示すパラメータであれば、これ以外のパラメータを使用することも可能である。例えば、(1)色変化量の平均値に、中心座標(X,Y)からの距離の重み付けをしたもの、(2)DP(Dynamic Programming)マッチング手法等で使用される、重畳可能領域の認識用モデル、等のパラメータが考えられる。
【0043】
図6を参照して付加情報重畳パラメータ部120Bに記録されるデータの例を説明する。付加情報重畳パラメータ部には、次のパラメータが記録される。
(1)重畳可能平均色階調差:領域Dの主情報平均色階調Ave(Mc)と付加情報平均色階調Ave(Ac)の間の差の基準値又は条件
(2)付加情報変色階調:主情報に付加情報を重畳するために変化させてもよい付加情報画像の色階調量の基準値又は条件
(3)付加情報変形量:主情報に付加情報を重畳するために変化させてもよい付加情報画像の変形量の基準値又は条件
(4)主情報変色階調:主情報に付加情報を重畳するために変化させてもよい主情報画像の色階調量の基準値又は条件
(5)重畳領域優先順位:重畳領域の決定に使用される優先順位
【0044】
重畳判断部116は、これらのパラメータを重畳基準として重畳位置、即ち、重畳領域を決定すると共に、重畳領域検出部115は、これらのパラメータを重畳領域候補の検出に利用する。これらのパラメータも領域検出パラメータと同様に、ユーザ入力部121を介して入力されたユーザの命令によって変更することが可能である。またここでは、例としてこの5つのパラメータを示しているが、例えば、(1)付加情報が瞬間表示され、視聴者が付加情報の表示に気づかないことを防ぐための最低重畳表示時間、等の付加情報の重畳方法を示すパラメータを使用することも可能である。
【0045】
図7を参照して重畳領域検出部115において主情報の画像MIGに付加情報の画像AIGを重畳するための重畳領域候補の検出方法の概略について説明する。重畳領域検出部115は、主情報生成部110からの主情報と付加情報再生部114からの付加情報を入力する。付加情報の画像AIGは矩形であってよい。先ず、重畳可能領域に中心座標を仮設定し、この中心座標上に複数の領域Dを作成する。領域Dは、付加情報再生部114からの付加情報の画像の大きさと付加情報重畳パラメータ部120Bからの付加情報変形量に基づいて、付加情報の画像を変形することによって得られる。次に、これらの領域Dが、領域検出パラメータ部120Aからの重畳可能領域内において、所定の条件を満足するかどうかを計算する。条件を満足する領域Dが、主情報に付加情報を重畳するための重畳領域候補となる。
【0046】
また、本例では領域Dは矩形であるが、パラメータを追加することで、「星型やリング型などの複雑な形状の領域」、「付加情報に透明色を含んだ場合の領域」のような領域を扱うことも可能である。
【0047】
図8を参照して重畳領域検出部115の動作を説明する。ステップ401にて、重畳領域の検出処理を開始する。重畳領域の検出は、付加情報毎に行う。ステップ402にて、領域検出パラメータ部120Aによって指定されている重畳可能領域内に中心座標(X,Y)を仮決定する。また、付加情報再生部114からの付加情報色階調データAcより、付加情報の全画素の平均色階調である付加情報平均色階調Ave(Ac)を計算する。この計算は、付加情報画像を効果的に配置するために、付加情報画像全体の色の特徴を知るために行う。ここでは、付加情報の全画素の色階調の平均値により付加情報画像データの色の特徴を把握しようとしているが、付加情報画像データの色の特徴が把握できれば方法はこの限りではない。
【0048】
ステップ403にて、仮決定した座標(X,Y)に関する処理を開始する。ステップ404にて、座標(X,Y)を中心に付加情報重畳用の領域Dを仮決定する。付加情報重畳用の領域Dの大きさは、上述のように、付加情報再生部114からの付加情報画像の大きさ及び付加情報重畳パラメータ部120Bからの付加情報変形量によって決定される。本例では、座標(X,Y)を領域Dの中心座標と定義しているが、主情報画像において領域Dの位置が一意に定義できればこれに限らない。ステップ405にて、領域Dに関する処理を開始する。
【0049】
ステップ406にて、座標(X,Y)を中心とした領域Dが、領域検出パラメータ部120Aに設定された重畳可能領域を越えるかどうかの判断を行う。領域Dが重畳可能領域を越える場合には、ステップ415に進み、領域Dが重畳可能領域を越えない場合は、ステップ407に進む。
【0050】
ステップ407にて、領域D内の全座標に関する処理を開始する。ステップ408にて、先ず、領域D内の全座標に関して、空間色変化量Sc、時間色変化量Tc及び主情報色階調データMcを、それぞれ空間色変化量解析部111、時間色変化量解析部112、及び主情報再生部110から呼び出す。次に、領域Dに関する以下のパラメータを計算する。
【0051】
(1)空間色変化量平均Ave(Sc):領域D内の全座標に関する空間色変化量Scの平均値
(2)空間色変化量分散Dist(Sc):領域D内の全座標に関する空間色変化量Scの分散値
(3)時間色変化量平均Ave(Tc):領域D内の全座標に関する時間色変化量Tcの平均値
(4)時間色変化量分散Dist(Tc):領域D内の全座標に関する時間色変化量Tcの分散値
(5)主情報平均色階調Ave(Mc):領域D内の全座標に関する主情報色階調Mcの平均値
【0052】
本例では、この5つのパラメータを計算しているが、領域D内の全座標に関する計算と、重畳領域を検出するためのパラメータが定義されれば、重畳領域検出のために他の値を計算することも可能である。
【0053】
ステップ409にて、ステップ408にて計算した4つのパラメータAve(Sc)、Dist(Sc)、Ave(Tc)及びDist(Tc)が、領域検出パラメータ部120Aで定義されている条件(図5)を満足するか否かを判断する。満足する場合はステップ410に進み、満足しない場合はステップ415に進む。
【0054】
ステップ410にて、平均色階調の処理を開始する。ステップ411にて、ステップ408にて計算した領域D内の主情報平均色階調Ave(Mc)と、ステップ402にて計算した付加情報平均色階調Ave(Ac)と、を比較する。主情報画像と付加情報画像の平均色階調を比較するのは、画像全体の色の特徴を知り、効果的に付加情報の配置を行うためである。ここでは、全画素の色階調の平均値により画像データの色の特徴を把握しようとしているが、色の特徴が把握できれば方法はこの限りではない。
【0055】
両者の差の値が、付加情報重畳パラメータ部120Bで定義されている重畳可能平均色階調差の条件(図6)を満足するか否かを判断する。満足する場合には、ステップ414に進み、満足しない場合にはステップ412に進む。
【0056】
ステップ412にて、変色に関して未計算のものがあるか否かを判定する。変色に関して未計算のものがある場合には、ステップ413に進み、変色に関して未計算のものがない場合には、ステップ415に進む。
【0057】
ステップ413にて、先ず、主情報及び付加情報を、付加情報重畳パラメータ部120Bで定義されている主情報変色階調及び付加情報変色階調の条件(図6)の範囲にて変色する。ここでは変色処理の方法として、単色画像の主情報画像、付加情報画像の全画素について同じように色階調を増減させると考えているが、他にも次の方法が考えられる。
【0058】
(1)カラー映像の複数色画像において、色ごとに変化させる重み付けを変える方法
(2)領域の中央部は色変化を少なく、端の方は大きく変化させる、などの領域内で重みを変える方法
(3)主情報に関しては主情報色階調データMc及び付加情報に関しては付加情報色階調データAcの値に基づいて、個々の画素の色階調に応じて変化させる方法
【0059】
次に、ステップ408にて計算した領域D内の主情報平均色階調Ave(Mc)と、ステップ402にて計算した付加情報平均色階調Ave(Ac)を、付加情報重畳パラメータ部120Bで定義されている重畳可能平均色階調差の条件(図6)を満足するように、再計算し、ステップ410に戻り、平均色階調処理を再度行う。
【0060】
ステップ414にて、中心座標(X,Y)及び領域D、領域Dにおける付加情報の変形量、主情報及び付加情報の変色量、主情報と付加情報の階調差等を登録し、それを重畳判断部116に送信する。
【0061】
ステップ415にて、領域Dの形状に関して未計算のものが存在するか否かを判定する。即ち、付加情報重畳パラメータ部120Bの付加情報変形量に基づいて、領域Dを、これ以上変形させることができないか否かを判断する。未計算のものが存在する場合、即ち、領域Dを変形できる場合は、ステップ416にて、領域Dの形状を変更し、ステップ405に戻り、変更後の新しい領域Dに関する処理を行う。
【0062】
未計算のものが存在しない場合、即ち、領域Dをこれ以上変形できない場合は、ステップ417にて、重畳可能領域の全座標に関して処理を行ったかを判断する。処理が終了している場合にはステップ419に進み、検出終了となり、処理が終了していない場合にはステップ418に進み、未計算の座標を中心座標(X,Y)とし、ステップ403に戻り、この中心座標(X,Y)に関する処理を行う。図10は重畳領域検出部115によって得られた重畳領域候補データの例を示す。
【0063】
図9を参照して重畳判断部116における重畳領域の決定の処理を説明する。ステップ501にて、処理を開始し、ステップ502にて、重畳領域決定に使用する順位を求めるためのソート処理を開始する。先ず、ステップ503にて、重畳領域検出部115からの重畳領域候補が存在するか否かを判定する。重畳領域候補が存在しない場合にはステップ511に進み、重畳領域候補が存在する場合にはステップ504に進む。
【0064】
次に、ステップ504にて、全付加情報に関する重畳領域候補を、付加情報重畳パラメータ部120Bの重畳領域優先順位(図6)に従ってソートする。それによってソート後の順位が決まる。
【0065】
ステップ505にて、各付加情報の重畳領域候補より重畳位置、即ち、重畳領域を決定する処理を開始する。ステップ506にて、付加情報毎に重畳領域を決定する処理を開始する。ステップ507にて、処理の対象である付加情報の重畳領域候補のうちソート後の順位が最上位のものを最有力候補とし、この最有力候補が他の付加情報の重畳領域候補と領域の競合があるか否かを判定する。競合する場合にはステップ508に進み、競合しない場合にはステップ512に進む。
【0066】
ステップ508にて、最有力候補の重畳領域候補が競合相手の他の付加情報の重畳領域候補より、ソート後の順位が低いか否かを判定する。最有力候補が競合他候補よりソート後の順位が低い場合にはステップ509に進み、競合他候補よりソート後の順位が低くない場合にはステップ512に進む。
【0067】
ステップ509にて、処理の対象である付加情報に現最有力候補以外に他の重畳領域候補が存在するか否かを判定する。他の重畳領域候補が存在する場合にはステップ510に進み、他の重畳領域候補が存在しない場合にはステップ511に進む。ステップ510にて、処理の対象である付加情報の他の重畳領域候補を最有力候補として、ステップ506に戻る。
【0068】
ステップ511にて、重畳領域を検出することができないとして、付加情報を出力しない。ステップ512にて、最有力候補を付加情報の重畳領域として決定し、出力する。ステップ513にて、全ての付加情報に関して重畳領域を決定した否かを判定する。全ての付加情報に関して重畳領域を決定した場合には、ステップ515にて処理を終了し、全ての付加情報に関して重畳領域を決定していない場合には、ステップ514にて未決定の付加情報に関して重畳領域の決定の処理を行う。
【0069】
図10及び図11を参照して説明する。図10は、重畳領域検出部115によって検出された各付加情報に関する重畳領域候補の例を示す。付加情報1、2、3の画像の大きさはいずれも横100×縦50である。変形情報は、横100×縦50の画像に対する重畳領域候補の変形量を示す。付加情報1に対して2つの重畳領域候補101、102が検出され、付加情報2に対して1つの重畳領域候補103が検出され、付加情報3に対して2つの重畳領域候補104、105が検出されている。各重畳領域候補には、付加情報再生部114からの付加情報のデータが付されている。
【0070】
図9に示した重畳判断部116における重畳領域の決定処理を図10及び図11の例を参照して説明する。先ず、領域競合の判定で使用する順位を生成するために、重畳領域候補101〜105をソート(ステップ504)する。図11は、重畳領域候補101〜105を付加情報重畳パラメータ部120Bの重畳領域優先順位(図6)に従ってソートをした結果である。重畳領域候補101〜105を、第1の条件である主情報変色階調の少ない順に並べる。3つ重畳領域候補101、103及び104は、主情報変色階調が同一である。従って、3つ重畳領域候補101、103及び104を、第2条件である付加情報変色階調の少ない順に並べる。このように順位が同一の重畳領域候補がなくなるまで、条件に従いソートを続けることによって、全ての重畳領域候補の順位が決定される。尚、全ての重畳領域候補の順位が決定できれば、ここで説明した条件以外の条件を使用してもよい。
【0071】
第1の付加情報1の重畳領域を決定する処理を説明する。第1の付加情報1に関して2つの重畳領域候補101、102が検出されている。ソート後の順位が高い第1の重畳領域候補101を最有力候補とする。この最有力候補が、他の付加情報2、3の重畳領域候補と領域の競合があるか否かを判定する。領域の競合は、各重畳領域候補の中心座標と画像の大きさを比較することによって、判定することができる。最有力候補の第1の重畳領域候補101は、第2の重畳領域候補102及び第2の付加情報2の重畳領域候補103と、領域の競合をする。ここでは、他の付加情報の重畳領域候補との領域の競合の有無を考慮する。従って、第2の付加情報2の重畳領域候補103のみを対象とする。最有力候補の第1の重畳領域候補101は、第2の付加情報2の重畳領域候補103より順位が低い。従って、第1の付加情報1の重畳領域は検出なしとする。
【0072】
第2の付加情報2の重畳領域を決定する処理を説明する。第2の付加情報2に関しては1つの重畳領域候補103のみが検出されている。重畳領域候補103を最有力候補とする。この最有力候補が、他の付加情報1、3の重畳領域候補と領域の競合があるか否かを判定する。重畳領域候補103は、第1の付加情報1の重畳領域候補101及び102と、領域の競合をする。しかしながら、最有力候補の重畳領域候補103は、競合相手の第1の付加情報1の重畳領域候補101及び102より、ソート後の順位が高い。従って、第2の付加情報2に関して、重畳領域候補103を重畳領域として決定する。
【0073】
第3の付加情報3の重畳領域を決定する処理を説明する。第3の付加情報3に関して2つの重畳領域候補104、105が検出されている。ソート後の順位が高い第1の重畳領域候補104を最有力候補とする。この最有力候補が、他の付加情報1、2の重畳領域候補と領域の競合があるか否かを判定する。第1の重畳領域候補104は、第2の重畳領域候補105と、領域の競合をするが、他の付加情報の重畳領域候補と、領域の競合をしない。従って、第3の付加情報3に関して、重畳領域候補104を重畳領域として決定する。
【0074】
図12を参照して本発明によるデジタルテレビジョン受像機の第2の例を説明する。本例のデジタルテレビジョン受像機は、受信部201、情報分離部202、主情報入力部203、主情報属性抽出部204、主情報蓄積部205、付加情報入力部206、付加情報属性抽出部207、付加情報蓄積部208、主情報再生部210、空間色変化量解析部211、時間色変化量解析部212、主情報加工部213、付加情報再生部214、重畳領域検出部215、重畳判断部216、付加情報加工部217、重畳処理部218、重畳記録管理部219、内部メモリ220及びユーザ入力部221を有する。内部メモリ220は、領域検出パラメータ部220A、付加情報重畳パラメータ部220B及び付加情報管理パラメータ部220Cを有する。内部メモリ220に記録されたデータは、ユーザ入力部221を介して入力されたユーザの命令によって変更されることができる。
【0075】
受信部201は、放送局からの放送信号を放送ストリームにデコードし、それを情報分離部202に送信する。情報分離部202は、放送ストリームを主情報ストリームと付加情報ストリームに分離する。なお、本例の付加情報は、第1の例と同様に、文字情報及び映像情報を含むが、従来例の付加情報と異なり、付加情報の重畳位置及び重畳時間を含む必要はない。また、本例の付加情報は、静止画情報ばかりでなく動画情報を含む。
【0076】
主情報入力部203は、主情報ストリームを主情報属性抽出部204に送信する。また、主情報を蓄積する必要があれば、主情報蓄積部205に送信する。主情報蓄積部205は、蓄積した主情報データを必要に応じて、主情報入力部203に出力する。
【0077】
付加情報入力部206は、付加情報ストリームを付加情報属性抽出部207に送信する。また、付加情報を蓄積する必要があれば、付加情報蓄積部208に送信する。付加情報蓄積部208は、蓄積した付加情報データを必要に応じて、付加情報入力部206に出力する。
【0078】
主情報属性抽出部204は主情報ストリームの属性を抽出し、それを内部メモリ220に送信し、主情報ストリームを主情報再生部210に送信する。付加情報属性抽出部207は付加情報ストリームの属性を抽出し、それを内部メモリ220に送信し、付加情報ストリームを付加情報再生部214に送信する。主情報及び付加情報の属性は、領域検出パラメータ部220A、付加情報重畳パラメータ部220B等に送信され、利用される。また付加情報は、付加情報管理パラメータ部220Cに送信され、付加情報の表示、管理に使用される。
【0079】
主情報再生部210は、主情報ストリームを1枚1枚の画像データである主情報色階調データMcに変換し、それを空間色変化量解析部211、時間色変化量解析部212、主情報加工部213及び重畳領域検出部215に送信する。
【0080】
空間色変化量解析部211は、主情報色階調データMcに基づいて、所定の時刻における基準画素の色と隣接画素の色を比較し、両者の差から空間色変化量Scを計算する。時間色変化量解析部212は、主情報色階調データMcに基づいて、基準画素における所定の時刻の色と過去の色を比較し、両者の差から時間色変化量Tcを計算する。
【0081】
付加情報再生部214は、付加情報を画像データである付加情報色階調データAcに変換し、それを重畳領域検出部215及び付加情報加工部217に送信する。また、付加情報再生部214は、付加情報の画像大きさ等のデータを付加情報管理パラメータ部220Cに送信する。
【0082】
重畳領域検出部215は、次のパラメータに基づいて、付加情報毎に重畳領域候補を検出する。
(1)領域検出パラメータ部220Aの設定値
(2)付加情報重畳パラメータ部220Bの設定値
(3)付加情報管理パラメータ部220Cの付加情報のパラメータ
(4)主情報再生部210からの主情報色階調データMc
(5)空間色変化量解析部211からの空間色変化量Sc
(6)時間色変化量解析部212からの時間色変化量Tc
(7)付加情報再生部214からの付加情報色階調データAc
【0083】
重畳領域検出部215は、検出した重畳領域候補データを重畳判断部216に送信する。重畳判断部216は、重畳領域検出部215から各付加情報の重畳領域候補データ、付加情報重畳パラメータ部220Bから重畳領域優先順位、付加情報管理パラメータ部220Cから付加情報受信時間等を受信し、主情報中に付加情報を重畳する位置、即ち、重畳領域を決定する。重畳判断部216は、決定した重畳領域を、主情報加工部213と付加情報加工部217に送信する。
【0084】
主情報加工部213は、重畳判断部216からの条件に基づいて、主情報再生部210からの主情報色階調データMcを、重畳に適切な形態に加工する。付加情報加工部217は、重畳判断部216からの条件に基づいて、付加情報再生部214からの付加情報色階調データAcを、重畳に適切な形態に加工する。重畳処理部218は、加工された主情報色階調データMc及び付加情報色階調データAcを重畳し、放送番組データとして出力する。
重畳記録管理部219は、出力結果を、付加情報ごとに記録し、付加情報管理パラメータ部220Cに送信する。
【0085】
本例は、第1の例と比較すると、主情報として主情報蓄積部205に蓄積された主情報データを使用し、付加情報として付加情報蓄積部208に蓄積された付加情報データを使用することができる点が異なる。従って、本例では次のことが可能となる。
【0086】
(1)付加情報として所定の表示期間を保証する必要がある画像を使用することができる。表示期間を保証する必要がある例としては、動画像があるが、動画像以外に静画像であっても、所定の表示期間が設けられているものが、が挙げられる。そのような付加情報は、表示最優先の扱いとする。
【0087】
重畳領域検出部215は、蓄積した全時間の主情報を利用することにより、重畳のための領域が付加情報の重畳条件を満たしている状態を継続する時間を検出することができる。それによって、表示期間を保証する必要がある付加情報のための重畳領域候補を検出することができる。
【0088】
(2)主情報再生部210は、任意時間における主情報データを主情報色階調データMcに変換することができる。
空間色変化量解析部211及び時間色変化量解析部212における、空間色変化量Sc、時間色変化量Tcの計算方法は、第1の例の場合と同一であり、その計算例は図3、図4と同一である。しかしながら、本例では、第1の例と異なり、空間色変化量解析部211及び時間色変化量解析部212では、以下のことが可能となる。
(a)主情報中の任意の時間における空間色変化量Sc及び時間色変化量Tcを計算する。
(b)時間色変化量Tcの計算に、任意の時間から未来の時間の主情報色階調データMcを使用することができる。
また計算方法に関しては、第1の例と同様に色階調の変化量が数値化できれば、その方法はこの例に限らない。
【0089】
(3)付加情報蓄積部208に付加情報を蓄積することによって、任意の時間に主情報に付加情報を重畳することができる。即ち、主情報を付加情報に重畳する時間を任意に選択することができる。また、重畳記録管理部219は、付加情報管理パラメータ部220Cに記録された付加情報を自動的に削除するように構成することによって、ユーザが付加情報を削除する煩わしさが解消される。
【0090】
図13に領域検出パラメータ部220Aに記録されるデータの例を示す。本例の領域検出パラメータは、重畳可能領域、空間色変化量平均値Ave(Sc)、空間色変化量分散値Dist(Sc)、時間色変化量平均値Ave(Tc)及び時間色変化量分散値Dist(Tc)の基準値又は条件を含み、第1の例の領域検出パラメータ(図5)と同一であるが、本例では、主情報の属性と付加情報の属性に応じて、領域検出パラメータの設定1〜4を変化させている。
【0091】
図14を参照して付加情報重畳パラメータ部220Bに記録されるデータの例を説明する。本例の付加情報重畳パラメータは、重畳可能平均色階調差、付加情報変色階調、付加情報変形量及び主情報変色階調の基準値又は条件と重畳領域優先順位を含み、第1の例の付加情報重畳パラメータ(図6)と同一であるが、本例では、主情報の属性、付加情報の属性及び重畳領域優先順位に応じて、重畳可能平均色階調差、付加情報変色階調、付加情報変形量及び主情報変色階調の条件設定1〜4、A、Bを変化させている。
【0092】
尚、図13の領域検出パラメータ及び図14の付加情報重畳パラメータは、第1の例の場合と同様に、追加や変更が可能である。また、ここでは、主情報の属性と付加情報の属性に応じて領域検出パラメータを設定しているが、主情報、付加情報それぞれの属性のみに応じてパラメータを設定してもよく、主情報の番組名、主情報及び付加情報の発信先、付加情報の受信日時、のような主情報及び付加情報の状態等によりパラメータの設定を変化させてもよい。
【0093】
図15を参照して付加情報管理パラメータ部220Cに記録されるデータの例を説明する。付加情報管理パラメータは、以下の例を含む。
(1)付加情報の属性:付加情報の内容を示す。
(2)付加情報の発行元:付加情報の提供者を示す。
(3)動画再生時間:付加情報に含まれる動画の再生時間を示す。静止画だけの場合もある。
(4)付加情報受信日時:受信機が付加情報を受信した日時を示す。
(5)最新出力時間:主情報に付加情報が重畳された最新の時間を示す。
(6)送信時間制限:主情報に付加情報を重畳することが可能な時間を示す。
(7)送信経過時間:主情報に付加情報を重畳した現在までの総時間を示す。
【0094】
図15の付加情報管理パラメータは、追加や変更が可能である。付加情報管理パラメータは、付加情報の管理に利用される。例えば、付加情報送信時間制限が設定されている場合に、送信経過時間が付加情報送信時間制限を超えたなら付加情報の重畳を行わない等の処理ができる。また、付加情報が付加情報蓄積部208に蓄積されたデータの場合は、付加情報蓄積部208からその付加情報を削除する等の処理を行うことも可能である。これにより、付加情報を主情報に重畳する際、より柔軟な処理が可能となる。
【0095】
図16を参照して、主情報が主情報蓄積部205に蓄積されたデータである場合の重畳領域検出部215の動作を説明する。ステップ601にて、重畳領域の検出処理を開始する。重畳領域の検出は、付加情報毎に行う。ステップ602にて、領域検出パラメータ部220Aによって指定されている重畳可能領域内に中心座標(X,Y)を仮決定する。本例では、更に、付加情報を重畳する開始時間Tを仮設定する。また付加情報再生部214からの付加情報色階調データAcより、付加情報の全画素の平均色階調である付加情報平均色階調Ave(Ac)を計算する。本例は、図8の第1の例と比較して、開始時間Tを仮決定することが異なる。
【0096】
ステップ603にて、仮決定した中心座標(X,Y)と開始時間Tに関する処理を開始する。ステップ604にて、座標(X,Y)を中心に付加情報重畳用の領域Dを仮決定する。本例では、更に、付加情報を重畳する期間Twを仮決定する。重畳用の領域Dの大きさは、付加情報再生部214からの付加情報画像の大きさ及び付加情報重畳パラメータ部220Bからの付加情報変形量によって決定される。また、期間Twは、付加情報管理パラメータ部220Cの動画再生時間から決定される。ステップ605にて、領域D及び期間Twに関する処理を開始する。
【0097】
ステップ606にて、開始時間Tからの期間Twを確保した場合、座標(X,Y)を中心とした領域Dが、重畳可能領域を越えるかどうかの判断を行う。領域Dが重畳可能領域を越える場合は、ステップ607に進み、領域Dが重畳可能領域を越えない場合は、ステップ615に進む。
【0098】
ステップ607にて、期間Twにおける領域D内の全座標に関する処理を開始する。ステップ608にて、先ず、期間Twにおける領域D内の全座標に関して、空間色変化量Sc、時間色変化量Tc、及び主情報色階調データMcを、それぞれ空間色変化量解析部211、時間色変化量解析部212、及び主情報再生部210から呼び出す。次に、期間Twにおける領域Dに関する以下のパラメータを計算する。
【0099】
(1)空間色変化量平均Ave(Sc):期間Twにおける領域D内の全座標に関する空間色変化量Scの平均値
(2)空間色変化量分散Dist(Sc):期間Twにおける領域D内の全座標に関する空間色変化量Scの分散値
(3)時間色変化量平均Ave(Tc):期間Twにおける領域D内の全座標に関する時間色変化量Tcの平均値
(4)時間色変化量分散Dist(Tc):期間Twにおける領域D内の全座標に関する時間色変化量Tcの分散値
(5)主情報平均色階調Ave(Mc):期間Twにおける領域D内の全座標に関する主情報色階調Mcの平均値
本例では、この5つのパラメータを計算しているが、期間Twにおける領域D内の全座標に関する計算と、重畳領域を検出するためのパラメータが定義されれば、重畳領域検出のために他の値を計算することも可能である。
【0100】
ステップ609にて、ステップ608にて計算した4つのパラメータAve(Sc)、Dist(Sc)、Ave(Tc)及びDist(Tc)が、領域検出パラメータ部220Aで定義されている条件(図13)を満足するか否かを判断する。満足する場合はステップ610に進み、満足しない場合はステップ615に進む。
【0101】
ステップ610にて、平均色階調の処理を開始する。ステップ611にて、ステップ608にて計算した期間Twにおける領域D内の主情報平均色階調Ave(Mc)と、ステップ602にて計算した付加情報平均色階調Ave(Ac)と、を比較する。主情報と付加情報の平均色階調を比較しているのは、第1の例と同様に、画像全体の色の特徴を知り、効果的な付加情報の配置を行うためであり、色の特徴が把握できれば方法はこの限りではない。
【0102】
両者の差の値が、付加情報重畳パラメータ部220Bで定義されている重畳可能平均色階調差の条件(図14)を満足するか否かを判断する。満足する場合には、ステップ614に進み、満足しない場合にはステップ612に進む。ステップ612にて、変色に関して未計算のものがあるか否かを判定する。変色に関して未計算のものがある場合には、ステップ613に進み、変色に関して未計算のものがない場合には、ステップ615に進む。
【0103】
ステップ613にて、先ず、主情報及び付加情報を、付加情報重畳パラメータ部220Bで定義されている付加情報変色階調及び主情報変色階調の条件(図14)の範囲にて変色する。次に、ステップ608にて計算した領域D内の主情報平均色階調Ave(Mc)と、ステップ602にて計算した付加情報平均色階調Ave(Ac)を、付加情報重畳パラメータ部220Bで定義されている重畳可能平均色階調差の条件(図14)を満足するように、再計算し、ステップ610に戻り、平均色階調処理を再度行う。
【0104】
ステップ614にて、開始時間Tと期間Tw、期間Twにおける領域Dを重畳可能領域として、中心座標、領域Dにおける付加情報の変形量、主情報及び付加情報の変色量、主情報と付加情報の階調差等を登録し、それを重畳判断部216に送信する。
【0105】
ステップ615にて、領域Dの形状に関して未計算のものが存在するか否かを判定する。即ち、付加情報重畳パラメータ部220Bの付加情報変形量に基づいて、領域Dを、これ以上変形させることができないか否かを判断する。未計算のものが存在する場合、即ち、領域Dを変形できる場合は、ステップ616にて、領域Dの形状を変更し、ステップ605に戻り、変更後の新しい領域Dに関する処理を行う。
【0106】
未計算のものが存在しない場合、即ち、領域Dをこれ以上変形できない場合は、ステップ617にて、重畳可能領域の全座標に関して処理を行ったかを判断する。処理が終了している場合にはステップ619に進み、処理が終了していない場合にはステップ618に進み、未計算の座標を中心座標(X,Y)とし、ステップ603に戻り、この中心座標(X,Y)に関する処理を行う。
【0107】
ステップ619にて、検出が必要な時間に関して処理が終了しているかを判断する。処理が終了していれば、ステップ621に進み、検出処理を終了する。処理が終了していなければ、ステップ620に進み、開始時間Tを次の時間に変更し、ステップ603に戻り、座標、時間処理から再計算を行う。
【0108】
図17を参照して主情報が主情報蓄積部205に蓄積されたデータである場合の重畳判断部116における重畳領域の決定の処理を説明する。ステップ701にて、処理を開始し、ステップ702にて、重畳領域決定に使用する順位を求めるためのソート処理を開始する。先ず、ステップ703にて、重畳領域検出部115からの現在時間Tにおける重畳領域候補が存在するか否かを判定する。重畳領域候補が存在しない場合にはステップ712に進み、重畳領域候補が存在する場合にはステップ704に進む。
【0109】
ステップ704にて、表示期間が保証された付加情報を除去し、それを表示最優先の扱いとする。上述のように、表示期間を保証する例としては、(a)付加情報が動画像であって、再生途中であるもの、(b)付加情報は静止画像であるが、所定の重畳領域において所定の表示期間が保証され、その期間が経過していないもの、が挙げられる。
【0110】
次に、ステップ705にて、全付加情報に関する重畳領域候補を、付加情報重畳パラメータ部220Bの重畳領域優先順位(図14)及び付加情報管理パラメータ部220Cのパラメータ値に基づいて、ソートする。それによってソート後の順位が決まる。本例では、主情報の属性により重畳領域優先順位が異なるため、主情報の状態に応じて条件を変化させる。
ステップ706にて、各付加情報の重畳領域候補より重畳位置、即ち、重畳領域を決定する処理を開始する。以下の処理は、図9の第1の例と同様である。
【0111】
図18を参照してBSデジタルテレビジョン放送の番組情報の概念を説明する。BSデジタルテレビジョン放送の番組は、EIT(Event Information Table)、PMT(Program Map Table)及び番組データを含む。EITは、主情報である番組に関する次の記述(属性)を含む。
(1)コンポーネント内容:映像、音声の区別
(2)コンポーネント種別:映像、音声の種別の記載
(2)大分類:番組の大分類を示す。例えば、ニュース、スポーツ、情報、ドラマ、映画等である。
(3)中分類:番組の大分類からさらに細かい分類を示す。例えば、「スポーツ」の場合、野球、サッカー、ゴルフ等である。
(4)イベント:番組に1対1対応したID
PMTは、付加情報である緊急情報に関する次の記述(属性)を含む。
(1)サービス種別:緊急放送を流すチャンネルID
(2)開始終了フラグ:緊急情報の放送有無を示す。
(3)信号種別:第1種(地震)、第2種(津波)の種別を示す。(無線局運用規則138条規定)
(4)地域符号:緊急情報対象の地域を示す。(無線局運用規則138条規定)
【0112】
図18のBSデジタルテレビジョン放送では、付加情報として地震、津波等の緊急情報を想定しているが、本発明によると、緊急情報ばかりでなく、CMなどの様々な種類の情報が適用可能である。
【0113】
以上、本発明の例を説明したが本発明は上述の例に限定されるものではなく、特許請求の範囲に記載された発明の範囲にて様々な変形が可能であることは当業者に理解されよう。
【0114】
【発明の効果】
本発明によると、主情報中の比較的情報量の少ない部分に付加情報を重畳するから、主情報の視聴を妨げない効果がある。
本発明によると、主情報の画像において付加情報を重畳する領域を自動的に検出するから、付加情報提供者は、主情報の内容に応じて重畳位置及び時間を予め考える必要がない効果がある。
【0115】
本発明によると、付加情報を重畳する際に、主情報と付加情報の少なくとも1つの画素情報を使用して、付加情報の重畳を行うため、視覚的な効果の高い重畳が可能となる効果がある。
【0116】
本発明によると、主情報の画像中に付加情報を重畳する場合の条件を、視聴者が入力手段より入力することができるため、視聴者の意図に応じた付加情報の重畳が可能となる効果がある。
本発明によると、主情報に付加情報を重畳する際に、主情報や付加情報を加工するから、より効率良い付加情報の重畳が可能となる効果がある。
【0117】
本発明によると、蓄積した主情報の任意時間、任意座標の画素情報を使用することにより、付加情報を重畳する領域をいつでも検出することが可能となる効果がある。また、画素の差異を利用する場合も、任意時間における隣接画素の差異だけではなく、任意時間からの未来の座標との差異を利用することも可能となる効果がある。
【0118】
本発明によると、蓄積した主情報の全時間の情報を使用することにより、付加情報の重畳に使用する領域の状態がどのくらいの期間継続するかという情報も得ることができる。それにより領域に関して重畳期間を保障することが可能となる効果がある。
【0119】
本発明によると、重畳期間が保障された付加情報を重畳する領域が検出できることにより、付加情報に関して動画像を重畳することが可能となる効果がある。
本発明によると、主情報、付加情報の属性を抽出し、それを付加情報の重畳に使用することにより、より柔軟な重畳が可能となる効果がある。
【0120】
本発明によると、付加情報を重畳した結果を記録することにより、これまでに表示された時間や位置などに応じて、付加情報の重畳を変化させることが可能になる効果がある。
本発明によると、付加情報を蓄積することにより、1回蓄積しておけば、いつでも主情報上に重畳することが可能になる効果がある。
【0121】
本発明によると、付加情報を重畳した記録を使用して、蓄積された付加情報を自動的に管理することにより、使用者が蓄積された付加情報を削除する煩わしさを解消することが可能になる効果がある。
【図面の簡単な説明】
【図1】本発明によるデジタルテレビジョン放送受信機において、主情報に付加情報を重畳して表示する方法の概念を説明するための説明図である。
【図2】本発明によるデジタルテレビジョン放送受信機の第1の例の構成を示す図である。
【図3】本発明によるデジタルテレビジョン放送受信機の第1の例の空間色変化量解析部における空間色変化量Sc(X,Y,T)の計算例を説明するための説明図である。
【図4】本発明によるデジタルテレビジョン放送受信機の第1の例の時間色変化量解析部における時間色変化量Tc(X,Y,T)の計算例を説明するための説明図である。
【図5】本発明によるデジタルテレビジョン放送受信機の第1の例の領域検出パラメータ部に記録されたパラメータを説明するための説明図である。
【図6】本発明によるデジタルテレビジョン放送受信機の第1の例の付加情報重畳パラメータ部に記録されたパラメータを説明するための説明図である。
【図7】本発明によるデジタルテレビジョン放送受信機の第1の例における付加情報重畳用の領域Dの概念を説明するための説明図である。
【図8】本発明によるデジタルテレビジョン放送受信機の第1の例の重畳領域検出部における処理を説明するための流れ図である。
【図9】本発明によるデジタルテレビジョン放送受信機の第1の例の重畳判断部における処理を説明するための流れ図である。
【図10】本発明によるデジタルテレビジョン放送受信機の第1の例の重畳判断部における処理に使用する重畳領域候補の例を示す図である。
【図11】図10の重畳領域候補の例を図6の重畳領域優先順位でソートした結果を示す図である。
【図12】本発明によるデジタルテレビジョン放送受信機の第2の例の構成を示す図である。
【図13】本発明によるデジタルテレビジョン放送受信機の第2の例の領域抽出パラメータ部に記録されたパラメータを説明するための説明図である。
【図14】本発明によるデジタルテレビジョン放送受信機の第2の例の付加情報重畳パラメータ部に記録されたパラメータを説明するための説明図である。
【図15】本発明によるデジタルテレビジョン放送受信機の第2の例の蓄積管理パラメータ部に記録されたパラメータを説明するための説明図である。
【図16】本発明によるデジタルテレビジョン放送受信機の第2の例において、主情報が蓄積データである場合の重畳領域部の処理を説明するための流れ図である。
【図17】本発明によるデジタルテレビジョン放送受信機の第2の例において、主情報が蓄積データである場合の重畳判断部の処理を説明するための流れ図である。
【図18】BSデジタルテレビジョン放送の番組情報の概念を説明するための説明図である。
【図19】従来のデジタルテレビジョン放送受信機の構成例を示す図である。
【図20】従来のデジタルテレビジョン放送受信機において、主情報に付加情報を重畳して表示する方法の概念を説明するための説明図である。
【符号の説明】
101…受信部、102…情報分離部、110…主情報再生部、111…空間色変化量解析部、112…時間色変化量解析部、113…主情報加工部、114…付加情報再生部、115…重畳領域検出部、116…重畳判断部、117…付加情報加工部、118…重畳処理部、120…内部メモリ、121…ユーザ入力部、201…受信部、202…情報分離部、203…主情報入力部、204…主情報属性抽出部、205…主情報蓄積部、206…付加情報入力部、207…付加情報属性抽出部、208…付加情報蓄積部、210…主情報再生部、211…空間色変化量解析部、212…時間色変化量解析部、213…主情報加工部、214…付加情報再生部、215…重畳領域検出部、216…重畳判断部、217…付加情報加工部、218…重畳処理部、219…重畳記録管理部、220…内部メモリ、221…ユーザ入力部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a digital television broadcast receiver having a function of superimposing and displaying data such as characters and images on a screen of a program being viewed.
[0002]
[Prior art]
2. Description of the Related Art In a digital television broadcasting system, data broadcasting is performed in which additional information such as images and audio data is superimposed on main information as a program and transmitted. In data broadcasting, a broadcaster that provides a broadcast program transmits additional information at the same time as the main information that is a program, and data transmitted as additional information includes information related to the program, which is broadcasted by the broadcast station. Information about other programs, advertisements, and emergency information such as earthquakes and tsunamis. The viewer can select viewing of the data broadcast by inputting the request signal.
[0003]
With reference to FIG. 19, an example of a conventional digital television broadcast receiver described in JP-A-2001-251565 will be described. This digital television broadcast receiver includes a receiving unit 301, an information separating unit 302, an additional information reproducing unit 314, a superimposing judging unit 316, a superimposing processing unit 318, an internal memory 320, and a user input unit 321. The internal memory 320 has an association table 320A of the time and the scene number of the main information, an association table 320B of the scene number and the additional information to be superimposed at that time, and an additional information storage unit 320C for storing the additional information.
[0004]
The receiving unit 301 decodes a broadcast signal from a broadcast station into a broadcast stream, and transmits the broadcast stream to the information separating unit 302. The information separation unit 302 separates the broadcast stream into a main information stream and an additional information stream, and transmits them to the superimposition processing unit 318 and the additional information reproduction unit 314, respectively. The additional information reproducing unit 314 extracts additional information image data and a superimposition parameter from the additional information stream, and transmits them to the internal memory 320. The superimposition determination unit 316 generates additional information image data to be superimposed on the main information from information from the internal memory 320 and the user input unit 321, and transmits the generated additional information image data to the superimposition processing unit 318. The superimposition processing unit 318 superimposes the main information stream from the information separation unit 302 and the additional information image data from the superimposition determination unit 316, and outputs it as broadcast program data.
[0005]
With reference to FIG. 20, the concept of a method of superimposing additional information on main information and displaying it on a screen in a conventional digital television broadcast receiver will be described. As shown in FIG. 20A, assume that a scene in which two persons are sitting and talking at a table is used as an image of main information. As shown in FIG. 20B, when the scene set in the internal memory 320 is displayed, the additional information is superimposed and displayed at the designated position 2001 in the image of the main information.
[0006]
In addition, a small image 2002 such as a button is displayed in the main information screen, and when a request to display additional information is input from the user input unit 321, the additional information can be displayed as an original large image. is there.
[0007]
[Patent Document 1]
JP 2001-251565 A
[Patent Document 2]
JP-A-11-164235
[0008]
[Problems to be solved by the invention]
In the related art, it is necessary to previously determine a superimposition position and a superimposition time at which additional information is superimposed on main information and displayed. Therefore, it is necessary to consider the superimposed position and time of the additional information while considering the scene of the main information so as not to hinder the viewing of the main information. However, in practice, additional information may be displayed at a position and time that hinder viewing of the main information.
[0009]
Even if a small image such as a button indicating the presence of the additional information is displayed instead of the additional information, such a small image is displayed at a fixed position in the main information. May interfere with
[0010]
An object of the present invention is to provide a digital television broadcast receiver capable of superimposing and displaying additional information on main information so as not to hinder viewing of the main information.
[0011]
An object of the present invention is to provide a digital television broadcast receiver which does not require the additional information provider to preset the superimposition position and superimposition time so as not to hinder viewing of the main information.
[0012]
[Means for Solving the Problems]
In general, television broadcast video has the following characteristics.
(1) Relatively important information tends to be displayed at the center of the screen, and relatively unimportant information tends to be displayed at the end of the screen.
(2) The part of the image of the main information, in which the amount of change in color gradation is spatially small, has a single-color configuration, and the importance of the information is often low.
(3) In a part of the image of the main information, where the amount of change in the color gradation is temporally small, the importance of the information is often low, such as the background.
(4) The high importance part and the low importance part of the image of the main information differ depending on the program content.
[0013]
According to the present invention, a portion considered to be less important in the main information is detected based on the characteristics of the image of the television broadcast, and the additional information is superimposed on the detected portion and displayed.
[0014]
According to the present invention, a television broadcast receiver includes an information separation unit that separates a broadcast signal from a television broadcast station into main information and additional information, and superimposes and displays an image of the additional information on an image of the main information. Superimposition region detecting means for detecting a superimposition region candidate for use; superimposition determination means for determining a position at which an image of additional information is superimposed and displayed from the superimposition region candidate detected by the superimposition region detection device; And superimposing processing means for superimposing the additional information and outputting it as broadcast program data.
[0015]
According to the present invention, in the television broadcast receiver, further, main information storage means for storing main information separated by the information separation means, and additional information storage means for storing additional information separated by the information separation means And
[0016]
Further, by adding the following function, more flexible handling of superimposition of additional information is possible.
(1) A parameter used for detecting a superimposed area of the additional information is changed based on the program contents of the main information and the additional information.
(2) When the main information and the additional information are stored data, it is possible to detect the superimposition region of the additional information by using the entire time data of each program.
[0017]
Further, by providing a means for the viewer to input conditions for superimposing the additional information on the main information, the additional information can be displayed without giving the viewer discomfort. Further, since the superimposed position of the additional information is automatically detected, the additional information sender does not need to consider the broadcast configuration of the main information, and can provide the additional information.
[0018]
BEST MODE FOR CARRYING OUT THE INVENTION
With reference to FIG. 1, the concept of a method of superimposing additional information on main information and displaying it on a screen in a digital television broadcast receiver according to the present invention will be described. As shown in FIG. 1A, a scene in which two people are sitting and talking at a table is assumed as an image of main information. As shown in FIG. 1B, an area candidate for displaying the additional information is detected from the image of the main information. As a region candidate for displaying the additional information, a region in which the color change is small in time or space or a region in which the amount of main information is small is selected. For example, an area B1 with a small temporal change in color such as a background, an area B2 with a small spatial change in color such as a table, and a peripheral portion B3 of the screen are selected.
[0019]
As shown in FIG. 1C, for example, an area B1 with a small change in color over time is selected as an area in which the additional information A1 of "Announcement of AB City" is displayed in a superimposed manner. An area B2 having a small spatial change in color is selected as an area where information A2 is superimposed and displayed. Although not shown, other additional information may be superimposed and displayed on the peripheral portion B3 of the screen. The additional information A1 and A2 include characters, images, and the like. FIG. 1D shows a screen on which the additional information A1 and A2 are superimposed and displayed on the main information.
[0020]
Thus, in this example, since the additional information is superimposed and displayed on an area where the color change is small in time or space or an area where the amount of main information is small, the additional information is added to the main information without hindering the viewer's viewing. Information can be superimposed and displayed.
[0021]
A first example of a digital television broadcast receiver according to the present invention will be described with reference to FIG. The digital television broadcast receiver of this example includes a receiving unit 101, an information separating unit 102, a main information reproducing unit 110, a spatial color change amount analyzing unit 111, a temporal color change amount analyzing unit 112, a main information processing unit 113, and additional information. It has a reproduction unit 114, a superimposition area detection unit 115, a superimposition determination unit 116, an additional information processing unit 117, a superimposition processing unit 118, an internal memory 120, and a user input unit 121. The internal memory 120 has an area detection parameter section 120A and an additional information superimposition parameter section 120B. The data recorded in the internal memory 120 can be changed according to a user command input through the user input unit 121.
[0022]
The receiving unit 101 decodes a broadcast signal from a broadcast station into a broadcast stream, and transmits it to the information separating unit 102. The information separation unit 102 separates a broadcast stream into a main information stream and an additional information stream. Although the additional information of this example includes character information and video information, unlike the additional information of the related art, it is not necessary to include the superposition position and the superimposition time of the additional information.
[0023]
The main information reproducing unit 110 converts the main information stream into main information color gradation data Mc, which is image data of each sheet, and converts the main information stream into a spatial color change amount analysis unit 111, a temporal color change amount analysis unit 112, The information is transmitted to the main information processing unit 113 and the superimposed area detection unit 115.
[0024]
The spatial color change amount analysis unit 111 compares the color of the reference pixel and the color of the adjacent pixel at a predetermined time based on the main information color gradation data Mc, and calculates the spatial color change amount Sc from the difference between the two. Based on the main information color gradation data Mc, the temporal color change amount analysis unit 112 compares the color of the reference pixel at a predetermined time with the past color, and calculates the temporal color change amount Tc from the difference between the two.
[0025]
The additional information reproducing unit 114 converts the additional information stream into additional information color gradation data Ac, which is image data, and transmits it to the superimposed area detection unit 115 and the additional information processing unit 117. At the same time, data such as the reception time of the additional information and the size of the image are transmitted to the superimposition region detection unit 115 and the superimposition determination unit 116.
[0026]
The superimposition region detection unit 115 detects a superimposition region candidate for each additional information based on the following parameters.
(1) Set value of area detection parameter section 120A
(2) Set value of additional information superimposition parameter section 120B
(3) Main information color gradation data Mc from main information reproducing section 110
(4) Spatial color change Sc from the spatial color change analyzer 111
(5) Temporal color change amount Tc from temporal color change amount analysis unit 112
(6) Additional information color gradation data Ac from additional information reproducing unit 114
(7) Reception time and size of image from additional information reproducing unit 114
[0027]
The superimposition region detection unit 115 transmits the detected superimposition region candidate data to the superimposition determination unit 216. The superimposition determination unit 116 receives the additional information reception time and the image size from the additional information reproduction unit 114, the superimposition area candidate data of each additional information from the superimposition area detection unit 115, and the superimposition area priority from the additional information superimposition parameter unit 120B. The position where the additional information is superimposed on the main information is determined, that is, the superimposition area is determined. The superimposition determination unit 116 transmits the determined superimposition region to the main information processing unit 113 and the additional information processing unit 117.
[0028]
The main information processing unit 113 processes the main information color gradation data Mc from the main information reproduction unit 110 into a form suitable for superimposition based on the condition from the superimposition determination unit 116. The additional information processing unit 117 processes the additional information color gradation data Ac from the additional information reproduction unit 114 into a form suitable for superimposition based on the condition from the superimposition determination unit 116. Finally, the superimposition processing unit 118 superimposes the processed main information color gradation data Mc and the additional information color gradation data Ac, and outputs the result as broadcast program data.
[0029]
With reference to FIG. 3, an example of calculation of the space color change Sc (X, Y, T) in the space color change analyzer 111 will be described. Here, the spatial color change amount Sc (X, Y, T) is defined as a numerical value of the color tone difference between the pixel at the coordinates (X, Y, T) at time T and the adjacent pixel. The coordinates (X, Y, T) are referred to as reference coordinates, and the pixel is referred to as a reference pixel.
[0030]
In the example of FIG. 3, the main information color gradation data of the reference pixel is Mc (X, Y, T), and the main information color gradation data of four pixels adjacent in the X coordinate direction and the Y coordinate direction is Mc (X + 1). , Y, T), Mc (X-1, Y, T), Mc (X, Y + 1, T) and Mc (X, Y-1, T). The spatial color change amount Sc (X, Y, T) includes main information color gradation data Mc (X + 1, Y, T), Mc (X-1, Y, T), Mc (X, Y + 1, T) and Mc (X, Y-1, T) and the absolute value of the difference between the main information color gradation data Mc (X, Y, T) of the reference pixel, and is expressed by the following equation.
[0031]
(Equation 1)
Mc (X, Y, T) = | Mc (X + 1, Y, T) -Mc (X, Y, T) | + | Mc (X-1, Y, T) -Mc (X, Y, T) | + | Mc (X, Y + 1, T) -Mc (X, Y, T) | + | Mc (X, Y-1, T) -Mc (X, Y, T) |
[0032]
It can be said that the larger this value is, the larger the spatial change of the color gradation is around the reference coordinates (X, Y, T). For example, the color gradation of a pixel at reference coordinates (X, Y, T) is 1, and the color gradation of pixels at coordinates (X-1, Y, T) and (X + 1, Y, T) adjacent in the X coordinate direction. Is 3 and 1, and the color gradation of pixels at coordinates (X, Y-1, T) and (X, Y + 1, T) adjacent in the Y coordinate direction are 2 and 1, and the spatial color change Sc (X, Y, T) is as follows.
[0033]
(Equation 2)
Sc (X, Y, T) = 2 + 0 + 1 + 0 = 3
[0034]
In this example, the spatial color change amount Sc (X, Y, T) is indicated by the absolute value of the color gradation difference between the reference pixel and four adjacent pixels in a single-color image. However, if the degree of color gradation change around a pixel can be quantified, such a calculation method need not be used. For example, the correction may be made by the following method.
(1) An image of a plurality of colors such as a color image (although it is a single color image in the example of FIG. 3).
(2) The number of adjacent pixels to be compared with the reference pixel is increased or decreased (in the example of FIG. 3, the number of adjacent pixels is compared with four adjacent pixels). The reference pixel is compared with a neighboring pixel instead of an adjacent pixel.
(3) Weighting is performed by pixels and gradations (though there is no weighting in the example of FIG. 3).
(4) The calculation method of the amount of color change between the reference pixel and the adjacent pixel is changed (although in the example of FIG. 3, the absolute value of the difference between the color gradations).
[0035]
Next, a calculation example of the temporal color change amount Tc (X, Y, T) in the temporal color change amount analysis unit 112 will be described with reference to FIG. Here, the temporal color change amount Tc (X, Y, T) is a value obtained by quantifying the color tone difference between the pixel at the time T and the pixel at a time earlier than that at a predetermined coordinate (X, Y). Defined to be. The coordinates (X, Y, T) are referred to as reference coordinates, and the pixel is referred to as a reference pixel.
[0036]
In the example of FIG. 4, the main information color gradation data of the reference pixel is Mc (X, Y, T), and the main information color gradation data of the pixel at the past time T-1 and T-2 is Mc (X , Y, T-1) and Mc (X, Y, T-2). The temporal color change amount Tc (X, Y, T) is the main information color gradation data Mc (X, Y, T-1), Mc (X, Y, T-2) of the pixel in the past two images. And the main information color gradation data Mc (X, Y, T) of the reference pixel.
[0037]
[Equation 3]
Tc (X, Y, T) = | Mc (X, Y, T) -Mc (X, Y, T-1) | + | Mc (X, Y, T) -Mc (X, Y, T-2 ) |
[0038]
It can be said that the larger this value is, the larger the temporal change of the color gradation of the pixel at the reference coordinates (X, Y, T) is. For example, the color gradation of the pixel at the reference coordinate (X, Y, T) at the time T is 2, the color gradation of the pixel at the coordinate (X, Y, T-1) at the time T-1 is 1, and the color gradation at the time T- Assuming that the color gradation of the pixel at the coordinates (X, Y, T-2) in 2 is 1, the temporal color change amount Tc (X, Y, T) is as follows.
[0039]
(Equation 4)
Tc (X, Y, T) = 1 + 1 = 2
[0040]
In this example, the temporal color change amount Tc (X, Y, T) is indicated by the absolute value of the color gradation difference between the reference pixel and the past two pixels in the monochrome image. However, as long as the degree of color gradation change over time of a pixel can be quantified, this method need not be used. For example, the correction may be made by the following method.
(1) A plurality of color images are formed like a color image (although the image in FIG. 4 is a single color image).
(2) (In the example of FIG. 4, the reference pixel and the past two pixels are compared) The number of past pixels to be compared with the reference pixel is increased or decreased.
(3) In the example of FIG. 4, only pixels in the past are used, but future pixels are used for detecting a color gradation change in accumulated data or the like.
(4) Weighting is performed by pixels and gradations (though there is no weighting in the example of FIG. 4).
(5) The method of calculating the amount of color change between the reference pixel and the past pixel is changed (although the absolute value of the color tone difference is used in the example of FIG. 4).
[0041]
An example of data recorded in the area detection parameter unit 120A will be described with reference to FIG. The following five parameters are recorded in the area detection parameter section.
(1) A superimposable area: an area in which additional information on an image of main information can be superimposed. In the first example of FIG. 5, the superimposable area is within 200 pixels from the four sides of the main information image. In the second example, the superimposable area is the four sides of the main information image. Is within 300 pixels. As shown in FIG. 7, the superimposable area is a frame-shaped portion along the edge of the image of the main information.
(2) Spatial color change average value Ave (Sc): Reference value or condition of the average spatial color change amount for all coordinates in area D
(3) Spatial color change amount variance Dist (Sc): a reference value or condition of the variance of the space color change amount for all coordinates in the area D
(4) Temporal color change average value Ave (Tc): Reference value or condition of average of temporal color change amounts for all coordinates in area D
(5) Temporal color change amount variance Dist (Tc): a reference value or condition of an average value of the temporal color change amount for all coordinates in the area D
[0042]
According to these conditions, the superimposition region detection unit 115 detects a superimposition region candidate. The values of these parameters can be changed by a user command input via the user input unit 121. In addition, here, these five parameters are shown as an example, but other parameters can also be used as long as the parameters indicate characteristics of the superimposed region. For example, (1) weighting of the average value of the color change amount from the center coordinates (X, Y), (2) recognition of a superimposable area used in a DP (Dynamic Programming) matching method or the like. Parameters such as a model for use.
[0043]
An example of data recorded in the additional information superimposition parameter unit 120B will be described with reference to FIG. The following parameters are recorded in the additional information superimposition parameter section.
(1) Superimposable average color tone difference: Reference value or condition of difference between main information average color tone Ave (Mc) and additional information average color tone Ave (Ac) in region D
(2) Additional information discoloration gradation: reference value or condition of color gradation amount of additional information image that may be changed to superimpose additional information on main information
(3) Additional information deformation amount: a reference value or condition of the additional information image deformation amount which may be changed to superimpose the additional information on the main information.
(4) Main information discoloration gradation: reference value or condition of color gradation amount of main information image which may be changed to superimpose additional information on main information
(5) Superimposition area priority: priority used for determining the superimposition area
[0044]
The superimposition determination unit 116 determines a superimposition position, that is, a superimposition area, using these parameters as superimposition references, and the superimposition area detection unit 115 uses these parameters to detect superimposition area candidates. These parameters can be changed by the user's instruction input via the user input unit 121, similarly to the area detection parameters. Also, here, these five parameters are shown as an example. For example, (1) additional information is displayed instantaneously, and the minimum superimposed display time for preventing the viewer from noticing the display of the additional information, and the like. It is also possible to use a parameter indicating a method of superimposing additional information.
[0045]
With reference to FIG. 7, an outline of a method of detecting a superimposition region candidate for superimposing the image AIG of the additional information on the image MIG of the main information in the superimposition region detection unit 115 will be described. The superimposition region detection unit 115 inputs the main information from the main information generation unit 110 and the additional information from the additional information reproduction unit 114. The image AIG of the additional information may be rectangular. First, the center coordinates are provisionally set in the superimposable area, and a plurality of areas D are created on the center coordinates. The area D is obtained by deforming the image of the additional information based on the size of the image of the additional information from the additional information reproducing unit 114 and the amount of additional information deformation from the additional information superimposing parameter unit 120B. Next, it is calculated whether or not these areas D satisfy predetermined conditions in the superimposable area from the area detection parameter unit 120A. A region D that satisfies the condition is a superimposition region candidate for superimposing the additional information on the main information.
[0046]
Further, in this example, the area D is rectangular, but by adding a parameter, the area D has a complex shape such as a star shape or a ring shape, or an area where the additional information includes a transparent color. It is also possible to handle various areas.
[0047]
The operation of the superimposed region detection unit 115 will be described with reference to FIG. In step 401, a process of detecting a superimposed region is started. The detection of the superimposition region is performed for each additional information. In step 402, the center coordinates (X, Y) are temporarily determined in the superimposable area specified by the area detection parameter unit 120A. Further, based on the additional information color gradation data Ac from the additional information reproducing unit 114, an additional information average color gradation Ave (Ac) which is an average color gradation of all pixels of the additional information is calculated. This calculation is performed to know the color characteristics of the entire additional information image in order to effectively arrange the additional information image. Here, the color characteristics of the additional information image data are to be grasped by the average value of the color gradations of all the pixels of the additional information. However, the method is not limited to this if the color characteristics of the additional information image data can be grasped.
[0048]
In step 403, the processing regarding the coordinates (X, Y) temporarily determined is started. In step 404, a region D for superimposing additional information is provisionally determined around the coordinates (X, Y). As described above, the size of the additional information superimposition region D is determined by the size of the additional information image from the additional information reproducing unit 114 and the amount of additional information deformation from the additional information superimposition parameter unit 120B. In this example, the coordinates (X, Y) are defined as the center coordinates of the area D, but the present invention is not limited to this as long as the position of the area D can be uniquely defined in the main information image. In step 405, the processing for the area D is started.
[0049]
In step 406, it is determined whether or not the area D centered on the coordinates (X, Y) exceeds the superimposable area set in the area detection parameter unit 120A. If the area D exceeds the superimposable area, the process proceeds to step 415. If the area D does not exceed the superimposable area, the process proceeds to step 407.
[0050]
In step 407, processing for all coordinates in the area D is started. In step 408, first, for all the coordinates in the region D, the spatial color change amount Sc, the temporal color change amount Tc, and the main information color gradation data Mc are respectively converted into the spatial color change amount analysis unit 111 and the temporal color change amount analysis unit 111. Called from the unit 112 and the main information reproducing unit 110. Next, the following parameters for the area D are calculated.
[0051]
(1) Average spatial color change Ave (Sc): average value of spatial color change Sc for all coordinates in area D
(2) Spatial color change amount variance Dist (Sc): a variance value of the spatial color change amount Sc for all coordinates in the area D
(3) Average temporal color change amount Ave (Tc): average value of temporal color change amount Tc for all coordinates in area D
(4) Temporal color change amount variance Dist (Tc): variance value of temporal color change amount Tc for all coordinates in region D
(5) Main information average color tone Ave (Mc): average value of main information color tone Mc for all coordinates in area D
[0052]
In this example, these five parameters are calculated. However, if the calculation for all coordinates in the area D and the parameters for detecting the superimposed area are defined, other values are calculated for detecting the superimposed area. It is also possible.
[0053]
In step 409, the four parameters Ave (Sc), Dist (Sc), Ave (Tc), and Dist (Tc) calculated in step 408 are defined by the area detection parameter unit 120A (FIG. 5). It is determined whether or not the above is satisfied. If satisfied, proceed to step 410; otherwise, proceed to step 415.
[0054]
In step 410, the processing of the average color gradation is started. In step 411, the main information average color tone Ave (Mc) in the area D calculated in step 408 is compared with the additional information average color tone Ave (Ac) calculated in step 402. The reason why the average color gradation of the main information image and the average color gradation of the additional information image are compared is to know the color characteristics of the entire image and to effectively arrange the additional information. Here, the color feature of the image data is to be grasped by the average value of the color gradation of all pixels, but the method is not limited to this if the color feature can be grasped.
[0055]
It is determined whether or not the difference value between the two satisfies the condition of the superimposable average color tone difference (FIG. 6) defined by the additional information superimposition parameter unit 120B. If so, the process proceeds to step 414; otherwise, the process proceeds to step 412.
[0056]
In step 412, it is determined whether there is any uncalculated color change. If there is an uncalculated color change, the process proceeds to step 413; otherwise, the process proceeds to step 415.
[0057]
In step 413, first, the main information and the additional information are discolored within the range of the main information discoloration gradation and the additional information discoloration gradation defined by the additional information superimposition parameter unit 120B (FIG. 6). Here, as a method of the color change processing, it is considered that the color gradation is similarly increased / decreased for all pixels of the main information image of the monochromatic image and the additional information image, but the following method is also conceivable.
[0058]
(1) A method of changing a weight to be changed for each color in a multi-color image of a color image
(2) A method of changing the weight in a region such that the color change is small at the center of the region and large at the end.
(3) A method of changing the main information based on the value of the main information color gradation data Mc and the additional information based on the value of the additional information color gradation data Ac in accordance with the color gradation of each pixel.
[0059]
Next, the main information average color tone Ave (Mc) in the area D calculated in step 408 and the additional information average color tone Ave (Ac) calculated in step 402 are added by the additional information superimposition parameter unit 120B. Recalculation is performed so as to satisfy the defined superimposable average color tone difference condition (FIG. 6), and the process returns to step 410 to perform the average color tone process again.
[0060]
In step 414, the center coordinates (X, Y), the area D, the amount of deformation of the additional information in the area D, the amount of discoloration of the main information and the additional information, the gradation difference between the main information and the additional information, and the like are registered. This is transmitted to the superimposition determination unit 116.
[0061]
At step 415, it is determined whether there is any uncalculated shape of the region D. That is, based on the additional information deformation amount of the additional information superimposition parameter section 120B, it is determined whether or not the area D can be further deformed. If there is an uncalculated one, that is, if the area D can be deformed, the shape of the area D is changed in step 416, and the process returns to step 405 to perform processing relating to the new area D after the change.
[0062]
If there is no uncalculated one, that is, if the area D cannot be further deformed, it is determined in step 417 whether the processing has been performed for all the coordinates of the superimposable area. If the process has been completed, the process proceeds to step 419, and the detection ends. If the process has not been completed, the process proceeds to step 418, the uncalculated coordinates are set to the center coordinates (X, Y), and the process returns to step 403. , The processing relating to the center coordinates (X, Y) is performed. FIG. 10 illustrates an example of the superimposed region candidate data obtained by the superimposed region detection unit 115.
[0063]
With reference to FIG. 9, a process of determining a superimposition region in the superimposition determination unit 116 will be described. In step 501, the process is started. In step 502, a sort process for obtaining the order used for determining the superimposed area is started. First, in step 503, it is determined whether or not a superimposition region candidate from the superimposition region detection unit 115 exists. If there is no superimposed region candidate, the process proceeds to step 511; otherwise, the process proceeds to step 504.
[0064]
Next, in step 504, the superimposition region candidates for all the additional information are sorted according to the superimposition region priority (FIG. 6) of the additional information superimposition parameter unit 120B. It determines the order after sorting.
[0065]
In step 505, a process of determining a superimposition position, that is, a superimposition region from the superimposition region candidate of each additional information is started. In step 506, processing for determining a superimposition area for each additional information is started. In step 507, among the superimposition region candidates of the additional information to be processed, the one with the highest rank after sorting is determined to be the most probable candidate, and the most prominent candidate competes with the superimposition region candidate of other additional information for the region. It is determined whether or not there is. If there is a conflict, the process proceeds to step 508; otherwise, the process proceeds to step 512.
[0066]
In step 508, it is determined whether the superposition area candidate of the most probable candidate has a lower rank after sorting than the superposition area candidate of other additional information of the competitor. If the most probable candidate has a lower ranking after sorting than the competing candidate, the process proceeds to step 509. If the ranked candidate is not lower than the competing candidate, the process proceeds to step 512.
[0067]
In step 509, it is determined whether or not other overlapping area candidates other than the current most probable candidate exist in the additional information to be processed. If another superimposition region candidate exists, the process proceeds to step 510; otherwise, the process proceeds to step 511. In step 510, the process returns to step 506 with another superimposed region candidate of the additional information to be processed as the most probable candidate.
[0068]
In step 511, it is determined that the superimposed area cannot be detected, and no additional information is output. At step 512, the most probable candidate is determined as a superimposition region of the additional information and output. In step 513, it is determined whether or not a superimposition region has been determined for all pieces of additional information. If the superimposition region has been determined for all the additional information, the process ends in step 515. If the superimposition region has not been determined for all the additional information, the process proceeds to step 514. Processing for determining an area is performed.
[0069]
This will be described with reference to FIGS. FIG. 10 shows an example of a superimposition region candidate for each piece of additional information detected by the superimposition region detection unit 115. The size of each of the images of the additional information 1, 2, and 3 is 100 × 50. The deformation information indicates a deformation amount of a superimposed region candidate for an image of 100 × 50. Two overlapping area candidates 101 and 102 are detected for the additional information 1, one overlapping area candidate 103 is detected for the additional information 2, and two overlapping area candidates 104 and 105 are detected for the additional information 3. Have been. The data of the additional information from the additional information reproducing unit 114 is attached to each superimposition area candidate.
[0070]
The process of determining a superimposition region in the superimposition determination unit 116 shown in FIG. 9 will be described with reference to the examples of FIGS. First, in order to generate a ranking to be used in the determination of the area conflict, the overlapping area candidates 101 to 105 are sorted (step 504). FIG. 11 shows the result of sorting the superimposition region candidates 101 to 105 according to the superimposition region priority (FIG. 6) of the additional information superimposition parameter unit 120B. The superimposition region candidates 101 to 105 are arranged in ascending order of the main information discoloration gradation which is the first condition. The three superimposition region candidates 101, 103, and 104 have the same main information discoloration gradation. Therefore, the three superimposition region candidates 101, 103 and 104 are arranged in ascending order of the additional information discoloration gradation which is the second condition. Thus, the order of all the superimposed region candidates is determined by continuing the sorting according to the conditions until there is no superimposed region candidate having the same order. If the order of all the superimposed region candidates can be determined, conditions other than the conditions described here may be used.
[0071]
The process of determining the superimposition area of the first additional information 1 will be described. Two superimposition region candidates 101 and 102 have been detected for the first additional information 1. The first superimposition region candidate 101 having a higher ranking after sorting is set as the most probable candidate. It is determined whether or not the most probable candidate has a region conflict with the overlapping region candidates of the additional information 2 and 3. The area competition can be determined by comparing the center coordinates of each superimposed area candidate with the size of the image. The first superimposition region candidate 101 as the most probable candidate competes with the second superimposition region candidate 102 and the superimposition region candidate 103 of the second additional information 2 for the region. Here, consideration is given to whether or not there is a region conflict with a superimposition region candidate of other additional information. Therefore, only the overlapping area candidate 103 of the second additional information 2 is targeted. The first superposition area candidate 101 as the most probable candidate has a lower rank than the superposition area candidate 103 of the second additional information 2. Therefore, the superimposed area of the first additional information 1 is not detected.
[0072]
The process of determining the superimposition area of the second additional information 2 will be described. As for the second additional information 2, only one overlapping area candidate 103 is detected. The superimposition region candidate 103 is set as the most probable candidate. It is determined whether or not the most probable candidate has a region conflict with the overlapping region candidates of other additional information 1 and 3. The overlapping area candidate 103 competes with the overlapping area candidates 101 and 102 of the first additional information 1 for an area. However, the superposition area candidate 103 as the most probable candidate has a higher ranking after sorting than the superposition area candidates 101 and 102 of the first additional information 1 of the competitor. Therefore, regarding the second additional information 2, the overlapping area candidate 103 is determined as the overlapping area.
[0073]
A process of determining a superimposition region of the third additional information 3 will be described. Two superimposed region candidates 104 and 105 have been detected for the third additional information 3. The first superimposed region candidate 104 having a higher ranking after sorting is set as the most probable candidate. It is determined whether or not this most probable candidate has a region conflict with the overlapping region candidates of the additional information 1 and 2. The first overlap region candidate 104 competes with the second overlap region candidate 105 for an area, but does not compete with another overlap information candidate overlap region candidate. Therefore, regarding the third additional information 3, the overlapping area candidate 104 is determined as the overlapping area.
[0074]
A second example of the digital television receiver according to the present invention will be described with reference to FIG. The digital television receiver of this example includes a receiving unit 201, an information separating unit 202, a main information input unit 203, a main information attribute extracting unit 204, a main information storage unit 205, an additional information input unit 206, and an additional information attribute extracting unit 207. , Additional information storage unit 208, main information reproduction unit 210, spatial color change amount analysis unit 211, temporal color change amount analysis unit 212, main information processing unit 213, additional information reproduction unit 214, superimposition area detection unit 215, superposition determination unit 216, an additional information processing unit 217, a superimposition processing unit 218, a superimposition record management unit 219, an internal memory 220, and a user input unit 221. The internal memory 220 has an area detection parameter section 220A, an additional information superimposition parameter section 220B, and an additional information management parameter section 220C. The data recorded in the internal memory 220 can be changed according to a user command input via the user input unit 221.
[0075]
The receiving unit 201 decodes a broadcast signal from a broadcast station into a broadcast stream, and transmits the broadcast stream to the information separating unit 202. The information separation unit 202 separates a broadcast stream into a main information stream and an additional information stream. The additional information of this example includes character information and video information as in the first example. However, unlike the additional information of the conventional example, the additional information need not include the superimposed position and the superimposed time of the additional information. Further, the additional information in this example includes not only still image information but also moving image information.
[0076]
The main information input unit 203 transmits the main information stream to the main information attribute extraction unit 204. If the main information needs to be stored, the main information is transmitted to the main information storage unit 205. The main information storage unit 205 outputs the stored main information data to the main information input unit 203 as needed.
[0077]
The additional information input unit 206 transmits the additional information stream to the additional information attribute extraction unit 207. If additional information needs to be stored, the additional information is transmitted to the additional information storage unit 208. The additional information storage unit 208 outputs the stored additional information data to the additional information input unit 206 as needed.
[0078]
The main information attribute extracting unit 204 extracts the attribute of the main information stream, transmits the extracted attribute to the internal memory 220, and transmits the main information stream to the main information reproducing unit 210. The additional information attribute extraction unit 207 extracts the attribute of the additional information stream, transmits it to the internal memory 220, and transmits the additional information stream to the additional information reproduction unit 214. The attributes of the main information and the additional information are transmitted to the area detection parameter unit 220A, the additional information superimposition parameter unit 220B, and used. Further, the additional information is transmitted to the additional information management parameter unit 220C, and is used for displaying and managing the additional information.
[0079]
The main information reproducing unit 210 converts the main information stream into main information color gradation data Mc, which is image data for each sheet, and converts it into a spatial color change amount analysis unit 211, a temporal color change amount analysis unit 212, The information is transmitted to the information processing unit 213 and the superimposed area detection unit 215.
[0080]
The space color change amount analysis unit 211 compares the color of the reference pixel and the color of the adjacent pixel at a predetermined time based on the main information color gradation data Mc, and calculates the space color change amount Sc from the difference between the two. The temporal color change amount analysis unit 212 compares the color of the reference pixel at a predetermined time with the past color based on the main information color gradation data Mc, and calculates the temporal color change amount Tc from the difference between the two.
[0081]
The additional information reproducing unit 214 converts the additional information into additional information color gradation data Ac, which is image data, and transmits it to the superimposed area detection unit 215 and the additional information processing unit 217. Further, the additional information reproducing unit 214 transmits data such as the image size of the additional information to the additional information management parameter unit 220C.
[0082]
The superimposition region detection unit 215 detects a superimposition region candidate for each additional information based on the following parameters.
(1) Set value of area detection parameter section 220A
(2) Set value of additional information superimposition parameter section 220B
(3) Additional information parameters of additional information management parameter section 220C
(4) Main information color gradation data Mc from main information reproducing section 210
(5) Spatial color change Sc from the spatial color change analyzer 211
(6) Temporal color change amount Tc from temporal color change amount analysis unit 212
(7) Additional information color gradation data Ac from additional information reproducing unit 214
[0083]
The superimposition region detection unit 215 transmits the detected superimposition region candidate data to the superimposition determination unit 216. The superimposition determining unit 216 receives the superimposition region candidate data of each additional information from the superimposition region detection unit 215, the superimposition region priority order from the additional information superimposition parameter unit 220B, the additional information reception time from the additional information management parameter unit 220C, and the like. The position where the additional information is superimposed on the information, that is, the superimposition area is determined. The superimposition determination unit 216 transmits the determined superimposition area to the main information processing unit 213 and the additional information processing unit 217.
[0084]
The main information processing unit 213 processes the main information color tone data Mc from the main information reproduction unit 210 into a form suitable for superimposition based on the condition from the superimposition determination unit 216. The additional information processing unit 217 processes the additional information color gradation data Ac from the additional information reproducing unit 214 into a form suitable for superimposition based on the condition from the superimposition determination unit 216. The superimposition processing unit 218 superimposes the processed main information color gradation data Mc and the additional information color gradation data Ac, and outputs the result as broadcast program data.
The superimposition recording management unit 219 records the output result for each additional information, and transmits it to the additional information management parameter unit 220C.
[0085]
In this example, compared to the first example, the main information data stored in the main information storage unit 205 is used as the main information, and the additional information data stored in the additional information storage unit 208 is used as the additional information. Is different. Therefore, in the present example, the following is possible.
[0086]
(1) An image that needs to guarantee a predetermined display period can be used as additional information. An example of a display period that needs to be guaranteed is a moving image, but a still image other than a moving image is provided with a predetermined display period. Such additional information is handled with the highest priority on display.
[0087]
The superimposition area detection unit 215 can detect the time during which the area for superimposition satisfies the superimposition condition of the additional information by using the accumulated main information of all times. This makes it possible to detect a superimposed region candidate for additional information for which a display period needs to be guaranteed.
[0088]
(2) The main information reproducing unit 210 can convert main information data at an arbitrary time into main information color gradation data Mc.
The method of calculating the spatial color change Sc and the temporal color change Tc in the spatial color change analysis unit 211 and the temporal color change analysis unit 212 is the same as in the first example, and the calculation example is shown in FIG. , And FIG. However, in the present example, unlike the first example, the spatial color change amount analysis unit 211 and the temporal color change amount analysis unit 212 can do the following.
(A) The spatial color change Sc and the temporal color change Tc at an arbitrary time in the main information are calculated.
(B) The main information color gradation data Mc from an arbitrary time to a future time can be used for calculating the temporal color change amount Tc.
As for the calculation method, the method is not limited to this example as long as the change amount of the color gradation can be quantified as in the first example.
[0089]
(3) By storing the additional information in the additional information storage unit 208, the additional information can be superimposed on the main information at an arbitrary time. That is, the time for superimposing the main information on the additional information can be arbitrarily selected. Further, by configuring the superimposition recording management unit 219 to automatically delete the additional information recorded in the additional information management parameter unit 220C, the trouble of the user deleting the additional information is eliminated.
[0090]
FIG. 13 shows an example of data recorded in the area detection parameter section 220A. The area detection parameters of this example include a superimposable area, a spatial color change average value Ave (Sc), a spatial color change amount variance Dist (Sc), a temporal color change average value Ave (Tc), and a temporal color change amount variance. It includes the reference value or condition of the value Dist (Tc) and is the same as the area detection parameter of the first example (FIG. 5). In this example, the area detection is performed in accordance with the attribute of the main information and the attribute of the additional information. The parameter settings 1 to 4 are changed.
[0091]
An example of data recorded in the additional information superimposition parameter unit 220B will be described with reference to FIG. The additional information superimposition parameter of this example includes a superimposable average color gradation difference, additional information discoloration gradation, additional information deformation amount, reference value or condition of main information discoloration gradation, and superimposition area priority. However, in this example, according to the attribute of the main information, the attribute of the additional information and the priority of the superimposition region, the superimposable average color gradation difference, the additional information discoloration gradation , The additional information deformation amount and the main information discoloration gradation condition settings 1 to 4, A, and B are changed.
[0092]
Note that the region detection parameter in FIG. 13 and the additional information superimposition parameter in FIG. 14 can be added or changed in the same manner as in the first example. Further, here, the area detection parameter is set according to the attribute of the main information and the attribute of the additional information. However, the parameter may be set only according to the attribute of each of the main information and the additional information. The parameter setting may be changed according to the state of the main information and the additional information such as the program name, the transmission destination of the main information and the additional information, and the reception date and time of the additional information.
[0093]
An example of data recorded in the additional information management parameter unit 220C will be described with reference to FIG. The additional information management parameters include the following examples.
(1) Additional information attribute: Indicates the content of the additional information.
(2) Issuer of additional information: Indicates the provider of the additional information.
(3) Video playback time: Indicates the video playback time included in the additional information. There are cases where only a still image is included.
(4) Additional information reception date and time: Indicates the date and time when the receiver received the additional information.
(5) Latest output time: indicates the latest time when the additional information is superimposed on the main information.
(6) Transmission time limit: Indicates the time during which the additional information can be superimposed on the main information.
(7) Elapsed transmission time: Indicates the total time up to the present when the additional information is superimposed on the main information.
[0094]
The additional information management parameters in FIG. 15 can be added or changed. The additional information management parameter is used for managing the additional information. For example, when the additional information transmission time limit is set, if the transmission elapsed time exceeds the additional information transmission time limit, processing such as not superimposing the additional information can be performed. In the case where the additional information is data stored in the additional information storage unit 208, processing such as deleting the additional information from the additional information storage unit 208 can be performed. This allows more flexible processing when superimposing the additional information on the main information.
[0095]
With reference to FIG. 16, an operation of the superimposition region detection unit 215 when the main information is data stored in the main information storage unit 205 will be described. In step 601, the process of detecting a superimposed area is started. The detection of the superimposition region is performed for each additional information. In step 602, the center coordinates (X, Y) are temporarily determined in the superimposable area specified by the area detection parameter unit 220A. In this example, a start time T at which the additional information is superimposed is temporarily set. Further, based on the additional information color gradation data Ac from the additional information reproducing unit 214, an additional information average color gradation Ave (Ac) which is an average color gradation of all pixels of the additional information is calculated. This example differs from the first example in FIG. 8 in that the start time T is temporarily determined.
[0096]
In step 603, processing relating to the provisionally determined center coordinates (X, Y) and start time T is started. In step 604, a region D for additional information superimposition is temporarily determined around the coordinates (X, Y). In this example, a period Tw in which additional information is superimposed is provisionally determined. The size of the area D for superimposition is determined by the size of the additional information image from the additional information reproducing unit 214 and the amount of additional information deformation from the additional information superimposition parameter unit 220B. Further, the period Tw is determined from the moving image reproduction time of the additional information management parameter unit 220C. In step 605, processing relating to the region D and the period Tw is started.
[0097]
In step 606, when the period Tw from the start time T is secured, it is determined whether or not the area D centered on the coordinates (X, Y) exceeds the superimposable area. If the area D exceeds the superimposable area, the process proceeds to step 607. If the area D does not exceed the superimposable area, the process proceeds to step 615.
[0098]
In step 607, a process for all coordinates in the area D in the period Tw is started. In step 608, first, the spatial color change amount Sc, the temporal color change amount Tc, and the main information color gradation data Mc for all the coordinates in the region D in the period Tw are converted into the spatial color change amount It is called from the color change amount analysis unit 212 and the main information reproduction unit 210. Next, the following parameters for the area D in the period Tw are calculated.
[0099]
(1) Average spatial color change Ave (Sc): average value of spatial color change Sc for all coordinates in region D during period Tw
(2) Spatial color change amount variance Dist (Sc): variance value of spatial color change amount Sc with respect to all coordinates in region D in period Tw
(3) Temporal color change amount average Ave (Tc): Average value of temporal color change amount Tc for all coordinates in region D during period Tw
(4) Temporal color change amount variance Dist (Tc): variance value of the temporal color change amount Tc for all coordinates in the area D during the period Tw
(5) Main information average color tone Ave (Mc): average value of main information color tone Mc for all coordinates in area D during period Tw
In this example, these five parameters are calculated. However, if the calculation for all coordinates in the area D in the period Tw and the parameters for detecting the superimposed area are defined, other parameters are detected for the superimposed area detection. It is also possible to calculate a value.
[0100]
At step 609, the four parameters Ave (Sc), Dist (Sc), Ave (Tc) and Dist (Tc) calculated at step 608 are defined by the area detection parameter unit 220A (FIG. 13). It is determined whether or not the above is satisfied. If satisfied, go to step 610; otherwise, go to step 615.
[0101]
In step 610, the processing of the average color gradation starts. In step 611, the main information average color tone Ave (Mc) in the area D calculated in step 608 is compared with the additional information average color tone Ave (Ac) calculated in step 602. I do. The reason why the average color gradation of the main information and the additional information is compared is to know the color characteristics of the entire image and to arrange the additional information effectively, as in the first example. The method is not limited to this if the features can be grasped.
[0102]
It is determined whether or not the difference value between the two satisfies the condition of the superimposable average color tone difference (FIG. 14) defined by the additional information superimposition parameter unit 220B. If so, the process proceeds to step 614; otherwise, the process proceeds to step 612. At step 612, it is determined whether there is any uncalculated color change. If there is one that has not been calculated for the discoloration, the process proceeds to step 613; otherwise, the process proceeds to step 615.
[0103]
In step 613, first, the main information and the additional information are discolored within the range of the additional information discoloration gradation and the main information discoloration gradation defined by the additional information superimposition parameter unit 220B (FIG. 14). Next, the main information average color tone Ave (Mc) in the area D calculated in step 608 and the additional information average color tone Ave (Ac) calculated in step 602 are added by the additional information superimposition parameter unit 220B. Recalculation is performed so as to satisfy the defined superimposable average color tone difference condition (FIG. 14), and the process returns to step 610 to perform the average color tone process again.
[0104]
In step 614, the start time T, the period Tw, and the region D in the period Tw are set as superimposable regions, and the center coordinates, the amount of deformation of the additional information in the region D, the amount of discoloration of the main information and the additional information, and the A gradation difference or the like is registered and transmitted to the superposition determination unit 216.
[0105]
In step 615, it is determined whether or not there is an uncalculated shape of the region D. That is, based on the additional information deformation amount of the additional information superimposition parameter section 220B, it is determined whether or not the area D can be further deformed. If there is an uncalculated one, that is, if the area D can be deformed, the shape of the area D is changed in step 616, and the process returns to step 605 to perform processing relating to the new area D after the change.
[0106]
If there is no uncalculated one, that is, if the area D cannot be deformed anymore, it is determined in step 617 whether the processing has been performed for all the coordinates of the superimposable area. If the process has been completed, the process proceeds to step 619. If the process has not been completed, the process proceeds to step 618. Uncalculated coordinates are set as center coordinates (X, Y), and the process returns to step 603. The processing related to (X, Y) is performed.
[0107]
In step 619, it is determined whether or not the processing has been completed for the time required for detection. If the processing has been completed, the process proceeds to step 621, and the detection processing ends. If the process has not been completed, the process proceeds to step 620, where the start time T is changed to the next time, and the process returns to step 603, where recalculation is performed from the coordinate and time processes.
[0108]
With reference to FIG. 17, a description will be given of a process of determining a superimposition region in superimposition determination section 116 when main information is data stored in main information storage section 205. In step 701, the process is started, and in step 702, a sort process for obtaining a ranking used for determining a superimposed area is started. First, in step 703, it is determined whether or not a superimposition region candidate at the current time T from the superimposition region detection unit 115 exists. If there is no superimposed region candidate, the process proceeds to step 712. If there is a superimposed region candidate, the process proceeds to step 704.
[0109]
In step 704, the additional information whose display period is guaranteed is removed, and the information is set as the display top priority. As described above, examples of guaranteeing the display period include (a) the additional information is a moving image that is being reproduced, and (b) the additional information is a still image. Is guaranteed, and the display period has not elapsed.
[0110]
Next, in step 705, the superimposition region candidates for all the additional information are sorted based on the superimposition region priority (FIG. 14) of the additional information superimposition parameter unit 220B and the parameter value of the additional information management parameter unit 220C. It determines the order after sorting. In this example, since the superimposition region priority differs depending on the attribute of the main information, the condition is changed according to the state of the main information.
In step 706, a process of determining a superimposition position, that is, a superimposition region from a superimposition region candidate of each additional information is started. The following processing is the same as in the first example of FIG.
[0111]
The concept of the program information of the BS digital television broadcast will be described with reference to FIG. The BS digital television broadcast program includes an EIT (Event Information Table), a PMT (Program Map Table), and program data. The EIT includes the following description (attribute) of the program that is the main information.
(1) Component content: distinction between video and audio
(2) Component type: description of video and audio types
(2) Major classification: Indicates a major classification of a program. For example, news, sports, information, dramas, movies, and the like.
(3) Medium classification: Indicates a more detailed classification from a large classification of a program. For example, in the case of "sports", it is baseball, soccer, golf, and the like.
(4) Event: ID corresponding to a program one-to-one
The PMT includes the following description (attribute) regarding emergency information that is additional information.
(1) Service type: Emergency broadcast channel ID
(2) Start / end flag: Indicates whether emergency information is broadcast.
(3) Signal type: Indicates the type of type 1 (earthquake) and type 2 (tsunami). (Rules 138 of the Radio Station Operating Regulations)
(4) Area code: Indicates the area for emergency information. (Rules 138 of the Radio Station Operating Regulations)
[0112]
In the BS digital television broadcast of FIG. 18, emergency information such as an earthquake and a tsunami is assumed as additional information. According to the present invention, not only emergency information but also various types of information such as CMs can be applied. is there.
[0113]
Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and it is understood by those skilled in the art that various modifications can be made within the scope of the invention described in the claims. Let's do it.
[0114]
【The invention's effect】
According to the present invention, since the additional information is superimposed on a portion of the main information having a relatively small amount of information, there is an effect that the viewing of the main information is not hindered.
ADVANTAGE OF THE INVENTION According to this invention, since the area | region which superimposes additional information in the image of main information is automatically detected, there exists an effect that an additional information provider does not need to consider a superposition position and time according to the content of main information in advance. .
[0115]
According to the present invention, at the time of superimposing additional information, at least one piece of pixel information of the main information and the additional information is used to superimpose the additional information. is there.
[0116]
According to the present invention, a condition for superimposing additional information in an image of main information can be input by a viewer from an input unit, so that additional information can be superimposed according to the viewer's intention. There is.
According to the present invention, since the main information and the additional information are processed when the additional information is superimposed on the main information, there is an effect that the additional information can be superimposed more efficiently.
[0117]
According to the present invention, there is an effect that a region where additional information is superimposed can be detected at any time by using pixel information of arbitrary coordinates and arbitrary coordinates of accumulated main information. Also, when using the difference between pixels, there is an effect that not only the difference between adjacent pixels at an arbitrary time but also the difference from future coordinates from the arbitrary time can be used.
[0118]
According to the present invention, it is also possible to obtain information on how long the state of the area used for superimposing the additional information continues by using the information of the total time of the accumulated main information. As a result, there is an effect that a superimposition period can be guaranteed for the region.
[0119]
According to the present invention, it is possible to detect a region in which additional information for which a superimposition period is guaranteed is superimposed, and thus it is possible to superimpose a moving image on additional information.
According to the present invention, by extracting the attributes of the main information and the additional information and using them for the superposition of the additional information, there is an effect that the superimposition can be performed more flexibly.
[0120]
According to the present invention, by recording the result of superimposing the additional information, there is an effect that the superimposition of the additional information can be changed according to the time, the position, or the like displayed so far.
According to the present invention, by accumulating the additional information, it is possible to accumulate the additional information once and superimpose it on the main information at any time.
[0121]
ADVANTAGE OF THE INVENTION According to this invention, it is possible to eliminate the trouble of the user deleting the accumulated additional information by automatically managing the accumulated additional information using the record in which the additional information is superimposed. There is an effect.
[Brief description of the drawings]
FIG. 1 is an explanatory diagram for explaining a concept of a method of superimposing and displaying additional information on main information in a digital television broadcast receiver according to the present invention.
FIG. 2 is a diagram illustrating a configuration of a first example of a digital television broadcast receiver according to the present invention.
FIG. 3 is an explanatory diagram for describing a calculation example of a spatial color change amount Sc (X, Y, T) in a spatial color change amount analysis unit of the first example of the digital television broadcast receiver according to the present invention. .
FIG. 4 is an explanatory diagram for describing a calculation example of a temporal color change amount Tc (X, Y, T) in a temporal color change amount analysis unit of the first example of the digital television broadcast receiver according to the present invention. .
FIG. 5 is an explanatory diagram for describing parameters recorded in an area detection parameter section of the first example of the digital television broadcast receiver according to the present invention.
FIG. 6 is an explanatory diagram for describing parameters recorded in an additional information superimposing parameter unit of the first example of the digital television broadcast receiver according to the present invention.
FIG. 7 is an explanatory diagram for explaining the concept of a region D for superimposing additional information in the first example of the digital television broadcast receiver according to the present invention.
FIG. 8 is a flowchart for explaining processing in a superimposition region detection unit of the first example of the digital television broadcast receiver according to the present invention.
FIG. 9 is a flowchart illustrating a process in a superimposition determination unit of the first example of the digital television broadcast receiver according to the present invention.
FIG. 10 is a diagram illustrating an example of a superimposition region candidate used for processing in the superimposition determination unit of the first example of the digital television broadcast receiver according to the present invention.
11 is a diagram illustrating a result of sorting the example of the superimposition region candidates in FIG. 10 according to the superimposition region priority order in FIG. 6;
FIG. 12 is a diagram showing a configuration of a second example of a digital television broadcast receiver according to the present invention.
FIG. 13 is an explanatory diagram for describing parameters recorded in an area extraction parameter section of the second example of the digital television broadcast receiver according to the present invention.
FIG. 14 is an explanatory diagram for describing parameters recorded in an additional information superimposition parameter unit of the second example of the digital television broadcast receiver according to the present invention.
FIG. 15 is an explanatory diagram for describing parameters recorded in a storage management parameter section of the second example of the digital television broadcast receiver according to the present invention.
FIG. 16 is a flowchart for explaining processing of a superimposition region when main information is stored data in the second example of the digital television broadcast receiver according to the present invention.
FIG. 17 is a flowchart illustrating a process performed by a superimposition determination unit when main information is stored data in a second example of a digital television broadcast receiver according to the present invention.
FIG. 18 is an explanatory diagram for explaining the concept of program information of BS digital television broadcasting.
FIG. 19 is a diagram illustrating a configuration example of a conventional digital television broadcast receiver.
FIG. 20 is an explanatory diagram for explaining the concept of a method of superimposing and displaying additional information on main information in a conventional digital television broadcast receiver.
[Explanation of symbols]
101: receiving unit, 102: information separating unit, 110: main information reproducing unit, 111: spatial color change analyzing unit, 112: temporal color changing amount analyzing unit, 113: main information processing unit, 114: additional information reproducing unit, 115: superimposition area detection unit, 116: superimposition determination unit, 117: additional information processing unit, 118: superimposition processing unit, 120: internal memory, 121: user input unit, 201: reception unit, 202: information separation unit, 203 ... Main information input unit, 204: Main information attribute extraction unit, 205: Main information storage unit, 206: Additional information input unit, 207: Additional information attribute extraction unit, 208: Additional information storage unit, 210: Main information reproduction unit, 211 ... Spatial color change amount analysis unit, 212 time color change amount analysis unit, 213 main information processing unit, 214 additional information reproduction unit, 215 superimposition area detection unit, 216 superimposition determination unit, 217 additional information processing unit , 2 8 ... superimposition processing unit, 219 ... overlap recording management section, 220 ... internal memory, 221 ... user input unit

Claims (21)

テレビジョン放送局からの放送信号を主情報と付加情報に分離する情報分離手段と、主情報の画像中に付加情報の画像を重畳して表示するための重畳領域候補を検出する重畳領域検出手段と、該重畳領域検出手段によって検出された重畳領域候補より付加情報の画像を重畳して表示する位置を決定する重畳判断手段と、上記主情報に上記付加情報を重畳しそれを放送番組データとして出力する重畳処理手段と、を有するテレビジョン放送受信機。Information separating means for separating a broadcast signal from a television broadcasting station into main information and additional information, and superimposition area detecting means for detecting a superimposition area candidate for superimposing and displaying an image of the additional information in an image of the main information Superimposition determining means for deciding a position for superimposing and displaying an image of additional information from a superimposition area candidate detected by the superimposition area detection means; and superimposing the additional information on the main information and using it as broadcast program data. And a superimposition processing unit for outputting. 請求項1のテレビジョン放送受信機において、更に、上記情報分離手段によって分離された主情報を蓄積する主情報蓄積手段を有することを特徴とするテレビジョン放送受信機。2. The television broadcast receiver according to claim 1, further comprising: main information storage means for storing main information separated by said information separation means. 請求項1のテレビジョン放送受信機において、更に、上記情報分離手段によって分離された付加情報を蓄積する付加情報蓄積手段を有することを特徴とするテレビジョン放送受信機。2. The television broadcast receiver according to claim 1, further comprising additional information storage means for storing the additional information separated by said information separation means. 請求項1又は2のテレビジョン放送受信機において、上記重畳領域検出手段は、上記主情報の画素情報を利用して上記重畳可能領域を検出することを特徴とするテレビジョン放送受信機。3. The television broadcast receiver according to claim 1, wherein the superimposition area detection unit detects the superimposable area using pixel information of the main information. 4. 請求項1又は3のテレビジョン放送受信機において、上記重畳領域検出手段は、上記付加情報の画素情報を利用して上記重畳可能領域を検出することを特徴とするテレビジョン放送受信機。4. The television broadcast receiver according to claim 1, wherein said superimposition area detecting means detects said superimposable area using pixel information of said additional information. 請求項1又は2のテレビジョン放送受信機において、上記主情報の画素情報から、画素の色の空間的変化を表す空間的色変化量を計算する空間色変化量解析手段を有し、上記重畳領域検出手段は上記空間色変化量解析手段から得られた空間的色変化量が小さい領域を上記重畳領域候補として選択することを特徴とするテレビジョン放送受信機。3. The television broadcast receiver according to claim 1, further comprising: a spatial color change amount analyzing unit configured to calculate a spatial color change amount representing a spatial change of a pixel color from the pixel information of the main information. A television broadcast receiver, wherein the area detecting means selects an area having a small spatial color change amount obtained from the spatial color change amount analyzing means as the overlapping area candidate. 請求項6のテレビジョン放送受信機において、上記空間色変化量解析手段は、上記主情報の画素情報から、所定の時刻における隣接する画素間の色の差より空間的色変化量を計算することを特徴とするテレビジョン放送受信機。7. The television broadcast receiver according to claim 6, wherein the spatial color change amount analyzing means calculates a spatial color change amount from a color difference between adjacent pixels at a predetermined time from the pixel information of the main information. A television broadcast receiver characterized by the above-mentioned. 請求項1又は2のテレビジョン放送受信機において、上記主情報の画素情報から、画素の色の時間的変化を表す時間的色変化量を計算する時間色変化量解析手段を有し、上記重畳領域検出手段は上記時間色変化量解析手段から得られた時間的色変化量が小さい領域を上記重畳領域候補として選択することを特徴とするテレビジョン放送受信機。3. The television broadcast receiver according to claim 1, further comprising: a temporal color change amount analyzing unit configured to calculate a temporal color change amount representing a temporal change of a pixel color from the pixel information of the main information, A television broadcast receiver, wherein the area detecting means selects an area having a small temporal color change amount obtained from the temporal color change amount analyzing means, as the overlapping area candidate. 請求項8のテレビジョン放送受信機において、上記時間色変化量解析手段は、上記主情報の画素情報から、所定の画素における所定の時刻の色と過去の色の差から時間的色変化量を計算することを特徴とするテレビジョン放送受信機。9. The television broadcast receiver according to claim 8, wherein the temporal color change amount analyzing means calculates a temporal color change amount from a difference between a color at a predetermined time and a past color in a predetermined pixel from the pixel information of the main information. A television broadcast receiver characterized by calculating. 請求項2のテレビジョン放送受信機において、上記主情報蓄積手段に蓄積された主情報の画素情報から、画素の色の時間的変化を表す時間的色変化量を計算する時間色変化量解析手段を有し、該時間色変化量解析手段は所定の画素における所定の時刻の色と未来の色の差から時間的色変化量を計算することを特徴とするテレビジョン放送受信機。3. The temporal color change analyzing means for calculating a temporal color change amount representing a temporal change of a color of a pixel from pixel information of main information stored in the main information storing means according to the television broadcast receiver of claim 2. A television color broadcast receiver, wherein the temporal color change amount analyzing means calculates a temporal color change amount from a difference between a color at a predetermined time and a future color in a predetermined pixel. 請求項1のテレビジョン放送受信機において、上記主情報の画像に上記付加情報の画像を重畳して表示する条件を視聴者が入力するためのユーザ入力手段を有することを特徴とするテレビジョン放送受信機。2. The television broadcast receiver according to claim 1, further comprising user input means for allowing a viewer to input a condition for superimposing and displaying the image of the additional information on the image of the main information. Receiving machine. 請求項1又は2の受信機において、条件にしたがって上記主情報を加工する主情報加工手段を有し、上記重畳処理手段は、上記主情報加工手段によって加工された主情報に付加情報を重畳して出力することを特徴とするテレビジョン放送受信機。3. The receiver according to claim 1, further comprising main information processing means for processing the main information according to a condition, wherein the superimposition processing means superimposes additional information on the main information processed by the main information processing means. A television broadcast receiver characterized in that the television broadcast is output. 請求項1又は3の受信機において、条件にしたがって上記付加情報を加工する付加情報加工手段を有し、上記重畳処理手段は、上記主情報に上記付加情報加工手段によって加工された付加情報を重畳して出力することを特徴とするテレビジョン放送受信機。4. The receiver according to claim 1, further comprising additional information processing means for processing the additional information according to a condition, wherein the superimposition processing means superimposes the additional information processed by the additional information processing means on the main information. A television broadcast receiver characterized in that the television broadcast is output after being output. 請求項1の受信機において、上記重畳領域検出手段は、主情報の平均色階調と付加情報の平均色階調の差が所定の値より大きい領域を上記重畳領域候補として選択することを特徴とするテレビジョン放送受信機。2. The receiver according to claim 1, wherein the superimposition region detecting means selects, as the superimposition region candidate, a region where the difference between the average color gradation of the main information and the average color gradation of the additional information is larger than a predetermined value. Television broadcast receiver. 請求項1の受信機において、上記重畳領域判断手段は、付加情報に対する重畳領域候補を複数あるとき、所定の優先順位に従って、上記重畳領域を決定することを特徴とするテレビジョン放送受信機。2. The television broadcast receiver according to claim 1, wherein the superimposition area determination means determines the superimposition area according to a predetermined priority when there are a plurality of superimposition area candidates for the additional information. 請求項1又は2の受信機において、上記重畳領域検出手段は、所定の表示期間において主情報に重畳して表示することが保証された付加情報に対しては優先的に重畳領域候補を選択することを特徴するテレビジョン放送受信機。3. The receiver according to claim 1, wherein the superimposition region detecting means preferentially selects a superimposition region candidate for the additional information guaranteed to be superimposed on the main information and displayed during a predetermined display period. A television broadcast receiver, characterized in that: 請求項16のテレビジョン放送受信機において、上記所定の表示期間において主情報に重畳して表示することが保証された付加情報は動画情報であることを特徴するテレビジョン放送受信機。17. The television broadcast receiver according to claim 16, wherein the additional information guaranteed to be displayed so as to be superimposed on the main information during the predetermined display period is moving image information. 請求項1、2又は3の受信機において、上記主情報より主情報の属性を抽出する主情報属性抽出手段と、上記付加情報より付加情報の属性を抽出する付加情報抽出手段の少なくとも1つを有し、上記重畳領域検出手段は、上記主情報属性抽出手段によって抽出された主情報の属性及び上記付加情報属性抽出手段によって抽出された付加情報の属性の少なくとも1つを使用して重畳領域候補を選択することを特徴とするテレビジョン放送受信機。4. The receiver according to claim 1, wherein at least one of a main information attribute extracting unit for extracting an attribute of the main information from the main information and an additional information extracting unit for extracting an attribute of the additional information from the additional information. The superimposition area detecting means includes a superimposition area candidate using at least one of an attribute of the main information extracted by the main information attribute extracting means and an attribute of the additional information extracted by the additional information attribute extracting means. A television broadcast receiver characterized by selecting: 請求項1又は3の受信機において、付加情報の重畳に関する記録を管理する重畳記録管理手段を有し、上記重畳領域検出手段は、上記重畳記録管理手段によって管理された付加情報の重畳に関する記録を利用して、重畳領域候補を選択することを特徴とするテレビジョン放送受信機。4. The receiver according to claim 1, further comprising a superimposition record management unit that manages a record regarding superimposition of additional information, wherein the superimposition area detection unit performs recording regarding superimposition of the additional information managed by the superimposition record management unit. A television broadcast receiver characterized in that a superimposition area candidate is selected by using the television broadcast receiver. 請求項19の受信機において、上記重畳記録管理手段は、管理している付加情報の重畳に関する記録を削除することを特徴とするテレビジョン放送受信機。20. The television broadcast receiver according to claim 19, wherein said superimposition record management means deletes a record relating to superimposition of additional information being managed. 請求項3の受信機において、付加情報の重畳に関する記録を管理する重畳記録管理手段を有し、該重畳記録管理手段は、蓄積されている付加情報と管理している付加情報の重畳に関する記録を削除することを特徴とするテレビジョン放送受信機。4. The receiver according to claim 3, further comprising a superimposition record management unit that manages a record related to the superposition of the additional information, wherein the superimposition record management unit records the superposition of the accumulated additional information and the superimposition of the managed additional information. A television broadcast receiver characterized by being deleted.
JP2003066804A 2003-03-12 2003-03-12 Television broadcast receiver Expired - Fee Related JP4185790B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003066804A JP4185790B2 (en) 2003-03-12 2003-03-12 Television broadcast receiver

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003066804A JP4185790B2 (en) 2003-03-12 2003-03-12 Television broadcast receiver

Publications (2)

Publication Number Publication Date
JP2004282137A true JP2004282137A (en) 2004-10-07
JP4185790B2 JP4185790B2 (en) 2008-11-26

Family

ID=33284598

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003066804A Expired - Fee Related JP4185790B2 (en) 2003-03-12 2003-03-12 Television broadcast receiver

Country Status (1)

Country Link
JP (1) JP4185790B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007288797A (en) * 2004-11-02 2007-11-01 Matsushita Electric Ind Co Ltd Display device and method thereof
JP2009502067A (en) * 2005-07-18 2009-01-22 トムソン ライセンシング Method and apparatus for processing multiple video streams using metadata
JP2009065432A (en) * 2007-09-06 2009-03-26 Mitsubishi Electric Corp Image reproducing device
JP2010147649A (en) * 2008-12-17 2010-07-01 Asutemu:Kk Sign language video display apparatus, sign language video display method, and program
WO2011013283A1 (en) * 2009-07-28 2011-02-03 パナソニック株式会社 Image synthesizing device, encoding device, program, and medium
WO2011118220A1 (en) * 2010-03-25 2011-09-29 パナソニック株式会社 Interruption display system, content information provision server device, and client device
JP4954291B2 (en) * 2007-11-12 2012-06-13 三菱電機株式会社 Digital broadcast receiver
JP2014078960A (en) * 2013-11-21 2014-05-01 Olympus Imaging Corp Image reproducing apparatus and reproducing method for image reproducing apparatus
WO2017056230A1 (en) * 2015-09-30 2017-04-06 楽天株式会社 Information processing device, information processing method, and program for information processing device
JP2017130748A (en) * 2016-01-19 2017-07-27 ヤフー株式会社 Generation device, generation method, and generation program
WO2018101227A1 (en) * 2016-11-29 2018-06-07 シャープ株式会社 Display control device, head-mounted display, control method for display control device, and control program

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007288797A (en) * 2004-11-02 2007-11-01 Matsushita Electric Ind Co Ltd Display device and method thereof
JP2013034225A (en) * 2005-07-18 2013-02-14 Thomson Licensing Method and device for handling multiple video streams using metadata
US9167176B2 (en) 2005-07-18 2015-10-20 Thomson Licensing Method and device for handling multiple video streams using metadata
JP2013042516A (en) * 2005-07-18 2013-02-28 Thomson Licensing Method and device for processing multiple video streams using metadata
JP2015039216A (en) * 2005-07-18 2015-02-26 トムソン ライセンシングThomson Licensing Method and device for handling multiple image streams using metadata
JP2013048442A (en) * 2005-07-18 2013-03-07 Thomson Licensing Method and device for handling multiple video streams using metadata
JP2011172255A (en) * 2005-07-18 2011-09-01 Thomson Licensing Method and device for handling multiple video streams using metadata
JP2014112902A (en) * 2005-07-18 2014-06-19 Thomson Licensing Method and device for handling multiple video streams using metadata
JP2013176101A (en) * 2005-07-18 2013-09-05 Thomson Licensing Method and device for handling multiple video streams using metadata
JP2012090279A (en) * 2005-07-18 2012-05-10 Thomson Licensing Method and device for handling multiple video streams using metadata
JP2009502067A (en) * 2005-07-18 2009-01-22 トムソン ライセンシング Method and apparatus for processing multiple video streams using metadata
JP2013034224A (en) * 2005-07-18 2013-02-14 Thomson Licensing Method and device for handling multiple video streams using metadata
JP2009065432A (en) * 2007-09-06 2009-03-26 Mitsubishi Electric Corp Image reproducing device
JP4954291B2 (en) * 2007-11-12 2012-06-13 三菱電機株式会社 Digital broadcast receiver
JP2010147649A (en) * 2008-12-17 2010-07-01 Asutemu:Kk Sign language video display apparatus, sign language video display method, and program
US9001272B2 (en) 2009-07-28 2015-04-07 Panasonic Corporation Image synthesizing device, coding device, program, and recording medium
JP2011030111A (en) * 2009-07-28 2011-02-10 Panasonic Corp Image combining apparatus, image coding apparatus, computer program, and recording medium
WO2011013283A1 (en) * 2009-07-28 2011-02-03 パナソニック株式会社 Image synthesizing device, encoding device, program, and medium
CN102474674A (en) * 2010-03-25 2012-05-23 松下电器产业株式会社 Interruption display system, content information provision server device, and client device
WO2011118220A1 (en) * 2010-03-25 2011-09-29 パナソニック株式会社 Interruption display system, content information provision server device, and client device
JP2014078960A (en) * 2013-11-21 2014-05-01 Olympus Imaging Corp Image reproducing apparatus and reproducing method for image reproducing apparatus
WO2017056230A1 (en) * 2015-09-30 2017-04-06 楽天株式会社 Information processing device, information processing method, and program for information processing device
JP2017130748A (en) * 2016-01-19 2017-07-27 ヤフー株式会社 Generation device, generation method, and generation program
JP7076936B2 (en) 2016-01-19 2022-05-30 ヤフー株式会社 Generator, generation method and generation program
WO2018101227A1 (en) * 2016-11-29 2018-06-07 シャープ株式会社 Display control device, head-mounted display, control method for display control device, and control program
JPWO2018101227A1 (en) * 2016-11-29 2019-10-31 シャープ株式会社 Display control device, head mounted display, display control device control method, and control program

Also Published As

Publication number Publication date
JP4185790B2 (en) 2008-11-26

Similar Documents

Publication Publication Date Title
US6600522B1 (en) Apparatus and method for auto channel searching of video display apparatus
US7633554B2 (en) Selectively overlaying a user interface atop a video signal
US8116593B2 (en) Image processing apparatus, image processing method, and program for determining a zoom area for a displayed zoom image
EP1482731A2 (en) Broadcast program contents menu creation apparatus and method
JP2006324809A (en) Information processor, information processing method, and computer program
US20110243474A1 (en) Video image processing apparatus and video image processing method
JP4185790B2 (en) Television broadcast receiver
US20070291134A1 (en) Image editing method and apparatus
MXPA05009704A (en) Method of viewing audiovisual documents on a receiver, and receiver therefor.
KR101463864B1 (en) System and method for detecting direct response advertisemnets and grouping the detected advertisements
US20080095515A1 (en) Contents Character Information Acquisition Method, Contents Character Information Acquisition Program, Contents Character Information Acquisition Apparatus, and Video Content Recording Apparatus
US20030126602A1 (en) Method for selecting channel in digital television
JP4215681B2 (en) Moving image processing apparatus and method
JP2010277647A (en) Printing device, printing method, and printing program
US8022988B2 (en) Display apparatus and computer program
EP2063636A1 (en) Video processing device and video processing method
US7398003B2 (en) Index data generation apparatus, index data generation method, index data generation program and recording medium on which the program is recorded
CN114339371A (en) Video display method, device, equipment and storage medium
EP1484763A1 (en) Music program contents menu creation apparatus and method
JP2012222585A (en) Content recommendation system
JP4009959B2 (en) TV receiver
JP4173682B2 (en) Notification information receiver
JP2008090570A (en) Information processor and information processing method
JP6363015B2 (en) Electronic device and display method
JPH09179880A (en) Device and method for extracting important image of moving picture

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080527

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080902

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080908

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110912

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120912

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130912

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees