JP4573491B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP4573491B2
JP4573491B2 JP2002054136A JP2002054136A JP4573491B2 JP 4573491 B2 JP4573491 B2 JP 4573491B2 JP 2002054136 A JP2002054136 A JP 2002054136A JP 2002054136 A JP2002054136 A JP 2002054136A JP 4573491 B2 JP4573491 B2 JP 4573491B2
Authority
JP
Japan
Prior art keywords
image
unit
layer
value
sub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002054136A
Other languages
Japanese (ja)
Other versions
JP2003259213A (en
Inventor
英治 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2002054136A priority Critical patent/JP4573491B2/en
Publication of JP2003259213A publication Critical patent/JP2003259213A/en
Application granted granted Critical
Publication of JP4573491B2 publication Critical patent/JP4573491B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Studio Circuits (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は画像処理技術に関し、特に複数の画像を混合して表示する技術に関する。
【0002】
【従来の技術】
デジタル放送の開始に向けて、新しい放送形態やサービスの提案がなされている。そのうちの一つに、放送される映像の画面上に任意の文字や記号(キャラクタ)を重畳させて表示するオン・スクリーン・ディスプレイ(OSD)がある。
OSDにより、たとえば、画面に字幕スーパーを表示したり、ニュース速報を表示したり、電子番組案内(Electronic Program Guide:EPG)などを表示したりすることができる。これらの副画像には、透明度の指標となるα値が与えられており、任意の透明度により、主画像である放送画面に混合される。
【0003】
図1は、社団法人電波産業会発行の、標準規格「デジタル放送におけるデータ放送符号化方式と伝送方式」(ARIB STD−B24 3.0版(第一分冊)平成11年10月26日策定、平成13年5月31日3.0改定)の19ページに掲載されたプレーン間の合成制御の説明図である。静止画プレーンの画素(SP)と動画プレーンの画素(VP)は、動画静止画切替えプレーンの1ビットの値(CP)により切替えが行われる。したがって、動画プレーンと静止画プレーンの合成プレーンの画素(SVP)は下式に従う。
SVP=SP(CP=1のとき)
VP(CP=0のとき)
動画と静止画が合成された合成プレーンの画素はさらに文字図形プレーンの画素(TP)と、CLUTより出力されるα値により合成される。このα値をα1とすると、合成プレーンの画素(TSVP)は下式とする。
TSVP=(1−α1)×SVP+α1×TP
字幕プレーンの画素(GP)は、さらに字幕プレーンのCLUTより出力されるα値により合成される。このα値をα2とすると、合成プレーンの画素(GTSVP)は、下式とする。
GTSVP=(1−α2)×TSVP+α2×GP
【0004】
【発明が解決しようとする課題】
画像の合成に要する時間を最小限におさえ、放送波の受信から表示までの遅延を軽減するために、一般に、OSD機能はハードウェアによる構成を中心に実現されている。しかしながら、装置のさらなる小型化、軽量化のためには、ハードウェア構成を簡略化し、できるだけ少ない構成でOSD機能を実現することが求められる。
【0005】
本発明は、そうした課題に鑑みてなされたものであり、その目的は、画像処理に必要なハードウェア構成を簡略化する技術を提供することにある。
【0006】
【課題を解決するための手段】
本発明のある態様は画像処理装置に関する。この画像処理装置は、第1の画像の画素値Aと、第1の画像に合成される少なくとも1つの第2の画像の画素値Bとを、所定の混合係数αにより混合する合成部と、画素値Aを合成部に入力する第1の入力部と、画素値Bを指定するインデックス値を合成部に入力する第2の入力部と、各インデックスに対して混合係数αと画素値Bが対応づけて記録されているテーブルと、を備え、テーブルは、画素値Bに混合係数αを予め乗算したα×Bを保持し、合成部における(1−α)×A+α×Bの演算に含まれる乗算のうち、(1−α)×Aを乗算器により演算し、α×Bをテーブルからのデータ読出しにより取得する。
【0007】
3以上の画像を合成するときであっても、前段までの合成画像の画素値をCとし、合成する画像の画素値をDとすると、(1−α)×C+α×Dの演算のうち、α×Dをテーブルからのデータ読出しにより取得することで、α×Dの演算に用いていた乗算器が不要となる。これにより、ハードウェア構成を簡略化することができる。
【0008】
本発明の別の態様は、画像処理方法に関する。この画像処理方法は、各インデックスに対して混合係数αと画素データBが組として記録されているテーブルにおいて、画素データBとして、それに混合係数αを予め乗算したα×Bを記録しておき、画素データBによって形成される画像を、画素データAによって形成される他の画像と混合するとき、(1−α)×A+α×Bの演算に含まれる乗算のうち、α×Bをテーブルからのデータ読出しにて代行する。テーブルからのデータ読出しにより、ハードウェアによる乗算器の数を削減してもよい。
【0009】
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、などの間で変換したものもまた、本発明の態様として有効である。
【0010】
【発明の実施の形態】
(第1の実施の形態)
図2は、本発明の実施の形態に係る画像処理装置の一例としてのテレビジョン受像機10の全体構成を示す。このテレビジョン受像機10は、放送波から映像と音声を再生出力するテレビジョン受像機の一般的な機能のほかに、放送波により送られる第1の画像(以下、「主画像」ともいう)に、文字情報などを含む少なくとも1つの第2の画像(以下、「副画像」ともいう)を重畳させて出力する機能を有する。なお、第1の画像は、地上放送、衛星放送、有線放送など、任意の方式で取得されてもよいし、アナログ、デジタル、ハイブリッドなどいずれの形式であってもよい。本実施の形態では、デジタル放送受像機を例にとって説明する。
【0011】
アンテナ12により受信された放送波は、チューナ14に送られる。チューナ14は、ユーザが選んだチャネルを含むトランスポンダを選択し、QPSK復調を施す。復調で得られた複数のトランスポートパケットを含むストリームは、パケット分離部16へ送られる。パケット分離部16はデマルチプレクサであり、所望のチャネルに対応するパケットを分離して、デコーダ18へ出力する。デコーダ18は、例えばMPEGデコーダであり、入力されたパケットを復号し、音声データを音声信号処理部30へ、映像データを映像信号処理部32へ、それぞれ出力する。このとき、放送波に副画像データが含まれていた場合は、副画像データを主制御部20または副画像入力部34へ出力する。
【0012】
音声信号処理部30は、入力された音声データに所定の処理を施し、スピーカ40へ出力する。映像信号処理部32は、入力された映像データに所定の処理を施し、処理後のデータを合成部36へ出力する。副画像入力部34は、副画像データを取得して合成部36へ出力する。合成部36は、後で詳述するように、主画像データと副画像データとを合成し、合成後のデータをNTSCエンコーダ38へ出力する。NTSCエンコーダ38でビデオ信号に変換された映像信号は、モニタ42へ出力され表示される。なお、映像データまたは音声データは、デジタル信号のまま外部の任意の機器へ出力されてもよい。
【0013】
主制御部20は、テレビジョン受像機10全体を統括的に制御する。主制御部20は、CPU22、システムの起動に必要なプログラムなどが格納されたROM24、およびプログラムエリアまたはワークエリアとして利用されるDRAM26を含む。主制御部20は、デコーダ18を介して放送波から、または放送波とは異なる通信形式をサポートする通信部28を介して外部から取得した副画像データに所定の処理を施し、処理後のデータを副画像入力部34へ送る。主制御部20は、その他、ユーザからの要求などに応じて、電子番組案内などの副画像を生成し、副画像入力部34へ送ってもよい。
【0014】
図3は、合成部36の一般的な構成および動作を説明するための図である。この例では、主画像(レイヤA)に、2つの副画像(レイヤBおよびレイヤC)を合成する。レイヤAは、たとえば図1における動画プレーンVPまたは静止画プレーンSPに、レイヤBは文字図形プレーンTPに、レイヤCは字幕プレーンGPに対応する。レイヤAの映像データは、映像信号処理部32を介して合成部36に入力される。一般に、レイヤAの映像データは、輝度信号Y、色差信号CbおよびCrを含み、それぞれが4画素で、4、4、4バイト、または、4、2、2バイトで構成される。色差信号CbおよびCrが2バイトで構成されていた場合は、図1に示したように、422→444変換部により、4バイトに変換されてから合成部36に入力されてもよい。レイヤBおよびレイヤCの映像データは、この例では、8ビットのインデックス信号として与えられ、カラールックアップテーブル100bおよび100cを参照して、そのインデックス信号に対応する輝度信号Y、色差信号Cb、Cr、および混合係数αが読み出される。合成部36における演算は、Y、Cb、Crのそれぞれの画素値について施されるが、ここでは説明の便宜のため、レイヤAの画素値を「A」で、レイヤBの画素値を「B」で、レイヤCの画素値を「C」で代表させる。
【0015】
図4は、カラールックアップテーブル100bおよび100cの内部データを示す。カラールックアップテーブル100bおよび100cには、インデックス欄300、混合係数α値欄302、輝度信号Y値欄304、色差信号Cb値欄306、および色差信号Cr値欄308が設けられており、たとえば、レイヤB内のあるピクセルの画素値として、インデックス信号「0」が指定されると、インデックス「0」に対応する、α値「1」、Y値「200」、Cb値「100」、Cr値「100」が読み出されて合成部36の回路に出力される。レイヤBのカラールックアップテーブル100bとレイヤCのカラールックアップテーブル100cは、同一のテーブルを共通に利用してもよい。
【0016】
図3に戻り、画像の合成の手順を説明する。まず、1段目の合成回路により、レイヤAの画素値AとレイヤBの画素値Bが合成される。ここで、図1において説明したように、レイヤBの合成係数をαとすると、合成レイヤの画素値Dは下式となる。
D=(1−α)×A+α×B
この合成レイヤDの画素値Dを算出するために、まず、カラールックアップテーブル100bから、指定されたインデックス信号に対応する混合係数αおよび画素値Bを読み出す。そして、乗算器110に、レイヤAの画素値Aと、混合係数αより演算された1−αとを入力して、(1−α)×Aを演算する。
また、乗算器112に、レイヤBの画素値Bと、混合係数αとを入力して、α×Bを演算する。さらに、それぞれの演算結果を加算器120に入力して加算することにより、合成レイヤの画素値Dが出力される。
【0017】
同様にして、2段目の合成回路により、合成レイヤDの画素値DとレイヤCの画素値Cが合成される。すなわち、乗算器116によりα×Cが演算され、乗算器114により(1−α)×Dが演算され、加算器122によりそれらが加算される。出力される合成レイヤEの画素値Eは下式となる。
E=(1−α)×D+α×C
=(1−α)(1−α)A+α(1−α)B+α
合成された映像信号は、NTSCエンコーダ38へ出力される。
【0018】
図3に示した合成回路では、合成の各段において、前段までの合成レイヤの画素値に(1−α)を乗じる乗算器と、合成すべきレイヤの画素値にαを乗じる乗算器の2個が必要であり、n個のレイヤを合成するために2n個の乗算器が必要である。実際には、輝度信号Y、色差信号Cb、Crのそれぞれについて合成を施すため、2n×3個の乗算器が必要となる。装置のさらなる小型化、軽量化のためには、合成部36における回路構成を簡略化し、ハードウェア構成を削減することが好ましい。
【0019】
図5は、改良された合成部36の構成および動作を説明するための図であり、図6は、図5に示された合成部36で用いられるカラールックアップテーブル102bおよび102cの内部データを示す図である。
【0020】
図6に示したカラールックアップテーブル102bおよび102cには、
インデックス欄300、1−α値欄312、αY値欄314、αCb値欄316、およびαCr値欄318が設けられており、たとえば、レイヤB内のあるピクセルの画素値として、インデックス信号「0」が指定されると、インデックス「0」に対応する、1−α値「0」、αY値「200」、αCb値「100」、αCr値「100」が読み出されて合成部36の回路に出力される。このように、Y、Cb、Crの値の代わりに、それぞれに予めαを乗じた値をテーブルに格納しておくことで、画素値とαとの乗算に用いていた乗算器が不要となる。カラールックアップテーブル102は、固定的に保持されていてもよいが、テーブルを更新するときは、たとえばCPU22などにより、カラールックアップテーブル102の各データを算出してもよい。
【0021】
図5に戻り、画像の合成の手順を説明する。レイヤAの画素値Aと、カラールックアップテーブル102bから読み出された1−αは、乗算器130にそれぞれ入力され、(1−α)×Aが演算される。そして、その演算結果と、カラールックアップテーブル102bから読み出されたαBが加算器140に入力され、合成レイヤDの画素値D=(1−α)A+αBが出力される。
【0022】
同様にして、合成レイヤDの画素値DとレイヤCの画素値Cが合成される。すなわち、乗算器132により、(1−α)×Dが演算され、その演算結果に加算器142によりカラールックアップテーブル102cから読み出されたαCが加算される。出力される合成レイヤEの画素値Eは、図3の場合と同じであり、下式となる。
E=(1−α)×D+α×C
=(1−α)(1−α)A+α(1−α)B+α
合成された映像信号は、NTSCエンコーダ38へ出力される。
【0023】
図5に示した合成部36は、副画像の画素値を読み出すためのカラールックアップテーブル102に、画素値に混合係数αを予め乗算した値を記録しておき、各レイヤを混合するときには、(1−α)×A+α×Bの演算に含まれる乗算のうち、α×Bをテーブルからのデータ読出しにて代行するので、図3に示した合成部36に比べて乗算器の数を半分にすることができる。これにより、ハードウェア構成を削減し、装置のさらなる小型化、軽量化に寄与することができる。また、ハードウェア構成を減らすことで、消費電力を軽減することもできる。
【0024】
(第2の実施の形態)
図7は、第2の実施の形態に係るテレビジョン受像機の合成部の内部構成を示す。本実施の形態の合成部36は、主画像へ副画像を1段ずつ合成していくのではなく、複数の副画像同士を先に合成しておき、最後に、合成した副画像を主画像に合成する。本実施の形態のテレビジョン受像機10の全体構成は、図2に示した第1の実施の形態のテレビジョン受像機10と同様であるから、ここでは合成部36の構成および動作について説明する。
【0025】
合成部36は、第1合成部200、変換部210、フレームメモリ212、および第2合成部202を含む。第1合成部200は、副画像であるレイヤBとレイヤCを合成するとともに、主画像であるレイヤAの画素値に乗算すべきα値を算出する。まず、レイヤBのα値αおよび画素値Bとが、カラールックアップテーブル100bなどから、また、レイヤCのα値αおよび画素値Cとが、カラールックアップテーブル100cなどから、それぞれ読み出される。レイヤBの画素値Bには、乗算器150によりαが、乗算器154により(1−α)がそれぞれ乗算される。レイヤCの画素値Cには、乗算器156によりαが乗算される。これらの乗算結果が、加算器160により加算され、副画像の合成レイヤFの画素値Fが演算される。すなわち、合成レイヤFの画素値Fは、下式となる。
F=α(1−α)B+α
一方、第1合成部200では、主画像であるレイヤAに乗算すべきα値が算出される。この例では、乗算器152により、(1−α)(1−α)が算出される。
【0026】
第1合成部200で算出された画素値Fとα値は、変換部210に出力される。変換部210は、第1合成部200により得られた副画像の合成レイヤFに対して所定の処理を施して画像を変換し、変換後のデータをフレームメモリ212に出力する。たとえば、副画像の合成レイヤFの画像サイズを拡大縮小してもよいし、合成レイヤFの画素値のバイト数を変更してもよい。このように、先に副画像を合成しておくことで、副画像全体に対してスケーリングやバイト数変換などの処理を一括して行うことができる。
【0027】
フレームメモリ212は、変換部210により変換された後の副画像データFと、レイヤAに乗算すべきα値とを格納する。第2合成部202は、レイヤAの画像データAのストリームに合わせて、フレームメモリ212からα値および副画像データFを読み出し、レイヤAと副画像の合成レイヤFとを合成する。まず、乗算器158により、(1−α)(1−α)Aを演算し、この演算結果に、加算器162により副画像データFを加算して、合成レイヤEの画素値Eが得られる。
【0028】
複数の副画像を先に合成しておき、フレームメモリ212に格納しておくことで、レイヤAのデータストリームを取得してから合成レイヤEの画素値を得るまでの演算回数を減らすことができるので、放送波を受信してから映像が表示されるまでの遅延時間を短くすることができる。今後、画面の解像度が増加したり、画素値のバイト数が増加するなどして、処理すべきデータ量が増加した場合には、特に有効である。
【0029】
(第3の実施の形態)
図8は、第3の実施の形態に係るテレビジョン受像機の合成部の内部構成を示す。本実施の形態の合成部36も、第2の実施の形態と同様に、主画像へ副画像を1段ずつ合成していくのではなく、複数の副画像を先に合成しておき、最後に、合成した副画像を主画像に合成する。本実施の形態のテレビジョン受像機10の全体構成は、図2に示した第1の実施の形態のテレビジョン受像機10と同様であるから、ここでは合成部36の構成および動作について説明する。
【0030】
本実施の形態の合成部36は、図7に示した第2の実施の形態の合成部36のうち、第1合成部200の回路構成が変更されている。第2の実施の形態では、レイヤBの画素データとして、αおよびBが第1合成部200に入力されたが、本実施の形態では、図5に示した第1の実施の形態と同様に、1−αおよびαBが入力される。すなわち、図6に示したカラールックアップテーブル102を用いることで、α×Bの演算をテーブルからの読出しにて代行する。これにより、第1合成部200の回路構成を簡略化し、ハードウェア構成を削減することができる。本発明者の実験によれば、従来のOSDに比べて10%程度の回路を削減できたことが分かっている。その他の構成および動作は、第2の実施の形態と同様である。
【0031】
(第4の実施の形態)
図9は、第4の実施の形態に係るテレビジョン受像機の合成部の内部構成を示す。本実施の形態のテレビジョン受像機10の全体構成は、図2に示した第1の実施の形態のテレビジョン受像機10と同様であるから、ここでは合成部36の構成および動作について説明する。本実施の形態でも、第2および第3の実施の形態と同様に、先に副画像を合成し、最後に副画像の合成レイヤを主画像レイヤに合成するが、図9では、説明の便宜のため、1枚の副画像レイヤBを主画像レイヤAに合成する場合を例にとって説明する。
【0032】
レイヤBのインデックス信号が入力されると、カラールックアップテーブル100bを参照して、αおよびBが出力される。画素値Bのうち、輝度信号Yはそのまま演算に用いられるが、色差信号CbおよびCrは、一般に負の値を含むので、演算に先立って、オフセット加算部220によりオフセット値を加算して正の値に変換しておく。たとえば、色差信号CbおよびCrが−127から+127までの値をとり得る場合は、オフセット加算部220で128を加算しておく。オフセット加算部220の出力(B+128)に、乗算器192によりαを乗算して、α(B+128)を得るが、ここで、後述するオフセット値のずれを防止するために、オフセット調整部222により、(1−α)×128を加算しておく。オフセット調整部222の出力は、下式となる。
α(B+128)+(1−α)×128=αB+128
この演算結果は、444→422変換部224に入力され、色差信号CbおよびCrが4バイトから2バイトに変換される。具体的には、奇数画素の色差信号を偶数画素の色差信号で代用することで、色差信号のバイト数を半分にしている。444→422変換部224の出力である副画像レイヤの画素値と、主画像レイヤAに乗算すべきα値とが、フレームメモリ212に格納される。
【0033】
主画像であるレイヤAの色差信号も、同様に、オフセット加算部226により128が加算される。フレームメモリ212から読み出されたα値が乗算器194により(A+128)に乗算され、(1−α)(A+128)が出力される。ここで、後述するオフセット値のずれを防止するために、オフセット調整部228により(1−α)×128を減算する。オフセット調整部228の出力(1−α)Aと、フレームメモリ212から読み出された(αB+128)が、加算器196により加算され、(1−α)A+αB+128が算出される。
【0034】
ここで、オフセット調整部222および228を設けなかったときの演算の様子を説明する。図10は、レイヤAの画素値を、図11は、レイヤBの画素値およびα値を示す。それぞれ、4つのピクセルについて、画素値およびα値を示している。下付きの添え字はレイヤの種類を示し、上付きの添え字はピクセル番号を示す。
【0035】
図12は、乗算器192から出力された演算結果を示す。輝度信号Yについてはオフセット値が加算されず、αYが出力されているが、色差信号CbおよびCrについてはオフセット値が加算されており、α(Cb+128)が出力されている。図13は、444→422変換部224から出力された演算結果を示す。奇数画素の色差信号CbおよびCrは、隣接する偶数画素の色差信号により代用され、バイト数が半分になっている。
【0036】
図14は、乗算器194から出力された演算結果を示す。フレームメモリから読み出された(1−α)がレイヤAの画素値に乗算されている。図15は、加算器196から出力された演算結果を示す。偶数画素であるピクセル0および2については、正しい演算結果が得られているが、奇数画素であるピクセル1および3については、オフセット項にずれが生じている。ピクセル1を例にとって説明すると、副画像の色差信号CbおよびCrが隣のピクセル0の値で代用されているため、オフセット項にα ×128という項が残る一方で、主画像レイヤAの演算にはα が用いられるため、オフセット項にα ×128という項が残る。α とα が同じ値であれば、これら2つの項は相殺してずれは生じないが、異なる値であれば、本来は相殺するはずの項が残り、ずれが生じてしまう。
【0037】
このような問題を解決するために、副画像の合成時に、オフセット調整部222にてα を含むオフセット項をキャンセルしておき、主画像の合成時に、オフセット調整部228にてα を含むオフセット項をキャンセルしておく。これにより、オフセット値のずれを防止することができる。
【0038】
図16は、オフセット調整部222から出力された演算結果を示す。オフセット調整部222では、乗算器192の演算結果に、(1−α)×128を加算することで、αを含むオフセット項をキャンセルしている。図17は、444→422変換部224から出力された演算結果を示す。奇数画素の色差信号CbおよびCrが、隣接する偶数画素の色差信号で代用されている。図18は、オフセット調整部228から出力された演算結果を示す。オフセット調整部228では、乗算器194の演算結果から、(1−α)×128を減算することで、αを含むオフセット項をキャンセルしている。図19は、加算器196から出力された演算結果を示す。αを含むオフセット項がキャンセルされているので、偶数画素も奇数画素もオフセット値のずれがない正しい値が得られている。
【0039】
ここでは、2枚の画像を合成する場合を例にとって説明したが、3枚以上の画像を合成するときも、同様にオフセット項を調整することで、画素値のずれを防止することができる。また、オフセット調整部222および228によりオフセット項を調整することに代えて、α値についても色差信号と同様に、奇数画素のα値を偶数画素のα値で代用することにより、オフセット値のずれを防止することができる。
【0040】
以上、本発明を実施の形態をもとに説明した。この実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。以下、そうした例を述べる。
【0041】
実施の形態では、2または3枚のレイヤを合成したが、それ以上のレイヤを合成する場合も、同様である。実施の形態では、テレビジョン受像機を例にとって説明したが、本発明の技術は、コンピュータや携帯電話など、画像を表示する機能を有する表示装置全般に利用可能である。
【0042】
【発明の効果】
本発明によれば、画像処理装置のハードウェア構成を簡略化することが可能となる。
【図面の簡単な説明】
【図1】プレーン間の合成制御の説明図である。
【図2】実施の形態に係るテレビジョン受像機の全体構成を示す図である。
【図3】合成部の一般的な構成および動作を説明するための図である。
【図4】図3に示した合成部で用いられるカラールックアップテーブルの内部データを示す図である。
【図5】第1の実施の形態に係る合成部の構成および動作を説明するための図である。
【図6】図5に示した合成部で用いられるカラールックアップテーブルの内部データを示す図である。
【図7】第2の実施の形態に係る合成部の構成および動作を説明するための図である。
【図8】第3の実施の形態に係る合成部の構成および動作を説明するための図である。
【図9】第4の実施の形態に係る合成部の構成および動作を説明するための図である。
【図10】レイヤAの画素値を示す図である。
【図11】レイヤBの画素値を示す図である。
【図12】オフセット調整を行わないときの、乗算器から出力された演算結果を示す図である。
【図13】オフセット調整を行わないときの、444→422変換部から出力された演算結果を示す図である。
【図14】オフセット調整を行わないときの、乗算器から出力された演算結果を示す図である。
【図15】オフセット調整を行わないときの、加算器から出力された演算結果を示す図である。
【図16】オフセット調整を行ったときの、オフセット調整部から出力された演算結果を示す図である。
【図17】オフセット調整を行ったときの、444→422変換部から出力された演算結果を示す図である。
【図18】オフセット調整を行ったときの、オフセット調整部から出力された演算結果を示す図である。
【図19】オフセット調整を行ったときの、加算器から出力された演算結果を示す図である。
【符号の説明】
10 テレビジョン受像機、 32 映像信号処理部、 34 副画像入力部、 36 合成部、 100 カラールックアップテーブル、 102 カラールックアップテーブル、 200 第1合成部、 202 第2合成部、 210 変換部、 212 フレームメモリ、 220 オフセット加算部、 222 オフセット調整部、 224 444→422変換部、 226 オフセット加算部、 228 オフセット調整部。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing technique, and more particularly to a technique for displaying a mixture of a plurality of images.
[0002]
[Prior art]
New broadcasting forms and services have been proposed for the start of digital broadcasting. One of them is an on-screen display (OSD) that displays an arbitrary character or symbol (character) superimposed on a screen of a broadcast video.
With OSD, for example, it is possible to display a caption superimpose on the screen, to display a breaking news, or to display an electronic program guide (EPG) or the like. These sub-images are given an α value as an index of transparency, and are mixed with the broadcast screen as the main image with an arbitrary transparency.
[0003]
Figure 1 shows the standard “Data Broadcast Coding and Transmission System in Digital Broadcasting” (ARIB STD-B24 3.0 Edition (first volume), published on October 26, 1999, published by the Japan Radio Industry Association. It is explanatory drawing of the synthetic | combination control between planes published on the 19th page of May 31, 2001 revision 3.0). The pixel (SP) of the still image plane and the pixel (VP) of the moving image plane are switched by a 1-bit value (CP) of the moving image still image switching plane. Therefore, the pixel (SVP) of the combined plane of the moving image plane and the still image plane follows the following equation.
SVP = SP (when CP = 1)
VP (when CP = 0)
The pixels of the synthesis plane in which the moving image and the still image are synthesized are further synthesized by the pixel (TP) of the character graphic plane and the α value output from the CLUT. When this α value is α1, the pixel (TSVP) of the composite plane is expressed by the following equation.
TSVP = (1−α1) × SVP + α1 × TP
The subtitle plane pixels (GP) are further synthesized by the α value output from the subtitle plane CLUT. When this α value is α2, the pixel (GTSVP) of the synthesis plane is represented by the following equation.
GTSVP = (1−α2) × TSVP + α2 × GP
[0004]
[Problems to be solved by the invention]
In order to minimize the time required for image synthesis and reduce the delay from reception of broadcast waves to display, the OSD function is generally realized mainly by a hardware configuration. However, in order to further reduce the size and weight of the apparatus, it is required to simplify the hardware configuration and realize the OSD function with as few configurations as possible.
[0005]
The present invention has been made in view of such problems, and an object thereof is to provide a technique for simplifying a hardware configuration necessary for image processing.
[0006]
[Means for Solving the Problems]
One embodiment of the present invention relates to an image processing apparatus. The image processing apparatus includes a combining unit that mixes the pixel value A of the first image and the pixel value B of at least one second image combined with the first image with a predetermined mixing coefficient α. A first input unit that inputs the pixel value A to the combining unit, a second input unit that inputs an index value that specifies the pixel value B to the combining unit, and a mixing coefficient α and a pixel value B for each index A table recorded in association with each other, the table holds α × B obtained by multiplying the pixel value B by the mixing coefficient α in advance, and is included in the calculation of (1−α) × A + α × B in the synthesis unit. Among these multiplications, (1−α) × A is calculated by a multiplier, and α × B is obtained by reading data from the table.
[0007]
Even when three or more images are combined, assuming that the pixel value of the combined image up to the previous stage is C and the pixel value of the image to be combined is D, among the operations of (1−α) × C + α × D, By acquiring α × D by reading data from the table, the multiplier used for the calculation of α × D becomes unnecessary. Thereby, the hardware configuration can be simplified.
[0008]
Another embodiment of the present invention relates to an image processing method. In this image processing method, in a table in which a mixture coefficient α and pixel data B are recorded as a set for each index, α × B obtained by multiplying the mixture coefficient α in advance as pixel data B is recorded, When an image formed by the pixel data B is mixed with another image formed by the pixel data A, α × B of the multiplications included in the calculation of (1−α) × A + α × B is calculated from the table. Act by data reading. By reading data from the table, the number of hardware multipliers may be reduced.
[0009]
It should be noted that any combination of the above-described constituent elements and a representation of the present invention converted between a method, an apparatus, a system, etc. are also effective as an aspect of the present invention.
[0010]
DETAILED DESCRIPTION OF THE INVENTION
(First embodiment)
FIG. 2 shows an overall configuration of a television receiver 10 as an example of an image processing apparatus according to an embodiment of the present invention. In addition to the general function of a television receiver that reproduces and outputs video and audio from a broadcast wave, the television receiver 10 includes a first image (hereinafter also referred to as a “main image”) sent by the broadcast wave. In addition, at least one second image including character information or the like (hereinafter also referred to as “sub-image”) is superimposed and output. The first image may be acquired by any method such as terrestrial broadcasting, satellite broadcasting, and cable broadcasting, or may be in any format such as analog, digital, and hybrid. In this embodiment, a digital broadcast receiver will be described as an example.
[0011]
The broadcast wave received by the antenna 12 is sent to the tuner 14. The tuner 14 selects a transponder including a channel selected by the user and performs QPSK demodulation. A stream including a plurality of transport packets obtained by demodulation is sent to the packet separation unit 16. The packet separator 16 is a demultiplexer and separates a packet corresponding to a desired channel and outputs it to the decoder 18. The decoder 18 is, for example, an MPEG decoder, decodes the input packet, and outputs audio data to the audio signal processing unit 30 and video data to the video signal processing unit 32. At this time, when the sub image data is included in the broadcast wave, the sub image data is output to the main control unit 20 or the sub image input unit 34.
[0012]
The audio signal processing unit 30 performs predetermined processing on the input audio data and outputs it to the speaker 40. The video signal processing unit 32 performs predetermined processing on the input video data and outputs the processed data to the synthesis unit 36. The sub image input unit 34 acquires the sub image data and outputs it to the synthesis unit 36. As will be described in detail later, the combining unit 36 combines the main image data and the sub image data, and outputs the combined data to the NTSC encoder 38. The video signal converted into a video signal by the NTSC encoder 38 is output to the monitor 42 and displayed. Note that video data or audio data may be output to any external device as a digital signal.
[0013]
The main control unit 20 comprehensively controls the entire television receiver 10. The main control unit 20 includes a CPU 22, a ROM 24 that stores programs necessary for system startup, and a DRAM 26 that is used as a program area or work area. The main control unit 20 performs predetermined processing on the sub-image data acquired from the broadcast wave via the decoder 18 or from the outside via the communication unit 28 that supports a communication format different from the broadcast wave, and the processed data Is sent to the sub-image input unit 34. In addition, the main control unit 20 may generate a sub-image such as an electronic program guide in response to a request from the user and send it to the sub-image input unit 34.
[0014]
FIG. 3 is a diagram for explaining a general configuration and operation of the synthesis unit 36. In this example, two sub-images (layer B and layer C) are combined with the main image (layer A). For example, the layer A corresponds to the moving image plane VP or the still image plane SP in FIG. 1, the layer B corresponds to the character graphic plane TP, and the layer C corresponds to the caption plane GP. The video data of layer A is input to the synthesis unit 36 via the video signal processing unit 32. In general, the video data of layer A includes a luminance signal Y and color difference signals Cb and Cr, each of which is composed of 4 pixels, 4, 4, 4 bytes, or 4, 2, 2 bytes. When the color difference signals Cb and Cr are composed of 2 bytes, as shown in FIG. 1, the color difference signals Cb and Cr may be converted into 4 bytes by the 422 → 444 conversion unit and then input to the synthesis unit 36. In this example, the video data of layer B and layer C is given as an 8-bit index signal. With reference to the color look-up tables 100b and 100c, the luminance signal Y and the color difference signals Cb, Cr corresponding to the index signal are given. , And the mixing coefficient α is read out. The calculation in the combining unit 36 is performed for each pixel value of Y, Cb, and Cr. Here, for convenience of explanation, the pixel value of the layer A is “A” and the pixel value of the layer B is “B”. The pixel value of layer C is represented by “C”.
[0015]
FIG. 4 shows internal data of the color lookup tables 100b and 100c. The color lookup tables 100b and 100c are provided with an index field 300, a mixing coefficient α value field 302, a luminance signal Y value field 304, a color difference signal Cb value field 306, and a color difference signal Cr value field 308. When the index signal “0” is designated as the pixel value of a certain pixel in the layer B, the α value “1”, the Y value “200”, the Cb value “100”, the Cr value corresponding to the index “0” “100” is read and output to the circuit of the combining unit 36. The layer B color lookup table 100b and the layer C color lookup table 100c may use the same table in common.
[0016]
Returning to FIG. 3, the image composition procedure will be described. First, the pixel value A of layer A and the pixel value B of layer B are synthesized by the synthesis circuit at the first stage. Here, as described with reference to FIG.BThen, the pixel value D of the composite layer is expressed by the following equation.
D = (1−αB) × A + αB× B
In order to calculate the pixel value D of the synthesis layer D, first, the mixing coefficient α corresponding to the designated index signal is retrieved from the color lookup table 100b.BAnd the pixel value B is read out. Then, the multiplier 110 receives the pixel value A of the layer A and the mixing coefficient α.B1-α calculated fromBAnd enter (1-αB) XA is calculated.
Further, the multiplier 112 receives the pixel value B of the layer B and the mixing coefficient α.BAnd enterBCalculate xB. Furthermore, the pixel value D of a synthetic | combination layer is output by inputting and adding each calculation result to the adder 120.
[0017]
Similarly, the pixel value D of the synthesis layer D and the pixel value C of the layer C are synthesized by the synthesis circuit at the second stage. That is, αCXC is calculated and is multiplied by (1−α) by the multiplier 114.C) × D is calculated and added by the adder 122. The output pixel value E of the composition layer E is expressed by the following equation.
E = (1-αC) × D + αC× C
= (1-αB) (1-αCA + αB(1-αC) B + αCC
The synthesized video signal is output to the NTSC encoder 38.
[0018]
In the synthesis circuit shown in FIG. 3, at each stage of synthesis, a multiplier that multiplies the pixel value of the synthesis layer up to the previous stage by (1-α) and a multiplier that multiplies the pixel value of the layer to be synthesized by α. Are required, and 2n multipliers are required to synthesize the n layers. Actually, 2n × 3 multipliers are required to combine the luminance signal Y and the color difference signals Cb and Cr. In order to further reduce the size and weight of the device, it is preferable to simplify the circuit configuration in the combining unit 36 and reduce the hardware configuration.
[0019]
FIG. 5 is a diagram for explaining the configuration and operation of the improved combining unit 36. FIG. 6 shows the internal data of the color lookup tables 102b and 102c used in the combining unit 36 shown in FIG. FIG.
[0020]
The color lookup tables 102b and 102c shown in FIG.
An index column 300, a 1-α value column 312, an αY value column 314, an αCb value column 316, and an αCr value column 318 are provided. For example, as a pixel value of a certain pixel in the layer B, an index signal “0” is provided. Is designated, the 1-α value “0”, αY value “200”, αCb value “100”, and αCr value “100” corresponding to the index “0” are read out to the circuit of the combining unit 36. Is output. In this way, instead of the values of Y, Cb, and Cr, by storing the values obtained by multiplying the respective values in advance in the table, the multiplier used for multiplying the pixel value and α becomes unnecessary. . The color lookup table 102 may be held fixedly, but when the table is updated, each data of the color lookup table 102 may be calculated by the CPU 22 or the like, for example.
[0021]
Returning to FIG. 5, the image composition procedure will be described. Pixel value A of layer A and 1-α read out from the color lookup table 102bBAre respectively input to the multiplier 130 and (1-αB) × A is calculated. Then, the calculation result and α read out from the color lookup table 102b.BB is input to the adder 140, and the pixel value D of the synthesis layer D = (1−αBA + αBB is output.
[0022]
Similarly, the pixel value D of the synthesis layer D and the pixel value C of the layer C are synthesized. That is, the multiplier 132 (1−αC) × D is calculated, and α is read from the color lookup table 102c by the adder 142 as a result of the calculation.CC is added. The output pixel value E of the synthesis layer E is the same as that in FIG.
E = (1-αC) × D + αC× C
= (1-αB) (1-αCA + αB(1-αC) B + αCC
The synthesized video signal is output to the NTSC encoder 38.
[0023]
The synthesis unit 36 shown in FIG. 5 records a value obtained by multiplying the pixel value by the mixing coefficient α in the color lookup table 102 for reading out the pixel value of the sub-image, and mixes the layers. Of the multiplications included in the calculation of (1-α) × A + α × B, α × B is substituted for data reading from the table, so the number of multipliers is halved compared to the combining unit 36 shown in FIG. Can be. This can reduce the hardware configuration and contribute to further downsizing and weight reduction of the apparatus. Further, power consumption can be reduced by reducing the hardware configuration.
[0024]
(Second Embodiment)
FIG. 7 shows an internal configuration of the combining unit of the television receiver according to the second embodiment. The synthesizing unit 36 of the present embodiment does not synthesize the sub-images to the main image one by one, but synthesizes a plurality of sub-images first, and finally combines the sub-images into the main image. To synthesize. Since the overall configuration of the television receiver 10 of the present embodiment is the same as that of the television receiver 10 of the first embodiment shown in FIG. 2, the configuration and operation of the combining unit 36 will be described here. .
[0025]
The combining unit 36 includes a first combining unit 200, a conversion unit 210, a frame memory 212, and a second combining unit 202. The first synthesizing unit 200 synthesizes the sub-image layers B and C, and calculates an α value to be multiplied by the pixel value of the layer A that is the main image. First, α value α of layer BBAnd the pixel value B from the color look-up table 100b or the like, and the α value α of the layer CCAnd the pixel value C are read from the color look-up table 100c and the like. The pixel value B of layer B is multiplied by αBIs multiplied by (1-αC) Are respectively multiplied. The pixel value C of layer C is multiplied by αCIs multiplied. These multiplication results are added by the adder 160, and the pixel value F of the composite layer F of the sub-image is calculated. That is, the pixel value F of the composite layer F is represented by the following expression.
F = αB(1-αC) B + αCC
On the other hand, the first synthesizing unit 200 calculates an α value to be multiplied with the layer A as the main image. In this example, the multiplier 152 causes (1-αB) (1-αC) Is calculated.
[0026]
The pixel value F and α value calculated by the first synthesis unit 200 are output to the conversion unit 210. The conversion unit 210 performs predetermined processing on the sub-image synthesis layer F obtained by the first synthesis unit 200 to convert the image, and outputs the converted data to the frame memory 212. For example, the image size of the composite layer F of the sub image may be enlarged or reduced, or the number of bytes of the pixel value of the composite layer F may be changed. In this way, by combining the sub-images in advance, processing such as scaling and byte number conversion can be collectively performed on the entire sub-image.
[0027]
The frame memory 212 stores the sub image data F converted by the conversion unit 210 and the α value to be multiplied by the layer A. The second synthesis unit 202 reads the α value and the sub-image data F from the frame memory 212 in accordance with the stream of the image data A of the layer A, and synthesizes the layer A and the sub-image synthesis layer F. First, the multiplier 158 makes (1-αB) (1-αC) A is calculated, and the sub image data F is added to the calculation result by the adder 162 to obtain the pixel value E of the composite layer E.
[0028]
By combining a plurality of sub-images in advance and storing them in the frame memory 212, it is possible to reduce the number of computations from obtaining the layer A data stream to obtaining the synthesized layer E pixel values. Therefore, the delay time from the reception of the broadcast wave to the display of the video can be shortened. This is especially effective when the amount of data to be processed increases due to an increase in screen resolution or an increase in the number of pixel values in the future.
[0029]
(Third embodiment)
FIG. 8 shows an internal configuration of the combining unit of the television receiver according to the third embodiment. Similarly to the second embodiment, the synthesizing unit 36 of the present embodiment does not synthesize the sub-images to the main image one by one, but synthesizes a plurality of sub-images first, Then, the synthesized sub-image is synthesized with the main image. Since the overall configuration of the television receiver 10 of the present embodiment is the same as that of the television receiver 10 of the first embodiment shown in FIG. 2, the configuration and operation of the combining unit 36 will be described here. .
[0030]
In the synthesis unit 36 of the present embodiment, the circuit configuration of the first synthesis unit 200 in the synthesis unit 36 of the second embodiment illustrated in FIG. 7 is changed. In the second embodiment, α as layer B pixel dataBAnd B are input to the first combining unit 200. In the present embodiment, as in the first embodiment shown in FIG.BAnd αBB is entered. That is, by using the color lookup table 102 shown in FIG.BSubstitute the calculation of × B by reading from the table. Thereby, the circuit configuration of the first synthesis unit 200 can be simplified, and the hardware configuration can be reduced. According to the experiments of the present inventors, it has been found that the circuit can be reduced by about 10% as compared with the conventional OSD. Other configurations and operations are the same as those in the second embodiment.
[0031]
(Fourth embodiment)
FIG. 9 shows an internal configuration of the combining unit of the television receiver according to the fourth embodiment. Since the overall configuration of the television receiver 10 of the present embodiment is the same as that of the television receiver 10 of the first embodiment shown in FIG. 2, the configuration and operation of the combining unit 36 will be described here. . Also in the present embodiment, as in the second and third embodiments, the sub-image is synthesized first, and finally, the sub-image synthesis layer is synthesized with the main image layer. Therefore, a case where one sub-image layer B is combined with the main image layer A will be described as an example.
[0032]
When the layer B index signal is input, the color lookup table 100b is referred to and αBAnd B are output. Among the pixel values B, the luminance signal Y is used for the calculation as it is, but the color difference signals Cb and Cr generally include negative values. Therefore, prior to the calculation, the offset addition unit 220 adds the offset value to obtain a positive value. Convert to value. For example, when the color difference signals Cb and Cr can take values from −127 to +127, the offset adding unit 220 adds 128. The output (B + 128) of the offset adder 220 is multiplied by α by the multiplier 192.BIs multiplied by αB(B + 128) is obtained. Here, in order to prevent a shift of an offset value, which will be described later, the offset adjustment unit 222 performs (1-αB) × 128 is added. The output of the offset adjustment unit 222 is as follows.
αB(B + 128) + (1-αB) × 128 = αBB + 128
The calculation result is input to the 444 → 422 conversion unit 224, and the color difference signals Cb and Cr are converted from 4 bytes to 2 bytes. Specifically, the number of bytes of the color difference signal is halved by substituting the color difference signal of the odd pixel with the color difference signal of the even pixel. The pixel value of the sub-image layer that is the output of the 444 → 422 conversion unit 224 and the α value to be multiplied by the main image layer A are stored in the frame memory 212.
[0033]
Similarly, 128 is added to the color difference signal of layer A, which is the main image, by the offset addition unit 226. The α value read from the frame memory 212 is multiplied by (A + 128) by the multiplier 194, and (1−αB) (A + 128) is output. Here, in order to prevent a deviation of an offset value, which will be described later, the offset adjustment unit 228 (1-αB) X 128 is subtracted. Output of the offset adjustment unit 228 (1-αB) A and (α) read from the frame memory 212BB + 128) is added by the adder 196, and (1-αBA + αBB + 128 is calculated.
[0034]
Here, the state of calculation when the offset adjusting units 222 and 228 are not provided will be described. FIG. 10 shows the pixel value of layer A, and FIG. 11 shows the pixel value and α value of layer B. Each of the four pixels shows a pixel value and an α value. The subscript indicates the layer type, and the superscript indicates the pixel number.
[0035]
FIG. 12 shows the calculation result output from the multiplier 192. For the luminance signal Y, an offset value is not added and αBY is output, but the offset value is added to the color difference signals Cb and Cr, and αB(Cb + 128) is output. FIG. 13 shows the calculation result output from the 444 → 422 conversion unit 224. The color difference signals Cb and Cr of the odd pixels are substituted by the color difference signals of the adjacent even pixels, and the number of bytes is halved.
[0036]
FIG. 14 shows the calculation result output from the multiplier 194. Read from the frame memory (1-αB) Is multiplied by the pixel value of layer A. FIG. 15 shows the calculation result output from the adder 196. Although correct calculation results are obtained for the pixels 0 and 2 that are even pixels, the offset term is shifted for the pixels 1 and 3 that are odd pixels. Taking pixel 1 as an example, since the color difference signals Cb and Cr of the sub-image are substituted with the value of the adjacent pixel 0, αB 0While the term of × 128 remains, the calculation of the main image layer A is αB 1Is used, so the offset term is αB 1The term x128 remains. αB 0And αB 1If the two values are the same, these two terms cancel each other and no deviation occurs. However, if they are different values, the terms that should originally cancel each other remain and a deviation occurs.
[0037]
In order to solve such a problem, when the sub-image is synthesized, the offset adjustment unit 222 performs αB 0Is canceled by the offset adjustment unit 228 when the main image is synthesized.B 1Cancel the offset term containing. Thereby, the offset value can be prevented from shifting.
[0038]
FIG. 16 shows the calculation result output from the offset adjustment unit 222. In the offset adjustment unit 222, the calculation result of the multiplier 192 is (1−αB) X 128 to add αBThe offset term containing is canceled. FIG. 17 shows the calculation result output from the 444 → 422 conversion unit 224. The color difference signals Cb and Cr of the odd pixels are substituted with the color difference signals of the adjacent even pixels. FIG. 18 shows the calculation result output from the offset adjustment unit 228. The offset adjustment unit 228 calculates (1−α) from the calculation result of the multiplier 194.B) X 128 by subtracting αBThe offset term containing is canceled. FIG. 19 shows the calculation result output from the adder 196. αBSince the offset term including is canceled, the even value and the odd number of pixels are correct values with no offset value deviation.
[0039]
Here, the case where two images are combined has been described as an example. However, when three or more images are combined, the offset value can be similarly adjusted to prevent the pixel value from shifting. Further, in place of adjusting the offset term by the offset adjusting units 222 and 228, as for the α value, similarly to the color difference signal, the α value of the odd pixel is replaced with the α value of the even pixel, thereby shifting the offset value. Can be prevented.
[0040]
The present invention has been described based on the embodiments. This embodiment is an exemplification, and it is understood by those skilled in the art that various modifications can be made to the combination of each component and each processing process, and such modifications are within the scope of the present invention. . Such an example is described below.
[0041]
In the embodiment, two or three layers are combined, but the same applies to a case where more layers are combined. In the embodiment, the television receiver has been described as an example. However, the technology of the present invention can be used for all display devices having a function of displaying an image, such as a computer and a mobile phone.
[0042]
【The invention's effect】
According to the present invention, the hardware configuration of the image processing apparatus can be simplified.
[Brief description of the drawings]
FIG. 1 is an explanatory diagram of synthesis control between planes.
FIG. 2 is a diagram illustrating an overall configuration of a television receiver according to an embodiment.
FIG. 3 is a diagram for explaining a general configuration and operation of a combining unit.
4 is a diagram showing internal data of a color look-up table used in the synthesis unit shown in FIG. 3;
FIG. 5 is a diagram for explaining the configuration and operation of a combining unit according to the first embodiment.
6 is a diagram showing internal data of a color look-up table used in the synthesis unit shown in FIG.
FIG. 7 is a diagram for explaining the configuration and operation of a combining unit according to the second embodiment.
FIG. 8 is a diagram for explaining the configuration and operation of a combining unit according to a third embodiment.
FIG. 9 is a diagram for explaining the configuration and operation of a combining unit according to the fourth embodiment.
FIG. 10 is a diagram illustrating layer A pixel values;
FIG. 11 is a diagram illustrating layer B pixel values;
FIG. 12 is a diagram illustrating a calculation result output from a multiplier when offset adjustment is not performed.
FIG. 13 is a diagram illustrating a calculation result output from a 444 → 422 conversion unit when offset adjustment is not performed.
FIG. 14 is a diagram illustrating a calculation result output from a multiplier when offset adjustment is not performed.
FIG. 15 is a diagram illustrating a calculation result output from an adder when offset adjustment is not performed.
FIG. 16 is a diagram illustrating a calculation result output from an offset adjustment unit when offset adjustment is performed.
FIG. 17 is a diagram illustrating a calculation result output from a 444 → 422 conversion unit when offset adjustment is performed.
FIG. 18 is a diagram illustrating a calculation result output from an offset adjustment unit when offset adjustment is performed.
FIG. 19 is a diagram illustrating a calculation result output from an adder when offset adjustment is performed.
[Explanation of symbols]
10 television receiver, 32 video signal processing unit, 34 sub-image input unit, 36 synthesis unit, 100 color lookup table, 102 color lookup table, 200 first synthesis unit, 202 second synthesis unit, 210 conversion unit, 212 frame memory, 220 offset addition unit, 222 offset adjustment unit, 224 444 → 422 conversion unit, 226 offset addition unit, 228 offset adjustment unit.

Claims (1)

動画又は静止画プレーンである主画像と字幕又は文字図形プレーンである複数の副画像を混合する画像処理装置であって、
前記複数の副画像を混合すると共に、前記主画像に乗算すべき混合係数を算出する第1合成部と、
前記第1合成部で混合した混合画像に対しスケーリング処理又はバイト数変換処理を行う変換部と、
前記混合画像と主画像との混合を行う第2合成部を備え、
前記第1合成部は、副画像の画素値に混合係数を乗じた値及び前記主画像と乗算される混合係数を保持するテーブルを備え、前記テーブルに保持された値を用いて副画像の混合演算を行うとともに、前記複数の副画像の混合結果及び主画像に乗算される混合係数を出力する、画像処理装置。
An image processing apparatus that mixes a main image that is a moving image or a still image plane and a plurality of sub-images that are subtitles or character graphic planes ,
A first combining unit that mixes the plurality of sub-images and calculates a mixing coefficient to be multiplied with the main image;
A conversion unit that performs scaling processing or byte number conversion processing on the mixed image mixed in the first combining unit;
A second combining unit for mixing the mixed image and the main image;
The first synthesis unit includes a table that holds a value obtained by multiplying a pixel value of a sub-image by a mixing coefficient and a mixing coefficient that is multiplied by the main image, and uses the values held in the table to mix the sub-image An image processing apparatus that performs calculation and outputs a mixing result of the plurality of sub-images and a mixing coefficient to be multiplied by the main image.
JP2002054136A 2002-02-28 2002-02-28 Image processing apparatus and image processing method Expired - Fee Related JP4573491B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002054136A JP4573491B2 (en) 2002-02-28 2002-02-28 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002054136A JP4573491B2 (en) 2002-02-28 2002-02-28 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2003259213A JP2003259213A (en) 2003-09-12
JP4573491B2 true JP4573491B2 (en) 2010-11-04

Family

ID=28665374

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002054136A Expired - Fee Related JP4573491B2 (en) 2002-02-28 2002-02-28 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP4573491B2 (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005123775A (en) 2003-10-15 2005-05-12 Sony Corp Apparatus and method for reproduction, reproducing program and recording medium
EP1566773B1 (en) * 2004-02-18 2007-12-19 Harman Becker Automotive Systems GmbH Alpha blending based on a look-up table
JP2006303631A (en) 2005-04-15 2006-11-02 Sony Corp On-screen display device and on-screen display generation method
JP5501548B2 (en) * 2005-12-22 2014-05-21 オリンパスイメージング株式会社 Image processing apparatus and image processing method
JP4625781B2 (en) * 2006-03-22 2011-02-02 株式会社東芝 Playback device
JP2007292857A (en) * 2006-04-21 2007-11-08 Yamaha Corp Image processor and image processing method
JP5083509B2 (en) * 2007-03-01 2012-11-28 セイコーエプソン株式会社 Electronic circuit, electronic equipment and projector
JP5444598B2 (en) * 2007-09-28 2014-03-19 カシオ計算機株式会社 Image control device
JP5022324B2 (en) * 2008-09-12 2012-09-12 ルネサスエレクトロニクス株式会社 Image processing apparatus and method
JP5159846B2 (en) * 2010-09-07 2013-03-13 株式会社東芝 Playback apparatus and playback apparatus playback method
KR101899685B1 (en) * 2016-09-01 2018-10-04 스노우 주식회사 Method and system for processing image using lookup table and layered mask
JP6307182B2 (en) * 2017-01-11 2018-04-04 サターン ライセンシング エルエルシーSaturn Licensing LLC Reception device, display control method, and broadcasting system
KR102160092B1 (en) * 2018-09-11 2020-09-25 스노우 주식회사 Method and system for processing image using lookup table and layered mask
WO2020153097A1 (en) * 2019-01-21 2020-07-30 ローム株式会社 Semiconductor device, vehicle-mounted display system using same, and electronic device

Also Published As

Publication number Publication date
JP2003259213A (en) 2003-09-12

Similar Documents

Publication Publication Date Title
US7864249B2 (en) Method and apparatus displaying double screen
JP4573491B2 (en) Image processing apparatus and image processing method
US6310654B1 (en) Decoder device and receiver using the same
US7006156B2 (en) Image data output device and receiving device
JP5124618B2 (en) Subscreen processing method for TV
KR100649907B1 (en) Video processing apparatus and video processing method
JPS62224170A (en) Noise suppression means and television apparatus equipped with the same
US7616264B1 (en) Cropped and scaled picture-in-picture system and method
JP2000224504A (en) Program displaying and selecting device, digital broadcasting receiver and system therefor
JP2000347638A (en) Osd device, coding video decoding device using it, and digital broadcast receiving device using the decoding device
JP3188337B2 (en) Image display device and control method thereof
JPH1127643A (en) Transmitter-receiver for html data
JP3906167B2 (en) Image processing apparatus and image processing method
US8587605B2 (en) Image processing device, control method for image processing device, control program for image processing device, and recording medium in which control program is recorded
JPH08275117A (en) Image processor
JPH11146275A (en) Image processing display device
JPH05316447A (en) Television receiver
WO2001005144A1 (en) Video display control method, video display processing system, video display processing device, screen display device
JP2002335539A (en) Digital broadcast receiver
JP2001086367A (en) Video display device and control method thereof
JP2001148816A (en) Composition image broadcast device and receiver
JPH11355683A (en) Video display device
JP2011040974A (en) Display control device, and method of controlling the same
KR102423567B1 (en) Image display apparatus
JP2000092408A (en) Device and method for video display

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070423

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080331

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080528

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20080912

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100817

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130827

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees