JPWO2008032744A1 - 映像処理装置および映像処理方法 - Google Patents

映像処理装置および映像処理方法 Download PDF

Info

Publication number
JPWO2008032744A1
JPWO2008032744A1 JP2008534365A JP2008534365A JPWO2008032744A1 JP WO2008032744 A1 JPWO2008032744 A1 JP WO2008032744A1 JP 2008534365 A JP2008534365 A JP 2008534365A JP 2008534365 A JP2008534365 A JP 2008534365A JP WO2008032744 A1 JPWO2008032744 A1 JP WO2008032744A1
Authority
JP
Japan
Prior art keywords
data
video
frame
interpolation
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008534365A
Other languages
English (en)
Other versions
JP4878628B2 (ja
Inventor
克美 寺井
克美 寺井
太田 義人
義人 太田
和志 野澤
和志 野澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2008534365A priority Critical patent/JP4878628B2/ja
Publication of JPWO2008032744A1 publication Critical patent/JPWO2008032744A1/ja
Application granted granted Critical
Publication of JP4878628B2 publication Critical patent/JP4878628B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0127Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter
    • H04N7/0132Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter the field or frame frequency of the incoming video signal being multiplied by a positive integer, e.g. for flicker reduction
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/10Special adaptations of display systems for operation with variable images
    • G09G2320/106Determination of movement vectors or equivalent parameters within the image
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • G09G2340/0435Change or adaptation of the frame rate of the video stream
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/014Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes involving the use of motion vectors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Systems (AREA)

Abstract

動き補償部は、映像データ選択部、映像データ編集部、ベクトル参照データ編集部、遅延部、領域データ編集部および遅延部を含む。映像データ編集部は、現フレーム映像データおよび平均映像データを出力する。ベクトル参照データ編集部は、前方補償映像データおよび後方補償映像データを出力する。領域データ編集部は、現フレーム領域データ、前方補償領域データおよび後方補償領域データを出力する。映像データ選択部は、3つの領域データに基づいて、4つの映像データのなかから1つの映像データを選択し、映像出力部へ出力する。

Description

本発明は、フレームレート変換処理を行う映像処理装置および映像処理方法に関する。
テレビジョン受像機等の映像処理装置においては、映像データに対してフレームレート変換処理を施している(例えば、特許文献1)。フレームレート変換処理においては、例えば、時間軸上で連続する2つのフレーム(動画像を構成する画面)から動きベクトルを検出し、検出した動きベクトルを用いて補間フレームを生成している。この処理を行うことにより、映像データの圧縮効率を向上させつつ、高品質な映像の実現が可能となる。
特開昭62−175080号公報
一般に、テレビジョン受像機においては、ディスプレイパネル上にチャンネル番号等のキャラクタを表示することができる。ディスプレイパネル上にキャラクタを表示する際には、テレビジョン受像機は、内蔵されているマイクロコンピュータによりキャラクタデータを生成している。そして、生成したキャラクタデータとフレームレート変換処理を施した映像データとを合成し、合成したデータを映像として出力している。
ところで、フレームレート変換処理においては、時間軸上で連続する2つのフレームから補間フレームが生成されるので、映像データのフレーム周波数が増加する。例えば、50Hzのフレーム周波数の映像データが、フレームレート変換処理によって100Hzのフレーム周波数の映像データとなる。したがって、フレームレート変換処理後にキャラクタデータを合成する場合、フレーム周波数が増加した映像データにキャラクタデータを合成しなければならないので、データ処理速度の高い高性能のマイクロコンピュータを用いなければならない。そのため、テレビジョン受像機の製品コストが増加する。
そこで、本発明者らは、テレビジョン受像機の製品コストを低減するために、キャラクタデータと映像データとを合成した後にフレームレート変換処理を行う構成について考察した。この場合、フレーム周波数が増加する前の映像データすなわちフレーム周波数が低い映像データにキャラクタデータを合成することができる。したがって、データ処理速度の高い高性能のマイクロコンピュータを用いなくてよい。それにより、テレビジョン受像機の製品コストを低減することができる。
しかしながら、キャラクタデータと映像データとを合成した後にフレームレート変換処理を行うことにより、画質が低下する場合があることが本発明者らによって発見された。また、本発明者らは、画質が低下する複数の要因を発見した。以下、それら複数の要因の一部を例に挙げて、フレームレート変換処理時に発生する問題について説明する。
図15および図16は、テレビジョン受像機のディスプレイパネルにチャンネル番号が表示された場合の一例を示すものである。図15および図16においては、テレビジョン受像機1000のディスプレイパネル1001上に、チャンネル番号“31”を示すキャラクタ1005が表示されている。なお、本例においては、主画面1002内で3羽の鳥1006,1007,1008が右方向へ移動している。図15においては、鳥1006の一部がキャラクタ1005によって隠れている。
ここで、上述したように、フレームレート変換処理においては、時間軸上で前後する2つのフレームから補間フレームを生成している。そのため、上記のような場合、鳥1006のキャラクタ1005によって隠れている部分については、動きベクトルを正確に検出することができない。それにより、正確な補間フレームを生成することができない。
また、フレームレート変換処理においては、動きベクトルはブロック単位(例えば、8×8画素)で検出される。そのため、キャラクタ1005と鳥1006との境界が1つのブロック内に存在する場合、そのブロックの動きベクトルは鳥1006の動きに基づいて検出されることがある。それにより、補間フレームにおいて、鳥1006の移動とともにキャラクタ1005の一部が移動することがある。
これらの結果、キャラクタ1005および鳥1006周辺の領域において画質が低下する。
また、本発明者らは、2つの映像データを合成した後に、その合成した映像データにフレームレート変換処理を施す場合にも上記のような問題が発生することを見出した。以下、図15および図16を参照しながら説明する。
図15および図16においては、ディスプレイ1001上に一の映像データに基づく主画面1002および他の映像データに基づく副画面1003が表示されている。主画面1002の映像および副画面1003の映像は互いに独立しており、主画面1002上に副画面1003が表示されている。なお、図15および図16においては、主画面1002内で自動車1004が左方向に移動している。したがって、図15において副画面1003によって隠れている自動車1004の一部は、時間の経過とともに徐々に主画面1002上に現れる。
この場合、上記の場合と同様に、自動車1004の副画面1003によって隠れている部分については、動きベクトルを正確に検出することができない。それにより、正確な補間フレームを生成することができない。
また、主画面1002と副画面1003との境界が1つのブロック内に存在する場合、そのブロックの動きベクトルは自動車1004の動きに基づいて検出されることがある。それにより、補間フレームにおいて、自動車1004の移動とともに副画面1003の一部が移動することがある。
これらの結果、副画面1003および副画面1003周辺の領域において画質が低下する。
以上のような要因により、従来のテレビジョン受像機の構成では、フレームレート変換処理を行うことにより画質が低下する場合がある。そのため、高画質の映像を安定して提供することが困難である。
本発明の目的は、安価な構成で高画質の映像を安定して供給することができる映像処理装置および映像処理方法を提供することである。
(1)本発明の一局面に従う映像処理装置は、第1の映像を表示するための第1のデータおよび第1の映像上に表示される第2の映像を表示するための第2のデータが合成された合成データを処理する映像処理装置であって、複数のフレームの合成データから動きベクトルを検出する動きベクトル検出部と、複数のフレームの合成データおよび動きベクトル検出部により検出される動きベクトルに基づいて、2つのフレームを補間する補間フレームの補間データを生成する補間データ生成部とを備え、補間データ生成部は、2つのフレームのうち少なくとも一方のフレームにおいて第2の映像が表示される場合、補間フレームにおいて第2の映像の表示領域の少なくとも外周部に対応する領域の補間データを、動きベクトル検出部により検出された動きベクトルを用いずに生成するものである。
その映像処理装置においては、動きベクトル検出部において、複数のフレームの合成データから動きベクトルが検出される。補間データ生成部において、複数のフレームの合成データおよび動きベクトルに基づいて、2つのフレームを補間する補間フレームの補間データが生成される。
ここで、補間データ生成部は、2つのフレームのうち少なくとも一方のフレームが第2の映像の表示領域を有する場合、補間フレームにおいて第2の映像の表示領域の少なくとも外周部に対応する領域については、動きベクトルを用いずに補間データを生成する。なお、外周部とは第2の映像の表示領域の外形線を含む所定幅の領域のことをいう。
この場合、本来移動すべきではない上記外周部が、動きベクトルに基づいて補間フレームにおいて移動することを防止することができる。それにより、補間フレームにおいて、第1の映像が表示されるべき領域に第2の映像が表示されること、および第2の映像が表示されるべき領域に第1の映像が表示されることを防止することができる。その結果、補間フレームにおいて適切な位置に第2の映像を表示することができる。
また、補間データ生成部は、第1のデータおよび第2のデータが合成された合成データから補間フレームを生成することができる。したがって、補間フレームを生成する前、すなわち第1のデータのフレーム数(フレーム周波数)が増加する前に、第1のデータに第2のデータを合成することができる。
それにより、例えば、第2のデータがオンスクリーン表示のためのデータ(以下、OSDデータと略記する。)である場合には、第1のフレーム数が増加した後に第1のデータにOSDデータを合成する場合に比べて、データ処理速度の高くないマイクロコンピュータを用いて第1のデータにOSDデータを合成することができる。この場合、高性能のマイクロコンピュータを映像処理装置に設ける必要がないので、映像処理装置の製品コストを低減することができる。
以上の結果、安価な構成で高精度の動き補償を行うことができる。それにより、高画質の映像を安定して提供することが可能となる。
(2)補間データ生成部は、2つのフレームのうち少なくとも一方のフレームにおいて第2の映像が表示される場合、補間フレームの全ての領域の補間データを、動きベクトル検出部により検出された動きベクトルを用いずに生成してもよい。
この場合、本来移動すべきではない第2の映像が、動きベクトルに基づいて補間フレームにおいて移動することを確実に防止することができる。それにより、補間フレームにおいて、第1の映像が表示されるべき領域に第2の映像が表示されること、および第2の映像が表示されるべき領域に第1の映像が表示されることを確実に防止することができる。その結果、補間フレームにおいて適切な位置に第2の映像を表示することができる。
(3)補間データ生成部は、2つのフレームのうち少なくとも一方のフレームにおいて第2の映像が表示される場合、補間フレームにおいて第2の映像の表示領域の少なくとも外周部に対応する領域の補間データとして第2のデータを生成してもよい。
この場合、2つのフレームの少なくとも一方に第2の映像の表示領域が存在する場合には、補間フレームの上記少なくとも外周部に対応する領域においても第2のデータに基づく映像が表示される。それにより、2つのフレームがともに第2の映像の表示領域を有する場合に、補間フレームの上記少なくとも外周部に対応する領域において第1のデータに基づく映像が表示されることを防止することができる。その結果、より高精度の動き補償を行うことが可能となる。
(4)補間データ生成部は、各フレームにおいて第2の映像の表示領域を示す領域データに基づいて、少なくとも外周部に対応する領域を決定してもよい。この場合、領域データに基づいて、補間フレームにおいて上記少なくとも外周部が表示される領域を容易に決定することができる。
(5)補間データ生成部は、2つのフレームのうち時間軸上で前方および後方のフレームの合成データと動きベクトル検出部により検出される動きベクトルとに基づいて第1および第2の予測フレームのデータをそれぞれ生成し、第1の予測フレームにおける少なくとも外周部の領域と第2の予測フレームにおける少なくとも外周部の領域とが異なる場合に、補間フレームにおいて、第1および第2の予測フレームの一方における少なくとも外周部に対応する領域の補間データとして、他方の予測フレームの対応する領域のデータを選択してもよい。
この場合、補間データ生成部において、補間フレームの候補として、前方のフレームと動きベクトルとに基づく第1の予測フレーム、および後方のフレームと動きベクトルとに基づく第2の予測フレームが生成される。そして、補間フレームにおいて、第1の予測フレームの上記少なくとも外周部に対応する領域については、第2の予測フレームの対応する領域のデータが補間データとして用いられ、第2の予測フレームの上記少なくとも外周部に対応する領域については、第1の予測フレームの対応する領域のデータが補間データとして用いられる。
したがって、本来移動すべきではない上記少なくとも外周部の領域が補間フレームにおいて移動することを防止しつつ、動きベクトルに基づいて、前方または後方のフレームの合成データから補間フレームの補間データを生成することができる。それにより、補間フレームにおいて、適切な位置に第2の映像を表示することができるとともに、より高精度の動き補償を行うことができる。その結果、より高画質の映像を安定して提供することが可能となる。
(6)補間データ生成部は、前方および後方のフレームの合成データを用いた演算により第3の予測フレームのデータをさらに生成し、第1の予測フレームにおける少なくとも外周部の領域と第2の予測フレームにおける少なくとも外周部の領域とが等しい場合に、補間フレームにおいて、第1および第2の予測フレームにおける少なくとも外周部に対応する領域の補間データとして、第3の予測フレームの対応する領域のデータを選択してもよい。
この場合、補間データ生成部において、補間フレームの候補として、前方のフレームの合成データと後方のフレームの合成データとを用いた演算により第3の予測フレームが生成される。そして、補間フレームにおいて、第1の予測フレームの上記少なくとも外周部の領域および第2の予測フレームの上記少なくとも外周部の領域の両方に対応する領域については、第3の予測フレームの対応する領域のデータが補間データとして用いられる。
したがって、本来移動すべきではない上記少なくとも外周部の領域が補間フレームにおいて移動することを確実に防止しつつ、前方および後方のフレームの合成データから補間フレームの補間データを生成することができる。それにより、補間フレームにおいて、適切な位置に第2の映像を表示することができるとともに、さらに高精度の動き補償を行うことができる。その結果、さらに高画質の映像を安定して提供することが可能となる。
(7)映像処理装置は、前方のフレームにおいて第2の映像の表示領域を示す領域データと動きベクトル検出部により検出される動きベクトルとに基づいて第1の予測フレームにおいて第2の映像の表示領域を示す第1の予測領域データを生成するとともに、後方のフレームにおいて第2の映像の表示領域を示す領域データと動きベクトル検出部により検出される動きベクトルとに基づいて第2の予測フレームにおいて第2の映像の表示領域を示す第2の予測領域データを生成する予測領域データ生成部をさらに備え、補間データ生成部は、予測領域データ生成部により生成される第1および第2の予測領域データに基づいて補間データを生成してもよい。
この場合、予測領域データ生成部において、前方のフレームの領域データと動きベクトルとに基づいて第1の予測フレームにおける第2の映像の表示領域を示す第1の予測領域データが生成され、後方のフレームの領域データと動きベクトルとに基づいて第2の予測フレームにおける第2の映像の表示領域を示す第2の予測領域データが生成される。したがって、補間データ生成部は、第1および第2の予測領域データに基づいて、第1および第2の予測フレームにおける上記少なくとも外周部の領域を容易に識別することができる。
それにより、本来移動すべきではない上記少なくとも外周部の領域が補間フレームにおいて移動することをより確実に防止しつつ、前方および後方のフレームの合成データから補間フレームの補間データを容易に生成することができる。その結果、補間フレームにおいて、より適切な位置に第2の映像を表示することができるとともに、さらに高精度の動き補償を行うことができる。
(8)第2のデータは、オンスクリーン表示のためのデータであり、少なくとも外周部の領域は、オンスクリーン表示のための領域の全てを含んでもよい。
この場合、補間フレームを生成する前、すなわち第1のデータのフレーム数(フレーム周波数)が増加する前に、第1のデータにオンスクリーン表示のためのデータ(以下、OSDデータと略記する。)を合成することができる。
したがって、第1のフレーム数が増加した後に第1のデータにOSDデータを合成する場合に比べて、データ処理速度の高くないマイクロコンピュータを用いて第1のデータにOSDデータを合成することができる。この場合、高性能のマイクロコンピュータを映像処理装置に設ける必要がないので、映像処理装置の製品コストを低減することができる。
また、オンスクリーン表示のための領域については、動きベクトルを用いずに補間データが生成される。
この場合、本来移動すべきではないオンスクリーン表示のための領域が、動きベクトルに基づいて補間フレームにおいて移動することを防止することができる。それにより、補間フレームにおいて、オンスクリーン表示が行われるべきではない領域においてオンスクリーン表示が行われること、およびオンスクリーン表示が行われるべき領域において第1の映像が表示されることを防止することができる。その結果、補間フレームにおいて適切な位置でオンスクリーン表示を行うことができる。
(9)本発明の他の局面に従う映像処理装置は、第1の映像を表示するための第1のデータおよび第2の映像を表示するための第2のデータを処理する映像処理装置であって、第1のデータと第2のデータとを合成することにより、第1の映像上に第2の映像が表示される複数のフレームの合成データを生成する合成データ生成部と、複数のフレームの第1のデータから動きベクトルを検出する動きベクトル検出部と、合成データ生成部により生成される複数のフレームの合成データおよび動きベクトル検出部により検出される動きベクトルに基づいて、2つのフレームを補間する補間フレームの補間データを生成する補間データ生成部とを備えるものである。
その映像処理装置においては、合成データ生成部において、第1の映像を表示するための第1のデータと第2の映像を表示するための第2のデータとが合成され、合成データが生成される。動きベクトル検出部において、複数のフレームの第1のデータから動きベクトルが検出される。補間データ生成部において、複数のフレームの合成データおよび動きベクトルに基づいて、2つのフレームを補間する補間フレームの補間データが生成される。
このように、動きベクトルは第1のデータから検出される。したがって、第1の映像上に第2の映像が表示されていても、第2のデータを考慮せずに動きベクトルを検出することができる。
この場合、合成データの複数のフレームにおいて、第2の映像により表示されない領域の第1の映像についても、2つのフレームの間で正確にマッチングを行うことができる。それにより、第1の映像について、動きベクトルを高精度で検出することが可能になる。
また、補間データ生成部は、第1のデータおよび第2のデータが合成された合成データから補間フレームを生成することができる。したがって、補間フレームを生成する前、すなわち第1のデータのフレーム数(フレーム周波数)が増加する前に、第1のデータに第2のデータを合成することができる。
それにより、例えば、第2のデータがOSDデータである場合には、第1のフレーム数が増加した後に第1のデータにOSDデータを合成する場合に比べて、データ処理速度の高くないマイクロコンピュータを用いて第1のデータにOSDデータを合成することができる。この場合、高性能のマイクロコンピュータを映像処理装置に設ける必要がないので、映像処理装置の製品コストを低減することができる。
以上の結果、安価な構成で高精度の動き補償を行うことができる。それにより、高画質の映像を安定して提供することが可能となる。
(10)補間データ生成部は、2つのフレームのうち少なくとも一方のフレームにおいて第2の映像が表示される場合、補間フレームにおいて第2の映像の表示領域に対応する領域の補間データを、動きベクトル検出部により検出された動きベクトルを用いずに生成してもよい。
この場合、本来移動すべきではない第2の映像の表示領域が、動きベクトルに基づいて補間フレームにおいて移動することを防止することができる。それにより、補間フレームにおいて、第1の映像が表示されるべき領域に第2の映像が表示されること、および第2の映像が表示されるべき領域に第1の映像が表示されることを防止することができる。その結果、補間フレームにおいて適切な位置に第2の映像を表示することができる。
(11)補間データ生成部は、2つのフレームのうち少なくとも一方のフレームにおいて第2の映像が表示される場合、補間フレームの全ての領域の補間データを、動きベクトル検出部により検出された動きベクトルを用いずに生成してもよい。
この場合、本来移動すべきではない第2の映像が、動きベクトルに基づいて補間フレームにおいて移動することを確実に防止することができる。それにより、補間フレームにおいて、第1の映像が表示されるべき領域に第2の映像が表示されること、および第2の映像が表示されるべき領域に第1の映像が表示されることを確実に防止することができる。その結果、補間フレームにおいて適切な位置に第2の映像を表示することができる。
(12)補間データ生成部は、2つのフレームのうち少なくとも一方のフレームにおいて第2の映像が表示される場合、補間フレームにおいて第2の映像の表示領域に対応する領域の補間データとして第2のデータを生成してもよい。
この場合、2つのフレームの少なくとも一方に第2の映像の表示領域が存在する場合には、補間フレームの上記少なくとも外周部に対応する領域においても第2のデータに基づく映像が表示される。それにより、2つのフレームがともに第2の映像の表示領域を有する場合に、補間フレームの上記少なくとも外周部に対応する領域において第1のデータに基づく映像が表示されることを防止することができる。その結果、より高精度の動き補償を行うことが可能となる。
(13)補間データ生成部は、各フレームにおいて第2の映像の表示領域を示す領域データに基づいて、第2の映像の表示領域に対応する領域を決定してもよい。この場合、領域データに基づいて、補間フレームにおける第2の映像の表示領域を容易に決定することができる。
(14)補間データ生成部は、2つのフレームのうち時間軸上で前方および後方のフレームの合成データと動きベクトル検出部により検出される動きベクトルとに基づいて第1および第2の予測フレームのデータをそれぞれ生成し、第1の予測フレームにおける第2の映像の表示領域と第2の予測フレームにおける第2の映像の表示領域とが異なる場合に、補間フレームにおいて、第1および第2の予測フレームの一方における第2の映像の表示領域に対応する領域の補間データとして、他方の予測フレームの対応する領域のデータを選択してもよい。
この場合、補間データ生成部において、補間フレームの候補として、前方のフレームと動きベクトルとに基づく第1の予測フレーム、および後方のフレームと動きベクトルとに基づく第2の予測フレームが生成される。そして、補間フレームにおいて、第1の予測フレームの第2の映像の表示領域に対応する領域については、第2の予測フレームの対応する領域のデータが補間データとして用いられ、第2の予測フレームの第2の映像の表示領域に対応する領域については、第1の予測フレームの対応する領域のデータが補間データとして用いられる。
したがって、本来移動すべきではない第2の映像の表示領域が補間フレームにおいて移動することを防止しつつ、動きベクトルに基づいて、前方または後方のフレームの合成データから補間フレームの補間データを生成することができる。それにより、補間フレームにおいて、適切な位置に第2の映像を表示することができるとともに、より高精度の動き補償を行うことができる。その結果、より高画質の映像を安定して提供することが可能となる。
(15)補間データ生成部は、前方および後方のフレームの合成データを用いた演算により第3の予測フレームのデータをさらに生成し、第1の予測フレームにおける第2の映像の表示領域と第2の予測フレームにおける第2の映像の表示領域とが等しい場合に、補間フレームにおいて、第1および第2の予測フレームにおける第2の映像の表示領域に対応する領域の補間データとして、第3の予測フレームの対応する領域のデータを選択してもよい。
この場合、補間データ生成部において、補間フレームの候補として、前方のフレームの合成データと後方のフレームの合成データとを用いた演算により第3の予測フレームが生成される。そして、補間フレームにおいて、第1の予測フレームの第2の映像の表示領域および第2の予測フレームの第2の映像の表示領域の両方に対応する領域については、第3の予測フレームの対応する領域のデータが補間データとして用いられる。
したがって、本来移動すべきではない第2の映像の表示領域が補間フレームにおいて移動することを確実に防止しつつ、前方および後方のフレームの合成データから補間フレームの補間データを生成することができる。それにより、補間フレームにおいて、適切な位置に第2の映像を表示することができるとともに、さらに高精度の動き補償を行うことができる。その結果、さらに高画質の映像を安定して提供することが可能となる。
(16)映像処理装置は、前方のフレームにおいて第2の映像の表示領域を示す領域データと動きベクトル検出部により検出される動きベクトルとに基づいて第1の予測フレームにおいて第2の映像の表示領域を示す第1の予測領域データを生成するとともに、後方のフレームにおいて第2の映像の表示領域を示す領域データと動きベクトル検出部により検出される動きベクトルとに基づいて第2の予測フレームにおいて第2の映像の表示領域を示す第2の予測領域データを生成する予測領域データ生成部をさらに備え、補間データ生成部は、予測領域データ生成部により生成される第1および第2の予測領域データに基づいて補間データを生成してもよい。
この場合、予測領域データ生成部において、前方のフレームの領域データと動きベクトルとに基づいて第1の予測フレームにおける第2の映像の表示領域を示す第1の予測領域データが生成され、後方のフレームの領域データと動きベクトルとに基づいて第2の予測フレームにおける第2の映像の表示領域を示す第2の予測領域データが生成される。したがって、補間データ生成部は、第1および第2の予測領域データに基づいて、第1および第2の予測フレームにおける第2の映像の表示領域を容易に識別することができる。
それにより、本来移動すべきではない第2の映像の表示領域が補間フレームにおいて移動することをより確実に防止しつつ、前方および後方のフレームの合成データから補間フレームの補間データを容易に生成することができる。その結果、補間フレームにおいて、より適切な位置に第2の映像を表示することができるとともに、さらに高精度の動き補償を行うことができる。
(17)第2のデータは、オンスクリーン表示のためのデータであってもよい。この場合、補間フレームを生成する前、すなわち第1のデータのフレーム数(フレーム周波数)が増加する前に、第1のデータにオンスクリーン表示のためのデータ(以下、OSDデータと略記する。)を合成することができる。
したがって、第1のフレーム数が増加した後に第1のデータにOSDデータを合成する場合に比べて、データ処理速度の高くないマイクロコンピュータを用いて第1のデータにOSDデータを合成することができる。この場合、高性能のマイクロコンピュータを映像処理装置に設ける必要がないので、映像処理装置の製品コストを低減することができる。
(18)本発明のさらに他の局面に従う映像処理装置は、第1の映像を表示するための第1のデータおよび第1の映像上に表示される第2の映像を表示するための第2のデータが合成された合成データを処理する映像処理装置であって、複数のフレームの合成データに基づいて2つのフレームを補間する補間フレームの補間データを生成する補間データ生成部と、複数のフレームおよび補間フレームの映像補正を行う映像補正部とを備え、映像補正部は、複数のフレームおよび補間フレームのうち第2の映像が表示されるフレームにおいては、第2の映像の映像補正を行わないか、または第2の映像の映像補正率を第1の映像の映像補正率よりも低く設定するものである。
その映像処理装置においては、補間データ生成部において、複数のフレームの合成データから2つのフレームを補間する補間フレームの補間データが生成される。また、映像補正部において、複数のフレームおよび補間フレームの映像補正が行われる。
ここで、映像補正部は、複数のフレームおよび補間フレームのうち第2の映像が表示されるフレームにおいては、第2の映像の表示領域の映像補正を行わないか、または第2の映像の映像補正率を第1の映像の映像補正率よりも低く設定する。この場合、第2の映像が表示されるフレームの映像補正を行う際に、第2の映像の表示領域に不必要な画質補正がなされることが防止される。それにより、第2の映像の画質が低下することを防止することができる。また、補正後の第1の映像に第2の映像の要素(第2のデータ)が反映されることを防止することができる。それにより、映像補正後の第1の映像の画質が低下することを防止することができる。
また、補間データ生成部は、第1のデータおよび第2のデータが合成された合成データから補間フレームを生成することができる。したがって、補間フレームを生成する前、すなわち第1のデータのフレーム数(フレーム周波数)が増加する前に、第1のデータに第2のデータを合成することができる。
それにより、例えば、第2のデータがオンスクリーン表示のためのデータ(以下、OSDデータと略記する。)である場合には、第1のフレーム数が増加した後に第1のデータにOSDデータを合成する場合に比べて、データ処理速度の高くないマイクロコンピュータを用いて第1のデータにOSDデータを合成することができる。この場合、高性能のマイクロコンピュータを映像処理装置に設ける必要がないので、映像処理装置の製品コストを低減することができる。
以上の結果、安価な構成で高画質の映像を安定して供給することが可能となる。
(19)映像補正部は、第2の映像が表示されるフレームにおいては、第2のデータを用いずに映像補正を行ってもよい。
この場合、補正後の第1の映像に第2の映像の要素(第2のデータ)が反映されることを確実に防止することができる。それにより、映像補正後の第1の映像の画質が低下することを確実に防止することができる。
(20) 映像補正部は、合成データおよび補間データに基づいて複数のフレームおよび補間フレームの特徴量を抽出し、抽出される特徴量に基づいて複数のフレームおよび補間フレームの映像補正を行い、第2の映像が表示されるフレームにおいては第2のデータを用いずに特徴量を抽出してもよい。
この場合、特徴量に基づいて複数のフレームおよび補間フレームの映像補正が行われるので、複数のフレームおよび補間フレームの画質を十分に向上させることができる。
また、第2の映像が表示されるフレームの特徴量抽出に第2のデータが用いられない。この場合、第2の映像が表示されるフレームの映像補正を行う際に、補正後の第1の映像に第2の映像の要素(第2のデータ)が反映されることを確実に防止することができる。それにより、映像補正後の第1の映像の画質が低下することを確実に防止することができる。
(21)本発明のさらに他の局面に従う映像処理方法は、第1の映像を表示するための第1のデータおよび第1の映像上に表示される第2の映像を表示するための第2のデータが合成された合成データを処理する映像処理方法であって、複数のフレームの合成データから動きベクトルを検出するステップと、複数のフレームの合成データおよび動きベクトルに基づいて、2つのフレームを補間する補間フレームの補間データを生成するステップとを備え、補間データを生成するステップにおいて、2つのフレームのうち少なくとも一方のフレームにおいて第2の映像が表示される場合、補間フレームにおいて第2の映像の表示領域の少なくとも外周部に対応する領域の補間データを、動きベクトル検出部により検出された動きベクトルを用いずに生成するものである。
その映像処理方法においては、複数のフレームの合成データから動きベクトルが検出される。複数のフレームの合成データおよび動きベクトルに基づいて、2つのフレームを補間する補間フレームの補間データが生成される。
ここで、2つのフレームのうち少なくとも一方のフレームが第2の映像の表示領域を有する場合、補間フレームにおいて第2の映像の表示領域の少なくとも外周部に対応する領域については、動きベクトルを用いずに補間データが生成される。
この場合、本来移動すべきではない上記外周部が、動きベクトルに基づいて補間フレームにおいて移動することを防止することができる。それにより、補間フレームにおいて、第1の映像が表示されるべき領域に第2の映像が表示されること、および第2の映像が表示されるべき領域に第1の映像が表示されることを防止することができる。その結果、補間フレームにおいて適切な位置に第2の映像を表示することができる。
また、第1のデータおよび第2のデータが合成された合成データから補間フレームを生成することができる。したがって、補間フレームを生成する前、すなわち第1のデータのフレーム数(フレーム周波数)が増加する前に、第1のデータに第2のデータを合成することができる。
それにより、例えば、第2のデータがオンスクリーン表示のためのデータ(以下、OSDデータと略記する。)である場合には、第1のフレーム数が増加した後に第1のデータにOSDデータを合成する場合に比べて、データ処理速度の高くないマイクロコンピュータを用いて第1のデータにOSDデータを合成することができる。したがって、高性能のマイクロコンピュータを用いる必要がない。
以上の結果、安価な構成で高精度の動き補償を行うことが可能となる。それにより、高画質の映像を安定して提供することが可能となる。
(22)本発明のさらに他の局面に従う映像処理装置は、第1の映像を表示するための第1のデータおよび第2の映像を表示するための第2のデータを処理する映像処理方法であって、第1のデータと第2のデータとを合成することにより、第1の映像上に第2の映像が表示される複数のフレームの合成データを生成するステップと、複数のフレームの第1のデータから動きベクトルを検出するステップと、複数のフレームの合成データおよび動きベクトルに基づいて、2つのフレームを補間する補間フレームの補間データを生成するステップとを備えたものである。
その映像処理方法においては、第1の映像を表示するための第1のデータと第2の映像を表示するための第2のデータとが合成され、合成データが生成される。複数のフレームの第1のデータから動きベクトルが検出される。複数のフレームの合成データおよび動きベクトルに基づいて、2つのフレームを補間する補間フレームの補間データが生成される。
このように、動きベクトルは、第1のデータから検出される。したがって、第1の映像上に第2の映像が表示されていても、第2のデータを考慮せずに動きベクトルを検出することができる。
この場合、合成データの複数のフレームにおいて、第2の映像により表示されない領域の第1の映像についても、2つのフレームの間で正確にマッチングを行うことができる。それにより、第1の映像について、動きベクトルを高精度で検出することが可能になる。
また、第1のデータおよび第2のデータが合成された合成データから補間フレームを生成することができる。したがって、補間フレームを生成する前、すなわち第1のデータのフレーム数(フレーム周波数)が増加する前に、第1のデータに第2のデータを合成することができる。
それにより、例えば、第2のデータがOSDデータである場合には、第1のフレーム数が増加した後に第1のデータにOSDデータを合成する場合に比べて、データ処理速度の高くないマイクロコンピュータを用いて第1のデータにOSDデータを合成することができる。したがって、高性能のマイクロコンピュータを用いる必要がない。
以上の結果、安価な構成で高精度の動き補償を行うことができる。それにより、高画質の映像を安定して提供することが可能となる。
本発明によれば、2つのフレームのうち少なくとも一方のフレームが第2の映像の表示領域を有する場合、補間フレームにおいて第2の映像の表示領域の少なくとも外周部に対応する領域については、動きベクトルを用いずに補間データが生成される。それにより、補間フレームにおいて、第1の映像が表示されるべき領域に第2の映像が表示されること、および第2の映像が表示されるべき領域に第1の映像が表示されることを防止することができる。
また、第1のデータおよび第2のデータが合成された合成データから補間フレームを生成することができる。したがって、補間フレームを生成する前、すなわち第1のデータのフレーム数(フレーム周波数)が増加する前に、第1のデータに第2のデータを合成することができる。
それにより、例えば、第2のデータがオンスクリーン表示のためのデータ(以下、OSDデータと略記する。)である場合には、第1のフレーム数が増加した後に第1のデータにOSDデータを合成する場合に比べて、データ処理速度の高くないマイクロコンピュータを用いて第1のデータにOSDデータを合成することができる。この場合、高性能のマイクロコンピュータを映像処理装置に設ける必要がないので、映像処理装置の製品コストを低減することができる。
また、動きベクトルは、第1のデータから検出することができる。したがって、第1の映像上に第2の映像が表示されていても、第2のデータを考慮せずに動きベクトルを検出することができる。この場合、合成データの複数のフレームにおいて、第2の映像により表示されない領域の第1の映像についても、2つのフレームの間で正確にマッチングを行うことができる。それにより、第1の映像について、動きベクトルを高精度で検出することが可能になる。
また、第2の映像が表示されるフレームにおいては、第2の映像の映像補正が行われないか、または第2の映像の映像補正率が第1の映像の映像補正率よりも低く設定される。この場合、第2の映像が表示されるフレームの映像補正を行う際に、第2の映像の表示領域に不必要な画質補正がなされることが防止される。それにより、第2の映像の画質が低下することを防止することができる。また、補正後の第1の映像に第2の映像の要素(第2のデータ)が反映されることを防止することができる。それにより、映像補正後の第1の映像の画質が低下することを防止することができる。
以上の結果、高画質の映像を安定して提供することが可能となる。
図1は第1の実施の形態に係るテレビジョン受像機の構成を示すブロック図 図2は動き補償部の主要部の構成を示すブロック図 図3は補間フレームの生成方法を説明するための図 図4は領域データを説明するための図 図5は映像データ選択部による映像データの選択処理を示すフローチャート 図6は動き補償部の他の例を示すブロック図 図7は第2の実施の形態に係るテレビジョン受像機の構成を示すブロック図 図8は図7の動きベクトル検出部による動きベクトルの検出方法を説明するための図 図9は第2の実施の形態に係るテレビジョン受像機の他の例および第3の実施の形態に係るテレビジョン受像機の構成を示すブロック図 図10は第4の実施の形態に係るテレビジョン受像機の動き補償部の主要部の構成を示すブロック図 図11は第5の実施の形態に係るテレビジョン受像機の構成を示すブロック図 図12は第6の実施の形態に係るテレビジョン受像機の構成を示すブロック図 図13は第7の実施の形態に係るテレビジョン受像機の構成を示すブロック図 図14は、映像補正部の一例を示すブロック図 図15はテレビジョン受像機のディスプレイパネルに2つの画面が同時に表示された場合の一例を示す図 図16はテレビジョン受像機のディスプレイパネルに2つの画面が同時に表示された場合の一例を示す図
以下、本発明の実施の形態に係る映像処理装置の一例としてデジタル放送信号を受信するテレビジョン受像機について図面を用いて説明する。
(1)第1の実施の形態
(A)テレビジョン受像機の構成
図1は、本発明の第1の実施の形態に係るテレビジョン受像機の構成を示すブロック図である。なお、第1の実施の形態においては、画面上にOSD(オンスクリーン表示:On Screen Display)でキャラクタ(例えば、チャンネル番号)が提示されている状態でフレームレート変換処理を行う場合について説明する。
図1に示すように、本実施の形態に係るテレビジョン受像機100は、選局部101、復調部102、TS(トランスポートストリーム)デコーダ103、AV(音声映像)デコーダ104、音声出力部105、合成部106、マイクロコンピュータ107、動きベクトル検出部108、動き補償部109、および映像出力部110を含む。
選局部101には、アンテナ901から複数のデジタル放送信号(以下、放送信号と略記する。)が入力される。選局部101は、複数の放送信号の中から1つの放送信号を選択し、選択した放送信号を復調部102へ出力する。
復調部102は、選局部101から出力された放送信号を復調することによりMPEG(Motion Picture Experts Group)−2規格に準拠したトランスポートストリームを生成する。また、復調部102は、生成したトランスポートストリームをTSデコーダ103へ出力する。
TSデコーダ103は、復調部102から出力されたトランスポートストリームから音声ストリームおよび映像ストリームを分離する。また、TSデコーダ103は、分離した音声ストリームおよび映像ストリームをAVデコーダ104へ出力する。
AVデコーダ104は、TSデコーダ103から出力された音声ストリームおよび映像ストリームを復号し、音声データおよび映像データを生成する。また、AVデコーダ104は、生成した音声データを音声出力部105へ出力し、映像データを合成部106へ出力する。
音声出力部105は、スピーカ等の音声出力装置を含み、AVデコーダ104から出力された音声データを音声として出力する。
マイクロコンピュータ107は、キャラクタデータを生成し、生成したキャラクタデータを合成部106へ出力する。また、マイクロコンピュータ107は、領域データを生成し、生成した領域データを動き補償部109へ出力する。なお、本実施の形態において領域データとは、キャラクタが表示される領域を示す情報であり、画素ごとにその画素がキャラクタの一部を表示する画素であるか否かを示している。
マイクロコンピュータ107がキャラクタデータを出力している場合、合成部106は、AVデコーダ104から出力された映像データにキャラクタデータを合成する。そして、キャラクタデータが合成された映像データを動きベクトル検出部108および動き補償部109へ出力する。
マイクロコンピュータ107がキャラクタデータを出力していない場合、合成部106は、AVデコーダ104から出力された映像データをそのまま動きベクトル検出部108および動き補償部109へ出力する。
動きベクトル検出部108は、合成部106から出力された映像データに基づいて所定のブロック(例えば、8×8画素の画素領域)ごとに動きベクトルを検出し、各画素の動きベクトルデータを動き補償部109へ出力する。
動き補償部109は、動きベクトル検出部108から出力された動きベクトルデータおよびマイクロコンピュータ107から出力された領域データに基づいて、合成部106から出力された映像データに対しフレームレート変換処理を施す。
動き補償部109は、上記フレームレート変換処理後の映像データを映像出力部110へ出力する。なお、フレームレート変換処理においては、動き補償部109は、時間軸上で連続する2つのフレーム間を補間するフレーム(補間フレーム)のデータを生成する。動き補償部109の詳細は後述する。
映像出力部110は、液晶ディスプレイパネルまたはプラズマディスプレイパネル等の映像表示装置を含み、動き補償部109から出力された映像データを映像として表示する。なお、キャラクタデータが合成された映像データを映像として表示する際には、映像表示装置にキャラクタがOSDで提示される。
(B)動き補償
次に、動き補償部109における補間フレームの生成方法について図面を用いて詳細に説明する。
(b−1)動き補償部の構成
まず、動き補償部109の構成について説明する。
図2は、動き補償部109の主要部の構成を示すブロック図である。図2に示すように、動き補償部109は、映像データ選択部91、映像データ編集部92、ベクトル参照データ編集部93、遅延部94、領域データ編集部95および遅延部96を含む。なお、映像データ編集部92、ベクトル参照データ編集部93および領域データ編集部95には、それぞれ2つのフレームメモリが設けられている。
合成部106から出力された映像データは、映像データ編集部92の一方のフレームメモリ、ベクトル参照データ編集部93の一方のフレームメモリおよび遅延部94に入力される。
動きベクトル検出部108から出力された動きベクトルデータは、ベクトル参照データ編集部93および領域データ編集部95に入力される。マイクロコンピュータ107から出力された領域データは、領域データ編集部95の一方のフレームメモリおよび遅延部96に入力される。
遅延部94は、入力された映像データを1フレーム分遅延させて映像データ編集部92の他方のフレームメモリおよびベクトル参照データ編集部93の他方のフレームメモリへ出力する。すなわち、映像データ編集部92およびベクトル参照データ編集部93の各他方のフレームメモリには、映像データ編集部92およびベクトル参照データ編集部93の各一方のフレームメモリに入力される映像データより1フレーム分前の映像データが入力される。以下、映像データ編集部92およびベクトル参照データ編集部93の各一方のフレームメモリに入力される映像データにより生成されるフレームを現フレームと称し、各他方のフレームメモリに入力される映像データにより生成されるフレームを前フレームと称する。
遅延部96は、入力された領域データを1フレーム分遅延させて領域データ編集部95の他方のフレームメモリへ出力する。すなわち、領域データ編集部95の他方のフレームメモリには、領域データ編集部95の一方のフレームメモリに入力される領域データより1フレーム分前の領域データが入力される。
なお、領域データ編集部95の一方のフレームメモリに記憶される領域データは、現フレームにおいてキャラクタが表示される画素領域を示し、他方のフレームメモリに記憶される領域データは、前フレームにおいてキャラクタが表示される画素領域を示している。以下、領域データ編集部95の一方のフレームメモリに入力される領域データを現フレームの領域データと称し、他方のフレームメモリに入力される領域データを前フレームの領域データと称する。
映像データ編集部92は、一方のフレームメモリに記憶された現フレームの映像データをそのまま現フレーム映像データPVDとして映像データ選択部91へ出力する。
また、映像データ編集部92は、一方のフレームメモリに記憶された現フレームの映像データおよび他方のフレームメモリに記憶された前フレームの映像データから平均映像データAVDを生成し、映像データ選択部91へ出力する。なお、平均映像データAVDにより生成されるフレームにおいては、各画素の輝度は、前フレームの同じ位置の画素の輝度および現フレームの同じ位置の画素の輝度の平均値となる。
ベクトル参照データ編集部93は、一方のフレームメモリに記憶された現フレームの映像データおよび動きベクトル検出部108から出力される動きベクトルデータに基づいて後方補償映像データRVDを生成し、映像データ選択部91へ出力する。後方補償映像データRVDの詳細は後述する。
また、ベクトル参照データ編集部93は、他方のフレームメモリに記憶された前フレームの映像データおよび動きベクトル検出部108から出力される動きベクトルデータに基づいて前方補償映像データFVDを生成し、映像データ選択部91へ出力する。前方補償映像データFVDの詳細は後述する。
領域データ編集部95は、一方のフレームメモリに記憶された現フレームの領域データをそのまま現フレーム領域データPADとして映像データ選択部91へ出力する。
また、領域データ編集部95は、一方のフレームメモリに記憶された現フレームの領域データおよび動きベクトル検出部108から出力される動きベクトルデータに基づいて後方補償領域データRADを生成し、映像データ選択部91へ出力する。後方補償領域データRADの詳細は後述する。
さらに、領域データ編集部95は、他方のフレームメモリに記憶された前フレームの領域データおよび動きベクトル検出部108から出力される動きベクトルデータに基づいて前方補償領域データFADを生成し、映像データ選択部91へ出力する。前方補償領域データFADの詳細は後述する。
映像データ選択部91は、領域データ編集部95から出力される3つの領域データPAD,RAD,FADに基づいて、4つの映像データPVD,AVD,RVD,FVDのうち1つの映像データを選択し、映像出力部110へ出力する。なお、映像データ選択部91における映像データの選択は画素ごとに行われる。映像データ選択部91による映像データの選択方法の詳細は後述する。
(b−2)補間フレームの生成方法
次に、動き補償部109における補間フレームの生成方法について説明する。
図3は、補間フレームの生成方法を説明するための図である。図3において、(a)は、合成部106から出力される映像データに基づいて生成される前フレームの一部領域(8×8画素の画素領域)を示し、(b)は、現フレームの一部領域を示し、図3(c)は、動き補償部109によって生成される補間フレームを示している。
また、図3(a1)は、前フレーム(図3(a))の各画素の映像データを動きベクトルデータに基づいて移動させることにより生成されるフレーム(以下、前方補償フレームと称する。)である。さらに、図3(b1)は、現フレーム(図3(b))の各画素の映像データを動きベクトルデータに基づいて移動させることにより生成されるフレーム(以下、後方補償フレームと称する。)である。
すなわち、前方補償フレーム(図3(a1))は、図2で説明した前方補償映像データFVDにより生成されるフレームであり、後方補償フレーム(図3(b1))は、図2で説明した後方補償映像データRVDにより生成されるフレームである。また、図3(b)は現フレームであるので、現フレーム映像データPVDにより生成されるフレームに相当する。なお、図示していないが、平均映像データAVD(図2)により生成されるフレームにおいては、各画素の輝度は、前フレーム(図3(a))の対応する画素の輝度および現フレーム(図3(b))の対応する画素の輝度の平均値となる。
なお、本例においては、説明を簡略化するため、動きベクトル検出部108は、4×4画素を1ブロックとして動きベクトルを検出することとする。各画素の位置はXY座標で示す。
図3の例では、前フレーム(図3(a))においては、左上のブロック内の8画素によりに移動体Aが表示され、2画素によりキャラクタC1が表示され、右下のブロック内の5画素によりキャラクタC2が表示されている。また、現フレーム(図3(b))においては、左上のブロック内の2画素によりキャラクタC1が表示され、右下のブロック内の7画素により移動体Aが表示され、5画素によりキャラクタC2が表示されている。
つまり、図3においては、前フレームから現フレームにかけて、8画素により構成される移動体Aが左上のブロックから右下のブロックに移動している。そして、現フレームの右下のブロックにおいて、移動体Aの一部((b)に示すフレームの(x,y)=(6,5)の位置)がキャラクタC2によって隠れている。なお、移動体Aが表示されている領域以外の画素の映像データは変化していないものとする。
ここで、動きベクトル検出部108により、前フレーム(図3(a))と現フレーム(図3(b))との間で、左上のブロックの各画素の映像データが右下のブロックに移動したとする動きベクトル(X方向に+4およびY方向に+4)が検出されたとする。
この場合、通常、前フレーム(図3(a))と現フレーム(図3(b))とを補間するフレームは、前フレームの左上のブロックの各画素の映像データをX方向に+2およびY方向に+2移動させるか、あるいは現フレームの右下のブロックの各画素の映像データをX方向に−2およびY方向に−2移動させることにより生成される。
しかしながら、図3の例においては、前フレームおよび現フレームにおいて、左上のブロック内にキャラクタC1が存在し、右下のブロック内にキャラクタC2が存在する。そのため、前フレームの左上のブロックの各画素の映像データをX方向に+2およびY方向に+2移動させた場合、前方補償フレーム(図3(a1))において、本来移動すべきではないキャラクタC1が移動体Aとともに移動する。
また、現フレームの右下のブロックの各画素の映像データをX方向に−2およびY方向に−2移動させた場合、後方補償フレーム(図3(b1))において、本来移動すべきではないキャラクタC2が移動体Aとともに移動する。
したがって、図2で説明した後方補償映像データRVD(後方補償フレーム)および前方補償映像データFVD(前方補償フレーム)をそのまま補間フレームの映像データとして用いた場合、本来移動すべきではないキャラクタC1,C2が移動し、画質が劣化することがある。
そこで、本実施の形態においては、キャラクタの表示位置に応じて、映像データ選択部91(図2)が、画素ごとに4つの映像データPVD,AVD,RVD,FVDの中から1つの映像データを選択し、映像出力部110(図2)へ出力する。それにより、補間フレームの画質の劣化を防止している。
以下、映像データ選択部91による映像データの選択方法について説明する。まず、キャラクタの表示位置に関するデータである3つの領域データPAD,RAD,FAD(図2)について図面を用いて説明する。
図4は、領域データPAD,RAD,FADを説明するための図である。
図4において、(a)は、前フレームの領域データが示す各画素の状態を表した概念図であり、(b)は、現フレームの領域データが示す各画素の状態を表した概念図である。すなわち、図4(a)は遅延部96(図2)から領域データ編集部95(図2)に入力される領域データが示す各画素の状態を概念的に表し、図4(b)は、マイクロコンピュータ107(図2)から領域データ編集部95に入力される領域データおよび現フレーム領域データPAD(図2)が示す各画素の状態を概念的に表している。
図4(a)の例では、領域データは、(x,y)=(2,3),(3,3),(6,5),(6,6),(7,5),(7,6),(7,7)の各画素がキャラクタを表示することを示し、これらの画素を除く画素がキャラクタを表示しないことを示している。すなわち、本例の領域データは、前フレーム(図3(a))において、(x,y)=(2,3),(3,3),(6,5),(6,6),(7,5),(7,6),(7,7)の画素によりキャラクタが表示されることを示している。
同様に、図4(b)の例では、領域データは、(x,y)=(2,3),(3,3),(6,5),(6,6),(7,5),(7,6),(7,7)の各画素がキャラクタを表示することを示し、これらの画素を除く画素がキャラクタを表示しないことを示している。すなわち、本例の領域データ(現フレーム領域データPAD)は、現フレーム(図3(b))において、(x,y)=(2,3),(3,3),(6,5),(6,6),(7,5),(7,6),(7,7)の画素によりキャラクタが表示されることを示している。
また、図4(a1)は、図3(a1)と同様に、左上のブロック内の各画素の領域データを図4(a)に示す位置からX方向に+2およびY方向に+2移動させた場合に、領域データが示す各画素の状態を概念的に表している。
さらに、図4(b1)は、図3(b1)と同様に、右下のブロック内の各画素の領域データを図4(b)に示す位置からX方向に−2およびY方向に−2移動させた場合に、領域データが示す各画素の状態を概念的に表している。
すなわち、図4(a1)は、前フレームの領域データおよび動きベクトルデータに基づいて生成される前方補償領域データFAD(図2)が示す各画素の状態を概念的に表し、図4(b1)は、現フレームの領域データおよび動きベクトルデータに基づいて生成される後方補償領域データRAD(図2)が示す各画素の状態を概念的に表している。
なお、図4(a1)の例では、領域データは、(x,y)=(4,5),(5,5)の画素がキャラクタを表示することを示している。すなわち、本例の領域データ(前方補償領域データFAD)は、前方補償フレーム(図3(a1))において、(x,y)=(4,5),(5,5)の画素によりキャラクタが表示されることを示している。
また、図4(b1)の例では、(x,y)=(4,3),(4,4),(5,3),(5,4),(5,5)の画素がキャラクタを表示することを示している。すなわち、本例の領域データ(後方補償領域データRAD)は、後方補償フレーム(図3(b1))において、(x,y)=(4,3),(4,4),(5,3),(5,4),(5,5)の画素によりキャラクタが表示されることを示している。
以上のように、現フレーム領域データPAD(図2)は、現フレームのキャラクタ表示画素を特定し、前方補償領域データFAD(図2)は、前方補償フレームのキャラクタ表示画素を特定し、後方補償領域データRAD(図2)は、後方補償フレームのキャラクタ表示画素を特定している。
次に、映像データ選択部91による映像データの選択方法について説明する。
図5は、映像データ選択部91による映像データの選択処理を示すフローチャートである。なお、図5のフローチャートに示す選択処理は、画素ごとに行われる。
図5に示すように、映像データ選択部91は、まず、現フレーム領域データPADがキャラクタの表示を示すデータ(以下、キャラクタ表示データと称する)であるか否かを判別する(ステップS1)。
現フレーム領域データPADがキャラクタ表示データであると判別された場合、映像データ選択部91は、現フレーム映像データPVD(図2)を選択し、映像出力部110(図2)へ出力する。
なお、図3および図4の例では、(x,y)=(2,3),(3,3),(6,5),(6,6),(7,5),(7,6),(7,7)の画素について現フレーム領域データPADがキャラクタ表示データであると判別される。
例えば、(x,y)=(2,3)の画素については、現フレーム領域データPAD(図4(b)参照)がキャラクタ表示データとなっている。この場合、現フレーム(図3(b))において、(x,y)=(2,3)の画素によりキャラクタC1の一部が表示されている。そのため、補間フレーム(図3(c))においても、(x,y)=(2,3)の位置の画素によりキャラクタC1の一部が表示されることが好ましいと考えられる。
そこで、本実施の形態においては、映像データ選択部91は、現フレーム映像データPVD(図2)を選択し、映像出力部110(図2)へ出力する。すなわち、補間フレーム(図3(c))の(x,y)=(2,3)の位置の画素の映像データとして、現フレーム(図3(b))の(x,y)=(2,3)の位置の画素の映像データが用いられる。それにより、補間フレームにおいて、(x,y)=(2,3)の画素によりキャラクタC1の一部が表示される。
ステップS1において現フレーム領域データPADがキャラクタ表示データではないと判別された場合、映像データ選択部91は、後方補償領域データRADがキャラクタ表示データであるか否かを判別する(ステップS2)。
後方補償領域データRADがキャラクタ表示データであると判別された場合、映像データ選択部91は、前方補償領域データFADがキャラクタ表示データであるか否かを判別する(ステップS3)。
前方補償領域データFADがキャラクタ表示データであると判別された場合、映像データ選択部91は、平均映像データAVD(図2)を選択し、映像出力部110(図2)へ出力する。
なお、図3および図4の例では、(x,y)=(5,5)の画素について前方補償領域データFADがキャラクタ表示データであると判別される。
(x,y)=(5,5)の画素については、現フレーム領域データPAD(図4(b)参照)はキャラクタ表示データではない。この場合、現フレーム(図3(b))において、(x,y)=(5,5)の画素によりキャラクタが表示されていないので、補間フレーム(図3(c))においても、(x,y)=(5,5)の画素によりキャラクタが表示されないことが好ましいと考えられる。
しかしながら、前方補償領域データFAD(図4(a1)参照)および後方補償領域データRAD(図4(b1)参照)はキャラクタ表示データとなっている。つまり、前方補償フレームおよび後方補償フレームにおいて、(x,y)=(5,5)の画素によりキャラクタが表示されている。なお、図3(a1)においては、キャラクタC1の一部が表示され、図3(b1)においては、キャラクタC2の一部が表示されている。したがって、前方補償映像データFVDまたは後方補償映像データRVDを映像出力部110へ出力した場合、補間フレームにおいて、(x,y)=(5,5)の画素によりキャラクタの一部が表示されることになる。
そこで、本実施の形態においては、映像データ選択部91は、平均映像データAVD(図2)を選択し、映像出力部110(図2)へ出力する。すなわち、補間フレーム(図3(c))の(x,y)=(5,5)の画素の輝度が、前フレーム(図3(a))の(x,y)=(5,5)の画素の輝度および現フレーム(図3(b))の(x,y)=(5,5)の画素の輝度の平均値に設定されている。
それにより、補間フレームにおいて、(x,y)=(5,5)の画素によりキャラクタの一部が表示されることを防止するとともに、画質が劣化することを防止している。
ステップS3において、前方補償領域データFADがキャラクタ表示データではないと判別された場合、映像データ選択部91は、前方補償映像データFVD(図2)を選択し、映像出力部110(図2)へ出力する。
なお、図3および図4の例では、(x,y)=(4,3),(4,4),(5,3),(5,4)の画素について前方補償領域データFADがキャラクタ表示データではないと判別される。
例えば、(x,y)=(5,4)の画素については、現フレーム領域データPAD(図4(b)参照)がキャラクタ表示データではない。この場合、現フレーム(図3(b))において、(x,y)=(5,4)の画素によりキャラクタが表示されていないので、補間フレーム(図3(c))においても、(x,y)=(5,4)の画素によりキャラクタが表示されないことが好ましいと考えられる。
しかしながら、後方補償領域データRAD(図4(b1)参照)はキャラクタ表示データとなっている。つまり、後方補償フレームにおいて、(x,y)=(5,4)の画素によりキャラクタが表示されている。なお、図3(b1)においては、キャラクタC2の一部が表示されている。したがって、後方補償映像データRVDを映像出力部110へ出力した場合、補間フレームにおいて、(x,y)=(5,4)の画素によりキャラクタの一部が表示されることになる。
そこで、本実施の形態においては、映像データ選択部91は、前方補償映像データFVD(図2)を選択し、映像出力部110(図2)へ出力する。すなわち、補間フレーム(図3(c))の(x,y)=(5,4)の画素の映像データとして、前方補償フレーム(図3(a1))の(x,y)=(5,4)の画素の映像データが用いられる。
それにより、補間フレームにおいて(x,y)=(5,4)の画素によりキャラクタの一部が表示されることを防止しつつ、適切な動き補償を行うことができる。
ステップS2において、後方補償領域データRADがキャラクタ表示データではないと判別された場合、映像データ選択部91は、前方補償領域データFADがキャラクタ表示データであるか否かを判別する(ステップS4)。
前方補償領域データFADがキャラクタ表示データであると判別された場合、映像データ選択部91は、後方補償領域データRAD(図2)を選択し、映像出力部110(図2)へ出力する。
なお、図3および図4の例では、(x,y)=(4,5)の画素について前方補償領域データFADがキャラクタ表示データであると判別される。
(x,y)=(4,5)の画素については、現フレーム領域データPAD(図4(b)参照)はキャラクタ表示データではない。この場合、現フレーム(図3(b))において、(x,y)=(4,5)の画素によりキャラクタが表示されていないので、補間フレーム(図3(c))においても、(x,y)=(4,5)の画素によりキャラクタが表示されないことが好ましいと考えられる。
しかしながら、前方補償領域データFAD(図4(a1)参照)はキャラクタ表示データとなっている。つまり、前方補償フレームにおいて、(x,y)=(4,5)の画素によりキャラクタが表示されている。なお、図3(a1)においては、キャラクタC1の一部が表示されている。したがって、前方補償映像データFVDを映像出力部110へ出力した場合、補間フレームにおいて、(x,y)=(4,5)の画素によりキャラクタの一部が表示されることになる。
そこで、本実施の形態においては、映像データ選択部91は、後方補償映像データRVD(図2)を選択し、映像出力部110(図2)へ出力する。すなわち、補間フレーム(図3(c))の(x,y)=(4,5)の画素の映像データとして、後方補償フレーム(図3(b1))の(x,y)=(4,5)の画素の映像データが用いられる。
それにより、補間フレームにおいて(x,y)=(4,5)の画素によりキャラクタの一部が表示されることを防止しつつ、適切な動き補償を行うことができる。
ステップS4において、前方補償領域データFADがキャラクタ表示データではないと判別された場合、映像データ選択部91は、前方補償映像データFVD(図2)を選択し、映像出力部110(図2)へ出力する。
なお、図3および図4の例では、上記で説明した(x,y)=(2,3),(3,3),(6,5),(6,6),(7,5),(7,6),(7,7),(5,5),(4,3),(4,4),(5,3),(5,4),(4,5)以外の画素について前方補償領域データFADがキャラクタ表示データではないと判別される。
例えば、(x,y)=(3,2)の画素については、現フレーム領域データPAD(図4(b)参照)はキャラクタ表示データではない。この場合、現フレーム(図3(b))において、(x,y)=(3,2)の画素によりキャラクタが表示されていないので、補間フレーム(図3(c))においても、(x,y)=(3,2)の画素によりキャラクタが表示されないことが好ましいと考えられる。
ここで、(x,y)=(3,2)の画素については、前方補償領域データFAD(図4(a1)参照)および後方補償領域データRAD(図4(b1)参照)のいずれもキャラクタ表示データではない。つまり、前方補償フレーム(図3(a1))および後方補償フレーム(図3(b1))のいずれにおいても、(x,y)=(3,2)の画素によりキャラクタは表示されていない。
そこで、本実施の形態においては、映像データ選択部91は、前方補償映像データFVD(図2)を選択し、映像出力部110(図2)へ出力する。すなわち、補間フレーム(図3(c))の(x,y)=(3,2)の画素の映像データとして、前方補償フレーム(図3(a1))の(x,y)=(3,2)の画素の映像データが用いられる。それにより、適切な動き補償を行うことができる。
なお、図5のフローチャートでは、ステップS4において、前方補償領域データFADがキャラクタ表示データではないと判別された場合、映像データ選択部91は、前方補償映像データFVD(図2)を選択しているが、後方補償映像データRVDを選択してもよい。
つまり、ステップS4において、前方補償領域データFADがキャラクタ表示データではないと判別された場合には、通常の動き補償と同様に、前フレームの映像データと動きベクトルとにより補間フレームを生成してもよく、現フレームの映像データと動きベクトルとにより補間フレームを生成してもよい。
(C)本実施の形態の効果
以上のように、本実施の形態においては、動き補償部109によるフレームレート変換処理前に、合成部106において映像データにキャラクタデータが合成される。つまり、フレーム数(フレーム周波数)が増加する前に、映像データにキャラクタデータが合成される。それにより、フレームレート変換処理後の映像データにキャラクタデータを合成する場合に比べて、データ処理速度の高くないマイクロコンピュータ107を用いて映像データとキャラクタデータとを合成することができる。したがって、高性能のマイクロコンピュータ107を設ける必要がないので、テレビジョン受像機100の製品コストを低減することができる。
また、本実施の形態においては、現フレームにおいてキャラクタが表示されている領域においては、補間フレームにおいてもキャラクタを表示し、現フレームにおいてキャラクタが表示されていない領域においては、補間フレームにおいてもキャラクタを表示しない。また、後方補償フレームおよび前方補償フレームのどちらにおいてもキャラクタが表示されている領域においては、その領域の輝度を、現フレームの輝度と前フレームの輝度との平均値に設定している。さらに、後方補償フレームのみにおいてキャラクタが表示されている領域においては、前方補償フレームの映像データを用い、前方補償フレームのみにおいてキャラクタが表示されている領域においては、後方補償フレームの映像データを用いる。
この場合、補間フレームにおいて本来移動すべきではないキャラクタが移動することを防止することができるとともに、キャラクタが表示されるべき領域に他の映像が表示されることを防止することができる。すなわち、補間フレームにおいて、適切な位置にキャラクタを表示することができる。
以上の結果、安価な構成で高精度の動き補償を実現することが可能となる。
(D)他の例
上記の例では、映像データ編集部92およびベクトル参照データ編集部93にそれぞれ2つのフレームメモリを設けているが、映像データ編集部92およびベクトル参照データ編集部93に共通の2つのフレームメモリを動き補償部109内に設けてもよい。
図6は、動き補償部109の他の例を示すブロック図である。図6に示す動き補償部109においては、映像データ編集部92およびベクトル参照データ編集部93にそれぞれ2つのフレームメモリを設ける代わりに、2つのフレームメモリ97,98が設けられている。
図6の動き補償部109においては、合成部106から出力された映像データは、フレームメモリ97および遅延部94に入力される。遅延部94は、入力された映像データを1フレーム分遅延させてフレームメモリ98へ出力する。すなわち、フレームメモリ97には現フレームの映像データが記憶され、フレームメモリ98には前フレームの映像データが記憶される。
映像データ編集部92は、フレームメモリ97に記憶された現フレームの映像データをそのまま現フレーム映像データPVDとして映像データ選択部91へ出力するとともに、フレームメモリ97に記憶された現フレームの映像データおよびフレームメモリ98に記憶された前フレームの映像データから平均映像データAVDを生成し、映像データ選択部91へ出力する。
ベクトル参照データ編集部93は、フレームメモリ97に記憶された現フレームの映像データおよび動きベクトル検出部108から出力される動きベクトルデータに基づいて後方補償映像データRVDおよび前方補償映像データFVDを生成し、映像データ選択部91へ出力する。
以上のように、図6の動き補償部109においては、映像データ編集部92およびベクトル参照データ編集部93に共通の2つのメモリ97,98が設けられているので、映像データ編集部92およびベクトル参照データ編集部93にフレームメモリを設ける必要がない。それにより、テレビジョン受像機100の製品コストを低減することができる。
なお、図2の映像データ編集部92、ベクトル参照データ編集部93および領域データ編集部95にそれぞれ設けられるフレームメモリならびに図6のフレームメモリ97,98の代わりに、ラインメモリを用いてもよい。この場合、テレビジョン受像機100の製品コストをさらに低減することができる。
また、上記の例では、現フレームにおいてキャラクタが表示されていない領域においては補間フレームにおいてもキャラクタを表示していないが、現フレームにおいてキャラクタが表示されていないが前フレームにおいてキャラクタが表示されている領域においては、補間フレームにおいてキャラクタを表示してもよい。
また、上記の例では、現フレームのいずれかの画素においてキャラクタが表示される場合には、その画素に対応する補間フレームの画素の映像データとして現フレーム映像データPVD(図2)が用いられているが、補間フレームの他の画素の映像データとしても現フレーム映像データPVDを用いてもよい。すなわち、現フレームにおいてキャラクタが表示される場合には、補間フレームの全ての画素の映像データとして現フレーム映像データPVDを用いてもよい。
この場合、現フレームにおいてキャラクタが表示される場合には、移動ベクトルに基づく補間フレームの生成が行われない。それにより、補間フレームにおいて本来移動すべきではないキャラクタが動きベクトルに基づいて移動することが確実に防止される。その結果、補間フレームにおいて、適切な位置にキャラクタを表示することができる。
なお、この場合、動き補償部109は、マイクロコンピュータ107からキャラクタデータが出力された場合に、合成部106から出力される現フレームの映像データをそのまま補間フレームの映像データとして映像出力部110へ出力する。
また、現フレームにおいてキャラクタが表示される場合に、補間フレームの全ての画素の映像データとして平均映像データAVD(図2)または前フレームの映像データを用いてもよい。
この場合も上記の場合と同様に、現フレームにおいてキャラクタが表示される場合には、移動ベクトルに基づく補間フレームの生成が行われない。それにより、補間フレームにおいて本来移動すべきではないキャラクタが動きベクトルに基づいて移動することが確実に防止される。その結果、補間フレームにおいて、適切な位置にキャラクタを表示することができる。
なお、この場合、動き補償部109は、マイクロコンピュータ107からキャラクタデータが出力された場合に、平均映像データAVDまたは前フレームの映像データを補間フレームの映像データとして映像出力部110へ出力する。
また、キャラクタの一部を透過状態で表示してもよい。この場合、マイクロコンピュータ107において、非透過状態のキャラクタが表示される領域を示す領域データと、透過状態のキャラクタが表示される領域を示す領域データとを生成する。領域データが透過状態でのキャラクタの表示を示している場合には、キャラクタデータの値と映像データの値とを所定の比率で加算したデータが合成部106または動き補償部109において生成される。
(2)第2の実施の形態
第2の実施の形態に係るテレビジョン受像機が第1の実施の形態に係るテレビジョン受像機100と異なるのは以下の点である。
図7は、第2の実施の形態に係るテレビジョン受像機100の構成を示すブロック図である。
図7に示すように、本実施の形態に係るテレビジョン受像機100においては、AVデコーダ104は、音声データを音声出力部105へ出力し、映像データを合成部106および動きベクトル検出部108へ出力する。
マイクロコンピュータ107は、キャラクタデータを生成し、生成したキャラクタデータを合成部106へ出力する。
マイクロコンピュータ107がキャラクタデータを出力している場合、合成部106は、AVデコーダ104から出力された映像データにキャラクタデータを合成する。そして、キャラクタデータが合成された映像データを動き補償部109へ出力する。
マイクロコンピュータ107がキャラクタデータを出力していない場合、合成部106は、AVデコーダ104から出力された映像データをそのまま動き補償部109へ出力する。
動きベクトル検出部108は、AVデコーダ104から出力された映像データに基づいて所定のブロック(例えば、8×8画素の画素領域)ごとに動きベクトルを検出し、各画素の動きベクトルデータを動き補償部109へ出力する。動きベクトルの検出方法については後述する。
動き補償部109は、動きベクトル検出部108から出力された動きベクトルデータに基づいて、合成部106から出力された映像データに対しフレームレート変換処理を施す。
以上のように、本実施の形態においては、AVデコーダ104から出力される映像データは、合成部106と動きベクトル検出部108とに入力される。したがって、動きベクトル検出部108は、キャラクタデータが合成されていない映像データに基づいて動きベクトルを検出することができる。
以下、合成部106においてキャラクタデータが合成された映像データ(以下、合成映像データと称する)と、キャラクタデータが合成されていない映像データ(以下、単純映像データと称する)とを比較しながら、動きベクトルの検出方法について説明する。
図8は、図7の動きベクトル検出部108による動きベクトルの検出方法を説明するための図である。
図8において、(a)は、合成映像データに基づいて生成される前フレームの一部領域(8×8画素の画素領域)を示し、(b)は、合成映像データに基づいて生成される現フレームの一部領域を示している。また、(c)は、(a)に示すフレームの単純映像データすなわち前フレームの単純映像データに基づいて生成されるフレームの一部領域を示し、(d)は、(b)に示すフレームの単純映像データすなわち現フレームの単純映像データに基づいて生成されるフレームの一部領域を示している。
なお、本例においても、説明を簡略化するため、動きベクトル検出部108は、4×4画素を1ブロックとして動きベクトルを検出することとする。また、図8(a)は図3(a)と等しく、図8(b)は図3(b)と等しい。
ここで、上述したように、本実施の形態においては、動きベクトル検出部108(図7)には、単純映像データが入力される。したがって、テレビジョン受像機100の画面上に図8(a)および図8(b)に示すフレームが表示される場合、動きベクトル検出部108は、単純映像データ(図8(c)および図8(d)に示すフレームのデータ)に基づいて動きベクトルを検出する。
図8の例では、動きベクトル検出部108(図7)は、図8(c)および(d)に示す移動体Aの動きに基づいて、左上のブロックの各画素の映像データが右下のブロックに移動したとする動きベクトル(X方向に+4およびY方向に+4)を検出することができる。
以上のように、本実施の形態においては、動き補償部109によるフレームレート変換処理前に、合成部106において映像データにキャラクタデータが合成される。つまり、フレーム数が増加する前に、映像データにキャラクタデータが合成される。それにより、フレームレート変換処理後の映像データにキャラクタデータを合成する場合に比べて、データ処理速度の高くないマイクロコンピュータ107を用いて映像データとキャラクタデータとを合成することができる。したがって、高性能のマイクロコンピュータ107を設ける必要がないので、テレビジョン受像機100の製品コストを低減することができる。
また、動きベクトル検出部108は、キャラクタデータが合成されていない映像データに基づいて動きベクトルを検出する。つまり、キャラクタを考慮せずに動きベクトルを検出することができる。それにより、本来キャラクタによって隠れる領域(図8においては、(b)に示すフレームの(x,y)=(6,5)の位置)に存在する映像部分についても、前フレームと現フレームとの間で正確にマッチングを行うことができる。その結果、前フレームと現フレームとの間で、動きベクトルを高精度で検出することが可能となる。
したがって、キャラクタデータが合成された映像データに対してフレームレート変換処理を施す場合においても、前フレームと現フレームとの間で正確にマッチングを行うことができる。
以上の結果、安価な構成で高精度の動き補償を実現することが可能となる。
本実施の形態によれば、例えば、現フレーム(図8(b))の右下のブロック内の全ての画素によりキャラクタが表示されている場合においても、移動体A(図8)について、前フレーム(図8(a))と現フレーム(図8(b))との間で正確にマッチングを行うことができる。
(2−1)第2の実施の形態の他の例
図9は、第2の実施の形態に係るテレビジョン受像機の他の例の構成を示すブロック図である。
図9のテレビジョン受像機100においては、図1のテレビジョン受像機100と同様に、マイクロコンピュータ107が領域データを生成し、生成した領域データを動き補償部109へ出力する。
また、動き補償部109は、動きベクトル検出部108から出力された動きベクトルデータおよびマイクロコンピュータ107から出力された領域データに基づいて、合成部106から出力された映像データに対しフレームレート変換処理を施す。
この場合、動き補償部109は、領域データに基づいて、現フレームまたは前フレームにおいてキャラクタが表示されている領域については、動きベクトルデータを用いることなく補間フレームのデータを生成することができる。それにより、キャラクタ表示領域の周辺における映像のぶれを防止することができる。その結果、より高精度な動き補償を実現することができる。
(3)第3の実施の形態
第3の実施の形態に係るテレビジョン受像機が第1の実施の形態に係るテレビジョン受像機100(図1および図7)と異なるのは以下の点である。なお、第3の実施の形態に係るテレビジョン受像機の構成は、図9のテレビジョン受像機100と同様である。
図9に示すように、第3の実施の形態に係るテレビジョン受像機100においては、AVデコーダ104は、音声データを音声出力部105へ出力し、映像データを合成部106および動きベクトル検出部108へ出力する。
マイクロコンピュータ107がキャラクタデータを出力している場合、合成部106は、AVデコーダ104から出力された映像データにキャラクタデータを合成する。そして、キャラクタデータが合成された映像データを動き補償部109へ出力する。
マイクロコンピュータ107がキャラクタデータを出力していない場合、合成部106は、AVデコーダ104から出力された映像データをそのまま動き補償部109へ出力する。
動きベクトル検出部108は、AVデコーダ104から出力された映像データに基づいて所定のブロック(例えば、8×8画素の画素領域)ごとに動きベクトルを検出し、各画素の動きベクトルデータを動き補償部109へ出力する。なお、動きベクトル検出部108による動きベクトルの検出方法は、第2の実施の形態において説明した方法(図8参照)と同様である。
動き補償部109は、動きベクトル検出部106から出力された動きベクトルデータおよびマイクロコンピュータ108から出力された領域データに基づいて、合成部107から出力された映像データに対しフレームレート変換処理を施す。なお、フレームレート変換処理においては、動き補償部109は、図2〜図5で説明した処理と同様の処理を行うものとする。
以上のように、本実施の形態に係るテレビジョン受像機100は、第1および第2の実施の形態に係るテレビジョン受像機100の構成を組み合わせた構成を有する。
すなわち、動き補償部109によるフレームレート変換処理前に、合成部106において映像データにキャラクタデータが合成される。つまり、フレーム数が増加する前に、映像データにキャラクタデータが合成される。それにより、フレームレート変換処理後の映像データにキャラクタデータを合成する場合に比べて、データ処理速度の高くないマイクロコンピュータ107を用いて映像データとキャラクタデータとを合成することができる。したがって、高性能のマイクロコンピュータ107を設ける必要がないので、テレビジョン受像機100の製品コストを低減することができる。
また、現フレームにおいてキャラクタが表示されている領域においては、補間フレームにおいてもキャラクタを表示し、現フレームにおいてキャラクタが表示されていない領域においては、補間フレームにおいてもキャラクタを表示しない。また、後方補償フレームおよび前方補償フレームのどちらにおいてもキャラクタが表示されている領域においては、その領域の輝度を、現フレームの輝度と前フレームの輝度との平均値に設定している。さらに、後方補償フレームのみにおいてキャラクタが表示されている領域においては、前方補償フレームの映像データを用い、前方補償フレームのみにおいてキャラクタが表示されている領域においては、後方補償フレームの映像データを用いる。
この場合、補間フレームにおいて本来移動すべきではないキャラクタが移動することを防止することができるとともに、キャラクタが表示されるべき領域に他の映像が表示されることを防止することができる。すなわち、補間フレームにおいて、適切な位置にキャラクタを表示することができる。
また、動きベクトル検出部108は、キャラクタデータが合成されていない映像データに基づいて動きベクトルを検出する。つまり、キャラクタを考慮せずに動きベクトルを検出することができる。それにより、本来キャラクタによって隠れる領域に存在する映像部分についても、前フレームと現フレームとの間で正確にマッチングを行うことができる。その結果、前フレームと現フレームとの間で、動きベクトルを高精度で検出することが可能となる。
したがって、キャラクタデータが合成された映像データに対してフレームレート変換処理を施す場合においても、前フレームと現フレームとの間で正確にマッチングを行うことができる。
以上の結果、安価な構成でより高精度の動き補償を実現することが可能となる。
(4)第4の実施の形態
第4の実施の形態に係るテレビジョン受像機が第1の実施の形態に係るテレビジョン受像機100と異なるのは以下の点である。
図10は、第4の実施の形態に係るテレビジョン受像機の動き補償部109の主要部の構成を示すブロック図である。
図10に示すように、本実施の形態においては、動き補償部109は、映像データ選択部91、映像データ編集部92、ベクトル参照データ編集部93、遅延部94、および領域データ合成部99を含む。
本実施の形態においては、合成部106から出力された映像データおよびマイクロコンピュータ107から出力された領域データは領域データ合成部99に入力される。
動きベクトル検出部108から出力された動きベクトルデータは、ベクトル参照データ編集部93に入力される。
領域データ合成部99は、合成部106から出力された映像データにマイクロコンピュータ107から出力された領域データを合成する。また、領域データ合成部99は、領域データが合成された映像データを、映像データ編集部92の一方のフレームメモリ、ベクトル参照データ編集部93の一方のフレームメモリおよび遅延部94へ出力する。
遅延部94は、入力された映像データを1フレーム分遅延させて映像データ編集部92の他方のフレームメモリおよびベクトル参照データ編集部93の他方のフレームメモリへ出力する。
ここで、本実施の形態においては、上述したように、領域データ合成部99において映像データに領域データが合成される。したがって、映像データ編集部92からは、現フレーム映像データPVD(図2参照)とともに現フレーム領域データPAD(図2参照)が出力される。
また、ベクトル参照データ編集部93においては、領域データが合成された映像データに対して動き補償が行われる。したがって、ベクトル参照データ編集部93からは、後方補償映像データRVD(図2参照)とともに後方補償領域データRAD(図2参照)が出力され、前方補償映像データFVD(図2参照)とともに前方補償領域データFAD(図2参照)が出力される。
映像データ選択部91は、上記3つの領域データPAD,RAD,FADに基づいて、図5で説明した方法と同様の方法で、各画素について、4つの映像データPVD,AVD,RVD,FVDのうち1つの映像データを選択し、映像出力部110(図2参照)へ出力する。
以上のように、本実施の形態においては、領域データ合成部99において映像データに領域データが合成される。この場合、ベクトル参照データ編集部93において後方補償領域データRADおよび前方補償領域データFADを生成することができる。したがって、領域データ編集部95および遅延部96を設ける必要がない。それにより、テレビジョン受像機の構成を簡略化できるとともに、製品コストを低減することができる。
(5)第5の実施の形態
第5の実施の形態に係るテレビジョン受像機が第3の実施の形態に係るテレビジョン受像機100(図9)と異なるのは以下の点である。なお、第5の実施の形態においては、ディスプレイパネル上に2つの画面が表示されている状態(例えば、図15および図16に示すように主画面1002および副画面1003が表示されている状態)でフレームレート変換処理を行う場合について説明する。以下、図15および図16を参照しながら本実施の形態に係るテレビジョン受像機100について説明する。
図11は、第5の実施の形態に係るテレビジョン受像機100の構成を示すブロック図である。
図11に示すように、本実施の形態に係るテレビジョン受像機100は、図9の選局部101、復調部102、TSデコーダ103およびAVデコーダ104と同様の構成を有する選局部101a、復調部102a、TSデコーダ103a、およびAVデコーダ104aを含む。
アンテナ901から選局部101aに入力される放送信号は、復調部102aおよびTSデコーダ103aを介して音声ストリームおよび映像ストリームとしてAVデコーダ104aに入力される。
AVデコーダ104aは、入力された音声ストリームおよび映像ストリームを復号し、音声データおよび映像データを生成する。また、AVデコーダ104aは、生成した音声データを音声出力部105へ出力し、映像データを合成部106へ出力する。
音声出力部105は、AVデコーダ104から出力された音声データおよびAVデコーダ104aから出力された音声データのいずれかを選択し、音声として出力する。
合成部106は、AVデコーダ104から出力された映像データにAVデコーダ104aから出力された映像データを合成し、合成された映像データを動き補償部109へ出力する。
なお、合成部106において合成された映像データがディスプレイパネル上に表示される場合には、例えば、図15および図16に示すように、AVデコーダ104から出力された映像データに基づく映像がディスプレイパネル1001の全面に主画面1002として表示され、AVデコーダ104aから出力された映像データに基づく映像が主画面1002上の一部領域に副画面1003として表示される。
マイクロコンピュータ107は、領域データを生成し、生成した領域データを動き補償部109へ出力する。なお、マイクロコンピュータ107において生成される領域データは、副画面1003が表示される領域を示す情報であり、画素ごとにその画素が副画面1003の一部が表示される領域であるか否かを示している。
動き補償部109は、動きベクトル検出部108から出力された動きベクトルデータおよびマイクロコンピュータ107から出力された領域データに基づいて、合成部106から出力された映像データに対しフレームレート変換処理を施す。なお、フレームレート変換処理においては、動き補償部109は、図2〜図5で説明した処理と同様の処理を行うものとする。
以上のように、本実施の形態においては、動きベクトル検出部108は、AVデコーダ104から出力される映像データに基づいて動きベクトルを検出する。それにより、主画面1002において、副画面1003により隠れる領域に存在する映像部分についても、前フレームと現フレームとの間で正確にマッチングを行うことができる。その結果、主画面1002において、前フレームと現フレームとの間で動きベクトルを高精度で検出することができる。
また、本実施の形態においては、主画面1002の現フレームにおいて副画面1003が表示される領域については、補間フレームにおいても副画面が表示される。また、主画面1002の後方補償フレームおよび前方補償フレームのどちらにおいても副画面1003が表示されている画素の輝度は、主画面1002の現フレームの輝度と前フレームの輝度との平均値に設定される。さらに、主画面1002の後方補償フレームのみにおいて副画面1003が表示されている画素については、前方補償フレームの映像データが用いられ、前方補償フレームのみにおいて副画面1003が表示されている画素については、後方補償フレームの映像データが用いられる。
この場合、主画面1002上で本来移動すべきではない副画面1003が移動することを防止することができるとともに、副画面1003が表示されるべき領域に主画面1002の映像が表示されることを防止することができる。すなわち、補間フレームにおいて、適切な位置に副画面1003を表示することができる。
以上の結果、高精度な動き補償を実現することができ、高画質の映像を安定して提供することが可能となる。
なお、上記の例においては、AVデコーダ104から出力される映像データについて動きベクトル検出部108が動きベクトルを検出しているが、さらに他の動きベクトル検出部を設け、AVデコーダ104aから出力される映像データについても動きベクトルを検出してもよい。この場合、副画面1003に表示される映像についても動き補償を行うことができるので、映像のさらなる高画質化が可能となる。
(6)第6の実施の形態
第6の実施の形態に係るテレビジョン受像機が第5の実施の形態に係るテレビジョン受像機100(図11)と異なるのは以下の点である。
図12は、第6の実施の形態に係るテレビジョン受像機100の構成を示すブロック図である。
図12に示すように、本実施の形態に係るテレビジョン受像機100においては、動きベクトル検出部108は、合成部106から出力される映像データに基づいて動きベクトルを検出する。
動き補償部109は、動きベクトル検出部108から出力された動きベクトルデータおよびマイクロコンピュータ107から出力された領域データに基づいて、合成部106から出力された映像データに対しフレームレート変換処理を施す。なお、フレームレート変換処理においては、動き補償部109は、図2〜図5で説明した処理と同様の処理を行うものとする。
この場合、現フレームにおいて副画面1003(図15参照)が表示されている領域においては、補間フレームにおいても副画面1003を表示され、現フレームにおいて副画面1003が表示されていない領域においては、補間フレームにおいても副画面1003を表示されない。また、後方補償フレームおよび前方補償フレームのどちらにおいても副画面1003が表示されている領域においては、その領域の輝度が、現フレームの輝度と前フレームの輝度との平均値に設定される。さらに、後方補償フレームのみにおいて副画面1003が表示されている領域においては、前方補償フレームの映像データが用いられ、前方補償フレームのみにおいて副画面1003が表示されている領域においては、後方補償フレームの映像データを用いられる。
したがって、補間フレームにおいて本来移動すべきではない副画面1003が移動することを防止することができるとともに、副画面1003が表示されるべき領域に他の映像が表示されることを防止することができる。すなわち、補間フレームにおいて、適切な位置に副画面1003を表示することができる。
以上の結果、安価な構成で高精度の動き補償を実現することが可能となる。
なお、領域データが副画面1003の外形線を含む一部領域(例えば、副画面1003の外枠部分)を示してもよい。この場合、副画面1003内の上記一部領域を除く領域については、主画面1002内の映像と同様に通常の動き補償が行われる。それにより、本来移動すべきではない主画面1002と副画面1003との境界部分が移動することを防止しつつ、高精度な動き補償を実現することができる。
(7)第7の実施の形態
第7の実施の形態に係るテレビジョン受像機が第3の実施の形態に係るテレビジョン受像機100(図9)と異なるのは以下の点である。
図13は、第7の実施の形態に係るテレビジョン受像機100の構成を示すブロック図である。
図13に示すように、本実施の形態に係るテレビジョン受像機100は、映像補正部111をさらに含む。本実施の形態においては、マイクロコンピュータ107は、領域データを動き補償部109および映像補正部111へ出力する。また、動き補償部109は、フレームレート変換処理後の映像データを映像補正部111へ出力する。
映像補正部111は、動き補償部109から出力される映像データに対して映像補正処理を施し、映像補正処理後の映像データを映像出力部110へ出力する。
詳細には、映像補正部111は、各フレームの映像において、領域データによって特定されるキャラクタ表示領域以外の領域の映像に対して映像補正処理を施す。したがって、例えば、現フレームにおいてキャラクタが表示される場合には、現フレームおよび補間フレームにおいては、キャラクタ以外の映像についてのみ映像補正が行われる。
なお、映像補正部111は、図2に示す領域データ編集部95および遅延部96を備え、現フレーム領域データPAD(図2)、後方補償領域データRAD(図2)、および前方補償領域データFAD(図2)を生成することができる。また、映像補正部111は、それらの領域データに基づいて各フレームのキャラクタ表示領域を特定することができる。
このように、本実施の形態においては、動き補償部109から出力される映像データのうちキャラクタデータ以外の映像データに対してのみ補正処理が施される。この場合、キャラクタ表示領域を有するフレームの映像補正を行う際に、補正後のキャラクタ以外の映像にキャラクタの映像要素(輝度および色等)が反映されることを防止することができる。それにより、本来補正されるべき映像(キャラクタ以外の映像)の画質が低下することを防止することができる。
また、キャラクタについては映像補正が行われないので、キャラクタ以外の映像の映像要素が映像補正後のフレームのキャラクタに反映されることが防止される。それにより、キャラクタの画質が低下することを防止することができる。
以上の結果、各フレームの映像の画質が低下することを確実に防止することができる。
以下、一例を挙げて映像補正部111において行われる映像補正について詳細に説明する。
図14は、映像補正部111の一例を示すブロック図である。
図14に示すように、映像補正部111は、第1の補正部11、第2の補正部12および特徴量抽出部13を含む。
動き補償部109から出力された映像データは、第1の補正部11および特徴量抽出部13に入力される。また、マイクロコンピュータ107から出力された領域データは、第1の補正部11、第2の補正部12および特徴量抽出部13に入力される。
なお、図示していないが、図14に示す映像補正部111は、領域データ編集部95(図2)および遅延部96(図2)を備える。また、第1の補正部11、第2の補正部12および特徴量抽出部13には、領域データとして現フレーム領域データPAD(図2)、後方補償領域データRAD(図2)、および前方補償領域データFAD(図2)のうちのいずれかが入力される。
特徴量抽出部13は、動き補償部109から出力される映像データによって生成される各フレームの映像の特徴量(例えば、輝度および色の分布)を抽出する。詳細には、特徴量抽出部13は、各フレームの映像において、領域データによって特定されるキャラクタ表示領域以外の領域の映像の特徴量抽出を行う。したがって、例えば、現フレームにおいてキャラクタが表示される場合には、現フレームおよび補間フレームにおいては、キャラクタ以外の映像についてのみ特徴量抽出が行われる。特徴量抽出部13は、抽出した各フレームの映像の特徴量を第1の補正部11へ与える。
第1の補正部11は、特徴量抽出部13から与えられる特徴量に基づいて、動き補償部109から出力される映像データによって生成される各フレームの映像のコントラスト補正およびブライトネス補正を行う。詳細には、第1の補正部11は、各フレームの映像において、領域データによって特定されるキャラクタ表示領域以外の領域の映像についてコントラスト補正およびブライトネス補正を行う。したがって、例えば、現フレームにおいてキャラクタが表示される場合には、現フレームおよび補間フレームにおいては、キャラクタ以外の映像についてのみコントラスト補正およびブライトネス補正が行われる。第1の補正部11は、補正後の映像データを第2の補正部12へ出力する。
第2の補正部12は、第1の補正部11から出力される映像データによって生成される各フレームの映像のシャープネス補正を行う。詳細には、第2の補正部12は、各フレームの映像において、領域データによって特定されるキャラクタデータ表示領域以外の領域の映像についてシャープネス補正を行う。したがって、例えば、現フレームにおいてキャラクタが表示される場合には、現フレームおよび補間フレームにおいては、キャラクタ以外の映像についてのみシャープネス補正が行われる。第2の補正部12は、補正後の映像データを映像出力部110へ出力する。
以上のように、本例の映像補正部111においては、キャラクタ以外の映像についてのみ特徴量抽出が行われるので、本来補正されるべき映像(キャラクタ以外の映像)の特徴量抽出を適切に行うことができる。それにより、第1の補正部11において、本来補正されるべき映像のコントラスト補正およびブライトネス補正を適切に行うことができる。
また、第1および第2の補正部11,12においては、キャラクタ以外の映像に対してのみ補正処理が施される。それにより、キャラクタ表示領域を有するフレームの映像補正を行う際に、補正後のキャラクタ以外の映像にキャラクタの映像要素が反映されることを防止することができる。その結果、本来補正されるべき映像の画質が低下することを確実に防止することができる。
なお、上記の例においては、第1の補正部11においてコントラスト補正およびブライトネス補正を行い、第2の補正部12においてシャープネス補正を行っているが、第1の補正部11および第2の補正部12において色補正等の他の映像補正を行ってもよい。
また、上記の例においては、映像補正部111においてキャラクタの映像補正を行っていないが、キャラクタの映像補正率をキャラクタ以外の映像の映像補正率よりも低くしてキャラクタの映像補正を行ってもよい。この場合、映像補正時に抽出されるキャラクタの映像要素の割合を低下させることができる。それにより、本来補正されるべき映像の画質が低下することを防止することができる。
また、上記の映像補正部111を図1、図7、図11および図12のテレビジョン受像機100に適用してもよい。この場合、キャラクタ、副画面1003(図15)、または副画面1003の外枠部分を除く領域の映像について補正が行われるので、キャラクタ、副画面1003または副画面1003の外枠部分の映像要素が映像補正後の各フレームの映像に反映されることが防止される。その結果、本来補正されるべき映像(キャラクタを除く領域の映像)の画質が低下することを防止することができる。
(8)他の実施の形態
上記実施の形態においては、マイクロコンピュータ107が生成した領域データに基づいてフレームレート変換処理を行っているが、領域データはマイクロコンピュータ107によって生成されなくてもよい。
例えば、放送局から送信される放送信号に予めキャラクタデータが含まれている場合、または放送局から送信される放送信号が予め複数の画面の映像データを含む場合等には、放送局から送信される放送信号に領域データが含まれてもよい。この場合、動き補償部109は放送信号に含まれる領域データに基づいてフレームレート変換処理を行うことができる。それにより、領域データを生成するためのマイクロコンピュータ107を設ける必要がなくなるので、テレビジョン受像機100の製品コストを低減することができる。
なお、放送局から送信される放送信号が予め複数の画面の映像データを含む場合には、領域データが副画面1003(図15参照)の外形線を含む一部領域(例えば、副画面1003の外枠部分)を示してもよい。この場合、副画面1003内の上記一部領域を除く領域については、主画面1002内の映像と同様に通常の動き補償が行われる。それにより、本来移動すべきではない主画面1002と副画面1003との境界部分が移動することを防止しつつ、高精度な動き補償を実現することができる。その結果、高画質の映像を安定して提供することが可能となる。
また、上記実施の形態においては、デジタルの放送信号を受信するテレビジョン受像機100について説明したが、テレビジョン受像機100がアナログの放送信号を受信する構成でもよい。
また、上記実施の形態においては、映像処理装置がテレビジョン受像機である場合について説明したが、映像処理装置が、携帯電話、カーテレビ、カーナビゲーション、PDA(Personal Digital Assistance:携帯情報端末)等の移動受信機であってもよい。
また、映像処理装置がDVD(デジタルバーサタイルディスク)再生装置、DVD記録再生装置、ハードディスク記録再生装置、セットトップボックス(STB)、またはデジタルチューナを備えたパーソナルコンピューター等であってもよい。この場合、音声出力部105は、音声出力装置を有さず音声出力端子を有し、映像出力部110は、映像表示装置を有さず映像出力端子を有する。音声出力端子および映像出力端子は、テレビジョン受像機の音声入力端子および映像入力端子に接続される。あるいは、音声出力端子および映像出力端子は、ディスプレイパネルの音声入力端子および映像入力端子に接続される。
また、上記実施の形態においては、チャンネル番号等のキャラクタをOSDで提示する場合、およびディスプレイパネル上に複数の画面を表示する場合について説明したが、字幕等の他のキャラクタを提示する場合、または画面の一部領域に電子番組ガイド(EPG:Electric Program Guide)を提示する場合等にも同様の効果を発揮することができる。これらの場合、動き補償部109は、字幕等が表示される領域を示す領域データまたは電子番組ガイドが表示される領域を示す領域データに基づいてフレームレート変換処理を行えばよい。
(9)各部の実現方法
上記実施の形態のテレビジョン受像機100の全ての構成要素が電子回路等のハードウエアにより実現されてもよく、あるいは一部の構成要素がCPU(中央演算処理装置)等のハードウエアとプログラム等のソフトウエアとにより実現されてもよい。
(10)請求項の各構成要素と実施の形態の各要素との対応
以下、請求項の各構成要素と実施の形態の各要素との対応の例について説明するが、本発明は下記の例に限定されない。
上記実施の形態では、AVデコーダ104から出力される映像データが第1のデータの例であり、キャラクタデータまたはAVデコーダ104aから出力される映像データが第2のデータの例であり、合成部106が合成データ生成部の例であり、動き補償部109が補間データ生成部の例であり、前方補償映像データFVDが第1の予測フレームのデータの例であり、後方補償映像データRVDが第2の予測フレームのデータの例であり、平均映像データAVDが第3の予測フレームのデータの例であり、前方補償領域データFADが第1の予測領域データの例であり、後方補償領域データRADが第2の予測領域データの例であり、領域データ編集部95が予測領域データ生成部の例である。
請求項の各構成要素として、請求項に記載されている構成または機能を有する他の種々の要素を用いることもできる。
本発明は、テレビジョン受像機、パーソナルコンピュータ、DVDレコーダ等に有効に利用可能である。
本発明は、フレームレート変換処理を行う映像処理装置および映像処理方法に関する。
テレビジョン受像機等の映像処理装置においては、映像データに対してフレームレート変換処理を施している(例えば、特許文献1)。フレームレート変換処理においては、例えば、時間軸上で連続する2つのフレーム(動画像を構成する画面)から動きベクトルを検出し、検出した動きベクトルを用いて補間フレームを生成している。この処理を行うことにより、映像データの圧縮効率を向上させつつ、高品質な映像の実現が可能となる。
特開昭62−175080号公報
一般に、テレビジョン受像機においては、ディスプレイパネル上にチャンネル番号等のキャラクタを表示することができる。ディスプレイパネル上にキャラクタを表示する際には、テレビジョン受像機は、内蔵されているマイクロコンピュータによりキャラクタデータを生成している。そして、生成したキャラクタデータとフレームレート変換処理を施した映像データとを合成し、合成したデータを映像として出力している。
ところで、フレームレート変換処理においては、時間軸上で連続する2つのフレームから補間フレームが生成されるので、映像データのフレーム周波数が増加する。例えば、50Hzのフレーム周波数の映像データが、フレームレート変換処理によって100Hzのフレーム周波数の映像データとなる。したがって、フレームレート変換処理後にキャラクタデータを合成する場合、フレーム周波数が増加した映像データにキャラクタデータを合成しなければならないので、データ処理速度の高い高性能のマイクロコンピュータを用いなければならない。そのため、テレビジョン受像機の製品コストが増加する。
そこで、本発明者らは、テレビジョン受像機の製品コストを低減するために、キャラクタデータと映像データとを合成した後にフレームレート変換処理を行う構成について考察した。この場合、フレーム周波数が増加する前の映像データすなわちフレーム周波数が低い映像データにキャラクタデータを合成することができる。したがって、データ処理速度の高い高性能のマイクロコンピュータを用いなくてよい。それにより、テレビジョン受像機の製品コストを低減することができる。
しかしながら、キャラクタデータと映像データとを合成した後にフレームレート変換処理を行うことにより、画質が低下する場合があることが本発明者らによって発見された。また、本発明者らは、画質が低下する複数の要因を発見した。以下、それら複数の要因の一部を例に挙げて、フレームレート変換処理時に発生する問題について説明する。
図15および図16は、テレビジョン受像機のディスプレイパネルにチャンネル番号が表示された場合の一例を示すものである。図15および図16においては、テレビジョン受像機1000のディスプレイパネル1001上に、チャンネル番号“31”を示すキャラクタ1005が表示されている。なお、本例においては、主画面1002内で3羽の鳥1006,1007,1008が右方向へ移動している。図15においては、鳥1006の一部がキャラクタ1005によって隠れている。
ここで、上述したように、フレームレート変換処理においては、時間軸上で前後する2つのフレームから補間フレームを生成している。そのため、上記のような場合、鳥1006のキャラクタ1005によって隠れている部分については、動きベクトルを正確に検出することができない。それにより、正確な補間フレームを生成することができない。
また、フレームレート変換処理においては、動きベクトルはブロック単位(例えば、8×8画素)で検出される。そのため、キャラクタ1005と鳥1006との境界が1つのブロック内に存在する場合、そのブロックの動きベクトルは鳥1006の動きに基づいて検出されることがある。それにより、補間フレームにおいて、鳥1006の移動とともにキャラクタ1005の一部が移動することがある。
これらの結果、キャラクタ1005および鳥1006周辺の領域において画質が低下する。
また、本発明者らは、2つの映像データを合成した後に、その合成した映像データにフレームレート変換処理を施す場合にも上記のような問題が発生することを見出した。以下、図15および図16を参照しながら説明する。
図15および図16においては、ディスプレイ1001上に一の映像データに基づく主画面1002および他の映像データに基づく副画面1003が表示されている。主画面1002の映像および副画面1003の映像は互いに独立しており、主画面1002上に副画面1003が表示されている。なお、図15および図16においては、主画面1002内で自動車1004が左方向に移動している。したがって、図15において副画面1003によって隠れている自動車1004の一部は、時間の経過とともに徐々に主画面1002上に現れる。
この場合、上記の場合と同様に、自動車1004の副画面1003によって隠れている部分については、動きベクトルを正確に検出することができない。それにより、正確な補間フレームを生成することができない。
また、主画面1002と副画面1003との境界が1つのブロック内に存在する場合、そのブロックの動きベクトルは自動車1004の動きに基づいて検出されることがある。それにより、補間フレームにおいて、自動車1004の移動とともに副画面1003の一部が移動することがある。
これらの結果、副画面1003および副画面1003周辺の領域において画質が低下する。
以上のような要因により、従来のテレビジョン受像機の構成では、フレームレート変換処理を行うことにより画質が低下する場合がある。そのため、高画質の映像を安定して提供することが困難である。
本発明の目的は、安価な構成で高画質の映像を安定して供給することができる映像処理装置および映像処理方法を提供することである。
(1)本発明の一局面に従う映像処理装置は、第1の映像を表示するための第1のデータおよび第1の映像上に表示される第2の映像を表示するための第2のデータが合成された合成データを処理する映像処理装置であって、複数のフレームの合成データから動きベクトルを検出する動きベクトル検出部と、複数のフレームの合成データおよび動きベクトル検出部により検出される動きベクトルに基づいて、2つのフレームを補間する補間フレームの補間データを生成する補間データ生成部とを備え、補間データ生成部は、2つのフレームのうち少なくとも一方のフレームにおいて第2の映像が表示される場合、補間フレームにおいて第2の映像の表示領域の少なくとも外周部に対応する領域の補間データを、動きベクトル検出部により検出された動きベクトルを用いずに生成するものである。
その映像処理装置においては、動きベクトル検出部において、複数のフレームの合成データから動きベクトルが検出される。補間データ生成部において、複数のフレームの合成データおよび動きベクトルに基づいて、2つのフレームを補間する補間フレームの補間データが生成される。
ここで、補間データ生成部は、2つのフレームのうち少なくとも一方のフレームが第2の映像の表示領域を有する場合、補間フレームにおいて第2の映像の表示領域の少なくとも外周部に対応する領域については、動きベクトルを用いずに補間データを生成する。なお、外周部とは第2の映像の表示領域の外形線を含む所定幅の領域のことをいう。
この場合、本来移動すべきではない上記外周部が、動きベクトルに基づいて補間フレームにおいて移動することを防止することができる。それにより、補間フレームにおいて、第1の映像が表示されるべき領域に第2の映像が表示されること、および第2の映像が表示されるべき領域に第1の映像が表示されることを防止することができる。その結果、補間フレームにおいて適切な位置に第2の映像を表示することができる。
また、補間データ生成部は、第1のデータおよび第2のデータが合成された合成データから補間フレームを生成することができる。したがって、補間フレームを生成する前、すなわち第1のデータのフレーム数(フレーム周波数)が増加する前に、第1のデータに第2のデータを合成することができる。
それにより、例えば、第2のデータがオンスクリーン表示のためのデータ(以下、OSDデータと略記する。)である場合には、第1のフレーム数が増加した後に第1のデータにOSDデータを合成する場合に比べて、データ処理速度の高くないマイクロコンピュータを用いて第1のデータにOSDデータを合成することができる。この場合、高性能のマイクロコンピュータを映像処理装置に設ける必要がないので、映像処理装置の製品コストを低減することができる。
以上の結果、安価な構成で高精度の動き補償を行うことができる。それにより、高画質の映像を安定して提供することが可能となる。
(2)補間データ生成部は、2つのフレームのうち少なくとも一方のフレームにおいて第2の映像が表示される場合、補間フレームの全ての領域の補間データを、動きベクトル検出部により検出された動きベクトルを用いずに生成してもよい。
この場合、本来移動すべきではない第2の映像が、動きベクトルに基づいて補間フレームにおいて移動することを確実に防止することができる。それにより、補間フレームにおいて、第1の映像が表示されるべき領域に第2の映像が表示されること、および第2の映像が表示されるべき領域に第1の映像が表示されることを確実に防止することができる。その結果、補間フレームにおいて適切な位置に第2の映像を表示することができる。
(3)補間データ生成部は、2つのフレームのうち少なくとも一方のフレームにおいて第2の映像が表示される場合、補間フレームにおいて第2の映像の表示領域の少なくとも外周部に対応する領域の補間データとして第2のデータを生成してもよい。
この場合、2つのフレームの少なくとも一方に第2の映像の表示領域が存在する場合には、補間フレームの上記少なくとも外周部に対応する領域においても第2のデータに基づく映像が表示される。それにより、2つのフレームがともに第2の映像の表示領域を有する場合に、補間フレームの上記少なくとも外周部に対応する領域において第1のデータに基づく映像が表示されることを防止することができる。その結果、より高精度の動き補償を行うことが可能となる。
(4)補間データ生成部は、各フレームにおいて第2の映像の表示領域を示す領域データに基づいて、少なくとも外周部に対応する領域を決定してもよい。この場合、領域データに基づいて、補間フレームにおいて上記少なくとも外周部が表示される領域を容易に決定することができる。
(5)補間データ生成部は、2つのフレームのうち時間軸上で前方および後方のフレームの合成データと動きベクトル検出部により検出される動きベクトルとに基づいて第1および第2の予測フレームのデータをそれぞれ生成し、第1の予測フレームにおける少なくとも外周部の領域と第2の予測フレームにおける少なくとも外周部の領域とが異なる場合に、補間フレームにおいて、第1および第2の予測フレームの一方における少なくとも外周部に対応する領域の補間データとして、他方の予測フレームの対応する領域のデータを選択してもよい。
この場合、補間データ生成部において、補間フレームの候補として、前方のフレームと動きベクトルとに基づく第1の予測フレーム、および後方のフレームと動きベクトルとに基づく第2の予測フレームが生成される。そして、補間フレームにおいて、第1の予測フレームの上記少なくとも外周部に対応する領域については、第2の予測フレームの対応する領域のデータが補間データとして用いられ、第2の予測フレームの上記少なくとも外周部に対応する領域については、第1の予測フレームの対応する領域のデータが補間データとして用いられる。
したがって、本来移動すべきではない上記少なくとも外周部の領域が補間フレームにおいて移動することを防止しつつ、動きベクトルに基づいて、前方または後方のフレームの合成データから補間フレームの補間データを生成することができる。それにより、補間フレームにおいて、適切な位置に第2の映像を表示することができるとともに、より高精度の動き補償を行うことができる。その結果、より高画質の映像を安定して提供することが可能となる。
(6)補間データ生成部は、前方および後方のフレームの合成データを用いた演算により第3の予測フレームのデータをさらに生成し、第1の予測フレームにおける少なくとも外周部の領域と第2の予測フレームにおける少なくとも外周部の領域とが等しい場合に、補間フレームにおいて、第1および第2の予測フレームにおける少なくとも外周部に対応する領域の補間データとして、第3の予測フレームの対応する領域のデータを選択してもよい。
この場合、補間データ生成部において、補間フレームの候補として、前方のフレームの合成データと後方のフレームの合成データとを用いた演算により第3の予測フレームが生成される。そして、補間フレームにおいて、第1の予測フレームの上記少なくとも外周部の領域および第2の予測フレームの上記少なくとも外周部の領域の両方に対応する領域については、第3の予測フレームの対応する領域のデータが補間データとして用いられる。
したがって、本来移動すべきではない上記少なくとも外周部の領域が補間フレームにおいて移動することを確実に防止しつつ、前方および後方のフレームの合成データから補間フレームの補間データを生成することができる。それにより、補間フレームにおいて、適切な位置に第2の映像を表示することができるとともに、さらに高精度の動き補償を行うことができる。その結果、さらに高画質の映像を安定して提供することが可能となる。
(7)映像処理装置は、前方のフレームにおいて第2の映像の表示領域を示す領域データと動きベクトル検出部により検出される動きベクトルとに基づいて第1の予測フレームにおいて第2の映像の表示領域を示す第1の予測領域データを生成するとともに、後方のフレームにおいて第2の映像の表示領域を示す領域データと動きベクトル検出部により検出される動きベクトルとに基づいて第2の予測フレームにおいて第2の映像の表示領域を示す第2の予測領域データを生成する予測領域データ生成部をさらに備え、補間データ生成部は、予測領域データ生成部により生成される第1および第2の予測領域データに基づいて補間データを生成してもよい。
この場合、予測領域データ生成部において、前方のフレームの領域データと動きベクトルとに基づいて第1の予測フレームにおける第2の映像の表示領域を示す第1の予測領域データが生成され、後方のフレームの領域データと動きベクトルとに基づいて第2の予測フレームにおける第2の映像の表示領域を示す第2の予測領域データが生成される。したがって、補間データ生成部は、第1および第2の予測領域データに基づいて、第1および第2の予測フレームにおける上記少なくとも外周部の領域を容易に識別することができる。
それにより、本来移動すべきではない上記少なくとも外周部の領域が補間フレームにおいて移動することをより確実に防止しつつ、前方および後方のフレームの合成データから補間フレームの補間データを容易に生成することができる。その結果、補間フレームにおいて、より適切な位置に第2の映像を表示することができるとともに、さらに高精度の動き補償を行うことができる。
(8)第2のデータは、オンスクリーン表示のためのデータであり、少なくとも外周部の領域は、オンスクリーン表示のための領域の全てを含んでもよい。
この場合、補間フレームを生成する前、すなわち第1のデータのフレーム数(フレーム周波数)が増加する前に、第1のデータにオンスクリーン表示のためのデータ(以下、OSDデータと略記する。)を合成することができる。
したがって、第1のフレーム数が増加した後に第1のデータにOSDデータを合成する場合に比べて、データ処理速度の高くないマイクロコンピュータを用いて第1のデータにOSDデータを合成することができる。この場合、高性能のマイクロコンピュータを映像処理装置に設ける必要がないので、映像処理装置の製品コストを低減することができる。
また、オンスクリーン表示のための領域については、動きベクトルを用いずに補間データが生成される。
この場合、本来移動すべきではないオンスクリーン表示のための領域が、動きベクトルに基づいて補間フレームにおいて移動することを防止することができる。それにより、補間フレームにおいて、オンスクリーン表示が行われるべきではない領域においてオンスクリーン表示が行われること、およびオンスクリーン表示が行われるべき領域において第1の映像が表示されることを防止することができる。その結果、補間フレームにおいて適切な位置でオンスクリーン表示を行うことができる。
(9)本発明の他の局面に従う映像処理装置は、第1の映像を表示するための第1のデータおよび第2の映像を表示するための第2のデータを処理する映像処理装置であって、第1のデータと第2のデータとを合成することにより、第1の映像上に第2の映像が表示される複数のフレームの合成データを生成する合成データ生成部と、複数のフレームの第1のデータから動きベクトルを検出する動きベクトル検出部と、合成データ生成部により生成される複数のフレームの合成データおよび動きベクトル検出部により検出される動きベクトルに基づいて、2つのフレームを補間する補間フレームの補間データを生成する補間データ生成部とを備えるものである。
その映像処理装置においては、合成データ生成部において、第1の映像を表示するための第1のデータと第2の映像を表示するための第2のデータとが合成され、合成データが生成される。動きベクトル検出部において、複数のフレームの第1のデータから動きベクトルが検出される。補間データ生成部において、複数のフレームの合成データおよび動きベクトルに基づいて、2つのフレームを補間する補間フレームの補間データが生成される。
このように、動きベクトルは第1のデータから検出される。したがって、第1の映像上に第2の映像が表示されていても、第2のデータを考慮せずに動きベクトルを検出することができる。
この場合、合成データの複数のフレームにおいて、第2の映像により表示されない領域の第1の映像についても、2つのフレームの間で正確にマッチングを行うことができる。それにより、第1の映像について、動きベクトルを高精度で検出することが可能になる。
また、補間データ生成部は、第1のデータおよび第2のデータが合成された合成データから補間フレームを生成することができる。したがって、補間フレームを生成する前、すなわち第1のデータのフレーム数(フレーム周波数)が増加する前に、第1のデータに第2のデータを合成することができる。
それにより、例えば、第2のデータがOSDデータである場合には、第1のフレーム数が増加した後に第1のデータにOSDデータを合成する場合に比べて、データ処理速度の高くないマイクロコンピュータを用いて第1のデータにOSDデータを合成することができる。この場合、高性能のマイクロコンピュータを映像処理装置に設ける必要がないので、映像処理装置の製品コストを低減することができる。
以上の結果、安価な構成で高精度の動き補償を行うことができる。それにより、高画質の映像を安定して提供することが可能となる。
(10)補間データ生成部は、2つのフレームのうち少なくとも一方のフレームにおいて第2の映像が表示される場合、補間フレームにおいて第2の映像の表示領域に対応する領域の補間データを、動きベクトル検出部により検出された動きベクトルを用いずに生成してもよい。
この場合、本来移動すべきではない第2の映像の表示領域が、動きベクトルに基づいて補間フレームにおいて移動することを防止することができる。それにより、補間フレームにおいて、第1の映像が表示されるべき領域に第2の映像が表示されること、および第2の映像が表示されるべき領域に第1の映像が表示されることを防止することができる。その結果、補間フレームにおいて適切な位置に第2の映像を表示することができる。
(11)補間データ生成部は、2つのフレームのうち少なくとも一方のフレームにおいて第2の映像が表示される場合、補間フレームの全ての領域の補間データを、動きベクトル検出部により検出された動きベクトルを用いずに生成してもよい。
この場合、本来移動すべきではない第2の映像が、動きベクトルに基づいて補間フレームにおいて移動することを確実に防止することができる。それにより、補間フレームにおいて、第1の映像が表示されるべき領域に第2の映像が表示されること、および第2の映像が表示されるべき領域に第1の映像が表示されることを確実に防止することができる。その結果、補間フレームにおいて適切な位置に第2の映像を表示することができる。
(12)補間データ生成部は、2つのフレームのうち少なくとも一方のフレームにおいて第2の映像が表示される場合、補間フレームにおいて第2の映像の表示領域に対応する領域の補間データとして第2のデータを生成してもよい。
この場合、2つのフレームの少なくとも一方に第2の映像の表示領域が存在する場合には、補間フレームの上記少なくとも外周部に対応する領域においても第2のデータに基づく映像が表示される。それにより、2つのフレームがともに第2の映像の表示領域を有する場合に、補間フレームの上記少なくとも外周部に対応する領域において第1のデータに基づく映像が表示されることを防止することができる。その結果、より高精度の動き補償を行うことが可能となる。
(13)補間データ生成部は、各フレームにおいて第2の映像の表示領域を示す領域データに基づいて、第2の映像の表示領域に対応する領域を決定してもよい。この場合、領域データに基づいて、補間フレームにおける第2の映像の表示領域を容易に決定することができる。
(14)補間データ生成部は、2つのフレームのうち時間軸上で前方および後方のフレームの合成データと動きベクトル検出部により検出される動きベクトルとに基づいて第1および第2の予測フレームのデータをそれぞれ生成し、第1の予測フレームにおける第2の映像の表示領域と第2の予測フレームにおける第2の映像の表示領域とが異なる場合に、補間フレームにおいて、第1および第2の予測フレームの一方における第2の映像の表示領域に対応する領域の補間データとして、他方の予測フレームの対応する領域のデータを選択してもよい。
この場合、補間データ生成部において、補間フレームの候補として、前方のフレームと動きベクトルとに基づく第1の予測フレーム、および後方のフレームと動きベクトルとに基づく第2の予測フレームが生成される。そして、補間フレームにおいて、第1の予測フレームの第2の映像の表示領域に対応する領域については、第2の予測フレームの対応する領域のデータが補間データとして用いられ、第2の予測フレームの第2の映像の表示領域に対応する領域については、第1の予測フレームの対応する領域のデータが補間データとして用いられる。
したがって、本来移動すべきではない第2の映像の表示領域が補間フレームにおいて移動することを防止しつつ、動きベクトルに基づいて、前方または後方のフレームの合成データから補間フレームの補間データを生成することができる。それにより、補間フレームにおいて、適切な位置に第2の映像を表示することができるとともに、より高精度の動き補償を行うことができる。その結果、より高画質の映像を安定して提供することが可能となる。
(15)補間データ生成部は、前方および後方のフレームの合成データを用いた演算により第3の予測フレームのデータをさらに生成し、第1の予測フレームにおける第2の映像の表示領域と第2の予測フレームにおける第2の映像の表示領域とが等しい場合に、補間フレームにおいて、第1および第2の予測フレームにおける第2の映像の表示領域に対応する領域の補間データとして、第3の予測フレームの対応する領域のデータを選択してもよい。
この場合、補間データ生成部において、補間フレームの候補として、前方のフレームの合成データと後方のフレームの合成データとを用いた演算により第3の予測フレームが生成される。そして、補間フレームにおいて、第1の予測フレームの第2の映像の表示領域および第2の予測フレームの第2の映像の表示領域の両方に対応する領域については、第3の予測フレームの対応する領域のデータが補間データとして用いられる。
したがって、本来移動すべきではない第2の映像の表示領域が補間フレームにおいて移動することを確実に防止しつつ、前方および後方のフレームの合成データから補間フレームの補間データを生成することができる。それにより、補間フレームにおいて、適切な位置に第2の映像を表示することができるとともに、さらに高精度の動き補償を行うことができる。その結果、さらに高画質の映像を安定して提供することが可能となる。
(16)映像処理装置は、前方のフレームにおいて第2の映像の表示領域を示す領域データと動きベクトル検出部により検出される動きベクトルとに基づいて第1の予測フレームにおいて第2の映像の表示領域を示す第1の予測領域データを生成するとともに、後方のフレームにおいて第2の映像の表示領域を示す領域データと動きベクトル検出部により検出される動きベクトルとに基づいて第2の予測フレームにおいて第2の映像の表示領域を示す第2の予測領域データを生成する予測領域データ生成部をさらに備え、補間データ生成部は、予測領域データ生成部により生成される第1および第2の予測領域データに基づいて補間データを生成してもよい。
この場合、予測領域データ生成部において、前方のフレームの領域データと動きベクトルとに基づいて第1の予測フレームにおける第2の映像の表示領域を示す第1の予測領域データが生成され、後方のフレームの領域データと動きベクトルとに基づいて第2の予測フレームにおける第2の映像の表示領域を示す第2の予測領域データが生成される。したがって、補間データ生成部は、第1および第2の予測領域データに基づいて、第1および第2の予測フレームにおける第2の映像の表示領域を容易に識別することができる。
それにより、本来移動すべきではない第2の映像の表示領域が補間フレームにおいて移動することをより確実に防止しつつ、前方および後方のフレームの合成データから補間フレームの補間データを容易に生成することができる。その結果、補間フレームにおいて、より適切な位置に第2の映像を表示することができるとともに、さらに高精度の動き補償を行うことができる。
(17)第2のデータは、オンスクリーン表示のためのデータであってもよい。この場合、補間フレームを生成する前、すなわち第1のデータのフレーム数(フレーム周波数)が増加する前に、第1のデータにオンスクリーン表示のためのデータ(以下、OSDデータと略記する。)を合成することができる。
したがって、第1のフレーム数が増加した後に第1のデータにOSDデータを合成する場合に比べて、データ処理速度の高くないマイクロコンピュータを用いて第1のデータにOSDデータを合成することができる。この場合、高性能のマイクロコンピュータを映像処理装置に設ける必要がないので、映像処理装置の製品コストを低減することができる。
(18)本発明のさらに他の局面に従う映像処理装置は、第1の映像を表示するための第1のデータおよび第1の映像上に表示される第2の映像を表示するための第2のデータが合成された合成データを処理する映像処理装置であって、複数のフレームの合成データに基づいて2つのフレームを補間する補間フレームの補間データを生成する補間データ生成部と、複数のフレームおよび補間フレームの映像補正を行う映像補正部とを備え、映像補正部は、複数のフレームおよび補間フレームのうち第2の映像が表示されるフレームにおいては、第2の映像の映像補正を行わないか、または第2の映像の映像補正率を第1の映像の映像補正率よりも低く設定するものである。
その映像処理装置においては、補間データ生成部において、複数のフレームの合成データから2つのフレームを補間する補間フレームの補間データが生成される。また、映像補正部において、複数のフレームおよび補間フレームの映像補正が行われる。
ここで、映像補正部は、複数のフレームおよび補間フレームのうち第2の映像が表示されるフレームにおいては、第2の映像の表示領域の映像補正を行わないか、または第2の映像の映像補正率を第1の映像の映像補正率よりも低く設定する。この場合、第2の映像が表示されるフレームの映像補正を行う際に、第2の映像の表示領域に不必要な画質補正がなされることが防止される。それにより、第2の映像の画質が低下することを防止することができる。また、補正後の第1の映像に第2の映像の要素(第2のデータ)が反映されることを防止することができる。それにより、映像補正後の第1の映像の画質が低下することを防止することができる。
また、補間データ生成部は、第1のデータおよび第2のデータが合成された合成データから補間フレームを生成することができる。したがって、補間フレームを生成する前、すなわち第1のデータのフレーム数(フレーム周波数)が増加する前に、第1のデータに第2のデータを合成することができる。
それにより、例えば、第2のデータがオンスクリーン表示のためのデータ(以下、OSDデータと略記する。)である場合には、第1のフレーム数が増加した後に第1のデータにOSDデータを合成する場合に比べて、データ処理速度の高くないマイクロコンピュータを用いて第1のデータにOSDデータを合成することができる。この場合、高性能のマイクロコンピュータを映像処理装置に設ける必要がないので、映像処理装置の製品コストを低減することができる。
以上の結果、安価な構成で高画質の映像を安定して供給することが可能となる。
(19)映像補正部は、第2の映像が表示されるフレームにおいては、第2のデータを用いずに映像補正を行ってもよい。
この場合、補正後の第1の映像に第2の映像の要素(第2のデータ)が反映されることを確実に防止することができる。それにより、映像補正後の第1の映像の画質が低下することを確実に防止することができる。
(20) 映像補正部は、合成データおよび補間データに基づいて複数のフレームおよび補間フレームの特徴量を抽出し、抽出される特徴量に基づいて複数のフレームおよび補間フレームの映像補正を行い、第2の映像が表示されるフレームにおいては第2のデータを用いずに特徴量を抽出してもよい。
この場合、特徴量に基づいて複数のフレームおよび補間フレームの映像補正が行われるので、複数のフレームおよび補間フレームの画質を十分に向上させることができる。
また、第2の映像が表示されるフレームの特徴量抽出に第2のデータが用いられない。この場合、第2の映像が表示されるフレームの映像補正を行う際に、補正後の第1の映像に第2の映像の要素(第2のデータ)が反映されることを確実に防止することができる。それにより、映像補正後の第1の映像の画質が低下することを確実に防止することができる。
(21)本発明のさらに他の局面に従う映像処理方法は、第1の映像を表示するための第1のデータおよび第1の映像上に表示される第2の映像を表示するための第2のデータが合成された合成データを処理する映像処理方法であって、複数のフレームの合成データから動きベクトルを検出するステップと、複数のフレームの合成データおよび動きベクトルに基づいて、2つのフレームを補間する補間フレームの補間データを生成するステップとを備え、補間データを生成するステップにおいて、2つのフレームのうち少なくとも一方のフレームにおいて第2の映像が表示される場合、補間フレームにおいて第2の映像の表示領域の少なくとも外周部に対応する領域の補間データを、動きベクトル検出部により検出された動きベクトルを用いずに生成するものである。
その映像処理方法においては、複数のフレームの合成データから動きベクトルが検出される。複数のフレームの合成データおよび動きベクトルに基づいて、2つのフレームを補間する補間フレームの補間データが生成される。
ここで、2つのフレームのうち少なくとも一方のフレームが第2の映像の表示領域を有する場合、補間フレームにおいて第2の映像の表示領域の少なくとも外周部に対応する領域については、動きベクトルを用いずに補間データが生成される。
この場合、本来移動すべきではない上記外周部が、動きベクトルに基づいて補間フレームにおいて移動することを防止することができる。それにより、補間フレームにおいて、第1の映像が表示されるべき領域に第2の映像が表示されること、および第2の映像が表示されるべき領域に第1の映像が表示されることを防止することができる。その結果、補間フレームにおいて適切な位置に第2の映像を表示することができる。
また、第1のデータおよび第2のデータが合成された合成データから補間フレームを生成することができる。したがって、補間フレームを生成する前、すなわち第1のデータのフレーム数(フレーム周波数)が増加する前に、第1のデータに第2のデータを合成することができる。
それにより、例えば、第2のデータがオンスクリーン表示のためのデータ(以下、OSDデータと略記する。)である場合には、第1のフレーム数が増加した後に第1のデータにOSDデータを合成する場合に比べて、データ処理速度の高くないマイクロコンピュータを用いて第1のデータにOSDデータを合成することができる。したがって、高性能のマイクロコンピュータを用いる必要がない。
以上の結果、安価な構成で高精度の動き補償を行うことが可能となる。それにより、高画質の映像を安定して提供することが可能となる。
(22)本発明のさらに他の局面に従う映像処理装置は、第1の映像を表示するための第1のデータおよび第2の映像を表示するための第2のデータを処理する映像処理方法であって、第1のデータと第2のデータとを合成することにより、第1の映像上に第2の映像が表示される複数のフレームの合成データを生成するステップと、複数のフレームの第1のデータから動きベクトルを検出するステップと、複数のフレームの合成データおよび動きベクトルに基づいて、2つのフレームを補間する補間フレームの補間データを生成するステップとを備えたものである。
その映像処理方法においては、第1の映像を表示するための第1のデータと第2の映像を表示するための第2のデータとが合成され、合成データが生成される。複数のフレームの第1のデータから動きベクトルが検出される。複数のフレームの合成データおよび動きベクトルに基づいて、2つのフレームを補間する補間フレームの補間データが生成される。
このように、動きベクトルは、第1のデータから検出される。したがって、第1の映像上に第2の映像が表示されていても、第2のデータを考慮せずに動きベクトルを検出することができる。
この場合、合成データの複数のフレームにおいて、第2の映像により表示されない領域の第1の映像についても、2つのフレームの間で正確にマッチングを行うことができる。それにより、第1の映像について、動きベクトルを高精度で検出することが可能になる。
また、第1のデータおよび第2のデータが合成された合成データから補間フレームを生成することができる。したがって、補間フレームを生成する前、すなわち第1のデータのフレーム数(フレーム周波数)が増加する前に、第1のデータに第2のデータを合成することができる。
それにより、例えば、第2のデータがOSDデータである場合には、第1のフレーム数が増加した後に第1のデータにOSDデータを合成する場合に比べて、データ処理速度の高くないマイクロコンピュータを用いて第1のデータにOSDデータを合成することができる。したがって、高性能のマイクロコンピュータを用いる必要がない。
以上の結果、安価な構成で高精度の動き補償を行うことができる。それにより、高画質の映像を安定して提供することが可能となる。
本発明によれば、2つのフレームのうち少なくとも一方のフレームが第2の映像の表示領域を有する場合、補間フレームにおいて第2の映像の表示領域の少なくとも外周部に対応する領域については、動きベクトルを用いずに補間データが生成される。それにより、補間フレームにおいて、第1の映像が表示されるべき領域に第2の映像が表示されること、および第2の映像が表示されるべき領域に第1の映像が表示されることを防止することができる。
また、第1のデータおよび第2のデータが合成された合成データから補間フレームを生成することができる。したがって、補間フレームを生成する前、すなわち第1のデータのフレーム数(フレーム周波数)が増加する前に、第1のデータに第2のデータを合成することができる。
それにより、例えば、第2のデータがオンスクリーン表示のためのデータ(以下、OSDデータと略記する。)である場合には、第1のフレーム数が増加した後に第1のデータにOSDデータを合成する場合に比べて、データ処理速度の高くないマイクロコンピュータを用いて第1のデータにOSDデータを合成することができる。この場合、高性能のマイクロコンピュータを映像処理装置に設ける必要がないので、映像処理装置の製品コストを低減することができる。
また、動きベクトルは、第1のデータから検出することができる。したがって、第1の映像上に第2の映像が表示されていても、第2のデータを考慮せずに動きベクトルを検出することができる。この場合、合成データの複数のフレームにおいて、第2の映像により表示されない領域の第1の映像についても、2つのフレームの間で正確にマッチングを行うことができる。それにより、第1の映像について、動きベクトルを高精度で検出することが可能になる。
また、第2の映像が表示されるフレームにおいては、第2の映像の映像補正が行われないか、または第2の映像の映像補正率が第1の映像の映像補正率よりも低く設定される。この場合、第2の映像が表示されるフレームの映像補正を行う際に、第2の映像の表示領域に不必要な画質補正がなされることが防止される。それにより、第2の映像の画質が低下することを防止することができる。また、補正後の第1の映像に第2の映像の要素(第2のデータ)が反映されることを防止することができる。それにより、映像補正後の第1の映像の画質が低下することを防止することができる。
以上の結果、高画質の映像を安定して提供することが可能となる。
以下、本発明の実施の形態に係る映像処理装置の一例としてデジタル放送信号を受信するテレビジョン受像機について図面を用いて説明する。
(1)第1の実施の形態
(A)テレビジョン受像機の構成
図1は、本発明の第1の実施の形態に係るテレビジョン受像機の構成を示すブロック図である。なお、第1の実施の形態においては、画面上にOSD(オンスクリーン表示:On Screen Display)でキャラクタ(例えば、チャンネル番号)が提示されている状態でフレームレート変換処理を行う場合について説明する。
図1に示すように、本実施の形態に係るテレビジョン受像機100は、選局部101、復調部102、TS(トランスポートストリーム)デコーダ103、AV(音声映像)デコーダ104、音声出力部105、合成部106、マイクロコンピュータ107、動きベクトル検出部108、動き補償部109、および映像出力部110を含む。
選局部101には、アンテナ901から複数のデジタル放送信号(以下、放送信号と略記する。)が入力される。選局部101は、複数の放送信号の中から1つの放送信号を選択し、選択した放送信号を復調部102へ出力する。
復調部102は、選局部101から出力された放送信号を復調することによりMPEG(Motion Picture Experts Group)−2規格に準拠したトランスポートストリームを生成する。また、復調部102は、生成したトランスポートストリームをTSデコーダ103へ出力する。
TSデコーダ103は、復調部102から出力されたトランスポートストリームから音声ストリームおよび映像ストリームを分離する。また、TSデコーダ103は、分離した音声ストリームおよび映像ストリームをAVデコーダ104へ出力する。
AVデコーダ104は、TSデコーダ103から出力された音声ストリームおよび映像ストリームを復号し、音声データおよび映像データを生成する。また、AVデコーダ104は、生成した音声データを音声出力部105へ出力し、映像データを合成部106へ出力する。
音声出力部105は、スピーカ等の音声出力装置を含み、AVデコーダ104から出力された音声データを音声として出力する。
マイクロコンピュータ107は、キャラクタデータを生成し、生成したキャラクタデータを合成部106へ出力する。また、マイクロコンピュータ107は、領域データを生成し、生成した領域データを動き補償部109へ出力する。なお、本実施の形態において領域データとは、キャラクタが表示される領域を示す情報であり、画素ごとにその画素がキャラクタの一部を表示する画素であるか否かを示している。
マイクロコンピュータ107がキャラクタデータを出力している場合、合成部106は、AVデコーダ104から出力された映像データにキャラクタデータを合成する。そして、キャラクタデータが合成された映像データを動きベクトル検出部108および動き補償部109へ出力する。
マイクロコンピュータ107がキャラクタデータを出力していない場合、合成部106は、AVデコーダ104から出力された映像データをそのまま動きベクトル検出部108および動き補償部109へ出力する。
動きベクトル検出部108は、合成部106から出力された映像データに基づいて所定のブロック(例えば、8×8画素の画素領域)ごとに動きベクトルを検出し、各画素の動きベクトルデータを動き補償部109へ出力する。
動き補償部109は、動きベクトル検出部108から出力された動きベクトルデータおよびマイクロコンピュータ107から出力された領域データに基づいて、合成部106から出力された映像データに対しフレームレート変換処理を施す。
動き補償部109は、上記フレームレート変換処理後の映像データを映像出力部110へ出力する。なお、フレームレート変換処理においては、動き補償部109は、時間軸上で連続する2つのフレーム間を補間するフレーム(補間フレーム)のデータを生成する。動き補償部109の詳細は後述する。
映像出力部110は、液晶ディスプレイパネルまたはプラズマディスプレイパネル等の映像表示装置を含み、動き補償部109から出力された映像データを映像として表示する。なお、キャラクタデータが合成された映像データを映像として表示する際には、映像表示装置にキャラクタがOSDで提示される。
(B)動き補償
次に、動き補償部109における補間フレームの生成方法について図面を用いて詳細に説明する。
(b−1)動き補償部の構成
まず、動き補償部109の構成について説明する。
図2は、動き補償部109の主要部の構成を示すブロック図である。図2に示すように、動き補償部109は、映像データ選択部91、映像データ編集部92、ベクトル参照データ編集部93、遅延部94、領域データ編集部95および遅延部96を含む。なお、映像データ編集部92、ベクトル参照データ編集部93および領域データ編集部95には、それぞれ2つのフレームメモリが設けられている。
合成部106から出力された映像データは、映像データ編集部92の一方のフレームメモリ、ベクトル参照データ編集部93の一方のフレームメモリおよび遅延部94に入力される。
動きベクトル検出部108から出力された動きベクトルデータは、ベクトル参照データ編集部93および領域データ編集部95に入力される。マイクロコンピュータ107から出力された領域データは、領域データ編集部95の一方のフレームメモリおよび遅延部96に入力される。
遅延部94は、入力された映像データを1フレーム分遅延させて映像データ編集部92の他方のフレームメモリおよびベクトル参照データ編集部93の他方のフレームメモリへ出力する。すなわち、映像データ編集部92およびベクトル参照データ編集部93の各他方のフレームメモリには、映像データ編集部92およびベクトル参照データ編集部93の各一方のフレームメモリに入力される映像データより1フレーム分前の映像データが入力される。以下、映像データ編集部92およびベクトル参照データ編集部93の各一方のフレームメモリに入力される映像データにより生成されるフレームを現フレームと称し、各他方のフレームメモリに入力される映像データにより生成されるフレームを前フレームと称する。
遅延部96は、入力された領域データを1フレーム分遅延させて領域データ編集部95の他方のフレームメモリへ出力する。すなわち、領域データ編集部95の他方のフレームメモリには、領域データ編集部95の一方のフレームメモリに入力される領域データより1フレーム分前の領域データが入力される。
なお、領域データ編集部95の一方のフレームメモリに記憶される領域データは、現フレームにおいてキャラクタが表示される画素領域を示し、他方のフレームメモリに記憶される領域データは、前フレームにおいてキャラクタが表示される画素領域を示している。以下、領域データ編集部95の一方のフレームメモリに入力される領域データを現フレームの領域データと称し、他方のフレームメモリに入力される領域データを前フレームの領域データと称する。
映像データ編集部92は、一方のフレームメモリに記憶された現フレームの映像データをそのまま現フレーム映像データPVDとして映像データ選択部91へ出力する。
また、映像データ編集部92は、一方のフレームメモリに記憶された現フレームの映像データおよび他方のフレームメモリに記憶された前フレームの映像データから平均映像データAVDを生成し、映像データ選択部91へ出力する。なお、平均映像データAVDにより生成されるフレームにおいては、各画素の輝度は、前フレームの同じ位置の画素の輝度および現フレームの同じ位置の画素の輝度の平均値となる。
ベクトル参照データ編集部93は、一方のフレームメモリに記憶された現フレームの映像データおよび動きベクトル検出部108から出力される動きベクトルデータに基づいて後方補償映像データRVDを生成し、映像データ選択部91へ出力する。後方補償映像データRVDの詳細は後述する。
また、ベクトル参照データ編集部93は、他方のフレームメモリに記憶された前フレームの映像データおよび動きベクトル検出部108から出力される動きベクトルデータに基づいて前方補償映像データFVDを生成し、映像データ選択部91へ出力する。前方補償映像データFVDの詳細は後述する。
領域データ編集部95は、一方のフレームメモリに記憶された現フレームの領域データをそのまま現フレーム領域データPADとして映像データ選択部91へ出力する。
また、領域データ編集部95は、一方のフレームメモリに記憶された現フレームの領域データおよび動きベクトル検出部108から出力される動きベクトルデータに基づいて後方補償領域データRADを生成し、映像データ選択部91へ出力する。後方補償領域データRADの詳細は後述する。
さらに、領域データ編集部95は、他方のフレームメモリに記憶された前フレームの領域データおよび動きベクトル検出部108から出力される動きベクトルデータに基づいて前方補償領域データFADを生成し、映像データ選択部91へ出力する。前方補償領域データFADの詳細は後述する。
映像データ選択部91は、領域データ編集部95から出力される3つの領域データPAD,RAD,FADに基づいて、4つの映像データPVD,AVD,RVD,FVDのうち1つの映像データを選択し、映像出力部110へ出力する。なお、映像データ選択部91における映像データの選択は画素ごとに行われる。映像データ選択部91による映像データの選択方法の詳細は後述する。
(b−2)補間フレームの生成方法
次に、動き補償部109における補間フレームの生成方法について説明する。
図3は、補間フレームの生成方法を説明するための図である。図3において、(a)は、合成部106から出力される映像データに基づいて生成される前フレームの一部領域(8×8画素の画素領域)を示し、(b)は、現フレームの一部領域を示し、図3(c)は、動き補償部109によって生成される補間フレームを示している。
また、図3(a1)は、前フレーム(図3(a))の各画素の映像データを動きベクトルデータに基づいて移動させることにより生成されるフレーム(以下、前方補償フレームと称する。)である。さらに、図3(b1)は、現フレーム(図3(b))の各画素の映像データを動きベクトルデータに基づいて移動させることにより生成されるフレーム(以下、後方補償フレームと称する。)である。
すなわち、前方補償フレーム(図3(a1))は、図2で説明した前方補償映像データFVDにより生成されるフレームであり、後方補償フレーム(図3(b1))は、図2で説明した後方補償映像データRVDにより生成されるフレームである。また、図3(b)は現フレームであるので、現フレーム映像データPVDにより生成されるフレームに相当する。なお、図示していないが、平均映像データAVD(図2)により生成されるフレームにおいては、各画素の輝度は、前フレーム(図3(a))の対応する画素の輝度および現フレーム(図3(b))の対応する画素の輝度の平均値となる。
なお、本例においては、説明を簡略化するため、動きベクトル検出部108は、4×4画素を1ブロックとして動きベクトルを検出することとする。各画素の位置はXY座標で示す。
図3の例では、前フレーム(図3(a))においては、左上のブロック内の8画素によりに移動体Aが表示され、2画素によりキャラクタC1が表示され、右下のブロック内の5画素によりキャラクタC2が表示されている。また、現フレーム(図3(b))においては、左上のブロック内の2画素によりキャラクタC1が表示され、右下のブロック内の7画素により移動体Aが表示され、5画素によりキャラクタC2が表示されている。
つまり、図3においては、前フレームから現フレームにかけて、8画素により構成される移動体Aが左上のブロックから右下のブロックに移動している。そして、現フレームの右下のブロックにおいて、移動体Aの一部((b)に示すフレームの(x,y)=(6,5)の位置)がキャラクタC2によって隠れている。なお、移動体Aが表示されている領域以外の画素の映像データは変化していないものとする。
ここで、動きベクトル検出部108により、前フレーム(図3(a))と現フレーム(図3(b))との間で、左上のブロックの各画素の映像データが右下のブロックに移動したとする動きベクトル(X方向に+4およびY方向に+4)が検出されたとする。
この場合、通常、前フレーム(図3(a))と現フレーム(図3(b))とを補間するフレームは、前フレームの左上のブロックの各画素の映像データをX方向に+2およびY方向に+2移動させるか、あるいは現フレームの右下のブロックの各画素の映像データをX方向に−2およびY方向に−2移動させることにより生成される。
しかしながら、図3の例においては、前フレームおよび現フレームにおいて、左上のブロック内にキャラクタC1が存在し、右下のブロック内にキャラクタC2が存在する。そのため、前フレームの左上のブロックの各画素の映像データをX方向に+2およびY方向に+2移動させた場合、前方補償フレーム(図3(a1))において、本来移動すべきではないキャラクタC1が移動体Aとともに移動する。
また、現フレームの右下のブロックの各画素の映像データをX方向に−2およびY方向に−2移動させた場合、後方補償フレーム(図3(b1))において、本来移動すべきではないキャラクタC2が移動体Aとともに移動する。
したがって、図2で説明した後方補償映像データRVD(後方補償フレーム)および前方補償映像データFVD(前方補償フレーム)をそのまま補間フレームの映像データとして用いた場合、本来移動すべきではないキャラクタC1,C2が移動し、画質が劣化することがある。
そこで、本実施の形態においては、キャラクタの表示位置に応じて、映像データ選択部91(図2)が、画素ごとに4つの映像データPVD,AVD,RVD,FVDの中から1つの映像データを選択し、映像出力部110(図2)へ出力する。それにより、補間フレームの画質の劣化を防止している。
以下、映像データ選択部91による映像データの選択方法について説明する。まず、キャラクタの表示位置に関するデータである3つの領域データPAD,RAD,FAD(図2)について図面を用いて説明する。
図4は、領域データPAD,RAD,FADを説明するための図である。
図4において、(a)は、前フレームの領域データが示す各画素の状態を表した概念図であり、(b)は、現フレームの領域データが示す各画素の状態を表した概念図である。すなわち、図4(a)は遅延部96(図2)から領域データ編集部95(図2)に入力される領域データが示す各画素の状態を概念的に表し、図4(b)は、マイクロコンピュータ107(図2)から領域データ編集部95に入力される領域データおよび現フレーム領域データPAD(図2)が示す各画素の状態を概念的に表している。
図4(a)の例では、領域データは、(x,y)=(2,3),(3,3),(6,5),(6,6),(7,5),(7,6),(7,7)の各画素がキャラクタを表示することを示し、これらの画素を除く画素がキャラクタを表示しないことを示している。すなわち、本例の領域データは、前フレーム(図3(a))において、(x,y)=(2,3),(3,3),(6,5),(6,6),(7,5),(7,6),(7,7)の画素によりキャラクタが表示されることを示している。
同様に、図4(b)の例では、領域データは、(x,y)=(2,3),(3,3),(6,5),(6,6),(7,5),(7,6),(7,7)の各画素がキャラクタを表示することを示し、これらの画素を除く画素がキャラクタを表示しないことを示している。すなわち、本例の領域データ(現フレーム領域データPAD)は、現フレーム(図3(b))において、(x,y)=(2,3),(3,3),(6,5),(6,6),(7,5),(7,6),(7,7)の画素によりキャラクタが表示されることを示している。
また、図4(a1)は、図3(a1)と同様に、左上のブロック内の各画素の領域データを図4(a)に示す位置からX方向に+2およびY方向に+2移動させた場合に、領域データが示す各画素の状態を概念的に表している。
さらに、図4(b1)は、図3(b1)と同様に、右下のブロック内の各画素の領域データを図4(b)に示す位置からX方向に−2およびY方向に−2移動させた場合に、領域データが示す各画素の状態を概念的に表している。
すなわち、図4(a1)は、前フレームの領域データおよび動きベクトルデータに基づいて生成される前方補償領域データFAD(図2)が示す各画素の状態を概念的に表し、図4(b1)は、現フレームの領域データおよび動きベクトルデータに基づいて生成される後方補償領域データRAD(図2)が示す各画素の状態を概念的に表している。
なお、図4(a1)の例では、領域データは、(x,y)=(4,5),(5,5)の画素がキャラクタを表示することを示している。すなわち、本例の領域データ(前方補償領域データFAD)は、前方補償フレーム(図3(a1))において、(x,y)=(4,5),(5,5)の画素によりキャラクタが表示されることを示している。
また、図4(b1)の例では、(x,y)=(4,3),(4,4),(5,3),(5,4),(5,5)の画素がキャラクタを表示することを示している。すなわち、本例の領域データ(後方補償領域データRAD)は、後方補償フレーム(図3(b1))において、(x,y)=(4,3),(4,4),(5,3),(5,4),(5,5)の画素によりキャラクタが表示されることを示している。
以上のように、現フレーム領域データPAD(図2)は、現フレームのキャラクタ表示画素を特定し、前方補償領域データFAD(図2)は、前方補償フレームのキャラクタ表示画素を特定し、後方補償領域データRAD(図2)は、後方補償フレームのキャラクタ表示画素を特定している。
次に、映像データ選択部91による映像データの選択方法について説明する。
図5は、映像データ選択部91による映像データの選択処理を示すフローチャートである。なお、図5のフローチャートに示す選択処理は、画素ごとに行われる。
図5に示すように、映像データ選択部91は、まず、現フレーム領域データPADがキャラクタの表示を示すデータ(以下、キャラクタ表示データと称する)であるか否かを判別する(ステップS1)。
現フレーム領域データPADがキャラクタ表示データであると判別された場合、映像データ選択部91は、現フレーム映像データPVD(図2)を選択し、映像出力部110(図2)へ出力する。
なお、図3および図4の例では、(x,y)=(2,3),(3,3),(6,5),(6,6),(7,5),(7,6),(7,7)の画素について現フレーム領域データPADがキャラクタ表示データであると判別される。
例えば、(x,y)=(2,3)の画素については、現フレーム領域データPAD(図4(b)参照)がキャラクタ表示データとなっている。この場合、現フレーム(図3(b))において、(x,y)=(2,3)の画素によりキャラクタC1の一部が表示されている。そのため、補間フレーム(図3(c))においても、(x,y)=(2,3)の位置の画素によりキャラクタC1の一部が表示されることが好ましいと考えられる。
そこで、本実施の形態においては、映像データ選択部91は、現フレーム映像データPVD(図2)を選択し、映像出力部110(図2)へ出力する。すなわち、補間フレーム(図3(c))の(x,y)=(2,3)の位置の画素の映像データとして、現フレーム(図3(b))の(x,y)=(2,3)の位置の画素の映像データが用いられる。それにより、補間フレームにおいて、(x,y)=(2,3)の画素によりキャラクタC1の一部が表示される。
ステップS1において現フレーム領域データPADがキャラクタ表示データではないと判別された場合、映像データ選択部91は、後方補償領域データRADがキャラクタ表示データであるか否かを判別する(ステップS2)。
後方補償領域データRADがキャラクタ表示データであると判別された場合、映像データ選択部91は、前方補償領域データFADがキャラクタ表示データであるか否かを判別する(ステップS3)。
前方補償領域データFADがキャラクタ表示データであると判別された場合、映像データ選択部91は、平均映像データAVD(図2)を選択し、映像出力部110(図2)へ出力する。
なお、図3および図4の例では、(x,y)=(5,5)の画素について前方補償領域データFADがキャラクタ表示データであると判別される。
(x,y)=(5,5)の画素については、現フレーム領域データPAD(図4(b)参照)はキャラクタ表示データではない。この場合、現フレーム(図3(b))において、(x,y)=(5,5)の画素によりキャラクタが表示されていないので、補間フレーム(図3(c))においても、(x,y)=(5,5)の画素によりキャラクタが表示されないことが好ましいと考えられる。
しかしながら、前方補償領域データFAD(図4(a1)参照)および後方補償領域データRAD(図4(b1)参照)はキャラクタ表示データとなっている。つまり、前方補償フレームおよび後方補償フレームにおいて、(x,y)=(5,5)の画素によりキャラクタが表示されている。なお、図3(a1)においては、キャラクタC1の一部が表示され、図3(b1)においては、キャラクタC2の一部が表示されている。したがって、前方補償映像データFVDまたは後方補償映像データRVDを映像出力部110へ出力した場合、補間フレームにおいて、(x,y)=(5,5)の画素によりキャラクタの一部が表示されることになる。
そこで、本実施の形態においては、映像データ選択部91は、平均映像データAVD(図2)を選択し、映像出力部110(図2)へ出力する。すなわち、補間フレーム(図3(c))の(x,y)=(5,5)の画素の輝度が、前フレーム(図3(a))の(x,y)=(5,5)の画素の輝度および現フレーム(図3(b))の(x,y)=(5,5)の画素の輝度の平均値に設定されている。
それにより、補間フレームにおいて、(x,y)=(5,5)の画素によりキャラクタの一部が表示されることを防止するとともに、画質が劣化することを防止している。
ステップS3において、前方補償領域データFADがキャラクタ表示データではないと判別された場合、映像データ選択部91は、前方補償映像データFVD(図2)を選択し、映像出力部110(図2)へ出力する。
なお、図3および図4の例では、(x,y)=(4,3),(4,4),(5,3),(5,4)の画素について前方補償領域データFADがキャラクタ表示データではないと判別される。
例えば、(x,y)=(5,4)の画素については、現フレーム領域データPAD(図4(b)参照)がキャラクタ表示データではない。この場合、現フレーム(図3(b))において、(x,y)=(5,4)の画素によりキャラクタが表示されていないので、補間フレーム(図3(c))においても、(x,y)=(5,4)の画素によりキャラクタが表示されないことが好ましいと考えられる。
しかしながら、後方補償領域データRAD(図4(b1)参照)はキャラクタ表示データとなっている。つまり、後方補償フレームにおいて、(x,y)=(5,4)の画素によりキャラクタが表示されている。なお、図3(b1)においては、キャラクタC2の一部が表示されている。したがって、後方補償映像データRVDを映像出力部110へ出力した場合、補間フレームにおいて、(x,y)=(5,4)の画素によりキャラクタの一部が表示されることになる。
そこで、本実施の形態においては、映像データ選択部91は、前方補償映像データFVD(図2)を選択し、映像出力部110(図2)へ出力する。すなわち、補間フレーム(図3(c))の(x,y)=(5,4)の画素の映像データとして、前方補償フレーム(図3(a1))の(x,y)=(5,4)の画素の映像データが用いられる。
それにより、補間フレームにおいて(x,y)=(5,4)の画素によりキャラクタの一部が表示されることを防止しつつ、適切な動き補償を行うことができる。
ステップS2において、後方補償領域データRADがキャラクタ表示データではないと判別された場合、映像データ選択部91は、前方補償領域データFADがキャラクタ表示データであるか否かを判別する(ステップS4)。
前方補償領域データFADがキャラクタ表示データであると判別された場合、映像データ選択部91は、後方補償領域データRAD(図2)を選択し、映像出力部110(図2)へ出力する。
なお、図3および図4の例では、(x,y)=(4,5)の画素について前方補償領域データFADがキャラクタ表示データであると判別される。
(x,y)=(4,5)の画素については、現フレーム領域データPAD(図4(b)参照)はキャラクタ表示データではない。この場合、現フレーム(図3(b))において、(x,y)=(4,5)の画素によりキャラクタが表示されていないので、補間フレーム(図3(c))においても、(x,y)=(4,5)の画素によりキャラクタが表示されないことが好ましいと考えられる。
しかしながら、前方補償領域データFAD(図4(a1)参照)はキャラクタ表示データとなっている。つまり、前方補償フレームにおいて、(x,y)=(4,5)の画素によりキャラクタが表示されている。なお、図3(a1)においては、キャラクタC1の一部が表示されている。したがって、前方補償映像データFVDを映像出力部110へ出力した場合、補間フレームにおいて、(x,y)=(4,5)の画素によりキャラクタの一部が表示されることになる。
そこで、本実施の形態においては、映像データ選択部91は、後方補償映像データRVD(図2)を選択し、映像出力部110(図2)へ出力する。すなわち、補間フレーム(図3(c))の(x,y)=(4,5)の画素の映像データとして、後方補償フレーム(図3(b1))の(x,y)=(4,5)の画素の映像データが用いられる。
それにより、補間フレームにおいて(x,y)=(4,5)の画素によりキャラクタの一部が表示されることを防止しつつ、適切な動き補償を行うことができる。
ステップS4において、前方補償領域データFADがキャラクタ表示データではないと判別された場合、映像データ選択部91は、前方補償映像データFVD(図2)を選択し、映像出力部110(図2)へ出力する。
なお、図3および図4の例では、上記で説明した(x,y)=(2,3),(3,3),(6,5),(6,6),(7,5),(7,6),(7,7),(5,5),(4,3),(4,4),(5,3),(5,4),(4,5)以外の画素について前方補償領域データFADがキャラクタ表示データではないと判別される。
例えば、(x,y)=(3,2)の画素については、現フレーム領域データPAD(図4(b)参照)はキャラクタ表示データではない。この場合、現フレーム(図3(b))において、(x,y)=(3,2)の画素によりキャラクタが表示されていないので、補間フレーム(図3(c))においても、(x,y)=(3,2)の画素によりキャラクタが表示されないことが好ましいと考えられる。
ここで、(x,y)=(3,2)の画素については、前方補償領域データFAD(図4(a1)参照)および後方補償領域データRAD(図4(b1)参照)のいずれもキャラクタ表示データではない。つまり、前方補償フレーム(図3(a1))および後方補償フレーム(図3(b1))のいずれにおいても、(x,y)=(3,2)の画素によりキャラクタは表示されていない。
そこで、本実施の形態においては、映像データ選択部91は、前方補償映像データFVD(図2)を選択し、映像出力部110(図2)へ出力する。すなわち、補間フレーム(図3(c))の(x,y)=(3,2)の画素の映像データとして、前方補償フレーム(図3(a1))の(x,y)=(3,2)の画素の映像データが用いられる。それにより、適切な動き補償を行うことができる。
なお、図5のフローチャートでは、ステップS4において、前方補償領域データFADがキャラクタ表示データではないと判別された場合、映像データ選択部91は、前方補償映像データFVD(図2)を選択しているが、後方補償映像データRVDを選択してもよい。
つまり、ステップS4において、前方補償領域データFADがキャラクタ表示データではないと判別された場合には、通常の動き補償と同様に、前フレームの映像データと動きベクトルとにより補間フレームを生成してもよく、現フレームの映像データと動きベクトルとにより補間フレームを生成してもよい。
(C)本実施の形態の効果
以上のように、本実施の形態においては、動き補償部109によるフレームレート変換処理前に、合成部106において映像データにキャラクタデータが合成される。つまり、フレーム数(フレーム周波数)が増加する前に、映像データにキャラクタデータが合成される。それにより、フレームレート変換処理後の映像データにキャラクタデータを合成する場合に比べて、データ処理速度の高くないマイクロコンピュータ107を用いて映像データとキャラクタデータとを合成することができる。したがって、高性能のマイクロコンピュータ107を設ける必要がないので、テレビジョン受像機100の製品コストを低減することができる。
また、本実施の形態においては、現フレームにおいてキャラクタが表示されている領域においては、補間フレームにおいてもキャラクタを表示し、現フレームにおいてキャラクタが表示されていない領域においては、補間フレームにおいてもキャラクタを表示しない。また、後方補償フレームおよび前方補償フレームのどちらにおいてもキャラクタが表示されている領域においては、その領域の輝度を、現フレームの輝度と前フレームの輝度との平均値に設定している。さらに、後方補償フレームのみにおいてキャラクタが表示されている領域においては、前方補償フレームの映像データを用い、前方補償フレームのみにおいてキャラクタが表示されている領域においては、後方補償フレームの映像データを用いる。
この場合、補間フレームにおいて本来移動すべきではないキャラクタが移動することを防止することができるとともに、キャラクタが表示されるべき領域に他の映像が表示されることを防止することができる。すなわち、補間フレームにおいて、適切な位置にキャラクタを表示することができる。
以上の結果、安価な構成で高精度の動き補償を実現することが可能となる。
(D)他の例
上記の例では、映像データ編集部92およびベクトル参照データ編集部93にそれぞれ2つのフレームメモリを設けているが、映像データ編集部92およびベクトル参照データ編集部93に共通の2つのフレームメモリを動き補償部109内に設けてもよい。
図6は、動き補償部109の他の例を示すブロック図である。図6に示す動き補償部109においては、映像データ編集部92およびベクトル参照データ編集部93にそれぞれ2つのフレームメモリを設ける代わりに、2つのフレームメモリ97,98が設けられている。
図6の動き補償部109においては、合成部106から出力された映像データは、フレームメモリ97および遅延部94に入力される。遅延部94は、入力された映像データを1フレーム分遅延させてフレームメモリ98へ出力する。すなわち、フレームメモリ97には現フレームの映像データが記憶され、フレームメモリ98には前フレームの映像データが記憶される。
映像データ編集部92は、フレームメモリ97に記憶された現フレームの映像データをそのまま現フレーム映像データPVDとして映像データ選択部91へ出力するとともに、フレームメモリ97に記憶された現フレームの映像データおよびフレームメモリ98に記憶された前フレームの映像データから平均映像データAVDを生成し、映像データ選択部91へ出力する。
ベクトル参照データ編集部93は、フレームメモリ97に記憶された現フレームの映像データおよび動きベクトル検出部108から出力される動きベクトルデータに基づいて後方補償映像データRVDおよび前方補償映像データFVDを生成し、映像データ選択部91へ出力する。
以上のように、図6の動き補償部109においては、映像データ編集部92およびベクトル参照データ編集部93に共通の2つのメモリ97,98が設けられているので、映像データ編集部92およびベクトル参照データ編集部93にフレームメモリを設ける必要がない。それにより、テレビジョン受像機100の製品コストを低減することができる。
なお、図2の映像データ編集部92、ベクトル参照データ編集部93および領域データ編集部95にそれぞれ設けられるフレームメモリならびに図6のフレームメモリ97,98の代わりに、ラインメモリを用いてもよい。この場合、テレビジョン受像機100の製品コストをさらに低減することができる。
また、上記の例では、現フレームにおいてキャラクタが表示されていない領域においては補間フレームにおいてもキャラクタを表示していないが、現フレームにおいてキャラクタが表示されていないが前フレームにおいてキャラクタが表示されている領域においては、補間フレームにおいてキャラクタを表示してもよい。
また、上記の例では、現フレームのいずれかの画素においてキャラクタが表示される場合には、その画素に対応する補間フレームの画素の映像データとして現フレーム映像データPVD(図2)が用いられているが、補間フレームの他の画素の映像データとしても現フレーム映像データPVDを用いてもよい。すなわち、現フレームにおいてキャラクタが表示される場合には、補間フレームの全ての画素の映像データとして現フレーム映像データPVDを用いてもよい。
この場合、現フレームにおいてキャラクタが表示される場合には、移動ベクトルに基づく補間フレームの生成が行われない。それにより、補間フレームにおいて本来移動すべきではないキャラクタが動きベクトルに基づいて移動することが確実に防止される。その結果、補間フレームにおいて、適切な位置にキャラクタを表示することができる。
なお、この場合、動き補償部109は、マイクロコンピュータ107からキャラクタデータが出力された場合に、合成部106から出力される現フレームの映像データをそのまま補間フレームの映像データとして映像出力部110へ出力する。
また、現フレームにおいてキャラクタが表示される場合に、補間フレームの全ての画素の映像データとして平均映像データAVD(図2)または前フレームの映像データを用いてもよい。
この場合も上記の場合と同様に、現フレームにおいてキャラクタが表示される場合には、移動ベクトルに基づく補間フレームの生成が行われない。それにより、補間フレームにおいて本来移動すべきではないキャラクタが動きベクトルに基づいて移動することが確実に防止される。その結果、補間フレームにおいて、適切な位置にキャラクタを表示することができる。
なお、この場合、動き補償部109は、マイクロコンピュータ107からキャラクタデータが出力された場合に、平均映像データAVDまたは前フレームの映像データを補間フレームの映像データとして映像出力部110へ出力する。
また、キャラクタの一部を透過状態で表示してもよい。この場合、マイクロコンピュータ107において、非透過状態のキャラクタが表示される領域を示す領域データと、透過状態のキャラクタが表示される領域を示す領域データとを生成する。領域データが透過状態でのキャラクタの表示を示している場合には、キャラクタデータの値と映像データの値とを所定の比率で加算したデータが合成部106または動き補償部109において生成される。
(2)第2の実施の形態
第2の実施の形態に係るテレビジョン受像機が第1の実施の形態に係るテレビジョン受像機100と異なるのは以下の点である。
図7は、第2の実施の形態に係るテレビジョン受像機100の構成を示すブロック図である。
図7に示すように、本実施の形態に係るテレビジョン受像機100においては、AVデコーダ104は、音声データを音声出力部105へ出力し、映像データを合成部106および動きベクトル検出部108へ出力する。
マイクロコンピュータ107は、キャラクタデータを生成し、生成したキャラクタデータを合成部106へ出力する。
マイクロコンピュータ107がキャラクタデータを出力している場合、合成部106は、AVデコーダ104から出力された映像データにキャラクタデータを合成する。そして、キャラクタデータが合成された映像データを動き補償部109へ出力する。
マイクロコンピュータ107がキャラクタデータを出力していない場合、合成部106は、AVデコーダ104から出力された映像データをそのまま動き補償部109へ出力する。
動きベクトル検出部108は、AVデコーダ104から出力された映像データに基づいて所定のブロック(例えば、8×8画素の画素領域)ごとに動きベクトルを検出し、各画素の動きベクトルデータを動き補償部109へ出力する。動きベクトルの検出方法については後述する。
動き補償部109は、動きベクトル検出部108から出力された動きベクトルデータに基づいて、合成部106から出力された映像データに対しフレームレート変換処理を施す。
以上のように、本実施の形態においては、AVデコーダ104から出力される映像データは、合成部106と動きベクトル検出部108とに入力される。したがって、動きベクトル検出部108は、キャラクタデータが合成されていない映像データに基づいて動きベクトルを検出することができる。
以下、合成部106においてキャラクタデータが合成された映像データ(以下、合成映像データと称する)と、キャラクタデータが合成されていない映像データ(以下、単純映像データと称する)とを比較しながら、動きベクトルの検出方法について説明する。
図8は、図7の動きベクトル検出部108による動きベクトルの検出方法を説明するための図である。
図8において、(a)は、合成映像データに基づいて生成される前フレームの一部領域(8×8画素の画素領域)を示し、(b)は、合成映像データに基づいて生成される現フレームの一部領域を示している。また、(c)は、(a)に示すフレームの単純映像データすなわち前フレームの単純映像データに基づいて生成されるフレームの一部領域を示し、(d)は、(b)に示すフレームの単純映像データすなわち現フレームの単純映像データに基づいて生成されるフレームの一部領域を示している。
なお、本例においても、説明を簡略化するため、動きベクトル検出部108は、4×4画素を1ブロックとして動きベクトルを検出することとする。また、図8(a)は図3(a)と等しく、図8(b)は図3(b)と等しい。
ここで、上述したように、本実施の形態においては、動きベクトル検出部108(図7)には、単純映像データが入力される。したがって、テレビジョン受像機100の画面上に図8(a)および図8(b)に示すフレームが表示される場合、動きベクトル検出部108は、単純映像データ(図8(c)および図8(d)に示すフレームのデータ)に基づいて動きベクトルを検出する。
図8の例では、動きベクトル検出部108(図7)は、図8(c)および(d)に示す移動体Aの動きに基づいて、左上のブロックの各画素の映像データが右下のブロックに移動したとする動きベクトル(X方向に+4およびY方向に+4)を検出することができる。
以上のように、本実施の形態においては、動き補償部109によるフレームレート変換処理前に、合成部106において映像データにキャラクタデータが合成される。つまり、フレーム数が増加する前に、映像データにキャラクタデータが合成される。それにより、フレームレート変換処理後の映像データにキャラクタデータを合成する場合に比べて、データ処理速度の高くないマイクロコンピュータ107を用いて映像データとキャラクタデータとを合成することができる。したがって、高性能のマイクロコンピュータ107を設ける必要がないので、テレビジョン受像機100の製品コストを低減することができる。
また、動きベクトル検出部108は、キャラクタデータが合成されていない映像データに基づいて動きベクトルを検出する。つまり、キャラクタを考慮せずに動きベクトルを検出することができる。それにより、本来キャラクタによって隠れる領域(図8においては、(b)に示すフレームの(x,y)=(6,5)の位置)に存在する映像部分についても、前フレームと現フレームとの間で正確にマッチングを行うことができる。その結果、前フレームと現フレームとの間で、動きベクトルを高精度で検出することが可能となる。
したがって、キャラクタデータが合成された映像データに対してフレームレート変換処理を施す場合においても、前フレームと現フレームとの間で正確にマッチングを行うことができる。
以上の結果、安価な構成で高精度の動き補償を実現することが可能となる。
本実施の形態によれば、例えば、現フレーム(図8(b))の右下のブロック内の全ての画素によりキャラクタが表示されている場合においても、移動体A(図8)について、前フレーム(図8(a))と現フレーム(図8(b))との間で正確にマッチングを行うことができる。
(2−1)第2の実施の形態の他の例
図9は、第2の実施の形態に係るテレビジョン受像機の他の例の構成を示すブロック図である。
図9のテレビジョン受像機100においては、図1のテレビジョン受像機100と同様に、マイクロコンピュータ107が領域データを生成し、生成した領域データを動き補償部109へ出力する。
また、動き補償部109は、動きベクトル検出部108から出力された動きベクトルデータおよびマイクロコンピュータ107から出力された領域データに基づいて、合成部106から出力された映像データに対しフレームレート変換処理を施す。
この場合、動き補償部109は、領域データに基づいて、現フレームまたは前フレームにおいてキャラクタが表示されている領域については、動きベクトルデータを用いることなく補間フレームのデータを生成することができる。それにより、キャラクタ表示領域の周辺における映像のぶれを防止することができる。その結果、より高精度な動き補償を実現することができる。
(3)第3の実施の形態
第3の実施の形態に係るテレビジョン受像機が第1の実施の形態に係るテレビジョン受像機100(図1および図7)と異なるのは以下の点である。なお、第3の実施の形態に係るテレビジョン受像機の構成は、図9のテレビジョン受像機100と同様である。
図9に示すように、第3の実施の形態に係るテレビジョン受像機100においては、AVデコーダ104は、音声データを音声出力部105へ出力し、映像データを合成部106および動きベクトル検出部108へ出力する。
マイクロコンピュータ107がキャラクタデータを出力している場合、合成部106は、AVデコーダ104から出力された映像データにキャラクタデータを合成する。そして、キャラクタデータが合成された映像データを動き補償部109へ出力する。
マイクロコンピュータ107がキャラクタデータを出力していない場合、合成部106は、AVデコーダ104から出力された映像データをそのまま動き補償部109へ出力する。
動きベクトル検出部108は、AVデコーダ104から出力された映像データに基づいて所定のブロック(例えば、8×8画素の画素領域)ごとに動きベクトルを検出し、各画素の動きベクトルデータを動き補償部109へ出力する。なお、動きベクトル検出部108による動きベクトルの検出方法は、第2の実施の形態において説明した方法(図8参照)と同様である。
動き補償部109は、動きベクトル検出部106から出力された動きベクトルデータおよびマイクロコンピュータ108から出力された領域データに基づいて、合成部107から出力された映像データに対しフレームレート変換処理を施す。なお、フレームレート変換処理においては、動き補償部109は、図2〜図5で説明した処理と同様の処理を行うものとする。
以上のように、本実施の形態に係るテレビジョン受像機100は、第1および第2の実施の形態に係るテレビジョン受像機100の構成を組み合わせた構成を有する。
すなわち、動き補償部109によるフレームレート変換処理前に、合成部106において映像データにキャラクタデータが合成される。つまり、フレーム数が増加する前に、映像データにキャラクタデータが合成される。それにより、フレームレート変換処理後の映像データにキャラクタデータを合成する場合に比べて、データ処理速度の高くないマイクロコンピュータ107を用いて映像データとキャラクタデータとを合成することができる。したがって、高性能のマイクロコンピュータ107を設ける必要がないので、テレビジョン受像機100の製品コストを低減することができる。
また、現フレームにおいてキャラクタが表示されている領域においては、補間フレームにおいてもキャラクタを表示し、現フレームにおいてキャラクタが表示されていない領域においては、補間フレームにおいてもキャラクタを表示しない。また、後方補償フレームおよび前方補償フレームのどちらにおいてもキャラクタが表示されている領域においては、その領域の輝度を、現フレームの輝度と前フレームの輝度との平均値に設定している。さらに、後方補償フレームのみにおいてキャラクタが表示されている領域においては、前方補償フレームの映像データを用い、前方補償フレームのみにおいてキャラクタが表示されている領域においては、後方補償フレームの映像データを用いる。
この場合、補間フレームにおいて本来移動すべきではないキャラクタが移動することを防止することができるとともに、キャラクタが表示されるべき領域に他の映像が表示されることを防止することができる。すなわち、補間フレームにおいて、適切な位置にキャラクタを表示することができる。
また、動きベクトル検出部108は、キャラクタデータが合成されていない映像データに基づいて動きベクトルを検出する。つまり、キャラクタを考慮せずに動きベクトルを検出することができる。それにより、本来キャラクタによって隠れる領域に存在する映像部分についても、前フレームと現フレームとの間で正確にマッチングを行うことができる。その結果、前フレームと現フレームとの間で、動きベクトルを高精度で検出することが可能となる。
したがって、キャラクタデータが合成された映像データに対してフレームレート変換処理を施す場合においても、前フレームと現フレームとの間で正確にマッチングを行うことができる。
以上の結果、安価な構成でより高精度の動き補償を実現することが可能となる。
(4)第4の実施の形態
第4の実施の形態に係るテレビジョン受像機が第1の実施の形態に係るテレビジョン受像機100と異なるのは以下の点である。
図10は、第4の実施の形態に係るテレビジョン受像機の動き補償部109の主要部の構成を示すブロック図である。
図10に示すように、本実施の形態においては、動き補償部109は、映像データ選択部91、映像データ編集部92、ベクトル参照データ編集部93、遅延部94、および領域データ合成部99を含む。
本実施の形態においては、合成部106から出力された映像データおよびマイクロコンピュータ107から出力された領域データは領域データ合成部99に入力される。
動きベクトル検出部108から出力された動きベクトルデータは、ベクトル参照データ編集部93に入力される。
領域データ合成部99は、合成部106から出力された映像データにマイクロコンピュータ107から出力された領域データを合成する。また、領域データ合成部99は、領域データが合成された映像データを、映像データ編集部92の一方のフレームメモリ、ベクトル参照データ編集部93の一方のフレームメモリおよび遅延部94へ出力する。
遅延部94は、入力された映像データを1フレーム分遅延させて映像データ編集部92の他方のフレームメモリおよびベクトル参照データ編集部93の他方のフレームメモリへ出力する。
ここで、本実施の形態においては、上述したように、領域データ合成部99において映像データに領域データが合成される。したがって、映像データ編集部92からは、現フレーム映像データPVD(図2参照)とともに現フレーム領域データPAD(図2参照)が出力される。
また、ベクトル参照データ編集部93においては、領域データが合成された映像データに対して動き補償が行われる。したがって、ベクトル参照データ編集部93からは、後方補償映像データRVD(図2参照)とともに後方補償領域データRAD(図2参照)が出力され、前方補償映像データFVD(図2参照)とともに前方補償領域データFAD(図2参照)が出力される。
映像データ選択部91は、上記3つの領域データPAD,RAD,FADに基づいて、図5で説明した方法と同様の方法で、各画素について、4つの映像データPVD,AVD,RVD,FVDのうち1つの映像データを選択し、映像出力部110(図2参照)へ出力する。
以上のように、本実施の形態においては、領域データ合成部99において映像データに領域データが合成される。この場合、ベクトル参照データ編集部93において後方補償領域データRADおよび前方補償領域データFADを生成することができる。したがって、領域データ編集部95および遅延部96を設ける必要がない。それにより、テレビジョン受像機の構成を簡略化できるとともに、製品コストを低減することができる。
(5)第5の実施の形態
第5の実施の形態に係るテレビジョン受像機が第3の実施の形態に係るテレビジョン受像機100(図9)と異なるのは以下の点である。なお、第5の実施の形態においては、ディスプレイパネル上に2つの画面が表示されている状態(例えば、図15および図16に示すように主画面1002および副画面1003が表示されている状態)でフレームレート変換処理を行う場合について説明する。以下、図15および図16を参照しながら本実施の形態に係るテレビジョン受像機100について説明する。
図11は、第5の実施の形態に係るテレビジョン受像機100の構成を示すブロック図である。
図11に示すように、本実施の形態に係るテレビジョン受像機100は、図9の選局部101、復調部102、TSデコーダ103およびAVデコーダ104と同様の構成を有する選局部101a、復調部102a、TSデコーダ103a、およびAVデコーダ104aを含む。
アンテナ901から選局部101aに入力される放送信号は、復調部102aおよびTSデコーダ103aを介して音声ストリームおよび映像ストリームとしてAVデコーダ104aに入力される。
AVデコーダ104aは、入力された音声ストリームおよび映像ストリームを復号し、音声データおよび映像データを生成する。また、AVデコーダ104aは、生成した音声データを音声出力部105へ出力し、映像データを合成部106へ出力する。
音声出力部105は、AVデコーダ104から出力された音声データおよびAVデコーダ104aから出力された音声データのいずれかを選択し、音声として出力する。
合成部106は、AVデコーダ104から出力された映像データにAVデコーダ104aから出力された映像データを合成し、合成された映像データを動き補償部109へ出力する。
なお、合成部106において合成された映像データがディスプレイパネル上に表示される場合には、例えば、図15および図16に示すように、AVデコーダ104から出力された映像データに基づく映像がディスプレイパネル1001の全面に主画面1002として表示され、AVデコーダ104aから出力された映像データに基づく映像が主画面1002上の一部領域に副画面1003として表示される。
マイクロコンピュータ107は、領域データを生成し、生成した領域データを動き補償部109へ出力する。なお、マイクロコンピュータ107において生成される領域データは、副画面1003が表示される領域を示す情報であり、画素ごとにその画素が副画面1003の一部が表示される領域であるか否かを示している。
動き補償部109は、動きベクトル検出部108から出力された動きベクトルデータおよびマイクロコンピュータ107から出力された領域データに基づいて、合成部106から出力された映像データに対しフレームレート変換処理を施す。なお、フレームレート変換処理においては、動き補償部109は、図2〜図5で説明した処理と同様の処理を行うものとする。
以上のように、本実施の形態においては、動きベクトル検出部108は、AVデコーダ104から出力される映像データに基づいて動きベクトルを検出する。それにより、主画面1002において、副画面1003により隠れる領域に存在する映像部分についても、前フレームと現フレームとの間で正確にマッチングを行うことができる。その結果、主画面1002において、前フレームと現フレームとの間で動きベクトルを高精度で検出することができる。
また、本実施の形態においては、主画面1002の現フレームにおいて副画面1003が表示される領域については、補間フレームにおいても副画面が表示される。また、主画面1002の後方補償フレームおよび前方補償フレームのどちらにおいても副画面1003が表示されている画素の輝度は、主画面1002の現フレームの輝度と前フレームの輝度との平均値に設定される。さらに、主画面1002の後方補償フレームのみにおいて副画面1003が表示されている画素については、前方補償フレームの映像データが用いられ、前方補償フレームのみにおいて副画面1003が表示されている画素については、後方補償フレームの映像データが用いられる。
この場合、主画面1002上で本来移動すべきではない副画面1003が移動することを防止することができるとともに、副画面1003が表示されるべき領域に主画面1002の映像が表示されることを防止することができる。すなわち、補間フレームにおいて、適切な位置に副画面1003を表示することができる。
以上の結果、高精度な動き補償を実現することができ、高画質の映像を安定して提供することが可能となる。
なお、上記の例においては、AVデコーダ104から出力される映像データについて動きベクトル検出部108が動きベクトルを検出しているが、さらに他の動きベクトル検出部を設け、AVデコーダ104aから出力される映像データについても動きベクトルを検出してもよい。この場合、副画面1003に表示される映像についても動き補償を行うことができるので、映像のさらなる高画質化が可能となる。
(6)第6の実施の形態
第6の実施の形態に係るテレビジョン受像機が第5の実施の形態に係るテレビジョン受像機100(図11)と異なるのは以下の点である。
図12は、第6の実施の形態に係るテレビジョン受像機100の構成を示すブロック図である。
図12に示すように、本実施の形態に係るテレビジョン受像機100においては、動きベクトル検出部108は、合成部106から出力される映像データに基づいて動きベクトルを検出する。
動き補償部109は、動きベクトル検出部108から出力された動きベクトルデータおよびマイクロコンピュータ107から出力された領域データに基づいて、合成部106から出力された映像データに対しフレームレート変換処理を施す。なお、フレームレート変換処理においては、動き補償部109は、図2〜図5で説明した処理と同様の処理を行うものとする。
この場合、現フレームにおいて副画面1003(図15参照)が表示されている領域においては、補間フレームにおいても副画面1003を表示され、現フレームにおいて副画面1003が表示されていない領域においては、補間フレームにおいても副画面1003を表示されない。また、後方補償フレームおよび前方補償フレームのどちらにおいても副画面1003が表示されている領域においては、その領域の輝度が、現フレームの輝度と前フレームの輝度との平均値に設定される。さらに、後方補償フレームのみにおいて副画面1003が表示されている領域においては、前方補償フレームの映像データが用いられ、前方補償フレームのみにおいて副画面1003が表示されている領域においては、後方補償フレームの映像データを用いられる。
したがって、補間フレームにおいて本来移動すべきではない副画面1003が移動することを防止することができるとともに、副画面1003が表示されるべき領域に他の映像が表示されることを防止することができる。すなわち、補間フレームにおいて、適切な位置に副画面1003を表示することができる。
以上の結果、安価な構成で高精度の動き補償を実現することが可能となる。
なお、領域データが副画面1003の外形線を含む一部領域(例えば、副画面1003の外枠部分)を示してもよい。この場合、副画面1003内の上記一部領域を除く領域については、主画面1002内の映像と同様に通常の動き補償が行われる。それにより、本来移動すべきではない主画面1002と副画面1003との境界部分が移動することを防止しつつ、高精度な動き補償を実現することができる。
(7)第7の実施の形態
第7の実施の形態に係るテレビジョン受像機が第3の実施の形態に係るテレビジョン受像機100(図9)と異なるのは以下の点である。
図13は、第7の実施の形態に係るテレビジョン受像機100の構成を示すブロック図である。
図13に示すように、本実施の形態に係るテレビジョン受像機100は、映像補正部111をさらに含む。本実施の形態においては、マイクロコンピュータ107は、領域データを動き補償部109および映像補正部111へ出力する。また、動き補償部109は、フレームレート変換処理後の映像データを映像補正部111へ出力する。
映像補正部111は、動き補償部109から出力される映像データに対して映像補正処理を施し、映像補正処理後の映像データを映像出力部110へ出力する。
詳細には、映像補正部111は、各フレームの映像において、領域データによって特定されるキャラクタ表示領域以外の領域の映像に対して映像補正処理を施す。したがって、例えば、現フレームにおいてキャラクタが表示される場合には、現フレームおよび補間フレームにおいては、キャラクタ以外の映像についてのみ映像補正が行われる。
なお、映像補正部111は、図2に示す領域データ編集部95および遅延部96を備え、現フレーム領域データPAD(図2)、後方補償領域データRAD(図2)、および前方補償領域データFAD(図2)を生成することができる。また、映像補正部111は、それらの領域データに基づいて各フレームのキャラクタ表示領域を特定することができる。
このように、本実施の形態においては、動き補償部109から出力される映像データのうちキャラクタデータ以外の映像データに対してのみ補正処理が施される。この場合、キャラクタ表示領域を有するフレームの映像補正を行う際に、補正後のキャラクタ以外の映像にキャラクタの映像要素(輝度および色等)が反映されることを防止することができる。それにより、本来補正されるべき映像(キャラクタ以外の映像)の画質が低下することを防止することができる。
また、キャラクタについては映像補正が行われないので、キャラクタ以外の映像の映像要素が映像補正後のフレームのキャラクタに反映されることが防止される。それにより、キャラクタの画質が低下することを防止することができる。
以上の結果、各フレームの映像の画質が低下することを確実に防止することができる。
以下、一例を挙げて映像補正部111において行われる映像補正について詳細に説明する。
図14は、映像補正部111の一例を示すブロック図である。
図14に示すように、映像補正部111は、第1の補正部11、第2の補正部12および特徴量抽出部13を含む。
動き補償部109から出力された映像データは、第1の補正部11および特徴量抽出部13に入力される。また、マイクロコンピュータ107から出力された領域データは、第1の補正部11、第2の補正部12および特徴量抽出部13に入力される。
なお、図示していないが、図14に示す映像補正部111は、領域データ編集部95(図2)および遅延部96(図2)を備える。また、第1の補正部11、第2の補正部12および特徴量抽出部13には、領域データとして現フレーム領域データPAD(図2)、後方補償領域データRAD(図2)、および前方補償領域データFAD(図2)のうちのいずれかが入力される。
特徴量抽出部13は、動き補償部109から出力される映像データによって生成される各フレームの映像の特徴量(例えば、輝度および色の分布)を抽出する。詳細には、特徴量抽出部13は、各フレームの映像において、領域データによって特定されるキャラクタ表示領域以外の領域の映像の特徴量抽出を行う。したがって、例えば、現フレームにおいてキャラクタが表示される場合には、現フレームおよび補間フレームにおいては、キャラクタ以外の映像についてのみ特徴量抽出が行われる。特徴量抽出部13は、抽出した各フレームの映像の特徴量を第1の補正部11へ与える。
第1の補正部11は、特徴量抽出部13から与えられる特徴量に基づいて、動き補償部109から出力される映像データによって生成される各フレームの映像のコントラスト補正およびブライトネス補正を行う。詳細には、第1の補正部11は、各フレームの映像において、領域データによって特定されるキャラクタ表示領域以外の領域の映像についてコントラスト補正およびブライトネス補正を行う。したがって、例えば、現フレームにおいてキャラクタが表示される場合には、現フレームおよび補間フレームにおいては、キャラクタ以外の映像についてのみコントラスト補正およびブライトネス補正が行われる。第1の補正部11は、補正後の映像データを第2の補正部12へ出力する。
第2の補正部12は、第1の補正部11から出力される映像データによって生成される各フレームの映像のシャープネス補正を行う。詳細には、第2の補正部12は、各フレームの映像において、領域データによって特定されるキャラクタデータ表示領域以外の領域の映像についてシャープネス補正を行う。したがって、例えば、現フレームにおいてキャラクタが表示される場合には、現フレームおよび補間フレームにおいては、キャラクタ以外の映像についてのみシャープネス補正が行われる。第2の補正部12は、補正後の映像データを映像出力部110へ出力する。
以上のように、本例の映像補正部111においては、キャラクタ以外の映像についてのみ特徴量抽出が行われるので、本来補正されるべき映像(キャラクタ以外の映像)の特徴量抽出を適切に行うことができる。それにより、第1の補正部11において、本来補正されるべき映像のコントラスト補正およびブライトネス補正を適切に行うことができる。
また、第1および第2の補正部11,12においては、キャラクタ以外の映像に対してのみ補正処理が施される。それにより、キャラクタ表示領域を有するフレームの映像補正を行う際に、補正後のキャラクタ以外の映像にキャラクタの映像要素が反映されることを防止することができる。その結果、本来補正されるべき映像の画質が低下することを確実に防止することができる。
なお、上記の例においては、第1の補正部11においてコントラスト補正およびブライトネス補正を行い、第2の補正部12においてシャープネス補正を行っているが、第1の補正部11および第2の補正部12において色補正等の他の映像補正を行ってもよい。
また、上記の例においては、映像補正部111においてキャラクタの映像補正を行っていないが、キャラクタの映像補正率をキャラクタ以外の映像の映像補正率よりも低くしてキャラクタの映像補正を行ってもよい。この場合、映像補正時に抽出されるキャラクタの映像要素の割合を低下させることができる。それにより、本来補正されるべき映像の画質が低下することを防止することができる。
また、上記の映像補正部111を図1、図7、図11および図12のテレビジョン受像機100に適用してもよい。この場合、キャラクタ、副画面1003(図15)、または副画面1003の外枠部分を除く領域の映像について補正が行われるので、キャラクタ、副画面1003または副画面1003の外枠部分の映像要素が映像補正後の各フレームの映像に反映されることが防止される。その結果、本来補正されるべき映像(キャラクタを除く領域の映像)の画質が低下することを防止することができる。
(8)他の実施の形態
上記実施の形態においては、マイクロコンピュータ107が生成した領域データに基づいてフレームレート変換処理を行っているが、領域データはマイクロコンピュータ107によって生成されなくてもよい。
例えば、放送局から送信される放送信号に予めキャラクタデータが含まれている場合、または放送局から送信される放送信号が予め複数の画面の映像データを含む場合等には、放送局から送信される放送信号に領域データが含まれてもよい。この場合、動き補償部109は放送信号に含まれる領域データに基づいてフレームレート変換処理を行うことができる。それにより、領域データを生成するためのマイクロコンピュータ107を設ける必要がなくなるので、テレビジョン受像機100の製品コストを低減することができる。
なお、放送局から送信される放送信号が予め複数の画面の映像データを含む場合には、領域データが副画面1003(図15参照)の外形線を含む一部領域(例えば、副画面1003の外枠部分)を示してもよい。この場合、副画面1003内の上記一部領域を除く領域については、主画面1002内の映像と同様に通常の動き補償が行われる。それにより、本来移動すべきではない主画面1002と副画面1003との境界部分が移動することを防止しつつ、高精度な動き補償を実現することができる。その結果、高画質の映像を安定して提供することが可能となる。
また、上記実施の形態においては、デジタルの放送信号を受信するテレビジョン受像機100について説明したが、テレビジョン受像機100がアナログの放送信号を受信する構成でもよい。
また、上記実施の形態においては、映像処理装置がテレビジョン受像機である場合について説明したが、映像処理装置が、携帯電話、カーテレビ、カーナビゲーション、PDA(Personal Digital Assistance:携帯情報端末)等の移動受信機であってもよい。
また、映像処理装置がDVD(デジタルバーサタイルディスク)再生装置、DVD記録再生装置、ハードディスク記録再生装置、セットトップボックス(STB)、またはデジタルチューナを備えたパーソナルコンピューター等であってもよい。この場合、音声出力部105は、音声出力装置を有さず音声出力端子を有し、映像出力部110は、映像表示装置を有さず映像出力端子を有する。音声出力端子および映像出力端子は、テレビジョン受像機の音声入力端子および映像入力端子に接続される。あるいは、音声出力端子および映像出力端子は、ディスプレイパネルの音声入力端子および映像入力端子に接続される。
また、上記実施の形態においては、チャンネル番号等のキャラクタをOSDで提示する場合、およびディスプレイパネル上に複数の画面を表示する場合について説明したが、字幕等の他のキャラクタを提示する場合、または画面の一部領域に電子番組ガイド(EPG:Electric Program Guide)を提示する場合等にも同様の効果を発揮することができる。これらの場合、動き補償部109は、字幕等が表示される領域を示す領域データまたは電子番組ガイドが表示される領域を示す領域データに基づいてフレームレート変換処理を行えばよい。
(9)各部の実現方法
上記実施の形態のテレビジョン受像機100の全ての構成要素が電子回路等のハードウエアにより実現されてもよく、あるいは一部の構成要素がCPU(中央演算処理装置)等のハードウエアとプログラム等のソフトウエアとにより実現されてもよい。
(10)請求項の各構成要素と実施の形態の各要素との対応
以下、請求項の各構成要素と実施の形態の各要素との対応の例について説明するが、本発明は下記の例に限定されない。
上記実施の形態では、AVデコーダ104から出力される映像データが第1のデータの例であり、キャラクタデータまたはAVデコーダ104aから出力される映像データが第2のデータの例であり、合成部106が合成データ生成部の例であり、動き補償部109が補間データ生成部の例であり、前方補償映像データFVDが第1の予測フレームのデータの例であり、後方補償映像データRVDが第2の予測フレームのデータの例であり、平均映像データAVDが第3の予測フレームのデータの例であり、前方補償領域データFADが第1の予測領域データの例であり、後方補償領域データRADが第2の予測領域データの例であり、領域データ編集部95が予測領域データ生成部の例である。
請求項の各構成要素として、請求項に記載されている構成または機能を有する他の種々の要素を用いることもできる。
本発明は、テレビジョン受像機、パーソナルコンピュータ、DVDレコーダ等に有効に利用可能である。
図1は第1の実施の形態に係るテレビジョン受像機の構成を示すブロック図 図2は動き補償部の主要部の構成を示すブロック図 図3は補間フレームの生成方法を説明するための図 図4は領域データを説明するための図 図5は映像データ選択部による映像データの選択処理を示すフローチャート 図6は動き補償部の他の例を示すブロック図 図7は第2の実施の形態に係るテレビジョン受像機の構成を示すブロック図 図8は図7の動きベクトル検出部による動きベクトルの検出方法を説明するための図 図9は第2の実施の形態に係るテレビジョン受像機の他の例および第3の実施の形態に係るテレビジョン受像機の構成を示すブロック図 図10は第4の実施の形態に係るテレビジョン受像機の動き補償部の主要部の構成を示すブロック図 図11は第5の実施の形態に係るテレビジョン受像機の構成を示すブロック図 図12は第6の実施の形態に係るテレビジョン受像機の構成を示すブロック図 図13は第7の実施の形態に係るテレビジョン受像機の構成を示すブロック図 図14は、映像補正部の一例を示すブロック図 図15はテレビジョン受像機のディスプレイパネルに2つの画面が同時に表示された場合の一例を示す図 図16はテレビジョン受像機のディスプレイパネルに2つの画面が同時に表示された場合の一例を示す図

Claims (22)

  1. 第1の映像を表示するための第1のデータおよび前記第1の映像上に表示される第2の映像を表示するための第2のデータが合成された合成データを処理する映像処理装置であって、
    複数のフレームの合成データから動きベクトルを検出する動きベクトル検出部と、
    前記複数のフレームの合成データおよび前記動きベクトル検出部により検出される動きベクトルに基づいて、2つのフレームを補間する補間フレームの補間データを生成する補間データ生成部とを備え、
    前記補間データ生成部は、
    前記2つのフレームのうち少なくとも一方のフレームにおいて前記第2の映像が表示される場合、前記補間フレームにおいて前記第2の映像の表示領域の少なくとも外周部に対応する領域の補間データを、前記動きベクトル検出部により検出された動きベクトルを用いずに生成する、映像処理装置。
  2. 前記補間データ生成部は、前記2つのフレームのうち少なくとも一方のフレームにおいて前記第2の映像が表示される場合、前記補間フレームの全ての領域の補間データを、前記動きベクトル検出部により検出された動きベクトルを用いずに生成する、請求項1記載の映像処理装置。
  3. 前記補間データ生成部は、前記2つのフレームのうち少なくとも一方のフレームにおいて前記第2の映像が表示される場合、前記補間フレームにおいて前記第2の映像の表示領域の少なくとも外周部に対応する領域の補間データとして前記第2のデータを生成する、請求項1記載の映像処理装置。
  4. 前記補間データ生成部は、各フレームにおいて第2の映像の表示領域を示す領域データに基づいて、前記少なくとも外周部に対応する領域を決定する、請求項1記載の映像処理装置。
  5. 前記補間データ生成部は、
    前記2つのフレームのうち時間軸上で前方および後方のフレームの合成データと前記動きベクトル検出部により検出される動きベクトルとに基づいて第1および第2の予測フレームのデータをそれぞれ生成し、
    前記第1の予測フレームにおける前記少なくとも外周部の領域と前記第2の予測フレームにおける前記少なくとも外周部の領域とが異なる場合に、補間フレームにおいて、前記第1および第2の予測フレームの一方における前記少なくとも外周部に対応する領域の補間データとして、他方の予測フレームの対応する領域のデータを選択する、請求項1記載の映像処理装置。
  6. 前記補間データ生成部は、前記前方および後方のフレームの合成データを用いた演算により第3の予測フレームのデータをさらに生成し、
    前記第1の予測フレームにおける前記少なくとも外周部の領域と前記第2の予測フレームにおける前記少なくとも外周部の領域とが等しい場合に、補間フレームにおいて、前記第1および第2の予測フレームにおける前記少なくとも外周部に対応する領域の補間データとして、前記第3の予測フレームの対応する領域のデータを選択する、請求項5記載の映像処理装置。
  7. 前記前方のフレームにおいて第2の映像の表示領域を示す領域データと前記動きベクトル検出部により検出される動きベクトルとに基づいて前記第1の予測フレームにおいて前記第2の映像の表示領域を示す第1の予測領域データを生成するとともに、前記後方のフレームにおいて第2の映像の表示領域を示す領域データと前記動きベクトル検出部により検出される動きベクトルとに基づいて前記第2の予測フレームにおいて前記第2の映像の表示領域を示す第2の予測領域データを生成する予測領域データ生成部をさらに備え、
    前記補間データ生成部は、前記予測領域データ生成部により生成される第1および第2の予測領域データに基づいて補間データを生成する、請求項5記載の映像処理装置。
  8. 前記第2のデータは、オンスクリーン表示のためのデータであり、
    前記少なくとも外周部の領域は、前記オンスクリーン表示のための領域の全てを含む、請求項1記載の映像処理装置。
  9. 第1の映像を表示するための第1のデータおよび第2の映像を表示するための第2のデータを処理する映像処理装置であって、
    前記第1のデータと前記第2のデータとを合成することにより、前記第1の映像上に前記第2の映像が表示される複数のフレームの合成データを生成する合成データ生成部と、
    複数のフレームの第1のデータから動きベクトルを検出する動きベクトル検出部と、
    前記合成データ生成部により生成される複数のフレームの合成データおよび前記動きベクトル検出部により検出される動きベクトルに基づいて、2つのフレームを補間する補間フレームの補間データを生成する補間データ生成部とを備える、映像処理装置。
  10. 前記補間データ生成部は、前記2つのフレームのうち少なくとも一方のフレームにおいて前記第2の映像が表示される場合、前記補間フレームにおいて前記第2の映像の表示領域に対応する領域の補間データを、前記動きベクトル検出部により検出された動きベクトルを用いずに生成する、請求項9記載の映像処理装置。
  11. 前記補間データ生成部は、前記2つのフレームのうち少なくとも一方のフレームにおいて前記第2の映像が表示される場合、前記補間フレームの全ての領域の補間データを、前記動きベクトル検出部により検出された動きベクトルを用いずに生成する、請求項9記載の映像処理装置。
  12. 前記補間データ生成部は、前記2つのフレームのうち少なくとも一方のフレームにおいて前記第2の映像が表示される場合、前記補間フレームにおいて前記第2の映像の表示領域に対応する領域の補間データとして前記第2のデータを生成する、請求項9記載の映像処理装置。
  13. 前記補間データ生成部は、各フレームにおいて第2の映像の表示領域を示す領域データに基づいて、前記第2の映像の表示領域に対応する領域を決定する、請求項10記載の映像処理装置。
  14. 前記補間データ生成部は、
    前記2つのフレームのうち時間軸上で前方および後方のフレームの合成データと前記動きベクトル検出部により検出される動きベクトルとに基づいて第1および第2の予測フレームのデータをそれぞれ生成し、
    前記第1の予測フレームにおける前記第2の映像の表示領域と前記第2の予測フレームにおける前記第2の映像の表示領域とが異なる場合に、補間フレームにおいて、前記第1および第2の予測フレームの一方における前記第2の映像の表示領域に対応する領域の補間データとして、他方の予測フレームの対応する領域のデータを選択する、請求項9記載の映像処理装置。
  15. 前記補間データ生成部は、前記前方および後方のフレームの合成データを用いた演算により第3の予測フレームのデータをさらに生成し、
    前記第1の予測フレームにおける前記第2の映像の表示領域と前記第2の予測フレームにおける前記第2の映像の表示領域とが等しい場合に、補間フレームにおいて、前記第1および第2の予測フレームにおける前記第2の映像の表示領域に対応する領域の補間データとして、前記第3の予測フレームの対応する領域のデータを選択する、請求項14記載の映像処理装置。
  16. 前記前方のフレームにおいて第2の映像の表示領域を示す領域データと前記動きベクトル検出部により検出される動きベクトルとに基づいて前記第1の予測フレームにおいて前記第2の映像の表示領域を示す第1の予測領域データを生成するとともに、前記後方のフレームにおいて第2の映像の表示領域を示す領域データと前記動きベクトル検出部により検出される動きベクトルとに基づいて前記第2の予測フレームにおいて前記第2の映像の表示領域を示す第2の予測領域データを生成する予測領域データ生成部をさらに備え、
    前記補間データ生成部は、前記予測領域データ生成部により生成される第1および第2の予測領域データに基づいて補間データを生成する、請求項14記載の映像処理装置。
  17. 前記第2のデータは、オンスクリーン表示のためのデータである、請求項9記載の映像処理装置。
  18. 第1の映像を表示するための第1のデータおよび前記第1の映像上に表示される第2の映像を表示するための第2のデータが合成された合成データを処理する映像処理装置であって、
    複数のフレームの合成データに基づいて2つのフレームを補間する補間フレームの補間データを生成する補間データ生成部と、
    前記複数のフレームおよび前記補間フレームの映像補正を行う映像補正部とを備え、
    前記映像補正部は、
    前記複数のフレームおよび前記補間フレームのうち前記第2の映像が表示されるフレームにおいては、前記第2の映像の映像補正を行わないか、または前記第2の映像の映像補正率を前記第1の映像の映像補正率よりも低く設定する、映像処理装置。
  19. 前記映像補正部は、前記第2の映像が表示されるフレームにおいては、前記第2のデータを用いずに映像補正を行う、請求項18記載の映像処理装置。
  20. 前記映像補正部は、前記合成データおよび前記補間データに基づいて前記複数のフレームおよび前記補間フレームの特徴量を抽出し、抽出される特徴量に基づいて前記複数のフレームおよび前記補間フレームの映像補正を行い、前記第2の映像が表示されるフレームにおいては前記第2のデータを用いずに前記特徴量を抽出する、請求項18記載の映像処理装置。
  21. 第1の映像を表示するための第1のデータおよび前記第1の映像上に表示される第2の映像を表示するための第2のデータが合成された合成データを処理する映像処理方法であって、
    複数のフレームの合成データから動きベクトルを検出するステップと、
    前記複数のフレームの合成データおよび前記動きベクトルに基づいて、2つのフレームを補間する補間フレームの補間データを生成するステップとを備え、
    前記補間データを生成するステップにおいて、
    前記2つのフレームのうち少なくとも一方のフレームにおいて前記第2の映像が表示される場合、前記補間フレームにおいて前記第2の映像の表示領域の少なくとも外周部に対応する領域の補間データを、前記動きベクトル検出部により検出された動きベクトルを用いずに生成する、映像処理方法。
  22. 第1の映像を表示するための第1のデータおよび第2の映像を表示するための第2のデータを処理する映像処理方法であって、
    前記第1のデータと前記第2のデータとを合成することにより、前記第1の映像上に前記第2の映像が表示される複数のフレームの合成データを生成するステップと、
    複数のフレームの第1のデータから動きベクトルを検出するステップと、
    前記複数のフレームの合成データおよび前記動きベクトルに基づいて、2つのフレームを補間する補間フレームの補間データを生成するステップとを備えた、映像処理方法。
JP2008534365A 2006-09-15 2007-09-12 映像処理装置および映像処理方法 Expired - Fee Related JP4878628B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008534365A JP4878628B2 (ja) 2006-09-15 2007-09-12 映像処理装置および映像処理方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2006251627 2006-09-15
JP2006251627 2006-09-15
PCT/JP2007/067748 WO2008032744A1 (fr) 2006-09-15 2007-09-12 Dispositif de traitement vidéo et procédé de traitement vidéo
JP2008534365A JP4878628B2 (ja) 2006-09-15 2007-09-12 映像処理装置および映像処理方法

Publications (2)

Publication Number Publication Date
JPWO2008032744A1 true JPWO2008032744A1 (ja) 2010-01-28
JP4878628B2 JP4878628B2 (ja) 2012-02-15

Family

ID=39183800

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008534365A Expired - Fee Related JP4878628B2 (ja) 2006-09-15 2007-09-12 映像処理装置および映像処理方法

Country Status (5)

Country Link
US (1) US8432495B2 (ja)
EP (1) EP2063636B1 (ja)
JP (1) JP4878628B2 (ja)
CN (1) CN101513051B (ja)
WO (1) WO2008032744A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5077037B2 (ja) * 2008-04-15 2012-11-21 株式会社Jvcケンウッド 画像処理装置
JP2011023902A (ja) * 2009-07-14 2011-02-03 Sony Corp 画像処理装置および画像処理方法
JP5574830B2 (ja) * 2010-06-03 2014-08-20 三菱電機株式会社 画像処理装置及び方法、並びに画像表示装置及び方法
JP2013031195A (ja) * 2012-08-29 2013-02-07 Jvc Kenwood Corp 画像処理装置
WO2019189195A1 (ja) * 2018-03-30 2019-10-03 株式会社ニコン 動画圧縮装置、電子機器、および動画圧縮プログラム

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4779131A (en) * 1985-07-26 1988-10-18 Sony Corporation Apparatus for detecting television image movement
JPH0783469B2 (ja) 1985-07-26 1995-09-06 ソニー株式会社 動きベクトル検出装置
JPH0779459B2 (ja) 1986-01-28 1995-08-23 ソニー株式会社 動き補正装置
GB2231750B (en) * 1989-04-27 1993-09-29 Sony Corp Motion dependent video signal processing
JPH0447785A (ja) 1990-06-14 1992-02-17 Sony Corp テレビジョン受像機
GB9013642D0 (en) 1990-06-19 1990-08-08 British Broadcasting Corp Video signal processing
GB2248361B (en) 1990-09-28 1994-06-01 Sony Broadcast & Communication Motion dependent video signal processing
US5191416A (en) * 1991-01-04 1993-03-02 The Post Group Inc. Video signal processing system
US5929919A (en) * 1994-04-05 1999-07-27 U.S. Philips Corporation Motion-compensated field rate conversion
JPH08149421A (ja) * 1994-11-22 1996-06-07 Oki Electric Ind Co Ltd 動きベクトルを用いた動き内挿方法および動き内挿回路
JPH09214899A (ja) 1996-01-31 1997-08-15 Nippon Hoso Kyokai <Nhk> 画像予測処理方法および装置
WO1999022520A2 (en) 1997-10-29 1999-05-06 Koninklijke Philips Electronics N.V. Motion vector estimation and detection of covered/uncovered image parts
US6975324B1 (en) * 1999-11-09 2005-12-13 Broadcom Corporation Video and graphics system with a video transport processor
CN1381025A (zh) * 2000-05-18 2002-11-20 皇家菲利浦电子有限公司 前景/背景检测装置
JP2003533800A (ja) * 2000-05-18 2003-11-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Mcアップコンバージョンにおけるハローを低減する動き推定器
EP1404130A1 (en) 2002-09-24 2004-03-31 Matsushita Electric Industrial Co., Ltd. Method and apparatus for processing a video signal mixed with an additional image signal
KR100563866B1 (ko) 2003-05-19 2006-03-23 매크로영상기술(주) 영상 신호의 디인터레이스 방법 및 장치
CN1853416B (zh) * 2003-09-17 2010-06-16 Nxp股份有限公司 运动矢量场的再定时
JP2005217971A (ja) * 2004-01-30 2005-08-11 Toshiba Corp オンスクリーン重畳装置
EP1585326A1 (en) 2004-03-30 2005-10-12 Matsushita Electric Industrial Co., Ltd. Motion vector estimation at image borders for frame rate conversion
EP1583364A1 (en) 2004-03-30 2005-10-05 Matsushita Electric Industrial Co., Ltd. Motion compensated interpolation of images at image borders for frame rate conversion
WO2006013510A1 (en) 2004-07-29 2006-02-09 Koninklijke Philips Electronics N.V. De-interlacing
JP4396496B2 (ja) 2004-12-02 2010-01-13 株式会社日立製作所 フレームレート変換装置、及び映像表示装置、並びにフレームレート変換方法
JP4489033B2 (ja) * 2005-03-25 2010-06-23 三洋電機株式会社 フレームレート変換装置、パン・チルト判定装置および映像装置
EP1931141A4 (en) 2005-09-30 2010-11-03 Sharp Kk IMAGE DISPLAY DEVICE AND METHOD
EP1950964A4 (en) * 2005-11-07 2012-05-16 Sharp Kk IMAGE DISPLAY DEVICE AND METHOD
WO2007063465A2 (en) 2005-11-30 2007-06-07 Nxp B.V. Motion vector field correction

Also Published As

Publication number Publication date
EP2063636B1 (en) 2012-12-12
EP2063636A1 (en) 2009-05-27
US20090303392A1 (en) 2009-12-10
WO2008032744A1 (fr) 2008-03-20
JP4878628B2 (ja) 2012-02-15
US8432495B2 (en) 2013-04-30
EP2063636A4 (en) 2010-05-05
CN101513051B (zh) 2012-09-12
CN101513051A (zh) 2009-08-19

Similar Documents

Publication Publication Date Title
US7742107B2 (en) Display apparatus and method for controlling the same
US7006156B2 (en) Image data output device and receiving device
US20040085480A1 (en) Method and video processing unit for processing a video signal
US8421922B2 (en) Display device, frame rate conversion device, and display method
US20090189912A1 (en) Animation judder compensation
JP2008160591A (ja) テレビジョン受信機及びそのフレームレート変換方法
JP4309453B2 (ja) 補間フレーム生成装置、補間フレーム生成方法及び放送受信装置
JP2005303999A (ja) 画素補間装置、画素補間方法、及びプログラム、及び記録媒体
JP2006287632A (ja) ノイズ低減装置およびノイズ低減方法
JP5255704B2 (ja) 映像表示装置
JP4878628B2 (ja) 映像処理装置および映像処理方法
US20080063308A1 (en) Frame interpolating circuit, frame interpolating method, and display apparatus
US7616264B1 (en) Cropped and scaled picture-in-picture system and method
JP2007279220A (ja) 画像表示装置
JP3115176U (ja) プラズマテレビジョンおよび画像表示装置
KR20050019614A (ko) 자막 위치 제어 장치 및 방법
JP2004328398A (ja) 映像情報処理装置
JP5219646B2 (ja) 映像処理装置及び映像処理装置の制御方法
JP4722672B2 (ja) 画像表示装置
EP1848203B2 (en) Method and system for video image aspect ratio conversion
US8817191B2 (en) Image processing apparatus and image processing method
JP5669456B2 (ja) 画像表示装置及びその制御方法
JP2009253567A (ja) テレビジョン受信機及びそのフレームレート変換方法
JP2006311061A (ja) 走査線変換回路
JP2011109245A (ja) 画像処理装置及び画像処理方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110614

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111122

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111128

R150 Certificate of patent or registration of utility model

Ref document number: 4878628

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141209

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees