JP2009071809A - 映像表示装置ならびに補間画像生成回路および方法 - Google Patents

映像表示装置ならびに補間画像生成回路および方法 Download PDF

Info

Publication number
JP2009071809A
JP2009071809A JP2008203122A JP2008203122A JP2009071809A JP 2009071809 A JP2009071809 A JP 2009071809A JP 2008203122 A JP2008203122 A JP 2008203122A JP 2008203122 A JP2008203122 A JP 2008203122A JP 2009071809 A JP2009071809 A JP 2009071809A
Authority
JP
Japan
Prior art keywords
frame
image
video
data
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008203122A
Other languages
English (en)
Inventor
Takaaki Hasegawa
隆朗 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2008203122A priority Critical patent/JP2009071809A/ja
Publication of JP2009071809A publication Critical patent/JP2009071809A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/014Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes involving the use of motion vectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/0122Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal the input and the output signals having different aspect ratios

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】映像ソースの内容等に応じて適切なフレーム補間処理を行う。
【解決手段】映像表示装置は、放送によって配信される映像を表示する。映像表示装置は、データ抽出部と、フレーム補間処理部とを備える。データ抽出部は、放送信号から、番組または番組の映像に関する情報を示す付加データを抽出する。フレーム補間処理部は、放送信号から抽出される映像データにより示される各フレームの画像から、補間フレームの画像を生成する。また、フレーム補間処理部は、データ抽出部によって抽出された付加データの内容に基づいて、補間フレームを生成するために用いられる動きベクトルに関する処理の内容を決定する。
【選択図】図1

Description

本発明は、映像表示装置および補間画像生成回路に関し、より特定的には、放送信号から得られる各フレームの画像から補間フレームの画像を生成する映像表示装置および補間画像生成回路に関する。
従来、例えば液晶テレビの問題点である動画ボケを改善するため等の目的で、補間フレームを生成することによって映像ソースのフレームレートより高いフレームレートで映像を表示する技術がある(例えば、特許文献1参照)。補間フレームを生成する際には、生成すべき補間フレームの前後のフレームの画像からブロック単位で動きベクトルを探索し、動きベクトルを用いて補間フレームの画像を生成することが一般的である。
特開2005−6275号公報
デジタル放送では、種々の内容の映像コンテンツが様々な形態で配信される。例えば、配信される映像コンテンツの内容は様々であり、スポーツ番組のように画像の動き(変化)が激しいものもあれば、画像の動きが少ないものもある。また、デジタル放送では、配信される映像ソースのフレームレートとその映像コンテンツの実際のコマ数とが異なる場合もある。具体的には、映画のコンテンツの場合、毎秒24コマの映像を、2フレームまたは3フレームの間同じ画像を連続させることによって毎秒60フレームの映像ソースとして配信されることがある。また、デジタル放送で配信される映像ソースには、動画のサイズが16:9である映像ソースもあれば、サイズが4:3である動画の左右両側に固定的な画像(サイドパネル)が付された映像ソースもある。
以上のように、デジタル放送で放送される映像ソースはその内容や形態が様々であり、フレーム補間処理を行う場合には、映像ソースの内容や形態等によって、適切なフレーム補間処理の内容が異なることが考えられる。したがって、すべての映像ソースに対して同じ処理内容でフレーム補間処理を行うとすれば、一部の映像ソースに対しては適切なフレーム補間処理を行うことができず、正確な補間フレームを生成することができないおそれがあった。
それ故、本発明の目的は、映像ソースの内容等に応じて適切なフレーム補間処理を行うことが可能な映像表示装置、補間画像生成回路、または補間画像生成方法を提供することである。
上記課題を解決するために、本発明は次の構成を採用した。すなわち、第1の発明は、放送によって配信される映像を表示する映像表示装置である。映像表示装置は、データ抽出部と、フレーム補間処理部とを備える。データ抽出部は、放送信号から、番組または番組の映像に関する情報を示す付加データを抽出する。フレーム補間処理部は、放送信号から抽出される映像データにより示される各フレームの画像から、補間フレームの画像を生成する。また、フレーム補間処理部は、データ抽出部によって抽出された付加データの内容に基づいて、補間フレームを生成するために用いられる動きベクトルに関する処理の内容を決定する。
なお、上記「動きベクトルに関する処理」とは、動きベクトルを算出するために実行される処理、および、算出された動きベクトルを用いて実行される処理を含む概念であり、少なくとも以下の処理を含む。
・動きベクトルの探索を行う処理(第1の実施形態、第3の変形例、第5の変形例)
・動きベクトルを算出するために用いるフレーム(またはフレーム数)を決定する処理(第2の実施形態、第4の変形例)
・動きベクトルを算出するか否かを決定する処理(第3の実施形態)
・動きベクトルを用いて生成される画像と、各フレームの画像を補間することによって得られる画像とを混合して補間フレームを生成する処理(第1の変形例)
・算出された動きベクトルを用いて、映像の一部分が静止しているか動いているかを判断する処理(第2の変形例)
・算出された動きベクトルを用いて、映像に含まれる物体の移動を検出する処理(第6の変形例)
第2の発明においては、データ抽出部は、番組のジャンルまたは番組を特定する情報を示すデータを付加データとして抽出してもよい。このとき、フレーム補間処理部は、前記動きベクトルに関する処理の内容を付加データに基づいて決定する。
第3の発明においては、フレーム補間処理部は、補間フレームの画像を生成するために用いられる動きベクトルの探索範囲を、付加データに基づいて決定してもよい。
第4の発明においては、フレーム補間処理部は、動きベクトルを算出するために用いるフレームを付加データに基づいて決定してもよい。
第5の発明においては、フレーム補間処理部は、動きベクトルの算出処理を実行するか否かを付加データに基づいて決定してもよい。
第6の発明においては、フレーム補間処理部は、動きベクトルを用いて生成される画像と、各フレームの画像を補間することによって得られる画像との混合割合を付加データに基づいて決定してもよい。
第7の発明においては、フレーム補間処理部は、映像の一部分が静止している、または、動いていると判断するための判断基準を付加データに基づいて決定してもよい。
第8の発明においては、フレーム補間処理部は、横方向および縦方向の探索処理の処理内容を付加データに基づいて決定してもよい。
第9の発明においては、フレーム補間処理部は、動きベクトルを算出するために参照するフレームの数を付加データに基づいて決定してもよい。
第10の発明においては、フレーム補間処理部は、映像全体のうちで他の領域に比べて高精度で探索を行う領域を付加データに基づいて決定する。
第11の発明においては、フレーム補間処理部は、動きベクトルの探索処理において1まとまりの物体として取り扱う大きさを付加データに基づいて決定してもよい。
第12の発明においては、データ抽出部は、表示装置に表示すべき画像の全領域のうちで動画が表示される領域を特定するための領域特定データを付加データとして抽出してもよい。このとき、フレーム補間処理部は、領域特定データにより特定される領域のみを対象として動きベクトルの算出処理を実行する。
第13の発明においては、領域特定データは、映像データにより示される画像のアスペクト比を示すデータであってもよい。このとき、フレーム補間処理部は、アスペクト比を示すデータに基づいて、動きベクトルの算出処理の処理対象となる領域を決定する。
第14の発明においては、領域特定データは、表示装置に表示すべき画像の全領域のうちで映像データにより示される画像を表示すべき領域を示すデータであってもよい。このとき、フレーム補間処理部は、領域特定データに基づいて、動きベクトルの算出処理の処理対象となる領域を決定する。
また、本発明は、上記データ抽出部およびフレーム補間処理部を備える補間画像生成回路の形態で提供されてもよいし、上記映像表示装置において実行される方法と同様の補間画像生成方法として提供されてもよい。
第1の発明によれば、映像表示装置は、放送信号から抽出される付加データの内容に応じて異なる内容で補間フレームの画像生成処理を実行することができる。すなわち、放送される番組のジャンルや、動画が実際に表示される領域を、付加データを用いて判断することによって、ジャンルや当該領域に応じた適切なフレーム補間処理を実行することができるので、映像ソースの内容等に応じて適切なフレーム補間処理を行うことができる。
第2の発明によれば、番組のジャンルまたは番組に応じた適切なフレーム補間処理を行うことができる。特に第3の発明によれば、ジャンルに基づいて動きベクトルの探索範囲を決定する。したがって、例えば、動きの激しいスポーツ等のジャンルの映像については探索範囲を広くし、他のジャンルについては探索範囲を狭くする等の処理を行うことができる。また、第4の発明によれば、補間フレームを生成するために用いるフレームをジャンルに基づいて決定する。したがって、例えば映画のジャンルのように、補間フレームを生成するために用いるフレームを通常とは異なるように指定する必要があるジャンルを容易に識別し、映画に適した方法でフレーム補間処理を実行することができる。また、第5の発明によれば、補間フレームの画像生成処理を実行するか否かをジャンルに基づいて決定する。したがって、例えば、アニメのジャンルのように、補間フレームを精度良く生成することが難しい場合には、フレーム補間処理を実行しないことにより、不正確な補間フレームが生成・表示されることを防止することができる。また、第6から第11の発明によれば、番組のジャンルまたは番組に応じて、動きベクトルに関する処理を適切に実行することができる。
第12の発明によれば、付加データとして領域特定データを抽出することによって、領域特定データにより特定される領域のみを対象としてフレーム補間処理を行う。これによって、実際に動画が表示される領域のみを対象としてフレーム補間処理を行うことができる。特に、第13の発明によれば、アスペクト比を示すデータを用いることにより、アスペクト比を調整するために動画に付加される画像(いわゆるサイドパネル)を処理対象から外してフレーム補間処理を実行することができる。また、第14の発明によれば、データ放送の画像が表示される領域を処理対象から外してフレーム補間処理を実行することができる。
(第1の実施形態)
以下、本発明の第1の実施形態に係る映像表示装置について説明する。図1は、第1の実施形態に係る映像表示装置の機能的な構成を示すブロック図である。図1において、映像表示装置は、フロントエンド2、トランスポートデコーダ3、映像デコーダ4、拡大縮小処理部5、番組情報解析部6、フレーム補間処理部7、および、表示部8を備えている。また、映像表示装置は、アンテナ1に接続されている。映像表示装置は、アンテナ1で受信された放送波から得られる映像を表示部8に表示するものである。以下、映像表示装置の各部の構成について説明する。
アンテナ1は、放送波(放送信号)を受信し、フロントエンド2へ出力する。フロントエンド2は、アンテナ1で受信された放送信号を復調してトランスポートストリームを生成する。なお、フロントエンド2は、チューナの機能を有していてもよい。生成されたトランスポートストリームはトランスポートデコーダ3へ出力される。トランスポートデコーダ3は、フロントエンド2に接続されており、トランスポートストリームをデコードする。これによって、映像ストリームおよび音声ストリームが抽出(生成)されるとともに、番組特定情報(PSI:Program Specific Information)や番組配列情報(SI:Service Information)のデータが抽出(生成)される。その他、トランスポートストリームをデコードすることによって、データ放送用のデータ(データ放送ストリーム)や字幕のデータ等が抽出される。トランスポートデコーダ3によって生成された各種のデータは、各種の処理に用いられるが、以下では、本発明に関連する処理である、映像を表示部8に表示する処理について主に説明する。
映像デコーダ4は、トランスポートデコーダ3に接続されており、上記映像ストリームをデコードすることによって、映像ストリームに含まれる各フレームの画像を生成する。生成された画像のデータは拡大縮小処理部5へ出力される。拡大縮小処理部5は、映像デコーダ4から出力された画像のデータに対して拡大・縮小処理を適宜行い、処理後の画像データをフレーム補間処理部7へ出力する。なお、拡大・縮小処理の詳細は後述する第4の実施形態で述べる。
一方、番組情報解析部6は、トランスポートデコーダ3に接続されており、トランスポートデコーダ3によって抽出されたSIのデータを取得する。第1の実施形態では、番組情報解析部6は、取得したSIのデータを解析し、取得したSIのデータから番組のジャンル情報のデータを抽出する。つまり、第1の実施形態では、番組のジャンル情報のデータが請求項に記載の付加データに相当し、番組情報解析部6が請求項に記載のデータ抽出部に相当する。なお、番組のジャンル情報は、ARIB標準規格のSTD−B10に記載されているように、SIとして送られてくるEIT(Event Information Table)に含まれるコンテント記述子を参照することによって得られる。ジャンル情報は、例えば「スポーツ」や「映画」や「アニメ」のように、番組の大略的なジャンルを示すものでもよいし、より詳細なジャンル(例えば「スポーツ」のジャンルに関して、「サッカー」や「野球」や「ゴルフ」等のジャンル)を示すものでもよい。また、上記付加データは、番組に関する情報であればよく、ジャンル情報に代えて、例えば番組の内容を示す情報や出演者の情報を用いてもよい。ジャンル情報のデータは、フレーム補間処理部7の動き検出処理部13へ出力される。
フレーム補間処理部7は、拡大縮小処理部5から出力された各フレームの画像から、補間フレームの画像を生成する処理(補間フレーム生成処理)を行う。フレーム補間処理部7は、補間フレーム生成部11、第1フレームメモリ12、動き検出処理部13、および、第2フレームメモリ14を備えている。
動き検出処理部13は、拡大縮小処理部5から出力された各フレームの画像データを用いて、動きベクトルを算出する。動きベクトルとは、画像の動き(移動)の向きおよび大きさ(移動量)を示すベクトルである。動きベクトルは、画像全体の動きを示すベクトルであってもよいし、画像を所定画素単位(例えば16×16画素単位や8×8画素単位)のブロックに分割した場合に、フレーム間におけるブロックの移動を示すベクトルであってもよい。第2フレームメモリ14は、上記画像データを記憶するためのメモリであり、動きベクトルを算出するために動き検出処理部13によって用いられる。なお、動きベクトルの算出方法としては種々の方法があるが、本実施形態においては動きベクトルの算出方法はどのような方法であってもよい。また、詳細は後述するが、第1の実施形態においては、動き検出処理部13は、番組情報解析部6からジャンル情報のデータを取得し、ジャンル情報の内容に応じて動きベクトルの算出処理の内容を変化させる。動き検出処理部13によって算出された動きベクトルを示すデータは、補間フレーム生成部11へ出力される。
補間フレーム生成部11は、拡大縮小処理部5から出力される各フレームの画像データと、動き検出処理部13から出力された動きベクトルを示すデータとを用いて、当該各フレームの補間フレームの画像データを生成する。そして、拡大縮小処理部5から出力された各フレームの画像データと、生成された補間フレームの画像データとを表示部8へ出力し、各画像データを表示部8に時間順に表示させる。なお、第1フレームメモリ12は、上記各画像データを記憶するためのメモリであり、補間フレームの画像データを生成するために補間フレーム処理部11によって用いられる。
表示部8は、液晶表示装置であり、補間フレーム生成部11から出力される画像データにより示される画像を表示する。これによって、表示部8は、映像ソース(放送波に含まれる映像ストリーム)のフレームレートよりも高いフレームレートで動画を表示することができ、いわゆる動画ボケを改善することができる。
次に、以上のように構成される映像表示装置の動作を説明する。まず、映像表示装置の動作概要を説明する。一般的なフレーム補間処理においては、動きベクトルの探索範囲は予め決められている。つまり、動き検出処理部13は、あるブロックに類似する部分(類似部分)を探索する際、画像全体を範囲として探索するのではなく、当該ブロックの位置を基準とした所定範囲内において当該ブロックの類似部分を探索する。これは、無駄な探索処理を省略することによってフレーム補間処理部の処理負荷を軽減することと、比較元のブロックとは実際には異なる部分が類似部分として選出される結果、誤った動きベクトルが算出されることを防止することとが理由である。
一方、放送される番組(映像コンテンツ)には様々な内容のものがあり、例えば、画像の動き(変化)が激しいものもあれば、画像の動きが少ないものもある。例えば、ジャンルがスポーツの番組のうちで、サッカーの番組は画像の動きが相対的に激しく、ゴルフの番組は画像の動きが相対的に少ないと言える。ここで、サッカーの番組のような、画像の動きが激しい番組については、動きベクトルの探索範囲をある程度広くしておく方が、正しい動きベクトルを算出することができ、フレーム補間処理を正確に行うことができる。一方、画像の動きが少ない番組では、探索範囲を相対的に狭くしておく方が、無駄な探索処理を省略することができるとともに、動きベクトルの誤検出を防止することができる。このように、適切な探索範囲の広さは、映像の内容に応じて(具体的には、画像の動きが激しいコンテンツかどうかによって)異なっている。
以上より、本実施形態では、映像表示装置は、上記ジャンル情報を用いて、表示する番組のジャンルを特定し、動きベクトルの探索範囲をジャンルに基づいて決定する。これによって、ジャンルに応じた適切な探索範囲を設定することができ、ジャンルに応じた正確なフレーム補間処理を行うことができる。
次に、図2を参照して、映像表示装置の動作の詳細を説明する。以下では、番組の種類を、ジャンルがサッカーであるもの、野球であるもの、ゴルフであるもの、およびその他のもの、という4種類に分け、種類毎に異なる探索範囲を設定する場合を例として説明する。
フロントエンド2、トランスポートデコーダ3、映像デコーダ4、および拡大縮小処理部5の動作は、上述した通りである。また、番組情報解析部6は、上述したように、トランスポートデコーダ3によって抽出されたSIのデータから番組のジャンル情報のデータを抽出する。以下、動き検出処理部13の動作を中心に、フレーム補間処理部7の動作を説明する。
図2は、動き検出処理部13における処理の流れを示すフローチャートである。なお、図2に示すステップS1〜S9の処理は、1フレーム時間に1回の割合で実行される。つまり、動き検出処理部13は、1フレーム分の画像データを拡大縮小処理部5から取得する度に図2に示すステップS1〜S9の処理を実行する。
まずステップS1において、動き検出処理部13は、番組情報解析部6から番組のジャンル情報のデータを取得する。すなわち、動き検出処理部13は、番組情報解析部6に対してジャンル情報の取得要求を行う。番組情報解析部6は、この取得要求に応じてジャンル情報のデータを動き検出処理部13へ出力する。なお、番組情報解析部6は、トランスポートデコーダ3によって抽出されたSIのデータから抽出される最新のジャンル情報のデータを記憶しておく。そして、上記取得要求があった場合には、記憶している最新のジャンル情報のデータを出力する。
続くステップS2において、動き検出処理部13は、ステップS1で取得されたジャンル情報のデータが、「サッカー」のジャンルを示すか否かを判定する。ステップS2の判定結果が肯定の場合、ステップS3の処理が実行される。一方、ステップS2の判定結果が否定の場合、後述するステップS4の処理が実行される。
ステップS3において、動き検出処理部13は、動きベクトルの探索距離を、予め定められた所定値L1に決定する。ここで、探索距離とは、動きベクトルの探索範囲を特定する情報であり、本実施形態では、類似部分を探索すべき対象となるブロックの位置を基準に当該探索距離以内の範囲が探索範囲とされる。すなわち、ステップS3の処理によって、動きベクトルの探索範囲が設定されたこととなる。なお、所定値L1は、サッカーの映像に適した探索距離の値である。ステップS3の後、後述するステップS9の処理が実行される。
一方、ステップS4において、動き検出処理部13は、ステップS1で取得されたジャンル情報のデータが、「野球」のジャンルを示すか否かを判定する。ステップS4の判定結果が肯定の場合、ステップS5の処理が実行される。一方、ステップS4の判定結果が否定の場合、後述するステップS6の処理が実行される。
ステップS5において、動き検出処理部13は、動きベクトルの探索距離を、予め定められた所定値L2に決定する。ここで、探索距離L2は、野球の映像に適した探索距離の値である。したがって、ステップS5の場合(ジャンルが野球である場合)には、ステップS3の場合(ジャンルがサッカーである場合)とは異なる探索範囲が設定される。ステップS5の後、後述するステップS9の処理が実行される。
一方、ステップS6において、動き検出処理部13は、ステップS1で取得されたジャンル情報のデータが、「ゴルフ」のジャンルを示すか否かを判定する。ステップS6の判定結果が肯定の場合、ステップS7の処理が実行される。一方、ステップS6の判定結果が否定の場合、後述するステップS8の処理が実行される。
ステップS7において、動き検出処理部13は、動きベクトルの探索距離を、予め定められた所定値L3に決定する。ここで、探索距離L3は、ゴルフの映像に適した探索距離の値である。したがって、ステップS7の場合(ジャンルがゴルフである場合)には、ステップS3およびステップS5の場合(ジャンルがサッカーおよび野球である場合)とは異なる探索範囲が設定される。ステップS7の後、後述するステップS9の処理が実行される。
一方、ステップS8において、動き検出処理部13は、動きベクトルの探索距離を、予め定められた所定値L4に決定する。ここで、探索距離L4は、上記サッカー、野球、およびゴルフ以外の一般的な番組の映像に用いられる、標準的な探索距離の値である。このとき、ステップS8の場合(ジャンルがサッカー、野球、およびゴルフ以外である場合)、ステップS3,S5およびS7の場合(ジャンルがサッカー、野球、およびゴルフである場合)とは異なる探索範囲が設定される。ステップS8の後、後述するステップS9の処理が実行される。
ステップS9において、動き検出処理部13は、ステップS3、S5、S7またはS8で設定された探索範囲内で動きベクトルを算出する。これによって、番組のジャンルに応じて異なる探索範囲に従って動きベクトルが算出されることとなる。なお、動き検出処理部13は、ステップS3、S5、S7またはS8で決定された探索範囲に従って動きベクトルを算出する他は、番組のジャンルによらず同じ処理を行ってもよい。ステップS9において算出された動きベクトルのデータは、補間フレーム生成部11に出力される。以上で、動き検出処理部13における処理の説明を終了する。
以上のように動きベクトルが算出されると、補間フレーム生成部11は、拡大縮小処理部5から出力される各フレームの画像データと、動き検出処理部13から出力された動きベクトルを示すデータとを用いて、当該各フレームの補間フレームの画像データを生成する。なお、連続する2つのフレーム間に挿入される補間フレームの数はいくつであってもよい。表示部8は、拡大縮小処理部5から出力された各フレームの画像データ、および、生成された補間フレームの画像データを補間フレーム生成部11から入力し、各画像データにより示される画像を表示する。以上で、第1の実施形態における映像表示装置の動作の説明を終了する。
以上に示した第1の実施形態によれば、映像表示装置は、放送信号に含まれるSIのデータから番組のジャンル情報のデータを取得する(ステップS1)ことにより、番組のジャンルを特定する。そして、番組のジャンルが「サッカー」、「野球」、「ゴルフ」、およびその他のうちのいずれであるかに応じて、動きベクトルの探索範囲を異なる大きさに決定する(ステップS2〜S8)。そのため、映像表示装置は、番組のジャンルの違いに応じて適切な探索範囲で動きベクトルを算出することができる。換言すれば、第1の実施形態によれば、番組の内容が画像の動きが激しいものであるかどうかをジャンル情報から推測することによって、番組の内容が画像の動きが激しいものであるかそうでないかに応じて適切なフレーム補間処理を行うことができる。
また、上記第1の実施形態では、番組のジャンルに応じて探索範囲を変更するようにしたが、他の実施形態においては、探索範囲とともに探索の精度を変更するようにしてもよい。例えば、相対的に広い範囲を探索する場合には探索の精度を相対的に低く(例えば、1/2画素単位で探索を行う)し、相対的に狭い範囲を探索する場合には探索の精度を相対的に高く(例えば、1/4画素単位で探索を行う)してもよい。
なお、上記第1の実施形態では、番組のジャンルに応じて探索範囲を変化させる例として、サッカー、野球、およびゴルフ等のジャンルに応じて探索範囲を変化させる例を挙げたが、番組のジャンルの例は上記に限らない。例えば、ジャンルが「スポーツ」である番組については探索範囲を相対的に広くし、「スポーツ」以外のジャンルの番組については探索範囲を相対的に狭くするようにしてもよい。
また、上記第1の実施形態においては、付加データに応じて動きベクトルの探索範囲を変更したが、本発明においては、動きベクトルに関する処理の内容を付加データの内容に応じて決定すればどのようなものであってもよく、例えば以下のような変形例が考えられる。
(第1の変形例)
補間フレームを作成する場合においては、映像表示装置は、動きベクトルを用いて生成した画像と、前後のフレームの画像を単純に補間することによって得られる画像(動きベクトルを用いずに生成される画像)とを混合して補間フレームの画像を作成することがある。一方、ある映像ソースについては、動きベクトルを用いても補間フレームの画像をうまく生成できないことが考えられる。補間フレームの画像をうまく生成できない映像ソースの一例としては、野球の映像において、スコアの文字情報が動画に重ねて表示される場合のように、動きのある動画に固定的な画像が重ねられた映像ソースが考えられる。このような映像ソースについては、文字情報の領域において動きベクトルを用いても補間フレームの画像をうまく生成できないのである。したがって、上記のような映像ソースについては、動きベクトルを用いるよりも単純補間の方が好ましいと考えられる。以上より、第1の変形例においては、特定の番組について、動きベクトルを用いても補間フレームの画像をうまく生成することが難しいことが予めわかっている場合、当該特定の番組については、動きベクトルを用いて生成される画像の混合割合を低くし、単純補間による画像の混合割合を高くするようにする。これによれば、上記特定の番組においても適切な補間フレームを生成することができる。
第1の変形例においては、補間フレームに対する動きベクトルの影響度合(すなわち、上記の混合割合。)を付加データ(ここでは、番組を特定する情報)に応じて変更する。具体的には、第1の変形例においては、番組情報解析部6は、番組を特定する情報(例えば番組名の情報)を抽出し、補間フレーム生成部11に出力する。補間フレーム生成部11は、動きベクトルを用いて画像を生成するとともに、単純補間によって画像を生成する。そして、補間フレーム生成部11は、番組情報解析部6から出力される番組名の情報に基づいて上記混合割合を変化させて、補間フレームの画像を生成する。補間フレームの画像は、番組名の情報が所定の番組名を示す場合には、所定の番組名以外の番組名を示す場合よりも、単純補間による画像の混合割合が高くなるように、生成される。例えば、補間フレーム生成部11が混合割合をある範囲内で(例えば映像内容等に応じて)動的に変化させて補間フレームの画像を生成する場合には、補間フレーム生成部11は、上記番組名の情報が上記所定の番組名を示すか否かに応じて当該範囲を変化させるようにしてもよい。
また、補間フレーム生成部11は、所定の番組を複数設定しておいてもよい。すなわち、補間フレーム生成部11は、所定の番組毎に上記混合割合(または混合割合を動的に変化させる場合には変化させる範囲)を対応付けた情報を記憶しておき、当該情報に従って混合割合を決定するようにしてもよい。
なお、上記第1の変形例においては、映像表示装置が番組名に応じて混合割合を変化させる場合を例として説明したが、映像表示装置は付加データに応じて混合割合を変化させることが可能である。例えば、他の実施形態においては、映像表示装置は番組のジャンルに応じて混合割合を変化させるようにしてもよい。また、例えば、後述する第3の実施形態においては、映像表示装置は、番組のジャンルがアニメか否かに応じてフレーム補間処理を実行するか否かを決定するが、他の実施形態においては、番組のジャンルがアニメである場合には、他のジャンルである場合に比べて、単純補間による画像の混合割合を高くするようにしてもよい。
(第2の変形例)
補間フレームを作成する場合においては、動きベクトルの検出結果に基づいて、映像に含まれる各部分が静止しているか動いているかを判別する処理が実行されることがある。例えば、映像ソースが、文字情報等の静止画が半透明で動画に重ねられたものである場合がある。このような場合においては、映像の各部分が静止しているかまたは動いているかの判断基準を通常の映像とは異なるように設定した方が、補間フレームを適切に生成する上で好ましいと考えられる。そこで、第2の変形例においては、上記の判別処理の判断基準、すなわち、映像の一部分が静止していると判断するか、動いていると判断するかの判断基準(閾値)を、付加データ(例えば、番組名の情報)に応じて変更する。
具体的には、第2の変形例においては、番組名の情報を抽出し、補間フレーム生成部11に出力する。ここで、補間フレーム生成部11は、補間フレームを生成する際に上記判別処理を実行するものとする。例えば、補間フレーム生成部11は、映像の各部分が静止している度合を検出する第1回路と、映像の各部分が動いている度合を検出する第2回路とを含む。補間フレーム生成部11は、これら第1および第2の回路の検出結果に基づいて、映像の各部分が静止しているか動いているかを判別し、判別結果に応じて補間フレームの生成処理の内容を変更する。このとき、補間フレーム生成部11は、番組情報解析部6から出力される番組名の情報に基づいて第1および/または第2の回路における検出基準を変更する。この検出基準とは、例えば、映像の一部分が静止していること(または動いていること)が数値で表される場合、静止している(または動いている)と判断する閾値である。例えば、特定の番組の映像ソースが、文字情報等の静止画が半透明で動画に重ねられたものであることが予めわかっている場合には、補間フレーム生成部11は、当該特定の番組については、他の番組よりも、静止していると判断されやすくなるように、上記検出基準を設定すればよい。
上記第2の変形例によれば、予め定められた特定の番組について、上記判断基準を適切に設定することができるので、番組に応じて適切な補間フレームを生成することができる。なお、第2の変形例においても第1の変形例と同様、付加データに応じて上記判断基準を変更するようにすればよく、番組名の情報に応じて判断基準を変更する他、番組のジャンルに応じて判断基準を変化させるようにしてもよい。
(第3の変形例)
動きベクトルを探索する処理においては、画像の横方向と縦方向とで別個に動きベクトルを探索する場合がある。ここで、映像ソースによっては、例えばサッカーの映像のように、横方向の動きが特に多く、縦方向の動きがほとんどないようなものも考えられる。このような映像ソースにおいては、縦方向に関する(動きベクトルの)探索処理を簡略化し、横方向に関する探索処理を詳細に行うことにより、正確な補間フレームを得るとともに処理を簡易化することができ、適切であると考えられる。そこで、第3の変形例においては、各方向における探索処理の内容を、付加データ(例えば、番組のジャンルの情報)に応じて変更する。
具体的には、第3の変形例においては、番組情報解析部6は、番組のジャンル情報を抽出し、動き検出処理部13に出力する。動き検出処理部13は、画像の横方向の探索処理と縦方向の探索処理との処理内容を番組のジャンル情報に応じて変更する。本変形例では、動き検出処理部13は、番組のジャンル情報が所定のジャンル(例えばサッカー)を示す場合、各方向の探索処理の精度を、通常(番組のジャンル情報が所定のジャンル以外を示す場合)とは異なるように設定する。例えば、動き検出処理部13は、番組のジャンル情報が所定のジャンルを示す場合、横方向の探索処理の精度を相対的に高くし、縦方向の探索処理の精度を相対的に低くする。あるいは、動き検出処理部13は、番組のジャンル情報が所定のジャンルを示す場合、各方向の探索範囲を変更する(例えば、横方向の探索範囲を相対的に広くし、縦方向の探索範囲を相対的に狭くする)ようにしてもよい。
以上のように、第3の変形例によれば、画像の横方向と縦方向における探索処理の内容を番組のジャンルに応じて変更することができるので、映像ソースに応じた適切な補間フレームを生成することができる。なお、第3の変形例においては、横方向と縦方向における探索処理の内容を付加データに応じて変更するようにすればよく、第1の変形例と同様、番組名の情報に応じて当該探索処理の内容を変更するようにしてもよい。
(第4の変形例)
第4の変形例においては、映像表示装置は、動きベクトルを算出するために参照するフレームの数を、付加データに応じて変更するようにしてもよい。具体的には、番組情報解析部6は、番組のジャンル情報を抽出し、動き検出処理部13に出力する。動き検出処理部13は、動きベクトルを算出するために参照するフレームの数を番組のジャンル情報に応じて変更する。例えば上記第1の実施形態において、動きベクトルの探索範囲が相対的に広く設定されるジャンルについては、参照するフレーム数は小さく設定され、動きベクトルの探索範囲が相対的に狭く設定されるジャンルについては、参照するフレーム数は大きく設定される。これによれば、画像の動きが激しい番組については、(探索範囲が大きい代わりに)フレーム数を小さくすることによって、処理負荷が過大にならないようにすることができるとともに、画像の動きが少ない番組については、フレーム数を大きくすることによって、動きベクトルを精度良く算出することができる。
以上のように、第4の変形例によれば、動きベクトルを算出するために参照するフレームの数を番組のジャンルに応じて変更することで、映像ソースに応じた適切な補間フレームを生成するとともに、処理負荷が増大することを防止することができる。なお、第4の変形例においては、上記フレーム数を付加データに応じて変更するようにすればよく、第1の変形例と同様、番組名の情報に応じて当該フレーム数を変更するようにしてもよい。
(第5の変形例)
第5の変形例においては、映像表示装置は、画像全体のうちで、重点的に(高精度で)動きベクトルを探索する範囲を、付加データに応じて変更するようにしてもよい。具体的には、番組情報解析部6は、番組のジャンル情報を抽出し、動き検出処理部13に出力する。動き検出処理部13は、高精度で動きベクトルを算出する範囲を番組のジャンル情報に応じて変更する。例えば、ジャンル情報が特定のジャンル(例えばテニス)を示す場合、動き検出処理部13は、画像全体のうちで所定の領域について相対的に高精度で動きベクトルを算出し、他の領域については相対的に低い精度で動きベクトルを算出する。一方、ジャンル情報が上記特定のジャンル以外を示す場合、動き検出処理部13は、画像全体について同じ精度で動きベクトルを算出する。例えば、テニスの映像は、画像全体のうちでボールのみが激しく動いている一方、その他の部分はほとんど動きがない、という特徴がある。したがって、テニスの映像に関しては、ボールの周囲の領域について動きベクトルを高精度で算出することによって、適切な補間フレームを生成することができるとともに、他の領域については算出精度を下げることで、処理の軽減を図ることができる。
以上のように、第5の変形例によれば、高精度で動きベクトルを探索する範囲を番組のジャンルに応じて変更することで、映像ソースに応じた適切な補間フレームを生成するとともに、処理負荷が増大することを防止することができる。なお、第5の変形例においても第4の変形例と同様、高精度で動きベクトルを探索する範囲を付加データに応じて変更するようにすればよく、例えば番組名の情報に応じて変更するようにしてもよい。
(第6の変形例)
第6の変形例においては、映像表示装置は、動きベクトルの探索処理において検出される物体の大きさを、付加データに応じて変更するようにしてもよい。一般的に動きベクトルを探索する際には、所定数の画素(ブロック)を単位として行われ、ある基準数以上のブロックがまとまって移動している場合に、(当該基準数以上のブロックが1つの物体であると検出され)物体が移動していると判断される。ここで、例えばテニスの映像については、ボールが比較的小さく表示されるので、上記基準数を相対的に小さく設定することが好ましい。これに対して、例えばサッカーやバスケットボールの映像については、ボールは比較的大きく表示されるので、(上記基準数を必要以上に小さくすると、かえって物体を誤検出してしまうおそれがあることから)上記基準数を相対的に大きく設定すべきである。そこで、第6の変形例においては、物体が移動していると判断するための上記基準数の大きさを、付加データに応じて変更する。
具体的には、番組情報解析部6は、番組のジャンル情報を抽出し、動き検出処理部13に出力する。動き検出処理部13は、上記基準数の値を番組のジャンル情報に応じて変更する。例えば、ジャンル情報が特定のジャンル(例えばテニス)を示す場合、動き検出処理部13は、上記基準数を相対的に小さい値(例えば4ブロック)に設定する。一方、ジャンル情報が上記特定のジャンル以外を示す場合、動き検出処理部13は、上記基準数を相対的に大きい値(例えば9ブロック)に設定する。このように、番組のジャンルに応じて上記基準数を変更することによって、番組のジャンルに応じた適切な基準数を設定することができ、映像ソースに応じた適切な補間フレームを生成することができる。
以上のように、第6の変形例によれば、動きベクトルの探索処理において1まとまりの物体として取り扱う大きさを番組のジャンルに応じて変更することで、映像ソースに応じた適切な補間フレームを生成することができる。なお、第6の変形例においても第4の変形例と同様、上記大きさを付加データに応じて変更するようにすればよく、例えば番組名の情報に応じて変更するようにしてもよい。
(第2の実施形態)
次に、第2の実施形態に係る映像表示装置について説明する。第2の実施形態に係る映像表示装置の構成は、図1に示す構成と同じであるので、各部の詳細な説明は省略する。第2の実施形態では、映像表示装置は、番組のジャンルが映画であるか、その他のジャンルであるかに応じて異なるフレーム補間処理(より具体的には、動きベクトルの算出処理)を行う。
デジタル放送では毎秒60フレームの映像ソースが配信されるが、映画は一般的には毎秒24コマの映像である。そのため、映画のコンテンツをデジタル放送の番組として配信する場合には、毎秒24コマの映像を、2フレームまたは3フレームの間同じ画像を連続させることによって毎秒60フレームの映像ソースとして配信されることがある。図3は、毎秒24コマの映像を毎秒60フレームの映像ソースとして配信する場合における各フレームの画像の一例を示す図である。この場合、図3に示すように、1つの画像(図3に示す画像A)を3回連続させた後で次の画像(図3に示す画像B)を2回連続させることが繰り返される。
上記のような場合、連続する2フレーム間の補間フレームを当該2フレームを用いて生成しても、当該2フレームの画像が同じ場合があるので、動画ボケを改善することができない。そのため、上記のような場合には、補間フレームを生成するために用いる対象とするフレームを適宜設定する必要がある。具体的には、図3に示す第nのフレームと第n+3のフレームとの間の補間フレームは、画像Aと画像Bとを用いて生成する。また、図3に示す第n+3のフレームと第n+5のフレームとの間の補間フレームは、画像Bと画像Cとを用いて生成する。
以上のように、番組が映画のコンテンツである場合(毎秒24コマの映像)には、通常の場合(毎秒60コマの映像の場合)とは、フレーム補間処理の内容を異ならせる必要がある。そこで、第2の実施形態では、映像表示装置は、番組のジャンル情報から番組が映画のコンテンツであるかどうかを判別し、映画のコンテンツである場合と映画のコンテンツでない場合とで異なるフレーム補間処理を行う。以下、第2の実施形態における映像表示装置の動作の詳細を説明する。
フロントエンド2、トランスポートデコーダ3、映像デコーダ4、および拡大縮小処理部5の動作は、第1の実施形態と同様である。また、番組情報解析部6も第1の実施形態と同様、トランスポートデコーダ3によって抽出されたSIのデータから番組のジャンル情報のデータを抽出する。
図4および図5は、動き検出処理部13における処理の流れを示すフローチャートである。なお、図4に示すステップS11〜S13の処理は、1フレーム時間に1回の割合で実行される。
まずステップS11において、動き検出処理部13は、モード判別処理を行う。モード判別処理は、フレーム補間処理のモードを通常モードとするかそれとも映画モードとするかを判別する処理である。以下、図5を参照して、モード判別処理の詳細を説明する。
図5は、図4に示すステップS11(モード判別処理)の詳細を示すフローチャートである。まずステップS21において、動き検出処理部13は、番組情報解析部6から番組のジャンル情報のデータを取得する。第2の実施形態では、番組のジャンル情報のデータが、請求項に記載の「付加データ」に相当する。ステップS21の処理は図2に示したステップS1の処理と同様である。
続くステップS22において、動き検出処理部13は、ステップS21で取得されたジャンル情報のデータが、「映画」のジャンルを示すか否かを判定する。ステップS22の判定結果が肯定の場合、ステップS23の処理が実行される。一方、ステップS22の判定結果が否定の場合、後述するステップS24の処理が実行される。
ステップS23において、動き検出処理部13は、映画モードの閾値として、予め定められた所定値c1を設定するとともに、通常モードの閾値として、予め定められた所定値c2を設定する。ここで、映画モードの閾値とは、後述するステップS29でフレーム補間処理のモードを映画モードとするか否かを判定するために用いられる値である。通常モードの閾値とは、後述するステップS33でフレーム補間処理のモードを通常モードとするか否かを判定するために用いられる値である。ステップS23の後、ステップS25の処理が実行される。
一方、ステップS24において、動き検出処理部13は、映画モードの閾値として、予め定められた所定値c3を設定するとともに、通常モードの閾値として、予め定められた所定値c4を設定する。ここで、所定値c3は、上記所定値c1よりも大きい値である。また、所定値c4は、上記所定値c2と同じであってもよい。ステップS24の後、ステップS25の処理が実行される。
ステップS25において、動き検出処理部13は、拡大縮小処理部5から取得される各フレームの画像を比較する。具体的には、今回取得した最新のフレームの画像と、前回に取得したフレームの画像とが同じであるかどうかを比較し、結果を記憶しておく。
続くステップS26において、動き検出処理部13は、現在取得している映像が毎秒24コマの映像の可能性があるか否かを判定する。ステップS26の判定は、ステップS25の比較結果を利用して行われる。すなわち、今回取得した画像と前回取得した画像とが2回連続して異なっているか否かを判定する。そして、今回取得した画像と前回取得した画像とが2回連続して異なっていれば、現在取得している映像が毎秒24コマの映像の可能性がないと判断する。一方、今回取得した画像と前回取得した画像とが異なっている状態が2回連続していなければ、現在取得している映像が毎秒24コマの映像の可能性があると判断する。上記ステップS26の判定結果が肯定の場合、ステップS27〜S30の処理が実行される。一方、ステップS26の判定結果が否定の場合、後述するステップS31〜S34の処理が実行される。なお、ステップS26の判定処理は、現在取得している映像が毎秒24コマの映像であるか否かを判定する処理ではない。つまり、ステップS26の判定結果が肯定の場合であっても、必ずしも映画モードに設定されるわけではない。
ステップS27〜S30においては、映画モードに設定するか否かを決定するための処理が実行される。すなわち、ステップS27において、動き検出処理部13は、拡大縮小処理部5から取得されるフレームのシーケンスについて、ある画像が3回連続した後で次の画像が2回連続する状態が繰り返される回数に応じて第1カウント値Smを増加させる。第1カウント値Smは、上記状態が繰り返された回数を示し、1つの画像が3回連続した後で次の画像が2回連続した時点で、1だけインクリメントされる。上記第1カウント値Smの値は、フレーム補間処理部7のメモリに記憶される。
続くステップS28において、動き検出処理部13は、第2カウント値Snの値をリセットする(すなわち、“0”に設定する)。なお、第2カウント値Snは、前回のフレームと異なる画像が取得された状態が繰り返される回数を示す。上記第2カウント値Snの値は、フレーム補間処理部7のメモリに記憶される。
続くステップS29において、動き検出処理部13は、第1カウント値Smの値が映画モードの閾値(c1またはc3)以上となったか否かを判定する。ステップS29の判定結果が肯定の場合、ステップS30の処理が実行される。すなわち、ステップS30において、動き検出処理部13は、フレーム補間処理のモードを映画モードに設定する。一方、ステップS29の判定結果が否定の場合、ステップS30の処理がスキップされ、動き検出処理部13はモード判別処理を終了する。
一方、ステップS31において、動き検出処理部13は、第2カウンタ値Snの値を1だけインクリメントする。続くステップS32において、第1カウント値Smの値をリセットする(すなわち、“0”に設定する)。続くステップS33において、動き検出処理部13は、第2カウント値Snの値が通常モードの閾値(c2またはc4)以上となったか否かを判定する。ステップS33の判定結果が肯定の場合、ステップS34の処理が実行される。すなわち、ステップS34において、動き検出処理部13は、フレーム補間処理のモードを通常モードに設定する。一方、ステップS29の判定結果が否定の場合、ステップS30の処理がスキップされ、動き検出処理部13はモード判別処理を終了する。
以上のように、第2の実施形態のモード判別処理においては、動き検出処理部13は、番組のジャンルが映画であるか否かを判定し(ステップS22)、映画である場合には映画モードの閾値をc1に設定し(ステップS23)、映画でない場合には映画モードの閾値をc3に設定する(ステップS23)。さらに、ある画像が3回連続した後で次の画像が2回連続する状態が繰り返される回数Smをカウントする(ステップS27)。そして、カウント値Smが映画モードの閾値以上となった場合(ステップS29でYes)、現在受信している映像が映画であると判断し、フレーム補間処理のモードを映画モードに設定する(ステップS30)。
ここで、番組のジャンルが映画でない場合には、取得している映像が毎秒24コマの映像であると推定することはできないので、ある画像が3回連続した後で次の画像が2回連続する状態がある程度の回数連続しなければ、取得している映像が毎秒24コマの映像であると正確に判断することができない。つまり、誤検出を防止するためには所定値c3を比較的大きな値に設定しておかなければならない。そのため、通常モードから映画モードへの切替が遅くなり、切り替わりの際に映像が不自然になりやすい。これに対して、番組のジャンルが映画である場合には、取得している映像が毎秒24コマの映像である可能性が高いと推定することができる。したがって、ある画像が3回連続した後で次の画像が2回連続する状態が少しでも生じれば、取得している映像が毎秒24コマの映像であると判断しても誤検出は生じない。つまり、所定値c1は、比較的小さな値に設定しても差し支えない。以上より、上記所定値c1は、上記所定値c3よりも小さい値とすることができる。すなわち、取得している映像が毎秒24コマの映像であることを番組のジャンル情報に基づいて推定することによって、映画モードへの切替を早くすることができる。
図4の説明に戻り、ステップS11の次のステップS12において、動き検出処理部13は、フレーム補間処理のモードに応じて、補間フレームを生成するために用いる対象とするフレーム(対象フレーム)を特定する。例えば、通常モードであれば、連続する2フレームを対象フレームとして特定する。また例えば、映画モードであれば、上述したように、画像が異なる2つのフレームを対象フレームとして特定する(図3参照)。なお、ステップS11でモードが設定されない場合(ステップS29またはS33でNoの場合)、動き検出処理部13は、以前に設定された最新のモードに従ってステップS12の処理を行う。また、第2の実施形態では、初期状態では通常モードに設定されているものとする。
続くステップS13において、動き検出処理部13は、ステップS12において特定した対象フレームを用いて動きベクトルを算出する。これによって、番組のジャンルが映画であるか否かに応じて異なる動きベクトルが算出されることとなる。なお、動き検出処理部13は、異なる対象フレームを用いて動きベクトルを算出する他は、番組のジャンルが映画であるか否かによらず同じ処理を行ってもよい。ステップS13において算出された動きベクトルのデータは、補間フレーム生成部11に出力される。以上で、動き検出処理部13における処理の説明を終了する。
以上のように動きベクトルが算出されると、補間フレーム生成部11は、拡大縮小処理部5から出力される各フレームの画像データと、動き検出処理部13から出力された動きベクトルを示すデータとを用いて、各フレームの補間フレームの画像データを生成する。なお、連続する2つのフレーム間に挿入される補間フレームの数はいくつであってもよい。また、映画モードである場合、補間フレーム生成部11は、同じ画像が連続して表示されないように、拡大縮小処理部5から出力されるフレームの画像に代えて補間フレームの画像を生成してもよい。図3を例にとって具体的に説明すると、第nのフレームと第n+3のフレームとの間において、第nのフレームの画像と第n+3のフレームの画像を用いて複数の補間フレームを生成し、第n+1および第n+2のフレームの画像を出力せずに、生成した複数の補間フレームを表示部8に出力するようにしてもよい。
表示部8は、拡大縮小処理部5から出力された各フレームの画像データ、および、生成された補間フレームの画像データを補間フレーム生成部11から入力し、各画像データにより示される画像を表示する。以上で、第2の実施形態における映像表示装置の動作の説明を終了する。
以上のように、第2の実施形態においては、映像表示装置は、番組のジャンル情報を用いて、番組が毎秒24コマの映像であるか否かを判定し、判定結果に応じて異なるフレーム補間処理を行った。これによって、映像表示装置は、番組が毎秒24コマの映像であるか否かに応じた適切なフレーム補間処理を行うことができる。さらに、番組のジャンル情報を用いることによって、番組が毎秒24コマの映像であるか否かの判断を迅速に行うことができるので、通常モードから映画モードへの切替を迅速に行うことができる。
なお、上記第2の実施形態においては、番組のジャンル情報を用いて番組が映画のコンテンツであるか否かを判定する(ステップS22)とともに、取得される映像が実際に毎秒24コマの映像であるか否かを判定した(ステップS25〜S29)。つまり、取得される映像が実際に毎秒24コマの映像であるか否かを判定することによって、モードの判断をより正確に行うことができる。例えば、ジャンル情報が映画であっても、放送局側で変換処理を行うことによって毎秒60コマの映像が配信される場合もあり、第2の実施形態ではこのような場合でもモードの判断を正確に行うことができる。
また、第2の実施形態においては、ステップS22の判定結果に応じて一義的にモード(すなわち、フレーム補間処理の内容)を決定するのではなく、ステップS22の判定結果とステップS29の判定結果とを用いてモードを決定した。このように、本発明では、番組のジャンル情報に基づいてフレーム補間処理の内容を決定すればよく、番組のジャンル情報のみに基づいて(番組のジャンル情報から一義的に)フレーム補間処理の内容を決定するものに限らない。なお、他の実施形態においては、映像表示装置は、ステップS22の判定結果に応じて一義的にモードを決定するようにしてもよい。つまり、番組のジャンル情報が映画である場合には映画モードに設定し、番組のジャンルが映画以外である場合には通常モードに設定するようにしてもよい。
(第3の実施形態)
次に、第3の実施形態に係る映像表示装置について説明する。第3の実施形態に係る映像表示装置の構成は、図1に示す構成と同じであるので、各部の詳細な説明は省略する。第3の実施形態では、映像表示装置は、番組のジャンルがアニメであるか、その他のジャンルであるかに応じて、フレーム補間処理(動きベクトルの算出処理)を行うか否かを切り替える。
上述のように、デジタル放送では毎秒60フレームの映像ソースが配信されるが、アニメは一般的には毎秒8コマの映像である。アニメのように映像の実際のコマ数がかなり低い場合には、算出される動きベクトルの信頼度が低く、フレーム補間処理によって補間フレームの画像を正確に生成することが難しい。そのため、場合によっては不正確な補間フレームが生成されるためにかえって映像が乱れるおそれがある。特にアニメの映像は、輪郭がはっきりしているという特徴があるので、フレーム補間が正確にできない場合には映像を非常に不自然に感じるおそれがある。また、毎秒8コマという動きが粗い映像がアニメーションの特徴であるとも考えられ、毎秒8コマの映像の方がアニメーションらしい映像であるとも言える。以上を考慮して、第3の実施形態では、番組のジャンルがアニメである場合には、フレーム補間処理を行わないようにする。以下、第3の実施形態における映像表示装置の動作の詳細を説明する。
フロントエンド2、トランスポートデコーダ3、映像デコーダ4、および拡大縮小処理部5の動作は、第1の実施形態と同様である。また、番組情報解析部6も第1の実施形態と同様、トランスポートデコーダ3によって抽出されたSIのデータから番組のジャンル情報のデータを抽出する。
図6は、動き検出処理部13における処理の流れを示すフローチャートである。なお、図6に示すステップS41〜S44の処理は、1フレーム時間に1回の割合で実行される。まずステップS41において、動き検出処理部13は、番組情報解析部6から番組のジャンル情報のデータを取得する。ステップS41の処理は図2に示したステップS1の処理と同様である。
続くステップS42において、動き検出処理部13は、ステップS41で取得されたジャンル情報のデータが、「アニメ」のジャンルを示すか否かを判定する。ステップS42の判定結果が肯定の場合、ステップS43の処理が実行される。一方、ステップS42の判定結果が否定の場合、後述するステップS44の処理が実行される。
ステップS43において、動き検出処理部13は、動きベクトルの算出を停止する。すなわち、番組のジャンルがアニメである場合、動き検出処理部13は、動きベクトルの算出を行わない。一方、ステップS44において、動き検出処理部13は、動きベクトルを算出する。ステップS44における動きベクトルの算出方法は、どのような方法であってもよい。ステップS44において算出された動きベクトルのデータは、補間フレーム生成部11に出力される。ステップS43またはS44の後、動き検出処理部13は図6に示す処理を終了する。
第3の実施形態においては、補間フレーム生成部11は、動き検出処理部13から動きベクトルのデータが出力された場合、補間フレームの画像データを生成する。この場合、補間フレーム生成部11は、拡大縮小処理部5から出力された各フレームの画像データと、生成された補間フレームの画像データとを表示部8へ出力し、各画像データを表示部8に時間順に表示させる。一方、動き検出処理部13から動きベクトルのデータが出力されない場合、補間フレーム生成部11は補間フレームの画像データを生成しない。この場合、補間フレーム生成部11は、拡大縮小処理部5から出力された各フレームの画像データを表示部8へ出力し、当該画像データを表示部8に時間順に表示させる。
以上のように、第3の実施形態によれば、フレーム補間処理を実行するか否かを、番組のジャンルがアニメであるか否かに基づいて決定する。これによって、フレーム補間処理を行うことが難しいアニメのジャンルの映像についてフレーム補間処理を行わず、他のジャンルの映像についてのみフレーム補間処理を行うことができる。なお、他の実施形態では、番組のジャンルがアニメである場合、フレーム補間処理を行わないことに代えて、画像全体についてのみ動きベクトルを算出してフレーム補間処理を行うようにしてもよい。
(第4の実施形態)
次に、第4の実施形態に係る映像表示装置について説明する。第4の実施形態では、番組のジャンル情報に代えて、動画領域情報およびアスペクト比情報を用いる。そして、動画領域情報およびアスペクト比情報に基づいてフレーム補間処理の内容(具体的には、動きベクトルの探索範囲)を決定する。
図7〜図9は、映像表示装置の表示部に表示される画像の一例を示す図である。デジタル放送では、動画のサイズ(アスペクト比)が16:9である映像ソースもあれば、図7に示すように、サイズが4:3である動画の左右両側に固定的な画像(いわゆるサイドパネル)が付された映像ソースもある。図7の例においては、サイズが4:3である動画が領域61に表示され、領域61の左右両側の領域62にはサイドパネルが表示される。また、デジタル放送では、図8に示すように、映像ストリームによる画像とともにデータ放送の画像を表示させることも可能である。図8の例においては、映像ストリームに含まれる画像データにより示される画像が領域63に表示され、データ放送の内容を示す画像が領域64に表示される。さらに、図9に示すように、図8に示す領域63に、サイズが4:3である動画の左右両側にサイドパネルが付された画像が表示されることもある。このとき、領域63は領域65および66に区分され、サイズが4:3である動画が領域65に表示され、領域65の左右両側の領域66にはサイドパネルが表示される。なお、図7〜図9では、実際に動画が表示される領域(映像ストリームに含まれる画像データにより示される画像が表示される領域。)を点線で示している。
図7〜図9に示したように、実際に動画が表示される領域は、番組によってそれぞれ異なっており、画面全体のうちで当該領域がどのような位置およびサイズであるかによって、適切なフレーム補間処理は異なる。具体的には、フレーム補間処理(動きベクトルの探索処理)は、当該領域のみを対象として行えばよいので、必要な領域(すなわち、動画領域)のみについてフレーム補間処理を行うことによって処理を簡略化することができる。第4の実施形態においては、放送信号に含まれる情報(後述するアスペクト比情報および動画領域情報)から、実際に動画が表示される領域を特定し、当該領域を対象としてフレーム補間処理を行う。以下では、フレーム補間処理を行うべき対象となる、実際に動画が表示される領域を、「対象領域」と呼ぶ。
図10は、第4の実施形態に係る映像表示装置の機能的な構成を示すブロック図である。第4の実施形態においては、映像表示装置は、フロントエンド2、トランスポートデコーダ3、映像デコーダ4、拡大縮小処理部5、フレーム補間処理部7、表示部8、データ放送処理部21、および、アスペクト比情報解析部22を備えている。なお、図10において、図1と同じ構成要素には図1と同じ参照符号を付し、詳細な説明を省略する。
データ放送処理部21は、トランスポートデコーダ3に接続されており、トランスポートデコーダ3によって抽出されたデータ放送用のデータ(データ放送ストリーム)を取得する。また、データ放送処理部21は、データ放送の画像を表示するための処理を行う。さらに、第4の実施形態においては、データ放送処理部21は、データ放送ストリームから動画領域情報およびスケーリング率情報のデータを抽出する。ここで、動画領域情報とは、映像ストリームにより示される動画とともにデータ放送の内容を示す画像が表示される場合に、当該動画が表示される領域を特定するための情報である。具体的には、動画領域情報は、表示部8の画面領域のうちで動画が表示される領域の位置およびサイズを示す。また、スケーリング率情報は、元の画像に対してスケーリングを行う際のスケーリング率を示す情報である。動画領域情報を示すデータは、拡大縮小処理部5および動き検出処理部13へ出力される。スケーリング率情報を示すデータは、拡大縮小処理部5へ出力される。第4の実施形態では、上記動画領域情報を示すデータおよびスケーリング率情報を示すデータが請求項に記載の領域特定データ(付加データ)に相当し、データ放送処理部21が請求項に記載のデータ抽出部に相当する。なお、データ放送処理部21の動作の詳細は後述する(図11参照)。
アスペクト比情報解析部22は、映像デコーダ4に接続されており、映像ストリームに含まれるアスペクト比情報を映像デコーダ4から取得する。アスペクト比情報は、映像のアスペクト比を特定するための情報である。なお、デジタル放送では、図7で示したようにアスペクト比が4:3の元映像を16:9で送出する場合や、アスペクト比が16:9の元映像を4:3で送出する場合、映像ストリーム中の“sequence_header”および“sequence_display_extension”にパラメータを指定することがARIB TR−B15に規定されている。したがって、アスペクト比情報解析部22は、当該パラメータを抽出して解析することにより、映像のアスペクト比情報を得ることができる。アスペクト比情報解析部22は、アスペクト比情報のデータを動き検出処理部13へ出力する。
次に、映像表示装置の動作の詳細を説明する。フロントエンド2、トランスポートデコーダ3、および、映像デコーダ4の動作は、第1の実施形態と同様である。また、アスペクト比情報解析部22は、上述したように、アスペクト比情報のデータを動き検出処理部13へ出力する。
図11は、データ放送処理部21における処理の流れを示すフローチャートである。なお、図11では、データ放送処理部21が実行するデータ放送に関する処理のうち、本発明に関連する処理を主に示し、本発明に無関係な処理を省略している。図11に示す処理は、例えば、スケーリング率情報および動画領域情報が取得されるタイミングで繰り返し行われてもよいし、所定時間間隔で繰り返し行われてもよい。
まず、ステップS51において、データ放送処理部21は、トランスポートデコーダ3で抽出されたデータ放送ストリームからスケーリング率情報を取得する。続くステップS52において、データ放送処理部21は、ステップS51で取得したスケーリング率情報を拡大縮小処理部5に対して設定する。
ステップS52の次のステップS53において、データ放送処理部21は、トランスポートデコーダ3で抽出されたデータ放送ストリームから上記動画領域情報を取得する。続くステップS54において、データ放送処理部21は、ステップS53で取得した動画領域情報を拡大縮小処理部5に対して設定する。さらに、ステップS55において、データ放送処理部21は、ステップS53で取得した動画領域情報を動き検出処理部13へ出力する。ステップS55の後、データ放送処理部21は図11に示す処理を終了する。
拡大縮小処理部5は、データ放送処理部21から上記スケーリング率情報および動画領域情報を取得すると、映像デコーダ4から出力された画像のデータに対して、上記スケーリング率情報および動画領域情報に従って画像データの拡大・縮小処理を行う。そして、拡大・縮小処理後の画像データをフレーム補間処理部7へ出力する。
図12は、動き検出処理部13における処理の流れを示すフローチャートである。なお、図12に示すステップS61〜S65の処理は、1フレーム時間に1回の割合で実行される。
まずステップS61において、動き検出処理部13は、データ放送処理部21から動画領域情報のデータを取得する。すなわち、動き検出処理部13は、データ放送処理部21に対して動画領域情報の取得要求を行う。データ放送処理部21は、この取得要求に応じて動画領域情報のデータを動き検出処理部13へ出力する。なお、データ放送処理部21は、トランスポートデコーダ3によって抽出されたデータ放送ストリームから抽出される最新の動画領域情報のデータを記憶しておく。そして、上記取得要求があった場合には、記憶している最新の動画領域情報のデータを出力する。
続くステップS62において、動き検出処理部13は、アスペクト比情報解析部22からアスペクト比情報のデータを取得する。すなわち、動き検出処理部13は、アスペクト比情報解析部22に対してアスペクト比情報の取得要求を行う。アスペクト比情報解析部22は、この取得要求に応じてアスペクト比情報のデータを動き検出処理部13へ出力する。なお、アスペクト比情報解析部22は、映像ストリームから抽出される最新のアスペクト比情報のデータを記憶しておく。そして、上記取得要求があった場合には、記憶している最新のアスペクト比情報のデータを出力する。
ステップS63において、動き検出処理部13は、上記対象領域、すなわち、画面領域のうちで実際に動画が表示される領域を算出する。まず、動き検出処理部13は、データ放送の画像を表示するモードであるか否かを判定する。なお、データ放送の画像を表示するモードであるかデータ放送の画像を表示しないモードであるかは、ユーザの指示によって切り替えられる。データ放送の画像を表示するモードである場合、動き検出処理部13は、動画領域情報を参照して、映像データにより示される画像を表示する領域(映像データ領域と呼ぶ。)を特定する。一方、データ放送の画像を表示しないモードである場合、表示すべき画像の全領域が映像データ領域となる。以上のようにして、映像データ領域が特定されると、動き検出処理部13は次に、アスペクト比情報を参照して、画像のアスペクト比に基づいて対象領域を決定する。すなわち、アスペクト比が16:9である場合、映像データ領域をそのまま対象領域とする。この場合、映像データ領域の全領域に実際に動画が表示されるからである。一方、アスペクト比が4:3である場合、映像データ領域のうちで、左右両側の所定領域を除いた領域を対象領域とする。この場合、映像データ領域のうちの上記所定領域は、上記サイドパネルが表示される領域であり、この領域には動画が実際には表示されないからである。
ステップS64において、動き検出処理部13は、ステップS63で算出された対象領域に基づいて動きベクトルの探索範囲を設定する。具体的には、探索範囲は、対象領域の内部を範囲とするように設定される。続くステップS65において、動き検出処理部13は、ステップS64で設定された探索範囲内で動きベクトルを算出する。これによって、対象領域の位置およびサイズに応じた探索範囲に従って動きベクトルが算出されることとなる。つまり、実際に動画が表示される領域のみを対象として動きベクトルが算出される。なお、動き検出処理部13は、ステップS64で設定された探索範囲に従って動きベクトルを算出する他は、対象領域によらず同じ処理を行ってもよい。ステップS65において算出された動きベクトルのデータは、補間フレーム生成部11に出力される。以上で、動き検出処理部13における処理の説明を終了する。
以上のように動きベクトルが算出されると、補間フレーム生成部11は、拡大縮小処理部5から出力される各フレームの画像データと、動き検出処理部13から出力された動きベクトルを示すデータとを用いて、当該各フレームの補間フレームの画像データを生成する。このとき、補間フレーム生成部11は、上記対象領域のみについて補間フレームを生成するようにしてもよい。表示部8は、拡大縮小処理部5から出力された各フレームの画像データ、および、生成された補間フレームの画像データを補間フレーム生成部11から入力し、各画像データにより示される画像を表示する。以上で、第4の実施形態における映像表示装置の動作の説明を終了する。
以上のように、第4の実施形態によれば、映像表示装置は、放送信号から、動画領域情報およびアスペクト比情報を取得することにより、実際に動画が表示される領域(上記対象領域)を特定する。そして、当該領域内で動きベクトルの探索範囲を設定する。これによって、探索が不要な領域について動きベクトルの探索処理を行わないようにすることができ、実際に動画が表示される領域の位置およびサイズに応じてフレーム補間処理を効率良く実行することができる。
なお、上記第4の実施形態では、表示装置に表示すべき画像の全領域のうちで動画が表示される領域を特定するための領域特定データとして、動画領域情報およびアスペクト比情報のデータの両方を用いて対象領域を算出するようにした。ここで、他の実施形態においては、動画領域情報およびアスペクト比情報のいずれか一方のみを用いて対象領域を算出してもよい。例えば、動画領域情報のみを用いて対象領域を算出する場合、動き検出処理部13は、動画領域情報に基づいて上記映像データ領域(ステップS63参照)を特定し、当該映像データ領域を対象領域とする。また、アスペクト比情報のみを用いて対象領域を算出する場合、動き検出処理部13は、任意の方法で映像データ領域を特定した後、映像データ領域から対象領域を上記ステップS63と同様の方法で決定する。
なお、以上の第1〜第4の実施形態においては、液晶表示装置の動画ボケを改善する目的でフレーム補間処理を行う場合を説明したが、本発明は、当該目的で行われるフレーム補間処理に限らず適用可能である。例えば、本発明は、あるフレームレートの映像を他のフレームレートに変換する際に行うフレーム補間処理にも適用することが可能である。また、本発明は、液晶表示装置に限らず、例えば動画ボケが生じる他の方式の表示装置にも適用することが可能である。また、PDP(プラズマディスプレイパネル)においては補間フレームとしてサブフレーム(サブフィールド)が生成されることがあるが、本発明は、PDPにおいてサブフレームを生成する場合にも適用することが可能である。
以上のように、本発明は、映像ソースの内容等に応じて適切なフレーム補間処理を行うこと等を目的として、放送によって配信される映像を表示する映像表示装置等として利用することが可能である。
第1の実施形態に係る映像表示装置の機能的な構成を示すブロック図 動き検出処理部13における処理の流れを示すフローチャート 毎秒24コマの映像を毎秒60フレームの映像ソースとして配信する場合における各フレームの画像の一例を示す図 第2の実施形態における動き検出処理部13における処理の流れを示すフローチャート 図4に示すステップS11(モード判別処理)の詳細を示すフローチャート 第3の実施形態における動き検出処理部13における処理の流れを示すフローチャート 映像表示装置の表示部に表示される画像の一例を示す図 映像表示装置の表示部に表示される画像の一例を示す図 映像表示装置の表示部に表示される画像の一例を示す図 第4の実施形態に係る映像表示装置の機能的な構成を示すブロック図 データ放送処理部21における処理の流れを示すフローチャート 動き検出処理部13における処理の流れを示すフローチャート
符号の説明
1 アンテナ
2 フロントエンド
3 トランスポートデコーダ
4 映像デコーダ
5 拡大縮小処理部
6 番組情報解析部
7 フレーム補間処理部
8 表示部
11 補間フレーム生成部
12 第1フレームメモリ
13 動き検出処理部
14 第2フレームメモリ
21 データ放送処理部
22 アスペクト比情報解析部

Claims (16)

  1. 放送によって配信される映像を表示する映像表示装置であって、
    放送信号から、番組または番組の映像に関する情報を示す付加データを抽出するデータ抽出部と、
    前記放送信号から抽出される映像データにより示される各フレームの画像から、補間フレームの画像を生成するフレーム補間処理部とを備え、
    前記フレーム補間処理部は、前記データ抽出部によって抽出された付加データの内容に基づいて、補間フレームを生成するために用いられる動きベクトルに関する処理の内容を決定する、映像表示装置。
  2. 前記データ抽出部は、番組のジャンルまたは番組を特定する情報を示すデータを前記付加データとして抽出し、
    前記フレーム補間処理部は、前記動きベクトルに関する処理の内容を前記付加データに基づいて決定する、請求項1に記載の映像表示装置。
  3. 前記フレーム補間処理部は、前記補間フレームの画像を生成するために用いられる動きベクトルの探索範囲を、前記付加データに基づいて決定する、請求項2に記載の映像表示装置。
  4. 前記フレーム補間処理部は、前記動きベクトルを算出するために用いるフレームを前記付加データに基づいて決定する、請求項2に記載の映像表示装置。
  5. 前記フレーム補間処理部は、前記動きベクトルの算出処理を実行するか否かを前記付加データに基づいて決定する、請求項2に記載の映像表示装置。
  6. 前記フレーム補間処理部は、動きベクトルを用いて生成される画像と、前記各フレームの画像を補間することによって得られる画像との混合割合を前記付加データに基づいて決定する、請求項2に記載の映像表示装置。
  7. 前記フレーム補間処理部は、映像の一部分が静止している、または、動いていると判断するための判断基準を前記付加データに基づいて決定する、請求項2に記載の映像表示装置。
  8. 前記フレーム補間処理部は、横方向および縦方向の探索処理の処理内容を前記付加データに基づいて決定する、請求項2に記載の映像表示装置。
  9. 前記フレーム補間処理部は、動きベクトルを算出するために参照するフレームの数を前記付加データに基づいて決定する、請求項2に記載の映像表示装置。
  10. 前記フレーム補間処理部は、映像全体のうちで他の領域に比べて高精度で探索を行う領域を前記付加データに基づいて決定する、請求項2に記載の映像表示装置。
  11. 前記フレーム補間処理部は、動きベクトルの探索処理において1まとまりの物体として取り扱う大きさを前記付加データに基づいて決定する、請求項2に記載の映像表示装置。
  12. 前記データ抽出部は、表示装置に表示すべき画像の全領域のうちで動画が表示される領域を特定するための領域特定データを前記付加データとして抽出し、
    前記フレーム補間処理部は、前記領域特定データにより特定される領域のみを対象として前記動きベクトルの算出処理を実行する、請求項1に記載の映像表示装置。
  13. 前記領域特定データは、前記映像データにより示される画像のアスペクト比を示すデータであり、
    前記フレーム補間処理部は、前記アスペクト比を示すデータに基づいて、前記動きベクトルの算出処理の処理対象となる領域を決定する、請求項12に記載の映像表示装置。
  14. 前記領域特定データは、表示装置に表示すべき画像の全領域のうちで前記映像データにより示される画像を表示すべき領域を示すデータであり、
    前記フレーム補間処理部は、前記領域特定データに基づいて、前記動きベクトルの算出処理の処理対象となる領域を決定する、請求項12に記載の映像表示装置。
  15. 放送によって配信される画像から補間フレームの画像を生成する補間画像生成回路であって、
    放送信号から、番組または番組の映像に関する情報を示す付加データを抽出するデータ抽出部と、
    前記放送信号から抽出される映像データにより示される各フレームの画像から、補間フレームの画像を生成するフレーム補間処理部とを備え、
    前記フレーム補間処理部は、前記データ抽出部によって抽出された付加データの内容に基づいて、補間フレームを生成するために用いられる動きベクトルに関する処理の内容を決定する、補間画像生成回路。
  16. 放送によって配信される画像から補間フレームの画像を生成する補間画像生成方法であって、
    放送信号から、番組または番組の映像に関する情報を示す付加データを抽出するデータ抽出ステップと、
    前記放送信号から抽出される映像データにより示される各フレームの画像から、補間フレームの画像を生成するフレーム補間処理ステップとを備え、
    前記フレーム補間処理ステップでは、前記データ抽出ステップにおいて抽出された付加データの内容に基づいて、補間フレームを生成するために用いられる動きベクトルに関する処理の内容を決定する、補間画像生成方法。
JP2008203122A 2007-08-20 2008-08-06 映像表示装置ならびに補間画像生成回路および方法 Pending JP2009071809A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008203122A JP2009071809A (ja) 2007-08-20 2008-08-06 映像表示装置ならびに補間画像生成回路および方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2007213821 2007-08-20
JP2008203122A JP2009071809A (ja) 2007-08-20 2008-08-06 映像表示装置ならびに補間画像生成回路および方法

Publications (1)

Publication Number Publication Date
JP2009071809A true JP2009071809A (ja) 2009-04-02

Family

ID=40381775

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008203122A Pending JP2009071809A (ja) 2007-08-20 2008-08-06 映像表示装置ならびに補間画像生成回路および方法

Country Status (2)

Country Link
US (1) US8798151B2 (ja)
JP (1) JP2009071809A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011095316A (ja) * 2009-10-27 2011-05-12 Toshiba Corp 画像表示装置および画像表示方法
JP2013118702A (ja) * 2013-03-08 2013-06-13 Casio Comput Co Ltd 表示装置、表示制御プログラム及び静止画動画判定方法
JP2014165687A (ja) * 2013-02-26 2014-09-08 Nec Access Technica Ltd デジタル放送受信装置、方法及びプログラム
KR101585247B1 (ko) * 2009-07-24 2016-01-13 엘지전자 주식회사 영상 처리 방법 및 그를 이용한 디스플레이 장치
JP2017537494A (ja) * 2014-10-02 2017-12-14 ドルビー ラボラトリーズ ライセンシング コーポレイション ジャダー可視性制御のためのデュアルエンドメタデータ
JP2020065271A (ja) * 2019-12-19 2020-04-23 東芝映像ソリューション株式会社 受信機
JP2020065269A (ja) * 2019-12-19 2020-04-23 東芝映像ソリューション株式会社 受信機
JP2020065270A (ja) * 2019-12-19 2020-04-23 東芝映像ソリューション株式会社 受信機

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5325638B2 (ja) * 2008-11-26 2013-10-23 日立コンシューマエレクトロニクス株式会社 画像復号化方法
JP2011146799A (ja) * 2010-01-12 2011-07-28 Brother Industries Ltd 画像処理装置及び画像処理プログラム
ES2390298B1 (es) * 2010-04-16 2013-11-11 Telefónica, S.A. Procedimiento de transmisión de contenido visual.
JP2012004908A (ja) * 2010-06-17 2012-01-05 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
KR101854119B1 (ko) * 2011-09-08 2018-05-04 삼성디스플레이 주식회사 영상 표시 방법 및 이를 수행하는 표시 장치
US10382782B2 (en) * 2014-06-27 2019-08-13 Samsung Electronics Co., Ltd. Image frame interpolation apparatus, display apparatus and control method thereof
CN105828183B (zh) 2015-01-04 2017-12-05 华为技术有限公司 视频帧处理方法及视频帧处理芯片
US11158286B2 (en) 2018-10-05 2021-10-26 Disney Enterprises, Inc. Machine learning color science conversion
US10992902B2 (en) * 2019-03-21 2021-04-27 Disney Enterprises, Inc. Aspect ratio conversion with machine learning

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2636622B2 (ja) * 1992-03-13 1997-07-30 松下電器産業株式会社 ビデオ信号の符号化方法及び復号化方法ならびにビデオ信号の符号化装置及び復号化装置
JP4040826B2 (ja) * 2000-06-23 2008-01-30 株式会社東芝 画像処理方法および画像表示システム
JP3840129B2 (ja) 2002-03-15 2006-11-01 株式会社東芝 動きベクトル検出方法と装置、補間画像作成方法と装置及び画像表示システム
JP2005006275A (ja) 2002-11-22 2005-01-06 Matsushita Electric Ind Co Ltd 補間フレーム作成装置、補間フレーム作成方法、および補間フレーム作成プログラム
JP4619095B2 (ja) 2002-12-06 2011-01-26 シャープ株式会社 液晶表示装置
US7324738B2 (en) * 2003-09-05 2008-01-29 Matsushita Electric Industrial Co., Ltd. Video stream processing apparatus and video stream processing method
JP5174329B2 (ja) * 2006-05-23 2013-04-03 株式会社日立製作所 画像処理装置及び画像表示装置
US20080025390A1 (en) * 2006-07-25 2008-01-31 Fang Shi Adaptive video frame interpolation

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101585247B1 (ko) * 2009-07-24 2016-01-13 엘지전자 주식회사 영상 처리 방법 및 그를 이용한 디스플레이 장치
JP2011095316A (ja) * 2009-10-27 2011-05-12 Toshiba Corp 画像表示装置および画像表示方法
JP2014165687A (ja) * 2013-02-26 2014-09-08 Nec Access Technica Ltd デジタル放送受信装置、方法及びプログラム
JP2013118702A (ja) * 2013-03-08 2013-06-13 Casio Comput Co Ltd 表示装置、表示制御プログラム及び静止画動画判定方法
JP2017537494A (ja) * 2014-10-02 2017-12-14 ドルビー ラボラトリーズ ライセンシング コーポレイション ジャダー可視性制御のためのデュアルエンドメタデータ
US10944938B2 (en) 2014-10-02 2021-03-09 Dolby Laboratories Licensing Corporation Dual-ended metadata for judder visibility control
JP2020065271A (ja) * 2019-12-19 2020-04-23 東芝映像ソリューション株式会社 受信機
JP2020065269A (ja) * 2019-12-19 2020-04-23 東芝映像ソリューション株式会社 受信機
JP2020065270A (ja) * 2019-12-19 2020-04-23 東芝映像ソリューション株式会社 受信機

Also Published As

Publication number Publication date
US8798151B2 (en) 2014-08-05
US20090051819A1 (en) 2009-02-26

Similar Documents

Publication Publication Date Title
JP2009071809A (ja) 映像表示装置ならびに補間画像生成回路および方法
JP4956216B2 (ja) デジタル放送番組表示装置およびデジタル放送番組表示プログラム
JP4438795B2 (ja) 映像変換装置、映像表示装置、映像変換方法
JP4513819B2 (ja) 映像変換装置、映像表示装置、映像変換方法
JP5659307B2 (ja) コメント情報生成装置およびコメント情報生成方法
JP5525201B2 (ja) 画像合成装置、画像符号化装置、コンピュータプログラム、記録媒体
AU2013208426A1 (en) Display apparatus and controlling method thereof
JP2008141394A (ja) 補間フレーム作成方法および補間フレーム作成装置
US8411974B2 (en) Image processing apparatus, method, and program for detecting still-zone area
JP2014077993A (ja) 表示装置
WO2009081660A1 (en) Interpolation frame generation apparatus, interpolation frame generation method, and broadcast receiving apparatus
US8154654B2 (en) Frame interpolation device, frame interpolation method and image display device
KR100828354B1 (ko) 자막 위치 제어 장치 및 방법
JP4965980B2 (ja) 字幕検出装置
JP2009141798A (ja) 画像補間装置
JP5049882B2 (ja) 補間フレーム作成装置及び補間フレーム作成方法及び放送受信装置
US20100026904A1 (en) Video signal processing apparatus and video signal processing method
US8432495B2 (en) Video processor and video processing method
US8213718B2 (en) Method for video mode detection
US10659724B2 (en) Method and apparatus for providing dropped picture image processing
JP2010213287A (ja) 映像処理装置及び映像表示装置
JP2009206940A (ja) 補間フレーム生成回路及びフレーム補間装置
JP2008199097A (ja) 映像処理装置、映像処理方法、プログラム、記録媒体、携帯端末、及び、受信装置
KR101390173B1 (ko) 영상처리방법 및 이를 적용한 영상표시장치
KR102279495B1 (ko) 디스플레이장치 및 그 제어 방법