JP5217270B2 - 画像処理装置およびその方法、並びにプログラム - Google Patents

画像処理装置およびその方法、並びにプログラム Download PDF

Info

Publication number
JP5217270B2
JP5217270B2 JP2007167374A JP2007167374A JP5217270B2 JP 5217270 B2 JP5217270 B2 JP 5217270B2 JP 2007167374 A JP2007167374 A JP 2007167374A JP 2007167374 A JP2007167374 A JP 2007167374A JP 5217270 B2 JP5217270 B2 JP 5217270B2
Authority
JP
Japan
Prior art keywords
image
sub
candidate
area
candidate area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007167374A
Other languages
English (en)
Other versions
JP2009010460A (ja
JP2009010460A5 (ja
Inventor
ルワン ペレラ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007167374A priority Critical patent/JP5217270B2/ja
Priority to US12/123,936 priority patent/US8228432B2/en
Priority to CN2008101305251A priority patent/CN101335858B/zh
Publication of JP2009010460A publication Critical patent/JP2009010460A/ja
Publication of JP2009010460A5 publication Critical patent/JP2009010460A5/ja
Application granted granted Critical
Publication of JP5217270B2 publication Critical patent/JP5217270B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • H04N21/814Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts comprising emergency warnings

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、動画像に含まれる画像を複数のブロックに分割して圧縮処理が施された動画像を扱う画像処理装置およびその方法、並びにプログラムに関する。
たとえば、高品位テレビジョン(HDTV(High Definition Television)、高解像度テレビジョンともいう)やDVDでは、大量の動画像を扱うため、動画像の圧縮が必要である。この動画像にMPEG2(Motion Picture Coding Experts Group 2)と呼ばれる規格が広く利用されている。
以下に、MPEG2方式による動画像の圧縮方法について、図を参照しながら簡単に説明する。
図1は、フレーム間予測符号化を説明するための図であり、図2は、マクロブロックを説明するための図であり、図3は、動きベクトルを説明するための図である。
MPEG2方式による動画像の圧縮では、原画像のデータがフレーム間予測符号化によって符号化される。
図1に示すように、動画像は、Iフレーム(Iピクチャ(Intra Coded Picture)ともいう)、Pフレーム(Pピクチャ(Predicted Picture)ともいう)、およびBフレーム(Bピクチャ(Bi-directional Coded Picture)ともいう)の3種類の画像(フレーム)1で構成されている。また、ビットストリームでは、I、P、およびBフレームが、図1に示すような順番で並んでいる。なお、図1では、I、P、およびBフレームをそれぞれI、P、およびBと表記している。
Iフレームは、イントラ符号化フレームで、原画像がそのまま符号化されたものである。Pフレームは、順方向予測符号化フレームで、Iフレームが予測画像として符号化されたものである。また、Bフレームは、双方向予測符号化フレームで、IフレームまたはPフレームが予測画像として符号化されたものである。
MPEG2方式では、動画像全体の符号化率を上げるため、動き補償フレーム間予測符号化が行われる。各I、P、およびBフレームは、たとえば16×16画素のマクロブロック(本発明のブロックに対応する)に分割され、マクロブロックごとに符号化が行われる。
図2に示すように、たとえば、輝度信号Y、色差信号Cb、および色差信号Crの比率が4:2:0のフォーマットでは、1つのマクロブロック2に(16×16)画素の輝度信号Y、(8×8)画素の色差信号Cb、およびCrのデータが格納される。
また、図3に示すように、MPEG2方式では、各マクロブロック2のフレーム間の変動を示すために、マクロブロック2の移動を示す動きベクトル(動き量に対応する)3が推定され、動きベクトル情報もさらに符号化されてビットストリームに加えられる。つまり、I、P、およびBフレームのデータと、マクロブロック2の動きベクトル情報が動画像の初期ビットストリームに含まれている。
MPEG2方式にて圧縮された動画像は、デコーダにてI、P、およびBフレームのデータと各マクロブロック2の動きベクトル3とが含まれた初期ビットストリームから復元される。
ところで、たとえば高品位テレビジョンを始めとするテレビジョンでは、地震速報等の緊急情報や、電子番組表、テレビジョンの操作メニュといった情報を表示するための画像、あるいは字幕等(これらの情報を表示する画像や字幕等をサブ画像と表記する)が、テレビジョン番組の画像上に表示される。
ところで、上述したサブ画像は、ベースとなる画像(以後ベース画像と表記する)上に重ね合わされるが、サブ画像とベース画像との重ね合わせの位置によっては不都合が生じる場合がある。この不都合の具体例について、図を参照しながら説明する。
図4は、サブ画像とベース画像との重ね合わせについて説明するための図である。
たとえば、野球試合放送中に緊急放送を報知するサブ画像がベース画像上に表示される場合を例にとる。図4に示すように、テレビジョンの表示画面は、野球試合を表示しているベース画像4に緊急情報を報知するサブ画像5が重ね合わされて、重ね合わせ画像6のように表示される。
このような構成において、サブ画像5は、ベース画像4上のあらかじめ決められた領域(図4の例では、重ね合わせ画像6の左領域)にしか表示できない。したがって、野球試合放送のように動画像の動きが激しい領域(たとえばピッチャーとバッターが動いている領域)にサブ画像5が重ね合わされると、視聴者は、ベース画像4の重要な動きを見失うおそれがある(図4に示す重ね合わせ画像6の例では、ピッチャーとバッターの動作がサブ画像5の表示によって隠れている)。
また、MPEG2方式では、大量の動画像が圧縮されており、圧縮された動画像をデコードする際に、膨大なリアルタイム処理を行わなければならない。
本発明は、ベースとなる動画像の最適な領域にサブ画像を重ね合わせることが可能な画像処理装置およびその方法、並びにプログラムを提供することにある。
本発明の第1の観点の画像処理装置は、ベースとなる動画像にサブ画像を重ね合わせる処理が可能な画像処理装置であって、上記動画像を表示するベース画像表示領域内で上記サブ画像と同じ大きさで位置が異なる、サブ画像を表示可能な全ての候補領域の中から、上記サブ画像を表示すべきサブ画像表示領域を検出する検出部と、上記検出したサブ画像表示領域に上記サブ画像を表示させて、当該サブ画像を上記動画像と重ね合わせる画像重ね合わせ部と、を有し、上記検出部は、上記ベース画像表示領域の原点を含む第1の候補領域をスキャンの開始点として、X方向とY方向の一方の方向に候補領域をシフトする第1のスキャン動作を、上記ベース画像表示領域内で最終となる第2の候補領域まで行い、上記第1のスキャン動作の各シフト後の候補領域と上記第1の候補領域とを含む複数の候補領域の中から、上記動画像の動き量が最小の候補領域を求め、当該求めた候補領域の位置から上記サブ画像表示領域の上記一方の方向の開始点を決定し前記第2の候補領域をスキャンの開始点として、X方向とY方向の他方の方向に候補領域をシフトする第2のスキャン動作を、上記ベース画像表示領域内で最終となる第3の候補領域まで行い、上記第2のスキャン動作の各シフト後の候補領域と上記第2の候補領域とを含む複数の候補領域の中から、上記動画像の動き量が最小の候補領域を求め、当該求めた候補領域の位置から上記サブ画像表示領域の上記他方の方向の開始点を決定する
好適には、上記動画像は、当該動画像に含まれる複数の画像のそれぞれが所定数の画素からなる複数のブロックに分割されて所定の圧縮処理が施されたものであり、上記検出部によって上記第1および第2のスキャン動作における各シフト後に得られた各候補領域は、上記ブロックを単位とした領域であり、上記検出部は、上記動画像が含む各画像のブロックから動きベクトル情報を取得し、当該取得した動きベクトルを用いて、上記一方または他方の方向における上記動画像の動き量の最小値を上記各シフト後に得られた候補領域ごとに求める
好適には、上記検出部は、上記ブロックを所定方向にスキャンして所定数のブロックからなる上記候補領域の位置をブロック単位でシフトし上記候補領域の位置をブロック単位でシフトするたびに、上記動き量の総和を候補領域ごとに算出して当該総和の最小値を保持し更新することで、当該総和が最小となる候補領域を算出する。
好適には、第1の観点の画像処理装置は、上記画像重ね合わせ部が出力した動画像を表示する表示部を有する。
本発明の第2の観点の画像処理方法は、ベースとなる動画像にサブ画像を重ね合わせる処理が可能な画像処理方法であって、上記動画像を表示するベース画像表示領域内で上記サブ画像と同じ大きさで位置が異なる、サブ画像を表示可能な全ての候補領域の中から、上記サブ画像を表示すべきサブ画像表示領域を検出する検出ステップと、上記検出したサブ画像表示領域に上記サブ画像を表示させて、当該サブ画像を上記動画像と重ね合わせる画像重ね合わせステップと、を有し、上記検出ステップは、上記ベース画像表示領域の原点を含む第1の候補領域をスキャンの開始点として、X方向とY方向の一方の方向に候補領域をシフトする第1のスキャン動作を、上記ベース画像表示領域内で最終となる第2の候補領域まで行い、上記第1のスキャン動作の各シフト後の候補領域と上記第1の候補領域とを含む複数の候補領域の中から、上記動画像の動き量が最小の候補領域を求め、当該求めた候補領域の位置から上記サブ画像表示領域の上記一方の方向の開始点を決定する第1のステップと、前記第2の候補領域をスキャンの開始点として、X方向とY方向の他方の方向に候補領域をシフトする第2のスキャン動作を、上記ベース画像表示領域内で最終となる第3の候補領域まで行い、上記第2のスキャン動作の各シフト後の候補領域と上記第2の候補領域とを含む複数の候補領域の中から、上記動画像の動き量が最小の候補領域を求め、当該求めた候補領域の位置から上記サブ画像表示領域の上記他方の方向の開始点を決定する第2のステップと、を含む
好適には、上記動画像は、当該動画像に含まれる複数の画像のそれぞれが所定数の画素からなる複数のブロックに分割されて所定の圧縮処理が施されたものであり、上記第1および第2のスキャン動作における各シフト後に得られた各候補領域は、上記ブロックを単位とした領域であり、上記第1および第2のステップでは、上記動画像が含む各画像のブロックから動きベクトル情報を取得し、上記ブロックを所定方向にスキャンして所定数のブロックからなる上記候補領域の位置をブロック単位でシフトし、上記候補領域の位置をブロック単位でシフトするたびに、上記動き量の総和を候補領域ごとに算出して当該総和の最小値を保持し更新することで、当該総和が最小となる候補領域を算出する。
本発明の第3の観点のプログラムは、ベースとなる動画像にサブ画像を重ね合わせる処理が可能な画像処理を実行するためのプログラムであって、上記画像処理が、上記動画像を表示するベース画像表示領域内で上記サブ画像と同じ大きさで位置が異なる、サブ画像を表示可能な全ての候補領域の中から、上記サブ画像を表示すべきサブ画像表示領域を検出する検出処理と、上記検出したサブ画像表示領域に上記サブ画像を表示させて、当該サブ画像を上記動画像と重ね合わせる画像重ね合わせ処理と、を有し、上記検出処理が、上記ベース画像表示領域の原点を含む第1の候補領域をスキャンの開始点として、X方向とY方向の一方の方向に候補領域をシフトする第1のスキャン動作を、上記ベース画像表示領域内で最終となる第2の候補領域まで行い、上記第1のスキャン動作の各シフト後の候補領域と上記第1の候補領域とを含む複数の候補領域の中から、上記動画像の動き量が最小の候補領域を求め、当該求めた候補領域の位置から上記サブ画像表示領域の上記一方の方向の開始点を決定する第1の処理と、前記第2の候補領域をスキャンの開始点として、X方向とY方向の他方の方向に候補領域をシフトする第2のスキャン動作を、上記ベース画像表示領域内で最終となる第3の候補領域まで行い、上記第2のスキャン動作の各シフト後の候補領域と上記第2の候補領域とを含む複数の候補領域の中から、上記動画像の動き量が最小の候補領域を求め、当該求めた候補領域の位置から上記サブ画像表示領域の上記他方の方向の開始点を決定する第2の処理と、を含み、上記第1および第2の処理を含む上記検出処理と上記画像重ね合わせ処理とをコンピュータに実行させる、プログラムである。
好適には、上記動画像は、当該動画像に含まれる複数の画像のそれぞれが所定数の画素からなる複数のブロックに分割されて所定の圧縮処理が施されたものであり、上記第1および第2の処理における各シフト後に得られた各候補領域は、上記ブロックを単位とした領域であり、上記第1および第2の処理では、上記ブロックを所定方向にスキャンして所定数のブロックからなる上記候補領域の位置をブロック単位でシフトし、上記候補領域の位置をブロック単位でシフトするたびに、上記動き量の総和を候補領域ごとに算出して当該総和の最小値を保持し更新することで、当該総和が最小となる候補領域を算出する、各処理をコンピュータに実行させる。
本発明によれば、ベースとなる動画像にサブ画像を重ね合わせる処理が可能な画像処理装置において、検出部が動き量の小さい領域を検出する。そして、画像重ね合わせ部が、検出部で検出した動き量の小さい領域に上記サブ画像を重ね合わせる。
本発明によれば、ベースとなる動画像の最適な領域にサブ画像を重ね合わせることができる。
以下、本発明の実施形態を図面に関連付けて説明する。
(第1実施形態)
図5は、本実施形態に係る画像処理方法を採用した画像処理装置の一構成例を示すブロック図である。
図5に示す画像処理装置10は、分類部(DEMUX)11、メモリ(MEM)12、メインデコーダ(MDEC)13、サブデコーダ(SDEC)14、メイン処理部(MPIC)15、サブ処理部(SPIC)16、検出部(PCAL)17、画像重ね合わせ部(BLEN)18、制御部(CPU)19、および表示パネル(PANEL)20を有する。
次に、画像処理装置10の各構成部について説明する。
分類部11は、たとえばMPEG2方式によって符号化され、圧縮された動画像の初期ビットストリーム(TS(Transport Stream))、もしくはプログラムストリーム(PS(Program Stream))が画像処理装置10の外部から入力される。分類部11は、たとえば、制御部19の制御に基づいて、入力された初期ビットストリームもしくはプログラムストリームをベースとなる動画像等のデータ、地震速報や天気予報、プログラムガイド、テレビジョンのメニュ、字幕等のデータ、および音声等に分類してメモリ12に出力する。
以後の説明において、本実施形態では、動画像等のデータをメインデータと表記し、地震速報や天気予報、プログラムガイド、テレビジョンのメニュ、字幕等のデータをサブデータと表記する。また、本実施形態では、メインデータで構成されている動画像の各フレームをベース画像と表記し、サブデータで構成されている静止画像をサブ画像と表記する。なお、本実施形態は一例であって、メインデータおよびサブデータの内容等は特に限定されない。また、本実施形態では、サブ画像は静止画像であるが、たとえば動画像であってもよい。
メモリ12は、たとえば制御部19の制御に基づいて、分類部11により分類された各種データが入力される。メモリ12は、たとえばメインデータやサブデータ、音声等を所定のメモリ領域に記憶し、メインデコーダ13、およびサブデコーダ14に所定のデータをそれぞれ出力する。
メインデコーダ13は、たとえば制御部19の制御に基づいて、メモリ12からメインデータを読み出し、読み出したメインデータをデコードして、デコードしたメインデータをフレーム単位でメイン処理部15に出力する。また、メインデコーダ13は、たとえばフレーム毎の各マクロブロックの動きベクトル情報を取得して、検出部17に出力する。
サブデコーダ14は、たとえばメモリ12からサブデータを読み出し、制御部19の制御に基づいて、読み出したサブデータをデコードし、サブ処理部16に出力する。
メイン処理部15は、たとえばメインデコーダ13からデコードされた動きベクトル情報等を含むメインデータが入力される。メイン処理部15は、たとえば制御部19の制御に基づいて、このメインデータをフレーム毎に表示パネル20の表示領域に応じた拡大や縮小を行い、処理した動画像に関するデータ(たとえば表示位置や表示サイズ等)等を画像重ね合わせ部18に出力する。
サブ処理部16は、たとえばサブデコーダ14からデコードされたサブデータが入力され、制御部19から入力された設定パラメータに応じた拡大や縮小を行って、処理したデータを画像重ね合わせ部18に出力する。
検出部17は、たとえばメインデコーダ13からデコードされた動きベクトル情報等を含むメインデータが入力される。検出部17は、制御部19の制御に基づいて、各ベース画像の各ブロックから動きベクトル情報を取得する。また、検出部17は、動きベクトル情報から上記ベース画像間の動きベクトル値の変動が小さい領域を算出して、ベース画像上に重ね合わせるための位置を演算し、その演算結果を画像重ね合わせ部18に出力する。また、検出部17は、上述した位置の演算を制御部19により決められた秒数毎に行う。
ここで、上記に述べたベース画像間の動きベクトル値の変動が小さい領域について具体例を挙げて説明する。
図6は、本実施形態に係る位置算出部で算出された動きベクトル値の変動が小さい領域について説明するための一例を示す図である。
動画像の多くは、画像の動きが活発的な領域と活発的でない領域とに分けられる。たとえば、図6のベース画像は、画像の動きが活発的な領域RGNL、および領域RGNLと比較して画像の動きが活発的でない領域RGNRに分けられる。図6に示す一例は、MPEG2方式で圧縮されている動画像であって、領域RGNRは、領域RGNLと比較して変動が小さい動きベクトル値を有する。
画像重ね合わせ部18は、たとえばメイン処理部15からメインデータを含む動画像が、サブ処理部16からサブデータを含む静止画像が、および検出部17からサブ画像の表示位置に関するパラメータ等がそれぞれ入力される。画像重ね合わせ部18は、この各パラメータや制御部19の制御に基づいて、ベース画像間の動きベクトル値の変動が小さい領域にサブ画像を重ね合わせて一枚のフレーム(画像)にし、重ね合わされたフレームを表示パネル20に出力する。
ここで、画像重ね合わせ部18が重ね合わせたベース画像およびサブ画像について一例を示す。
図7は、本実施形態に係る画像重ね合わせ部が重ね合わせたベース画像およびサブ画像についての一例を示す図である。
図7に示すベース画像は、図6に示すベース画像と同一の画像である。図7に示すように、画像重ね合わせ部18は、ベース画像間の動きベクトル値の変動が小さい領域RGNRに、サブ画像SUBPを重ね合わせる。
制御部19は、たとえば、各構成部の初期パラメータ等や、ベース画像の表示位置等を設定し、メモリ12、メインデコーダ13、サブデコーダ14、メイン処理部15、サブ処理部16、および検出部17間との制御をそれぞれ行う。また、制御部19は、たとえば、分類部11や画像重ね合わせ部18の制御を行う。
表示パネル20は、たとえばCRT(Cathode Ray Tube)ディスプレイや液晶ディスプレイである。表示パネル20は、画像重ね合わせ部18からベース画像とサブ画像とが重ね合わされたフレームが順次入力され、表示する。なお、表示パネル20は、CRTディスプレイや液晶ディスプレイに限定されない。
次に、表示パネル20の表示領域について説明する。
図8は、本実施形態に係る表示パネルにおける表示領域の一例を示す図である。
図8に示すように、表示パネル20は、ベース画像を表示するベース画像領域201、およびサブ画像を表示するサブ画像領域202を有する。
図8に示すように、本実施形態では、たとえば表示パネル20の左上端を原点O(O(0,0)とする。また、以後の実施形態の説明において、表示領域に使用する単位をPixel(ピクセル)とし、その単位の表記は省略する。
ベース画像領域201は、その原点O’を、たとえば表示パネル20の原点OからX軸方向にmvp_hst、Y軸方向にmvp_vstの位置(O’(mvp_hst,mvp_vst))とする。また、ベース画像領域201は、その領域を原点O’からX軸方向にmvp_hsz、Y軸方向に、mvp_vszの範囲とする。
サブ画像領域202は、その原点O’’を、たとえば原点OからX軸方向に(mvp_hst+sub_hst)、Y軸方向にsub_vstの位置とする。また、サブ画像領域202は、その領域を原点O’’からX軸方向にsub_hsz、Y軸方向にsub_vszの範囲とする。
本実施形態では、ベース画像領域201のベース画像をマクロブロックに分割する。次に、このマクロブロックについて説明する。
図9は、本実施形態に係る動画像のマクロブロックの一構成例を示す図である。
図9に示すように、本実施形態では、表示パネル20において、たとえばベース画像領域201のベース画像をマトリクス状に(m+1)×(n+1)個のマクロブロック(blk)203に分割する。また、任意のマクロブロック203を単にblk(Xi,Yj)と表記する。
ただし、m、およびnは、それぞれベース画像の横幅(X軸方向)、および縦幅(Y軸方向)に相当するマクロブロックの個数で正の整数(0、1、…)である。また、i、およびjは、正の整数(0、1、…)である。
次に、本実施形態に係る画像処理方法を採用した画像処理装置の動作について、図5、図8から図10を参照して説明する。
図10は、本実施形態に係る画像処理方法を採用した画像処理装置のフローチャートである。
以下の説明では、図5に示す検出部17の動作を中心に説明する。
たとえば、分類部11がMPEG2方式によって符号化され、圧縮された動画像を少なくともメインデータおよびサブデータに分類してメモリ12に記憶させる。メインデコーダ13およびサブデコーダ14がそれぞれ対応したデータをメモリ12から読み出してデコードし、それぞれ対応した構成部に出力する。そして、あらかじめ、メイン処理部15、サブ処理部16、および検出部17には、それぞれ所定の動画像等のデータがそれぞれ入力されているものとする。
(ステップST11)
ステップST11においては、ベース画像およびサブ画像の表示領域に関する各パラメータの初期設定を行う。
具体的には、本実施形態では、ベース画像領域201の表示領域を、たとえばmvp_hsz=(m+1)×16、mvp_vsz=(n+1)×16と設定する(図8を参照)。また、本実施形態では、サブ画像領域202(図8を参照)の表示領域を、たとえばsub_hsz=(p+1)×16、sub_vsz=(q+1)×16と設定する。ただし、p、およびqは、それぞれサブ画像の横幅(X軸方向)、および縦幅(Y軸方向)に相当するマクロブロックの個数を表すための数であり正の整数(0、1、…)である。
(ステップST12)
ステップST12においては、検出部17がベース画像をX軸定方向にスキャンしながら、隣接しているマクロブロック間の動きベクトル値の総和を求める。
具体的には、たとえば図9に示すように、ベース画像領域201の原点O’に位置しているblk(X0,Y0)をスキャンの開始点とする(i=0)。検出部17は、このblk(X0,Y0)から同一行のX軸方向に、サブ画像領域202の横幅に相当する(p+1)個のマクロブロック203(たとえば、blk(X0、Y0)〜blk(X(0+p)、Y0)を選択し、動きベクトル値の総和ΣI(X)を計算する。
そして、検出部17は、この総和ΣI(X)を最小値Lowest_Xとする(Lowest_X=ΣI(X))。また、この時、サブ画像領域202の原点O’’は、sub_hst=0、sub_vst=0、すなわちO’’(0,0)の位置である。
(ステップST13)
ステップST13においては、説明を簡単にするため、スキャンの開始点がi(たとえばblk(Xi,Yj))にあるとする。
検出部17が、同一行において、スキャンの開始点をX軸方向に隣接した1つ分のマクロブロック203だけずらした位置に変更する(i=i+1)。したがって、この時、スキャンの開始点は、blk(X(i+1)、Y0)となる。
(ステップST14)
ステップST14は、ベース画像領域201の境界(X軸方向)の処理に関する。
具体的には、検出部17によるスキャンの開始点において、サブ画像領域202の一端(たとえば選択された(p+1)個目のマクロブロック203)がX軸方向における最終のマクロブロック203(たとえば図9に示すblk(Xm、Y0))に達した場合((i+p)>m)、検出部17は、ステップST18の処理を行う。
このステップST14により、サブ画像領域202のX軸方向の開始点が決定される。
検出部17によるスキャンの開始点において、サブ画像領域202の一端がX軸方向の最終マクロブロックに達していない場合((i+p)≦m)、検出部17は、ステップST15の処理を行う。
(ステップST15)
ステップST15においては、検出部17が、たとえば同一行において、blk(Xi,Y0)からX軸方向に隣接した(p+1)個のマクロブロック203(たとえば、blk(Xi、Y0)〜blk(X(i+p)、Y0)を選択し、動きベクトル値の総和ΣI(X)を計算する。
(ステップST16)
ステップST16においては、検出部17が総和ΣI(X)とステップST12で求めた最小値Lowest_Xとを比較する。
具体的には、検出部17は、総和ΣI(X)がステップST12で求めた最小値Lowest_Xより大きい場合(ΣI(X)≧Lowest_X)、ステップST13の処理を行う。
検出部17は、総和ΣI(X)がステップST12で求めた最小値Lowest_Xより小さい場合(ΣI(X)<Lowest_X)、ステップST17の処理を行う。
(ステップST17)
ステップST17においては、検出部17が、ステップST15で算出した総和ΣI(X)を最新の最小値Lowest_X(Lowest_X=ΣI(X))に更新し、マクロブロック203のX軸方向のスキャン開始位置をsub_hst=i×16に設定する。そして、検出部17は、ステップST13の処理を行う。
(ステップST18)
ステップST18においては、検出部17がベース画像をY軸定方向にスキャンしながら、隣接しているマクロブロック間の動きベクトル値の総和を求める。
具体的には、検出部17は、たとえば図9に示すように、スキャンの開始点のマクロブロック203をblk(Xi,Y0)とし、blk(Xi,Y0)から同一列のY軸方向に隣接した(q+1)個のマクロブロック203(たとえば、blk(Xi、Y0)〜blk(Xi、Y(0+q))を選択し、動きベクトル値の総和ΣI(Y)を計算する。
そして、検出部17は、この総和ΣI(Y)を最小値Lowest_Yとする(Lowest_Y=ΣI(Y))。
(ステップST19)
ステップST19においては、検出部17が、同一列において、スキャンの開始点をY軸方向に隣接した1つ分のマクロブロック203だけずらした位置に変更する(j=j+1)。したがって、この時、スキャンの開始点は、blk(Xi、Y(j+1))となる。
(ステップST110)
ステップST110は、ベース画像領域201の境界(Y軸方向)の処理に関する。
具体的には、検出部17によるスキャンの開始点において、サブ画像領域202の一端(たとえば選択された(q+1)個目のマクロブロック203)がY軸方向における最終のマクロブロック203(たとえばblk(Xi、Yn))に達した場合((j+q)>n)、検出部17は、処理を終了する(END)。
このステップST14により、サブ画像領域202のY軸方向の開始点が決定される。
検出部17によるスキャンの開始点がY軸方向の最終マクロブロックに達していない場合((j+q)≦n)、検出部17は、ステップST111の処理を行う。
(ステップST111)
ステップST111においては、検出部17が、たとえば同一列において、blk(Xi,Yj)からY軸方向に隣接した(q+1)個のマクロブロック203(たとえば、blk(Xi、Yj)〜blk(Xi、Y(j+q))を選択し、動きベクトル値の総和ΣI(Y)を計算する。
(ステップST112)
ステップST112においては、検出部17が総和ΣI(Y)とステップST18で求めた最小値Lowest_Yとを比較する。
具体的には、検出部17は、総和ΣI(Y)がステップST18で求めた最小値Lowest_Yより大きい場合(ΣI(Y)≧Lowest_Y)、ステップST19の処理を行う。
検出部17は、総和ΣI(Y)が第8ステップST8で求めた最小値Lowest_Yより小さい場合(ΣI(Y)<Lowest_Y)、第13ステップST13の処理を行う。
(ステップST113)
ステップST113においては、検出部17が、ステップST111で算出した総和ΣI(Y)を最新の最小値Lowest_Y(Lowest_Y=ΣI(Y))に更新し、マクロブロック203のY軸方向のスキャン開始位置をsub_vst=j×16に設定する。そして、検出部17は、ステップST19の処理を行う。
なお、ステップST11からステップST113の処理で、サブ画像領域202の表示領域が決定されない場合、検出部17は、ベース画像領域201の原点O’をサブ画像領域202の開始点とする。
以上に述べたように、検出部17は、ベース画像領域201の原点O’(mvp_hst、mvp_vst)をスキャンの開始点としてX軸方向に順次スキャンしながら(p+1)個のマクロブロックの動きベクトル値を算出し、その総和が最小となる位置をサブ画像領域202のX軸方向の開始点とする。次に、検出部17は、Y軸方向に順次スキャンしながら(q+1)個のマクロブロックの動きベクトル値を算出し、その総和が最小となる位置をサブ画像領域202のY軸方向の開始点とする。そして、検出部17は、隣接するマクロブロック203の領域を算出して、この領域をサブ画像領域202とする。
そして、画像重ね合わせ部18は、検出部17の算出結果に基づいて、メイン処理部15から入力されたベース画像のサブ画像領域202にサブ処理部16から入力されたサブ画像を重ね合わせる。
表示パネル20は、画像重ね合わせ部18から入力された動画像を表示する。
上述したように、本実施形態では、動画像の動きが穏やかな領域にサブ画像を表示するため、サブ画像が放送中のベース画像に与える影響が減少する利点がある。
また、本実施形態では、サブ画像をベース画像のあらかじめ定まった位置に表示する必要がないため、表示パネルの表示領域を有効に活用することができる。たとえば、本実施形態では、テレビジョン番組の放映中にサブ画像としてコマーシャルメッセージを表示する際に、テレビジョン番組の表示領域を変更させることなくサブ画像を表示させることができる。
本実施形態では、たとえばMPEG2方式で圧縮された動画像のビットストリームを使用し、このビットストリームに含まれている動きベクトル情報を利用して、最適なサブ画像の表示領域を取得する。このため、本動画像処理システムは、高品位テレビジョンやDVD等に簡単に実装することができる。
(第2実施形態)
次に、本発明の第2実施形態について説明する。
図11は、本実施形態に係る画像処理方法を採用した画像処理装置のフローチャートである。
第1実施形態では、図10に示すステップST11からステップST113で示したように、検出部17が、ベース画像領域201のX軸方向のスキャン開始位置を位置sub_hstに固定した後、Y軸方向のスキャン開始の位置sub_vstを算出する。
本実施形態では、検出部17が、始めにベース画像領域201のY軸方向のスキャン開始位置を位置sub_vstに固定してから、X軸方向のスキャン開始位置sub_hstを算出する。
すなわち、図11に示すように、本実施形態に係るステップST22からステップST27は、第1実施形態に係るステップST18からステップST113に対応し、本実施形態の係るステップST28からステップST213は、第1実施形態に係るステップST12からステップST17に対応する。
また、本実施形態においても、第1実施形態と同様の効果を得ることができる。
また、たとえば検出部17が第1実施形態に係るステップST11からステップST13(図10を参照)にて演算されたX軸方向の総和ΣI(X)およびY軸方向の総和ΣI(Y)の各値を低い順にソートする。そして、検出部17がソートされた総和ΣI(X)および総和ΣI(Y)のすべての組み合わせを算出して、動きベクトル値変動が小さい領域を求めるようにしてもよい。
さらに、たとえば検出部17が第2実施形態に係るステップST21からステップST213(図11を参照)を用いて総和ΣI(X)および総和ΣI(Y)を求めてもよい。
なお、上述した本発明に係る第1、および第2実施形態は一実施例であって、画像処理装置10の構成は、特に限定されない。
また、以上に詳細に説明した方法は、上記手順に応じたプログラムとして形成し、CPU等のコンピュータで実行するように構成することも可能である。
さらに、このようなプログラムは、半導体メモリ、磁気ディスク、光ディスク、フロッピー(登録商標)ディスク等の記録媒体、この記録媒体をセットしたコンピュータによりアクセスし、上記プログラムを実行するように構成可能である。
フレーム間予測符号化を説明するための図である。 マクロブロックを説明するための図である。 動きベクトルを説明するための図である。 サブ画像とベース画像との重ね合わせについて説明するための図である。 本実施形態に係る画像処理方法を採用した画像処理装置の一構成例を示すブロック図である。 本実施形態に係る位置算出部で算出された動きベクトル値の変動について説明するための一例を示す図である。 本実施形態に係る画像重ね合わせ部が重ね合わせたベース画像およびサブ画像についての一例を示す図である。 本実施形態に係る表示パネルにおける表示領域の一例を示す図である。 本実施形態に係る動画像のマクロブロックの一構成例を示す図である。 本実施形態に係る画像処理方法を採用した画像処理装置のフローチャートである。 本実施形態に係る画像処理方法を採用した画像処理装置のフローチャートである。
符号の説明
10…画像処理装置、11…分類部(DEMUX)、12…メモリ(MEM)、13…メインデコーダ(MDEC)、14…サブデコーダ(SDEC)、15…メイン処理部(MPIC)、16…サブ処理部(SPIC)、17…検出部(PCAL)、18…画像重ね合わせ部(BLEN)、19…制御部(CPU)、20…表示パネル(PANEL)、201…ベース画像領域、202…サブ画像領域、203…マクロブロック、Lowest…最小値、O…原点、O’…(ベース画像の)原点、O’’…(サブ画像の)原点、SUBP…サブ画像。

Claims (8)

  1. ベースとなる動画像にサブ画像を重ね合わせる処理が可能な画像処理装置であって、
    上記動画像を表示するベース画像表示領域内で上記サブ画像と同じ大きさで位置が異なる、サブ画像を表示可能な全ての候補領域の中から、上記サブ画像を表示すべきサブ画像表示領域を検出する検出部と、
    上記検出したサブ画像表示領域に上記サブ画像を表示させて、当該サブ画像を上記動画像と重ね合わせる画像重ね合わせ部と、
    を有し、
    上記検出部は、
    上記ベース画像表示領域の原点を含む第1の候補領域をスキャンの開始点として、X方向とY方向の一方の方向に候補領域をシフトする第1のスキャン動作を、上記ベース画像表示領域内で最終となる第2の候補領域まで行い、
    上記第1のスキャン動作の各シフト後の候補領域と上記第1の候補領域とを含む複数の候補領域の中から、上記動画像の動き量が最小の候補領域を求め、当該求めた候補領域の位置から上記サブ画像表示領域の上記一方の方向の開始点を決定し
    前記第2の候補領域をスキャンの開始点として、X方向とY方向の他方の方向に候補領域をシフトする第2のスキャン動作を、上記ベース画像表示領域内で最終となる第3の候補領域まで行い、
    上記第2のスキャン動作の各シフト後の候補領域と上記第2の候補領域とを含む複数の候補領域の中から、上記動画像の動き量が最小の候補領域を求め、当該求めた候補領域の位置から上記サブ画像表示領域の上記他方の方向の開始点を決定する
    画像処理装置。
  2. 上記動画像は、当該動画像に含まれる複数の画像のそれぞれが所定数の画素からなる複数のブロックに分割されて所定の圧縮処理が施されたものであり、
    上記検出部によって上記第1および第2のスキャン動作における各シフト後に得られた各候補領域は、上記ブロックを単位とした領域であり、
    上記検出部は、上記動画像が含む各画像のブロックから動きベクトル情報を取得し、当該取得した動きベクトルを用いて、上記一方または他方の方向における上記動画像の動き量の最小値を上記各シフト後に得られた候補領域ごとに求める
    請求項1記載の画像処理装置。
  3. 上記検出部は、
    上記ブロックを所定方向にスキャンして所定数のブロックからなる上記候補領域の位置をブロック単位でシフトし、
    上記候補領域の位置をブロック単位でシフトするたびに、上記動き量の総和を候補領域ごとに算出して当該総和の最小値を保持し更新することで、当該総和が最小となる候補領域を算出する、
    請求項2記載の画像処理装置。
  4. 上記画像重ね合わせ部が出力した動画像を表示する表示部を有する、
    請求項1から3の何れか一項に記載の画像処理装置。
  5. ベースとなる動画像にサブ画像を重ね合わせる処理が可能な画像処理方法であって、
    上記動画像を表示するベース画像表示領域内で上記サブ画像と同じ大きさで位置が異なる、サブ画像を表示可能な全ての候補領域の中から、上記サブ画像を表示すべきサブ画像表示領域を検出する検出ステップと、
    上記検出したサブ画像表示領域に上記サブ画像を表示させて、当該サブ画像を上記動画像と重ね合わせる画像重ね合わせステップと、
    を有し、
    上記検出ステップは、
    上記ベース画像表示領域の原点を含む第1の候補領域をスキャンの開始点として、X方向とY方向の一方の方向に候補領域をシフトする第1のスキャン動作を、上記ベース画像表示領域内で最終となる第2の候補領域まで行い、上記第1のスキャン動作の各シフト後の候補領域と上記第1の候補領域とを含む複数の候補領域の中から、上記動画像の動き量が最小の候補領域を求め、当該求めた候補領域の位置から上記サブ画像表示領域の上記一方の方向の開始点を決定する第1のステップと、
    前記第2の候補領域をスキャンの開始点として、X方向とY方向の他方の方向に候補領域をシフトする第2のスキャン動作を、上記ベース画像表示領域内で最終となる第3の候補領域まで行い、上記第2のスキャン動作の各シフト後の候補領域と上記第2の候補領域とを含む複数の候補領域の中から、上記動画像の動き量が最小の候補領域を求め、当該求めた候補領域の位置から上記サブ画像表示領域の上記他方の方向の開始点を決定する第2のステップと、
    を含む画像処理方法。
  6. 上記動画像は、当該動画像に含まれる複数の画像のそれぞれが所定数の画素からなる複数のブロックに分割されて所定の圧縮処理が施されたものであり、
    上記第1および第2のスキャン動作における各シフト後に得られた各候補領域は、上記ブロックを単位とした領域であり、
    上記第1および第2のステップでは、
    上記ブロックを所定方向にスキャンして所定数のブロックからなる上記候補領域の位置をブロック単位でシフトし、
    上記候補領域の位置をブロック単位でシフトするたびに、上記動き量の総和を候補領域ごとに算出して当該総和の最小値を保持し更新することで、当該総和が最小となる候補領域を算出する、
    請求項5に記載の画像処理方法。
  7. ベースとなる動画像にサブ画像を重ね合わせる処理が可能な画像処理を実行するためのプログラムであって、
    上記画像処理が、
    上記動画像を表示するベース画像表示領域内で上記サブ画像と同じ大きさで位置が異なる、サブ画像を表示可能な全ての候補領域の中から、上記サブ画像を表示すべきサブ画像表示領域を検出する検出処理と、
    上記検出したサブ画像表示領域に上記サブ画像を表示させて、当該サブ画像を上記動画像と重ね合わせる画像重ね合わせ処理と、を有し、
    上記検出処理が、
    上記ベース画像表示領域の原点を含む第1の候補領域をスキャンの開始点として、X方向とY方向の一方の方向に候補領域をシフトする第1のスキャン動作を、上記ベース画像表示領域内で最終となる第2の候補領域まで行い、上記第1のスキャン動作の各シフト後の候補領域と上記第1の候補領域とを含む複数の候補領域の中から、上記動画像の動き量が最小の候補領域を求め、当該求めた候補領域の位置から上記サブ画像表示領域の上記一方の方向の開始点を決定する第1の処理と、
    前記第2の候補領域をスキャンの開始点として、X方向とY方向の他方の方向に候補領域をシフトする第2のスキャン動作を、上記ベース画像表示領域内で最終となる第3の候補領域まで行い、上記第2のスキャン動作の各シフト後の候補領域と上記第2の候補領域とを含む複数の候補領域の中から、上記動画像の動き量が最小の候補領域を求め、当該求めた候補領域の位置から上記サブ画像表示領域の上記他方の方向の開始点を決定する第2の処理と、
    を含み、
    上記第1および第2の処理を含む上記検出処理と上記画像重ね合わせ処理とをコンピュータに実行させる
    プログラム。
  8. 上記動画像は、当該動画像に含まれる複数の画像のそれぞれが所定数の画素からなる複数のブロックに分割されて所定の圧縮処理が施されたものであり、
    上記第1および第2の処理における各シフト後に得られた各候補領域は、上記ブロックを単位とした領域であり、
    上記第1および第2の処理では、
    上記ブロックを所定方向にスキャンして所定数のブロックからなる上記候補領域の位置をブロック単位でシフトし、
    上記候補領域の位置をブロック単位でシフトするたびに、上記動き量の総和を候補領域ごとに算出して当該総和の最小値を保持し更新することで、当該総和が最小となる候補領域を算出する、
    各処理をコンピュータに実行させる、
    請求項7記載のプログラム。
JP2007167374A 2007-06-26 2007-06-26 画像処理装置およびその方法、並びにプログラム Expired - Fee Related JP5217270B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007167374A JP5217270B2 (ja) 2007-06-26 2007-06-26 画像処理装置およびその方法、並びにプログラム
US12/123,936 US8228432B2 (en) 2007-06-26 2008-05-20 Picture processing device, method therefor, and program
CN2008101305251A CN101335858B (zh) 2007-06-26 2008-06-26 画面处理装置、方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007167374A JP5217270B2 (ja) 2007-06-26 2007-06-26 画像処理装置およびその方法、並びにプログラム

Publications (3)

Publication Number Publication Date
JP2009010460A JP2009010460A (ja) 2009-01-15
JP2009010460A5 JP2009010460A5 (ja) 2010-05-06
JP5217270B2 true JP5217270B2 (ja) 2013-06-19

Family

ID=40160605

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007167374A Expired - Fee Related JP5217270B2 (ja) 2007-06-26 2007-06-26 画像処理装置およびその方法、並びにプログラム

Country Status (3)

Country Link
US (1) US8228432B2 (ja)
JP (1) JP5217270B2 (ja)
CN (1) CN101335858B (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100016741A (ko) * 2008-08-05 2010-02-16 삼성전자주식회사 영상처리장치 및 그 제어 방법
JP5627617B2 (ja) * 2012-02-22 2014-11-19 株式会社東芝 画像処理装置及び画像表示システム
KR101560186B1 (ko) * 2013-03-18 2015-10-14 삼성전자주식회사 움직임 예측에 있어 적응적 탐색 범위 결정을 이용한 부호화, 복호화 방법 및 장치
CN104349200B (zh) * 2013-08-09 2018-04-03 晨星半导体股份有限公司 电视控制装置与相关方法
JP6352126B2 (ja) * 2014-09-17 2018-07-04 ヤフー株式会社 広告表示装置、広告表示方法、及び広告表示プログラム
CN107786904A (zh) * 2017-10-30 2018-03-09 深圳Tcl数字技术有限公司 画面放大方法、显示设备及计算机可读存储介质
CN111314626B (zh) * 2020-02-24 2021-12-07 北京字节跳动网络技术有限公司 用于处理视频的方法和装置
CN112667518B (zh) * 2021-01-11 2024-05-31 宁波弘讯科技股份有限公司 注塑机控制器的软件测试方法、装置、系统及可读存储介质

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06205324A (ja) * 1993-01-07 1994-07-22 Oki Electric Ind Co Ltd Pipの子画面位置制御方法及び装置
JPH1013799A (ja) * 1996-06-19 1998-01-16 Mega Chips:Kk テレビ電話装置
JPH10200873A (ja) * 1997-01-16 1998-07-31 Sharp Corp テレビ電話装置
US6046778A (en) * 1997-10-29 2000-04-04 Matsushita Electric Industrial Co., Ltd. Apparatus for generating sub-picture units for subtitles and storage medium storing sub-picture unit generation program
JP4240785B2 (ja) * 2000-08-31 2009-03-18 キヤノン株式会社 受信装置、及び受信装置の制御方法
JP4765194B2 (ja) * 2001-05-10 2011-09-07 ソニー株式会社 動画像符号化装置、動画像符号化方法、動画像符号化プログラム格納媒体及び動画像符号化プログラム
JP3944225B2 (ja) * 2002-04-26 2007-07-11 株式会社エヌ・ティ・ティ・ドコモ 画像符号化装置、画像復号装置、画像符号化方法、画像復号方法、画像符号化プログラム及び画像復号プログラム
JP2004073416A (ja) 2002-08-14 2004-03-11 Sankyo Kk 遊技機
JP2005242204A (ja) * 2004-02-27 2005-09-08 Matsushita Electric Ind Co Ltd 情報表示方法及び情報表示装置
JP4476723B2 (ja) * 2004-07-14 2010-06-09 アルパイン株式会社 画像表示装置
EP1855463B1 (en) * 2005-02-21 2010-04-28 Panasonic Corporation Moving picture processing method
JP4011082B2 (ja) * 2005-11-08 2007-11-21 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、グラフィックプロセッサ、制御用プロセッサおよび情報処理方法
JP4861109B2 (ja) * 2006-09-27 2012-01-25 富士通株式会社 画像データ処理装置、画像データ処理方法、画像データ処理プログラム、および、撮像装置
JP2008160620A (ja) * 2006-12-26 2008-07-10 Matsushita Electric Ind Co Ltd 画像処理装置および撮像装置
JP2009071689A (ja) * 2007-09-14 2009-04-02 Sony Corp 画像処理装置、画像処理方法および撮像装置

Also Published As

Publication number Publication date
CN101335858A (zh) 2008-12-31
CN101335858B (zh) 2011-09-07
US8228432B2 (en) 2012-07-24
JP2009010460A (ja) 2009-01-15
US20090003727A1 (en) 2009-01-01

Similar Documents

Publication Publication Date Title
JP5217270B2 (ja) 画像処理装置およびその方法、並びにプログラム
US8144777B2 (en) Motion vector detection method and apparatus
CN1980394A (zh) 运动矢量估计装置和运动矢量估计方法
CN102577365B (zh) 视频显示装置
JP2009010492A (ja) 画像復号化装置及び画像変換回路
JP2009239951A (ja) 動画像復号化装置
JP4764706B2 (ja) 動画像変換装置
US6178203B1 (en) Method and apparatus for two-row decoding of MPEG video
US7421152B2 (en) Method for resizing an image using the inverse discrete cosine transform
JP2007228093A (ja) 動き検出装置及び動き検出方法
US6754278B1 (en) Method for recovering moving picture by extending a damaged region in which an error occurs
JP4523024B2 (ja) 画像符号化装置および画像符号化方法
CN101437161B (zh) 视频数据处理方法和系统
US20110032431A1 (en) Frame interpolating device and frame interpolating method
US20070297506A1 (en) Decoder and decoding method
JP5377649B2 (ja) 画像処理装置および映像再生装置
CN103260025A (zh) 用于解码视频图像的方法和设备
JP2005252514A (ja) デジタル画像信号復号化装置及び復号化方法
JP4383844B2 (ja) 映像表示装置及び映像表示装置の制御方法
JP5328549B2 (ja) 画像処理装置及びその制御方法
JP5147566B2 (ja) 動きベクトル検出装置及びその方法
JP2006238378A (ja) ビデオビットストリーム復号化出力装置
JP2006217166A (ja) 画像処理装置および画像処理方法
KR100686172B1 (ko) 디지털 수신기의 부화면 조정 방법
JP2015039049A (ja) 画像処理装置及び画像処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100319

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120814

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130218

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees