JP4272771B2 - 画像処理装置、画像処理方法及びコンピュータ読み取り可能な記憶媒体 - Google Patents
画像処理装置、画像処理方法及びコンピュータ読み取り可能な記憶媒体 Download PDFInfo
- Publication number
- JP4272771B2 JP4272771B2 JP27471199A JP27471199A JP4272771B2 JP 4272771 B2 JP4272771 B2 JP 4272771B2 JP 27471199 A JP27471199 A JP 27471199A JP 27471199 A JP27471199 A JP 27471199A JP 4272771 B2 JP4272771 B2 JP 4272771B2
- Authority
- JP
- Japan
- Prior art keywords
- object data
- background object
- interpolation
- missing portion
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/20—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
- H04N19/89—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
- H04N19/895—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder in combination with error concealment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Description
【発明の属する技術分野】
本発明は、画像処理装置、画像処理方法及びコンピュータ読み取り可能な記憶媒体に関し、特にオブジェクト分離により画像を処理するものに用いて好適なものである。
【0002】
【従来の技術】
近年、高性能化したCPUを搭載したパーソナルコンピュータ(パソコン)の普及に伴い、パソコン上で行う動画像の編集に対する要求が高まってきている。
編集作業の例として、フレームもしくはフィールド間での時間順序の入れ替え、ワイプやディゾルブ、モザイク、別画像の挿入など、さまざまなものがある。
【0003】
また、画像をフレームもしくはフィールド単位等の画像単位で処理するのではなく、画像内を個々の物体、背景、あるいは文字などといった意味のある単位(以下オブジェクトと呼ぶ)に分割して、オブジェクト単位で個別の処理を加える技術も向上してきている。
【0004】
オブジェクト単位で個別の処理を加えるためには、フレームもしくはフィールド画像からオブジェクトを抽出しなければならない。動画像において、従来から行われているオブジェクト抽出の手法は、ブルーバックと呼ばれているものがある。これはスタジオセットなどで予めブルーの背景を用意しておき、スイッチャーでブルーの部分を別の背景画像に置き換えるものである。また、画像のエッジ部分を抽出して、オブジェクトを分離する手法もある。
【0005】
【発明が解決しようとする課題】
しかしながら、ブルーバックのような手法では、予め別の背景となる画像を用意しておかなければならないという欠点があった。また、他の手法を用いて、背景と前景のオブジェクトを分離できても、背景オブジェクトには、前景オブジェクトのあった部分にデータが存在しない穴(エリア)ができてしまい、背景オブジェクトの再利用は困難であった。
【0006】
例えばあるシーンにおいて、オリジナルの前景オブジェクトを別のオブジェクトに置き換えたい場合を考える。この場合、オリジナルの画像から、前景オブジェクトを抽出した後、残りの背景オブジェクトに別の前景オブジェクトを合成する必要がある。最初の前景オブジェクトを抽出した後の穴の空いた部分を、後から合成するオブジェクトでふさぐことができれば問題ないが、これではオブジェクトの再利用あるいは再加工における汎用性が大きく制限されてしまう。
【0007】
上述したような背景から本願発明の一つの目的は、前景オブジェクト抽出後、背景オブジェクトに生じた穴のような部分的なデータの欠落があっても、それを補間し、汎用性の高い背景オブジェクトを提供できるようにすることを目的としている。
【0008】
【課題を解決するための手段】
本発明による画像処理装置においては、前景オブジェクトデータの分離により生じた欠落部分を含む背景オブジェクトデータを入力する入力手段と、前記欠落部分の画像データを前記欠落部分の周囲の画像データの動きに基づいて、前記背景オブジェクトデータとは別のフレームにおける前記欠落部分の画像データに相当する画像データを用いて補間する補間手段とを有し、前記補間手段は、補間後、補間された背景オブジェクトデータに欠落部分がある場合、前記補間で用いたフレームとは別のフレームを用いて前記背景オブジェクトデータの欠落部分の補間を行なう点に特徴を有する。
【0009】
本発明による他の画像処理装置においては、画像データを入力する入力手段と、前記画像データを、前景オブジェクトデータと該前景オブジェクトデータに相当する欠落部分を含む背景オブジェクトデータとに分離する分離手段と、前記欠落部分を含む背景オブジェクトデータに対して、前記背景オブジェクトデータとは別のフレームを用いて、前記欠落部分に相当する背景オブジェクトデータを生成し、前記生成された背景オブジェクトデータにより前記背景オブジェクトデータの欠落部分を補間する補間手段と、前記補間手段によって補間された前記背景オブジェクトデータを符号化する第1の符号化手段と、前記前景オブジェクトデータを符号化する第2の符号化手段とを有し、前記補間手段は、補間後、補間された背景オブジェクトデータに欠落部分がある場合、前記補間で用いたフレームとは別のフレームを用いて前記背景オブジェクトデータの欠落部分の補間を行なう点に特徴を有する。
【0010】
本発明による画像処理方法においては、前景オブジェクトデータの分離により生じた欠落部分を含む背景オブジェクトデータを入力する入力工程と、前記欠落部分の画像データを前記欠落部分の周囲の画像データの動きに基づいて、前記背景オブジェクトデータとは別のフレームにおける前記欠落部分の画像データに相当する画像データを用いて補間する補間工程とを有し、前記補間工程での、補間後、補間された背景オブジェクトデータに欠落部分がある場合、前記補間で用いたフレームとは別のフレームを用いて前記背景オブジェクトデータの欠落部分の補間を行なう点に特徴を有する。
【0011】
本発明による他の画像処理方法においては、画像データを入力する入力工程と、前記画像データを、前景オブジェクトデータと該前景オブジェクトデータに相当する欠落部分を含む背景オブジェクトデータとに分離する分離工程と、前記欠落部分を含む背景オブジェクトデータに対して、前記背景オブジェクトデータとは別のフレームを用いて、前記欠落部分に相当する背景オブジェクトデータを生成し、前記生成された背景オブジェクトデータにより前記背景オブジェクトデータの欠落部分を補間する補間工程と、前記補間工程によって補間された前記背景オブジェクトデータを符号化する第1の符号化工程と、前記前景オブジェクトデータを符号化する第2の符号化工程とを有し、前記補間工程での、補間後、補間された背景オブジェクトデータに欠落部分がある場合、前記補間で用いたフレームとは別のフレームを用いて前記背景オブジェクトデータの欠落部分の補間を行なう点に特徴を有する。
【0012】
本発明によるコンピュータ読み取り可能な記憶媒体においては、上記に記載の画像処理方法をコンピュータに実行させるためのプログラムを記憶した点に特徴を有する。
【0019】
【発明の実施の形態】
本発明の実施形態の概要を説明すれば、前景オブジェクトの分離により生じたデータ欠落部分の存在する1画面(フレームもしくはフィールド)をターゲットとし、所定数の画素で構成されるブロック分割を行う。そして、分割した各ブロックがデータ欠落部分を含んでいるか否かをチェックして、データ欠落部分を含んだブロックをターゲットブロックとし、その周囲のブロックを周囲ブロックとする。
【0020】
次に、周囲ブロックの動きベクトルを、前又は後のサンプルフレーム又はフィールドからサーチし、求められた各周囲ブロックの動きベクトルから、ターゲットブロックに対応する動きベクトルを求める。動きベクトルデータとターゲットブロック内のデータとの有効性を比較しながら補間を行い、ブロック内すべてのデータが埋まらなかった場合は、サンプルフレーム又はフィールドを変更して、さらに処理を続けるようにしている。
【0021】
このようにしたことにより、部分的にデータの欠落した背景オブジェクトから完全な背景オブジェクトを容易かつ確実に生成することが可能になる。
【0022】
(第1の実施形態)
以下、本発明の実施形態を図面を用いて詳細に説明する。
図1は、本発明の第1の実施形態の構成を示すブロック図であり、(a)がエンコード側、(b)がデコード側を示す。
【0023】
図1(a)に示すエンコード側において、画像入力部101は、ビデオカメラやVTR等から画像信号を入力する部分であり、アナログ信号の場合はデジタル信号に変換する。カラーの信号は、輝度信号と2つの色差信号とに分けて、それぞれ同様のデジタル変換処理を行う。
【0024】
画像分離部102は、背景オブジェクトと前景オブジェクトとの分離を行う部分である。各オブジェクトのフレーム間での動きベクトルが異なれば、その違いによって背景と前景の各オブジェクトを分離することが可能である。また、色の情報を用いてオブジェクトの違いを判定することも有効である。
【0025】
このようにして分離された前景オブジェクトは、そのまま前景画像符号化部103において符号化処理が行われる。
【0026】
また、分離された背景オブジェクトは、データの欠落部分を埋めるため、背景画像補間部104において本発明特有の処理が施される。この処理についての詳細な説明は後述する。
【0027】
補間の完了した背景オブジェクトは、背景画像符号化部105において符号化処理が行われる。この符号化処理は前景画像符号化処理部103と同じ処理方法を用いることもできるが、別処理とすることで、背景画像の特徴を生かしたより高能率の符号化を行うことも可能となる。
【0028】
前景、背景それぞれに最適な符号化処理を行った後は、多重化部106によって一つのビットストリームにまとめられ、伝送路に応じた処理がなされた後、送信もしくは記録が行われる。
【0029】
一方、図1(b)に示すデコード側では、上述したエンコード側の処理と逆の処理が行われる。
まず、分離部107において、それぞれのオブジェクト処理単位に分離される。ここでは、前景と背景2つのオブジェクトである。前景画像復号化部108では、前景画像符号化部103に対応した復号化処理が行われ、また、背景画像復号化部109では、背景画像符号化部105に対応した復号化処理が行われる。
【0030】
画像合成部110では、個々のオブジェクトを一つのフレーム又はフィールド画像に合成する。合成された画像データは画像表示部111において、表示機器に応じたフォーマットに変換されて出力され、表示される。
【0031】
次に、図2〜図6を用いて、本発明特有の処理である背景画像補間部104での処理の詳細なアルゴリズムを説明する。また、ここでは、図7〜図14に示す画像イメージを用いて説明する。
【0032】
図7は、オリジナルの画像を示している。ここでは簡単のため、フレーム単位で移動する画像を例に説明する。
図7(a)が第N番目のフレームの画像を表しており、701が前景画像、702が背景画像である。図7(b)は第N−1番目のフレームの画像を表しており、前景画像701の位置は図7(a)と比較して移動している。同様に図7(c)は第N−2番目のフレームの画像を表しており、前景画像701の位置は更に移動している。
【0033】
これらのフレーム間での動きの違いを利用して前景画像を抽出すると、背景画像802は図8のようになる。前景画像のあった部分801は、そのままではデータが存在しないので、ここでは暫定的に輝度レベルがゼロのデータを挿入している。
尚、以下では、補間の対象として注目しているフレームをターゲットフレーム、補間候補のデータを探すフレームをサンプルフレームと呼ぶことにする。
【0034】
図2は、背景補間を行おうとするフレーム(ターゲットフレーム)に対する一連の処理の全体アルゴリズムである。なお、このフローチャートはターゲットフレーム1枚に対する処理なので、複数枚のフレームを処理する場合は、その枚数分だけ同様の処理を繰り返せばよい。
【0035】
ステップS201でまず初期設定を行う。ここでの設定の主なものは、ターゲットフレームの設定、サンプルフレームの枚数の設定、さらにターゲットフレームのブロック化処理などを含んでいる。
ここでは、図8の(a)に示す第Nフレームをターゲットフレームとする。また、図8(b)に示す第N−1フレームと、図8(c)に示す第N−2フレームの2枚をサンプルフレームとする。図9には、図8(a)に示すターゲットフレームをブロック化したものを示す。
【0036】
ステップS201でブロック化されたブロックを、ステップS202で、一つずつターゲットブロックか否かチェックしていく。この処理は、ブロック内に輝度レベルがゼロのデータが存在するか否かで判定が可能である。
【0037】
画像の輝度レベルを8ビット(0〜255)データで表す場合は、一般に映像信号の最低レベルすなわち黒の信号は16とするため、ゼロレベルのデータのみを探せば、黒レベルの信号との誤判定は防げる。また、穴の部分に暫定的に挿入するデータは任意であるので、誤判定の心配のないデータであればゼロにこだわる必要はない。
【0038】
このようにしてターゲットブロックの検出を行うと、図9のブロック901が最初のターゲットブロックと判定される。
ターゲットブロックと判定されたブロックはステップS203で補間処理がなされ、次のブロックの処理に進む。尚、この補間処理の詳細については後述する。
【0039】
上記のようにして次々にブロック単位の処理を行い、ステップS204ですべてのブロックの処理が終了したと判断された時点で、ターゲットフレーム全体の補間処理が完了となる。
【0040】
次に、図3を用いて第1の実施形態によるターゲットブロックの処理アルゴリズムを説明する。
ターゲットブロックを検出すると、まずステップS301において周囲ブロックを決定する。
図10は、ターゲットブロックとその周囲ブロックを示しており、1001が補間対象すなわちターゲットブロックで、1002〜1005が周囲ブロックである。ここでは、ターゲットブロックの上下左右のブロックを周囲ブロックとしている。
【0041】
次に、ステップS302において、ターゲットブロックの動きベクトル候補を算出する。ターゲットブロックの動きベクトル候補は、周囲ブロックの動きベクトルから求めるが、その詳細のアルゴリズムを図4を用いて説明する。
【0042】
まずステップS401で周囲ブロック内のデータを調べ、ブロック内にデータの欠落部分がないかどうかを判定する。欠落部分があった場合は、その後のパターンマッチングで所望の結果が得られなくなるため、このブロックについては動きベクトルを求めない。
【0043】
データの欠落部分がなければ、ステップS402でサンプルフレームとの間でパターンマッチングを行う。マッチングを行うたびにブロックの差分の二乗和を求めておき、すべてのマッチング処理を終えた段階でステップS403に進み、差分の二乗和が最小となるブロックとの相対位置情報、すなわち動きベクトルを求める。
【0044】
ステップS404では、求めた動きベクトルの信頼度を検証する。すなわち、差分の二乗和が最小となる動きベクトルでも、差分の二乗和の値がある閾値以上であれば、その動きベクトルは候補として採用すべきでないと判断する。閾値以下の場合のみ、ステップS405に進み、ターゲットブロックの動きベクトル候補とする。
【0045】
これらの処理を周囲ブロックの数だけ繰り返し、ステップS406ですべての周囲ブロックの判定が終了したと判断したとき、このターゲットブロックに対する動きベクトル候補の算出処理を終える。
【0046】
ここで注意すべきは、動きベクトル候補は最大で周囲ブロックの数だけ存在し、最小では動きベクトル候補なしということもあり得ることである。
【0047】
図3に戻って、ステップS303ではステップS302で算出された動きベクトル候補の有無を判定し、以後の処理を分岐している。
【0048】
図10の例で周囲ブロック1002と1003は、ブロック内にデータ欠落部分が存在しないため、動きベクトルを算出する。背景画像が動いていないと仮定すると、差分の二乗和がゼロとなる場所があり、その動きベクトルは(0,0)である。また、図10の周囲ブロック1004と1005は、ブロック内にデータ欠落部分が存在するため、動きベクトルの算出処理を行わない。したがって、この図10の例では、ステップS302(図4のフローチャートに示す処理)が終わった段階で、動きベクトル候補は2つである。
【0049】
ターゲットブロックの動きベクトル候補が存在する場合には、図3のステップS304に進む。ここで動きベクトル候補からターゲットブロックの動きベクトルを確定するが、その詳細のアルゴリズムを図5を用いて説明する。
【0050】
まず、ステップS501で動きベクトル候補が複数あるかどうかチェックする。
ステップS501で動きベクトル候補が一つしかない場合は、ステップS502で、その動きベクトル候補をターゲットブロックの動きベクトルとして確定する。
ステップS501で動きベクトル候補が複数存在する場合は、ステップS503で、それらの中で同じ値を持つベクトルがあるかどうかチェックする。
【0051】
ステップ503で同じ値を持つ動きベクトル候補がない場合は、ステップS504で、動きベクトル候補を平均したものをターゲットブロックの動きベクトルとして確定する。
ステップ503で同じ値を持つ動きベクトル候補がある場合は、ステップS505で、それらが複数種類あるかどうかチェックする。
【0052】
ステップS505で同じ値を持つ動きベクトル候補が一種類しかない場合は、ステップS506で、その同じ値を持つ動きベクトル候補をターゲットブロックの動きベクトルとして確定する。
ステップS505で同じ値を持つ動きベクトル候補が二種類以上ある場合は、ステップS507で、分類された動きベクトル候補の中で一番多いものをチェックし、同じ値を持つ動きベクトル候補が最も多いものが複数存在するか否かを判断する。
【0053】
ステップS507で同じ値を持つ動きベクトル候補が最も多いものが複数存在しない場合は、ステップS508で、最も多かった動きベクトル候補をターゲットブロックの動きベクトルとする。
ステップS507で同じ値を持つ動きベクトル候補が最も多いものが複数存在する場合、例えば4つの動きベクトルのうち、2つの動きベクトルの値が同じで、残り2つの動きベクトルも同じといったように、同じ値を持つ動きベクトル候補が最も多いものが複数存在する場合は、ステップS509でそれらの動きベクトル候補の中で差分の二乗和が最小のものをチェックする。最小のものが一つであれば、ステップS510でそれをターゲットブロックの動きベクトルとする。最小のものが複数ある場合は、ステップS511でそれらのベクトルの平均を求め、これをターゲットブロックの動きベクトルとする。
【0054】
図10の例では、動きベクトル候補が2つ存在し、それらの動きベクトルの値は同じであるので、これをターゲットブロックの動きベクトルとして確定する。
【0055】
図3に戻って、ターゲットブロックの動きベクトルが確定すると、ステップS305に進んで、ターゲットブロックの動きベクトルによる補間処理を行う。
図6は、ターゲットブロックの動きベクトルによる補間処理のアルゴリズムを説明する図であり、ブロック内の一画素単位毎の処理を示している。
【0056】
まず、ステップS601において、画像データを埋めようとしている位置(注目画素)にすでにデータが存在しているかどうかをチェックする。データが存在していれば、その存在していたデータをそのまま使用し、ステップS604の処理に移る。データが存在しない場合は、ステップS602に進み、動きベクトルに対応するサンプル画素に画像データが存在するかどうかチェックする。画像データが存在していれば、ステップS603で、そのサンプル画素の画像データをターゲットの位置に埋め込んでステップS604の処理に進み、画像データが存在していなければ、何もせずにステップS604の処理に進む。
【0057】
図11(a)〜(g)には、一つのターゲットブロックに対する補間の様子を示す。
図11(a)はターゲットブロックを示す。図11(b)は、最初のN−1のサンプルフレームから確定したサンプルブロックである。図11(a)に示すターゲットブロックを、図11(b)に示すサンプルブロックで置き換える処理が基本であるが、図11(a)のうち元々画像データが存在する部分は図11(a)のものをそのまま用い、図11(a)の欠落部分を図11(b)で埋める。ただし、図11(b)にも欠落部分が存在するため、実際に埋め込まれるデータの範囲は、図11(c)の斜線部分となる。図11(c)の斜線部分に実際にデータを埋めた状態を示すのが図11(d)である。
【0058】
ステップS604において、ブロック内すべての画素に対して処理が行われると、このルーチンを終了する。
【0059】
このままでは、ブロック内すべての画素に対してデータが埋め込まれているとは限らない。そこで、図3のステップS306においては、ブロック内にまだ欠落部分があるかどうかを判定している。欠落部分が存在しない場合、すなわち、すべての画素に対してデータが埋め込まれていれば、このブロックの処理は終了である。欠落部分が存在する場合は、ステップS308においてサンプルフレームを変更し、ステップS302からの処理を繰り返す。ステップS308に進む条件は、以下の2種類である。ひとつは動きベクトル候補が存在しなかった場合、もうひとつは動きベクトルを決定してもそのベクトルの持つデータですべての画素が埋められなかった場合である。
【0060】
図3のステップS307では、図2のステップS201の初期設定で定めたサンプルフレームの枚数をチェックしている。すべてのサンプルフレームをチェックしてもなお欠落部分が存在する場合には、ステップS309によって、周囲画素から内挿補間処理をしてデータの埋め込みを行う。
【0061】
図11(d)には欠落部分が存在するので、サンプルフレームをN−1からN−2に変更し、同様の処理を行う。
図11(e)は、N−2のサンプルフレームから確定したサンプルブロックの図である。図11(f)の斜線部分が図11(e)から埋め込むデータの範囲となる。図11(f)の斜線部分に実際にデータを埋めた状態を示すのが図11(g)である。図11(g)に示すように、欠落部分はなくなったので、このターゲットブロックに対する処理は終了する。
【0062】
以上述べたようにして、図3のフローチャートで説明した一つのターゲットブロックの処理は終了する。ターゲットフレーム内のすべてのターゲットブロックに対して上記処理を行うことにより、一つのターゲットフレームの処理が終了する。
【0063】
図12(a)〜(c)は、ここまでの処理を第Nフレームに施した結果を簡潔的に表した説明図である。
図12(a)が補間処理前の画像であり、図12(b)がN−1フレームまで補間処理を終えた画像、図12(c)がN−2フレームまで補間処理を終えた画像である。
【0064】
図13(a)は、2番目のターゲットブロックと、その周囲ブロックを表した図である。これらの周囲ブロックからターゲットブロックの動きベクトルを確定し、補間した結果が図13(b)である。同様に、3番目のターゲットブロックとその周囲ブロックが図13(c)であり、その補間結果が図13(d)、4番目のターゲットブロックとその周囲ブロックが図13(e)であり、その補間結果が図13(f)である。
【0065】
ターゲットフレームとサンプルフレームとを変更し、図2の処理を繰り返せば、複数フレームの背景画像の補間が可能となる。図14(a)〜(e)は、ターゲットフレームをN−1に変更して同様の処理を行ったときの説明図である。
【0066】
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。
上記第1の実施形態では、周囲ブロックにデータの欠落部分があった場合、動きベクトルを求めなかったが、本実施形態では、欠落部分以外の有効なデータを基に動きベクトルを求めるようにしている。なお、第2の実施形態での全体構成は、第1の実施形態で説明した図1の構成と同様で、全体の処理アルゴリズムは第1の実施形態で説明した図2のフローチャートと同様である。
【0067】
図4のターゲットブロックの動きベクトル候補算出のアルゴリズムを示すフローチャートに対応するのが、図15に示すフローチャートである。
ステップS3201において周囲ブロック内にデータの欠落部分が存在する場合は、ステップS3202において、欠落部分のマスキングデータを生成する。マスキングデータは一画素単位で求め、後の動きベクトル候補から1つのベクトルを決定する際の判定手段としても利用する。
【0068】
図10における各ブロックのブロックサイズが16×16であるとすると、周囲ブロック1004のマスキングデータは図17(a)のようになり、周囲ブロック1005のマスキングデータは図17(b)のようになる。ここで、黒く塗りつぶされた画素がマスキングされている部分であり、白い画素が有効なデータの部分である。有効なデータの数は、図17(a)、(b)共に97である。図10の周囲ブロック1002、1003には欠落したデータがないため、有効なデータの数は256である。
【0069】
次にステップS3203でマスキングされていない有効なデータのみを用いて、パターンマッチングを行う。ブロック内にデータの欠落部分が存在しない場合は、従来通りすべての画素を用いたパターンマッチングとなる。ステップS3204の処理は第1の実施形態と同様の処理(図4のS403)である。
【0070】
ステップS3205の処理では、差分の二乗和と閾値との比較をしているが、閾値の設定は、パターンマッチングに用いたデータ数によって変化させる。ブロック内の全画素数をP、ブロック内の有効なデータ数をMs、全画素有効な場合の閾値をTHaとするとき、このブロックの閾値THaは以下の式で表される。
THa=(Ms/P)×THa ………(1)
となる。
【0071】
差分の二乗和の値がこの閾値を下回れば、このときの動きベクトルをステップS3206でターゲットブロックの動きベクトル候補とする。同様の処理を全ての周囲ブロックについて行い、このアルゴリズムを終了する。
【0072】
次に、ターゲットブロックの動きベクトル確定のアルゴリズムについて、図16を用いて説明する。複数の動きベクトル候補から1つの動きベクトルを算出する方法は3つ考えられる。
1つ目は、複数の候補の中から1つを選択する、2つ目は、複数の候補に何らかの演算処理を行い1つの値を算出する、そして3つ目は、これらの組み合わせである。本発明の第2の実施形態に特有の処理は、2つ目の演算処理に関するものである。なお、以下では、図16に示すフローチャートにおいて、図5に示すフローチャートで既に説明したのと同様な部分についての詳細な説明は省略する。
【0073】
複数の動きベクトル候補が存在し(ステップS3301)、これらが同じ値を持たないとき(ステップS3302)は、これら複数の候補から選択的に1つを決定するのは好ましくない。そこで、ステップS3304では、各動きベクトル候補に対して重み付けを行なった上で平均を求める処理を行う。
【0074】
N個の動きベクトル候補の各々をVn(Vnx、Vny)とし、各周囲ブロック内の有効なデータ数をMnとすると、求める動きベクトル(Vx、Vy)は、
【数1】
となる。周囲ブロック内にデータ欠落部分がない場合は、Mnの値はブロックの全画素数に一致する。
【0075】
また、ステップS3311においても、これら複数の動きベクトル候補から選択的に1つを決定するのは好ましくないため、上記の式(2)を用いて動きベクトルを算出する。
本実施形態では、ステップS3304とステップS3311の条件の時に重み付け平均を算出し、それ以外の条件では選択的に1つの動きベクトルを決定したが、どのような条件設定のときにどちらの動きベクトル算出手段を用いるかは任意である。
【0076】
以上述べた第1、2の実施形態における各機能ブロックによるシステムは、ハード的に構成してもよく、また、CPUやメモリ等から成るマイクロコンピュータシステムに構成してもよい。マイクロコンピュータシステムに構成する場合、上記メモリは本発明による記憶媒体を構成する。この記憶媒体には、各フローチャートによる前述した動作を制御するための手順を実行するためのプログラムが記憶される。また、この記憶媒体としてはROM、RAM等の半導体メモリ、光ディスク、光磁気ディスク、磁気媒体等を用いてよく、これらをCD−ROM、フロィピディスク、磁気テープ、磁気カード、不揮発性のメモリカード等に構成して用いてよい。
【0077】
従って、この記憶媒体を他のシステムあるいは装置に供給し、そのシステムあるいは装置のコンピュータが、この記憶媒体に格納されたプログラムコードを読み出し、実行することによっても、同等の効果が得られ、本発明は達成される。
【0078】
【発明の効果】
以上の説明したように、本発明によれば、部分的にデータの欠落した背景画像に対してその欠落部分を適切に補間処理を施すことができ、これにより、再利用可能な汎用性の高い背景オブジェクトを容易にかつ確実に生成することができる。
【図面の簡単な説明】
【図1】本発明の実施形態による画像処理装置の構成を示すブロック図である。
【図2】本発明の実施形態による背景補間処理の全体アルゴリズムを示すフローチャートである。
【図3】本発明の第1の実施形態によるターゲットブロックの処理アルゴリズムを示すフローチャートである。
【図4】ターゲットブロックの動きベクトル候補算出のアルゴリズムを示すフローチャートである。
【図5】ターゲットブロックの動きベクトル確定のアルゴリズムを示すフローチャートである。
【図6】ターゲットブロックの動きベクトルによる補間処理アルゴリズムを示すフローチャートである。
【図7】画像イメージを説明するためのオリジナル画像の構成図である。
【図8】画像イメージを説明するための前景画像抽出後の背景画像の構成図である。
【図9】画像イメージを説明するための第Nフレームをブロック化した構成図である。
【図10】画像イメージを説明するための補間対象ブロックとその周囲ブロックの構成図である。
【図11】補間処理を説明するための構成図である。
【図12】補間処理を簡潔的に説明するための構成図である。
【図13】補間処理を簡潔的に説明するための構成図である。
【図14】補間処理を簡潔的に説明するための構成図である。
【図15】本発明の第2の実施形態によるターゲットブロックの動きベクトル候補算出のアルゴリズムを示すフローチャートである。
【図16】ターゲットブロックの動きベクトル確定のアルゴリズムを示すフローチャートである。
【図17】周囲ブロックのマスキングを説明するための構成図である。
【符号の説明】
101 画像入力部
102 画像分離部
103 前景画像符号化部
104 背景画像補間部
105 背景画像符号化部
106 多重化部
107 分離部
108 前景画像復号化部
109 背景画像復号化部
110 画像合成部
Claims (8)
- 前景オブジェクトデータの分離により生じた欠落部分を含む背景オブジェクトデータを入力する入力手段と、
前記欠落部分の画像データを前記欠落部分の周囲の画像データの動きに基づいて、前記背景オブジェクトデータとは別のフレームにおける前記欠落部分の画像データに相当する画像データを用いて補間する補間手段とを有し、
前記補間手段は、補間後、補間された背景オブジェクトデータに欠落部分がある場合、前記補間で用いたフレームとは別のフレームを用いて前記背景オブジェクトデータの欠落部分の補間を行なうことを特徴とする画像処理装置。 - 前記補間手段は、
前記背景オブジェクトデータを複数のブロックに分割する分割手段と、
前記分割手段によって分割されたブロックから前記欠落部分の画像データを含むブロックをターゲットブロックとして抽出する抽出手段と、
前記ターゲットブロックの周囲に位置する周囲ブロックの動きを前記背景オブジェクトデータとは別のフレームから検出する検出手段と、
前記周囲ブロックの動きに基づいて前記ターゲットブロックの欠落部分の画像データを生成する生成手段とを有することを特徴とする請求項1に記載の画像処理装置。 - 前記補間手段によって処理された背景オブジェクトデータを符号化する符号化手段を更に有することを特徴とする請求項1又は2に記載の画像処理装置。
- 画像データを入力する入力手段と、
前記画像データを、前景オブジェクトデータと該前景オブジェクトデータに相当する欠落部分を含む背景オブジェクトデータとに分離する分離手段と、
前記欠落部分を含む背景オブジェクトデータに対して、前記背景オブジェクトデータとは別のフレームを用いて、前記欠落部分に相当する背景オブジェクトデータを生成し、前記生成された背景オブジェクトデータにより前記背景オブジェクトデータの欠落部分を補間する補間手段と、
前記補間手段によって補間された前記背景オブジェクトデータを符号化する第1の符号化手段と、
前記前景オブジェクトデータを符号化する第2の符号化手段とを有し、
前記補間手段は、補間後、補間された背景オブジェクトデータに欠落部分がある場合、前記補間で用いたフレームとは別のフレームを用いて前記背景オブジェクトデータの欠落部分の補間を行なうことを特徴とする画像処理装置。 - 前景オブジェクトデータの分離により生じた欠落部分を含む背景オブジェクトデータを入力する入力工程と、
前記欠落部分の画像データを前記欠落部分の周囲の画像データの動きに基づいて、前記背景オブジェクトデータとは別のフレームにおける前記欠落部分の画像データに相当する画像データを用いて補間する補間工程とを有し、
前記補間工程での、補間後、補間された背景オブジェクトデータに欠落部分がある場合、前記補間で用いたフレームとは別のフレームを用いて前記背景オブジェクトデータの欠落部分の補間を行なうことを特徴とする画像処理方法。 - 前記補間工程は、
前記背景オブジェクトデータを複数のブロックに分割する分割工程と、
前記分割工程によって分割されたブロックから前記欠落部分の画像データを含むブロックをターゲットブロックとして抽出する抽出工程と、
前記ターゲットブロックの周囲に位置する周囲ブロックの動きを前記背景オブジェクトデータとは別のフレームから検出する検出工程と、
前記周囲ブロックの動きに基づいて前記ターゲットブロックの欠落部分の画像データを生成する生成工程とを含むことを特徴とする請求項5に記載の画像処理方法。 - 画像データを入力する入力工程と、
前記画像データを、前景オブジェクトデータと該前景オブジェクトデータに相当する欠落部分を含む背景オブジェクトデータとに分離する分離工程と、
前記欠落部分を含む背景オブジェクトデータに対して、前記背景オブジェクトデータとは別のフレームを用いて、前記欠落部分に相当する背景オブジェクトデータを生成し、前記生成された背景オブジェクトデータにより前記背景オブジェクトデータの欠落部分を補間する補間工程と、
前記補間工程によって補間された前記背景オブジェクトデータを符号化する第1の符号化工程と、
前記前景オブジェクトデータを符号化する第2の符号化工程とを有し、
前記補間工程での、補間後、補間された背景オブジェクトデータに欠落部分がある場合、前記補間で用いたフレームとは別のフレームを用いて前記背景オブジェクトデータの欠落部分の補間を行なうことを特徴とする画像処理方法。 - 請求項5〜7のいずれか1項に記載の画像処理方法をコンピュータに実行させるためのプログラムを記憶したことを特徴とするコンピュータ読み取り可能な記憶媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP27471199A JP4272771B2 (ja) | 1998-10-09 | 1999-09-28 | 画像処理装置、画像処理方法及びコンピュータ読み取り可能な記憶媒体 |
US09/413,770 US6721360B2 (en) | 1998-10-09 | 1999-10-07 | Image processing apparatus and method |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP28777398 | 1998-10-09 | ||
JP10-287773 | 1998-10-09 | ||
JP27471199A JP4272771B2 (ja) | 1998-10-09 | 1999-09-28 | 画像処理装置、画像処理方法及びコンピュータ読み取り可能な記憶媒体 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2000184336A JP2000184336A (ja) | 2000-06-30 |
JP2000184336A5 JP2000184336A5 (ja) | 2006-11-16 |
JP4272771B2 true JP4272771B2 (ja) | 2009-06-03 |
Family
ID=26551158
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP27471199A Expired - Fee Related JP4272771B2 (ja) | 1998-10-09 | 1999-09-28 | 画像処理装置、画像処理方法及びコンピュータ読み取り可能な記憶媒体 |
Country Status (2)
Country | Link |
---|---|
US (1) | US6721360B2 (ja) |
JP (1) | JP4272771B2 (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3667217B2 (ja) * | 2000-09-01 | 2005-07-06 | 日本電信電話株式会社 | 映像中の広告情報の供給システムおよび供給方法ならびにこのプログラムを記録した記録媒体 |
EP1233614B1 (fr) * | 2001-02-16 | 2012-08-08 | C.H.I. Development Mgmt. Ltd. XXIX, LLC | Système de transmission et de traitement vidéo pour générer une mosaique utilisateur |
EP1259079B1 (en) * | 2001-04-30 | 2007-03-21 | STMicroelectronics Pvt. Ltd | An efficient low power motion estimation of a video frame sequence |
JP4596220B2 (ja) * | 2001-06-26 | 2010-12-08 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びにプログラム |
EP1301044B1 (en) * | 2001-10-05 | 2006-05-24 | Mitsubishi Electric Information Technology Centre Europe B.V. | Method and apparatus for compensating for motion vector errors in image data |
JP4102973B2 (ja) * | 2002-04-24 | 2008-06-18 | 日本電気株式会社 | 動画像の符号化方法および復号化方法、これを用いた装置とプログラム |
FR2843252A1 (fr) * | 2002-07-30 | 2004-02-06 | Thomson Licensing Sa | Procede de compression de donnees numeriques d'une sequence video comportant des plans alternes |
US7978769B2 (en) * | 2003-06-30 | 2011-07-12 | Ntt Docomo, Inc. | Method and apparatus for coding motion information |
US8588513B2 (en) * | 2005-07-18 | 2013-11-19 | Broadcom Corporation | Method and system for motion compensation |
KR100775104B1 (ko) * | 2006-02-27 | 2007-11-08 | 삼성전자주식회사 | 영상 신호의 떨림 보정 장치와 그를 포함하는 영상 시스템및 그 방법 |
EP1862969A1 (en) * | 2006-06-02 | 2007-12-05 | Eidgenössische Technische Hochschule Zürich | Method and system for generating a representation of a dynamically changing 3D scene |
US8238442B2 (en) * | 2006-08-25 | 2012-08-07 | Sony Computer Entertainment Inc. | Methods and apparatus for concealing corrupted blocks of video data |
JP5660658B2 (ja) * | 2007-01-30 | 2015-01-28 | ファーガソン パテント プロパティーズ リミテッド ライアビリティ カンパニー | 画像捕獲表示システム、ビデオ画像内の関心領域を用いてシステム同期型輝度制御を実行する方法、およびメタデータの使用 |
KR101094304B1 (ko) * | 2010-02-23 | 2011-12-19 | 삼성모바일디스플레이주식회사 | 표시 장치 및 그의 영상 처리 방법 |
JP5713256B2 (ja) * | 2010-12-21 | 2015-05-07 | 株式会社ニコンシステム | 画像処理装置、撮像装置、および画像処理プログラム |
JP6513300B1 (ja) | 2018-03-28 | 2019-05-15 | 三菱電機株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07135663A (ja) * | 1993-09-17 | 1995-05-23 | Oki Electric Ind Co Ltd | 動きベクトル検出方法および動きベクトル検出装置 |
DE69533870T2 (de) * | 1994-10-19 | 2005-05-25 | Matsushita Electric Industrial Co., Ltd., Kadoma | Vorrichtung zur Bilddekodierung |
US6023301A (en) * | 1995-07-14 | 2000-02-08 | Sharp Kabushiki Kaisha | Video coding device and video decoding device |
JP3249729B2 (ja) * | 1995-10-24 | 2002-01-21 | シャープ株式会社 | 画像符号化装置及び画像復号装置 |
-
1999
- 1999-09-28 JP JP27471199A patent/JP4272771B2/ja not_active Expired - Fee Related
- 1999-10-07 US US09/413,770 patent/US6721360B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US20030031253A1 (en) | 2003-02-13 |
US6721360B2 (en) | 2004-04-13 |
JP2000184336A (ja) | 2000-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4272771B2 (ja) | 画像処理装置、画像処理方法及びコンピュータ読み取り可能な記憶媒体 | |
KR101092287B1 (ko) | 화상 처리 장치 및 화상 처리 방법 | |
US10277812B2 (en) | Image processing to obtain high-quality loop moving image | |
JP3461626B2 (ja) | 特定画像領域抽出方法及び特定画像領域抽出装置 | |
EP2063390B1 (en) | Image processing device and its program | |
US6404901B1 (en) | Image information processing apparatus and its method | |
US20100039447A1 (en) | Image processing apparatus, image processing method, and program | |
US20120169840A1 (en) | Image Processing Device and Method, and Program | |
JP4821642B2 (ja) | 画像処理方法、画像処理装置、ディジタルカメラ及び画像処理プログラム | |
KR20060119707A (ko) | 화상 처리 장치와 화상 처리 방법 및 프로그램 | |
KR101211074B1 (ko) | 학습 장치와 학습 방법 및 학습 프로그램 | |
US6665340B1 (en) | Moving picture encoding/decoding system, moving picture encoding/decoding apparatus, moving picture encoding/decoding method, and recording medium | |
JPH10126665A (ja) | 画像合成装置 | |
JP2002312791A (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JPH09322061A (ja) | 画像合成装置 | |
US6553069B1 (en) | Digital image segmenting method and device | |
JP2006215657A (ja) | 動きベクトル検出方法、動きベクトル検出装置、動きベクトル検出プログラム及びプログラム記録媒体 | |
JPH09182077A (ja) | 画像符号化方法および画像符号化装置 | |
JP7216874B1 (ja) | 合成処理装置 | |
JP2016129281A (ja) | 画像処理装置 | |
JP2980810B2 (ja) | 動きベクトル探索方法と装置 | |
JP7003342B2 (ja) | 動画分離装置、プログラム及び動画分離方法 | |
JP4902510B2 (ja) | 符号化装置及び符号化方法 | |
Nicolas | Optimal criterion for dynamic mosaicking | |
JP4653014B2 (ja) | 撮像装置、制御方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060928 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060928 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081111 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090109 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090224 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090302 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120306 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130306 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140306 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |