JP2004096557A - 画像処理装置及び画像処理方法 - Google Patents
画像処理装置及び画像処理方法 Download PDFInfo
- Publication number
- JP2004096557A JP2004096557A JP2002256841A JP2002256841A JP2004096557A JP 2004096557 A JP2004096557 A JP 2004096557A JP 2002256841 A JP2002256841 A JP 2002256841A JP 2002256841 A JP2002256841 A JP 2002256841A JP 2004096557 A JP2004096557 A JP 2004096557A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- shape data
- image
- data
- comparing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 19
- 238000012545 processing Methods 0.000 claims abstract description 87
- 238000012937 correction Methods 0.000 claims abstract description 69
- 230000002159 abnormal effect Effects 0.000 claims abstract description 62
- 230000005856 abnormality Effects 0.000 claims abstract description 7
- 230000000007 visual effect Effects 0.000 claims abstract description 6
- 238000000034 method Methods 0.000 claims description 73
- 230000033001 locomotion Effects 0.000 claims description 57
- 230000008569 process Effects 0.000 claims description 22
- 238000000605 extraction Methods 0.000 claims description 17
- 238000001514 detection method Methods 0.000 claims description 13
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 10
- 230000009466 transformation Effects 0.000 claims description 10
- 230000005484 gravity Effects 0.000 claims description 4
- 230000008859 change Effects 0.000 abstract description 14
- 239000000284 extract Substances 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 10
- 238000011410 subtraction method Methods 0.000 description 4
- 238000005286 illumination Methods 0.000 description 3
- 238000013139 quantization Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000008929 regeneration Effects 0.000 description 2
- 238000011069 regeneration method Methods 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012958 reprocessing Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/001—Model-based coding, e.g. wire frame
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/20—Contour coding, e.g. using detection of edges
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/20—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/537—Motion estimation other than block-based
- H04N19/543—Motion estimation other than block-based using regions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Analysis (AREA)
Abstract
【課題】動画像中の対象物の形状データが一時的に大きく変化した場合であっても、修正対象となるフレームを好適に検出して修正し、視覚的にも符号化効率的にも優れた動画像符号化をすることができる画像処理装置及び画像処理方法を提供する。
【解決手段】画像入力部101から複数フレームで構成される動画像を取得し、背景画像生成部102で動画像の背景画像を取得する。そして、背景差分処理部103で動画像を構成するそれぞれのフレームと背景画像とを比較して対象物を抽出し、異常データ判定部105で抽出された対象物の形状データの異常の有無を判定し、異常の場合、形状データ修正部106で形状データを修正する。また、修正された形状データを用いて画像データ修正部107でフレームを修正し、修正された形状データと画像データとを符号化部104で符号化する。
【選択図】 図1
【解決手段】画像入力部101から複数フレームで構成される動画像を取得し、背景画像生成部102で動画像の背景画像を取得する。そして、背景差分処理部103で動画像を構成するそれぞれのフレームと背景画像とを比較して対象物を抽出し、異常データ判定部105で抽出された対象物の形状データの異常の有無を判定し、異常の場合、形状データ修正部106で形状データを修正する。また、修正された形状データを用いて画像データ修正部107でフレームを修正し、修正された形状データと画像データとを符号化部104で符号化する。
【選択図】 図1
Description
【0001】
【発明の属する技術分野】
本発明は、動画像中に含まれる対象物を抽出して異常フレームを検出する画像処理装置及び画像処理方法に関する。
【0002】
【従来の技術】
近年、デジタル技術を利用して画像を対象物(オブジェクト)毎に分離、合成する処理が注目されている。特に、動画像の符号化においては、国際標準としてMPEG−4符号化方式が規格化されている。MPEG−4符号化方式では、オブジェクト毎の符号化/復号化が可能となり、符号化効率の向上、伝送路に応じたデータ配分、画像の再加工等の従来は困難であったさまざまな応用が期待されている。
【0003】
また、動画像処理における対象物の抽出方法としては、一般に背景差分方式という手法が知られている。これは、予め撮影した背景画像と実際の入力画像とを比較することにより、変化点を検出する方法である。以下、簡単にその原理について説明する。
【0004】
まず、画像平面上の座標(x,y)における点の入力画像の画素値をPc(x,y)、背景画像の画素値をPb(x,y)とする。このとき、Pc(x,y)とPb(x,y)との差分をとり、その絶対値をあるしきい値Thと比較する。
【0005】
判定式の例を示すと次の通りである。
|Pc(x,y)−Pb(x,y)| ≦ Th … (1)
そして、式(1)において差分絶対値がしきい値Th以下の場合、この点(x,y)は変化なしということで、Pcは背景と判定される。一方、差分絶対値がしきい値Thを超えている場合は、値が変化したということで抽出対象とみなされる。画面上のすべての点において上記の判定を行うことで、1フレーム分の抽出が完了する。
【0006】
図13は、背景差分方式とMPEG−4符号化方式を組み合わせた従来のシステムの構成を示すブロック図である。図13において、画像入力部1201は、例えばカメラの撮像部であり、動画像を入力する部分である。また、背景差分法では参照する背景画像が必要となるため、背景画像生成部1202において背景画像を生成する。これは、予め対象物が映っていない状態で1フレーム分の画像を取り込むことによって生成することが最も簡単な方法である。
【0007】
また、背景差分処理部1203では、画像入力部1201からの入力画像と背景生成部1202からの参照画像とから、対象物の形状データを生成する。さらに、符号化部1204では、画像入力部1201からの入力画像と背景差分処理部からの形状データとがフレーム単位で入力され、符号化処理が行われる。以下、符号化部1204を、MPEG−4符号化方式として説明する。
【0008】
オブジェクト(対象物)を符号化する場合には、オブジェクトの形と位置の情報を符号化する必要がある。そのために、まず、オブジェクトを内包する矩形領域を設定し、この矩形の左上位置の座標と矩形領域の大きさを符号化する。この矩形領域はバウンディングボックスと呼ばれる。また、画像信号、形状信号により表現されるオブジェクト内部の領域をVOP(Video Object Plane)と呼ぶ。
【0009】
図14は、従来のVOP符号化を行う符号化部1204の細部構成を示すブロック図である。尚、入力される信号は画像の輝度・色差信号と形状信号であり、それらはマクロブロック単位で処理される。
【0010】
まず、イントラモードでは、各ブロックをDCT部1301において離散コサイン変換(DCT)し、量子化部1302で量子化する。量子化されたDCT係数と量子化幅は、可変長符号化部1312で可変長符号化される。
【0011】
一方、インターモードでは、動き検出部1307において時間的に隣接する別のVOPの中からブロックマッチングをはじめとする動き検出方法により動きを検出し、動きベクトル予測部1308で対象マクロブロックに対して誤差のもっとも小さい予測マクロブロックを検出する。誤差の最も小さい予測マクロブロックへの動きを示す信号が動きベクトルである。尚、予測マクロブロックを生成するために参照する画像を参照VOPと呼ぶ。
【0012】
検出された動きベクトルに基づいて、参照VOPを動き補償部1306において動き補償し、最適な予測マクロブロックを取得する。次に対象となるマクロブロックと対応する予測マクロブロックとの差分を求め、この差分信号に対してDCT部1301でDCTを施し、DCT変換係数を量子化部1302で量子化する。
【0013】
一方、形状データは、形状符号化CAE部1309で符号化される。但し、ここで実際にCAE符号化が行われるのは境界ブロックのみであり、VOP内のブロック(ブロック内全てのデータがオブジェクト内)やVOP外のブロック(ブロック内全てのデータがオブジェクト外)はヘッダ情報のみが可変長符号化部1312に送られる。また、CAE符号化が施される境界ブロックは、画像データと同様に、インターモードにおいては、動き検出部1307による動き検出を行い、動きベクトル予測部1308動きベクトルの予測を行う。そして、動き補償した形状データと前フレームの形状データとの差分値に対しCAE符号化を行う。
【0014】
【発明が解決しようとする課題】
しかしながら、上述した背景差分法には、以下に説明する2つの問題がある。一つ目の問題として、この方式は背景画像が変化しないことを前提としており、照明変化等により背景の値が変化した場合は、安定した抽出結果が得られないという問題がある。この問題の対応策としては、背景画像の変化を統計的な手法により検出し、適宜背景画像を更新するという方法が、特開平7―302328号等に開示されている。
【0015】
2つ目の問題は、シーン中にフラッシュが当たったり、対象物の前を別の物体が横切ったときなどの対応である。これらの場合を図を用いて説明する。図15は、従来例におけるシーン中にフラッシュが当たった場合の対象物の形状データについて説明するための図である。1401がある時間のフレームデータ、1402が次の時間のフレームデータで、このときフラッシュが当たっている。そして、1403はその次の時間のフレームデータである。このように、フラッシュが当たったフレーム(1402)は他の抽出結果(1401、1403)と大きく異なるものになってしまう。
【0016】
一つ目の問題である背景の照明変化の場合は、主に輝度値の変化のみであるが、二つ目の問題であるフラッシュの場合には、色相も変化してしまうので、背景の正確な補正は困難である。また、仮に、対象物の正確な形状データが得られたとしても、対象物そのものの画像データも大きく変化してしまっているため、フレーム間差分を用いるMPEG−4のような方式では、符号化効率を上げることができず、視覚的にも不自然なものとなってしまう。
【0017】
図16は、従来例における対象物の前を別の物体が横切った場合の対象物の形状データについて説明するための図である。図16において、1501は別の物体(例えば、車両)が横切る直前のフレームデータ、1502と1503は車両が対象物(人)の前を横切っているときのフレームデータ、1504は車両が横切った直後のフレームデータである。このように、別の物体も併せて抽出してしまうと、形状データと画像データが大きく変化することによる情報量の増大のため、大きな画質劣化を招いてしまう。この場合、背景の照明変化とは全く別の現象のため、背景画像を更新方法で対応することは困難である。
【0018】
本発明は、このような事情を考慮してなされたものであり、動画像中の対象物の形状データが一時的に大きく変化した場合であっても、修正対象となるフレームを好適に検出して修正し、視覚的にも符号化効率的にも優れた動画像符号化をすることができる画像処理装置及び画像処理方法を提供することを目的とする。
【0019】
【課題を解決するための手段】
上記課題を解決するため、本発明に係る画像処理装置は、複数のフレームから構成される動画像を入力する動画像入力手段と、入力された前記動画像に関する背景画像を取得する背景画像取得手段と、前記動画像を構成するそれぞれのフレームと前記背景画像とを比較して対象物を抽出する対象物抽出手段と、抽出された前記対象物の形状データの異常の有無を判定する異常データ判定手段と、前記形状データの判定結果に基づいて該形状データを修正する形状データ修正手段と、前記形状データ修正手段で修正された前記形状データに応じた前記対象物の画像データを生成する画像データ修正手段と、前記形状データと前記画像データとを符号化する符号化手段とを備えることを特徴とする。
【0020】
また、本発明に係る画像処理装置は、前記異常データ判定手段が、時間的に異なる複数のフレーム間で前記対象物の前記形状データを比較して、該形状データの修正の必要性を判定することを特徴とする。
【0021】
さらに、本発明に係る画像処理装置は、前記異常データ判定手段が、現フレームと前フレームとを用いて前記対象物の形状データを比較する第1の比較手段と、前フレームと後フレームとを用いて前記対象物の形状データを比較する第2の比較手段と、現フレームと前フレームとの間で前記対象物の形状データの差分が大きい場合であって、前フレームと後フレームとの間で前記対象物の形状データの差分が小さい場合、現フレームの修正が必要であると判定する判定手段とを備えることを特徴とする。
【0022】
さらにまた、本発明に係る画像処理装置は、前記異常データ判定手段が、現フレームと前フレームとを用いて前記対象物の形状データを比較する第1の比較手段と、現フレームと後フレームとを用いて前記対象物の形状データを比較する第2の比較手段と、現フレームと前フレームとの間で前記対象物の形状データの差分が大きい場合であって、現フレームと後フレームとの間で前記対象物の形状データの差分が大きい場合、現フレームの修正が必要であると判定する判定手段とを備えることを特徴とする。
【0023】
さらにまた、本発明に係る画像処理装置は、前記異常データ判定手段が、現フレームと前フレームとを用いて前記対象物の形状データを比較する第1の比較手段と、現フレーム以降のフレームと前フレームとを用いて前記対象物の前記形状データを比較する第2の比較手段と、現フレームと前フレームとの間の差分が大きい場合、前フレームと現フレーム以降のフレームとの間で前記対象物の形状データの差分が小さい場合、現フレーム以降の所定のフレームの修正が必要であると判定する判定手段とを備えることを特徴とする。
【0024】
さらにまた、本発明に係る画像処理装置は、前記第1又は第2の比較手段が、前記形状データの面積、周囲長、ウェーブレット識別子、円形度、重心又はモーメントのいずれかによる比較若しくはそれらの組み合わせを用いて比較することを特徴とする。
【0025】
さらにまた、本発明に係る画像処理装置は、前記形状データ修正手段が、異常と判定されたN番目のフレームにおける前記対象物の形状データを、正常と判定されたN−1番目以前のフレームと正常と判定されたN+1番目以降のフレームとを用いて修正することを特徴とする。
【0026】
さらにまた、本発明に係る画像処理装置は、前記形状データ修正手段が、さらに、N−1番目以前のフレームとN+1番目以降のフレーム間の前記形状データ上の対応点を検出する検出手段をさらに備えることを特徴とする。
【0027】
さらにまた、本発明に係る画像処理装置は、前記検出手段が、一つ又は複数の所定領域毎のパターンマッチングにより、前記対応点の動き量を求めることを特徴とする。
【0028】
さらにまた、本発明に係る画像処理装置は、前記対応点の動き量が、アフィン変換による該対応点の位置の移動量と回転量とであることを特徴とする。
【0029】
さらにまた、本発明に係る画像処理装置は、前記形状データ修正手段が、異常と判定されたN番目のフレームにおける形状データを正常と判定されたN−1番目以前のフレームの形状データに置き換えることを特徴とする。
【0030】
さらにまた、本発明に係る画像処理装置は、前記画像データ修正手段が、現フレームとは時間的に異なるフレームから前記対象物の画像データを生成することを特徴とする。
【0031】
さらにまた、本発明に係る画像処理装置は、前記画像データ修正手段が、異常と判定されたN番目のフレームを、正常と判定されたN−1番目のフレームと正常と判定されたN+1番目のフレームとから生成することを特徴とする。
【0032】
さらにまた、本発明に係る画像処理装置は、前記画像データ修正手段が、異常と判定されたN番目のフレームを正常と判定されたN−1番目のフレームに置き換えることを特徴とする。
【0033】
さらにまた、本発明に係る画像処理装置は、前記符号化手段が、MPEG−4ビジュアル符号化方式に準じた符号化手段であることを特徴とする。
【0034】
【発明の実施の形態】
以下、図面を参照して、本発明の好適な実施形態について詳細に説明する。
【0035】
図1は、本発明の一実施形態に係る画像処理装置の構成を示すブロック図である。図1において、画像入力部101、背景画像生成部102、背景差分処理部103、符号化部104は、図14を用いて説明した画像入力部1201、背景画像生成部1202、背景差分処理部1203、符号化部1204と同一の機能を有する。すなわち、本実施形態では、符号化部104が、MPEG−4ビジュアル符号化方式に準じた符号化処理をすることを特徴とする。
【0036】
本実施形態に係る画像処理装置はそれに加えて、さらに次に示す構成要素を備える。
【0037】
すなわち、異常データ判定部105は、背景差分処理部103からの形状データを検証して異常を検出する。形状データ修正部106は、異常データ判定部105で異常が検出された場合に形状データの修正を行う。そして、画像データ修正部107は、形状データ修正部106で修正した形状データに合わせて画像データの修正を行う。尚、変更された画像データと形状データは、符号化部104に入力され、符号化が行われる。
【0038】
図2は、本発明の一実施形態に係る画像処理装置の動作手順を説明するためのフローチャートである。図2に示すように、画像入力部101から動画像が入力され(ステップS101)、背景画像生成部102で背景画像(参照画像)が生成される(ステップS102)。そして、背景差分処理部103で、画像入力部101からの入力画像と背景生成部102からの参照画像とから、対象物の形状データを生成する(ステップS103)。そして、異常データ判定部105で異常フレームの判定がされ(ステップS104)、前記対象物の形状データの修正及び画像データの修正がそれぞれ形状データ修正部106、画像データ修正部107で行われる(ステップS105)。そして、符号化部104で、修正後の画像データと形状データとが符号化される(ステップS106)。
【0039】
すなわち、本実施形態に係る画像処理装置は、画像入力部101から複数のフレームから構成される動画像を取得し、背景画像生成部102で動画像に関する背景画像を取得し、背景差分処理部103で動画像を構成するそれぞれのフレームと背景画像とを比較して対象物を抽出し、異常データ判定部105で抽出された対象物の形状データの異常の有無を判定し、異常と判定された場合、形状データ修正部106で形状データを修正し、形状データ修正部106で修正された形状データを用いて画像データ修正部107でフレームを修正し、修正された形状データと画像データとを符号化部104で符号化することを特徴とする。
【0040】
以下、ステップS104の異常フレームの判定と、ステップS105の形状データ及び画像データの修正処理とについて以下の2つの実施形態に適用して詳細に説明する。尚、それ以外の処理手順については上述のとおりである。
【0041】
<第1の実施形態>
本発明の第1の実施形態に係る画像処理装置について、図3から図8を用いて説明する。これは、図15を用いて説明した問題(シーン中にフラッシュが当たった場合)に対応する処理である。
【0042】
図3は、第1の実施形態における異常データ判定部105におけるフラッシュの当たった異常フレームの検出手順を説明するためのフローチャートである。まず、異常データ判定部105においては、現フレームの形状データが生成される(ステップS201)。これは、従来技術と同様の背景差分法を用いて抽出した結果のデータである。次に、前フレームの形状データと現フレームの形状データの比較が行われる(ステップS202)。
【0043】
ここで、形状データの比較の方法として、いくつかの方法が考えられる。面積の比較は、最も簡単な比較例の一つである。例えば、オブジェクトとみなされた形状データの画素数がオブジェクトの面積となる。また、周囲長をパラメータとすることも可能であり、さらにはフーリエ記述子を用いた曲線表現も可能である。これらの詳細な説明については、「画像処理工学 基礎編」谷口慶治・編に詳しく記載されている。尚、本実施形態においては、形状データの比較にどのパラメータを選んでもよく、方式に何ら制限を加えるものではない。すなわち、本実施形態では、形状データの比較方法として、形状データの面積、周囲長、ウェーブレット識別子、円形度、重心又はモーメントのいずれかによる比較若しくはそれらの組み合わせを用いて比較することを特徴とする。
【0044】
そして、比較結果に応じた処理の分岐が行われる(ステップS203)。その結果、差分が小さい場合(No)は異常なしと判定され、差分が大きい場合(Yes)は形状データの検証が行われる。例えば、図15における1401を前フレームの形状データ、1402を現フレームの形状データとすると、フレーム間の差分が大きいため1402が異常フレームかどうかの検証が行われる。
【0045】
検証の手順としては、まず、後フレームの形状データが生成される(ステップS204)。次に、前フレームの形状データと後フレームの形状データとの比較を行う(ステップS205)。この場合の比較の方法は、ステップS202における比較方法と同じものでよい。そして、比較結果に応じた処理の分岐を行う(ステップS206)。
【0046】
ステップS206における判定で、差分が小さい場合(Yes)、現フレームの形状データが異常であると判断する。一方、差分が大きい場合(No)、瞬間的な変化ではないため、フラッシュではないと判断する。例えば、図13においては、1401が前フレーム、1403が後フレームの形状データである。そして、前フレームのデータ1401と後フレームのデータ1403との差分が小さいので、1402はフラッシュの当たったフレーム(異常のフレーム)と判定される。そして、異常と判定された場合は、現フレームのデータ(形状データ及び画像データ)の修正(再生成)を行う(ステップS207)。
【0047】
すなわち、本実施形態に係る画像処理装置では、異常データ判定部105が、時間的に異なる複数のフレーム間で対象物の形状データを比較して、当該形状データの修正の必要性を判定することを特徴とする。
【0048】
また、本実施形態に係る画像処理装置では、異常データ判定部105が、現フレームと前フレームとを用いて対象物の形状データを比較し(ステップS202)、前フレームと後フレームとを用いて対象物の形状データを比較し(ステップS205)、現フレームと前フレームとの間で対象物の形状データの差分が大きい場合であって、前フレームと後フレームとの間で対象物の形状データの差分が小さい場合、現フレームの修正が必要であると判定することを特徴とする。
【0049】
尚、ステップS207における修正処理については、後に詳しく説明する。
【0050】
次に、図4は、第1の実施形態における異常データ判定部105におけるフラッシュの当たったフレームを検出する他の判定手順を説明するためのフローチャートである。図4のフローチャートにおいては、ステップS208、S209以外の処理ステップは全て図3のフローチャートと同じ処理ステップである。
【0051】
ステップS208では、現フレームの形状データと後フレームの形状データの比較が行われる。また、ステップS209における判定では、差分が大きい場合はフラッシュであり、差分が小さい場合はフラッシュではないと判定する。ここで、差分が小さい場合とは、オブジェクトの状態が遷移して、新たな状態になったと考えることができる。例えば、図15では、現フレームの形状データ1402と後フレームの形状データ1403の差分が大きいため、1402はフラッシュの当たったフレームと判定される。
【0052】
また、特殊な例として、形状データの急激な変化がフラッシュ以外に考えられないような場合には、後フレームのデータを使用することなく、ステップS203の判定結果のみでステップS207の処理に移ることも可能である。
【0053】
すなわち、本実施形態に係る画像処理装置では、異常データ判定部105が、現フレームと前フレームとを用いて対象物の形状データを比較し(ステップS202)、現フレームと後フレームとを用いて対象物の形状データを比較し(ステップS208)、現フレームと前フレームとの間で対象物の形状データの差分が大きい場合であって、現フレームと後フレームとの間で対象物の形状データの差分が大きい場合、現フレームの修正が必要であると判定することを特徴とする。
【0054】
次に、修正が必要と判定されたフレームの処理(ステップS207)について説明する。
【0055】
図5は、本発明の第1の実施形態における形状データと画像データの修正手順を説明するためのフローチャートである。ここで、抽出対象が剛体の場合は全体が1つの動きであるが、そうでない場合は局所的に別の動きをする部分が現れる。そこで、以下では、全体の動きが一致する対応領域を「共通領域」、それ以外の局所的な動きをする領域を「動領域」と称す。
【0056】
まず、形状データ修正部106では、前後のフレームの形状データから共通領域が検出される(ステップS301)。これは、前フレームの形状データと後フレームの形状データのAND処理をすることで簡単に求めることができる。図7は、本発明の第1の実施形態における形状データについて説明するための図である。図7において、501は前フレームの形状データ、502は後フレームの形状データ、503はこの2フレームから検出した共通領域を示す。
【0057】
また、画像データ修正部107では、現フレームの画像データの共通領域が生成される(ステップS302)。これは、前フレームの画像データと後フレームの画像データの平均値を求めることによって生成する。すなわち、ある点(x,y)の前フレームにおける画素値をPp(x,y)、後フレームにおける画素値をPb(x,y)とすると、平均値は、(Pp(x,y)+Pb(x,y))/2で求めることができる。
【0058】
一方、形状データ修正部106では、前フレームの形状データの動領域が検出される(ステップS303)。これは、前フレームの形状データ501と前後フレームの共通領域503のXOR処理で求めることができる。図7において、504は検出された前フレームの動領域である。
【0059】
また、画像データ修正部107では、前フレームの画像データの動領域が検出される(ステップS304)。これは、検出した動領域の形状データの位置に画像データをそのまま対応付ければよい。同様に、形状データ修正部106では、後フレームの形状データの動領域が求められる(ステップS305)。この場合も、後フレームの形状データ502と前後フレームの共通領域503のXOR処理で求めることができ、図7における505が検出結果である。そして、画像データ修正部107では、後フレームの画像データの動領域が検出される(ステップS306)。これも、検出した動領域の形状データの位置に画像データをそのまま対応付ければよい。
【0060】
次に、形状データ修正部106では、前後フレーム間の形状データの動領域の動きが検出される(ステップS307)。対応点の検出には、アフィン変換などを使ったパターンマッチングを用いる。アフィン変換の一例を以下に示す。
X=(x−x0)cosθ−(y−y0)sinθ+x0
Y=(x−x0)sinθ+(y−y0)cosθ+y0 … (2)
ここで、(x0,y0)が回転の中心、θが回転角となる。パターンマッチングは、この計算で求めた値と実際の値との差分の総和若しくは差分の二乗和を評価値とし、この値が最小となるような回転の中心位置および回転角を求める。
【0061】
図8は、第1の実施形態における形状データの対応点検出結果を模式的に説明するための図である。ここでは簡単のため形状を線分として説明する。図8において、線分601が前フレーム、603が後フレームのデータを表しているものとする。この場合、線分601と線分603とのなす角がこのアフィン変換における回転角であり、A0とA2の重なっている点の位置が回転の中心である。尚、B0、C0に対応する点がそれぞれB2、C2である。
【0062】
次に、形状データ修正部106では、現フレームの形状データの動きが算出される(ステップS308)。動きが、図8に示すように回転角と回転の中心位置で求まる場合には、回転角をθ/2、回転の中心位置をA0にすることで、動き量を求めることができる。
【0063】
さらに、形状データ修正部106では、現フレームの形状データの動領域が生成される(ステップS309)。すなわち、ステップS308で算出したパラメータを代入して対応点が求められる。これによって、A0とA2に対応する点がA1、B0とB2に対応する点がB1、C0とC2に対応する点がC1となる。そして、対応する点をすべて結んだ線分602が現フレームの形状データとなる。図7の506はこのようにして求めた現フレームの動領域の形状データを示している。
【0064】
すなわち、本実施形態では、形状データ修正部106が、異常と判定されたN番目のフレームにおける対象物の形状データを、正常と判定されたN−1番目以前のフレームと正常と判定されたN+1番目以降のフレームとを用いて修正することを特徴とする。
【0065】
また、本実施形態では、形状データ修正部106が、N−1番目以前のフレームとN+1番目以降のフレーム間の形状データ上の対応点を検出することを特徴とする。さらに、本実施形態では、形状データ修正部106が、一つ又は複数の所定領域毎のパターンマッチングにより、対応点の動き量を求めることを特徴とする。さらにまた、本実施形態では、対応点の動き量が、アフィン変換による該対応点の位置の移動量と回転量とであることを特徴とする。
【0066】
次に、画像データ修正部107では、ステップS309で生成した形状データに対応した画像データを生成する(ステップS310)。すなわち、ステップS308で求めたパラメータを利用して、A1の画素値はA0とA2の平均値、B1の画素値はB0とB2の平均値、といったように対応点間の平均値から求める。尚、平均値の求め方はステップS302で説明した手順と同様である。
【0067】
そして、形状データ修正部106では、ステップS301で求めた共通領域の形状データと、ステップS309で求めた動領域の形状データを合成し、現フレームの形状データが再生成される(ステップS311)。図7の507はこのようにして求めた現フレームの形状データを示している。さらに、画像データ修正部107では、ステップS302で求めた共通領域の画像データと、ステップS310で求めた動領域の画像データを合成し、現フレームの画像データが再生成される(ステップS312)。
【0068】
上述した手順によって、現フレームの形状データと画像データが再生成できた時点で、この処理は完了となる。これらのデータは上述したように図1の符号化部104に入力され、MPEG−4符号化が行われる。
【0069】
上述したように、第1の実施形態に係る画像形成装置によれば、フラッシュの当たった画像のような、形状データが不連続となるフレームを検出し、当該フレームを前後フレームから修正することにより、形状データと画像データ共に、余計な符号量発生を抑え、視覚的にも良好な符号化システムを実現することができる。
【0070】
<第2の実施形態>
本発明の第2の実施形態について、図9から図12を用いて説明する。これは、図16を用いて説明した問題(対象物の前を抽出対象でない他の物体が横切った場合)に対応する処理である。
【0071】
図9は、第2の実施形態における異常データ判定部105の動作手順を説明するためのフローチャートである。ステップS701からS703の処理は、第1の実施形態で説明した図3のステップS201からS203と同じ処理である。但し、ここでは現フレームをN番目のフレームとして説明する。また、図16において、1501から1504を順にN−1、N、N+1、N+2フレーム目の形状データであるとする。この例では、ステップS703において、現フレームの形状データ1502と前フレームの形状データ1501とを比較し、差分が大きい(Yes)ので、形状データの検証が行われる。
【0072】
ここで、抽出対象でない他の物体が前を横切る場合は、複数フレームにわたって大きな形状変化が検出されると考えられる。1フレームだけに出現するものではないからである。そこで、このフレーム数をカウントするための初期化処理として、カウンタmを1にセットする(ステップS704)。
【0073】
次に、N+1フレーム(現フレームの次のフレーム)の形状データを生成する(ステップS705)。図16の1503がこのフレームの形状データである。そして、生成したN+1フレームの形状データと、N−1フレームの形状データとの比較を行う(ステップS706)。比較の方法は、ステップS703における方法と同じ方法でよい。そして、両者の差分が小さいか否かを判定する(ステップS707)。その結果、差分が小さい場合(Yes)、現フレームの形状データのみが異常であると判断する。一方、差分が大きい場合(No)、次のフレームも検証の対象と判断する。図16に示す例では、1501と1503の比較となり、差分は大きいと判断される。
【0074】
そこで、カウンタmが最大値maxに達したかどうかの判定をする(ステップS708)。この最大値maxは、抽出対象でない他の物体が前を横切ると考えられる最大時間を予め設定しておく。例えば、フレームレートが15fpsで、最大2秒程度と考えられる場合には、maxを30と設定する。そして、カウンタmが最大値maxに達していない場合(No)、カウンタmの値を1つ増やす(ステップS709)。
【0075】
一方、ステップS708においてカウンタmが最大値maxに達してしまった場合(Yes)、エラー処理を行う(ステップS710)。この場合、何かが抽出対象を横切ったというわけでなく、抽出対象そのものの形状が大きく変化したと考える。また、修正しない形状データをそのまま使っての問題ない場合は、特にエラー処理は行わず、このフレームの処理を終了するようにしてもよい。
【0076】
上述したステップS705からS709の処理を繰り返し、ステップS707で、差分が小さいと判定した場合(Yes)、このループを抜ける。このときのカウンタ値mが抽出結果が異常と判定されたフレームの数であり、再生成の必要なフレーム数である。図16の例では、mが2となった時点で、1501の形状データと1504の形状データとが比較され、このループを抜ける。
【0077】
また、ステップS711からS714では、検出したmフレーム分のデータ修正(再生成)処理が行われる。まず、フレーム数のカウンタkを0にセットする初期化処理が行われる(ステップS711)。また、ステップS712は、修正処理のメインの部分であり、詳細は後に説明する。さらに、終了判定がされ(ステップS713)、kがm−1になるまでステップS714においてkの値を1つずつ増やし、この処理を繰り返す。そして、NフレームからN+m−1フレームまでのデータ再生成が終了すると、一連の処理が終了する。図16の例では、mが2であり、1502と1503のフレームのデータを再生成することになる。
【0078】
尚、図9のフローチャートでは、N番目のフレームの処理例を説明したが、データ修正が行われた場合は、次に処理するフレームは、N+1番目ではなく、N+m+1番目からであっても構わない。
【0079】
すなわち、本実施形態に係る画像処理装置では、異常データ判定部105が、現フレームと前フレームとを用いて対象物の形状データを比較し(ステップS702)、現フレーム以降のフレームと前フレームとを用いて対象物の形状データを比較し(ステップS706)、現フレームと前フレームとの間の差分が大きい場合、前フレームと現フレーム以降のフレームとの間で対象物の形状データの差分が小さい場合、現フレーム以降の所定のフレームの修正が必要であると判定することを特徴とする。
【0080】
次に、修正が必要と判定されたフレームの修正処理について説明する。図10は、第2の実施形態に係る形状データと画像データの修正手順を説明するためのフローチャートである。まず、N−1フレームとN+mフレームの形状データから、共通の領域を検出する(ステップS801)。これは、図5で説明したときと同様に、N−1フレームの形状データとN+mフレームの形状データのAND処理をすることで簡単に求めることができる。但し、図5の場合と違い、フレーム間の時間間隔が長い場合は、共通領域も動いてしまっていることが考えられる。この場合には、抽出対象全体の動きを、パターンマッチングにより求めるようにする。図5で説明したようなアフィン変換を用いると、フレーム間の抽出対象の平行移動量と回転量を求めることができる。
【0081】
すなわち、N−1フレームからN+mフレームまでの回転角がθであるとし、その移動量が、(x0,y0)であったとすると、N+kフレームにおける回転角は、θ×(k+1)/(m+1)となり、移動量は、(x0×(k+1)/(m+1),y0×(k+1)/(m+1))となる。これらのパラメータにより位置を合わせた後、AND処理をすることで、共通領域を検出することができる。
【0082】
図11は、第2の実施形態に係る形状データを説明するための図である。図11の例では、1001がN−1フレームの形状データ、1002がN+2フレームの形状データを示している。尚、共通領域の動きはないので、回転角は0、移動量は(0,0)である。また、1003は、1001と1002から求めた共通領域を示している。
【0083】
次に、共通領域以外に局所的な動きがある場合は、動領域の検出を行う。まず、N−1フレームの形状データの動領域を検出する(ステップS802)。これは、N−1フレームの形状データ1001と共通領域1003の位置を合わせた後、XOR処理で求めることができる。1004は検出されたN−1フレームの動領域である。次に、N−1フレームの画像データの動領域を検出する(ステップS803)。これは、ステップS802で求めた領域に対応する画像データである。
【0084】
同様に、N+mフレームの形状データの動領域を検出する(ステップS804)。これは、N+mフレームの形状データ1002と共通領域1003の位置を合わせた後、XOR処理で求めることができる。1005は検出されたN−1フレームの動領域である。次に、N+mフレームの画像データの動領域を検出する(ステップS805)。これも、ステップS804で求めた領域に対応する画像データである。
【0085】
次に、N−1フレームとN+mフレーム間の形状データの動領域の動きを検出する(ステップS806)。これは、N−1フレームの形状データ1004とN+mフレームの形状データ1005の対応点を検出ということである。対応点の検出には、アフィン変換などを使ったパターンマッチングを用いる。
【0086】
図12は、第2の実施形態における形状データの対応点検出の処理を模式的に説明するための図である。ここでも簡単のため形状を線分として説明する。線分1101がN−1フレーム、線分1104がN+mフレームのデータを表している。線分1101と線分1104のなす角がこのアフィン変換における回転角θ’であり、A0、A3の重なっている点の位置が回転の中心(x’0,y’0)である。B0、C0に対応する点がそれぞれB3、C3である。
【0087】
以下のステップで、修正する各フレームの処理を行う。まず、初期化処理を行う(ステップS807)。ここでは、修正するフレーム数をカウントするカウンタkを0にセットする。次に、N+kフレームにおける共通領域の動きを算出する(ステップS808)。これは、ステップS801で求めた動き量から算出する。図11の例では、回転角0、移動量(0,0)である。そして、ステップS808で求めた値から共通領域の形状データを生成する(ステップS809)。図11の例では、共通領域の移動量は0なので、Nフレームにおける形状データの共通領域は1003と一致する。
【0088】
次に、ステップS809で求めた形状データに対応した画像データを生成する(ステップS810)。このとき、ある点(x,y)のN−1フレームにおける画素値をP0(x,y)、N+mフレームにおける画素値をPm(x,y)とすると、N+kフレームにおける画素値は、(P0(x,y)×(m−k)+Pm(x,y)×(k+1))/(m+1)となる。また、共通領域にほとんど変化がないと考えられる場合は、簡易的な方法として、平均値(P0(x,y)+Pm(x,y))/2を用いてもよい。さらに簡単には、P0(x,y)をそのまま利用することも考えられる。これは、N−1フレームの画像データをそのままコピーするということである。
【0089】
次に、N+kフレームにおける動領域の動きを算出する(ステップS811)。これは、先に求めたN−1フレームにおける動領域とN+mフレームにおける動領域との間の動き検出から求める。N−1フレームからN+mフレームまでの回転角がθ’で、その移動量が、(x’0,y’0)であるので、N+kフレームにおける回転角は、θ’×(k+1)/(m+1)となり、移動量は、(x’0×(k+1)/(m+1),y’0×(k+1)/(m+1))となる。m=2のとき、Nフレームにおける回転角は、θ’/3、移動量は(x’0/3,y’0/3)となる。
【0090】
そして、ステップS811で求めた値から、動領域の形状データを生成する(ステップS812)。図12において、線分1101に対し、回転角θ’/3、移動量は(x’0/3,y’0/3)に対応する点を求めると、線分1102が得られる。次に、動領域の形状データに対応する画像データを生成する(ステップS813)。方法は共通領域における画素値の算出と同じである。このとき、ある点(x’,y’)のN−1フレームにおける画素値をP’0(x’,y’)、N+mフレームにおける画素値をP’m(x’,y’)とすると、N+kフレームにおける画素値は、(P’0(x’,y’)×(m−k)+P’m(x’,y’)×(k+1))/(m+1)となる。
【0091】
さらに、N+kフレームの形状データを再生成する(ステップS814)。これは、ステップS809で求めた共通領域の形状データとステップS812で求めた動領域の形状データを合成したものとなる。図11の1008は、Nフレームにおける再生成した形状データである。次に、N+kフレームの画像データを再生成する(ステップS815)。これは、ステップS810で求めた共通領域の画像データとステップS813で求めた動領域の画像データを合成したものとなる。
【0092】
そして、フレーム数の判定を行い(ステップS816)、m−1に満たない場合(No)、ステップS817においてkの値を1つ増し、ステップS808からの処理を繰り返す。一方、mが2の場合は、NフレームとN+1フレームのデータを再生成して一連の処理を終える。N+1フレームにおいては、回転角がθ’×2/3、移動量が(x’0×2/3,y’0×2/3)であり、対応点を求めると図12の線分1103が得られる。また、図11の1007は、N+1フレームにおける形状データの動領域、1009は、N+1フレームにおける再生成した形状データである。
【0093】
ここでは、共通領域以外の局所的な動きは1種類として説明したが、複数の動きが存在する場合は、動きの数だけ動領域検出の処理を繰り返せばよい。
【0094】
上述したように第2の実施形態によれば、抽出対象の前を他の物体が横切った時の画像のような、形状データが不連続となる複数のフレームを検出し、当該フレームを前後フレームから修正することにより、形状データと画像データ共に、余計な符号量発生を抑え、視覚的にも良好な符号化システムを実現することができる。
【0095】
<第3の実施形態>
また、図6は、第3の実施形態における形状データと画像データの修正に関する他のフローチャートである。すなわち、本実施形態では、上述した第1及び第2の実施形態における形状データ修正部106及び画像データ修正部107での形状データ及び画像データの修正処理を、正常と判定されたフレームの形状データ及び画像データに置き換える(コピー)処理をするものである。
【0096】
すなわち、本実施形態では、形状データ修正部106が、異常と判定されたN番目のフレームにおける形状データを正常と判定されたN−1番目以前のフレームの形状データに置き換える(ステップS401)ことを特徴とする。また、画像データ修正部107が、異常と判定されたN番目のフレームを、正常と判定されたN−1番目のフレームと正常と判定されたN+1番目のフレームとから生成することを特徴とする。さらに、画像データ修正部107が、異常と判定されたN番目のフレームを正常と判定されたN−1番目のフレームに置き換える(ステップS402)ことを特徴とする。
【0097】
<他の実施形態>
尚、本発明は、複数の機器(例えば、ホストコンピュータ、インタフェース機器、リーダ、プリンタ等)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機、ファクシミリ装置等)に適用してもよい。
【0098】
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0099】
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0100】
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
【0101】
【発明の効果】
以上説明したように、本発明によれば、動画像中の対象物の形状データが一時的に大きく変化した場合であっても、修正対象となるフレームを好適に検出して修正し、視覚的にも符号化効率的にも優れた動画像符号化をすることができる。
【図面の簡単な説明】
【図1】本発明の一実施形態に係る画像処理装置の構成を示すブロック図である。
【図2】本発明の一実施形態に係る画像処理装置の動作手順を説明するためのフローチャートである。
【図3】第1の実施形態における異常データ判定部105におけるフラッシュの当たった異常フレームの検出手順を説明するためのフローチャートである。
【図4】第1の実施形態における異常データ判定部105におけるフラッシュの当たったフレームを検出する他の判定手順を説明するためのフローチャートである。
【図5】本発明の第1の実施形態における形状データと画像データの修正手順を説明するためのフローチャートである。
【図6】第3の実施形態における形状データと画像データの修正に関する他のフローチャートである。
【図7】本発明の第1の実施形態における形状データについて説明するための図である。
【図8】第1の実施形態における形状データの対応点検出結果を模式的に説明するための図である。
【図9】第2の実施形態における異常データ判定部105の動作手順を説明するためのフローチャートである。
【図10】第2の実施形態に係る形状データと画像データの修正手順を説明するためのフローチャートである。
【図11】第2の実施形態に係る形状データを説明するための図である。
【図12】第2の実施形態における形状データの対応点検出の処理を模式的に説明するための図である。
【図13】背景差分方式とMPEG−4符号化方式を組み合わせた従来のシステムの構成を示すブロック図である。
【図14】従来のVOP符号化を行う符号化部1204の細部構成を示すブロック図である。
【図15】従来例におけるシーン中にフラッシュが当たった場合の対象物の形状データについて説明するための図である。
【図16】従来例における対象物の前を別の物体が横切った場合の対象物の形状データについて説明するための図である。
【符号の説明】
101 画像入力部
102 背景画像生成部
103 背景差分処理部
104 符号化部
105 異常データ判定部
106 形状データ修正部
107 画像データ修正部
【発明の属する技術分野】
本発明は、動画像中に含まれる対象物を抽出して異常フレームを検出する画像処理装置及び画像処理方法に関する。
【0002】
【従来の技術】
近年、デジタル技術を利用して画像を対象物(オブジェクト)毎に分離、合成する処理が注目されている。特に、動画像の符号化においては、国際標準としてMPEG−4符号化方式が規格化されている。MPEG−4符号化方式では、オブジェクト毎の符号化/復号化が可能となり、符号化効率の向上、伝送路に応じたデータ配分、画像の再加工等の従来は困難であったさまざまな応用が期待されている。
【0003】
また、動画像処理における対象物の抽出方法としては、一般に背景差分方式という手法が知られている。これは、予め撮影した背景画像と実際の入力画像とを比較することにより、変化点を検出する方法である。以下、簡単にその原理について説明する。
【0004】
まず、画像平面上の座標(x,y)における点の入力画像の画素値をPc(x,y)、背景画像の画素値をPb(x,y)とする。このとき、Pc(x,y)とPb(x,y)との差分をとり、その絶対値をあるしきい値Thと比較する。
【0005】
判定式の例を示すと次の通りである。
|Pc(x,y)−Pb(x,y)| ≦ Th … (1)
そして、式(1)において差分絶対値がしきい値Th以下の場合、この点(x,y)は変化なしということで、Pcは背景と判定される。一方、差分絶対値がしきい値Thを超えている場合は、値が変化したということで抽出対象とみなされる。画面上のすべての点において上記の判定を行うことで、1フレーム分の抽出が完了する。
【0006】
図13は、背景差分方式とMPEG−4符号化方式を組み合わせた従来のシステムの構成を示すブロック図である。図13において、画像入力部1201は、例えばカメラの撮像部であり、動画像を入力する部分である。また、背景差分法では参照する背景画像が必要となるため、背景画像生成部1202において背景画像を生成する。これは、予め対象物が映っていない状態で1フレーム分の画像を取り込むことによって生成することが最も簡単な方法である。
【0007】
また、背景差分処理部1203では、画像入力部1201からの入力画像と背景生成部1202からの参照画像とから、対象物の形状データを生成する。さらに、符号化部1204では、画像入力部1201からの入力画像と背景差分処理部からの形状データとがフレーム単位で入力され、符号化処理が行われる。以下、符号化部1204を、MPEG−4符号化方式として説明する。
【0008】
オブジェクト(対象物)を符号化する場合には、オブジェクトの形と位置の情報を符号化する必要がある。そのために、まず、オブジェクトを内包する矩形領域を設定し、この矩形の左上位置の座標と矩形領域の大きさを符号化する。この矩形領域はバウンディングボックスと呼ばれる。また、画像信号、形状信号により表現されるオブジェクト内部の領域をVOP(Video Object Plane)と呼ぶ。
【0009】
図14は、従来のVOP符号化を行う符号化部1204の細部構成を示すブロック図である。尚、入力される信号は画像の輝度・色差信号と形状信号であり、それらはマクロブロック単位で処理される。
【0010】
まず、イントラモードでは、各ブロックをDCT部1301において離散コサイン変換(DCT)し、量子化部1302で量子化する。量子化されたDCT係数と量子化幅は、可変長符号化部1312で可変長符号化される。
【0011】
一方、インターモードでは、動き検出部1307において時間的に隣接する別のVOPの中からブロックマッチングをはじめとする動き検出方法により動きを検出し、動きベクトル予測部1308で対象マクロブロックに対して誤差のもっとも小さい予測マクロブロックを検出する。誤差の最も小さい予測マクロブロックへの動きを示す信号が動きベクトルである。尚、予測マクロブロックを生成するために参照する画像を参照VOPと呼ぶ。
【0012】
検出された動きベクトルに基づいて、参照VOPを動き補償部1306において動き補償し、最適な予測マクロブロックを取得する。次に対象となるマクロブロックと対応する予測マクロブロックとの差分を求め、この差分信号に対してDCT部1301でDCTを施し、DCT変換係数を量子化部1302で量子化する。
【0013】
一方、形状データは、形状符号化CAE部1309で符号化される。但し、ここで実際にCAE符号化が行われるのは境界ブロックのみであり、VOP内のブロック(ブロック内全てのデータがオブジェクト内)やVOP外のブロック(ブロック内全てのデータがオブジェクト外)はヘッダ情報のみが可変長符号化部1312に送られる。また、CAE符号化が施される境界ブロックは、画像データと同様に、インターモードにおいては、動き検出部1307による動き検出を行い、動きベクトル予測部1308動きベクトルの予測を行う。そして、動き補償した形状データと前フレームの形状データとの差分値に対しCAE符号化を行う。
【0014】
【発明が解決しようとする課題】
しかしながら、上述した背景差分法には、以下に説明する2つの問題がある。一つ目の問題として、この方式は背景画像が変化しないことを前提としており、照明変化等により背景の値が変化した場合は、安定した抽出結果が得られないという問題がある。この問題の対応策としては、背景画像の変化を統計的な手法により検出し、適宜背景画像を更新するという方法が、特開平7―302328号等に開示されている。
【0015】
2つ目の問題は、シーン中にフラッシュが当たったり、対象物の前を別の物体が横切ったときなどの対応である。これらの場合を図を用いて説明する。図15は、従来例におけるシーン中にフラッシュが当たった場合の対象物の形状データについて説明するための図である。1401がある時間のフレームデータ、1402が次の時間のフレームデータで、このときフラッシュが当たっている。そして、1403はその次の時間のフレームデータである。このように、フラッシュが当たったフレーム(1402)は他の抽出結果(1401、1403)と大きく異なるものになってしまう。
【0016】
一つ目の問題である背景の照明変化の場合は、主に輝度値の変化のみであるが、二つ目の問題であるフラッシュの場合には、色相も変化してしまうので、背景の正確な補正は困難である。また、仮に、対象物の正確な形状データが得られたとしても、対象物そのものの画像データも大きく変化してしまっているため、フレーム間差分を用いるMPEG−4のような方式では、符号化効率を上げることができず、視覚的にも不自然なものとなってしまう。
【0017】
図16は、従来例における対象物の前を別の物体が横切った場合の対象物の形状データについて説明するための図である。図16において、1501は別の物体(例えば、車両)が横切る直前のフレームデータ、1502と1503は車両が対象物(人)の前を横切っているときのフレームデータ、1504は車両が横切った直後のフレームデータである。このように、別の物体も併せて抽出してしまうと、形状データと画像データが大きく変化することによる情報量の増大のため、大きな画質劣化を招いてしまう。この場合、背景の照明変化とは全く別の現象のため、背景画像を更新方法で対応することは困難である。
【0018】
本発明は、このような事情を考慮してなされたものであり、動画像中の対象物の形状データが一時的に大きく変化した場合であっても、修正対象となるフレームを好適に検出して修正し、視覚的にも符号化効率的にも優れた動画像符号化をすることができる画像処理装置及び画像処理方法を提供することを目的とする。
【0019】
【課題を解決するための手段】
上記課題を解決するため、本発明に係る画像処理装置は、複数のフレームから構成される動画像を入力する動画像入力手段と、入力された前記動画像に関する背景画像を取得する背景画像取得手段と、前記動画像を構成するそれぞれのフレームと前記背景画像とを比較して対象物を抽出する対象物抽出手段と、抽出された前記対象物の形状データの異常の有無を判定する異常データ判定手段と、前記形状データの判定結果に基づいて該形状データを修正する形状データ修正手段と、前記形状データ修正手段で修正された前記形状データに応じた前記対象物の画像データを生成する画像データ修正手段と、前記形状データと前記画像データとを符号化する符号化手段とを備えることを特徴とする。
【0020】
また、本発明に係る画像処理装置は、前記異常データ判定手段が、時間的に異なる複数のフレーム間で前記対象物の前記形状データを比較して、該形状データの修正の必要性を判定することを特徴とする。
【0021】
さらに、本発明に係る画像処理装置は、前記異常データ判定手段が、現フレームと前フレームとを用いて前記対象物の形状データを比較する第1の比較手段と、前フレームと後フレームとを用いて前記対象物の形状データを比較する第2の比較手段と、現フレームと前フレームとの間で前記対象物の形状データの差分が大きい場合であって、前フレームと後フレームとの間で前記対象物の形状データの差分が小さい場合、現フレームの修正が必要であると判定する判定手段とを備えることを特徴とする。
【0022】
さらにまた、本発明に係る画像処理装置は、前記異常データ判定手段が、現フレームと前フレームとを用いて前記対象物の形状データを比較する第1の比較手段と、現フレームと後フレームとを用いて前記対象物の形状データを比較する第2の比較手段と、現フレームと前フレームとの間で前記対象物の形状データの差分が大きい場合であって、現フレームと後フレームとの間で前記対象物の形状データの差分が大きい場合、現フレームの修正が必要であると判定する判定手段とを備えることを特徴とする。
【0023】
さらにまた、本発明に係る画像処理装置は、前記異常データ判定手段が、現フレームと前フレームとを用いて前記対象物の形状データを比較する第1の比較手段と、現フレーム以降のフレームと前フレームとを用いて前記対象物の前記形状データを比較する第2の比較手段と、現フレームと前フレームとの間の差分が大きい場合、前フレームと現フレーム以降のフレームとの間で前記対象物の形状データの差分が小さい場合、現フレーム以降の所定のフレームの修正が必要であると判定する判定手段とを備えることを特徴とする。
【0024】
さらにまた、本発明に係る画像処理装置は、前記第1又は第2の比較手段が、前記形状データの面積、周囲長、ウェーブレット識別子、円形度、重心又はモーメントのいずれかによる比較若しくはそれらの組み合わせを用いて比較することを特徴とする。
【0025】
さらにまた、本発明に係る画像処理装置は、前記形状データ修正手段が、異常と判定されたN番目のフレームにおける前記対象物の形状データを、正常と判定されたN−1番目以前のフレームと正常と判定されたN+1番目以降のフレームとを用いて修正することを特徴とする。
【0026】
さらにまた、本発明に係る画像処理装置は、前記形状データ修正手段が、さらに、N−1番目以前のフレームとN+1番目以降のフレーム間の前記形状データ上の対応点を検出する検出手段をさらに備えることを特徴とする。
【0027】
さらにまた、本発明に係る画像処理装置は、前記検出手段が、一つ又は複数の所定領域毎のパターンマッチングにより、前記対応点の動き量を求めることを特徴とする。
【0028】
さらにまた、本発明に係る画像処理装置は、前記対応点の動き量が、アフィン変換による該対応点の位置の移動量と回転量とであることを特徴とする。
【0029】
さらにまた、本発明に係る画像処理装置は、前記形状データ修正手段が、異常と判定されたN番目のフレームにおける形状データを正常と判定されたN−1番目以前のフレームの形状データに置き換えることを特徴とする。
【0030】
さらにまた、本発明に係る画像処理装置は、前記画像データ修正手段が、現フレームとは時間的に異なるフレームから前記対象物の画像データを生成することを特徴とする。
【0031】
さらにまた、本発明に係る画像処理装置は、前記画像データ修正手段が、異常と判定されたN番目のフレームを、正常と判定されたN−1番目のフレームと正常と判定されたN+1番目のフレームとから生成することを特徴とする。
【0032】
さらにまた、本発明に係る画像処理装置は、前記画像データ修正手段が、異常と判定されたN番目のフレームを正常と判定されたN−1番目のフレームに置き換えることを特徴とする。
【0033】
さらにまた、本発明に係る画像処理装置は、前記符号化手段が、MPEG−4ビジュアル符号化方式に準じた符号化手段であることを特徴とする。
【0034】
【発明の実施の形態】
以下、図面を参照して、本発明の好適な実施形態について詳細に説明する。
【0035】
図1は、本発明の一実施形態に係る画像処理装置の構成を示すブロック図である。図1において、画像入力部101、背景画像生成部102、背景差分処理部103、符号化部104は、図14を用いて説明した画像入力部1201、背景画像生成部1202、背景差分処理部1203、符号化部1204と同一の機能を有する。すなわち、本実施形態では、符号化部104が、MPEG−4ビジュアル符号化方式に準じた符号化処理をすることを特徴とする。
【0036】
本実施形態に係る画像処理装置はそれに加えて、さらに次に示す構成要素を備える。
【0037】
すなわち、異常データ判定部105は、背景差分処理部103からの形状データを検証して異常を検出する。形状データ修正部106は、異常データ判定部105で異常が検出された場合に形状データの修正を行う。そして、画像データ修正部107は、形状データ修正部106で修正した形状データに合わせて画像データの修正を行う。尚、変更された画像データと形状データは、符号化部104に入力され、符号化が行われる。
【0038】
図2は、本発明の一実施形態に係る画像処理装置の動作手順を説明するためのフローチャートである。図2に示すように、画像入力部101から動画像が入力され(ステップS101)、背景画像生成部102で背景画像(参照画像)が生成される(ステップS102)。そして、背景差分処理部103で、画像入力部101からの入力画像と背景生成部102からの参照画像とから、対象物の形状データを生成する(ステップS103)。そして、異常データ判定部105で異常フレームの判定がされ(ステップS104)、前記対象物の形状データの修正及び画像データの修正がそれぞれ形状データ修正部106、画像データ修正部107で行われる(ステップS105)。そして、符号化部104で、修正後の画像データと形状データとが符号化される(ステップS106)。
【0039】
すなわち、本実施形態に係る画像処理装置は、画像入力部101から複数のフレームから構成される動画像を取得し、背景画像生成部102で動画像に関する背景画像を取得し、背景差分処理部103で動画像を構成するそれぞれのフレームと背景画像とを比較して対象物を抽出し、異常データ判定部105で抽出された対象物の形状データの異常の有無を判定し、異常と判定された場合、形状データ修正部106で形状データを修正し、形状データ修正部106で修正された形状データを用いて画像データ修正部107でフレームを修正し、修正された形状データと画像データとを符号化部104で符号化することを特徴とする。
【0040】
以下、ステップS104の異常フレームの判定と、ステップS105の形状データ及び画像データの修正処理とについて以下の2つの実施形態に適用して詳細に説明する。尚、それ以外の処理手順については上述のとおりである。
【0041】
<第1の実施形態>
本発明の第1の実施形態に係る画像処理装置について、図3から図8を用いて説明する。これは、図15を用いて説明した問題(シーン中にフラッシュが当たった場合)に対応する処理である。
【0042】
図3は、第1の実施形態における異常データ判定部105におけるフラッシュの当たった異常フレームの検出手順を説明するためのフローチャートである。まず、異常データ判定部105においては、現フレームの形状データが生成される(ステップS201)。これは、従来技術と同様の背景差分法を用いて抽出した結果のデータである。次に、前フレームの形状データと現フレームの形状データの比較が行われる(ステップS202)。
【0043】
ここで、形状データの比較の方法として、いくつかの方法が考えられる。面積の比較は、最も簡単な比較例の一つである。例えば、オブジェクトとみなされた形状データの画素数がオブジェクトの面積となる。また、周囲長をパラメータとすることも可能であり、さらにはフーリエ記述子を用いた曲線表現も可能である。これらの詳細な説明については、「画像処理工学 基礎編」谷口慶治・編に詳しく記載されている。尚、本実施形態においては、形状データの比較にどのパラメータを選んでもよく、方式に何ら制限を加えるものではない。すなわち、本実施形態では、形状データの比較方法として、形状データの面積、周囲長、ウェーブレット識別子、円形度、重心又はモーメントのいずれかによる比較若しくはそれらの組み合わせを用いて比較することを特徴とする。
【0044】
そして、比較結果に応じた処理の分岐が行われる(ステップS203)。その結果、差分が小さい場合(No)は異常なしと判定され、差分が大きい場合(Yes)は形状データの検証が行われる。例えば、図15における1401を前フレームの形状データ、1402を現フレームの形状データとすると、フレーム間の差分が大きいため1402が異常フレームかどうかの検証が行われる。
【0045】
検証の手順としては、まず、後フレームの形状データが生成される(ステップS204)。次に、前フレームの形状データと後フレームの形状データとの比較を行う(ステップS205)。この場合の比較の方法は、ステップS202における比較方法と同じものでよい。そして、比較結果に応じた処理の分岐を行う(ステップS206)。
【0046】
ステップS206における判定で、差分が小さい場合(Yes)、現フレームの形状データが異常であると判断する。一方、差分が大きい場合(No)、瞬間的な変化ではないため、フラッシュではないと判断する。例えば、図13においては、1401が前フレーム、1403が後フレームの形状データである。そして、前フレームのデータ1401と後フレームのデータ1403との差分が小さいので、1402はフラッシュの当たったフレーム(異常のフレーム)と判定される。そして、異常と判定された場合は、現フレームのデータ(形状データ及び画像データ)の修正(再生成)を行う(ステップS207)。
【0047】
すなわち、本実施形態に係る画像処理装置では、異常データ判定部105が、時間的に異なる複数のフレーム間で対象物の形状データを比較して、当該形状データの修正の必要性を判定することを特徴とする。
【0048】
また、本実施形態に係る画像処理装置では、異常データ判定部105が、現フレームと前フレームとを用いて対象物の形状データを比較し(ステップS202)、前フレームと後フレームとを用いて対象物の形状データを比較し(ステップS205)、現フレームと前フレームとの間で対象物の形状データの差分が大きい場合であって、前フレームと後フレームとの間で対象物の形状データの差分が小さい場合、現フレームの修正が必要であると判定することを特徴とする。
【0049】
尚、ステップS207における修正処理については、後に詳しく説明する。
【0050】
次に、図4は、第1の実施形態における異常データ判定部105におけるフラッシュの当たったフレームを検出する他の判定手順を説明するためのフローチャートである。図4のフローチャートにおいては、ステップS208、S209以外の処理ステップは全て図3のフローチャートと同じ処理ステップである。
【0051】
ステップS208では、現フレームの形状データと後フレームの形状データの比較が行われる。また、ステップS209における判定では、差分が大きい場合はフラッシュであり、差分が小さい場合はフラッシュではないと判定する。ここで、差分が小さい場合とは、オブジェクトの状態が遷移して、新たな状態になったと考えることができる。例えば、図15では、現フレームの形状データ1402と後フレームの形状データ1403の差分が大きいため、1402はフラッシュの当たったフレームと判定される。
【0052】
また、特殊な例として、形状データの急激な変化がフラッシュ以外に考えられないような場合には、後フレームのデータを使用することなく、ステップS203の判定結果のみでステップS207の処理に移ることも可能である。
【0053】
すなわち、本実施形態に係る画像処理装置では、異常データ判定部105が、現フレームと前フレームとを用いて対象物の形状データを比較し(ステップS202)、現フレームと後フレームとを用いて対象物の形状データを比較し(ステップS208)、現フレームと前フレームとの間で対象物の形状データの差分が大きい場合であって、現フレームと後フレームとの間で対象物の形状データの差分が大きい場合、現フレームの修正が必要であると判定することを特徴とする。
【0054】
次に、修正が必要と判定されたフレームの処理(ステップS207)について説明する。
【0055】
図5は、本発明の第1の実施形態における形状データと画像データの修正手順を説明するためのフローチャートである。ここで、抽出対象が剛体の場合は全体が1つの動きであるが、そうでない場合は局所的に別の動きをする部分が現れる。そこで、以下では、全体の動きが一致する対応領域を「共通領域」、それ以外の局所的な動きをする領域を「動領域」と称す。
【0056】
まず、形状データ修正部106では、前後のフレームの形状データから共通領域が検出される(ステップS301)。これは、前フレームの形状データと後フレームの形状データのAND処理をすることで簡単に求めることができる。図7は、本発明の第1の実施形態における形状データについて説明するための図である。図7において、501は前フレームの形状データ、502は後フレームの形状データ、503はこの2フレームから検出した共通領域を示す。
【0057】
また、画像データ修正部107では、現フレームの画像データの共通領域が生成される(ステップS302)。これは、前フレームの画像データと後フレームの画像データの平均値を求めることによって生成する。すなわち、ある点(x,y)の前フレームにおける画素値をPp(x,y)、後フレームにおける画素値をPb(x,y)とすると、平均値は、(Pp(x,y)+Pb(x,y))/2で求めることができる。
【0058】
一方、形状データ修正部106では、前フレームの形状データの動領域が検出される(ステップS303)。これは、前フレームの形状データ501と前後フレームの共通領域503のXOR処理で求めることができる。図7において、504は検出された前フレームの動領域である。
【0059】
また、画像データ修正部107では、前フレームの画像データの動領域が検出される(ステップS304)。これは、検出した動領域の形状データの位置に画像データをそのまま対応付ければよい。同様に、形状データ修正部106では、後フレームの形状データの動領域が求められる(ステップS305)。この場合も、後フレームの形状データ502と前後フレームの共通領域503のXOR処理で求めることができ、図7における505が検出結果である。そして、画像データ修正部107では、後フレームの画像データの動領域が検出される(ステップS306)。これも、検出した動領域の形状データの位置に画像データをそのまま対応付ければよい。
【0060】
次に、形状データ修正部106では、前後フレーム間の形状データの動領域の動きが検出される(ステップS307)。対応点の検出には、アフィン変換などを使ったパターンマッチングを用いる。アフィン変換の一例を以下に示す。
X=(x−x0)cosθ−(y−y0)sinθ+x0
Y=(x−x0)sinθ+(y−y0)cosθ+y0 … (2)
ここで、(x0,y0)が回転の中心、θが回転角となる。パターンマッチングは、この計算で求めた値と実際の値との差分の総和若しくは差分の二乗和を評価値とし、この値が最小となるような回転の中心位置および回転角を求める。
【0061】
図8は、第1の実施形態における形状データの対応点検出結果を模式的に説明するための図である。ここでは簡単のため形状を線分として説明する。図8において、線分601が前フレーム、603が後フレームのデータを表しているものとする。この場合、線分601と線分603とのなす角がこのアフィン変換における回転角であり、A0とA2の重なっている点の位置が回転の中心である。尚、B0、C0に対応する点がそれぞれB2、C2である。
【0062】
次に、形状データ修正部106では、現フレームの形状データの動きが算出される(ステップS308)。動きが、図8に示すように回転角と回転の中心位置で求まる場合には、回転角をθ/2、回転の中心位置をA0にすることで、動き量を求めることができる。
【0063】
さらに、形状データ修正部106では、現フレームの形状データの動領域が生成される(ステップS309)。すなわち、ステップS308で算出したパラメータを代入して対応点が求められる。これによって、A0とA2に対応する点がA1、B0とB2に対応する点がB1、C0とC2に対応する点がC1となる。そして、対応する点をすべて結んだ線分602が現フレームの形状データとなる。図7の506はこのようにして求めた現フレームの動領域の形状データを示している。
【0064】
すなわち、本実施形態では、形状データ修正部106が、異常と判定されたN番目のフレームにおける対象物の形状データを、正常と判定されたN−1番目以前のフレームと正常と判定されたN+1番目以降のフレームとを用いて修正することを特徴とする。
【0065】
また、本実施形態では、形状データ修正部106が、N−1番目以前のフレームとN+1番目以降のフレーム間の形状データ上の対応点を検出することを特徴とする。さらに、本実施形態では、形状データ修正部106が、一つ又は複数の所定領域毎のパターンマッチングにより、対応点の動き量を求めることを特徴とする。さらにまた、本実施形態では、対応点の動き量が、アフィン変換による該対応点の位置の移動量と回転量とであることを特徴とする。
【0066】
次に、画像データ修正部107では、ステップS309で生成した形状データに対応した画像データを生成する(ステップS310)。すなわち、ステップS308で求めたパラメータを利用して、A1の画素値はA0とA2の平均値、B1の画素値はB0とB2の平均値、といったように対応点間の平均値から求める。尚、平均値の求め方はステップS302で説明した手順と同様である。
【0067】
そして、形状データ修正部106では、ステップS301で求めた共通領域の形状データと、ステップS309で求めた動領域の形状データを合成し、現フレームの形状データが再生成される(ステップS311)。図7の507はこのようにして求めた現フレームの形状データを示している。さらに、画像データ修正部107では、ステップS302で求めた共通領域の画像データと、ステップS310で求めた動領域の画像データを合成し、現フレームの画像データが再生成される(ステップS312)。
【0068】
上述した手順によって、現フレームの形状データと画像データが再生成できた時点で、この処理は完了となる。これらのデータは上述したように図1の符号化部104に入力され、MPEG−4符号化が行われる。
【0069】
上述したように、第1の実施形態に係る画像形成装置によれば、フラッシュの当たった画像のような、形状データが不連続となるフレームを検出し、当該フレームを前後フレームから修正することにより、形状データと画像データ共に、余計な符号量発生を抑え、視覚的にも良好な符号化システムを実現することができる。
【0070】
<第2の実施形態>
本発明の第2の実施形態について、図9から図12を用いて説明する。これは、図16を用いて説明した問題(対象物の前を抽出対象でない他の物体が横切った場合)に対応する処理である。
【0071】
図9は、第2の実施形態における異常データ判定部105の動作手順を説明するためのフローチャートである。ステップS701からS703の処理は、第1の実施形態で説明した図3のステップS201からS203と同じ処理である。但し、ここでは現フレームをN番目のフレームとして説明する。また、図16において、1501から1504を順にN−1、N、N+1、N+2フレーム目の形状データであるとする。この例では、ステップS703において、現フレームの形状データ1502と前フレームの形状データ1501とを比較し、差分が大きい(Yes)ので、形状データの検証が行われる。
【0072】
ここで、抽出対象でない他の物体が前を横切る場合は、複数フレームにわたって大きな形状変化が検出されると考えられる。1フレームだけに出現するものではないからである。そこで、このフレーム数をカウントするための初期化処理として、カウンタmを1にセットする(ステップS704)。
【0073】
次に、N+1フレーム(現フレームの次のフレーム)の形状データを生成する(ステップS705)。図16の1503がこのフレームの形状データである。そして、生成したN+1フレームの形状データと、N−1フレームの形状データとの比較を行う(ステップS706)。比較の方法は、ステップS703における方法と同じ方法でよい。そして、両者の差分が小さいか否かを判定する(ステップS707)。その結果、差分が小さい場合(Yes)、現フレームの形状データのみが異常であると判断する。一方、差分が大きい場合(No)、次のフレームも検証の対象と判断する。図16に示す例では、1501と1503の比較となり、差分は大きいと判断される。
【0074】
そこで、カウンタmが最大値maxに達したかどうかの判定をする(ステップS708)。この最大値maxは、抽出対象でない他の物体が前を横切ると考えられる最大時間を予め設定しておく。例えば、フレームレートが15fpsで、最大2秒程度と考えられる場合には、maxを30と設定する。そして、カウンタmが最大値maxに達していない場合(No)、カウンタmの値を1つ増やす(ステップS709)。
【0075】
一方、ステップS708においてカウンタmが最大値maxに達してしまった場合(Yes)、エラー処理を行う(ステップS710)。この場合、何かが抽出対象を横切ったというわけでなく、抽出対象そのものの形状が大きく変化したと考える。また、修正しない形状データをそのまま使っての問題ない場合は、特にエラー処理は行わず、このフレームの処理を終了するようにしてもよい。
【0076】
上述したステップS705からS709の処理を繰り返し、ステップS707で、差分が小さいと判定した場合(Yes)、このループを抜ける。このときのカウンタ値mが抽出結果が異常と判定されたフレームの数であり、再生成の必要なフレーム数である。図16の例では、mが2となった時点で、1501の形状データと1504の形状データとが比較され、このループを抜ける。
【0077】
また、ステップS711からS714では、検出したmフレーム分のデータ修正(再生成)処理が行われる。まず、フレーム数のカウンタkを0にセットする初期化処理が行われる(ステップS711)。また、ステップS712は、修正処理のメインの部分であり、詳細は後に説明する。さらに、終了判定がされ(ステップS713)、kがm−1になるまでステップS714においてkの値を1つずつ増やし、この処理を繰り返す。そして、NフレームからN+m−1フレームまでのデータ再生成が終了すると、一連の処理が終了する。図16の例では、mが2であり、1502と1503のフレームのデータを再生成することになる。
【0078】
尚、図9のフローチャートでは、N番目のフレームの処理例を説明したが、データ修正が行われた場合は、次に処理するフレームは、N+1番目ではなく、N+m+1番目からであっても構わない。
【0079】
すなわち、本実施形態に係る画像処理装置では、異常データ判定部105が、現フレームと前フレームとを用いて対象物の形状データを比較し(ステップS702)、現フレーム以降のフレームと前フレームとを用いて対象物の形状データを比較し(ステップS706)、現フレームと前フレームとの間の差分が大きい場合、前フレームと現フレーム以降のフレームとの間で対象物の形状データの差分が小さい場合、現フレーム以降の所定のフレームの修正が必要であると判定することを特徴とする。
【0080】
次に、修正が必要と判定されたフレームの修正処理について説明する。図10は、第2の実施形態に係る形状データと画像データの修正手順を説明するためのフローチャートである。まず、N−1フレームとN+mフレームの形状データから、共通の領域を検出する(ステップS801)。これは、図5で説明したときと同様に、N−1フレームの形状データとN+mフレームの形状データのAND処理をすることで簡単に求めることができる。但し、図5の場合と違い、フレーム間の時間間隔が長い場合は、共通領域も動いてしまっていることが考えられる。この場合には、抽出対象全体の動きを、パターンマッチングにより求めるようにする。図5で説明したようなアフィン変換を用いると、フレーム間の抽出対象の平行移動量と回転量を求めることができる。
【0081】
すなわち、N−1フレームからN+mフレームまでの回転角がθであるとし、その移動量が、(x0,y0)であったとすると、N+kフレームにおける回転角は、θ×(k+1)/(m+1)となり、移動量は、(x0×(k+1)/(m+1),y0×(k+1)/(m+1))となる。これらのパラメータにより位置を合わせた後、AND処理をすることで、共通領域を検出することができる。
【0082】
図11は、第2の実施形態に係る形状データを説明するための図である。図11の例では、1001がN−1フレームの形状データ、1002がN+2フレームの形状データを示している。尚、共通領域の動きはないので、回転角は0、移動量は(0,0)である。また、1003は、1001と1002から求めた共通領域を示している。
【0083】
次に、共通領域以外に局所的な動きがある場合は、動領域の検出を行う。まず、N−1フレームの形状データの動領域を検出する(ステップS802)。これは、N−1フレームの形状データ1001と共通領域1003の位置を合わせた後、XOR処理で求めることができる。1004は検出されたN−1フレームの動領域である。次に、N−1フレームの画像データの動領域を検出する(ステップS803)。これは、ステップS802で求めた領域に対応する画像データである。
【0084】
同様に、N+mフレームの形状データの動領域を検出する(ステップS804)。これは、N+mフレームの形状データ1002と共通領域1003の位置を合わせた後、XOR処理で求めることができる。1005は検出されたN−1フレームの動領域である。次に、N+mフレームの画像データの動領域を検出する(ステップS805)。これも、ステップS804で求めた領域に対応する画像データである。
【0085】
次に、N−1フレームとN+mフレーム間の形状データの動領域の動きを検出する(ステップS806)。これは、N−1フレームの形状データ1004とN+mフレームの形状データ1005の対応点を検出ということである。対応点の検出には、アフィン変換などを使ったパターンマッチングを用いる。
【0086】
図12は、第2の実施形態における形状データの対応点検出の処理を模式的に説明するための図である。ここでも簡単のため形状を線分として説明する。線分1101がN−1フレーム、線分1104がN+mフレームのデータを表している。線分1101と線分1104のなす角がこのアフィン変換における回転角θ’であり、A0、A3の重なっている点の位置が回転の中心(x’0,y’0)である。B0、C0に対応する点がそれぞれB3、C3である。
【0087】
以下のステップで、修正する各フレームの処理を行う。まず、初期化処理を行う(ステップS807)。ここでは、修正するフレーム数をカウントするカウンタkを0にセットする。次に、N+kフレームにおける共通領域の動きを算出する(ステップS808)。これは、ステップS801で求めた動き量から算出する。図11の例では、回転角0、移動量(0,0)である。そして、ステップS808で求めた値から共通領域の形状データを生成する(ステップS809)。図11の例では、共通領域の移動量は0なので、Nフレームにおける形状データの共通領域は1003と一致する。
【0088】
次に、ステップS809で求めた形状データに対応した画像データを生成する(ステップS810)。このとき、ある点(x,y)のN−1フレームにおける画素値をP0(x,y)、N+mフレームにおける画素値をPm(x,y)とすると、N+kフレームにおける画素値は、(P0(x,y)×(m−k)+Pm(x,y)×(k+1))/(m+1)となる。また、共通領域にほとんど変化がないと考えられる場合は、簡易的な方法として、平均値(P0(x,y)+Pm(x,y))/2を用いてもよい。さらに簡単には、P0(x,y)をそのまま利用することも考えられる。これは、N−1フレームの画像データをそのままコピーするということである。
【0089】
次に、N+kフレームにおける動領域の動きを算出する(ステップS811)。これは、先に求めたN−1フレームにおける動領域とN+mフレームにおける動領域との間の動き検出から求める。N−1フレームからN+mフレームまでの回転角がθ’で、その移動量が、(x’0,y’0)であるので、N+kフレームにおける回転角は、θ’×(k+1)/(m+1)となり、移動量は、(x’0×(k+1)/(m+1),y’0×(k+1)/(m+1))となる。m=2のとき、Nフレームにおける回転角は、θ’/3、移動量は(x’0/3,y’0/3)となる。
【0090】
そして、ステップS811で求めた値から、動領域の形状データを生成する(ステップS812)。図12において、線分1101に対し、回転角θ’/3、移動量は(x’0/3,y’0/3)に対応する点を求めると、線分1102が得られる。次に、動領域の形状データに対応する画像データを生成する(ステップS813)。方法は共通領域における画素値の算出と同じである。このとき、ある点(x’,y’)のN−1フレームにおける画素値をP’0(x’,y’)、N+mフレームにおける画素値をP’m(x’,y’)とすると、N+kフレームにおける画素値は、(P’0(x’,y’)×(m−k)+P’m(x’,y’)×(k+1))/(m+1)となる。
【0091】
さらに、N+kフレームの形状データを再生成する(ステップS814)。これは、ステップS809で求めた共通領域の形状データとステップS812で求めた動領域の形状データを合成したものとなる。図11の1008は、Nフレームにおける再生成した形状データである。次に、N+kフレームの画像データを再生成する(ステップS815)。これは、ステップS810で求めた共通領域の画像データとステップS813で求めた動領域の画像データを合成したものとなる。
【0092】
そして、フレーム数の判定を行い(ステップS816)、m−1に満たない場合(No)、ステップS817においてkの値を1つ増し、ステップS808からの処理を繰り返す。一方、mが2の場合は、NフレームとN+1フレームのデータを再生成して一連の処理を終える。N+1フレームにおいては、回転角がθ’×2/3、移動量が(x’0×2/3,y’0×2/3)であり、対応点を求めると図12の線分1103が得られる。また、図11の1007は、N+1フレームにおける形状データの動領域、1009は、N+1フレームにおける再生成した形状データである。
【0093】
ここでは、共通領域以外の局所的な動きは1種類として説明したが、複数の動きが存在する場合は、動きの数だけ動領域検出の処理を繰り返せばよい。
【0094】
上述したように第2の実施形態によれば、抽出対象の前を他の物体が横切った時の画像のような、形状データが不連続となる複数のフレームを検出し、当該フレームを前後フレームから修正することにより、形状データと画像データ共に、余計な符号量発生を抑え、視覚的にも良好な符号化システムを実現することができる。
【0095】
<第3の実施形態>
また、図6は、第3の実施形態における形状データと画像データの修正に関する他のフローチャートである。すなわち、本実施形態では、上述した第1及び第2の実施形態における形状データ修正部106及び画像データ修正部107での形状データ及び画像データの修正処理を、正常と判定されたフレームの形状データ及び画像データに置き換える(コピー)処理をするものである。
【0096】
すなわち、本実施形態では、形状データ修正部106が、異常と判定されたN番目のフレームにおける形状データを正常と判定されたN−1番目以前のフレームの形状データに置き換える(ステップS401)ことを特徴とする。また、画像データ修正部107が、異常と判定されたN番目のフレームを、正常と判定されたN−1番目のフレームと正常と判定されたN+1番目のフレームとから生成することを特徴とする。さらに、画像データ修正部107が、異常と判定されたN番目のフレームを正常と判定されたN−1番目のフレームに置き換える(ステップS402)ことを特徴とする。
【0097】
<他の実施形態>
尚、本発明は、複数の機器(例えば、ホストコンピュータ、インタフェース機器、リーダ、プリンタ等)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機、ファクシミリ装置等)に適用してもよい。
【0098】
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0099】
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0100】
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
【0101】
【発明の効果】
以上説明したように、本発明によれば、動画像中の対象物の形状データが一時的に大きく変化した場合であっても、修正対象となるフレームを好適に検出して修正し、視覚的にも符号化効率的にも優れた動画像符号化をすることができる。
【図面の簡単な説明】
【図1】本発明の一実施形態に係る画像処理装置の構成を示すブロック図である。
【図2】本発明の一実施形態に係る画像処理装置の動作手順を説明するためのフローチャートである。
【図3】第1の実施形態における異常データ判定部105におけるフラッシュの当たった異常フレームの検出手順を説明するためのフローチャートである。
【図4】第1の実施形態における異常データ判定部105におけるフラッシュの当たったフレームを検出する他の判定手順を説明するためのフローチャートである。
【図5】本発明の第1の実施形態における形状データと画像データの修正手順を説明するためのフローチャートである。
【図6】第3の実施形態における形状データと画像データの修正に関する他のフローチャートである。
【図7】本発明の第1の実施形態における形状データについて説明するための図である。
【図8】第1の実施形態における形状データの対応点検出結果を模式的に説明するための図である。
【図9】第2の実施形態における異常データ判定部105の動作手順を説明するためのフローチャートである。
【図10】第2の実施形態に係る形状データと画像データの修正手順を説明するためのフローチャートである。
【図11】第2の実施形態に係る形状データを説明するための図である。
【図12】第2の実施形態における形状データの対応点検出の処理を模式的に説明するための図である。
【図13】背景差分方式とMPEG−4符号化方式を組み合わせた従来のシステムの構成を示すブロック図である。
【図14】従来のVOP符号化を行う符号化部1204の細部構成を示すブロック図である。
【図15】従来例におけるシーン中にフラッシュが当たった場合の対象物の形状データについて説明するための図である。
【図16】従来例における対象物の前を別の物体が横切った場合の対象物の形状データについて説明するための図である。
【符号の説明】
101 画像入力部
102 背景画像生成部
103 背景差分処理部
104 符号化部
105 異常データ判定部
106 形状データ修正部
107 画像データ修正部
Claims (32)
- 複数のフレームから構成される動画像を入力する動画像入力手段と、
入力された前記動画像に関する背景画像を取得する背景画像取得手段と、
前記動画像を構成するそれぞれのフレームと前記背景画像とを比較して対象物を抽出する対象物抽出手段と、
抽出された前記対象物の形状データの異常の有無を判定する異常データ判定手段と、
前記形状データの判定結果に基づいて該形状データを修正する形状データ修正手段と、
前記形状データ修正手段で修正された前記形状データに応じた前記対象物の画像データを生成する画像データ修正手段と、
前記形状データと前記画像データとを符号化する符号化手段と
を備えることを特徴とする画像処理装置。 - 前記異常データ判定手段が、時間的に異なる複数のフレーム間で前記対象物の前記形状データを比較して、該形状データの修正の必要性を判定することを特徴とする請求項1記載の画像処理装置。
- 前記異常データ判定手段が、
現フレームと前フレームとを用いて前記対象物の形状データを比較する第1の比較手段と、
前フレームと後フレームとを用いて前記対象物の形状データを比較する第2の比較手段と、
現フレームと前フレームとの間で前記対象物の形状データの差分が大きい場合であって、前フレームと後フレームとの間で前記対象物の形状データの差分が小さい場合、現フレームの修正が必要であると判定する判定手段と
を備えることを特徴とする請求項2記載の画像処理装置。 - 前記異常データ判定手段が、
現フレームと前フレームとを用いて前記対象物の形状データを比較する第1の比較手段と、
現フレームと後フレームとを用いて前記対象物の形状データを比較する第2の比較手段と、
現フレームと前フレームとの間で前記対象物の形状データの差分が大きい場合であって、現フレームと後フレームとの間で前記対象物の形状データの差分が大きい場合、現フレームの修正が必要であると判定する判定手段と
を備えることを特徴とする請求項2記載の画像処理装置。 - 前記異常データ判定手段が、
現フレームと前フレームとを用いて前記対象物の形状データを比較する第1の比較手段と、
現フレーム以降のフレームと前フレームとを用いて前記対象物の前記形状データを比較する第2の比較手段と、
現フレームと前フレームとの間の差分が大きい場合、前フレームと現フレーム以降のフレームとの間で前記対象物の形状データの差分が小さい場合、現フレーム以降の所定のフレームの修正が必要であると判定する判定手段と
を備えることを特徴とする請求項2記載の画像処理装置。 - 前記第1又は第2の比較手段が、前記形状データの面積、周囲長、ウェーブレット識別子、円形度、重心又はモーメントのいずれかによる比較若しくはそれらの組み合わせを用いて比較することを特徴とする請求項3から5までのいずれか1項に記載の画像処理装置。
- 前記形状データ修正手段が、異常と判定されたN番目のフレームにおける前記対象物の形状データを、正常と判定されたN−1番目以前のフレームと正常と判定されたN+1番目以降のフレームとを用いて修正することを特徴とする請求項1記載の画像処理装置。
- 前記形状データ修正手段が、さらに、N−1番目以前のフレームとN+1番目以降のフレーム間の前記形状データ上の対応点を検出する検出手段をさらに備えることを特徴とする請求項7記載の画像処理装置。
- 前記検出手段が、一つ又は複数の所定領域毎のパターンマッチングにより、前記対応点の動き量を求めることを特徴とする請求項8記載の画像処理装置。
- 前記対応点の動き量が、アフィン変換による該対応点の位置の移動量と回転量とであることを特徴とする請求項9記載の画像処理装置。
- 前記形状データ修正手段が、異常と判定されたN番目のフレームにおける形状データを正常と判定されたN−1番目以前のフレームの形状データに置き換えることを特徴とする請求項1記載の画像処理装置。
- 前記画像データ修正手段が、現フレームとは時間的に異なるフレームから前記対象物の画像データを生成することを特徴とする請求項1記載の画像処理装置。
- 前記画像データ修正手段が、異常と判定されたN番目のフレームの対象物の画像データを、正常と判定されたN−1番目のフレームと正常と判定されたN+1番目のフレームとから生成することを特徴とする請求項12記載の画像処理装置。
- 前記画像データ修正手段が、異常と判定されたN番目のフレームの対象物の画像データを正常と判定されたN−1番目のフレームの対象物の画像データに置き換えることを特徴とする請求項12記載の画像処理装置。
- 前記符号化手段が、MPEG−4ビジュアル符号化方式に準じた符号化手段であることを特徴とする請求項1から14までのいずれか1項に記載の画像処理装置。
- 複数のフレームから構成される動画像を取得する動画像取得工程と、
前記動画像に関する背景画像を取得する背景画像取得工程と、
前記動画像を構成するそれぞれのフレームと前記背景画像とを比較して対象物を抽出する対象物抽出工程と、
抽出された前記対象物の形状データの異常の有無を判定する異常データ判定工程と、
前記形状データの判定結果に基づいて該形状データを修正する形状データ修正工程と、
前記形状データ修正工程で修正された前記形状データに応じた前記対象物の画像データを生成する画像データ修正工程と、
前記形状データと前記画像データとを符号化する符号化工程と
を有することを特徴とする画像処理方法。 - 前記異常データ判定工程が、時間的に異なる複数のフレーム間で前記対象物の前記形状データを比較して、該形状データの修正の必要性を判定することを特徴とする請求項16記載の画像処理方法。
- 前記異常データ判定工程が、
現フレームと前フレームとを用いて前記対象物の形状データを比較する第1の比較工程と、
前フレームと後フレームとを用いて前記対象物の形状データを比較する第2の比較工程と、
現フレームと前フレームとの間で前記対象物の形状データの差分が大きい場合であって、前フレームと後フレームとの間で前記対象物の形状データの差分が小さい場合、現フレームの修正が必要であると判定する判定工程と
を有することを特徴とする請求項17記載の画像処理方法。 - 前記異常データ判定工程が、
現フレームと前フレームとを用いて前記対象物の形状データを比較する第1の比較工程と、
現フレームと後フレームとを用いて前記対象物の形状データを比較する第2の比較工程と、
現フレームと前フレームとの間で前記対象物の形状データの差分が大きい場合であって、現フレームと後フレームとの間で前記対象物の形状データの差分が大きい場合、現フレームの修正が必要であると判定する判定工程と
を有することを特徴とする請求項17記載の画像処理方法。 - 前記異常データ判定工程が、
現フレームと前フレームとを用いて前記対象物の形状データを比較する第1の比較工程と、
現フレーム以降のフレームと前フレームとを用いて前記対象物の前記形状データを比較する第2の比較工程と、
現フレームと前フレームとの間の差分が大きい場合、前フレームと現フレーム以降のフレームとの間で前記対象物の形状データの差分が小さい場合、現フレーム以降の所定のフレームの修正が必要であると判定する判定工程と
を有することを特徴とする請求項17記載の画像処理方法。 - 前記第1又は第2の比較工程が、前記形状データの面積、周囲長、ウェーブレット識別子、円形度、重心又はモーメントのいずれかによる比較若しくはそれらの組み合わせを用いて比較することを特徴とする請求項18から20までのいずれか1項に記載の画像処理方法。
- 前記形状データ修正工程が、異常と判定されたN番目のフレームにおける前記対象物の形状データを、正常と判定されたN−1番目以前のフレームと正常と判定されたN+1番目以降のフレームとを用いて修正することを特徴とする請求項16記載の画像処理方法。
- 前記形状データ修正工程が、さらに、N−1番目以前のフレームとN+1番目以降のフレーム間の前記形状データ上の対応点を検出する検出工程をさらに有することを特徴とする請求項22記載の画像処理方法。
- 前記検出工程が、一つ又は複数の所定領域毎のパターンマッチングにより、前記対応点の動き量を求めることを特徴とする請求項23記載の画像処理方法。
- 前記対応点の動き量が、アフィン変換による該対応点の位置の移動量と回転量とであることを特徴とする請求項24記載の画像処理方法。
- 前記形状データ修正工程が、異常と判定されたN番目のフレームにおける形状データを正常と判定されたN−1番目以前のフレームの形状データに置き換えることを特徴とする請求項16記載の画像処理方法。
- 前記画像データ修正工程が、現フレームとは時間的に異なるフレームから前記対象物の画像データを生成することを特徴とする請求項16記載の画像処理方法。
- 前記画像データ修正工程が、異常と判定されたN番目のフレームを、正常と判定されたN−1番目のフレームと正常と判定されたN+1番目のフレームとから生成することを特徴とする請求項27記載の画像処理方法。
- 前記画像データ修正工程が、異常と判定されたN番目のフレームを正常と判定されたN−1番目のフレームに置き換えることを特徴とする請求項27記載の画像処理方法。
- 前記符号化工程が、MPEG−4ビジュアル符号化方式に準じた符号化処理をすることを特徴とする請求項16から29までのいずれか1項に記載の画像処理方法。
- コンピュータに、
複数のフレームから構成される動画像のフレームと該動画像に関する背景画像とを比較して対象物を抽出する対象物抽出手順と、
抽出された前記対象物の形状データの異常の有無を判定する異常データ判定手順と、
前記形状データの判定結果に基づいて該形状データを修正する形状データ修正手順と、
前記形状データ修正手順で修正された前記形状データを用いて前記フレームを修正する画像データ修正手順と、
前記形状データと前記画像データとを符号化する符号化手順と
を実行させるためのプログラム。 - 請求項31記載のプログラムを格納することを特徴とするコンピュータ読み取り可能な記録媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002256841A JP2004096557A (ja) | 2002-09-02 | 2002-09-02 | 画像処理装置及び画像処理方法 |
US10/649,642 US7257265B2 (en) | 2002-09-02 | 2003-08-28 | Image processing apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002256841A JP2004096557A (ja) | 2002-09-02 | 2002-09-02 | 画像処理装置及び画像処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004096557A true JP2004096557A (ja) | 2004-03-25 |
Family
ID=28786858
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002256841A Withdrawn JP2004096557A (ja) | 2002-09-02 | 2002-09-02 | 画像処理装置及び画像処理方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US7257265B2 (ja) |
JP (1) | JP2004096557A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006098119A (ja) * | 2004-09-28 | 2006-04-13 | Ntt Data Corp | 物体検知装置、物体検知方法および物体検知プログラム |
JP2016171519A (ja) * | 2015-03-13 | 2016-09-23 | 日本電気株式会社 | 映像処理装置、映像出力システム、映像処理方法、および映像処理プログラム |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005184626A (ja) * | 2003-12-22 | 2005-07-07 | Canon Inc | 画像処理装置 |
US20070047834A1 (en) * | 2005-08-31 | 2007-03-01 | International Business Machines Corporation | Method and apparatus for visual background subtraction with one or more preprocessing modules |
US9681125B2 (en) * | 2011-12-29 | 2017-06-13 | Pelco, Inc | Method and system for video coding with noise filtering |
US10158898B2 (en) | 2012-07-26 | 2018-12-18 | Comcast Cable Communications, Llc | Customized options for consumption of content |
CN107249122A (zh) * | 2017-07-26 | 2017-10-13 | 杨建伟 | 一种用于智能监控的运动目标监控系统 |
CN112672198B (zh) * | 2020-12-14 | 2022-11-22 | 海看网络科技(山东)股份有限公司 | 一种epg异形图展现方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5506621A (en) * | 1992-08-21 | 1996-04-09 | Canon Kabushiki Kaisha | Image processing method and apparatus |
JP3123587B2 (ja) * | 1994-03-09 | 2001-01-15 | 日本電信電話株式会社 | 背景差分による動物体領域抽出方法 |
US6335985B1 (en) * | 1998-01-07 | 2002-01-01 | Kabushiki Kaisha Toshiba | Object extraction apparatus |
US6404901B1 (en) * | 1998-01-29 | 2002-06-11 | Canon Kabushiki Kaisha | Image information processing apparatus and its method |
EP2278549A1 (en) * | 1999-09-24 | 2011-01-26 | Nippon Telegraph And Telephone Corporation | Method and apparatus for extracting segmentation mask |
JP3957937B2 (ja) * | 1999-12-21 | 2007-08-15 | キヤノン株式会社 | 画像処理装置及び方法並びに記憶媒体 |
US6847736B2 (en) * | 2000-03-28 | 2005-01-25 | Canon Kabushiki Kaisha | In image compression, selecting field or frame discrete wavelet transformation based on entropy, power, or variances from the high frequency subbands |
JP2002010216A (ja) * | 2000-04-20 | 2002-01-11 | Canon Inc | 復号化装置及びその制御方法並びに記憶媒体 |
US6678413B1 (en) * | 2000-11-24 | 2004-01-13 | Yiqing Liang | System and method for object identification and behavior characterization using video analysis |
US7162101B2 (en) * | 2001-11-15 | 2007-01-09 | Canon Kabushiki Kaisha | Image processing apparatus and method |
-
2002
- 2002-09-02 JP JP2002256841A patent/JP2004096557A/ja not_active Withdrawn
-
2003
- 2003-08-28 US US10/649,642 patent/US7257265B2/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006098119A (ja) * | 2004-09-28 | 2006-04-13 | Ntt Data Corp | 物体検知装置、物体検知方法および物体検知プログラム |
JP2016171519A (ja) * | 2015-03-13 | 2016-09-23 | 日本電気株式会社 | 映像処理装置、映像出力システム、映像処理方法、および映像処理プログラム |
Also Published As
Publication number | Publication date |
---|---|
US7257265B2 (en) | 2007-08-14 |
US20040042674A1 (en) | 2004-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7016411B2 (en) | Image signal coding method, image signal coding apparatus and storage medium | |
JP2671820B2 (ja) | 両方向予測方法及び両方向予測装置 | |
KR101624210B1 (ko) | 초해상도 영상 복원 방법, 및 이를 이용한 불법 주정차 단속 시스템 | |
US20090141938A1 (en) | Robot vision system and detection method | |
JPH08242453A (ja) | 動きベクトル推定装置 | |
WO2013031424A1 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
JP3031152B2 (ja) | 動き予測プロセッサ及び動き予測装置 | |
TWI652934B (zh) | 自適應視頻解碼方法及其裝置 | |
JP4323380B2 (ja) | 較正された多視点画像シーケンスの圧縮のための動き推定 | |
CN109688413B (zh) | 以支持辅助帧的视频编码格式编码视频流的方法和编码器 | |
JP2010021844A (ja) | 多視点画像符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体 | |
US9066100B2 (en) | Image coding apparatus and image coding method | |
JP2004096557A (ja) | 画像処理装置及び画像処理方法 | |
Yang et al. | Advancing learned video compression with in-loop frame prediction | |
US6665340B1 (en) | Moving picture encoding/decoding system, moving picture encoding/decoding apparatus, moving picture encoding/decoding method, and recording medium | |
JP2003199099A (ja) | 画像処理装置及び方法、並びにコンピュータプログラム及びコンピュータ可読記憶媒体 | |
He et al. | Real-time deep video analytics on mobile devices | |
KR102236473B1 (ko) | 영상 처리 방법 및 그 장치 | |
JP4258879B2 (ja) | 画像符号化方法とその装置、画像復号化方法とその装置、コンピュータに画像符号化方法および画像復号化方法を実現させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体 | |
Gastaud et al. | Video segmentation using active contours on a group of pictures | |
JP2018207356A (ja) | 画像圧縮プログラム、画像圧縮装置、及び画像圧縮方法 | |
KR102233606B1 (ko) | 영상 처리 방법 및 그 장치 | |
JP3551908B2 (ja) | 背景スプライトと前景オブジェクトの分離方法、及びその装置 | |
JP2002051342A (ja) | 符号化装置及び符号化方法並びに記憶媒体 | |
JP2007087049A (ja) | 動画像処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20060110 |