JP2000508488A - ディジタル画像情報の多重解像度変換のシステム及び方法 - Google Patents

ディジタル画像情報の多重解像度変換のシステム及び方法

Info

Publication number
JP2000508488A
JP2000508488A JP9536337A JP53633797A JP2000508488A JP 2000508488 A JP2000508488 A JP 2000508488A JP 9536337 A JP9536337 A JP 9536337A JP 53633797 A JP53633797 A JP 53633797A JP 2000508488 A JP2000508488 A JP 2000508488A
Authority
JP
Japan
Prior art keywords
image
frequency
scale
block
domain
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9536337A
Other languages
English (en)
Inventor
ヘンリー イー メドウズ
ロバート ジェイ ボンノウ
Original Assignee
ザ トラスティーズ オブ コロンビア ユニヴァーシティ イン ザ シティ オブ ニューヨーク
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ザ トラスティーズ オブ コロンビア ユニヴァーシティ イン ザ シティ オブ ニューヨーク filed Critical ザ トラスティーズ オブ コロンビア ユニヴァーシティ イン ザ シティ オブ ニューヨーク
Publication of JP2000508488A publication Critical patent/JP2000508488A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • G06V10/7515Shifting the patterns to accommodate for positional errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • H04N19/619Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding the transform being operated outside the prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • H04N19/64Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets characterised by ordering of coefficients or of bits for transmission
    • H04N19/645Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets characterised by ordering of coefficients or of bits for transmission by grouping of coefficients into blocks after the transform
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/99Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals involving fractal coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding

Abstract

(57)【要約】 ディジタル画像データがウェーブレット及びフラクタル・コード化の双方の長所を組合せている技法によって圧縮される。この技法はコード化画像を作り出し、該コード化画像が他の圧縮画像と効率的に突合わされ得て、処理される画像を識別する。このコード化技法は、ウェーブレット変換によって作り出される数々の周波数スケールで画像(201)を空間的に消去し、各周波数スケール(270,272,274)で複数ピクセルから成るグループを含むブロックを形成する。各ブロックにおけるデータの平均モジュラス及び角度値は、次により高いスケール(109)と比較される。次いで、各周波数スケールは、隣接スケール(111)において対応する突合わせブロックを有するブロック用にコード化される。この技法はウェーブレットのエッジ保留の有益性と、フラクタル・コード化の圧縮有益性とを提供すると共に、スケール間での突合わせプロセスを加速する。合成エッジ手法を含むデコード技法が用いられて画像を再構築する。

Description

【発明の詳細な説明】 ディジタル画像情報の多重解像度変換のシステム及び方法 合衆国政府は、国家科学財団によって付与されたの契約条項第CDR-88-11111号 によって提供されるようにこの発明に関しての確固たる権利を所持する。発明の分野 本発明は、一般的には、ディジタル画像処理に関し、特に、多重解像度変換を ディジタル画像に適用して、画像情報、パターン認識、並びに画像処理の圧縮コ ード化及びデコードを為すシステム及び方法に関する。発明の背景 ディジタル画像処理は、数多くの現行の用途や漸進的に増加する潜在的な用途 を伴ったコンピュータ・サイエンスの分野における先進の重要な領域である。デ ィジタル画像処理の課題には、記憶、分析、並びに、画像内の各点に対応する一 連のビット或はバイトによってディジタル定義域内に表現される画像通信を含む 。ディジタル画像の典型的な例はコンピュータのスクリーン上に現れるものであ る。スクリーンは多数の単色(モノクロ)或はカラー画素(「ピクセル」)から 成り、それらの各々が表示されるべきピクセル(そしてある場合には、それが表 示されるべき輝度の程度)を決定する関連されたバイナリ値を有する。最も簡略 化された場合、各ピクセルはブラック・スクリーン上及びホワイト・スクリーン 上のピクセルに関連されたデータである1ビットを有する。もし、ピクセルが明 るければ、そのビットの値は1にセットされる。もしピクセルが明るくなければ 、そのバイナリ値はゼロにセットされる。各ピクセルは、その代わりに、独特の 色彩、特別な濃淡(中間調)、或は幾つかの他の情報の何れかを表わすデータと しての バイト(8ビット)を有することができる。典型的なスクリーンは画像を表示す べく520×480ピクセルのアレイを有し得る。各ピクセルがそれ自体に対応 するデータ・バイトを有する画像を含む1つの完全なスクリーンを記憶するため に、約2メガビットのデータがこの例(520×480)に対して使用される必 要があることになる。より多くのピクセルが、昨今、益々高密度化されていくよ り高解像度スクリーンに対して使用される。 記憶及び処理のためのデータベース内に多数の単一画像を記憶するために、デ ータ圧縮技法が要求され、それでリアルタイムの動作のためにデータベースを効 率的に且つ実行可能に管理するように為す。ディジタル画像に関わる場での適用 に加えて、ディジタル画像はネットワーク、専用線、或は何等かの他のタイプの データ・コンジットの何れかを介して外部へ転送され得る。データ伝送の効率を 増大するために且つそうしたデータ・コンジットの帯域幅に当てはまるような画 像を表現するために、データは圧縮さえも必要とされる。ディジタルカメラ等の 画像を記憶するための画像形成装置は遠隔地に配置され得て、画像データをディ ジタル式に処理してその遠隔地で圧縮され、その圧縮データが中央処理ステーシ ョン或は他の最終目的地へ転送され、そしてその画像情報をデコードして、その 最終地のオペレータが画像を眺めることができるように為す。デコードされた画 像は、識別目的のために、記憶された画像のデータベースと突合わせを行うこと もできる。もしデータベースが突合わせるべく多くの画像記憶を含むのであれば 、データベース内に記憶された画像は、該データベースが特定用途のために必要 とされる数の画像を保持し且つ処理するために圧縮されなければならないであろ う。加速されたパターン突合わせは、突合わせ動作の記憶及び伝送目的に対する バッチ処理が、その膨大なサイズのデータベースの故に数時間に及んで費やされ る銀行のビデオテープに撮られた犯罪者の識別等の潜在的な用途に要求され得る 。 画像情報の圧縮がパターン突合わせに対して必要である一方で、従来の幾つか の圧縮技法はデータ圧縮中に重要な画像情報を喪失する可能性がある。パターン 突合わせ技法の重要な局面はオブジェクトの本質的な特徴、例えばそれらのエッ ジ等を保存できることである。画像オブジェクトにおける物理的な相違は非常に 軽微であり得て、データベース内には区別されるべきそして突合わされるべき多 くの同様なオブジェクトが記憶される可能性がある。一例として、大きな会社で 働く人々或は小さな町に住む人々のデータベースが挙げられる。パターン突合わ せ技法は、入りロゲートの人間を識別すべく使用されることになるが、複数の人 間を区別するために顔面の特徴における小さな特徴を考慮しなけばならないであ ろう。データベース内の複数の顔のディジタル画像を用いることは、現在、記憶 用である。ニューヨーク州や他の州において、運転免許証上の写真はディジタル 画像であり、記憶されており、もしその免許証が喪失されたならば再生される。 次の段階は、犯罪場面のカメラに撮られた人々の顔を、物理的な画像の運転免許 証データベースと突合わせて犯罪者を識別することである。指紋や他のオブジェ クトのディジタル画像をも使用可能であろう。画像のパターン認識は、オブジェ クトが常に静止していると限らないので、正確な同一位置のオブジェクトに限定 されるべきではないが、認識技法はパターン突合わせの際にオブジェクトが回転 させられて任意の位置に配置させられることを許容すべきである。 また、ディジタル画像処理はビデオ処理をも含む。ビデオは、基本的には、複 数の単一画像(フレームと呼称される)の時間連続である。経時的に引き続いて 示される際の各画像フレームは一画像中に表現されているオブジェクトの動きを 示す。また、ビデオ画像データは記憶され、再生されもする。ディジタルビデオ 画像の一例は一般的なソフトウェア・プログラムに見られるビデオクリップであ る。これらビデオクリップは、ディジタル式に記憶された映画からのクリップ又 は切り抜き、或は、カメラで撮られてディジタル式にコンピュータ内に記憶され たクリップを含むことができる。これらビデオ画像も長距離にわたって伝送させ ることができる。一例としては、遠隔地で話している話し手の画像を示すと共に 該話し手の動き或は表現を示すテレコンファレンス又はテレビ会議である。 ビデオ画像は、たった数秒のビデオ時間を表現するために大量のデータを要求 する。ビデオの各個別フレームは記憶されて、認識可能なビデオ画像を作り出す べく再生されなければならない。複数フレームの一部のみが記憶されたとしても 、純然たる数のフレームが圧縮される画像データには要求される。またビデオ画 像は、ビデオ画像内における特定のオブジェクトを識別できるであろうパターン 突合わせ方式においても使用可能である。これは、もし、他の通信システムが故 障した場合に、航空交通管制機に飛行機間の識別を可能とさせ得る。 上述の議論からディジタル画像コード化方式が、そのエッジ等の特徴の重要な 細目又は詳細をも保存する一方で高圧縮比を有するので望ましい。 現行用いられている1つの圧縮方式は、「フラクタルコード化(fracta l coding)」と呼称される。フラクタルコード化は、1画像の多数のサ ブパーツが繰り返されている事実を利用し、それ故に、画像は該画像におけるパ ーツの該画像におけるサブパーツの小数部(ブロックと呼称される)のみへのマ ッピング又は写像によって表現され得る。画像をそれ自体の片々へ写像すること によって、別個のコードブックや画像の各種パーツを他のオブジェクトと関連さ せるワードは記憶される必要性がない。フラクタルコード化は、コード化される 画像を、全体として捉えれば画像全体を作り上げる複数ブロックに細分する。こ れらブロックの幾つかは部分的に重複し、異なるサイズであり得る。従来のフラ クタルコード化において、画像はそれぞれが複数のブロックから成る2つの集合 に分割される。第1集合は、値域(range)ブロックと呼ばれる第2のブロ ック集合と比較されることになる定義域(domain)ブロックである。定義 域ブロックは回転させられることが可能であり且つ鏡像作成が可能であって、値 域ブロックと比較させられることができる定義域ブロックのより多くの選択を作 り出す。各定義域ブロックは、最も近接した突合わせを決定すべく各値域ブロッ クと比較される。定義域ブロックの値域ブロックへのマッピング又は写像は記憶 される。突合わせブロックに関する唯一の情報が用いられて、残存ブロックは廃 棄可能となり、よってデータを圧縮する。 フラクタルコード化は他の公知の圧縮方式と比べて高圧縮比を生成する。圧縮 比は、圧縮された画像内のビット数に対するオリジナル画像内のビット数として 定義される。しかしながら、フラクタル(次元分裂図形)式にコード化された画 像は、再構築及び圧縮解除された際、ブロック状人工産物を作り出す傾向がある 。これはデータが複数ブロック内に組織されているが故である。先進のパターン 認識システムによって要求される繊細なエッジ情報は、ブロック突合わせフラク タルコード化方式を用いることのみでは満足いくものではない。 ディジタル画像情報を圧縮する他の技法はウェーブレット(wavelet) ・エッジ検出である。ウェーブレット圧縮技法は、画像が該画像を表現するため に用いられるデータ構造のサイズを低減すべく削除可能な空間的及びスペクトル 的冗長性を有していることを役立てている。簡略すれば、複数ウェーブレットが 画像信号を複数の基本関数の集合に変換するものであり、基本集合としてサイン 及びケージングを用いるフーリエ変換の用途に非常に似ている。基本関数の集合 が付与されると、オリジナル画像は複数の係数の集合に変換される。これら係数 は、導関数或は勾配演算子がその基本集合に適用されると更に変換され得る。次 いでこれらの係数は、画像及びビデオ圧縮の効率的な手段を可能とする異なる周 波数帯或はスケールでのエッジ形態を採る。 ウェーブレット変換は、スケールが増大するに連れて解像度が減少する周波数 スケールを作り出す。ウェーブレット変換が勾配演算子と共に適用されると、画 像からテクスチャ(表面模様)を取り除くことができて、低減された再生品質を 生み出す。フラクタルコード化の圧縮品質をウェーブレット・コード化技法の形 状保存品質と組み合わせることが有益であろう。 最近、幾つかの技法が、フラクタル及びウェーブレット技法双方からの局面が 用いられて開発されてきている。これらの技法は、従来通りに空間的定義域内に 適用されるフラクタル圧縮を採用して、それらをその代わりにウェーブレット定 義域内に適用することに焦点を当てている。しかしながら、これら技法は該技法 内のフラクタル部における勾配演算子によって現れる空間的相似性を全幅にわた って利用しておらず、よって技法増大のために圧縮比としての画像品質を喪失す る。発明の概要 本発明に従えば、コード化された圧縮画像情報をデコードし、オブジェクトを 画像フィールド内においてデータベース内に記憶されたオブジェクトと突合わせ 、そして、ビデオ・ディジタル画像をコード化し且つデコードするために、重要 なエッジ情報を保持する一方で高圧縮を獲得すべく、ディジタル画像データをコ ード化することによって該データを処理するシステム及び方法が提供される。コ ード化方法は、従来のウェーブレット及びフラクタルコード化の方式を独特な方 法で組み合わせて、それら両方式の全幅にわたる長所を採用するものである。コ ード化技法は、先ず、ウェーブレット変換によって画像データを初期的に2つの 周波数スケールに空間的に分解する。ウェーブレット変換はエッジを増強する二 次スプライン基準集合を用いる。各周波数スケールで、低周波数及び高周波数画 像がウェーブレット変換中に生成される。高周波数画像は、係数の一定のグレー スケールのレベルを下回るものを制限する閾値を設けている。次いで高周波数点 表示は複数のブロックに分割され、そこでは、より高い周波数(より低いスケー ル)表示が値域ブロックと呼ばれ、次により高いスケール・ブロックが定義域ブ ロックと呼ばれている。各値域及び定義域ブロックの平均モジュラス及び角度値 が計算されて記憶される。次いで勾配方向値は、値域及び定義域ブロック用に独 立的にソートされ(分類され)、最接近値を見出すべく比較される。もし最接近 の突合わせが所与の閾値を越えなければ、ブロック位置、モジュラス差強度、並 びに角度値はファイル内に記憶されて、画像のその部分を表現する。もし最接近 突合わせが閾値を越えるのであれば、他の周波数スケールが用いられる。未突合 わせ定義域ブロックが、今後、今作り出された周波数スケールにおける新定義域 ブロックに対する次の周波数スケールでの値域ブロックとなる。全てのブロック に関して閾値を下回るレベルでの突合わせが行われた場合、このプロセスは完了 する。最後の突合わせ定義域ブロックを有したスケールの低周波数画像は空間的 に多量に消去して記憶される。 コード化された画像は本発明に従ったデコード技法を用いてデコード可能であ る。先ず、最高スケールの低周波数画像がデコードされる。次いでその同一スケ ールの高周波数画像もデコードされる。それら低周波数及び高周波数画像は次に より高い周波数スケール(より低いスケール数)に変換され、相互に加算される 。これはその次のスケールの低周波数画像を作り出す。そのスケールの高周波数 画像をデコードして、該画像を次のスケールに変換するプロセスは再構築される まで繰り返される。 任意のブロック状人口産物の更なる除去は、チェーン・コード化が画像のフラ クタル再生エッジ上で先ず実行される合成エッジ手法(synthetic e dge procedure)を用いることによって達成可能である。もしチェ ーン・コード化されたエッジの起動がそのチェーン内の次のフラクタルコード化 されたブロックにわたって動作するならば、値域ブロック・サイズの2倍の制限 領域が、制限チェーン・コード化ブロックがブロック境界にわたって動作する点 の周りに作り出される。次いでエッジ細線化アルゴリズムが制限領域に適用され 、その後、チェーン・コード化が制限長方形(bounding rectan gle)と交差するフラクタルコード化エッジ・ブロックの中心で再開される。 この発明に従ったコード化データのプロセスは、パターン突合わせ/認識方式 において非常に有用である。コード化されたデータの記憶データは画像内のオブ ジェクトのエッジ周りでチェーン・コード化可能であり、異なるオブジェクトを 識別する補助を為す。次いでオブジェクトが複数の周波数スケールにわたって突 合わせ可能となって、最も確実なエッジを決定する。ノイズは除去され得て、エ ッジ情報は識別のためにコード化されたエッジ情報のデータベースと比較可能で ある。本発明のエッジ保有の特徴は精密な突合わせ及び増大された圧縮を可能と する。 ビデオ・コード化は、本発明に従って実行された場合に非常に効率的である。 ビデオは一連の複数フレームから作られており、その各々はディジタル画像であ る。第1フレームは本発明のコード化方式でコード化される。次いで光学的なフ ロー(流れ)が第1フレームと次のフレームとの間で計算される。次いで値域及 び定義域ブロックの平均的な光学的フローが計算される。もし画像に対する変化 が特定の値域或は定義域ブロックに対して充分に大きければ(平均的な光学的フ ローを閾値と比較することによって)、そのブロックは新画像部に対応すべく再 度計算されることになる。変化した画像の内のそうした部分のみが影響を受ける ことになる。次いで、圧縮形態での新定義域及び値域ブロックは、処理される画 像の現行状態を反映すべく伝送されるか或は記憶される。もし多数のブロックが 変化するならば、次のフレーム全体はコード化されて画像内の誤差を最小化する 。図面の簡単な説明 本発明の更なる目的、特徴、並びに長所等は、本発明の好適実施例を表示して いる添付図面を参照して以下の詳細な説明から明らかとなるであろう。同図面中 、 図1は、本発明に従って画像データをコード化する各種段階のフローチャート であり、 図2は、オリジナル画像に適用された図1のコード化プロセスの図式的な表現 であり、 図3は、図2に示された値域ブロックの図式的な表現であり、 図4は、図2に示された定義域ブロックの図式的な表現であり、 図5は、図2における例に適用された図1の突合わせ段階の図式的な表現であ り、 図6は、図2の例に関連されたスケール2の低周波数画像の空間的消去の図式 的な表現であり、 図7は、本発明に従った圧縮された画像情報をデコードする諸段階のフローチ ャートであり、 図7Aは、例示的な合成エッジ手法の諸段階のフローチャートであり、 図7Bは、合成エッジ手法の例示用途の表示であり、 図7Cは、7つのピクセルP1,P2,P3...P9から成るブロックを示す図で あり、 図8は、図2のコード画像に適用された図7のデコード・プロセスを示すグラ フであり、 図9は、本発明に従って生成された圧縮画像データのファイル例であり、 図10は、本発明に従ったコード化された画像データを用いてパターン認識を 実行する諸段階のフローチャートであり、 図11は、図10のパターン突合わせ技法で処理される多数のオブジェクトの 図式表現であり、 図12は、図10のパターン突合わせ技法に用いられる値域ブロック重心突合 わせの図式表現であり、 図13は、未コード化画像に対する図10のパターン突合わせ技法を実行する 図式表現であり、 図14は、本発明に従ってビデオをコード化すべく使用される諸段階のフロー チャートであり、 図15は、未コード化画像に対して図14のビデオ・コード化技法を実行する 図式表現であり、 図16は、本発明に従って実行される多数のオブジェクト・トラッキングの図 式表現であり、 図17は、本発明に従ってビデオをデコードすべく使用される諸段階のフロー チャートであり、 図18は、本発明の技法が実行され得るシステムの図式表現である。好適実施例の説明 本発明は、高圧縮を達成するディジタル画像情報をコード化して圧縮するため のシステム及び方法であり、選択的且つ正確な特徴保存を為すと共にコンピュー タ操作上効率的であるシステム及び方法に向けられている。ひとたび画像情報が 本発明に従ってコード化され圧縮されると、更なる技法が説明され、それが伝送 されるか或は記憶され得るであろう圧縮データからオリジナル画像を精密に再生 できる。また、コード化技法は以下に更に説明される画像内にディジタル式に表 現されたオブジェクトの非常に効率的なパターン突合わせを可能としている。最 後に、コード化技法は画像圧縮及びビデオ画像内の形状認識のためにビデオ画像 に適合させることができる。本発明のコード化方式は、従来のフラクタルコード 化及びウェーブレット・コード化技法双方の各種要素をこれらの技法双方の効力 を利用すべく独特な方法で組合せている。画像情報をコード化するための主要技 法が先ず説明されることになる。引き続き、デコード、形状認識、並びにビデオ ・コード化のためのコード化技法に基づく特定技法の全てが説明される。 図1は、本発明に従って画像コード化技法を実行すべく含まれる諸段階のフロ ーチャートを示す。コード化プロセスは画像を表現するデータを圧縮して、情報 が容易に伝送され得るか或は記憶媒体に記憶され得るように為す。この技法で現 行達成される圧縮比は、35:1(データの35バイト毎で圧縮データの1バイ トによって表現される)であり、約(30dBのPSNR(ピーク信号対ノイズ比) のノイズ・レベルを伴う。ノイズはコード化前のオリジナル画像と再生画像との 間の差である。圧縮データを表現するデータ(或は画像内の識別オブジェクト) はその低減されたサイズのためにより高速な形状認識が可能とされ、将来のパタ ーン突合わせに使用可能となるように、圧縮画像のより膨大な記憶を可能として いる。画像情報をコード化する以下の技法は、典型的には、複数のピクセル或は ピクチャ要素から形成された画像の従来表現に対して実行される。画像フィール ドは処理される画像全体であり、背景に配置された複数のオブジェクトから形成 され得る。よって画像は、グリッドの中心近傍に10%のピクセルがオブジェク トを構成する際に、複数のピクセルから成る1000×1000グリッドで形成 され得る。画像フィールド内に記憶されるべき所望画像部は、交通信号機におけ る3つの円等の多数のオブジェクトから形成され得る。それ故に、交通信号の画 像は3つの円オブジェクトと長方形オブジェクトとから作り上げられることとな る。特定画像に適用されるコード化技法の一例が引き続く図面に示される。 図1におけるステップ101は、標準的な2次元ウェーブレット変換を用いて 、第1及び第2周波数スケールにコード化されるように画像を空間的に分解して いる。ウェーブレット変換は、変換されるべき画像の画像データに適用される平 滑化関数の(x,y)点の導関数をとり、その後、画像におけるエッジの存在を 示すモジュラス最大値(その点における情報の最大の量及び強度)を計算するこ とによってエッジ情報を識別するものである。コード化の開始が以下の式1乃至 3によって説明される。 式1及び2は、x方向或はy方向の何れかにおける平滑化関数(θ)の勾配であ る。 本発明はウェーブレット・コード化に対して二次スプライン基準集合を用いる 。二次スプライン基準集合はより大きなエッジ情報がその特性によりウェーブレ ットによって保持されることを可能としている。二次スプライン基準は、組合せ ウェーブレット‐フラクタル変換に従来用いられてこなかった。殆どのフラクタ ル関連のウェーブレット技法は、表示としてのブロックを取扱うフラクタルコー ド 化方式での実施が容易である単純なハル(Haar)基準集合を用いるが、大量 のエッジ情報を保持しない。ハル基準集合は周波数定義域におけるsyne関数 から成るか、或は空間的定義域のブロック関数から成る。ウェーブレット及びフ ラクタル技法を組合せた場合、二次スプライン基準集合を用いることはウェーブ レット定義域内においてエッジ形状情報を、より精密なフラクタル・ブロック突 合わせに対してより良好に現せることを可能としている。 ある。通常、sは2の累乗である。この技法の第1パスにおいて勾配スケールは 2である。これは、画像がx及びyの両方向に2だけ空間的に消去されることを 意味する。任意の引き続く周波数スケールの各々において、勾配スケールは2の 次の累乗となり、即ち第2パスに対しては4(22)となり、第3パスに対して は8(23)となり等々である。次に、画像fは平滑化関数に巻き込まれ、fは 画像を表わす関数である。 ウェーブレット変換関数を用いて、特定スケール用にコード化される画像のウ ェーブレット変換を計算した後、ウェーブレット画像は多数の副領域又はブロッ クに分割されることとなる。これらブロックは一定数のピクセルN×N、通常ウ ェーブレット・スケールに対応する2の累乗を含むこととなる。各周波数スケー ルにおける各(x,y)ピクセルに対するモジュラス及び勾配角度は式6及び7 で記載されるように計算される。 モジュラスは所与のスケールに対してピクセルのグループ内に記憶された画像倍 率の量であり、勾配角度はもし存在すればエッジの導関数を示す。 次いでステップ103は、そのモジュラス値が所定値を越えるような点に基づ く画像の選択された周波数スケールでの点表示を形成する。この技法の第1繰り 返しの場合、2つの周波数スケールが指定されたスケール数である1(S=2) 及び2(S=4)で点表示を有することになる。点表示はこの技法のフラクタル 部において使用される。ウェーブレットと変換が画像に適用されると、該画像の 2つの表示が作り出される。第1の表示、高周波数画像と呼称される表示は、一 定の閾値を越えている場合のモジュラスに伴うピクセル全てを含む。第2表示、 低周波数画像と呼称される表示は、低いモジュラス値を伴うピクセルを含む。低 強度のモジュラス値はピクチャのテクスチャ或は粒子に対応し、高いモジュラス 値はエッジ或はより識別的な特徴に対応する。高周波数画像情報はより少ないデ ータ点を有し、その理由は閾値を越えているそれらピクセルだけが保持されるか らである。よって画像内における任意の空の空間は除去されることとなって、デ ータ表示におけるスペース節約を為している。 次いでステップ105は周波数スケールNにおける高周波数画像を値域に分割 すると共に高周波数スケールをN+1から定義域ブロックへ分割する。定義域及 び値域ブロックのサイズはPSNR(ピーク信号対ノイズ比)と、結果として再 生された画像の圧縮比とに影響する。生成される定義域ブロックがよい多ければ 多い程、PSNRはより低くなってよりクリーンな画像を作り出すが、圧縮は低 減されることとなる。効果的な4進木セグメンテーションが用いられて、最低ス ケールのウェーブレット基準集合は他の周波数スケールの全てを含むので、より 低い2つのスケールの高周波画像を値域ブロックに細分する。もし値域ブロック における画像データの量が所定の閾値レベルよりも大きければ、その値域ブロッ クは更に細分されることとなって、特定の値域ブロックにおけるモジュラスはそ の閾値レベルを決して越えることがない。 ステップ107は、ステップ105で生成された各定義域及び値域ブロックに 対して、正規化されたモジュラス最大値及び正規化角度を計算する。本技法にお けるこの点で、もし追ってパターン認識が所望されるのであれば、ウェーブレッ ト変換のリップシッツ(Lipschitz)指数も計算可能となる。リップシ ッツ指数はパターン認識の欄で引き続き充分に説明される。正規化モジュラス及 び角度値は以下の式で計算される。 ジュラス或は角度値の平均である。式8及び9における「Norm」は所与の定 義域或は値域ブロックにおける非ゼロのピクセルの数である。正規化されたモジ ュラス及び角度情報はスケールNの値域ブロック及びスケールN+1の定義域ブ ロックに対して計算される。正規化平均モジュラス及び角度情報は、図9により 詳細に示される圧縮画像ファイル内に記憶される。 ステップ109は、スケールn+1でコード化される画像内の各定義域ブロッ クからの正規化角度及びモジュラス値をスケールnの各値域ブロックと突合わせ るものであり、nはコード化される現行スケールである。よって本技法の第1繰 り返しは、スケール1での値域ブロックと、スケール2での定義域ブロックとを 有する。第2の繰り返しは、スケール2での値域ブロックと、スケール3での定 義域ブロックとを有することになる。全ての定義域及び値域ブロックに対する平 均ノルム角度及び平均モジュラス値は角度値及びモジュラス値で別個にソートさ れて、ルックアップテーブル内で比較される。モジュラス及び角度の正規化平均 値をソートすることによって定義域ブロックの各ブロックは各値域ブロックと個 別に比較される必要性がなく、これは従来のフラクタルコード化で為されている 。モジュラス及び角度値を予め分類されたソート順序で比較することによって、 計 算時間の大きな節約が達成可能であり、コード化方式の効率性に関して相当に大 きい増大をもたらす。 ステップ111は、特定の定義域ブロックから再接近した値域ブロックまでの 正規化モジュラス最大及び角度の間の差が所定の閾値を上回るかを検査する。こ の差の値は、定義域ブロックが値域ブロックとどの程度同様であるかの優れた尺 度である。モジュラス及び角度値は分類されるため、再接近の値域ブロックを決 定することは相対的に高速なプロセスである。差は以下の式によって計算される 。 もし特定の定義域ブロックと値域ブロックとの間の最小差値が所定閾値を上回れ ば、値域ブロックが次に高いスケールの定義域ブロックに充分にマッチングせず 、他のより高い周波数スケールをその特定の値域ブロック用の適切なコード化と して用いなければならない。もし少なくとも1つの定義域ブロックが高い最小差 値を有すれば、更なる周波数スケールが生成されなければならない。もし定義域 ブロックに対する差値が閾値を下回れば、現スケールは画像を所望レベルまで圧 縮して保存するに充分であり、その値域及び定義域ブロックに対するデータはス テップ111で記憶されることとなる。 ステップ111はファイル内のテーブルにおける定義域ブロック/突合わせ値 域ブロック位置に、それらブロックと、比較された際に所定閾値を下回る最小差 値を有した値域ブロックに対する値域ブロックの正規化角度値との間の平均差値 を伴って入る。生成されたテーブルの例は図9に関連して示され且つ説明される 。ファイル内に記憶された値は、伝送或は記憶された後に圧縮解除され得るオリ ジナル画像の圧縮表示であり、効率的なパターン突合わせやビデオ圧縮の一部と して使用される。 ステップ113は定義域及び値域ブロック間の最小差値が所与のブロック用の 閾値を越えるか否かを検査する。もしそうであれば、本技法はステップ115で 続行され、同様であるより高いスケールでの値域及び定義域ブロックを獲得する 。スケールが増大して値域の解像度が減少すると、突合わせブロックを見出すこ とがより容易となる。 ステップ115は次により高い周波数スケールで画像情報を空間的に分解する 。この好適実施例においてスケールは2の率で増大する。次いでより高いスケー ルの低周波数画像は2の率で空間的に消去される。よって、もし第1スケールが 2まで消去されると、第2スケールは4まで消去され、第3スケールは8まで消 去されることになる。スケールは画像の解像度及び空間的消去量を決定する。プ ロセスはステップ103で継続して、値域ブロックが、先行する定義域ブロック 及び定義域ブロックが新しく生成されたスケールから来ている高周波数画像から である。ステップ117は、その定義域ブロックがコード化されているスケール の低周波数画像をフラクタル式にコード化する。このコード化は標準的なフラク タルコード化技法で為される。最低周波数情報の定義域ブロック及び定義域ブロ ックは共にウェーブレット表示の更なる圧縮を可能としている。代替的には、低 周波数画像はその画像を圧縮するために空間的に副標本が取られる。 図2乃至図6は図1で説明されたコード化技法を、コード化され且つ圧縮され るオリジナルの未コード化画像に適用した図式表現である。図2はオリジナル画 像と、コード化中の行われる中間的な処理段階とを示す。この例において、3つ の周波数スケールが画像の多重解像度変換中に生成された。ラベル270,27 2,274は図面内のスケール番号を示している。ボックス201はコード化前 のオリジナル画像を表わす。この例におけるボックス201の画像は目、鼻、口 、並びに髪を伴った顔である。画像における陰影部は、写真或は絵等の通常画像 に現われる顔のテクスチャを表わす。ボックス203は、画像が第1周波数スケ ールでウェーブレット・コード化された後の低周波数スケール「1」(第1周波 数スケール)画像を表示している。ウェーブレット・コード化は画像内の周波数 成分を半分に分割して、低周波数スケール1画像203及び高周波数スケール1 画 像205を生成する。高周波数スケール1画像は最大のエッジ情報を含む。ウェ ーブレット変換から得られる低周波数スケール1画像は保存された画像のテクス チャの幾分かとエッジ情報の幾分か(例えば髪)とを有する。幾分かのエッジ情 報は全周波数スケール内に含まれる。ボックス205は、第1周波数スケールで のウェーブレット・コード化後の高周波数画像スケール1を表示する。第1スケ ールの高周波数スケール1画像は一定の閾値よりも大きなエッジだけを保持する ことになる。よってノイズ或は低モジュラス値を伴う非常にソフトなエッジは削 除されることになる。 ゼラス(Zerath)周波数スケールは、それが最大周波数を含むために他 のスケールよりも画像のより多くのエッジを取込み、如何なるエッジももし可能 であれば第1スケール内のコード化データに保持される。第2周波数スケールは 第1周波数スケールの低周波数部の分解であり、圧縮画像の低減された解像度と 成る。ボックス207は、第2周波数スケールでのウェーブレット・コード化後 の低周波数スケール2画像を表示している。スケール1の低周波数情報は、ウェ ーブレット関数を用いて変換されて、スケール2での低及び高周波数画像を作り 出す。オリジナル画像201のテクスチャは依然温存されているが、オリジナル 画像の分解された表示で変換されているので、オリジナル画像の第1周波数スケ ールにおける程度までではない。ボックス209は第2周波数スケールでウェー ブレット・コード化後に作り出された高周波数スケール2画像を表示しており、 エッジ情報の殆どを保持するがその全てではない。保持されているエッジ情報は 第1周波数スケールに存在する程に完全ではない。ボックス209における画像 表示は髪或は口のエッジを具備しないが、その他のエッジを示している。ボック ス209の画像におけるエッジの解像度は、第1周波数スケールの画像ボックス 205よりも小さい。第3周波数スケールは第2のものよりも周波数に関して低 く、圧縮画像の解像度は低減する。低周波数スケール2画像207をウェーブレ ット・コード化することは低周波数スケール3画像211及び高周波数スケール 3画像213を作り出す。ボックス211は、低周波数スケール3ボックス20 7からの画像情報を第3周波数スケールでウェーブレット・コード化した後の低 周波数スケール3画像を表示している。低周波数で、全体的な形状のテクスチャ が保持されるが、他の2つのスケールよりも少ない。ボックス213は第3周波 数スケールでのウェーブレット・コード化後の高周波画像を表示している。コー ド化データに保持されているエッジ情報は他の2つのスケールよりも少なく顔の アウトラインのみが記憶されている。 多重的な周波数スケールの目的は、ウェーブレット変換情報の圧縮及びエッジ 検出の利益を獲得することであり、更にフラクタル技法を用いて画像を更に圧縮 する。周波数スケールが用いられて、各定義域ブロックがオリジナル画像に基づ く同様な値域ブロックを有するというフラクタルコード化における条件を満たす 補助を為す。しかしながら、異なる周波数スケールを提供することによって、ブ ロックが複数の周波数スケールにわたって突合わせ可能となり、より高い周波数 スケール(よってより大きい)からの定義域ブロックがより低い周波数スケール の値域ブロックに突合わせされる。これを達成するために、1つの追加的スケー ルが使用されている値域ブロックの最高スケールに対して作り出されなければな らない。定義域ブロックは、常に、圧縮を増大するために値域ブロックよりも高 い1つのスケールである。よって、高周波数スケール2のボックス205におけ る第1スケールがフラクタルコード化されると、定義域ブロックはスケール2の 高周波数スケール2のボックス209から引き出されなければならない。ひとた び値域及び定義域ブロックの平均モジュラス及び角度が計算され記憶されると、 定義域及び値域ブロック間の差が決定される。もし最も接近した値域ブロックに 対する各定義域ブロックの差は所定閾値を下回れば、相対的な位置である定義域 及び値域ブロックはファイルに記憶される。それらのコード化されたブロックは 周波数スケール1におけるボックス224に示されている。スケール2に対する コード化ブロックはボックス226に示されている。もし、所与の定義域ブロッ クとそれに対して最も接近した値域ブロックとの間の差が所定閾値よりも大きけ れば、その特定の定義域ブロックがよい高いスケールでコード化されなければな らない。ファイルに記憶されなかった定義域ブロックは次により高いスケールで 処理されてランダムな位置に配置され、更により高いスケールが作り出されて新 定義域ブロックとなる。ひとたび全ての定義域ブロックがコード化され且つ各定 義域ブロックに対する差値が閾値を下回れば、固定されたグリッド上である値域 ブロックを含む最も高いスケールはそれ自体がフラクタルコード化されてテクス チャ情報を保存し、迫って説明されるように画像が再構築されることを可能とす る。図2の例において、低周波数スケール2ボックスはフラクタルコード化され てコード化ボックス228を形成する。代替的には、低周波数スケール2ボック スが圧縮されるべく空間的に再標本化される。追ってより詳細に説明されるデコ ード・アルゴリズムは、テクスチャ情報を含むコード化データの最低解像度(最 高スケール)によって低周波画像で始まり、フラクタルコード化高周波数ボック ス207及び205からのエッジ情報に関して戻し、最終的にオリジナル画像2 01を形成する。 周波数グラフ250は、この発明に従った多重解像度変換の各スケールで用い られる周波数成分の一次元表示を示す。画像は初期的には、ウェーブレット変換 技法の一部としての(両直交スプライン或は二次スプライン基準等の)基準関数 を用いて周波数定義域に変換される。オリジナル画像は、ゼロからfまでに及ぶ ように表示される周波数範囲内で空間的に表示され、その周波数範囲は全画像を 包含している。ウェーブレット変換の最高解像度であるスケール1は、グラフ2 54に示されるように、2の率で周波数スケールを高周波数スケール1のボック ス205及び低周波数スケール11のボックス203に分割している。スケール 1の低周波数範囲は0からf/2までをカバーする。スケール1の高周波数範囲 はf/2からfまでをカバーする。スケール2は、この例において、スケール1 から2の率で解像度に関して低減されている。グラフ254における低周波数領 域は、ここで、グラフ256に示されるスケール2に対する新しい低周波数画像 207及び高周波数画像209になるような、引き続くウェーブレット変換の一 部としての低域パスフィルタ及び高域パスフィルタの等価回路によって半分に分 割される。スケール2の低周波数範囲はボックス207に対応し、ゼロからf/ 4までに及んでいる。ボックス209に対応するスケール2の高周波数範囲はf /4からf/2までに及ぶ。 次いでスケール3は、この例において、スケール2から2の率で解像度に関し て低減される。グラフ256における低周波数領域は、ここで、表示258に示 されるスケール3に対しての新しい低周波数画像211及び高周波数画像213 になるような、低域パスフィルタ及び高域パスフィルタの等価回路によって半分 に分割される。ボックス211に対応しているスケール3の低周波数範囲はゼロ からf/8までに及んでいる。ボックス213に対応しているスケール3の高周 波数範囲はf/8からf/4までをカバーしている。次いでスケール3は2の率 で解像度に関して低減され、もし他のスケールがコード化技法によって要求され たならば、この技法においてスケール4を作り出す。もし第4スケールが要求さ れれば、グラフ258の低周波数成分は新しい低及び高周波数表示を形成すべく 半分に分割される。 グラフ250における周波数スケール間の関係は、最高数のスケール(即ち、 最低解像度)で始動可能であり且つ画像が再生されるまで高周波数スケールを繰 り返し再構築することが可能である。よって、低周波数2画像207がスケール 2の高周波数スケール2画像209に結合されると、低周波数第1スケールの画 像203が作り出されることになる。次いで低周波数画像203はスケール1の 高周波数画像205に結合可能となって、オリジナル画像を形成する。オリジナ ル画像の全周波数スペクトルはこの方法を用いて再度作り出すことが可能である 。周波数範囲のこの分割は本技法が、値域ブロックに記録された最高スケールの 低周波数ボックスと各スケールからの高周波数画像とからのデータのみを記憶す る ことを可能としている。定義域ブロック用の最高スケールは、その定義域情報が 圧縮画像ファイルに記憶されないために記憶される必要性がない。次いで残存す る低周波数ボックスは引き続き再度作り出されて、コード化前のオリジナル画像 を生成する。 矢印220は、高周波数スケール1画像205における値域ブロックの高周波 数第1スケール209における定義域ブロックとの関係を示す。所与周波数スケ ールに対する定義域ブロックは、次により低い周波数スケールの値域ブロックへ 写像される。もし特定の周波数スケールにおける所与の定義域ブロックに対して 整合が全くなければ、そのスケールは1だけ増大されて、新しい整合対が求めら れる。矢印222は高周波数スケール2画像209における値域ブロックと、高 周波数スケール3画像213における値域ブロックとの間の写像を示す。本技法 はスケール3における定義域ブロック全てがスケール2及びそれ以下における値 域ブロック全てに対して十分な整合を有しているため、値域ブロックの更なるス ケールは要求されない。 図3は、各スケールにおける高周波数画像を値域ブロックに細分すべく、図1 のステップ105における4進木セグメンテーションが各スケールにわたってど のように使用されるかの例を示す。この4進木セグメンテーションは、値域ブロ ックが提供された画像のエッジに基づいて、どのように割り当てられるかを示す 。イラスト的記述が、値域ブロックを含む周波数スケールの各々での変換画像か ら成る図3に示されている。ラベル308及び310は周波数スケール数を示す 。値域ブロック304は高周波数ボックス209に対応し、値域ブロック306 は高周波数ボックス213に対応している。値域ボックス304は、値域ボック スを含む最高スケール(最低解像度)の高周波数ボックスにおける情報を示す。 画像情報は、ウェーブレット変換中に実行された低域パスフィルタ処理のために 、より低いスケール(スケール1)程に詳細ではない。画像は、好ましくは、面 積に関して同等のブロックで上に横たわっている(ブロック・サイズは可変であ る)。画像のエッジはブロックの内の1つに存在している場合、その特定ブロッ クは増大解像度の他のスケール内に存在することになる。 値域ブロック306はスケール1に対して示され、図2のボックス205に対 応している。それら値域ボックスは次により高いスケールの定義域ブロックと突 合わせられる。値域ブロックの解像度は値域ブロック306において2の率で増 大される。これが意味することは、上に横たわるグリッドがより高いスケールよ りも、4倍の多くの値域ブロックを有し、それによってより多くの情報が処理さ れることである。同一画像に対する値域ブロックの増大された数は、エッジ及び 特徴が、第3スケールの値域ブロック302に見出されるよりも、追加的に記憶 され且つ表示されることを可能としている。特に、オリジナル画像の顔における 目及び鼻は、ここでは、スケール2の値域ブロック304によって表示されてい る。 図4は、高周波画像をモジュラス・エッジで生ずる可能性ある定義域ブロック 全ての集合に分割させる定義域ブロックの図式表示を示す。この画像は、一定の 閾値を上回るエッジ情報を具備するブロックのみがウェーブレット変換後に表示 されるためにモジュラス画像と呼称される。もしブロックが存在する情報があま りにも少ないためにエッジを含まなければ、それは無視される。画像情報量の閾 値レベルは、少量のエッジ情報或はノイズを具備する定義域ブロックを無視する ように設けられている。閾値レベルはそうしたレベルで設定可能であり、あまり にも多くのブロックを除去することからのエッジ及びテクスチャ情報の損失に抗 して平衡した状態で、コード化技法の効率を増大する。ラベル405及び407 は周波数スケール数を示す。定義域ブロック401は、スケール3ウェーブレッ ト変換からのエッジ情報を含む定義域ブロックのみの表示を示す。残存する定義 域ブロックの全ては無視された。定義域ブロック403は、スケール2ウェーブ レット変換からのエッジ情報を含む定義域ブロックのみの表示を示す。スケール 1の定義域ブロックは全くなく、それは定義域ブロックが常に1つ下のスケール を形成する値域ブロックと比較されるからである。よって、スケール1定義域ブ ロックに対するスケール0の値域ブロックは全くなくなる。 次いで、値域ブロック302,304,306の各個別の値域ブロックと、定 義域ブロック401及び403の個別定義域ブロックとは、各ブロックに含まれ る画像情報の平均モジュラス及び平均勾配角度によって予め分類されている。そ うした分類を生成するための式は図1の説明中に詳細されている。ラベル515 ,517,519は周波数スケール数を示す。ラベル521,523,525は ブロック・タイプ或は表示タイプを識別する。次いで各定義域及び値域ブロック に対する平均モジュラス値及び平均角度値は分類されて圧縮ファイルに記憶され る。 図5は、図1の諸ステップに従って、図4からの定義域ブロックを図3の値域 ブロックと突き合わせる図式的な表示を示す。スケール3の定義域ブロック50 1は次により低いスケール、この場合ではスケール2のより小さな値域ブロック と突合わせられる。スケール2の定義域ブロック505はスケール1のより小さ い値域ブロック507と突合わせられる。定義域ブロックを値域ブロックに突合 わせる従来法は、各定義域ブロックを対応する値域ブロックと最小二乗平均の差 別で比較することによるものであり、これはコンピュータ集約的である。しかし ながら、本発明に従えば、各値域及び定義域ブロックにおける画像情報の平均モ ジュラス及び角度値がテーブル内に記憶されている。次いでテーブルが平均モジ ュラス及び角度値に基づき各定義域ブロックと比較される。ひとたび分類される と、値域ブロックのリスト全体が各定義域ブロックに対して検査される必要性が なくなるが、同一の正規化された平均モジュラス及び角度値に接近している予め 分類されたブロックだけが検査される。よって、低い平均モジュラス及び角度を 具備する定義域ブロックが、低い平均モジュラス及び角度を具備した値域ブロッ クと検査されることになる。もし特定の定義域ブロックと対応する値域ブロック との間の値差が一定の閾値よりも大きければ、所与の周波数スケールに対するブ ロック間の十分な整合がなく、他の周波数スケールが生成されて、画像を更に細 分して誤差を検査する。3つの周波数スケールを生成することは、写真品質の画 像をコード化するために要求されるスケールの典型例である。 定義域ブロックの値域ブロックに対するより高速な突合わせを可能とすべく実 行され得る複数のステップがある。第1として、定義域ブロックの数は、該定義 域ブロックのサイズを減少することによって増大され得る。定義域ブロックは回 転可能であるか、さもなければ変換されて追加的な突合わせオプションを提供す る。更には、定義域の値域ブロックに対する突合わせは続けて関連されないスケ ールまで拡張され得る。例えば、値域ブロックはスケール1であれば、スケール 3の定義域に突合わせ可能となる。これらの方法は、コード化プロセスの効率を 増大することになる。 図6は、オリジナル画像の値域ブロックに関する、最高スケールでの低周波数 表示をフラクタルコード化する図式表示である。この例において、値域ブロック を含む最高スケールはスケール2であり、画像情報を含む低周波数画像は低周波 数スケール2画像601で示されている(図2のボックス207に対応)。ラベ ル609及び611は、空間的消去に対して用いられるブロックのタイプを示す 。低周波数画像601の定義域ブロック605は、同一画像の値域ブロック60 3と突合わせられ、従来のフラクタル技法を用いてコード化される。第2スケー ルの低周波数画像を表示する値域ブロック及び定義域ブロックの写像は圧縮ファ イルに記憶される。代替的には、空間的副標本化を用いることができ、低周波数 画像をコード化する。 図7は、本発明に従った技法の画像デコード部分に関わる諸ステップのフロー チャートを示す。デコード・プロセスは圧縮画像を表示するデータを転送してコ ード化及び圧縮情報がオリジナル画像に非常に緊密に近似するように再構築され ることになる。以下に説明されるデコード技法の幾つかの部分に対して実行され るデコード・ステップがより多く繰り返されるほど、再構築される画像はオリジ ナル画像により近づくようになる。図7の以下の技法は、図1で説明された技法 でコード化された圧縮画像の画像デコードを為すものである。特定のコード化画 像に適用されるデコード技法の例は図8に示されている。 ステップ701は、その特定の画像に対して整合している定義域及び値域ブロ ック位置を含んでいるコード化ファイル内に記憶されたフラクタルコード化低周 波数情報をデコードすべく、従来のフラクタル技法を用いることを繰り返す。そ の結果は、オリジナル・コード化に用いられる値域ブロックを含む最高スケール での低周波数画像となる。オリジナル画像の低周波数テクスチャ情報はその特定 スケールに対して再生されることになる。 ステップ703は、その最高スケールに対する高周波数情報の特定点表示を点 表示にフラクタル式に再構築することを繰り返す。図2に示されるフラクタルコ ード化画像226の例において、画像は従来のフラクタル技法を用いて再構築さ れる。オリジナル画像を実行するために要求される最終的な繰り返し数は点表示 の所望精度に依存する。典型的な例は従来のフラクタル技法の3回の繰り返しで ある。こうした繰り返しが記憶された高周波数表示に対して実行され、高周波部 に対するエッジ情報を再生する。 ステップ705は、フラクタルデコードにより作り出されたブロック状人口産 物を閾値を設けることによって除去すべく、各スケールの高周波画像の点スケー ル表示を処理する。もし、ブロック内の画像の平均モジュラス値が所定閾値を下 回れば、画像の一部とならない。これはエッジ検出のウェーブレット変換の長所 が、フラクタル圧縮長所と組合せられることを可能としている。 ステップ707は、所与のスケールに対する低周波数及び高周波数画像を組合 せることによって、そのスケールに対する所望空間的表示に戻すように繰り返す べく、交番投影の方法を用いる。データは帰納的に逆フィルタを介して送られ、 低及び高周波数情報に対するウェーブレット・コード化データを次のより低いス ケールへ変換する。このプロセスはより低い解像度スケール(より高いスケール 数)から情報を取り出し、その周波数表示がより大きなエッジ情報及びより高い 解像度を有する次のより低いスケール内である画像を作り出す。各スケールの再 構築に対しての数或は繰り返しは可変であり、再生される画像の要求される精度 に依存する。典型的な繰り返し数は3である。このアプローチは、35:1の圧 縮比で25dBの出力信号対ノイズ比を生み出す。35対1の圧縮比での30d Bの出力信号対ノイズ比の場合、その合成エッジはステップ708と709の間 で使用される。 次いでステップ709は低周波数表示をフラクタル・デコードされた高周波数 表示へ加算し、それらの両方が逆スケール・フィルタを介して変換されて、より 低いスケールで画像を形成する。低周波数画像を高周波数画像へ加算することで 、再生画像に次により低いスケールでのテクスチャ及び画成エッジの双方を付与 する。 ステップ711は、デコードされた画像が周波数について現行スケールでの画 像解像度の所望レベルにあるかを検査する。これはプログラムによって予め規定 させることができるか、或は、画像がデコードされている際にリアルタイムで課 することができる。もし画像が了承可能な解像度であれば、デコード技法が行わ れる。例えば、オペレータは、オブジェクトが通常のブランク画像フィールド内 に現われるかを決定することを単に欲する。オペレータは、自身の目的に対して 高解像度画像を必要とするであろう。もし再構築画像が了承できる画像でなけれ ば、この技法がステップ713で続行される。 ステップ713は次のより低いスケールでのデコード・プロセスを開始する。 特定スケールの高及び低部分を加算した結果、次の最低スケールの低周波数表示 となる。次のスケールレベルに対する記憶された高周波数表示が使用されて、そ のスケール・レベルで情報を繰り返し再構築する。規定された新低周波数及び高 周波数情報で、本技法はステップ703で続行する。もし処理すべき更なるより 低いスケールがなければ、その画像は完全にデコードされることになる。 図8は、図7に記載されている画像に対するデコード・プロセスの図式表示を 示す。ラベル820及び822は周波数スケール数を示す。先行して記憶された 値域ブロックを具備する最高スケールの低周波数画像情報に対するコード化デー タは、従来のフラクタル技法を用いることを繰り返すことによって再構築されて 、点画像を再構築する。合成エッジが、各スケールのフラクタル再構築後に適用 される。実行される繰り返しの数は、オリジナル画像への所望接近程度に依存す る。各繰り返しは収縮された定義域ブロックを値域ブロック位置へ配置して、新 画像を形成する。初期画像は、一定の繰り返し数後、任意の開始画像がブロック の写像を用いてオリジナル画像へ変換されることになるので、ランダムであり得 る。定義域‐値域ブロック写像を用いての一定の繰り返し数後、オリジナル画像 が再度現われる。低周波数情報がデコードされると、スケール2の低周波数ボッ クス803が作り出される。この変換ステップは図7のステップ701に対応す る。次に、スケール2に対する高周波数コード化情報805は、自己繰り返しの 従来通りのフラクタル技法を用いてデコードされる。その結果は高周波数スケー ル2の画像807である。このステップは図7のステップ703に対応する。次 いで、閾値を適用する図7のステップ705は、如何なるブロック状人口産物を も除去すべく、ボックス803及び805内に記憶されたデコード画像に対して 実行される。任意のブロック状産物の更なる除去は、ステップ706の合成エッ ジ手法を用いることによって達成され得る。ステップ706の更なる詳細を示す フローチャートが図7Aに示されており、合成エッジ手法の例示適用の図示が図 7Bに示されている。合成エッジの目的はオリジナル・エッジを再生することで あり、それは本質的にはフラクタルブロック・エッジからの1ピクセル幅であり 、フラクタル値域ブロックの幅にまでであり得る。理想的には、再ブロック化エ ッジの完全なフラクタル再構築は1ピクセル幅であるべきである。図7A及び図 7Bに示された合成エッジ手法例を用いて、チェーン・コード化718(図7A におけるステップ714と図7Bにおけるステップ720)がフラクタル再生エ ッジ718に対して先ず実行される。もしチェーン・コード化エッジの軌道が該 チェー ン内の次のフラクタルコード化ブロックを外れて動作すれば、値域ブロック・サ イズの2倍の制限長方形721が点の周りに作り出され、そこに制限チェーン・ コード化ブロックがブロック境界にわたって走っている(図7Aにおけるステッ プ15)。エッジ細線化アルゴリズムがその制限長方形721に適用され、その 後、チェーン・コード化が制限長方形と交差するフラクタルコード化エッジ・ブ ロックの中心で復帰される(図7Aでのステップ716)。 エッジ細線化アルゴリズムに関しては、中央ピクセルP1と、周辺ピクセルP2 ,P3,P4,P5,P6,P7,P8,P9とを含む9ピクセルのブロックを示す図 7Cを参照のこと。もし、Z0(P1)が順序付けられた集合P2,P3,P4.. .P9であり、NZ(P1)がP1の非ゼロ隣接物の数であれば、P1は、もし以下 の条件を満たせば削除される。 2≦NZ(P1)≦6 及びZ0(P1)=1 及びP2・P3・P8=0或はZ0(P2)≠1 及びP2・P4・P6=0或はZ0(P4)≠1 上述したエッジ細線化アルゴリズムが使用可能で、出力信号対ノイズ比を著しく 増大する。当業者であれば、更に一層高い出力信号対ノイズ比を獲得すべく、こ のアルゴリズムが微細同調され得ることをご理解していただけるであろう。通常 であれば、エッジがオリジナルのウェーブレット・フィルタ処理されたエッジに より近づけば近づくほど、得られる結果はより良好となる。 ステップ707において、ボックス803及び805における2つの画像は別 々に逆フィルタに適用されて、各画像の周波数スケールを次の最小スケールに変 更する。(当業界で公知である)交番投影(alternating proj ections)の方法がこれら2つの画像に対して繰り返して実行され、次の 最低周波数スケールの画像を作り出す。次いで、低周波数及び高周波数画像の各 画像は相互に加算されて、スケール1、即ち次の最低スケールの次の低周波数 ボックス809を形成する。このステップは図7のステップ709に対応する。 ボックス809に記憶された画像は、ここでは、デコードされた高周波数ステッ プ2の画像807のエッジ情報と、低周波数ステップ2の画像803のテクスチ ャ情報とを含む。もしこの画像が、第1周波数スケールが処理された後に充分に 再生されたならば、本技法は図7のステップ711で示されるように為される。 もしこの画像に更なる改善が必要であれば、スケール1はスケール2と同様に処 理されることになる。 図8に示される例における画像は、スケール1、そのコード化高周波数スケー ル・ボックス・スケール、並びに画像841が処理された後に再構築される。ボ ックス813は第1スケールの高周波数部分のデコードされた画像であり、低周 波数ボックス809に加算されて、オリジナル画像の再生であるボックス815 を形成する。 グループ855は、周波数スケールがどのように再生されるかを一次元的に示 す。fが画像の全周波数表示である場合、画像が0からオリジナル画像に対する fまでの全周波数スケールにわたって初期的に示されている。グラフ851は、 ゼロからf/8まで動作する画像803に対する低周波数データと、f/8から f/4まで動作する画像807に対応する高周波数データとを示す。これら周波 数成分は図7でのステップ709で相互に加算されると、それらはグラフ853 (ゼロからf/4まで走る)に示されると共に画像809に対応する次のスケー ルの新低周波数成分を形成する。高周波数成分はf/2からfまで走り、画像8 13に対応する。スケール2の周波数成分が相互に加算されると、それは再生画 像815を形成する。オリジナル画像の再生画像815はグラフ855に示され 、ゼロから、オリジナル画像の全周波数範囲を含むfまで走る(図2のグラフ2 52を参照のこと)。 図9は、図1に記載された技法を用いて圧縮され且つコード化された画像デー タに対する、好適フォーマットに組織されたファイルを示す。有用である図示さ れたフォーマットを記憶するように配向されたオブジェクトは、パターン認識及 びビデオ・コード化である。しかしながらファイルは、もし用途がオブジェクト 識別を要求しなければそれらオブジェクトに拘わりなく、組織され得る。本発明 のオブジェクト配向局面は引き続く欄で記載される。図9に示されるデータ・フ ァイル900は複数の列に組織される。「値域ブロックX」と名付けられた列9 01は、二次元グリッド(X,Y)のX方向に対する特定値域ブロックの配置を 含む。「値域ブロックY」と名付けられた列903は、二次元グリッドのY方向 に対する特定値域ブロックの配置を含む。例えば、もしグリッドが10×10ア レイ内に100点を有すれば、下方左側コーナー部における第1ブロックは座標 (0,0)、即ちx=0及びy=0を有することになる。 ファイル900に示される値域ブロックはチェーン・コード化されて、特定オ ブジェクトのエッジが続けて記憶され、もしプロットされるのであればオブジェ クトを形成する。ラベル925はチェーン・コード化されたエッジを示す。画像 内で識別された各オブジェクトに対し、オブジェクトをコード化するために用い られる各スケールの値域及び定義域ブロック情報が別々に記憶される。この例に おいて、値域ブロック及び他の情報はデータ903における第1スケール内の識 別第1オブジェクトに対して図示されたようにグループ化され、データ905に 関する第2スケールにおける第1オブジェクトに対して情報がグループ化され、 データ907に関する第1スケール内の第2オブジェクトに対して情報がグルー プ化され、データ909に関する第2スケールにおける第2オブジェクトに対し て情報がグループ化される。留意すべきことは、各オブジェクトに対して示され たデータが、実用上、より多くの入力を有することである。記憶されたスケール の数はコード化方式に用いられるスケール数に依存する。 また、ファイル900に記憶されているは、「定義域ブロックX」と名付けら れた列921と「定義域ブロックY」と名付けられた列931の各オブジェクト に対する定義域ブロックの相対的な配置である。列921は、二次元グリッド (X,Y)のX方向における定義域ブロックのデータを含む。列931は、二次 元グリッド(X,Y)のY方向における定義域ブロックのデータを含む。識別さ れた定義域ブロックは、列901及び911におけるファイルの同一線上で識別 された値域ブロックに対応している。列941は「平均ノルム角度」と名付けら れた、特定定義域ブロックに対して計算された平均正規化モジュラス角度である 。定義域ブロックは多数のピクセルから作り上げられ(例としては、2、8、6 4、526等々である)、平均角度は図1に関して示された式によって計算され る。特定定義域ブロックにおけるピクセルの平均相対強度を示す平均ブロック差 は、「平均ブロック差」と名付けられた列951内に記憶される。ファイル90 0の右側における3つの列は、ビデオ・コード化及びパターン認識に対して用い られる。これら3つの列は、パターン認識及びビデオ・コード化技法が説明され る際に、詳細に説明される。列961は「アルファ」と名付けられ、列971は 「フローVx」と名付けられ、列981が「フローVy」と名付けられている。フ ァイル900は、圧縮の最高スケール率(図2乃至図6の例では2)、画像内の オブジェクト数、並びに、各個別画像をコード化すべく使用される繰り返し数等 々の情報を含むヘッダをも含む。 図10は、本技法のパターン認識部分に係わる諸ステップのフローチャートを 示す。コード化及び圧縮データは画像の後での再生用に転送されるか或は記憶さ れるだけに用いられるが、本コード化技法はパターン認識に対して強力な道具を 提供する。値域ブロックが、別個のオブジェクトの外側エッジを識別するパター ン認識用にチェーン・コード化される。よって、もしフルーツ・ボウルが分析さ れるべき画像であれば、バナナ或は他の所望フルーツの記憶され且つコード化さ れた画像はフルーツ・ボウル内のオブジェクトをチェーン・コード化することに よって識別される画像と比較可能である。パターン突合わせ技法は、既に記憶さ れているコード化パターン内の任意のオブジェクトを識別すべく拡張され得る。 オブジェクトはコード化され圧縮されているため、パターン認識ルーチンは、従 来のビット毎の突合わせが試みられる場合よりも相当より迅速である。更には、 識別されるべき画像のエッジ情報は本発明に従って、より良好な圧縮とより容易 な突合わせ能力を伴って記憶される。 パターン認識技法のステップ1001は、図1に記載されるコード化技法によ って突合わせられる画像をコード化する。その結果は、図9に示されるようなオ ブジェクトに対する各スケールでの識別された定義域及び値域ブロックの相対的 配置のファイル・リストである。次いで、ステップ103は、もしコード化ステ ップで既に行われていなければ、特徴によってブロックをチェーン・コード化す る。チェーン・コード化は簡単な記憶及び伝送用に要求されず、よって、パター ン認識或はビデオ・コード化が所望されなけばコード化ステップで実行されるこ とはない。チェーン・コード化自体は当業界で周知であり、オブジェクトのエッ ジの関係を記憶し、該オブジェクトを識別する補助を為す。エッジに沿っての各 値域ブロックの場合、画像、平均角度、並びにモジュラス内の相対的位置の双方 は記憶される。平均角度はブロック内のエッジの平均勾配を表示し、モジュラス はその点での画像の強度を示す。チェーン・コード化は、各種エッジから作り出 された完全な画像が形成されるか或は各種エッジから成る線が単に停止するまで 続行される。もし、値域ブロック内にエッジ情報をその周りのモジュラス及び角 度値によって予想では含むべきであるが含まなければ、そのブロックは修正され 予想情報で置換え可能である。これは、「中立ネットワーク」或は当業界では公 知の技法である他の判定によって決定され得る。しかしながらエッジの最後は、 オブジェクトの最後或は第1をカバーしている他のオブジェクトの最後に信号を 送り得る。 オブジェクトが「阻止」しているか或は画像フィールド内で他のオブジェクト と部分的に重複しているかを決定するために、当業界で公知のリップシッツ式が 用いられる。リップシッツ式は以下の通りである。 本質的には、α基準は、画像関数が引き続きより高いスケール(より低い周波数 )へ進む際にウェーブレット・モジュラスの強度を測定する。もしオブジェクト が小さなα指数を有すれば、ウェーブレット・モジュラス最大(閾値を越える画 像の点)は多数のスケールにわたって相対的に一定に留まり、そして、スケール 毎に同様に留まる本質的には「ハード・エッジ」が存在するが、より高いαはよ りソフトなエッジを示す。よって、計算されたαを具備するエッジが画像内のオ ブジェクトにおけるエッジを特徴付けるべく使用可能であり、それはオブジェク トからノイズを除去することや識別目的に関して非常に有用な特性である。低α は閉鎖を示し、そこでは、オブジェクトから背景への遷移等のよりソフトなエッ ジよりもむしろ、画像エッジにおける強烈な変化を示すような画像内において多 重的な一部重複オブジェクトがある。 図11は、画像フィールド内の2つのオブジェクトを示し、それらはパターン 認識実施例において記憶されている画像と突合わせが為される。各オブジェクト に対する画像データは、図1に記載される多重解像度変換によって記憶され且つ コード化されることになる。第1画像1101は、第2画像1103によって部 分的に隠されているように示されている。各画像のエッジに沿っての所与のエッ ジに対してα値を計算するリップシッツ式を用いて、エッジのタイプが各オブジ ェクトにおける各点に対して決定され得る。α値は、エッジが所与の複数スケー ルにわたってどの程度迅速に拡散するか、或は、モジュラス最大値がウェーブレ ット・スケールで増大する際に所与のブロックに対してどの程度一貫しているか に基づいている。もしエッジが拡散しなければ、それは「ハード・エッジ」であ り、αはゼロに近づく。これは、モジュラス値における強烈な鋭い変化のために 閉鎖によって作り出されたエッジを示すことになる。もしエッジが所与の複数ス ケールにわたって拡散すれば、そのエッジは「ソフト」であり、αはより大きく 且つ1の値に最も接近する。ソフト・エッジは、閉鎖がなく、その周りの部分が 他のオブジェクトによって隠されることがないことを示す。もしエッジが非常に ソフトであれば(αが殆ど1と同等)、画像情報は殆どの場合ノイズであり、除 去可能である。 ラベル1121,1123,1125はオブジェクトの各ブロックに対するα 値を示す。この例において、図示されるブロック1105はその点に対して相対 的に大きなαを有し(0.9の値に接近)、よってそれはソフト・エッジを有す る。それ故に、記憶されたエッジは図示されたものをブロックする他のオブジェ クトによるものではない。ブロック1107は示された点で0.3及び0.5の 間のαを有する。それ故に、そのエッジはブロック1105のように[ソフト] ではないが、オブジェクトのエッジと考えるに依然十分であり、閉鎖オブジェク トではない。ブロック1109はゼロと1の間のα値を有し、それ故に「ハード ・エッジ」として識別される。そのエッジは一部重複エッジとして識別される。 オブジェクト内における周辺の記憶されたブロックに対するモジュラス及び角度 値の分析は、複数オブジェクトのどのものが、そのオブジェクトを完全に閉鎖す ることなく、問題となっているエッジを含むのかを識別することになる。よって 、部分的に隠された残存オブジェクトは、隠されていないその部分のみと突合わ せられることができる。ファイル111は、図9に記載されたファイルと一貫し てチェーン・コード化され且つ記憶されたオブジェクトに対してのデータを含む 。ファイル部分1113は第1オブジェクトに対するデータを含み、ファイル部 分1115は第2オブジェクトに対するデータを含むことになる。 図10のステップ1005は、上記した式12からのリップシッツのαを用い て複数スケールにわたって各種特徴を突合わせて、そのオブジェクトに対する如 何なるノイズをも削除する。ノイズは不鮮明エッジ或は画像フィールドの一部と なるべきではないオブジェクトの片々から構成され得る。計算されたリップシッ ツのα値が用いられて、ノイズを実際のオブジェクト情報から区別する。もしα 値が1(或は所定閾値)に近ければ、それらエッジは非常にソフトでありその情 報はオブジェクトのエッジを示すことがない。高いリップシッツα値を具備する そうしたブロックは、より高い解像度を具備した画像を作り出すべく、ノイズと して廃棄され得る。ステップ1005及び1003は、1つのα値が情報を含ん でいる各ブロックに対して計算された後に同様に実行可能である。 ステップ1007は複数スケールにわたって一貫しているような特徴で毛を保 存する。これは、低い値或は指定範囲内のリップシッツα値のみを採用すること によって実行可能である。この範囲は0から0.5であり得る。これは、画像内 のオブジェクトを識別すべく使用される記憶画像と比較するための明確に画成さ れたエッジだけを保存することなる。画像のテクスチャ部分は、画像内で区別さ れるエッジ程にパターン認識において重要ではない。このステップは、ノイズが 削除されるステップ105と同様に実行可能である。 次いでステップ1009は従来の候補突合わせアルゴリズムを用いて、記憶さ れたオブジェクトとの比較の際に画像フィールド内におけるオブジェクトを識別 する。オブジェクトを突合わせのための候補突合わせ技法は、オブジェクト全体 の重心(質量中心)を計算し、オブジェクトに対するエッジ情報を含む各ブロッ クの重心から角度及び大きさを計算する。図12は識別されるべき画像のエッジ ・ブロックを示す。エッジ・ブロック1203はエッジ情報を含む多くのブロッ クの内の1つである。重心と各エッジ・ブロックとの間の距離及び角度はシグネ チャ・グラフ1205に記録されている。このシグネチャ・グラフは、調整され 得る角度の計算における位相シフトを除いてそれがどのように回転されようが、 オブジェクト1201に対して同一となる。識別されるべき画像のシグネチャ・ グラフは、記憶されたオブジェクトのシグネチャ・グラフと比較され得て、整合 が存在するかを効率的に決定する。使用可能な代替的な公知の突合わせ技法は中 立ネットワーク、固有値、或は相関突合わせ法である。 本発明に係るコード化技法を用いて、オブジェクトはコード化され、圧縮され 、そしてウェーブレット定義域に変換されて、記憶に対して最低可能量のデータ を用いてエッジ情報を保存する。圧縮特徴は、多くのオブジェクトがデータベー ス・アーカイバに記憶されることを可能とし、新画像内のオブジェクトを識別す べく突合わせ可能である。よって、もし過去25年にわたって世界中で販売され た各自動車モデルのコード化された圧縮画像がデータベース内に記憶されたなら ば、それら自動車の画像を走査し且つ記憶するカメラ装置を含むシステムがその カメラによって走査された任意の車両を識別できることになる。正価、ドライバ のタイプ、並びに他の情報に基づく自動車タイプの情報は、それら画像が記憶さ れて処理され得ることになる。同様な用途が高い保全性尺度を要求する製造プラ ントで働く人々の記憶画像のデータベースを含むことができる。顔面の画像がそ のデータベースにない人々は、外部者として迅速に識別されて、会社保全性に対 して警戒させることになる。 オブジェクトの画像がデータベース内の1つと突合わせられた後、突合わせら れた記憶画像に相関して記憶された記述情報が表示され得て、画像フィールド内 のオブジェクト識別の補助を為す。書き込まれた説明は独立して提供されるか、 或は、画像自体上に横たわるテキストとして提供される。もし識別されるべきオ ブジェクトが部分的に隠されたならば、突合わせ技法はデータベース内に記憶さ れた特定のオブジェクトの一部に関連されたエッジ情報のみ適用され、それが突 合わせられる画像の隠されていない部分と対応する。 図13は、図10に記載された形状認識技法を画像1301に適用する一例で ある。画像は図1の技法に従って画像をコード化するプロセスを介して多数の周 波数スケールに細分される。この例においては3つのスケールが存在する。ラベ ル1330,1332,1334は図中の列を識別する補助を為す。スケール1 は、最高解像度を有するボックス1307に対応する。スケール2は、ボックス 1307の解像度よりも低い画像1305に対応する。スケール3は最低解像度 を有し、ボックス1303内に示されている。エッジがチェーン・コード化され ると、エッジを含まないか或は小さなモジュラス値を含まないブロックは、指定 閾値にわたるエッジのみが先に説明されたようにチェーン・コード化されるため に削除される。よって、画像1303はオブジェクト1309へ変換され、画像 1305がオブジェクト1311へ変換され、画像1307がオブジェクト13 13へ変換される。リップシッツ指数αを用いることができて、任意のオブジェ クトのエッジを更に画成してあらゆるノイズを削除する。所望範囲内にα値を有 する結果としてのエッジは、圧縮データ・ファイル1321内に記録されること になる。この圧縮データ・ファイルは図9に記載されたファイルと同一のフォー マットを有することになる。チェーン内の各ブロックのために、(X,Y)座標 ブロック位置は値域及び対応する定義域ブロックに対して記憶されることになる 。ブロックとブロック内の平均勾配角度との間の平均モジュラス差も記憶される ことになる。各オブジェクトは、ファイル1321のオブジェクト1の部分13 23とファイル1321のオブジェクト2の部分1325とに示されるように、 それ自体のチェーン・コード化ブロックを有することになる。各オブジェクトに 対する圧縮データ・ファイルは、突合わせられるべきオブジェクトに対するチェ ーン・コード化データを含むデータベースに対して検査され得る。両画像は比較 に際してそれらの圧縮形態のままである。図12に関して記載された重心突合わ せのパターン突合わせ技法が使用可能である。 また、このコード化及びパターン突合わせ技法は、ビデオ圧縮及びビデオ・パ ターン検出にまで拡張可能である。ビデオ・ストリーム中のオブジェクトの動き は、検出された像におけるエッジの光学的フローに基づいてモデル化可能である 。画像関数の光学的フローは、以下の2つの成分を有するI(x,y,z)によ って表現される強度関数で画成される。 固定時間tで、画像I(x,y,z)に対する式(13)における運動制約を解 く代わりに、画像は2jの率で膨張する平滑化関数θ(x,y)によって平滑さ れ得る。平滑化された画像は有限の差の部分的導関数を見積もる際に計算上のノ イズを低減すると共に以下の式を生み出す。 式(14)は、本技法にスケール2jでのウェーブレット変換からのフローの 正規成分を回復させることを可能とする。ビデオ画像の全ての点(x,y)でこ の正規の成分を計算する代わりに、正規成分は、ウェーブレット・モジュラスが 局部的に最大(閾値を越える)となっている箇所だけで計算される。この技法は 、従来の光学的フロー計算技法にわたっての計算上の複雑性を著しく節約する。 式(14)は本発明において用いられて、閾値を越えるエッジ情報を含む各ブ ロックで平均光学的フローを計算することによってビデオ圧縮及び検出を実行す る。ビデオ圧縮における技法に基づくブロックを用いて2つの長所が生み出され る。第1として、ブロック内にフロー変化を検出でき、値域及び定義域ブロック の双方の位置を予言的に見積もることができる。ビデオを更新すべくこの技法を 用いて、著しく変化が生じているブロックのみがビデオ画像を伝送すべく必要と される帯域幅を著しく低減させることを可能としている。第2として、局在化さ れたウェーブレット変換はブロック内で実行可能であり、よって画像を更新する 局在化されたフローが各新フレーム毎の幾つかブロックのデータ内容を変更する のみで達成可能である。また、この技法におけるウェーブレット方式は、本技法 を可能とするピラミッド再生方式が、帯域幅要件が指定してより高い帯域幅用途 に対する解像度を増大する際、低解像度フレームを伝送させることを可能とする 。更に、特定のオブジェクトは光学的フロー技法に従って複数場面を通じてトラ ッキングされることを可能である。図9に示されるファイル・フォーマットは画 像圧縮、パターン認識、並びに、ビデオ圧縮に適合可能である。ビデオ圧縮の場 合、Vx及びYyの値が各定義域及び値域ブロック用に含まれることになる。ひと たびビデオ・コード化が始動したならば、変化が伝送され得るブロックのみ、よ って、ウェーブレット・コード化とコード化プロセスの光学的フロー部はバック グランド・プロセスとなることができ、よってビデオ・コード化プロセッサに対 する相当な計算上の帯域幅のように消費しない。 図14は、本発明に従った技法のビデオ・コード化部に係わる諸ステップのフ ローチャートを示す。ステップ1401は、図1によって記載された画像コード 化技法によって一連のフレームにおける第1フレームをコード化する。ビデオは 、動きの知覚対象を形成する連続的に投影される一連の画像から形成される。も し画像がグラウンド内でボールを投げる少年であれば、連続的な画像における各 画像は、バックグランドは全く変化しないまま、ボールの移動に伴って該ボール がゆっくりと位置を変化するものである。よってビデオ内の画像のほんの小部分 がフレーム毎に変化し得る。 ステップ1402は、任意のより多くのフレームがコード化されようとしてい るかを検査する。もしより多くのフレームがコード化される必要があれば、プロ セスはステップ1403で続行される。もしそうでなければ、処理されるビデオ ・コード化は終了し本技法は終了する。 ステップ1403は次のフレームを読み取り、ステップ1401でコード化さ れたフレームと今読み取られたフレームとの間の光学的フローを計算する。光学 的フローはフレーム間のオブジェクトにおけるエッジの何等かの動き示すことに なる。このステップは画像全体にわたる光学的フローを検査する。 ステップ1405は、2つのフレーム間で変化した画像情報を有するような、 各値域及び定義域ブロック内の平均光学的フローを計算する。ブロック内の平均 光学的フローは、本技法に、任意の著しい変化がブロック基準で画像上に生じた かを決定させること可能としている。 ステップ1407は、所定レベルを上回る、ステップ1405において計算さ れた平均光学的フローを有する新値域及び定義域ブロックを計算する。もし平均 フローが閾値を下回れば、その情報は視覚的に衝撃を為す程に充分変化していな い。それ故に、画像ファイルはこのときに変化させられる必要性がない。もし光 学的フローが閾値を上回るのであれば、影響を受ける値域及び定義域ブロックは 、その変化を画像内に反映する新値域及び定義域ブロックと置換えられることに な る。もしオブジェクトがトラッキングされるものであれば、全ての新値域及び定 義域ブロックが別個のファイルに記録され、特定オブジェクトの完全な運動を記 憶する。 次いで、ステップ1409は、先行するフレームから変化した(そして、ステ ップ1407で所定閾値を越えた)任意の値域或は定義域ブロックを伝送する。 画像フレームの全ての部分が各フレームで変化しないため、変化した特定値域及 び定義域ブロックのみがビデオ・モニタ或は記憶媒体へ伝送されて、その局在化 された運動を示す。ブロック情報は伝送され、それは最高スケール(最低解像度 )と、伝送キャリヤの有効帯域幅に依存している解像度における増大で始まる。 ステップ1411は、閾値を越えている計算された光学的フローでの値域及び 定義域ブロックの数が、第2所定レベルを上回るかを検査する。もしそれが第2 レベルを上回れば、画像フィールド内に充分な変化が生じており、再度、部分的 な指示を為す代わりに、画像フィールド全体のコード化を保証する。これは、よ り小さな変化でのノイズが合成されないことを確保する。もし閾値が越えられる と、本技法はステップ1401へ戻る。もし変化した光学的ブロックの数が閾値 を下回れば、本技法はステップ1403でより小さなセグメントで次のフレーム を処理すべく続行される。ビデオ・コード化は、ステップ1402で検査される ように処理すべき更なるフレームがなければ終了する。 図15は、図14に記載されたビデオ・コード化技法の簡略化された図式表示 である。ラベル1520,1522,1524はフレーム番号を示す。ビデオの 第1フレーム1501は、目、鼻、髪、並びに不機嫌な口を具備した顔を示す。 第2フレーム1503は、もはや不機嫌ではない口以外は同一の顔を示す。第3 フレーム1505は、笑みを浮かべた口以外は同一の顔を示す。これらの画像は 、図14のビデオ・コード化技法を用いて、圧縮されて異なる箇所へ伝送させる ことが可能である。事実上、変化する形状の口を示すより多くの中間フレームが ある。 画像1507は、最低解像度のスケール(高スケール数)である図1の技法を 用いて圧縮されたフレーム1501における顔の表示を示す。ラベル1517及 び1519は関連された画像が転送された回数を示す。図14に記載された技法 に従えば、低解像度画像全体は、該当する画像における変化が実質的ではないの で、ビデオ・フレーム1501,1503,1505に対して一度のみ伝送され る。画像1509はより低いスケール(中間解像度)での顔画像の表示を示す。 再度、顔における変化が実質的ではないので、画像1509を記述するデータは 一度のみ伝送される。画像1511は最高解像度(最低スケール)での顔画像の 表示である。変化し且つ光学的フローを有する画像1511の部分のみが各フレ ーム毎に伝送されることになる。伝送される画像の部分だけは、顔の内の口をコ ード化する値域及び定義域ブロックに対するデータである。よってフレーム15 03及び1505の場合、最高解像度画像の内の口に対応する定義域及び値域ブ ロックのみが伝送されることになる。画像の内の変化する特徴だけを伝送するこ とは、大きな伝送コストを節約すると共に、多くのフレームから成るビデオを処 理させることを可能とする。 図16は、視覚的トラッキングされる多重オブジェクトの図式的表示である。 オブジェクトをトラッキングする現実の例は、空中における2つの飛行機をトラ ッキングすることである。ビデオ・コード化技法のトラッキング部は、図14の ステップ1407に対応している。第1オブジェクト1601は矢印1602に よって指示される方向へ移動中である。第2オブジェクトは矢印1604に対応 する方向へ移動中である。各オブジェクトが移動すると、オブジェクトの光学的 フローが変化する。画像フィールド内に現われる各オブジェクトの光学的フロー はファイル1605に記憶される。オブジェクト1601の光学的フロー特性は 該オブジェクトの各値域及び定義域ブロックに対してファイル部1607内に記 憶され、オブジェクト1603の光学的フロー特性は該オブジェクトでの各値域 及び定義域ブロックに対してファイル部1609内に記憶される。これらファイ ルのフォーマットは、図9の「フローVx」971及び「フローVy」としてそれ ぞれ名付けられた右側列に示されている。 図17は、図14の諸ステップを用いて、コード化されたビデオ画像をデコー ドする諸ステップのフローチャートである。ステップ1701は、伝送されたか 或は先行して記憶された各フレームに対するコード化データを読み取る。ステッ プ1703は、データが、フレーム全体に対する該フレームの一部のみからの光 学的フロー情報であるかを検査する。これは所定のビット値或は処理されるデー タのサイズの内の何れかから決定され得る。もしデータが画像の一部からのみで あれば、このプロセスはステップ1705で続行される。もしデータがコード化 されたフレーム全体であれば、プロセスはステップ1707で続行される。 ステップ1705は、変化した定義域及び値域ブロックのみを更新すると共に 、この新情報を具備する画像をデコードする。よって、図15の例において、顔 の内の口を包含する定義域及び値域ブロックのみが伝送され、現行表示された画 像内で変化することになる。デコードされたフレームの解像度は、多くの画像ス ケールがどのようにして伝送され処理され得るのかを画成するシステム帯域幅に 依存することなる。 ステップ1707は、フレーム全体が図1に記載された技法を用いてコード化 された際に生ずる。図7に記載された画像全体をデコードする技法はこの例にお いて使用可能である。フレーム全体は、所与のフレームに対する光学的フロー情 報量が選択された閾値を越える際にコード化される(図14のステップ1411 を参照のこと)。ビデオ・デコードは、伝送されてからか或は処理されてから各 コード化毎に続行される。 図18は、本発明が実施され得るシステム1800を示す。システム1800 は3つの部分を含み、ビデオ及び画像コード化部1801、パターン認識部18 21、並びにビデオ・デコード部1831である。ビデオ及び画像部1801は 、好ましくは、カメラ1803、ディジタイザ1805、画像メモリ1807、 並 びに、それぞれのローカル・メモリ1811を有する3つの特殊化されたプロセ ッサ1809,1813,1817を含む。一連の複数命令を動作すると共に3 つのプロセッサ間にデータを分配するマイクロプロセッサも含まれる。これら構 成要素は従来のコネクタ及びデータ・バスによって接続されている。 カメラ1803は、もしビデオ・コード化が要求されたならばビデオカメラで あり得るか、或は、もし単一画像コード化が要求されたならばスチルカメラであ り得る。しかしながら、単一フレーム或は一連の無変化のフレームの何れでも表 示する単一画像をコード化するためには、ビデオカメラでも使用可能である。カ メラはエンコダー1810のハウジング内であっても、コネクタ或は伝送装置に よって接続された遠隔カメラでも可能である。 カメラ1803は、画像のディジタル表示を形成するディジタイザ1805に 接続されている。表示は複数のピクセルから作り上げられ、その数は使用される 特定装置に依存する。ディジタイザ1805は、カメラ1803によって取り込 まれた各フレームに対する画像データを記憶する画像メモリ1807に接続され ている。ビデオ及び画像部1801内のマイクロプロセッサ(不図示)は、共通 コネクタを介してか、或は従来通りのデータバスかの何れかで全構成要素と接続 されている。 ビデオ・コード化部1801は、3つの特別なプロセッサ1809,1813 ,1817を示す。これらプロセッサは、好ましくは、特定のタスク専用であり 、平行するパイプライン処理を利用している。プロセッサ1809は、画像デー タに対するウェーブレット変換実行専用である。プロセッサ1813は、好まし くは、1つのフレームから次のフレームまでの光学的フローの計算専用である。 プロセッサ1817は、好ましくは、コード化技法のフラクタル部における値域 及び定義域ブロックの突合わせ専用である。画像或はビデオ・フレームのコード 化の結果はデータバス1820を介して送られる。データバスは、例えば、PC I、VME、或は異なる構成に適した同様な高帯域幅バスであること可能である 。3 つの特殊なプロセッサが記載されているが、本発明は任意の数のプロセッサに対 して実施可能である。 パターン認識部1821は、圧縮された画像データベースと、突合わせ技法を 実行する別個のマイクロプロセッサとを含む。パターン認識部1821は、ビデ オ・コード化部1801としての同一ケージング内に配置可能である。バス18 20はパターン認識部1821に接続されている。圧縮画像データベース182 3は、本発明に従ってコード化されたそれらの圧縮形態での画像及びオブジェク トの全てを含み、これらが新画像内のオブジェクトを識別すべく使用される。デ ータベース1823は大きく、記憶媒体、例えば磁気テープ、CD-ROM、或 は、大量情報用の何等かの他の記憶媒体等に記憶可能である。プロセッサ182 5は図10に記載された突合わせ技法を実行し、識別されるべき画像に関するリ ップシッツ計算を実行することを含む。 パターン突合わせの結果はネットワーク1830を介してビデオ・デコード部 1831へ送られる。ビデオ・デコード部1831は、ビデオ・コード化部18 01、パターン認識部1801、或はそれら双方の内の何れかのような同一ケー ジング内に配置可能である。ビデオ・デコード部1831は、ビデオ・モニタ1 833と、ビデオ・デコード及び他の機能を実行するための他の必要とされる構 成要素を具備する別個のプロセッサ1835とを含む。モニタ1833はシステ ムのユーザがデコードされたビデオ(或は単一フレームの画像)を見ることを可 能としており、それには画像に関わるパターン認識部からの任意の情報が伴われ る。よって、もしユーザが忙殺されるハイウェイを観察していて、世界中の自動 車に関する全モデルに対する画像データを記憶したならば、自動車画像がカメラ 1803で記録された際にその画像がモニタ1833上に現われ、パターン認識 動作がパターン認識部1821で実行された後にその自動車タイプに関しての書 き込まれた記述が伴われる。プロセッサ1835はデコード動作及び他の必要な プロセスを実行する。 上述したものは本発明の原理の単なる例示である。理解して頂きたいことは、 当業者であれば、ここには明確に示され且つ説明されていないが、本発明原理を 実施し、よってその請求項によって規定されるような本発明の精神及び範囲内で ある数々のシステム及び方法を工夫することができるであろう。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 ボンノウ ロバート ジェイ アメリカ合衆国 ニューヨーク州 10025 ニューヨーク ウエスト ワンハンドレ ッドトゥエルフス ストリート 523 ア パートメント ナンバー 1ビー

Claims (1)

  1. 【特許請求の範囲】 1.ディジタル画像データを処理する方法であって、 前記画像データを、周波数を低減する周波数スケールに空間的に分解する段 階と、 最低周波数スケールを含む前記周波数スケールの各々で、点表示を形成する段 階と、 前記周波数スケールの各々での前記点表示をブロックに分割する段階と、 前記ブロック各々の正規化平均モジュラス及び角度値を計算する段階と、 前記最低周波数スケールを除く前記周波数スケール各々の前記ブロックからの 前記平均モジュラス及び角度値を、次の最低周波数スケールの前記ブロックと突 合わせる段階と、 前記最低周波数スケールでの空間的に消去された点表示を記憶する段階と、 の諸段階を含む方法。 2.前記突合わせ中、突合されている前記周波数スケールの前記ブロックが値域 ブロックであり、前記次のより高いスケールの前記ブロックが定義域ブロックで ある、請求項1に記載の方法。 3.前記空間的に分解する段階が、当該段階を実行するために組合せウェーブレ ット及び勾配変換を用いる、請求項1に記載の方法。 4.前記ウェーブレット変換関数が二次スプライン基準集合に基づいている、請 求項3に記載の方法。 5.各周波数スケールでの前記点表示が、高周波数表示及び低周波数表示を含む 、請求項1に記載の方法。 6.前記突合わせ段階が、前記高周波数表示に対して実行されている、請求項5 に記載の方法。 7.前記空間的に消去された最低周波数スケールでの前記点表示が、低周波数表 示である、請求項5に記載の方法。 8.前記突合わせ段階が、前記平均モジュラス値を分類して突合わせ効率を増大 することを含む、請求項1に記載の方法。 9.前記突合わせ段階が、前記平均角度値を分類して突合わせ効率を増大するこ とを含む、請求項1に記載の方法。 10.前記空間的に分解する段階が前記画像データを圧縮する、請求項1に記載 の方法。 11.ウェーブレット及びブロック・コード化技法を組合せて、ディジタル画像 データを圧縮する方法であって、 前記画像を複数の周波数スケールに空間的に分解する段階と、 前記周波数スケール間の前記画像を表示している定義域及び値域ブロックを、 前記ブロック各々の正規化された平均モジュラス及び角度値を用いて突合わせる 段階と、 前記スケールの各々に対する前記突合わせられた定義域及び値域ブロックを記 述する情報を分類する段階と、 の諸段階を含む方法。 12.前記空間的に分解する段階が、当該段階を実行すべくウェーブレット変換 関数を用いる、請求項11に記載の方法。 13.前記ウェーブレット変換関数が二次スプライン基準集合に基づく、請求項 12に記載の方法。 14.前記周波数スケールの各々が、前記画像データの高周波数成分を含む、請 求項11に記載の方法。 15.前記突合わせ段階が、前記高周波数成分に対して実行される、請求項14 に記載の方法。 16.前記突合わせ段階が、前記平均モジュラス値を分類して突合わせ効率を増 大することを含む、請求項11に記載の方法。 17.前記突合わせ段階が、前記平均角度値を分類して突合わせ効率を増大する ことを含む、請求項11に記載の方法。 18.オリジナル画像を表示する圧縮ディジタル画像データを処理する方法であ り、該画像データが、各々が低周波数及び高周波数の点表示を有する複数の周波 数スケールに空間的に分解されていることから成る、圧縮ディジタル画像データ を処理する方法であって、 a.前記最低周波数スケールでの前記コード化点表示をデコードする段階と、 b.前記周波数スケールの各々での高周波数点表示をデコードする段階と、 c.前記周波数スケールの各々に対する前記デコードされた低及び高周波数表 示を、次により高い周波数スケールでの対応する表示へ変換する段階と、 d.前記変換された低周波数画像及び前記変換された高周波数画像を、次によ り高いスケールでの新低周波数画像を作り出すべく加算する段階と、 e.前記新低周波数画像が前記オリジナル画像に緊密に近似するまで、前記段 階c及びdを繰り返す段階と、 の諸段階を含む方法。 19.前記コード化高周波数表示がチェーン・コード化データを含み、前記デコ ード段階bが合成エッジ手法を含む、請求項18に記載の方法。 20.前記デコード段階aがフラクタル技法で達成される、請求項18に記載の 方法。 21.画像情報を閾値と比較して、前記画像からノイズを除去する段階を更に含 む、請求項18に記載の方法。 22.前記高周波数点表示がチェーン・コード化データを含み、前記デコード段 階bが前記チェーン・コード化データを用いている、請求項18に記載の方法。 23.前記点表示が複数ブロックを含み、前記デコード段階bがデコードに対す る平均モジュラス値を用いている、請求項18に記載の方法。 24.前記点表示が複数ブロックを含み、前記デコード段階bがデコードに対す る平均角度値を用いている、請求項18に記載の方法。 25.オリジナル画像を表示する圧縮ディジタル画像データを処理する方法であ り、該画像データが、各々が低周波数及び高周波数の表示を有する複数の周波数 スケールに空間的に分解されていることから成る、圧縮ディジタル画像データを 処理する方法であって、 前記周波数スケールの各々で前記高周波数表示をチェーン・コード化して、オ ブジェクトを示す段階と、 前記オブジェクトの特徴を前記周波数スケールにわたって突合わせる段階と、 所定条件を満たす前記突合わせられた特徴だけを保存する段階と、 前記保存された特徴を、他の記憶された特徴を用いて識別する段階と、 の諸段階を含む方法。 26.前記突合わせ段階がリップシッツ式を用いて実行される、請求項25に記 載の方法。 27.リップシッツ式が前記突合わせ段階で用いられて、前記コード化画像から ノイズを除去する、請求項25に記載の方法。 28.前記保存段階における前記所定条件がリップシッツ式に基づいている、請 求項25に記載の方法。 29.前記保存段階での前記所定条件が前記画像データに関連されたモジュラス 値に基づいている、請求項25に記載の方法。 30.前記識別段階が、値域ブロック重心突合わせ方式を用いて実行される、請 求項25に記載の方法。 31.一連のフレームから成るオリジナル画像を表示する圧縮ディジタル画像デ ータを処理する方法であり、第1フレームに対する前記画像データが複数の周波 数スケールに空間的に分割されると共に、該スケールの各々での低周波数及び高 周波数表示に分割されていることから成る方法であって、データ・プロセッサに よって実行される諸段階が、 現行の前記フレームと次のフレームとの間の光学的フローを計算する段階と、 値域及び定義域ブロック内で平均光学的フローを計算する段階と、 一定の光学的閾値モジュラス値を上回る新値域及び定義域ブロックを計算する 段階と、 先行するフレームから変化した値域及び定義域ブロックを伝送する段階と、 光学的フロー・ブロックの数が閾値を越えたならば、全フレームをコード化す る段階と、 前記フレームの何れかが処理されるべく残存していれば、前記段階各々を繰り 返す段階と、 を含むことから成る方法。 32.前記値域及び定義域ブロックが前記ブロック各々の平均モジュラス値で関 係させられている、請求項31に記載の方法。 33.前記値域及び定義域ブロックが前記ブロック各々の平均角度値で関係させ られている、請求項31に記載の方法。 34.前記新値域及び定義域ブロックが、前記画像内の少なくとも1つのオブジ ェクトをトラッキングすべく記憶されている、請求項31に記載の方法。 35.前記新値域及び定義域ブロックが後でデコードされるように記憶されてい る、請求項31に記載の方法。 36.前記伝送された新値域及び定義域ブロックを受信する段階と、 前記新値域及び定義域ブロックをデコードして、前記伝送されたブロックの前 記光学的フローが閾値を越えたならば、前記フレーム全体がデコードされる段階 と、 を更に含む、請求項31に記載の方法。 37.ディジタル画像データを処理するシステムであって、 画像を記録する画像レコーダと、 前記記録された画像を前記画像データとして変換するディジタイザと、 前記画像データを低減する周波数の複数の周波数スケールに空間的に分割し、 最低周波数スケールを含む前記周波数スケール各々での点表示を形成することで 該周波数スケール各々のそれら点表示をブロックに分割し、前記ブロック各々の 平均モジュラス及び角度値を計算し、前記最低周波数スケールを除く前記周波数 スケール各々の前記ブロックからの前記平均モジュラス及び角度値を、次の最低 周波数スケールの前記ブロックと突合わせることから成る少なくとも1つの第1 プロセッサと、 前記突合わせられているブロックを記述する情報を記憶する記憶媒体と、 前記画像を表示するモニタと、 を備えるシステム。 38.パターン突合わせに用いられる画像データのデータベースを含む記憶媒体 と、 前記突合わせられているブロックを記述する前記情報を前記データベースと突 合わせる少なくとも1つの第2プロセッサと、 を更に備える、請求項37に記載のシステム。 39.前記第1及び第2プロセッサが同一のプロセッサである、請求項37に記 載のシステム。 40.前記記憶媒体及び前記第2プロセッサを前記第1プロセッサに接続するデ ータバスを更に備える、請求項37に記載のシステム。 41.前記画像データをデコードする別個の第3プロセッサを更に備える、請求 項40に記載のシステム。 42.前記第3プロセッサを前記第1プロセッサに接続するデータバスを更に備 える、請求項41に記載のシステム。 43.前記第3プロセッサを前記第1プロセッサに接続するネットワークを更に 備える、請求項41に記載のシステム。
JP9536337A 1996-04-08 1997-04-03 ディジタル画像情報の多重解像度変換のシステム及び方法 Pending JP2000508488A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US08/629,237 US5870502A (en) 1996-04-08 1996-04-08 System and method for a multiresolution transform of digital image information
US08/629,237 1996-04-08
PCT/US1997/005587 WO1997038533A1 (en) 1996-04-08 1997-04-03 System and method for a multiresolution transform of digital image information

Publications (1)

Publication Number Publication Date
JP2000508488A true JP2000508488A (ja) 2000-07-04

Family

ID=24522153

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9536337A Pending JP2000508488A (ja) 1996-04-08 1997-04-03 ディジタル画像情報の多重解像度変換のシステム及び方法

Country Status (5)

Country Link
US (3) US5870502A (ja)
EP (1) EP0893029A1 (ja)
JP (1) JP2000508488A (ja)
CA (1) CA2250973A1 (ja)
WO (1) WO1997038533A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008118317A (ja) * 2006-11-02 2008-05-22 Casio Comput Co Ltd 投影装置

Families Citing this family (138)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6400996B1 (en) 1999-02-01 2002-06-04 Steven M. Hoffberg Adaptive pattern recognition based control system and method
US10361802B1 (en) 1999-02-01 2019-07-23 Blanding Hovenweep, Llc Adaptive pattern recognition based control system and method
US6850252B1 (en) * 1999-10-05 2005-02-01 Steven M. Hoffberg Intelligent electronic appliance system and method
USRE47908E1 (en) 1991-12-23 2020-03-17 Blanding Hovenweep, Llc Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
USRE46310E1 (en) 1991-12-23 2017-02-14 Blanding Hovenweep, Llc Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US6418424B1 (en) 1991-12-23 2002-07-09 Steven M. Hoffberg Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US5903454A (en) 1991-12-23 1999-05-11 Hoffberg; Linda Irene Human-factored interface corporating adaptive pattern recognition based controller apparatus
USRE48056E1 (en) 1991-12-23 2020-06-16 Blanding Hovenweep, Llc Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US6009188A (en) * 1996-02-16 1999-12-28 Microsoft Corporation Method and system for digital plenoptic imaging
EP0817098B1 (en) * 1996-06-28 2004-08-18 Oki Electric Industry Co., Ltd. Wavelet transform method and apparatus
JPH1023425A (ja) * 1996-07-01 1998-01-23 Sony Corp 画像符号化装置および方法、画像復号化装置および方法、並びに画像記録媒体
US6295380B1 (en) * 1997-02-27 2001-09-25 Matsushita Electric Industrial Co., Ltd. Object data processing apparatus, object data recording apparatus, data storage media, data structure for transmission
JPH10271497A (ja) * 1997-03-24 1998-10-09 Minolta Co Ltd 画像処理装置
EP0868073A1 (en) * 1997-03-28 1998-09-30 Canon Kabushiki Kaisha Method and device for the processing of data notably the compression and decompression of image data
US6633611B2 (en) * 1997-04-24 2003-10-14 Mitsubishi Denki Kabushiki Kaisha Method and apparatus for region-based moving image encoding and decoding
JPH10336647A (ja) * 1997-06-04 1998-12-18 Nikon Corp 画像圧縮装置および画像圧縮処理プログラムを記録したコンピュータ読み取り可能な記録媒体
US6295367B1 (en) * 1997-06-19 2001-09-25 Emtera Corporation System and method for tracking movement of objects in a scene using correspondence graphs
US6263088B1 (en) 1997-06-19 2001-07-17 Ncr Corporation System and method for tracking movement of objects in a scene
US6381370B1 (en) * 1997-07-14 2002-04-30 Oki Electric Industry Co., Ltd. Method and apparatus for image encoding
US6275619B1 (en) * 1997-08-29 2001-08-14 Teralogic, Inc. System and method for performing wavelet and inverse wavelet transformations of digital data using semi-orthogonal wavelets
GB2330679B (en) * 1997-10-21 2002-04-24 911 Emergency Products Inc Warning signal light
US6285992B1 (en) * 1997-11-25 2001-09-04 Stanley C. Kwasny Neural network based methods and systems for analyzing complex data
US6330353B1 (en) * 1997-12-18 2001-12-11 Siemens Corporate Research, Inc. Method of localization refinement of pattern images using optical flow constraints
DE69940918D1 (de) * 1998-02-26 2009-07-09 Sony Corp Verfahren und vorrichtung zur kodierung/dekodierung sowie programmaufzeichnungsträger und datenaufzeichnungsträger
US6421463B1 (en) * 1998-04-01 2002-07-16 Massachusetts Institute Of Technology Trainable system to search for objects in images
US6788802B2 (en) * 1998-05-21 2004-09-07 Sanyo Electric Co., Ltd. Optical flow estimation method and image synthesis method
DE69934939T2 (de) 1998-06-29 2007-10-18 Xerox Corp. Kompression von Grenzen zwischen Bildern
US6661904B1 (en) * 1998-07-15 2003-12-09 Personalogo Method and system for automated electronic conveyance of hidden data
US6804403B1 (en) 1998-07-15 2004-10-12 Digital Accelerator Corporation Region-based scalable image coding
US6347157B2 (en) 1998-07-24 2002-02-12 Picsurf, Inc. System and method for encoding a video sequence using spatial and temporal transforms
US6229926B1 (en) 1998-07-24 2001-05-08 Picsurf, Inc. Memory saving wavelet-like image transform system and method for digital camera and other memory conservative applications
US6490322B2 (en) * 1998-07-28 2002-12-03 Intel Corporation Digital opaque projector for easy creation and capture of presentation material
US6917711B1 (en) 1998-08-10 2005-07-12 Digital Accelerator Corporation Embedded quadtree wavelets in image compression
US6310975B1 (en) * 1998-10-01 2001-10-30 Sharewave, Inc. Method and apparatus for digital data compression
US6788826B1 (en) * 1998-11-10 2004-09-07 Agfa-Gevaert Method for correcting artefacts in a digital image
DE19860038C1 (de) * 1998-12-23 2000-06-29 Siemens Ag Verfahren zur Bewegungskorrektur bei Serien von Bildern eines starren Körpers
US6882746B1 (en) * 1999-02-01 2005-04-19 Thomson Licensing S.A. Normalized bitmap representation of visual object's shape for search/query/filtering applications
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
US6753878B1 (en) 1999-03-08 2004-06-22 Hewlett-Packard Development Company, L.P. Parallel pipelined merge engines
US6516032B1 (en) * 1999-03-08 2003-02-04 Compaq Computer Corporation First-order difference compression for interleaved image data in a high-speed image compositor
US6751354B2 (en) * 1999-03-11 2004-06-15 Fuji Xerox Co., Ltd Methods and apparatuses for video segmentation, classification, and retrieval using image class statistical models
US6389160B1 (en) * 1999-04-09 2002-05-14 Picsurf, Inc. Hybrid wavelet and JPEG system and method for compression of color images
US6775415B1 (en) * 1999-05-25 2004-08-10 George Mason University Fractal image compression using reinforcement learning
US6704452B1 (en) * 1999-05-27 2004-03-09 Fuji Photo Film Co., Ltd. Method, apparatus and recording medium for image decoding
US6633682B1 (en) * 1999-06-21 2003-10-14 New York University Progressive fractal rendering
DE60024097D1 (de) * 1999-07-30 2005-12-22 Indinell S A Verfahren und vorrichtung zur verarbeitung von digitalen bildern und audiodaten
US7468677B2 (en) * 1999-08-04 2008-12-23 911Ep, Inc. End cap warning signal assembly
US6547410B1 (en) * 2000-07-28 2003-04-15 911 Emergency Products, Inc. LED alley/take-down light
KR100827212B1 (ko) * 1999-08-27 2008-05-07 코닌클리케 필립스 일렉트로닉스 엔.브이. 스케일 가능한 코딩 및 디코딩 방법, 코딩 장치 및 디코더, 이를 포함하는 시스템
US7058647B1 (en) 1999-08-31 2006-06-06 Charles E. Hill & Associates Electronic presentation generation system and method
US6803945B1 (en) * 1999-09-21 2004-10-12 Intel Corporation Motion detecting web camera system
CN1433559A (zh) * 1999-12-10 2003-07-30 杜兰德技术有限公司 分形和/或无序技术的应用改进或有关方面
US6898583B1 (en) * 2000-01-24 2005-05-24 Sony Corporation Method and apparatus of creating application-specific, non-uniform wavelet transforms
US6976012B1 (en) * 2000-01-24 2005-12-13 Sony Corporation Method and apparatus of using a neural network to train a neural network
JP4209061B2 (ja) * 2000-02-09 2009-01-14 富士フイルム株式会社 画像処理符号復号化方法および画像処理符号復号化システム、画像処理符号化装置および画像処理復号化装置、並びに記録媒体
EP1136948A1 (en) * 2000-03-21 2001-09-26 European Community Method of multitime filtering coherent-sensor detected images
DE10024374B4 (de) * 2000-05-17 2004-05-06 Micronas Munich Gmbh Verfahren und Vorrichtung zum Messen des in einem Bild enthaltenen Rauschens
JP3406577B2 (ja) * 2000-07-19 2003-05-12 技研トラステム株式会社 物体認識方法
CN1180630C (zh) * 2000-08-08 2004-12-15 皇家菲利浦电子有限公司 基于子波分解的视频编码方法
US7433881B1 (en) 2000-08-31 2008-10-07 Charles E. Hill & Associates, Inc. System and method for handling multi-resolution graphics files
JP4046969B2 (ja) * 2000-11-09 2008-02-13 キヤノン株式会社 画像処理装置、及びその方法、並びにプログラム、記憶媒体
US7439847B2 (en) 2002-08-23 2008-10-21 John C. Pederson Intelligent observation and identification database system
US6772173B1 (en) * 2000-12-02 2004-08-03 Oracle International Corporation System and method for dynamically presenting a list of items
US6697504B2 (en) * 2000-12-15 2004-02-24 Institute For Information Industry Method of multi-level facial image recognition and system using the same
US6801573B2 (en) * 2000-12-21 2004-10-05 The Ohio State University Method for dynamic 3D wavelet transform for video compression
US6785419B1 (en) * 2000-12-22 2004-08-31 Microsoft Corporation System and method to facilitate pattern recognition by deformable matching
EP1368787A1 (en) * 2001-02-28 2003-12-10 PTS Corporation Dynamic chain-based thresholding
US6801672B1 (en) * 2001-06-01 2004-10-05 Bruce A. Thomas Removing noise from a color image using wavelets
US7209557B2 (en) * 2001-10-18 2007-04-24 Lenovo Singapore Pte, Ltd Apparatus and method for computer screen security
US6996286B2 (en) * 2001-10-30 2006-02-07 Analogic Corporation Sweeping spatial filter system and method
KR100403601B1 (ko) * 2001-12-21 2003-10-30 삼성전자주식회사 영상의 윤곽선 보정 장치 및 방법
EP1491038A2 (en) * 2001-12-26 2004-12-29 YEDA RESEARCH AND DEVELOPMENT CO., Ltd. A system and method for increasing space or time resolution in video
US7245769B2 (en) * 2002-02-12 2007-07-17 Visioprime Archival of transformed and compressed data
US7212574B2 (en) * 2002-04-02 2007-05-01 Microsoft Corporation Digital production services architecture
US20030185302A1 (en) * 2002-04-02 2003-10-02 Abrams Thomas Algie Camera and/or camera converter
US20030185301A1 (en) * 2002-04-02 2003-10-02 Abrams Thomas Algie Video appliance
US20040078754A1 (en) * 2002-06-21 2004-04-22 Son Jay H. Online publishing management tool and system
US7298931B2 (en) * 2002-10-14 2007-11-20 Samsung Electronics Co., Ltd. Image retrieval method and apparatus using iterative matching
US6775411B2 (en) * 2002-10-18 2004-08-10 Alan D. Sloan Apparatus and method for image recognition
JP4123356B2 (ja) * 2002-11-13 2008-07-23 富士ゼロックス株式会社 画像処理装置、画像処理プログラム、記憶媒体
US7162100B1 (en) * 2002-12-11 2007-01-09 Itt Manufacturing Enterprises Inc. Methods for image enhancement
US7548656B2 (en) * 2003-01-16 2009-06-16 Konica Minolta Holdings, Inc. Method and apparatus for processing image signals by applying a multi-resolution conversion processing for reducing the image size and applying a dyadic wavelet transform
AT413248B (de) * 2003-04-03 2005-12-15 Siemens Ag Oesterreich Verfahren zum vergleich eines anfragefingerprints mit einem referenzfingerprint
US8638846B1 (en) * 2003-06-23 2014-01-28 At&T Intellectual Property Ii, L.P. Systems and methods for encoding and decoding video streams
US7593580B2 (en) * 2003-07-14 2009-09-22 Texas Instruments Incorporated Video encoding using parallel processors
US7983446B2 (en) * 2003-07-18 2011-07-19 Lockheed Martin Corporation Method and apparatus for automatic object identification
TWI245229B (en) * 2003-09-18 2005-12-11 Ind Tech Res Inst Region based illumination-normalization method and system
US20050105769A1 (en) * 2003-11-19 2005-05-19 Sloan Alan D. Toy having image comprehension
US7382915B2 (en) * 2004-03-16 2008-06-03 Xerox Corporation Color to grayscale conversion method and apparatus
US20080175513A1 (en) * 2005-04-19 2008-07-24 Ming-Jun Lai Image Edge Detection Systems and Methods
CN101194151A (zh) * 2005-06-06 2008-06-04 国立大学法人东京工业大学 图像变换装置及图像变换程序
US7636480B2 (en) * 2005-06-10 2009-12-22 Xerox Corporation Super resolution encoding
JP4438733B2 (ja) * 2005-10-26 2010-03-24 ソニー株式会社 電子機器および電子機器制御方法
US8000539B2 (en) * 2005-12-21 2011-08-16 Ntt Docomo, Inc. Geometrical image representation and compression
US7873212B2 (en) * 2006-01-24 2011-01-18 Nokia Corporation Compression of images for computer graphics
JP4784322B2 (ja) * 2006-01-31 2011-10-05 ソニー株式会社 画像処理装置
JP4892247B2 (ja) * 2006-02-10 2012-03-07 コニカミノルタビジネステクノロジーズ株式会社 画像処理装置、画像形成装置及び画像処理方法
KR20080106246A (ko) * 2006-02-15 2008-12-04 코닌클리케 필립스 일렉트로닉스 엔.브이. 디스플레이된 이미지들에서의 압축 아티팩트들의 감소, 인코딩 파라미터들의 분석
JP4540661B2 (ja) * 2006-02-28 2010-09-08 三洋電機株式会社 物体検出装置
US9418450B2 (en) 2006-08-31 2016-08-16 Ati Technologies Ulc Texture compression techniques
US7974488B2 (en) * 2006-10-05 2011-07-05 Intellectual Ventures Holding 35 Llc Matching pursuits basis selection
US20080084924A1 (en) * 2006-10-05 2008-04-10 Donald Martin Monro Matching pursuits basis selection design
US8457410B2 (en) * 2007-02-14 2013-06-04 Technion Research And Development Foundation Ltd. Over-parameterized variational optical flow method
KR20100016272A (ko) * 2007-04-25 2010-02-12 픽슨 이매징 엘엘씨 Pixon 방법을 사용한 이미지 압축 및 압축 해제
US8542867B2 (en) * 2007-07-31 2013-09-24 Canon Kabushiki Kaisha Image processing for reproducing code image from original information
AU2007214319A1 (en) * 2007-08-30 2009-03-19 Canon Kabushiki Kaisha Improvements for Spatial Wyner Ziv Coding
US8526766B2 (en) * 2007-10-31 2013-09-03 Ctb/Mcgraw-Hill Llc Use of composite bitmapped images in conjunction with display of captured data
US8121435B2 (en) * 2008-03-31 2012-02-21 Konica Minolta Laboratory U.S.A., Inc. Systems and methods for resolution switching
US8155436B2 (en) * 2008-03-31 2012-04-10 Konica Minolta Laboratory U.S.A., Inc. Systems and methods for color data compression
US8041136B2 (en) * 2008-04-21 2011-10-18 Brainscope Company, Inc. System and method for signal processing using fractal dimension analysis
KR100889026B1 (ko) * 2008-07-22 2009-03-17 김정태 이미지를 이용한 검색 시스템
US20100091127A1 (en) * 2008-09-30 2010-04-15 University Of Victoria Innovation And Development Corporation Image reconstruction method for a gradient camera
EP2175416A1 (en) * 2008-10-13 2010-04-14 Sony Corporation Method and system for image deblurring
US8890773B1 (en) 2009-04-01 2014-11-18 Federal Law Enforcement Development Services, Inc. Visible light transceiver glasses
US9076239B2 (en) * 2009-04-30 2015-07-07 Stmicroelectronics S.R.L. Method and systems for thumbnail generation, and corresponding computer program product
US9471268B2 (en) * 2009-05-20 2016-10-18 Aten International Co., Ltd. Multi-channel KVM server system employing multiresolution decomposition
US9344735B2 (en) * 2009-12-21 2016-05-17 Tmm, Inc. Progressive shape based encoding of video content within a swarm environment
US9118922B2 (en) * 2009-12-30 2015-08-25 TMM Inc. Progressive encoding of video content within a swarm environment
US9183653B2 (en) 2010-12-14 2015-11-10 Microsoft Technology Licensing, Llc Extensions for modifying a graphical object to display data
CN102609932A (zh) * 2011-01-21 2012-07-25 鸿富锦精密工业(深圳)有限公司 专利首页摘要附图切割方法及系统
US9286643B2 (en) 2011-03-01 2016-03-15 Applaud, Llc Personalized memory compilation for members of a group and collaborative method to build a memory compilation
US20130031589A1 (en) * 2011-07-27 2013-01-31 Xavier Casanova Multiple resolution scannable video
US9361562B1 (en) * 2011-10-06 2016-06-07 AI Cure Technologies, Inc. Method and apparatus for fractal multilayered medication identification, authentication and adherence monitoring
US9290010B2 (en) * 2011-10-06 2016-03-22 AI Cure Technologies, Inc. Method and apparatus for fractal identification
US8720790B2 (en) 2011-10-06 2014-05-13 AI Cure Technologies, Inc. Method and apparatus for fractal identification
US9935813B2 (en) * 2011-12-20 2018-04-03 Blackberry Limited Virtual window screen rendering using application connectors
US8713414B2 (en) * 2012-01-26 2014-04-29 Telefonaktiebolager L M Ericsson (Publ) Method and apparatus for soft information transfer between constituent processor circuits in a soft-value processing apparatus
US8897586B2 (en) * 2012-06-15 2014-11-25 Comcast Cable Communications, Llc Dynamic generation of a quantization matrix for compression of a digital object
JP2014060543A (ja) * 2012-09-14 2014-04-03 Sony Corp エンコード装置、デコード装置およびスイッチャ装置
US20140185928A1 (en) * 2012-12-28 2014-07-03 Shai Ben NUN Hardware-supported huffman coding of images
US9384402B1 (en) 2014-04-10 2016-07-05 Google Inc. Image and video compression for remote vehicle assistance
US9734595B2 (en) * 2014-09-24 2017-08-15 University of Maribor Method and apparatus for near-lossless compression and decompression of 3D meshes and point clouds
US9661321B2 (en) 2014-10-15 2017-05-23 Nucleushealth, Llc Remote viewing of large image files
WO2016139515A1 (en) * 2015-03-02 2016-09-09 B-K Medical Aps Non-invasive estimation of intravascular pressure changes using vector velocity ultrasound (us)
US9699461B2 (en) * 2015-08-14 2017-07-04 Blackberry Limited Scaling in perceptual image and video coding
US11308133B2 (en) * 2018-09-28 2022-04-19 International Business Machines Corporation Entity matching using visual information
US10867201B2 (en) 2019-01-15 2020-12-15 Waymo Llc Detecting sensor occlusion with compressed image data

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5065447A (en) * 1989-07-05 1991-11-12 Iterated Systems, Inc. Method and apparatus for processing digital data
US5144688A (en) * 1990-03-23 1992-09-01 Board Of Regents, The University Of Texas System Method and apparatus for visual pattern image coding
US5454051A (en) * 1991-08-05 1995-09-26 Eastman Kodak Company Method of reducing block artifacts created by block transform compression algorithms
DE69312132T2 (de) * 1992-03-17 1998-01-15 Sony Corp Bildkompressionsgerät
EP0562672A3 (en) * 1992-03-22 1994-07-13 Igp Res & Dev Ltd Process of picture representation by data compression
US5416856A (en) * 1992-03-30 1995-05-16 The United States Of America As Represented By The Secretary Of The Navy Method of encoding a digital image using iterated image transformations to form an eventually contractive map
IL104636A (en) * 1993-02-07 1997-06-10 Oli V R Corp Ltd Apparatus and method for encoding and decoding digital signals
GB2281465B (en) * 1993-08-27 1997-06-04 Sony Uk Ltd Image data compression
US5577134A (en) * 1994-01-07 1996-11-19 Panasonic Technologies, Inc. Method and apparatus for encoding a segmented image without loss of information
EP0739570A1 (en) * 1994-01-14 1996-10-30 Houston Advanced Research Center Boundary-spline-wavelet compression for video images
US5604824A (en) * 1994-09-22 1997-02-18 Houston Advanced Research Center Method and apparatus for compression and decompression of documents and the like using splines and spline-wavelets

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008118317A (ja) * 2006-11-02 2008-05-22 Casio Comput Co Ltd 投影装置

Also Published As

Publication number Publication date
EP0893029A1 (en) 1999-01-27
WO1997038533A1 (en) 1997-10-16
US5946417A (en) 1999-08-31
US6002794A (en) 1999-12-14
US5870502A (en) 1999-02-09
CA2250973A1 (en) 1997-10-16

Similar Documents

Publication Publication Date Title
JP2000508488A (ja) ディジタル画像情報の多重解像度変換のシステム及び方法
USRE37668E1 (en) Image encoding/decoding device
JP4732660B2 (ja) ビジュアルアテンションシステム
US10282866B2 (en) Texture replacement in video sequences and images
Shen et al. Direct feature extraction from compressed images
JP3373008B2 (ja) 画像像域分離装置
EP1329847A1 (en) Header-based processing of images compressed using multi-scale transforms
JP2010526455A (ja) 画像データを処理するコンピュータ方法および装置
JP2001160062A (ja) 画像データ検索装置
Wang et al. Sparse tensor-based point cloud attribute compression
JPH09502586A (ja) データ分析方法及び装置
US8538175B1 (en) System and method for representing and coding still and moving images
WO1999010838A1 (en) System and method for processing digital image information
Schmalz Object-based image compression
JPH03133290A (ja) 画像符号化装置
Patel et al. Study of noise removal techniques for digital images
McLean Codebook edge detection
Schmalz On the convergence of image compression and object recognition
Bell et al. Progressive technique for human face image archiving and retrieval
Armano et al. DIBE, Univ. of Genoa, Via Opera pia 11A, 1-16145 Genoa, Italy
Battiato et al. Multi-resolution clustering of texture images
Kim et al. Segmentation using a competitive learning neural network for image coding
Zhang et al. Compression Coding for IAP Data
JPH06334868A (ja) 画像符号化および復号化装置
Vijayaraghavan LECTURE NOTES BE (IVYEAR)