JPH10269355A - 多重解像度フィルタ処理方法およびその方法を利用することのできる画像マッチング方法 - Google Patents
多重解像度フィルタ処理方法およびその方法を利用することのできる画像マッチング方法Info
- Publication number
- JPH10269355A JPH10269355A JP9095318A JP9531897A JPH10269355A JP H10269355 A JPH10269355 A JP H10269355A JP 9095318 A JP9095318 A JP 9095318A JP 9531897 A JP9531897 A JP 9531897A JP H10269355 A JPH10269355 A JP H10269355A
- Authority
- JP
- Japan
- Prior art keywords
- image
- evaluation
- mapping
- point
- resolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/754—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries involving a deformation of the sample pattern or of the reference pattern; Elastic matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/24—Character recognition characterised by the processing or recognition method
- G06V30/248—Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
- G06V30/2504—Coarse or fine approaches, e.g. resolution of ambiguities or multiscale approaches
Abstract
得する方法がほとんどなかった。 【解決手段】 特異点フィルタとよばれる多重解像度フ
ィルタを導入する。このフィルタは縦横2×2の4画素
ごとに輝度の極大点、極小点、二種類の鞍点を抽出し、
解像度の低い新たな画像を特異点の種類ごとに生成す
る。まずこの多重解像度フィルタで始点画像および終点
画像を階層化する(S1)。つぎに、始点階層画像と終
点階層画像の間でマッチングをとる(S2)。
Description
ルタ処理方法および画像マッチング方法に関する。この
発明は特に、多重解像度フィルタによって新たな画像を
生成する方法、およびその方法を利用することの可能な
画像マッチング方法に関する。
まり画像領域や画素どうしの対応付けは、コンピュータ
ビジョンやコンピュータグラフィックスにおける最も難
しくかつ重要なテーマのひとつである。例えば、あるオ
ブジェクトに関して異なる視点からの画像間でマッチン
グがとれれば、他の視点からの画像を生成することがで
きる。右目画像と左目画像のマッチングが計算できれ
ば、立体画像を用いた写真測量も可能である。顔の画像
のモデルと他の顔の画像のマッチングがとれたとき、
目、鼻、口といった特徴的な顔の部分を抽出することが
できる。例えば人の顔と猫の顔の画像間でマッチングが
正確にとられたとき、それらの中割画像を自動的に生成
することでモーフィングを完全自動化することができ
る。
点は人がいちいち指定しなければならず、多大な作業工
数を要した。この問題を解消するために数多くの対応点
自動検出方法が提案されている。例えば、エピポーラ直
線を用いることによって対応点の候補の数を減らす考え
がある。しかし、その場合でも処理はきわめて複雑であ
る。複雑さを低減するために、左目画像の各点の座標は
通常右目画像でもほぼ同じ位置にあると想定される。し
かし、こうした制約を設けると、大域的特徴及び局所的
特徴を同時に満たすマッチングをとることは非常に困難
になる。
構成するために一連の断面画像が用いられる。この場
合、従来一般に、上方の断面画像における画素が下方の
断面画像の同一箇所にある画素と対応すると仮定され、
これらの画素のペアが内挿計算に用いられる。このよう
にきわめて単純な方法を用いるため、連続する断面間の
距離が遠く、オブジェクトの断面形状が大きく変化する
場合、ボリュームレンダリングで構築されたオブジェク
トは不明瞭になりがちである。
するマッチングアルゴリズムも多い。しかしこの場合、
結果的に得られる対応点の数が少ないため、マッチング
のとれた対応点間のギャップを埋めるべく、ディスパリ
ティの値を内挿計算しなければならない。一般にあらゆ
るエッジ検出器は、それらが用いる局所的なウィンドウ
の中で画素の輝度が変化したとき、これが本当にエッジ
の存在を示唆するかどうかを判断することが難しい。エ
ッジ検出器は、本来的にすべてハイパスフィルタであ
り、エッジと同時にノイズも拾ってしまう。
ーが知られている。二枚の画像が与えられたとき、オプ
ティカルフローでは画像内のオブジェクト(剛体)の動
きを検出する。その際、オブジェクトの各画素の輝度は
変化しないと仮定する。オプティカルフローでは例えば
(u,v)のベクトル場の滑らかさといった、いくつか
の付加的な条件とともに、各画素の動きベクトル(u,
v)を計算する。しかし、オプティカルフローでは画像
間の大域的な対応関係を検出することはできない。画素
の輝度の局所的な変化に注目するのみであり、画像の変
位が大きい場合、システムの誤差は顕著になる。
重解像度フィルタも数多く提案されてきた。それらは線
形フィルタと非線形フィルタに分類される。前者の例と
してウェーブレットがあるが、線形フィルタは一般に、
画像マッチングにはさして有用ではない。なぜなら、極
値をとる画素の輝度に関する情報がそれらの位置情報と
ともに次第に不鮮明になるためである。図1(a)と図
1(b)はそれぞれ図19(a)と図19(b)に示す
顔の画像に対して平均化フィルタを適用した結果を示し
ている。同図のごとく、極値をとる画素の輝度が平均化
によって次第に薄れるとともに、位置も平均化の影響で
シフトしていく。その結果、目(輝度の極小点)の輝度
や位置の情報は、このような粗い解像度レベルで曖昧に
なり、この解像度では正しいマッチングを計算すること
ができない。したがって、粗い解像度レベルを設けるの
が大域的なマッチングのためでありながら、ここで得ら
れたマッチングは画像の本当の特徴(目、つまり極小
点)に正確に対応しない。より精細な解像度レベルで目
が鮮明に現れたとしても、大域的なマッチングをとる際
に混入した誤差は、もはや取り返しがつかない。入力画
像にスムージング処理を加えることにより、テクスチャ
領域のステレオ情報が落ちてしまうこともすでに指摘さ
れている。
た非線形フィルタとして一次元の「ふるい(sieve)」
演算子がある。この演算子は、所定の大きさの一次元ウ
ィンドウ内の極小値(または極大値)を選択することに
より、縮尺と空間の因果関係を保存しながら画像にスム
ージング処理を加える。その結果得られる画像は元の画
像と同じ大きさであるが、小さな波の成分が取り除かれ
ているため、より単純になる。画像の情報を落とすとい
う点で、この演算子は広い意味での「多重解像度フィル
タ」に分類することはできるが、実際にはウェーブレッ
トのように画像の解像度を変えながら画像を階層化する
わけではなく(つまり狭い意味での多重解像度フィルタ
ではなく)、画像間の対応の検出には利用できない。
の課題が認められる。
な処理で把握する画像処理方法が乏しかった。特に、特
徴のある点に関する情報、例えば画素値や位置を維持し
ながら特徴を抽出できる画像処理方法に関する有効な提
案が少なかった。 2.画像の特徴をもとに対応点を自動検出する場合、一
般に処理が複雑であるか、ノイズ耐性が低いなどの欠点
があった。また、処理に際していろいろな制約を設ける
必要があり、大域的特徴及び局所的特徴を同時に満たす
マッチングをとることが困難だった。 3.画像の大域的な構造または特徴を認識するために多
重解像度フィルタを導入しても、そのフィルタが線形フ
ィルタの場合、画素の輝度情報と位置情報が曖昧になっ
た。その結果、対応点の把握が不正確になりやすかっ
た。非線形フィルタである一次元ふるい演算子は画像を
階層化しないため、画像間の対応点の検出には利用でき
なかった。 4.これらの結果、対応点を正しく把握しようとすれ
ば、結局人手による指定に頼るほか有効な手だてがなか
った。
なされたものであり、画像処理の分野において、画像の
特徴の的確な把握を可能にする技術を提供するものであ
る。
のある態様は、新たな多重解像度の画像フィルタを提案
する。この多重解像度フィルタは画像から特異点を抽出
する。したがって、特異点フィルタともよばれる。特異
点とは画像上特徴をもつ点をいう。例として、ある領域
において画素値(画素値とは、色番号、輝度値など画像
または画素に関する任意の数値を指すものする)が最大
になる極大点、最小になる極小点、ある方向については
最大だが別の方向については最小になるような鞍点があ
る。特異点は位相幾何学上の概念であってもよい。ただ
し、その他どのような特徴を有してもよい。いかなる性
質の点を特異点と考えるかは、本発明にとって本質問題
ではない。
た画像処理が行われる。まず検出工程において、第一の
画像に対し、二次元的な探索を行って特異点が検出され
る。つぎに生成工程において、検出された特異点を抽出
して第一の画像よりも解像度の低い第二の画像が生成さ
れる。第二の画像には第一の画像のもつ特異点が引き継
がれる。第二の画像は第一の画像よりも解像度が低いた
め、画像の大域的な特徴の把握に好適である。
た画像マッチング方法に関する。この態様では、始点画
像と終点画像間のマッチングがとられる。始点画像およ
び終点画像とは、ふたつの画像の区別のために便宜的に
与えた名称であり、本質的な違いはない。
特異点フィルタを施して解像度の異なる一連の始点階層
画像が生成される。第二工程では、終点画像に特異点フ
ィルタを施して解像度の異なる一連の終点階層画像が生
成される。始点階層画像、終点階層画像とは、それぞれ
始点画像、終点画像を階層化して得られる画像群をい
い、それぞれ最低2枚の画像からなる。つぎに第三工程
において、始点階層画像と終点階層画像のマッチングが
解像度レベルの階層の中で計算される。この態様によれ
ば、多重解像度フィルタによって特異点に関連する画像
の特徴が抽出され、および/または明確化されるため、
マッチングが容易になる。マッチングのための拘束条件
は特に必要としない。
画像のマッチングに関する。この態様では、予め複数の
マッチング評価項目のそれぞれに関して評価式を設け、
それらの評価式を統合して総合評価式を定義し、その総
合評価式の極値付近に注目して最適マッチングを探索す
る。総合評価式は、評価式の少なくもひとつに係数パラ
メータを掛けたうえでそれらの評価式の総和として定義
してもよく、その場合、総合評価式またはいずれかの評
価式がほぼ極値をとる状態を検出して前記パラメータを
決定してもよい。「極値付近」または「ほぼ極値をと
る」としたのは、多少誤差を含んでいてもよいためであ
る。多少の誤差は本発明にはさして問題とならない。
め、極値の挙動、つまり極値の変化の様子をもとに、最
適と考えられるパラメータを決定する余地が生じる。こ
の態様はその事実を利用している。この態様によれば、
元来調整の困難なパラメータの決定を自動化する途が拓
かれる。
技術の詳述し、[2]で処理手順を具体的に説明する。
さらに[3]で実験の結果を報告する。
導入し、画像間のマッチングを正確に計算する。オブジ
ェクトに関する予備知識は一切不要である。画像間のマ
ッチングの計算は、解像度の階層を進む間、各解像度に
おいて計算される。その際、粗いレベルから精細なレベ
ルへと順に解像度の階層を辿っていく。計算に必要なパ
ラメータは、人間の視覚システムに似た動的計算によっ
て完全に自動設定される。画像間の対応点を人手で特定
する必要はない。
ーフィング、物体認識、立体写真測量、ボリュームレン
ダリング、少ないフレームからの滑らかな動画像の生成
などに応用できる。モーフィングに用いる場合、与えら
れた画像を自動的に変形することができる。ボリューム
レンダリングに用いる場合、断面間の中間的な画像を正
確に再構築することができる。断面間の距離が遠く、断
面の形状が大きく変化する場合でも同様である。
解像度を落としながら、しかも画像に含まれる各特異点
の輝度及び位置を保存することができる。ここで画像の
幅をN、高さをMとする。以下簡単のため、N=M=2
n(nは自然数)と仮定する。また、区間[0,N]⊂
RをIと記述する。(i,j)における画像の画素をp
(i,j)と記述する(i,j∈I)。
化された画像群は多重解像度フィルタで生成される。多
重解像度フィルタは、もとの画像に対して二次元的な探
索を行って特異点を検出し、検出された特異点を抽出し
てもとの画像よりも解像度の低い別の画像を生成する。
ここで第mレベルにおける各画像のサイズは2m×2
m(0≦m≦n)とする。特異点フィルタは次の4種類
の新たな階層画像をnから下がる方向で再帰的に構築す
る。
ジ)と呼ぶ。min x≦t≦x+1、max x≦t≦x+1 を
それぞれα及びβと記述すると、副画像はそれぞれ以下
のように記述できる。
考えられる。副画像はそれぞれ特異点に対応している。
これらの式から明らかなように、特異点フィルタはもと
の画像について2×2画素で構成されるブロックごとに
特異点を検出する。その際、各ブロックのふたつの方
向、つまり縦と横について、最大画素値または最小画素
値をもつ点を探索する。画素値として、実施の形態では
輝度を採用するが、画像に関するいろいろな数値を採用
することができる。ふたつの方向の両方について最大画
素値となる画素は極大点、ふたつの方向の両方について
最小画素値となる画素は極小点、ふたつの方向の一方に
ついて最大画素値となるとともに、他方について最小画
素値となる画素は鞍点として検出される。
出された特異点の画像(ここでは1画素)でそのブロッ
クの画像(ここでは4画素)を代表させることにより、
画像の解像度を落とす。特異点の理論的な観点からすれ
ば、α(x)α(y)は極小点を保存し、β(x)β
(y)は極大点を保存し、α(x)β(y)及びβ
(x)α(y)は鞍点を保存する。
ース)画像と終点(デスティネーション)画像に対して
別々に特異点フィルタ処理を施し、それぞれ一連の画像
群、すなわち始点階層画像と終点階層画像を生成してお
く。始点階層画像と終点階層画像は、特異点の種類に対
応してそれぞれ4種類ずつ生成される。
層画像と終点階層画像のマッチングがとれらていく。ま
ずp(m,0)を用いて極小点のマッチングがとられる。次
に、その結果に基づき、p(m,1)を用いて鞍点のマッチ
ングがとられ、p(m,2)を用いて他の鞍点のマッチング
がとられる。そして最後にp(m,3)を用いて極大点のマ
ッチングがとられる。
(a)と図1(b)の副画像p(5,0)を示している。同
様に、図1(e)と図1(f)はp(5,1)、図1(g)
と図1(h)はp(5,2)、図1(i)と図1(j)はp
(5,3)をそれぞれ示している。これらの図からわかると
おり、副画像によれば画像の特徴部分のマッチングが容
易になる。まずp(5,0)によって目が明確になる。目は
顔の中で輝度の極小点だからである。p(5,1)によれば
口が明確になる。口は横方向で輝度が低いためである。
p(5,2)によれば首の両側の縦線が明確になる。最後
に、p(5,3)によって耳や頬の最も明るい点が明確にな
る。これらは輝度の極大点だからである。
できるため、例えばカメラで撮影された画像の特徴と、
予め記録しておいたいくつかのオブジェクトの特徴を比
較することにより、カメラに映った被写体を識別するこ
とができる。
同じく終点画像の位置(k,l)の画素をq(n) (k,l)で
記述する。i,j,k,l∈Iとする。画像間の写像の
エネルギー(後述)を定義する。このエネルギーは、始
点画像の画素の輝度と終点画像の対応する画素の輝度の
差、及び写像の滑らかさによって決まる。最初に最小の
エネルギーを持つp(m,0)とq(m,0)間の写像f(m,0):
p(m,0)→q(m,0)が計算される。f(m,0)に基づき、最
小エネルギーを持つp(m,1)、q(m, 1)間の写像f(m,1)
が計算される。この手続は、p(m,3)とq(m,3)の間の写
像f( m,3)の計算が終了するまで続く。各写像f
(m,i)(i=0,1,2,…)を副写像と呼ぶことにす
る。f(m,i)の計算の都合のために、iの順序は次式の
ように並べ替えることができる。並べ替えが必要な理由
は後述する。
場合、その写像は両画像間で全単射条件を満たすべきで
ある。両画像に概念上の優劣はなく、互いの画素が全射
かつ単射で接続されるべきだからである。しかしながら
通常の場合とは異なり、ここで構築すべき写像は全単射
のディジタル版である。実施の形態では、画素は格子点
によって特定される。
副画像)から終点副画像(終点画像について設けられた
副画像)への写像は、f(m,s):I/2n-m×I/2n-m
→I/2n-m×I/2n-m(s=0,1,…)によって表
される。ここで、f(m,s)(i,j)=(k,l)は、
始点画像のp(m,s) (i,j)が終点画像のq(m,s) (k,l)に写
像されることを意味する。簡単のために、f(i,j)
=(k,l)が成り立つとき画素q(k,l)をqf(i,j)と
記述する。
データが離散的な場合、全単射の定義は重要である。こ
こでは以下のように定義する(i,i’,j,j’,
k,lは全て整数とする)。まず始めに、始点画像の平
面においてRによって表記される各正方形領域、
1)。ここでRの各辺(エッジ)の方向を以下のように
定める。
形に写像されなければならない。f(m,s)(R)によっ
て示される四辺形、
に交差しない。 2.f(m,s)(R)のエッジの方向はRのそれらに等し
い(図2の場合、時計回り)。 3.緩和条件として収縮写像(リトラクション:retrac
tions)を許す。
射条件を完全に満たす写像は単位写像しかないためであ
る。ここではf(m,s)(R)のひとつのエッジの長さが
0、すなわちf(m,s)(R)は三角形になってもよい。
しかし、面積が0となるような図形、すなわち1点また
は1本の線分になってはならない。図2(R)がもとの
四辺形の場合、図2(A)と図2(D)は全単射条件を
満たすが、図2(B)、図2(C)、図2(E)は満た
さない。
が全射であることを容易に保証すべく、さらに以下の条
件を課してもよい。つまり始点画像の境界上の各画素
は、終点画像において同じ位置を占める画素に写影され
るというものである。すなわち、f(i,j)=(i,
j)(ただしi=0,i=2m−1,j=0,j=2m−
1の4本の線上)である。この条件を以下「付加条件」
とも呼ぶ。
る写像を探すことが目的である。エネルギーは主に、始
点画像の画素の輝度とそれに対応する終点画像の画素の
輝度の差で決まる。すなわち、写像f(m,s)の点(i,
j)におけるエネルギーC(m,s) (i,j)は次式によって定
まる。
はそれぞれ画素p(m,s) (i,j)及びq(m,s) f(i,j)の輝度
である。fのトータルのエネルギーC(m,s)は、マッチ
ングを評価するひとつの評価式であり、つぎに示すC
(m,s) (i,j)の合計で定義できる。
関するコスト 滑らかな写像を得るために、写像に関する別のエネルギ
ーDfを導入する。このエネルギーは画素の輝度とは関
係なく、p(m,s) (i,j)およびq(m,s) f(i,j)の位置によ
って決まる(i=0,…,2m−1,j=0,…,2m−
1)。点(i,j)における写像f(m,s)のエネルギー
D(m,s) (i,j)は次式で定義される。
た、
j’)は0と決める。E0は(i,j)及びf(i,
j)の距離で決まる。E0は画素があまりにも離れた画
素へ写影されることを防ぐ。ただしE0は、後に別のエ
ネルギー関数で置き換える。E1は写像の滑らかさを保
証する。E1は、p(i,j)の変位とその隣接点の変位の間
の隔たりを表す。以上の考察をもとに、マッチングを評
価する別の評価式であるエネルギーDfは次式で定ま
る。
る総合評価式はλC(m ,s) f+D(m,s) fで定義される。こ
こで係数パラメータλは0以上の実数である。目的は総
合評価式が極値をとる状態を検出すること、すなわち次
式で示す最小エネルギーを与える写像を見いだすことで
ある。
注意すべきである(すなわち、全てのi=0,…,2m
−1及びj=0,…,2m−1に対してf(m,s)(i,
j)=(i,j)となる)。後述のごとく、本実施の形
態では最初にλ=0及びη=0の場合を評価するため、
写像を単位写像から徐々に変形していくことができる。
仮に総合評価式のλの位置を変えてC(m,s) f+λD
(m,s) fと定義したとすれば、λ=0及びη=0の場合に
総合評価式がC(m,s) fだけになり、本来何等関連のない
画素どうしが単に輝度が近いというだけで対応づけら
れ、写像が無意味なものになる。そうした無意味な写像
をもとに写像を変形していってもまったく意味をなさな
い。このため、単位写像が評価の開始時点で最良の写像
として選択されるよう係数パラメータの与えかたが配慮
されている。
様、画素の輝度の差と滑らかさを考慮する。しかし、オ
プティカルフローは画像の変換に用いることはできな
い。オブジェクトの局所的な動きしか考慮しないためで
ある。実施の形態に係る特異点フィルタを用いることに
よって大域的な対応関係を検出することができる。
像の決定 最小エネルギーを与え、全単射条件を満足する写像f
minを多重解像度の階層を用いて求める。各解像度レベ
ルにおいて始点副画像及び終点副画像間の写像を計算す
る。解像度の階層の最上位(最も粗いレベル)からスタ
ートし、各解像度レベルの写像を、他のレベルの写像を
考慮に入れながら決定する。各レベルにおける写像の候
補の数は、より高い、つまりより粗いレベルの写像を用
いることによって制限される。より具体的には、あるレ
ベルにおける写像の決定に際し、それよりひとつ粗いレ
ベルにおいて求められた写像が一種の拘束条件として課
される。
をそれぞれp(m,s) (i,j)、q(m,s) (i,j)のparent
と呼ぶことにする。[x]はxを越えない最大整数であ
る。またp(m,s) (i,j)、q(m,s) (i,j)をそれぞれp
(m-1,s) (i',j')、q(m -1,s) (i',j')のchildと呼
ぶ。関数parent(i,j)は次式で定義される。
ネルギー計算を行って最小になったものを見つけること
で決定される。f(m,s)(i,j)=(k,l)の値は
f(m-1,s)(m=1,2,…,n)を用いることによっ
て、以下のように決定される。まず、q(m,s) (k,l)は次
の四辺形の内部になければならないという条件を課し、
全単射条件を満たす写像のうち現実性の高いものを絞り
込む。
相続(inherited)四辺形と呼ぶことにする。相続四辺
形の内部において、エネルギーを最小にする画素を求め
る。
いて、始点画像のA,B,C,Dの画素は、第m−1レ
ベルにおいてそれぞれ終点画像のA’,B’,C’,
D’へ写影される。画素p(m,s) (i,j)は、相続四辺形
A’B’C’D’の内部に存在する画素q(m,s)
f(m)(i,j)へ写影されなければならない。以上の配慮に
より、第m−1レベルの写像から第mレベルの写像への
橋渡しがなされる。
ルにおける副写像f(m,0)を計算するために、次式に置
き換える。
る。
像が得られる。式20により、異なる特異点に対応する
副写像が、副写像どうしの類似度が高くなるように同一
レベル内で関連づけられる。式19は、f(m,s)(i,
j)と、第m−1レベルの画素の一部と考えた場合の
(i,j)が射影されるべき点の位置との距離を示して
いる。
に全単射条件を満たす画素が存在しない場合は以下の措
置をとる。まず、A’B’C’D’の境界線からの距離
がL(始めはL=1)である画素を調べる。それらのう
ち、エネルギーが最小になるものが全単射条件を満たせ
ば、これをf(m,s)(i,j)の値として選択する。そ
のような点が発見されるか、またはLがその上限のL
(m)maxに到達するまで、Lを大きくしていく。L(m)
maxは各レベルmに対して固定である。そのような点
が全く発見されない場合、全単射の第3の条件を一時的
に無視して変換先の四辺形の面積がゼロになるような写
像も認め、f(m,s)(i,j)を決定する。それでも条
件を満たす点が見つからない場合、つぎに全単射の第1
及び第2条件を外す。
の細部に影響されることを回避しつつ、画像間の大域的
な対応関係を決定するために必須である。多重解像度に
よる近似法を用いなければ、距離の遠い画素間の対応関
係を見いだすことは不可能である。その場合、画像のサ
イズはきわめて小さなものに限定しなければならず、変
化の小さな画像しか扱うことができない。さらに、通常
写像に滑らかさを要求するため、そうした画素間の対応
関係を見つけにくくしている。距離のある画素から画素
への写像のエネルギーは高いためである。多重解像度を
用いた近似法によれば、そうした画素間の適切な対応関
係を見いだすことができる。それらの距離は、解像度の
階層の上位レベル(粗いレベル)において小さいためで
ある。
タ調整の困難さがある。大抵の場合、パラメータの調整
は人手作業によって行われ、最適な値を選択することは
きわめて難しい。実施の形態に係る方法によれば、最適
なパラメータ値を完全に自動決定することができる。
メータ、λ及びηを含む。端的にいえば、λは画素の輝
度の差の重みであり、ηは写像の剛性を示している。こ
れらのパラメータの値は初期値が0であり、まずη=0
に固定してλを0から徐々に増加させる。λの値を大き
くしながら、しかも総合評価式(式14)の値を最小に
する場合、各副写像に関するC(m,s) fの値は一般に小さ
くなっていく。このことは基本的にふたつの画像がより
マッチしなければならないことを意味する。しかし、λ
が最適値を超えると以下の現象が発生する。
が、単に輝度が近いというだけで誤って対応づけられ
る。 2.その結果、画素どうしの対応関係がおかしくなり、
写像がくずれはじめる。
急激に増加しようとする。 4.その結果、式14の値が急激に増加しようとするた
め、D(m,s) fの急激な増加を抑制するようf(m,s)が変
化し、その結果C(m,s) fが増加する。したがって、λを
増加させながら式14が最小値をとるという状態を維持
しつつC(m,s) fが減少から増加に転じる閾値を検出し、
そのλをη=0における最適値とする。つぎにηを少し
づつ増やしてC(m,s) fの挙動を検査し、後述の方法でη
を自動決定する。そのηに対応してλも決まる。
構の動作に似ている。人間の視覚システムでは、一方の
目を動かしながら左右両目の画像のマッチングがとられ
る。オブジェクトがはっきりと認識できるとき、その目
が固定される。
わる度に副写像が評価される。式14のごとく、総エネ
ルギーはλC(m,s) f+D(m,s) fによって定義される。式
9のD(m,s) fは滑らかさを表すもので、理論的には単位
写像の場合に最小になり、写像が歪むほどE0もE1も増
加していく。E1は整数であるから、D( m,s) fの最小刻
み幅は1である。このため、現在のλC(m,s) (i,j)の変
化(減少量)が1以上でなければ、写像を変化させるこ
とによって総エネルギーを減らすことはできない。なぜ
なら、写像の変化に伴ってD(m,s) fは1以上増加するた
め、λC(m,s) (i,j)が1以上減少しない限り総エネルギ
ーは減らないためである。
場合にC(m,s) (i,j)が減少することを示す。C(m,s)
(i,j)のヒストグラムをh(l)と記述する。h(l)
はエネルギーC(m,s) (i,j)がl2である画素の数であ
る。λl2≧1が成り立つために、例えばl2=1/λの
場合を考える。λがλ1からλ2まで微小量変化すると
き、
では仮に、これらの画素のエネルギーがすべてゼロにな
ると近似している。この式はC(m,s) fの値が、
減少する。しかし、λが最適値を越えようとするとき、
上述の現象、つまりC(m,s) fの増加が発生する。この現
象を検出することにより、λの最適値を決定する。
き、
て、全単射条件を破る画素の数を検査してもよい。ここ
で各画素の写像を決定する際、全単射条件を破る確率を
p0と仮定する。この場合、
の率で増加する。
例えば、
急速に増加する。この現象を検出し、B0λ3/2+k/2/2
mの値が異常値B0thresを越えるかどうかを検査し、λ
の最適値を決定することができる。同様に、B1λ
3/2+k/2/2mの値が異常値B1thresを越えるかどうかを
検査することにより、全単射の第3の条件を破る画素の
増加率B1を確認する。ファクター2mを導入する理由は
後述する。このシステムはこれら2つの閾値に敏感では
ない。これらの閾値は、エネルギーC(m ,s) fの観察では
検出し損なった写像の過度の歪みを検出するために用い
ることができる。
際、もしλが0.1を越えたらf(m, s)の計算は止めて
f(m,s+1)の計算に移行した。λ>0.1のとき、画素
の輝度255レベル中のわずか「3」の違いが副写像の
計算に影響したためであり、λ>0.1のとき正しい結
果を得ることは困難だったためである。
全単射及びその第3の条件の検査の際、h(l)に影響
を受けうる。実際に(λ,C(m,s) f)をプロットする
と、kは通常1付近にある。実験ではk=1を用い、B
0λ2とB1λ2を検査した。仮にkの本当の値が1未満で
あれば、B0λ2とB1λ2は定数にならず、ファクターλ
(1-k)/2に従って徐々に増加する。h(l)が定数であ
れば、例えばファクターはλ1/2である。しかし、こう
した差は閾値B0thresを正しく設定することによって吸
収することができる。
0,y0)、半径rの円形のオブジェクトであると仮定す
る。
径がrのオブジェクトであるとする。
心(x0,y0)及び(x1,y1)が十分遠い場合、ヒス
トグラムh(l)は次式の形となる。
を持つオブジェクトを示す。このオブジェクトは中心が
暗く、周囲にいくに従って明るくなる。k=−1のと
き、画像は曖昧な境界線を持つオブジェクトを表す。こ
のオブジェクトは中心が最も明るく、周囲にいくに従っ
て暗くなる。一般のオブジェクトはこれらふたつのタイ
プのオブジェクトの中間にあると考えてもさして一般性
を失わない。したがって、kは−1≦k≦1として大抵
の場合をカバーでき、式27が一般に減少関数であるこ
とが保障される。
の解像度に影響されること、すなわちrは2mに比例す
ることに注意すべきである。このために[1.4.1]
においてファクター2mを導入した。
η=0とし、最も細かい解像度における最終的な写像f
(n)及びエネルギーC(n) fを計算する。つづいて、ηを
ある値Δηだけ増加させ、再び最も細かい解像度におけ
る最終写像f(n )及びエネルギーC(n) fを計算し直す。
この過程を最適値が求まるまで続ける。ηは写像の剛性
を示す。次式の重みだからである。
れ、現在の副写像は弾性的に変形され、過度に歪むこと
になる。一方、ηが非常に大きな値のとき、D(n) fは直
前の副写像によってほぼ完全に決まる。このとき副写像
は非常に剛性が高く、画素は同じ場所に射影される。そ
の結果、写像は単位写像になる。ηの値が0から次第に
増えるとき、後述のごとくC(n) fは徐々に減少する。し
かしηの値が最適値を越えると、図4に示すとおり、エ
ネルギーは増加し始める。同図のX軸はη、Y軸はCf
である。
値を得ることができる。しかし、λの場合に比べていろ
いろな要素が計算に影響する結果、C(n) fは小さく揺ら
ぎながら変化する。λの場合は、入力が微小量変化する
たびに副写像を1回計算しなおすだけだが、ηの場合は
すべての副写像が計算しなおされるためである。このた
め、得られたC(n) fの値が最小であるかどうかを即座に
判断することはできない。最小値の候補が見つかれば、
さらに細かい区間を設定することによって真の最小値を
探す必要がある。
に、f(m,s)の値域をR×Rに拡張することができる
(Rは実数の集合)。この場合、終点画像の画素の輝度
が補間され、非整数点、
パーサンプリングが行われる。実験では、f(m,s)は整
数及び半整数値をとることが許され、
んでいるとき、写像の計算に元の画素の輝度がそのまま
では利用しにくい。輝度の差が大きいために輝度に関す
るエネルギーC(m,s) fが大きくなりすぎ、正しい評価が
しずらいためである。
すように人の顔と猫の顔のマッチングをとる場合を考え
る。猫の顔は毛で覆われており、非常に明るい画素と非
常に暗い画素が混じっている。この場合、ふたつの顔の
間の副写像を計算するために、まず副画像を正規化す
る。すなわち、最も暗い画素の輝度を0、最も明るいそ
れを255に設定し、他の画素の輝度は線形補間によっ
て求めておく。
納的な方法を用いる。始めに、1番上の左端の画素
(i,j)=(0,0)についてf(m,s)の値を決定す
る。次にiを1ずつ増やしながら各f(m,s)(i,j)
の値を決定する。iの値が画像の幅に到達したとき、j
の値を1増やし、iを0に戻す。以降、始点画像のスキ
ャンに伴いf(m,s)(i,j)を決定していく。すべて
の点について画素の対応が決まれば、ひとつの写像f
(m,s)が決まる。
まれば、つぎにp(i,j+1)の対応点qf(i,j+1)が決めら
れる。この際、qf(i,j+1)の位置は全単射条件を満たす
ために、qf(i,j)の位置によって制限される。したがっ
て、先に対応点が決まる点ほどこのシステムでは優先度
が高くなる。つねに(0,0)が最も優先される状態が
つづくと、求められる最終の写像に余計な偏向が加わ
る。本実施の形態ではこの状態を回避するために、f
(m,s)を以下の方法で決めていく。
0)を開始点としi及びjを徐々に増やしながら決めて
いく。(s mod 4)が1の場合、最上行の右端点を
開始点とし、iを減少、jを増加させながら決めてい
く。(s mod 4)が2のとき、最下行の右端点を開
始点とし、i及びjを減少させながら決めていく。(s
mod 4)が3の場合、最下行の左端点を開始点と
し、iを増加、jを減少させながら決めていく。解像度
が最も細かい第nレベルには副写像という概念、すなわ
ちパラメータsが存在しないため、仮にs=0及びs=
2であるとしてふたつの方向を連続的に計算した。
射条件を破る候補に対してペナルティを与えることによ
り、候補(k,l)の中からできる限り全単射条件を満
たすf(m,s)(i,j)(m=0,…,n)の値を選ん
だ。第3の条件を破る候補のエネルギーD(k、l)に
はφを掛け、一方、第1または第2の条件を破る候補に
はψを掛ける。今回はφ=2、ψ=100000を用い
た。
際の手続として(k,l)=f(m,s )(i,j)を決定
する際に以下のテストを行った。すなわちf
(m,s)(i,j)の相続四辺形に含まれる各格子点
(k,l)に対し、次式の外積のz成分が0以上になる
かどうかを確かめる。
直交右手座標系において定義される)。もしWが負であ
れば、その候補についてはD(m,s) (k,l)にψを掛けるこ
とによってペナルティを与え、できるかぎり選択しない
ようにする。
する理由を示している。図5(a)はペナルティのない
候補、図5(b)はペナルティがある候補をそれぞれ表
す。隣接画素(i,j+1)に対する写像f
(m,s)(i,j+1)を決定する際、Wのz成分が負で
あれば始点画像平面上において全単射条件を満足する画
素は存在しない。なぜなら、q(m,s) (k,l)は隣接する四
辺形の境界線を越えるためである。
きにはσ(0)=0、σ(1)=1、σ(2)=2、σ
(3)=3、σ(4)=0を用い、奇数のときはσ
(0)=3、σ(1)=2、σ(2)=1、σ(3)=
0、σ(4)=3を用いた。このことで、副写像を適度
にシャッフルした。なお、本来副写像は4種類であり、
sは0〜3のいずれかである。しかし、実際にはs=4
に相当する処理を行った。その理由は後述する。
あう画素の輝度が補間される。実験では、トライリニア
補間を用いた。始点画像平面における正方形p(i,j)p
(i+1,j)p(i,j+1)p(i+1,j+1)が終点画像平面上の四辺
形qf(i,j)qf(i+ 1,j)qf(i,j+1)qf(i+1,j+1)に射影さ
れると仮定する。簡単のため、画像間の距離を1とす
る。始点画像平面からの距離がt(0≦t≦1)である
中間画像の画素r(x,y,t)(0≦x≦N−1,0
≦y≦M−1)は以下の要領で求められる。まず画素r
(x,y,t)の位置(ただしx,y,t∈R)を次式
で求める。
を用いて決定される。
変化する。
決定を述べた。しかし、始点画像と終点画像の特定の画
素間に予め対応関係が規定されているとき、これを拘束
条件としたうえで写像を決定することができる。
素を終点画像の特定の画素に移す大まかな写像によって
始点画像を大まかに変形し、しかる後、写像fを正確に
計算する。
画像の特定の画素に射影し、始点画像の他の画素を適当
な位置に射影する大まかな写像を決める。すなわち、特
定の画素に近い画素は、その特定の画素が射影される場
所の近くに射影されるような写像である。ここで第mレ
ベルの大まかな写像をF(m)と記述する。
ず、いくつかの画素について写像を特定する。始点画像
についてns個の画素、
…,ns−1)の変位に重み付けをして求められる平均
である。すなわち画素p(i,j)は、終点画像の以下の画
素に射影される。
少ないエネルギーを持つように、その写像fのエネルギ
ーD(m,s) (i,j)を変更する。正確には、D
(m,s) (i,j)は、
計算プロセスにより、fを完全に決定する。
十分近いとき、つまりそれらの距離が、
すべきである。そのように定義した理由は、各f(m,s)
(i,j)がF(m)(i,j)に十分近い限り、終点画像におい
て適切な位置に落ち着くよう、その値を自動的に決めた
いためである。この理由により、正確な対応関係を詳細
に特定する必要がなく、始点画像は終点画像にマッチす
るように自動的にマッピングされる。
は実施の形態の全体手順を示すフローチャートである。
同図のごとく、まず多重解像度特異点フィルタを用いた
処理を行い(S1)、つづいて始点画像と終点画像のマ
ッチングをとる(S2)。ただし、S2は必須ではな
く、S1で得られた画像の特徴をもとに画像認識などの
処理を行ってもよい。
ートである。ここではS2で始点画像と終点画像のマッ
チングをとることを前提としている。そのため、まず特
異点フィルタによって始点画像の階層化を行い(S1
0)、一連の始点階層画像を得る。つづいて同様の方法
で終点画像の階層化を行い(S11)、一連の終点階層
画像を得る。ただし、S10とS11の順序は任意であ
るし、始点階層画像と終点階層画像を並行して生成して
いくこともできる。
ャートである。もとの始点画像のサイズは2n×2nとす
る。始点階層画像は解像度が細かいほうから順に作られ
るため、処理の対象となる解像度レベルを示すパラメー
タmをnにセットする(S100)。つづいて第mレベ
ルの画像p(m,0)、p(m,1)、p(m,2)、p(m,3)から特異
点フィルタを用いて特異点を検出し(S101)、それ
ぞれ第m−1レベルの画像p(m-1,0)、p(m-1,1)、p
(m-1,2)、p(m-1,3)を生成する(S102)。ここでは
m=nであるため、p(m,0)=p(m,1)=p(m,2)=p
(m,3)=p(n)であり、ひとつの始点画像から4種類の副
画像が生成される。
1レベルの画像の一部の対応関係を示している。同図の
数値は各画素の輝度を示す。同図のp(m,s)はp(m,0)〜
p(m ,3)の4つの画像を象徴するもので、p(m-1,0)を生
成する場合には、p(m,s)はp(m,0)であると考える。
[1.2]で示した規則により、p(m-1,0)は例えば同
図で輝度を記入したブロックについて、そこに含まれる
4画素のうち「3」、p(m-1,1)は「8」、p(m-1,2)は
「6」、p(m-1,3)を「10」をそれぞれ取得し、この
ブロックをそれぞれ取得したひとつの画素で置き換え
る。したがって、第m−1レベルの副画像のサイズは2
m-1×2m-1になる。
03)、mが負になっていないことを確認し(S10
4)、S101に戻ってつぎに解像度の粗い副画像を生
成していく。この繰り返し処理の結果、m=0、すなわ
ち第0レベルの副画像が生成された時点でS10が終了
する。第0レベルの副画像のサイズは1×1である。
層画像をn=3の場合について例示している。最初の始
点画像のみが4つの系列に共通であり、以降特異点の種
類に応じてそれぞれ独立に副画像が生成されていく。な
お、図8の処理は図7のS11にも共通であり、同様の
手順を経て終点階層画像も生成される。以上で図6のS
1による処理が完了する。
マッチング評価の準備をする。図11はその手順を示し
ている。同図のごとく、まず複数の評価式が設定される
(S30)。[1.3.2.1]で導入した画素に関す
るエネルギーC(m,s) fと[1.3.2.2]で導入した
写像の滑らかさに関するエネルギーD(m,s) fがそれであ
る。つぎに、これらの評価式を統合して総合評価式を立
てる(S31)。[1.3.2.3]で導入した総エネ
ルギーλC(m,s) f+D(m,s) fがそれであり、[1.3.
2.2]で導入したηを用いれば、ΣΣ(λC(m,s)
(i,j)+ηE0 (m,s) (i,j)+E1 (m,s) (i,j)) (式5
2)となる。ただし、総和はi、jについてそれぞれ
0、1…、2m−1で計算する。以上でマッチング評価
の準備が整う。
ャートである。[1]で述べたごとく、始点階層画像と
終点階層画像のマッチングは互いに同じ解像度レベルの
画像どうしでとられる。画像間の大域的なマッチングを
良好にとるために、解像度が粗いレベルから順にマッチ
ングを計算する。特異点フィルタを用いて始点階層画像
および終点階層画像を生成しているため、特異点の位置
や輝度は解像度の粗いレベルでも明確に保存されてお
り、大域的なマッチングの結果は従来に比べて非常に優
れたものになる。
0、レベルパラメータmを0に設定する(S20)。つ
づいて、始点階層画像中の第mレベルの4つの副画像と
終点階層画像中の第mレベルの4つの副画像のそれぞれ
の間でマッチングを計算し、それぞれ全単射条件を満た
し、かつエネルギーを最小にするような4種類の副写像
f(m,s)(s=0,1,2,3)を求める(S21)。
全単射条件は[1.3.3]で述べた相続四辺形を用い
て検査される。この際、式17、18が示すように、第
mレベルにおける副写像は第m−1レベルのそれらに拘
束されるため、より解像度の粗いレベルにおけるマッチ
ングが順次利用されていく。これは異なるレベル間の垂
直的参照である。なお、いまm=0であってそれより粗
いレベルはないが、この例外的な処理は図13で後述す
る。
行われる。[1.3.3]の式20のごとく、f(m,3)
はf(m,2)に、f(m,2)はf(m,1)に、f(m,1)はf(m,0)
に、それぞれ類似するように決める。その理由は、特異
点の種類が違っても、それらがもともと同じ始点画像と
終点画像に含まれている以上、副写像がまったく異なる
という状況は不自然だからである。式20からわかるよ
うに、副写像どうしが近いほどエネルギーは小さくな
り、マッチングが良好とみなされる。
は同一のレベルで参照できる副写像がないため、式19
に示すごとくひとつ粗いレベルを参照する。ただし、実
験ではf(m,3)まで求まった後、これを拘束条件として
f(m,0)を一回更新するという手続をとった。これは式
20にs=4を代入し、f(m,4)を新たなf(m,0)とする
ことに等しい。f(m,0)とf(m,3)の関連度が低くなり過
ぎる傾向を回避するためであり、この措置によって実験
結果がより良好になった。この措置に加え、実験では
[1.7.1]に示す副写像のシャッフルも行った。こ
れも本来特異点の種類ごとに決まる副写像どうしの関連
度を密接に保つ趣旨である。また、処理の開始点に依存
する偏向を回避するために、sの値にしたがって開始点
の位置を変える点は[1.7]で述べたとおりである。
する様子を示す図である。第0レベルでは各副画像がた
だひとつの画素で構成されるため、4つの副写像f(0,s)
はすべて自動的に単位写像に決まる。図14は第1レベ
ルにおいて副写像を決定する様子を示す図である。第1
レベルでは副画像がそれぞれ4画素で構成される。同図
ではこれら4画素が実線で示されている。いま、p
(1,s)の点xの対応点をq( 1,s)の中で探すとき、以下の
手順を踏む。
a、右上点b、左下点c、右下点dを求める。 2.点a〜dがひとつ粗いレベル、つまり第0レベルに
おいて属する画素を探す。図14の場合、点a〜dはそ
れぞれ画素A〜Dに属する。ただし、画素A〜Cは本来
存在しない仮想的な画素である。 3.第0レベルですでに求まっている画素A〜Dの対応
点A’〜D’をq(1,s )の中にプロットする。画素A’
〜C’は仮想的な画素であり、それぞれ画素A〜Cと同
じ位置にあるものとする。 4.画素Aの中の点aの対応点a’が画素A’の中にあ
るとみなし、点a’をプロットする。このとき、点aが
画素Aの中で占める位置(この場合、右下)と、点a’
が画素A’の中で占める位置が同じであると仮定する。 5.4と同様の方法で対応点b’〜d’をプロットし、
点a’〜d’で相続四辺形を作る。 6.相続四辺形の中でエネルギーが最小になるよう、点
xの対応点x’を探す。対応点x’の候補として、例え
ば画素の中心が相続四辺形に含まれるものに限定しても
よい。図14の場合、4つの画素がすべて候補になる。
る。同様の処理を他のすべての点について行い、副写像
を決める。第2レベル以上のレベルでは、次第に相続四
辺形の形が崩れていくと考えられるため、図3に示すよ
うに画素A’〜D’の間隔が空いていく状況が発生す
る。
が決まれば、mをインクリメントし(図12のS2
2)、mがnを超えていないことを確かめて(S2
3)、S21に戻る。以下、S21に戻るたびに次第に
細かい解像度のレベルの副写像を求め、最後にS21に
戻ったときに第nレベルの写像f(n)を決める。この写
像はη=0に関して定まったものであるから、f
(n)(η=0)と書く。
く、ηをΔηだけシフトし、mをゼロクリアする(S2
4)。新たなηが所定の探索打切り値ηmaxを超えてい
ないことを確認し(S25)、S21に戻り、今回のη
に関して写像f(n)(η=Δη)を求める。この処理を
繰り返し、S21でf(n)(η=iΔη)(i=0,
1,…)を求めていく。ηがηmaxを超えたときS26
に進み、後述の方法で最適なη=ηoptを決定し、f(n)
(η=ηopt)を最終的に写像f(n)とする。
ーチャートである。このフローチャートにより、ある定
まったηについて、第mレベルにおける副写像が決ま
る。副写像を決める際、実施の形態では副写像ごとに最
適なλを独立して決める。
る(S210)。つぎに、そのときのλについて(およ
び暗にηについて)エネルギーを最小にする副写像f
(m,s)を求め(S211)、これをf(m,s)(λ=0)と
書く。異なるλに関する写像も求めるべく、λをΔλだ
けシフトし、新たなλが所定の探索打切り値λmaxを超
えていないことを確認し(S213)、S211に戻
り、以降の繰り返し処理でf(m,s)(λ=iΔλ)(i
=0,1,…)を求める。λがλmaxを超えたときS2
14に進み、最適なλ=λoptを決定し、f(m,s)(λ=
λopt)を最終的に写像f(m,s)とする(S214)。
求めるべく、λをゼロクリアし、sをインクリメントす
る(S215)。sが4を超えていないことを確認し
(S216)、S211に戻る。s=4になれば上述の
ごとくf(m,3)を利用してf(m, 0)を更新し、そのレベル
における副写像の決定を終了する。
がら求められたf(m,s)(λ=iΔλ)(i=0,1,
…)に対応するエネルギーC(m,s) fの挙動を示す図であ
る。[1.4]で述べたとおり、λが増加すると通常C
(m,s) fは減少する。しかし、λが最適値を超えるとC
(m,s) fは増加に転じる。そこで本実施の形態ではC(m,s
) fが極小値をとるときのλをλoptと決める。同図のよ
うにλ>λoptの範囲で再度C(m,s) fが小さくなってい
っても、その時点ではすでに写像がくずれていて意味を
なさないため、最初の極小点に注目すればよい。λopt
は副写像ごとに独立して決めていき、最後にf(n)につ
いてもひとつ定まる。
たf(n)(η=iΔη)(i=0,1,…)に対応する
エネルギーC(n) fの挙動を示す図である。ここでもηが
増加すると通常C(n) fは減少するが、ηが最適値を超え
るとC(n) fは増加に転じる。そこでC(n) fが極小値をと
るときのηをηoptと決める。図17は図4の横軸のゼ
ロ付近を拡大した図と考えてよい。ηoptが決まればf
(n)を最終決定することができる。
トが得られる。まずエッジを検出する必要がないため、
エッジ検出タイプの従来技術の課題を解消できる。ま
た、画像に含まれるオブジェクトに対する先験的な知識
も不要であり、対応点の自動検出が実現する。特異点フ
ィルタによれば、解像度の粗いレベルでも特異点の輝度
や位置を維持することができ、オブジェクト認識、特徴
抽出、画像マッチングに極めて有利である。その結果、
人手作業を大幅に軽減する画像処理システムの構築が可
能となる。
形技術も考えられる。
階層画像の間でマッチングをとる際にパラメータの自動
決定を行ったが、この方法は階層画像間ではなく、通常
の2枚の画像間のマッチングをとる場合全般に利用でき
る。
に関するエネルギーE0と画素の位置的なずれに関する
エネルギーE1のふたつを評価式とし、これらの線形和
Etot=αE0+E1を総合評価式とする。この総合評価
式の極値付近に注目してαを自動決定する。つまり、い
ろいろなαについてEtotが最小になるような写像を求
める。それらの写像のうち、αに関してE1が極小値を
とるときのαを最適パラメータと決める。そのパラメー
タに対応する写像を最終的に両画像間の最適マッチング
とみなす。
方法があり、例えば1/E1と1/E2のように、評価結
果が良好なほど大きな値をとるものを採用してもよい。
総合評価式も必ずしも線形和である必要はなく、n乗和
(n=2、1/2、−1、−2など)、多項式、任意の
関数などを適宜選択すればよい。
くηとλのふたつの場合、それ以上の場合など、いずれ
でもよい。パラメータが3以上の場合はひとつずつ変化
させて決めていく。
が最小になるよう写像を決めた後、総合評価式を構成す
るひとつの評価式であるC(m,s) fが極小になる点を検出
してパラメータを決定した。しかし、こうした二段回処
理の代わりに、状況によっては単に総合評価式の最小値
が最小になるようにパラメータを決めても効果的であ
る。その場合、例えばαE0+βE1を総合評価式とし、
α+β=1なる拘束条件を設けて各評価式を平等に扱う
などの措置を講じてもよい。パラメータの自動決定の本
質は、エネルギーが最小になるようにパラメータを決め
ていく点にあるからである。
種類の特異点に関する4種類の副画像を生成した。しか
し、当然4種類のうち1、2、3種類を選択的に用いて
もよい。例えば、画像中に明るい点がひとつだけ存在す
る状態であれば、極大点に関するf(m,3)だけで階層画
像を生成しても相応の効果が得られるはずである。その
場合、同一レベルで異なる副写像は不要になるため、s
に関する計算量が減る効果がある。
よってレベルがひとつ進むと画素が1/4になった。例
えば3×3で1ブロックとし、その中で特異点を探す構
成も可能であり、その場合、レベルがひとつ進むと画素
は1/9になる。
合、それらをまず白黒画像に変換し、写像を計算する。
その結果求められた写像を用いて始点のカラー画像を変
換する。それ以外の方法として、RGBの各成分につい
て副写像を計算してもよい。
きる。異なるふたつの視点からの画像を補間すると、中
間視点からの画像を生成することができる。これはWW
Wにおいてきわめて有利である。なぜなら、限られた数
の画像から任意の視点画像を生成できるからである。ふ
たりの人の顔の画像を補間すれば、モーフィングを行う
ことができる。CTまたはMRIのデータのように三次
元オブジェクトの断面データ画像を用いれば、補間の結
果ボリュームレンダリングのための三次元オブジェクト
の正確な形状を再構築することができる。
(c)は、写像が中間視点画像を生成するために用いら
れた場合を示している。ここでは右目画像と左目画像が
補間された。図18(a)は左目から見た始点画像、図
18(b)は右目から見た始点画像、図18(c)は簡
単のために[1.8]においてtの値を0.5としたと
きの中間画像をそれぞれ示している。
(c)、図19(d)は、写像を用いて人間の顔のモー
フィングを行った場合を示している。ここではふたりの
顔を補間した。図19(a)は始点画像、図19(b)
は終点画像、図19(c)は終点画像に始点画像を重ね
合わせた画像、図19(d)はt=0.5のときの中間
画像をそれぞれ示している。
顔の補間に写像を用いた場合を示している。図20
(a)は猫の顔、図20(b)は人の顔と猫の顔のモー
フィング画像をそれぞれ示している。人の顔として図1
9(a)の画像を用いた。[1.6]で説明した輝度の
正規化はこの例においてのみ用いられている。
(c)は、数多くのオブジェクトを含む画像に対して今
回の方法を適応した例を示している。図21(a)は始
点画像、図21(b)は終点画像、図21(c)はt=
0.5のときの中間画像をそれぞれ示す。
(c)、図22(d)は、MRIによって得られた人間
の脳の断面画像を補間するために写像を用いた結果を示
している。図22(a)は始点画像、図22(b)は終
点画像(上部断面)、図22(c)はt=0.5の場合
の中間画像をそれぞれ示している。また図22(d)は
四つの断面画像を用いてボリュームレンダリングを行っ
た結果を斜め方向から見た様子を示す。オブジェクトは
完全に不透明であり、補間の結果輝度が51(=255
×0.2)以上となった画素のみが表示されている。再
構築されたオブジェクトは中心付近で垂直にカットさ
れ、その内部が示されている。
6×256画素、それ以外の画像は全て512×512
画素である。画素の輝度は0〜255のいずれかの値を
とる。[1.3.1]で説明した付加条件は、図21
(a)〜図21(c)の場合を除き、すべての例で用い
られている。これら全ての例においてB0thres=0.0
03及びB1thres=0.5が用いられ、これらの値を変
更する必要は全くなかった。各副画像の画素の輝度は図
20(a)、図20(b)の場合のみ、正規化された。
の顔に平均化フィルタを施して得られる画像、図1
(c)と図1(d)は、ふたりの人物の顔に関して実施
の形態で求められるp(5,0)の画像、図1(e)と図1
(f)は、ふたりの人物の顔に関して実施の形態で求め
られるp(5,1)の画像、図1(g)と図1(h)は、ふ
たりの人物の顔に関して実施の形態で求められるp
(5,2)の画像、図1(i)と図1(j)は、ふたりの人
物の顔に関して実施の形態で求められるp(5,3)の画像
をそれぞれディスプレイ上に表示した中間調画像の写真
である。
(A)、図2(B)、図2(C)、図2(D)、図2
(E)はそれぞれ相続四辺形を示す図である。
ルと第m−1レベルの関係を相続四辺形を用いて示す図
である。
図である。
写像が全単射条件を満たすか否かを外積計算から求める
様子を示す図である。
である。
る。
ある。
の画像の一部の対応関係を示す図である。
す図である。
準備の手順を示す図である。
ある。
を示す図である。
を示す図である。
トである。
られたf(m,s)(λ=iΔλ)に対応するエネルギーC
(m,s) fの挙動を示す図である。
Δη)(i=0,1,…)に対応するエネルギーC(n) f
の挙動を示す図である。
(c)はそれぞれ、あるオブジェクトに関する左目画
像、右目画像、実施の形態で生成された補間画像をディ
スプレイ上に表示した中間調画像の写真である。
(c)、図19(d)はそれぞれ、ある人物の顔、別の
人物の顔、それらの重ね合わせ画像、実施の形態で生成
されたモーフィング画像をディスプレイ上に表示した中
間調画像の写真である。
猫の顔、人と猫の顔のモーフィング画像をディスプレイ
上に表示した中間調画像の写真である。
(c)はそれぞれ、多数のオブジェクトが含まれる左目
画像、右目画像、実施の形態で生成された補間画像をデ
ィスプレイ上に表示した中間調画像の写真である。
(c)、図22(d)はそれぞれ、MRに関する始点画
像、終点画像、実施の形態で生成された補間画像、補間
画像をもとに生成されたボリュームリンダリング画像を
ディスプレイ上に表示した中間調画像の写真である。
Claims (33)
- 【請求項1】 第一の画像に対し、二次元的な探索を行
って特異点を検出する検出工程と、 検出された特異点を抽出して第一の画像よりも解像度の
低い第二の画像を生成する生成工程と、 を含むことを特徴とする多重解像度フィルタ処理方法。 - 【請求項2】 請求項1に記載の方法において、 検出工程は、第一の画像を構成する複数のブロックのそ
れぞれの内部で特異点を探索する多重解像度フィルタ処
理方法。 - 【請求項3】 請求項2に記載の方法において、 検出工程は、各ブロックのふたつの方向について最大画
素値または最小画素値をもつ点を探索することによって
特異点を検出する多重解像度フィルタ処理方法。 - 【請求項4】 請求項3に記載の方法において、 検出工程は、前記ふたつの方向の両方について最大画素
値となる画素を極大点として検出する多重解像度フィル
タ処理方法。 - 【請求項5】 請求項3に記載の方法において、 検出工程は、前記ふたつの方向の両方について最小画素
値となる画素を極小点として検出する多重解像度フィル
タ処理方法。 - 【請求項6】 請求項3に記載の方法において、 検出工程は、前記ふたつの方向の一方について最大画素
値となるとともに、他方について最小画素値となる画素
を鞍点として検出する多重解像度フィルタ処理方法。 - 【請求項7】 請求項3に記載の方法において、前記ブ
ロックはそれぞれ縦横2個ずつの合計4画素から構成さ
れ、これら4画素が極大点、極小点、および二種類の鞍
点のいずれかに分類される多重解像度フィルタ処理方
法。 - 【請求項8】 請求項2〜7のいずれかに記載の方法に
おいて、 生成工程は、各ブロックの内部で検出された特異点の画
像でそのブロックの画像を代表させることにより、画像
の解像度を落とす多重解像度フィルタ処理方法。 - 【請求項9】 請求項2〜8のいずれかに記載の方法に
おいて、 生成工程は、各ブロックの内部で検出された特異点の種
類ごとに第二の画像を生成する多重解像度フィルタ処理
方法。 - 【請求項10】 始点画像に多重解像度特異点フィルタ
を施して解像度の異なる一連の始点階層画像を生成する
第一工程と、 終点画像に多重解像度特異点フィルタを施して解像度の
異なる一連の終点階層画像を生成する第二工程と、 始点階層画像と終点階層画像のマッチングを解像度レベ
ルの階層の中で計算する第三工程と、 を含むことを特徴とする画像マッチング方法。 - 【請求項11】 請求項10に記載の方法において、 第三工程は、始点階層画像中のある解像度レベルの画像
と、終点階層画像中の同一解像度レベルの画像間の写像
を、他の所定の解像度レベルにおける写像を考慮しなが
ら決定する画像マッチング方法。 - 【請求項12】 請求項11に記載の方法において、 第三工程は、前記写像を決定する際、前記他の所定の解
像度レベルにおける写像を拘束条件として用いる画像マ
ッチング方法。 - 【請求項13】 請求項11、12のいずれかに記載の
方法において、 前記所定の解像度レベルは、現在写像を決定しようとし
ている解像度レベルよりも粗い解像度レベルである画像
マッチング方法。 - 【請求項14】 請求項13に記載の方法において、 前記所定の解像度レベルは、現在写像を決定しようとし
ている解像度レベルよりも1レベルだけ粗い解像度レベ
ルである画像マッチング方法。 - 【請求項15】 請求項11〜14のいずれかに記載の
方法において、 第三工程は、まず最も粗い解像度レベルにおいて写像を
決定し、以降、次第に解像度レベルが細かくなる順に写
像を決定していく画像マッチング方法。 - 【請求項16】 請求項11〜15のいずれかに記載の
方法において、 第三工程は、全単射条件を満たすよう前記写像を決定す
る画像マッチング方法。 - 【請求項17】 請求項16に記載の方法において、 第三工程は、全単射条件に緩和条件を加味する画像マッ
チング方法。 - 【請求項18】 請求項17に記載の方法において、 前記緩和条件は、写像が収縮写像になることを認める旨
の条件である画像マッチング方法。 - 【請求項19】 請求項11〜18のいずれかに記載の
方法において、 第一工程および第二工程は、特異点の種類ごとにそれぞ
れ一連の始点階層画像および終点階層画像を生成し、第
三工程は特異点の種類ごとに写像を求める画像マッチン
グ方法。 - 【請求項20】 請求項19に記載の方法において、 第三工程は、ある特異点に関して写像を求めるとき、同
一の解像度レベルにおいてすでに求められている他の種
類の特異点に関する写像を考慮する画像マッチング方
法。 - 【請求項21】 請求項20に記載の方法において、 前記他の種類の特異点に関する写像との類似度が高くな
るよう条件を課して写像を求める画像マッチング方法。 - 【請求項22】 請求項10〜21のいずれかに記載の
方法において、 第三工程は、複数のマッチング評価項目のそれぞれにつ
いて評価式を設け、それらの評価式を統合して総合評価
式を定義し、その総合評価式の極値付近に注目して最適
マッチングを探索することを特徴とする画像マッチング
方法。 - 【請求項23】 請求項22に記載の方法において、 前記総合評価式は、評価式の少なくともひとつに係数パ
ラメータを掛けたうえでそれらの評価式の総和として定
義される画像マッチング方法。 - 【請求項24】 請求項23に記載の方法において、 前記評価式はそれぞれ評価結果が良好なほど値が小さく
なり、前記総合評価式がとりうる極小値が最小になるよ
う前記パラメータが自動決定される画像マッチング方
法。 - 【請求項25】 請求項23に記載の方法において、 前記評価式はそれぞれ評価結果が良好なほど値が大きく
なり、前記総合評価式がとりうる極大値が最大になるよ
う前記パラメータが自動決定される画像マッチング方
法。 - 【請求項26】 請求項23に記載の方法において、 いずれかの評価式がほぼ極値をとる状態を検出し、前記
パラメータを自動決定する画像マッチング方法。 - 【請求項27】 請求項22に記載の方法において、 画素値に関連する第一評価式と画素の位置に関連する第
二評価式の線形和で総合評価式を定義し、 少なくとも第一評価式の係数パラメータを変化させなが
ら総合評価式がほぼ極値をとるときの第一評価式の値を
記録し、 第一評価式がほぼ極値をとるときの係数パラメータを検
出し、 その係数パラメータを以降の評価に固定的に用いる画像
マッチング方法。 - 【請求項28】 始点画像と終点画像のマッチングのた
めに、複数のマッチング評価項目のそれぞれについて評
価式を設け、それらの評価式を統合して総合評価式を定
義し、その総合評価式の極値付近に注目して最適マッチ
ングを探索することを特徴とする画像マッチング方法。 - 【請求項29】 請求項28に記載の方法において、 前記総合評価式は、評価式の少なくともひとつに係数パ
ラメータを掛けたうえでそれらの評価式の総和として定
義される画像マッチング方法。 - 【請求項30】 請求項29に記載の方法において、 前記評価式はそれぞれ評価結果が良好なほど値が小さく
なり、前記総合評価式のとる極小値が最小になるよう前
記パラメータが自動決定される画像マッチング方法。 - 【請求項31】 請求項29に記載の方法において、 前記評価式はそれぞれ評価結果が良好なほど値が大きく
なり、前記総合評価式のとる極大値が最大になるよう前
記パラメータが自動決定される画像マッチング方法。 - 【請求項32】 請求項29に記載の方法において、 いずれかの評価式がほぼ極値をとる状態を検出し、前記
パラメータを自動決定する画像マッチング方法。 - 【請求項33】 請求項28に記載の方法において、 画素値に関連する第一評価式と画素の位置に関連する第
二評価式の線形和で総合評価式を定義し、 少なくとも第一評価式の係数パラメータを変化させなが
ら総合評価式がほぼ極値をとるときの第一評価式の値を
記録し、 第一評価式がほぼ極値をとるときの係数パラメータを検
出し、 その係数パラメータを以降の評価に固定的に用いる画像
マッチング方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9095318A JP2927350B2 (ja) | 1997-03-27 | 1997-03-27 | 多重解像度フィルタ処理方法およびその方法を利用することのできる画像マッチング方法 |
US08/848,099 US6018592A (en) | 1997-03-27 | 1997-04-28 | Multiresolutional critical point filter and image matching using the same |
US09/433,368 US6137910A (en) | 1997-03-27 | 1999-11-03 | Multiresolutional critical point filter and image matching using the same |
US09/693,981 US6347152B1 (en) | 1997-03-27 | 2000-10-23 | Multiresolutional critical point filter and image matching using the invention |
US10/006,237 US20020064309A1 (en) | 1997-03-27 | 2001-12-10 | Multiresolutional critical point filter and image matching using the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9095318A JP2927350B2 (ja) | 1997-03-27 | 1997-03-27 | 多重解像度フィルタ処理方法およびその方法を利用することのできる画像マッチング方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH10269355A true JPH10269355A (ja) | 1998-10-09 |
JP2927350B2 JP2927350B2 (ja) | 1999-07-28 |
Family
ID=14134408
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP9095318A Expired - Lifetime JP2927350B2 (ja) | 1997-03-27 | 1997-03-27 | 多重解像度フィルタ処理方法およびその方法を利用することのできる画像マッチング方法 |
Country Status (2)
Country | Link |
---|---|
US (4) | US6018592A (ja) |
JP (1) | JP2927350B2 (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2000030368A2 (en) * | 1998-11-18 | 2000-05-25 | Sarnoff Corporation | Identifying the location of a coding unit based on width and height of dc suband |
EP1213917A2 (en) * | 2000-11-30 | 2002-06-12 | Monolith Co., Ltd. | Image-effect method and apparatus using critical points |
JP2004522228A (ja) * | 2001-04-09 | 2004-07-22 | メイアーズ、ゲーリー、エリオット | ディジタル画像を表現し比較する方法 |
US7035452B2 (en) | 2001-02-16 | 2006-04-25 | Monolith Co. Ltd. | Method and apparatus for multivariate space processing |
US7151857B2 (en) | 2000-11-28 | 2006-12-19 | Monolith Co., Ltd. | Image interpolating method and apparatus |
JP2011501308A (ja) * | 2007-10-26 | 2011-01-06 | コンセホ スペリオール デ インヴェスティガシオーネス シエンティフィカス | フィンガープリントにおける特異点の分析のための方法およびシステム |
KR101461208B1 (ko) * | 2007-06-01 | 2014-11-18 | 케이비에이-노타시스 에스에이 | 보안 문서, 특히 은행권의 인증 |
Families Citing this family (86)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2927350B2 (ja) * | 1997-03-27 | 1999-07-28 | 株式会社モノリス | 多重解像度フィルタ処理方法およびその方法を利用することのできる画像マッチング方法 |
US8432414B2 (en) * | 1997-09-05 | 2013-04-30 | Ecole Polytechnique Federale De Lausanne | Automated annotation of a view |
KR100280090B1 (ko) * | 1998-01-23 | 2001-02-01 | 이계철 | 공간 데이터베이스 시스템에서 최소최대점필터를 이용한 다중 여과처리 방법 |
US6285805B1 (en) * | 1999-01-25 | 2001-09-04 | International Business Machines Corp. | System and method for finding the distance from a moving query point to the closest point on one or more convex or non-convex shapes |
US6388673B1 (en) * | 1999-09-30 | 2002-05-14 | International Business Machines Corporation | Method and system for filter type approximation in computer graphics processing |
US7099511B2 (en) * | 2000-03-14 | 2006-08-29 | Monolith Co., Ltd. | Method and apparatus for coding and decoding image data using critical points |
US7002583B2 (en) * | 2000-08-03 | 2006-02-21 | Stono Technologies, Llc | Display of images and image transitions |
US6963666B2 (en) * | 2000-09-12 | 2005-11-08 | Pentax Corporation | Matching device |
EP1191793A3 (en) * | 2000-09-25 | 2008-01-23 | Monolith Co., Ltd. | Animation distributing method, animation distributing server and corresponding system |
JP3859989B2 (ja) * | 2000-10-30 | 2006-12-20 | 株式会社モノリス | 画像マッチング方法およびその方法を利用可能な画像処理方法と装置 |
JP2002232838A (ja) * | 2000-11-28 | 2002-08-16 | Monolith Co Ltd | デジタルカメラ |
JP2002232908A (ja) | 2000-11-28 | 2002-08-16 | Monolith Co Ltd | 画像補間方法および装置 |
JP2002259979A (ja) * | 2000-12-26 | 2002-09-13 | Monolith Co Ltd | 画像補間方法と装置、および画像処理方法と装置 |
EP1225547A3 (en) * | 2001-01-10 | 2003-11-19 | Monolith Co., Ltd. | Image-effect method and image interpolation method |
WO2002063564A1 (fr) * | 2001-02-02 | 2002-08-15 | Monolith Co.,Ltd. | Procede et appareil de localisation de zone d'image |
JP4050472B2 (ja) * | 2001-02-06 | 2008-02-20 | 株式会社モノリス | 画像生成方法、装置およびシステム |
JP2002271788A (ja) * | 2001-03-08 | 2002-09-20 | Monolith Co Ltd | 画像符号化方法と装置および画像復号方法および装置 |
JP3889233B2 (ja) | 2001-03-08 | 2007-03-07 | 株式会社モノリス | 画像符号化方法と装置および画像復号方法と装置 |
JP2003018602A (ja) * | 2001-04-24 | 2003-01-17 | Monolith Co Ltd | 画像データ符号化および復号のための方法および装置 |
JP2003032639A (ja) * | 2001-05-09 | 2003-01-31 | Monolith Co Ltd | 画像処理方法と装置およびそれらに利用可能なコンテンツ記録方法 |
JP4157686B2 (ja) * | 2001-05-15 | 2008-10-01 | 株式会社モノリス | 画像符号化および復号のための方法および装置 |
JP2002359842A (ja) * | 2001-05-31 | 2002-12-13 | Monolith Co Ltd | 画像符号化方法と装置および画像復号方法と装置 |
JP2003018557A (ja) * | 2001-07-04 | 2003-01-17 | Monolith Co Ltd | 画像処理方法および装置 |
JP2003037842A (ja) * | 2001-07-26 | 2003-02-07 | Monolith Co Ltd | 画像符号化方法、復号方法および画像符号化装置、復号装置 |
GB2378074B (en) * | 2001-07-27 | 2005-08-24 | Hewlett Packard Co | Image capturing device |
GB0125774D0 (en) * | 2001-10-26 | 2001-12-19 | Cableform Ltd | Method and apparatus for image matching |
US7343052B2 (en) * | 2002-04-09 | 2008-03-11 | Sonic Solutions | End-user-navigable set of zoomed-in images derived from a high-resolution master image |
EP1357757A1 (en) * | 2002-04-23 | 2003-10-29 | Monolith Co., Ltd. | Image coding method and apparatus, and image decoding method and apparatus |
JP3839353B2 (ja) * | 2002-05-27 | 2006-11-01 | 株式会社モノリス | 画像符号化方法と装置および画像復号方法および装置 |
US6978167B2 (en) * | 2002-07-01 | 2005-12-20 | Claron Technology Inc. | Video pose tracking system and method |
JP3979894B2 (ja) * | 2002-07-22 | 2007-09-19 | 本田技研工業株式会社 | 物体検出装置及び方法 |
CN1317892C (zh) * | 2004-03-01 | 2007-05-23 | 建飞控股有限公司 | 电视电影变换方法和装置 |
DE102004037464A1 (de) * | 2004-07-30 | 2006-03-23 | Heraeus Kulzer Gmbh | Anordnung zur Abbildung von Oberflächenstrukturen dreidimensionaler Objekte |
US8265354B2 (en) * | 2004-08-24 | 2012-09-11 | Siemens Medical Solutions Usa, Inc. | Feature-based composing for 3D MR angiography images |
JP4271115B2 (ja) | 2004-09-29 | 2009-06-03 | 株式会社東芝 | 画像マッチング装置、画像マッチング方法および画像マッチングプログラム |
JP2006260527A (ja) | 2005-02-16 | 2006-09-28 | Toshiba Corp | 画像マッチング方法およびこれを用いた画像補間方法 |
US9769354B2 (en) | 2005-03-24 | 2017-09-19 | Kofax, Inc. | Systems and methods of processing scanned data |
US8885229B1 (en) | 2013-05-03 | 2014-11-11 | Kofax, Inc. | Systems and methods for detecting and classifying objects in video captured using mobile devices |
US7545529B2 (en) * | 2005-03-24 | 2009-06-09 | Kofax, Inc. | Systems and methods of accessing random access cache for rescanning |
US9137417B2 (en) | 2005-03-24 | 2015-09-15 | Kofax, Inc. | Systems and methods for processing video data |
US8749839B2 (en) | 2005-03-24 | 2014-06-10 | Kofax, Inc. | Systems and methods of processing scanned data |
JP4064413B2 (ja) | 2005-06-27 | 2008-03-19 | 株式会社東芝 | コミュニケーション支援装置、コミュニケーション支援方法およびコミュニケーション支援プログラム |
EP1764502B1 (en) * | 2005-09-20 | 2011-04-20 | Diamond Electric MFG. Co., Ltd. | Ignition device |
JP2007316693A (ja) * | 2006-05-23 | 2007-12-06 | Monolith Co Ltd | 画像符号化方法および画像符号化装置 |
US7848571B2 (en) * | 2006-06-26 | 2010-12-07 | Keystream Corporation | Computer-implemented method for efficient image segmentation using automated saddle-point detection |
US7693331B2 (en) * | 2006-08-30 | 2010-04-06 | Mitsubishi Electric Research Laboratories, Inc. | Object segmentation using visible and infrared images |
US7756359B1 (en) * | 2006-10-03 | 2010-07-13 | Varian Medical Systems International Ag | Use of local or global quality of match to estimate cone beam CT reconstruction artifact correction weight in image registration |
US20080240588A1 (en) * | 2007-03-29 | 2008-10-02 | Mikhail Tsoupko-Sitnikov | Image processing method and image processing apparatus |
US20080278633A1 (en) * | 2007-05-09 | 2008-11-13 | Mikhail Tsoupko-Sitnikov | Image processing method and image processing apparatus |
US20080279478A1 (en) * | 2007-05-09 | 2008-11-13 | Mikhail Tsoupko-Sitnikov | Image processing method and image processing apparatus |
US8407575B1 (en) | 2008-09-10 | 2013-03-26 | Adobe Systems Incorporated | Video content summary |
US8285055B1 (en) * | 2008-09-10 | 2012-10-09 | Adobe Systems Incorporated | Determining correspondence between image regions |
US9349046B2 (en) | 2009-02-10 | 2016-05-24 | Kofax, Inc. | Smart optical input/output (I/O) extension for context-dependent workflows |
US9767354B2 (en) | 2009-02-10 | 2017-09-19 | Kofax, Inc. | Global geographic information retrieval, validation, and normalization |
US8774516B2 (en) | 2009-02-10 | 2014-07-08 | Kofax, Inc. | Systems, methods and computer program products for determining document validity |
US9576272B2 (en) | 2009-02-10 | 2017-02-21 | Kofax, Inc. | Systems, methods and computer program products for determining document validity |
US8958605B2 (en) | 2009-02-10 | 2015-02-17 | Kofax, Inc. | Systems, methods and computer program products for determining document validity |
US9330476B2 (en) * | 2009-05-21 | 2016-05-03 | Adobe Systems Incorporated | Generating a modified image with additional content provided for a region thereof |
US8355592B1 (en) | 2009-05-06 | 2013-01-15 | Adobe Systems Incorporated | Generating a modified image with semantic constraint |
US8639008B2 (en) | 2010-04-20 | 2014-01-28 | Athero Point, LLC | Mobile architecture using cloud for data mining application |
US8485975B2 (en) | 2010-06-07 | 2013-07-16 | Atheropoint Llc | Multi-resolution edge flow approach to vascular ultrasound for intima-media thickness (IMT) measurement |
US8708914B2 (en) | 2010-06-07 | 2014-04-29 | Atheropoint, LLC | Validation embedded segmentation method for vascular ultrasound images |
US8313437B1 (en) | 2010-06-07 | 2012-11-20 | Suri Jasjit S | Vascular ultrasound intima-media thickness (IMT) measurement system |
US8532360B2 (en) | 2010-04-20 | 2013-09-10 | Atheropoint Llc | Imaging based symptomatic classification using a combination of trace transform, fuzzy technique and multitude of features |
US10134150B2 (en) * | 2010-08-10 | 2018-11-20 | Monotype Imaging Inc. | Displaying graphics in multi-view scenes |
TWI402768B (zh) * | 2010-08-13 | 2013-07-21 | Primax Electronics Ltd | 產生高解析度影像之方法 |
US8571328B2 (en) | 2010-08-16 | 2013-10-29 | Adobe Systems Incorporated | Determining correspondence between image regions |
US8625927B2 (en) | 2010-10-27 | 2014-01-07 | Adobe Systems Incorporated | Image processing using image web |
US9058580B1 (en) | 2012-01-12 | 2015-06-16 | Kofax, Inc. | Systems and methods for identification document processing and business workflow integration |
US9483794B2 (en) | 2012-01-12 | 2016-11-01 | Kofax, Inc. | Systems and methods for identification document processing and business workflow integration |
US8989515B2 (en) | 2012-01-12 | 2015-03-24 | Kofax, Inc. | Systems and methods for mobile image capture and processing |
US9058515B1 (en) | 2012-01-12 | 2015-06-16 | Kofax, Inc. | Systems and methods for identification document processing and business workflow integration |
US10146795B2 (en) | 2012-01-12 | 2018-12-04 | Kofax, Inc. | Systems and methods for mobile image capture and processing |
US9311531B2 (en) | 2013-03-13 | 2016-04-12 | Kofax, Inc. | Systems and methods for classifying objects in digital images captured using mobile devices |
US9208536B2 (en) | 2013-09-27 | 2015-12-08 | Kofax, Inc. | Systems and methods for three dimensional geometric reconstruction of captured image data |
US9355312B2 (en) | 2013-03-13 | 2016-05-31 | Kofax, Inc. | Systems and methods for classifying objects in digital images captured using mobile devices |
US9844324B2 (en) | 2013-03-14 | 2017-12-19 | X-Nav Technologies, LLC | Image guided navigation system |
US20140316841A1 (en) | 2013-04-23 | 2014-10-23 | Kofax, Inc. | Location-based workflows and services |
AU2014203047B2 (en) * | 2013-06-04 | 2019-01-24 | Nowww.Us Pty Ltd | A Login Process for Mobile Phones, Tablets and Other Types of Touch Screen Devices or Computers |
US9386235B2 (en) | 2013-11-15 | 2016-07-05 | Kofax, Inc. | Systems and methods for generating composite images of long documents using mobile video data |
US9402691B2 (en) | 2014-09-16 | 2016-08-02 | X-Nav Technologies, LLC | System for determining and tracking movement during a medical procedure |
US9943374B2 (en) | 2014-09-16 | 2018-04-17 | X-Nav Technologies, LLC | Image guidance system for detecting and tracking an image pose |
US9760788B2 (en) | 2014-10-30 | 2017-09-12 | Kofax, Inc. | Mobile document detection and orientation based on reference object characteristics |
US10242285B2 (en) | 2015-07-20 | 2019-03-26 | Kofax, Inc. | Iterative recognition-guided thresholding and data extraction |
US9779296B1 (en) | 2016-04-01 | 2017-10-03 | Kofax, Inc. | Content-based detection and three dimensional geometric reconstruction of objects in image and video data |
US11062176B2 (en) | 2017-11-30 | 2021-07-13 | Kofax, Inc. | Object detection and image cropping using a multi-detector approach |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2684830B1 (fr) * | 1991-12-10 | 1998-06-12 | Gen Electric Cgr | Procede d'analyse d'images. |
JP2870465B2 (ja) * | 1995-07-24 | 1999-03-17 | 日本電気株式会社 | 3次元参照画像切り出し方法及び装置並びに物体判定装置 |
US5842194A (en) * | 1995-07-28 | 1998-11-24 | Mitsubishi Denki Kabushiki Kaisha | Method of recognizing images of faces or general images using fuzzy combination of multiple resolutions |
JP2927350B2 (ja) * | 1997-03-27 | 1999-07-28 | 株式会社モノリス | 多重解像度フィルタ処理方法およびその方法を利用することのできる画像マッチング方法 |
JPH1139469A (ja) * | 1997-07-24 | 1999-02-12 | Mitsubishi Electric Corp | 顔画像処理装置 |
-
1997
- 1997-03-27 JP JP9095318A patent/JP2927350B2/ja not_active Expired - Lifetime
- 1997-04-28 US US08/848,099 patent/US6018592A/en not_active Expired - Lifetime
-
1999
- 1999-11-03 US US09/433,368 patent/US6137910A/en not_active Expired - Lifetime
-
2000
- 2000-10-23 US US09/693,981 patent/US6347152B1/en not_active Expired - Lifetime
-
2001
- 2001-12-10 US US10/006,237 patent/US20020064309A1/en not_active Abandoned
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2000030368A2 (en) * | 1998-11-18 | 2000-05-25 | Sarnoff Corporation | Identifying the location of a coding unit based on width and height of dc suband |
WO2000030368A3 (en) * | 1998-11-18 | 2001-01-18 | Sarnoff Corp | Identifying the location of a coding unit based on width and height of dc suband |
US7151857B2 (en) | 2000-11-28 | 2006-12-19 | Monolith Co., Ltd. | Image interpolating method and apparatus |
EP1213917A2 (en) * | 2000-11-30 | 2002-06-12 | Monolith Co., Ltd. | Image-effect method and apparatus using critical points |
EP1213917A3 (en) * | 2000-11-30 | 2002-07-17 | Monolith Co., Ltd. | Image-effect method and apparatus using critical points |
US7035452B2 (en) | 2001-02-16 | 2006-04-25 | Monolith Co. Ltd. | Method and apparatus for multivariate space processing |
JP2004522228A (ja) * | 2001-04-09 | 2004-07-22 | メイアーズ、ゲーリー、エリオット | ディジタル画像を表現し比較する方法 |
KR101461208B1 (ko) * | 2007-06-01 | 2014-11-18 | 케이비에이-노타시스 에스에이 | 보안 문서, 특히 은행권의 인증 |
JP2011501308A (ja) * | 2007-10-26 | 2011-01-06 | コンセホ スペリオール デ インヴェスティガシオーネス シエンティフィカス | フィンガープリントにおける特異点の分析のための方法およびシステム |
Also Published As
Publication number | Publication date |
---|---|
US20020064309A1 (en) | 2002-05-30 |
US6347152B1 (en) | 2002-02-12 |
JP2927350B2 (ja) | 1999-07-28 |
US6018592A (en) | 2000-01-25 |
US6137910A (en) | 2000-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2927350B2 (ja) | 多重解像度フィルタ処理方法およびその方法を利用することのできる画像マッチング方法 | |
JP3889233B2 (ja) | 画像符号化方法と装置および画像復号方法と装置 | |
JP2008282376A (ja) | 画像処理方法および装置 | |
JP2008252860A (ja) | 画像処理方法及び画像処理装置 | |
JP2002271788A (ja) | 画像符号化方法と装置および画像復号方法および装置 | |
JP3877651B2 (ja) | 画像処理方法と装置 | |
JP4157686B2 (ja) | 画像符号化および復号のための方法および装置 | |
JP2003018602A (ja) | 画像データ符号化および復号のための方法および装置 | |
JP3801870B2 (ja) | 多変量空間処理装置 | |
JP4050472B2 (ja) | 画像生成方法、装置およびシステム | |
JP4039858B2 (ja) | 画像マッチング方法と装置、および画像符号化方法と装置 | |
JP2002259979A (ja) | 画像補間方法と装置、および画像処理方法と装置 | |
JP2007122751A (ja) | 画像処理のための方法、装置、プログラム | |
JP2007316693A (ja) | 画像符号化方法および画像符号化装置 | |
JP2002190020A (ja) | 映像効果方法および装置 | |
JP4023727B2 (ja) | 監視装置、および監視方法 | |
JP2002095011A (ja) | 疑似3次元画像生成方法および装置 | |
JP3839353B2 (ja) | 画像符号化方法と装置および画像復号方法および装置 | |
JP4524412B2 (ja) | 画像符号化方法、復号方法および画像符号化装置、復号装置 | |
JP3773417B2 (ja) | 画像データ符号化および復号のための方法および装置 | |
JP2009003656A (ja) | 画像処理装置および画像処理方法 | |
JP4220735B2 (ja) | 画像処理方法、及び画像処理装置 | |
JP2005310190A (ja) | 画像補間方法と装置 | |
JP2002230572A (ja) | 映像効果方法と装置および画像補間方法と装置 | |
JP3764087B2 (ja) | 画像補間方法と装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
S804 | Written request for registration of cancellation of exclusive licence |
Free format text: JAPANESE INTERMEDIATE CODE: R314803 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S201 | Request for registration of exclusive licence |
Free format text: JAPANESE INTERMEDIATE CODE: R314201 |
|
S202 | Request for registration of non-exclusive licence |
Free format text: JAPANESE INTERMEDIATE CODE: R315201 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20170514 Year of fee payment: 18 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20170514 Year of fee payment: 18 |
|
R371 | Transfer withdrawn |
Free format text: JAPANESE INTERMEDIATE CODE: R371 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20170514 Year of fee payment: 18 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
EXPY | Cancellation because of completion of term |