JP3641126B2 - Image processing method and image processing apparatus - Google Patents

Image processing method and image processing apparatus Download PDF

Info

Publication number
JP3641126B2
JP3641126B2 JP06543898A JP6543898A JP3641126B2 JP 3641126 B2 JP3641126 B2 JP 3641126B2 JP 06543898 A JP06543898 A JP 06543898A JP 6543898 A JP6543898 A JP 6543898A JP 3641126 B2 JP3641126 B2 JP 3641126B2
Authority
JP
Japan
Prior art keywords
contour
image
feature
point
line segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP06543898A
Other languages
Japanese (ja)
Other versions
JPH11265455A (en
Inventor
真由美 湯浅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP06543898A priority Critical patent/JP3641126B2/en
Publication of JPH11265455A publication Critical patent/JPH11265455A/en
Application granted granted Critical
Publication of JP3641126B2 publication Critical patent/JP3641126B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像中の対象物の輪郭を抽出する画像処理方法及びそれを用いた画像処理装置に関する。
【0002】
【従来の技術】
従来、画像情報から物体の輪郭を抽出する方法としては、Snakes:Active Contour Models(M.Kass,et.al: Int.J.Computer Vision,1,321−331,1988)が提案されている。この方法は、複数個の離散点が有する弾性エネルギーと、画像エネルギーとの和を最小にするように離散点を移動させることにより、物体の輪郭を抽出する方法である。
【0003】
具体的には図11に示すように、輪郭抽出の対象とする物体22の例えば外側に閉輪郭23を定義する。この閉輪郭23の弾性エネルギーは次式(1)で表される。
【0004】
【数1】

Figure 0003641126
【0005】
式(1)において、α、βはそれぞれ弾性エネルギーの一次および二次の項の重みで、それぞれ閉輪郭23の収縮および滑らかさに関与している。sは閉輪郭23上での座標である。また画像エネルギーとしては次式(2)のEimage のようなエッジなどの画像の特徴を表すものが用いられる。
【0006】
【数2】
Figure 0003641126
これらのエネルギーの総和をEall とすると、次式(3)のようになる。
【0007】
【数3】
Figure 0003641126
【0008】
ただし、wimage は画像エネルギーEimage の重みである。このEall が最小になるように、閉輪郭23を移動させることにより、対象物体22の輪郭を抽出する。
【0009】
しかしながら、この方式では、輪郭の初期値が対象物の輪郭に十分近くなく、また、初期値の近傍に対象物の輪郭ではない間違ったエッジが存在する場合には、近くのエッジで止まってしまうという問題点があった。
【0010】
特に、心臓部の画像からの左室壁の輪郭を抽出することは、近年、虚血性心疾患による死亡者の増加等により、それらの疾患の診断のために、画像による心壁の動きの解析が行なわれるようになってきているため、非常に重要である。心臓部の画像から左室壁の輪郭を抽出する場合、心腔内のノイズなどの問題より、初期輪郭を適切に設定しないと高精度な輪郭抽出結果は得られないが、心臓断面の形には個人差があるため効果的な初期輪郭を少ない手間で設定することは困難である。また、エネルギー関数には多くのパラメータが含まれているが、これらのパラメータを適切に設定する必要があるという問題点があった。
【0011】
【発明が解決しようとする課題】
このように、従来、動的輪郭モデルによる輪郭抽出方法には、各種パラメータの設定等、初期輪郭の適切な設定が難しいという問題点があった。
そこで、本発明は、上記問題点に鑑み、画像中の対象物の動的輪郭抽出の際に、精確な初期輪郭の設定が容易に行え、その結果、正確で効率的な輪郭抽出が可能となる画像処理方法およびそれを用いた画像処理装置を提供することを目的とする。
【0012】
【課題を解決するための手段】
(1)本発明の画像処理方法は、入力された画像に対し入力された該画像中の対象物の1または複数の特徴点に基づき前記対象物の初期輪郭を生成し、前記特徴点の位置を変化させずに、前記対象物の輪郭形状の特徴量と前記画像の特徴量と必要に応じて与えられる前記初期輪郭の変化量との総和が最小になるように前記初期輪郭を変形することにより、前記画像中の対象物の輪郭を抽出することを特徴とする。
【0013】
本発明によれば、予め指定された特徴点の位置は保存したまま、画像中の対象物の動的輪郭抽出を行うことにより、より輪郭に近い初期輪郭の設定が容易に行え、正確で効率的な輪郭抽出が可能となる。
【0014】
(2)本発明の画像処理方法は、入力された連続する複数の画像のうちの少なくとも1つの画像に対し入力された該画像中の対象物の1または複数の特徴点に基づき他の画像中の特徴点を算出し、
前記複数の画像のうちの少なくとも1つの画像から前記特徴点に基づき前記対象物の初期輪郭を生成し、
前記特徴点の位置を変化させずに、前記対象物の輪郭形状の特徴量と前記画像の特徴量と必要に応じて与えられる前記初期輪郭の変化量との総和が最小になるように前記初期輪郭を変形することにより、前記画像中の対象物の輪郭を抽出し、この抽出された前記対象物の輪郭を後続の画像の初期輪郭とすることを特徴とする。
【0015】
本発明によれば、入力された連続する複数の画像のうちの少なくとも1つの画像に対し入力された該画像中の対象物の1または複数の特徴点に基づき他の画像中の特徴点を算出し、また、直前の画像の輪郭抽出結果を初期輪郭として用いて、各画像から特徴点の位置は保存したまま、画像中の対象物の動的輪郭抽出を行うことにより、動画像中の対象物の動的輪郭抽出の際にも、より輪郭に近い初期輪郭の設定が容易に行え、正確で効率的な輪郭抽出が可能となる。
【0016】
(3)上記画像処理方法において、複数のサンプル輪郭に基づきそのサンプル輪郭上の特徴点と該サンプル輪郭とを関係付ける操作量を算出し、必要に応じて調整された該操作量と前記入力された画像中の特徴点とに基づき前記対象物の初期輪郭を生成することを特徴とする。
【0017】
本発明によれば、過去の輪郭抽出結果に基づき特徴点と輪郭とを関係付ける操作量(代表ベクトル)を予め算出しておき、この操作量を必要に応じて調整しながら、これから輪郭を抽出しようとしている画像中の対象物の1または複数の特徴点に基づき前記対象物の初期輪郭を生成することにより、より精度の高い初期輪郭を生成することができる。
【0018】
(4)本発明の画像処理装置は、入力された画像に対し入力された該画像中の対象物の1または複数の特徴点に基づき前記対象物の初期輪郭を生成する生成手段と、
前記特徴点の位置を変化させずに、前記対象物の輪郭形状の特徴量と前記画像の特徴量と必要に応じて与えられる前記初期輪郭の変化量との総和が最小になるように前記初期輪郭を変形することにより、前記画像中の対象物の輪郭を抽出する輪郭抽出手段と、
を具備したことを特徴とする。
【0019】
本発明によれば、予め指定された特徴点の位置は保存したまま、画像中の対象物の動的輪郭抽出を行うことにより、より輪郭に近い初期輪郭の設定が容易に行え、正確で効率的な輪郭抽出が可能となる。
【0020】
(5)本発明の画像処理装置は、入力された連続する複数の画像のうちの少なくとも1つの画像に対し入力された該画像中の対象物の1または複数の特徴点に基づき他の画像中の特徴点を算出する算出手段と、
前記複数の画像のうちの少なくとも1つの画像から前記特徴点に基づき前記対象物の初期輪郭を生成する生成手段と、
前記特徴点の位置を変化させずに、前記対象物の輪郭形状の特徴量と前記画像の特徴量と必要に応じて与えられる前記初期輪郭の変化量との総和が最小になるように前記初期輪郭を変形することにより、前記画像中の対象物の輪郭を抽出する輪郭抽出手段と、
を具備し、
前記輪郭抽出手段で抽出された前記対象物の輪郭を後続の画像の初期輪郭とすることを特徴とする。
【0021】
本発明によれば、入力された連続する複数の画像のうちの少なくとも1つの画像に対し入力された該画像中の対象物の1または複数の特徴点に基づき他の画像中の特徴点を算出し、また、直前の画像の輪郭抽出結果を初期輪郭として用いて、各画像から特徴点の位置は保存したまま、画像中の対象物の動的輪郭抽出を行うことにより、動画像中の対象物の動的輪郭抽出の際にも、より輪郭に近い初期輪郭の設定が容易に行え、正確で効率的な輪郭抽出が可能となる。
【0022】
(6)上記画像処理装置において、前記生成手段は、複数のサンプル輪郭に基づきそのサンプル輪郭上の特徴点と該サンプル輪郭とを関係付ける操作量を算出し、必要に応じて調整された該操作量と前記入力された画像中の特徴点とに基づき前記対象物の初期輪郭を生成することを特徴とする。
【0023】
本発明によれば、過去の輪郭抽出結果に基づき特徴点と輪郭とを関係付ける操作量(代表ベクトル)を予め算出しておき、この操作量を必要に応じて調整しながら、これから輪郭を抽出しようとしている画像中の対象物の1または複数の特徴点に基づき前記対象物の初期輪郭を生成することにより、より精度の高い初期輪郭を生成することができる。
【0024】
【発明の実施の形態】
以下、本発明の実施形態について図面を参照して説明する。
(第1の実施形態)
図1は本発明の第1の実施形態に係る画像処理装置の構成例を概略的に示したものである。
【0025】
画像入力部1は処理対象の画像を入力するものである。画像表示部2は画像入力部1で入力された画像を表示するものである。特徴点入力部3は例えばマウス、トラックボール、レバー、キーボードなどから構成され、画像入力部1で入力された対象物の特徴点の座標を入力するものである。ここでは特徴点として例えば3点を入力するものとする。また、特徴点を入力する際には、画像表示部2で表示された画像中に、その位置を直接指示するようにしてもよいし、座標値で入力するようにしてもよい。
【0026】
初期輪郭生成部4では、入力された特徴点A、B、Cを補間することにより、図3に示すような初期輪郭を生成するようになっている。
例えば、図10に示すように、特徴点A、B、Cからなる各辺r11、r12、r13のそれぞれの中点を外側に垂直に一定距離移動した点y1、y2、y3を求め、特徴点とこれら各点を通る円弧とをつないだものを初期輪郭としてもよい。
【0027】
また、各辺r11、r12、r13のそれぞれの中点を外側に垂直に移動する際の距離の調整は、ユーザによってなされることが望ましい。
初期輪郭生成部4で生成される初期輪郭は、図3に示すように、複数の離散点(特徴点A、B、Cを含む)の座標値にて特定されるものである。
【0028】
輪郭抽出部5の構成例を図2に示す。
離散点移動部7では式(4)においてEall で表される全エネルギーが最小になるように初期輪郭を特定する特徴点以外の複数個の離散点を移動させる。ただし、特徴点入力部3で入力した特徴点については移動させないこととする。例えば、図3において、二重丸で表される特徴点A、B、Cの座標値はそのままにしてそれ以外の点(黒丸で表された点)のみを移動させる。
【0029】
【数4】
Figure 0003641126
【0030】
式(4)において、iは図4で表されるような複数個の離散点(特徴点を含む)の番号である。wimage (i)、wext (i)は重み係数である。Eint (i)は初期輪郭の形状の特徴量を表す内部エネルギーであり、本実施形態では次式(5)を用いるものとする。
【0031】
【数5】
Figure 0003641126
ただし、Vi =(xi 、yi )は離散点(特徴点を含む)の位置座標である。Eimage (i)は処理対象の画像の特徴量を表す画像エネルギーであり、ここでは式(6)を用いる。
【0032】
【数6】
Figure 0003641126
【0033】
ext (i)は必要に応じて付加する外部エネルギーで、具体的には、例えば、式(7)で表すことができる。すなわち、式(7)は離散点をある点V0 から遠ざけたり、V0 に近付けたりするエネルギーである。遠ざけるか近付けるかは係数kの正負によって決まる。
【0034】
【数7】
Figure 0003641126
【0035】
エネルギーの総和が最小となるような離散点の位置を求める解法として、変分法による方法を用いる。変分法によれば式(4)が最小となるためには式(8)のような連立方程式が成り立つことが必要である。
【0036】
【数8】
Figure 0003641126
ただし、
【0037】
【数9】
Figure 0003641126
とする。
今、x座標のみを考えるとすると、式(8)の連立方程式はベクトル表示で次式のように表すことができる。
【0038】
【数10】
Figure 0003641126
ただし、
【0039】
【数11】
Figure 0003641126
である。
この連立方程式をヤコビ法を用いて逐次近似法で解く。Aを次式(12)のように対角行列Dとそれ以外の部分Fに分ける。
【0040】
【数12】
Figure 0003641126
n回目の近似解をxn とすると、n+1回目の近似解xn+1 は、
【0041】
【数13】
Figure 0003641126
となる。ただし、γは収束速度パラメータである。
【0042】
以上の計算過程において、先に入力された特徴点については移動を行なわないものとする。
図2の離散点移動部7の構成例を図5に示す。
【0043】
画像エネルギー算出部9、外部エネルギー算出部10では、それぞれ式(4)におけるEimage (i)、Eext (i)を算出する。パラメータ記憶部12には各エネルギーの重み係数、式(13)における行列D、Fの要素の値、γ等が記憶されている。次座標算出部11では、式(13)を用いて各離散点の次座標を計算して、離散点を移動させる。
【0044】
離散点を移動させるごとに、図2の収束判定部8で収束条件を満たすかどうかを判定し、収束条件を満たさない場合には再び離散点移動部7で離散点の移動を行ない、収束条件を満たすまで繰り返す。
【0045】
収束条件としては、本実施形態では式(14)で表されるようなn回目の繰り返しでのエネルギーの変化量ΔEall n がある一定値より小さくなったときとする。
【0046】
【数14】
Figure 0003641126
【0047】
図2の収束判定部8の構成例を図6に示す。エネルギー算出部13では、式(4)のEall を算出する。それをn回目の値Eall n として、記憶部14に記憶しておく。そしてエネルギー比較部15で、記憶部14にあらかじめ記憶しておいたn−1回目の値Eall n-1 との差の絶対値ΔEall n を求めて、それが一定量εより小さければ収束したと判定し、大きければ収束していないと判定する。
【0048】
図1の出力部6では、輪郭抽出部6での輪郭抽出結果を、例えば、ディスプレイ装置に表示するようになっている。
以上説明したように、上記第1の実施形態によれば、予め指定された特徴点の位置は保存したまま、画像中の対象物の動的輪郭抽出を行うことにより、画像中の対象物の動的輪郭抽出の際に、より輪郭に近い初期輪郭の設定が容易に行え、正確で効率的な輪郭抽出が可能となる。
(第2の実施形態)
図7は、本発明の第2の実施形態に係る入力画像が動画像の場合の画像処理装置の構成例を概略的に示したものである。なお、図1と同一部分には同一符号を付し、異なる部分について説明する。すなわち、図7では、特徴点生成部16をさらに具備している。
【0049】
特徴点入力部3からは、入力される動画像の最初の1枚目の画像と、最後の画像に対し特徴点が入力される。特徴点が入力される動画像中の第1枚目の画像と最後の画像をここでは、代表画像と呼ぶことにする。
【0050】
特徴点生成部16では、代表画像以外の画像についての特徴点を生成するものである。すなわち、2枚の代表画像間に挟まれる代表画像でない各画像中の特徴点は、2枚の代表画像中の対応し合う特徴点の間で線形補間して求める。なお、特徴点の指定された画像(代表画像)は、1枚のみでも3枚以上あってもよい。代表画像が1枚のみの場合は、他の画像の特徴点についても、この指定された特徴点と同じとしてもよい。代表画像が3枚以上である場合も、上記同様、その間を線形補間して他の画像の特徴点を求めるようにしてもよい。
【0051】
輪郭抽出の際に使用する初期輪郭は、1枚目以外については、前時相の輪郭抽出結果を利用する。輪郭抽出方法については、第1の実施形態と同様、初期輪郭上の特徴点以外の離散点を収束条件を満たすまで移動させて輪郭抽出を行えばよい。
【0052】
以下、図7の画像処理装置の処理動作を概略的に説明する。
一枚目の画像について、
画像入力部1では目的とする画像を入力する。画像表示部2では目的とする画像を表示する。特徴点入力部3では、特徴点の座標を入力する。ここでは3点を入力するものとする。入力する手段としては、マウス、トラックボール、レバー、キーボードなどを用いる。初期輪郭生成部4では、入力された特徴点を補間することにより、初期輪郭を生成する。輪郭抽出部5については第1の実施形態と同様とする。
【0053】
一枚目ではない代表画像について、
画像入力部1では目的とする画像を入力する。画像表示部2では目的とする画像を表示する。特徴点入力部3では、特徴点の座標を入力する。ここでは3点を入力するものとする。入力する手段としては、マウス、トラックボール、レバー、キーボードなどを用いる。輪郭抽出部5については第1の実施形態と同様とするが、初期輪郭としては、直前の画像の輪郭抽出結果を用いる。
【0054】
代表画像ではない画像について、
画像入力部1では目的とする画像を入力する。特徴点生成部16において、特徴点の座標を算出する。輪郭抽出部5については第1の実施形態と同様とするが、初期輪郭としては、直前の画像の輪郭抽出結果を用いる。
【0055】
以上説明したように、上記第2の実施形態によれば、連続する複数の画像のうちの少なくとも1枚の代表画像(例えば、1枚目の画像と最後の画像)に対し入力された該画像中の対象物の1または複数の特徴点から他の画像中の特徴点を求め、複数の画像のうちの少なくとも1つの画像(例えば、1枚目の画像)から指定された特徴点に基づき該対象物の初期輪郭を生成して特徴点の位置を保存したまま該初期輪郭を変形することにより該対象物の輪郭を抽出したら、それを後続の画像の初期輪郭として用いて、以下同様に各画像から該対象物の輪郭を抽出することにより、動画像中の対象物の動的輪郭抽出の際にも、より輪郭に近い初期輪郭の設定が容易に行え、正確で効率的な輪郭抽出が可能となる。
(第3の実施形態)
本発明の第3の実施形態に係る画像処理装置は図1、図7と同様であり、初期輪郭生成部4の構成および処理動作が異なる。
【0056】
図8は、初期輪郭生成部4の構成例を示したものでる。
特徴点記憶部17には、図1および図7の特徴点入力部3から入力された特徴点(例えば3点)の座標データを記憶する。例えば、図9に示すように、特徴点A、B、Cが指定されたとする。
【0057】
代表ベクトル生成部18では、すでに輪郭の抽出されている複数のサンプル輪郭データから、その各サンプル輪郭データ中の特徴点(その輪郭を抽出する際にユーザにより指定されたもの)と該輪郭形状とを関係付けるための操作量として代表ベクトルを生成する。すなわち、各サンプル輪郭データのそれぞれから、1または複数の隣り合う特徴点間を結んで作られる単純図形(特徴点の数により定まり、例えば、特徴点が3点であるなら3角形)の各辺(特徴点と特徴点とを結ぶ線分)上の点(特徴点と特徴点とを結ぶ線分の中点あるいは、該線分上の複数のサンプル点のそれぞれ)から該輪郭までの距離値を1次元のベクトルの集合として求める。例えば、図9において、特徴点A、B、Cでつくられる線分AB、BC(図9中、線分m1、m2)の中点あるいは各線分m1、m2上の複数のサンプル点のそれぞれから輪郭までの距離を求め、それを1次元のベクトルで表す。その際、必要に応じて線分m1、m2の長さで正規化を行ってもよい。そして、例えば、複数のサンプルデータ内で対応し合う線分どうしで距離の平均値をとる、すなわち、ベクトルの平均値を求める、あるいは複数のサンプルデータベクトルに対して主成分分析を行い、第1主成分ベクトルのみを取り出すといった統計処理により、各線分を外側に広げる広げ方を定める代表ベクトルを生成する。このようにして生成された代表ベクトルは代表ベクトル記憶部19で記憶される。
【0058】
パラメータ入力部20には、代表ベクトルをこれから輪郭を抽出しようとしている画像中の対象物の形状の特徴に適合させるべく、そのためにユーザにより選択された調整量としてのパラメータが入力するようになっている。このパラメータとしては、例えば、図9の特徴点を結ぶ線分m1、m2を外側に広げる際の広げ方の程度を定める任意の定数であってもよい。
【0059】
パラメータ入力部20を介してパラメータが入力されると、輪郭生成部21では、代表ベクトル記憶部19に記憶されている代表ベクトルに該パラメータを乗じて、初期輪郭を生成する。
【0060】
輪郭生成部21では、例えば、図10に示すように、特徴点A、B、Cからなる各辺r11、r12、r13のそれぞれの中点を代表ベクトルの向き(すなわち、各辺から外側に向く方向)へ該代表ベクトルの大きさに上記パラメータを乗じた値だけ移動した点y1、y2、y3を求め、特徴点とこれら各点を通る円弧とをつないて初期輪郭を生成する。
【0061】
以上説明したように、上記第3の実施形態によれば、過去の輪郭抽出結果に基づき特徴点と輪郭とを関係付ける操作量(代表ベクトル)を予め算出しておき、この操作量を必要に応じて調整しながら、これから輪郭を抽出しようとしている画像中の対象物の1または複数の特徴点に基づき前記対象物の初期輪郭を生成することにより、より精度の高い初期輪郭を生成することができる。
【0062】
本発明は上記第1〜第3実施形態に限定されるものではない。
収束判定部8における収束条件としては、エネルギーの変化量による方法をあげたが、複数個の離散点の移動量がある一定値より小さくなったとき、あるいはこのような条件で収束しない場合もあることを考慮して、繰り返しの回数で収束させる、すなわち、ある一定回数収束演算を行なったら収束したとみなすようにすることもできる。
【0063】
また、エネルギー最小化の方法として、変分法による方法を使用したが、他の方法、例えば動的計画法を用いても差し支えない。
また、エッジ検出方法としては、グラディエント法を用いたが、他のエッジ検出方法を用いても差し支えない。例えば、ソーベルオペレータを用いる方法、グラディエントを求めた後、2値化する方法などが考えられる。
【0064】
また、特徴点として上記第1〜第3の実施形態では、3点の場合について示したが、それ以上あるいはそれ以下であっても差し支えない。
特に、画像入力部1から入力される処理対象の画像が、X線、MRI、聴音波診断装置等から得られる心臓部左心室像であるとき、特徴点は、心尖部1点、弁輪部両端の2点とすることが望ましい。
【0065】
【発明の効果】
以上説明したように、本発明によれば、画像中の対象物の動的輪郭抽出の際に、より輪郭に近い初期輪郭の設定が容易に行え、正確で効率的な輪郭抽出が可能となる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態に係る画像処理装置の構成例を示した図。
【図2】輪郭抽出部の構成例を示した図。
【図3】入力された特徴点の一例を示した図。
【図4】複数の離散点(特徴点を含む)から構成される初期輪郭の一例を示した図。
【図5】離散点移動部の構成例を示した図。
【図6】収束判定部の構成例を示した図。
【図7】本発明の第2の実施形態に係る画像処理装置の構成例を示した図。
【図8】本発明の第3の実施形態に係る画像処理装置の初期輪郭生成部の構成例を示した図。
【図9】代表ベクトルの生成方法を説明するための図。
【図10】初期輪郭生成方法を説明するための図。
【図11】従来の輪郭抽出処理について説明するための図で、輪郭抽出の対象となる物体の外側に閉輪郭を定義して初期値としていた場合を示している。
【符号の説明】
1…画像入力部
2…画像表示部
3…特徴点入力部
4…初期輪郭生成部
5…輪郭抽出部
6…出力部
7…離散点移動部
8…収束判定部
9…画像エネルギー算出部
10…外部エネルギー算出部
11…次座標算出部
12…記憶部
13…エネルギー算出部
14…記憶部
15…エネルギー比較部
16…特徴点生成部
17…特徴点記憶部
18…代表ベクトル生成部
19…代表ベクトル記憶部
20…パラメータ入力部
21…輪郭生成部
22…輪郭抽出の対象となる物体
23…閉輪郭[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing method for extracting an outline of an object in an image and an image processing apparatus using the image processing method.
[0002]
[Prior art]
Conventionally, Snakes: Active Control Models (M. Kass, et.al: Int. J. Computer Vision, 1, 321-331, 1988) has been proposed as a method for extracting the outline of an object from image information. This method is a method for extracting the contour of an object by moving the discrete points so as to minimize the sum of the elastic energy of the plurality of discrete points and the image energy.
[0003]
Specifically, as shown in FIG. 11, a closed contour 23 is defined, for example, outside the object 22 to be contour extracted. The elastic energy of the closed contour 23 is expressed by the following equation (1).
[0004]
[Expression 1]
Figure 0003641126
[0005]
In equation (1), α and β are the weights of the primary and secondary terms of the elastic energy, respectively, and are involved in the contraction and smoothness of the closed contour 23, respectively. s is a coordinate on the closed contour 23. As the image energy, an image energy such as an edge like E image in the following formula (2) is used.
[0006]
[Expression 2]
Figure 0003641126
When the sum of these energies is E all , the following equation (3) is obtained.
[0007]
[Equation 3]
Figure 0003641126
[0008]
Where w image is the weight of the image energy E image . The contour of the target object 22 is extracted by moving the closed contour 23 so that E all is minimized.
[0009]
However, in this method, when the initial value of the contour is not sufficiently close to the contour of the object, and there is an incorrect edge that is not the contour of the object in the vicinity of the initial value, the contour stops at the nearby edge. There was a problem.
[0010]
In particular, extracting the contours of the left ventricular wall from the heart image is an analysis of the movement of the heart wall by images for the diagnosis of those diseases due to the increase in the number of deaths due to ischemic heart disease in recent years. Is very important because it is being carried out. When extracting the contour of the left ventricular wall from the image of the heart, due to problems such as noise in the heart chamber, an accurate contour extraction result cannot be obtained unless the initial contour is set appropriately. Since there are individual differences, it is difficult to set an effective initial contour with little effort. Moreover, although many parameters are included in the energy function, there is a problem that these parameters need to be set appropriately.
[0011]
[Problems to be solved by the invention]
As described above, conventionally, the contour extraction method using the dynamic contour model has a problem that it is difficult to appropriately set the initial contour such as setting various parameters.
Therefore, in view of the above problems, the present invention can easily set an accurate initial contour when extracting a dynamic contour of an object in an image. As a result, accurate and efficient contour extraction is possible. It is an object of the present invention to provide an image processing method and an image processing apparatus using the image processing method.
[0012]
[Means for Solving the Problems]
(1) The image processing method of the present invention generates an initial contour of the object based on one or a plurality of feature points of the object in the input image, and the position of the feature point. The initial contour is deformed so that the sum of the feature amount of the contour shape of the object, the feature amount of the image, and the amount of change of the initial contour given as necessary is minimized without changing Thus, the outline of the object in the image is extracted.
[0013]
According to the present invention, it is possible to easily set an initial contour closer to the contour, and to accurately and efficiently perform the dynamic contour extraction of the object in the image while keeping the position of the feature point designated in advance. Contour extraction is possible.
[0014]
(2) The image processing method of the present invention is based on one or a plurality of feature points of an object in an image input to at least one of a plurality of input continuous images. Calculate the feature points of
Generating an initial contour of the object based on the feature points from at least one of the plurality of images;
Without changing the position of the feature point, the initial value is such that the sum of the feature amount of the contour shape of the object, the feature amount of the image, and the change amount of the initial contour given as necessary is minimized. The contour of the object is extracted from the image by deforming the contour, and the extracted contour of the object is used as the initial contour of the subsequent image.
[0015]
According to the present invention, a feature point in another image is calculated based on one or more feature points of an object in the input image for at least one of a plurality of input continuous images. In addition, by using the contour extraction result of the immediately preceding image as the initial contour and performing the dynamic contour extraction of the object in the image while keeping the position of the feature point from each image, the target in the moving image is obtained. Also when extracting the dynamic contour of an object, an initial contour closer to the contour can be easily set, and accurate and efficient contour extraction can be performed.
[0016]
(3) In the above image processing method, an operation amount relating a feature point on the sample contour and the sample contour is calculated based on a plurality of sample contours, and the operation amount adjusted as necessary is input to the operation amount. The initial contour of the object is generated based on the feature points in the image.
[0017]
According to the present invention, an operation amount (representative vector) relating feature points and contours is calculated in advance based on past contour extraction results, and the contour is extracted from this while adjusting the operation amount as necessary. By generating the initial contour of the target object based on one or more feature points of the target object in the image to be obtained, a more accurate initial contour can be generated.
[0018]
(4) The image processing apparatus of the present invention includes a generating unit that generates an initial contour of the object based on one or a plurality of feature points of the object in the input image with respect to the input image;
Without changing the position of the feature point, the initial value is such that the sum of the feature amount of the contour shape of the object, the feature amount of the image, and the change amount of the initial contour given as necessary is minimized. Contour extracting means for extracting the contour of the object in the image by deforming the contour;
It is characterized by comprising.
[0019]
According to the present invention, it is possible to easily set an initial contour closer to the contour, and to accurately and efficiently perform the dynamic contour extraction of the object in the image while keeping the position of the feature point designated in advance. Contour extraction is possible.
[0020]
(5) The image processing apparatus according to the present invention may be used in another image based on one or more feature points of an object in the input image for at least one of a plurality of input images. Calculating means for calculating the feature point of
Generating means for generating an initial contour of the object based on the feature points from at least one of the plurality of images;
Without changing the position of the feature point, the initial value is such that the sum of the feature amount of the contour shape of the object, the feature amount of the image, and the change amount of the initial contour given as necessary is minimized. Contour extracting means for extracting the contour of the object in the image by deforming the contour;
Comprising
The contour of the object extracted by the contour extracting means is used as an initial contour of a subsequent image.
[0021]
According to the present invention, a feature point in another image is calculated based on one or more feature points of an object in the input image for at least one of a plurality of input continuous images. In addition, by using the contour extraction result of the immediately preceding image as the initial contour and performing the dynamic contour extraction of the object in the image while keeping the position of the feature point from each image, the target in the moving image is obtained. Also when extracting the dynamic contour of an object, an initial contour closer to the contour can be easily set, and accurate and efficient contour extraction can be performed.
[0022]
(6) In the image processing apparatus, the generation unit calculates an operation amount relating a feature point on the sample contour to the sample contour based on a plurality of sample contours, and the operation adjusted as necessary An initial contour of the object is generated based on the quantity and the feature point in the input image.
[0023]
According to the present invention, an operation amount (representative vector) relating feature points and contours is calculated in advance based on past contour extraction results, and the contour is extracted from this while adjusting the operation amount as necessary. By generating the initial contour of the target object based on one or more feature points of the target object in the image to be obtained, a more accurate initial contour can be generated.
[0024]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings.
(First embodiment)
FIG. 1 schematically shows a configuration example of an image processing apparatus according to the first embodiment of the present invention.
[0025]
The image input unit 1 inputs an image to be processed. The image display unit 2 displays the image input by the image input unit 1. The feature point input unit 3 includes, for example, a mouse, a trackball, a lever, a keyboard, and the like, and inputs the feature point coordinates of the object input by the image input unit 1. Here, for example, three points are input as feature points. Further, when inputting a feature point, the position may be directly indicated in the image displayed on the image display unit 2 or may be input by a coordinate value.
[0026]
The initial contour generation unit 4 generates an initial contour as shown in FIG. 3 by interpolating the input feature points A, B, and C.
For example, as shown in FIG. 10, the points y1, y2, and y3 obtained by moving the midpoints of the sides r11, r12, and r13 consisting of the feature points A, B, and C vertically by a predetermined distance are obtained. And an arc that passes through these points may be used as the initial contour.
[0027]
Further, it is desirable that the user adjusts the distance when moving the midpoint of each of the sides r11, r12, r13 vertically outward.
As shown in FIG. 3, the initial contour generated by the initial contour generation unit 4 is specified by the coordinate values of a plurality of discrete points (including feature points A, B, and C).
[0028]
A configuration example of the contour extraction unit 5 is shown in FIG.
The discrete point moving unit 7 moves a plurality of discrete points other than the feature points that specify the initial contour so that the total energy represented by E all in Equation (4) is minimized. However, the feature points input by the feature point input unit 3 are not moved. For example, in FIG. 3, the coordinate values of the feature points A, B, and C represented by double circles are left as they are, and only the other points (points represented by black circles) are moved.
[0029]
[Expression 4]
Figure 0003641126
[0030]
In Equation (4), i is the number of a plurality of discrete points (including feature points) as shown in FIG. w image (i) and w ext (i) are weighting factors. E int (i) is internal energy representing the feature amount of the shape of the initial contour, and in the present embodiment, the following equation (5) is used.
[0031]
[Equation 5]
Figure 0003641126
However, V i = (x i , y i ) is a position coordinate of a discrete point (including a feature point). E image (i) is image energy representing the feature amount of the image to be processed, and here, Expression (6) is used.
[0032]
[Formula 6]
Figure 0003641126
[0033]
E ext (i) is an external energy added as necessary, and can be specifically expressed by, for example, Expression (7). That is, Expression (7) is energy for moving a discrete point away from a certain point V 0 or approaching V 0 . Whether to move away or approach is determined by the sign of the coefficient k.
[0034]
[Expression 7]
Figure 0003641126
[0035]
A variational method is used as a solution for obtaining the positions of discrete points that minimize the total energy. In order to minimize Equation (4) according to the variational method, simultaneous equations such as Equation (8) must be satisfied.
[0036]
[Equation 8]
Figure 0003641126
However,
[0037]
[Equation 9]
Figure 0003641126
And
If only the x-coordinate is considered now, the simultaneous equations of equation (8) can be expressed as the following equation in vector representation.
[0038]
[Expression 10]
Figure 0003641126
However,
[0039]
[Expression 11]
Figure 0003641126
It is.
This simultaneous equation is solved by the successive approximation method using the Jacobian method. A is divided into a diagonal matrix D and a portion F other than that as shown in the following equation (12).
[0040]
[Expression 12]
Figure 0003641126
Assuming that the nth approximate solution is xn , the (n + 1) th approximate solution xn + 1 is
[0041]
[Formula 13]
Figure 0003641126
It becomes. Where γ is a convergence speed parameter.
[0042]
In the above calculation process, it is assumed that the previously inputted feature points are not moved.
A configuration example of the discrete point moving unit 7 of FIG. 2 is shown in FIG.
[0043]
The image energy calculation unit 9 and the external energy calculation unit 10 calculate E image (i) and E ext (i) in Equation (4), respectively. The parameter storage unit 12 stores a weighting coefficient for each energy, values of elements of the matrices D and F in Expression (13), γ, and the like. The next coordinate calculation unit 11 calculates the next coordinate of each discrete point using Expression (13), and moves the discrete point.
[0044]
Each time the discrete point is moved, it is determined whether or not the convergence condition is satisfied by the convergence determination unit 8 in FIG. 2. If the convergence condition is not satisfied, the discrete point is moved again by the discrete point movement unit 7. Repeat until
[0045]
As the convergence condition, in this embodiment, it is assumed that the energy change amount ΔE all n at the n-th iteration as expressed by Expression (14) becomes smaller than a certain value.
[0046]
[Expression 14]
Figure 0003641126
[0047]
A configuration example of the convergence determination unit 8 in FIG. 2 is shown in FIG. The energy calculation unit 13 calculates E all in Equation (4). This is stored in the storage unit 14 as the nth value E all n . Then, the energy comparison unit 15 obtains the absolute value ΔE all n of the difference from the n− 1th value E all n−1 stored in the storage unit 14 in advance, and converges if it is smaller than a certain amount ε. If it is larger, it is determined that it has not converged.
[0048]
In the output unit 6 of FIG. 1, the contour extraction result in the contour extraction unit 6 is displayed on, for example, a display device.
As described above, according to the first embodiment, the dynamic contour extraction of the object in the image is performed while the position of the feature point designated in advance is stored, so that the object in the image can be extracted. At the time of dynamic contour extraction, an initial contour closer to the contour can be easily set, and accurate and efficient contour extraction becomes possible.
(Second Embodiment)
FIG. 7 schematically shows a configuration example of an image processing apparatus when an input image according to the second embodiment of the present invention is a moving image. In addition, the same code | symbol is attached | subjected to FIG. 1 and an identical part, and a different part is demonstrated. That is, in FIG. 7, the feature point generation unit 16 is further provided.
[0049]
The feature point input unit 3 inputs feature points for the first image and the last image of the input moving image. Here, the first image and the last image in the moving image to which the feature points are input are referred to as representative images here.
[0050]
The feature point generation unit 16 generates feature points for images other than the representative image. That is, feature points in each image that are not representative images sandwiched between two representative images are obtained by linear interpolation between corresponding feature points in the two representative images. Note that the number of images (representative images) in which feature points are specified may be one or three or more. When there is only one representative image, the feature points of other images may be the same as the designated feature points. Even when there are three or more representative images, the feature points of other images may be obtained by linear interpolation between them as described above.
[0051]
As for the initial contour used for contour extraction, the contour extraction result of the previous time phase is used for those other than the first one. As for the contour extraction method, the contour extraction may be performed by moving discrete points other than the feature points on the initial contour until the convergence condition is satisfied, as in the first embodiment.
[0052]
Hereinafter, the processing operation of the image processing apparatus of FIG. 7 will be schematically described.
For the first image,
The image input unit 1 inputs a target image. The image display unit 2 displays a target image. The feature point input unit 3 inputs the coordinates of the feature points. Here, three points are input. As a means for inputting, a mouse, trackball, lever, keyboard or the like is used. The initial contour generation unit 4 generates an initial contour by interpolating the input feature points. The contour extraction unit 5 is the same as that in the first embodiment.
[0053]
For representative images that are not the first one,
The image input unit 1 inputs a target image. The image display unit 2 displays a target image. The feature point input unit 3 inputs the coordinates of the feature points. Here, three points are input. As a means for inputting, a mouse, trackball, lever, keyboard or the like is used. The contour extraction unit 5 is the same as that in the first embodiment, but the contour extraction result of the immediately preceding image is used as the initial contour.
[0054]
For images that are not representative images,
The image input unit 1 inputs a target image. The feature point generation unit 16 calculates the coordinates of the feature points. The contour extraction unit 5 is the same as that in the first embodiment, but the contour extraction result of the immediately preceding image is used as the initial contour.
[0055]
As described above, according to the second embodiment, the image input to at least one representative image (for example, the first image and the last image) of a plurality of consecutive images. A feature point in another image is obtained from one or more feature points of the object in the object, and the feature point is determined based on a feature point designated from at least one image (for example, the first image) of the plurality of images. Once the initial contour of the object is extracted by generating the initial contour of the object and transforming the initial contour while preserving the position of the feature points, it is used as the initial contour of the subsequent image. By extracting the contour of the object from the image, the initial contour closer to the contour can be easily set even when the dynamic contour of the target object in the moving image is extracted, and accurate and efficient contour extraction can be performed. It becomes possible.
(Third embodiment)
The image processing apparatus according to the third embodiment of the present invention is the same as that shown in FIGS. 1 and 7, and the configuration and processing operation of the initial contour generation unit 4 are different.
[0056]
FIG. 8 shows a configuration example of the initial contour generation unit 4.
The feature point storage unit 17 stores coordinate data of feature points (for example, three points) input from the feature point input unit 3 of FIGS. 1 and 7. For example, assume that feature points A, B, and C are designated as shown in FIG.
[0057]
In the representative vector generation unit 18, from a plurality of sample contour data from which contours have already been extracted, feature points in each sample contour data (specified by the user when extracting the contours) and the contour shape A representative vector is generated as an operation amount for relating. That is, each side of a simple figure (determined by the number of feature points, for example, a triangle if there are three feature points) formed from each sample contour data by connecting one or more adjacent feature points The distance value from the point (the midpoint of the line connecting the feature point to the feature point or each of a plurality of sample points on the line segment) on the (line connecting the feature point to the feature point) to the contour As a set of one-dimensional vectors. For example, in FIG. 9, from the midpoints of line segments AB and BC (line segments m1 and m2 in FIG. 9) formed by feature points A, B and C, or from each of a plurality of sample points on each line segment m1 and m2. The distance to the contour is obtained and expressed as a one-dimensional vector. In that case, you may normalize by the length of line segment m1, m2 as needed. Then, for example, an average value of distances between line segments corresponding to each other in a plurality of sample data is obtained, that is, an average value of vectors is obtained, or a principal component analysis is performed on a plurality of sample data vectors. By means of statistical processing such as extracting only the principal component vector, a representative vector that defines how to spread each line segment outward is generated. The representative vector generated in this way is stored in the representative vector storage unit 19.
[0058]
A parameter as an adjustment amount selected by the user is input to the parameter input unit 20 in order to adapt the representative vector to the feature of the shape of the object in the image from which the contour is to be extracted. Yes. This parameter may be, for example, an arbitrary constant that defines the degree of expansion when the line segments m1 and m2 connecting the feature points in FIG. 9 are expanded outward.
[0059]
When a parameter is input via the parameter input unit 20, the contour generation unit 21 multiplies the representative vector stored in the representative vector storage unit 19 by the parameter to generate an initial contour.
[0060]
In the contour generation unit 21, for example, as shown in FIG. 10, the midpoint of each of the sides r11, r12, r13 consisting of feature points A, B, C is directed to the direction of the representative vector (that is, outward from each side). Points y1, y2, and y3 that are moved in the direction) by the value obtained by multiplying the size of the representative vector by the above parameter are obtained, and an initial contour is generated by connecting the feature points and arcs passing through these points.
[0061]
As described above, according to the third embodiment, an operation amount (representative vector) relating feature points and contours is calculated in advance based on past contour extraction results, and this operation amount is required. A more accurate initial contour can be generated by generating the initial contour of the object based on one or more feature points of the object in the image from which the contour is to be extracted, while adjusting accordingly. it can.
[0062]
The present invention is not limited to the first to third embodiments.
As a convergence condition in the convergence determination unit 8, a method based on the amount of change in energy is given. However, when the amount of movement of a plurality of discrete points becomes smaller than a certain value, there are cases where the convergence does not occur under such a condition. In consideration of this, it is also possible to make it converge by the number of repetitions, that is, it can be regarded as converged after performing a certain number of convergence operations.
[0063]
Further, although the variational method is used as the energy minimizing method, other methods such as dynamic programming may be used.
In addition, although the gradient method is used as the edge detection method, other edge detection methods may be used. For example, a method using a Sobel operator, a method of binarizing after obtaining a gradient, and the like can be considered.
[0064]
Further, in the first to third embodiments, the case of three points is shown as the feature point, but it may be more or less than that.
In particular, when the image to be processed input from the image input unit 1 is a left ventricular image of the heart obtained from an X-ray, MRI, acoustic diagnosis apparatus, or the like, the feature points are one apex, annulus It is desirable to have two points at both ends.
[0065]
【The invention's effect】
As described above, according to the present invention, when an active contour is extracted from an object in an image, an initial contour closer to the contour can be easily set, and accurate and efficient contour extraction can be performed. .
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a configuration example of an image processing apparatus according to a first embodiment of the present invention.
FIG. 2 is a diagram illustrating a configuration example of a contour extraction unit.
FIG. 3 is a diagram showing an example of input feature points.
FIG. 4 is a diagram showing an example of an initial contour composed of a plurality of discrete points (including feature points).
FIG. 5 is a diagram illustrating a configuration example of a discrete point moving unit.
FIG. 6 is a diagram illustrating a configuration example of a convergence determination unit.
FIG. 7 is a diagram illustrating a configuration example of an image processing apparatus according to a second embodiment of the present invention.
FIG. 8 is a diagram illustrating a configuration example of an initial contour generation unit of an image processing apparatus according to a third embodiment of the present invention.
FIG. 9 is a view for explaining a representative vector generation method;
FIG. 10 is a diagram for explaining an initial contour generation method;
FIG. 11 is a diagram for explaining a conventional contour extraction process, and shows a case where a closed contour is defined outside a target object for contour extraction and set as an initial value.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Image input part 2 ... Image display part 3 ... Feature point input part 4 ... Initial contour generation part 5 ... Contour extraction part 6 ... Output part 7 ... Discrete point moving part 8 ... Convergence determination part 9 ... Image energy calculation part 10 ... External energy calculation unit 11 ... next coordinate calculation unit 12 ... storage unit 13 ... energy calculation unit 14 ... storage unit 15 ... energy comparison unit 16 ... feature point generation unit 17 ... feature point storage unit 18 ... representative vector generation unit 19 ... representative vector Storage unit 20 ... parameter input unit 21 ... contour generation unit 22 ... object 23 for contour extraction ... closed contour

Claims (4)

対象物の撮像された画像を入力する第1のステップと、
入力された前記画像に対し、3点以上の前記対象物の特徴点を入力する第2のステップと、
入力された特徴点に基づき前記対象物の初期輪郭を生成する第3のステップと、
前記特徴点の位置を変化させずに、前記対象物の輪郭形状の特徴量と前記画像の特徴量と必要に応じて与えられる前記初期輪郭の変化量との総和が最小になるように前記初期輪郭を変形することにより、前記画像中の対象物の輪郭を抽出する第4のステップと、
を有し、
前記第3のステップは、
前記第4のステップで抽出された過去の複数のサンプル輪郭のそれぞれから、当該サンプル輪郭を抽出する際に入力された隣り合う特徴点間を結んで得られる各線分上の点から当該サンプル輪郭までの方向と距離を示すベクトルを求めるステップと、
前記複数のサンプル輪郭のそれぞれから求めた複数の前記ベクトルを統計処理して、前記各線分に対応し、当該線分を外側に広げる広げ方を定める代表ベクトルを生成するステップと、
前記代表ベクトルを記憶手段に記憶するステップと、
前記第2のステップで入力された隣り合う特徴点間を結んで得られる各線分上の点を、前記記憶手段で記憶された当該線分に対応する前記代表ベクトルの示す方向へ当該代表ベクトルの示す距離だけ移動させて、前記初期輪郭を生成するための各点を求めるステップと、
前記第2のステップで入力された各特徴点と、求めた各点を通る円弧とをつないで前記初期輪郭を生成するステップと、
を有することを特徴とする画像処理方法。
A first step of inputting a captured image of the object;
A second step of inputting three or more feature points of the object with respect to the input image;
A third step of generating an initial contour of the object based on the input feature points;
Without changing the position of the feature point, the initial value is such that the sum of the feature amount of the contour shape of the object, the feature amount of the image, and the change amount of the initial contour given as necessary is minimized. A fourth step of extracting the contour of the object in the image by deforming the contour ;
Have
The third step includes
From each of a plurality of past sample contours extracted in the fourth step to points on each line segment obtained by connecting adjacent feature points input when extracting the sample contour to the sample contour Obtaining a vector indicating the direction and distance of
Statistically processing the plurality of vectors obtained from each of the plurality of sample contours, and generating a representative vector corresponding to each line segment and defining how to spread the line segment outward;
Storing the representative vector in a storage means;
A point on each line segment obtained by connecting adjacent feature points input in the second step is moved in the direction indicated by the representative vector corresponding to the line segment stored in the storage unit. Moving the indicated distance to obtain each point for generating the initial contour; and
Generating the initial contour by connecting each feature point input in the second step and an arc passing through each obtained point;
An image processing method comprising:
対象物の撮像された連続する複数の画像を入力する第1のステップと、
入力された前記複数の画像のうちの1枚目の画像と最後の画像のそれぞれに対し、3点以上の前記対象物の特徴点を入力する第2のステップと、
前記1枚目の画像及び前記最後の画像の間に挟まれる各画像上の前記対象物の特徴点を前記1枚目の画像及び前記最後の画像上の対応する特徴点間で線形補間により求める第3のステップと、
前記複数の画像のうちの1つの第1の画像上の前記特徴点に基づき前記対象物の初期輪郭を生成する第4のステップと
前記特徴点の位置を変化させずに、前記対象物の輪郭形状の特徴量と前記第1の画像の特徴量と必要に応じて与えられる前記初期輪郭の変化量との総和が最小になるように前記初期輪郭を変形することにより、前記第1の画像中の対象物の輪郭を抽出する第5のステップと、
抽出された前記対象物の輪郭を後続の画像の初期輪郭に設定する第6のステップと、
を有し、
前記第4のステップは、
前記第5のステップで抽出された過去の複数のサンプル輪郭から、当該サンプル輪郭を抽出する際に入力された隣り合う特徴点間を結んで得られる各線分上の点から当該サンプル輪郭までの方向と距離を示すベクトルを求めるステップと、
前記複数のサンプル輪郭のそれぞれから求めた複数の前記ベクトルを統計処理して、前記各線分に対応し、当該線分を外側に広げる広げ方を定める代表ベクトルを生成するステップと、
前記代表ベクトルを記憶手段に記憶するステップと、
前記第1の画像上の隣り合う特徴点間を結んで得られる各線分上の点を、前記記憶手段で記憶された当該線分に対応する前記代表ベクトルの示す方向へ当該代表ベクトルの示す 距離だけ移動させて、前記初期輪郭を生成するための各点を求めるステップと、
前記第1の画像上の各特徴点と、求めた各点を通る円弧とをつないで前記初期輪郭を生成するステップと、
を有することを特徴とする画像処理方法。
A first step of inputting a plurality of consecutive images of the target imaged;
A second step of inputting three or more feature points of the object for each of the first image and the last image of the plurality of inputted images;
A feature point of the object on each image sandwiched between the first image and the last image is obtained by linear interpolation between corresponding feature points on the first image and the last image. A third step;
A fourth step of generating an initial contour of the object based on the feature points on a first image of one of the plurality of images ;
The sum of the feature amount of the contour shape of the object, the feature amount of the first image, and the change amount of the initial contour given as necessary is minimized without changing the position of the feature point. A fifth step of extracting the contour of the object in the first image by deforming the initial contour ;
A sixth step of setting the extracted contour of the object as an initial contour of a subsequent image ;
Have
The fourth step includes
A direction from a point on each line segment obtained by connecting adjacent feature points input when extracting the sample contour from a plurality of past sample contours extracted in the fifth step to the sample contour And obtaining a vector indicating the distance;
Statistically processing the plurality of vectors obtained from each of the plurality of sample contours, and generating a representative vector corresponding to each line segment and defining how to spread the line segment outward;
Storing the representative vector in a storage means;
A distance indicated by the representative vector in a direction indicated by the representative vector corresponding to the line segment stored in the storage unit, with respect to a point on each line segment obtained by connecting adjacent feature points on the first image And determining each point for generating the initial contour;
Generating the initial contour by connecting each feature point on the first image and an arc passing through each obtained point;
An image processing method comprising:
対象物の撮像された画像を入力する画像入力手段と、
入力された前記画像に対し、3点以上の前記対象物の特徴点を入力する特徴点入力手段と、
入力された特徴点に基づき前記対象物の初期輪郭を生成する初期輪郭生成手段と、
前記特徴点の位置を変化させずに、前記対象物の輪郭形状の特徴量と前記画像の特徴量と必要に応じて与えられる前記初期輪郭の変化量との総和が最小になるように前記初期輪郭を変形することにより、前記画像中の対象物の輪郭を抽出する輪郭抽出手段と
を備え、
前記初期輪郭生成手段は、
前記輪郭抽出手段で抽出された過去の複数のサンプル輪郭のそれぞれから、当該サンプル輪郭を抽出する際に入力された隣り合う特徴点間を結んで得られる各線分上の点から当該サンプル輪郭までの方向と距離を示すベクトルを求めて、前記複数のサンプル輪郭のそれぞれから求めた複数の前記ベクトルを統計処理し、前記各線分に対応し、当該線分を外側に広げる広げ方を定める代表ベクトルを生成する代表ベクトル生成手段と、
前記代表ベクトルを記憶する記憶手段と、
前記特徴点入力手段で入力された隣り合う特徴点間を結んで得られる各線分上の点を、前記記憶手段で記憶された当該線分に対応する前記代表ベクトルの示す方向へ当該代表ベクトルの示す距離だけ移動させて、前記初期輪郭を生成するための各点を求めて、当該特徴点入力手段で入力された各特徴点と、求めた各点を通る円弧とをつないで前記初期輪郭を生成する手段と、
を備えることを特徴とする画像処理装置。
An image input means for inputting a captured image of the object;
Feature point input means for inputting feature points of three or more points of the object with respect to the input image;
Initial contour generating means for generating an initial contour of the object based on the inputted feature points;
Without changing the position of the feature point, the initial value is such that the sum of the feature amount of the contour shape of the object, the feature amount of the image, and the change amount of the initial contour given as necessary is minimized. Contour extracting means for extracting the contour of the object in the image by deforming the contour ;
With
The initial contour generation means includes
From each of a plurality of past sample contours extracted by the contour extracting means, the points on each line segment obtained by connecting adjacent feature points input when extracting the sample contour to the sample contour. A vector indicating a direction and a distance is obtained, a plurality of the vectors obtained from each of the plurality of sample contours are statistically processed, and a representative vector that defines how to spread the line segment to the outside corresponding to each line segment is determined. Representative vector generating means for generating;
Storage means for storing the representative vector;
A point on each line segment obtained by connecting adjacent feature points input by the feature point input unit is moved in the direction indicated by the representative vector corresponding to the line segment stored in the storage unit. Each point for generating the initial contour is obtained by moving the distance indicated, and the initial contour is obtained by connecting each feature point input by the feature point input means and an arc passing through the obtained point. Means for generating;
The image processing apparatus comprising: a.
対象物の撮像された連続する複数の画像を入力する画像入力手段と、
入力された前記複数の画像のうちの1枚目の画像と最後の画像のそれぞれに対し、3点以上の前記対象物の特徴点を入力する特徴点入力手段と、
前記1枚目の画像及び前記最後の画像の間に挟まれる各画像上の前記対象物の特徴点を前記1枚目の画像及び前記最後の画像上の対応する特徴点間で線形補間により求める特徴点生成手段と、
前記複数の画像のうちの1つの第1の画像上の前記特徴点に基づき前記対象物の初期輪郭を生成する初期輪郭生成手段と、
前記特徴点の位置を変化させずに、前記対象物の輪郭形状の特徴量と前記第1の画像の特徴量と必要に応じて与えられる前記初期輪郭の変化量との総和が最小になるように前記初期輪郭を変形することにより、前記第1の画像中の対象物の輪郭を抽出する輪郭抽出手段と
を備え、
前記輪郭抽出手段は、前記抽出された輪郭を後続の画像の初期輪郭として用い、
前記初期輪郭生成手段は、
前記輪郭抽出手段で抽出された過去の複数のサンプル輪郭のそれぞれから、当該サンプル輪郭を抽出する際に入力された隣り合う特徴点間を結んで得られる各線分上の点から当該サンプル輪郭までの方向と距離を示すベクトルを求めて、前記複数のサンプル輪郭のそれぞれから求めた複数の前記ベクトルを統計処理し、前記各線分に対応し、当該線分を外側に広げる広げ方を定める代表ベクトルを生成する代表ベクトル生成手段と、
前記代表ベクトルを記憶する記憶手段と、
前記第1の画像上の隣り合う特徴点間を結んで得られる各線分上の点を、前記記憶手段で記憶された当該線分に対応する前記代表ベクトルの示す方向へ当該代表ベクトルの示す 距離だけ移動させて、前記初期輪郭を生成するための各点を求めて、当該第1の画像上の各特徴点と、求めた各点を通る円弧とをつないで前記初期輪郭を生成する手段と、
を備えたことを特徴とする画像処理装置。
Image input means for inputting a plurality of consecutive images of the object,
Feature point input means for inputting three or more feature points of the object for each of the first image and the last image of the plurality of input images;
A feature point of the object on each image sandwiched between the first image and the last image is obtained by linear interpolation between corresponding feature points on the first image and the last image. Feature point generation means;
Initial contour generation means for generating an initial contour of the object based on the feature points on one first image of the plurality of images;
The sum of the feature amount of the contour shape of the object, the feature amount of the first image, and the change amount of the initial contour given as necessary is minimized without changing the position of the feature point. A contour extracting means for extracting the contour of the object in the first image by deforming the initial contour ;
With
The contour extracting means uses the extracted contour as an initial contour of a subsequent image,
The initial contour generation means includes
From each of a plurality of past sample contours extracted by the contour extracting means, the points on each line segment obtained by connecting adjacent feature points input when extracting the sample contour to the sample contour. A vector indicating a direction and a distance is obtained, a plurality of the vectors obtained from each of the plurality of sample contours are statistically processed, and a representative vector that defines how to spread the line segment to the outside corresponding to each line segment is determined. Representative vector generating means for generating;
Storage means for storing the representative vector;
A distance indicated by the representative vector in a direction indicated by the representative vector corresponding to the line segment stored in the storage unit, with respect to a point on each line segment obtained by connecting adjacent feature points on the first image Means for generating the initial contour by connecting each feature point on the first image and an arc passing through the determined points, and obtaining each point for generating the initial contour ,
The image processing apparatus characterized by comprising a.
JP06543898A 1998-03-16 1998-03-16 Image processing method and image processing apparatus Expired - Fee Related JP3641126B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP06543898A JP3641126B2 (en) 1998-03-16 1998-03-16 Image processing method and image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP06543898A JP3641126B2 (en) 1998-03-16 1998-03-16 Image processing method and image processing apparatus

Publications (2)

Publication Number Publication Date
JPH11265455A JPH11265455A (en) 1999-09-28
JP3641126B2 true JP3641126B2 (en) 2005-04-20

Family

ID=13287143

Family Applications (1)

Application Number Title Priority Date Filing Date
JP06543898A Expired - Fee Related JP3641126B2 (en) 1998-03-16 1998-03-16 Image processing method and image processing apparatus

Country Status (1)

Country Link
JP (1) JP3641126B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7130446B2 (en) 2001-12-03 2006-10-31 Microsoft Corporation Automatic detection and tracking of multiple individuals using multiple cues
JP6734073B2 (en) * 2016-02-26 2020-08-05 キヤノンメディカルシステムズ株式会社 Medical image processing apparatus, ultrasonic diagnostic apparatus, and medical image processing program

Also Published As

Publication number Publication date
JPH11265455A (en) 1999-09-28

Similar Documents

Publication Publication Date Title
JP4026901B2 (en) Method and apparatus for determining the epicardial boundary of the myocardium
US8920322B2 (en) Valve treatment simulation from medical diagnostic imaging data
US7167172B2 (en) Method of segmenting a three-dimensional structure contained in an object, notably for medical image analysis
US20030006984A1 (en) Image processing method for displaying an image sequence of a deformable 3-D object with indications of the object wall motion
JP2010527647A (en) Semi-automatic contour detection method
JP2008068086A (en) Real-time tracking method to cardiac structure in 3d echocardiogram
JP2002529825A (en) System and method for 4D reconstruction and visualization
WO2002091305A2 (en) Method and system, using a data-driven model for monocular face tracking
US20050169536A1 (en) System and method for applying active appearance models to image analysis
JP2004105737A (en) Integrated image recording method for heart magnetism resonance perfusion data
JP4138371B2 (en) Anatomical feature position detecting device, recording medium, subject structure measuring device, and recording medium
JP2006527619A (en) Image segmentation in time series images
EP1588323B1 (en) Method of segmenting a three-dimensional structure
EP1709591A1 (en) Real time user interaction with deformable surfaces of segmentation
EP1851721B1 (en) A method, a system and a computer program for segmenting a surface in a multidimensional dataset
US5173946A (en) Corner-based image matching
JPH11120348A (en) Smoothing curve
EP1573672B1 (en) Method of segmenting a three-dimensional data set allowing user corrections
JP3641126B2 (en) Image processing method and image processing apparatus
WO2002003304A2 (en) Predicting changes in characteristics of an object
Gedkhaw et al. A Super-Resolution Image Reconstruction using Triangulation Interpolation in Feature Extraction for automatic sign language recognition
JP3392690B2 (en) Image processing method and image processing apparatus
JP2002282237A (en) Succeeding deformation of structure per unit length defined concerning image of image sequence of organ deformable with lapse of time
JPH07320068A (en) Method and processor for image processing
Macan et al. Hybrid optical flow and segmentation technique for LV motion detection

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041026

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050120

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080128

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090128

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100128

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100128

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110128

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120128

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130128

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140128

Year of fee payment: 9

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees