JP2632501B2 - Method for extracting internal organs contours in vivo using multiple image frames of internal organs - Google Patents

Method for extracting internal organs contours in vivo using multiple image frames of internal organs

Info

Publication number
JP2632501B2
JP2632501B2 JP6160378A JP16037894A JP2632501B2 JP 2632501 B2 JP2632501 B2 JP 2632501B2 JP 6160378 A JP6160378 A JP 6160378A JP 16037894 A JP16037894 A JP 16037894A JP 2632501 B2 JP2632501 B2 JP 2632501B2
Authority
JP
Japan
Prior art keywords
contour
image
image frame
data
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP6160378A
Other languages
Japanese (ja)
Other versions
JPH0824247A (en
Inventor
エイチ. シーハン フローレンス
エム. ハラリック ロバート
リー チャン−キュー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GUTSUDOMAN KK
Original Assignee
GUTSUDOMAN KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GUTSUDOMAN KK filed Critical GUTSUDOMAN KK
Priority to JP6160378A priority Critical patent/JP2632501B2/en
Publication of JPH0824247A publication Critical patent/JPH0824247A/en
Application granted granted Critical
Publication of JP2632501B2 publication Critical patent/JP2632501B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は大まかに言えば、画像デ
ータに基づき内臓器官の境界線または輪郭を抽出するも
のであり、より詳細に述べれば、複数画像フレームによ
る画像データを処理することにより、内臓器官の輪郭を
抽出するためのものである。
BACKGROUND OF THE INVENTION The present invention generally relates to a method for extracting a boundary or an outline of an internal organ based on image data. More specifically, the present invention is directed to processing image data by a plurality of image frames. , For extracting contours of internal organs.

【0002】[0002]

【従来の技術】コントラスト心室造影法は、臨床現場に
おいて心臓カテーテル法を実施する際に日常的に行われ
る手順である。カテーテルを経皮血管的に心臓内に挿入
し、例えば、心臓の容量測定及び/又は流量率測定を行
うものである。心室造影図は心室の内部(または心内
膜)表面を図形として表すX線画像である。これらの画
像は通例、拡張終期、すなわち心臓が血液で充満してい
る時及び収縮終期、すなわち心臓が心周期における収縮
の最終段階にある時の心臓内の境界線を推定するもので
ある。心周期の始点、終点における心臓の内部表面の輪
郭または境界線をトレースすることにより、医師は左心
室の大きさ及び機能を測定でき、また心臓の特定の異常
や欠陥を診断することができる。心室造影図を作成する
ために、放射線不透過性液を患者の左心室に注入する。
X線源を心臓と同一線上に位置させ、心筋 (心筋層) の
心内表面を輪郭として表す投影図を作成する。左心室の
シルエット画像は放射線不透過性液とその他の周囲の生
理学的構造物とのコントラストにより視覚化される。通
常は、手動の心内境界線描写によって輪郭が抽出され
る。しかし、この方法は時間と相当量の訓練及び正確に
実施するための経験が必要となる。もう一つの方法とし
て医療従事者は目視により心室造影図を評価し、心内輪
郭を推定することができるが、このような評価は経験に
基づいた推測とほとんど変わらないことが多く、評価す
る心室造影図が収縮終期またはその近辺で作成された場
合は殊更である。手動の評価よりも、はるかに短時間
で、より正確な結果をもたらす自動境界検出技術のほう
があきらかに優位に立つであろう。上記の問題に取り組
むために数々の自動境界検出アルゴリズムが開発されて
きた。米国特許5,268,967 号において、身体の特定部分
を同定するために画像を解析できる抽出技術改良のため
に多種多様な先行画像処理技術が検討された。それによ
り、ヒストグラムに基づいた濃度階調変換が、画像のコ
ントラストを調整する簡単かつ効果的な方法であるこ
と、しかし画像のうちの希望する前景部分を背景クラッ
タと区別し、問題の対象物を前景及び背景と区別するに
は他の技術が必要であることが判明した。この目標を達
成するために他では何がなされてきたか、またこれらの
技術の問題点について検討した結果、本特許申請におい
ては、いずれのディジタルX線画像についても適用でき
る方法を開示する。この特許申請において開示される方
法にはエッジ検出、領域分割、領域分類、領域再分類及
びビットマップ作成の方法が含まれる。更に詳細に述べ
れば、最初に対象物のエッジを検出した後、画像は重複
しない近接した画素領域に分割され、領域毎に前景、背
景、及び対象物に分類される。領域分類過程では、各領
域それぞれ10の状態のうちどの段階にあるかを、一連の
臨床的、経験的に定められた判定法則に基づき推定す
る。各領域内の微細な構造物の評価により、領域分類は
再分類され、以後実施される画像処理のテンプレートと
して機能する2値画像が作成される。他の自動境界線検
出技術は画像を構成する濃度階調度を同定することに基
づくものである。この先行技術においては、濃度階調度
の閾値が心室造影図の濃度画像データの処理に適用さ
れ、左心室の境界線を同定する。他の処理は境界線を同
定する正確度を高めるために適用される。もう一つの可
能性として、指標、認識可能な形状、濃度値の組合せが
常に追跡可能であり、それによりフローベクトルとして
表される動きの方向や速度を決定できることがわかっ
た。フローベクトルのパターンを分析すると、内臓器官
の動きが評価できる。しかし、このフローベクトルは直
接内臓器官の輪郭を示すものではない。さらに他の技術
では時にディジタル減算により内臓器官の輪郭を抽出す
る。放射線不透過性造影剤を内臓器官に注入する前にマ
スク画像を記録する。このマスク画像には肋骨や脊椎の
ような内臓器官の輪郭の認識を阻害する傾向のある放射
線不透過性内臓器官が含まれることがある。内臓器官内
に放射線不透過性造影剤を注入し、2枚目の画像を作成
した後、ディジタルで2枚目の画像からマスク画像を減
算する。それによって2枚目の画像のクラッタ、すなわ
ち関心のない内臓器官が減算される。しかし、マスク画
像と放射線不透過性造影剤によって内臓器官が認識でき
る2枚目の画像をずれないように合わせるのは難しく、
実際にこの技術を実施するのは困難である。この技術を
応用したものが時間間隔遅延減算である。この技術は直
前に作成された画像を分析する画像から減算するもので
あり、2枚の差を示す画像には2枚の画像の時間間隔内
に動きのあった内臓器官部分のみが含まれる。しかし、
2枚の画像を作成する時間内に動きの無かった内臓器官
は描写することができない。形態的開閉処理も対象物の
輪郭を抽出する画像データ処理に利用することができ
る。このような技術はしばしばもっと一般的に、例え
ば、人工視覚システムに関するものなどにも適用するこ
ともでき、生理学的な観点に拘束されることはない。"M
edical Image Analysis using Model-Based Optimizati
on",James S. Duncan, Lawrence H. Staib, Thomas Bir
kholzer, Randall Owen, P. Anandan, IsilBosma(IEEE,
1990)という論文は、医療用診断画像の分析に経験的に
推定されたデータに基づく数学的モデルを利用すること
を提唱している。この論文で取り上げられている2番目
の例では、画像から求められる境界線の長さの尺度を持
つパラメータ形状モデルが使用されている。経験による
データをモデルに使用することによりその正確さは向上
するが、結果には依然多少不安定さが残る。
2. Description of the Related Art Contrast ventriculography is a routine procedure for performing cardiac catheterization in a clinical setting. A catheter is inserted percutaneously into the heart to perform, for example, cardiac volume measurement and / or flow rate measurement. A ventricular angiogram is an X-ray image representing the inside (or endocardium) surface of the ventricle as a graphic. These images typically estimate the boundaries within the heart at end-diastole, ie, when the heart is full of blood, and at end-systole, ie, when the heart is at the end of contraction in the cardiac cycle. By tracing the contours or boundaries of the inner surface of the heart at the beginning and end of the cardiac cycle, a physician can measure the size and function of the left ventricle and diagnose certain abnormalities or defects in the heart. A radiopaque fluid is injected into a patient's left ventricle to produce a ventricular contrast diagram.
The X-ray source is located on the same line as the heart, and a projection is created that outlines the endocardial surface of the myocardium (myocardium). The left ventricular silhouette image is visualized by contrast between the radiopaque fluid and other surrounding physiological structures. Usually, the contour is extracted by manual intracardiac delineation. However, this method requires time and a considerable amount of training and experience to perform correctly. Alternatively, healthcare professionals can visually evaluate the ventricular angiogram and estimate the intracardiac contour, but such evaluations are often little different from empirical guesses, and This is especially true if the contrast diagram was generated at or near end systole. Automated boundary detection techniques that yield much more accurate results in much less time than manual evaluations will clearly dominate. A number of automatic boundary detection algorithms have been developed to address the above problems. In U.S. Pat. No. 5,268,967, a variety of prior image processing techniques were considered to improve the extraction techniques by which images could be analyzed to identify specific parts of the body. Thus, density-gradation conversion based on histograms is a simple and effective way to adjust the contrast of the image, but distinguishes the desired foreground part of the image from the background clutter and identifies the object in question. It has been found that other techniques are required to distinguish between foreground and background. After examining what else has been done to achieve this goal and the problems of these techniques, this patent application discloses a method that can be applied to any digital X-ray image. The methods disclosed in this patent application include methods of edge detection, region division, region classification, region reclassification, and bitmap creation. More specifically, after first detecting the edges of the object, the image is divided into non-overlapping adjacent pixel regions, and classified into foreground, background, and object for each region. In the region classification process, the state of each region in each of the 10 states is estimated based on a series of clinically and empirically determined determination rules. By the evaluation of the fine structure in each area, the area classification is re-classified, and a binary image that functions as a template for image processing performed thereafter is created. Another automatic border detection technique is based on identifying the density gradients that make up the image. In this prior art, a density gradient threshold is applied to the processing of the density image data of the ventricular angiogram to identify the left ventricle boundary. Other processing is applied to increase the accuracy of identifying the boundaries. Another possibility is that the combination of the index, the recognizable shape, and the density value can always be tracked, thereby determining the direction and speed of the movement represented as a flow vector. By analyzing the flow vector pattern, the movement of the internal organs can be evaluated. However, this flow vector does not directly indicate the contour of the internal organs. Still other techniques sometimes extract the contours of internal organs by digital subtraction. The mask image is recorded before the radiopaque contrast agent is injected into the internal organs. The mask image may include radiopaque internal organs that tend to impair the recognition of internal organ contours such as ribs and spine. A radiopaque contrast agent is injected into the internal organs, a second image is created, and the mask image is digitally subtracted from the second image. Thereby, the clutter of the second image, that is, the internal organs that are not interested is subtracted. However, it is difficult to match the mask image and the second image recognizable by the internal organs with the radiopaque contrast agent so that they do not shift.
It is difficult to actually implement this technique. An application of this technique is time interval delay subtraction. In this technique, an image created immediately before is subtracted from an image to be analyzed, and an image showing a difference between two images includes only an internal organ part that has moved within a time interval between the two images. But,
Internal organs that have not moved within the time to create the two images cannot be described. The morphological opening / closing process can also be used for image data processing for extracting the outline of the object. Such techniques are often more generally applicable, such as, for example, with regard to artificial vision systems, and are not restricted to physiological aspects. "M
edical Image Analysis using Model-Based Optimizati
on ", James S. Duncan, Lawrence H. Staib, Thomas Bir
kholzer, Randall Owen, P. Anandan, IsilBosma (IEEE,
1990) proposes the use of mathematical models based on empirically estimated data for the analysis of medical diagnostic images. In the second example discussed in this paper, a parametric shape model with a measure of the length of the boundary line determined from the image is used. The use of empirical data in the model improves its accuracy, but the results still have some instability.

【0003】[0003]

【発明が解決しようとする課題】輪郭抽出に関するこれ
までの技術の大部分は、単一画像の分析に焦点を絞って
きた。心臓のような内臓器官の輪郭抽出を目的とする現
在最良の自動アルゴリズムでさえも、非常に成功率が低
く、重大な誤りを防ぐには、通例、人による訂正が必要
である。現存する自動化技術の最大の問題は、医師が画
像評価をする際に分析すべき個々の室や内臓器官の予想
される形状や動きを、それら自動化技術が認識しないこ
とである。少なくとも専門家が行う画像分析の正確さを
得るために、画像から得られる情報をできるだけ多く利
用して内臓器官の表面を描写しなければならない。さら
に、自動化システムは作業を人よりも効率的にかつ迅速
に行わなければならない。最後に、自動化技術が内臓器
官の輪郭を抽出する際の正確さは、単一画像から得られ
るよりも多くの情報によって向上することが明確になっ
た。複数画像の分析はより高い正確さを確立するために
必要な更なる情報を提供し、また現在の技術よりも多く
の心臓及びその他の内臓器官に関する情報を医師に提供
することができる。
Most previous techniques for contour extraction have focused on the analysis of a single image. Even the best current automatic algorithms for contouring internal organs such as the heart have very low success rates and usually require human correction to prevent significant errors. The biggest problem with existing automation techniques is that they do not recognize the expected shape or movement of individual rooms or internal organs that a physician should analyze when performing an image evaluation. At least in order to obtain the accuracy of the image analysis performed by experts, the information obtained from the images must be used as much as possible to describe the surface of the internal organs. In addition, automated systems must perform tasks more efficiently and faster than humans. Finally, it has been clarified that the accuracy with which the automated technique extracts internal organ contours is enhanced by more information than can be obtained from a single image. Analysis of multiple images can provide more information needed to establish higher accuracy, and can provide physicians with more information about the heart and other internal organs than current technology.

【0004】[0004]

【課題を解決するための手段】上述の課題を解決するた
めになされた本発明の方法は、心臓の1心周期に渡って
作成された連続する画像フレームを含めた心臓の画像デ
ータの生体内での心室輪郭抽出法であって、前記連続す
る画像フレームは、心室が位置する関心領域を含み、心
周期内で時間的に大体等間隔で連続して作成され、各画
像フレームは濃度値がある複数の画素から構成され、 (a) 複数の他の心臓の目的とする心室の輪郭を手動で決
定して得られる学習データを用い、輪郭により区切られ
る領域の初期推定を決定するために、学習データの連続
する画像フレーム中の画素に関する濃度値に依存する確
率の関数として、生体内の心臓の画像フレーム中の画素
が、心室の輪郭のより内側にある可能性が高いか又は輪
郭の外側にある可能性が高いかを示すことにより、生体
内の心臓の各画像フレームの中の画素を分類する。 (b) 連続する画像フレームについて、生体内の心室の輪
郭で区切られる領域の初期推定を、その初期推定の輪郭
の周囲に渡り間隔をおいた複数の点に対し、連続する画
像フレーム間の輪郭上の各点の動きの限界を決定する動
態制約を適用することにより改善する。という過程から
構成されていることを特徴とするつまり、心臓の画像デ
ータに基づいて生体内における心室の輪郭を抽出する方
法は、1心周期分以上の連続した画像フレームを使用す
る。一連の画像フレームは心室が位置する関心領域を含
み、大体時間的に等間隔で記録される。各画像フレーム
は複数の画素により構成され、各画素にはそれぞれ濃度
値がある。初期輪郭推定を行うため、生体内における心
臓の各画像フレームの画素は、確率として、心室輪郭の
内側にある可能性が高いか、外側にある可能性が高いか
確率の関数として分類される。この過程では、別の個体
の複数の心臓において目的とする心室の輪郭を手動分析
することによって得られた学習データが使用される。輪
郭に関係する各画素の位置の確率は、学習データによっ
て決定される分類に関連する連続した画像フレームの画
素濃度値に左右される。輪郭の初期推定は、連続した画
像フレームにおける輪郭に対する動態制約を適用して改
善される。これらの動態制約は、輪郭の初期推定におけ
る各点の、連続した画像フレーム間の動きの限界を定め
る。
SUMMARY OF THE INVENTION The method of the present invention, made to solve the above-described problems, comprises an in-vivo method for in-vivo image data of a heart including a series of image frames generated over one cardiac cycle of the heart. Wherein the consecutive image frames include a region of interest in which the ventricles are located, are successively created at approximately equal intervals in time within the cardiac cycle, and each image frame has a density value. Consisting of a plurality of pixels, (a) using learning data obtained by manually determining the outline of a target ventricle of a plurality of other hearts, in order to determine an initial estimation of a region delimited by the outline, As a function of the probability of relying on the density values for the pixels in successive image frames of the training data, the pixels in the image frame of the in-vivo heart are more likely to be inside or outside the contour of the ventricle. Can be in By indicating high classifies pixels in each image frame of the heart in vivo. (b) For successive image frames, the initial estimation of the area delimited by the contour of the in-vivo ventricle is performed for a plurality of points spaced over the contour of the initial estimation, and It is improved by applying dynamic constraints that determine the limits of motion for each point above. In other words, the method of extracting a contour of a ventricle in a living body based on heart image data uses a continuous image frame of one cardiac cycle or more. A series of image frames, including the region of interest where the ventricles are located, are recorded at approximately regular intervals in time. Each image frame is composed of a plurality of pixels, and each pixel has a density value. To perform the initial contour estimation, the pixels of each image frame of the heart in the living body are classified as a probability as a function of the probability of being likely to be inside or outside the ventricular contour. In this process, learning data obtained by manually analyzing the contour of a target ventricle in a plurality of hearts of another individual is used. The probability of the location of each pixel associated with the contour depends on the pixel density values of successive image frames associated with the classification determined by the learning data. The initial estimation of the contour is improved by applying dynamic constraints on the contour in successive image frames. These dynamic constraints limit the motion of each point in the initial estimation of the contour between successive image frames.

【0005】また、このようにして抽出された心室の輪
郭は、確実性の低い輪郭部分の座標を決定するために、
確実性の高い輪郭部分の座標を処理するという包括的形
状制約を使用してさらに改善される。その包括的形状制
約は、別個体の心臓の対応する心室輪郭を手動評価して
得られる学習データに基づくものである。
[0005] Further, the contour of the ventricle extracted in this manner is determined in order to determine the coordinates of the contour part with low reliability.
It is further improved using the global shape constraint of processing the coordinates of the contour parts with high certainty. The global shape constraint is based on learning data obtained by manually evaluating the corresponding ventricular contours of the discrete heart.

【0006】この方法には、以上のようにして抽出した
生体内の心室の輪郭の整合性をテストする過程も含まれ
ている。その過程は学習データにより決定されたパラメ
ータと輪郭の比較に基づいて、抽出した輪郭の整合性を
チェックするものである。
[0006] This method also includes a step of testing the consistency of the contour of the ventricle in the living body extracted as described above. The process is to check the consistency of the extracted contour based on a comparison between the parameters determined by the learning data and the contour.

【0007】本発明は、学習データは、別個体の心臓各
々について1心周期分以上作成した連続学習画像フレー
ムから得ることが好ましい。学習画像フレームも複数の
画素から構成されており、各画素は学習画像フレームの
縦軸、横軸に配列され、一連の画像フレームを通じてそ
の画素の位置に対する濃度値のベクトルと関連してい
る。他の各心臓の心室輪郭は各学習画像フレームから手
動で抽出する。各心臓の一連の学習画像フレームについ
て画素毎に1つの分類が指定される。その指定される分
類は以下のとおりである。 (a) 全心周期を通じて手動抽出の輪郭の内側にある学習
画像フレームの画素、(b) 全心周期を通じて手動抽出の
輪郭の外側にある学習画像フレームの画素、(c) 1枚以
上の画像フレームである心周期の一部分において、手動
抽出の輪郭の内側にあり、心周期のそれ以外の部分にお
いては輪郭の外側にあった画素。
In the present invention, the learning data is preferably obtained from continuous learning image frames created for one or more cardiac cycles for each of the separate hearts. The learning image frame is also composed of a plurality of pixels, and each pixel is arranged on the vertical axis and the horizontal axis of the learning image frame, and is associated with a density value vector for the position of the pixel through a series of image frames. The ventricular contour of each other heart is manually extracted from each learning image frame. One classification is specified per pixel for a series of training image frames for each heart. The specified classification is as follows. (a) pixels of the learning image frame inside the contour of the manual extraction throughout the whole cardiac cycle; (b) pixels of the learning image frame outside the contour of the manual extraction throughout the whole cardiac cycle; (c) one or more images Pixels that were inside the manually extracted contours in one part of the cardiac cycle that was the frame, and outside the contours in other parts of the cardiac cycle.

【0008】最後の分類が(c) に該当する場合は、輪郭
に関係のある画素の輪郭に対する位置変化が起こった学
習画像フレームが、各学習画像フレームの画素の分類を
決定する。それぞれの画素の位置に関する条件、すなわ
ち輪郭の内側か外側かということ、または画素の輪郭に
対する位置変化(もしあれば)のあったフレームによっ
て分類が異なってくる。
When the last classification corresponds to (c), the learning image frame in which the position of the pixel related to the outline has changed with respect to the outline determines the classification of the pixel of each learning image frame. The classification differs depending on the condition regarding the position of each pixel, that is, whether the pixel is inside or outside the contour, or the frame where the position of the pixel has changed (if any) with respect to the contour.

【0009】この方法には、他に別個体の心臓各々につ
いての学習画像フレームにおける各画素の平均値、共分
散または分類確率を指定する過程も含まれている。これ
らは一連の学習画像フレームの画素の濃度値及びその画
素に指定された分類に基づくものである。平均値、共分
散または分類確率は学習データから得られる事前情報に
含まれる。
The method also includes the step of specifying the mean, covariance, or classification probability of each pixel in the training image frame for each separate heart. These are based on the density values of the pixels in the series of learning image frames and the classification specified for the pixels. The mean, covariance or classification probability is included in the prior information obtained from the training data.

【0010】初期推定改善の過程に、別個体の心臓の輪
郭に関する境界線動態データ決定の過程、また1心周期
における各学習画像フレームについて、境界線動態デー
タに基づく動態制約を示す構成要素を推定する過程が含
まれることが好ましい。
In the process of improving the initial estimation, a process of determining boundary motion data on the contour of a separate heart, and estimating a component indicating a motion constraint based on the boundary motion data for each learning image frame in one cardiac cycle. It is preferable that a step of performing the above is included.

【0011】本発明の好ましい形態の一つは、生体内の
心室は左心室であって、画像フレームは心周期の収縮期
及び拡張期を通して作成されるとともに、その収縮期及
び拡張期の画像フレームは別々に処理されて、生体内の
心室の輪郭が抽出される。
In one preferred form of the invention, the in-vivo ventricle is the left ventricle, and the image frames are created during the systole and diastole of the cardiac cycle, and the systole and diastole image frames are generated. Are processed separately to extract the contour of the in-vivo ventricle.

【0012】また、この方法が左心室を抽出の対象とす
る他に、生体内の他の内臓器官及び右心室、左右心房に
も適用できるということは注記しておかなければならな
い。
It should also be noted that, besides targeting the left ventricle, this method can be applied to other internal organs in the body, the right ventricle, and the left and right atrium.

【0013】また、この方法には、生体内の心臓の収縮
終期の画像フレームを決定する過程も含まれる。これは
一連の画像フレーム全体を通じた関心領域における濃度
値のフレーム毎のヒストグラムを用いた分類法によって
行われる。この分類法は濃度値のヒストグラムを利用
し、収縮終期の画像フレームを決定する。この画像フレ
ームは通常、関心領域において明るい画素が分布する最
も小さい範囲を示す。
[0013] The method also includes the step of determining an end-systolic image frame of the in-vivo heart. This is done by a classification method using a frame-by-frame histogram of the density values in the region of interest throughout the series of image frames. This classification method uses a histogram of density values to determine an end-systolic image frame. This image frame usually shows the smallest area where bright pixels are distributed in the region of interest.

【0014】本発明は、更に、生体内での内臓器官を画
像データを使用してその生理学的機能を診断目的に分
析、評価する方法が含まれる。この方法は、一連の画像
フレームを通じて輪郭及びその変化を決定するものであ
る。一連の画像フレームの中の異なる画像フレームにお
ける輪郭の変化を観察することにより、内臓器官の生理
学的機能を評価し、例えば、心室の弁に漏れがあるかど
うかまたは心臓壁を含む筋肉が弱いかどうかという通常
単一画像による輪郭評価では本発明と同等の情報を医師
に提供することはできなかったことを確認できる。
The present invention further includes a method of analyzing and evaluating the physiological function of internal organs in a living body for diagnostic purposes using image data. The method determines the contour and its changes through a series of image frames. Assess the physiology of internal organs by observing changes in contours in different image frames in a series of image frames, e.g., whether the ventricular valves are leaking or the muscles, including the heart wall, are weak. It can be confirmed that the outline evaluation based on a single image usually cannot provide the doctor with the same information as the present invention.

【0015】[0015]

【実施例】まず、本発明を利用する画像機器の説明をす
る。通常の従来型のX線造影装置10が図1に示されてい
る。本発明に適合する機器によって作成されるX線画像
を処理し、内臓器官の輪郭を抽出し表示するために必要
な機器も示されている。X線造影装置10において、X線
源12はX線源制御装置14から供給される電流をエネルギ
ーとし、このX線制御装置14はX線源12に送られる電流
及び電圧のレベル、電流が供給される時間間隔を決定す
る。X線制御装置14から送られる信号に反応して、X線
源12はX線ビーム18を発生させる。このX線ビームは患
者20の胸部を通過し、検出器16へと入る。X線源12と検
出器16は、共通の長軸に沿った一直線上にあり、X線ビ
ームは患者20の胸部にある関心領域を通過する。画像化
しようとする内臓器官は通常関心領域の中心、つまりビ
ーム18の中心にある。ビーム18は患者20の胸部を通過
後、検出器16内のイメージインテンシファイア22に入
り、X線ビームを目で見える画像に変換する。関心領域
に位置する内臓器官を周囲の軟組織と区別し、さらに鮮
明に描写するために、ヨウ素化合物のような放射線不透
過性造影剤を内臓器官に注入し、周囲の軟組織よりも多
くのX線エネルギーを吸収または阻止させる。その結
果、イメージインテンシファイア22によって作成される
画像では、内臓器官の内部が周囲の背景よりもかなり明
るく表示される。部分銀メッキの鏡24は検出器16の長軸
上にあり、イメージインテンシファイア22による画像の
光の一部を、検出器の長軸に対して横方向に、シネカメ
ラ26 (オプション) のレンズに向けて反射させる。画像
の残りの光は部分銀メッキの鏡24を通過して検出器16の
長軸方向にビデオカメラ28のレンズへと伝送される。図
に示された実施例では、ビデオカメラ28はイメージイン
テンシファイア22の画像を走査して得るアナログ信号を
発生する。もう一つの方法として、イメージインテンシ
ファイア22の画像は、検出器の外部に取り付けるビデオ
カメラ (図に示されていない) に投影することができ
る。アナログ信号は画像の各画素に対応する電圧を有
し、その値が画素の濃度値を示すのである。アナログ信
号はアナログ−ディジタル変換器(A-D CONV.)30 に入力
される。この変換器は各画素の濃度値を示す電圧を対応
するディジタル値に変換するのである。他のビデオカメ
ラには直接ディジタル出力信号を発するものがあり、そ
のビデオカメラを使用する場合はアナログ−ディジタル
変換器30を省略することができることを注記しておかな
ければならない。実施例では、ディジタル画像データの
各画素に対する濃度値の範囲は0から225 である (実際
は、最も暗い画素と最も明るい画素はそれよりもはるか
に小さな範囲内にある) 。X線源制御装置14で決定する
時間間隔をおいてX線造影装置10によって作成されるデ
ィジタル画像データを、この説明及び請求項において
「画像フレーム」とすることを注記しておかなければな
らない。実施例では、X線源制御装置14を、X線源12へ
繰り返しきわめて短時間電源が入るように設定すること
によって、時間間隔をおいた内臓器官の複数の連続した
画像フレームが作成される。後段で述べる本発明の適用
例においては、X線ビーム18によって画像化される関心
領域には患者20の心臓、もっと詳細に述べれば、左心室
が含まれる。1心周期分以上作成された左心室の連続デ
ィジタル画像フレームを処理することにより、本発明の
実施例では自動的に心周期内の複数の時点での左心室の
心内表面が連続的に抽出される。各画像フレームのデジ
タル画像データは画像記憶装置32に記憶される。この画
像記憶装置32は容量の大きなハードドライブまたは不揮
発性の記憶メディアとで構成されることが好ましい。画
像記憶装置32は双方向性でプロセッサ34に結合される。
このプロセッサ34はデスクトップ型等のパーソナルコン
ピュータ、またはワークステーションとで構成されるこ
とが好ましい。キーボード36及びマウス38(またはその
他の指示装置) はプロセッサ34と結合し、これにより操
作者は、プロセッサ34のソフトウェアを制御するための
データ及び/又は指示を入力することができる。このソ
フトウェアは本発明の方法を実行するためのものであ
り、画像記憶装置32に画像フレームとして記憶されたデ
ィジタル画像データを処理し、心周期の中の異なる時間
における左心室の輪郭を作成することができるようにす
るものである。このように本発明の方法で抽出された、
画像フレーム上の左心室の輪郭は、操作者その他の使用
者に対してプロセッサ34に接続されるディスプレイ40に
表示される。さらに、プロセッサ34によって抽出された
画像フレームの輪郭定義データは反対方向に画像記憶装
置32に記憶することができ、抽出後も任意の時に分析ま
たは評価ができる。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS First, an image equipment utilizing the present invention will be described. A typical conventional X-ray imaging apparatus 10 is shown in FIG. Also shown is the equipment required to process X-ray images created by equipment consistent with the present invention and extract and display contours of internal organs. In the X-ray imaging apparatus 10, the X-ray source 12 uses the current supplied from the X-ray source control device 14 as energy, and the X-ray control device 14 supplies the level of the current and voltage sent to the X-ray source 12 and supplies the current. Determine the time interval to be performed. In response to signals sent from the X-ray controller 14, the X-ray source 12 generates an X-ray beam 18. The x-ray beam passes through the chest of patient 20 and enters detector 16. X-ray source 12 and detector 16 are in line along a common long axis, and the X-ray beam passes through a region of interest in the chest of patient 20. The organ to be imaged is usually at the center of the region of interest, ie at the center of the beam 18. After passing through the chest of the patient 20, the beam 18 enters an image intensifier 22 in the detector 16, which converts the x-ray beam into a visible image. A radiopaque contrast agent, such as an iodine compound, is injected into the internal organs to distinguish the internal organs located in the region of interest from the surrounding soft tissues and to more clearly depict the organs. Absorb or block energy. As a result, in the image created by the image intensifier 22, the interior of the internal organ is displayed much brighter than the surrounding background. A partially silver-plated mirror 24 is on the long axis of the detector 16 and directs a portion of the image light from the image intensifier 22 transversely to the long axis of the detector to the lens of a cine camera 26 (optional). Reflect toward. The remaining light of the image passes through the partially silvered mirror 24 and is transmitted along the long axis of the detector 16 to the lens of the video camera 28. In the embodiment shown, video camera 28 generates an analog signal resulting from scanning an image of image intensifier 22. Alternatively, the image of the image intensifier 22 can be projected to a video camera (not shown) mounted outside the detector. The analog signal has a voltage corresponding to each pixel of the image, and the value indicates the density value of the pixel. The analog signal is input to an analog-to-digital converter (AD CONV.) 30. This converter converts the voltage indicating the density value of each pixel into a corresponding digital value. It should be noted that some other video cameras emit a digital output signal directly, and if that video camera is used, the analog-to-digital converter 30 can be omitted. In the preferred embodiment, the range of density values for each pixel of the digital image data is from 0 to 225 (in fact, the darkest and lightest pixels are in a much smaller range). It should be noted that the digital image data created by the X-ray imaging device 10 at time intervals determined by the X-ray source control device 14 is referred to as an "image frame" in this description and in the claims. In an embodiment, a plurality of successive image frames of the internal organs are created at time intervals by setting the X-ray source controller 14 so that the X-ray source 12 is repeatedly turned on for a very short time. In the application of the invention described below, the region of interest imaged by the x-ray beam 18 includes the heart of the patient 20, more specifically the left ventricle. By processing successive digital image frames of the left ventricle created for more than one cardiac cycle, embodiments of the present invention automatically and continuously extract the endocardial surface of the left ventricle at multiple points in the cardiac cycle. Is done. The digital image data of each image frame is stored in the image storage device 32. The image storage device 32 is preferably configured with a large-capacity hard drive or a non-volatile storage medium. Image storage device 32 is bidirectionally coupled to processor 34.
The processor 34 is preferably constituted by a personal computer such as a desktop type or a workstation. A keyboard 36 and a mouse 38 (or other pointing device) are coupled to the processor 34 so that an operator can enter data and / or instructions for controlling the software of the processor 34. This software is for performing the method of the present invention, which processes digital image data stored as image frames in the image storage device 32 and creates contours of the left ventricle at different times during the cardiac cycle. Is to be able to do. Thus, extracted by the method of the present invention,
The outline of the left ventricle on the image frame is displayed on a display 40 connected to the processor 34 for an operator or other user. Further, the outline definition data of the image frame extracted by the processor 34 can be stored in the image storage device 32 in the opposite direction, and can be analyzed or evaluated at any time after the extraction.

【0016】ここで図2のヒトの心臓の部分断面図を見
てみる。これは心室造影図記録の際の典型的な投影角度
に対応するものであり、心臓の形状は外部面62によって
決定される。心臓60の左心室64の画像化に先立ち、放射
線不透過性造影剤を左心室に注入する。これはX線装置
で左心室64内の相対的に明るい領域を含む画像フレーム
を作成するためであってこの段階の画像で左心室を見分
けてはいるが、左心室64の心内膜 (または内部面) 66の
輪郭に囲まれた白い影は鮮明に描写できないことが判明
する。しかし本方法によればX線により作成された画像
フレームを処理し、患者の左心室にある心内膜にほぼ近
い輪郭を画像フレーム毎に得ることができる。本発明の
実施例においては、処理される画像データの型としてX
線により作成される画像フレームが示されているが、こ
の方法は、超音波画像、核磁気共鳴画像のデータを含む
他種の画像データにも適用できることを注記しておかな
ければならない。ただし、これら多種の技術により作成
される画像フレームでは、画像を解釈し、左心室の輪郭
を抽出することが困難である。その理由は、左心室 (ま
たは他の検査対象となる内臓器官) の輪郭が通例鮮明に
描写されないからである。特に、関心のある内臓器官の
例として左心室に関して言えば、心尖72の位置、つまり
輪郭の下部は、通常画像フレームのコントラストシルエ
ットでは左心室の上部、大動脈内へと開いている隣接大
動脈弁68、左心房74へと開いている僧帽弁76よりも、は
るかに低い鮮明度で描写される。左心室64の形状は心周
期を通じて変化し、その断面図も変化して収縮終期には
最小であり拡張終期には最大となる。心内膜表面の輪郭
によって定義される断面図と形状はこの周期を通して、
心収縮と心拡張の心壁の一部として変化する。1心周期
分以上の画像フレームをフレーム毎に左心室の変化につ
いて評価することにより、医師は、僧帽弁の漏れ、また
は左心室壁の心筋層(筋肉)がその動きの範囲が小さく
なり弱っているというような患者の心臓の内臓器官的な
問題を診断することができる。医師は、心周期を通して
心臓の輪郭を観察することにより心臓の生理学的な機能
不全を速やかに発見することができる。医師は、正常な
心臓の機能と比較して、フレームからフレームへの輪郭
形状に変化がないような問題があるかどうかを注意して
見る。そして例えば、左心室の壁の一部に動きの範囲が
小さくなり弱った筋肉がある場合、その部分の壁と他の
部分とを比較すれば、左心室の輪郭の相対的変化を研究
している医師にとって状況は明白となるであろう。なぜ
なら、心内膜の動きの範囲が小さくなって弱った筋肉を
含む部分は、通常の、または活発な収縮期における数枚
の画像フレームにおいて収縮不全となるからである。同
様に複数回の心周期を通じて輪郭を評価することにより
僧帽弁の漏れが明らかになる。画像作成後速やかに左心
室の輪郭を自動抽出する能力により、医師は、関連する
医療処置を行う際に、心臓の状況をより迅速に評価する
ことができる。この方法は1回以上の心周期を通じて、
左心室及び心臓の他の心室、心房 (または他の内臓器
官) の輪郭を、少なくともこの種の画像評価の専門家と
同程度の正確さで抽出し、この作業を人よりもはるかに
迅速に行うものである。
Here, a partial cross-sectional view of the human heart shown in FIG. 2 will be considered. This corresponds to a typical projection angle during ventricular angiogram recording, and the shape of the heart is determined by the outer surface 62. Prior to imaging of the left ventricle 64 of the heart 60, a radiopaque contrast agent is injected into the left ventricle. This is to create an image frame including a relatively bright region in the left ventricle 64 with an X-ray apparatus. Although the left ventricle is distinguished in the image at this stage, the endocardium of the left ventricle 64 (or (Internal surface) It turns out that the white shadow surrounded by the outline of 66 cannot be clearly described. However, according to the method, an image frame created by X-rays can be processed, and a contour substantially close to the endocardium in the left ventricle of the patient can be obtained for each image frame. In the embodiment of the present invention, the type of image data to be processed is X
Although the image frames created by the lines are shown, it should be noted that the method is applicable to other types of image data, including data from ultrasound images, nuclear magnetic resonance images. However, it is difficult to interpret the image and extract the contour of the left ventricle in an image frame created by these various techniques. The reason is that the outline of the left ventricle (or other internal organs to be examined) is usually not sharply defined. In particular, with respect to the left ventricle as an example of an internal organ of interest, the location of the apex 72, i.e., the lower part of the contour, is usually in the contrast silhouette of the image frame, the upper part of the left ventricle, the adjacent aortic valve 68 which opens into the aorta. , Is rendered much less sharply than the mitral valve 76, which opens to the left atrium 74. The shape of the left ventricle 64 changes throughout the cardiac cycle, and its cross-sectional view also changes to a minimum at end systole and a maximum at end diastole. The cross section and shape defined by the contour of the endocardial surface
It changes as part of the heart wall of systole and diastole. By assessing image frames for one or more cardiac cycles for left ventricular changes frame by frame, the physician may have noticed that the mitral valve leaked or the myocardium (muscle) of the left ventricular wall had a reduced range of motion and weakened. Can diagnose internal organ problems in the patient's heart. By observing the contour of the heart throughout the cardiac cycle, a physician can quickly detect a physiological dysfunction of the heart. The physician will look carefully to see if there is a problem that does not change the profile from frame to frame as compared to normal heart function. And, for example, if the range of movement is small and there is weak muscle on a part of the wall of the left ventricle, comparing the wall of that part with other parts, studying the relative change of the contour of the left ventricle The situation will be clear to some physicians. This is because portions containing weakened muscles with a reduced range of endocardial movement fail in contraction in several image frames during normal or active systole. Similarly, evaluating the contour through multiple cardiac cycles reveals mitral valve leakage. The ability to automatically extract the contour of the left ventricle immediately after image creation allows the physician to more quickly assess the condition of the heart when performing the relevant medical procedure. This method involves one or more cardiac cycles
Extract the contours of the left ventricle and other ventricles, atria (or other internal organs) of the heart with at least as accurate as a specialist in this type of image evaluation, making this task much faster than humans. Is what you do.

【0017】次に、本発明に係る方法について概要を説
明する。左心室の輪郭を自動的に抽出する過程の概要は
図3に示されている。既に説明したように、この連続し
たディジタル画像フレームには左心室の輪郭を決定する
過程のための入力データが含まれている。この入力デー
タは左心室造影図100 に該当する。ブロック102 では、
左心室の輪郭について初期領域を1心周期以上に渡り間
隔をおいて推定する。この初期推定は全心周期において
作成された各画像フレームの画素毎の濃度値の関数であ
る。初期推定に形を与えるために、ベイズの分類法を用
いて、あらかじめ学習データを手動で評価して決定した
パラメータを参照し、各画素の位置及び濃度値の関数に
より画素を分類する。後に詳細に説明する学習データ
は、複数の他心臓の左心室を画像化して得た画像データ
である。患者の画像フレームの各画素をこのように、左
心室輪郭の内側にあるのか、外側にあるのかで分類する
ことで、推定された初期左心室領域がブロック104 で得
られる。次に行われる過程はブロック106 である。特
に、ブロック104 で推定された初期左心室領域は、連続
する画像フレーム間における領域の輪郭の変化に対して
動態制約を適用することによりさらに改善される。この
動態制約も、学習データから構成要素を決定することに
より得られる。即ち、学習データを作成するために使用
された他の個体の心臓の各左心室について、左心室の境
界線または輪郭上の点の、2つの連続した時点間での変
位の範囲を決定することによって得られる。この構成要
素は、当該患者について左心室領域の初期の推定を行う
際に使用される連続画像フレーム間での左心室輪郭の動
きに対する限界を決定する。動態制約の適用によってさ
らに改善し、推定された左心室領域が作成され、これが
ブロック108 となる。前記のとおり、左心室の心尖72の
輪郭は心内膜のうち、画像データ中に描写するのが最も
困難な部分である。通常、X線画像上で対比できるよう
に放射線不透過性造影剤は左心室中部に注入されるが、
下部の心尖のある領域では血液とよく混ざらない場合が
しばしばあるという物理的形状特性がある。さらに患者
の心臓が良好な収縮機能を持っていれば、放射線不透過
性造影剤は心尖に達するまえに左心室から排出されてし
まう物理的形状特性もある。したがって、心尖を中心と
した領域における左心室の不鮮明な輪郭を、より高い信
頼性で抽出するためにブロック110 の過程が行われる。
その際、包括的形状制約の適用によって、心尖72のある
領域以外の輪郭の関数として心尖72のある領域の輪郭を
決定するのである。この過程では包括的形状制約を決定
するためにあらかじめ収集された学習データが使用され
る。手動で抽出された別の個体の心臓の左心室の輪郭
を、左心室上部2/3 の輪郭と心尖付近の輪郭との関係を
確認するために評価する。この関係を利用してブロック
108 の推定された左心室領域を評価し、ブロック110 の
過程はブロック112 に記したとおり左心室LVの境界線を
推定する。ブロック112 の推定左心室境界線はかなり正
確に左心室の輪郭を表しているはずであるが、さらにブ
ロック114 の段階で各画像フレームの推定左心室境界線
が輪郭の予想される範囲内にあるかどうかを確認する。
ブロック114 の過程は単に推定した輪郭の決定過程中に
異常がないかを確認するものであり、別個体の心臓の左
心室に関する学習データから得られたパラメータについ
て再度境界線を評価しなおすことで確認するのである。
各画像フレームについての境界線がこの整合性のテスト
を通過した場合は、ブロック116 で許容される推定左心
室境界線が得られる。これは医師その他の医療従事者が
心臓の状態を診断したり、その他前記の目的のために観
察し得るものである。境界線は各画像フレームに関して
推定されるため、画像フレーム間の変化が即座に明確に
なり、医師が特定の疾患をより正確に診断するための意
義ある情報が得られる。
Next, an outline of the method according to the present invention will be described. An outline of the process of automatically extracting the contour of the left ventricle is shown in FIG. As described above, this sequence of digital image frames contains input data for the process of determining the contour of the left ventricle. This input data corresponds to the left ventricular angiogram 100. In block 102,
With respect to the contour of the left ventricle, an initial region is estimated at intervals over one cardiac cycle or more. This initial estimate is a function of the pixel-by-pixel density values of each image frame created during the entire cardiac cycle. In order to give shape to the initial estimation, pixels are classified by a function of the position and density value of each pixel with reference to parameters determined by manually evaluating learning data in advance using Bayesian classification. The learning data described in detail later is image data obtained by imaging left ventricles of a plurality of other hearts. By classifying each pixel of the patient's image frame as being inside or outside the left ventricular contour, an estimated initial left ventricular region is obtained at block 104. The next step is block 106. In particular, the initial left ventricular region estimated in block 104 is further improved by applying dynamic constraints to changes in the contour of the region between successive image frames. This dynamic constraint is also obtained by determining a component from the learning data. That is, for each left ventricle of the heart of the other individual used to create the training data, determining the extent of displacement of a point on the boundary or contour of the left ventricle between two consecutive points in time. Obtained by This component determines the limits on left ventricular contour motion between successive image frames used in making an initial estimate of the left ventricular region for the patient. A further refined and estimated left ventricular region is created by applying a kinetic constraint, which is block 108. As described above, the contour of the apex 72 of the left ventricle is the most difficult part of the endocardium to depict in image data. Usually, a radiopaque contrast agent is injected into the middle left ventricle so that it can be compared on an X-ray image.
There is a physical shape characteristic that the lower apical area often does not mix well with blood. In addition, if the patient's heart has good contractile function, the radiopaque contrast agent may have a physical shape characteristic that it is expelled from the left ventricle before reaching the apex. Therefore, the process of block 110 is performed to more reliably extract a blurred outline of the left ventricle in the region centered on the apex.
At this time, the contour of the region with the apex 72 is determined as a function of the contour other than the region with the apex 72 by applying the comprehensive shape constraint. In this process, learning data collected in advance is used to determine a comprehensive shape constraint. The manually extracted left ventricular contour of another individual's heart is evaluated to confirm the relationship between the contour of the upper left ventricle 2/3 and the contour near the apex. Block using this relationship
The estimated left ventricular region of 108 is evaluated, and the process of block 110 estimates the boundary of the left ventricle LV as described in block 112. The estimated left ventricular boundary in block 112 should represent the contour of the left ventricle fairly accurately, but further in step 114 the estimated left ventricular boundary of each image frame is within the expected range of the contour. Check whether or not.
The process of block 114 simply checks for any abnormalities during the process of determining the estimated contour, and re-evaluates the boundaries for the parameters obtained from the training data for the left ventricle of the separate heart. Make sure.
If the boundaries for each image frame pass this consistency test, then an acceptable left ventricular boundary is obtained at block 116. This allows a physician or other healthcare professional to diagnose the condition of the heart or to observe for other purposes. Because boundaries are estimated for each image frame, changes between image frames are immediately evident, providing meaningful information for a physician to more accurately diagnose a particular disease.

【0018】上記方法について更に詳細に説明をする。
前記のとおり概要を説明した方法を詳細に実施するとき
に、いくつかの初期前提がある。第一に、収縮終期の画
像フレームは手動認識か、または、左心室造影図データ
100 を含む画像フレームを処理することによる自動認識
のどちらかにより決定されなければならない。第二に、
心周期の収縮期及び拡張期には境界線が単調な動きを示
すことが前提とされる。第三に、画像フレームにおける
左心室の方向を確定するため、心臓の大動脈弁面が認識
できなければならない。第四に、左心室は画像フレーム
のほぼ中央に位置していなければならない。最後に、初
期左心室領域の推定過程において、左心室内の領域から
外れている場合でも、左心室の外側の領域が含まれてい
ないことが前提とされる。しかし、この方法を適用して
さらに経験を積めば、これらの前提の大部分は緩和また
は排除できる。作成された左心室輪郭が、前提を考慮し
た際に条件に当てはまらない事を理由にエラーとみなさ
ないことを確認する方法に加えて、さらに追加処理を行
うことで排除できる前提もある。
The above method will be described in more detail.
There are some initial assumptions when implementing the method outlined above in detail. First, end-systolic image frames are manually recognized or left ventricular angiogram data.
It must be determined by either automatic recognition by processing image frames containing 100. Secondly,
It is assumed that the borderline shows a monotonous movement during systole and diastole of the cardiac cycle. Third, in order to determine the direction of the left ventricle in the image frame, the aortic valve surface of the heart must be recognizable. Fourth, the left ventricle must be located approximately in the center of the image frame. Lastly, in the process of estimating the initial left ventricle region, it is assumed that a region outside the left ventricle is not included even if the region is outside the region inside the left ventricle. However, with further experience in applying this method, most of these assumptions can be relaxed or eliminated. In addition to the method of confirming that the created left ventricular contour is not regarded as an error because it does not meet the conditions when considering the premise, there is also a premise that it can be eliminated by performing additional processing.

【0019】画像フレームの各画素の位置は縦軸、横軸
の座標によって決定される。一連の画像フレーム全体を
通じて各画素の濃度値ベクトルは各縦軸、横軸の位置に
関係づけられている。さらに、この方法では各画素に対
して「特徴ベクトル」を使用している。この「特徴ベク
トル」は一連の画像フレームを通しての濃度値ベクトル
で、縦軸、横軸の位置及び関心領域の中心からの距離を
示す追加要素を持つ。学習データは各分類毎に特徴ベク
トルの組を確定する。実施例では、学習データは正規化
され、収縮期について12画像フレーム、拡張期について
18画像フレームが作成される。収縮終期の画像フレーム
は手動で決定することができるが、図4のブロック118
に示すように、収縮終期の画像フレームは自動決定する
方が好ましい。ブロック100 の左心室造影図は、画素の
特徴ベクトルを利用して関心領域(ROI) を抽出するブロ
ック120 へ入力される。この過程に関連して、簡略化さ
れた分類法がブロック122 で利用される。分類法122
は、複数の他心臓の左心室に関して作成された学習デー
タから得られたパラメータを利用する。学習データは処
理され、手動で抽出された輪郭の学習画像フレームから
3領域を同定する。そして学習画像フレームの画素は、
この3つの領域の内のどれか1つに分類される。この3
つの領域は、(1) 明るい背景領域(これは画像装置で使
用される機械的シャッタを示すものであるので、関心領
域から除外される)、(2) 暗い背景領域、(3) 前景領域
(すなわち、手動で抽出した輪郭の内側の領域)であ
る。全画像フレームについての、及び全ての別個体毎に
ある心臓の左心室に関する輪郭の組は、学習データにお
ける前景領域にあるとして分類された画素をすべて収集
することにより抽出される。この組になった輪郭をもと
に、学習データにおける関心領域及び各領域内の画素の
濃度値の平均を決定するものであり、ブロック120 に記
したように、分類法122 は左心室造影図データ100 の関
心領域を決定することができる。ブロック120 の過程は
次のように実施される。ブロック124 に示したとおり、
左心室造影図データ100 に含まれる画像フレームの全画
素は、分類法122 により画素の特徴ベクトルを利用して
画素が関心領域内にあるかどうかで評価され、抽出され
る。ブロック121 に示されているように、暗い背景も分
類法122 で定義される。この過程は左心室造影図データ
100 に含まれる各画素に対して、全画素の位置が処理さ
れるまで抽出処理が繰り返され、左心室造影図データに
含まれる一連の画像について、ブロック124 では明るい
関心領域が、またブロック121 では暗い背景が抽出して
得られる。次の過程123 は、左心室造影図データ100 に
含まれる各画像について、ブロック121 における暗い背
景内の画素の濃度値を考慮するものである。画像フレー
ムの各画素についての相対的濃度値は、X線強度、検出
器の感度及びその他の要素の差によって著しく異なるこ
とがあるのは明白である。従って、ブロック123 に示し
たように各画像フレームの暗い領域の画素についてヒス
トグラムが作成される。それぞれの暗い背景のヒストグ
ラムには、画像フレームの同一の濃度値を持つ画素数を
示す個別の合計が含まれる。すなわち、画像フレームに
おける異なる濃度値毎の画素数の合計である。暗い背景
のヒストグラムはブロック125 に示されている正規化要
素を定義する。次に説明するように、正規化要素は、上
記の画像フレーム間での相対的濃度値の偏差を補償する
ものである。ブロック124 の関心領域及びブロック125
の暗い背景の正規化要素は、ブロック126 に示される収
縮終期の画像フレームを同定する過程へ入力される。収
縮終期には左心室は最小の領域を示すはずである。つま
り、収縮終期の画像フレームは関心領域内の相対的に明
るい画素を有する領域が最小である画像フレームに一致
することがしばしばある。そのため、ヒストグラムは各
画像フレームの関心領域内にある画素によって作成され
る。このヒストグラムには関心領域内の画素について各
濃度値毎に集計した、同一濃度値を持つ画素数の合計が
含まれる。各画像フレームの関心領域のヒストグラム
は、さらに各画像フレーム間の相対的濃度値の偏差に関
して、ブロック125 の正規化要素を利用して正規化され
る。それぞれの正規化された関心領域ヒストグラムは、
特徴ベクトル (画素ベクトル、から得られる特徴ベクト
ルとは異なる) として収縮終期の画像フレームを決定す
る分類法128 で利用される。分類法128 では複数の別個
体の心臓でつくられた学習データから得られるパラメー
タを使用する。手動で抽出された輪郭、手動で抽出され
た輪郭を含む関心領域、分類法122 による暗い背景領域
及び学習データの各画像フレームにおける関心領域の濃
度値ヒストグラムから得られる心室容量計算から、収縮
終期の画像フレームを同定するために学習データが処理
される。つまり、ブロック123 について述べたように、
暗い背景のヒストグラムが各学習データの画像フレーム
毎に作成され、まさにブロック125 に関して述べたよう
に学習データの暗い背景正規化要素が定義される。この
学習データの正規化要素を用いて、学習データの各画像
フレームの関心領域ヒストグラムが正規化される。最後
に学習データの各画像フレームにおける正規化した関心
領域及びその学習データにおける各心臓についての収縮
終期画像フレームの同定を基にして、分類法128 は、ブ
ロック126 で述べたように、左心室造影図データ100 、
すなわち当該患者の画像データについて収縮終期画像フ
レームを決定することができる。
The position of each pixel in the image frame is determined by the coordinates on the vertical and horizontal axes. The density value vector of each pixel is related to the position of each vertical axis and horizontal axis throughout the series of image frames. Further, in this method, a "feature vector" is used for each pixel. This “feature vector” is a density value vector through a series of image frames, and has additional elements indicating the position of the vertical axis, the horizontal axis, and the distance from the center of the region of interest. The learning data determines a set of feature vectors for each classification. In the example, the training data is normalized, 12 image frames for systole and diastole
18 image frames are created. The end systolic image frame can be determined manually, but is shown in FIG.
It is preferable that the end-systolic image frame is automatically determined as shown in FIG. The left ventricular angiogram of block 100 is input to block 120, which extracts a region of interest (ROI) using the feature vector of the pixel. In connection with this process, a simplified taxonomy is utilized at block 122. Taxonomy 122
Uses parameters obtained from learning data created for the left ventricle of a plurality of other hearts. The training data is processed to identify three regions from the manually extracted contour training image frames. And the pixels of the learning image frame are
It is classified into any one of these three areas. This 3
The two areas are: (1) a light background area (which is excluded from the area of interest because it indicates a mechanical shutter used in the imaging device); (2) a dark background area; and (3) a foreground area ( That is, a region inside the contour extracted manually. The contour set for the left ventricle of the heart for all image frames and for every discrete body is extracted by collecting all pixels classified as being in the foreground region in the training data. Based on this set of contours, the region of interest in the training data and the average of the density values of the pixels in each region are determined. As described in block 120, the classification method 122 uses the left ventricular contrast map. The region of interest of the data 100 can be determined. The process of block 120 is performed as follows. As shown in block 124,
All the pixels of the image frame included in the left ventricular angiogram data 100 are evaluated and extracted based on whether or not the pixel is within the region of interest by using the feature vector of the pixel by the classification method 122. Dark backgrounds are also defined by the taxonomy 122, as shown in block 121. This process is a left ventricular angiogram data
For each pixel contained in 100, the extraction process is repeated until all pixel positions have been processed, and for a series of images contained in the left ventricular angiogram data, a bright region of interest in block 124 and a block 121 A dark background is obtained by extraction. The next step 123 is to consider the density values of the pixels in the dark background in block 121 for each image contained in the left ventricular angiogram data 100. Obviously, the relative density values for each pixel of the image frame can vary significantly depending on differences in x-ray intensity, detector sensitivity, and other factors. Therefore, as shown in block 123, a histogram is created for the pixels in the dark area of each image frame. Each dark background histogram includes a separate sum that indicates the number of pixels having the same density value in the image frame. That is, it is the sum of the number of pixels for each different density value in the image frame. The dark background histogram defines the normalization factor shown in block 125. As described below, the normalizing element compensates for the deviation of the relative density value between the image frames. Region of interest in block 124 and block 125
The dark background normalization element is input to the process of identifying end-systolic image frames shown in block 126. At end systole, the left ventricle should show a minimal area. That is, an end-systolic image frame often coincides with an image frame in which the region having relatively bright pixels in the region of interest is the smallest. Therefore, a histogram is created by the pixels in the region of interest of each image frame. This histogram includes the total number of pixels having the same density value, which is calculated for each density value for the pixels in the region of interest. The histogram of the region of interest for each image frame is further normalized using the normalization factor of block 125 with respect to the deviation of the relative density values between each image frame. Each normalized region of interest histogram is
It is used as a feature vector (different from the feature vector obtained from the pixel vector) in the classification method 128 for determining the end-systolic image frame. Classification method 128 uses parameters obtained from training data generated by a plurality of separate hearts. From the manually extracted contour, the region of interest including the manually extracted contour, the dark background region by the classification method 122, and the ventricular volume calculation obtained from the density value histogram of the region of interest in each image frame of the training data, the end systole is calculated. The training data is processed to identify image frames. That is, as mentioned for block 123,
A dark background histogram is created for each image frame of the training data, defining the dark background normalization component of the training data just as described with respect to block 125. The region-of-interest histogram of each image frame of the learning data is normalized using the normalization element of the learning data. Finally, based on the identification of the normalized region of interest in each image frame of the training data and the end-systolic image frame for each heart in the training data, the classification method 128 performs left ventricular imaging as described at block 126. Figure data 100,
That is, an end-systolic image frame can be determined for the image data of the patient.

【0020】ブロック104 の初期左心室領域を推定する
過程は図5に示されている。初期左心室領域の推定の前
に、ブロック132 で左心室造影図データが前処理及び正
規化をされる。ブロック132 の詳細は図6に示されてい
る。この図について見てみると、ブロック160 では、ブ
ロック162 に示したような形態的開閉処理により左心室
造影図データ100 から「ノイズ」を除去する。形態的開
閉処理についての一般的な初歩的な議論については "Im
age Analysis Using Mathematical Morphology" by R.
M. Haralick, S.R. Sternberg, and X. Zhu- ang, IEEE
Trans. on Pattern Recognition and Machine Intelli
gence, Vol. 9, No. 4,pages 532-550 という論文に述
べられている。形態的閉鎖処理とは、画像フレームの明
るい領域にある相対的に暗い部分を明るくすることによ
って左心室造影図データを操作するものである。この処
理はモルタルの低い部分をこてで水平にするのと類似し
ている。この段階をさらによく理解するために、各画像
フレームを、2次元の面に各画素を垂直に投影させ、3
次元方向にその濃度値を高さで示してみるとよい。こう
すると、相対的に高い濃度値を持つ画素の集まった大き
な領域内に、相対的に低い濃度値持つ画素の集まった小
さな領域が、3次元方向に小さな窪みとして現れる。形
態的閉鎖処理を使用して、この画素の集まった小さな領
域の濃度値を高め、その回りの明るい画素の濃度値によ
り近づけようとするのである。同様に、形態的開放処理
とは暗い領域にある明るい部分の画素の相対的に高い濃
度値を低下させ、その部分の濃度値が周囲の画素の低い
濃度値に近づくようにするのである。ノイズを除去する
ために用いられるこれらの形態的開閉処理の特徴の一つ
は、相対的に明るい領域と暗い領域間の急激な遷移を著
しく変化させることがないということである。この技術
より以前からあるノイズフィルタリング技術ではこのよ
うな急激な遷移を不鮮明にする傾向がある。左心室造影
図データからノイズを除去することにより、ブロック16
4 のフィルタリングされた左心室造影図データができ
る。左心室造影図データ100 は1心周期分以上の画像デ
ータであって、画像データを構成する実際の画像フレー
ム数は患者20の心拍数によって1心周期の枚数が異な
る。従ってブロック166 では、ブロック164 のフィルタ
リング済の左心室造影図データを心拍数に関して正規化
する。この正規化はブロック168 に示した従来の補間法
により処理が行われ、これによりあらかじめ定義され要
求される一定した画像フレームの枚数が求められる。ブ
ロック170 に示された通り、補間処理の目的は心周期間
内に時間的にほぼ等間隔となるように間引いて余分な画
像フレームを省略した計30枚の画像フレーム (実施例で
は) 、すなわち収縮期12枚、拡張期18枚の画像フレーム
があることを確認することである。実施例で使用された
枚数とは異なる枚数の画像フレームで正規化して本発明
を実施することも可能である。前記の画像処理から生じ
る画像フレームの明るさの偏差は濃度値の最大値と最小
値を正規化することにより計算されなければならない。
この過程はブロック172 に示されている。正規化処理は
ブロック174 のスケーリングを参照し、濃度値の範囲が
一連の画像フレームのすべてに当てはまるか、そしてそ
れが希望する範囲内 (実施例では0から225)であるかを
確認する。このようにして正規化された左心室造影図デ
ータ134 はブロック132 の過程で作成される。
The process of estimating the initial left ventricular region in block 104 is shown in FIG. Prior to estimating the initial left ventricular region, the left ventricular angiogram data is pre-processed and normalized at block 132. Details of block 132 are shown in FIG. Referring to this figure, at block 160, "noise" is removed from the left ventricular angiogram data 100 by the morphological opening and closing process as shown at block 162. For a general rudimentary discussion of morphological opening and closing, see "Im
age Analysis Using Mathematical Morphology "by R.
M. Haralick, SR Sternberg, and X. Zhuang, IEEE
Trans.on Pattern Recognition and Machine Intelli
gence, Vol. 9, No. 4, pages 532-550. Morphological closure involves manipulating left ventricular angiogram data by brightening a relatively dark portion of a bright region of an image frame. This process is similar to leveling the lower part of the mortar with a trowel. To better understand this stage, each image frame is projected vertically onto a two-dimensional plane with each pixel
It is good to show the density value by height in the dimension direction. In this case, a small area where pixels having relatively low density values are gathered appears as a small dent in the three-dimensional direction within a large area where pixels having relatively high density values are gathered. The morphological closing process is used to increase the density value of this small area of pixels and to approach the density value of the surrounding bright pixels. Similarly, the morphological opening process lowers the relatively high density value of a pixel in a light part in a dark area so that the density value of that part approaches the low density value of a surrounding pixel. One of the features of these morphological opening and closing processes used to remove noise is that they do not significantly change the abrupt transition between relatively bright and dark areas. Earlier noise filtering techniques tend to blur such abrupt transitions. Block 16 by removing noise from left ventricular angiogram data
4 filtered left ventricular angiogram data is created. The left ventricular angiogram data 100 is image data for one cardiac cycle or more, and the number of actual image frames constituting the image data varies depending on the heart rate of the patient 20. Accordingly, at block 166, the filtered left ventricular angiogram data of block 164 is normalized with respect to heart rate. This normalization is performed by the conventional interpolation method shown in block 168 to obtain a predetermined and required number of fixed image frames. As shown in block 170, the purpose of the interpolation process is a total of 30 image frames (in the embodiment), which are thinned out so as to be substantially equally spaced in time during the cardiac cycle and omit extra image frames, that is, The purpose is to confirm that there are 12 systolic and 18 diastolic image frames. It is also possible to implement the present invention by normalizing the number of image frames different from the number used in the embodiment. The brightness deviation of the image frame resulting from the above image processing must be calculated by normalizing the maximum and minimum density values.
This process is indicated by block 172. The normalization process refers to the scaling of block 174 to determine if the range of density values applies to all of the series of image frames and is within the desired range (0 to 225 in the example). The left ventricular angiogram data 134 thus normalized is created in the process of block 132.

【0021】図5に戻ると、正規化された左心室造影図
データはブロック136 へ入力され、事前情報156 を使用
して、各画像フレームの画素が分類される。ここで事前
情報156 は複数の別の個体の心臓について手動で抽出し
た左心室の輪郭から得たものであって以下のように決定
される。ブロック138 において、別の複数個体の心臓に
ついての複数の左心室造影図データセットが学習データ
として得られる (前記の図1のX線造影装置10によって
作成される)。この処理をテストする目的のために選択
された集団は約70個体から成り、うち20個体は何も疾患
や機能的な問題が観察されない、「正常」な心臓を持
つ。左心室造影図データ138 における各画像フレーム、
及び学習データを収集した集団の各個体の心臓につい
て、このような画像データ解釈専門の医師が手動でブロ
ック140 に示す境界線または左心室の輪郭を抽出する。
また、この心臓に関する左心室造影図データはブロック
132 における当該患者の左心室造影図データ100 の前処
理及び正規化と同じ過程を経てブロック142 で前処理さ
れる。学習データから事前情報156 を作成する処理のす
べてが、当該患者についての左心室造影図データ100 の
分析よりも前に行われると理解しなければならない。画
像データ保存装置32は、ブロック136 の過程で事前情報
を記憶しておくために用いられる。学習データの全画像
フレームを前処理することにより、ブロック146 で示す
正規化された左心室造影データの学習用画像フレームを
作成する。一方ブロック144 で、ブロック140 で求めた
輪郭内を塗りつぶし、心周期当り30枚の学習画像フレー
ムに正規化して、ブロック148 の手動抽出領域を作成す
る。ブロック148 の心周期のうち収縮期の手動抽出領域
を含む画像フレームをブロック152 へ入力する。各左心
室に関する一連の画像フレームにおける各画素に分類が
指定され、ブロック154 の位置による分類となる。同様
に、他の心臓についての左心室造影図データ138 の学習
画像フレームにおける全画素が拡張期間において処理さ
れ、その心周期部分についても位置による分類が行われ
る。ブロック152 で画素の分類を指定する段階は図13に
示してある。これは説明するための簡略化された図であ
り、3枚の画像フレーム82,84,86が示されているのみで
ある (実施例では、実際には収縮期12枚、拡張期18枚の
画像フレームがある) 。そして各画像フレームについ
て、90a,90b,90c,90d の4つの画素が示されているのみ
であるが、各画像フレームには多数の画素が含まれるも
のとする。収縮期において作成されたものを含む学習画
像フレームにおいて、画素の中には90dのように、常に
すべての学習画像フレームにおける手動で抽出した輪郭
の外側にあるものがある。同様に、90a のように数枚以
上の画像フレームにおいて、常に収縮期の画像フレーム
における手動抽出の輪郭の内側にある画素もある。最後
に、各学習画像フレームの、90b,90c のような画素は、
1枚またはそれ以上の画像フレームにおいて手動抽出の
輪郭の内側にあり、収縮期の残りの画像フレームにおい
ては手動抽出の輪郭の外側にある。表1は、心周期のう
ち収縮期において対応する画素の相対的な位置が、その
画素に対して位置による分類番号を指定する際にどの様
に適用されているかを、手動抽出の輪郭に対する画素の
相対的な位置として表に示されている。「0」は画素が
輪郭の外側、「1」は画素が輪郭の内側にあることを示
している。
Returning to FIG. 5, the normalized left ventricular angiogram data is input to block 136, where the a priori information 156 is used to classify the pixels of each image frame. Here, the prior information 156 is obtained from the outline of the left ventricle manually extracted for the hearts of a plurality of different individuals, and is determined as follows. At block 138, a plurality of left ventricular angiogram data sets for another plurality of hearts are obtained as training data (created by the X-ray imaging apparatus 10 of FIG. 1 described above). The population selected for the purpose of testing this treatment consisted of about 70 individuals, of which 20 had a "normal" heart with no observed disease or functional problems. Each image frame in the left ventricular contrast map data 138,
And, for each individual heart in the population from which the training data was collected, such image data interpreting physicians manually extract the boundaries or left ventricular contours shown in block 140.
The left ventricular angiogram data for this heart is blocked.
The pre-processing and normalization of the patient's left ventricular angiogram data 100 at 132 is pre-processed at block 142. It should be understood that the entire process of generating prior information 156 from the training data is performed prior to the analysis of the left ventricular angiogram data 100 for the patient. The image data storage device 32 is used to store prior information in the process of block 136. By pre-processing all image frames of the training data, a training image frame of the normalized left ventricle contrast data shown at block 146 is created. On the other hand, in the block 144, the inside of the contour obtained in the block 140 is painted out and normalized to 30 learning image frames per cardiac cycle, thereby creating a manually extracted area in the block 148. An image frame including the manually extracted region of the systole in the cardiac cycle of block 148 is input to block 152. A classification is designated for each pixel in a series of image frames for each left ventricle, and classification is performed according to the position of the block 154. Similarly, all the pixels in the training image frame of the left ventricular angiogram data 138 of the other heart are processed in the expansion period, and the cardiac cycle portion is also classified by position. The step of specifying the pixel classification at block 152 is illustrated in FIG. This is a simplified diagram for explanation, and only three image frames 82, 84, 86 are shown (in the example, actually 12 systolic, 18 diastolic). There is an image frame). Although only four pixels 90a, 90b, 90c, and 90d are shown for each image frame, it is assumed that each image frame includes many pixels. In learning image frames, including those created during systole, some pixels, such as 90d, are always outside the manually extracted contours in all learning image frames. Similarly, in several or more image frames, such as 90a, some pixels are always inside the outline of manual extraction in the systolic image frame. Finally, the pixels of each training image frame, such as 90b and 90c,
It is inside the manually extracted contour in one or more image frames, and outside the manually extracted contour in the remaining systolic image frames. Table 1 shows how the relative position of the corresponding pixel in the systole of the cardiac cycle is applied when specifying a classification number by position for that pixel, the pixel for the contour of the manual extraction. Are shown in the table. “0” indicates that the pixel is outside the outline, and “1” indicates that the pixel is inside the outline.

【0022】[0022]

【表1】 表1 フレーム 輪郭に対する画素の位置 1枚目 0 0 0 0 1 1 1 1 2枚目 0 0 1 1 0 0 1 1 3枚目 0 1 0 1 0 1 0 1 分類番号 0 1 2 3 4 5 6 7Table 1 Table 1 Pixel position with respect to frame outline 1st sheet 0 0 0 0 1 1 1 1 2nd sheet 0 0 1 1 0 0 1 1 3rd sheet 0 1 0 1 0 1 0 1 1 Classification number 0 1 2 3 4 5 6 7

【0023】対応する画素が、全画像フレームにおいて
常に手動抽出の輪郭の外側「0」にあれば、表1より分
類番号0となる。そこで画素90d は分類番号0というこ
とになる。同様にこの簡略化された例では、対応する画
素がいつも画像フレームにおける輪郭の内側にある画素
90a には分類番号7が指定される。他の画素について
は、対応する画素がその位置を輪郭の内側から外側へ変
えた画像フレームによって分類が決まる。このようにす
ると、画素90c は1枚目の画像フレームでは手動抽出の
輪郭の内側にあったが、2枚目、3枚目の画像フレーム
では輪郭の外側にある。従ってこの画素は分類番号4に
なる。同じ理論により、画素90b は1枚目、2枚目では
手動抽出輪郭の内側であるが、3枚目では外側にあり、
従って分類番号6になる。分類番号の総数は画像フレー
ム数をNで表わすと数学的には2Nであり得る。しか
し、実際にはすべての分類番号が存在するのではない。
なぜなら心臓の動きには限界があるからである。図13の
フレーム88は、この簡単な例に関して4つの可能性のあ
る位置による分類を示している。上記の処理に基づい
て、位置による分類が、他の心臓の左心室すべての各収
縮期学習画像フレームにおける画素に対して指定され
る。同様の処理が拡張期の学習画像フレームに対して適
用される。しかし、拡張期の場合には、収縮期とは逆の
動きとなるため最初に画像フレームの外側にあった画素
(相対的な位置「0」)は、その画素が手動抽出輪郭の
内側に移動した画像フレームに関連して分類される。従
ってブロック154 は収縮期及び拡張期の各画像フレーム
における各画素に対して位置による分類の番号が決定し
たことを示す。図5のブロック102 の右側の処理におい
て、ブロック142 とブロック144 とで処理される画像フ
レームは同一のものである。各組になった学習画像フレ
ームにおける画素は、その画素に割り当てられた位置に
よる分類の番号に基づいてまとめられ、事前情報156 を
構成する平均値、共分散及び分類確率というパラメータ
がブロック150 において指定される。平均値は、同じ位
置による分類の番号に該当するベクトル全ての濃度値の
平均であり、共分散は同じ位置による分類番号に該当す
る各ベクトルの平均濃度値からの偏差の程度の尺度であ
る。事前の分類確率は、単にある分類番号に該当する画
素数の、全画素が該当する分類番号の総数に対する割合
である。ブロック136 に示したように、収縮期について
得られた事前情報は、収縮期の画像フレームの画素の分
類に利用され、拡張期について得られた事前情報は、拡
張期の画像フレームの画素分類ために用いられ、この過
程の詳細は図7に示されている。図7を見てみると、ブ
ロック134 の正規化された左心室造影図に関するデータ
はブロック180 において画素の位置である縦軸、横軸座
標を付加する処理がされ、画像フレームの全画素につい
て特徴ベクトル182 が得られる。各特徴ベクトルには、
各画像フレームにおける同じ位置の画素の濃度値が含ま
れている。画素の位置は画素の縦軸、横軸座標 (及び関
心領域の中心からの距離) によって追跡される。ブロッ
ク184 では事前情報に基づき最も確率の高い分類番号を
見つけ出し、指定された分類番号ブロック186 が得られ
る。ブロック156 の事前情報は各分類P(C)の確率、分類
の条件付き確率P(X/C)を含む学習データから得られる。
ブロック184 の処理を行う際に、特徴ベクトルXに関し
て、この段階で事後関数P(C/X)=P(X/C) * P(C)/P(X) を
最大にする分類が決定される。さらに、各分類Cと、分
類Cの各Xiとは多変量正規分布N(μc,Σc)に従う(図13
の簡略化した例について)。そこでは、
If the corresponding pixel is always “0” outside the outline of the manual extraction in all image frames, the classification number is 0 from Table 1. Therefore, the pixel 90d has the classification number 0. Similarly, in this simplified example, the corresponding pixel is always the pixel inside the contour in the image frame.
The classification number 7 is designated for 90a. For other pixels, the classification is determined by the image frame whose corresponding pixel has changed its position from inside the contour to outside. In this way, the pixel 90c is inside the manually extracted outline in the first image frame, but outside the outline in the second and third image frames. Therefore, this pixel is classified as classification number 4. According to the same theory, the pixel 90b is inside the manually extracted contour for the first and second sheets, but is outside for the third sheet,
Therefore, the classification number is 6. The total number of classification numbers can be mathematically 2 N where N represents the number of image frames. However, not all classification numbers actually exist.
This is because the movement of the heart is limited. The frame 88 in FIG. 13 shows the classification by four possible positions for this simple example. Based on the above process, a classification by position is specified for pixels in each systolic learning image frame of all left ventricles of other hearts. Similar processing is applied to the learning image frame in the diastole. However, in the case of the diastole, the movement which is the reverse of the movement of the systole, so that the pixel (relative position “0”) that was initially outside the image frame moves to the inside of the manually extracted contour. Is classified in relation to the image frame. Accordingly, block 154 indicates that the position classification number has been determined for each pixel in each systolic and diastolic image frame. In the processing on the right side of the block 102 in FIG. 5, the image frames processed in the blocks 142 and 144 are the same. The pixels in each set of learning image frames are grouped based on the classification number according to the position assigned to the pixel, and parameters such as the average value, covariance, and classification probability constituting the a priori information 156 are specified in block 150. Is done. The average value is the average of the density values of all the vectors corresponding to the classification number at the same position, and the covariance is a measure of the degree of deviation from the average density value of each vector corresponding to the classification number at the same position. The prior classification probability is simply the ratio of the number of pixels corresponding to a certain classification number to the total number of classification numbers corresponding to all pixels. As shown in block 136, the a priori information obtained for systole is used to classify the pixels of the systolic image frame, and the a priori information obtained for diastole is used to classify the pixels of the diastolic image frame. The details of this process are shown in FIG. Referring to FIG. 7, the data relating to the normalized left ventricular angiogram in block 134 is subjected to a process of adding the coordinates of the vertical axis and the horizontal axis, which are the pixel positions, in block 180. The vector 182 is obtained. Each feature vector has
The density value of the pixel at the same position in each image frame is included. The position of a pixel is tracked by the vertical and horizontal coordinates (and distance from the center of the region of interest) of the pixel. In block 184, the classification number with the highest probability is found based on the prior information, and the specified classification number block 186 is obtained. Prior information in block 156 is obtained from learning data including the probability of each class P (C) and the conditional probability of class P (X / C).
In performing the process of block 184, the classification that maximizes the posterior function P (C / X) = P (X / C) * P (C) / P (X) is determined for the feature vector X at this stage. You. Further, each class C and each Xi of class C follow a multivariate normal distribution N (μc, Σc) (FIG. 13).
For a simplified example). Where,

【0024】[0024]

【式1】 (Equation 1)

【0025】となり、δ2 ci, i = 1,2,3の場合は自動
共分散であり、δ2 cij , i ≠j=1,2,3,の場合は交差
分散となる。分類番号が指定されると、ブロック188 で
はその分類番号を一連の2値画像へと変換され、画素が
輪郭の内側にあれば2進法の1で表示されまた画素が輪
郭の外側にあれば2進法の0で表示され、白黒表示の画
像フレームが作成される。その結果、ブロック104 に示
したように各画像フレーム毎に推定された初期左心室領
域が得られる。
In the case of δ 2 ci , i = 1,2,3, automatic covariance is obtained, and in the case of δ 2 cij , i3j = 1,2,3, cross variance is obtained. Once the classification number is specified, block 188 converts the classification number into a series of binary images, which are displayed in binary 1 if the pixel is inside the contour and if the pixel is outside the contour. An image frame displayed in binary 0 and displayed in black and white is created. The result is the initial left ventricle region estimated for each image frame, as shown in block 104.

【0026】図8を見てみると、ブロック106 の詳細
は、すべての2枚組のフレーム間の動態制約が推定左心
室領域を改善する仕組みを示している。この過程を実行
する場合、境界線動態データ(BMO) を含む学習データが
ブロック190 に入力される。境界線動態データは、以下
に述べるようにブロック192 において動態制約を示す構
成要素を推定する過程に用いられる。実施例において
は、境界線動態データを作成する場合、その地域におけ
る一般的集団にごく普通に認められる様々な疾患を有す
る心臓の左心室造影図を選択するように心掛けた。構成
要素をそれほど多様なものにしないためには、多様な地
域又は人種の集団の心臓から境界線動態データを得るこ
とが望まれる。ブロック192 の詳細は図9に示されてい
る。境界線動態データはブロック200の境界線弧の長さ
及び心拍数のデータを正規化する処理へと入力される。
学習データは複数の別の個体について作成される複数の
組になった画像データから得られるものであるので、境
界線動態データの作成に使用される心臓の様々な大きさ
及び心拍数に合わせたデータの正規化が必要である。正
規化された境界線動態データ202 はブロック204 に入力
され、ここでは境界線または輪郭の動態を示す構成要素
が推定される。ブロック190 で境界線動態データが作成
される際、異なる他の182 人分の左心室造影図について
1心周期以上に渡り作成された学習画像フレームから心
内の輪郭を手動で抽出する。画像フレームは心周期内の
30時点、すなわち、収縮期において12時点、拡張期にお
いて18時点に補間される。手動で抽出された輪郭または
境界線を利用して、拡張期内及び収縮期内の連続する2
時点間の遷移の範囲が、ブロック202 における正規化さ
れた境界線動態データを構成する学習画像フレーム毎に
輪郭の周囲の100 の等間隔の地点で測定された。画像フ
レーム間での輪郭の内向性及び外向性の最大遷移は形態
的にブロック204 の2次元構成要素で示してある。構成
要素を推定する過程の詳細は図11に示してある。ブロッ
ク224 において、2枚の画像フレームi及びjの間の境
界線の動きである境界線動態データから収縮期間の100
の指向性の拡張成分が抽出された(心周期の収縮期及び
拡張期における時間的に非常に近接した学習画像フレー
ムが使用できるが、時間的に間隔の長い学習画像フレー
ムを使用することも可能である)。同様にブロック226
では、2枚の画像フレームi及びjの間の境界線の動き
から拡張期間の100 の指向性の収縮成分が抽出された。
ブロック224 及び226 で行われる過程により、ブロック
228 に示してあるような100 の指向性成分である境界線
動態成分が抽出される。ブロック230 では各方向の最大
の動きとなる成分を測定し、それによりブロック194 に
示されているとおり、拡張期及び収縮期の構成要素KIJ
及びLIJが得られる。構成要素KIJ及びLIJは、図9の
ブロック194 に示してあるように、動態制約を表し、画
像フレームiの左心室輪郭の情報を利用して画像フレー
ムjの左心室輪郭を改善する際に用いられる。It が時
間tにおける1枚の画像フレームであり、Is が時間s
におけるもう1枚の画像フレームであるならば、Is
境界線からIt の境界線を予測できる。
Turning to FIG. 8, the details of block 106 show how the dynamic constraints between all pairs of frames improve the estimated left ventricular region. In performing this process, training data including boundary motion data (BMO) is input to block 190. The borderline dynamics data is used in the process of estimating components indicative of dynamic constraints at block 192 as described below. In the examples, when generating borderline dynamics data, care was taken to select a left ventricular angiogram of a heart with various diseases that are most commonly found in the general population in the area. In order not to make the components very diverse, it is desirable to obtain borderline dynamics data from the hearts of various regional or racial populations. Details of block 192 are shown in FIG. The borderline dynamics data is input to a block 200 process for normalizing borderline arc length and heart rate data.
Since the learning data is obtained from a plurality of sets of image data created for a plurality of different individuals, the training data is adjusted to various sizes and heart rates of the heart used for creating the boundary line dynamic data. Data normalization is required. The normalized boundary dynamics data 202 is input to block 204, where components indicative of boundary or contour dynamics are estimated. When the boundary dynamics data is created in block 190, the contours in the heart are manually extracted from the training image frames created over one cardiac cycle for the left ventricular angiograms of the other 182 different persons. The image frame is in the cardiac cycle
Interpolation is performed at 30 time points, i.e., 12 times in systole and 18 times in diastole. Using manually extracted contours or boundaries, two consecutive
The extent of the transition between the time points was measured at 100 equally spaced points around the contour for each training image frame comprising the normalized borderline dynamics data at block 202. The maximum transition of introversion and extroversion of contours between image frames is morphologically indicated by the two-dimensional component of block 204. Details of the process of estimating the components are shown in FIG. At block 224, the boundary motion data, which is the movement of the boundary between the two image frames i and j, is used to calculate 100 of the contraction period.
(The learning image frames that are very close in time during the systole and diastole of the cardiac cycle can be used, but the learning image frames that are long in time can also be used.) Is). Similarly block 226
In the above, 100 directional contraction components during the expansion period were extracted from the movement of the boundary between the two image frames i and j.
The process performed in blocks 224 and 226 causes the block
Boundary dynamic components, which are 100 directional components as shown in 228, are extracted. In block 230, the component that has the greatest motion in each direction is measured, thereby, as shown in block 194, the diastolic and systolic components K IJ
And L IJ are obtained. Components K IJ and L IJ represent kinetic constraints, as shown in block 194 of FIG. 9, to use the left ventricular contour information of image frame i to improve the left ventricular contour of image frame j. Used for I t is one image frame at time t, I s time s
If is a further image frames in, we can predict the boundaries of I t from the boundary line of I s.

【0027】[0027]

【式2】 (Equation 2)

【0028】ここでLts及びKtSは、時間t及び時間s
間の内向性、外向性の動きに関する制約を示す構成要素
により、拡張期及び収縮期内の2枚の画像フレームを改
善することで、ブロック108 の推定左心室領域が得られ
る。つまり、この構成要素により、心周期の他の画像フ
レームから1本の境界線を与えられ、左心室が存在する
はずの環状の左心室領域を決定できる。動態制約はブロ
ック104 の初期左心室領域推定に繰り返し図8のブロッ
ク196 において適用され、ブロック108 の推定左心室領
域が得られる。
Here, L ts and K tS are time t and time s, respectively.
Components that indicate constraints on introvert and extrovert movements between the two provide an estimated left ventricular region of block 108 by improving the two image frames during diastole and systole. That is, with this component, one boundary line is given from another image frame of the cardiac cycle, and an annular left ventricular region where the left ventricle should exist can be determined. The kinetic constraints are repeatedly applied to the initial left ventricular region estimation of block 104 in block 196 of FIG. 8 to obtain the estimated left ventricular region of block 108.

【0029】図10に戻ると、ここには図3のブロック11
0 の中で包括的形状制約を用いて左心室境界線を推定す
るのに必要な過程が示されている。この過程では、学習
データが再度使用される。図に示されているとおり、ブ
ロック210 の学習左心室境界線の座標及びブロック212
の手動抽出した境界線または輪郭は共にブロック214へ
入力される。学習左心室境界線座標は学習データに図3
のブロック102 「一定時間の濃度により左心室領域を推
定する」及びブロック106 「全画像組間の動態制約によ
る左心室領域推定」の過程を適用することにより算定ま
たは決定される。前記のとおり、これは各学習画像フレ
ームについて推定輪郭を決定し、その輪郭の座標を決定
するものである。ブロック214 では、学習データの各画
像フレーム内のほぼ上部約2/3 について計算された座標
を輪郭の左心室心尖が含まれる部分に関連づけて推定さ
れることにより、回帰係数が推定される。前記のとお
り、左心室輪郭のうち心尖のある部分及び領域は画像フ
レームでは正確に定義できず、ブロック108 の推定左心
室領域もあまり正確ではない。従って、ブロック110に
おいて包括的形状制約を用いて、この左心室の心尖のあ
る領域の不正確さを補うようにする。ブロック216 の回
帰係数は、他の心臓について1心周期分以上作成された
200人分以上の左心室造影図から、コンピュータにより
抽出された輪郭を評価することにより求められたもので
あり、手動で抽出した輪郭の心尖のある部分の形状が、
コンピュータで抽出した輪郭の上部2/3 の形状と数学的
にどのような関係にあるのかを決定するためのものであ
る。ブロック216 の回帰係数を利用するため、ブロック
218 では、ブロック108 で左心室造影図データ100 につ
いて推定された左心室領域から左心室の輪郭の座標を抽
出する。輪郭の上部2/3 の境界線座標はブロック222 へ
入力され、ブロック216 の回帰係数を利用した回帰処理
が適用される。これにより左心室の心尖のある領域であ
る輪郭の下部1/3 を決定する。その結果がブロック112
の推定された左心室境界線である。ブロック112 で各画
像フレームについて推定左心室の境界線が得られたな
ら、その結果をテストし、医師がその結果を有効な輪郭
推定として正当に信頼できるかその整合性を判定するこ
とが好ましい。推定された左心室輪郭の整合性について
のテストの詳細は図12に示してある。この過程において
は、学習データから得られた動態制約がブロック231 で
再度使用される。輪郭の心尖部分を決定するために包括
的形状制約を適用することにより、前に適用した動態制
約に反して画像フレーム間の変化を招いた可能性があ
る。再度動態制約を適用した結果が各画像フレームにお
ける左心室境界線232 である。これら左心室境界線は、
ブロック234 に入力され、手動抽出の輪郭に基づいた別
個体の心臓の評価から得られた学習データによって決定
された曲率や左心室の中心からの距離で示される包括的
形状制約を適用する。ブロック236 は、その結果のデー
タが、あらかじめ学習データから得られた左心室境界線
の包括的形状制約を満たすことを示している。結果の境
界線に関するデータに整合性がないと思われる場合は、
ディスプレイ上にメッセージが現れ、操作者その他の使
用者に対して、ブロック238 に示されているように境界
線に誤りがあることを警告する。特に、この過程は、回
帰処理によって心尖部は満足されているが、形態上、凹
凸の数が満足されていない場合に警告を発する。もし、
凹凸の数が正しくても、心尖部に行なわれた回帰処理に
より示されるエリアが、大きすぎる場合には、推定され
た境界線は、信頼性が低すぎるとして除外される。この
ような警告が発せられない場合は、ブロック236 の画像
フレームについての境界線データは推定左心室境界線11
6 として許容される。このようにして得られた各画像フ
レームの許容された左心室境界線は、少なくともそれに
対応する手動抽出の境界線と同程度の正確さを持つ。な
ぜなら、この自動で輪郭及び境界線を決定する過程は、
前もってこの種の画像解釈専門の技術者によって手動で
抽出された学習データから得られた輪郭を基にしている
からである。自動化した処理は各画像フレームに関し、
その画像データを速やかに得たあと、前もって作成した
学習データを基に速やかに輪郭を抽出することができ、
従って心臓病学及びその他の内科的医療処置において医
師が使用する重要な貴重な手段となるであろう。本発明
の実施例については図示、説明ともにしたが、それらは
本発明の意図、観点から離れることなく変更することが
できる。
Returning to FIG. 10, here, block 11 of FIG.
The process required to estimate the left ventricular boundary using global shape constraints is shown in FIG. In this process, the learning data is used again. As shown, the coordinates of the learning left ventricle boundary of block 210 and block 212 are shown.
Are manually input to block 214. Learning left ventricle boundary line coordinates are shown in Fig. 3
This is calculated or determined by applying the processes of block 102 "Estimate the left ventricle region based on the density over a period of time" and block 106 "Estimate the left ventricle region by dynamic constraints between all image sets". As described above, this determines the estimated contour for each learning image frame and determines the coordinates of the contour. At block 214, the regression coefficients are estimated by estimating the coordinates calculated for approximately the upper approximately two-thirds within each image frame of the training data in relation to the portion of the contour that includes the left ventricular apex. As mentioned above, the apical portion and region of the left ventricular contour cannot be accurately defined in the image frame, and the estimated left ventricular region in block 108 is not very accurate. Accordingly, a global shape constraint is used at block 110 to compensate for this inaccuracy of the apical region of the left ventricle. The regression coefficients in block 216 were generated for at least one cardiac cycle for another heart
From the left ventricular angiogram of 200 or more people, it was obtained by evaluating the contour extracted by the computer, the shape of the part with the apex of the manually extracted contour,
It is used to determine the mathematical relationship between the shape of the upper two-thirds of the contour extracted by the computer. To use the regression coefficients from block 216, block
At 218, the coordinates of the contour of the left ventricle are extracted from the left ventricle region estimated for the left ventricular angiogram data 100 at block 108. The boundary coordinates of the upper two-thirds of the contour are input to a block 222, and a regression process using a regression coefficient in a block 216 is applied. This determines the lower third of the contour, which is the region with the apex of the left ventricle. The result is block 112
Is the estimated left ventricle boundary. Once the estimated left ventricular boundaries have been obtained for each image frame at block 112, the results are preferably tested and the physician preferably determines whether the results are validly reliable as valid contour estimates. Details of the test for consistency of the estimated left ventricular contour are shown in FIG. In this process, the dynamic constraints obtained from the training data are used again in block 231. Applying the global shape constraint to determine the apical portion of the contour may have resulted in changes between image frames contrary to previously applied dynamic constraints. The result of applying the dynamic constraint again is the left ventricle boundary 232 in each image frame. These left ventricular boundaries are
Block 234 applies a global shape constraint, indicated by the curvature and distance from the center of the left ventricle, determined by the training data obtained from the evaluation of the discrete heart based on the manually extracted contours. Block 236 indicates that the resulting data satisfies the left ventricular boundary global shape constraint previously obtained from the training data. If you believe that the data about the resulting border is inconsistent,
A message appears on the display alerting the operator or other user that the boundaries are incorrect, as shown in block 238. In particular, in this process, a warning is issued when the apex is satisfied by the regression processing but the number of irregularities is not satisfied morphologically. if,
Even if the number of irregularities is correct, if the area indicated by the regression processing performed on the apex is too large, the estimated boundary is excluded because the reliability is too low. If no such alert is issued, the boundary data for the image frame of block 236 is
Accepted as 6. The allowed left ventricular border of each image frame thus obtained is at least as accurate as its corresponding manually extracted border. Because, the process of automatically determining the contours and boundaries is
This is because contours obtained from learning data manually extracted in advance by a technician specializing in this type of image interpretation are used. The automated process is for each image frame
After quickly obtaining the image data, the contour can be quickly extracted based on the learning data created in advance,
Therefore, it will be an important and valuable tool used by physicians in cardiology and other medical medical procedures. Although the embodiments of the present invention have been illustrated and described, they can be modified without departing from the spirit and viewpoint of the present invention.

【0030】[0030]

【発明の効果】本願発明により、医師が画像評価をする
際に分析すべき個々の心室や内臓器官の予想される形状
や動きを認識し、画像から得られる情報をできるだけ多
く利用して内臓器官の表面を推定して描写するので、少
なくともこの種の画像評価の専門家が行う画像分析と同
一程度の正確さを有した作業を、人よりも効率的にかつ
迅速に行うことができる。また、自動化技術が内臓器官
の輪郭を抽出する際の正確さは、単一画像から得られる
よりも多くの情報によって向上する。更に、複数画像の
分析はより高い正確さを確立するために必要な更なる情
報を提供し、また現在の技術よりも多くの心臓及びその
他の内臓器官に関する情報を医師に提供することができ
るので、医師は、関連する医療処置を行う際に、心臓そ
の他の内臓器官の状況をより迅速に評価することができ
る。
According to the present invention, the physician recognizes the expected shapes and movements of the individual ventricles and internal organs to be analyzed when evaluating the image, and utilizes the information obtained from the image as much as possible to make the internal organs available. Since the surface of the image is estimated and described, at least the same level of accuracy as image analysis performed by an image evaluation specialist of this kind can be performed more efficiently and more quickly than a human. Also, the accuracy with which the automation technology extracts the contours of internal organs is enhanced by more information than can be obtained from a single image. In addition, the analysis of multiple images provides more information needed to establish higher accuracy and can provide physicians with more information about the heart and other internal organs than current technology. The physician can more quickly assess the status of the heart and other internal organs when performing related medical procedures.

【図面の簡単な説明】[Brief description of the drawings]

【図1】内蔵組織のX線画像を作成する装置及び、本発
明に基づく組織輪郭抽出のための画像を作成する器具を
示した図による概要図である。
FIG. 1 is a schematic diagram showing an apparatus for creating an X-ray image of a built-in tissue and an instrument for creating an image for extracting a tissue contour according to the present invention.

【図2】左心室を含むヒトの心臓断面図である。FIG. 2 is a cross-sectional view of a human heart including a left ventricle.

【図3】本発明に適用される、心周期を通して作成され
た複数画像に基づく、心周期の複数時点における左心室
の輪郭を抽出する処理過程の全体を示したフローチャー
トである。
FIG. 3 is a flowchart showing an entire process of extracting a contour of a left ventricle at a plurality of points in a cardiac cycle based on a plurality of images created through the cardiac cycle, applied to the present invention.

【図4】1心周期分以上の連続画像フレームの中から収
縮終期の画像フレームを決定する処理理論を示すフロー
チャートである。
FIG. 4 is a flowchart illustrating a processing theory for determining an end-systolic image frame from continuous image frames of one cardiac cycle or longer.

【図5】画像フレームを構成する画素の濃度値を基に左
心室輪郭を推定する処理過程を示すフローチャートであ
る。
FIG. 5 is a flowchart illustrating a process of estimating a left ventricular contour based on density values of pixels constituting an image frame.

【図6】画像フレームデータに対して適用される前処理
及び正規化の過程を示したフローチャートである。
FIG. 6 is a flowchart showing a process of preprocessing and normalization applied to image frame data.

【図7】2値画像を決定するための画素分類に関する図
5の過程の詳細である。
FIG. 7 is a detail of the process of FIG. 5 relating to pixel classification for determining a binary image.

【図8】別個体の左心室の分析から得られた動態制約に
基づき、左心室の輪郭をさらに正確に推定する過程を示
したフローチャートである。
FIG. 8 is a flowchart illustrating a process for more accurately estimating the contour of the left ventricle based on the dynamic constraints obtained from the analysis of the separate left ventricle.

【図9】図8に関連した動態制約を推定するための過程
をさらに詳細に示したフローチャートである。
FIG. 9 is a flowchart illustrating a process for estimating a dynamic constraint associated with FIG. 8 in further detail.

【図10】包括的形状制約を適用して左心室心尖付近の
輪郭を推定する過程を示したフローチャートである。
FIG. 10 is a flowchart showing a process of estimating a contour near the apex of the left ventricle by applying a comprehensive shape constraint.

【図11】動態制約決定時に利用される構成要素の推定
に関した詳細を示すフローチャートである。
FIG. 11 is a flowchart showing details related to estimation of components used when determining a dynamic constraint.

【図12】推定された左心室輪郭の整合性をテストする
過程を示すフローチャートである。
FIG. 12 is a flowchart illustrating a process of testing the consistency of the estimated left ventricular contour.

【図13】複数画像フレームにおける対応画素に対して
分類が指定される方法を示したフローチャートである。
FIG. 13 is a flowchart illustrating a method of specifying a classification for corresponding pixels in a plurality of image frames.

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平2−220638(JP,A) 特開 平4−146729(JP,A) 特開 昭58−130030(JP,A) ──────────────────────────────────────────────────続 き Continuation of the front page (56) References JP-A-2-22038 (JP, A) JP-A-4-146729 (JP, A) JP-A-58-130030 (JP, A)

Claims (19)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 内臓器官が位置する領域のディジタル画
像データを基に内臓器官の輪郭を自動的に抽出する方法
であって、前記画像データは、内臓器官壁が内臓器官の
生理学的機能の一貫として反復運動を1周期以上完了す
る期間において作成された連続する画像フレームを表わ
し、前記連続画像フレームの各フレームは複数の画素を
有しており、 (a) 抽出の対象とは異なる個体について、抽出の目的と
する内臓器官の1周期以上にわたる画像を有する学習デ
ータに対し事前に手動で輪郭をトレースし、その画像フ
レームに含まれる画素が抽出の目的とする内臓器官の輪
郭の内側に存在する確率を基準に、その画素を分類する
ことによりあらかじめ得られたパラメータを用いて、抽
出の対象となる画像データを比較することにより、抽出
の対象となる一連の画像フレーム内の内臓器官の輪郭付
近の領域を初期推定する。 (b) 他の個体の目的とする内臓器官を手動で評価するこ
とによりあらかじめ得ておいた境界線動態データによ
り、一連の画像フレームのうち連続するフレーム間の輪
郭の動きの許容範囲を確定することにより、一連の画像
フレームの個々についての初期推定を改善して輪郭を抽
出する。という過程を含むことを特徴とする内臓器官の
複数画像フレームを使用した生体内における内臓器官輪
郭抽出方法。
1. A method for automatically extracting a contour of an internal organ officer based on digital image data of an area where the internal organ officer is located, wherein the image data is obtained when the internal organ officer wall is integrated with a physiological function of the internal organ officer. Represents a continuous image frame created in a period of completing one or more cycles of the repetitive motion, each frame of the continuous image frame has a plurality of pixels, (a) For an individual different from the extraction target, The outline is manually traced in advance for the learning data having an image of one or more cycles of the internal organs to be extracted, and the pixels included in the image frame exist inside the outline of the internal organs to be extracted. Using the parameters obtained in advance by classifying the pixel based on the probability, the image data to be extracted is compared by comparing the image data to be extracted. The region near the contour of the internal organs in a sequence of image frames comprising initial estimate. (b) Determine the permissible range of contour movement between consecutive frames in a series of image frames, based on boundary dynamic data obtained in advance by manually evaluating the target internal organs of other individuals. This improves the initial estimation for each of a series of image frames to extract the contour. A method for extracting an internal organ contour in a living body using a plurality of image frames of the internal organ.
【請求項2】 前記(b) の過程において、輪郭で区切ら
れた領域の内臓器官の物理的形状特性に関して包括的形
状制約を適用することにより画像フレーム毎に推定され
た領域をさらに正確に改善する過程が含まれる請求項1
記載の方法。
2. In the step (b), a region estimated for each image frame is more accurately improved by applying a comprehensive shape constraint on a physical shape characteristic of an internal organ in a region delimited by a contour. 2. The method of claim 1, further comprising the step of:
The described method.
【請求項3】 各画像フレームの輪郭を学習データから
得られた制約と比較することにより、各画像フレームの
輪郭の整合性を評価する過程、及び輪郭が制約から外れ
ているかどうかを操作者に示す過程が含まれる請求項2
記載の方法。
3. The process of evaluating the consistency of the outline of each image frame by comparing the outline of each image frame with constraints obtained from the learning data, and asking the operator whether the outline is out of the constraints. 3. The method of claim 2, further comprising the step of indicating.
The described method.
【請求項4】 一連の画像フレームの個々の画像フレー
ムにおいて内臓器官の輪郭に区切られた領域の初期推定
を得る前記過程に、画像フレームを、1周期を通じほぼ
等時間間隔となるように一定枚数に正規化する過程も含
まれる請求項1記載の方法。
4. The process of obtaining an initial estimate of a region bounded by internal organs in individual image frames of a series of image frames, the method comprising the steps of: The method of claim 1, further comprising the step of normalizing to
【請求項5】 前記パラメータは学習データから、 (a) 他の個体に関する学習データの各画像フレームにお
ける内臓器官の輪郭を念入りに調査し、手動で抽出す
る。 (b) 一連の各画像フレームの個々の画素を次の点により
分類する。 周期を通じて、画素は (i) 常に輪郭の内側にある。 (ii) 常に輪郭の外側にある。 (iii) 輪郭の一方から他方へ遷移する。 そして、画素が前記のとおり輪郭の一方から他方へ遷移
をした場合、前記分類は、前記遷移が発生した画像フレ
ームの関数として表現される。 (c) 他の個体の目的とする内臓器官に関し、1周期を通
じて学習データの画像フレームの各画素の濃度値ベクト
ルを決定する。 (d) 学習データの画像フレームの各画素毎に、濃度値ベ
クトル及び分類の関数として、学習データから得たパラ
メータを含む画素全体に関する平均値ベクトル、共分散
ベクトル及び分類確率を決定する。という過程により推
定される請求項1記載の方法
5. The parameters are: (a) elaborately examine the contours of internal organs in each image frame of learning data relating to another individual and manually extract the parameters from the learning data; (b) Classify the individual pixels of each series of image frames according to the following: Throughout the cycle, the pixel is (i) always inside the contour. (ii) Always outside the contour. (iii) Transition from one side of the contour to the other. If the pixel transitions from one of the contours to the other as described above, the classification is expressed as a function of the image frame in which the transition occurred. (c) Concerning the target internal organ of another individual, the density value vector of each pixel of the image frame of the learning data is determined through one cycle. (d) For each pixel of the image frame of the learning data, determine an average value vector, a covariance vector, and a classification probability for the entire pixel including parameters obtained from the learning data as a function of the density value vector and the classification. 2. The method according to claim 1, wherein the method is estimated by:
【請求項6】 輪郭を抽出しようとする内臓器官の画像
データを構成する画素が持つ濃度値ベクトルの要素は内
臓器官壁の動きとともに変化し、各画素に対して、濃度
値ベクトル及び学習データから得たパラメータに基づき
前記分類が指定されるとともに、各画素に指定された分
類番号を、輪郭の内側にある画素、その他全ての輪郭の
外側にある画素を示す2進法の数値に置き換える過程も
含まれる請求項1記載の方法。
6. An element of a density value vector of a pixel constituting image data of an internal organ whose contour is to be extracted changes with the movement of the internal organ wall, and for each pixel, it is determined from the density value vector and the learning data. The classification is specified based on the obtained parameters, and the process of replacing the classification number specified for each pixel with a binary value indicating a pixel inside the contour and all other pixels outside the contour is also performed. The method of claim 1, which is included.
【請求項7】 輪郭に区切られた領域の初期推定前に画
像データからノイズを、当該画像データの形態的開閉処
理によって除去する過程も含まれる請求項1記載の方
法。
7. The method according to claim 1, further comprising the step of removing noise from the image data by morphological opening and closing of the image data before the initial estimation of the region delimited by the contour.
【請求項8】 他の個体の目的とする各内臓器官の学習
データから得た対応する連続した学習画像フレーム間に
おける輪郭の最大の動きに基づき2枚の画像間における
輪郭の動きを制限する動態制約を決定する構成要素を推
定するために境界線動態データを利用する過程を含む請
求項1記載の方法。
8. A dynamic that restricts the movement of the contour between two images based on the maximum movement of the contour between the corresponding continuous learning image frames obtained from the learning data of the target internal organs of another individual. The method of claim 1 including using boundary dynamics data to estimate components for determining constraints.
【請求項9】 輪郭で区切られた領域の初期推定を、各
画像フレームの輪郭周辺の複数点における動きの限界内
で改善していく過程が含まれる請求項8記載の方法。
9. The method of claim 8, further comprising the step of improving the initial estimation of the region delimited by the contour within the limits of motion at a plurality of points around the contour of each image frame.
【請求項10】 輪郭に区切られた領域をより正確にす
るために、 (a) 学習データを用いて、輪郭の第1部分内にある内臓
器官の構造的指標の位置を求めるために、輪郭の第1部
分を含まない輪郭の別の第2部分の関数としての確率分
布を定義する回帰係数を決定する。 (b) 一連の画像フレームの個々について請求項1記載の
過程(b) で推定した、各画像フレームにおける、学習画
像フレームの輪郭の第2部分に対応する、比較的正確に
定義された輪郭部分を含む輪郭の座標を抽出する。 (c) 一連の画像フレームの個々のフレームにおける輪郭
の比較的正確に定義された部分の輪郭座標に対して、回
帰処理において回帰係数を適用し、一連の画像フレーム
の各フレームにおけるあまり正確に定義されていない輪
郭の他の部分をより正確に決定する。という過程から成
る請求項1及び請求項2記載の方法。
10. To refine the region bounded by the contour, (a) use the training data to determine the position of the internal organs structural index within the first portion of the contour; Is determined to define a probability distribution as a function of another second portion of the contour that does not include the first portion of. (b) a relatively accurately defined contour portion corresponding to the second portion of the contour of the training image frame in each image frame, estimated in step (b) according to claim 1 for each of a series of image frames; Is extracted. (c) applying the regression coefficients in the regression process to the contour coordinates of the relatively accurately defined portion of the contour in the individual frames of the series of image frames, to define less accurately in each frame of the series of image frames; More precisely determine the other parts of the contour that have not been done. 3. The method according to claim 1, further comprising the steps of:
【請求項11】 心臓の1心周期に渡って作成された連
続する画像フレームを含めた心臓の画像データに基づく
生体内での心室輪郭抽出法であって、前記連続する画像
フレームは、心室が位置する関心領域を含み、心周期内
で時間的に大体等間隔で連続して作成され、各画像フレ
ームは濃度値がある複数の画素から構成されており、 (a) 複数の他の心臓の目的とする心室の輪郭を手動で決
定して得られる学習データを用い、輪郭により区切られ
る領域の初期推定を決定するために、学習データの連続
する画像フレーム中の画素に関する濃度値に依存する確
率の関数として、生体内の心臓の画像フレーム中の画素
が、心室の輪郭の内側にある可能性が高いか又は輪郭の
外側にある可能性が高いかを示すことにより、生体内の
心臓の各画像フレームの中の画素を分類する。 (b) 連続する画像フレームについて、生体内の心室の輪
郭で区切られる領域の初期推定を、その初期推定の輪郭
の周囲に渡り間隔をおいた複数の点に対し、連続する画
像フレーム間の輪郭上の各点の動きの限界を決定する動
態制約を適用することにより改善する。という過程から
構成されていることを特徴とする内臓器官の複数画像フ
レームを使用した生体内における内臓器官輪郭抽出方
法。
11. An in-vivo ventricle contour extraction method based on heart image data including continuous image frames created over one cardiac cycle of the heart, wherein the continuous image frames have a ventricle. It includes a region of interest located and is created consecutively at approximately equal intervals in time within the cardiac cycle, and each image frame is composed of a plurality of pixels having a density value. Using learning data obtained by manually determining the contour of the target ventricle, the probability of relying on the density values of pixels in successive image frames of the learning data to determine an initial estimate of the area bounded by the contour By indicating whether pixels in the image frame of the in-vivo heart are likely to be inside or outside the contour of the ventricle as a function of Picture frame To classify the pixels in. (b) For successive image frames, the initial estimation of the area delimited by the contour of the in-vivo ventricle is performed for a plurality of points spaced over the contour of the initial estimation, and It is improved by applying dynamic constraints that determine the limits of motion for each point above. A method for extracting an internal organ contour in a living body using a plurality of internal organ image frames.
【請求項12】 前記過程(b) において決定された心室
の輪郭によって区切られる領域を、学習データに基づく
包括的形状制約を用いて前記輪郭のうちより信頼性の高
い部分の座標を処理して他の信頼性の低い部分の座標を
決定することによりさらに改善する過程が含まれる請求
項11記載の方法。
12. An area delimited by the ventricular contour determined in the step (b) is processed by using coordinates of a more reliable portion of the contour using a comprehensive shape constraint based on learning data. 12. The method according to claim 11, further comprising the step of determining the coordinates of other unreliable parts.
【請求項13】 このようにして一貫して決定された生
体内の心臓の輪郭の整合性について、その輪郭を、他の
心臓の目的とする心室の輪郭を手動抽出することに基づ
き学習データから得た制約との比較によって、テストす
る過程も含まれる請求項11記載の方法。
13. With regard to the consistency of the in-vivo heart contour thus determined consistently, the contour is obtained from the learning data based on the manual extraction of the target ventricle contour of another heart. 12. The method of claim 11, further comprising testing by comparing with the obtained constraint.
【請求項14】 学習データから得た前記パラメータに
ついて、 (a) 他の各心臓について1心周期分以上の複数の学習画
像フレーム作成するものであって、その学習画像フレー
ムは複数の画素により構成され、各画素は学習画像フレ
ームの縦軸、横軸によって配列されており、関連した濃
度値ベクトルを持つ。 (b) 各画像フレームにおける他の心室毎の輪郭を手動で
決定する。 (c) 他の心臓それぞれの学習画像フレームにおける各画
素に分類を指定する。この分類は1心周期以上観察し、
以下のことに基づいて決定する。 (i) 学習画像フレームの画素が心周期を通じて手動で
抽出された輪郭の内側にある。 (ii) 学習画像フレームの画素が心周期を通じて手動で
抽出された輪郭の外側にある。 (iii) 心周期の一部では画素は手動で抽出された輪郭の
一方にあり、心周期の残りの部分では輪郭の反対側にあ
る場合、画素が輪郭に対しての位置を変えた学習画像フ
レームに基づく。という過程による請求項11記載の方
法。
14. The parameters obtained from the learning data, comprising: (a) creating a plurality of learning image frames for one heart cycle or more for each of the other hearts, wherein the learning image frames are composed of a plurality of pixels; Each pixel is arranged along the vertical and horizontal axes of the learning image frame, and has an associated density value vector. (b) Manually determine the contour for each other ventricle in each image frame. (c) Specify a classification for each pixel in the learning image frame of each of the other hearts. This classification observes more than one cardiac cycle,
The decision is made based on the following. (i) The pixels of the training image frame are inside the manually extracted contour throughout the cardiac cycle. (ii) The pixels of the training image frame are outside the manually extracted contours throughout the cardiac cycle. (iii) a learning image in which the pixel has changed position relative to the contour if the pixel is on one side of the manually extracted contour in part of the cardiac cycle and is on the opposite side of the contour in the rest of the cardiac cycle Based on frame. 12. The method according to claim 11, wherein the method comprises:
【請求項15】 各画素の濃度値ベクトルとその画素に
対して指定された分類に基づいて、学習画像フレームの
同じ分類の画素についての平均値、共分散または分類確
率を指定する過程が含まれる方法であって、前記の平均
値、共分散または分類確率は学習データから得られる事
前情報の一部である請求項14記載の方法。
15. A method for designating an average value, a covariance, or a classification probability for pixels of the same classification in a training image frame based on a density value vector of each pixel and a classification specified for the pixel. 15. The method of claim 14, wherein said mean, covariance or classification probability is part of prior information obtained from training data.
【請求項16】 前記初期推定の改善過程には、他心臓
の目的とする心室の輪郭についての境界線動態データを
決定する過程、及び1心周期の各学習画像フレームにつ
いての境界線動態データに基づいて動態制約を示す構成
要素を推定する過程が含まれる請求項11記載の方法。
16. The method for improving the initial estimation includes the step of determining boundary line dynamic data for a target ventricle contour of another heart, and the step of determining boundary line dynamic data for each learning image frame of one cardiac cycle. 12. The method of claim 11, comprising estimating a component indicative of a dynamic constraint based on the component.
【請求項17】 前記初期推定の改善過程には、他心臓
の輪郭についての境界線動態データを決定する過程、及
び1心周期の各学習画像フレームについての境界線動態
データに基づいて動態制約を示す構成要素を推定する過
程が含まれる請求項12記載の方法。
17. The improvement process of the initial estimation includes a process of determining borderline dynamic data on the contour of another heart, and a process of defining a dynamic constraint based on the borderline dynamic data on each learning image frame of one cardiac cycle. 13. The method of claim 12, comprising estimating the indicated component.
【請求項18】 生体内の心室は左心室であって、画像
フレームは心周期の収縮期及び拡張期を通して作成され
るとともに、その収縮期及び拡張期の画像フレームは別
々に処理されて、生体内の心室の輪郭が抽出される請求
項11記載の方法。
18. The in-vivo ventricle is the left ventricle, and image frames are created throughout the systole and diastole of the cardiac cycle, and the systole and diastole image frames are processed separately to produce a live image. 12. The method of claim 11, wherein a contour of a ventricle in the body is extracted.
【請求項19】 各画素の濃度値のヒストグラムを利用
する分類法を使用して生体内の心臓に関する収縮終期の
画像フレームを決定する過程が含まれる請求項18記載の
方法。
19. The method of claim 18, comprising determining an end-systolic image frame for the in-vivo heart using a classification method utilizing a histogram of the density values of each pixel.
JP6160378A 1994-07-12 1994-07-12 Method for extracting internal organs contours in vivo using multiple image frames of internal organs Expired - Fee Related JP2632501B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6160378A JP2632501B2 (en) 1994-07-12 1994-07-12 Method for extracting internal organs contours in vivo using multiple image frames of internal organs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6160378A JP2632501B2 (en) 1994-07-12 1994-07-12 Method for extracting internal organs contours in vivo using multiple image frames of internal organs

Publications (2)

Publication Number Publication Date
JPH0824247A JPH0824247A (en) 1996-01-30
JP2632501B2 true JP2632501B2 (en) 1997-07-23

Family

ID=15713676

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6160378A Expired - Fee Related JP2632501B2 (en) 1994-07-12 1994-07-12 Method for extracting internal organs contours in vivo using multiple image frames of internal organs

Country Status (1)

Country Link
JP (1) JP2632501B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5412983B2 (en) * 2009-06-24 2014-02-12 富士ゼロックス株式会社 Information processing apparatus and program
WO2012008500A1 (en) * 2010-07-14 2012-01-19 国立大学法人東北大学 Signal-processing device, signal-processing program, and computer-readable recording medium with a signal-processing program recorded thereon
CN102890824B (en) * 2011-07-19 2015-07-29 株式会社东芝 Motion object outline tracking and device
JP5734249B2 (en) * 2012-08-27 2015-06-17 キヤノン株式会社 Image processing apparatus, X-ray imaging apparatus, image processing system, image processing method, and storage medium
CN106462974B (en) * 2014-06-12 2020-07-28 皇家飞利浦有限公司 Parameter optimization for segmenting images
CN113780122B (en) * 2021-08-30 2023-12-05 沈阳大学 Palm vein feature encryption-based recognition template generation method and device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58130030A (en) * 1981-10-05 1983-08-03 工業技術院長 X-ray digital image treating apparatus
US5072384A (en) * 1988-11-23 1991-12-10 Arch Development Corp. Method and system for automated computerized analysis of sizes of hearts and lungs in digital chest radiographs
JPH04146729A (en) * 1990-10-11 1992-05-20 Toshiba Corp Cardiac function analyzing method and device therefor

Also Published As

Publication number Publication date
JPH0824247A (en) 1996-01-30

Similar Documents

Publication Publication Date Title
US5570430A (en) Method for determining the contour of an in vivo organ using multiple image frames of the organ
US5734739A (en) Method for determining the contour of an in vivo organ using multiple image frames of the organ
US7940977B2 (en) Method and system for automatic analysis of blood vessel structures to identify calcium or soft plaque pathologies
Mao et al. Segmentation of carotid artery in ultrasound images: Method development and evaluation technique
US7860283B2 (en) Method and system for the presentation of blood vessel structures and identified pathologies
US7940970B2 (en) Method and system for automatic quality control used in computerized analysis of CT angiography
US5776063A (en) Analysis of ultrasound images in the presence of contrast agent
JP6058093B2 (en) Computer-aided analysis device for medical images and computer program for medical image analysis
US7983459B2 (en) Creating a blood vessel tree from imaging data
US7873194B2 (en) Method and system for automatic analysis of blood vessel structures and pathologies in support of a triple rule-out procedure
DE112004001861B4 (en) System and method for analyzing local deformable movements of a wall of the left ventricle of a heart
Suzuki et al. Extraction of left ventricular contours from left ventriculograms by means of a neural edge detector
TW201903708A (en) Method and system for analyzing digital subtraction angiography images
Weng et al. Learning-based ventricle detection from cardiac MR and CT images
Kishore et al. Automatic stenosis grading system for diagnosing coronary artery disease using coronary angiogram
JP2632501B2 (en) Method for extracting internal organs contours in vivo using multiple image frames of internal organs
Wolf et al. ROPES: A semiautomated segmentation method for accelerated analysis of three-dimensional echocardiographic data
JP4302180B2 (en) Method and apparatus for calculating an index relating to local hemodynamics
TWI490790B (en) Dynamic cardiac imaging analysis and cardiac function assessment system
WO2001082787A2 (en) Method for determining the contour of an in vivo organ using multiple image frames of the organ
Napier et al. A CAD system for brain haemorrhage detection in head CT scans
EP2074551A2 (en) Method and system for automatic analysis of blood vessel structures and pathologies
CN117036302B (en) Method and system for determining calcification degree of aortic valve
Wolf et al. Automatic segmentation of heart cavities in multidimensional ultrasound images
Vidya et al. Analysis and Classification of Stenosis Severity from Coronary Angiogram Images

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120425

Year of fee payment: 15

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130425

Year of fee payment: 16

LAPS Cancellation because of no payment of annual fees