JPH0773291A - Image processor - Google Patents

Image processor

Info

Publication number
JPH0773291A
JPH0773291A JP5218615A JP21861593A JPH0773291A JP H0773291 A JPH0773291 A JP H0773291A JP 5218615 A JP5218615 A JP 5218615A JP 21861593 A JP21861593 A JP 21861593A JP H0773291 A JPH0773291 A JP H0773291A
Authority
JP
Japan
Prior art keywords
image
image data
contour
tomographic
dimensional pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5218615A
Other languages
Japanese (ja)
Other versions
JP3195136B2 (en
Inventor
Naoki Suzuki
直樹 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
Original Assignee
Research Development Corp of Japan
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Research Development Corp of Japan filed Critical Research Development Corp of Japan
Priority to JP21861593A priority Critical patent/JP3195136B2/en
Publication of JPH0773291A publication Critical patent/JPH0773291A/en
Application granted granted Critical
Publication of JP3195136B2 publication Critical patent/JP3195136B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To improve the area recognizing accuracy of an entire two-dimensional pattern by acquiring the information on a reference area through the preprocessing that is carried out before an area which is hard to extract out of the two-dimensional pattern is recognized. CONSTITUTION:An image processor is provided with a reference tissue image extracting part 4 which extracts the two-dimensional pattern of a reference tissue through several preprocessings and with the image data on a single tomographic surface used as the input, and a recognition processing part 6 which carries out the recognition of the two-dimensional pattern through several preprocessings and based on the reference tissue image data received from the part 4 and the knowledge stored in a knowledge file 5 with the image data on the tomographic surface received from a continuous tomographic surface image data file 2-1 (2-2) used as the input. Then the part 6 also recognizes the two-dimensional pattern of the contour of a three-dimensional image for each tomographic surface, and the output of this recognition processing result shows the position of the contour of a relevant slice surface with high precision. Then the two-dimensional pattern of a relevant area is obtained from the recognition processing result.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、MRI−CTやX線C
T、超音波診断装置などから得られる連続する複数の断
層面の画像データに基づいて3次元像の輪郭の2次元パ
ターンを認識する画像処理装置に関し、特に診断などに
おいて注目される領域あるいは臓器等の輪郭を表す特徴
パターン情報を高速にかつ効率的に抽出することが可能
な画像処理装置に関する。
The present invention relates to MRI-CT and X-ray C
T, an image processing apparatus for recognizing a two-dimensional pattern of a contour of a three-dimensional image based on image data of a plurality of continuous tomographic planes obtained from an ultrasonic diagnostic apparatus, etc. The present invention relates to an image processing apparatus capable of efficiently extracting feature pattern information representing the contour of the image at high speed.

【0002】心臓や肝臓などの臓器を対象とする診断で
は、診断装置から得られる生体の像から臓器の3次元輪
郭像を作成することが診断精度を向上させるうえで強く
望まれている。本発明は、各断層面の画像データから有
効な3次元像を高い精度で効率的に自動作成する画像処
理装置を提供する。
In the diagnosis of organs such as the heart and the liver, it is strongly desired to create a three-dimensional contour image of the organ from an image of a living body obtained from a diagnostic device in order to improve diagnosis accuracy. The present invention provides an image processing device that automatically and effectively creates an effective three-dimensional image from image data of each tomographic plane with high accuracy.

【0003】[0003]

【従来の技術】最近、MRI−CTやX線CT及び超音
波診断装置を用いて生体の連続断層面の画像データを作
成し、診断を行う技術がさかんに利用されるようになっ
てきている。従来のこれらのデータを処理する画像処理
装置では、個々の断層面において臓器や組織の2次元的
な輪郭パターンの認識を行い、各断層面ごとの認識結果
を組み合わせて3次元像を作成していたが、実際の連続
断層面の画像データから3次元の臓器輪郭を高精度・高
速に自動抽出することは容易ではなかった。これは、組
織の解剖学的形態を考慮しないで行われる画像処理で
は、誤認識や認識不能となる輪郭パターンが多くなるか
らである。このため従来は、専門の医師が各断層像毎に
読影した2次元の臓器輪郭を計算機に入力し、3次元の
臓器輪郭の抽出を行っていた。
2. Description of the Related Art Recently, a technique for making a diagnosis by making image data of a continuous tomographic plane of a living body using an MRI-CT, an X-ray CT and an ultrasonic diagnostic apparatus has been widely used. . In a conventional image processing apparatus for processing these data, a two-dimensional contour pattern of an organ or a tissue is recognized on each tomographic plane, and a recognition result for each tomographic plane is combined to create a three-dimensional image. However, it was not easy to automatically extract the three-dimensional organ contour with high accuracy and speed from the image data of the actual continuous tomographic plane. This is because in image processing performed without considering the anatomical form of the tissue, there are many contour patterns that are erroneously recognized or unrecognizable. For this reason, conventionally, a specialist doctor inputs the two-dimensional organ contour read for each tomographic image into a computer and extracts the three-dimensional organ contour.

【0004】[0004]

【発明が解決しようとする課題】断層面の垂直方向の絶
対的位置が規則的な(たとえば等間隔の)多数の連続断
層面の画像から3次元輪郭画像を作成するための従来の
画像処理装置では、生体の臓器などの輪郭画像を対象と
する場合、通常の画像処理装置の輪郭認識処理機能の能
力では実用レベルのものを得ることは困難であった。こ
のため専門家による人手作業(用手法という)での連続
断層面画像の読み取りを行って意図する臓器の輪郭を識
別し、その画像データを入力し直す必要があった。
A conventional image processing apparatus for creating a three-dimensional contour image from images of a large number of continuous tomographic planes in which the absolute position of the tomographic plane in the vertical direction is regular (for example, at regular intervals). Then, when a contour image of an organ of a living body is targeted, it is difficult to obtain a practical level with the ability of the contour recognition processing function of a normal image processing apparatus. Therefore, it has been necessary to manually read a continuous tomographic image by a specialist (to be referred to as a manual method), identify the contour of the intended organ, and input the image data again.

【0005】しかし用手法により連続断層面の画像中の
臓器輪郭の画像データを入力する方法では、画像の読み
取り解読と入力処理に時間がかかり、そのため処理対象
データ数が制限されるという問題があった。
However, in the method of inputting the image data of the organ contour in the image of the continuous tomographic plane by the manual method, there is a problem that the reading and decoding of the image and the input processing take time, and therefore the number of data to be processed is limited. It was

【0006】本発明は、連続断層面の画像データから3
次元輪郭画像を自動作成する処理の精度を改善し、実用
レベルの高速動作が可能な画像処理装置を実現すること
を目的としている。
The present invention uses 3 from the image data of the continuous tomographic plane.
It is an object of the present invention to improve the accuracy of the processing for automatically creating a three-dimensional contour image and realize an image processing apparatus capable of high-speed operation at a practical level.

【0007】[0007]

【課題を解決するための手段】本発明は、各連続断層面
の画像データを対象とする臓器輪郭等の関心領域の2次
元パターンの認識処理において、当該2次元パターンの
中のある領域が輝度、形状、位置に関しその内の全てあ
るいはいずれかに特徴的な性質を有するために、2次元
パターンからその領域(以後、基準領域と呼ぶ)の抽出
が簡便な処理によって容易に行えるかあるいはその領域
に関する情報がある程度確定できるとき、2次元パター
ン中で抽出の困難な領域の認識処理を行うのに先立つ前
処理によって基準領域に関する情報を取得し、その基準
画像の位置情報を抽出困難な領域本来の輝度・形態情報
に加えることで2次元パターン全体の領域認識精度の向
上を図るものである。
According to the present invention, in a recognition process of a two-dimensional pattern of a region of interest such as an organ contour for image data of each continuous tomographic plane, a certain region in the two-dimensional pattern is a luminance region. Since all or any of the shapes and positions have characteristic properties, the area (hereinafter referred to as a reference area) can be easily extracted from the two-dimensional pattern by a simple process, or the area can be easily extracted. When the information about the reference area can be determined to some extent, the information about the reference area is acquired by the pre-processing before the recognition processing of the area that is difficult to extract in the two-dimensional pattern, and the position information of the reference image is extracted from the original area that is difficult to extract. By adding it to the luminance / morphology information, the area recognition accuracy of the entire two-dimensional pattern is improved.

【0008】図1は、本発明の原理的構成図であり、例
示的方法を用いて示したものである。図1において、1
は、MRI−CTなどの連続断層面の画像データを生成
できる断層装置である。
FIG. 1 is a block diagram of the principle of the present invention, which is shown using an exemplary method. In FIG. 1, 1
Is a tomographic apparatus capable of generating image data of a continuous tomographic plane such as MRI-CT.

【0009】2−1は、断層装置1から出力された各連
続断層面の画像データを格納する連続断層面画像データ
ファイルである。2−2は、断層装置1から同一位置で
別の撮像条件で出力された各連続断層面の画像データを
格納する連続断層面画像データファイルである。
Reference numeral 2-1 is a continuous tomographic plane image data file for storing image data of each continuous tomographic plane output from the tomographic apparatus 1. Reference numeral 2-2 is a continuous tomographic plane image data file that stores image data of each continuous tomographic plane output from the tomographic apparatus 1 at the same position under different imaging conditions.

【0010】3−1ないし3−Nは、ファイルに格納さ
れている連続断層面画像データである。画像データは、
画像の濃度レベルを画素単位に表したものである。4
は、1つの断層面の画像データを入力として、いくつか
の前処理を通して基準組織の2次元パターンを抽出する
基準組織画像抽出部である。
3-1 to 3-N are continuous tomographic image data stored in the file. Image data is
The density level of the image is expressed in pixel units. Four
Is a reference tissue image extraction unit that inputs image data of one tomographic plane and extracts a two-dimensional pattern of the reference tissue through some preprocessing.

【0011】5は、後述される認識処理部6において、
入力される画像データの認識の方法を規定する知識ファ
イルである。6は、連続断層面画像データファイル2−
1あるいは2−2からの断層面の画像データを入力とし
ていくつかの前処理を通して、基準組織画像抽出部4か
らの基準組織画像データとともに知識ファイル5の知識
に基づき認識を行う認識処理部である。
The reference numeral 5 indicates a recognition processing unit 6 which will be described later.
It is a knowledge file that defines a method of recognizing input image data. 6 is a continuous tomographic image data file 2-
It is a recognition processing unit that performs recognition based on the knowledge of the knowledge file 5 together with the reference tissue image data from the reference tissue image extraction unit 4 through some pre-processing with the image data of the tomographic plane from 1 or 2-2 as input. .

【0012】断層装置1から出力される一定間隔で作成
された連続する複数(N枚)の断層面の多値の画像デー
タは、連続断層面画像データファイル2−1,2−2に
3−1ないし3−Nで示されるように別々に格納され
る。連続断層面画像データファイル2−2の断層面画像
データ3−1ないし3−Nは、エッジを強調する微分処
理、同一断層面内及び隣接断層面内の輪郭線の連続画素
部分からの距離分布を得る処理、などの前処理を行って
認識処理部6に入力される。
Multivalued image data of a plurality of (N) continuous tomographic planes output from the tomographic apparatus 1 at regular intervals are stored in the continuous tomographic plane image data files 2-1 and 2-2. It is stored separately as indicated by 1 to 3-N. The tomographic plane image data 3-1 to 3-N of the continuous tomographic plane image data file 2-2 is the differential processing for emphasizing the edge, the distance distribution from the continuous pixel portion of the contour lines in the same tomographic plane and the adjacent tomographic plane. Is input to the recognition processing unit 6 after preprocessing such as processing for obtaining

【0013】連続断層面画像データファイル2−1の断
層面画像データ3−1〜3−Nは、連続断層面画像デー
タファイル2−2の断層面画像データ3−1〜3−Nと
同一の撮像条件あるいは異なる撮像条件で撮像されたも
ので、基準組織を抽出しやすいものが用いられる。デー
タファイル2−1の断層面画像データ3−1〜3−N
は、前処理された後基準組織画像抽出部4に入力され、
適当な閾値による2値化を行って基準組織領域の抽出が
行われる。
The tomographic plane image data 3-1 to 3-N of the continuous tomographic plane image data file 2-1 are the same as the tomographic plane image data 3-1 to 3-N of the continuous tomographic plane image data file 2-2. An image captured under the image capturing condition or a different image capturing condition and in which the reference tissue is easily extracted is used. Tomographic plane image data 3-1 to 3-N of the data file 2-1
Is input to the post-reference tissue image extraction unit 4 which has been preprocessed,
The reference tissue region is extracted by performing binarization with an appropriate threshold value.

【0014】断層装置にX線−CTが用いられる場合に
は、基準組織領域を抽出する断層面画像データ3−1〜
3−Nとして、認識処理部6に直接入力されるものと同
一の撮像条件のものが選ばれる。
When X-ray CT is used in the tomographic apparatus, the tomographic plane image data 3-1 to 3-1 to extract the reference tissue region
As 3-N, one having the same imaging condition as that directly input to the recognition processing unit 6 is selected.

【0015】基準組織画像抽出部4は、基準組織の占有
領域を決定し、画像データ中において基準組織の内部に
ある画素かあるいは外部にある画素かによって2値化し
た画像データを作成し、さらに画素ごとにその輪郭部分
からの距離分布を計算した画像データを得る。これらの
2つの画像データは、基準画像のデータとして認識処理
部6に入力される。
The reference tissue image extraction unit 4 determines an area occupied by the reference tissue, creates binarized image data depending on whether the pixel is inside or outside the reference tissue in the image data. Image data in which the distance distribution from the contour portion is calculated for each pixel is obtained. These two image data are input to the recognition processing unit 6 as the reference image data.

【0016】認識処理部6は、断層面ごとに3次元像の
輪郭の2次元パターンの認識処理を行う機能をもつが、
ハードウェア上では、断層面ごとおよび関心項目の認識
対象パターンごとに多重化されて並列処理するように構
成されていても、あるいはより少数のハードウェアを用
いてシーケンシャルに処理するように構成されていても
よい。
The recognition processing section 6 has a function of recognizing a two-dimensional pattern of the contour of a three-dimensional image for each tomographic plane.
The hardware is configured to perform parallel processing by multiplexing for each tomographic plane and for each recognition target pattern of the item of interest, or configured to perform sequential processing using a smaller number of hardware. May be.

【0017】認識処理部6における認識処理結果出力
は、当該スライス面における輪郭線の確度の高い位置を
表し、その結果により関心領域の2次元パターンを得
る。なお図1の例の構成では、連続断層面画面ファイル
群として2−1,2−2の2種を用いているが、1種で
基準組織の抽出が行えれば認識処理部6に入力するのは
1種のみでもよい。
The recognition processing result output from the recognition processing unit 6 represents a highly accurate position of the contour line on the slice plane, and a two-dimensional pattern of the region of interest is obtained from the result. In the configuration of the example of FIG. 1, two types of continuous tomographic plane screen file groups 2-1 and 2-2 are used, but if one type can extract the reference tissue, it is input to the recognition processing unit 6. Only one may be used.

【0018】また、認識処理部6より出力された2次元
パターンを、隣接面における基準組織画像抽出部4に入
力して、隣接面の基準組織の抽出に用いてもよい。
The two-dimensional pattern output from the recognition processing unit 6 may be input to the reference tissue image extraction unit 4 for the adjacent surface and used for extracting the reference tissue of the adjacent surface.

【0019】[0019]

【作用】たとえば生体腹部の診断において、肝臓の3次
元輪郭像を知りたい場合、MRI−CT出力の連続断層
面の各画像データには、肝臓以外にも腹腔壁や、胃、椎
体(脊椎)、腹部大動脈その他の臓器や組織の画像情報
が含まれている。図2の(a),(b)はこのような連
続断層面の画像の例を示したもので、(a)はn枚目の
断層面、(b)はn+1枚目の断層面をそれぞれ表して
いる。(a)のn枚目の断層面では、関心項目の肝臓の
ほかに腹腔壁、椎体、腹部大動脈の領域を明瞭に認める
ことができ、(b)のn+1枚目の断層面にはさらに胃
の領域の存在を視認できる。
For example, when it is desired to know the three-dimensional contour image of the liver in the diagnosis of the abdomen of a living body, the image data of the continuous tomographic planes of the MRI-CT output includes not only the liver but also the abdominal wall, stomach, vertebral body (vertebral body). ), Image information of abdominal aorta and other organs and tissues are included. FIGS. 2A and 2B show examples of images of such continuous tomographic planes. FIG. 2A shows the nth tomographic plane, and FIG. 2B shows the (n + 1) th tomographic plane. It represents. In the (n) th slice of (a), the abdominal wall, vertebral body, and abdominal aorta regions can be clearly recognized in addition to the liver of interest, and (n) th slice of the (n) th slice is further recognized. The presence of the gastric region is visible.

【0020】読影が困難な組織や臓器の画像群において
も、ある特定の組織および臓器はその占有領域の位置・
形状あるいは輝度が特徴的で、異なる画像間においても
ある範囲ではその占有領域に関して予測することが可能
である場合が多い。本発明では、このような性質を利用
して、形状・位置ともに予測困難な他の軟組織等の部位
の領域抽出を行う。
Even in a group of images of tissues or organs that are difficult to read, certain specific tissues and organs are located at positions of their occupied areas.
The shape or brightness is characteristic, and it is often possible to predict the occupied area in a certain range between different images. In the present invention, by utilizing such a property, the region extraction is performed for other regions such as soft tissue whose shape and position are difficult to predict.

【0021】たとえば関心項目として肝臓に着目する
と、肝臓が画像中で示す輝度・形状の特徴は、隣接する
周辺組織との弁別を完全に行わせるほど明確ではない。
このような軟組織等の自動認識が困難な部位に関して、
従来は専門家の読影による作業に頼っていたが、本発明
では、関心項目以外の臓器や組織の画像情報で、輪郭抽
出が容易に行えるものや、存在位置に関する情報が容易
に得られる場合、その領域の画像位置情報を予め取得
し、その領域を基準組織として認識困難な領域の抽出の
際の情報として利用するものである。
Focusing on the liver as an item of interest, for example, the characteristics of the brightness and shape shown by the liver in the image are not clear enough to completely discriminate the adjacent peripheral tissues.
For areas where automatic recognition of such soft tissues is difficult,
Conventionally, it relied on the work of interpretation by an expert, but in the present invention, in the image information of organs and tissues other than the item of interest, one that can easily perform contour extraction, and if information about the existing position is easily obtained, The image position information of the area is acquired in advance and used as information when extracting the area that is difficult to recognize as the reference tissue.

【0022】図3は、本発明による認識処理の1例を示
したもので、図中に斜線を付して示されている腹腔壁、
椎体および腹部大動脈をそれぞれ基準組織として認識処
理対象領域において予め取得し、基準組織の存在領域を
基準にその他の領域抽出困難部位の存在可能性を、基準
組織領域内に含まれるかどうか、及び基準組織領域辺縁
からの距離分布で表して、入力画像上に設定する。
FIG. 3 shows an example of the recognition processing according to the present invention, in which the abdominal wall shown by hatching,
The vertebral body and the abdominal aorta are respectively acquired as reference tissues in the recognition processing target area in advance, the existence possibility of other region extraction difficult regions based on the existence region of the reference tissue, whether or not they are included in the reference tissue region, and The distance distribution from the edge of the reference tissue region is represented and set on the input image.

【0023】なお、たとえば図2の(a)のように、腹
腔壁や椎体、腹部大動脈のような組織の画像が他の臓器
や組織から弁別しやすく、これらを高い精度で認識でき
る断層面が得られる場合には、その断層面での基準画像
としてその認識結果を他の断層面に適用して認識困難な
部位の認識処理を容易にすることができる。これは腹腔
壁や椎体、腹部大動脈の場合は、断層面によって位置や
大きさがそれほど大きく変動することがないからであ
る。
Note that, for example, as shown in FIG. 2A, an image of a tissue such as the abdominal wall, vertebral body, or abdominal aorta is easy to discriminate from other organs or tissues, and these tomographic planes can be recognized with high accuracy. When the above is obtained, the recognition result can be applied to another tomographic plane as a reference image on the tomographic plane to facilitate the recognition process of the difficult-to-recognize portion. This is because in the case of the abdominal wall, vertebral body, and abdominal aorta, the position and size do not change so much depending on the slice plane.

【0024】[0024]

【実施例】以下に、本発明による画像処理装置の実施例
を説明する。図4は、ファジィ素子を用いて臓器等の関
心3次元像のマルチスライスされた輪郭画像を抽出する
本発明実施例のハードウェアの基本構成図である。図中
7ないし11で示される構成要素は通常のパソコンにお
けるものと同じであり、7はCPU、8は主メモリMS
U、9はファイル制御ユニットFCU、10は作業用フ
ァイル装置、11はシステムバスである。また12ない
し15は画像処理のために特別に付加されている構成要
素であり、12はフレームメモリボード、13はファジ
ィ推論ボード、14はファジィ素子、15はメモリ、1
6は原画像ファイル装置、17はビデオ信号出力装置で
ある。
Embodiments of the image processing apparatus according to the present invention will be described below. FIG. 4 is a basic configuration diagram of hardware of the embodiment of the present invention for extracting a multi-slice contour image of a three-dimensional image of interest such as an organ using a fuzzy element. The components denoted by 7 to 11 in the figure are the same as those in a normal personal computer, 7 is a CPU, 8 is a main memory MS.
U and 9 are file control units FCU, 10 is a work file device, and 11 is a system bus. Further, 12 to 15 are components specially added for image processing, 12 is a frame memory board, 13 is a fuzzy inference board, 14 is a fuzzy element, 15 is a memory, and 1 is a memory.
Reference numeral 6 is an original image file device, and 17 is a video signal output device.

【0025】断層装置等から出力された各連続断層面の
画像データは、図4の原画像ファイル装置16にアナロ
グのビデオ信号形式で記録されている。3次元画像作成
のためにビデオ信号出力装置17を介して原画像ファイ
ル装置16から読み出された各断層面の画像データは、
フレームメモリボード12に入力され、A/D変換され
て多値のディジタル信号形式で断層面単位にフレームメ
モリに格納され、さらにFCU9を介して作業用ファイ
ル装置10に格納される。作業用ファイル装置10内に
示されているF1ないしF7は、作業用に作成されるフ
ァイルである。
The image data of each continuous tomographic plane output from the tomographic device or the like is recorded in the original image file device 16 of FIG. 4 in an analog video signal format. The image data of each tomographic plane read from the original image file device 16 via the video signal output device 17 for creating a three-dimensional image is
It is input to the frame memory board 12, A / D-converted, stored in the frame memory in units of tomographic planes in a multivalued digital signal format, and further stored in the work file device 10 via the FCU 9. F1 to F7 shown in the work file device 10 are files created for work.

【0026】ファジィ推論ボード13は、図1における
認識処理部6の機能を、知識ファイル5を用いてファジ
ィ推論機能によって実現するもので、断層面別、関心項
目別に多数のファジィ素子14を配置したものである。
またメモリ15は、ファジィ演算を行うための推論ルー
ルやメンバシップ関数、演算データなどを格納するため
に用いられる。推論ルールやメンバシップ関数は、CP
U7側で作成してファジィ制御ボード13に供給され
る。
The fuzzy inference board 13 realizes the function of the recognition processing section 6 in FIG. 1 by the fuzzy inference function using the knowledge file 5, and a large number of fuzzy elements 14 are arranged for each tomographic plane and each item of interest. It is a thing.
The memory 15 is also used to store inference rules, membership functions, operation data, etc. for performing fuzzy operations. Inference rules and membership functions are CP
It is created on the U7 side and supplied to the fuzzy control board 13.

【0027】作業用ファイル装置10内に示されている
ファイルF1ないしF7の構成の詳細は図5に示されて
いる。各ファイルの内容は、次のようなものである。F
1は、フレームメモリボード12からの原画像データを
保持する原画像ファイルである。
The details of the structure of the files F1 to F7 shown in the work file device 10 are shown in FIG. The contents of each file are as follows. F
Reference numeral 1 is an original image file that holds the original image data from the frame memory board 12.

【0028】F2は、F1のコピーの原画像ファイルで
ある。このF2の値が注目画素において高値あるいは低
値であれば、その列における輪郭候補点としての可能性
が高まるように推論ルールおよびメンバシップ関数が作
成される。この高値あるいは低値であるかは、用いる画
像および関心領域の種類に依存する。
F2 is an original image file of a copy of F1. If the value of F2 is a high value or a low value in the pixel of interest, the inference rule and the membership function are created so that the possibility of the contour candidate point in that column is increased. Whether the value is the high value or the low value depends on the type of image and region of interest used.

【0029】F3は、F2の原画像データと微分処理を
施して画像のエッジを強調した画像データを格納した微
分画像ファイルである。このF3の値が注目画素で高値
であれば、その列における輪郭候補点としての可能性が
高まるように推論ルールおよびメンバシップ関数が作成
される。
F3 is a differential image file that stores image data in which the edge of the image is emphasized by performing differential processing with the original image data of F2. If the value of F3 is a high value at the pixel of interest, the inference rule and the membership function are created so as to increase the possibility of the contour candidate point in the column.

【0030】F4は、同一断層面内での関心領域の連続
性を検出した結果を示す画像データを格納した層内連続
性ファイルであり、既処理列における輪郭候補点からの
距離分布を有する情報をもつ。
F4 is an intra-layer continuity file that stores image data showing the result of detecting the continuity of the region of interest in the same tomographic plane, and has the information of the distance distribution from the contour candidate points in the processed column. With.

【0031】F5は、隣接断層面との間での関心領域の
連続性を検出した結果を示す画像データが格納された層
間連続性ファイルであり、既処理隣接面における輪郭候
補点からの距離分布を有する情報をもつ。
F5 is an inter-layer continuity file that stores image data showing the result of detecting the continuity of the region of interest with the adjacent tomographic plane, and the distance distribution from the contour candidate points on the processed adjacent plane. With information that has.

【0032】上記したファイルF4とF5の値が注目画
素において低値すなわち連続性が高ければ、その列にお
ける輪郭候補点としての可能性が高まるように推論ルー
ルおよびメンバシップ関数が作成される。
If the values of the files F4 and F5 described above are low in the pixel of interest, that is, the continuity is high, the inference rule and the membership function are created so as to increase the possibility of the contour candidate points in the column.

【0033】F6は、原画像ファイルF1に対し、抽出
し易い基準組織画像の輪郭線と占有領域を抽出し、その
内と外で2値の値を画素に与えた基準画像データが格納
された基準組織輪郭ファイルである。このF6の値が注
目画素において、基準組織領域内に与えられた数値であ
れば、その列における輪郭候補点としての可能性が低く
なるように推論ルールおよびメンバシップ関数が作成さ
れる。
F6 stores the reference image data in which the contour line and the occupied area of the reference tissue image which are easy to extract are extracted from the original image file F1 and binary values are given to the pixels inside and outside thereof. This is a reference tissue contour file. If the value of F6 is a numerical value given in the reference tissue region in the pixel of interest, the inference rule and the membership function are created so that the possibility of being a contour candidate point in that column becomes low.

【0034】F7は、基準画像の占有領域の辺縁からの
距離値を断層面全画素に与え、基準組織辺縁からの距離
分布を表す基準組織領域ファイルである。F7に関する
推論ルールおよびメンバシップ関数は、F2〜F6の値
によって変動するが、F6において注目画素が基準組織
内にあると判断された場合は、F7の値が大きい即ち注
目画素が基準組織の中心に近いときは、その注目画素が
その列における輪郭候補点である可能性が低くなるよう
に、推論ルールおよびメンバシップ関数が作成される。
F7 is a reference tissue region file that represents the distance distribution from the reference tissue edge by giving the distance values from the edge of the occupied area of the reference image to all the tomographic plane pixels. The inference rule and the membership function regarding F7 vary depending on the values of F2 to F6. However, when the pixel of interest is determined to be within the reference tissue in F6, the value of F7 is large, that is, the pixel of interest is the center of the reference tissue. When it is close to, the inference rule and the membership function are created so that the pixel of interest is unlikely to be a contour candidate point in the column.

【0035】F8は、ファジィ推論結果の画像データを
格納する出力ファイルである。ここで具体例として、図
6に、X線−CTを断層装置に用いた場合の処理フロー
を示す。この図6の処理フローは、原画像ファイルF1
から原画像データを読み出して中間のファイルF2〜F
7を作成し、図4のファジィ推論ボード13に転送し
て、推論処理させる過程を示している。なお必要に応じ
て、図4の実施例構成が参照される。また説明の便宜
上、関心領域が腹部断層(横断面)像中の肝臓の場合を
述べる。この領域の断層画像上では、断層画像中の硬組
織の輝度が高いという特徴を有する。
F8 is an output file for storing the image data of the fuzzy inference result. Here, as a specific example, FIG. 6 shows a processing flow when the X-ray-CT is used in a tomographic apparatus. The processing flow of FIG. 6 is the same as the original image file F1.
Read the original image data from the
7 shows the process of creating 7 and transferring it to the fuzzy inference board 13 of FIG. 4 for inference processing. The configuration of the embodiment of FIG. 4 will be referred to as necessary. For convenience of explanation, the case where the region of interest is the liver in the abdominal tomographic (transverse cross section) image will be described. On the tomographic image of this region, the feature is that the brightness of the hard tissue in the tomographic image is high.

【0036】そこで、この連続断層画像においては硬組
織として、椎体および肋骨を基準組織として考え、閾値
処理による領域抽出を行う。さらに、基準組織の孤立化
および平滑化を行う。その後、断層像画面上の孤立点の
ノイズを除去した後、得られている画像を基準組織の画
像とする。そして、基準組織の輪郭内(輪郭線上を含
む)すなわち領域内の画素に数値1を与え、輪郭外すな
わち領域外の画素に数値0を与え、領域を基準組織の輪
郭線にて2値化する。そのファイルをF6とする。
Therefore, in this continuous tomographic image, vertebral bodies and ribs are considered as reference tissues as hard tissues, and regions are extracted by threshold processing. Further, the reference tissue is isolated and smoothed. Then, after removing the noise of the isolated points on the tomographic image screen, the obtained image is used as the image of the reference tissue. Then, the numerical value 1 is given to the pixels within the contour of the reference tissue (including the contour line), that is, within the area, and the numerical value 0 is given to the pixels outside the contour, that is, outside the area, and the area is binarized with the contour line of the reference tissue. . Let the file be F6.

【0037】次に、注目画素が基準組織の輪郭線からど
れくらいの距離にあるかを計算し、その距離分布を基準
組織内部および外部に数値を与える。その距離分布ファ
イルをF7とする。
Next, the distance from the contour line of the reference tissue to the target pixel is calculated, and the distance distribution is given numerical values inside and outside the reference tissue. The distance distribution file is set to F7.

【0038】ファイルF2ないしF7は、ファイルF1
に対して図4のCPU7がそれぞれ対応する画像処理プ
ログラムを実行することによって作成される。作業用フ
ァイル装置10のファイルF2ないしF7の画像データ
は、ファジィ推論処理開始前にファジィ推論ボード13
に転送される。同様に推論ルールおよびメンバシップ関
数のファイル(図示せず)も作業用ファイル装置10か
らファジィ推論ボード13に転送される。
The files F2 to F7 are the files F1.
4 is executed by the CPU 7 of FIG. 4 executing the corresponding image processing program. The image data of the files F2 to F7 of the work file device 10 are processed by the fuzzy inference board 13 before the fuzzy inference processing is started.
Transferred to. Similarly, a file (not shown) of inference rules and membership functions is transferred from the work file device 10 to the fuzzy inference board 13.

【0039】CPU7側は、ファジィ推論ボード13の
各ファジィ素子14を制御してファジィ推論を実行す
る。ディファジィファイ処理まで行われたファジィ推論
の結果はMSU8に戻される。出力された注目画素の輪
郭候補点としての確度から、CPU7によって、画面の
ライン毎の輪郭線の候補点を決定する処理を行う。画面
の全体に亘ってこの一連の処理を行うことによって、候
補点を連続させた関心領域の輪郭を表す2次元パターン
の画像データが得られる。この2次元パターンの画像デ
ータは、出力ファイルF8に格納され、その後、3次元
画像を作成するために用いられる。
The CPU 7 side controls each fuzzy element 14 of the fuzzy inference board 13 to execute the fuzzy inference. The result of the fuzzy inference that has been performed up to the defuzzify processing is returned to the MSU 8. From the accuracy of the output target pixel as a contour candidate point, the CPU 7 determines the contour line candidate point for each line of the screen. By performing this series of processing over the entire screen, image data of a two-dimensional pattern representing the contour of the region of interest in which the candidate points are continuous can be obtained. The image data of this two-dimensional pattern is stored in the output file F8, and then used to create a three-dimensional image.

【0040】次に、別の具体例として、図7にMRI−
CTを断層装置に用いた場合の例の処理フローを示す。
関心領域が腹部断層(横断面)像中の肝臓の場合を述べ
る。MRIにおいて通常の方法で撮像したものと同一位
置を血管を強調した方法で撮像した画像とを用意する。
血管強調における連続断層画像においては腹部大動脈お
よび下大静脈の部位の輝度が高いという特徴を有する。
そこで、血管強調画像において、腹部大動脈・下大静脈
を基準組織として考え、閾値処理による領域抽出を行
う。さらに、基準組織の孤立化および平滑化を行う。そ
の後、断層像画面上の孤立点のノイズを除去した後、得
られている画像を基準組織の画像とする。そして、基準
組織の輪郭内(輪郭線上を含む)すなわち領域内の画素
に数値1を与え、輪郭外すなわち領域外の画素に数値0
を与え、領域を基準組織の輪郭線にて2値化する。その
ファイルをF6とする。
Next, as another specific example, FIG.
The processing flow of an example when CT is used for a tomography apparatus is shown.
The case where the region of interest is the liver in the abdominal tomographic (transverse) image will be described. An image obtained by a method of emphasizing a blood vessel at the same position as that obtained by an ordinary method in MRI is prepared.
The continuous tomographic image in the blood vessel enhancement has a feature that the brightness of the abdominal aorta and the inferior vena cava is high.
Therefore, in the blood vessel-enhanced image, the abdominal aorta and inferior vena cava are considered as reference tissues, and region extraction by threshold processing is performed. Further, the reference tissue is isolated and smoothed. Then, after removing the noise of the isolated points on the tomographic image screen, the obtained image is used as the image of the reference tissue. Then, a numerical value 1 is given to pixels within the contour (including on the contour line) of the reference tissue, that is, within the area, and a numerical value 0 is given to pixels outside the contour, that is, outside the area.
And the region is binarized by the contour line of the reference tissue. Let the file be F6.

【0041】次に、注目画素が基準組織の輪郭線からど
れくらいの距離にあるかを計算し、その距離分布を基準
組織内部および外部に数値を与える。その距離分布ファ
イルをF7とする。
Next, the distance from the contour line of the reference tissue to the target pixel is calculated, and the distance distribution is given numerical values inside and outside the reference tissue. The distance distribution file is set to F7.

【0042】このあとの処理は、図6のX線−CTの場
合と同様である。なお各断層面ごとの基準組織の画像デ
ータを作成する場合は、基準組織の画像の特性を利用す
ることによって作成処理を簡単化することができる。た
とえば図8の(a)に示す椎体の場合のように、各断層
面内での基準組織の画像の位置が不変に近い場合には、
特定の断層面で抽出した椎体の画像位置を記録し、各断
層面での画像の認識処理時に使用することができる。ま
た図8の(b)に示す腹部大動脈の例のように、組織が
直線形状をもっている場合には、一定間隔で離れている
12枚の断層面j,k(たとえば両端の断層面)で腹部
大動脈の位置、大きさを計測し、それらの値から中間の
断層面における値を補間して腹部大動脈の画像領域を求
めることができる。さらにある組織の画像が他の部分の
画像に比べて高輝度であることが判っている場合には、
予め適当な閾値を用いて各断層面の画像データをスキャ
ンし、その画像の情報のみを各断層面ごとに抽出してお
いて、使用することができる。
The subsequent processing is the same as in the case of X-ray-CT in FIG. When creating the image data of the reference tissue for each tomographic plane, the creation process can be simplified by utilizing the characteristics of the image of the reference tissue. For example, as in the case of the vertebral body shown in FIG. 8A, when the position of the image of the reference tissue in each tomographic plane is almost unchanged,
The image position of the vertebral body extracted on a specific tomographic plane can be recorded and used at the time of image recognition processing on each tomographic plane. When the tissue has a linear shape as in the example of the abdominal aorta shown in FIG. 8B, the abdomen is formed by twelve tomographic planes j and k (for example, the tomographic planes at both ends) that are separated at regular intervals. The image area of the abdominal aorta can be obtained by measuring the position and size of the aorta and interpolating the values on the intermediate tomographic plane from these values. Furthermore, if it is known that the image of a certain tissue has higher brightness than the images of other parts,
It is possible to scan the image data of each tomographic plane using an appropriate threshold value in advance, extract only the information of the image for each tomographic plane, and use it.

【0043】図9は、本発明の実施例において用いられ
るファジィ推論のルールの例を一部示したものである。
これらのルールは、ある断層面画像データの処理におい
て注目した点の画素の特性として、輝度の高低、差分値
の大小、層内連続性の高低、層間連続性の高低、基準画
像領域の内外、基準画像の辺縁からの距離の遠近の各値
をとり、これらの値に基づいてその点が輪郭候補点であ
る可能性の高低を決定するファジィ推論の条件を示して
いる。ファジィ推論のルールは、読影が必要な画像の特
性に応じて最適に設定される。
FIG. 9 partially shows an example of a fuzzy inference rule used in the embodiment of the present invention.
These rules are the characteristics of the pixel at the point of interest in the processing of certain tomographic image data, such as high and low brightness, high and low difference values, high and low intra-layer continuity, high and low inter-layer continuity, inside and outside the reference image area, We show conditions of fuzzy inference that takes each value of distance from the edge of the reference image and determines the probability of that point being a contour candidate point based on these values. The fuzzy inference rules are optimally set according to the characteristics of the image that requires interpretation.

【0044】[0044]

【発明の効果】本発明では、従来に比較し、次のような
利点が生じる。 (1)読影を計算機に行わせることで医師による読影作
業を代替させることができる。
The present invention has the following advantages over the prior art. (1) It is possible to substitute the interpretation work by the doctor by causing the computer to perform the interpretation.

【0045】(2)医師による読影作業を行わないの
で、医用画像装置から出力される連続断層像を随時処理
することができる。 (3)人体の各種連続断層像において、適当なスライス
間隔で臓器の連続性を把えることができるため、自動三
次元画像再構築を行うための必須要件である、対象組織
の高速自動輪郭抽出の一手法となる。また、形状抽出が
容易でない組織に対して、組織一般の解剖学的形態を考
慮することにより、より精度の高い抽出が可能となる。
(2) Since the doctor does not read the image, the continuous tomographic image output from the medical image device can be processed at any time. (3) High-speed automatic contour extraction of target tissue, which is an essential requirement for performing automatic three-dimensional image reconstruction, because the continuity of organs can be grasped at appropriate slice intervals in various continuous tomographic images of the human body. It will be one method. Further, for a tissue whose shape is not easy to be extracted, more accurate extraction can be performed by considering the general anatomical form of the tissue.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の原理的構成図である。FIG. 1 is a principle configuration diagram of the present invention.

【図2】断層面の画像例の説明図である。FIG. 2 is an explanatory diagram of an image example of a tomographic plane.

【図3】本発明における基準組織による認識処理例の説
明図である。
FIG. 3 is an explanatory diagram of an example of recognition processing by a reference organization according to the present invention.

【図4】本発明の1実施例のハードウェア構成図であ
る。
FIG. 4 is a hardware configuration diagram of an embodiment of the present invention.

【図5】本発明の1実施例におけるファイル入力処理の
フロー図である。
FIG. 5 is a flow chart of file input processing according to an embodiment of the present invention.

【図6】X線−CTを断層装置に用いた実施例の処理フ
ロー図である。
FIG. 6 is a processing flow chart of an example in which X-ray CT is used in a tomographic apparatus.

【図7】MRI−CTを断層装置に用いた実施例の処理
フロー図である。
FIG. 7 is a process flow diagram of an example in which MRI-CT is used in a tomographic apparatus.

【図8】本発明の1実施例による基準組織の画像の特性
を利用した2次元パターンの情報の作成例の説明図であ
る。
FIG. 8 is an explanatory diagram of an example of creating two-dimensional pattern information using the characteristics of the image of the reference tissue according to the first embodiment of the present invention.

【図9】本発明に用いられるファジィ推論のルールの例
の説明図である。
FIG. 9 is an explanatory diagram of an example of a fuzzy inference rule used in the present invention.

【符号の説明】[Explanation of symbols]

1 断層装置 2−1,2−2 連続断層面画像データファイル 3−1〜3−N 連続断層面画像データ 4 基準組織画像抽出部 5 知識ファイル 6 認識処理部 1 tomographic device 2-1 and 2-2 continuous tomographic image data file 3-1 to 3-N continuous tomographic image data 4 reference tissue image extraction unit 5 knowledge file 6 recognition processing unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G06T 9/20 15/00 8420−5L G06F 15/66 B 7459−5L 15/70 335 Z 9192−5L 15/72 450 K ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical display location G06T 9/20 15/00 8420-5L G06F 15/66 B 7459-5L 15/70 335 Z 9192- 5L 15/72 450 K

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 連続する複数の断層面の画像データを入
力として断層面ごとに3次元像の輪郭を形成する2次元
パターンを抽出する画像処理を行う画像処理装置におい
て、 任意の断層面の画像データを対象に、断層面ごとに、予
め定められた種類の3次元像の輪郭を形成する2次元パ
ターンを識別する処理を行う認識処理部と、 断層面の画像データを入力として、予め定められた基準
組織の2次元パターンの領域を抽出する基準組織画像抽
出部とを備え、 上記認識処理部は、断層面ごとに予め定められた種類の
3次元像の輪郭を形成する2次元パターンを認識する
際、上記基準組織画像抽出部から出力される基準組織の
2次元パターンの領域を基準とする相対的な配置関係を
認識条件として含むことを特徴とする画像処理装置。
1. An image processing apparatus for performing image processing for inputting image data of a plurality of continuous tomographic planes and extracting a two-dimensional pattern forming a contour of a three-dimensional image for each tomographic plane. A recognition processing unit that performs a process of identifying a two-dimensional pattern forming a contour of a three-dimensional image of a predetermined type for each tomographic plane with respect to the data, and a predetermined to which the image data of the tomographic plane is input. And a reference tissue image extraction unit that extracts a region of a two-dimensional pattern of the reference tissue, wherein the recognition processing unit recognizes a two-dimensional pattern forming a contour of a three-dimensional image of a predetermined type for each tomographic plane. In this case, the image processing apparatus is characterized by including, as a recognition condition, a relative positional relationship based on the two-dimensional pattern region of the reference tissue output from the reference tissue image extraction unit.
【請求項2】 請求項1において、少なくとも認識処理
部はファジィ素子を用いて実現されていることを特徴と
する画像処理装置。
2. The image processing apparatus according to claim 1, wherein at least the recognition processing unit is realized by using a fuzzy element.
JP21861593A 1993-09-02 1993-09-02 Image processing device Expired - Fee Related JP3195136B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP21861593A JP3195136B2 (en) 1993-09-02 1993-09-02 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP21861593A JP3195136B2 (en) 1993-09-02 1993-09-02 Image processing device

Publications (2)

Publication Number Publication Date
JPH0773291A true JPH0773291A (en) 1995-03-17
JP3195136B2 JP3195136B2 (en) 2001-08-06

Family

ID=16722736

Family Applications (1)

Application Number Title Priority Date Filing Date
JP21861593A Expired - Fee Related JP3195136B2 (en) 1993-09-02 1993-09-02 Image processing device

Country Status (1)

Country Link
JP (1) JP3195136B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000126182A (en) * 1998-10-27 2000-05-09 Mitani Sangyo Co Ltd Tumor diagnosing method
JP2004326264A (en) * 2003-04-22 2004-11-18 Matsushita Electric Works Ltd Obstacle detecting device and autonomous mobile robot using the same and obstacle detecting method and obstacle detecting program
JP2005224460A (en) * 2004-02-16 2005-08-25 Hitachi Medical Corp Medical diagnostic imaging apparatus
JP2007111123A (en) * 2005-10-18 2007-05-10 Hitachi Medical Corp Medical image display device
JP2008259703A (en) * 2007-04-12 2008-10-30 Fujifilm Corp Object region display method, device and program
WO2009122649A1 (en) * 2008-04-03 2009-10-08 富士フイルム株式会社 Equipment, method, and program for detecting three-dimensional peritoneal cavity region
JP4495891B2 (en) * 1999-06-03 2010-07-07 帝人株式会社 Bone measurement method
JP2010246662A (en) * 2009-04-14 2010-11-04 Hitachi Medical Corp Image processor
WO2013008449A1 (en) * 2011-07-08 2013-01-17 国立大学法人豊橋技術科学大学 Fat-checking method, fat-checking device, and fat-checking program
JP2016039900A (en) * 2014-08-12 2016-03-24 株式会社東芝 Medical image processing device and medical image processing method
JP2017531526A (en) * 2014-10-30 2017-10-26 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Apparatus and method for determining image quality of a radiogram image
US10109053B2 (en) 2011-11-03 2018-10-23 Samsung Electronics Co., Ltd. Apparatus and method for detecting error in lesion contour, apparatus and method for correcting error in lesion contour, and apparatus for inspecting error in lesion contour
WO2020170439A1 (en) * 2019-02-22 2020-08-27 日本電気株式会社 Processing device, fingerprint image extraction processing device, system, processing method, and computer readable medium
CN112908451A (en) * 2021-04-16 2021-06-04 千乘镜像(北京)科技有限公司 Image processing method, apparatus and storage medium

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000126182A (en) * 1998-10-27 2000-05-09 Mitani Sangyo Co Ltd Tumor diagnosing method
JP4495891B2 (en) * 1999-06-03 2010-07-07 帝人株式会社 Bone measurement method
JP2004326264A (en) * 2003-04-22 2004-11-18 Matsushita Electric Works Ltd Obstacle detecting device and autonomous mobile robot using the same and obstacle detecting method and obstacle detecting program
JP2005224460A (en) * 2004-02-16 2005-08-25 Hitachi Medical Corp Medical diagnostic imaging apparatus
JP4497951B2 (en) * 2004-02-16 2010-07-07 株式会社日立メディコ Medical diagnostic imaging equipment
JP4721865B2 (en) * 2005-10-18 2011-07-13 株式会社日立メディコ Medical image display device
JP2007111123A (en) * 2005-10-18 2007-05-10 Hitachi Medical Corp Medical image display device
JP2008259703A (en) * 2007-04-12 2008-10-30 Fujifilm Corp Object region display method, device and program
US8116544B2 (en) 2008-04-03 2012-02-14 Fujifilm Corporation Apparatus, method, and program for detecting three dimensional abdominal cavity regions
WO2009122649A1 (en) * 2008-04-03 2009-10-08 富士フイルム株式会社 Equipment, method, and program for detecting three-dimensional peritoneal cavity region
JP2010246662A (en) * 2009-04-14 2010-11-04 Hitachi Medical Corp Image processor
WO2013008449A1 (en) * 2011-07-08 2013-01-17 国立大学法人豊橋技術科学大学 Fat-checking method, fat-checking device, and fat-checking program
US10109053B2 (en) 2011-11-03 2018-10-23 Samsung Electronics Co., Ltd. Apparatus and method for detecting error in lesion contour, apparatus and method for correcting error in lesion contour, and apparatus for inspecting error in lesion contour
JP2016039900A (en) * 2014-08-12 2016-03-24 株式会社東芝 Medical image processing device and medical image processing method
JP2017531526A (en) * 2014-10-30 2017-10-26 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Apparatus and method for determining image quality of a radiogram image
WO2020170439A1 (en) * 2019-02-22 2020-08-27 日本電気株式会社 Processing device, fingerprint image extraction processing device, system, processing method, and computer readable medium
JPWO2020170439A1 (en) * 2019-02-22 2021-12-02 日本電気株式会社 Processing device, fingerprint image extraction processing device, system, processing method, and program
US11417144B2 (en) 2019-02-22 2022-08-16 Nec Corporation Processing apparatus, fingerprint image extraction processing apparatus, system, processing method, and computer readable medium
CN112908451A (en) * 2021-04-16 2021-06-04 千乘镜像(北京)科技有限公司 Image processing method, apparatus and storage medium
CN112908451B (en) * 2021-04-16 2023-12-26 千乘镜像(北京)科技有限公司 Image processing method, device and storage medium

Also Published As

Publication number Publication date
JP3195136B2 (en) 2001-08-06

Similar Documents

Publication Publication Date Title
Dandıl et al. Artificial neural network-based classification system for lung nodules on computed tomography scans
US6754376B1 (en) Method for automatic segmentation of medical images
EP0757544B1 (en) Computerized detection of masses and parenchymal distortions
JP3195136B2 (en) Image processing device
Karssemeijer et al. Recognition of organs in CT-image sequences: a model guided approach
Anter et al. Automatic liver parenchyma segmentation system from abdominal CT scans using hybrid techniques
JP2006034585A (en) Picture display device and picture display method, and program thereof
CN110838114A (en) Pulmonary nodule detection method, device and computer storage medium
Khan et al. PMED-net: Pyramid based multi-scale encoder-decoder network for medical image segmentation
Balakrishnan et al. An efficient and complete automatic system for detecting lung module
Rad et al. Computer-aided dental caries detection system from X-ray images
CN113643279A (en) Pulmonary nodule detection equipment and device based on CT (computed tomography) image and storage medium
US20060078184A1 (en) Intelligent splitting of volume data
Jeeva A Computer Aided Diagnosis for detection and classification of lung nodules
Breier et al. Chan-Vese-segmentation of polyps in colonoscopic image data
Kumar et al. Neural Network Based Approach for Detection of Abnormal Regions of Lung Cancer in X-Ray Image
Bharodiya Feature extraction methods for CT-scan images using image processing
KR20230106205A (en) Apparatus and methods for classifying neurodegenerative diseases image of amyloid-positive based on deep-learning
Amritha et al. Liver tumor segmentation and classification using deep learning
Bhardwaj et al. Modeling of An CNN Architecture for Kidney Stone Detection Using Image Processing
Hassan et al. A classification framework for diagnosis of focal liver diseases
Prakash Medical image processing methodology for liver tumour diagnosis
KR102132564B1 (en) Apparatus and method for diagnosing lesion
Veena et al. Fusion techniques for the breast cancer detection
Johora et al. Early Detection of Lung Cancer from CT Scan Images Using Binarization Technique

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080601

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090601

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees