JP2006325937A - Image determination device, image determination method, and program therefor - Google Patents

Image determination device, image determination method, and program therefor Download PDF

Info

Publication number
JP2006325937A
JP2006325937A JP2005153801A JP2005153801A JP2006325937A JP 2006325937 A JP2006325937 A JP 2006325937A JP 2005153801 A JP2005153801 A JP 2005153801A JP 2005153801 A JP2005153801 A JP 2005153801A JP 2006325937 A JP2006325937 A JP 2006325937A
Authority
JP
Japan
Prior art keywords
image
area
region
small
artificial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005153801A
Other languages
Japanese (ja)
Inventor
Satoru Osawa
哲 大沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fujifilm Holdings Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Holdings Corp filed Critical Fujifilm Holdings Corp
Priority to JP2005153801A priority Critical patent/JP2006325937A/en
Publication of JP2006325937A publication Critical patent/JP2006325937A/en
Withdrawn legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To improve a precision when determining the abnormal shadow of lung cancer or the like. <P>SOLUTION: The candidate area of the abnormal shade is detected from a medical image. A small area containing at least a part of the candidate area is set as a remarkable area M and moreover, small areas existing near the remarkable area M are set as nearby areas R1, R2, ..., R8. The remarkable area M and the nearby areas R1, R2, ..., R8 generate normal artificial images, and a difference between the artificial image and the original image of the remarkable area M (minimum square distance) is compared with a difference between the artificial images and the original images of the nearby areas R1, R2, ..., R8 (minimum square distance). According to the presence/absence of the difference between both of the differences, it is determined whether a candidate area included in the remarkable area M is the abnormal shade. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、医用画像の読影による異常陰影候補の検出を支援する画像判定装置、画像判定装置方法、およびそのプログラムに関するものである。   The present invention relates to an image determination apparatus, an image determination apparatus method, and a program for supporting detection of abnormal shadow candidates by interpretation of medical images.

従来より、医療分野においては、ある患者についての撮影時期が異なる2つ以上の医用画像を比較読影して、画像間の差異を調べ、その差異に基づいて異常陰影を検出したり、疾患の進行状況や治癒状況を把握して治療方針を検討したりすることが行われている。   Conventionally, in the medical field, two or more medical images with different shooting times for a patient are comparatively read, the difference between the images is examined, an abnormal shadow is detected based on the difference, and the progression of the disease The treatment policy is examined by grasping the situation and the healing situation.

特に、異常陰影が初期の肺癌のような小型の陰影は見落としやすいため、このような異常陰影を検出する際には、撮影時期が異なる2つの医用画像について、画像間で画素を対応させた減算処理等を行って差異を求め、その差異を表す差異画像(経時サブトラクション画像)において、画素値が所定値以上の領域あるいは特徴的な形状、例えば略円形形状のものを異常陰影候補として検出する手法が提案されている(特許文献1等)。   In particular, because small shadows such as lung cancer that have abnormal shadows in the early stages are easy to overlook, when detecting such abnormal shadows, subtraction that associates pixels between the images for two medical images with different shooting times A method for obtaining a difference by performing processing or the like, and detecting a region having a pixel value equal to or greater than a predetermined value or a characteristic shape, for example, a substantially circular shape as an abnormal shadow candidate in a difference image (temporal subtraction image) representing the difference Has been proposed (Patent Document 1, etc.).

しかし、比較対象となる撮影時期が異なる2つの時系列的な画像は、撮影時の患者の姿勢変化等により被写体の位置ずれが生じるため、差分画像を得る際に通常は比較対象となる画像の位置合わせが行なわれる。位置合わせを行う手法として、比較対象となる同一被写体についての2つの画像のうち少なくとも一方の画像全体に対して、回転、平行移動および拡大・縮小等の大局的位置合わせ(アフィン変換等の線形変換)や、局所領域ごとのテンプレートマッチングにより得られた対応位置関係に基づく非線形歪変換(例えば2次元多項式によるカーブフィッティングを用いた非線形歪み変換等)処理(ワーピング)による局所位置合わせ、またはこれら大局的位置合わせと局所位置合わせとを組み合わせて行う手法や、さらに位置ずれ程度の高い局所領域およびその近傍で再度位置合わせを行う手法が提案されている(特許文献2、特許文献3等)。   However, two time-series images with different imaging timings to be compared are subject to positional deviation due to changes in the posture of the patient at the time of imaging. Alignment is performed. As a method of alignment, global alignment such as rotation, translation, enlargement / reduction, etc., for at least one of the two images of the same subject to be compared (linear transformation such as affine transformation) ), Non-linear distortion transformation based on the corresponding positional relationship obtained by template matching for each local region (for example, non-linear distortion transformation using curve fitting by a two-dimensional polynomial) processing (warping), or these global positioning There have been proposed a method of combining positioning and local positioning, and a method of performing positioning again in a local region having a high degree of positional deviation and its vicinity (Patent Document 2, Patent Document 3, etc.).

上記の手法は、あくまで2次元に投影された後の画像を用いて位置合わせを行うため、時系列的な画像間で患者の姿勢変化などにより大きく3次元的な変動(前傾、後傾、側旋)が生じた場合には、位置合わせしきれず、差異画像上にアーチファクト(偽像)が発生してしまい、異常陰影の検出が正確に行われなかった。また、過去に撮影された医用画像が存在しない患者の場合は、比較対象となる画像がなく、肺がんのような見落としやすい異常陰影の検出をする際に効果を発揮する差異画像による手法を上手く活用することができなかった。   In the above method, since alignment is performed using images after being projected in two dimensions, large three-dimensional fluctuations (forward tilt, backward tilt, When the lateral rotation) occurs, the alignment cannot be completed, and an artifact (false image) is generated on the difference image, and the abnormal shadow is not accurately detected. In addition, in the case of patients who do not have medical images taken in the past, there is no image to be compared, and the technique based on difference images that is effective when detecting abnormal shadows that are easily overlooked, such as lung cancer, can be used well. I couldn't.

そこで、被写体の正常な構造を表す正常構造画像が蓄積記憶されているデータベース中の各画像と、その各画像から抽出した解剖学的特徴の形状を教師データとして使用し、被写体の正常構造の統計的なモデル(形状変化モデル、テクスチャ変化モデル、形状とテクスチャの相関モデル)を作成し、このモデルを用いることにより、入力された画像に対応する正常構造画像を人工的に生成し、生成された正常構造画像と入力された医用画像とに基づいて異常陰影の候補領域を検出するものが提案されている(特許文献4等)。
特開2002‐158923号公報 特開平7‐37074号公報 特開2002‐32735号公報 特開2004‐41694号公報
Therefore, each image in the database in which the normal structure image representing the normal structure of the subject is stored and stored, and the shape of the anatomical feature extracted from each image are used as the teacher data, and the normal structure statistics of the subject are used. Model (shape change model, texture change model, shape and texture correlation model), and using this model, a normal structure image corresponding to the input image was artificially generated and generated An apparatus that detects a candidate area for an abnormal shadow based on a normal structure image and an input medical image has been proposed (Patent Document 4 and the like).
JP 2002-158923 A JP-A-7-37074 JP 2002-32735 A JP 2004-41694 A

しかしながら、上記の正常構造画像を人工的に生成する手法は、画像間で患者の姿勢変化などにより大きな3次元的変動が生じた場合や、過去に撮影された医用画像が存在しない患者の場合でも、見落としやすい小型の異常陰影の検出に効果を発揮するものであるが、通常、胸部CAD(computer aided diagnose)では検出された肺癌候補を部分的(ROI:region of interest)に切り出して、ROI毎に肺癌であるか否かの判別を行うことが行われていることからすると、胸部全体の人工画像を生成するのは非効率的である。   However, the above-described method for artificially generating the normal structure image can be used even when a large three-dimensional variation occurs due to a change in the posture of the patient between images, or even in the case of a patient for which no medical image has been taken in the past. It is effective for detecting small abnormal shadows that are easily overlooked. Usually, chest CAD (computer aided diagnose) cuts out the detected lung cancer candidates into regions of interest (ROI) for each ROI. In other words, it is inefficient to generate an artificial image of the entire chest because it is determined whether or not the patient has lung cancer.

また、肋骨のような構造部が存在する部分と肋骨のような構造物が存在しない部分では現れる特徴が異なるため、胸部全体の人工画像を生成した場合には、部分的に元の画像とはずれた特徴を有したものが現れる場合がある。   In addition, since the features that appear in the part where the structural part such as the rib is present and the part where the structural object such as the rib does not exist are different, when an artificial image of the entire chest is generated, it is partially different from the original image. There may be cases where a characteristic is present.

そこで、胸部全体ではなく異常陰影が検出された注目する領域に対応した人工画像を精度よく生成して、肺がんのような見落としやすい異常陰影の検出を向上させることが望まれる。   Therefore, it is desired to improve the detection of an abnormal shadow that is easily overlooked, such as lung cancer, by accurately generating an artificial image corresponding to a region of interest in which an abnormal shadow is detected instead of the entire chest.

本発明は、上記事情に鑑みてなされたものであり、比較読影による手法において従来に比べてより効率的でかつ精度よく異常陰影の判定をすることが可能となる画像判定装置、画像判定方法およびそのプログラムを提供することを目的とするものである。   The present invention has been made in view of the above circumstances, and an image determination apparatus, an image determination method, and an image determination method capable of determining an abnormal shadow more efficiently and accurately than a conventional method using comparative interpretation. The purpose is to provide the program.

本発明の画像判別装置は、被写体の所定の部位を撮影して得られた解剖学的特徴を有する構造物を含む医用画像において、該医用画像を細分化した多数の小領域を前記構造物から得られる解剖学的特徴が互いに類似する小領域毎に分類する分類手段と、
前記分類された小領域のうち少なくとも1つの小領域について、前記分類手段の分類結果に応じて前記構造物が正常な小領域の人工画像を生成する人工画像生成手段と、
前記医用画像から異常陰影の候補領域を検出する候補領域検出手段と、
該候補領域検出手段により検出された前記候補領域の少なくとも一部を含む小領域を注目領域として設定し、さらに、該注目領域の近傍に存在する小領域を近傍領域として設定する領域設定手段と、
前記分類手段により前記注目領域および前記近傍領域を分類し、分類された該各領域について前記人工画像生成手段により該両領域が正常な人工画像を生成し、該注目領域の人工画像と該注目領域の原画像との差と、前記近傍領域の人工画像と該近傍領域の原画像との差とを比較して、両差の違いの有無によって、前記注目領域に含まれる前記候補領域が異常陰影であるか否かの判定を行う判定手段とを備えることを特徴とするものである。
The image discriminating apparatus of the present invention is a medical image including a structure having anatomical features obtained by photographing a predetermined part of a subject, and a plurality of small regions obtained by subdividing the medical image are extracted from the structure. A classification means for classifying the obtained anatomical features into small regions similar to each other;
Artificial image generation means for generating an artificial image of a normal small area of the structure according to a classification result of the classification means for at least one of the classified small areas;
Candidate area detecting means for detecting a candidate area of an abnormal shadow from the medical image;
A region setting unit that sets a small region including at least a part of the candidate region detected by the candidate region detection unit as a region of interest, and further sets a small region existing in the vicinity of the region of interest as a neighborhood region;
The attention unit and the neighboring region are classified by the classification unit, and the artificial image generation unit generates a normal artificial image for each of the classified regions, and the artificial image of the attention region and the attention region And the difference between the artificial image of the neighboring area and the original image of the neighboring area is compared, and the candidate area included in the attention area is abnormally shaded depending on the difference between the two differences. And determining means for determining whether or not.

また、本発明の画像判別方法は、被写体の所定の部位を撮影して得られた解剖学的特徴を有する構造物を含む医用画像において、該医用画像を細分化した多数の小領域を前記構造物から得られる解剖学的特徴が互いに類似する小領域毎に分類する分類手段と、
前記分類された小領域のうち少なくとも1つの小領域について、前記分類手段の分類結果に応じて前記構造物が正常な小領域の人工画像を生成する人工画像生成手段とを備えた画像判定装置において、
前記医用画像から異常陰影の候補領域を検出する候補領域検出ステップと、
該候補領域検出ステップにより検出された前記候補領域の少なくとも一部を含む小領域を注目領域として設定し、さらに、該注目領域の近傍に存在する小領域を近傍領域として設定する領域設定ステップと、
前記分類手段により前記注目領域および前記近傍領域を分類し、分類された該各領域について前記人工画像生成手段により該両領域が正常な人工画像を生成し、該注目領域の人工画像と該注目領域の原画像との差と、前記近傍領域の人工画像と該近傍領域の原画像との差とを比較して、両差の違いの有無によって、前記注目領域に含まれる前記候補領域が異常陰影であるか否かの判定を行う判定ステップとを備えることを特徴とするものである。
Further, the image discrimination method of the present invention is a medical image including a structure having an anatomical feature obtained by photographing a predetermined part of a subject, and a plurality of small regions obtained by subdividing the medical image are represented by the structure. A classification means for classifying each anatomical feature obtained from an object into small regions similar to each other;
In an image determination apparatus comprising: an artificial image generation unit that generates an artificial image of a normal small region of the structure according to a classification result of the classification unit for at least one small region of the classified small regions ,
A candidate area detecting step of detecting a candidate area of an abnormal shadow from the medical image;
An area setting step for setting a small area including at least a part of the candidate area detected by the candidate area detection step as an attention area, and further setting a small area in the vicinity of the attention area as a vicinity area;
The attention unit and the neighboring region are classified by the classification unit, and the artificial image generation unit generates a normal artificial image for each of the classified regions, and the artificial image of the attention region and the attention region And the difference between the artificial image of the neighboring area and the original image of the neighboring area is compared, and the candidate area included in the attention area is abnormally shaded depending on the difference between the two differences. And a determination step for determining whether or not.

また、本願発明のプログラムは、コンピュータを、被写体の所定の部位を撮影して得られた解剖学的特徴を有する構造物を含む医用画像において、該医用画像を細分化した多数の小領域を前記構造物から得られる解剖学的特徴が互いに類似する小領域毎に分類する分類手段と、
前記分類された小領域のうち少なくとも1つの小領域について、前記分類手段の分類結果に応じて前記構造物が正常な小領域の人工画像を生成する人工画像生成手段と、
前記医用画像から異常陰影の候補領域を検出する候補領域検出手段と、
該候補領域検出手段により検出された前記候補領域の少なくとも一部を含む小領域を注目領域として設定し、さらに、該注目領域の近傍に存在する小領域を近傍領域として設定する領域設定手段と、
前記分類手段により前記注目領域および前記近傍領域を分類し、分類された該各領域について前記人工画像生成手段により該両領域が正常な人工画像を生成し、該注目領域の人工画像と該注目領域の原画像との差と、前記近傍領域の人工画像と該近傍領域の原画像との差とを比較して、両差の違いの有無によって、前記注目領域に含まれる前記候補領域が異常陰影であるか否かの判定を行う判定手段として機能させることを特徴とするものである。
Further, the program of the present invention provides a computer with a large number of small regions obtained by subdividing the medical image in a medical image including a structure having an anatomical feature obtained by photographing a predetermined part of the subject. A classifying means for classifying the anatomical features obtained from the structure into small areas similar to each other;
Artificial image generation means for generating an artificial image of a normal small area of the structure according to a classification result of the classification means for at least one of the classified small areas;
Candidate area detecting means for detecting a candidate area of an abnormal shadow from the medical image;
A region setting unit that sets a small region including at least a part of the candidate region detected by the candidate region detection unit as a region of interest, and further sets a small region existing in the vicinity of the region of interest as a neighborhood region;
The attention unit and the neighboring region are classified by the classification unit, and the artificial image generation unit generates a normal artificial image for each of the classified regions, and the artificial image of the attention region and the attention region And the difference between the artificial image of the neighboring area and the original image of the neighboring area is compared, and the candidate area included in the attention area is abnormally shaded depending on the difference between the two differences. It is made to function as a determination means for determining whether or not.

「被写体の所定の部位」とは、胸部や頭部や上腕部など人間や動物の身体などの中で、それがどの辺に位置するかという観点から見た時の部分をいう。   The “predetermined portion of the subject” refers to a portion of the human body or animal body such as the chest, head, or upper arm viewed from the viewpoint of which side it is located.

「構造物」とは、被写体の所定の部位を構成する組織をいう。   “Structure” refers to a tissue that constitutes a predetermined part of a subject.

「構造物から得られる解剖学的特徴が類似する」とは、各組織が存在する場所や各組織の構成などから得られる特徴が類似することをいう。例えば、胸部は肋骨、軟部、心臓などの組織から構成されるが、肋骨が1本のみ撮影されている箇所と肋骨が2本重なって撮影されている箇所では画素値の濃度が異なり解剖学的特徴は類似しないが、肋骨が1本のみ撮影されている箇所同士は画素値の濃度が近い値となり解剖学的特徴が類似した画像となる。また、胸部の肺野領域のうち辺縁部であるか縦隔部であるかなどの位置の相違によっても、現れる濃度やテクスチャが異なり類似しない画像となるが、同じ辺縁部内であれば肋骨が1本重なっているか2本重なっているかにより類似した画像があらわれる。   “Similar anatomical features obtained from a structure” means that the features obtained from the location of each tissue and the configuration of each tissue are similar. For example, the chest is composed of tissues such as the ribs, soft parts, and heart, but the pixel value density differs between the location where only one rib is imaged and the location where two ribs are imaged. Although the features are not similar, the locations where only one rib is imaged are close in pixel value density, resulting in images with similar anatomical features. Also, depending on the position of the chest lung field area, such as whether it is the marginal part or the mediastinum part, the resulting density and texture will differ and the image will be similar, but if within the same marginal part, the ribs A similar image appears depending on whether one is overlapping or two overlapping.

また、「構造物が正常」とは、各部位を構成する組織が正常であることを意味する。   Further, “the structure is normal” means that the tissue constituting each part is normal.

「候補領域の少なくとも一部を含む小領域を注目領域として設定する」とは、注目領域として設定する小領域内に、候補領域検出手段によって検出された候補領域が存在するように設定を行うことをいい、候補領域全体が小領域内に含まれず候補領域の一部が含まれるものであってもよい。   “Set a small region including at least a part of a candidate region as a region of interest” means setting a candidate region detected by the candidate region detection means within the small region to be set as a region of interest. The entire candidate area may not be included in the small area but may include a part of the candidate area.

「注目領域の近傍に存在する小領域を近傍領域として設定する」は、近傍領域を注目領域に隣接するように小領域を設定するものであっても、注目領域と重なるように小領域を設定するものであってもよい。   “Set a small area near the attention area as a neighboring area” sets the small area so that it overlaps the attention area even if the small area is set so that the neighboring area is adjacent to the attention area. You may do.

「原画像」とは、撮影して得られた医用画像をいう。   “Original image” refers to a medical image obtained by photographing.

また、前記判定手段は、前記注目領域の人工画像と該注目領域の原画像間の差分に応じた差分特徴量と、前記近傍領域の人口画像と該近傍領域の原画像間の差分に応じた差分特徴量を算出する差分特徴量算出手段を有するものであって、
該差分特徴量算出手段により算出した前記注目領域の差分特徴量と前記近傍領域の差分特徴量を比較して、両特徴量の違いの有無によって前記注目領域に含まれる前記候補領域が異常陰影であるか否かの判定を行うものを用いることができる。
In addition, the determination unit is configured to determine a difference feature amount according to a difference between the artificial image of the attention area and the original image of the attention area, and a difference between the population image of the vicinity area and the original image of the vicinity area. Having a difference feature amount calculating means for calculating a difference feature amount,
The difference feature quantity of the attention area calculated by the difference feature quantity calculation means is compared with the difference feature quantity of the neighboring area, and the candidate area included in the attention area is an abnormal shadow depending on whether there is a difference between the two feature quantities. It is possible to use what determines whether or not there is.

また、前記差分特徴量は、前記人工画像と前記原画像との最小自乗距離または正規化相互相関値を用いるようにしてもよい。   The difference feature quantity may be a least square distance between the artificial image and the original image or a normalized cross-correlation value.

また、前記人工画像生成手段は、前記分類された各小領域の構造物が正常であるときに該小領域毎に現れる固有の特徴を有する複数の固有画像を記憶する固有画像記憶手段を有すものであって、
前記人工画像を生成する小領域と前記複数の固有画像それぞれとの類似度に応じた重み付けをして、該複数の固有画像を加算することにより該小領域の人工画像を生成するものを用いることができる。
Further, the artificial image generating means has a unique image storage means for storing a plurality of unique images having unique features that appear for each small area when the classified structure of each small area is normal. And
Weighting is performed according to the degree of similarity between the small area for generating the artificial image and each of the plurality of unique images, and the artificial image of the small area is generated by adding the plurality of unique images. Can do.

「固有画像」としては、例えば、複数の異なる正常構造の画像をサンプルとして、統計的な手法を用いて、構造物が正常であるときに各小領域毎に現れる特徴を有する画像を取得して固有画像とすることができる。   As the “unique image”, for example, by using a plurality of images of different normal structures as samples and using a statistical method, an image having a characteristic that appears in each small region when the structure is normal is acquired. It can be a unique image.

さらに、前記固有画像記憶手段に記憶される固有画像が、被写体を撮影して得られた医用画像の前記構造物が正常な前記各小領域の画像に基づいて主成分分析して得た画像が望ましい。   Further, the unique image stored in the unique image storage means is an image obtained by performing principal component analysis based on an image of each small region where the structure of the medical image obtained by photographing a subject is normal. desirable.

前記医用画像は、前記被写体の胸部を撮影して得た胸部画像である場合には、
前記分類手段が、
前記胸部画像より肺野領域を認識する肺野認識手段と、
前記胸部画像より肋骨を認識する肋骨認識手段とを有し、
肺野領域内の位置と肋骨の重なりに応じて前記多数の小領域を分類するものが望ましい。
When the medical image is a chest image obtained by photographing the chest of the subject,
The classification means is
Lung field recognition means for recognizing a lung field region from the chest image;
Rib recognition means for recognizing the rib from the chest image,
It is desirable to classify the large number of small regions according to the position in the lung field region and the overlap of the ribs.

本発明によれば、人体等の被写体の所定の部位を撮影した医用画像から、細分化した多数の小領域を前記構造物から得られる解剖学的特徴が互いに類似する小領域毎に分類して、分類された小領域に対応する人工画像を生成することにより、各領域の特徴に応じた人工画像を生成することができるので、異常陰影の候補領域を検出した際、候補領域とその近傍領域における人工画像と原画像とを比較することにより候補領域がアーティファクトなどによるものでなく異常陰影である否かの判定を正確に行うことが可能になる。さらに、胸部全体ではなく指定された小領域のみの人工画像を生成するため効率的である。   According to the present invention, from a medical image obtained by photographing a predetermined part of a subject such as a human body, a large number of subdivided small regions are classified into small regions having similar anatomical features obtained from the structure. Since an artificial image corresponding to the characteristics of each area can be generated by generating an artificial image corresponding to the classified small area, when a candidate area for an abnormal shadow is detected, the candidate area and its neighboring area By comparing the artificial image and the original image in, it is possible to accurately determine whether or not the candidate area is an abnormal shadow rather than an artifact or the like. Furthermore, it is efficient because an artificial image of only a specified small area is generated instead of the entire chest.

最小自乗距離または正規化相互相関値などの人工画像と原画像間の差分に応じた差分特徴量を用いて判別することにより、人工画像と原画像間の差分を定量的に判別を行うことが可能になる。   The difference between the artificial image and the original image can be quantitatively determined by using a difference feature amount corresponding to the difference between the artificial image and the original image such as a least square distance or a normalized cross-correlation value. It becomes possible.

分類された各小領域の構造物が正常であるときに該小領域毎に現れる固有の特徴を有する複数の固有画像を予め記憶して、各小領域と前記複数の固有画像それぞれとの類似度に応じた重み付けで加算して人工画像を生成するようにすれば、特定の小領域に対応する正常構造の画像を人工的を正確に生成することが可能になる。   A plurality of unique images having unique features that appear in each small area when the structure of each classified small area is normal are stored in advance, and the similarity between each small area and each of the plurality of unique images If an artificial image is generated by weighting according to the above, an image of a normal structure corresponding to a specific small region can be generated artificially.

固有画像が、正常な前記各領域の画像に基づいて主成分分析して得た画像であれば、少ない画像を組み合わせて、様々な画像に対応した人工画像を生成することが可能である。   If the unique image is an image obtained by principal component analysis based on the normal image of each region, it is possible to generate artificial images corresponding to various images by combining a small number of images.

医用画像が胸部を撮影して得た胸部画像の場合には、肺野領域の認識と、肋骨の認識から肺野領域内の位置と肋骨の重なりに応じて小領域を分類するようにすれば、肺ガン等の異常陰影の判定を行う際の判定精度を向上させることが可能である。   If the medical image is a chest image obtained by photographing the chest, the small area is classified according to the overlap of the position in the lung field and the rib from the recognition of the lung field and the recognition of the rib. It is possible to improve the determination accuracy when determining abnormal shadows such as lung cancer.

本発明の画像判定装置について、図に基づいて説明する。図1に示すように、本発明の画像判定装置1は、医用画像Pに撮影された部位を細分化した多数の小領域を解剖学的特徴が互いに類似する小領域に分類する分類手段10と、医用画像より異常陰影の候補領域を検出する候補領域検出手段30と、検出された異常陰影の候補領域を含む小領域の構造物が正常な人工画像を生成する人工画像生成手段20と、検出された候補領域を含む小領域を注目領域として設定し、さらに、注目領域の近傍に存在する小領域を近傍領域として設定する領域設定手段40と、注目領域および近傍領域の人工画像を生成し、注目領域の人工画像と原画像との差と、近傍領域の人工画像と原画像との差とを比較して、候補領域が異常陰影であるか否かの判定を行う判定手段50を備える。   The image determination apparatus of the present invention will be described with reference to the drawings. As shown in FIG. 1, the image determination apparatus 1 of the present invention includes a classification unit 10 that classifies a large number of small areas obtained by subdividing a part imaged in a medical image P into small areas having similar anatomical features. A candidate area detecting means 30 for detecting a candidate area for an abnormal shadow from a medical image, an artificial image generating means 20 for generating a normal artificial image for a structure of a small area including the detected candidate area for the abnormal shadow, and detection. A small area including the candidate area is set as the attention area, and further, an area setting means 40 for setting the small area existing in the vicinity of the attention area as the vicinity area, and an artificial image of the attention area and the vicinity area are generated, A determination unit 50 is provided that compares the difference between the artificial image of the attention area and the original image and the difference between the artificial image of the neighboring area and the original image to determine whether the candidate area is an abnormal shadow.

人工画像生成手段20は、解剖学的特徴に応じて分類された各小領域の構造物が正常な構造であるときに現れる固有の特徴を有する固有画像を、分類された小領域毎に複数記憶する固有画像記憶手段21を備え、医用画像Pに撮影された部位を細分化した多数の小領域のうち指定された小領域の人工画像を、その小領域が分類された小領域に対応する固有画像を重み付け加算して人工画像を生成する。   The artificial image generating means 20 stores a plurality of unique images having unique features that appear when the structure of each small region classified according to anatomical features is a normal structure for each classified small region. A unique image storage means 21, and an artificial image of a designated small region among a number of small regions obtained by subdividing a part imaged in the medical image P is a unique image corresponding to the small region into which the small region is classified. An artificial image is generated by weighted addition of images.

例えば、医用画像Pが胸部を撮影した胸部画像の場合、肺野領域の位置や肋骨の重なり(具体的には、肋骨の重なりが1本であるか2本であるか)によって解剖学的に異なった特徴が現れる。また、肺ガンのような異常陰影は、肋骨上にあるか、肋骨以外のところにあるかによって、その見え方が異なってくる。そこで、本実施の形態では、以下、胸部画像に肺ガンのような異常陰影が現れた小領域の人工画像を生成する場合について具体的に説明する。   For example, in the case where the medical image P is a chest image obtained by photographing the chest, the position of the lung field and the overlap of the ribs (specifically, whether the overlap of the ribs is one or two) are anatomically determined. Different features appear. Also, the appearance of abnormal shadows such as lung cancer varies depending on whether they are on the ribs or other than the ribs. Therefore, in the present embodiment, a case where an artificial image of a small region in which an abnormal shadow such as lung cancer appears in a chest image will be specifically described below.

分類手段10は、肺野を認識する肺野認識手段11と、肋骨を認識する肋骨認識手段12とを備え、心胸郭の位置や肋骨の重なり具合などの解剖学的な特徴に応じて、解剖学的特長が類似する小領域に分類する。   The classification means 10 includes a lung field recognition means 11 for recognizing a lung field and a rib recognition means 12 for recognizing a rib, and according to anatomical features such as the position of a cardiothoracic cage and the degree of rib overlap. Classify into small areas with similar scientific features.

候補領域検出手段30は肺ガンのような異常陰影の候補領域を検出し、人工画像生成手段20は、候補領域検出手段30より異常陰影の候補領域が検出された場所の正常構造の人工画像を生成する。   The candidate area detection means 30 detects an abnormal shadow candidate area such as lung cancer, and the artificial image generation means 20 obtains an artificial image of a normal structure where the abnormal shadow candidate area is detected by the candidate area detection means 30. Generate.

さらに、判定手段50は、人口画像と原画像間の差分に応じた差分特徴量を算出する差分特徴量算出手段51を備え、人工画像生成手段20により注目領域と近傍領域が正常な構造物からなる人工画像を生成し、注目領域の人工画像と原画像との差分特徴量と近傍領域の人工画像と原画像との差分特徴量から、注目領域に含まれる候補領域が異常陰影であるか否かの判定を行う。   Further, the determination unit 50 includes a difference feature amount calculation unit 51 that calculates a difference feature amount according to the difference between the population image and the original image, and the artificial image generation unit 20 determines that the attention area and the neighboring area are normal structures. Whether or not the candidate area included in the attention area is an abnormal shadow based on the difference feature quantity between the artificial image of the attention area and the original image and the difference feature quantity of the artificial image and the original image of the neighboring area. Judgment is made.

以下、本実施の形態の画像判定装置1の処理の流れを、図2のフローチャートに基づいて説明を行う。   Hereinafter, the process flow of the image determination apparatus 1 of the present embodiment will be described based on the flowchart of FIG.

まず、画像判定装置1に被写体の胸部画像Pが入力されると(ステップ1)、分類手段10は、肺野認識手段11により胸部画像Pから心胸郭を検出して肺野領域の認識を行い(ステップ2)、さらに、肋骨認識手段12により肺野領域より肋骨認識を行う(ステップ3)。次に、候補領域検出手段30でガン化した部分の結節や腫瘤等の異常陰影を強調するような強調処理を行なって肺ガンのような異常陰影の候補領域を検出する(ステップ4)。そこで、領域設定手段40は、候補領域を含むような小領域を注目領域として設定し、さらに、その注目領域に隣接する8近傍の小領域を隣接領域として設定する(ステップ5)。分類手段10は、注目領域と隣接領域の肺野領域内の位置と、その各領域の位置での肋骨の重なり具合に応じて、注目領域と隣接領域を所定の画像タイプに分類する(ステップ6)。この分類された小領域に対応した人工画像を生成するために、人工画像生成手段20は、固有画像記憶手段21に記憶された複数の固有画像と候補領域との類似度を算出し、この類似度に応じて各固有画像を加算して各領域の人工画像を生成する(ステップ7)。さらに、判定手段50では、注目領域の人工画像と医用画像の原画像との差と、近傍領域の人工画像と医用画像の原画像との差とを比較して、両差の違いの有無によって、注目領域に含まれる候補領域が異常陰影であるか否かの判定を行う(ステップ8)。   First, when the subject's chest image P is input to the image determination apparatus 1 (step 1), the classification means 10 detects the cardiothoracic region from the chest image P by the lung field recognition means 11 to recognize the lung field region. (Step 2) Further, the rib recognition unit 12 performs rib recognition from the lung field region (Step 3). Next, the candidate area detection means 30 performs an enhancement process that emphasizes abnormal shadows such as nodules and tumors of the cancerous part to detect candidate areas of abnormal shadows such as lung cancer (step 4). Therefore, the region setting means 40 sets a small region including the candidate region as the attention region, and further sets eight neighboring small regions adjacent to the attention region as the adjacent region (step 5). The classifying means 10 classifies the attention area and the adjacent area into a predetermined image type according to the position of the attention area and the adjacent area in the lung field area and the degree of overlap of the ribs at the position of each area (step 6). ). In order to generate an artificial image corresponding to the classified small area, the artificial image generation means 20 calculates the similarity between the plurality of unique images stored in the unique image storage means 21 and the candidate area, and this similarity Each unique image is added according to the degree to generate an artificial image of each region (step 7). Further, the determination unit 50 compares the difference between the artificial image of the attention area and the original image of the medical image and the difference between the artificial image of the neighboring area and the original image of the medical image, and determines whether there is a difference between the two differences. Then, it is determined whether the candidate area included in the attention area is an abnormal shadow (step 8).

次に、上述の各ステップを以下詳細に説明する。   Next, the above steps will be described in detail below.

(1)肺野認識(ステップ2)
胸部画像に撮影された肺野領域を心胸郭を検出することにより認識する。まず、胸部画像からガボール関数等のエッジ検出マスクを用いて心胸郭のおおよその輪郭を抽出し、抽出した心胸郭の略中心となる位置を求め、その中心位置を基準に極座標変換する。極座標平面上で、基準となる平均的な心胸郭の輪郭と略相似形のテンプレートを用いてテンプレートマッチング処理を行なうことにより心胸郭の輪郭を自動検出する。検出した心胸郭の輪郭に囲まれた領域を肺野領域として認識し、得られた肺野領域を基準にして、図3に示すような肺尖部(2、7の部分)、辺縁部(3、8の部分)、縦隔部(4、9の部分)、横隔膜下部(5、10の部分)の各領域を抽出する(例えば、本出願人が出願の特開2003−6661号公報参照)。
(1) Lung field recognition (step 2)
The lung field region captured in the chest image is recognized by detecting the cardiothoracic cage. First, an approximate contour of the cardiothoracic cage is extracted from the chest image using an edge detection mask such as a Gabor function, a position that is the approximate center of the extracted cardiothoracic cage is obtained, and polar coordinates are converted based on the center position. On the polar coordinate plane, the contour of the cardiothoracic is automatically detected by performing a template matching process using a template that is substantially similar to the standard contour of the cardiothoracic. The region surrounded by the detected contour of the cardiothoracic region is recognized as a lung field region, and the lung apex (portions 2 and 7) and the edge as shown in FIG. 3 with reference to the obtained lung field region (Parts 3 and 8), mediastinal part (parts 4 and 9), and lower part of diaphragm (parts 5 and 10) are extracted (for example, Japanese Patent Application Laid-Open No. 2003-6661 filed by the present applicant). reference).

あるいは、米国特許6549646号公報において提案されている方法を用いて、肺尖部(2、7の部分)、辺縁部(3、8の部分)、縦隔部(4、9の部分)、横隔膜下部(5、10の部分)の各領域に分割して、辺縁部を抽出するようにしてもよい。   Alternatively, using the method proposed in US Pat. No. 6,549,646, the apex of the lungs (portions 2 and 7), the edge (portions 3 and 8), the mediastinum (portions 4 and 9), It may be divided into each region of the lower part of the diaphragm (5 and 10 parts) and the edge part may be extracted.

(2)肋骨認識(ステップ3)
肋骨認識は、例えば、胸部が撮影されたサンプル画像を教師データとして、異常陰影を含まない正常構造の構造物の統計学的なモデルを予め作成しておき、そのモデルから入力された胸部画像Pに対応する肋骨形状を人工的に生成して行う。
(2) Rib recognition (step 3)
For rib recognition, for example, a statistical model of a structure having a normal structure that does not include an abnormal shadow is created in advance using a sample image of the chest imaged as teacher data, and the chest image P input from the model is created. A rib shape corresponding to is artificially generated.

まず、多くの胸部画像から肋骨が明瞭に撮影されているサンプル画像としてN枚選択し、胸部画像を表示してマウス等のポインティングデバイスを用いて各画像の肋骨上の点を前肋骨と後肋骨とを合わせてランドマークをn点(例えば、400点)指定して教師データとして用いてモデルを予め作成する。   First, N images are selected as sample images in which the ribs are clearly captured from a number of chest images, the chest images are displayed, and a point on the ribs of each image is displayed using a pointing device such as a mouse. A model is created in advance by designating n points (for example, 400 points) of landmarks and using them as teacher data.

まず、N枚のサンプル画像の各々についてランドマークをn点指定した肋骨の形状X=(x1 ,y1 ,・・・,xi ,yi ,・・・,xn ,yn )と、N枚の肋骨の形状の平均から胸部肋骨の平均形状Xave=(xave1 ,yave1 ,・・・,xavei ,yavei ,・・・,xaven ,yaven )を求める(図4(a)参照。○は前肋骨を示し、△は後肋骨を示す)。N枚のサンプル画像の肋骨の形状Xとその平均形状Xaveとの差分ベクトルΔXj=Xj−Xave(j=1、・・・、N)を求め、N個の差分ベクトルΔXj(j=1、・・・、N)について主成分分析を行ない、第1主成分から第m主成分までの固有ベクトル(以下、主成分形状という)Ps(s=1、・・・、m)を求める。 First, for each of the N sample images, the rib shape X = (x 1, y 1,..., Xi, y i,..., X n, yn) with n landmarks designated and N rib images The average shape Xave = (x ave 1, y ave 1,..., X ave i, y ave i,..., X ave n, y ave n) is obtained from the average shape (FIG. 4 ( See a), ○ indicates the anterior rib, and Δ indicates the posterior rib). A difference vector ΔXj = Xj−Xave (j = 1,..., N) between the rib shape X and the average shape Xave of N sample images is obtained, and N difference vectors ΔXj (j = 1,. .., N) to perform a principal component analysis to obtain eigenvectors (hereinafter referred to as principal component shapes) Ps (s = 1,..., M) from the first principal component to the m-th principal component.

主成分分析を行うと図4(b)、(c)に示すように、第1主成分形状P1は肋骨を図4(b)の矢印の方向に拡げる成分として現れ、第2主成分形状P2は肋骨を図4(c)の矢印の方向に拡げる成分として現れる。肋骨の任意形状のモデルは平均形状Xaveと各主成分形状Ps(s=1、・・・、m)の線形和により次式のように近似することができ、形状係数bsを変えることにより、平均形状からワーピングして様々な肋骨形状を生成することができる。
When the principal component analysis is performed, as shown in FIGS. 4B and 4C, the first principal component shape P1 appears as a component that expands the rib in the direction of the arrow in FIG. 4B, and the second principal component shape P2 Appears as a component that expands the ribs in the direction of the arrow in FIG. The model of the arbitrary shape of the rib can be approximated by the linear sum of the average shape Xave and each principal component shape Ps (s = 1,..., M) as follows, and by changing the shape factor bs, Various rib shapes can be generated by warping from the average shape.

そこで、入力された胸部画像Pと一致する肋骨形状を人工的に生成するために、上記形状係数bsを求める。胸部画像Pから撮影されている肋骨の上の点を胸部画像Pからいくつか取得し、その肋骨の上の点の座標値を上式に代入して形状係数bsの解を求める(具体的には、例えば、形状係数bsと同じ数の点を代入することにより連立方程式の解として得られる)。肋骨の形状が明瞭に撮影されていない胸部画像Pであっても、求めた形状係数bsを上記の式に代入することにより肋骨の全体の形状を生成することができる。具体的には、胸部画像では後肋骨などはエッジ検出により抽出することが容易であるため、後肋骨のエッジ上の点を抽出して形状係数bsを求めることが可能である(本出願人が出願の特開2004‐41694号公報等参照)。   Therefore, in order to artificially generate a rib shape that matches the input chest image P, the shape factor bs is obtained. Several points on the ribs imaged from the chest image P are acquired from the chest image P, and the coordinates of the points on the ribs are substituted into the above equation to find the solution of the shape factor bs (specifically, Can be obtained as a solution of simultaneous equations by substituting the same number of points as the shape factor bs, for example). Even for a chest image P in which the shape of the rib is not clearly photographed, the entire shape of the rib can be generated by substituting the obtained shape factor bs into the above equation. Specifically, since it is easy to extract the posterior rib etc. by edge detection in the chest image, it is possible to extract the point on the edge of the posterior rib and obtain the shape factor bs (the applicant of the present invention). (See Japanese Patent Application Laid-Open No. 2004-41694, etc.).

あるいは、別の手法として、胸部画像から肋骨のエッジを抽出し、抽出された肋骨上の点をBスプラインなどで補間して肋骨形状を抽出する手法を用いてもよい。   Alternatively, as another method, a method may be used in which the edge of the rib is extracted from the chest image, and the extracted shape on the rib is interpolated by a B-spline or the like.

具体的には、図5に示すように、胸部画像から検出された肋骨のエッジの曲線上の複数の点P1、P2、P3、・・・を抽出し、これらの点を補間するBスプライン曲線P(t)を求める(図5及び図6参照)。n次のBスプライン曲線P(t)は、制御点Qi(i=1,2,・・・,n)とパラメータtで定義され下式のように表される。
Specifically, as shown in FIG. 5, a plurality of points P1, P2, P3,... On the rib edge curve detected from the chest image are extracted, and a B-spline curve for interpolating these points is extracted. P (t) is obtained (see FIGS. 5 and 6). The nth-order B-spline curve P (t) is defined by the control point Qi (i = 1, 2,..., n) and the parameter t, and is expressed by the following equation.

また、n=3の場合の3次のBスプライン曲線P(t)は、次のように表わすこともできる。
The cubic B-spline curve P (t) when n = 3 can also be expressed as follows.

そこで、式(2)においてt=0とすると、次式が導かれる。
Therefore, when t = 0 in the formula (2), the following formula is derived.

制御点は図6に示すように与えられ、第2の制御点Qと第3の制御点Qは、肋骨のエッジを表す曲線の始点と終点の接線t、t上に存在する。そこで、この関係と肋骨のエッジの曲線上の点Pの位置と上記(3)式の関係を満足するように制御点Q(i=1,2,3,・・・)を求め(詳細は、”MEDICAL IMAGING TECHNOLOGY Vol.20 No.6 November 2002,Page694-Page701”参照)、抽出したエッジ上の点をBスプライン曲線で補間して肋骨の形状を得るようにしてもよい。 Control points are given as shown in FIG. 6, the second control point Q 2 and the third control point Q 3 of the present on tangents t 1, t 2 of the start point and the end point of the curve representing the rib edge . Therefore, a control point Q i (i = 1, 2, 3,...) Is obtained so as to satisfy this relationship, the position of the point P i on the radius curve and the relationship of the above equation (3) ( For details, refer to “MEDICAL IMAGING TECHNOLOGY Vol.20 No.6 November 2002, Page 694-Page 701”), and the point on the extracted edge may be interpolated with a B-spline curve to obtain the rib shape.

(3)肺ガンの候補領域の検出(ステップ4)
候補領域検出手段30は、まず、胸部画像P上に表れる結節や腫瘤等の異常陰影候補を強調する強調処理を施し強調処理画像110を作成する。胸部画像P上に撮影された癌化した部分の結節や腫瘤等の異常陰影は、おおむね丸味をおびた輪郭を持ち、かつ、画像上では周囲に比べて画素値が大きく勾配ベクトルが集中する領域として観測される。このような異常陰影は、半球状で同じ濃度の画素が同心円状に広がる形状の円形凸領域として観測され、円形凸領域は、画素値(濃度値)の分布が周縁部から中心部に向かうにしたがって画素値が高く(濃度値が低く)なるという画素値の勾配が認められる。その勾配線は異常陰影の中心方向に向かって集中するもので、画素値の勾配を勾配ベクトルとして算出し、その勾配ベクトルの集中度から異常陰影を検出することができることができる。
(3) Detection of lung cancer candidate regions (step 4)
First, the candidate area detection means 30 creates an enhancement-processed image 110 by performing enhancement processing that emphasizes abnormal shadow candidates such as nodules and tumors that appear on the chest image P. Abnormal shadows such as nodules and tumors of cancerous parts taken on the chest image P have roughly rounded outlines, and on the image, the pixel values are larger than the surrounding areas and the gradient vectors are concentrated As observed. Such an abnormal shadow is observed as a circular convex region having a hemispherical shape in which pixels having the same density spread concentrically, and the circular convex region has a distribution of pixel values (density values) from the peripheral part toward the central part. Therefore, the gradient of the pixel value that the pixel value is high (the density value is low) is recognized. The gradient lines are concentrated toward the center direction of the abnormal shadow, and the gradient of the pixel value can be calculated as a gradient vector, and the abnormal shadow can be detected from the degree of concentration of the gradient vector.

勾配ベクトルの集中度は、具体的に、次のようにして求める。   Specifically, the concentration degree of the gradient vector is obtained as follows.

まず、勾配ベクトルは計算対象となる画像を構成する全ての画素について、下記式(4)に示す計算式に基づいて勾配ベクトルの向きφを求める。
First, as for the gradient vector, the orientation φ of the gradient vector is obtained based on the calculation formula shown in the following formula (4) for all pixels constituting the image to be calculated.

ここでf11 〜f55は、図7に示すように、その画素jを中心とした縦5画素×横5画素のマスクの外周上の画素に対応した画素値である。   Here, as shown in FIG. 7, f11 to f55 are pixel values corresponding to pixels on the outer periphery of a mask of 5 vertical pixels × 5 horizontal pixels centering on the pixel j.

そこで、対象となる画像を構成する全ての画素Pについて、勾配ベクトルの集中度Cを式(5)にしたがって算出する。
Therefore, the gradient degree C of the gradient vector is calculated according to the equation (5) for all the pixels P constituting the target image.

ここで、Nは注目画素を中心に半径lの円内に存在する画素の数、θj は、画素iとその円内の各画素jとを結ぶ直線と、その各画素jにおける上記式(4)で算出された勾配ベクトルとのなす角である(図8参照)。   Here, N is the number of pixels existing in a circle with a radius l around the pixel of interest, θj is a straight line connecting the pixel i and each pixel j in the circle, and the above equation (4) for each pixel j The angle formed with the gradient vector calculated in () (see FIG. 8).

上記式(2)で表される集中度Cが大きな値となるのは、各画素jの勾配ベクトルの向きが集中する画素で大きな値をとる。結節や腫瘤の陰影近傍の各画素jの勾配ベクトルは、その陰影のコントラストの大小に拘らず、その腫瘤陰影の略中心部に向くため、上記集中度Cが大きな値を採る画素は、異常陰影の中心部の画素である。   The reason why the degree of concentration C expressed by the above equation (2) is large is a large value in pixels where the gradient vectors of the respective pixels j are concentrated. The gradient vector of each pixel j in the vicinity of the shadow of the nodule or tumor is directed to the approximate center of the tumor shadow regardless of the contrast of the shadow, so that the pixel having the large concentration C is an abnormal shadow. This is the pixel at the center of.

また、このような集中度を評価するものの中には、異常陰影の大きさや形状に左右されない検出力を達成するために、フィルタの大きさと形状に工夫をしたものがあり、その一例として、適応リングフィルタ(Adaptive ring filter)が挙げられる。   In addition, among those that evaluate the degree of concentration, there is one that devised the size and shape of the filter in order to achieve detection power that is not affected by the size or shape of abnormal shadows. An example is a ring filter (Adaptive ring filter).

異常陰影は中心から周辺に向かって画素値が次第に大きくなるものだけではなく、肺がんに現われる結節等のように中央部分における画素値の変化が単調ではなくベクトル場が乱れて集中度が小さくなるケースもある。適応リングフィルタは、画素値が単調に変化するものだけでなく、中央部分における画素値が単調ではなくベクトル場が乱れて集中度が小さくなるケースにも適応できるものである。   Abnormal shadows are not only those in which the pixel value gradually increases from the center to the periphery, but the change in the pixel value in the central part is not monotonous, such as nodules appearing in lung cancer, and the vector field is disturbed and the degree of concentration decreases. There is also. The adaptive ring filter can be applied not only to the case where the pixel value changes monotonously but also to the case where the pixel value in the central portion is not monotonous and the vector field is disturbed to reduce the degree of concentration.

適応リングフィルタのマスク領域は図9に示すリング状領域で、内側半径は適応的に決定される。内円と外円の半径をそれぞれrとRとすると、その関係は式(6)のように表される。   The mask area of the adaptive ring filter is a ring-shaped area shown in FIG. 9, and the inner radius is determined adaptively. When the radius of the inner circle and the outer circle is r and R, respectively, the relationship is expressed as in Equation (6).

R=r+d (6)
ただし、dは定数である。
R = r + d (6)
However, d is a constant.

また、適応リングフィルタの出力は、
The output of the adaptive ring filter is

となり、適応リングフィルタの出力は、円形凸領域の中心付近で極大値をとる。例えば、原画像上に現れる図10(A)に示すような円形凸領域は、白い線上で図10(B)に示すような画素値を持ち、適応リングフィルタを施すと図10(C)に示すように原画像より高い画素値が中心部分に現れる。(詳細は、例えば、魏 軍、荻原 義裕、小畑 秀文、“がん陰影候補抽出のための勾配ベクトル集中フィルタ”、電子情報通信学会論文誌(D-II) Vol.J83-D-II No.1,pp.118-125,Jan.2000.参照)。 Thus, the output of the adaptive ring filter takes a local maximum value near the center of the circular convex region. For example, a circular convex region as shown in FIG. 10 (A) appearing on the original image has a pixel value as shown in FIG. 10 (B) on a white line, and when an adaptive ring filter is applied, FIG. 10 (C). As shown, a pixel value higher than that of the original image appears in the central portion. (For more information, see, for example, Sakaki, Yoshihiro Sugawara, Hidefumi Obata, “Gradient Vector Concentration Filter for Extracting Cancer Shadow Candidates”, IEICE Transactions (D-II) Vol.J83-D-II No. 1, pp. 118-125, Jan. 2000.).

そこで、この適応リングフィルタ処理を胸部画像Pに施して、結節や腫瘤が強調された強調処理画像110を作成する。図11では、l=20mm、d=4mmとした適応リングフィルタを用いて結節を強調した例を示す(以下、結節の検出について説明する)。図11(A)の原画像上に現れている結節(白い矢印)の部分が適応リングフィルタ処理を施すと図11(B)に示すように強調される。   Therefore, this adaptive ring filter processing is performed on the chest image P to create an enhanced processed image 110 in which nodules and tumors are enhanced. FIG. 11 shows an example in which a nodule is emphasized using an adaptive ring filter with l = 20 mm and d = 4 mm (hereinafter, nodule detection will be described). When the nodule (white arrow) portion appearing on the original image in FIG. 11A is subjected to the adaptive ring filter processing, it is emphasized as shown in FIG.

しかし、心胸郭の辺縁部では、肋骨等が重なり合って撮影されるため濃度勾配の集中度が乱れ、原画像の胸部画像Pを用いて強調処理を行っても円形凸領域がうまく強調されない。そこで、辺縁部においては、背景画像の影響を除去して強調処理を行う方がよい。   However, at the edge of the cardiothoracic region, the ribs and the like are photographed in an overlapping manner, so that the concentration gradient density is disturbed, and even if the enhancement process is performed using the chest image P of the original image, the circular convex region is not emphasized well. Therefore, it is better to remove the influence of the background image and perform the enhancement process at the edge.

具体的には、前述の胸郭の抽出方法を用いて得られた辺縁部(3、8の部分)に対して、原画像から背景画像を差し引いた差分画像120を作成し、差分画像120に対して強調処理を行うことにより、背景画像の影響を除去して結節を強調することができる。具体的には、例えば原画像をガウスフィルタでぼかした平滑化画像を原画像から差し引くことによって背景画像成分を除去することができる。   Specifically, a difference image 120 is created by subtracting the background image from the original image for the edge portions (portions 3 and 8) obtained using the above-described rib cage extraction method. By performing enhancement processing on the image, it is possible to remove the influence of the background image and enhance the nodule. Specifically, for example, the background image component can be removed by subtracting a smoothed image obtained by blurring the original image with a Gaussian filter from the original image.

図12は、適応リングフィルタを用いて強調処理画像110を作成したときの様子を示す。図12(A)は、原画像を用いて強調処理を施して強調処理画像110を作成したときの様子を示すが、背景画像の影響を受け結節がうまく強調されていない。一方、図12(B)は、辺縁部の原画像100から、ガウスフィルタでぼかした平滑化画像を差し引いた差分画像120に、適応リングフィルタを用いて強調処理を施して強調処理画像110を作成したときの様子を示すが、背景画像の影響を受けず結節が強調されている。   FIG. 12 shows a state when the enhanced image 110 is created using an adaptive ring filter. FIG. 12A shows a state where the enhancement processing image 110 is created by performing the enhancement processing using the original image, but the nodule is not emphasized well due to the influence of the background image. On the other hand, FIG. 12B shows an enhanced image 110 obtained by performing an enhancement process using an adaptive ring filter on the difference image 120 obtained by subtracting the smoothed image blurred by the Gaussian filter from the original image 100 at the edge. The appearance when created is shown, but the nodule is emphasized without being affected by the background image.

次に、強調処理画像110に閾値を低い値から高い値に徐々に変えて2値化処理を施して、複数の2値化画像130を作成する。2値化処理は、与えられた閾値以上の画素値を持つ画素を第1画素値(例えば、画素値を8ビットで表したときに255(白))に置き換え、閾値以下の画素の画素値を第2画素値(例えば、画素値を8ビットで表したときに0(黒))に置き換えて2値化画像130を作成する。2値化処理を行うと、2値化画像130上に構造物や結節や腫瘤等の高い画素値を持つ領域が第1画素値に置き換えられ、それ以外の領域が第2の画素値に置き換えられて第1画素値を持つ画素が連なった領域が島状の孤立領域として現れる。与えられた閾値が低いときには、2値化画像130上に現れる孤立領域には背景画像に現れる白い雲状の部分等を含んで抽出されるが、閾値が高くなるに従って、背景画像を含まない結節や腫瘤や構造物等の部分のみが孤立領域として抽出される。特に、適応リングフィルタを用いて強調された結節や腫瘤は、他の構造物と比較しても画素値が高く、高い閾値で2値化した2値化画像130上にも孤立領域として現われる。このことから、高い閾値で2値化した2値化画像130上に現れる孤立領域が異常陰影の可能性が高いものといえる。   Next, a binarization process is performed on the enhancement-processed image 110 by gradually changing the threshold value from a low value to a high value to create a plurality of binarized images 130. In the binarization processing, a pixel having a pixel value equal to or greater than a given threshold value is replaced with a first pixel value (for example, 255 (white) when the pixel value is represented by 8 bits), and the pixel value of the pixel equal to or smaller than the threshold value Is replaced with a second pixel value (for example, 0 (black) when the pixel value is expressed in 8 bits) to create a binary image 130. When binarization processing is performed, regions having high pixel values such as structures, nodules, and tumors on the binarized image 130 are replaced with the first pixel values, and the other regions are replaced with the second pixel values. The region where the pixels having the first pixel value are connected appears as an island-shaped isolated region. When the given threshold value is low, an isolated region appearing on the binarized image 130 is extracted including a white cloud-like portion appearing in the background image, but as the threshold value increases, nodules that do not include the background image are extracted. Only parts such as tumors and structures are extracted as isolated regions. In particular, a nodule or a tumor enhanced using an adaptive ring filter has a higher pixel value than other structures, and appears as an isolated region on the binarized image 130 binarized with a high threshold. From this, it can be said that the isolated region appearing on the binarized image 130 binarized with a high threshold has a high possibility of an abnormal shadow.

図13に、閾値を変えて2値化処理を行った一例を示す。図13(A)は、胸部画像Pの原画像に対して適応リングフィルタ処理を施して円形凸領域を強調した強調処理画像110である。この強調処理画像110は8ビットで量子化したもので、0〜255の階調を持つ。この強調処理画像110に対して100を閾値として2値化処理を施すと、図13(B)に示すような2値化画像130となり、白い孤立領域(第1の画素値に置き換えられた領域)が現れる。さらに、4刻みで閾値を変えていき39段階の2値化画像130を作成し、各2値化画像130から孤立領域を抽出する。図13(C)、(D)は、閾値、176、252で2値化した2値化画像130の例である。   FIG. 13 shows an example in which binarization processing is performed by changing the threshold value. FIG. 13A shows an enhancement processing image 110 in which an adaptive ring filter process is performed on the original image of the chest image P to emphasize a circular convex region. This enhanced image 110 is quantized with 8 bits and has a gradation of 0-255. When binarization processing is performed on the enhancement processing image 110 using 100 as a threshold value, a binarized image 130 as shown in FIG. ) Appears. Further, 39 levels of binarized images 130 are created by changing the threshold value in increments of 4, and an isolated region is extracted from each binarized image 130. FIGS. 13C and 13D are examples of a binarized image 130 binarized with threshold values 176 and 252.

結節は上述の孤立領域が円に近い形状で現れ面積が小さいという特徴がある。一方、背景画像が含まれて抽出された孤立領域や構造物が抽出された孤立領域は、円形度が低く、面積が大きいものが多い。そこで、2値化処理して得た複数の2値化画像130の各々から抽出した孤立領域のうち所定の値以下の円形度と所定値以下の大きさを持つものを結節の候補として抽出する。   A nodule has a feature that the above-mentioned isolated region appears in a shape close to a circle and has a small area. On the other hand, an isolated region extracted by including a background image or an isolated region from which a structure is extracted often has a low circularity and a large area. Therefore, an isolated region extracted from each of a plurality of binarized images 130 obtained by binarization processing is extracted as a nodule candidate having a circularity of a predetermined value or less and a size of a predetermined value or less. .

円形度cは、例えば、抽出された孤立領域の面積Sとその周長Lから以下のようにして求める。   The circularity c is obtained, for example, from the extracted area S of the isolated region and its circumference L as follows.

面積Sを持つ正円の半径Rは、
The radius R of a perfect circle with area S is

となり、面積Sを持つ正円の円周の長さL1は、
The circumferential length L1 of a perfect circle having an area S is

となる。そこで、円形度cを、正円のときは1になり正円から外れるほど0に近づくように求める。そこで、孤立領域の周長の長さLと孤立領域の面積Sから、
It becomes. Therefore, the circularity c is determined to be 1 when it is a perfect circle and to approach 0 as it deviates from the perfect circle. Therefore, from the peripheral length L of the isolated region and the area S of the isolated region,

として求める。 Asking.

あるいは、上記式(10)で求めた円形度を求めるのではなく、以下のようにして円形度を求めてもよい。図21に示めすように、孤立領域の重心を中心として半径Rの近似円Cirを描いたときに、孤立領域の面積Sと、孤立領域と近似円の重なり部分の面積Aから下式(11)のようにして、円形度cを求めるようにしてもよい。
Or you may obtain | require circularity as follows instead of calculating | requiring the circularity calculated | required by said Formula (10). As shown in FIG. 21, when an approximate circle Cir having a radius R is drawn around the center of gravity of the isolated region, the following equation (11) is obtained from the area S of the isolated region and the area A of the overlapping portion of the isolated region and the approximate circle. ), The circularity c may be obtained.

具体的には、胸部画像で結節の陰影を判定する場合は、各2値化画像130上に現れた孤立領域のうち、式(11)における円形度が0.7以上で、2.26mm<半径<4.94mmとなる孤立領域を結節の候補領域として抽出するのが適当である。   Specifically, when determining the shadow of the nodule in the chest image, the circularity in the expression (11) is 0.7 or more and 2.26 mm < It is appropriate to extract an isolated region having a radius <4.94 mm as a nodule candidate region.

また、適応リングフィルタで強調された結節は、図10に示すように、原画像上に現れる結節より中心部分に高い画素値が現れるため、閾値を変えても同じ位置に孤立領域として現れる場合が多い。そこで、閾値を段階的に変えて2値化画像130を作成した場合、結節の候補が同じ位置で拾い上げられる回数が多いものを結節の候補領域として検出する。   In addition, as shown in FIG. 10, the nodule emphasized by the adaptive ring filter has a higher pixel value in the central part than the nodule appearing on the original image, so that it may appear as an isolated region at the same position even if the threshold value is changed. Many. Therefore, when the binarized image 130 is created by changing the threshold value step by step, a nodule candidate area that is frequently picked up at the same position is detected as a nodule candidate region.

以上、結節の検出について説明したが、適応リングフィルタの大きさや2値化画像による判定方法を変えることにより、結節に限らず腫瘤についても検出を行うことが可能である。   Although the detection of the nodule has been described above, it is possible to detect not only the nodule but also the mass by changing the size of the adaptive ring filter and the determination method based on the binarized image.

(4)領域設定(ステップ5)
そこで、領域設定手段40は、図19にしめすように、前述の候補領域検出手段30で検出した異常陰影の候補領域を含むように小領域を設定し、この小領域を注目領域とし、その注目領域の近傍の小領域を近傍領域として設定する。異常陰影のうち結節などは通常30mm以下であるので、小領域を一辺が40mm程度の矩形とし、検出した候補領域を含むように小領域を設定して注目領域とする。その候補領域を含む注目領域M(以下、中心ROIという)に隣接する8近傍の隣接領域R1,R2,R3,R4,R5,R6,R7,R8(以下、隣接ROIという)を近傍領域として設定する。
(4) Region setting (step 5)
Accordingly, as shown in FIG. 19, the area setting means 40 sets a small area so as to include the abnormal shadow candidate area detected by the candidate area detection means 30 described above, and uses this small area as the attention area. A small region in the vicinity of the region is set as the neighborhood region. Since nodules and the like of abnormal shadows are usually 30 mm or less, the small area is a rectangle having a side of about 40 mm, and the small area is set to include the detected candidate area as the attention area. Eight neighboring regions R1, R2, R3, R4, R5, R6, R7, and R8 (hereinafter referred to as adjacent ROIs) adjacent to the attention region M (hereinafter referred to as the central ROI) including the candidate region are set as neighboring regions. To do.

(5)分類(ステップ6)
次に、解剖学的特徴に基づいて肺野領域を分類する方法について説明する。まず、分類手段10は、ステップ2の肺野認識により検出した心胸郭の輪郭を基準に図3に示す肺尖部(2、7の部分)、辺縁部(3、8の部分)、縦隔部(4、9の部分)、横隔膜下部(5、10の部分)のいずれの位置にあるかを区分けする。
(5) Classification (step 6)
Next, a method for classifying lung field regions based on anatomical features will be described. First, the classification means 10 uses the thoracic apex (portions 2 and 7), the edge (portions 3 and 8), the vertical portion shown in FIG. The position of the partition (portions 4 and 9) or the lower part of the diaphragm (portions 5 and 10) is divided.

まず、図14に示すように、左肺(あるいは、右肺)の心胸郭の外側の位置のX座標を0とし内側の位置のX座標を1となるようにX方向の座標値を正規化し、心胸郭の上部の位置のY座標を0とし下部の位置のY座標を1となるようにY方向の座標値を正規化する。   First, as shown in FIG. 14, the coordinate values in the X direction are normalized so that the X coordinate of the outer position of the left lung (or right lung) cardiothoracic cage is 0 and the X coordinate of the inner position is 1. The coordinate value in the Y direction is normalized so that the Y coordinate of the upper position of the cardiothoracic cage is 0 and the Y coordinate of the lower position is 1.

例えば、候補領域検出手段30により検出された肺ガンの候補領域の中心位置の座標を、胸部画像Pの左上を原点として表わしたときに、座標値が(x、y)のとき、肺ガンの候補領域の中心位置を通るY方向の直線が心胸郭と交わった2点のY座標がyup(最上部の点)とydown(最下部の点)の場合には、正規化したときのY座標値newyは、
newy=(y −yup)/(ydown −yup)
となる。同様に、肺ガンの候補領域の中心位置を通るX方向の直線が心胸郭と交わった2点のY座標がxup(最上部の点)とxdown(最下部の点)の場合には、正規化したときのY座標値newxは、
newx=(xout −x)/( xout −xin)
となる。ただし、心胸郭の縦隔部(4、9の部分)内では、常にx=1.0とする。
For example, when the coordinates of the center position of the lung cancer candidate region detected by the candidate region detection means 30 are expressed with the upper left of the chest image P as the origin, and the coordinate value is (x, y), the lung cancer If the Y coordinate of the two points where the straight line in the Y direction passing through the center of the candidate area intersects the cardiothoracic cage is yup (top point) and ydown (bottom point), the normalized Y coordinate The value newy is
newy = (y −yup) / (ydown −yup)
It becomes. Similarly, if the Y coordinate of the two points where the straight line in the X direction passing through the center of the lung cancer candidate region intersects the cardiothoracic cage is xup (top point) and xdown (bottom point), the normal Y coordinate value newx when
newx = (xout −x) / (xout −xin)
It becomes. However, x = 1.0 is always set in the mediastinal portion (portions 4 and 9) of the cardiothoracic cage.

この正規化された座標値に基づいて、図15に示すように11個に区分けする。
(1) 0≦newx<0.1,0≦newy<0.25
(2) 0.1≦newx<0.8,0≦newy<0.25
(3) 0.8≦newx<1.0,0≦newy<0.25
(4) 0≦newx<0.25,0.25≦newy<0.75
(5) 0.25≦newx<0.6,0.25≦newy<0.75
(6) 0.6≦newx<1.0,0.25≦newy<0.75
(7) 0≦newx<0.25,0.75≦newy<1.0
(8) 0.25≦newx<0.6,0.75≦newy<1.0
(9) 0.6≦newx<1.0,0.75≦newy<1.0
(10) newx=1.0
(11) newy=1.0
Based on the normalized coordinate values, the data is divided into 11 as shown in FIG.
(1) 0 ≦ newx <0.1, 0 ≦ newy <0.25
(2) 0.1 ≦ newx <0.8, 0 ≦ newy <0.25
(3) 0.8 ≦ newx <1.0, 0 ≦ newy <0.25
(4) 0 ≦ newx <0.25, 0.25 ≦ newy <0.75
(5) 0.25 ≦ newx <0.6, 0.25 ≦ newy <0.75
(6) 0.6 ≦ newx <1.0, 0.25 ≦ newy <0.75
(7) 0 ≦ newx <0.25, 0.75 ≦ newy <1.0
(8) 0.25 ≦ newx <0.6, 0.75 ≦ newy <1.0
(9) 0.6 ≦ newx <1.0, 0.75 ≦ newy <1.0
(10) newx = 1.0
(11) newy = 1.0

次に、肋骨認識により検出した肋骨の位置から、肋骨があるところかないところかや、肋骨の重なりの数を求めて、これを表す肋骨特徴量よって、(1)から(9)の領域に属する肺ガンの候補領域を含む小領域をさらに3つに分類する。小領域には、一部に肋骨が1本重なっている画像を含み、一部には肋骨がない部分を含むような場合があるので、肋骨の特徴量は小領域に含まれる肋骨の重なりを平均したものを用いて各画像タイプに分類する。
(a) 肋骨特徴量=0 ; 肋骨なし
(b) 0<肋骨特徴量≦1.0 ; 肋骨1本重なり
(c) 1.0<肋骨特徴量 ; 肋骨2本重なり
以上より、肺野領域は29(=9×3+2)通り画像タイプの小領域に分類される。
Next, from the position of the rib detected by rib recognition, the location where the rib is located or the number of overlapping ribs is calculated, and the rib features that represent this belong to the region (1) to (9) Small areas including candidate areas for lung cancer are further classified into three. Since the small area includes an image in which one rib overlaps in one part and includes a part in which there is no rib in some, the feature amount of the rib is the overlap of the rib included in the small area. The average is used to classify each image type.
(a) Rib feature = 0; No rib
(b) 0 <radius feature ≦ 1.0; one rib overlap
(c) 1.0 <rib feature amount; overlap of two ribs As described above, the lung field region is classified into 29 (= 9 × 3 + 2) image-type small regions.

(6)人工画像生成(ステップ7)
次に、人工画像生成手段20で分類された各小領域の人工画像を生成する方法について説明する。まず、分類された各小領域の構造物が正常な構造であるときに現れる固有の特徴を有する複数の固有画像を、主成分分析により生成する方法について説明する。固有画像は、上記の分類手段10に分類された各小領域の画像タイプ毎に生成する。例えば、上記の(4)に属する小領域で肋骨の特徴量が(b)(肋骨1本重なり)の場合(以下、カテゴリ4-1と記載する)を例に説明する。図16に示すように、異常陰影が撮影されていない正常な胸部画像からカテゴリ4-1に属する80画素×80画素の矩形の小領域を抽出してサンプル画像としてM枚(同図(a))選択して教師データとして用いる。図16では、肋骨が1本重なっているところを主に抽出しているがその周辺の領域を含んで主成分分析を行っている。
(6) Artificial image generation (step 7)
Next, a method for generating an artificial image of each small area classified by the artificial image generating means 20 will be described. First, a method of generating a plurality of unique images having unique features that appear when the classified structures of each small region have a normal structure will be described. The unique image is generated for each image type of each small area classified by the classification means 10 described above. For example, the case where the feature amount of the rib is (b) (one rib overlap) (hereinafter referred to as category 4-1) in the small region belonging to the above (4) will be described as an example. As shown in FIG. 16, a rectangular small area of 80 × 80 pixels belonging to category 4-1 is extracted from a normal chest image in which no abnormal shadow has been imaged, and M images are obtained as sample images (FIG. 16 (a)). ) Select to use as teacher data. In FIG. 16, a portion where one rib overlaps is mainly extracted, but the principal component analysis is performed including the surrounding area.

まず、M枚のサンプル画像(80画素×80画素)に含まれる6400画素の画素値を成分とする画像ベクトルQ=(q1,1,・・・,q1,80,q2,1,・・・,q2,80,・・・,qi,j,・・・,q80,1,・・・,q80,80)ついて(図17参照)主成分分析を行い、固有ベクトル(固有画像)を求める。図16に、サンプル画像を主成分分析して、上位9つの主成分ベクトルを求めて固有画像(80画素×80画素)Q1,Q2,・・・,Q9を取得した例を示す。得られた固有画像Q1,Q2,・・・,Q9はそれぞれ一次独立となり、固有画像Q1,Q2,・・・,Q9の線形和により人工画像を生成することができる。 First, an image vector Q = (q 1,1 ,..., Q 1,80 , q 2,1 ,, which includes 6400 pixel values included in M sample images (80 pixels × 80 pixels) as a component. ···, q 2,80, ···, q i, j, ···, q 80,1, ···, q 80,80) performed with and (see FIG. 17) principal component analysis, eigenvectors ( Eigenimage). FIG. 16 shows an example in which the principal images are analyzed for the sample images to obtain the top nine principal component vectors to obtain the unique images (80 pixels × 80 pixels) Q1, Q2,. The obtained unique images Q1, Q2,..., Q9 are linearly independent, and an artificial image can be generated by a linear sum of the unique images Q1, Q2,.

例えば、候補領域検出手段30により検出された肺ガンの候補領域がカテゴリ4-bに属する場合には、肺ガンの候補領域を含んだ80画素×80画素の小領域の画像Rを胸部画像Pより切り取り、画像Rと各固有画像Q1,Q2,・・・,Q9との相関値a1, a2,・・・, a9を取得する。これより、小領域の画像Rに対応する人工画像R-modelは、
R-model=a1×Q1+ a2×Q2+・・・+a9×Q9
より生成される。
For example, when the candidate region for lung cancer detected by the candidate region detection means 30 belongs to category 4-b, an image R of a small region of 80 pixels × 80 pixels including the candidate region for lung cancer is used as the chest image P. To obtain correlation values a1, a2,..., A9 between the image R and the respective unique images Q1, Q2,. From this, the artificial image R-model corresponding to the image R of the small area is
R-model = a1 x Q1 + a2 x Q2 + ... + a9 x Q9
Is generated.

ここでは、サンプル画像を主成分分析して人工画像を生成する場合について説明したが、肋骨認識で説明した手法と同様に、まず、サンプル画像の平均画像を求め、平均画像と各サンプル画像との差分画像を主成分分析して、平均画像をワープして人工画像を生成するようにしてもよい。   Here, the case where an artificial image is generated by performing principal component analysis on a sample image has been described. However, like the method described in rib recognition, first, an average image of the sample image is obtained, and the average image and each sample image are obtained. The difference image may be subjected to principal component analysis, and the average image may be warped to generate an artificial image.

図18(a)(カテゴリ4-1)に、カテゴリ4-1にガンが存在する画像に対応した正常構造の人工画像を生成した一例を示す。カテゴリ4-1にガンが存在する原画像から人工画像を差し引くとガンのところが黒く現れているようすがわかる。   FIG. 18A (category 4-1) shows an example in which an artificial image having a normal structure corresponding to an image in which cancer is present in category 4-1 is generated. If the artificial image is subtracted from the original image in which the cancer exists in category 4-1, it can be seen that the cancer appears black.

一方、図18(b)(カテゴリ4-1)には、ガンが存在しないカテゴリ4-1の画像に対応した人工画像を生成した一例を示す。カテゴリ4-1にガンが存在しないため、原画像から人工画像を差し引くと画像全体が一様な濃度を示す。   On the other hand, FIG. 18B (category 4-1) shows an example in which an artificial image corresponding to an image of category 4-1 where no cancer exists is generated. Since there is no cancer in category 4-1, when the artificial image is subtracted from the original image, the entire image shows a uniform density.

(8)判定方法(ステップ8)
しかし、上述の手法で原画像になるべく近くなるような人工画像を作成した場合であっても、肋骨のエッジなどは人工画像上に再現するのは難しいため、図18に示すように差分画像を作成して結節などのガンが現れている部位を強調しようとすると、差分画像にエッジ部分がアーティファクトとして現れ、それを結節などのガンとして判定する場合がある。また、撮影した被写体に依存して背景画像上に特徴のあるテクスチャが部分的に現れる場合などにも、そのテクスチャを結節などのガンとして判定する可能性がある。
(8) Determination method (step 8)
However, even when an artificial image that is as close as possible to the original image is created by the above-described method, it is difficult to reproduce the edges of the ribs on the artificial image. Therefore, as shown in FIG. If an attempt is made to emphasize a region where a cancer such as a nodule appears, an edge portion appears as an artifact in the difference image, and this may be determined as a cancer such as a nodule. In addition, when a characteristic texture partially appears on the background image depending on the photographed subject, the texture may be determined as a cancer such as a nodule.

しかし、結節のような異常陰影は広い範囲にわたって現れることはなく、小さな陰影が結節のある場所にのみ現れるが、アーティファクトや背景画像の特徴のあるテクスチャは広い範囲わたって同じような陰影が現れる。つまり、候補領域の存在する小領域のみでなくその周囲にも同じような陰影が現れるかによって、候補領域が異常陰影であるか否かを判定することができる。   However, an abnormal shadow such as a nodule does not appear over a wide range, and a small shadow appears only in a place where a nodule is present. However, a similar shadow appears over a wide range in the texture having a feature of an artifact or a background image. That is, whether or not the candidate area is an abnormal shadow can be determined based on whether a similar shadow appears not only in the small area where the candidate area exists but also in the surrounding area.

そこで、判定手段50は、領域設定手段40によって設定された中心ROIと隣接ROIに現れる陰影を比較することにより、中心ROI内の候補領域が、結節などの異常陰影であるか否かを判定する。   Therefore, the determination unit 50 determines whether the candidate region in the center ROI is an abnormal shadow such as a nodule by comparing the center ROI set by the region setting unit 40 and the shadow appearing in the adjacent ROI. .

まず、分類手段10により中心ROIと隣接ROI各々を、対応する画像タイプに分類し、各ROIが分類された画像タイプに応じて、前述の人工画像生成手段20を用いて、中心ROIと隣接ROIに対応する人工画像を生成する。   First, each of the central ROI and the adjacent ROI is classified into a corresponding image type by the classifying means 10, and the central ROI and the adjacent ROI are used by using the above-described artificial image generating means 20 according to the image type into which each ROI is classified. An artificial image corresponding to is generated.

中心ROI内の候補陰影が結節である場合には、周囲の8近傍の隣接ROIには同じような結節が表れる可能性は少ない。一方、候補陰影がアーティファクトの場合には、周囲の8近傍のROIにも同じようなアーティファクトが現れている可能性が高い。つまり、候補陰影が結節である場合には、中心ROIの原画像とその人口画像との差分をとると、その差分画像上に図18(a)に示すような結節の陰影が現れるが、周囲の8近傍の隣接ROIの原画像とその人口画像間で差分を取った差分画像は平坦な画像になる。一方、候補陰影がアーティファクトの場合には中心ROIにも8近傍の隣接ROIにも同じような陰影が連続して現れる。   When the candidate shadow in the central ROI is a nodule, there is little possibility that a similar nodule appears in the neighboring ROIs in the vicinity of the surrounding eight. On the other hand, when the candidate shadow is an artifact, there is a high possibility that similar artifacts appear in the surrounding ROIs in the vicinity. That is, when the candidate shadow is a nodule, when the difference between the original image of the central ROI and its population image is taken, the nodule shadow as shown in FIG. 18 (a) appears on the difference image. The difference image obtained by subtracting the difference between the original image of the neighboring ROIs in the vicinity of 8 and the population image is a flat image. On the other hand, when the candidate shadow is an artifact, similar shadows appear continuously in the central ROI and the neighboring ROIs in the vicinity of eight.

従って、中心ROIの候補領域が異常陰影であれば、中心ROIの原画像とその人口画像間の差と、周囲の隣接ROIの原画像とその人口画像間の差を比較すると、中心ROIの差が隣接ROIに比べるとかなり大きくなる。   Therefore, if the candidate region of the central ROI is an abnormal shadow, the difference between the central ROI original image and its artificial image and the difference between the original image of the neighboring neighboring ROI and the artificial image are compared. Is considerably larger than the adjacent ROI.

そこで、判定手段50は、差分特徴量算出手段51を用いて、生成した各ROIの人工画像と原画像との差分特徴量を算出して、中心ROIの候補領域が異常陰影であるか否かの判定を行う。差分特徴量は差分画像上の画像がアーティファクトなどによるものであるか否かを判定する指標となるものであればよく、具体的には、最小自乗距離や正規化相互相関などを用いることが出来る。   Therefore, the determination unit 50 uses the difference feature amount calculation unit 51 to calculate the difference feature amount between the generated artificial image of each ROI and the original image, and whether or not the candidate region of the central ROI is an abnormal shadow. Judgment is made. The difference feature amount only needs to be an index for determining whether the image on the difference image is due to an artifact or the like. Specifically, the least square distance, the normalized cross-correlation, or the like can be used. .

例えば、中心ROIの原画像と人工画像の最小自乗距離と、隣接ROIの原画像と人工画像の最小自乗距離を比較すると、中心ROIに結節のようなガンによる異常陰影が存在する場合には、図20に示すように、中心ROIの最小自乗距離が隣接ROIの最小自乗距離に比べて相対的に大きくなる(原画像と人工画像の正規化相互相関は小さくなる)。一方、中心ROIに結節のようなガンによる異常陰影が存在しない場合には、中心ROIの最小自乗距離は他の最小自乗距離と同程度になる。   For example, when comparing the minimum square distance of the original image of the central ROI and the artificial image, and the minimum square distance of the original image of the adjacent ROI and the artificial image, if there is an abnormal shadow due to cancer such as a nodule in the central ROI, As shown in FIG. 20, the least square distance of the center ROI is relatively larger than the least square distance of the adjacent ROI (the normalized cross-correlation between the original image and the artificial image is small). On the other hand, when there is no abnormal shadow due to cancer such as a nodule in the center ROI, the least square distance of the center ROI is approximately the same as other least square distances.

具体的な判定方法として、
・ 8近傍の隣接ROIの差分特徴量の平均と、中心ROIの差分特徴量との差の違い
・ 8近傍の隣接ROIの差分特徴量の分散と、中心ROIの差分特徴量との比較
・ 8近傍の隣接ROIの差分特徴量と中心ROIの差分特徴量との差の総和
などを用いることができる。
As a specific judgment method,
・ Difference between the difference feature amount of the neighboring ROIs in the vicinity of 8 and the difference feature amount of the central ROI ・ Comparison of the difference feature amount of the neighboring ROIs in the vicinity of 8 and the difference feature amount of the central ROI ・ 8 The sum total of the difference between the difference feature quantity of the neighboring ROI in the vicinity and the difference feature quantity of the center ROI can be used.

あるいは、最小自乗距離や正規化相互相関を特徴量の1つとして用いて、他の特徴量と組み合わせてSVM(support vector machine)やマハラノビス距離やニューラルネットワークなどの判別器(具体例として、本出願人が出願の特開平9-167238号公報、特開2002-74325号公報などを参照)により、異常陰影であるか否かの判別を行うようにしてもよい。   Or, using the least square distance or normalized cross-correlation as one of the feature quantities, and combining with other feature quantities, discriminators such as SVM (support vector machine), Mahalanobis distance, and neural network It is also possible for a person to determine whether or not it is an abnormal shadow according to Japanese Patent Application Laid-Open Nos. 9-167238 and 2002-74325.

上述では、注目領域の近傍にある近傍領域を中心ROIと重ならないように設定した隣接ROIとして説明したが、近傍領域が注目領域と部分的に重なるように設定してもよい。   In the above description, the neighboring area in the vicinity of the attention area has been described as the adjacent ROI set so as not to overlap the central ROI. However, the neighboring area may be set so as to partially overlap the attention area.

以上、胸部画像について説明したが、乳房画像においても胸筋領域、乳腺領域、脂肪領域などに区分けして(例えば、本出願人出願の特開2003-334183公報参照)、人工画像を生成して、異常陰影の判定を行ってもよい。   As described above, the chest image has been described. The breast image is also divided into a pectoral muscle region, a mammary gland region, a fat region, and the like (see, for example, Japanese Patent Application Laid-Open No. 2003-334183 of the present applicant) to generate an artificial image. Alternatively, abnormal shadows may be determined.

また、上述では、30mm以下の結節を検出する場合について説明したが、小領域の大きさを適宜変えることによって、腫瘤のような30mm以上の陰影を検出するようにしてもよい。   In the above description, the case of detecting a nodule of 30 mm or less has been described, but a shadow of 30 mm or more such as a tumor may be detected by appropriately changing the size of the small region.

また、上述の処理をコンピュータ上で実行するプログラムをCD−ROMやネットワークを介してパソコン等のコンピュータにインストールしたものを画像判定装置とすることができる。   Further, an image determination apparatus can be obtained by installing a program for executing the above-described processing on a computer on a computer such as a personal computer via a CD-ROM or a network.

以上詳細に説明したように、解剖学的特徴を有する構造物を含む医用画像を細分化し、各小領域を分類して分類された小領域毎にベースとなる固有画像を生成して、固有画像から人工画像を生成するため、その小領域にあった特長が現れた画像を生成することができ人工画像の精度を上げることが可能である。また、部分的な画像を生成するため、全体の画像を生成するより効率的に画像を生成することが可能になる。   As described above in detail, a medical image including a structure having anatomical features is subdivided, each small region is classified and a unique image serving as a base is generated for each classified small region, and the unique image is generated. Since an artificial image is generated from the image, an image in which features corresponding to the small area appear can be generated, and the accuracy of the artificial image can be improved. Further, since the partial image is generated, it is possible to generate the image more efficiently than the generation of the entire image.

さらに、異常陰影の候補領域を検出した際、検出した候補領域を含む小領域とその近傍の近傍領域における人口画像と原画像の差から検出した候補領域が異常陰影であるか否かの判定を行うようにすれば、アーティファクトなどによる誤検出を少なくすることができる。   Further, when a candidate area for an abnormal shadow is detected, it is determined whether the candidate area detected from the difference between the population image and the original image in the small area including the detected candidate area and the neighboring area in the vicinity is an abnormal shadow. By doing so, it is possible to reduce erroneous detection due to artifacts and the like.

本発明の画像判定装置の概略構成を示す図The figure which shows schematic structure of the image determination apparatus of this invention 本発明の画像判定装置の処理の流れを説明するためのフローチャートThe flowchart for demonstrating the flow of a process of the image determination apparatus of this invention. 肺野領域の分割結果の一例An example of lung field segmentation results 主成分分析により肋骨認識をする手法を説明するための図Diagram for explaining the method of rib recognition by principal component analysis 肋骨の形状をBスプライン曲線を用いて抽出する手法を説明するための図The figure for demonstrating the method of extracting the shape of a rib using a B-spline curve Bスプライン曲線の制御点を説明するための図Diagram for explaining control points of B-spline curve 勾配を説明するための図Illustration for explaining the gradient 集中度の算出を説明する方法を説明するための図Diagram for explaining the method for explaining concentration calculation 適応リングフィルタの算出を算出する方法を説明するための図The figure for demonstrating the method of calculating calculation of an adaptive ring filter 適応リングフィルタで出力した画素値を説明するための図The figure for demonstrating the pixel value output with the adaptive ring filter 適応リングフィルタの出力画像の一例Example of output image of adaptive ring filter 差分画像を用いた適応リングフィルタの出力結果を説明するための図The figure for demonstrating the output result of the adaptive ring filter using a difference image 閾値を変えたときの2値化画像の変化の様子を表す図The figure showing the mode of change of the binarized image when changing the threshold 肺野領域の正規化する方法を説明するための図Diagram for explaining how to normalize lung field 正規化された位置に基づく分類を説明するための図Diagram for explaining classification based on normalized position 主成分分析した一例を表す図Diagram showing an example of principal component analysis サンプル画像に含まれる画素の成分を説明するための図The figure for demonstrating the component of the pixel contained in a sample image 人工画像を生成した例を示す図The figure which shows the example which generated the artificial image 注目領域と近傍の隣接領域の一例An example of a region of interest and a neighboring region nearby 人工画像と原画像の最小自乗距離の一例An example of the least square distance between an artificial image and an original image 円形度の求め方を説明するための図Diagram for explaining how to determine circularity

符号の説明Explanation of symbols

1 画像判定装置
10 分類手段
11 肺野認識手段
12 肋骨認識手段
20 人工画像生成手段
21 固有画像記憶手段
30 候補領域検出手段
40 領域設定手段
50 判定手段
51 差分特徴量算出手段
P 医用画像
1 Image determination device
10 Classification means
11 Lung field recognition means
12 rib recognition means
20 Artificial image generation means
21 Unique image storage means
30 Candidate area detection means
40 Area setting method
50 Judgment means
51 Difference feature quantity calculation means P Medical image

Claims (8)

被写体の所定の部位を撮影して得られた解剖学的特徴を有する構造物を含む医用画像において、該医用画像を細分化した多数の小領域を前記構造物から得られる解剖学的特徴が互いに類似する小領域毎に分類する分類手段と、
前記分類された小領域のうち少なくとも1つの小領域について、前記分類手段の分類結果に応じて前記構造物が正常な小領域の人工画像を生成する人工画像生成手段と、
前記医用画像から異常陰影の候補領域を検出する候補領域検出手段と、
該候補領域検出手段により検出された前記候補領域の少なくとも一部を含む小領域を注目領域として設定し、さらに、該注目領域の近傍に存在する小領域を近傍領域として設定する領域設定手段と、
前記分類手段により前記注目領域および前記近傍領域を分類し、分類された該各領域について前記人工画像生成手段により該両領域が正常な人工画像を生成し、該注目領域の人工画像と該注目領域の原画像との差と、前記近傍領域の人工画像と該近傍領域の原画像との差とを比較して、両差の違いの有無によって、前記注目領域に含まれる前記候補領域が異常陰影であるか否かの判定を行う判定手段とを備えることを特徴とする画像判定装置。
In a medical image including a structure having an anatomical feature obtained by imaging a predetermined part of a subject, an anatomical feature obtained from a plurality of small regions obtained by subdividing the medical image is obtained from the structure. Classification means for classifying each similar small area,
Artificial image generation means for generating an artificial image of a normal small area of the structure according to a classification result of the classification means for at least one of the classified small areas;
Candidate area detecting means for detecting a candidate area of an abnormal shadow from the medical image;
A region setting unit that sets a small region including at least a part of the candidate region detected by the candidate region detection unit as a region of interest, and further sets a small region existing in the vicinity of the region of interest as a neighborhood region;
The attention unit and the neighboring region are classified by the classification unit, and the artificial image generation unit generates a normal artificial image for each of the classified regions, and the artificial image of the attention region and the attention region And the difference between the artificial image of the neighboring area and the original image of the neighboring area is compared, and the candidate area included in the attention area is abnormally shaded depending on the difference between the two differences. An image determination apparatus comprising: determination means for determining whether or not
前記判定手段が、前記注目領域の人工画像と該注目領域の原画像間の差分に応じた差分特徴量と、前記近傍領域の人口画像と該近傍領域の原画像間の差分に応じた差分特徴量を算出する差分特徴量算出手段を有するものであり、
該差分特徴量算出手段により算出した前記注目領域の差分特徴量と前記近傍領域の差分特徴量を比較して、両特徴量の違いの有無によって前記注目領域に含まれる前記候補領域が異常陰影であるか否かの判定を行うことを特徴とする請求項1記載の画像判定装置。
The determination means includes a difference feature amount according to a difference between the artificial image of the attention area and the original image of the attention area, and a difference feature according to a difference between the population image of the vicinity area and the original image of the vicinity area. A difference feature amount calculating means for calculating the amount,
The difference feature quantity of the attention area calculated by the difference feature quantity calculation means is compared with the difference feature quantity of the neighboring area, and the candidate area included in the attention area is an abnormal shadow depending on whether there is a difference between the two feature quantities. The image determination apparatus according to claim 1, wherein it is determined whether or not there is an image.
前記差分特徴量は、前記人工画像と前記原画像との最小自乗距離または正規化相互相関値であることを特徴とする請求項2記載の画像判定装置。   The image determination apparatus according to claim 2, wherein the difference feature amount is a least square distance or a normalized cross-correlation value between the artificial image and the original image. 前記人工画像生成手段が、
前記分類された各小領域の構造物が正常であるときに該小領域毎に現れる固有の特徴を有する複数の固有画像を記憶する固有画像記憶手段を有し、
前記人工画像を生成する小領域と前記複数の固有画像それぞれとの類似度に応じた重み付けをして、該複数の固有画像を加算することにより該小領域の人工画像を生成するものであることを特徴とする請求項1から3いずれか記載の画像判定装置。
The artificial image generating means is
A unique image storage means for storing a plurality of unique images having unique features that appear in each small region when the structure of each classified small region is normal;
Weighting is performed according to the degree of similarity between the small area for generating the artificial image and each of the plurality of unique images, and the artificial image of the small area is generated by adding the plurality of unique images. The image determination apparatus according to any one of claims 1 to 3.
前記固有画像記憶手段に記憶される固有画像が、被写体を撮影して得られた医用画像の前記構造物が正常な前記各小領域の画像に基づいて主成分分析して得た画像であることを特徴とする請求項4記載の画像判定装置。   The unique image stored in the unique image storage means is an image obtained by principal component analysis of the structure of the medical image obtained by photographing the subject based on the normal image of each small region. The image determination apparatus according to claim 4. 前記医用画像が、前記被写体の胸部を撮影して得た胸部画像であり、
前記分類手段が、
前記胸部画像より肺野領域を認識する肺野認識手段と、
前記胸部画像より肋骨を認識する肋骨認識手段とを有し、
肺野領域内の位置と肋骨の重なりに応じて前記多数の小領域を分類するものであることを特徴とする請求項1から5いずれか記載の画像判定装置。
The medical image is a chest image obtained by photographing the chest of the subject,
The classification means is
Lung field recognition means for recognizing a lung field region from the chest image;
Rib recognition means for recognizing the rib from the chest image,
6. The image determination apparatus according to claim 1, wherein the plurality of small regions are classified according to an overlap between a position in the lung field region and a rib.
被写体の所定の部位を撮影して得られた解剖学的特徴を有する構造物を含む医用画像において、該医用画像を細分化した多数の小領域を前記構造物から得られる解剖学的特徴が互いに類似する小領域毎に分類する分類手段と、
前記分類された小領域のうち少なくとも1つの小領域について、前記分類手段の分類結果に応じて前記構造物が正常な小領域の人工画像を生成する人工画像生成手段とを備えた画像判定装置において、
前記医用画像から異常陰影の候補領域を検出する候補領域検出ステップと、
該候補領域検出ステップにより検出された前記候補領域の少なくとも一部を含む小領域を注目領域として設定し、さらに、該注目領域の近傍に存在する小領域を近傍領域として設定する領域設定ステップと、
前記分類手段により前記注目領域および前記近傍領域を分類し、分類された該各領域について前記人工画像生成手段により該両領域が正常な人工画像を生成し、該注目領域の人工画像と該注目領域の原画像との差と、前記近傍領域の人工画像と該近傍領域の原画像との差とを比較して、両差の違いの有無によって、前記注目領域に含まれる前記候補領域が異常陰影であるか否かの判定を行う判定ステップとを備えることを特徴とする画像判定方法。
In a medical image including a structure having an anatomical feature obtained by imaging a predetermined part of a subject, an anatomical feature obtained from a plurality of small regions obtained by subdividing the medical image is obtained from the structure. Classification means for classifying each similar small area,
In an image determination apparatus comprising: an artificial image generation unit that generates an artificial image of a normal small region of the structure according to a classification result of the classification unit for at least one small region of the classified small regions ,
A candidate area detecting step of detecting a candidate area of an abnormal shadow from the medical image;
An area setting step for setting a small area including at least a part of the candidate area detected by the candidate area detection step as an attention area, and further setting a small area in the vicinity of the attention area as a vicinity area;
The attention unit and the neighboring region are classified by the classification unit, and the artificial image generation unit generates a normal artificial image for each of the classified regions, and the artificial image of the attention region and the attention region And the difference between the artificial image of the neighboring area and the original image of the neighboring area is compared, and the candidate area included in the attention area is abnormally shaded depending on the difference between the two differences. And a determination step for determining whether or not the image is determined.
コンピュータを、
被写体の所定の部位を撮影して得られた解剖学的特徴を有する構造物を含む医用画像において、該医用画像を細分化した多数の小領域を前記構造物から得られる解剖学的特徴が互いに類似する小領域毎に分類する分類手段と、
前記分類された小領域のうち少なくとも1つの小領域について、前記分類手段の分類結果に応じて前記構造物が正常な小領域の人工画像を生成する人工画像生成手段と、
前記医用画像から異常陰影の候補領域を検出する候補領域検出手段と、
該候補領域検出手段により検出された前記候補領域の少なくとも一部を含む小領域を注目領域として設定し、さらに、該注目領域の近傍に存在する小領域を近傍領域として設定する領域設定手段と、
前記分類手段により前記注目領域および前記近傍領域を分類し、分類された該各領域について前記人工画像生成手段により該両領域が正常な人工画像を生成し、該注目領域の人工画像と該注目領域の原画像との差と、前記近傍領域の人工画像と該近傍領域の原画像との差とを比較して、両差の違いの有無によって、前記注目領域に含まれる前記候補領域が異常陰影であるか否かの判定を行う判定手段として機能させるプログラム。
Computer
In a medical image including a structure having an anatomical feature obtained by imaging a predetermined part of a subject, an anatomical feature obtained from a plurality of small regions obtained by subdividing the medical image is obtained from the structure. Classification means for classifying each similar small area,
Artificial image generation means for generating an artificial image of a normal small area of the structure according to a classification result of the classification means for at least one of the classified small areas;
Candidate area detecting means for detecting a candidate area of an abnormal shadow from the medical image;
A region setting unit that sets a small region including at least a part of the candidate region detected by the candidate region detection unit as a region of interest, and further sets a small region existing in the vicinity of the region of interest as a neighborhood region;
The attention unit and the neighboring region are classified by the classification unit, and the artificial image generation unit generates a normal artificial image for each of the classified regions, and the artificial image of the attention region and the attention region And the difference between the artificial image of the neighboring area and the original image of the neighboring area is compared, and the candidate area included in the attention area is abnormally shaded depending on the difference between the two differences. A program that functions as a determination unit that determines whether or not
JP2005153801A 2005-05-26 2005-05-26 Image determination device, image determination method, and program therefor Withdrawn JP2006325937A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005153801A JP2006325937A (en) 2005-05-26 2005-05-26 Image determination device, image determination method, and program therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005153801A JP2006325937A (en) 2005-05-26 2005-05-26 Image determination device, image determination method, and program therefor

Publications (1)

Publication Number Publication Date
JP2006325937A true JP2006325937A (en) 2006-12-07

Family

ID=37548276

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005153801A Withdrawn JP2006325937A (en) 2005-05-26 2005-05-26 Image determination device, image determination method, and program therefor

Country Status (1)

Country Link
JP (1) JP2006325937A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008229161A (en) * 2007-03-22 2008-10-02 Fujifilm Corp Image component separating apparatus, method and program and normal image generating apparatus, method and program
JP2008232787A (en) * 2007-03-20 2008-10-02 Shimadzu Corp Defect inspection device
JP2010517030A (en) * 2007-01-30 2010-05-20 ジーイー・ヘルスケア・リミテッド Tools to help diagnose neurodegenerative diseases
WO2010079700A1 (en) * 2009-01-06 2010-07-15 Takumi Vision株式会社 Image processing method and computer program
JP2012213518A (en) * 2011-03-31 2012-11-08 Olympus Corp Image processing apparatus, image processing method, and image processing program
JP2012530553A (en) * 2009-06-19 2012-12-06 エッダ・テクノロジー・インク Computer-aided lung nodule detection system for chest tomosynthesis imaging
WO2013076927A1 (en) * 2011-11-24 2013-05-30 パナソニック株式会社 Diagnosis assistance apparatus and diagnosis assistance method
JP2014113364A (en) * 2012-12-11 2014-06-26 Panasonic Corp Diagnosis support apparatus, and diagnosis support method
CN106132291A (en) * 2014-03-21 2016-11-16 珀迪迈垂克斯公司 The method and apparatus of monitoring foot inflammation
JP2017023551A (en) * 2015-07-24 2017-02-02 富士通株式会社 Image processing program, image processing device, and image processing method
WO2019146538A1 (en) * 2018-01-29 2019-08-01 日本電気株式会社 Image processing device, image processing method, and recording medium
WO2019159853A1 (en) * 2018-02-13 2019-08-22 日本電気株式会社 Image processing device, image processing method, and recording medium

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010517030A (en) * 2007-01-30 2010-05-20 ジーイー・ヘルスケア・リミテッド Tools to help diagnose neurodegenerative diseases
JP2008232787A (en) * 2007-03-20 2008-10-02 Shimadzu Corp Defect inspection device
JP2008229161A (en) * 2007-03-22 2008-10-02 Fujifilm Corp Image component separating apparatus, method and program and normal image generating apparatus, method and program
WO2010079700A1 (en) * 2009-01-06 2010-07-15 Takumi Vision株式会社 Image processing method and computer program
JP2010158317A (en) * 2009-01-06 2010-07-22 Rohm Co Ltd Image processing method and computer program
US8913843B2 (en) 2009-01-06 2014-12-16 Takumi Vision Co., Ltd. Image processing method and computer program
US8837789B2 (en) 2009-06-19 2014-09-16 Edda Technology, Inc. Systems, methods, apparatuses, and computer program products for computer aided lung nodule detection in chest tomosynthesis images
JP2012530553A (en) * 2009-06-19 2012-12-06 エッダ・テクノロジー・インク Computer-aided lung nodule detection system for chest tomosynthesis imaging
JP2012213518A (en) * 2011-03-31 2012-11-08 Olympus Corp Image processing apparatus, image processing method, and image processing program
JP5607839B2 (en) * 2011-11-24 2014-10-15 パナソニック株式会社 Diagnosis support apparatus and diagnosis support method
WO2013076927A1 (en) * 2011-11-24 2013-05-30 パナソニック株式会社 Diagnosis assistance apparatus and diagnosis assistance method
US9330455B2 (en) 2011-11-24 2016-05-03 Panasonic Intellectual Property Management Co., Ltd. Diagnostic support apparatus and diagnostic support method
JP2014113364A (en) * 2012-12-11 2014-06-26 Panasonic Corp Diagnosis support apparatus, and diagnosis support method
CN106132291A (en) * 2014-03-21 2016-11-16 珀迪迈垂克斯公司 The method and apparatus of monitoring foot inflammation
JP2017023551A (en) * 2015-07-24 2017-02-02 富士通株式会社 Image processing program, image processing device, and image processing method
WO2019146538A1 (en) * 2018-01-29 2019-08-01 日本電気株式会社 Image processing device, image processing method, and recording medium
CN111656398A (en) * 2018-01-29 2020-09-11 日本电气株式会社 Image processing apparatus, image processing method, and recording medium
JPWO2019146538A1 (en) * 2018-01-29 2021-01-07 日本電気株式会社 Image processing equipment, image processing methods and programs
US11386538B2 (en) 2018-01-29 2022-07-12 Nec Corporation Image processing apparatus, image processing method, and storage medium
WO2019159853A1 (en) * 2018-02-13 2019-08-22 日本電気株式会社 Image processing device, image processing method, and recording medium
JPWO2019159853A1 (en) * 2018-02-13 2020-12-03 日本電気株式会社 Information providing device, terminal, identity verification system, information providing method and program

Similar Documents

Publication Publication Date Title
JP2006325937A (en) Image determination device, image determination method, and program therefor
JP2006006359A (en) Image generator, image generator method, and its program
JP4999163B2 (en) Image processing method, apparatus, and program
CN109635846B (en) Multi-type medical image judging method and system
JP5864542B2 (en) Image data processing method, system, and program for detecting image abnormality
Wan Ahmad et al. Lung segmentation on standard and mobile chest radiographs using oriented Gaussian derivatives filter
JP5279245B2 (en) Method and apparatus for detection using cluster change graph cut
Alilou et al. A comprehensive framework for automatic detection of pulmonary nodules in lung CT images
WO2021129325A1 (en) Ultrasonic image lesion segmentation method and apparatus, and computer device
CA2214101A1 (en) Method and system for the detection of lesions in medical images
JP2007524488A (en) System and method for toboggan-based object segmentation using divergent gradient field response in images
JP2006034585A (en) Picture display device and picture display method, and program thereof
WO2015092904A1 (en) Image-processing apparatus, image-processing method, and image-processing program
CN109978004B (en) Image recognition method and related equipment
Rani et al. Superpixel with nanoscale imaging and boosted deep convolutional neural network concept for lung tumor classification
JP5055115B2 (en) Identification method, computer program, and computer program device
WO2017017687A1 (en) Automatic detection of cutaneous lesions
CN114092450A (en) Real-time image segmentation method, system and device based on gastroscopy video
JP2008503294A6 (en) Identification method, computer program, and computer program device
Cao et al. A ℓ2, 1 norm regularized multi-kernel learning for false positive reduction in lung nodule CAD
Sivanesan et al. Unsupervised medical image segmentation with adversarial networks: From edge diagrams to segmentation maps
JP2006130212A (en) Method, device, and program for detecting abnormal shadow candidate
US8107699B2 (en) Feature processing for lung nodules in computer assisted diagnosis
Lee et al. Hybrid airway segmentation using multi-scale tubular structure filters and texture analysis on 3D chest CT scans
US10579895B2 (en) Information processing apparatus, extraction method, and medium

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061209

A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080805