JP2015156894A - Medical image processor, medical object area extraction method thereof and medical object area extraction processing program - Google Patents

Medical image processor, medical object area extraction method thereof and medical object area extraction processing program Download PDF

Info

Publication number
JP2015156894A
JP2015156894A JP2014032066A JP2014032066A JP2015156894A JP 2015156894 A JP2015156894 A JP 2015156894A JP 2014032066 A JP2014032066 A JP 2014032066A JP 2014032066 A JP2014032066 A JP 2014032066A JP 2015156894 A JP2015156894 A JP 2015156894A
Authority
JP
Japan
Prior art keywords
target
area
target area
region
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014032066A
Other languages
Japanese (ja)
Other versions
JP6296385B2 (en
Inventor
伊藤 彰義
Akiyoshi Ito
彰義 伊藤
壽之 中山
Toshiyuki Nakayama
壽之 中山
忠利 高山
Tadatoshi Takayama
忠利 高山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nihon University
Original Assignee
Nihon University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nihon University filed Critical Nihon University
Priority to JP2014032066A priority Critical patent/JP6296385B2/en
Publication of JP2015156894A publication Critical patent/JP2015156894A/en
Application granted granted Critical
Publication of JP6296385B2 publication Critical patent/JP6296385B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Magnetic Resonance Imaging Apparatus (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

PROBLEM TO BE SOLVED: To extract a two-dimensional or three-dimensional object area with a simple operation in a short period of time from a plurality of two-dimensional tomographic images acquired by a medical image diagnostic device.SOLUTION: A control part 10 controls operations of a preprocessing part 20 and an image processing part 30, the preprocessing part 20 receives a designation input by a manual operation of an input part 40, acquires data of an object area and the approximate size thereof at the same time, and performs preprocessing for acquiring data of a non-object area, and the image processing part 30 generates a histogram of luminance data of a pixel of the object area and a histogram of luminance data of a pixel of the non-object area from the data of the object area and data showing the approximate size, and the data of the non-object area and data showing its approximate size acquired by the preprocessing part 20, approximates the respective histograms to a normal distribution, determines a threshold of area division by a Bays rule by using an approximate normal distribution of the object area and an approximate normal distribution of the non-object area, and extracts the object area and the non-object area.

Description

本発明は、医用画像診断装置により取得した画像データから目的領域を高精度に抽出する医用画像処理装置、その医用目的領域抽出方法及び医用目的領域抽出処理プログラムに関する。   The present invention relates to a medical image processing apparatus that extracts a target area with high accuracy from image data acquired by a medical image diagnostic apparatus, a medical target area extraction method, and a medical target area extraction processing program.

近年、X線コンピュータ断層撮影(CT:Computer Tomography)装置や核磁気共鳴撮影(MRI:Magnetic Resonance Imaging)装置、陽電子放射断層撮影(PET:Positron Emission Tomography)装置等の医用画像診断装置で取得して再構成した二次元の断層画像や三次元画像から、病変部を発見し、またその病変部の状態を観察して、疾病の有無や進行状況の診断を行うことが行われている。   In recent years, it has been acquired by medical diagnostic imaging equipment such as X-ray computer tomography (CT), magnetic resonance imaging (MRI), and positron emission tomography (PET). A lesion is found from a reconstructed two-dimensional tomographic image or three-dimensional image, and the state of the lesion is observed to diagnose the presence or absence of disease and the progress.

これらの装置によって撮像される画像は、画像中のある点に関する濃度情報(画素の濃度情報)で表現され、濃度情報から目的領域、例えば臓器等に注目し、病変の有無などの診断にもちいられる。   Images picked up by these devices are expressed by density information (pixel density information) regarding a certain point in the image. From the density information, attention is paid to a target area, for example, an organ or the like, and it can be used for diagnosis of the presence or absence of a lesion. .

医用画像診断装置により大量の画像を取得することが可能になったため、医師が腫瘍診断をするためには、膨大な労力が必要になってきている。このような診断にかかる労力の増加は、見落としや誤診などを招くこともあるため、少しでも軽減する事が望まれている。そのため、腫瘍などの目的領域を自動抽出する技術(CAD:Computer Aided Detection)や、その技術を搭載した装置が提案されている(例えば、特許文献1参照)。   Since a large amount of images can be acquired by a medical image diagnostic apparatus, a great deal of labor is required for a doctor to make a tumor diagnosis. Such an increase in labor for diagnosis may lead to oversight or misdiagnosis, and therefore it is desired to reduce it as much as possible. Therefore, a technique (CAD: Computer Aided Detection) for automatically extracting a target area such as a tumor and an apparatus equipped with the technique have been proposed (for example, see Patent Document 1).

また、CT画像などの濃淡画像からの目的領域の抽出は、セグメンテーション(分離)技術として、以下のような様々な手法(1)〜(8)が提案されている。
(1) 画像の輝度(濃度)ヒストグラムから、適する2値化の閾値を決定して、領域を分離する方法。
(2) 画像の輝度(濃度)の勾配(グレーディエント)やラプラシアン、ラプラシアンゼロクロッシング点を利用して境界領域を抽出する方法。
(3) 何らか方法で初期的に決定した境界線を逐次最適化する動的輪郭抽出法(スネーク法)。
(4) 出発点と終了点を決め、その間をあらかじめ決めた評価関数が小さく(又は、大きく)なるように、画素を逐次追跡し境界を決定する方法。
(5) 対象領域内の各画素から、各方向へ触手を伸ばし、出発画素との輝度(濃度)値差が、閾値以上である点(リーチ点)の分布状態から境界を決定するリーチ点探索法。
(6) 造影剤投入後の時間経過(時相)とともにコントラストの異なる画像を取得し、時相毎の濃度特徴、すなわち、多時相関濃度特徴を利用する方法。
(7) 肺がん領域の抽出にみられるような、ウエーブレット変換と平滑化による腫瘍領域抽出法。
(8) 変形可能三(二)次元曲面を解析的に決定し所期画像とし、弾性変形などの仮定の下、目標領域の形状を求める方法。
In addition, the following various methods (1) to (8) have been proposed as a segmentation technique for extracting a target region from a grayscale image such as a CT image.
(1) A method for separating a region by determining a suitable binarization threshold value from a luminance (density) histogram of an image.
(2) A method of extracting a boundary region using a gradient (gradient) of image brightness (density), a Laplacian, and a Laplacian zero crossing point.
(3) A dynamic contour extraction method (Snake method) that sequentially optimizes the boundary line initially determined by some method.
(4) A method of determining a boundary by sequentially determining pixels so that a starting point and an ending point are determined, and a predetermined evaluation function between them is small (or large).
(5) Reach point search for extending the tentacles in each direction from each pixel in the target area and determining the boundary from the distribution state of the points (reach points) whose brightness (density) value difference from the starting pixel is equal to or greater than a threshold value Law.
(6) A method of acquiring images having different contrasts with the passage of time (time phase) after the injection of the contrast agent, and utilizing density characteristics for each time phase, that is, multi-time correlation density characteristics.
(7) Tumor region extraction method using wavelet transform and smoothing as seen in lung cancer region extraction.
(8) A method in which a deformable three (2) dimensional curved surface is analytically determined to obtain an intended image, and the shape of the target region is obtained under the assumption of elastic deformation or the like.

特開2012−245085号公報JP 2012-245085 A

ところで、上記手法(1)では、異なる領域間のヒストグラムの分離が良好でない場合、適する2値化の閾値を決定するのは容易でない。   By the way, in the above method (1), it is not easy to determine a suitable binarization threshold when separation of histograms between different regions is not good.

また、上記手法(2)では、輝度勾配、ラプラシアンの値は、境界以外でも雑音として大きく、境界との区別が容易でない。   In the method (2), the luminance gradient and the Laplacian value are large as noise other than the boundary, and are not easily distinguished from the boundary.

また、上記手法(3)では、所期形状の決定、逐次変形のためのパラメータが多く、かつ対象画像に適する値の決定が難しく、異なる画像間でロバストネス(頑強性)が低い。   In the method (3), there are many parameters for determining the desired shape and sequential deformation, and it is difficult to determine a value suitable for the target image, and the robustness (robustness) is low between different images.

また、上記手法(4)では、画像間で共通の評価関数の決定ができない。また、結果が出発点と終端点の選択に大きく左右される。   In the method (4), a common evaluation function cannot be determined between images. In addition, the result depends greatly on the selection of the start and end points.

また、上記手法(5)では、処理回数が対象画素数の二乗に比例するため、処理時間が画像毎(特に三次元で)に大きく異なる。また、汎用的な閾値の決定は容易でない。   Further, in the method (5), since the number of times of processing is proportional to the square of the number of target pixels, the processing time varies greatly for each image (particularly in three dimensions). Moreover, it is not easy to determine a general-purpose threshold value.

また、上記手法(6)では、異時相関の画像位置合わせが容易でなく、その誤差が検出精度に大きく影響する。   Further, in the above method (6), it is not easy to align the images in the abnormal correlation, and the error greatly affects the detection accuracy.

また、上記手法(7)では、大きさ、形状の異なる対象領域に適するウエーブレットの選択と平滑化の程度の決定が未確定である。   In the method (7), the selection of the wavelet suitable for the target areas having different sizes and shapes and the determination of the degree of smoothing have not been confirmed.

また、上記手法(8)では、対象画像に適する変形パラメータと変形法の設定が容易でない。   Further, in the method (8), it is not easy to set a deformation parameter and a deformation method suitable for the target image.

本件発明者等は、上述の如き従来の手法(1)〜(8)全てについて、目的領域の抽出を行う場合の閾値など各種パラメータを汎用的に決定することを試みるが、画像毎に濃度分布及び目的領域と非目的領域との間のコントラストなどが大きく異なるのが通常で、それらの変化への処理の頑強性を確保する必要があるが、そのための汎用的パラメータの決定は、実際には困難である。   The inventors of the present invention try to determine various parameters such as a threshold value when extracting a target area for all of the conventional methods (1) to (8) as described above. The contrast between the target area and the non-target area is usually very different, and it is necessary to ensure the robustness of the process to those changes. Have difficulty.

特に、三次元で目的領域を決定する場合には、直接三次元データを処理することが多いが、処理プログラムが複雑となり処理時間が増大するのが一般的である。   In particular, when a target area is determined in three dimensions, three-dimensional data is often directly processed, but generally the processing program becomes complicated and the processing time increases.

そこで、本発明の目的は、上述の如き従来の実情に鑑み、X線コンピュータ断層撮影(CT:Computer Tomography)装置や核磁気共鳴撮影(MRI:Magnetic Resonance Imaging)装置、陽電子放射断層撮影(PET:Positron Emission Tomography)装置等の医用画像診断装置で取得した複数の三次元断層画像から、簡単な操作で、二次元又は三次元の目的領域を短時間で抽出することができるようにした医用画像処理装置、その医用目的領域抽出方法及び医用目的領域抽出処理プログラムを提供することにある。   In view of the above, the object of the present invention is to provide an X-ray computed tomography (CT) apparatus, a nuclear magnetic resonance imaging (MRI) apparatus, a positron emission tomography (PET). Medical image processing that makes it possible to extract a two-dimensional or three-dimensional target region in a short time from a plurality of three-dimensional tomographic images acquired by a medical image diagnostic apparatus such as a Positron Emission Tomography device. The present invention provides an apparatus, a medical target area extraction method, and a medical target area extraction processing program.

本発明の他の目的、本発明によって得られる具体的な利点は、以下に説明される実施の形態の説明から一層明らかにされる。   Other objects of the present invention and specific advantages obtained by the present invention will become more apparent from the description of embodiments described below.

本発明では、医用画像診断装置で取得した複数の二次元断層画像から、目的領域(例えば、肝臓内の肝臓細胞癌等)を自動抽出して、二次元又は三次元の目的領域を抽出するにあたり、簡単な手動操作による指定入力を受け付けて、目的領域のデータと同時にその概略の大きさを取得するとともに、非目的領域のデータを取得する前処理を行い、上記前処理により取得したデータを用いて二次元又は三次元の目的領域を自動的に抽出する画像処理を行う。上記画像処理では、濃度分布の正規分布への近似処理と、bays則による統計的領域抽出処理と、大局的及び局所的統計検定による目的領域修正処理と、三次元化するための二次元画像上での繰り返し処理を既抽出領域を拡大・縮小下中間領域に限定した領域内で行い目的領域を分離する連続的二領域抽出処理を行う。   In the present invention, when a target region (for example, liver cell carcinoma in the liver) is automatically extracted from a plurality of two-dimensional tomographic images acquired by a medical image diagnostic apparatus, a two-dimensional or three-dimensional target region is extracted. , Accepting input by simple manual operation, obtain the approximate size at the same time as the data of the target area, perform pre-processing to acquire the data of non-target area, and use the data acquired by the above pre-processing Image processing for automatically extracting a two-dimensional or three-dimensional target region. In the above image processing, approximation processing of density distribution to normal distribution, statistical region extraction processing by Bayes rule, target region correction processing by global and local statistical tests, and two-dimensional image for three-dimensionalization The two-region extraction processing for separating the target region is performed by repeating the above-described processing in the region where the already extracted region is limited to the enlarged / reduced lower intermediate region.

すなわち、本発明は、医用画像処理装置であって、手動操作による指定入力を受け付けて、目的領域のデータと同時にその概略の大きさを取得するとともに、非目的領域のデータを取得する前処理を行う前処理部と、上記前処理部により取得したデータを用いて二次元又は三次元の目的領域を抽出する画像処理部とを備え、上記前処理部は、処理対象の画像の領域の概略の大きさを指定する手動操作による指定入力を受け付ける機能を有し、上記画像処理部は、上記前処理部により取得された目的領域のデータとその概略の大きさを示すデータ及び非目的領域のデータとその概略の大きさを示すデータから、上記目的領域の画素の輝度データのヒストグラムと上記非目的領域の画素の輝度データのヒストグラム生成し、各ヒストグラムを正規分布に近似する正規分布近似処理機能と、上記正規分布近似処理機能により求めた目的領域の近似正規分布と非目的領域の近似正規分布を用いて、Bays則による領域分割の閾値を決定して、目的領域と非目的領域を抽出する領域抽出機能を有することを特徴とする。   That is, the present invention is a medical image processing apparatus that accepts a designation input by manual operation, acquires a rough size at the same time as target area data, and performs preprocessing for acquiring non-target area data. A pre-processing unit that performs the processing, and an image processing unit that extracts a two-dimensional or three-dimensional target region using the data acquired by the pre-processing unit. The image processing unit has a function of accepting a designation input by manual operation for designating a size, and the image processing unit obtains the data of the target area acquired by the pre-processing unit, the data indicating the approximate size, and the data of the non-target area And a histogram of the luminance data of the pixels in the target area and the histogram of the luminance data of the pixels in the non-target area are generated from the data indicating the approximate size, and each histogram is normalized. Using the normal distribution approximation processing function that approximates the cloth, the approximate normal distribution of the target region obtained by the normal distribution approximation processing function, and the approximate normal distribution of the non-target region, the threshold value for region division according to the Bayes rule is determined, It has a region extraction function for extracting a target region and a non-target region.

本発明に係る医用画像処理装置において、上記前処理部は、取得する処理対象の画像の輝度範囲を所定輝度範囲内に収める画像輝度調節処理機能を有するものとすることができる。   In the medical image processing apparatus according to the present invention, the pre-processing unit may have an image luminance adjustment processing function that keeps the luminance range of the processing target image to be acquired within a predetermined luminance range.

上記画像処理部は、既に検出された目的領域を拡大してした目的領域周辺のみを検定実行領域とし、検定実行領域内の画素をラスタースキャンして得られる上記目的領域周辺の複数個の画素の平均値と、既に目的領域として決定された領域内を母集団として求めた母平均及び母標準偏差を用いてZ検定を行い、その検定結果に基づいて目的領域を修正する大局的目的領域修正処理と、既に検出された目的領域を拡大した目的領域周辺のみを検定実行領域とし、検定実行領域内の画素のみを探索して得られる検定対象画素およびその周辺の複数個(n個)の画素の平均値と、既に目的領域として決定された領域内のみの検定対象画素周辺の複数個(m個>n個)の画素の平均値と標準偏差を母平均及び母標準偏差として用いZ検定を行い、その検定結果に基づいて目的領域を修正する局所的目的領域修正処理とを行う目的領域修正処理機能を有するものとすることができる。   The image processing unit uses only the periphery of the target area that has been enlarged as the detected target area as a test execution area, and performs raster scanning of pixels in the test execution area to obtain a plurality of pixels around the target area. A global target area correction process in which a Z test is performed using an average value and a population mean and standard deviation obtained as a population within an area that has already been determined as a target area, and the target area is corrected based on the test result. And only the periphery of the target area that has already been expanded is set as the test execution area, and the test target pixel obtained by searching only the pixels in the test execution area and a plurality of (n) pixels around it Z test is performed using the average value and the average value and standard deviation of multiple (m> n) pixels around the test target pixel only in the area already determined as the target area as the population mean and population standard deviation. , Its inspection It is possible to have a target area correction processing function for performing local target area correction processing for correcting the target area based on the fixed result.

さらに、本発明に係る医用画像処理装置において、上記画像処理部は、抽出した目的領域を三次元化するための二次元画像上での繰り返し処理を、既抽出領域を拡大・縮小した中間領域に限定した領域内で行い目的領域を分離する連続的二領域抽出処理機能を有するものとすることができる。   Furthermore, in the medical image processing apparatus according to the present invention, the image processing unit repeats the repeated processing on the two-dimensional image for three-dimensionalizing the extracted target region into an intermediate region obtained by enlarging or reducing the extracted region. It is possible to have a continuous two-region extraction processing function for separating a target region within a limited region.

本発明は、医用目的領域抽出方法であって、手動操作による指定入力を受け付けて、目的領域のデータと同時にその概略の大きさを取得するとともに、非目的領域のデータを取得する前処理を行う前処理ステップと、上記前処理ステップにより取得したデータを用いて二次元又は三次元の目的領域を抽出する画像処理ステップとを有し、上記前処理ステップでは、処理対象の画像の領域の概略の大きさを指定する手動操作による指定入力を受け付け、上記画像処理ステップでは、上記前処理ステップにより取得された目的領域のデータとその概略の大きさを示すデータ及び非目的領域のデータとその概略の大きさを示すデータから、上記目的領域の画素の輝度データのヒストグラムと上記非目的領域の画素の輝度データのヒストグラム生成し、各ヒストグラムを正規分布に近似する正規分布近似処理機能と、上記正規分布近似処理機能により求めた目的領域の近似正規分布と非目的領域の近似正規分布を用いて、Bays則による領域分割の閾値を決定して、目的領域と非目的領域を抽出することを特徴とする。   The present invention is a medical target region extraction method that receives a designation input by manual operation, acquires a rough size at the same time as target region data, and performs preprocessing for acquiring non-target region data A pre-processing step, and an image processing step for extracting a two-dimensional or three-dimensional target region using the data acquired in the pre-processing step. In the pre-processing step, an outline of the region of the image to be processed is included. Accepting a designation input by manual operation for designating the size, and in the image processing step, the data of the target area acquired by the preprocessing step, the data indicating the approximate size, the data of the non-target area, and the approximate From the data indicating the size, a histogram of luminance data of pixels in the target area and a histogram of luminance data of pixels in the non-target area are generated. Using the normal distribution approximation processing function that approximates each histogram to a normal distribution, and the approximate normal distribution of the target region and the approximate normal distribution of the non-target region obtained by the normal distribution approximation processing function, the threshold of region division according to the Bayes rule is set. It is characterized by determining and extracting a target area and a non-target area.

本発明に係る医用目的領域抽出方法において、上記前処理ステップでは、取得する処理対象の画像の輝度範囲を所定輝度範囲内に収める画像輝度調節処理を行うものとすることができる。   In the medical target region extraction method according to the present invention, in the preprocessing step, an image luminance adjustment process may be performed in which the luminance range of the processing target image to be acquired falls within a predetermined luminance range.

また、本発明に係る医用目的領域抽出方法において、上記画像処理ステップでは、既に検出された目的領域を拡大してした目的領域周辺のみを検定実行領域とし、検定実行領域内の画素をラスタースキャンして得られる上記目的領域周辺の複数個の画素の平均値と、既に目的領域として決定された領域内を母集団として求めた母平均及び母標準偏差を用いてZ検定を行い、その検定結果に基づいて目的領域を修正する大局的目的領域修正処理と、既に検出された目的領域を拡大してした目的領域周辺のみを検定実行領域とし、検定実行領域内の画素のみを探索して得られる上記目的領域周辺の複数個の画素の平均値と、既に目的領域として決定された領域内を母集団として求めた母平均及び母標準偏差を用いてZ検定を行い、その検定結果に基づいて目的領域を修正する局所的目的領域修正処理とを行うものとすることができる。   Further, in the medical target region extraction method according to the present invention, in the image processing step, only the periphery of the target region that has already been detected is set as the test execution region, and the pixels in the test execution region are raster scanned. Z-test is performed using the average value of the plurality of pixels around the target area obtained above and the population mean and standard deviation obtained as a population within the area already determined as the target area. Based on the global target area correction process that corrects the target area based on the above, and only the surrounding area of the target area that has already been expanded is set as the test execution area, and only the pixels in the test execution area are searched for above The Z test is performed using the average value of a plurality of pixels around the target area and the population mean and standard deviation obtained as a population within the area already determined as the target area. It can be made to perform a local object area correction processing for correcting the target region Zui.

さらに、本発明に係る医用目的領域抽出方法において、上記画像処理ステップでは、抽出した目的領域を三次元化するための二次元画像上での繰り返し処理を、既抽出領域を拡大・縮小した中間領域に限定した領域内で行い目的領域を分離する連続的二領域抽出処理を行うものとすることができる。   Further, in the medical target region extraction method according to the present invention, in the image processing step, an intermediate region obtained by enlarging / reducing an already extracted region is obtained by repeating a process on a two-dimensional image for three-dimensionalizing the extracted target region. It is possible to perform a continuous two-region extraction process for separating the target region within a region limited to the above.

本発明は、医用画像処理装置に搭載されるコンピュータにより実行される医用目的領域抽出処理プログラムであって、上記コンピュータを、手動操作による指定入力を受け付けて、目的領域のデータと同時にその概略の大きさを取得するとともに、非目的領域のデータを取得する前処理を行う前処理部と、上記前処理部により取得したデータを用いて二次元又は三次元の目的領域を抽出する画像処理部とし機能させ、上記前処理部は、処理対象の画像の領域の概略の大きさを指定する手動操作による指定入力を受け付ける機能を有し、上記画像処理部は、上記前処理部により取得された目的領域のデータとその概略の大きさを示すデータ及び非目的領域のデータとその概略の大きさを示すデータから、上記目的領域の画素の輝度データのヒストグラムと上記非目的領域の画素の輝度データのヒストグラム生成し、各ヒストグラムを正規分布に近似する正規分布近似処理機能と、上記正規分布近似処理機能により求めた目的領域の近似正規分布と非目的領域の近似正規分布を用いて、Bays則による領域分割の閾値を決定して、目的領域と非目的領域を抽出する領域抽出機能を有することを特徴とする。   The present invention is a medical target area extraction processing program executed by a computer mounted on a medical image processing apparatus, and the computer accepts a designation input by manual operation, and simultaneously approximates the size of the target area data. Functions as a pre-processing unit that performs pre-processing for acquiring non-target region data and an image processing unit that extracts a two-dimensional or three-dimensional target region using the data acquired by the pre-processing unit The preprocessing unit has a function of accepting a designation input by a manual operation for designating an approximate size of a region of the image to be processed, and the image processing unit is configured to acquire the target region acquired by the preprocessing unit. Data of the target area, and data indicating the approximate size and non-target area data and data indicating the approximate size. A normal distribution approximation processing function that generates a histogram of the luminance data of the pixels of the gram and the non-target region and approximates each histogram to a normal distribution, and the approximate normal distribution and non-target region of the target region obtained by the normal distribution approximation processing function The approximate normal distribution is used to determine a threshold value for region division according to the Bayes rule, and a region extraction function for extracting a target region and a non-target region is provided.

本発明に係る医用目的領域抽出処理プログラムは、取得する処理対象の画像の輝度範囲を所定輝度範囲内に収める画像輝度調節処理機能を有する上記前処理部として上記コンピュータを機能させるものとすることができる。   The medical target region extraction processing program according to the present invention causes the computer to function as the pre-processing unit having an image luminance adjustment processing function for keeping the luminance range of an image to be processed within a predetermined luminance range. it can.

また、本発明に係る医用目的領域抽出処理プログラムは、既に検出された目的領域を拡大してした目的領域周辺のみを検定実行領域とし、検定実行領域内の画素をラスタースキャンして得られる上記目的領域周辺の複数個の画素の平均値と、既に目的領域として決定された領域内を母集団として求めた母平均及び母標準偏差を用いてZ検定を行い、その検定結果に基づいて目的領域を修正する大局的目的領域修正処理と、既に検出された目的領域を拡大してした目的領域周辺のみを検定実行領域とし、検定実行領域内の画素のみを探索して得られる上記目的領域周辺の複数個の画素の平均値と、既に目的領域として決定された領域内を母集団として求めた母平均及び母標準偏差を用いてZ検定を行い、その検定結果に基づいて目的領域を修正する局所的目的領域修正処理とを行う目的領域修正処理機能を有する上記画像処理部として上記コンピュータを機能させるものとすることができる。   Further, the medical target area extraction processing program according to the present invention provides the above object obtained by raster-scanning pixels in the test execution area only with the target area surrounding the target area that has already been detected as the test execution area. A Z test is performed using the average value of a plurality of pixels around the area, and the population mean and standard deviation obtained as a population within the area that has already been determined as the target area, and the target area is determined based on the test result. A global target area correction process to be corrected and a plurality of areas around the target area obtained by searching only the pixels in the test execution area, with only the target area surrounding the already detected target area enlarged as the test execution area A Z test is performed using the average value of the individual pixels and the population mean and population standard deviation obtained as the population within the area already determined as the target area, and the target area is corrected based on the test result. It can be made to function the computer as the image processing unit having the target area correction processing function of performing a local object area correction processing that.

さらに、本発明に係る医用目的領域抽出処理プログラムは、抽出した目的領域を三次元化するための二次元画像上での繰り返し処理を、既抽出領域を拡大・縮小した中間領域に限定した領域内で行い目的領域を分離する連続的二領域抽出処理機能を有する上記画像処理部として上記コンピュータを機能させるものとすることができる。   Furthermore, the medical target region extraction processing program according to the present invention is configured so that an iterative process on a two-dimensional image for three-dimensionalizing an extracted target region is limited to an intermediate region obtained by enlarging or reducing the extracted region. The computer can be made to function as the image processing unit having a continuous two-region extraction processing function for separating the target regions.

本発明によれば、簡単な手動操作による指定入力を受け付けて、医用画像診断装置で取得した複数の二次元断層画像から、目的領域のデータと同時にその概略の大きさを取得するとともに、非目的領域のデータを取得する前処理を行い、上記前処理により取得したデータを用いて二次元又は三次元の目的領域を自動的に抽出する画像処理を行うことにより、所望の目的領域を短時間で抽出することができる。   According to the present invention, a designation input by a simple manual operation is accepted, and the approximate size is simultaneously obtained from the plurality of two-dimensional tomographic images acquired by the medical image diagnostic apparatus, and the non-purpose By performing preprocessing for acquiring region data and performing image processing for automatically extracting a two-dimensional or three-dimensional target region using the data acquired by the preprocessing, a desired target region can be quickly obtained. Can be extracted.

上記画像処理では、濃度分布の正規分布への近似処理と、bays則による統計的領域抽出処理と、大局的及び局所的統計検定による目的領域修正処理と、三次元化するための二次元画像上での繰り返し処理を既抽出領域を拡大・縮小下中間領域に限定した領域内で行い目的領域を分離する連続的二領域抽出処理を行うことにより、所望の目的領域を短時間で的確に抽出することができる。   In the above image processing, approximation processing of density distribution to normal distribution, statistical region extraction processing by Bayes rule, target region correction processing by global and local statistical tests, and two-dimensional image for three-dimensionalization The desired target area is accurately extracted in a short time by performing the continuous two-area extraction process that repeats the process in the area where the already extracted area is limited to the middle area that is enlarged or reduced and separates the target area. be able to.

したがって、X線コンピュータ断層撮影(CT:Computer Tomography)装置や核磁気共鳴撮影(MRI:Magnetic Resonance Imaging)装置、陽電子放射断層撮影(PET:Positron Emission Tomography)装置等の医用画像診断装置で取得した複数の二次元断層画像から、簡単な操作で、二次元又は三次元の目的領域を短時間で抽出することができるようにした医用画像処理装置、その医用目的領域抽出方法及び医用目的領域抽出処理プログラムを提供することができる。   Therefore, a plurality of images acquired by medical diagnostic imaging apparatuses such as an X-ray computer tomography (CT) apparatus, a nuclear magnetic resonance imaging (MRI) apparatus, and a positron emission tomography (PET) apparatus. Medical image processing apparatus, medical target region extraction method and medical target region extraction processing program capable of extracting a two-dimensional or three-dimensional target region in a short time from a two-dimensional tomographic image Can be provided.

本発明を適用した医用画像処理装置の構成を示すブロック図であるIt is a block diagram which shows the structure of the medical image processing apparatus to which this invention is applied. 上記医用画像処理装置における前処理部の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the pre-processing part in the said medical image processing apparatus. 上記前処理部における目的画像選択処理の内容を示すフローチャートである。It is a flowchart which shows the content of the target image selection process in the said pre-processing part. 上記目的画像選択処理における表示部による表示内容を示す図であり、(A)は初期画面を示し、(B)は処理画像決定入力受付処理の際の表示内容を示している。It is a figure which shows the display content by the display part in the said target image selection process, (A) shows an initial screen, (B) has shown the display content in the process image determination input reception process. 上記前処理部における領域とデータの取得処理の内容を示すフローチャートである。It is a flowchart which shows the content of the area | region and data acquisition process in the said pre-processing part. 上記領域とデータの取得処理における表示部による表示内容を示す図であり、(A)は目的領域指定入力受付処理の際の表示内容を示し、(B)は目的外領域指定入力受付処理の際の表示内容を示している。It is a figure which shows the display content by the display part in the said area | region and data acquisition process, (A) shows the display content in the target area designation | designated input reception process, (B) is in the non-target area designation | designated input reception process. Is displayed. 上記医用画像処理装置における画像処理部の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the image process part in the said medical image processing apparatus. 上記画像処理部においてHccデータとLiverデータから作成される各近似正規分布HHcc,HLiverを示す図であり、(A)は前処理部における利用画像輝度調節処理が施されたHccデータとLiverデータから作成された各近似正規分布を示し、(B)は利用画像輝度調節処理が施されていないHccデータとLiverデータから作成された各近似正規分布を示している。The image processing unit each approximate a normal distribution H Hcc created from Hcc data and Liver data in a diagram showing the H Liver, (A) is Hcc data and Liver utilization image brightness adjusting processing in the preprocessing unit has been performed Each approximate normal distribution created from the data is shown, and (B) shows each approximate normal distribution created from the Hcc data and the Liver data not subjected to the use image luminance adjustment processing. 上記画像処理部における閾値決定・領域抽出処理の内容を示すフローチャートである。It is a flowchart which shows the content of the threshold value determination and area | region extraction process in the said image processing part. 上記閾値決定・領域抽出処理において作成されるヒストグラムの一例を示す図である。It is a figure which shows an example of the histogram produced in the said threshold value determination / area | region extraction process. 上記画像処理部におけるYZ面上での領域抽出処理の内容を示すフローチャートである。It is a flowchart which shows the content of the area | region extraction process on the YZ plane in the said image process part. 上記YZ面上での領域抽出処理における表示部による表示内容を示す図であり、(A)目的候補領域(Hcc1)を示し、(B)は上記目的候補領域(Hcc1)内の最大面積を抽出した画像を示し、(C)は上記目的候補領域(Hcc1)内の最大面積を抽出した画像を穴埋めしたものを示し、(D)は目的外候補領域(Liver1)を示し、(E)は(D)に(C)を加えた、目的候補領域を内包する目的外候補領域を示す。(F)は(E)を穴埋めして2値化したものを示し、(G)は最終目的外領域を示す。It is a figure which shows the display content by the display part in the area | region extraction process on the said YZ surface, (A) shows a target candidate area | region (Hcc1), (B) extracts the maximum area in the said target candidate area | region (Hcc1). (C) shows an image in which the maximum area in the target candidate area (Hcc1) is extracted, and (D) shows a non-target candidate area (Live1), and (E) shows ( A non-target candidate area including the target candidate area obtained by adding (C) to D) is shown. (F) shows a binarized version of (E), and (G) shows a final non-target area. 上記画像処理部におけるXZ面上でのX方向の大きさの抽出処理の内容を示すフローチャートである。It is a flowchart which shows the content of the extraction process of the magnitude | size of the X direction on the XZ plane in the said image process part. 上記XZ面上でのX方向の大きさの抽出処理における表示部による表示内容を示す図であり、(A)は目的領域(Hcc)の選択受け付画面を示し、(B)は選択された目的領域(Hcc)の画像を示している。It is a figure which shows the display content by the display part in the extraction process of the magnitude | size of the X direction on the said XZ surface, (A) shows the selection reception screen of the target area (Hcc), (B) is selected An image of the target area (Hcc) is shown. 上記XZ面上でのX方向の大きさの抽出処理における表示部による表示内容を示す図であり、(A)は長さの指定入力受け付け画面を示し、(B)は長さの計測画面を示している。It is a figure which shows the display content by the display part in the extraction process of the magnitude | size of the X direction on the said XZ surface, (A) shows the designation input reception screen of length, (B) shows the measurement screen of length. Show. 上記画像処理部におけるXY面上での目的領域抽出処理の内容を示すフローチャートである。It is a flowchart which shows the content of the target area extraction process on XY plane in the said image process part. 上記XY面上での目的領域抽出処理における表示部による表示内容を示す図であり、(A)は目的領域(Hcc)と目的外候補領域(Liver)の抽出画面を示し、(B)は抽出対象画面を示し、(C)は目的領域(Hcc)の最大面積の検出画面を示し、(D)は領域(Liver for Data)設定画面を示している。It is a figure which shows the display content by the display part in the said target area extraction process on the said XY surface, (A) shows the extraction screen of a target area (Hcc) and a non-target candidate area (Live), (B) is extraction. The target screen is shown, (C) shows the detection screen of the maximum area of the target area (Hcc), and (D) shows the area (Liver for Data) setting screen. 上記XY面上での目的領域抽出処理に使用されるヒストグラムの一例を示す図である。It is a figure which shows an example of the histogram used for the target area extraction process on the said XY plane. 上記XY面上での目的領域抽出処理における表示部による表示内容を示す図であり、(A)は抽出された目的領域を原画像上に重畳して示したもの、(B)は抽出された目的外領域を示しているが、目的領域との関係をも示すために上記目的領域をも重畳して示している。It is a figure which shows the display content by the display part in the target area extraction process on the said XY surface, (A) shows the extracted target area superimposed on the original image, (B) was extracted. Although the non-target region is shown, the target region is also shown in a superimposed manner in order to show the relationship with the target region. 上記画像処理部における目的領域修正処理の内容を示すフローチャートである。It is a flowchart which shows the content of the target area correction process in the said image processing part. 上記目的領域修正処理における大局的目的領域抽修正処理の内容を示すフローチャートである。It is a flowchart which shows the content of the global objective area | region extraction correction | amendment process in the said objective area | region correction process. 上記大局的目的領域修正処理における表示部による表示内容を示す図であり、(A)は既に検出した目的領域(Hcc)を示し、(B)は目的領域(Hcc)を拡大した検定実行領域を示している。It is a figure which shows the display content by the display part in the said global target area correction process, (A) shows the target area (Hcc) which has already been detected, (B) shows the test execution area which expanded the target area (Hcc). Show. 上記目的領域修正処理における局所的目的領域抽修正処理の内容を示すフローチャートである。It is a flowchart which shows the content of the local target area | region extraction correction | amendment process in the said target area correction process. 上記局所的目的領域抽修正処理における表示部による表示内容を示す図であり、(A)は既に検出した目的領域(Hcc)を示し、(B)は目的領域(Hcc)を拡大した検定実行領域を示している。It is a figure which shows the display content by the display part in the said local target area | region extraction correction | amendment process, (A) shows the target area (Hcc) already detected, (B) is the test | inspection execution area which expanded the target area (Hcc). Is shown. 上記局所的目的領域修正処理における表示部による表示内容を示す図である。It is a figure which shows the display content by the display part in the said local target area correction process. 上記局所的目的領域修正処理における表示部による表示内容を示す図である。It is a figure which shows the display content by the display part in the said local target area correction process. 上記画像処理部における異なるZ上での二領域連続抽出処理の内容を示すフローチャートである。It is a flowchart which shows the content of the 2 area | region continuous extraction process on different Z in the said image process part. 上記異なるZ上での二領域連続抽出処理における表示部による表示内容を示す図であり、(A)は目的候補領域(Hcc)を示し、(B)は目的外候補領域(Liver)を示している。It is a figure which shows the display content by the display part in the said 2 area | region continuous extraction process on said different Z, (A) shows an object candidate area | region (Hcc), (B) shows a non-object candidate area | region (Liver). Yes. 上記異なるZ上での二領域連続抽出処理に使用されるヒストグラムの一例を示す図である。It is a figure which shows an example of the histogram used for the 2 area | region continuous extraction process on the said different Z. 上記画像処理部における新目的領域探索範囲決定処理の内容を示すフローチャートである。It is a flowchart which shows the content of the new target area search range determination process in the said image process part. 上記新目的領域探索範囲決定処理における表示部による表示内容を示す図であり、(A)は中間領域(IHcc)を示し、(B)は領域分離処理の実行画面を示し、(C)は新しい目的領域(HccNEW)を示し、(D)は抽出結果を示している。It is a figure which shows the display content by the display part in the said new destination area search range determination process, (A) shows an intermediate area ( IHcc ), (B) shows the execution screen of an area | region separation process, (C) is A new target area (Hcc NEW ) is shown, and (D) shows the extraction result. 上記新目的領域探索範囲決定処理におけるZ上下方向の探索終了決定処理の内容を示すフローチャートである。It is a flowchart which shows the content of the search end determination process of the Z up-down direction in the said new destination area search range determination process. 上記画像処理部における三次元表示処理の内容を示すフローチャートである。It is a flowchart which shows the content of the three-dimensional display process in the said image process part. 上記三次元表示処理に使用されるZ方向の連続抽出結果を示す図であり、(A)は異なるZ上方向の連続抽出結果の一例を示し、(B)はZ下方向の連続抽出結果の一例を示す図である。It is a figure which shows the continuous extraction result of the Z direction used for the said three-dimensional display process, (A) shows an example of the continuous extraction result of a different Z upper direction, (B) is a Z continuous down extraction result. It is a figure which shows an example. 上記三次元表示処理による表示結果を示す図であり、三次元の表示画面を示し、二次元の表示画面を示している。It is a figure which shows the display result by the said three-dimensional display process, The three-dimensional display screen is shown and the two-dimensional display screen is shown. 特徴量の抽出を説明に供する図であり、(A)は術前の二次元腹部CT画像を示し、(B)は抽出した肝臓癌を示している。It is a figure which uses for description of extraction of a feature-value, (A) shows the two-dimensional abdominal CT image before operation, (B) has shown the extracted liver cancer. 二次元形状評価で用いた癌のくぼみを領域の塗り潰し処理を三次元に適用した場合を示す図であり、(A)はくぼみ領域の塗り潰した画像を示し、(B)塗り潰し前の画像を示し、(C)はくぼみ領域を示している。It is a figure which shows the case where the area | region filling process of the cancer dent used by two-dimensional shape evaluation is applied to three dimensions, (A) shows the image which the dent area | region was filled, and (B) shows the image before filling. , (C) shows a recessed area. 上記医用画像処理装置における凸部領域の抽出についての説明に供する図であり、(A)は水平断面画像を示し、(B)は自動抽出された癌領域を積層し構成した状態を示し、(C)は臓癌の三次元画像を示している。It is a figure where it uses for description about extraction of the convex part field in the above-mentioned medical image processing device, (A) shows a horizontal section picture, (B) shows the state which laminated and constituted the cancer field extracted automatically, ( C) shows a three-dimensional image of visceral cancer. 中点法による内接円の半径算出についての説明に供する図であり、(A)は対象図形を示し、(B)は構造要素(円)を示し、(C)は収縮結果を示している。It is a figure with which it uses for description about the radius calculation of the inscribed circle by a midpoint method, (A) shows an object figure, (B) shows a structural element (circle), (C) has shown the shrinkage | contraction result. . 凸部領域の抽出処理の説明に供する図であり、(A)は対象図形を示し、(B)は描画された内接円を示し、(C)は抽出された凸部領域を示している。It is a figure used for description of the extraction process of a convex part area | region, (A) shows an object figure, (B) shows the drawn inscribed circle, (C) shows the extracted convex part area | region. . 癌の三次元画像との差分を凸部領域として抽出処理の説明に供する図であり、(A)は対象図形を示し、(B)は構造要素(球)を示し、(C)は2画素削った凸部領域を示している。It is a figure which uses for the description of extraction processing by making the difference with the three-dimensional image of cancer into a convex part area | region, (A) shows an object figure, (B) shows a structural element (sphere), (C) shows 2 pixels. A shaved convex region is shown. 門脈侵襲(vp)の有無を正解(学習パターン)として1つ抜き法で2クラス(vp0/vp1)に分類した判別結果を示す図である。It is a figure which shows the discrimination | determination result classified into 2 classes (vp0 / vp1) by the method of extracting one by making the presence or absence of portal vein invasion (vp) into a correct answer (learning pattern). 判別結果のクラスごとにカプランマイヤー法により作成した生存曲線を示す図である。It is a figure which shows the survival curve created by the Kaplan-Meier method for every class of the discrimination result. 「原発性肝癌取り扱い規約」で規定されている肉眼分類を示す図である。It is a figure which shows the naked eye classification prescribed | regulated by the "primary liver cancer handling rule." 病理標本写真の画像を示す図であるIt is a figure which shows the image of a pathological specimen photograph. 癌領域の色による分類を示す図であり、(a)は白い癌、(c)は緑色の癌(胆汁が多い)、(d)はピンク色の癌、(e)は黒い癌、(f)は出血している領域を示している。It is a figure which shows the classification | category by the color of a cancer area | region, (a) is a white cancer, (c) is a green cancer (a lot of bile), (d) is a pink cancer, (e) is a black cancer, (f ) Indicates the bleeding area. 肝癌領域を示す図であり、(a)は赤い肝癌領域、と図47の(b)は肝硬変が起きている白くなた領域、(c)は肝臓の淵を示している。It is a figure which shows a liver cancer area | region, (a) is a red liver cancer area | region, (b) of FIG. 47 is the whitened area | region where cirrhosis has occurred, (c) has shown the wrinkle of the liver. その他の領域を示す図であり、(a)はスケール、(b)は背景の青い台、(c)は光の反射を示している。It is a figure which shows another area | region, (a) is a scale, (b) is a blue base of a background, (c) has shown reflection of light. エッジ保存平滑化処理の説明に供する図であり、(a)はエッジ保存平滑化処理適用前の画像を示し、(b)はエッジ保存平滑化処理適用後の画像を示している。It is a figure used for description of edge preservation | save smoothing process, (a) shows the image before edge preservation | save smoothing process application, (b) has shown the image after edge preservation | save smoothing process application. マハラノビスの汎距離により未知データを最も確率の高いクラスとする判別分析を行った結果を示す図である。It is a figure which shows the result of having performed the discriminant analysis which makes unknown data the class with the highest probability by the Mahalanobis generalized distance. 第1の特徴量Rate(肝硬変領域周囲の肝臓領域と癌領域の比率)と第2の特徴量Rate(癌を含む肝臓領域と癌領域の比率)の2変量で肝硬変の判別分析を行った結果を示す図である。Discriminant analysis of cirrhosis is performed with two variables, the first feature amount Rate A (ratio of the liver region around the cirrhosis region and the cancer region) and the second feature amount Rate B (ratio of the liver region including cancer and the cancer region). It is a figure which shows the result. 第2の特徴量Rate(癌を含む肝臓領域と癌領域の比率)と(第3の特徴量Rateピンク色の癌領域周囲の癌領域の比率)の2変量でピンク色の癌の判別分析を行った結果を示す図である。Discrimination of pink cancer by bivariate of second feature amount Rate B (ratio of liver region including cancer and cancer region) and (third feature amount Rate A ratio of cancer region around pink cancer region) It is a figure which shows the result of having analyzed. 黒い癌、出血、光の反射領域の判別に供する図である。It is a figure where it uses for discrimination | determination of a black cancer, bleeding, and the reflection area of light.

以下、本発明を実施するための最良の形態について、図面を参照しながら詳細に説明する。   Hereinafter, the best mode for carrying out the present invention will be described in detail with reference to the drawings.

本発明は、例えば図1のブロック図に示すような構成の医用画像処理装置100に適用される。   The present invention is applied to, for example, a medical image processing apparatus 100 configured as shown in the block diagram of FIG.

この医用画像処理装置100は、制御部10、前処理部20、画像処理部30、入力部40、記憶部50、表示部60等からなる。この医用画像処理装置100は、所定の処理プログラムがインストールされたコンピュータシステムであって、上記制御部10により、上記処理プログラムにしたがって、上記前処理部20や画像処理部30の動作を制御するようになっている。   The medical image processing apparatus 100 includes a control unit 10, a preprocessing unit 20, an image processing unit 30, an input unit 40, a storage unit 50, a display unit 60, and the like. The medical image processing apparatus 100 is a computer system in which a predetermined processing program is installed, and the control unit 10 controls operations of the preprocessing unit 20 and the image processing unit 30 according to the processing program. It has become.

この医用画像処理装置100は、医用画像診断装置で取得した複数の二次元断層画像から二次元又は三次元の目的領域を抽出する医用画像処理装置であって、医用画像診断装置で取得した複数の二次元断層画像を取り込んで記憶部50に記憶する機能を有し、本実施の形態では、例えばX線コンピュータ断層撮影(CT:Computer Tomography)装置により取得された多数枚のCT画像が予め記憶部50に記憶されているものとして説明する。   The medical image processing apparatus 100 is a medical image processing apparatus that extracts a two-dimensional or three-dimensional target region from a plurality of two-dimensional tomographic images acquired by a medical image diagnostic apparatus, and includes a plurality of medical image diagnostic apparatuses acquired by the medical image diagnostic apparatus. In the present embodiment, a large number of CT images acquired by, for example, an X-ray computer tomography (CT) apparatus are stored in advance in the storage unit. It is assumed that the data is stored in the memory 50.

この医用画像処理装置100における前処理部20による処理内容を図2のフローチャートに示すように、上記制御部10は、上記処理プログラムにしたがって上記前処理部20の動作を制御して、上記前処理部20により目的画像選択処理(S1)、領域とデータ取得処理(S2)を行う。   As shown in the flowchart of FIG. 2, the control unit 10 controls the operation of the preprocessing unit 20 in accordance with the processing program so that the preprocessing unit 20 in the medical image processing apparatus 100 is processed. The unit 20 performs target image selection processing (S1), region and data acquisition processing (S2).

すなわち、上記前処理部20は、目的画像選択機能及び領域とデータ取得機能を有する。   That is, the pre-processing unit 20 has a target image selection function, a region, and a data acquisition function.

上記前処理部20における目的画像選択処理(S1)では、図3のフローチャートに示すように、初期画面表示処理(S11)、相の選択入力受付処理(S12)、処理画像決定入力受付処理(S13)を行う。   In the target image selection process (S1) in the pre-processing unit 20, as shown in the flowchart of FIG. 3, an initial screen display process (S11), a phase selection input reception process (S12), and a processed image determination input reception process (S13). )I do.

初期画面表示処理(S11)では、図4の(A)に示すように、上記記憶部50から読み出されるYZ(矢状)断面、XY(水平)断面、XZ(頭額)断面の三断面画像A1,A2,A3を患者番号や画素サイズ、画像スライス厚さなどの属性情報A4とともに表示部60により同時表示する。   In the initial screen display process (S11), as shown in FIG. 4A, a three-section image of a YZ (sagittal) section, an XY (horizontal) section, and an XZ (head amount) section read from the storage unit 50. A1, A2, and A3 are simultaneously displayed on the display unit 60 together with attribute information A4 such as a patient number, pixel size, and image slice thickness.

相の選択入力受付処理(S12)では、入力部40のマウスやキーボードなどの入力デバイスによる操作入力を受け付け、上記属性情報A4とともに表示される選択ボタンによる選択操作入力により、異なる相の撮像条件の下での画像から目的達成に適する条件の「相」が選択される。   In the phase selection input receiving process (S12), an operation input by an input device such as a mouse or a keyboard of the input unit 40 is received, and an imaging condition of a different phase is determined by a selection operation input by a selection button displayed together with the attribute information A4. The “phase” of the condition suitable for achieving the purpose is selected from the image below.

処理画像決定入力受付処理(S13)では、入力部40のマウスやキーボードなどの入力デバイスによる操作入力を受け付け、表示部60による表示画面内の画像選択ための点線位置(カーソル)あるいは+,−ボタンA5の操作により、図4の(B)に示すように、処理対象として最適な画像が選択される。表示部60による表示画面には、選択位置情報A6が表示される。   In the processed image determination input reception process (S13), an operation input by an input device such as a mouse or a keyboard of the input unit 40 is received, and a dotted line position (cursor) or +/− buttons for selecting an image in the display screen by the display unit 60. By the operation of A5, as shown in FIG. 4B, an optimal image is selected as a processing target. On the display screen by the display unit 60, the selected position information A6 is displayed.

上記前処理部20は、入力部40による手動操作入力を受け付けて、目的画像選択処理(S1)により処理対象として最適な画像が選択されると、次の領域とデータ取得処理(S2)を行う。   When the pre-processing unit 20 receives a manual operation input from the input unit 40 and selects an optimum image as a processing target in the target image selection process (S1), the pre-processing unit 20 performs a data acquisition process (S2) with the next region. .

上記前処理部20における領域とデータ取得処理(S2)では、図5のフローチャートに示すように、利用画像輝度調節処理(S21)、目的領域指定入力受付処理(S22)、目的領域の画像データ取得処理(S23)、目的外領域指定入力受付処理(S24)、目的外領域の画像データ取得処理(S25)を行う。   In the area and data acquisition process (S2) in the pre-processing unit 20, as shown in the flowchart of FIG. 5, the use image brightness adjustment process (S21), the target area designation input reception process (S22), and the target area image data acquisition Processing (S23), non-target region designation input acceptance processing (S24), and non-target region image data acquisition processing (S25) are performed.

利用画像輝度調節処理(S21)では、上記記憶部50から読み出す画像の輝度範囲を調整し、輝度0〜255レベルに内に納める。   In the use image brightness adjustment process (S21), the brightness range of the image read from the storage unit 50 is adjusted and is stored within the brightness 0 to 255 level.

目的領域指定入力受付処理(S22)では、入力部40のマウスやキーボードなどの入力デバイスによる操作入力を受け付け、処理対象の断面を選択し、図6の(A)に示すように表示部60による表示画面に表示されているYZ面上で、目的領域(Hcc)内部に、対角上の二点を選択し、二点を結ぶ線分が目的領域(Hcc)を大略含む対角線となるようにする。そして、図6の(B)に示すように、その対角線L1で決定される矩形を適宜拡大(あるいは縮小)して、仮の目的領域(Hcc)とする   In the target area designation input reception process (S22), an operation input by an input device such as a mouse or a keyboard of the input unit 40 is received, a cross section to be processed is selected, and the display unit 60 performs processing as shown in FIG. On the YZ plane displayed on the display screen, two diagonal points are selected inside the target area (Hcc) so that the line segment connecting the two points is a diagonal line substantially including the target area (Hcc). To do. Then, as shown in FIG. 6B, the rectangle determined by the diagonal line L1 is appropriately enlarged (or reduced) to obtain a temporary target area (Hcc).

そして、目的領域の画像データ取得処理(S23)では、上記対角線L1に沿った各XY面上での周辺の画素の輝度値データをHccデータとして取得する。   In the target area image data acquisition process (S23), luminance value data of peripheral pixels on each XY plane along the diagonal line L1 is acquired as Hcc data.

次の目的外領域指定入力受付処理(S24)では、入力部40のマウスやキーボードなどの入力デバイスによる操作入力を受け付け、図6の(B)に示すように表示部60による表示画面に表示されているYZ面上で、目的外領域(Liver)内部に対角上の二点を選択する。   In the next non-target area designation input reception process (S24), an operation input by an input device such as a mouse or a keyboard of the input unit 40 is received and displayed on the display screen by the display unit 60 as shown in FIG. On the YZ plane, two diagonal points inside the non-target region (Liver) are selected.

そして、目的外領域の画像データ取得処理(S25)では、上記二点を結ぶ線分L2に沿った各XY面上での周辺の画素の輝度値データをLiverデータとして取得する。   In the non-target area image data acquisition process (S25), luminance value data of peripheral pixels on each XY plane along the line segment L2 connecting the two points is acquired as Liver data.

次に、上記制御部10は、上記前処理部20による目的画像選択処理(S1)と領域とデータ取得処理(S2)が終了すると、上記画像処理部30による画像処理の制御を行う。   Next, when the target image selection process (S1) and the area and data acquisition process (S2) by the preprocessing unit 20 are completed, the control unit 10 controls the image processing by the image processing unit 30.

すなわち、この医用画像処理装置100における画像処理部30による処理内容を図7のフローチャートに示すように、上記制御部10は、上記処理プログラムにしたがって上記画像処理部30の動作を制御して、ヒストグラムの生成と正規分布近似処理(S3)、閾値決定・領域抽出処理(S4)、目的領域修正処理(S5)、連続二領域抽出処理(S6)、探索終了決定処理(S7)、三次元表示処理(S8)を行う。   That is, as shown in the flowchart of FIG. 7, the control unit 10 controls the operation of the image processing unit 30 in accordance with the processing program, and displays the histogram as the processing content by the image processing unit 30 in the medical image processing apparatus 100 is shown in FIG. Generation and normal distribution approximation processing (S3), threshold determination / region extraction processing (S4), target region correction processing (S5), continuous two-region extraction processing (S6), search end determination processing (S7), three-dimensional display processing (S8) is performed.

上記画像処理部30によるヒストグラムの生成と正規分布近似処理(S3)では、上記前処理部20により得られたHccデータとLiverデータ、すなわち、上記対角線L1に沿った各XY面上での周辺の画素の輝度値データと、上記線分L2に沿った各XY面上での周辺の画素の輝度値データの、ヒストグラムと各平均、分散を求め、それらから目的領域(Hcc)の画素の輝度分布の近似正規分布HHcc及び目的外領域(Liver)の画素の輝度分布の近似正規分布HLiverを作成して、表示部60による表示画面に表示する。 In the histogram generation and normal distribution approximation process (S3) by the image processing unit 30, the Hcc data and the Liver data obtained by the preprocessing unit 20, that is, peripherals on each XY plane along the diagonal line L1. Histograms, averages and variances of the luminance value data of the pixels and the luminance value data of the surrounding pixels on each XY plane along the line segment L2 are obtained, and the luminance distribution of the pixels in the target area (Hcc) is obtained therefrom. and creating an approximate normal distribution H Liver of the luminance distribution of the pixels of the normal distribution H Hcc and untargeted area of approximation (Liver), and displays on the display screen by the display unit 60.

ここで、上記画像処理部30によるヒストグラムの生成と正規分布近似処理(S3)では、上記前処理部20における利用画像輝度調節処理(S21)が施されたHccデータとLiverデータから各近似正規分布HHcc,HLiverを作成するので、作成される各近似正規分布HHcc,HLiverは、例えば図8の(A)に示すように、輝度0〜255レベルに内に全体が収められた正しく近似されたものとなる。 Here, in the generation of the histogram and the normal distribution approximation process (S3) by the image processing unit 30, each approximate normal distribution is obtained from the Hcc data and the Liver data subjected to the use image luminance adjustment process (S21) in the preprocessing unit 20. since H Hcc, creating a H Liver, each approximated normal distribution H Hcc created, H Liver, for example, as shown in FIG. 8 (a), correctly entirely housed in the inner to the luminance 0 to 255 levels It is an approximation.

なお、上記利用画像輝度調節処理(S21)が施されていないHccデータとLiverデータから各近似正規分布HHcc’,HLiver’を作成した場合、例えば図8の(B)に示すように、輝度0〜255レベルに内に一部が収まらず正しく近似されないため、この後に続く閾値決定・領域抽出処理(S4)における目的領域抽出の頑強性に大きく影響を与えることになる。 The above-using image brightness adjusting processing (S21) is performed not even Hcc data and the approximated normal distribution from Liver data H Hcc ', H Liver' If you have created, for example, as shown in FIG. 8 (B), Since a part of the brightness falls within the range of 0 to 255 and is not approximated correctly, the robustness of the target area extraction in the subsequent threshold value determination / area extraction process (S4) is greatly affected.

上記画像処理部30における閾値決定・領域抽出処理(S4)では、図9のフローチャートに示すように、Bays則に基づく閾値決定処理(S41)、YZ(矢状断)面上での領域抽出処理(S42)、XZ(頭額断)面上でのX方向の大きさ抽出処理(S43)、XY(水平断)面上での領域抽出処理(S44)、次のXY(水平断)面上での領域抽出処理(S45)、XY(水平断)面上での領域抽出処理(S46)、XZ(頭額断)面上でのZ方向の大きさ抽出処理(S47)、XZ(頭額断)面上での領域抽出処理(S48)、XY(水平断)面上での領域抽出処理(S49)を行う。   In the threshold value determination / region extraction process (S4) in the image processing unit 30, as shown in the flowchart of FIG. 9, the threshold value determination process based on the Bayes rule (S41), the region extraction process on the YZ (sagittal cut) plane (S42), size extraction process in the X direction on the XZ (head cut) plane (S43), area extraction process on the XY (horizontal cut) plane (S44), on the next XY (horizontal cut) plane Region extraction processing (S45), region extraction processing on the XY (horizontal section) surface (S46), size extraction processing in the Z direction on the XZ (head frame) surface (S47), XZ (head amount) Section extraction processing (S48) on the plane and area extraction processing (S49) on the XY (horizontal section) plane.

Bays則に基づく閾値決定処理(S41)、では、上記ヒストグラムの生成と正規分布近似処理(S3)により求めた2つの近似正規分布HHcc,HLiverを用いて、これら2つの近似正規分布HHcc,HLiverの交点を求め、 Bays則での二値化閾値(iEqual)とする。 Threshold value determination process based on Bays rule (S41), the generation of the histogram and the normal distribution approximation process (S3) by two approximate normal distribution H Hcc obtained, using H Liver, these two approximations normal distribution H Hcc , find the intersection H Liver, and binarization threshold at Bays law (iEqual).

ここで、Bays則に基づく領域分割処理は、例えば図10に示すように、異なる正規分布する輝度からなる画像を二値化するとき、その交点を二値化閾値(iEqual)とし、それ以上を1、未満を0とするものである。このBays則に基づく領域分割処理では、図10において、本来は低輝度領域に属するが高輝度と判定される誤差(Err1)と本来は高輝度領域に属するが低輝度と判定される誤差(Err2)の和(ErrT)が論理的に最小となる。   Here, in the area division processing based on the Bayes rule, for example, as shown in FIG. 10, when binarizing an image composed of luminances having different normal distributions, the intersection point is set as a binarization threshold value (iEqual), and more than that 1 and less than 0. In the region division processing based on this Bayes rule, in FIG. 10, an error (Err1) that originally belongs to the low luminance region but is determined to be high luminance and an error (Err2) that originally belongs to the high luminance region but is determined to be low luminance are shown. ) (ErrT) is logically minimum.

YZ(矢状断)面上での領域抽出処理(S42)では、図11のフローチャートに示すように、目的領域(Hcc)と目的外領域(Liver)の候補領域抽出処理(S421)、最終目的外領域決定処理(S422)、目的領域を囲む矩形領域決定処理(S423)を行う。   In the area extraction process (S42) on the YZ (sagittal cut) plane, as shown in the flowchart of FIG. 11, candidate area extraction process (S421) of the target area (Hcc) and the non-target area (Live), the final target Outer region determination processing (S422) and rectangular region determination processing (S423) surrounding the target region are performed.

上記候補領域抽出処理(S421)では、上記Bays則に基づく閾値決定処理(S41)、により決定されたYZ(矢状断)面上での二値化閾値(iEqual)により、目的候補領域(Hcc1)と目的外候補領域(Liver1)をそれぞれ抽出する。   In the candidate area extraction process (S421), the target candidate area (Hcc1) is obtained by the binarization threshold (iEqual) on the YZ (sagittal section) plane determined by the threshold value determination process (S41) based on the Bayes rule. ) And a non-target candidate region (Liver1).

例えば図12の(A)に示す目的候補領域(Hcc1)を示す画像から、図12の(B)に示す上記目的候補領域(Hcc1)内の最大面積を抽出した画像を得て、図12の(H)に示すように、その内部を穴埋めして2値化した目的領域(Hcc2)とする。   For example, an image obtained by extracting the maximum area in the target candidate region (Hcc1) shown in FIG. 12B from the image showing the target candidate region (Hcc1) shown in FIG. As shown in (H), a target area (Hcc2) that is binarized by filling the inside thereof is used.

例えば図12の(A)に示す目的候補領域(Hcc1)を示す画像から、図12の(B)に示す上記目的候補領域(Hcc1)内の最大面積を抽出した画像を得て、図12の(C)に示すように、その内部を穴埋めして2値化した目的領域(Hcc2)とする。   For example, an image obtained by extracting the maximum area in the target candidate region (Hcc1) shown in FIG. 12B from the image showing the target candidate region (Hcc1) shown in FIG. As shown in (C), a binarized target area (Hcc2) is formed by filling the inside.

次の最終目的外領域決定処理(S422)では、上記候補領域抽出処理(S421)により抽出された例えば図12の(A)に示す目的候補領域(Hcc1)を示す画像から、図12の(B)に示す上記目的候補領域(Hcc1)内の最大面積を抽出した画像を得て、図12の(C)に示すように、その内部を穴埋めして2値化した目的領域(Hcc2)とするとともに、上記候補領域抽出処理(S421)により抽出された例えば図12の(D)に示す目的外候補領域(Liver1)を示す画像に図12の(C)に示す上記目的候補領域(Hcc1)内の最大面積を抽出した画像を加えることにより、図12の(E)に示すように、上記目的候補領域を内包する目的外候補領域を決定し、図12の(F)に示すように、その内部を穴埋めして2値化後、図12の(G)に示すように、目的領域でも目的外領域でも無い、例えば雑音あるいは血管領域を除いた最終目的外領域とする。   In the next final non-target area determination process (S422), for example, from the image showing the target candidate area (Hcc1) shown in FIG. 12A extracted by the candidate area extraction process (S421), (B ), The image obtained by extracting the maximum area in the target candidate area (Hcc1) is obtained, and as shown in FIG. 12C, the inside is filled into a binarized target area (Hcc2). In addition, for example, in the image showing the non-target candidate area (Liver1) shown in (D) of FIG. 12 extracted by the candidate area extraction processing (S421), the inside of the target candidate area (Hcc1) shown in (C) of FIG. By adding an image obtained by extracting the maximum area of the target area, as shown in FIG. 12E, a non-target candidate area that includes the target candidate area is determined, and as shown in FIG. Filling the inside After binarization Te, as shown in (G) in FIG. 12, not even in non-target regions in the target area, the final non-target region excluding the example noise or vascular regions.

そして、矩形領域決定処理(S423)では、上記候補領域抽出処理(S421)により決定された図12の(C)に示す二値化した目的領域(Hcc2)に基づいて、図12の(H)に示すように、目的領域(Hcc2)を囲む矩形領域を決定する。   In the rectangular area determination process (S423), based on the binarized target area (Hcc2) shown in (C) of FIG. 12 determined by the candidate area extraction process (S421), (H) of FIG. As shown in FIG. 4, a rectangular area surrounding the target area (Hcc2) is determined.

また、XZ(頭額断)面上でのX方向の大きさ抽出処理(S43)では、図13のフローチャートに示すように、XZ面上で目的領域(Hcc)の選択入力を受け付ける選択入力受付処理(S431)、選択された目的領域(Hcc)内のX(水平)方向の長さの指定入力を受け付ける長さ指定入力受付処理(S432)、選択された目的領域(Hcc)内のX(水平)方向の幅情報を計測する幅情報計測処理(S433)、X(水平)方向の幅情報を保存する幅情報保存処理(S434)を行う。   In addition, in the size extraction process in the X direction on the XZ (head slice) plane (S43), as shown in the flowchart of FIG. 13, selection input reception for receiving selection input of the target area (Hcc) on the XZ plane. Processing (S431), length designation input acceptance processing (S432) for accepting a designation input of the length in the X (horizontal) direction in the selected target area (Hcc), and X (in the selected target area (Hcc) Width information measurement processing (S433) for measuring width information in the (horizontal) direction and width information storage processing (S434) for storing width information in the X (horizontal) direction are performed.

すなわち、上記画像処理部30は、選択入力受付処理(S431)では、入力部40のマウスやキーボードなどの入力デバイスによる操作入力を受け付け、図14の(A)に示すように、表示部60により表示される画面上のメニューバー内のプルダウンメニューPによる目的領域(Hcc)の選択を受け付け、図15の(B)に示すように、選択された目的領域(Hcc)の画像を別のウインドウ上に表示する   That is, in the selection input receiving process (S431), the image processing unit 30 receives an operation input from an input device such as a mouse or a keyboard of the input unit 40, and as shown in FIG. The selection of the target area (Hcc) by the pull-down menu P in the menu bar on the displayed screen is accepted, and the image of the selected target area (Hcc) is displayed on another window as shown in FIG. Show on

次の長さ指定入力受付処理(S432)では、入力部40のマウスやキーボードなどの入力デバイスによる操作入力を受け付け、図15の(A)に示すように、選択された目的領域(Hcc)内のX(水平)方向の長さの指定入力を受け付け、指定された長さの線分L3を描画する。   In the next length designation input acceptance process (S432), an operation input by an input device such as a mouse or a keyboard of the input unit 40 is accepted, and as shown in FIG. 15A, within the selected target area (Hcc). A designation input of the length in the X (horizontal) direction is received, and a line segment L3 having the designated length is drawn.

次の幅情報計測処理(S433)では、図15の(B)に示すように、上記長さ指定入力受付処理(S432)により指定された線分L3の長さを計測して、上記目的領域(Hcc)のX(水平)方向の幅情報を得る。   In the next width information measurement process (S433), as shown in FIG. 15B, the length of the line segment L3 designated by the length designation input reception process (S432) is measured, and the target area is obtained. Width information in the X (horizontal) direction of (Hcc) is obtained.

なお、上記長さ指定入力受付処理(S432)において多少傾斜して線分L3が指定された場合にも、上記幅情報計測処理(S433)では、上記目的領域(Hcc)のX(水平)方向の長さのみを計測するようにしている。   Even when the line segment L3 is specified with a slight inclination in the length designation input receiving process (S432), in the width information measurement process (S433), the X (horizontal) direction of the target area (Hcc). Only the length of is measured.

そして、次の幅情報保存処理(S434)では、上記幅情報計測処理(S433)により得られた上記目的領域(Hcc)のX(水平)方向の長さ(幅情報)を120%に延長して、その両端位置をXmin,Xmaxとして、上記目的領域(Hcc)の大きさを示す位置情報Xmin,Xmax,Ymin,Ymax,Zmin,Zmaxを保存する。   In the next width information storage process (S434), the length (width information) in the X (horizontal) direction of the target area (Hcc) obtained by the width information measurement process (S433) is extended to 120%. Then, the position information Xmin, Xmax, Ymin, Ymax, Zmin, Zmax indicating the size of the target area (Hcc) is stored with the both end positions as Xmin, Xmax.

また、次のXY(水平断)面上での領域抽出処理(S44)では、領域抽出処理(S441)、領域制限枠処理(S442)、領域最大面積検出処理(S443)、目的外領域設定処理(S444)、正規分布近似処理(S445)、閾値決定処理S446)、領域抽出処理(S447)を行う。   In the area extraction process (S44) on the next XY (horizontal section) plane, the area extraction process (S441), the area restriction frame process (S442), the area maximum area detection process (S443), and the non-target area setting process (S444), normal distribution approximation processing (S445), threshold value determination processing S446), and region extraction processing (S447).

領域抽出処理(S441)では、図17の(A)に示すように、注目Z断面上でYZ面と同一基準で目的領域(Hcc)と目的外候補領域(Liver)を抽出する。   In the region extraction process (S441), as shown in FIG. 17A, a target region (Hcc) and a non-target candidate region (Liver) are extracted on the Z section of interest on the same basis as the YZ plane.

次の域制限枠処理(S442)では、図17の(B)に示すように、位置情報Xmin,Xmax,Ymin,Ymax,Zmin,Zmaxにより示される目的領域(Hcc)の大きさを示す矩形枠を拡張し、目的領域(Hcc)付近の矩形枠S内のみを抽出対象とする処理を行う。   In the next area limit frame process (S442), as shown in FIG. 17B, a rectangular frame indicating the size of the target area (Hcc) indicated by the position information Xmin, Xmax, Ymin, Ymax, Zmin, Zmax. Is expanded, and only the inside of the rectangular frame S near the target area (Hcc) is extracted.

次の領域最大面積検出処理(S443)では、図17の(C)に示すように、上記矩形枠S内にある目的領域(Hcc)の最大面積(XYHccMaxYZ)を検出する。   In the next area maximum area detection process (S443), the maximum area (XYHccMaxYZ) of the target area (Hcc) in the rectangular frame S is detected as shown in FIG.

次の目的外領域設定処理(S444)では、図17の(D)に示すように、新しく目的外領域の輝度データを取得する領域(Liver for Data)を設定する。   In the next non-target area setting process (S444), as shown in FIG. 17D, a new area (Liver for Data) for acquiring luminance data of the non-target area is set.

以上の説明は、図9に示したBays則に基づく閾値決定処理(S41)を、先ず始めにYZ面上で行うYZ(矢状断)面上での領域抽出処理(S42)を採用する場合についてのべたものであり、この処理終了後には、後述する正規分布近似処理(S445)の処理へ移行する。   In the above explanation, the threshold value determination process (S41) based on the Bayes rule shown in FIG. 9 is first applied to the area extraction process (S42) on the YZ (sagittal cut) plane performed on the YZ plane. After the completion of this process, the process proceeds to the normal distribution approximation process (S445) described later.

一方、図9に示すBays則に基づく閾値決定処理(S41)を、先ず始めに上述したXY(水平断)面上での領域抽出処理(S46)を行う方法を採用することも出来るから、その場合は、上述のYZ(矢状断)面上での領域抽出処理(S42)と同様の処理を、対応する適切な面を対象としてXY(水平断)面上での領域抽出処理(S46)として実施する。   On the other hand, since the threshold value determination process (S41) based on the Bayes rule shown in FIG. 9 can be adopted, the method of first performing the above-described region extraction process (S46) on the XY (horizontal section) plane can be adopted. In this case, the same process as the above-described area extraction process (S42) on the YZ (sagittal section) plane is performed, and the area extraction process on the XY (horizontal section) plane (S46) with the corresponding appropriate plane as a target. As implemented.

上記のように先ず始めにXY面上から処理を開始したときは、XY面上での目的領域とそれを囲む矩形領域すなわちXおよびY方向の目的領域の大きさが検出されるので、XZ(頭額断)面上でのZ方向の大きさ抽出処理(S47)により目的領域のZ方向の大きさを決定する。この処理終了後には、後述する正規分布近似処理(S445)へ移行する。   As described above, when processing is first started from the XY plane, the size of the target area on the XY plane and the surrounding rectangular area, that is, the target areas in the X and Y directions are detected. The size of the target area in the Z direction is determined by the size extraction process in the Z direction on the (headframe) plane (S47). After this process is completed, the process proceeds to a normal distribution approximation process (S445) described later.

一方、図9に示す,Bays則に基づく閾値決定処理(S41)を、先ず始めにXZ(頭額断)面上での領域抽出処理(S48)を行う方法を採用することも出来るから、その場合は,上述のYZ(矢状断)面上での領域抽出処理(S42)の処理と同様の処理を、対応する適切な面を対象としてXZ(頭額断)面上での領域抽出処理(S48)として実施する。   On the other hand, since the threshold value determination process (S41) based on the Bayes rule shown in FIG. 9 can be adopted, first, the method of performing the area extraction process (S48) on the XZ (head frame) plane can be adopted. In this case, the same process as the area extraction process (S42) on the YZ (sagittal cut) plane described above is performed, and the area extraction process on the XZ (head cut) plane is performed for the corresponding appropriate plane. This is implemented as (S48).

上記のように先ず始めにXZ面上から処理を開始したときは、XZ面上での目的領域とそれを囲む矩形領域すなわちXおよびZ方向の目的領域の大きさが検出されるので、XY(水平断)面上でのY方向の大きさ抽出処理(S49)により目的領域のY方向の大きさを決定する。この処理終了後には、次の正規分布近似処理(S445)の処理へ移行する。   As described above, when processing is first started from the XZ plane, the size of the target area on the XZ plane and the surrounding rectangular area, that is, the target areas in the X and Z directions are detected. The size in the Y direction of the target region is determined by the size extraction process in the Y direction on the (horizontal section) plane (S49). After this process is completed, the process proceeds to the next normal distribution approximation process (S445).

次の正規分布近似処理(S445)では、上記目的外領域設定処理(S444)により設定された領域(Liver for Data)と上記領域最大面積検出処理(S443)により検出された目的領域(Hcc)の最大面積(XYHccMaxYZ)の新しい輝度データのヒストグラムから、次に処理する画像の目的領域(Hcc)の画素の輝度分布の近似正規分布HHcc及び目的外領域(Liver)の画素の輝度分布の近似正規分布HLiverを作成する。 In the next normal distribution approximation processing (S445), the region (Liver for Data) set by the non-target region setting processing (S444) and the target region (Hcc) detected by the region maximum area detection processing (S443). From the histogram of the new luminance data of the maximum area (XYHccMaxYZ), the approximate normal distribution H Hcc of the luminance distribution of the pixel of the target area (Hcc) of the image to be processed next and the approximate normal of the luminance distribution of the pixel of the non-target area (Live) A distribution H Liver is created.

次の閾値決定処理S446では、上記正規分布近似処理(S445)により作成した目的領域(Hcc)の画素の輝度分布の近似正規分布HHcc及び目的外領域(Liver)の画素の輝度分布の近似正規分布HLiverを用いて、図18に示すように、これら2つの近似正規分布HHcc,HLiverの交点を求め、 Bays則での二値化閾値(iEqual)とするBays則に基づく領域分割(二値化)の閾値(iEqual)を決定する処理を行う。 In the next threshold value determination process S446, the approximate normal distribution HHcc of the luminance distribution of the pixel in the target area (Hcc) and the approximate normality of the luminance distribution of the pixel in the non-target area (Live) created by the normal distribution approximation process (S445). with distribution H Liver, as shown in FIG. 18, these two approximations normal distribution H Hcc, obtain the intersection of H Liver, region segmentation based on Bays law to binarization threshold (IEqual) at Bays law ( A process of determining a threshold (iEqual) of binarization is performed.

そして、次の領域抽出処理(S447)では、上記閾値決定処理S446により決定した二値化閾値(iEqual)を用いて、図19に示すように、XY面内で新しい2つの領域を抽出する処理を行う。   Then, in the next area extraction process (S447), using the binarization threshold value (iEqual) determined in the threshold value determination process S446, as shown in FIG. 19, two new areas are extracted in the XY plane. I do.

また、上記画像処理部30は、目的領域修正処理(S5)では、図20のフローチャートに示すように、大局的目的領域修正処理(S51)と局所的目的領域修正処理(S52)を行う。   In the target area correction process (S5), the image processing unit 30 performs a global target area correction process (S51) and a local target area correction process (S52) as shown in the flowchart of FIG.

大局的目的領域修正処理51では、図21のフローチャートに示すように、検定必要性決定処理(S511)、検定棄却基準設定処理(S512)、検定実行設定処理(S513)、検定領域探索処理(S514)、母集団データ取得処理(S515)、検定実行処理(S516)、目的領域修正処理(S517)、矩形領域決定処理(S511)を行う。 In the global target area correction process 51, as shown in the flowchart of FIG. 21, a test necessity determination process (S511), a test rejection criterion setting process (S512), a test execution setting process (S513), and a test area search process (S514). ), Population data acquisition processing (S515), verification execution processing (S516), target region correction processing (S517), and rectangular region determination processing (S511).

まず、検定必要性決定処理(S511)では、ヒストグラムによる全誤差の値により検定の必要性を決定する。検定不要の場合には、検定前の結果を利用するものとする。   First, in the necessity determination process (S511), the necessity of the test is determined based on the total error value based on the histogram. If the test is not required, the results before the test shall be used.

次の検定棄却基準設定処理(S512)では、二領域のヒストグラムから求めたトータル誤差の大きさに基づいて検定棄却基準を設定する。   In the next test rejection criterion setting process (S512), the test rejection criterion is set based on the total error obtained from the histograms of the two regions.

次の検定実行設定処理(S513)では、図22の(A)に示すように既に検出した目的領域(Hcc)を用いて、図22の(B)に示すように目的領域(Hcc)を拡大し、検定実行領域(Act)を目的領域周辺のみとする設定を行う。   In the next test execution setting process (S513), the target area (Hcc) is expanded as shown in FIG. 22 (B) using the target area (Hcc) already detected as shown in FIG. 22 (A). The test execution area (Act) is set only around the target area.

次の検定領域探索処理(S514)では、上記検定実行設定処理(S513)により設定された検定実行領域(Act)内の画素をラスタースキャンにより順次探査する。   In the next test area search process (S514), pixels in the test execution area (Act) set by the test execution setting process (S513) are sequentially searched by raster scanning.

次の母集団データ取得処理(S515)では、既に目的領域として決定された領域内を母集団として、母平均、母標準偏差を求める処理を行う。   In the next population data acquisition process (S515), a process for obtaining a population mean and a population standard deviation is performed using the region already determined as the target region as a population.

次の検定実行処理(S516)では、検定対象画素周辺のn個の画素の平均値と母集団の母平均、母標準偏差を用いてZ検定を行い、棄却されれば当該画素は目的領域と見なす処理を行う。   In the next test execution process (S516), a Z test is performed using the average value of n pixels around the test target pixel, the population average of the population, and the population standard deviation. Do what you consider.

次の目的領域修正処理(S517)では、上記検定実行処理(S516)による検定結果に基づいて目的領域を修正処理する処理を行う。   In the next target area correction process (S517), a process for correcting the target area is performed based on the test result obtained by the test execution process (S516).

次の矩形領域決定処理(S511)では、目的領域修正処理(S517)により域修正処理が施されたあるZでのXY面上で決定した目的領域を囲む矩形領域を決定し、この矩形領域内の目的領域を基に、上下のZの各XY面上で目的領域を決定する。このようにして決定されたあるZでの目的領域を初期目的領域とする。   In the next rectangular area determination process (S511), a rectangular area surrounding the target area determined on the XY plane in a certain Z that has been subjected to the area correction process by the target area correction process (S517) is determined. Based on the target area, the target area is determined on each of the upper and lower Z XY planes. The target area at a certain Z determined in this way is set as the initial target area.

局所目的領域修正処理51では、図23のフローチャートに示すように、検定必要性決定処理(S521)、検定棄却基準設定処理(S522)、検定実行設定処理(S523)、検定領域探索処理(S524)、検定対象画素決定処理(S525)、母集団データ取得処理(S526)、検定実行処理(S527)、目的領域修正処理(S528)、矩形領域決定処理(S529)を行う。   In the local target area correction process 51, as shown in the flowchart of FIG. 23, a test necessity determination process (S521), a test rejection criterion setting process (S522), a test execution setting process (S523), and a test area search process (S524). Then, a verification target pixel determination process (S525), a population data acquisition process (S526), a test execution process (S527), a target area correction process (S528), and a rectangular area determination process (S529) are performed.

まず、検定必要性決定処理(S521)では、ヒストグラムによる全誤差の値により検定の必要性を決定する。検定不要の場合には、検定前の結果を利用するものとする。   First, in the necessity determination process (S521), the necessity of the test is determined based on the total error value based on the histogram. If the test is not required, the results before the test shall be used.

次の検定棄却基準設定処理(S522)では、二領域のヒストグラムから求めたトータル誤差の大きさに基づいて検定棄却基準を設定する。   In the next test rejection criterion setting process (S522), a test rejection criterion is set based on the total error obtained from the histograms of the two regions.

次の検定実行設定処理(S523)では、図24の(A)に示すように既に検出した目的領域(Hcc)を用いて、図24の(B)に示すように目的領域(Hcc)を拡大し、検定実行領域(Act)を目的領域周辺のみとする設定を行う。   In the next test execution setting process (S523), the target area (Hcc) is enlarged as shown in (B) of FIG. 24 using the target area (Hcc) already detected as shown in (A) of FIG. The test execution area (Act) is set only around the target area.

次の検定領域探索処理(S524)では、上記検定実行設定処理(S523)により設定された検定実行領域(Act)内の画素のみを順次探査する。   In the next test area search process (S524), only the pixels in the test execution area (Act) set by the test execution setting process (S523) are sequentially searched.

次の検定対象画素決定処理(S525)では、上記検定実行領域(Act)内の検定未実施画素を決定し,当該画素を検定対象として処理し、処理終了後に検定済み画素として登録することを順次実施し、上記検定実行領域(Act)内画素の全ての検定を実施する。   In the next verification target pixel determination process (S525), it is determined to determine a non-tested pixel in the test execution area (Act), process the pixel as a test target, and register it as a tested pixel after the process is completed. The test is performed for all the pixels in the test execution area (Act).

次の母集団データ取得処理(S526)では、検定対象画素及びその周辺の複数個(n個)の画素のデータ及び既に目的領域として決定された領域内のみの検定対象画素周辺の複数個(m個>n個)の画素のデータを局所検定用母集団データとして取得するための領域内を決定する処理を行う。   In the next population data acquisition process (S526), the test target pixel and a plurality of (n) pixel data around the test target pixel and a plurality (m) around the test target pixel only in the area already determined as the target area. A process of determining the area for acquiring the data of (n> n) pixels as the population data for local verification is performed.

次の検定実行処理(S527)では、上記検定対象画素周辺のn個の画素の平均値および上記局所検定用母集団データの平均値と標準偏差を母平均及び母標準偏差として用いZ検定を行い、棄却されれば当該画素は目的領域と見なす処理を行う。   In the next test execution process (S527), a Z test is performed using the average value of the n pixels around the test target pixel and the average value and standard deviation of the local test population data as the population mean and population standard deviation. If rejected, the pixel is processed as a target area.

次の目的領域修正処理(S528)では、図25に示すように、上記検定実行処理(S527)による検定結果に基づいて目的領域(Hcc)を修正処理する処理を行う。   In the next target area correction process (S528), as shown in FIG. 25, a process for correcting the target area (Hcc) is performed based on the test result of the test execution process (S527).

次の矩形領域決定処理(S529)では、目的領域修正処理(S528)により域修正処理が施されたあるZでのXY面上で決定した目的領域を囲む矩形領域Sを図26に示すように決定し、この矩形領域S内の目的領域(Hcc)を基に、上下のZの各XY面上で目的領域(Hcc)を決定する。このようにして決定されたあるZでの目的領域(Hcc)を初期目的領域とする。   In the next rectangular area determination process (S529), as shown in FIG. 26, the rectangular area S surrounding the target area determined on the XY plane in a certain Z subjected to the area correction process by the target area correction process (S528). Based on the target area (Hcc) in the rectangular area S, the target area (Hcc) is determined on each of the upper and lower XY planes. The target area (Hcc) at a certain Z determined in this way is set as the initial target area.

また、上記画像処理部30は、連続二領域抽出処理(S6)では、図27のフローチャートに示すように、初期目的領域画面設定処理(S61)、二領域連続抽出処理(S62)、新Zでの二領域連続抽出処理(S63)、新閾値採用可否決定処理(S64)、新目的領域探索範囲決定処理(S65)、探索終了決定処理(S66)を行う。   In the continuous two-region extraction process (S6), the image processing unit 30 performs the initial target region screen setting process (S61), the two-region continuous extraction process (S62), and the new Z as shown in the flowchart of FIG. The two-region continuous extraction process (S63), the new threshold adoption determination process (S64), the new target area search range determination process (S65), and the search end determination process (S66) are performed.

初期目的領域画面設定処理(S61)では、初期Zでの目的領域を初期目的領域画面として設定する処理を行う。   In the initial target area screen setting process (S61), a process of setting the target area in the initial Z as the initial target area screen is performed.

次の二領域連続抽出処理(S62)では、図28の(A)、(B)に示すように、Z方向に処理する平面を変えながら連続的に目的候補領域(Hcc)と目的外候補領域(Liver)の二領域を抽出する処理を行う。   In the next two-region continuous extraction processing (S62), as shown in FIGS. 28A and 28B, the target candidate region (Hcc) and the non-target candidate region are continuously changed while changing the plane to be processed in the Z direction. A process of extracting two areas of (Liver) is performed.

次の新Zでの二領域連続抽出処理(S63)では、旧Z上(最初は初期目的領域、次からは1つ前の目的領域)の二領域データを用いて、新Z上のXY面上で新たに目的領域(Hcc)と目的外領域(Liver)の二領域を抽出する処理を行う。   In the two-region continuous extraction process (S63) in the next new Z, the XY plane on the new Z is obtained using the two-region data on the old Z (initially the initial target region, and then the next previous target region). The process of newly extracting two regions, the target region (Hcc) and the non-target region (Liver), is performed.

次の新閾値採用可否決定処理(S64)では、旧目的領域の大きさ(換算直径)がある値より小さい場合は旧閾値をそのまま用い、そうでないときには、図29に示すように、上記新たな目的候補領域(Hcc)と目的外候補領域(Liver)の二領域のデータのヒストグラムの近似正規分布HHcc,HLiverから二値化用の新閾値(iEqual)を決定して用いる処理を行う。 In the next new threshold adoption feasibility determination process (S64), when the size of the old target area (converted diameter) is smaller than a certain value, the old threshold is used as it is. Otherwise, as shown in FIG. object candidate region (Hcc) and untargeted candidate region (Liver) of the two regions histograms approximate normal distribution H Hcc data, performs processing used to determine the new threshold value for binarization (iEqual) from H Liver.

次の新目的領域探索範囲決定処理(S65)では、図30のフローチャートに示すように、中間領域決定処理(S651)、領域分離処理(S652)、新領域追加処理(S653)、抽出結果表示処理(S654)を行う。   In the next new target area search range determination process (S65), as shown in the flowchart of FIG. 30, intermediate area determination process (S651), area separation process (S652), new area addition process (S653), extraction result display process (S654) is performed.

中間領域決定処理(S651)では、図31の(A)に示すように、旧目的領域(HccOLD)を収縮・拡大した中間領域(IHcc)を決定する処理を行う。 In the intermediate area determination process (S651), as shown in FIG. 31A , a process of determining an intermediate area (I Hcc ) obtained by contracting and expanding the old target area (Hcc OLD ) is performed.

次の領域分離処理(S652)では、図31の(B)に示すように、上記中間領域決定処理(S651)で決定した中間領域(IHcc)内でのみBays則で領域分離処理を行う。 In the next area separation process (S652), as shown in FIG. 31B , the area separation process is performed according to the Bayes rule only in the intermediate area (I Hcc ) determined in the intermediate area determination process (S651).

次の新領域追加処理(S653)では、図31の(C)に示すように、上記領域分離処理(S652)で分離された領域内新領域を上記旧目的領域(HccOLD)に追加した新しい目的領域(HccNEW)とする処理を行う。 In the next new area addition processing (S653), as shown in (C) of FIG. 31, the new and the area new region separated by the segmentation process (S652) in addition to the old object region (Hcc OLD) Processing for setting the target area (Hcc NEW ) is performed.

そして、次の抽出結果表示処理(S654)では、図31の(D)に示すように、異なるZでの抽出結果を原画像とともに表示する処理を行う。   Then, in the next extraction result display process (S654), as shown in FIG. 31D, a process of displaying the extraction results at different Z together with the original image is performed.

探索終了決定処理(S7)では、図32のフローチャートに示すように、目的領域抽出処理(S71)、終了条件決定処理(S72)、目的領域抽出処理(S73)を行う。   In the search end determination process (S7), as shown in the flowchart of FIG. 32, a target area extraction process (S71), an end condition determination process (S72), and a target area extraction process (S73) are performed.

目的領域抽出処理(S71)では、Z上方向に複数枚の二次元目的画像を抽出する処理を行う。   In the target area extraction process (S71), a process of extracting a plurality of two-dimensional target images in the Z upward direction is performed.

終了条件決定処理(S72)では、YZ面で求めた目的画像の大きさ(高さ)により終了条件を決定する処理を行う。   In the end condition determination process (S72), the end condition is determined based on the size (height) of the target image obtained on the YZ plane.

目的領域抽出処理(S73)では、Z下方向に複数枚の二次元目的画像を抽出する処理を行う。   In the target area extraction process (S73), a process of extracting a plurality of two-dimensional target images in the Z downward direction is performed.

三次元表示処理(S8)では、図33のフローチャートに示すように、三次元行列への収納処理(S81)、表示処理(S82)を行う。   In the three-dimensional display process (S8), as shown in the flowchart of FIG. 33, a storage process (S81) and a display process (S82) into a three-dimensional matrix are performed.

三次元行列への収納処理(S81)では、複数枚の二次元目的領域抽出結果を三次元行列に収納する処理を行う。 In the storing process into the three-dimensional matrix (S81), a process of storing a plurality of two-dimensional target region extraction results in the three-dimensional matrix is performed.

次の表示処理(S82)では、上記収納処理(S81)により複数枚の二次元目的領域抽出結果が収納された三次元行列、例えば図34の(A)に示すような異なるZでのZ上方向の連続抽出結果や図34の(B)に示すような異なるZでのZ下方向の連続抽出結果が収納された三次元行列を用いて、図35の(A)や(B)に示すように、目的領域を三次元表示する処理を行う。   In the next display process (S82), a three-dimensional matrix in which a plurality of two-dimensional target region extraction results are stored by the storage process (S81), for example, Z on different Z as shown in FIG. As shown in FIGS. 35A and 35B, a three-dimensional matrix storing the continuous extraction results in the direction and the continuous extraction results in the lower Z direction at different Zs as shown in FIG. 34B is used. As described above, the processing for displaying the target area in three dimensions is performed.

上述の如き医用画像処理装置100では、制御部10が処理プログラムにしたがって前処理部20の動作を制御して、上記前処理部20で上記目的画像選択処理(S1)、領域とデータ取得処理(S2)を行うことにより、簡単な手動操作による指定入力を受け付けて、医用画像診断装置で取得した複数の二次元断層画像から、目的領域のデータと同時にその概略の大きさを取得するとともに、非目的領域のデータを取得し、上記前処理により取得したデータを用いて二次元又は三次元の目的領域を自動的に抽出する画像処理を画像処理部30で行うことにより、所望の目的領域を短時間で抽出することができる。そして、上記制御部10が処理プログラムにしたがって上記画像処理部30の動作を制御して、濃度分布の正規分布への近似処理(S3)と、bays則による統計的領域抽出処理(S4)と、大局的及び局所的統計検定による目的領域修正処理(S5)と、三次元化するための二次元画像上での繰り返し処理を既抽出領域を拡大・縮小下中間領域に限定した領域内で行い目的領域を分離する連続的二領域抽出処理(S6)とを行うことにより、所望の目的領域を短時間で的確に抽出することができる。   In the medical image processing apparatus 100 as described above, the control unit 10 controls the operation of the preprocessing unit 20 according to the processing program, and the preprocessing unit 20 performs the target image selection process (S1), the area and data acquisition process ( By performing S2), it receives a designation input by a simple manual operation, acquires the approximate size simultaneously with the data of the target area from a plurality of two-dimensional tomographic images acquired by the medical image diagnostic apparatus, The image processing unit 30 performs image processing for acquiring the target area data and automatically extracting the two-dimensional or three-dimensional target area using the data acquired by the pre-processing, thereby shortening the desired target area. Can be extracted in time. Then, the control unit 10 controls the operation of the image processing unit 30 according to the processing program, and approximates the density distribution to a normal distribution (S3), statistical region extraction processing by Bayes rule (S4), Target area correction processing (S5) based on global and local statistical tests, and iterative processing on a two-dimensional image for three-dimensionalization are performed within an area where the already extracted area is limited to an enlarged / reduced intermediate area By performing the continuous two-region extraction process (S6) for separating the regions, a desired target region can be accurately extracted in a short time.

上記処理プログラムにしたがって上記制御部10により動作を制御される上記前処理部20及び画像処理部30の各種機能は、医用画像処理装置に搭載されるコンピュータが医用目的領域抽出処理プログラムを実行することによって、当該コンピュータにより実現することができ、X線コンピュータ断層撮影(CT:Computer Tomography)装置や核磁気共鳴撮影(MRI:Magnetic Resonance Imaging)装置、陽電子放射断層撮影(PET:Positron Emission Tomography)装置等の医用画像診断装置に上記医用目的領域抽出処理プログラムをインストールすることにより、医用画像診断装置で取得した複数の二次元断層画像から、簡単な操作で、二次元又は三次元の目的領域を短時間で抽出することができる。   Various functions of the preprocessing unit 20 and the image processing unit 30 whose operations are controlled by the control unit 10 according to the processing program are that a computer mounted on the medical image processing apparatus executes a medical target region extraction processing program. X-ray computed tomography (CT) apparatus, nuclear magnetic resonance imaging (MRI) apparatus, positron emission tomography (PET) apparatus, etc. By installing the above-described medical target region extraction processing program in a medical image diagnostic apparatus, a two-dimensional or three-dimensional target region can be quickly converted from a plurality of two-dimensional tomographic images acquired by the medical image diagnostic apparatus with a simple operation. Can be extracted.

上述の如き医用画像処理装置100により抽出された二次元又は三次元の目的領域(Hcc)の画像データは、例えば肝癌の評価・分類のために、上記目的領域(Hcc)の輪郭等の特徴量が抽出される。
なお、医用画像処理装置100おける、上記前処理部20は、処理対象の画像の領域の概略の大きさを指定する手動操作による指定入力として、対角線により特定される矩形領域の入力を受け付けるようにしたが、矩形領域に限定されることなく、多角形、任意形状の閉曲面、円など他の形状の領域であってもよい。
The image data of the two-dimensional or three-dimensional target area (Hcc) extracted by the medical image processing apparatus 100 as described above is, for example, a feature amount such as the outline of the target area (Hcc) for evaluation / classification of liver cancer. Is extracted.
Note that the preprocessing unit 20 in the medical image processing apparatus 100 accepts an input of a rectangular area specified by a diagonal line as a designation input by a manual operation that designates the approximate size of the area of the image to be processed. However, it is not limited to a rectangular region, but may be a region having another shape such as a polygon, an arbitrarily-shaped closed curved surface, or a circle.

目的領域(Hcc)の特徴量の抽出は、例えば、次のようにして行われる。   For example, the feature amount of the target area (Hcc) is extracted as follows.

以下特徴量の抽出について、お送りいただいた2件の予稿原稿の内容を記載する。
ここで、本件発明者等は、例えば図36の(A)に示すような術前の二次元腹部CT画像から抽出した図36の(B)に示すような肝臓癌境界のくぼみ特徴が、術後の生存曲線とよく対応するという結果を得ている。
The following describes the contents of the two submitted manuscripts for feature extraction.
Here, the inventors of the present invention, for example, have a depression feature at the boundary of the liver cancer as shown in FIG. 36B extracted from a preoperative two-dimensional abdominal CT image as shown in FIG. The result shows that it corresponds well with the later survival curve.

しかし、CT画像の一枚ではみることができない凹凸が多数存在しているので、肝臓癌の三次元像を用いた形状評価を行う。   However, since there are many irregularities that cannot be seen in one CT image, shape evaluation using a three-dimensional image of liver cancer is performed.

また、図37の(A)、(B)、(C)は二次元形状評価で用いた癌のくぼみを領域の塗り潰し処理を三次元に適用した場合を示す図であり、(A)はくぼみ領域の塗り潰した画像を示し、(B)塗り潰し前の画像を示し、(C)はくぼみ領域を示している。図37の(A)、(B)、(C)に示すように、二次元形状評価で用いた癌のくぼみを領域の塗り潰し処理を三次元に適用した場合、時間計算量はO(m)(m:スライス数、n:画像一枚あたりの輪郭画素数)となるため、実際の医療現場で使うシステムとしては実用的でない。 37 (A), (B), and (C) are diagrams showing a case in which the area filling process is applied to the cancer depression used in the two-dimensional shape evaluation in three dimensions, and (A) is the depression. An image in which the area is filled is shown, (B) an image before being filled is shown, and (C) is an indentation area. As shown in (A), (B), and (C) of FIG. 37, when the area filling process is applied to the three-dimensional area of the cancer depression used in the two-dimensional shape evaluation, the time calculation amount is O (m 2 n 2 ) (m: number of slices, n: number of contour pixels per image), which is not practical as a system used in an actual medical field.

そこで、ここでは、術前腹部CT画像から抽出された肝臓癌三次元画像と内接球の差分を凸部領域特徴として抽出する。   Therefore, here, the difference between the liver cancer three-dimensional image extracted from the preoperative abdominal CT image and the inscribed sphere is extracted as the convex region feature.

すなわち、この医用画像処理装置100では、図38の(A)、(B)、(C)に示すように水平断面画像毎に自動抽出された癌領域を積層し構成した肝臓癌の三次元画像を利用して、癌の三次元像から求めた内接球と癌との差分により凸部領域を抽出する。図38は、上記医用画像処理装置100における凸部領域の抽出についての説明に供する図であり、(A)は水平断面画像を示し、(B)は自動抽出された癌領域を積層し構成した状態を示し、(C)は臓癌の三次元画像を示している。   That is, in this medical image processing apparatus 100, as shown in FIGS. 38A, 38B and 38C, a three-dimensional image of liver cancer formed by stacking cancer regions automatically extracted for each horizontal cross-sectional image. Is used to extract the convex region based on the difference between the inscribed sphere obtained from the three-dimensional image of cancer and the cancer. FIG. 38 is a diagram for explaining the extraction of the convex region in the medical image processing apparatus 100, where (A) shows a horizontal cross-sectional image, and (B) is configured by stacking automatically extracted cancer regions. The state is shown, and (C) shows a three-dimensional image of visceral cancer.

内接球と癌との差分による凸部領域の抽出の説明に先駆けて、二次元(内接円)で原理を説明する。   Prior to the description of the convex region extraction based on the difference between the inscribed sphere and the cancer, the principle will be described in two dimensions (inscribed circle).

ここでいう内接円とは「ある図形内に描ける最大の円」である。そのため、1つの図形に対して内接円が複数存在する場合がある。   The inscribed circle here is “the largest circle that can be drawn in a certain figure”. Therefore, there may be a plurality of inscribed circles for one figure.

中点法による内接円の半径算出では、中点法を利用して対象図形内を走査させた円が、図形内に収まれば半径を増加、図形内に収まらなければ半券を減少させて、収束したときの値を内接円の半径とする。図形内に収まるか否かは、図39の(A)、(B)、(C)に示すように、対象画像の円の構造要素で収縮した画像に残る自画素の有無で判定する。中点法による内接円の半径算出についての説明に供する図であり、(A)は対象図形を示し、(B)は構造要素(円)を示し、(C)は収縮結果を示している。   In calculating the radius of the inscribed circle using the midpoint method, the radius is increased if the circle scanned within the target figure using the midpoint method fits within the figure, and the stub is reduced if it does not fit within the figure. The value when converged is the radius of the inscribed circle. Whether or not it fits within the figure is determined by the presence or absence of the own pixel remaining in the image contracted by the structural element of the circle of the target image, as shown in FIGS. 39 (A), (B), and (C). It is a figure with which it uses for description about the radius calculation of the inscribed circle by a midpoint method, (A) shows an object figure, (B) shows a structural element (circle), (C) has shown the shrinkage | contraction result. .

以下に、中心法の初期条件を示す。
=0
=√((xSize/2)+(ySize/2)
許容誤差:1画素、r:半径の最小範囲、r:半径の最大範囲、 xSize:画像の横幅、ySize:画像の縦幅
The initial conditions of the central method are shown below.
r 1 = 0
r 2 = √ ((xSize / 2) 2 + (ySize / 2) 2 )
Tolerance: 1 pixel, r 1 : minimum radius range, r 2 : maximum radius range, xSize: horizontal width of image, ySize: vertical width of image

また、対象図形から次の手順で内接円の中心を求める。   Further, the center of the inscribed circle is obtained from the target figure by the following procedure.

すなわち、
(手順1)上記中点法による内接円の半径算出で求めた半経の円を収縮し、
(手順2)残った1画素に対して(手順1)の円構造要素で膨張する。
That is,
(Procedure 1) Shrink a half-circular circle obtained by calculating the radius of the inscribed circle by the midpoint method
(Procedure 2) The remaining pixel is expanded by the circular structure element of (Procedure 1).

しかし、画像の量子化誤差や1つの図形に対して内接円が複数存在する場合があり、(手順1)で残った数だけ中心候補点が存在するので、図40の(A)、(B)、(C)に示すように、対象画像の重心から最も近い中心候補点を内接円の中心として描画する。図40は、凸部領域の抽出の説明に供する図であり、(A)は対象図形を示し、(B)は描画された内接円を示し、(C)は抽出された凸部領域を示している。   However, there may be a plurality of inscribed circles for the quantization error of the image or one figure, and there are as many center candidate points as the number remaining in (Procedure 1). As shown in B) and (C), the center candidate point closest to the center of gravity of the target image is drawn as the center of the inscribed circle. FIG. 40 is a diagram for explaining the extraction of the convex region, where (A) shows the target graphic, (B) shows the drawn inscribed circle, and (C) shows the extracted convex region. Show.

そして、対称図形を二次元画像から三次元画像に、収縮・膨張で用いた構造要素を円から球に替えることで内接球を作成して、図41の(A)、(B)、(C)に示すように、癌の三次元画像との差分を凸部領域として抽出する。図41は、癌の三次元画像との差分を凸部領域として抽出処理の説明に供する図であり、(A)は対象図形を示し、(B)は構造要素(球)を示し、(C)は2画素削った凸部領域を示している。   Then, an inscribed sphere is created by changing a symmetric figure from a two-dimensional image to a three-dimensional image, and changing a structural element used for contraction / expansion from a circle to a sphere, and FIGS. 41 (A), (B), ( As shown in C), the difference from the three-dimensional cancer image is extracted as a convex region. FIG. 41 is a diagram for explaining the extraction process using a difference from a three-dimensional image of cancer as a convex region, where (A) shows a target graphic, (B) shows a structural element (sphere), and (C ) Shows a convex region where two pixels have been removed.

凸部領域は、画像の量子化誤差の影響を考慮して、内接球+その外側から2画素削った領域とする。   In consideration of the influence of the quantization error of the image, the convex region is an inscribed sphere + a region where two pixels are removed from the outside.

内接球の作成における時間計算量はO(mn)(m:スライス数、n:画像一枚あたりの輪郭画素数)となることから、くぼみ領域の塗り潰し処理よりも実用的である。   Since the amount of time calculation in creating the inscribed sphere is O (mn) (m: the number of slices, n: the number of contour pixels per image), it is more practical than the filling process of the recessed area.

臨床的有用性を次の検証ステップにしたがって検証したところ、肝臓癌の三次元形状特徴が臨床データを分類することに有用であるとの検証結果が得られている。   When the clinical usefulness is verified according to the following verification steps, the verification result that the three-dimensional shape feature of liver cancer is useful for classifying clinical data is obtained.

検証ステップ1:抽出した癌の凸部領域から三次元形状特徴量をもとめる。
検証ステップ2:術後に分かる情報を学習パターンとした識別関数を作成する。
検証ステップ3:未知パターン(27症例)を識別関数で分離する。
検証ステップ4:カプランマイヤー法により生存曲線を作成する。
検証ステップ5:生存曲線間の有意差を検定する。
Verification step 1: A three-dimensional shape feature amount is obtained from the extracted convex region of the cancer.
Verification step 2: Create a discriminant function using post-operative information as a learning pattern.
Verification step 3: An unknown pattern (27 cases) is separated by a discriminant function.
Verification step 4: A survival curve is created by the Kaplan-Meier method.
Verification step 5: Test for significant differences between survival curves.

ここで、術後に分かる情報として門脈侵襲(vp)を利用した。門脈侵襲(vp)は、癌が門脈に入り込んで通常の血流とは逆方向に癌が伸びていく現象のことであり、術後に分かる予後因子で医学的に有用とされている。   Here, portal vein invasion (vp) was used as post-operative information. Portal vein invasion (vp) is a phenomenon in which cancer enters the portal vein and grows in the opposite direction to normal blood flow, and is a medically useful prognostic factor that is known after surgery. .

また、抽出した三次元凸部領域から形状評価に用いる特徴量として、「癌境界の複雑度」と「癌の大きさ」を表す特徴量をそれぞれ用いた。  In addition, as feature amounts used for shape evaluation from the extracted three-dimensional convex region, feature amounts representing “cancer boundary complexity” and “cancer size” were used, respectively.

また、門脈侵襲(vp)の有無がよく別れる分離度の最も大きい特徴量として、次の式(1)で示される癌と凸部領域の体積比を用いた。   In addition, the volume ratio between the cancer and the convex region represented by the following formula (1) was used as the feature quantity having the highest degree of separation that is well separated depending on whether or not portal vein invasion (vp) is present.

さらに、「癌の大きさ」を表す特徴量として、次の式(2)で示される癌の球相当の半径rを用いた。   Furthermore, a radius r corresponding to a sphere of cancer represented by the following formula (2) was used as a feature amount representing “the size of cancer”.

そして、門脈侵襲(vp)の有無を正解(学習パターン)として全27症例を1つ抜き法で2クラス(vp0/vp1)に分類したところ、図42に示すような判別結果が得られた。  Then, when all the 27 cases were classified into 2 classes (vp0 / vp1) by a single extraction method with the presence or absence of portal vein invasion (vp) as a correct answer (learning pattern), the discrimination results as shown in FIG. 42 were obtained. .

合計判別的中率は74%(vp0の判別的中率は82%、vp1の判別的中率は75%)であり、医学的に見て十分に高い数値となっている。   The total discriminant probability is 74% (the discriminant probability of vp0 is 82% and the discriminant probability of vp1 is 75%), which is a sufficiently high value from a medical point of view.

判別結果のクラスごとにカプランマイヤー法により生存曲線を作成し、ロクランク検定で図43に示すクラス間の有意さを検討したところ、有意水準P=0.050未満の有意確率P=0.048となったことから、このクラス間には有意差があるといえる。   A survival curve was created for each class of discrimination results by the Kaplan-Meier method, and the significance between the classes shown in FIG. Therefore, it can be said that there is a significant difference between the classes.

すなわち、肝臓癌の三次元形状特徴が臨床データを分類することに有用である。   That is, the three-dimensional shape feature of liver cancer is useful for classifying clinical data.

したがって、対象画像の主成分分析から内接円又は内接球を近似し、対象境界との差の領域を特徴量とすることができる。また、内接円又は内接球に替えて、内接楕円又は内接楕円体近似するようにしてもよい。   Therefore, an inscribed circle or an inscribed sphere can be approximated from the principal component analysis of the target image, and a difference area from the target boundary can be used as a feature amount. Further, instead of an inscribed circle or an inscribed sphere, an inscribed ellipse or an inscribed ellipsoid may be approximated.

なお、二元の場合には、主成分分析による近似円あるは近似楕円求め、対象境界との差の領域を凹凸特徴とするようにしてもよい。   In the binary case, an approximate circle or an approximate ellipse obtained by principal component analysis may be obtained, and a difference area from the target boundary may be used as an uneven feature.

また、対象画像の曲座標表示とその周波数解析から近似円,近似楕円と凹凸特徴を求めるようにすることもできる。   It is also possible to obtain approximate circles, approximate ellipses, and concavo-convex features from the music coordinate display of the target image and frequency analysis thereof.

すなわち、直流分,基本周波数成分から,近似円直径,近似円中心を求めることができる。また、直流分,基本周波数成分,第2高調波成分から近似楕円,近似楕円中心を求めることができる。   That is, the approximate circle diameter and approximate circle center can be obtained from the direct current component and the fundamental frequency component. Further, the approximate ellipse and approximate ellipse center can be obtained from the direct current component, the fundamental frequency component, and the second harmonic component.

また、近似楕円と対象境界との差の領域を凹凸特徴とする場合に、対象境界の曲座標表示とその周波数解析-高周波数成分より凹凸特徴を求めるようにしてもよい。   Further, when the region of the difference between the approximate ellipse and the target boundary is an uneven feature, the uneven feature may be obtained from the curved coordinate display of the target boundary and its frequency analysis-high frequency component.

また、対象画像のフーリエ記述子表示とその周波数解析から近似円,近似楕円と凹凸特徴を求めるようにすることもできる。   In addition, an approximate circle, an approximate ellipse, and an uneven feature can be obtained from the Fourier descriptor display of the target image and its frequency analysis.

また、対象画像の内接円,外接円を高速に求める方法とそれらを利用した凹凸特徴抽出法としては、モロホロジー演算により対象画像の内接円,外接円を高速に求める方法、内接円と対象画像境界との差の領域を凹凸特徴として求める方法、外接円と対象画像境界との差の領域を凹凸特徴として求める方法、上記2つの特徴を併用する方法などがある。   In addition, as a method of obtaining the inscribed circle and circumscribed circle of the target image at a high speed and a method for extracting the concavo-convex features using them, a method for obtaining the inscribed circle and circumscribed circle of the target image at a high speed by morphological calculation, There are a method of obtaining a difference area from the target image boundary as an uneven feature, a method of obtaining a difference area between the circumscribed circle and the target image boundary as an uneven feature, and a method of using the two features together.

また、三次元の場合には、三次元画像が複数の2次元画像の集合からなる場合を前提とし、多くの3次元画像はそのような構造と思われるが、そうでない場合は,そのように分解してから利用すれば良く、その分解は容易である。   In the case of 3D, it is assumed that the 3D image is composed of a set of a plurality of 2D images, and many 3D images seem to have such a structure. It may be used after being decomposed, and the decomposition is easy.

例えば、三次元の場合には、複数の二次元平面上で上記各種の手法を適用し得られた各面上での特徴を複合的に取り扱う。複合特徴として,平均値,中央値,再頻値など通常の統計的量が容易に考えられる。   For example, in the case of 3D, the features on each surface obtained by applying the above-described various methods on a plurality of 2D planes are handled in combination. Normal statistical quantities such as mean, median, and frequent values can be easily considered as composite features.

また、従来から,医師ら専門家は,対象領域の「最大割面=最も対象領域の面積が大きくなる面」を探索し、その面上で解析・診断を行う習慣がある。しかし,例えばCT画像では,一般的に水平断面の集合が提供され、三次元化されることなく利用され、限られた条件下での「最大割面」を利用せざるを得なかったが、三次元画像中で対象領域の面積が大きくなる最大割面抽出法を採用することができる。   Conventionally, doctors and other experts have a habit of searching for “maximum cleavage plane = surface with the largest area of the target area” in the target area, and performing analysis / diagnosis on that plane. However, for example, in CT images, a set of horizontal sections is generally provided and used without being three-dimensional, and the "maximum cleavage plane" under limited conditions must be used. A maximum split plane extraction method that increases the area of the target region in the three-dimensional image can be employed.

三次元画像を構成する3断面,典型的には水平断面,矢状断面,頭額断面の各断面上での、対象領域最大面積を検出しその中の最大となるものを抽出するものとする。   The maximum area of the target area on the three cross-sections that make up a three-dimensional image, typically the horizontal cross-section, sagittal cross-section, and head-head cross-section, is detected and the largest one is extracted. .

三次元画像中での対象画像の最長軸を抽出し(例えば境界画素同士を全て連結した線分の最長を求めれば良い)その軸周りでの最大面積を求める。また、三次元対象画像の第一主成分,第2主成分が作る最大割面とする。求められた最大割面上で上記2の2次元面上での特徴の全てが適用可能である.   The longest axis of the target image in the three-dimensional image is extracted (for example, the longest line segment connecting all the boundary pixels may be obtained), and the maximum area around the axis is obtained. In addition, the maximum split surface created by the first principal component and the second principal component of the three-dimensional target image is used. All the features on the two-dimensional surface of the above 2 can be applied on the obtained maximum split surface.

三次元の場合には、対象画像の主成分分析から近似球又は近似楕円体を求め、近似球又は近似楕円体と対象境界との差の領域を凹凸特徴とすることができる。   In the three-dimensional case, an approximate sphere or approximate ellipsoid can be obtained from the principal component analysis of the target image, and the difference area between the approximate sphere or approximate ellipsoid and the target boundary can be used as an uneven feature.

このときの特徴量は2次元で採用されたものの3次元化したものが全て適用可能である。   In this case, all of the three-dimensional features that are adopted in two dimensions can be applied.

また、対象画像の内接球,外接球を高速に求める方法とそれらを利用した凹凸特徴抽出法としては、モロホロジー演算により対象画像の内接球,外接球を高速に求める方法、内接球と対象画像境界との差の領域を凹凸特徴として求める方法、外接球と対象画像境界との差の領域を凹凸特徴として求める方法等を採用することができる。   In addition, as a method of obtaining the inscribed sphere and circumscribed sphere of the target image at high speed and a method for extracting the uneven features using them, a method of obtaining the inscribed sphere and circumscribed sphere of the target image at high speed by morphological calculation, A method for obtaining a difference area between the target image boundary as the uneven feature, a method for obtaining a difference area between the circumscribed sphere and the target image boundary as the uneven feature, and the like can be employed.

さらに、この医用画像処理装置100では、摘出後の癌を最大径で切除して撮像したカラー画像を取り込んで、門脈侵襲(vp)の有無を評価することにより、癌の悪性度の客観的、定量的な形態分類を行う機能を有している。   Furthermore, in this medical image processing apparatus 100, a color image obtained by excision of a cancer after removal at the maximum diameter is captured, and the presence or absence of portal vein invasion (vp) is evaluated, thereby objectively determining the malignancy of the cancer. , Has a function to perform quantitative morphological classification.

肝癌患者の予後推定方法の1つとして、癌を含む肝臓の一部分を切除し、「原発性肝癌取り扱い規約」で規定されている図44に示す肉眼分類に従って形態分類を行う方法が知られているが、この医用画像処理装置100では、350症例について摘出後の癌を最大径で切除して撮像した図45に示すようなカラー画像(RGB各256階調)の病理標本写真の解析を行い、門脈侵襲(vp)の有無を評価することにより、癌の悪性度の客観的、定量的な形態分類を次のようにして行うようにした。   As one prognosis estimation method for patients with liver cancer, a method is known in which a part of the liver containing cancer is excised and morphologically classified according to the macroscopic classification shown in FIG. 44 defined in the “Primary Liver Cancer Handling Rules”. However, this medical image processing apparatus 100 analyzes the pathological specimen photograph of a color image (256 gradations for each of RGB) as shown in FIG. By evaluating the presence or absence of portal vein invasion (vp), objective and quantitative morphological classification of cancer malignancy was performed as follows.

すなわち、癌は分化度(癌細胞の成熟度)や巻き込む領域により、色が異なるので、医師が提示した癌の特徴をもとに、図46の(a)〜(f)に示すように、(a)白い癌、(c)緑色の癌(胆汁が多い)、(d)ピンク色の癌、(e)黒い癌、に分ける。なお,癌内部には図46の(f)に示すように、出血していることもあり、この状態も癌領域に含め、六種類に分類するものとした。   That is, since the color of cancer varies depending on the degree of differentiation (maturity of cancer cells) and the region involved, as shown in FIGS. 46 (a) to (f) based on the characteristics of cancer presented by a doctor, (A) White cancer, (c) Green cancer (bile is much), (d) Pink cancer, (e) Black cancer. In addition, as shown in FIG. 46 (f), the inside of the cancer may be bleeding, and this state is included in the cancer region and classified into six types.

肝癌領域は図47の(a)に示すように赤いが、肝硬変が起きていると図47の(b)に示すように白くなる。また、図47の(c)に示すように肝臓の淵は暗く青い台の色が写り込んでいる。   The liver cancer region is red as shown in FIG. 47 (a), but when liver cirrhosis occurs, it becomes white as shown in FIG. 47 (b). In addition, as shown in FIG. 47 (c), the color of the dark blue platform is reflected in the liver folds.

また、その他の領域としては、図48の(a)〜(c)に示すように、(a)スケール、(b)背景の青い台、(c)光の反射がある。図48の(a)に示すスケールは黒色で白字である。また、図48の(c)に示すように、撮影時に生じた光の反射が、癌を含む肝臓内にある。   As other regions, as shown in FIGS. 48A to 48C, there are (a) a scale, (b) a blue base in the background, and (c) light reflection. The scale shown in FIG. 48 (a) is black and white. Further, as shown in FIG. 48 (c), the reflection of light generated at the time of photographing is in the liver including cancer.

そして、図49の(a)に示すように癌と肝臓領域の境界が曖昧な部分があるため、前処理としてエッジ保存平滑化処理を行うことにより、図49の(b)に示すように癌と肝臓領域の境界を強調してから、判別分析による各領域の判別を行った。   49 (a), the boundary between the cancer and the liver region is ambiguous. Therefore, by performing the edge preserving smoothing process as the preprocessing, the cancer as shown in FIG. 49 (b) is obtained. Each region was discriminated by discriminant analysis.

癌領域の色の違いにより、癌領域を上記六種類に分類するために、対象画像内の各領域の輝度値を調査したところ、各領域はRGB三次元空間上でそれぞれ異なる輝度値の分布となることが判明した。そこで、マハラノビスの汎距離により未知データを最も確率の高いクラスとする判別分析を行ったところ、図50に示すような結果が得られ、癌領域を色の違いにより分類することができた。   In order to classify the cancer area into the above six types according to the difference in the color of the cancer area, the brightness value of each area in the target image was investigated. As a result, each area has a distribution of different brightness values in the RGB three-dimensional space. Turned out to be. Therefore, when discriminant analysis was performed with unknown data as the class having the highest probability based on Mahalanobis's general distance, the results shown in FIG. 50 were obtained, and the cancer area could be classified by the difference in color.

このように、色の違いにより癌領域を判別することができるのであるが、RGB三次元空間上では各領域に重なりがあり、誤差が生じるので、各領域の連結領域ごとに詳細分類を行う。  As described above, the cancer region can be discriminated based on the difference in color. However, since each region has an overlap in the RGB three-dimensional space and an error occurs, detailed classification is performed for each connected region of each region.

まず、肝硬変は白い癌領域と色が似ているが、周囲の領域には肝臓領域が多いため、肝硬変領域周囲の肝臓領域と癌領域の比率を第1の特徴量Rateとする。第1の特徴量Rateは、次の式(3)にて示される。 First, cirrhosis is similar in color to a white cancer region, but since there are many liver regions in the surrounding region, the ratio of the liver region and the cancer region around the cirrhosis region is defined as a first feature amount Rate A. The first feature amount Rate A is expressed by the following equation (3).

また、撮像時のコントラストにより、ほとんどの白い癌が肝硬変と誤判別される症例があるため、癌を含む肝臓領域と癌領域の比率を第2の特徴量Rateとする。第2の特徴量Rateは、次の式(4)にて示される。 In addition, since there are cases where most white cancers are misidentified as cirrhosis due to contrast at the time of imaging, the ratio of the liver region containing cancer to the cancer region is defined as a second feature amount Rate B. The second feature amount Rate B is expressed by the following equation (4).

そして、図51に示すように、上記第1の特徴量Rateと第2の特徴量Rateの2変量で肝硬変の判別分析を行った。 Then, as shown in FIG. 51, the cirrhosis discriminant analysis was performed with the two variables of the first feature value Rate A and the second feature value Rate B.

また、ピンク色の癌は肝硬変領域と似ているが、周囲の領域には白い癌領域が多いため、ピンク色の癌領域周囲の癌領域の比率を第3の特徴量Rateとする。第3の特徴量Rateは、次の式(5)にて示される。 The pink cancer is similar to the cirrhosis region, but since there are many white cancer regions in the surrounding region, the ratio of the cancer region around the pink cancer region is defined as the third feature amount Rate C. The third feature amount Rate C is expressed by the following equation (5).

そして、図52に示すように、上記第2の特徴量Rateと第3の特徴量Rateの2変量でピンク色の癌の判別分析を行った。 Then, as shown in FIG. 52, a pink cancer discriminant analysis was performed with two variables of the second feature amount Rate B and the third feature amount Rate A.

また、黒い癌、出血、光の反射領域の周囲は、図53に示すように、いずれも癌で囲まれているので、黒い癌、出血、光の反射領域の各画素毎に8方向に探索を行い、癌が全方向にあれば癌領域とする。   In addition, as shown in FIG. 53, the surrounding area of the black cancer, bleeding, and light reflection area is surrounded by cancer, so search is performed in 8 directions for each pixel of the black cancer, bleeding, light reflection area. If the cancer is in all directions, the cancer region is determined.

その後、最大面積連結領域に対して、5×5の構造要素によりオープニング、クロージング、穴埋め処理を行った。   Thereafter, opening, closing, and hole filling processing were performed on the maximum area connected region with a 5 × 5 structural element.

以上の処理により、全350症例中の192症例、すなわち54.8%の症例で過抽出率10%未満かつ未抽出率10%未満で抽出できた。   By the above processing, 192 cases out of all 350 cases, that is, 54.8% of cases were extracted with an overextraction rate of less than 10% and an unextraction rate of less than 10%.

それ以外の症例については、ユーザが修正したい輪郭上の候補点を与え、その間の経路をDP法により探索する手法であるNomalized Cost(NC)法により修正を行い、輪郭追跡の際に、濃度勾配が大きく、且つエンドポイントへの距離が小さい経路をとるようにローカルコストを決定した。   For other cases, the user gives candidate points on the contour to be corrected, corrects the path between them using the Normalized Cost (NC) method, which is a method of searching for the path between them, and when contour tracking, the concentration gradient The local cost is determined so as to take a path with a large distance to the end point.

これを過抽出率もしくは未抽出率が10%以上の領域に適用して輪郭補正を行った。   This was applied to a region where the overextraction rate or the unextraction rate was 10% or more to perform contour correction.

そして、このようにして抽出した癌領域に対して、癌領域の複雑さ、癌の大きさを用いて門脈侵襲(vp)の有無を判別する。   And the presence or absence of portal vein invasion (vp) is discriminate | determined with respect to the cancer area | region extracted in this way using the complexity of a cancer area | region, and the magnitude | size of cancer.

門脈侵襲(vp)は、巻き込む門脈の場所によってvp0(巻き込みなし)からvp4まであり、数値が大きいほど悪性である。vp2以上は術前CT上で肉眼で確認できるので、vp0とvp1の判別を行うものした。  Portal vein invasion (vp) ranges from vp0 (no involvement) to vp4 depending on the location of the portal vein involved, and the greater the value, the more malignant. Since vp2 or higher can be confirmed with the naked eye on preoperative CT, vp0 and vp1 are discriminated.

癌の全体的な複雑さを表す形状特徴量として、
形状特徴量=1−4πS/L
S:癌面積L:癌周囲長L
にて示される1−円形度を用いた。
As a shape feature that represents the overall complexity of cancer,
Shape feature value = 1-4πS / L 2
S: Cancer area L: Cancer perimeter L
The 1-circularity indicated by is used.

また、画像から得られる特徴量として、癌の悪性度の使用となる癌の大きさをあらわす特徴量として、癌面積Sから
R=2√(S/π)
にて示される円相当直径Rを用いた。
In addition, as a feature quantity obtained from an image, a feature quantity representing the size of a cancer that is used for the malignancy of cancer is calculated from the cancer area S to R = 2√ (S / π).
The equivalent circle diameter R shown in FIG.

vp0又はvp1である319症例に対し、これらの特徴量を適用し、1つ抜き法にて認識率を評価した結果は、医学的に十分に高い、73.3%であった。   The result of evaluating the recognition rate by applying one of these features to the 319 cases of vp0 or vp1 was 73.3%, which is medically sufficiently high.

すなわち、上述の如く、癌、肝臓などの色の特徴、周辺領域の特徴、境界修正によって癌領域を抽出し、その輪郭形状の複雑さ、癌の大きさを評価して、医学的に信用できる認識率を得ることができる。   That is, as described above, color features such as cancer and liver, features of surrounding regions, and extraction of cancer regions by boundary correction, and evaluation of the complexity of the contour shape and the size of the cancer, can be trusted medically. Recognition rate can be obtained.

10 制御部、20 前処理部、30 画像処理部、40 入力部、50 記憶部、60 表示部、100 医用画像処理装置 DESCRIPTION OF SYMBOLS 10 Control part, 20 Pre-processing part, 30 Image processing part, 40 Input part, 50 Storage part, 60 Display part, 100 Medical image processing apparatus

Claims (13)

手動操作による指定入力を受け付けて、目的領域のデータと同時にその概略の大きさを取得するとともに、非目的領域のデータを取得する前処理を行う前処理部と、
上記前処理部により取得したデータを用いて二次元又は三次元の目的領域を抽出する画像処理部とを備え、
上記前処理部は、処理対象の画像の領域の概略の大きさを指定する手動操作による指定入力を受け付ける機能を有し、
上記画像処理部は、上記前処理部により取得された目的領域のデータとその概略の大きさを示すデータ及び非目的領域のデータとその概略の大きさを示すデータから、上記目的領域の画素の輝度データのヒストグラムと上記非目的領域の画素の輝度データのヒストグラム生成し、各ヒストグラムを正規分布に近似する正規分布近似処理機能と、上記正規分布近似処理機能により求めた目的領域の近似正規分布と非目的領域の近似正規分布を用いて、Bays則による領域分割の閾値を決定して、目的領域と非目的領域を抽出する領域抽出機能を有する
ことを特徴とする医用画像処理装置。
A pre-processing unit that accepts a manual input and obtains the approximate size at the same time as the data of the target area, and performs pre-processing for acquiring the data of the non-target area;
An image processing unit that extracts a two-dimensional or three-dimensional target region using the data acquired by the preprocessing unit,
The pre-processing unit has a function of receiving a designation input by a manual operation for designating an approximate size of a region of an image to be processed,
The image processing unit obtains the pixel of the target region from the target region data acquired by the preprocessing unit, the data indicating the approximate size, the data of the non-target region and the data indicating the approximate size. A histogram of luminance data and a luminance data histogram of pixels in the non-target region are generated, a normal distribution approximation processing function for approximating each histogram to a normal distribution, and an approximate normal distribution of the target region obtained by the normal distribution approximation processing function A medical image processing apparatus characterized by having a region extraction function for determining a threshold value for region division according to Bayes rule using an approximate normal distribution of a non-target region and extracting a target region and a non-target region.
上記前処理部は、取得する処理対象の画像の輝度範囲を所定輝度範囲内に収める画像輝度調節処理機能を有することを特徴とする請求項1記載の医用画像処理装置。   The medical image processing apparatus according to claim 1, wherein the preprocessing unit has an image luminance adjustment processing function for keeping a luminance range of a processing target image to be acquired within a predetermined luminance range. 上記画像処理部は、既に検出された目的領域を拡大してした目的領域周辺のみを検定実行領域とし、検定実行領域内の画素をラスタースキャンして得られる上記目的領域周辺の複数個の画素の平均値と、既に目的領域として決定された領域内を母集団として求めた母平均及び母標準偏差を用いてZ検定を行い、その検定結果に基づいて目的領域を修正する大局的目的領域修正処理と、既に検出された目的領域を拡大してした目的領域周辺のみを検定実行領域とし、検定実行領域内の画素のみを探索して得られる上記目的領域周辺の複数個の画素の平均値と、既に目的領域として決定された領域内を母集団として求めた母平均及び母標準偏差を用いてZ検定を行い、その検定結果に基づいて目的領域を修正する局所的目的領域修正処理とを行う目的領域修正処理機能を有することを特徴とする請求項1又は請求項2のいずれか1項に記載の医用画像処理装置。   The image processing unit uses only the periphery of the target area that has been enlarged as the detected target area as a test execution area, and performs raster scanning of pixels in the test execution area to obtain a plurality of pixels around the target area. A global target area correction process in which a Z test is performed using an average value and a population mean and standard deviation obtained as a population within an area that has already been determined as a target area, and the target area is corrected based on the test result. And an average of a plurality of pixels around the target area obtained by searching only the pixels in the test execution area, only the periphery of the target area obtained by enlarging the target area that has already been detected, A Z-test is performed using a population mean and a standard deviation obtained as a population within an area that has already been determined as a target area, and a local target area correction process is performed to correct the target area based on the test result. The medical image processing apparatus according to any one of claims 1 or claim 2, characterized in that it has a specific area correction processing function. 上記画像処理部は、既に検出された目的領域を拡大してした目的領域周辺のみを検定実行領域とし、検定実行領域内の画素をラスタースキャンして得られる上記目的領域周辺の複数個の画素の平均値と、既に目的領域として決定された領域内を母集団として求めた母平均及び母標準偏差を用いてZ検定を行い、その検定結果に基づいて目的領域を修正する大局的目的領域修正処理と、既に検出された目的領域を拡大した目的領域周辺のみを検定実行領域とし、検定実行領域内の画素のみを探索して得られる検定対象画素およびその周辺の複数個(n個)の画素の平均値と、既に目的領域として決定された領域内のみの検定対象画素周辺の複数個(m個>n個)の画素の平均値と標準偏差を母平均及び母標準偏差として用いZ検定を行い、その検定結果に基づいて目的領域を修正する局所的目的領域修正処理とを行う目的領域修正処理機能を有することを特徴とする請求項1又は請求項2のいずれか1項に記載の医用画像処理装置。   The image processing unit uses only the periphery of the target area that has been enlarged as the detected target area as a test execution area, and performs raster scanning of pixels in the test execution area to obtain a plurality of pixels around the target area. A global target area correction process in which a Z test is performed using an average value and a population mean and standard deviation obtained as a population within an area that has already been determined as a target area, and the target area is corrected based on the test result. And only the periphery of the target area that has already been expanded is set as the test execution area, and the test target pixel obtained by searching only the pixels in the test execution area and a plurality of (n) pixels around it Z test is performed using the average value and the average value and standard deviation of multiple (m> n) pixels around the test target pixel only in the area already determined as the target area as the population mean and population standard deviation. , Its inspection 3. The medical image processing apparatus according to claim 1, further comprising a target area correction processing function for performing a local target area correction process for correcting a target area based on a predetermined result. 4. . 上記画像処理部は、抽出した目的領域を三次元化するための二次元画像上での繰り返し処理を、既抽出領域を拡大・縮小した中間領域に限定した領域内で行い目的領域を分離する連続的二領域抽出処理機能を有することを特徴とする請求項4記載の医用画像処理装置。   The image processing unit performs a repetitive process on a two-dimensional image for three-dimensionalizing an extracted target area in a region limited to an intermediate region obtained by enlarging or reducing the extracted region. The medical image processing apparatus according to claim 4, further comprising an automatic two-region extraction processing function. 手動操作による指定入力を受け付けて、目的領域のデータと同時にその概略の大きさを取得するとともに、非目的領域のデータを取得する前処理を行う前処理ステップと、
上記前処理ステップにより取得したデータを用いて二次元又は三次元の目的領域を抽出する画像処理ステップとを有し、
上記前処理ステップでは、処理対象の画像の領域の概略の大きさを指定する手動操作による指定入力を受け付け、
上記画像処理ステップでは、上記前処理ステップにより取得された目的領域のデータとその概略の大きさを示すデータ及び非目的領域のデータとその概略の大きさを示すデータから、上記目的領域の画素の輝度データのヒストグラムと上記非目的領域の画素の輝度データのヒストグラム生成し、各ヒストグラムを正規分布に近似する正規分布近似処理機能と、上記正規分布近似処理機能により求めた目的領域の近似正規分布と非目的領域の近似正規分布を用いて、Bays則による領域分割の閾値を決定して、目的領域と非目的領域を抽出する
ことを特徴とする医用目的領域抽出方法。
A pre-processing step for accepting a designation input by manual operation, obtaining a rough size at the same time as the data of the target area, and performing a pre-process for acquiring the data of the non-target area;
An image processing step of extracting a two-dimensional or three-dimensional target region using the data acquired in the preprocessing step,
In the pre-processing step, a manual input for specifying the approximate size of the region of the image to be processed is accepted,
In the image processing step, from the data of the target area acquired in the preprocessing step and the data indicating the approximate size and the data of the non-target area and the data indicating the approximate size, the pixel of the target area is determined. A histogram of luminance data and a luminance data histogram of pixels in the non-target region are generated, a normal distribution approximation processing function for approximating each histogram to a normal distribution, and an approximate normal distribution of the target region obtained by the normal distribution approximation processing function A medical target region extraction method characterized in that, by using an approximate normal distribution of a non-target region, a threshold value for region division according to the Bayes rule is determined to extract a target region and a non-target region.
上記前処理ステップでは、取得する処理対象の画像の輝度範囲を所定輝度範囲内に収める画像輝度調節処理を行うことを特徴とする請求項5記載の医用目的領域抽出方法。   6. The medical target region extracting method according to claim 5, wherein in the preprocessing step, an image luminance adjustment process is performed so that the luminance range of the processing target image to be acquired falls within a predetermined luminance range. 上記画像処理ステップでは、既に検出された目的領域を拡大してした目的領域周辺のみを検定実行領域とし、検定実行領域内の画素をラスタースキャンして得られる上記目的領域周辺の複数個の画素の平均値と、既に目的領域として決定された領域内を母集団として求めた母平均及び母標準偏差を用いてZ検定を行い、その検定結果に基づいて目的領域を修正する大局的目的領域修正処理と、既に検出された目的領域を拡大してした目的領域周辺のみを検定実行領域とし、検定実行領域内の画素のみを探索して得られる上記目的領域周辺の複数個の画素の平均値と、既に目的領域として決定された領域内を母集団として求めた母平均及び母標準偏差を用いてZ検定を行い、その検定結果に基づいて目的領域を修正する局所的目的領域修正処理とを行うことを特徴とする請求項5又は請求項6のいずれか1項に記載の医用目的領域抽出方法。   In the image processing step, only the periphery of the target area obtained by enlarging the already detected target area is set as a test execution area, and a plurality of pixels around the target area obtained by raster scanning the pixels in the test execution area are obtained. A global target area correction process in which a Z test is performed using an average value and a population mean and standard deviation obtained as a population within an area that has already been determined as a target area, and the target area is corrected based on the test result. And an average of a plurality of pixels around the target area obtained by searching only the pixels in the test execution area, only the periphery of the target area obtained by enlarging the target area that has already been detected, A local target area correction process for performing a Z test using a population mean and standard deviation obtained as a population within an area that has already been determined as a target area, and correcting the target area based on the test result Medical purposes region extraction method according to any one of claims 5 or claim 6, characterized in that to perform. 上記画像処理ステップでは、抽出した目的領域を三次元化するための二次元画像上での繰り返し処理を、既抽出領域を拡大・縮小した中間領域に限定した領域内で行い目的領域を分離する連続的二領域抽出処理を行うことを特徴とする請求項7記載の医用目的領域抽出方法。   In the image processing step, iterative processing on the two-dimensional image for converting the extracted target area into a three-dimensional image is performed in a region limited to the intermediate region obtained by enlarging or reducing the extracted region. 8. The medical target region extraction method according to claim 7, wherein a target two region extraction process is performed. 医用画像処理装置に搭載されるコンピュータにより実行される医用目的領域抽出処理プログラムであって、
上記コンピュータを、
手動操作による指定入力を受け付けて、目的領域のデータと同時にその概略の大きさを取得するとともに、非目的領域のデータを取得する前処理を行う前処理部と、上記前処理部により取得したデータを用いて二次元又は三次元の目的領域を抽出する画像処理部とし機能させ、
上記前処理部は、処理対象の画像の領域の概略の大きさを指定する手動操作による指定入力を受け付ける機能を有し、
上記画像処理部は、上記前処理部により取得された目的領域のデータとその概略の大きさを示すデータ及び非目的領域のデータとその概略の大きさを示すデータから、上記目的領域の画素の輝度データのヒストグラムと上記非目的領域の画素の輝度データのヒストグラム生成し、各ヒストグラムを正規分布に近似する正規分布近似処理機能と、上記正規分布近似処理機能により求めた目的領域の近似正規分布と非目的領域の近似正規分布を用いて、Bays則による領域分割の閾値を決定して、目的領域と非目的領域を抽出する領域抽出機能を有する
ことを特徴とする医用目的領域抽出処理プログラム。
A medical target region extraction processing program executed by a computer mounted on a medical image processing apparatus,
The above computer
A pre-processing unit that receives a specification input by manual operation, acquires the approximate size at the same time as the data of the target area, and performs pre-processing for acquiring the data of the non-target area, and the data acquired by the pre-processing unit To function as an image processing unit that extracts a two-dimensional or three-dimensional target area using
The pre-processing unit has a function of receiving a designation input by a manual operation for designating an approximate size of a region of an image to be processed,
The image processing unit obtains the pixel of the target region from the target region data acquired by the preprocessing unit, the data indicating the approximate size, the data of the non-target region and the data indicating the approximate size. A histogram of luminance data and a luminance data histogram of pixels in the non-target region are generated, a normal distribution approximation processing function for approximating each histogram to a normal distribution, and an approximate normal distribution of the target region obtained by the normal distribution approximation processing function A medical target region extraction processing program characterized by having a region extraction function for extracting a target region and a non-target region by determining a threshold value for region division according to the Bayes rule using an approximate normal distribution of the non-target region.
取得する処理対象の画像の輝度範囲を所定輝度範囲内に収める画像輝度調節処理機能を有する上記前処理部として上記コンピュータを機能させることを特徴とする請求項9記載の医用目的領域抽出処理プログラム。   10. The medical target region extraction processing program according to claim 9, wherein the computer is caused to function as the pre-processing unit having an image luminance adjustment processing function for keeping the luminance range of the processing target image to be acquired within a predetermined luminance range. 既に検出された目的領域を拡大してした目的領域周辺のみを検定実行領域とし、検定実行領域内の画素をラスタースキャンして得られる上記目的領域周辺の複数個の画素の平均値と、既に目的領域として決定された領域内を母集団として求めた母平均及び母標準偏差を用いてZ検定を行い、その検定結果に基づいて目的領域を修正する大局的目的領域修正処理と、既に検出された目的領域を拡大してした目的領域周辺のみを検定実行領域とし、検定実行領域内の画素のみを探索して得られる上記目的領域周辺の複数個の画素の平均値と、既に目的領域として決定された領域内を母集団として求めた母平均及び母標準偏差を用いてZ検定を行い、その検定結果に基づいて目的領域を修正する局所的目的領域修正処理とを行う目的領域修正処理機能を有する上記画像処理部として上記コンピュータを機能させることを特徴とする請求項9又は請求項10のいずれか1項に記載の医用目的領域抽出処理プログラム。   Only the target area around the target area that has already been expanded is set as the test execution area, and the average value of a plurality of pixels around the target area obtained by raster scanning the pixels in the test execution area, and the target A global target area correction process for correcting the target area based on the Z test using the population mean and the standard deviation obtained as a population within the area determined as the area, and the already detected area Only the area around the target area that is the enlarged target area is set as the test execution area, and the average value of the plurality of pixels around the target area obtained by searching only the pixels in the test execution area is already determined as the target area. A target area correction processor for performing a Z test using a population mean and a standard deviation obtained as a population within a predetermined area, and a local target area correction process for correcting the target area based on the test result The medical target area extraction processing program according to any one of claims 9 or claim 10, characterized in that for the computer to function as the image processing unit having a. 抽出した目的領域を三次元化するための二次元画像上での繰り返し処理を、既抽出領域を拡大・縮小した中間領域に限定した領域内で行い目的領域を分離する連続的二領域抽出処理機能を有する上記画像処理部として上記コンピュータを機能させることを特徴とする請求項11記載の医用目的領域抽出処理プログラム。   Continuous two-region extraction processing function that separates the target region by performing iterative processing on the two-dimensional image to make the extracted target region three-dimensional within the region limited to the intermediate region where the already extracted region is enlarged or reduced The medical target region extraction processing program according to claim 11, wherein the computer is caused to function as the image processing unit including:
JP2014032066A 2014-02-21 2014-02-21 Medical image processing apparatus, medical target region extraction method, and medical target region extraction processing program Expired - Fee Related JP6296385B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014032066A JP6296385B2 (en) 2014-02-21 2014-02-21 Medical image processing apparatus, medical target region extraction method, and medical target region extraction processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014032066A JP6296385B2 (en) 2014-02-21 2014-02-21 Medical image processing apparatus, medical target region extraction method, and medical target region extraction processing program

Publications (2)

Publication Number Publication Date
JP2015156894A true JP2015156894A (en) 2015-09-03
JP6296385B2 JP6296385B2 (en) 2018-03-20

Family

ID=54181457

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014032066A Expired - Fee Related JP6296385B2 (en) 2014-02-21 2014-02-21 Medical image processing apparatus, medical target region extraction method, and medical target region extraction processing program

Country Status (1)

Country Link
JP (1) JP6296385B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020067481A1 (en) * 2018-09-28 2020-04-02 国立大学法人東北大学 Image analysis device, image analysis system, image analysis method, computer program, and non-transitory recording medium
JP2021029638A (en) * 2019-08-26 2021-03-01 コニカミノルタ株式会社 Medical image processing device and program
WO2022118906A1 (en) * 2020-12-04 2022-06-09 国立大学法人大阪大学 Evaluation method, program, and evaluation system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07129751A (en) * 1993-10-29 1995-05-19 Hitachi Medical Corp Medical picture processor
JP2005245734A (en) * 2004-03-04 2005-09-15 Yokogawa Electric Corp Region extraction method
WO2007072720A1 (en) * 2005-12-19 2007-06-28 Tohoku University Diagnostic imaging apparatus for medical use and method of identifying biological tissue
JP2008212396A (en) * 2007-03-05 2008-09-18 Fujifilm Corp Image processor and its program
WO2009093525A1 (en) * 2008-01-23 2009-07-30 Niigata University Identification device, identification method, and identification processing program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07129751A (en) * 1993-10-29 1995-05-19 Hitachi Medical Corp Medical picture processor
JP2005245734A (en) * 2004-03-04 2005-09-15 Yokogawa Electric Corp Region extraction method
WO2007072720A1 (en) * 2005-12-19 2007-06-28 Tohoku University Diagnostic imaging apparatus for medical use and method of identifying biological tissue
JP2008212396A (en) * 2007-03-05 2008-09-18 Fujifilm Corp Image processor and its program
WO2009093525A1 (en) * 2008-01-23 2009-07-30 Niigata University Identification device, identification method, and identification processing program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020067481A1 (en) * 2018-09-28 2020-04-02 国立大学法人東北大学 Image analysis device, image analysis system, image analysis method, computer program, and non-transitory recording medium
JP2021029638A (en) * 2019-08-26 2021-03-01 コニカミノルタ株式会社 Medical image processing device and program
JP7238694B2 (en) 2019-08-26 2023-03-14 コニカミノルタ株式会社 Medical image processing device and program
WO2022118906A1 (en) * 2020-12-04 2022-06-09 国立大学法人大阪大学 Evaluation method, program, and evaluation system

Also Published As

Publication number Publication date
JP6296385B2 (en) 2018-03-20

Similar Documents

Publication Publication Date Title
Diciotti et al. 3-D segmentation algorithm of small lung nodules in spiral CT images
US8270688B2 (en) Method for intelligent qualitative and quantitative analysis assisting digital or digitized radiography softcopy reading
EP1593094B1 (en) Image analysis for the purpose of assessing cancer
JP4999163B2 (en) Image processing method, apparatus, and program
US9117259B2 (en) Method and system for liver lesion detection
US10776918B2 (en) Method and device for determining image similarity
Zhang et al. Intelligent scanning: Automated standard plane selection and biometric measurement of early gestational sac in routine ultrasound examination
US8831311B2 (en) Methods and systems for automated soft tissue segmentation, circumference estimation and plane guidance in fetal abdominal ultrasound images
US20120201446A1 (en) Computer-aided detection (cad) of intracranial aneurysms
US20080194946A1 (en) Virtual colonoscopy via wavelets
EP3188127A1 (en) Method and system for performing bone multi-segmentation in imaging data
Bergtholdt et al. Pulmonary nodule detection using a cascaded SVM classifier
JP2006034585A (en) Picture display device and picture display method, and program thereof
Maitra et al. Accurate breast contour detection algorithms in digital mammogram
JP2009211138A (en) Target area extraction method, device and program
JP6296385B2 (en) Medical image processing apparatus, medical target region extraction method, and medical target region extraction processing program
Ben-Cohen et al. Automated method for detection and segmentation of liver metastatic lesions in follow-up CT examinations
JPH09251535A (en) Method and device for detecting pattern in two-dimensional multi-contrast image
Wei et al. Multi-feature fusion for ultrasound breast image classification of benign and malignant
Şekeroğlu et al. A computer aided diagnosis system for lung cancer detection using support vector machine
JPH1119077A (en) Method and device for detection of tumor shadow in radiation image
KR101494975B1 (en) Nipple automatic detection system and the method in 3D automated breast ultrasound images
US20240177317A1 (en) Method for processing medical image
JP2005160916A (en) Method, apparatus and program for determining calcification shadow
Schwier et al. Segmentation hierarchies and border features for automatic pregnancy detection in porcine ultrasound

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180209

R150 Certificate of patent or registration of utility model

Ref document number: 6296385

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees