JP6987721B2 - Image processing equipment, methods and programs - Google Patents
Image processing equipment, methods and programs Download PDFInfo
- Publication number
- JP6987721B2 JP6987721B2 JP2018162857A JP2018162857A JP6987721B2 JP 6987721 B2 JP6987721 B2 JP 6987721B2 JP 2018162857 A JP2018162857 A JP 2018162857A JP 2018162857 A JP2018162857 A JP 2018162857A JP 6987721 B2 JP6987721 B2 JP 6987721B2
- Authority
- JP
- Japan
- Prior art keywords
- cross
- findings
- sectional images
- evaluation
- sectional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 89
- 238000012545 processing Methods 0.000 title claims description 82
- 238000011156 evaluation Methods 0.000 claims description 150
- 230000003902 lesion Effects 0.000 claims description 43
- 238000012937 correction Methods 0.000 claims description 24
- 238000012935 Averaging Methods 0.000 claims description 19
- 210000000056 organ Anatomy 0.000 claims description 10
- 238000003672 processing method Methods 0.000 claims description 4
- 238000010801 machine learning Methods 0.000 claims description 3
- 208000031513 cyst Diseases 0.000 description 33
- 206010011732 Cyst Diseases 0.000 description 30
- 210000004072 lung Anatomy 0.000 description 23
- 238000010586 diagram Methods 0.000 description 21
- 238000013528 artificial neural network Methods 0.000 description 16
- 238000013507 mapping Methods 0.000 description 14
- 238000003860 storage Methods 0.000 description 10
- 238000003745 diagnosis Methods 0.000 description 9
- 238000002591 computed tomography Methods 0.000 description 7
- 230000005484 gravity Effects 0.000 description 7
- 230000008595 infiltration Effects 0.000 description 7
- 238000001764 infiltration Methods 0.000 description 7
- 230000005856 abnormality Effects 0.000 description 5
- 208000002151 Pleural effusion Diseases 0.000 description 4
- 210000004204 blood vessel Anatomy 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 238000002595 magnetic resonance imaging Methods 0.000 description 4
- 238000010521 absorption reaction Methods 0.000 description 3
- 210000003484 anatomy Anatomy 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 239000005337 ground glass Substances 0.000 description 3
- 208000029523 Interstitial Lung disease Diseases 0.000 description 2
- 208000019693 Lung disease Diseases 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 2
- 210000001367 artery Anatomy 0.000 description 2
- 210000000621 bronchi Anatomy 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000002059 diagnostic imaging Methods 0.000 description 2
- 230000010339 dilation Effects 0.000 description 2
- 230000003211 malignant effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 206010014561 Emphysema Diseases 0.000 description 1
- 206010035600 Pleural fibrosis Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 201000009267 bronchiectasis Diseases 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000003176 fibrotic effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 210000004185 liver Anatomy 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 210000001370 mediastinum Anatomy 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 210000003281 pleural cavity Anatomy 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 230000008719 thickening Effects 0.000 description 1
- 210000000779 thoracic wall Anatomy 0.000 description 1
Images
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Description
本開示は、断面画像に含まれる各画素を複数種類の所見に分類する画像処理装置、方法およびプログラムに関するものである。 The present disclosure relates to an image processing apparatus, method and program for classifying each pixel included in a cross-sectional image into a plurality of types of findings.
近年、CT(Computed Tomography)装置およびMRI(Magnetic Resonance Imaging)装置等の医療機器の進歩により、より質の高い高解像度の3次元画像が画像診断に用いられるようになってきている。 In recent years, with the progress of medical devices such as CT (Computed Tomography) devices and MRI (Magnetic Resonance Imaging) devices, higher quality and higher resolution three-dimensional images have come to be used for diagnostic imaging.
ところで、肺の疾患として間質性肺炎が知られている。間質性肺炎の患者の断面画像を解析することにより、断面画像に含まれる蜂窩肺、網状影および嚢胞等の特定の症状を呈する病変または組織(以下病変または組織を所見と総称するものとする)を分類して定量化する手法が提案されている。このように断面画像を解析して所見を分類して定量化することにより、肺の疾患の程度を容易に判定することができる。また、このように分類された所見の領域に所見毎にそれぞれ異なる色を割り当てることにより、特定の所見の領域がどの程度画像内に含まれているかを、容易に診断できることとなる。 By the way, interstitial pneumonia is known as a lung disease. By analyzing the cross-sectional image of a patient with interstitial pneumonia, the lesion or tissue showing specific symptoms such as honeycomb lung, reticular shadow and cyst included in the cross-sectional image (hereinafter, the lesion or tissue is collectively referred to as a finding). ) Has been proposed as a method for classifying and quantifying. By analyzing the cross-sectional image in this way to classify and quantify the findings, the degree of lung disease can be easily determined. Further, by assigning a different color to each of the findings areas classified in this way for each finding, it is possible to easily diagnose how much a specific finding area is included in the image.
しかしながら、従来の手法では、2次元の断面画像に対して分類を行っているため、2次元の断面画像の奥行方向に関して不連続な領域として分類される場合がある。このような分類は、解剖学上適切な分類ではない。 However, in the conventional method, since the two-dimensional cross-sectional image is classified, it may be classified as a discontinuous region with respect to the depth direction of the two-dimensional cross-sectional image. Such a classification is not an anatomically appropriate classification.
特許文献1においては、所見に含まれる病変が良性か悪性かを判断するために、3次元画像から複数の2次元画像を作成し、複数の2次元画像のそれぞれにおいて病変を評価して決定する方法が提案されている。しかしながら、特許文献1では、2次元画像に含まれる病変が良性か悪性かを分類しているだけであり、病変の領域を適切に分類する方法については何も提案されていない。 In Patent Document 1, in order to determine whether the lesion included in the findings is benign or malignant, a plurality of two-dimensional images are created from the three-dimensional images, and the lesions are evaluated and determined in each of the plurality of two-dimensional images. A method has been proposed. However, Patent Document 1 only classifies whether the lesion contained in the two-dimensional image is benign or malignant, and does not propose any method for appropriately classifying the lesion region.
本開示は、上記事情に鑑み、断面画像の各画素を複数種類の所見に高精度に分類することができる画像処理装置および方法並びにプログラムを提供することを目的とするものである。 In view of the above circumstances, it is an object of the present disclosure to provide an image processing apparatus, method and program capable of classifying each pixel of a cross-sectional image into a plurality of types of findings with high accuracy.
本開示による画像処理装置は、被検体の複数の異なる断面方向の断面画像を取得する断面画像取得部と、
複数の断面画像のそれぞれについて、各断面画像の各画素が分類される所見の種類を特定するための一次分類処理を行う一次分類部と、
複数の断面画像に共通する部分について、所見の種類に応じた異なる評価方式により、各断面画像の一次分類処理の結果を評価することによって、複数の断面画像に共通する部分が分類される所見の種類を特定する二次分類処理を行う二次分類部とを備える。
The image processing apparatus according to the present disclosure includes a cross-sectional image acquisition unit that acquires cross-sectional images of a plurality of different cross-sectional directions of a subject.
For each of the plurality of cross-sectional images, a primary classification unit that performs a primary classification process for specifying the type of finding in which each pixel of each cross-sectional image is classified, and
For the parts common to multiple cross-sectional images, the parts common to multiple cross-sectional images are classified by evaluating the results of the primary classification processing of each cross-sectional image by different evaluation methods according to the type of findings. It is provided with a secondary classification unit that performs secondary classification processing to specify the type.
「複数の断面画像に共通する部分」とは、複数の断面画像に共通していれば、共通する1つの画素であってもよく、共通する画素の周辺にある予め定められた範囲内の複数の画素であってもよい。 The "part common to a plurality of cross-sectional images" may be one common pixel as long as it is common to a plurality of cross-sectional images, and a plurality of a plurality within a predetermined range around the common pixel. It may be a pixel of.
なお、本開示による画像処理装置においては、一次分類処理の結果は、複数種類の所見のそれぞれであることを表す評価値を含むものであってもよい。 In the image processing apparatus according to the present disclosure, the result of the primary classification process may include an evaluation value indicating that each of the plurality of types of findings is used.
また、本開示による画像処理装置においては、二次分類部は、すべての断面画像における評価値が高い程、高い評価値となった所見を共通する部分の所見に優先的に分類する特定の平均化方式を評価方式の1つとして採用するものであってもよい。 Further, in the image processing apparatus according to the present disclosure, the secondary classification unit preferentially classifies the findings having higher evaluation values into the findings of the common part as the evaluation value in all the cross-sectional images is higher. The conversion method may be adopted as one of the evaluation methods.
また、本開示による画像処理装置においては、特定の平均化方式は調和平均であってもよい。 Further, in the image processing apparatus according to the present disclosure, the specific averaging method may be a harmonic mean.
また、本開示による画像処理装置においては、二次分類部は、病変の所見についての評価値に対して、特定の平均化方式により二次分類処理を行うものであってもよい。 Further, in the image processing apparatus according to the present disclosure, the secondary classification unit may perform secondary classification processing on the evaluation value of the lesion findings by a specific averaging method.
また、本開示による画像処理装置においては、二次分類部は、病変以外の所見についての評価値に対して、特定の平均化方式とは異なる他の評価方式により二次分類処理を行うものであってもよい。 Further, in the image processing apparatus according to the present disclosure, the secondary classification unit performs secondary classification processing on the evaluation values for findings other than lesions by another evaluation method different from the specific averaging method. There may be.
また、本開示による画像処理装置においては、二次分類部は、所見が病変間の境界および病変と病変以外の背景となる組織との境界を含む場合、境界の所見ついての評価値に対して、特定の平均化方式により二次分類処理を行うものであってもよい。 Further, in the image processing apparatus according to the present disclosure, when the findings include the boundary between lesions and the boundary between the lesion and the background tissue other than the lesion, the secondary classification unit determines the evaluation value of the boundary findings. , The secondary classification process may be performed by a specific averaging method.
また、本開示による画像処理装置においては、二次分類部は、所見が対象臓器を含む場合、対象臓器の所見ついての評価値に対して、特定の平均化方式により二次分類処理を行うものであってもよい。 Further, in the image processing apparatus according to the present disclosure, when the findings include the target organ, the secondary classification unit performs the secondary classification process on the evaluation value of the findings of the target organ by a specific averaging method. May be.
また、本開示による画像処理装置においては、二次分類部は、対象臓器以外の所見についての評価値に対して、特定の平均化方式とは異なる他の評価方式により二次分類処理を行うものであってもよい。 Further, in the image processing apparatus according to the present disclosure, the secondary classification unit performs secondary classification processing on the evaluation values for findings other than the target organ by another evaluation method different from the specific averaging method. May be.
この場合、他の評価方式は、複数の断面画像に共通する部分における評価値の代表値を二次分類処理の結果とする評価方式であってもよい。 In this case, the other evaluation method may be an evaluation method in which the representative value of the evaluation value in the portion common to the plurality of cross-sectional images is used as the result of the secondary classification process.
また、本開示による画像処理装置においては、二次分類部は、二次分類処理の結果、複数の断面画像に共通する部分について、最も評価が高い得られた所見を、当該画素についての所見として特定するものであってもよい。 Further, in the image processing apparatus according to the present disclosure, the secondary classification unit uses the findings obtained with the highest evaluation for the portion common to a plurality of cross-sectional images as the findings for the pixels as a result of the secondary classification processing. It may be specific.
また、本開示による画像処理装置においては、一次分類部は、機械学習によって生成された判別器を用いて一次分類処理を行うものであってもよい。 Further, in the image processing apparatus according to the present disclosure, the primary classification unit may perform primary classification processing using a discriminator generated by machine learning.
また、本開示による画像処理装置においては、二次分類処理の結果を表示部に表示する表示制御部をさらに備えるものであってもよい。 Further, the image processing apparatus according to the present disclosure may further include a display control unit that displays the result of the secondary classification process on the display unit.
この場合、表示制御部は、さらに一次分類処理の結果を表示部に表示するものであってもよい。 In this case, the display control unit may further display the result of the primary classification process on the display unit.
また、本開示による画像処理装置においては、所見の解剖学上の特徴または画像特徴量に基づいて、二次分類処理の結果を補正する補正部をさらに備えるものであってもよい。 Further, the image processing apparatus according to the present disclosure may further include a correction unit that corrects the result of the secondary classification processing based on the anatomical features of the findings or the amount of image features.
また、本開示による画像処理装置においては、補正部は、特定の断面方向の断面画像の各画素の信号値に基づいて、二次分類処理の結果を補正するものであってもよい。 Further, in the image processing apparatus according to the present disclosure, the correction unit may correct the result of the secondary classification process based on the signal value of each pixel of the cross-sectional image in a specific cross-sectional direction.
また、本開示による画像処理装置においては、補正部は、組織または病変の形状または位置の解剖学上の特徴に基づいて、二次分類処理の結果を補正するものであってもよい。 Further, in the image processing apparatus according to the present disclosure, the correction unit may correct the result of the secondary classification process based on the anatomical features of the shape or position of the tissue or lesion.
また、本開示による画像処理装置においては、補正部は、二次分類処理によって分類された各画素によって特定される組織または病変の辺縁または重心位置の3次元空間上の連続性に異常がある場合に、各画素の二次分類処理の結果を補正するものであってもよい。 Further, in the image processing apparatus according to the present disclosure, the correction unit has an abnormality in the continuity of the edge or center of gravity of the tissue or lesion specified by each pixel classified by the secondary classification process in the three-dimensional space. In some cases, the result of the secondary classification process of each pixel may be corrected.
本開示による画像処理方法は、被検体の複数の異なる断面方向の断面画像を取得し、
複数の断面画像のそれぞれについて、各断面画像の各画素が分類される所見の種類を特定するための一次分類処理を行い、
複数の断面画像に共通する部分について、所見の種類に応じた異なる評価方式により、各断面画像の一次分類処理の結果を評価することによって、複数の断面画像に共通する部分が分類される所見の種類を特定する二次分類処理を行う。
The image processing method according to the present disclosure obtains cross-sectional images of a plurality of different cross-sectional directions of a subject, and obtains cross-sectional images.
For each of the plurality of cross-sectional images, a primary classification process is performed to specify the type of finding in which each pixel of each cross-sectional image is classified.
For the parts common to multiple cross-sectional images, the parts common to multiple cross-sectional images are classified by evaluating the results of the primary classification processing of each cross-sectional image by different evaluation methods according to the type of findings. Performs secondary classification processing to specify the type.
なお、本開示による画像処理方法をコンピュータに実行させるためのプログラムとして提供してもよい。 It should be noted that the image processing method according to the present disclosure may be provided as a program for causing a computer to execute the image processing method.
本開示による他の画像処理装置は、コンピュータに実行させるための命令を記憶するメモリと、
記憶された命令を実行するよう構成されたプロセッサとを備え、プロセッサは、
被検体の複数の異なる断面方向の断面画像を取得し、
複数の断面画像のそれぞれについて、各断面画像の各画素が分類される所見の種類を特定するための一次分類処理を行い、
複数の断面画像に共通する部分について、所見の種類に応じた異なる評価方式により、各断面画像の一次分類処理の結果を評価することによって、複数の断面画像に共通する部分が分類される所見の種類を特定する二次分類処理を行う。
Other image processing devices according to the present disclosure include a memory for storing instructions for causing a computer to execute, and a memory.
The processor comprises a processor configured to execute a stored instruction.
Obtain cross-sectional images of multiple different cross-sectional directions of the subject,
For each of the plurality of cross-sectional images, a primary classification process is performed to specify the type of finding in which each pixel of each cross-sectional image is classified.
For the parts common to multiple cross-sectional images, the parts common to multiple cross-sectional images are classified by evaluating the results of the primary classification processing of each cross-sectional image by different evaluation methods according to the type of findings. Performs secondary classification processing to specify the type.
本開示によれば、断面画像の各画素を複数種類の所見に高精度に分類することができる。 According to the present disclosure, each pixel of a cross-sectional image can be classified into a plurality of types of findings with high accuracy.
以下、本開示の画像処理装置、方法およびプログラムの一実施形態を用いた医用画像診断支援システムについて、図面を参照して詳細に説明する。図1は、本開示の画像処理装置の一実施形態を用いた医用画像診断支援システムの概略構成を示すブロック図である。 Hereinafter, a medical image diagnosis support system using an embodiment of the image processing apparatus, method, and program of the present disclosure will be described in detail with reference to the drawings. FIG. 1 is a block diagram showing a schematic configuration of a medical image diagnosis support system using an embodiment of the image processing apparatus of the present disclosure.
本実施形態の医用画像診断支援システムは、図1に示すように、画像処理装置10、表示装置20、入力装置30、および3次元画像保管サーバ40を備える。
As shown in FIG. 1, the medical image diagnosis support system of the present embodiment includes an
画像処理装置10は、コンピュータに本実施形態の画像処理プログラムをインストールすることによって構成されたものである。画像処理プログラムは、DVD(Digital Versatile Disc)あるいはCD−ROM(Compact Disk Read Only Memory)等の記録媒体に記録されて配布され、その記録媒体からコンピュータにインストールされる。または、ネットワークに接続されたサーバコンピュータの記憶装置、もしくはネットワークストレージに、外部からアクセス可能な状態で記憶され、要求に応じて医師が使用するコンピュータにダウンロードされ、インストールされる。
The
画像処理装置10は、CPU(Central Processing Unit)および半導体メモリ、並びにハードディスクおよびSSD(Solid State Drive)等のストレージデバイス等を備えている。そして、これらのハードウェアによって、図1に示すような断面画像取得部11、一次分類部12、二次分類部13、および表示制御部14が構成されている。そして、ストレージデバイスにインストールされた画像処理プログラムがCPUによって実行されることによって上記各部がそれぞれ動作する。
The
断面画像取得部11は、手術前または検査前等に予め撮影された被検体の断面画像を取得するものである。断面画像としては、例えばCT装置およびMRI装置等から出力されたスライスデータ、並びにMS(Multi Slice)CT装置およびコーンビームCT装置から出力されたスライスデータ等により表されるものがある。断面画像は、3次元画像保管サーバ40に被検体の識別情報と対応づけられて保存されている。断面画像取得部11は、入力装置30において入力された被検体の識別情報に対応する断面画像を3次元画像保管サーバ40から読み出して取得する。
The cross-sectional
また、断面画像取得部11は、被検体の複数の異なる断面方向の断面画像を取得する。断面方向としては、アキシャル、サジタル、コロナルおよびオブリーク等がある。断面画像取得部11は、少なくとも3以上の断面画像を取得することが好ましい。断面画像取得部11は、例えば図2のA,B,Cに示すように互いに異なる3つの断面方向の各断面方向について、それぞれ複数の断面画像を取得するものである。なお、3つの断面方向は、アキシャル方向、サジタル方向およびコロナル方向とする。
Further, the cross-sectional
なお、断面画像取得部11は、被検体の複数の異なる断面方向の断面画像が3次元画像保管サーバ40に予め保存されている場合には、それら複数の断面画像を取得するが、被検体のボリュームデータが3次元画像保管サーバ40に保存されている場合には、そのボリュームデータを読み出し、ボリュームデータから複数の異なる断面方向の断面画像を生成して取得するようにしてもよい。
When the cross-sectional
一次分類部12は、断面画像取得部11によって取得された複数の断面画像のそれぞれについて、各断面画像の各画素が分類される組織または病変の種類、すなわち所見の種類を特定するための一次分類処理を行う。本実施形態においては、断面画像取得部11によって肺領域を含む複数の断面画像を取得し、各断面画像の各画素について、複数種類の所見のそれぞれであることを表す評価値、すなわち複数種類の所見のそれぞれに対応する評価値を一次分類処理の結果として取得する。なお、以下、複数の断面画像のうち、アキシャル方向の1つの断面画像に対する一次分類処理についてのみ説明するが、他の断面方向の断面画像についても同様にして一次分類処理が行われるものとする。
The
本実施形態の一次分類部12は、機械学習であるディープラーニング(深層学習)によって生成された多層ニューラルネットワークからなる判別器を有し、この判別器を用いて、各断面画像の各画素に関して、複数種類の所見のそれぞれに対応する評価値を取得する。
The
多層ニューラルネットワークでは、各層において、前段の階層により得られる異なる複数の特徴量のデータに対して各種カーネルを用いて演算処理を行う。そして、この演算処理によって得られる特徴量のデータに対して次段以降の層においてさらなる演算処理を行うことにより、特徴量の認識率を向上させ、入力されたデータを複数のクラスのそれぞれに対応する評価値を取得し、評価値に基づいて入力されたデータを複数のクラスのいずれかに分類することができる。 In the multi-layer neural network, in each layer, arithmetic processing is performed using various kernels on the data of a plurality of different features obtained by the layer of the previous stage. Then, by further performing arithmetic processing on the feature quantity data obtained by this arithmetic processing in the next and subsequent layers, the recognition rate of the feature quantity is improved, and the input data corresponds to each of a plurality of classes. It is possible to acquire the evaluation value to be used and classify the input data based on the evaluation value into one of a plurality of classes.
図3は多層ニューラルネットワークの一例を示す図である。図3に示すように多層ニューラルネットワーク50は、入力層51および出力層52を含む複数の階層からなる。本実施形態においては、断面画像に含まれる肺領域を、例えば、浸潤影、腫瘤影、すりガラス影、小葉中心性結節影、非小葉中心性結節影、網状影、線状影、小葉間隔壁肥厚、蜂窩肺、嚢胞、低吸収域(気腫)、空洞、胸膜肥厚、胸水、空洞、気管支拡張、牽引性気管支拡張、動脈、正常肺、胸壁および縦隔等の所見に分類するように学習がなされている。なお、所見の種類はこれらに限定されるものではなく、これらより多くの所見であってもよく、これらより少ない所見であってもよい。
FIG. 3 is a diagram showing an example of a multi-layer neural network. As shown in FIG. 3, the multi-layer
本実施形態においては、これらの所見について、数百万という多数の教師データを用いて、多層ニューラルネットワーク50に学習させる。学習の際には、所見の種類が既知の断面画像から、予め定められたサイズ(例えば1.5cm×1.5cm)の関心領域を切り出し、その関心領域を教師データとして用いる。そして、多層ニューラルネットワーク50に教師データを入力して、所見の種類の分類処理の結果(以下、分類結果とする)を出力させる。次いで、出力された結果を教師データと比較し、正解か不正解かに応じて、出力側から入力側に向かって、多層ニューラルネットワーク50の各層に含まれるユニット(図3に 丸印で示す)の各階層間における結合の重みを修正する。結合の重みの修正を、多数の教師データを用いて、予め定められた回数、または出力される分類結果の正解率が100%になるまで繰り返し行い、学習を終了する。
In this embodiment, these findings are trained by the multi-layer
一次分類部12は一次分類処理を行う際に、分類対象の断面画像から教師データと同じ大きさの関心領域を順次切り出し、その関心領域を多層ニューラルネットワーク50からなる判別器に入力する。これにより、切り出した関心領域の中心画素について、複数の所見のそれぞれに対応する評価値が出力される。なお、複数の所見のそれぞれに対応する評価値は、中心画素が、各所見に属する可能性を示す評価値であり、この評価値が大きいほど、その所見に分類される可能性が高いことを意味する。一次分類部12は、断面画像に含まれる各画素において、複数種類の所見のそれぞれに対応する評価値を取得するものとする。
When the
図4は、ある関心領域の中心画素についての所見の種類に対応する評価値を示す図である。なお、図4においては、説明を簡単なものとするために複数の所見のうちの一部の所見についての評価値を示す。本実施形態において、判別器は、関心領域の中心画素について、複数の所見のそれぞれに対応する評価値を出力する。このため、図4に示すように、各所見に対応する評価値が取得される。図4に示すような評価値が取得された場合、その関心領域の中心画素は、網状影である可能性が最も高く、次にすりガラス影の可能性が高い。逆に正常肺または低吸収域の可能性はほとんど無い。このため、仮に一次分類結果のみを用いるとするならば、図4に示すような評価値が取得された関心領域の中心画素は、評価値が最大の網状影に分類される。 FIG. 4 is a diagram showing evaluation values corresponding to the types of findings for the central pixel of a certain region of interest. Note that FIG. 4 shows evaluation values for some of the plurality of findings for the sake of simplicity. In the present embodiment, the discriminator outputs an evaluation value corresponding to each of the plurality of findings for the central pixel of the region of interest. Therefore, as shown in FIG. 4, the evaluation values corresponding to each finding are acquired. When the evaluation value as shown in FIG. 4 is acquired, the central pixel of the region of interest is most likely to be a reticular shadow, and then is most likely to be a ground glass shadow. On the contrary, there is almost no possibility of normal lung or low absorption area. Therefore, if only the primary classification result is used, the central pixel of the region of interest from which the evaluation value is acquired as shown in FIG. 4 is classified into the reticulated shadow having the maximum evaluation value.
一次分類部12は、上述したようにアキシャル方向の断面画像以外のその他の断面方向の断面画像についても、上記と同様の一次分類処理を行い、各断面画像の各画素において、複数種類の所見のそれぞれに対応する評価値を取得する。
As described above, the
次に、二次分類部13について説明する。二次分類部13は、一次分類部12で用いられた複数の断面画像に共通する部分について、所見の種類に応じた異なる評価方式により各断面画像の一次分類結果を評価する。とくに、複数の断面画像に共通する部分について、所見の種類に応じた異なる評価方式により各断面画像の一次分類結果を評価する。そしてこれにより、二次分類部13は、複数の断面画像に共通する画素が分類される所見の種類を特定する。具体的には、図5に示すように、3方向の断面画像S1,S2,S3に共通する画素Pについて、断面画像S1,S2,S3の一次分類結果がそれぞれ取得され、その3つの一次分類結果が評価されて、画素Pが分類される所見の種類が特定される。
Next, the
本実施形態においては、一次分類結果として、断面画像の各画素において、複数種類の所見のそれぞれに対応する評価値が取得されている。このため、一次分類結果の評価方式として、各所見についての評価値の算術平均値を算出する評価方式を用いることが考えられる。この場合、最も大きい算術平均値が算出された所見が、画素Pの最終的な所見に特定される。 In the present embodiment, as a result of the primary classification, evaluation values corresponding to each of the plurality of types of findings are acquired in each pixel of the cross-sectional image. Therefore, as an evaluation method for the primary classification result, it is conceivable to use an evaluation method for calculating the arithmetic mean value of the evaluation values for each finding. In this case, the finding for which the largest arithmetic mean value is calculated is specified as the final finding of the pixel P.
図6はある関心領域の中心画素についての所見の評価値の算術平均値を示す図である。図6に示すように、この画素についての所見の評価値の算術平均値は、浸潤影が6.3と最も大きくなる。したがって、評価方式として算術平均を用いた場合、この画素は二次分類処理により浸潤影に分類される。しかしながら、浸潤影について、コロナル、サジタルおよびアキシャルの3方向の断面のそれぞれの評価値を比較すると、アキシャル方向の評価値が0.5であり、コロナル方向の評価値である10.8およびサジタル方向の評価値である7.5と比較すると低いものとなっている。評価値が0.5と言うことは、アキシャル方向の断面画像においては、その画素は浸潤影の可能性が極めて低いことを示している。このため、このような状況でその画素を最終的に浸潤影に分類した場合、分類の精度は必ずしも高いものではなくなる。 FIG. 6 is a diagram showing an arithmetic mean value of evaluation values of findings for a central pixel of a certain region of interest. As shown in FIG. 6, the arithmetic mean value of the evaluation value of the findings for this pixel has the largest infiltration shadow of 6.3. Therefore, when the arithmetic mean is used as the evaluation method, this pixel is classified as an infiltration shadow by the secondary classification process. However, when comparing the evaluation values of the cross sections in the three directions of coronal, sagittal, and axial for the infiltration shadow, the evaluation value in the axial direction is 0.5, and the evaluation value in the coronal direction is 10.8 and the sagittal direction. It is lower than the evaluation value of 7.5. The evaluation value of 0.5 indicates that the pixel has an extremely low possibility of infiltration shadow in the cross-sectional image in the axial direction. Therefore, when the pixel is finally classified as an infiltration shadow in such a situation, the classification accuracy is not always high.
一般に、病変は凸構造が多いため、多層ニューラルネットワーク50を学習するための学習データに含まれる病変においては、病変の周囲が正常肺等の背景となる組織であることが多い。このような学習データを用いて、確実に病変を検出できるように多層ニューラルネットワーク50を学習しようとすると、正常肺等の背景よりも病変の方が強めに学習されることになる。その結果、そのように学習された多層ニューラルネットワーク50を判別器として使用した場合、病変の境界のように病変か背景かの分類が微妙な領域は、広めに病変として分類されやすくなる。逆に背景となる正常肺等の広範囲に存在する領域は、病変に対して分類されにくくなる。
In general, since lesions have many convex structures, in the lesions included in the learning data for learning the multi-layer
また、病変の領域以外の領域であっても、図6に示す浸潤影のアキシャル方向の断面画像の評価値のように、ある断面画像で病変が全く存在しない状態は少なく、実際には多層ニューラルネットワーク50が出力する評価値は、所見の種類に応じて微妙な差となることが多い。
Further, even in a region other than the lesion region, there are few states in which no lesion exists in a certain cross-sectional image as in the evaluation value of the cross-sectional image in the axial direction of the infiltrating shadow shown in FIG. 6, and the multi-layer neural network is actually used. The evaluation value output by the
このため、分類結果に対してより差を大きくするためには、病変の所見とそれ以外の背景等の他の所見とで、異なる評価方式を採用することが好ましい。 Therefore, in order to make the difference larger than the classification result, it is preferable to adopt a different evaluation method depending on the findings of the lesion and other findings such as other backgrounds.
このため、本実施形態においては、二次分類部13は、一次分類結果に基づいて、病変の所見についての評価値に対して、すべての断面画像における評価値が高い程、高い評価値となった所見を、共通する画素の所見に優先的に分類する特定の平均化方式を採用する。具体的には、特定の平均化方式として調和平均を評価方式として採用する。この場合、病変以外の所見についての評価値に対しては、上述した算術平均を評価方式として採用する。ここで、調和平均は下記の式(1)により表される。式(1)において、E1はコロナル方向の断面画像における評価値、E2はサジタル方向の断面画像における評価値、E3はアキシャル方向の断面画像における評価値である。また、二次分類部13は、評価値が0を超える所見についてのみ調和平均を算出し、評価値が0以下となる所見については調和平均は算出しないものとする。
Therefore, in the present embodiment, the
調和平均=3/(1/E1+1/E2+1/E3) (1) Harmonic mean = 3 / (1 / E1 + 1 / E2 + 1 / E3) (1)
図7は図6と同様のある画素についての所見毎の評価値の調和平均値を示す図である。図7に示すように、評価方式として調和平均を採用すると、浸潤影のように低い評価値を含む場合、調和平均値は低い値となる。逆に、正常肺のように3方向のすべてにおいて評価値が大きい所見については、調和平均は大きい値となる。図7に示すように調和平均を評価方式として用いた場合、この画素の二次分類処理の結果である二次分類結果は、調和平均値が最も大きい正常肺となる。 FIG. 7 is a diagram showing a harmonic mean value of evaluation values for each finding for a certain pixel similar to that in FIG. As shown in FIG. 7, when the harmonic mean is adopted as the evaluation method, the harmonic mean value becomes a low value when a low evaluation value such as an infiltration shadow is included. Conversely, for findings with large evaluation values in all three directions, such as normal lung, the harmonic mean is large. When the harmonic mean is used as the evaluation method as shown in FIG. 7, the secondary classification result which is the result of the secondary classification process of the pixel is the normal lung having the largest harmonic mean value.
上述したように、病変の所見についての評価値に対しては調和平均を用いることが好ましい。しかしながら、例えば点状影等のように比較的小さい領域は、3方向の断面画像において点状影に分類された画素の位置が一致しにくい。このため、3方向の断面画像における点状影となるべき画素の位置がわずかに外れるのみで、ある断層面において点状影となるべき画素が、他の断層面において全く認識されなくなる可能性がある。このような場合、評価方式として調和平均を採用すると、その画素は点状影に分類されなくなってしまう。このため、点状影となる所見についての評価値に対しては、評価方式として調和平均ではなく算術平均を採用することが好ましい。 As mentioned above, it is preferable to use the harmonic mean for the evaluation value of the lesion findings. However, in a relatively small region such as a punctate shadow, it is difficult for the positions of the pixels classified as punctate shadows to match in the cross-sectional image in three directions. For this reason, the positions of the pixels that should be punctate shadows in the cross-sectional image in three directions are only slightly off, and the pixels that should be punctate shadows on one tomographic plane may not be recognized at all on other tomographic planes. be. In such a case, if the harmonic mean is adopted as the evaluation method, the pixels will not be classified as point-like shadows. For this reason, it is preferable to use an arithmetic mean instead of a harmonic mean as the evaluation method for the evaluation value of the finding that becomes a punctate shadow.
また、動脈すなわち血管等の線状構造は、ある方向の断面画像においては線状に含まれるが、この方向に直交する方向の断面画像においては点として含まれる。このため、3方向の断面画像における線状構造となるべき画素の位置がわずかに外れるのみで、ある断層面において線状構造となるべき画素が、他の断層面において全く認識されなくなる可能性がある。このような場合、評価方式として調和平均を採用すると、その画素は血管等の線状構造に分類されなくなってしまう。このため、線状構造となる所見についての評価値に対しては、評価方式として調和平均ではなく算術平均を採用することが好ましい。 Further, a linear structure such as an artery, that is, a blood vessel is included linearly in a cross-sectional image in a certain direction, but is included as a point in a cross-sectional image in a direction orthogonal to this direction. For this reason, the positions of the pixels that should have a linear structure in the cross-sectional image in three directions are only slightly deviated, and the pixels that should have a linear structure in one tomographic plane may not be recognized at all in another tomographic plane. be. In such a case, if the harmonic mean is adopted as the evaluation method, the pixels will not be classified into linear structures such as blood vessels. For this reason, it is preferable to use an arithmetic mean instead of a harmonic mean as the evaluation method for the evaluation values of the findings having a linear structure.
また、蜂窩肺等の病変は、アキシャル方向の断面画像においては、蜂の巣を上から見たような構造に見えるが、コロナル方向またはサジタル方向の断面画像においては、縦長の構造を伴うことが多い。一方、CT画像またはMRI画像を用いた画像診断においては、アキシャル方向の断面画像を用いることが多い。このため、多層ニューラルネットワーク50の学習に使用する学習データも、アキシャル方向の断面画像が多くなる。このように学習された多層ニューラルネットワーク50を判別器として使用すると、アキシャル方向の断面画像については蜂窩肺についての分類の精度は高いが、コロナル方向の断面画像およびサジタル方向の断面画像については、蜂窩肺の分類精度がアキシャル方向の断面画像よりも低くなる。このような場合、アキシャル方向の断面画像についての評価値の重みを、コロナル方向の断面画像およびサジタル方向の断面画像についての評価値の重みよりも大きくした重み付け算術平均を評価方式として採用することにより、蜂窩肺の分類精度を向上させることができる。また、このような場合の評価方式としては、重み付け算術平均に限定されるものではない。病変の種類に応じて、3方向の断面画像の評価値についての中間値および最大値等、重み付け算術平均以外の他の代表値を用いるようにしてもよい。
In addition, lesions such as honeycomb lungs look like a honeycomb viewed from above in a cross-sectional image in the axial direction, but are often accompanied by a vertically long structure in a cross-sectional image in the coronal direction or the sagittal direction. On the other hand, in diagnostic imaging using CT images or MRI images, cross-sectional images in the axial direction are often used. Therefore, the learning data used for learning the multi-layer
以上のように、本実施形態においては、所見の種類に応じた異なる評価方式を採用する。 As described above, in the present embodiment, different evaluation methods are adopted according to the types of findings.
図8は所見の種類に応じて、異なる評価方式を採用した場合の二次分類結果を示す図である。図8において、蜂窩肺の評価方式の「アキシャル2倍の重み」は、アキシャル方向の断面画像についての評価値の重みを、コロナル方向の断面画像についての評価値およびサジタル方向の断面画像についての評価値の2倍とした重み付け算術平均を意味する。また、図8においては、正常肺の評価方式の最大値とは、3方向の評価値のうちの最大値を採用する評価方式を意味する。図8に示すように所見の種類に応じて異なる評価方式を採用した場合、この画素の二次分類処理の結果である二次分類結果は、評価値が3.9と最も大きい蜂窩肺となる。このように所見の種類に応じて異なる評価方式を採用することにより、より精度よく分類を行うことができる。 FIG. 8 is a diagram showing the results of secondary classification when different evaluation methods are adopted according to the type of findings. In FIG. 8, the “double weight of the axial” of the evaluation method of the honeycomb lung is the evaluation of the evaluation value for the cross-sectional image in the axial direction, the evaluation value for the cross-sectional image in the coronal direction, and the evaluation for the cross-sectional image in the sagittal direction. It means a weighted arithmetic average that is twice the value. Further, in FIG. 8, the maximum value of the evaluation method for normal lung means an evaluation method that adopts the maximum value among the evaluation values in three directions. As shown in FIG. 8, when different evaluation methods are adopted depending on the type of findings, the secondary classification result, which is the result of the secondary classification processing of this pixel, is the honeycomb lung having the largest evaluation value of 3.9. .. By adopting different evaluation methods according to the types of findings in this way, classification can be performed more accurately.
なお、上記説明では、1つの画素Pの二次分類処理について説明したが、3次元空間上における全ての画素について、上記と同様にして二次分類処理が行われ、各画素が分類される所見の種類が特定される。 In the above description, the secondary classification process of one pixel P has been described, but it is found that all the pixels in the three-dimensional space are subjected to the secondary classification process in the same manner as described above, and each pixel is classified. The type of is specified.
図1に戻り、表示制御部14は、二次分類結果に基づいて、各分類の領域に色を割り当てることによってマッピング画像を生成し、そのマッピング画像を表示装置20に表示させる。
Returning to FIG. 1, the
具体的には、表示制御部14は、上述した複数種類の所見のうちのいずれかに分類された3次元空間上の全ての画素について、同一の所見に分類された画素に対して同じ色を割り当てることによって3次元のマッピング画像を生成する。図9は、マッピング画像の一例を示す図である。なお、図9においては、説明を簡単なものとするために、すりガラス影、正常肺、気管支拡張、蜂窩肺、網状影、浸潤影および嚢胞の8種類の所見に分類した場合のマッピング画像を示す。また、図9においては、3次元のマッピング画像における任意の断面の断面画像を示しているが、これに限らず、3次元のマッピング画像を表示装置20に表示させるようにしてもよい。
Specifically, the
また、表示制御部14は、断面画像取得部11によって取得された複数の断面方向の断面画像、および二次分類部13によって二次分類処理された断面画像または3次元画像等を表示装置20に表示可能なものである。なお、表示制御部14は、一次分類部12による一次分類結果に基づいて、評価値が最大となる所見に断面画像の各画素を分類して、一次分類結果に基づくマッピング画像を生成するものであってもよい。この場合、図9に示すマッピング画像(すなわち、二次分類結果に基づくマッピング画像)と一次分類結果に基づくマッピング画像とを切り替え可能に、あるいはこれらを並べて表示可能なものとしてもよい。これにより、一次分類結果と二次分類結果との比較を容易に行うことができる。
Further, the
表示装置20は、例えば液晶ディスプレイ等を備えたものである。また、表示装置20をタッチパネルによって構成し、入力装置30と兼用するようにしてもよい。
The
入力装置30は、マウスおよびキーボード等を備えたものであり、ユーザによる種々の設定入力を受け付けるものである。具体的には、例えば患者の識別情報の設定入力等を受け付けるものである。
The
次に、本実施形態の画像処理装置の動作について説明する。図10は本実施形態の画像処理装置の動作を示すフローチャートである。まず、ユーザによる患者の識別情報等の設定入力に応じて、患者の複数の断面方向の断面画像が取得される(ステップST1)。複数の断面画像は一次分類部12に出力され、一次分類部12は、入力された各断面画像に対して一次分類処理を施すことによって、一次分類結果を取得する(ステップST2)。
Next, the operation of the image processing apparatus of this embodiment will be described. FIG. 10 is a flowchart showing the operation of the image processing apparatus of the present embodiment. First, a cross-sectional image in a plurality of cross-sectional directions of the patient is acquired in response to a setting input such as patient identification information by the user (step ST1). The plurality of cross-sectional images are output to the
そして、一次分類部12による一次分類結果が二次分類部13に出力され、二次分類部13は、入力された一次分類結果に基づいて、所見の種類に応じた異なる評価方式により二次分類処理を行う(ステップST3)。
Then, the primary classification result by the
そして、二次分類部13による二次分類結果が表示制御部14に出力され、表示制御部14は、各分類の領域に色を割り当てることによってマッピング画像を生成し、そのマッピング画像を表示装置20に表示させ(ステップST4)、処理を終了する。
Then, the secondary classification result by the
このように、本実施形態によれば、被検体の複数の異なる断面方向の断面画像を取得し、その複数の断面画像のそれぞれについて、各断面画像の各画素が分類される所見の種類を特定するための一次分類処理を行う。次いで、複数の断面画像に共通する部分について、所見の種類に応じた異なる評価方式により、各断面画像の一次分類結果を評価することによって、複数の断面画像に共通する部分が分類される所見の種類を特定する二次分類処理を行う。このように二次分類処理を行うことによって、断面画像の各画素を複数種類の所見に高精度に分類することができる。 As described above, according to the present embodiment, a plurality of cross-sectional images of the subject in different cross-sectional directions are acquired, and for each of the plurality of cross-sectional images, the type of finding in which each pixel of each cross-sectional image is classified is specified. Perform the primary classification process for this purpose. Next, with respect to the part common to the plurality of cross-sectional images, the part common to the plurality of cross-sectional images is classified by evaluating the primary classification result of each cross-sectional image by a different evaluation method according to the type of the finding. Performs secondary classification processing to specify the type. By performing the secondary classification process in this way, each pixel of the cross-sectional image can be classified into a plurality of types of findings with high accuracy.
なお、上記実施形態においては、複数種類の所見に病変間の境界を含めるようにしてもよい。ここで、病変間の境界とは、病変間の境界を含む予め定められた範囲(例えば境界の周囲の数画素)を意味する。具体的には、図11に示すように、それぞれが病変の領域A1,A2が隣接しているとする。領域A1の境界付近とは、領域A1と領域A2との境界B0から予め定められた範囲の領域A11となる。一方、領域A2の境界付近とは、領域A1と領域A2との境界B0から予め定められた範囲の領域A12となる。なお、複数種類の所見に、病変と病変以外の組織との境界を含めてもよい。 In the above embodiment, a plurality of types of findings may include boundaries between lesions. Here, the boundary between lesions means a predetermined range including the boundary between lesions (for example, several pixels around the boundary). Specifically, as shown in FIG. 11, it is assumed that the lesion areas A1 and A2 are adjacent to each other. The vicinity of the boundary of the area A1 is the area A11 in a predetermined range from the boundary B0 between the area A1 and the area A2. On the other hand, the vicinity of the boundary of the area A2 is the area A12 in a predetermined range from the boundary B0 between the area A1 and the area A2. It should be noted that the plurality of types of findings may include the boundary between the lesion and the tissue other than the lesion.
このように複数種類の所見に病変間等の境界を含めた場合、一次分類結果により取得される境界の評価値に対しては、調和平均のように、すべての断面画像における評価値が高い程、高い評価値となった所見を共通する部分の所見に優先的に分類する評価方式を採用することが好ましい。この場合、境界以外の評価値に対しては、上述した算術平均を評価方式として採用すればよい。 When boundaries such as between lesions are included in multiple types of findings in this way, the higher the evaluation value in all cross-sectional images, such as the harmonic mean, for the evaluation value of the boundary obtained by the primary classification result. It is preferable to adopt an evaluation method that preferentially classifies the findings with high evaluation values into the findings of the common part. In this case, the above-mentioned arithmetic mean may be adopted as the evaluation method for the evaluation values other than the boundary.
また、上記実施形態においては、所見として診断対象となる肺および肝臓等の対象臓器を含めるようにしてもよい。このように、所見に対象臓器を含めた場合、一次分類結果により取得される対象臓器の評価値に対しては、調和平均のように、すべての断面画像における評価値が高い程、高い評価値となった所見を共通する部分の所見に優先的に分類する評価方式を採用することが好ましい。この場合、対象臓器以外の評価値に対しては、上述した算術平均を評価方式として採用すればよい。 Further, in the above embodiment, the target organs such as the lung and the liver to be diagnosed may be included as the findings. In this way, when the target organ is included in the findings, the higher the evaluation value in all the cross-sectional images, the higher the evaluation value, as in the harmonic mean, for the evaluation value of the target organ obtained from the primary classification result. It is preferable to adopt an evaluation method that preferentially classifies the findings that have become common to the findings of the common part. In this case, for the evaluation values other than the target organ, the above-mentioned arithmetic mean may be adopted as the evaluation method.
また、上記実施形態においては、二次分類部13が出力した二次分類結果を、所見の解剖学上の特徴または画像特徴量に基づいて補正するようにしてもよい。以下、これを他の実施形態として説明する。図12は、本開示の画像処理装置および方法並びにプログラムの他の実施形態を用いた医用画像診断支援システムの概略構成を示すブロック図である。なお、図12において図1と同一の構成については同一の参照番号を付与し、詳細な説明は省略する。図12に示す他の実施形態による医用画像診断支援システムは、図1に示す医用画像診断支援システムに対して補正部15を備えたものである。
Further, in the above embodiment, the secondary classification result output by the
補正部15は、所見の解剖学上の特徴または画像特徴量に基づいて、二次分類結果を補正するものである。
The
ここで、上述した二次分類部13によって各画素が分類される所見を特定したとしても、その分類結果が、解剖学上の構造に沿った結果とは異なる場合がある。
Here, even if the finding that each pixel is classified by the above-mentioned
具体的には、例えば嚢胞の輪郭は連続した滑らかな曲線となるが、二次分類結果、嚢胞と分類された画素からなる領域の輪郭が、連続した滑らかな曲線とならない場合がある。例えば図13に示すように、嚢胞と分類された画素からなる領域が、分断された2つの領域r1,r2となる場合がある。また、図14に示すように、嚢胞と分類された画素からなる領域r3の輪郭に突起ができたり、逆に凹みができたりして、嚢胞の領域の辺縁に異常がある場合がある。 Specifically, for example, the contour of a cyst may be a continuous smooth curve, but as a result of secondary classification, the contour of a region consisting of pixels classified as a cyst may not be a continuous smooth curve. For example, as shown in FIG. 13, a region composed of pixels classified as a cyst may be two divided regions r1 and r2. Further, as shown in FIG. 14, there are cases where a protrusion is formed on the contour of the region r3 composed of pixels classified as a cyst, or a dent is formed on the contrary, and the edge of the region of the cyst is abnormal.
そこで、本開示の他の実施形態の補正部15は、解剖学上の構造に沿った結果となるように、二次分類結果を補正するものである。具体的には、補正部15は、特定の断面方向の断面画像を用いて、各画素の二次分類結果を補正する。特定の断面方向の断面画像としては、より高精度に各画素を所見に分類可能な断面画像を用いることが好ましく、例えば一次分類処理を行う際に用いた複数の断面画像のうち、最も解像度が高い断面方向の断面画像を用いることが好ましい。
Therefore, the
具体的には、例えば最も解像度が高い断面方向の断面画像の画素値を用いて、閾値処理またはフィルタ処理等を行うことによって嚢胞領域を抽出し、その輪郭を画像特徴量として取得する。そして、二次分類処理によって嚢胞と分類された画素からなる領域を上記輪郭にマッチングさせることによって補正を行う。これにより、図13に示す領域r2を嚢胞の領域から除外することができ、図14に示す領域r3の突起を無くすことができる。また、嚢胞に限らず、断面画像の画素値を用いて、閾値処理またはフィルタ処理等を行うことによって気管支領域を抽出し、その輪郭を画像特徴量として取得する。そして、二次分類処理によって気管支と分類された画素からなる領域を上記輪郭にマッチングさせることによって補正を行うようにしてもよい。 Specifically, for example, the cyst region is extracted by performing threshold processing or filter processing using the pixel value of the cross-sectional image in the cross-sectional direction having the highest resolution, and the contour thereof is acquired as an image feature amount. Then, the correction is performed by matching the region consisting of the pixels classified as the cyst by the secondary classification process with the contour. Thereby, the region r2 shown in FIG. 13 can be excluded from the region of the cyst, and the protrusion of the region r3 shown in FIG. 14 can be eliminated. Further, not only the cyst but also the bronchial region is extracted by performing threshold processing or filter processing using the pixel value of the cross-sectional image, and the contour thereof is acquired as an image feature amount. Then, the correction may be performed by matching the region consisting of the pixels classified as the bronchi by the secondary classification process with the contour.
なお、上記説明では、嚢胞領域または気管支領域を抽出するようにしたが、このように必ずしも、所見を特定しなくてもよい。例えば断面画像に含まれるエッジまたは形状を解析して断面画像をセグメンテーションし、二次分類処理によって特定の所見に分類された画素からなる領域をセグメンテーションされた領域まで広げたり、または狭めたりしてもよい。 In the above description, the cyst region or the bronchial region is extracted, but the findings do not necessarily have to be specified. For example, the edge or shape contained in the cross-section image may be analyzed to segment the cross-section image, and the region consisting of pixels classified into specific findings by the secondary classification process may be expanded or narrowed to the segmented region. good.
また、補正をする際、二次分類処理によって分類された領域に含まれる信号値を画像特徴量として用いるようにしてもよい。具体的には、二次分類処理によって分類された領域に含まれる信号値の分布を解析し、高信号値の領域と低信号値の領域が存在した場合、判別分析法を用いてこれらの領域を分離することによって、上述した嚢胞または気管支等の組織を表す信号値の領域を決定して補正するようにしてもよい。例えば断面画像がCT画像である場合、空気領域の信号値は−1024に近づくが、気管支壁および血管等の組織は0以上の値を示すので、二次分類処理によって分類された嚢胞領域の中に空気領域に近い低信号値の領域と、血管等に近い高信号値が含まれていた場合には、分離された信号値群のうち低信号値群の領域を補正された嚢胞領域として決定する。 Further, when making corrections, the signal values included in the area classified by the secondary classification process may be used as the image feature amount. Specifically, the distribution of signal values included in the regions classified by the secondary classification process is analyzed, and if there are high signal value regions and low signal value regions, these regions are used using a discriminant analysis method. By separating the above-mentioned regions of signal values representing tissues such as cysts or bronchi as described above, the region may be determined and corrected. For example, when the cross-sectional image is a CT image, the signal value in the air region approaches -1024, but the tissue such as the bronchial wall and blood vessels shows a value of 0 or more. If a low signal value region close to the air region and a high signal value close to a blood vessel etc. are included, the region of the low signal value group among the separated signal value groups is determined as the corrected cyst region. do.
また、二次分類処理によって分類された嚢胞領域の信号値に対して、低吸収域の信号値である−950等の特定の閾値を用いて閾値処理を施すことによって補正するようにしてもよい。 Further, the signal value of the cyst region classified by the secondary classification process may be corrected by performing the threshold value process using a specific threshold value such as −950, which is the signal value of the low absorption region. ..
また、二次分類処理によって分類された領域または上述した補正方法によって補正された領域を、その領域の外側に向けて1単位(1ボクセルまたは1ピクセル)ずつ膨らませていき、信号値の分布が近しい領域部分は拡張することによって補正するようにしてもよい。 In addition, the area classified by the secondary classification process or the area corrected by the above-mentioned correction method is expanded by 1 unit (1 voxel or 1 pixel) toward the outside of the area, and the distribution of signal values is close. The area portion may be corrected by expanding it.
例えば嚢胞領域の場合、中央は空気領域で信号値が低いが辺縁は肺組織の区切りまたは線維化組織であるので、信号値が高くなる。したがって、1単位ずつ高信号値の領域に行き着くまで膨らませることによって補正するようにしてもよい。また、二次分類処理によって分類された嚢胞領域内で、エッジ(高信号値)の領域が検出されて領域が分断された場合には、それぞれの分断された領域の信号値の分布(分散および標準偏差等)を算出して比較することによって、肺野に近い領域を除外して補正するようにしてもよい。 For example, in the case of the cyst region, the signal value is high in the air region in the center, but the signal value is high because the margin is a partition or fibrotic tissue of lung tissue. Therefore, it may be corrected by inflating one unit at a time until it reaches the region of high signal value. In addition, when an edge (high signal value) region is detected and the region is divided within the cyst region classified by the secondary classification process, the distribution (dispersion and distribution) of the signal value of each divided region is also obtained. By calculating and comparing the standard deviation, etc.), the region close to the lung field may be excluded and corrected.
また、上記説明では、画像特徴量を用いて補正を行うようにしたが、これに限らず、所見の解剖学上の特徴を用いて補正を行うようにしてもよい。具体的には、上述したように嚢胞と胸水とは、断面画像上において同じような輪郭形状で現れる場合があり、胸水の領域が嚢胞の領域と誤分類される可能性がある。そこで、嚢胞に分類された領域が、肺領域以外の周辺領域である場合には、その領域は胸水の領域であるとして削除するようにしてもよい。すなわち、嚢胞の解剖学上の位置の特徴に基づいて、補正を行うようにしてもよい。また、嚢胞と分類された領域が、図13に示すように分断された領域r1,r2である場合には、嚢胞の輪郭は連続した滑らかな曲線であるという解剖学上の形状の特徴に基づいて、領域r2を削除するようにしてもよい。また、嚢胞と分類された領域が、図14に示すように突起を有する領域である場合には、嚢胞の輪郭は連続した滑らかな曲線であるという解剖学上の形状の特徴に基づいて、突起の部分を削除するようにしてもよい。 Further, in the above description, the correction is performed using the image feature amount, but the correction is not limited to this, and the correction may be performed using the anatomical feature of the finding. Specifically, as described above, the cyst and the pleural effusion may appear in the same contour shape on the cross-sectional image, and the pleural effusion region may be misclassified as the cyst region. Therefore, if the region classified as a cyst is a peripheral region other than the lung region, that region may be deleted as a pleural effusion region. That is, the correction may be made based on the characteristics of the anatomical position of the cyst. Further, when the region classified as a cyst is a divided region r1 or r2 as shown in FIG. 13, the contour of the cyst is based on the characteristic of the anatomical shape that the contour is a continuous smooth curve. Then, the area r2 may be deleted. Also, when the region classified as a cyst is a region with protrusions as shown in FIG. 14, the protrusions are based on the anatomical shape feature that the contour of the cyst is a continuous smooth curve. You may try to delete the part of.
また、上記他の実施形態では、補正をする際、一次分類処理を行う際に用いた複数の断面画像のうち、最も解像度が高い断面方向の断面画像を用いるようにしたが、これに限らず、例えば被検体の撮影におけるスライス方向の断面画像を用いるようにしてもよい。撮影の際のスライス方向の断面画像とは、いわゆる原画像であって、例えば撮影の際のスライス方向が、体軸に直交する方向である場合には、アキシャル方向の断面画像が、スライス方向の断面画像となる。スライス方向の断面画像は、最も解像度が高い画像であるので、分類精度をより向上させることができる。 Further, in the above other embodiment, when the correction is performed, the cross-sectional image in the cross-sectional direction having the highest resolution is used among the plurality of cross-sectional images used when performing the primary classification process, but the present invention is not limited to this. For example, a cross-sectional image in the slice direction in photographing the subject may be used. The cross-sectional image in the slice direction at the time of shooting is a so-called original image. For example, when the slice direction at the time of shooting is a direction orthogonal to the body axis, the cross-sectional image in the axial direction is the slice direction. It becomes a cross-sectional image. Since the cross-sectional image in the slice direction is the image having the highest resolution, the classification accuracy can be further improved.
また、補正部15は、図14に示すような嚢胞と分類された領域の突起または凹み等の辺縁の異常の検出処理を行い、辺縁の異常が検出された場合のみ上述した補正を行うようにしてもよい。また、二次分類処理が行われた断面画像S4,S5,S6を、図15に示すように3次元空間上に平行に配列した場合に、例えば各断面画像S4,S5,S6内における嚢胞と分類された各領域r4,r5,r6の重心位置の連続性の異常を検出した場合に、各断面画像S4,S5,S6の嚢胞と分類された領域に対して上述した補正を行うようにしてもよい。重心位置の連続性の異常については、例えば重心位置を結んだ線Lの直線性を評価し、直線性が予め設定された閾値以下である場合に、重心位置の連続性に異常があると認識するようにすればよい。
Further, the
このように、所見の解剖学上の特徴または画像特徴量に基づいて、二次分類結果を補正することにより、より解剖学上の構造に沿った分類結果とすることができ、断面画像の各画素を複数の所見に高精度に分類することができる。 In this way, by correcting the secondary classification result based on the anatomical features or image features of the findings, the classification result can be made more in line with the anatomical structure, and each of the cross-sectional images can be obtained. Pixels can be classified into multiple findings with high accuracy.
なお、上記各実施形態においては、すべての断面画像における評価値が高い程、高い評価値となった所見を共通する部分の所見に優先的に分類する特定の平均化方式として調和平均を採用しているが、これに限定されるものではない。 In each of the above embodiments, the higher the evaluation value in all the cross-sectional images, the more the harmonic mean is adopted as a specific averaging method that preferentially classifies the findings with higher evaluation values into the findings of the common part. However, it is not limited to this.
また、上記各実施形態においては、複数の断面画像に共通する画素について、所見の種類に応じた異なる評価方式により各断面画像の一次分類結果を評価しているが、評価するのは画素に限定されるものではない。共通する画素を中心とする予め定められた範囲内の(例えば、3×3×3画素、5×5×5画素等)の複数の画素について、各断面画像の一次分類結果を評価してもよい。 Further, in each of the above embodiments, the primary classification result of each cross-sectional image is evaluated by different evaluation methods according to the type of findings for the pixels common to the plurality of cross-sectional images, but the evaluation is limited to the pixels. It is not something that will be done. Even if the primary classification result of each cross-sectional image is evaluated for a plurality of pixels within a predetermined range (for example, 3 × 3 × 3 pixels, 5 × 5 × 5 pixels, etc.) centered on a common pixel. good.
また、上記各実施形態においては、評価方式として平均化方式を採用しているが、これに限定されるものではない。例えば、一次分類結果に含まれる所見毎の評価値に対して何らかのパラメータを変化させる評価方式等、任意の評価方式を採用することができる。 Further, in each of the above embodiments, the averaging method is adopted as the evaluation method, but the evaluation method is not limited to this. For example, an arbitrary evaluation method such as an evaluation method in which some parameter is changed with respect to the evaluation value for each finding included in the primary classification result can be adopted.
また、上記各実施形態において、例えば、断面画像取得部11、一次分類部12、二次分類部13、表示制御部14および補正部15といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(processor)を用いることができる。上記各種のプロセッサには、上述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device :PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
Further, in each of the above embodiments, the hardware of the processing unit that executes various processes such as the cross-sectional
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせまたはCPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。 One processing unit may be composed of one of these various processors, or a combination of two or more processors of the same type or different types (for example, a combination of a plurality of FPGAs or a combination of a CPU and an FPGA). ) May be configured. Further, a plurality of processing units may be configured by one processor.
複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアとの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。 As an example of configuring a plurality of processing units with one processor, first, as represented by a computer such as a client and a server, one processor is configured by a combination of one or more CPUs and software. There is a form in which this processor functions as a plurality of processing units. Second, as typified by System On Chip (SoC), there is a form that uses a processor that realizes the functions of the entire system including multiple processing units with one IC (Integrated Circuit) chip. be. As described above, the various processing units are configured by using one or more of the above-mentioned various processors as a hardware-like structure.
さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(circuitry)を用いることができる。 Further, as the hardware structure of these various processors, more specifically, an electric circuit (circuitry) in which circuit elements such as semiconductor elements are combined can be used.
10 画像処理装置
11 断面画像取得部
12 一次分類部
13 二次分類部
14 表示制御部
15 補正部
20 表示装置
30 入力装置
40 3次元画像保管サーバ
50 多層ニューラルネットワーク
51 入力層
52 出力層
A1,A2,A11,A12 領域
B0 境界
L 重心位置を結ぶ線
P 画素
r1,r2,r3,r4,r5,r6 嚢胞と分類された領域
S1,S2,S3,S4,S5,S6 断面画像
10
P pixel r1, r2, r3, r4, r5, r6 Area classified as a cyst S1, S2, S3, S4, S5, S6 Cross-sectional image
Claims (15)
複数の前記断面画像のそれぞれについて、前記各断面画像の各画素が分類される所見の種類を特定するための一次分類処理を行うことにより、複数種類の所見のそれぞれであることを表す評価値を含む一次分類の結果を取得する一次分類部と、
前記複数の断面画像に共通する部分について、前記所見の種類に応じた異なる評価方式であって、すべての断面画像における評価値が高い程、該高い評価値となった所見を前記共通する部分の所見に優先的に分類する特定の平均化方式を評価方式の1つとして含む異なる評価方式により、前記各断面画像の前記一次分類処理の結果を評価することによって、前記複数の断面画像に共通する部分が分類される所見の種類を特定する二次分類処理を行う二次分類部とを備えた画像処理装置。 A cross-sectional image acquisition unit that acquires cross-sectional images of a plurality of subjects in different cross-sectional directions,
For each of the plurality of cross-sectional images, an evaluation value indicating that each of the plurality of types of findings is obtained is obtained by performing a primary classification process for specifying the type of findings in which each pixel of each of the cross-sectional images is classified. The primary classification unit that acquires the results of the primary classification including
With respect to the portion common to the plurality of cross-sectional images, different evaluation methods are used according to the type of the findings, and the higher the evaluation value in all the cross-sectional images, the higher the evaluation value of the common portion. By evaluating the result of the primary classification process of each of the cross-sectional images by a different evaluation method including a specific averaging method that preferentially classifies the findings as one of the evaluation methods, it is common to the plurality of cross-sectional images. An image processing device provided with a secondary classification unit that performs secondary classification processing to specify the type of findings in which the parts are classified.
複数の前記断面画像のそれぞれについて、前記各断面画像の各画素が分類される所見の種類を特定するための一次分類処理を行うことにより、複数種類の所見のそれぞれであることを表す評価値を含む一次分類の結果を取得し、
前記複数の断面画像に共通する部分について、前記所見の種類に応じた異なる評価方式であって、すべての断面画像における評価値が高い程、該高い評価値となった所見を前記共通する部分の所見に優先的に分類する特定の平均化方式を評価方式の1つとして含む異なる評価方式により、前記各断面画像の前記一次分類処理の結果を評価することによって、前記複数の断面画像に共通する部分が分類される所見の種類を特定する二次分類処理を行う画像処理方法。 Obtain cross-sectional images of multiple different cross-sectional directions of the subject,
For each of a plurality of said cross-sectional images, the by row Ukoto primary classification processing for each pixel of each cross-sectional image to determine the type of findings to be classified, the evaluation value indicating that a plurality of types of findings Get the result of the primary classification including
With respect to the portion common to the plurality of cross-sectional images, different evaluation methods are used according to the type of the findings, and the higher the evaluation value in all the cross-sectional images, the higher the evaluation value of the common portion. By evaluating the result of the primary classification process of each of the cross-sectional images by a different evaluation method including a specific averaging method that preferentially classifies the findings as one of the evaluation methods, it is common to the plurality of cross-sectional images. An image processing method that performs secondary classification processing to specify the type of finding in which a part is classified.
複数の前記断面画像のそれぞれについて、前記各断面画像の各画素が分類される所見の種類を特定するための一次分類処理を行うことにより、複数種類の所見のそれぞれであることを表す評価値を含む一次分類の結果を取得する手順と、
前記複数の断面画像に共通する部分について、前記所見の種類に応じた異なる評価方式であって、すべての断面画像における評価値が高い程、該高い評価値となった所見を前記共通する部分の所見に優先的に分類する特定の平均化方式を評価方式の1つとして含む異なる評価方式により、前記各断面画像の前記一次分類処理の結果を評価することによって、前記複数の断面画像に共通する部分が分類される所見の種類を特定する二次分類処理を行う手順とをコンピュータに実行させる画像処理プログラム。 The procedure for acquiring cross-sectional images of multiple different cross-sectional directions of a subject,
For each of the plurality of cross-sectional images, an evaluation value indicating that each of the plurality of types of findings is obtained is obtained by performing a primary classification process for specifying the type of findings in which each pixel of each of the cross-sectional images is classified. The procedure for obtaining the results of the primary classification including
With respect to the portion common to the plurality of cross-sectional images, different evaluation methods are used according to the type of the findings, and the higher the evaluation value in all the cross-sectional images, the higher the evaluation value of the common portion. By evaluating the result of the primary classification process of each of the cross-sectional images by a different evaluation method including a specific averaging method that preferentially classifies the findings as one of the evaluation methods, it is common to the plurality of cross-sectional images. An image processing program that causes a computer to perform a secondary classification process that identifies the type of finding in which a part is classified.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018162857A JP6987721B2 (en) | 2018-08-31 | 2018-08-31 | Image processing equipment, methods and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018162857A JP6987721B2 (en) | 2018-08-31 | 2018-08-31 | Image processing equipment, methods and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020032043A JP2020032043A (en) | 2020-03-05 |
JP6987721B2 true JP6987721B2 (en) | 2022-01-05 |
Family
ID=69666360
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018162857A Active JP6987721B2 (en) | 2018-08-31 | 2018-08-31 | Image processing equipment, methods and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6987721B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3646240B1 (en) | 2017-06-26 | 2024-09-04 | The Research Foundation for The State University of New York | System, method, and computer-accessible medium for virtual pancreatography |
CN115151523A (en) | 2020-02-27 | 2022-10-04 | 学校法人立教学院 | Metal-organic structure having carboxylate ion having terphenyl skeleton as ligand |
WO2022045277A1 (en) * | 2020-08-31 | 2022-03-03 | グローリー株式会社 | Image processing device, image processing system, image processing method, and program |
JP2022117177A (en) | 2021-01-29 | 2022-08-10 | 富士フイルム株式会社 | Device, method, and program for processing information |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5873824A (en) * | 1996-11-29 | 1999-02-23 | Arch Development Corporation | Apparatus and method for computerized analysis of interstitial infiltrates in chest images using artificial neural networks |
JP4129375B2 (en) * | 2002-08-13 | 2008-08-06 | 株式会社東芝 | Medical image diagnostic apparatus and image region designation support method |
JP2013039267A (en) * | 2011-08-18 | 2013-02-28 | Asahikawa Medical College | Image processing apparatus, image processing method, and program |
JP5733229B2 (en) * | 2012-02-06 | 2015-06-10 | 新日鐵住金株式会社 | Classifier creation device, classifier creation method, and computer program |
JP6419441B2 (en) * | 2014-03-11 | 2018-11-07 | キヤノンメディカルシステムズ株式会社 | Medical image processing apparatus, medical image processing system, and medical image processing program |
JP6697743B2 (en) * | 2015-09-29 | 2020-05-27 | パナソニックIpマネジメント株式会社 | Information terminal control method and program |
JP6313741B2 (en) * | 2015-12-25 | 2018-04-18 | キヤノン株式会社 | Image processing apparatus and method of operating image processing apparatus |
US10748277B2 (en) * | 2016-09-09 | 2020-08-18 | Siemens Healthcare Gmbh | Tissue characterization based on machine learning in medical imaging |
-
2018
- 2018-08-31 JP JP2018162857A patent/JP6987721B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2020032043A (en) | 2020-03-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6837376B2 (en) | Image processing equipment and methods and programs | |
JP6987721B2 (en) | Image processing equipment, methods and programs | |
da Silva Sousa et al. | Methodology for automatic detection of lung nodules in computerized tomography images | |
Militello et al. | A semi-automatic approach for epicardial adipose tissue segmentation and quantification on cardiac CT scans | |
JP5081390B2 (en) | Method and system for monitoring tumor burden | |
Pandey et al. | Automatic and fast segmentation of breast region-of-interest (ROI) and density in MRIs | |
JP7005191B2 (en) | Image processing equipment, medical diagnostic imaging equipment, and programs | |
US8175348B2 (en) | Segmenting colon wall via level set techniques | |
JP2016531709A (en) | Image analysis technology for diagnosing disease | |
CN110838114B (en) | Pulmonary nodule detection method, device and computer storage medium | |
US11854190B2 (en) | Similarity determination apparatus, similarity determination method, and similarity determination program | |
EP2987114B1 (en) | Method and system for determining a phenotype of a neoplasm in a human or animal body | |
US11756292B2 (en) | Similarity determination apparatus, similarity determination method, and similarity determination program | |
US20100266173A1 (en) | Computer-aided detection (cad) of a disease | |
JP6415878B2 (en) | Image processing apparatus, image processing method, and medical image diagnostic apparatus | |
Sakellarios et al. | Novel methodology for 3D reconstruction of carotid arteries and plaque characterization based upon magnetic resonance imaging carotid angiography data | |
NJSRF et al. | Anaylsis and Detection of Community-acquired pneumonia using pspnet with complex Daubechies wavelets | |
WO2022225794A1 (en) | Systems and methods for detecting and characterizing covid-19 | |
Rebouças Filho et al. | 3D segmentation and visualization of lung and its structures using CT images of the thorax | |
Farzaneh et al. | Automated kidney segmentation for traumatic injured patients through ensemble learning and active contour modeling | |
CN115661132A (en) | Computer storage medium and device for detecting benign and malignant pulmonary nodules | |
JP7288070B2 (en) | Image processing device, method and program | |
CN115393246A (en) | Image segmentation system and image segmentation method | |
WO2020044736A1 (en) | Similarity determination device, method, and program | |
WO2020110520A1 (en) | Similarity determination device, method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200722 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210715 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210810 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210922 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211201 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6987721 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |