JP2019028887A - Image processing method - Google Patents

Image processing method Download PDF

Info

Publication number
JP2019028887A
JP2019028887A JP2017150148A JP2017150148A JP2019028887A JP 2019028887 A JP2019028887 A JP 2019028887A JP 2017150148 A JP2017150148 A JP 2017150148A JP 2017150148 A JP2017150148 A JP 2017150148A JP 2019028887 A JP2019028887 A JP 2019028887A
Authority
JP
Japan
Prior art keywords
image
pixel
image processing
processing method
obtaining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017150148A
Other languages
Japanese (ja)
Inventor
悠一郎 大石
Yuichiro Oishi
悠一郎 大石
博和 野里
Hirokazu Nozato
博和 野里
坂無 英徳
Hidenori Sakanashi
英徳 坂無
村川 正宏
Masahiro Murakawa
正宏 村川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST filed Critical National Institute of Advanced Industrial Science and Technology AIST
Priority to JP2017150148A priority Critical patent/JP2019028887A/en
Publication of JP2019028887A publication Critical patent/JP2019028887A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an image processing method for extracting an area to be observed by an observer from an image of an object.SOLUTION: An image processing method includes: (a) a step S1 for acquiring an image of an object; (b) a step S2 for determining feature quantities of pixels of the image; (c) a step S3 for determining posterior probabilities of the pixels using a predetermined function from the feature quantities of the pixels; (d) a step S4 for creating a likelihood map of the image of the object by converting the posterior probabilities of the pixels to luminance values; (e) a step S5 for dividing the likelihood map into a plurality of areas including pixels high in similarity of luminance values; and (f) a step S7 for executing automatic diagnosis on each of the divided areas. A step S6 can be selectively included to display the divided or automatically diagnosed likelihood map on display means.SELECTED DRAWING: Figure 3

Description

本発明は、画像処理方法に関し、より具体的には、テクスチャ解析の手法を用いて、対象物の画像から観測者が注目すべき領域を抽出し、その抽出された領域についての観測者による各種の認識や判断等を容易にするための画像処理方法/自動診断方法に関する。   The present invention relates to an image processing method, and more specifically, a texture analysis technique is used to extract a region to which an observer should pay attention from an image of an object, and various types by the observer regarding the extracted region. The present invention relates to an image processing method / automatic diagnosis method for facilitating recognition, determination, etc.

従来から、画像のパターン認識のための画像処理が多く提案されている。例えば、古くは、特許文献1では、画像から所定のマスクを用いて抽出した特徴量を多変量解析の手法を用いて選別分類してパターン(文字)を読み取る方法が提案されている。また、例えば、特許文献2では、テクスチャ解析に利用可能な高次局所自己相関(HLAC)特徴量を拡張した高次局所共起特徴の導出およびそれを用いたテクスチャ認識方法を開示している。   Conventionally, many image processes for image pattern recognition have been proposed. For example, in the past, Patent Document 1 proposes a method of reading a pattern (character) by selecting and classifying feature amounts extracted from an image using a predetermined mask using a multivariate analysis technique. For example, Patent Document 2 discloses a derivation of a higher-order local co-occurrence feature obtained by extending a higher-order local autocorrelation (HLAC) feature that can be used for texture analysis, and a texture recognition method using the derivation.

一方、テクスチャ解析の手法を用いた画像認識の適用例として、医療分野での画像診断があり、例えば、人体の部位をCTやMRI等によって撮影した断層画像を用いた画像診断が広く行われている。そうした医用画像を用いた診断では、画像を観る医師の診断がより的確であることのみならず、限られた時間で診断を行わなければならない医療現場の状況下ではできるだけ迅速かつ容易に診断できることも求められている。すなわち、病変の有無の診断(存在診断)よりも病変の部位の診断(局在診断)の臨床上の意義が大きくなってきている。   On the other hand, as an application example of image recognition using a texture analysis technique, there is image diagnosis in the medical field. For example, image diagnosis using a tomographic image obtained by photographing a part of a human body by CT, MRI or the like is widely performed. Yes. In such a diagnosis using medical images, not only is the diagnosis of the doctor viewing the image more accurate, but it can also be made as quickly and easily as possible in the medical situation where diagnosis must be performed in a limited time. It has been demanded. That is, the clinical significance of the diagnosis (localization diagnosis) of the lesion site is greater than the diagnosis (presence diagnosis) of the presence or absence of the lesion.

特許公報昭58−47064号Patent Publication No. 58-47064 特開2008−21044号公報JP 2008-21044 A

本発明は、対象物の画像を用いた観測者による各種の認識や判断がより容易に行えるように、対象物の画像から観測者が注目すべき領域を抽出するための画像処理方法/自動診断方法を提供することを目的とする。   The present invention relates to an image processing method / automatic diagnosis for extracting a region to which an observer should pay attention from an image of an object so that various kinds of recognition and determination by an observer using the image of the object can be performed more easily. It aims to provide a method.

本発明の一態様の画像処理方法は、(a)対象物の画像を取得するステップと、(b)画像の画素毎の特徴量を求めるステップと、(c)画素毎の特徴量から所定の識別関数を用いて画素毎の事後確率を求めるステップと、(d)画素毎の事後確率を輝度値に変換して、対象物の画像の尤度マップを作成するステップと、(e)尤度マップを各々が輝度値の類似度が高い画素を含む複数の領域に分割するステップ、(f)分割後の領域毎に自動診断を行うステップとを含む。なお(f)の自動診断ステップでは、分割領域内の尤度のみならず、例えば尤度から導出した統計量やテクスチャ特徴などの二次特徴量、さらに位置情報などを用いて診断を行うことを含むことができる。   An image processing method according to an aspect of the present invention includes (a) a step of acquiring an image of an object, (b) a step of obtaining a feature amount for each pixel of the image, and (c) a predetermined amount from the feature amount for each pixel. Obtaining a posterior probability for each pixel using an identification function; (d) converting a posterior probability for each pixel into a luminance value to create a likelihood map of an image of the object; and (e) likelihood. Dividing the map into a plurality of regions each including a pixel having a high similarity in luminance value, and (f) performing an automatic diagnosis for each of the divided regions. In the automatic diagnosis step (f), diagnosis is performed using not only the likelihood in the divided region, but also, for example, secondary features such as statistics and texture features derived from the likelihood, and position information. Can be included.

本発明の他の一態様の画像処理を行うためのコンピュータ・プログラムは、コンピュータに、(a)メモリに対象物の画像を保管するステップと、(b)メモリから読み出した画像の画素毎の特徴量を求めるステップと、(c)画素毎の特徴量から所定の識別関数を用いて画素毎の事後確率を求めるステップと、(d)画素毎の事後確率を輝度値に変換して、対象物の画像の尤度マップを作成するステップと、(e)尤度マップを各々が輝度値の類似度が高い画素を含む複数の領域に分割するステップと、(f)分割後の領域毎に自動診断を行うステップ、(g)分割後または自動診断後の尤度マップをディスプレイに表示するステップと、を実行させる。   A computer program for performing image processing according to another aspect of the present invention includes: (a) a step of storing an image of an object in a memory; and (b) a feature for each pixel of an image read from the memory. A step of obtaining an amount, (c) a step of obtaining a posterior probability for each pixel from a feature amount for each pixel using a predetermined discriminant function, and (d) converting the posterior probability for each pixel into a luminance value, A likelihood map of the image of (b), (e) a step of dividing the likelihood map into a plurality of regions each including a pixel having a high similarity in luminance value, and (f) automatic for each divided region Performing a diagnosis, and (g) displaying a likelihood map after division or automatic diagnosis on a display.

本発明によれば、対象物の画像の画素単位のテクスチャ特徴を反映し、輝度値に変換された尤度マップにおいて、輝度値の類似度が高い画素を含む複数の領域を個別に診断し自動診断を行うことが可能となる。さらに尤度マップを見ることで各領域での各種の認識や判断を視覚的に容易に行うことも可能となる。   According to the present invention, a plurality of regions including pixels with high luminance value similarity are individually diagnosed and automatically reflected in a likelihood map that is converted into luminance values, reflecting texture characteristics in units of pixels of an image of an object. Diagnosis can be performed. Further, by looking at the likelihood map, various types of recognition and determination in each region can be easily performed visually.

本発明の一実施形態の画像処理システムの構成を示す図である。It is a figure which shows the structure of the image processing system of one Embodiment of this invention. 本発明の一実施形態の画像処理装置の構成を示す図である。It is a figure which shows the structure of the image processing apparatus of one Embodiment of this invention. 本発明の一実施形態の画像処理方法のフローを示す図である。It is a figure which shows the flow of the image processing method of one Embodiment of this invention. 本発明の一実施形態の画像処理方法のフローを示す図である。It is a figure which shows the flow of the image processing method of one Embodiment of this invention. 本発明の一実施形態のHLACマスクパターンを示す図である。It is a figure which shows the HLAC mask pattern of one Embodiment of this invention. 本発明の一実施形態のHLTIマスクパターンを示す図である。It is a figure which shows the HLTI mask pattern of one Embodiment of this invention. 本発明の一実施形態のマルチシークエンス対応の拡張マスクパターンを示す図である。It is a figure which shows the extended mask pattern corresponding to the multi sequence of one Embodiment of this invention. 本発明の一実施形態の画像から尤度マップを求める際のイメージを示す図である。It is a figure which shows the image at the time of calculating | requiring a likelihood map from the image of one Embodiment of this invention. 本発明の一実施例の分割後の尤度マップを示す図である。It is a figure which shows the likelihood map after the division | segmentation of one Example of this invention.

図面を参照しながら本発明の実施形態について説明する。図1は、本発明の一実施形態の画像処理システムの構成を示す図である。画像処理システム1は、対象物の画像を取得する画像取得装置2と、通信回線3を介して装置2と相互に通信可能な画像処理装置4を含む。画像取得装置2は、基本的に対象物の画像を画素データ(輝度情報)の集合として得ることができる装置であれば良く、例えば、対象物の画像を撮像するカメラ等の撮像装置、医療診断あるいは非破壊検査等に用いられるX線撮像装置や超音波診断装置、主に医療診断用の断層画像を得るためのCTスキャン、MRI、あるいはPET等を含むことができる。また、画像取得装置2は、通信可能に接続された他の画像撮像装置からの各種画像データを集約的に保管し、画像処理装置4によって指定された画像データを出力するための1つのデータ保管庫(記憶装置)であってもよい。   Embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram showing a configuration of an image processing system according to an embodiment of the present invention. The image processing system 1 includes an image acquisition device 2 that acquires an image of an object, and an image processing device 4 that can communicate with the device 2 via a communication line 3. The image acquisition device 2 may basically be any device that can obtain an image of an object as a set of pixel data (luminance information). For example, an imaging device such as a camera that captures an image of the object, medical diagnosis Alternatively, it may include an X-ray imaging apparatus and an ultrasonic diagnostic apparatus used for non-destructive inspection and the like, and a CT scan, MRI, or PET mainly for obtaining a tomographic image for medical diagnosis. The image acquisition device 2 collectively stores various image data from other image capturing devices connected to be communicable, and stores one data for outputting the image data designated by the image processing device 4. It may be a storage (storage device).

通信回線3は有線または無線の通信経路を含み、画像取得装置2から画像データを画像処理装置4へ送るため、及び画像処理装置4から画像取得装置2へ各種の制御信号あるいは画像処理結果等を送るために用いられる。なお、画像処理装置4は、画像取得装置2の一部として画像取得装置2に内蔵、あるいは付随する形で使用することもでき、その場合通信回線3は画像取得装置2に内蔵する形で用いられる。   The communication line 3 includes a wired or wireless communication path. In order to send image data from the image acquisition device 2 to the image processing device 4 and various control signals or image processing results from the image processing device 4 to the image acquisition device 2. Used to send. Note that the image processing apparatus 4 can be built in or attached to the image acquisition apparatus 2 as a part of the image acquisition apparatus 2, and in this case, the communication line 3 is used in a form embedded in the image acquisition apparatus 2. It is done.

画像処理装置4は、本発明の画像処理方法を所定のソフトウェアによって実行するための機能を有し、例えば図2に示すように、1つのコンピュータ(PC)として構成することができる。画像処理装置(PC)4は、バス42を介して相互に接続された演算処理装置(CPU)40、記憶手段41、各種I/F43を含む。各種I/F43は、入力I/F、出力I/F、外部記憶I/F、外部通信I/F等を含む総称として用いられる。各I/Fは、それぞれ対応するキーボード、マウス、通信ポート等の入出力手段44、CRT、LCD等の表示手段45、USB接続の半導体メモリやHDD等の外部記憶手段46等に接続する。記憶手段41は、RAM、ROM等の半導体メモリ、HDD等を含むことができる。   The image processing apparatus 4 has a function for executing the image processing method of the present invention by predetermined software, and can be configured as one computer (PC) as shown in FIG. 2, for example. The image processing apparatus (PC) 4 includes an arithmetic processing unit (CPU) 40, a storage unit 41, and various I / Fs 43 connected to each other via a bus 42. The various I / Fs 43 are used as a generic term including an input I / F, an output I / F, an external storage I / F, an external communication I / F, and the like. Each I / F is connected to input / output means 44 such as a corresponding keyboard, mouse, and communication port, display means 45 such as a CRT or LCD, external storage means 46 such as a USB-connected semiconductor memory or HDD, and the like. The storage unit 41 can include a semiconductor memory such as a RAM and a ROM, an HDD, and the like.

画像処理装置(PC)4において、画像取得装置2からの画像データは、通信ポート等の入出力手段44を介して記憶手段41あるいは外部記憶手段46に保管される。演算処理装置(CPU)40は、所定のソフトウェアを実行し、保管された画像データを読み出して、詳細は下記に述べる画像処理フローによって画像データを処理する。その処理結果は、記憶手段41あるいは外部記憶手段46に保管された後、表示手段45において画像として表示される。   In the image processing apparatus (PC) 4, the image data from the image acquisition apparatus 2 is stored in the storage means 41 or the external storage means 46 via the input / output means 44 such as a communication port. The arithmetic processing unit (CPU) 40 executes predetermined software, reads the stored image data, and processes the image data according to an image processing flow described below in detail. The processing result is stored in the storage means 41 or the external storage means 46 and then displayed as an image on the display means 45.

図3は、本発明の一実施形態の画像処理方法のフローを示す図である。図3の処理フローは、例えば図1及び図2に例示される画像処理システムにおいて、対応する各種のソフトウェア(コピュータプログラム)によって実行される。以下の説明では、MRIによって撮像された断層画像(前立腺の断層画像)を処理する場合を例にとり各処理フローの説明を行う。なお、他の種類の画像の処理においても基本的に同様な処理フローを適用することができる。   FIG. 3 is a diagram showing a flow of the image processing method according to the embodiment of the present invention. The processing flow of FIG. 3 is executed by various corresponding software (computer programs) in the image processing system illustrated in FIGS. 1 and 2, for example. In the following description, each processing flow will be described by taking an example of processing a tomographic image (prostate tomographic image) captured by MRI. Note that basically the same processing flow can be applied to processing other types of images.

図3のステップS1において、対象物の画像を取得する。具体的には、本例では画像取得装置2であるMRIによって撮像された前立腺の断層画像を取得する。MRIによる前立腺の断層画像の撮像では、磁気共鳴画像を得るために前立腺に与える磁場のパルスシークエンスを変えた異なる種類の複数の断層画像を取得することができる。例えば、T2強調像(T2WI)、拡散強調像(DWI)、拡散係数像(ADC)、ダイナミック造影像(DCEI)、T1強調像(T1WI)、拡散尖度画像(DKI)などがある。本例では、前立腺の断層画像として、このうちの少なくとも2種類の画像、例えば、T2強調像(T2WI)と拡散係数像(ADC)を取得する。取得した前立腺の断層画像は、画像処理装置(PC)4の記憶手段41あるいは外部記憶手段46に保管される。   In step S1 of FIG. 3, an image of the object is acquired. Specifically, in this example, a tomographic image of the prostate imaged by MRI which is the image acquisition device 2 is acquired. In imaging of a tomographic image of the prostate by MRI, it is possible to acquire a plurality of different types of tomographic images by changing the pulse sequence of the magnetic field applied to the prostate to obtain a magnetic resonance image. For example, there are a T2-weighted image (T2WI), a diffusion-weighted image (DWI), a diffusion coefficient image (ADC), a dynamic contrast image (DCEI), a T1-weighted image (T1WI), a diffusion kurtosis image (DKI), and the like. In this example, as a tomographic image of the prostate, at least two types of images, for example, a T2-weighted image (T2WI) and a diffusion coefficient image (ADC) are acquired. The acquired tomographic image of the prostate is stored in the storage unit 41 or the external storage unit 46 of the image processing apparatus (PC) 4.

ステップS2において、画像の画素毎の特徴量を求める。本例では具体的に以下のようにして特徴量を求める。MRIによる前立腺の断層画像は、画像データとして画像中の各画素の輝度値を情報(データ)として含んでいる。この画素の輝度値はテクスチャ情報(特徴)を含んでいるわけではないので、輝度値の境界が必ずしもテクスチャの境界と一致する訳ではない。そこで、本発明では画素毎のテクスチャ情報を表現する方法として、高次局所自己相関特徴(HLAC:Higher-order Local Auto-Correlation)を拡張し、自己相関以外の特徴量を追加することにより多彩にテクスチャを表現できる特徴量を採用する。この拡張した特徴量を本明細書では高次局所テクスチャ情報量(HLTI:Higher-order Local Textural Information)と呼ぶ。さらに従来のHLACでは画像内で各特徴量を合算して用いられるところを、本発明では画素単位でHLTIを算出する。   In step S2, a feature amount for each pixel of the image is obtained. In this example, the feature amount is specifically obtained as follows. A tomographic image of the prostate by MRI includes the luminance value of each pixel in the image as information (data) as image data. Since the luminance value of this pixel does not include texture information (features), the boundary of the luminance value does not necessarily coincide with the boundary of the texture. Therefore, in the present invention, as a method of expressing the texture information for each pixel, the higher-order local auto-correlation feature (HLAC) is expanded and various features other than auto-correlation are added. Use features that can represent textures. This extended feature quantity is referred to herein as higher-order local textural information (HLTI). Furthermore, in the conventional HLAC, where the feature amounts are used in the image, the HLTI is calculated in units of pixels in the present invention.

高次局所自己相関特徴(HLAC)は、局所的な形状特徴を表し位置不変でノイズにも頑健であり計算負荷も比較的小さい特徴量である。マスクサイズを3×3とした場合、マスクを走査しながら図5に示す35種類のマスクパターンの黒色部分に当てはまる画素の輝度値の積を加算することでHLACは算出される。なお、図5中のマスクパターンM26〜M35における参照点の数字(2、3)は、同一画素の輝度値の乗算回数を意味する。   The higher-order local autocorrelation feature (HLAC) is a feature amount that represents a local shape feature, is position-invariant, is robust against noise, and has a relatively small calculation load. When the mask size is 3 × 3, the HLAC is calculated by adding the product of the luminance values of pixels that apply to the black portions of the 35 types of mask patterns shown in FIG. 5 while scanning the mask. Note that the numbers (2, 3) of reference points in the mask patterns M26 to M35 in FIG. 5 mean the number of multiplications of luminance values of the same pixel.

本発明で採用する高次局所テクスチャ情報量(HLTI)は、このHLACをベースとして画素の輝度値を掛け合わせるAuto-Correlation以外に画素の輝度値の差分を用いるContrastとHomogeneityを加える。マスクパターン上の参照点の輝度値をi、j、k(2点の場合はi、j、1点の場合はi)とすると、Auto-Correlation、Contrast及びHomogeneityは、下記の式(1)〜(7)のように計算される。ただし参照点が1点であるマスクパターンの場合(図6のM1、M38、M39)はContrast、Homogeneityは定義されない。
Auto-Correlation:

Figure 2019028887
ただし、参照点に乗算数が付記されているマスクパターン(図6のM40〜M47)は下記(2)のように定義する。
Figure 2019028887
Figure 2019028887
参照点が1点のみであるマスクパターンである図6のM1、M38、M39の場合、Auto-Corrrelationはそれぞれi、i2、i3とする。
Contras:
Figure 2019028887
Figure 2019028887
Homogeneity:
Figure 2019028887
Figure 2019028887
The higher-order local texture information amount (HLTI) employed in the present invention adds Contrast and Homogeneity using a difference in pixel luminance values in addition to Auto-Correlation that multiplies pixel luminance values based on this HLAC. Assuming that the luminance values of reference points on the mask pattern are i, j, and k (i, j for 2 points, i for 1 point), Auto-Correlation, Contrast, and Homogeneity are expressed by the following equation (1). It is calculated as (7). However, in the case of a mask pattern with one reference point (M1, M38, M39 in FIG. 6), Contrast and Homogeneity are not defined.
Auto-Correlation:
Figure 2019028887
However, the mask pattern (M40 to M47 in FIG. 6) in which the multiplication number is added to the reference point is defined as (2) below.
Figure 2019028887
Figure 2019028887
In the case of M1, M38, and M39 in FIG. 6, which are mask patterns having only one reference point, Auto-Corrrelation is set to i, i 2 , and i 3 , respectively.
Contras:
Figure 2019028887
Figure 2019028887
Homogeneity:
Figure 2019028887
Figure 2019028887

従来のHLACの算出の場合のように領域内で特徴量を合算する場合はマスク走査によって重複するパターンは除外される。本発明では、画素単位で特徴量を算出するため、これらのパターンも考慮に入れる必要がある。したがって、本発明で採用する高次局所テクスチャ情報量(HLTI)のマスクパターンは、図6に示すM1〜M47の47種類のパターンとなる。図6中のマスクパターンM38〜M47における参照点の数字(2、3)は、同一画素の輝度値の乗算回数を意味する。ただし、ContrastとHomogeneityの計算についてはマスクパターン内に同一点をとるM1及びM38〜M47のパターンは除外する。   When the feature amounts are added in the region as in the conventional HLAC calculation, overlapping patterns are excluded by mask scanning. In the present invention, since the feature amount is calculated for each pixel, it is necessary to take these patterns into consideration. Therefore, the high-order local texture information amount (HLTI) mask patterns employed in the present invention are 47 types of patterns M1 to M47 shown in FIG. Reference numerals (2, 3) in the mask patterns M38 to M47 in FIG. 6 mean the number of multiplications of the luminance values of the same pixel. However, for the calculation of Contrast and Homogeneity, the patterns M1 and M38 to M47 that take the same point in the mask pattern are excluded.

さらに、本発明では、パルスシークエンスの異なる2種類の画像である、T2強調像(T2WI)と拡散係数像(ADC)を用いるので、これらに対応したマルチシークエンシャルHLTI(msHLTI)の拡張マスクパターンを利用する。図7にこのT2WI・ADC間におけるmsHLTIの拡張マスクパターンを示す。拡張マスクパターンはF1〜F11の11種類あり、各種類はT2強調像に対応したパターンT2と拡散係数像に対応したパターンADCを含む。F3のパターンADCにおける参照点の数字(2)は、同一画素の輝度値の乗算回数を意味する。   Furthermore, since the present invention uses two types of images with different pulse sequences, a T2-weighted image (T2WI) and a diffusion coefficient image (ADC), an extended mask pattern of multi-sequential HLTI (msHLTI) corresponding to these images is used. Use. FIG. 7 shows an extended mask pattern of msHLTI between T2WI and ADC. There are eleven types of extended mask patterns F1 to F11, and each type includes a pattern T2 corresponding to a T2-weighted image and a pattern ADC corresponding to a diffusion coefficient image. The reference point number (2) in the F3 pattern ADC means the number of multiplications of the luminance value of the same pixel.

一般的にT2WIに比べてADCは低解像度であり(例えば、T2WI:512×512px、ADC:128×128px)、画素あたりの占有面積に大きな違いがあるため、ADCから2点以上とるマスクパターンは除外する。また、ContrastとHomogeneityではF2とF3のパターンは除外する。この拡張によりmsHLTIのマスクパターンは、図6のHLTIの47パターンに加え、ADCのM1、M38、M39の3パターン、及び拡張11パターン(図4)を合わせて合計61種類のマスクパターンに増加する。このmsHLTIの61種類のマスクパターンを走査しながら上記の(1)〜(6)式の各パラメータを計算して、T2強調像(T2WI)と拡散係数像(ADC)の各画像の画素毎のmsHLTIの特徴量(特徴ベクトル)を求める。また、マスクパターン内の参照点のうち、中心画素と辺縁画素との距離(相関幅)を変化させることによりさらにマスクパターンを拡大させることが可能である。   Generally, ADC has a lower resolution than T2WI (for example, T2WI: 512 × 512 px, ADC: 128 × 128 px), and there is a large difference in the occupied area per pixel. exclude. Contrast and Homogeneity exclude the F2 and F3 patterns. As a result of this extension, the msHLTI mask pattern is increased to a total of 61 types of mask patterns including the ADC HLTI 47 patterns, the ADC M1, M38, and M39 patterns, and the extended 11 patterns (FIG. 4). . The parameters of the above equations (1) to (6) are calculated while scanning the 61 types of mask patterns of msHLTI, and the T2 weighted image (T2WI) and the diffusion coefficient image (ADC) are calculated for each pixel. The feature amount (feature vector) of msHLTI is obtained. Further, the mask pattern can be further enlarged by changing the distance (correlation width) between the center pixel and the edge pixel among the reference points in the mask pattern.

次に、図3のステップS3において、得られた画素毎の特徴量(特徴ベクトル)から所定の識別関数を用いて画素毎の事後確率(尤度)を算出する。ここで、画素毎の事後確率(尤度)は、画素(対応する特徴ベクトル)が特徴空間上のクラス(領域)Rに属する確率を意味する。この画素毎の事後確率(尤度)によって、テクスチャ情報を含む各画素がどの領域に属するのか、及びその境界を明らかにすることができる。そのためには、予め関数を求めておく必要がある。その予め求めた識別関数を用いて、得られた画素毎の特徴量(特徴ベクトル)から画素毎の事後確率(尤度)を算出する。 Next, in step S3 of FIG. 3, a posterior probability (likelihood) for each pixel is calculated using a predetermined discriminant function from the obtained feature amount (feature vector) for each pixel. Here, the posterior probability (likelihood) of each pixel, means a probability of belonging to the pixel (corresponding feature vectors) in the feature space class (region) R m. With this posterior probability (likelihood) for each pixel, it is possible to clarify which region each pixel including texture information belongs to and its boundary. For this purpose, it is necessary to obtain a function in advance. A posteriori probability (likelihood) for each pixel is calculated from the obtained feature quantity (feature vector) for each pixel using the previously obtained discrimination function.

図4に識別関数を求める方法のフローを示す。本発明では、その識別関数を教師データを用いたいわゆる機械学習法(カーネル学習法)によって得る。機械学習法は、例えばサポートベクターマシン(SVM)、ニューラルネットワーク、あるいはアダブースト(AdaBoost)等の数学モデル(アルゴリズム)を用いることができる。ステップS10において、対象物の画像の教師データを取得する。対象物の画像の教師データは、図3のステップS1の場合と同様に取得された、対象物の画像、すなわち本例では画像取得装置2であるMRIによって撮像された前立腺の断層画像の中で、病変(病巣)部が特定され、画素ごとにラベルづけされている画像を意味する。撮像された前立腺の断層画像は、パルスシークエンスの異なる2種類の画像、T2強調像(T2WI)と拡散係数像(ADC)を含む。   FIG. 4 shows a flow of a method for obtaining the discrimination function. In the present invention, the discriminant function is obtained by a so-called machine learning method (kernel learning method) using teacher data. As the machine learning method, for example, a support model machine (SVM), a neural network, or a mathematical model (algorithm) such as AdaBoost can be used. In step S10, teacher data of an object image is acquired. The teacher data of the image of the target object is acquired in the same manner as in step S1 of FIG. 3, and in the tomographic image of the prostate imaged by the MRI that is the image acquisition device 2 in this example, that is, the target object image. This means an image in which a lesion (lesion) is specified and labeled for each pixel. The captured tomographic image of the prostate includes two types of images with different pulse sequences, a T2-weighted image (T2WI) and a diffusion coefficient image (ADC).

図4のステップS11において、取得した対象物の画像の教師データの画素毎の特徴量を算出する。その算出は、図3のステップS2の場合と同様に、例えば合計61種類のマスクパターンの走査を用いて画素単位でマルチシークエンシャルHLTI(msHLTI)を算出する。ステップS12において、得られた教師データの画素毎の特徴量(特徴ベクトル)を用いて機械学習器により識別関数を取得する。その際、病変(病巣)部の情報を含む教師データによって、特徴空間上の各クラス(領域)を病変(病巣)部の有無でラベリングすることができる。なお、識別関数は事後確率を求めるための関数なので事後確率変換関数とも呼ぶこともできる。機械学習器としては、上述したサポートベクターマシン(SVM)、Fisherの線形判別分析、ニューラルネットワーク、あるいはアダブースト(AdaBoost)等の数学モデル(アルゴリズム)を用いることができる。   In step S11 of FIG. 4, the feature amount for each pixel of the teacher data of the acquired object image is calculated. For the calculation, multi-sequential HLTI (msHLTI) is calculated in units of pixels using scanning of a total of 61 types of mask patterns, for example, as in step S2 of FIG. In step S12, a discrimination function is acquired by a machine learner using the feature quantity (feature vector) for each pixel of the obtained teacher data. At that time, each class (region) on the feature space can be labeled based on the presence or absence of the lesion (lesion) by the teacher data including information on the lesion (lesion). Note that since the discriminant function is a function for obtaining the posterior probability, it can also be called a posterior probability conversion function. As the machine learner, the above-described support vector machine (SVM), Fisher's linear discriminant analysis, neural network, or a mathematical model (algorithm) such as AdaBoost can be used.

図3に戻って、ステップS4において尤度マップを作成する。尤度マップは、ステップS3において得られた画素毎の事後確率を対応する輝度値に変換し、断層画像全体の輝度分布として表したものである。すなわち、対象物のテクスチャ特徴を反映した画素毎の事後確率が対応する画像上の輝度値として表わされることになる。作成された尤度マップは、画像処理装置(PC)4の記憶手段41あるいは外部記憶手段46に保管される。尤度マップは、画像処理装置(PC)4の表示手段45において画像として表示することができる。   Returning to FIG. 3, a likelihood map is created in step S4. The likelihood map is obtained by converting the posterior probability for each pixel obtained in step S3 into a corresponding luminance value and expressing the luminance distribution of the entire tomographic image. That is, the posterior probability for each pixel reflecting the texture feature of the object is represented as a luminance value on the corresponding image. The created likelihood map is stored in the storage unit 41 or the external storage unit 46 of the image processing apparatus (PC) 4. The likelihood map can be displayed as an image on the display means 45 of the image processing apparatus (PC) 4.

図8に上述した図3のステップS1〜S4までの処理フローのイメージを示す。図8の左下のステップS1で得た画像の画素10の各々について、ステップS2で特徴量を表す特徴ベクトル(M1、M2・・・、M47、・・H2・・、H37、C2、・・、C37、FM1、・・、FM11、FH1、FH4、・・、FH11、FC1、FC4、・・、FC11)を求める。ステップS3でその特徴ベクトルを識別関数(事後確率変換関数)にかけて、画素毎の事後確率(尤度)を求める。ステップS4で画素毎の事後確率(尤度)を輝度値10´に変換して、図8の右下の画像全体についての尤度マップを作成する。なお事後確率を複数の事後確率変換関数を用いて尤度ベクトルとして算出して複数のチャネルを持つ画素値として算出することも可能である。 FIG. 8 shows an image of the processing flow from steps S1 to S4 in FIG. 3 described above. For each pixel 10 of the image obtained in step S1 in the lower left of FIG. 8, feature vectors (M1, M2,..., M47,..., H2,..., H37, C2,. C37, F M 1, determined ··, F M 11, F H 1, F H 4, ··, F H 11, F C 1, F C 4, ··, the F C 11). In step S3, the feature vector is subjected to an identification function (a posteriori probability conversion function) to obtain a posteriori probability (likelihood) for each pixel. In step S4, the posterior probability (likelihood) for each pixel is converted into a luminance value 10 ', and a likelihood map for the entire lower right image in FIG. 8 is created. It is also possible to calculate the posterior probability as a pixel value having a plurality of channels by calculating as a likelihood vector using a plurality of posterior probability conversion functions.

図3のステップS5において、得られた尤度マップを各々が輝度値の類似度が高い画素を含む複数の領域に分割する。分割には例えばスーパーピクセル法を用いることができる。スーパーピクセル法は、画像のxy平面上の座標と輝度値の三次元(カラー画像ではxy座標と色空間(R、G、B)の五次元)空間内でのk近傍法を用いた画像領域分割法であり、スーパーピクセル内の収容画素の輝度値の類似性が高くなるため、病変(病巣)組織の選択性を高めることできる。   In step S5 of FIG. 3, the obtained likelihood map is divided into a plurality of regions each including a pixel having a high similarity in luminance value. For example, a superpixel method can be used for the division. The superpixel method is an image region using a k-nearest neighbor method in a three-dimensional space (coordinates of an xy coordinate and a color space (R, G, B) in a color image) of coordinates and luminance values on an xy plane of an image. This is a division method, and the similarity of the luminance values of the accommodation pixels in the superpixel is increased, so that the selectivity of the lesion (lesion) tissue can be increased.

ステップS6において、分割された尤度マップは、画像処理装置(PC)4の記憶手段41あるいは外部記憶手段46に保管され、表示手段45において画像として表示することができる。次のステップS7において、分割後の尤度マップを自動診断し、病巣(本例で前立腺の癌)のある領域の特定(局在診断)を行う。なお、その判断を本発明の方法に追加可能なアルゴリズムによって得る事もできる。具体的には、例えば、分割された各領域内の尤度(確率)の平均が0.5以上となる領域を癌であると診断することができる。この場合、中央値や分散や尖度、歪度などの他の統計量や位置情報や形状、尤度マップからさらにテクスチャ特徴を抽出する二次特徴量などを用いて領域ごとに機械学習を用いた診断を行うこともできる。さらに、その診断結果を表示手段45上に表示した分割後の尤度マップの画像上に色分け等により癌部が分かるように再表示することができる。以上が、本発明の方法の各フローの説明である。   In step S6, the divided likelihood map is stored in the storage means 41 or the external storage means 46 of the image processing apparatus (PC) 4 and can be displayed as an image on the display means 45. In the next step S7, the likelihood map after division is automatically diagnosed, and a region having a lesion (prostate cancer in this example) is specified (localized diagnosis). The determination can also be obtained by an algorithm that can be added to the method of the present invention. Specifically, for example, a region where the average likelihood (probability) in each divided region is 0.5 or more can be diagnosed as cancer. In this case, machine learning is used for each region using other statistics such as median, variance, kurtosis, and skewness, position information, shape, and secondary features that extract texture features from likelihood maps. You can also make a diagnosis. Furthermore, the diagnosis result can be redisplayed on the image of the likelihood map after the division displayed on the display means 45 so that the cancerous part can be recognized by color coding or the like. The above is the description of each flow of the method of the present invention.

図9を参照しながら本発明の一実施例について説明する。図9は、本発明の一実施例の分割後の尤度マップを示す図である。図9では、本発明の上述した方法フローにより得られた3つの前立腺の断層画像(a)、(b)、(c)の分割後の尤度マップが示されている。なお、本実施例は、事後確率/識別関数を得るための機械学習法としてSVM(RBFカーネル)を用い、尤度マップの分割にはスーパーピクセル法を用いている。図上段は領域内の尤度平均値を用いた前立腺癌の自動診断の結果を示す。上段の各図では領域ごとに自動癌診断を行い、癌と診断された領域同士とそうでない領域同士を連結したものである。図下段は分割後の前立腺内の各領域を示したものである。下段の各図の内部において黒線で区分けされた複数の領域が尤度マップの分割された領域である。すなわち、各画像において、前立腺の癌細胞が含まれている確率の高い領域とそうでない領域が黒線によって区分けされている。医師は各画像から癌の有無を判断することができる。   An embodiment of the present invention will be described with reference to FIG. FIG. 9 is a diagram showing a likelihood map after division according to an embodiment of the present invention. FIG. 9 shows likelihood maps after division of three prostate tomographic images (a), (b), and (c) obtained by the above-described method flow of the present invention. In this embodiment, SVM (RBF kernel) is used as a machine learning method for obtaining the posterior probability / discriminant function, and the superpixel method is used for dividing the likelihood map. The upper part of the figure shows the result of automatic diagnosis of prostate cancer using the average likelihood value in the region. In the upper diagrams, automatic cancer diagnosis is performed for each region, and regions diagnosed with cancer are connected to regions that are not. The lower part of the figure shows each region in the prostate after division. A plurality of areas divided by black lines in each figure in the lower stage are areas obtained by dividing the likelihood map. That is, in each image, a region having a high probability of containing prostate cancer cells and a region not having the same are separated by a black line. The doctor can determine the presence or absence of cancer from each image.

本発明の実施形態について、図を参照しながら説明をした。しかし、本発明はこれらの実施形態に限られるものではない。さらに、本発明はその趣旨を逸脱しない範囲で当業者の知識に基づき種々なる改良、修正、変形を加えた態様で実施できるものである。   Embodiments of the present invention have been described with reference to the drawings. However, the present invention is not limited to these embodiments. Furthermore, the present invention can be implemented in variously modified, modified, and modified forms based on the knowledge of those skilled in the art without departing from the spirit of the present invention.

1:画像処理システム
2:画像取得装置
3:通信回線
4:画像処理装置
10:画素
40:演算処理装置(CPU)
41:記憶手段
42:バス
43:各種I/F
44:入出力手段
45:表示手段
46:外部記憶手段
1: Image processing system 2: Image acquisition device 3: Communication line 4: Image processing device 10: Pixel 40: Arithmetic processing device (CPU)
41: Storage means 42: Bus 43: Various I / F
44: Input / output means 45: Display means 46: External storage means

Claims (10)

画像処理方法であって、
対象物の画像を取得するステップと、
前記画像の画素毎の特徴量を求めるステップと、
前記画素毎の特徴量から所定の識別関数を用いて画素毎の事後確率を求めるステップと、
前記画素毎の事後確率を輝度値に変換して、前記対象物の画像の尤度マップを作成するステップと、
前記尤度マップを各々が輝度値の類似度が高い画素を含む複数の領域に分割するステップと、
分割後の領域毎に自動診断を行うステップと、
を含む画像処理方法。
An image processing method comprising:
Obtaining an image of the object;
Obtaining a feature value for each pixel of the image;
Obtaining a posterior probability for each pixel using a predetermined discriminant function from the feature quantity for each pixel;
Converting the posterior probability for each pixel into a luminance value, and creating a likelihood map of the image of the object;
Dividing the likelihood map into a plurality of regions each including a pixel having a high similarity in luminance value;
A step of performing automatic diagnosis for each divided area;
An image processing method including:
前記画像の画素毎の特徴量を求めるステップは、
所定のマスクパターンを用いた前記画像のマスク走査により、画素毎の高次局所テクスチャ情報を得るステップを含む、請求項1に記載の画像処理方法。
The step of obtaining a feature amount for each pixel of the image includes:
The image processing method according to claim 1, further comprising: obtaining higher-order local texture information for each pixel by mask scanning of the image using a predetermined mask pattern.
前記画素毎の事後確率を求めるステップは、
前記対象物の他の画像を教師データとし、当該教師データの画素毎の特徴量を用いて機械学習器により得られた識別関数に、前記画素毎の高次局所テクスチャ情報を入力して、前記画素毎の事後確率を求めるステップを含む、請求項2に記載の画像処理方法。
The step of obtaining the posterior probability for each pixel includes:
The other image of the object is used as teacher data, and higher-order local texture information for each pixel is input to a discrimination function obtained by a machine learner using a feature amount for each pixel of the teacher data. The image processing method according to claim 2, further comprising a step of obtaining a posterior probability for each pixel.
前記機械学習器は、サポートベクトルマシンを含む、請求項3に記載の画像処理方法。   The image processing method according to claim 3, wherein the machine learner includes a support vector machine. 前記尤度マップを各々が輝度値の類似度が高い画素を含む複数の領域に分割するステップは、スーパーピクセル法を用いて前記尤度マップを複数の領域に分割するステップを含む、請求項1〜4のいずれかに記載の画像処理方法。   The step of dividing the likelihood map into a plurality of regions each including a pixel having a high similarity in luminance value includes a step of dividing the likelihood map into a plurality of regions using a superpixel method. The image processing method in any one of -4. 前記対象物の画像を取得するステップは、前記対象物を異なる条件で撮影して少なくとも2種類の画像を取得するステップを含む、請求項2〜4のいずれかに記載の画像処理方法。   The image processing method according to claim 2, wherein the step of acquiring an image of the object includes a step of acquiring at least two types of images by photographing the object under different conditions. 前記所定のマスクパターンは、前記少なくとも2種類の画像に対応するように選択されたマスクパターンを含む、請求項6に記載の画像処理方法。   The image processing method according to claim 6, wherein the predetermined mask pattern includes a mask pattern selected to correspond to the at least two types of images. 前記対象物の画像を取得するステップは、人体の部位の断層画像を前記画像として取得するステップを含む、請求項1〜7のいずれかに記載の画像処理方法。   The image processing method according to claim 1, wherein the step of acquiring an image of the object includes a step of acquiring a tomographic image of a part of a human body as the image. 前記人体の部位の断層画像は、CT、MRI、またはPETを用いて撮影される、請求項8に記載の画像処理方法。   The image processing method according to claim 8, wherein the tomographic image of the part of the human body is imaged using CT, MRI, or PET. 画像処理を行うためのコンピュータ・プログラムであって、コンピュータに、
メモリに対象物の画像を保管するステップと、
前記メモリから読み出した前記画像の画素毎の特徴量を求めるステップと、
前記画素毎の特徴量から所定の識別関数を用いて画素毎の事後確率を求めるステップと、
前記画素毎の事後確率を輝度値に変換して、前記対象物の画像の尤度マップを作成するステップと、
前記尤度マップを各々が輝度値の類似度が高い画素を含む複数の領域に分割するステップと、
分割後の領域ごとに自動診断を行うステップと、
分割後または自動診断後の前記尤度マップをディスプレイに表示するステップと、
を実行させるコンピュータ・プログラム。
A computer program for performing image processing on a computer,
Storing an image of the object in memory;
Obtaining a feature value for each pixel of the image read from the memory;
Obtaining a posterior probability for each pixel using a predetermined discriminant function from the feature quantity for each pixel;
Converting the posterior probability for each pixel into a luminance value, and creating a likelihood map of the image of the object;
Dividing the likelihood map into a plurality of regions each including a pixel having a high similarity in luminance value;
A step of performing automatic diagnosis for each divided area;
Displaying the likelihood map after division or after automatic diagnosis on a display;
A computer program that runs
JP2017150148A 2017-08-02 2017-08-02 Image processing method Pending JP2019028887A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017150148A JP2019028887A (en) 2017-08-02 2017-08-02 Image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017150148A JP2019028887A (en) 2017-08-02 2017-08-02 Image processing method

Publications (1)

Publication Number Publication Date
JP2019028887A true JP2019028887A (en) 2019-02-21

Family

ID=65478391

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017150148A Pending JP2019028887A (en) 2017-08-02 2017-08-02 Image processing method

Country Status (1)

Country Link
JP (1) JP2019028887A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112132166A (en) * 2019-06-24 2020-12-25 杭州迪英加科技有限公司 Intelligent analysis method, system and device for digital cytopathology image
JP2021058232A (en) * 2019-10-02 2021-04-15 コニカミノルタ株式会社 Training device for ultrasonic image diagnosis, ultrasonic image diagnosis device, identification model training method, program and ultrasonic diagnostic device
JP2021149818A (en) * 2020-03-23 2021-09-27 株式会社東芝 Information processing apparatus, information processing method and program
JP2022537866A (en) * 2019-06-28 2022-08-31 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド Image classification method, image classification device, image processing method, medical electronic device, image classification device, and computer program
CN112132166B (en) * 2019-06-24 2024-04-19 杭州迪英加科技有限公司 Intelligent analysis method, system and device for digital cell pathology image

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112132166A (en) * 2019-06-24 2020-12-25 杭州迪英加科技有限公司 Intelligent analysis method, system and device for digital cytopathology image
CN112132166B (en) * 2019-06-24 2024-04-19 杭州迪英加科技有限公司 Intelligent analysis method, system and device for digital cell pathology image
JP2022537866A (en) * 2019-06-28 2022-08-31 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド Image classification method, image classification device, image processing method, medical electronic device, image classification device, and computer program
JP7297081B2 (en) 2019-06-28 2023-06-23 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド Image classification method, image classification device, medical electronic device, image classification device, and computer program
US11900647B2 (en) 2019-06-28 2024-02-13 Tencent Technology (Shenzhen) Company Limited Image classification method, apparatus, and device, storage medium, and medical electronic device
JP2021058232A (en) * 2019-10-02 2021-04-15 コニカミノルタ株式会社 Training device for ultrasonic image diagnosis, ultrasonic image diagnosis device, identification model training method, program and ultrasonic diagnostic device
US11842808B2 (en) 2019-10-02 2023-12-12 Konica Minolta, Inc. Ultrasound diagnostic imaging training apparatus, ultrasound diagnostic imaging apparatus, identification model training method, non-transitory recording medium storing computer readable training program, and ultrasound diagnostic apparatus
JP7427902B2 (en) 2019-10-02 2024-02-06 コニカミノルタ株式会社 Ultrasonic image diagnostic training device, ultrasonic image diagnostic device, identification model training method, program, and ultrasonic diagnostic device
JP2021149818A (en) * 2020-03-23 2021-09-27 株式会社東芝 Information processing apparatus, information processing method and program
JP7395396B2 (en) 2020-03-23 2023-12-11 株式会社東芝 Information processing device, information processing method and program

Similar Documents

Publication Publication Date Title
US10776963B2 (en) System and method for forming a super-resolution biomarker map image
JP6930283B2 (en) Image processing device, operation method of image processing device, and image processing program
US7822246B2 (en) Method, a system and a computer program for integration of medical diagnostic information and a geometric model of a movable body
CN107909622B (en) Model generation method, medical imaging scanning planning method and medical imaging system
Banerjee et al. Automated 3D segmentation of brain tumor using visual saliency
US9218542B2 (en) Localization of anatomical structures using learning-based regression and efficient searching or deformation strategy
JP6316671B2 (en) Medical image processing apparatus and medical image processing program
CN109754396B (en) Image registration method and device, computer equipment and storage medium
JP6448356B2 (en) Image processing apparatus, image processing method, image processing system, and program
EP2810217B1 (en) Graph cuts-based interactive segmentation of teeth in 3-d ct volumetric data
US20070160276A1 (en) Cross-time inspection method for medical image diagnosis
EP3712849B1 (en) Automated uncertainty estimation of lesion segmentation
JP2013542046A5 (en)
CN104093354A (en) Method and apparatus for assessment of medical images
CN112529834A (en) Spatial distribution of pathological image patterns in 3D image data
Nasir et al. Melanoma detection and classification using computerized analysis of dermoscopic systems: a review
CN110782428A (en) Method and system for constructing clinical brain CT image ROI template
CN111462115A (en) Medical image display method and device and computer equipment
JP2019028887A (en) Image processing method
JP6772123B2 (en) Image processing equipment, image processing methods, image processing systems and programs
JP6458166B2 (en) MEDICAL IMAGE PROCESSING METHOD, DEVICE, SYSTEM, AND PROGRAM
JP6747785B2 (en) Medical image processing apparatus and medical image processing method
JP2009301254A (en) Image processing device, method and program
JP6934734B2 (en) Image processing device, control method and program of image processing device
JP2012061019A (en) Image processing apparatus, image processing method, and image processing program