JP6827707B2 - Information processing equipment and information processing system - Google Patents
Information processing equipment and information processing system Download PDFInfo
- Publication number
- JP6827707B2 JP6827707B2 JP2016080649A JP2016080649A JP6827707B2 JP 6827707 B2 JP6827707 B2 JP 6827707B2 JP 2016080649 A JP2016080649 A JP 2016080649A JP 2016080649 A JP2016080649 A JP 2016080649A JP 6827707 B2 JP6827707 B2 JP 6827707B2
- Authority
- JP
- Japan
- Prior art keywords
- region
- extraction
- interest
- information processing
- result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 24
- 238000000605 extraction Methods 0.000 claims description 226
- 238000000034 method Methods 0.000 claims description 66
- 238000003384 imaging method Methods 0.000 claims description 7
- 238000010801 machine learning Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 description 92
- 238000004364 calculation method Methods 0.000 description 57
- 206010056342 Pulmonary mass Diseases 0.000 description 17
- 230000006870 function Effects 0.000 description 12
- 230000015654 memory Effects 0.000 description 11
- 238000002591 computed tomography Methods 0.000 description 10
- 238000011156 evaluation Methods 0.000 description 8
- 239000000284 extract Substances 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 238000012549 training Methods 0.000 description 5
- 238000003745 diagnosis Methods 0.000 description 4
- 230000001788 irregular Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 210000000056 organ Anatomy 0.000 description 3
- 206010028980 Neoplasm Diseases 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000004195 computer-aided diagnosis Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 239000005337 ground glass Substances 0.000 description 2
- 230000003902 lesion Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 239000011165 3D composite Substances 0.000 description 1
- 238000005481 NMR spectroscopy Methods 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 230000003211 malignant effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000013421 nuclear magnetic resonance imaging Methods 0.000 description 1
- 238000002601 radiography Methods 0.000 description 1
- 210000004872 soft tissue Anatomy 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
Description
開示の技術は、情報処理装置および情報処理システムに関する。 The disclosed technology relates to information processing devices and information processing systems.
近年、医療現場ではコンピュータ断層撮影(CT)画像、核磁気共鳴(MR)画像など多くの医用画像が活用されるようになってきている。それに伴い、医師が数百枚の医用画像をもとに診断を行ったり、治療方針を検討したりする、いわゆる読影と呼ばれる作業の負荷が増加している。そこで、コンピュータで医用画像を解析して得られる情報を診断の助けとするコンピュータ診断支援(Computer Aided Diagnosis: CAD)に関する技術への期待が高まっている。かかる技術においては、臓器・病変の特徴を解析したり、病変の良悪性を鑑別したりするために、腫瘍などの注目領域を特定して抽出することが必要となる。しかし、前記医用画像における注目領域は形状、画素値(濃度)分布、周辺領域との関係などのバリエーションが大きいという特徴がある。よって、このようにバリエーションが大きい注目領域を抽出するには、複数の抽出アルゴリズムまたは複数の抽出パラメータを用意する必要がある。 In recent years, many medical images such as computed tomography (CT) images and nuclear magnetic resonance (MR) images have come to be used in medical practice. Along with this, the load of work called image interpretation, in which a doctor makes a diagnosis based on hundreds of medical images and examines a treatment policy, is increasing. Therefore, there are increasing expectations for a technology related to computer-aided diagnosis (CAD) that uses information obtained by analyzing a medical image with a computer as an aid in diagnosis. In such a technique, in order to analyze the characteristics of organs / lesions and distinguish between benign and malignant lesions, it is necessary to identify and extract a region of interest such as a tumor. However, the region of interest in the medical image is characterized in that there are large variations in shape, pixel value (density) distribution, relationship with the peripheral region, and the like. Therefore, in order to extract a region of interest having such a large variation, it is necessary to prepare a plurality of extraction algorithms or a plurality of extraction parameters.
特許文献1複数のパラメータ候補に基づいて得られた複数の画像解析処理の結果からユーザに少なくとも1つの結果を手動で選択してもらう技術が開示されている。
しかしながら、手動で処理結果を選択することはユーザの負担となる。 However, it is a burden on the user to manually select the processing result.
開示の情報処理装置は、複数の異なるパラメータを用いて、前記パラメータ毎に医用画像に対する注目領域をそれぞれ抽出する処理を行い、前記医用画像の各画素が抽出された前記注目領域に属するか否かを示す複数の抽出結果を取得する結果取得手段と、前記抽出結果のそれぞれに基づいて得られる第1特徴量を取得する第1取得手段と、前記抽出結果を得た方法と異なる方法を用いて、前記医用画像に対する注目領域に対応する第2特徴量を取得する第2取得手段と、複数の前記第1特徴量と前記第2特徴量との比較を行い、比較結果に基づいて前記複数の抽出結果から1の抽出結果を選択し、選択した前記抽出結果に基づいて前記医用画像における注目領域を特定する選択手段と、を備える。 The disclosed information processing apparatus uses a plurality of different parameters to perform processing for extracting a region of interest for a medical image for each of the parameters, and whether or not each pixel of the medical image belongs to the extracted region of interest. a result obtaining unit that acquire a plurality of extraction results showing, before the first obtaining means for obtaining a first feature amount obtained based on the respective Ki抽out results, a method different from the method to obtain the extraction result using the second acquisition means for acquiring second characteristic amount corresponding to the region of interest for medical images, it makes a comparison between the first feature amount of more than the second feature amount, based on the comparison result The present invention includes a selection means for selecting one extraction result from the plurality of extraction results and specifying a region of interest in the medical image based on the selected extraction result .
開示の技術によれば、医用画像から得られた注目領域の複数の抽出結果から適切な抽出結果を選択する際のユーザの負担を軽減することが可能となる。 According to the disclosed technique, it is possible to reduce the burden on the user when selecting an appropriate extraction result from a plurality of extraction results of the region of interest obtained from the medical image.
以下、図面を参照して、本発明の実施形態を詳しく説明する。ただし、この実施形態に記載されている構成要素はあくまで一例であり、本発明の技術的範囲は、特許請求の範囲によって確定されるのであって、以下の個別の実施形態によって限定されるわけではない。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. However, the components described in this embodiment are merely examples, and the technical scope of the present invention is determined by the scope of claims and is not limited by the following individual embodiments. Absent.
(第1の実施形態)
(概要)
本実施形態に係る画像処理装置は、対象症例の医用画像(入力画像)から、臓器や腫瘍などの被検体の所定の解剖学的部位が存在する領域(注目領域)を抽出する。このとき、本装置は、注目領域の抽出に用いる抽出パラメータを複数個設定し,それぞれのパラメータを用いて入力画像から注目領域の抽出処理を実施する。その後、抽出処理を行う前の入力画像における注目領域と想定される領域の属性(第2属性)および、抽出処理によって取得された複数の抽出結果の属性(第1属性)をそれぞれ計算する。第2属性1と複数の第1属性との一致度(整合度)に基づいて、実際の注目領域に最も整合する抽出結果を選択する。このような方法により、形状や濃度分布のバリエーションが大きい注目領域であっても、自動的に最適な領域抽出結果を選択することができる。なお、第1属性は第1特徴量の一例に相当し、第2属性は第2特徴量の一例に相当する。
(First Embodiment)
(Overview)
The image processing apparatus according to the present embodiment extracts a region (area of interest) in which a predetermined anatomical site of a subject such as an organ or a tumor exists from a medical image (input image) of a target case. At this time, the present apparatus sets a plurality of extraction parameters used for extracting the region of interest, and performs extraction processing of the region of interest from the input image using each parameter. After that, the attributes of the region of interest (second attribute) in the input image before the extraction process and the attributes of the plurality of extraction results acquired by the extraction process (first attribute) are calculated. Based on the degree of coincidence (consistency) between the
以下の説明では、CT画像に写った肺結節を処理対象とする場合について説明するが、本発明の適用範囲は、特定の対象臓器、異常陰影の種類、及びモダリティの種類に限定されるものではない。以下、具体的な装置構成、機能構成および処理手順を説明する。 In the following description, the case where the lung nodule shown in the CT image is to be processed will be described, but the scope of application of the present invention is not limited to a specific target organ, a type of abnormal shadow, and a type of modality. Absent. Hereinafter, specific device configurations, functional configurations, and processing procedures will be described.
(装置構成)
図1に基づいて本発明の第一の実施形態に係る画像処理装置100及び、画像処理装置100と接続される各装置から構成される画像処理システム190について詳しく説明する。なお、画像処理装置100は情報処理装置の一例に相当する。また、画像処理システム190は情報処理システムの一例に相当する。
(Device configuration)
An
画像処理システム190において、画像処理装置100は、入力画像を取得し、当該入力画像に写った注目領域を画像処理により抽出する。画像処理システム190は、被検体の画像を撮影する画像撮影装置110と、撮影された画像を記憶するデータサーバ120と、画像処理を行う画像処理装置100と、取得された入力画像及び画像処理結果を表示する表示部160と、ユーザからの指示を入力するための操作部170とを有する。入力画像とは、画像撮影装置110により取得された画像データを、例えば、診断に好適な画像とするための画像処理等を施して得られる画像である。また、画像処理装置100、画像撮影装置110、データサーバ120、表示部160および操作部170は有線または無線を介して相互に通信可能に接続されている。なお、表示部160は画像処理装置100と別体であってもよいし画像処理装置100と一体に備えられていてもよい。以下、各部について説明する。
In the image processing system 190, the
画像処理装置100は、例えばコンピュータ(情報処理装置)であり、本実施形態に係る画像処理を行う。画像処理装置100は、中央演算処理装置(CPU:Central Processing Unit)11、主メモリ12、磁気ディスク13、表示メモリ14を有する。CPU11は、画像処理装置100の各構成要素の動作を統合的に制御する。
The
CPU11の制御により、画像処理装置100が画像撮影装置110の動作も併せて制御するようにしてもよい。主メモリ12は、CPU11が実行する制御プログラムを格納し、CPU11によるプログラム実行時の作業領域を提供する。磁気ディスク13は、オペレーティングシステム(OS:Operating System)、周辺機器のデバイスドライバ、後述する本実施形態に係る画像処理を行うためのプログラムを含む各種アプリケーションソフトウェアを格納する。表示メモリ14は、表示部160に表示するデータを一時的に格納する。表示部160は、例えば液晶モニタであり、表示メモリ14からの出力に基づいて画像を表示する。操作部170は、例えばマウスやキーボードであり、操作者による位置情報の入力や文字等の入力を行う。表示部160は操作入力を受け付けるタッチパネルモニタであってもよく、操作部170はスタイラスペンであってもよい。上記の各構成要素は共通バス18により互いに通信可能に接続されている。
The
画像撮影装置110は、例えば、コンピュータ断層撮影装置(CT:Computed Tomography)、核磁気共鳴映像装置(MRI:Magnetic Resonance Imaging)または2次元の放射線画像を撮像する放射線撮影装置(DR:Digital Radiography)などである。画像撮影装置110は取得した画像をデータサーバ120へ送信する。画像撮影装置110を制御する不図示の撮影制御部が、画像処理装置100に含まれていてもよい。この撮影制御部は、例えば、撮影オーダーに基づいて画像撮影装置110による撮影を制御し、撮影した画像をデータサーバ120へ送信する。
The
データサーバ120は、画像撮影装置110が撮影した画像を保持する。データサーバ120は、例えばPACS(Picture Archiving and Communication System)サーバである。画像処理装置100は、LAN(Local Area Network)等のネットワークを介してデータサーバ120から画像を取得する。
The
(機能構成)
次に、図2に基づいて画像処理装置100の機能構成の一例について説明する。主メモリ12に格納されたプログラムをCPU11が実行することにより、図2に示した各部の機能が実現される。画像処理装置100は、画像取得部1000、パラメータ取得部1010、領域抽出部1020、整合度算出部1030、抽出結果決定部1040、表示制御部1050を有する。なお、画像処理装置100が備えるCPUは複数であってもよく、プログラムは複数のメモリに分散して記憶されていてもよい。また、プログラムを実行する主体はCPUに限らない。すなわち、少なくとも1以上のプロセッサが少なくとも1以上のメモリに記憶されたプログラムを実行することで、図2に示す各機能が実現される。
(Functional configuration)
Next, an example of the functional configuration of the
画像取得部1000は、本実施形態に係る画像処理の対象とする医用画像(入力画像)をデータサーバ120から取得する。
The
パラメータ取得部1010は、注目領域を抽出するためのパラメータを複数個取得する。例えば、パラメータ取得部1010は、主メモリ12から機械学習などで予め得られたパラメータを取得する。また、パラメータ取得部1010は、操作部170を介してユーザにより入力されたパラメータを取得することとしてもよい。
The
領域抽出部1020は、パラメータ取得部1010が取得した複数個のパラメータを用いて、入力画像から注目領域を抽出する処理を行い,複数個の抽出結果(注目領域を示すラベル画像)を取得する。より具体的には、領域抽出部1020は、同じ注目領域に対してパラメータを変更しながら複数回抽出処理を行うことで、それぞれのパラメータに対応した複数の抽出結果を取得する。すなわち、領域抽出部1020は、医用画像に含まれる注目領域の抽出結果を複数取得する結果取得手段の一例に相当する。
The
整合度算出部1030は、まず、領域抽出部1020が取得した複数の抽出結果の特徴(第1属性)と、画像取得部1000が取得した入力画像における注目領域の特徴(第2属性)とを計算する。整合度算出部1030は注目領域の複数の抽出結果それぞれの特徴を計算する。すなわち、整合度算出部1030は複数の第1属性を計算する。この整合度算出部1030は、複数の抽出結果をそれぞれ表す複数の第1特徴量を取得する第1取得手段の一例に相当する。また、整合度算出部1030は、例えばLaplacian of Gaussian(LoG)カーネルのスケールスペースを用いて、医用画像から注目領域の概略形状(大きさ)を示す第2属性を計算する。すなわち、整合度算出部1030は、抽出結果を得た方法と異なる方法を用いて注目領域を表す第2特徴量を取得する第2取得手段の一例に相当する。
The
また、整合度算出部1030は、複数個の第1属性のそれぞれに対して、第2属性との一致度(整合度)を計算する。すなわち、整合度算出部1030は複数個の整合度を取得する。
In addition, the
抽出結果決定部1040は、例えば、整合度算出部1030が計算した複数個の整合度に基づいて、複数個の整合度のうち最も整合度の高い抽出結果を注目領域の抽出結果に決定する。すなわち、抽出結果決定部1040は、複数の第1特徴量と第2特徴量との比較に基づいて複数の抽出結果から1の抽出結果を選択する選択手段の一例に相当する。
The extraction
表示制御部1050は、抽出結果決定部1040が決定した注目領域の抽出結果を表示部160に出力し、表示部160にその抽出結果を表示させる。表示制御部1050は、選択手段による選択結果を表示部に表示させる表示制御手段の一例に相当する。
The
なお、画像処理装置100が有する各部の少なくとも一部を独立した装置として実現してもよい。画像処理装置100はワークステーションでもよい。各部の機能はコンピュータ上で動作するソフトウェアとして実現してもよく、各部の機能を実現するソフトウェアは、クラウドをはじめとするネットワークを介したサーバ上で動作してもよい。以下に説明する本実施形態では、各部はローカル環境に設置したコンピュータ上で動作するソフトウェアによりそれぞれ実現されているものとする。
At least a part of each part of the
(処理フロー)
続いて、上記のように構成された画像処理の動作について説明する。図3は、本実施形態の画像処理装置100が実行する画像処理の処理手順の一例を示す図である。本実施形態では、入力画像はCT画像であるとする。CT画像は3次元濃淡画像として取得される。また、本実施形態では入力画像に写った注目領域は肺結節であるとする。なお、入力画像および注目領域は上記の例に限定されるものではない。
(Processing flow)
Subsequently, the operation of the image processing configured as described above will be described. FIG. 3 is a diagram showing an example of an image processing processing procedure executed by the
(ステップS1100)
ステップS1100において、画像取得部1000は入力画像を取得する。すなわち、画像取得部1000はCT画像をデータサーバ120から取得し、画像処理装置100の主メモリ12上に記憶する。別の例では、画像取得部1000は画像撮影装置110で撮影した画像データを通信手段を介して直接取得し、診断に好適な画像とするための画像処理等を施した医用画像を、本実施形態に係る入力画像として取得する。画像撮影装置110が例えばCT装置であった場合、画像撮影装置110からHU(Hounsfield Unit)値と呼ばれる画素値から成る画像データを取得する。
(Step S1100)
In step S1100, the
ここで、本実施形態における入力画像は、3次元直交座標(x,y,z)によって位置が特定できる複数の画素により構成される。画像の属性の一つである画素サイズは、3軸の座標方向それぞれに対して定義される。本実施形態では、x,y,zの各方向に対する画素サイズを、r_size_x,r_size_y,r_size_zと記すこととし、いずれの値も1.0mmである場合の例を説明する。入力画像の各画素値は3次元座標(x,y,z)の値毎に決定されるため、入力画像を、3次元座標値を引数とする関数I(x,y,z)によって定義されるデータと見なすことができる。 Here, the input image in the present embodiment is composed of a plurality of pixels whose positions can be specified by three-dimensional Cartesian coordinates (x, y, z). The pixel size, which is one of the attributes of an image, is defined for each of the three coordinate directions. In the present embodiment, the pixel sizes in each of the x, y, and z directions are described as r_size_x, r_size_y, and r_size_z, and an example in which all the values are 1.0 mm will be described. Since each pixel value of the input image is determined for each value of the three-dimensional coordinates (x, y, z), the input image is defined by the function I (x, y, z) having the three-dimensional coordinate values as arguments. Can be regarded as data.
(ステップS1110)
ステップS1110において、パラメータ取得部1010は、注目領域の抽出用パラメータに関する情報(パラメータ情報)を取得する。パラメータ取得部1010が注目領域を入力画像から抽出するためのパラメータをNP個取得する時、各パラメータをPi(i=1,2,...,Np)とする。
(Step S1110)
In step S1110, the
なお、医用画像から注目領域を抽出する方法として、領域拡張法、Level−set法、Graph cut法またはWater flow、Dynamic Programmingなどの手法を用いることができる。よって、ここでのパラメータPiは、例えば領域拡張法を利用する場合のしきい値(1種類の係数)を表すことができる。また、抽出手法としてGraph cut法を用いる場合、Graph cut法に用いられるエネルギー関数Eにはデータ項の係数Pdと平滑化項の係数PSとの2種類の係数が含まれるため、各パラメータPiをPi=(Pid,PiS)(i=1,2,...,Np)として定義してもよい。 As a method for extracting a region of interest from a medical image, a region expansion method, a level-set method, a Graph cut method, or a method such as Water flow or Dynamic programming can be used. Thus, the parameter P i in this case can be expressed, for example the threshold (one factor) in the case of utilizing a region growing technique. In the case of using the Graph cut method as the extraction method, since the energy function E for use in Graph cut method includes two types of coefficients of the coefficient P S of the coefficient P d and smoothing term data section, each parameter P i may be defined as P i = (P id , P iS ) (i = 1, 2, ..., N p ).
上記のように、抽出手法に応じて、1つのパラメータには、複数種類の係数が含まれる場合があるため、以下ではPiをパラメータセットと記述する。このように、本ステップで取得されるパラメータ情報は、注目領域の抽出に用いられるパラメータセットの個数NP及びそれぞれのパラメータセットPiの具体的な値となる。 As described above, according to the extraction method, the one parameter, because it may contain multiple types of coefficients, referred to as the parameter set P i in the following. Thus, the parameter information acquired in this step, a specific value of the number of parameter sets N P and the respective parameter set P i to be used in the extraction of the region of interest.
各パラメータセットの具体的な値は、臨床診断上のルールに応じて決定されてもよい。画像診断の臨床において、肺結節内の画素値の分布に応じて、肺結節を充実性結節(SN,Solid nodules)と、すりガラス状結節(GGN, ground−glass nodules)に分類している。さらに、肺結節内の部分領域を、軟部組織領域、石灰化領域、空気領域などに分類することがある。このような様々なタイプの肺結節領域を識別するために利用される部分領域内の平均濃度値を、領域拡張に基づく抽出手法でのパラメータセット(しきい値)として利用することができる。パラメータセット数NPは、ユーザの経験または、取り組む課題に応じて決定できる。例えば、SNとGGNとの2種類の肺結節を別々のパラメータセットで抽出したい場合は、NP=2となる。 Specific values for each parameter set may be determined according to clinical diagnostic rules. In clinical imaging, lung nodules are classified into solid nodules (SN, Solid nodules) and ground-glass nodules (GGN, ground-glass nodules) according to the distribution of pixel values in the lung nodules. In addition, partial regions within lung nodules may be classified into soft tissue regions, calcified regions, air regions, and the like. The average concentration value in the partial region used to identify these various types of lung nodule regions can be used as a parameter set (threshold value) in the extraction method based on region expansion. The number of parameter sets N P can be determined according to the user's experience or the task to be tackled. For example, if you want to extract two types of lung nodules between SN and GGN in separate parameter set, and N P = 2.
また、パラメータ取得部1010は、NPと各パラメータセットの値とを、機械学習を用いて、肺結節領域の抽出精度に基づいて事前に決めることとしてもよい。すなわち、複数の異なるパラメータは、注目領域の抽出精度を利用した機械学習により得られる。本実施形態では、肺結節の領域抽出を、Graph cut法によって実施することを例として説明する。肺結節の正解領域が事前に分かっている(医師が手作業で正解ラベルを与えている)T個の学習症例に対して、パラメータ取得部1010はGraph cut法のパラメータセットP=(Pd,PS)の係数PdとPSとの値をある範囲で変動させ、領域抽出部1020による抽出処理を行う。なお、係数PdとPSとの値は手動または自動により変動させられる。その際、パラメータセットの総数をnとし、それぞれのパラメータセットをPI(I=1,2,...,n)で表す。各々のパラメータセットには、形状や濃度値分布などの得意な抽出対象領域があるため、n個のパラメータセットのうち、1つのみを用いることでは、すべての症例で対象領域を精度よく抽出することが困難である。そのため、n個のパラメータセットPI(I=1,2,...,n)から複数個(NP)パラメータセットPi(i=1,2,...,Np)を選択して組み合わせる必要がある。なお、NP≦nである。
Further, the
パラメータ取得部1010がn個のパラメータセットからNP個を選択して組み合わせる際、全組み合わせから1つ最適な組み合わせを選択する必要がある。まず、領域抽出部1020はそれぞれの組み合わせを全T症例に適用して抽出処理を行い、パラメータ取得部1010は抽出精度の平均一致度を計算する。そのとき、例えば、パラメータセット組み合わせPi(i=1,2,...,Np)を全T症例に適用する際、得られた平均一致度を
When the
とする。ここで、tはT症例中の任意の症例Casetを表し、Rtは症例Casetにおける抽出精度の評価値である。ここで、抽出精度の評価値Rtとは、例えば、症例Casetで得た最も高い抽出精度である。Piに属するそれぞれのパラメータセットによって得た症例Casetの抽出結果の精度(症例Casetの正解領域との一致度)をRtiとする際、Rtは以下の式
And. Here, t represents an arbitrary case Case t in the T case, and R t is an evaluation value of the extraction accuracy in the case Case t . Here, the evaluation value R t of the extraction accuracy is, for example, the highest extraction accuracy obtained in the case case t . When each of the parameter sets of extraction results of cases Case t obtained by the precision belonging to P i (the degree of coincidence between correct region of cases Case t) and R ti, R t is the following formula
によって計算され、NP個の抽出結果の中から抽出精度が最も高いものが選択される。
Is calculated by, with the highest extraction precision from the N P-number of the extraction result is selected.
パラメータ取得部1010は、式1に示す平均一致度が最も高いときの組みあわせPiをパラメータセット数がNpであるときの最適組み合わせとする。そして、パラメータ取得部1010は、最適組み合わせによる平均一致度を評価値Eとする。なお、パラメータ取得部1010は、評価値Eを平均一致度以外に、全T症例に渡る最大一致度または最小一致度に基づいて決定してもよい。
一般的に、パラメータセット数NPの値が大きいほど評価値Eが高くなる。しかし、計算時間および処理の複雑度などの要素を総合的に考慮する上、NPを適切な値に決める必要がある。例えば、全ての学習症例に対して、NPの数を1から増加させながら領域抽出部1020が抽出処理を行う。パラメータ取得部1010は、NPの増加によって生じる評価値Eの向上量が所定値以下になる(収束する)ときのNPを、最終のパラメータセット数として決定することとしてもよい。
In general, the larger the value of the number of parameter sets N P , the higher the evaluation value E. However, overall the consideration factors such as computational time and processing complexity, it is necessary to determine the N P to an appropriate value. For example, with respect to all the learning cases, the
機械学習による抽出用パラメータセットの設定は、抽出結果の一致度のみではなく、注目領域の特徴に基づいて行われることとしてもよい。例えば、パラメータ取得部1010が、注目領域の形状特徴に基づいてパラメータを設定する場合を説明する。
The setting of the extraction parameter set by machine learning may be performed based not only on the degree of agreement of the extraction results but also on the characteristics of the region of interest. For example, the case where the
図4に示すように、学習症例500は、形状によって3つのデータセットに分類されている。なお、この分類は自動であっても手動であってもよい。また、分類の数は3に限定されるものではなく、2であってもよりし4以上であってもよい。501は球形または球形に近似する類球形データセット、505は6面体などの多面体からなるポリゴン形データセット、510は1つの注目領域にその他の様々な形状が混在する不整形データセットである。各学習データセットにおいて、パラメータ取得部1010は抽出パラメータセットの探索を行い、得られたパラメータセットをそれぞれPS、PP、PIとする。すなわち、複数の異なるパラメータは、注目領域の複数の形状特徴毎に得られる。ここで、各データセットでのパラメータセットの探索としては、パラメータ取得部1010は、例えばパラメータ数NPを1とする時の、平均抽出一致度が最も高いパラメータセットを選択してもよい。
As shown in FIG. 4, the learning case 500 is classified into three data sets according to the shape. This classification may be automatic or manual. Further, the number of classifications is not limited to 3, and may be 2 or 4 or more. 501 is a spherical or similar spherical data set that is close to a spherical shape, 505 is a polygonal data set consisting of a polyhedron such as a hexahedron, and 510 is an irregular data set in which various other shapes are mixed in one region of interest. In each learning data set, the
本実施形態の以下の処理では、NP=3のとき、式1に示す抽出の平均一致度に基づいて選択された最適なパラメータセットを用いることで説明する。なお、選択された3つのパラメータセットをP1、P2、P3とする。また、本実施の形態においてはNP=3としたが、NPをこの数値以外の値としてもよい。
The following processing of the present embodiment will be described by using the optimum parameter set selected based on the average degree of matching of the extracts shown in
(ステップS1120)
ステップS1120において、領域抽出部1020は複数の肺結節抽出結果を取得する。具体的には、領域抽出部1020は、ステップS1100で取得した入力画像I(x,y,z)と、ステップS1110で取得した抽出パラメータセットをP1、P2、P3を用いて抽出処理を行い、3つの肺結節抽出結果を取得する。
(Step S1120)
In step S1120, the
本実施形態において、領域抽出部1020での領域抽出処理は、一例としてGraph cut法を用いる場合を説明する。ステップS1110で取得したGraph cut用のパラメータセットをそれぞれ、P1(P1d,P1S)、P2(P2d,P2S)、P3(P3d,P3S)とする。領域抽出部1020は、ユーザが事前に設定した前景領域Robj(抽出対象に属する画素)、背景領域Rbkg(抽出対象ではない画素)および上記パラメータセットが代入されているデータ項、平滑項に基づいて、Graph cut法のエネルギー関数を構築する。領域抽出部1020は、入力画像の各画素に対して、当該エネルギー関数を適用し、エネルギーが最小となるような境界に属する画素の集合を注目領域の輪郭とする。このとき、領域抽出部1020は、当該輪郭に囲まれている領域を対象肺結節の抽出結果とする。
In the present embodiment, the case where the Graph cut method is used as an example of the region extraction process in the
図5に示すように、パラメータセットP1(P1d,P1S)、P2(P2d,P2S)、P3(P3d,P3S)を用いて抽出処理を行い、それぞれの抽出結果601、602、603が得られる。複数の抽出結果は、1の抽出方法において複数の異なるパラメータを用いて注目領域を抽出した結果である。抽出結果601はパラメータP1を用いた際の領域抽出部1020による抽出結果、抽出結果602はパラメータP2を用いた際の領域抽出部1020による抽出結果、抽出結果603はパラメータP3を用いた際の領域抽出部1020による抽出結果を示している。抽出結果601−603において、黒塗り部分は注目領域として抽出された領域を示しており、パラメータの違いに応じて異なる領域が注目領域として抽出されている。
As shown in FIG. 5, extraction processing was performed using the parameter sets P 1 (P 1d , P 1S ), P 2 (P 2d , P 2S ), and P 3 (P 3d , P 3S ), and the extraction results of each were performed. 601, 602 and 603 are obtained. The plurality of extraction results are the results of extracting the region of interest using a plurality of different parameters in one extraction method. The
(ステップS1130)
次に、ステップS1130において、整合度算出部1030は整合度を算出する。整合度算出部1030は、ステップS1100で取得した入力画像I(x,y,z)と、ステップS1120で取得した3つの抽出結果とを用いて、入力画像における注目領域とそれぞれの抽出結果との整合度を算出する。
(Step S1130)
Next, in step S1130, the
本実施形態において、整合度は、入力画像から推定される注目領域の属性(第2属性)と、抽出結果から計算される属性(第1属性)との一致度として算出される。まず、整合度算出部1030により入力画像から第2属性を推定する処理について説明する。
In the present embodiment, the consistency is calculated as the degree of coincidence between the attribute of the region of interest estimated from the input image (second attribute) and the attribute calculated from the extraction result (first attribute). First, a process of estimating the second attribute from the input image by the
入力画像における注目領域の正確な輪郭は不明であるが、濃度分布の特徴を解析することによって、注目領域の概略形状を整合度算出部1030により推定することが可能である。ここで、本実施形態では、入力画像から推定される注目領域の概略形状を第2属性とする。概略形状を推定する具体的な方法の一例として、整合度算出部1030は、Laplacian of Gaussian(LoG)カーネルのスケールスペースを用いることができる。
Although the exact contour of the region of interest in the input image is unknown, it is possible for the
まず、注目領域の濃度値分布がガウス分布に従うと仮定し、整合度算出部1030は、ガウス分布の標準偏差σを複数の値(スケール)に変えながら、注目領域に属する画素にLoGカーネルを適用する。その際、注目領域に最適なスケール(注目領域を近似する円の直径と一致)でのLoGカーネルが適用されていれば、注目領域の中心部において、LoGカーネルの出力値が最大となる。よって、注目領域の大きさ(概略形状)をそのときのLoGカーネルのスケールに基づいて推定することができる。
First, assuming that the concentration value distribution in the region of interest follows a Gaussian distribution, the
LoGカーネルによる注目領域の概略形状の推定は、3次元または2次元画像を対象に行うことができる。本実施例では2次元の場合を説明する。図6に示すように、入力画像610の右肺野615に肺結節620が存在する場合、まず、整合度算出部1030は、肺結節620を通るaxial断面630、sagittal断面631、coronal断面632を取得する。これは、例えばユーザが操作部170を介して、肺結節620に属するシード点(Spoint)を入力し、整合度算出部1030はシード点の座標を取得し、Spointを含むaxial、sagittal、coronalの3断面を入力画像から取得することができる。なお、シード点Spointは手動ではなく自動検出アルゴリズムを用いて取得してもよい。
The estimation of the approximate shape of the region of interest by the LoG kernel can be performed on a three-dimensional or two-dimensional image. In this embodiment, a two-dimensional case will be described. As shown in FIG. 6, when the
また、図7に示すように、処理時間を短縮するために、整合度算出部1030はaxial断面630、sagittal断面631、coronal断面632に対して、注目領域を含む範囲をさらに絞り、局所断面fa、fs、fcを設定してもよい。本実施例では、図8(a)に示す局所断面fa640を用いて注目領域の概略形状を推定する例を説明する。
Further, as shown in FIG. 7, in order to shorten the processing time, the
2次元直交座標(x,y)を用いて定義される局所断面fa(x,y)に対して、マルチスケールでのLoGカーネルを適用し、式 Two-dimensional orthogonal coordinates (x, y) local section f a (x, y) is defined with respect to applying the LoG kernel with multi-scale, wherein
に示す出力曲面S(x,y,h)を取得する(図8(b)の出力曲面645)。なお、式(3)において、LoGh(r)はLoGカーネルを表し、rは以下のように定義される。
The output curved surface S (x, y, h) shown in FIG. 8 is acquired (output curved surface 645 in FIG. 8B). In the equation (3), LoG h (r) represents the LoG kernel, and r is defined as follows.
また、スケールを表すパラメータhは、S(x,y,h)の中央部の幅を表しており、
Further, the parameter h representing the scale represents the width of the central portion of S (x, y, h).
に設定される。また、記号「*」は畳み込み演算を表している。
Is set to. The symbol "*" represents a convolution operation.
図9を用いて概略形状推定の具体的な処理を説明する。スケールhを一定の範囲{hmin,…,hmax}内で変動させ、各スケールhにおいてSpoint付近でS(x,y,h)の最大出力値を取得することにより整合度算出部1030は出力曲線C(h)を得る(図9(a))。なお、hminとhmaxはユーザが任意の値に指定することができる。スケールhが図9(b)に示す注目領域を近似する円の直径654の大きさと一致する場合に、C(h)は最大値を得る。よって、整合度算出部1030は、C(h)の極大値651に対応するスケール(hopt652)を選択し、その値を注目領域の概略形状(大きさ)を表す係数D1とする。例えばD1は注目領域を近似する円の直径を示している。なお、注目領域を近似する円の半径をD1としてもよい。整合度算出部1030は、局所断面fc、fsに対しても上記と同様の処理を適用し、それぞれの断面における注目領域の概略形状を表す係数D2、D3を取得できる。上記概略形状を表す係数D1、D2、D3は入力画像から推定される第2属性である。すなわち、整合度算出部1030は、医用画像に対してLoG(Laplacian of Gaussian)カーネルを適用することにより第2特徴量を取得する。
A specific process of rough shape estimation will be described with reference to FIG. The
次に、整合度算出部1030は抽出結果から第1属性を計算する。第2属性との整合度を計算するために、第1属性は、抽出結果の概略形状を表す必要がある。ここで、抽出結果603からの概略形状推定を例として説明する。
Next, the
まず、整合度算出部1030は、抽出結果603に対して、入力画像における概略形状の推定と同様に局所断面作成し、f’a、f’c、f’sとする。整合度算出部1030は、それぞれの断面から、注目領域の抽出結果を用いて概略形状を計算する。その際、整合度算出部1030は、局所断面における前景画素(抽出結果に属する画素)を用いて注目領域の大きさを算出することができる。整合度算出部1030は、例えば、f’aにおける前景画素の近似円を推定し、その円の直径をD’1(第1属性)としてもよい。また、前景画素の境界と重心との平均距離をD’1としてもよい。なお、近似円の半径をD’1としてもよい。すなわち、整合度算出部1030は、抽出された注目領域の形状を示す特徴量を取得する。整合度算出部1030は、f’c、f’sにおいても、上記と同様の処理を行い、注目領域の抽出結果の概略形状を表す係数D’2、D’3を第1属性として取得することができる。上記のように、第1特徴量(第1属性)および第2特徴量(第2属性)は、両者ともに注目領域の形状を示しているため比較可能となっている。一例として、第1特徴量および前記第2特徴量は、注目領域の直径または半径を示す。
First, the matching
最後に、整合度算出部1030は、第2属性(D1、D2、D3)と第1属性(D’1、D’2、D’3)とを用いて、注目領域と抽出結果との整合度εを計算する。εの計算は様々な方法を用いることができる。例えば式4
Finally, the
によって計算してもよい。なお、E(A,B)は式5で表される。
It may be calculated by. E (A, B) is represented by Equation 5.
式4によると、εが大きいほど第2属性と第1属性との差が小さいため、整合度が高いことを示す。
According to Equation 4, the larger the ε, the smaller the difference between the second attribute and the first attribute, indicating that the consistency is higher.
整合度計算の別の例では、整合度算出部1030は、入力画像および抽出結果それぞれから計算される注目領域の体積に基づいて整合度を計算する。整合度算出部1030は、例えば、D1、D2、D3に基づいて、入力画像から注目領域を近似する楕円体を推定し、その楕円体の体積VIを計算する。一方、抽出結果601における前景画素の体積をVS1とする。そして、整合度算出部1030は、整合度εを式6により計算する。
In another example of consistency calculation, the
整合度計算のさらに別の例では、入力画像および抽出結果それぞれから計算される注目領域の曲率に基づいて整合度算出部1030は整合度を計算する。例えば、整合度算出部1030は、抽出結果601における前景画素の輪郭をSs1として検出する。輪郭の検出は一般的な画素処理技術であるため説明を省略する。また、整合度算出部1030は、Ss1における各画素の曲率を計算(距離変換画像に基づく曲率)し、それらの曲率の平均値をκs1とする。ここで、κs1の計算は例えば、抽出結果601に対して、前景領域における各画素と背景領域との距離値を計算する距離変換処理を実施し、その距離値に基づいて計算することができる。一方、入力画像においては、整合度算出部1030は、Ss1と重なる部分の画素における曲率(濃度値に基づく曲率)を計算し、それらの曲率の平均値をκIとする。
In yet another example of consistency calculation, the
そして、曲率κs1と曲率κIとの整合度εを式6によって計算する。 Then, the consistency ε between the curvature κ s1 and the curvature κ I is calculated by Equation 6.
なお、上記整合度計算手法の何れかを用いて整合度を算出してもよいし、それぞれを組み合わせて整合度を算出してもよい。本実施形態では、式4によって、入力画像から計算された注目領域の概略形状と抽出結果601、602、603それぞれの概略形状との整合度を計算し、複数の整合度ε1、ε2、ε3を取得する。
The consistency may be calculated by using any of the above-mentioned consistency calculation methods, or may be combined to calculate the consistency. In the present embodiment, the consistency between the approximate shape of the region of interest calculated from the input image and the approximate shape of each of the extraction results 601, 602, and 603 is calculated by Equation 4, and a plurality of consistency ε 1 , ε 2 , Get ε 3 .
(ステップS1140)
ステップS1140では、抽出結果決定部1040が注目領域の複数の抽出結果から適切な抽出結果を決定する。抽出結果決定部1040は、ステップS1120で取得した複数の抽出結果、およびステップS1130で取得した複数個の整合度を用いて注目領域の最終抽出結果を決定する。
(Step S1140)
In step S1140, the extraction
本実施形態において、抽出結果決定部1040は、抽出結果601、602、603から最終抽出結果として最も適した抽出結果を選択する。抽出結果決定部1040は、例えばステップS1130で計算された整合度ε1、ε2、ε3から,最も高い整合度に対応する抽出結果を選択すればよい。すなわち、選択手段は、複数の第1特徴量のうち第2特徴量との整合度が最も高い第1特徴量に対応する抽出結果を選択する。
In the present embodiment, the extraction
また、ユーザの需要に応じて、整合度算出部1030は、各抽出結果自身の特徴量(例えば球形度、モーメント、伸長度など)を計算し、抽出結果決定部1040は、この計算結果に基づく最適な抽出結果であるか否かの尤度を上記整合度に加えて、最も適した抽出結果を決定してもよい。
Further, the
なお、ステップS1140で選択された領域抽出の結果はRsegとする。さらに、Rsegに対応する抽出パラメータセットを、入力画像に最適なパラメータセットPOPTとする。 The result of the region extraction selected in step S1140 is R seg . Further, the extraction parameter set corresponding to R seg is set as the optimum parameter set OPT for the input image.
(ステップS1150)
ステップS1150では表示制御部1050が領域抽出の結果を表示部160に表示させる。表示制御部1050は、ステップS1140で選択された抽出結果Rsegに関する情報を画像処理装置100に接続された表示部160に送信し、表示部160に抽出結果Rsegに関する情報を表示させる。表示制御部1050は、例えばRsegと入力画像とを重ね合わせて合成した画像(以下、合成画像と称する)を表示部160に表示させる。別の例では、表示制御部1050は、所定の面で切断した2次元の断面画像とRsegとの合成画像を表示部160に表示させる。さらに別の例では、表示制御部1050は、3次元の合成画像をボリュームレンダリングして表示部160に表示させる。すなわち、表示制御部1050は、三次元の医用画像に三次元の抽出結果を重畳して表示部160に表示させる。
(Step S1150)
In step S1150, the
また、表示制御部1050は領域抽出の結果の表示形態を制御する。例えば、抽出結果Rsegの輪郭を曲線で表示させる。表示制御部1050は、抽出結果Rsegの輪郭の内部の色を当該輪郭外部の色とは異なる色で表示部160に表示させてもよい。このとき、複数の抽出結果のうち抽出結果決定部1040により選択されなかった抽出結果を選択された抽出結果の表示色に比べて薄めの色で併せて表示させてもよい。すなわち、表示される抽出結果は抽出結果決定部1040により選択された1の抽出結果に限るものではない。例えば、表示制御部1050は抽出結果決定部1040により選択された抽出結果を他の抽出結果と識別可能な状態で複数の抽出結果を表示部160に表示させることとしてもよい。なお、複数の抽出結果を同時に表示させてもよいし、表示する抽出結果を切換えて表示させることとしてもよい。
In addition, the
別の例では、表示制御部1050は、矢印の先端部が抽出された領域を示すように矢印を示す図形を入力画像と重ね合わせて表示部160に表示させる。さらに、抽出された領域の大きさに応じて上述した表示形態を変更するようにしてもよい。例えば、表示制御部1050は、抽出された領域の大きさが所定の閾値よりも大きい場合は輪郭を曲線で表示部160に表示させ、閾値よりも小さい場合は矢印の先端部で抽出領域の位置を示すように表示部160に矢印を表示させてもよい。これらの表示形態により、入力画像および注目領域の視認性を向上させることが可能となる。
In another example, the
上述の第1の実施形態に係る画像処理装置では、複数のパラメータセットによる注目領域の抽出処理を行い、複数の抽出結果を取得する。さらにそれぞれの抽出結果から計算される第1属性と、入力画像から計算される注目領域の第2属性との一致度に基づいて、最適な抽出結果を自動で選択する。従って、医師等のユーザの手間を軽減することが可能となる。 In the image processing apparatus according to the first embodiment described above, the extraction process of the region of interest is performed by a plurality of parameter sets, and a plurality of extraction results are acquired. Further, the optimum extraction result is automatically selected based on the degree of coincidence between the first attribute calculated from each extraction result and the second attribute of the region of interest calculated from the input image. Therefore, it is possible to reduce the labor of users such as doctors.
(変形例1)
第1実施形態の説明では、ステップS1130での整合度の計算を、入力画像から計算される注目領域の第2属性と、抽出結果から計算される注目領域の第1属性との一致度の計算により実行する場合を説明した。しかし、本発明はこの例に限定されるのではない。例えば、ステップS1110で、パラメータ取得部1010が形状特徴に基づいて抽出パラメータセットを設定する場合、整合度算出部1030は各形状カテゴリにおける学習データから、平均形状を作成し、その平均形状を用いて整合度を計算してもよい。
(Modification example 1)
In the description of the first embodiment, the calculation of the consistency in step S1130 is the calculation of the degree of coincidence between the second attribute of the attention region calculated from the input image and the first attribute of the attention region calculated from the extraction result. The case of executing by is explained. However, the present invention is not limited to this example. For example, in step S1110, when the
具体的には、例えば、図4に示す3種類の学習データを用いる。パラメータ取得部1010は、それぞれの学習データセットから最適な抽出パラメータセットPS、PP、PIを探索する。パラメータセットPSは類球形データセット501から、パラメータセットPPはポリゴン形データセット505から、パラメータセットPIは不整形データセット510からそれぞれ得られる。そして、領域抽出部1020は、それぞれの学習データセットが対応する最適な抽出パラメータ(PS、PP、PIのいずれか)を用いて注目領域の領域を抽出し、取得された抽出結果から平均形状AS、AP、AIを作成する。また、領域抽出部1020は、入力画像に対して、パラメータセットPS、PP、PIによる注目領域の抽出を行い、得られた抽出結果をRS、RP、RIとする。最後に、整合度算出部1030は、ASとRS、APとRP、AIとRI、それぞれの属性の一致度を計算する。そして、抽出結果決定部1040は最も属性の一致度が高い組みの抽出結果を最終結果として選択する。ここで、属性の計算は第1実施例と同じ方法を利用してもよい。
Specifically, for example, three types of learning data shown in FIG. 4 are used. The
また、上述した学習データの平均形状ではなく、抽出結果決定部1040はそれぞれの学習データセットで最も入力画像と近似する学習データでの抽出結果を選択してもよい。この場合は、例えば、領域抽出部1020は、類球形データセット501において、全ての学習症例と入力画像との近似度を計算し、最も近似する学習症例を当該データセットにおける入力画像の参照症例として選択する。
Further, instead of the above-mentioned average shape of the training data, the extraction
ここで、学習症例と入力画像との近似度の評価は、例えば、Large Deformation Diffeomorphic Metric Mapping(LDDMM)技術を用いて、入力画像と学習症例との間の位置合わせを行う際の変形度により行われてもよい。変形度が少ない症例ほど近似度が高いため、最も変形度の少ない症例を参照症例BSとする。ポリゴン形データセット505、不整形データセット510からも同じ処理を行い、それぞれでの参照症例をBP、BIとする。そして、上述したように、領域抽出部1020は、入力画像に対して学習データから求められたパラメータセットPS、PP、PIを用いて注目領域の抽出を行い、得た抽出結果をRS、RP、RIとする。
Here, the evaluation of the degree of approximation between the learning case and the input image is performed based on the degree of deformation when aligning the input image and the learning case using, for example, the Evaluation Deformation Differential Mapping (LDDMM) technique. You may be broken. Because of the high degree of approximation as the degree of deformation is small cases, the reference case B S a small sample the least deformation degree. Polygon shaped
最後に、整合度算出部1030はBSとRS、BPとRP、BIとRI、それぞれの属性の一致度(整合度)を計算する。そして、抽出結果決定部1040は最も属性の一致度が高い組みの抽出結果を最終結果として選択する。なお、属性の計算は第1実施例と同じ方法を利用してもよい。
Finally, the matching
(変形例2)
第1の実施形態では、領域抽出部1020がGraph−Cutにおけるパラメータを複数用いて、注目領域の複数の抽出結果を得る場合について説明したが、本発明は上記の例に限定されるものではない。例えば、領域抽出部1020は、Graph−Cut法およびLevel−set法により注目領域の複数の抽出結果を取得する。すなわち、複数の抽出結果は、異なる複数の抽出方法を用いて注目領域を抽出した結果である。そして、整合度算出部1030はそれぞれの抽出結果から上述のような複数の第1属性を取得し、第2属性との整合度を算出する。抽出結果決定部1040は算出された整合度に基づいてGraph−Cut法またはLevel−set法による抽出結果を選択する。
(Modification 2)
In the first embodiment, the case where the
このように、抽出結果決定部1040は、異なる領域抽出方法により得られた複数の抽出結果から適切な抽出結果を選択することとしてもよい。
As described above, the extraction
第一の実施形態に係る画像処理装置の効果について説明する。本発明における画像処理装置は、公知の領域抽出手法に存在するいくつかの課題を解決する。この課題とはすなわち、従来の領域抽出手法では、単一のパラメータセットを用いる場合、形状のバリエーションが大きい注目領域を精度よく抽出できない。また、複数のパラメータセットを用いる場合であっても、便宜かつ精度良く最適な抽出結果を選択することが困難であった。換言すれば、注目領域を高精度で抽出できないという課題がある。 The effect of the image processing apparatus according to the first embodiment will be described. The image processing apparatus in the present invention solves some problems existing in the known region extraction method. This problem is that, in the conventional region extraction method, when a single parameter set is used, it is not possible to accurately extract the region of interest with a large variation in shape. Moreover, even when a plurality of parameter sets are used, it is difficult to select the optimum extraction result conveniently and accurately. In other words, there is a problem that the region of interest cannot be extracted with high accuracy.
一方、本実施形態に係る画像処理装置では、形状のバリエーションが大きい注目領域に適した複数個のパラメータセットによって入力画像から複数個の注目領域抽出結果を得る。さらに、入力画像から求められた注目領域の属性と、複数個の抽出結果から求められた属性との一致度に基づいて、最適な抽出結果を効率かつ精度よく選択することができる。 On the other hand, in the image processing apparatus according to the present embodiment, a plurality of attention region extraction results are obtained from the input image by a plurality of parameter sets suitable for the attention region having a large variation in shape. Further, the optimum extraction result can be efficiently and accurately selected based on the degree of agreement between the attribute of the region of interest obtained from the input image and the attribute obtained from the plurality of extraction results.
上述のことから、本発明の第一の実施形態に係る画像処理装置では、注目領域を高精細で抽出することができる。
(第2の実施形態)
続いて、第二の実施形態に係る画像処理について説明する。本実施形態では、ステップS1110で、パラメータ取得部1015が注目領域の画像所見Fに基づいてパラメータの種類を設定し、ステップS1140で、抽出結果決定部1040は、注目領域の抽出結果を決定する。その後、ステップS1145で、画像所見決定部1045は、注目領域の画像所見Fの値を決定する。そして、表示制御部1055は、決定された画像所見Fを表示部160に表示させることでユーザに提示する。以下、第二の実施形態に係る画像処理について詳述する。
From the above, in the image processing apparatus according to the first embodiment of the present invention, the region of interest can be extracted with high definition.
(Second Embodiment)
Subsequently, the image processing according to the second embodiment will be described. In the present embodiment, in step S1110, the
(機能構成)
図10に基づいて、第二の実施形態に係る画像処理装置200を構成する各機能構成の一例について説明する。画像処理装置200は、本発明の第二の実施形態に係る画像処理を実行する。画像処理装置200は、画像取得部1000、パラメータ設定部1015、領域抽出部1020、整合度算出部1030、抽出結果決定部1040、画像所見決定部1045、表示制御部1050を有する。第一の実施形態に係る画像処理装置100を構成する各部と同様の機能を有する構成には図2と同一の番号を付しており、詳細な説明を省略する。
(Functional configuration)
An example of each functional configuration constituting the
パラメータ取得部1015は、注目領域を抽出するためのパラメータを、注目領域の画像所見項目に基づいて複数個取得する。その後、領域抽出部1020は複数個パラメータを用いて注目領域の抽出を行い、整合度算出部1030はそれぞれの抽出結果と入力画像との整合度を計算する。画像所見決定部1045は、その整合度に基づいて注目領域の抽出結果を決定し、さらに注目領域の前記画像所見項目の値を決定する。
The
(処理フロー)
本発明の第二の実施形態に係る画像処理の一例について説明する。図11は本実施形態の画像処理装置200が実行する処理手順の一例を示す図である。本実施形態は、主メモリ12に格納されている各部の機能を実現するプログラムをCPU11が実行することにより実現される。ステップS2100、S2120、S2130、S2140の処理は図3に示すステップS1100、S1120、S1130、S1140の処理とそれぞれ同様であるため、詳細な説明を省略する。
(Processing flow)
An example of image processing according to the second embodiment of the present invention will be described. FIG. 11 is a diagram showing an example of a processing procedure executed by the
(ステップS2100)
ステップS2100において、画像取得部1000は処理対象画像(入力画像)を取得する。この処理は、ステップS1100と同様の処理であるため、説明を省略する。
(Step S2100)
In step S2100, the
(ステップS2110)
ステップS2110において、パラメータ取得部1015がパラメータ情報を取得する。パラメータ取得部1015は、臨床上の画像所見項目Fに基づいて、注目領域を入力画像から抽出するためのパラメータセットの値を設定する。
(Step S2110)
In step S2110, the
例えば、パラメータ取得部1015が、全体形状という画像所見項目に基づいて、機械学習技術によってパラメータセットを取得する場合を説明する。全体形状に、球形、類球形、分葉形、ポリゴン形、楔系、線形、不整形7つの項目が存在するとする場合、パラメータ取得部1015は、学習データをその7つの項目に従って7個のサブデータセットに分類する。なお、分類数は7に限定されるものではなく、他の数であってもよい。
For example, a case where the
次に、パラメータ取得部1015は、それぞれのデータセットにおける最適な領域抽出パラメータセットを探索する。パラメータセットの探索はステップS1110と同様な処理であるため、説明を省略する。
Next, the
(ステップS2120)
ステップS2120において、領域抽出部1020は、ステップS2100で取得した入力画像と、ステップS2110取得した7個のパラメータセットとに基づいて、複数の肺結節の抽出結果を取得する。この処理は、ステップS1120と同様の処理であるため、説明を省略する。
(Step S2120)
In step S2120, the
(ステップS2130)
ステップS2130において、整合度算出部1030は、ステップS2100で取得した入力画像と、ステップS2120取得した複数の抽出結果に基づいて、整合度を算出する。この処理は、ステップS1130と同様の処理であるため、説明を省略する。
(Step S2130)
In step S2130, the
(ステップS2140)
ステップS2140において、抽出結果決定部1040は、ステップS2130で取得した整合度の計算結果に基づいて、注目領域の抽出結果RsegとRsegを得た際のパラメータである最適抽出パラメータPOPTとを決定する。この処理は、ステップS1140と同様の処理であるため、説明を省略する。
(Step S2140)
In step S2140, the extraction
(ステップS2145)
次に、ステップS2145において、画像所見決定部1045は、注目領域の画像所見を決定する。画像所見決定部1045は、ステップS2140で取得した最適抽出パラメータPOPTが属する上述のサブデータセットの分類に基づいて、注目領域の画像所見Fの値を決定する。例えば、最適抽出パラメータPOPTが分葉形という項目のサブデータセットから得られたパラメータである場合には、画像所見決定部1045は、画像所見Fを分葉形と決定する。すなわち、画像所見決定部1045は、選択手段による選択結果に基づいて、注目領域を表す所見を決定する決定手段の一例に相当する。より具体的には、画像所見決定部1045は、注目領域の形状を表す所見を決定する。
(Step S2145)
Next, in step S2145, the image finding
また、全体形状所見を1つの値に設定するではなく、例えば7つの項目のそれぞれの尤度に設定してもよい。この場合は、例えば7個のパラメータにより取得された抽出結果の整合度を上記尤度とすることができる。 Further, instead of setting the overall shape finding to one value, for example, the likelihood of each of the seven items may be set. In this case, for example, the consistency of the extraction result acquired by the seven parameters can be used as the above-mentioned likelihood.
さらに、上記尤度に加えて、入力画像I(x,y,z)とそれぞれの抽出結果で計算される注目領域の特徴量および、事前に取得した注目領域の臨床情報などを用いて、機械学習の技術によって、全体形状所見の値を決定してもよい。 Further, in addition to the above-mentioned likelihood, the machine uses the input image I (x, y, z), the feature amount of the region of interest calculated from each extraction result, and the clinical information of the region of interest acquired in advance. The value of the overall shape finding may be determined by the learning technique.
(ステップS2150)
ステップS2150では、表示制御部1055は、領域抽出の結果を表示部160に表示させる処理を行う。表示制御部1055は、ステップS2140で決定された注目領域の抽出結果RsegおよびステップS2145で決定された注目領域の所見Fの値に関する情報を画像処理装置100に接続された表示部160に送信し、表示部160に表示させる。抽出結果Rsegの表示はステップS1150と同様の処理であるため、説明を省略する。一方、表示制御部1055は、注目領域の所見Fの値を、Rsegの内部または外部の近傍に表示させる。さらに、ユーザがマウスといった操作部170を介して、Rseg領域を指定する際に所見Fの値を表示させてもよい。
(Step S2150)
In step S2150, the
本発明の第二の実施形態に係る画像処理装置によれば、注目領域を特定することと同時に、注目領域の属性(所見)を提示することができる。 According to the image processing apparatus according to the second embodiment of the present invention, it is possible to specify the region of interest and at the same time present the attributes (findings) of the region of interest.
上述の各実施形態における画像処理装置および画像処理システムは、単体の装置として実現してもよいし、複数の情報処理装置を含む装置を互いに通信可能に組合せて上述の処理を実行する形態としてもよく、いずれも本発明の実施形態に含まれる。共通のサーバ装置あるいはサーバ群で、上述の処理を実行することとしてもよい。この場合、当該共通のサーバ装置は実施形態に係る画像処理装置に対応し、当該サーバ群は実施形態に係る画像処理システムに対応する。画像処理装置および画像処理システムを構成する複数の装置は所定の通信レートで通信可能であればよく、また同一の施設内あるいは同一の国に存在することを要しない。 The image processing device and the image processing system in each of the above-described embodiments may be realized as a single device, or may be a form in which devices including a plurality of information processing devices are combined so as to be able to communicate with each other to execute the above-mentioned processing. Often, both are included in the embodiments of the present invention. The above processing may be executed by a common server device or a group of servers. In this case, the common server device corresponds to the image processing device according to the embodiment, and the server group corresponds to the image processing system according to the embodiment. The image processing device and the plurality of devices constituting the image processing system need not be present in the same facility or in the same country as long as they can communicate at a predetermined communication rate.
本発明の実施形態には、前述した実施形態の機能を実現するソフトウェアのプログラムを、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータが該供給されたプログラムのコードを読みだして実行するという形態を含む。 In the embodiment of the present invention, a software program that realizes the functions of the above-described embodiment is supplied to the system or device, and the computer of the system or device reads and executes the code of the supplied program. Including morphology.
したがって、実施形態に係る処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明の実施形態の一つである。また、コンピュータが読みだしたプログラムに含まれる指示に基づき、コンピュータで稼働しているOSなどが、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。 Therefore, in order to realize the processing according to the embodiment on the computer, the program code itself installed on the computer is also one of the embodiments of the present invention. Further, based on the instruction included in the program read by the computer, the OS or the like running on the computer performs a part or all of the actual processing, and the function of the above-described embodiment can be realized by the processing. ..
上述の実施形態を適宜組み合わせた形態も、本発明の実施形態に含まれる。 An embodiment in which the above-described embodiments are appropriately combined is also included in the embodiment of the present invention.
100 画像処理装置
1000 画像取得部
1010 パラメータ取得部
1020 領域抽出部
1030 整合度算出部
1040 抽出結果決定部
1050 表示制御部
100
Claims (15)
前記抽出結果のそれぞれに基づいて得られる第1特徴量を取得する第1取得手段と、
前記抽出結果を得た方法と異なる方法を用いて、前記医用画像に対する注目領域に対応する第2特徴量を取得する第2取得手段と、
複数の前記第1特徴量と前記第2特徴量との比較を行い、比較結果に基づいて前記複数の抽出結果から1の抽出結果を選択し、選択した前記抽出結果に基づいて前記医用画像における注目領域を特定する選択手段と、
を備えることを特徴とする情報処理装置。 A process of extracting a region of interest for a medical image for each of the parameters using a plurality of different parameters is performed, and a plurality of extraction results indicating whether or not each pixel of the medical image belongs to the extracted region of interest are obtained. and the result acquisition means retrieve,
A first obtaining means for obtaining a first feature amount obtained based on the respective front Ki抽out results,
A second acquisition means for acquiring a second feature amount corresponding to a region of interest for the medical image by using a method different from the method for obtaining the extraction result.
The first feature amount of several to compare with the second feature amount, selects one of the extraction result from the plurality of extraction results based on the comparison result, the medical image based on the extracted result of the selected Selection means to identify the area of interest in
An information processing device characterized by being equipped with.
前記第2取得手段は、前記医用画像に対してLoG(Laplacian of Gaussian)カーネルを適用することにより前記第2特徴量を取得することを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。 Each of the plurality of extraction results is the result of extracting the region of interest by the region expansion method, the Level-set method, the Graph Cut method, or Dynamic programming.
The second acquisition means according to any one of claims 1 to 9, wherein the second acquisition means acquires the second feature amount by applying a LoG (Laplacian of Gaussian) kernel to the medical image. Information processing equipment.
複数の異なるパラメータを用いて、前記パラメータ毎に前記医用画像に対する注目領域をそれぞれ抽出する処理を行い、前記医用画像の各画素が抽出された前記注目領域に属するか否かを示す複数の抽出結果を取得する結果取得手段と、
前記抽出結果のそれぞれに基づいて得られる第1特徴量を取得する第1取得手段と、
前記抽出結果を得た方法と異なる方法を用いて、前記医用画像に対する注目領域に対応する第2特徴量を取得する第2取得手段と、
複数の前記第1特徴量と前記第2特徴量との比較を行い、比較結果に基づいて前記複数の抽出結果から1の抽出結果を選択し、選択した前記抽出結果に基づいて前記医用画像における注目領域を特定する選択手段と、
を備えることを特徴とする情報処理システム。 A means of imaging to obtain a medical image by photographing a subject,
A process of extracting a region of interest for the medical image for each of the parameters using a plurality of different parameters is performed, and a plurality of extraction results indicating whether or not each pixel of the medical image belongs to the extracted region of interest. and taken Tokusuru result acquisition means,
A first obtaining means for obtaining a first feature amount obtained based on the respective front Ki抽out results,
A second acquisition means for acquiring a second feature amount corresponding to a region of interest for the medical image by using a method different from the method for obtaining the extraction result.
The first feature amount of several to compare with the second feature amount, selects one of the extraction result from the plurality of extraction results based on the comparison result, the medical image based on the extracted result of the selected Selection means to identify the area of interest in
An information processing system characterized by being equipped with.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016080649A JP6827707B2 (en) | 2016-04-13 | 2016-04-13 | Information processing equipment and information processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016080649A JP6827707B2 (en) | 2016-04-13 | 2016-04-13 | Information processing equipment and information processing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017189394A JP2017189394A (en) | 2017-10-19 |
JP6827707B2 true JP6827707B2 (en) | 2021-02-10 |
Family
ID=60084264
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016080649A Active JP6827707B2 (en) | 2016-04-13 | 2016-04-13 | Information processing equipment and information processing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6827707B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020044435A1 (en) * | 2018-08-28 | 2020-03-05 | 株式会社島津製作所 | Data analysis method, data analysis device, and learning model creation method for data analysis |
US11934944B2 (en) | 2018-10-04 | 2024-03-19 | International Business Machines Corporation | Neural networks using intra-loop data augmentation during network training |
JP7360651B2 (en) * | 2019-09-30 | 2023-10-13 | 龍一 中原 | Medical image processing device, medical image processing program, and medical image processing method |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0469647A (en) * | 1990-07-10 | 1992-03-04 | Fuji Photo Film Co Ltd | Method for recognizing division pattern of radiograph |
JP3975668B2 (en) * | 2000-10-31 | 2007-09-12 | コニカミノルタホールディングス株式会社 | Feature quantity correctness determination method and image processing apparatus |
JP2003339684A (en) * | 2002-05-28 | 2003-12-02 | Canon Inc | Device, system, and method for processing image, and storage medium |
JP2004351100A (en) * | 2003-05-30 | 2004-12-16 | Konica Minolta Medical & Graphic Inc | System and method for medical image processing |
JP2005270279A (en) * | 2004-03-24 | 2005-10-06 | Canon Inc | Image processor |
JP2006167289A (en) * | 2004-12-17 | 2006-06-29 | Toshiba Corp | Compound diagnostic imaging support system and apparatus, and medical image database creation method |
US7648460B2 (en) * | 2005-08-31 | 2010-01-19 | Siemens Medical Solutions Usa, Inc. | Medical diagnostic imaging optimization based on anatomy recognition |
US20090034810A1 (en) * | 2007-08-03 | 2009-02-05 | Fujifilm Corporation | Abnormal tissue pattern detection apparatus, method and program |
US8311296B2 (en) * | 2007-11-21 | 2012-11-13 | Parascript, Llc | Voting in mammography processing |
JP5197140B2 (en) * | 2008-05-07 | 2013-05-15 | キヤノン株式会社 | X-ray fluoroscopic apparatus, moving image processing method, program, and storage medium |
JP2010082001A (en) * | 2008-09-29 | 2010-04-15 | Toshiba Corp | Image display device |
DE102009022834A1 (en) * | 2009-05-27 | 2010-12-09 | Siemens Aktiengesellschaft | Method for automatic analysis of image data of a structure |
DE112011105116T5 (en) * | 2011-03-30 | 2014-01-23 | General Electric Company | Method and apparatus for image content based automatic brightness detection |
JP5864942B2 (en) * | 2011-07-29 | 2016-02-17 | キヤノン株式会社 | Image processing apparatus and image processing method |
JP5868231B2 (en) * | 2012-03-16 | 2016-02-24 | 株式会社日立製作所 | Medical image diagnosis support apparatus, medical image diagnosis support method, and computer program |
CN103093473A (en) * | 2013-01-25 | 2013-05-08 | 北京理工大学 | Multi-target picture segmentation based on level set |
KR102042202B1 (en) * | 2013-02-25 | 2019-11-08 | 삼성전자주식회사 | Lesion segmentation apparatus and method in medical image |
JP6221770B2 (en) * | 2014-01-24 | 2017-11-01 | コニカミノルタ株式会社 | Image processing apparatus and program |
JP6383182B2 (en) * | 2014-06-02 | 2018-08-29 | キヤノン株式会社 | Image processing apparatus, image processing system, image processing method, and program |
GB2528249B (en) * | 2014-07-11 | 2019-03-06 | Siemens Medical Solutions Usa Inc | Automatic background region selection for lesion delineation in medical images |
-
2016
- 2016-04-13 JP JP2016080649A patent/JP6827707B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017189394A (en) | 2017-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10111713B2 (en) | Surgery assistance apparatus, surgery assistance method and non-transitory computer-readable recording medium having stored therein surgery assistance program | |
EP3035287B1 (en) | Image processing apparatus, and image processing method | |
US8335359B2 (en) | Systems, apparatus and processes for automated medical image segmentation | |
US7773786B2 (en) | Method and apparatus for three-dimensional interactive tools for semi-automatic segmentation and editing of image objects | |
CN112885453A (en) | Method and system for identifying pathological changes in subsequent medical images | |
CN107767962B (en) | Determining result data based on medical measurement data from different measurements | |
EP3206189B1 (en) | Image processing apparatus, image processing method, and program | |
EP3796210A1 (en) | Spatial distribution of pathological image patterns in 3d image data | |
US8805471B2 (en) | Surgery-assistance apparatus, method and program | |
JP6643827B2 (en) | Image processing apparatus, image processing method, and program | |
US10949698B2 (en) | Image processing apparatus, image processing system, image processing method, and storage medium | |
EP3893198A1 (en) | Method and system for computer aided detection of abnormalities in image data | |
JP2010119850A (en) | System, apparatus, and process for automated medical image segmentation using statistical model | |
JP6824845B2 (en) | Image processing systems, equipment, methods and programs | |
JP5832938B2 (en) | Image processing apparatus, method, and program | |
CN107004305A (en) | Medical image editor | |
EP3424017B1 (en) | Automatic detection of an artifact in patient image data | |
US10762636B2 (en) | Systems and methods for volumetric segmentation of structures in planar medical images | |
JP6458166B2 (en) | MEDICAL IMAGE PROCESSING METHOD, DEVICE, SYSTEM, AND PROGRAM | |
US8907949B2 (en) | Image display apparatus, method and program | |
WO2018088055A1 (en) | Image processing device, image processing method, image processing system, and program | |
JP6827707B2 (en) | Information processing equipment and information processing system | |
CN115861656A (en) | Method, apparatus and system for automatically processing medical images to output an alert | |
CN117711576A (en) | Method and system for providing a template data structure for medical reports | |
JP7321671B2 (en) | Information processing device, information processing method, information processing system and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190313 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200303 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20200501 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200701 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201222 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210120 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6827707 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |