JP6827707B2 - Information processing equipment and information processing system - Google Patents

Information processing equipment and information processing system Download PDF

Info

Publication number
JP6827707B2
JP6827707B2 JP2016080649A JP2016080649A JP6827707B2 JP 6827707 B2 JP6827707 B2 JP 6827707B2 JP 2016080649 A JP2016080649 A JP 2016080649A JP 2016080649 A JP2016080649 A JP 2016080649A JP 6827707 B2 JP6827707 B2 JP 6827707B2
Authority
JP
Japan
Prior art keywords
region
extraction
interest
information processing
result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016080649A
Other languages
Japanese (ja)
Other versions
JP2017189394A (en
Inventor
斌 陳
斌 陳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016080649A priority Critical patent/JP6827707B2/en
Publication of JP2017189394A publication Critical patent/JP2017189394A/en
Application granted granted Critical
Publication of JP6827707B2 publication Critical patent/JP6827707B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)

Description

開示の技術は、情報処理装置および情報処理システムに関する。 The disclosed technology relates to information processing devices and information processing systems.

近年、医療現場ではコンピュータ断層撮影(CT)画像、核磁気共鳴(MR)画像など多くの医用画像が活用されるようになってきている。それに伴い、医師が数百枚の医用画像をもとに診断を行ったり、治療方針を検討したりする、いわゆる読影と呼ばれる作業の負荷が増加している。そこで、コンピュータで医用画像を解析して得られる情報を診断の助けとするコンピュータ診断支援(Computer Aided Diagnosis: CAD)に関する技術への期待が高まっている。かかる技術においては、臓器・病変の特徴を解析したり、病変の良悪性を鑑別したりするために、腫瘍などの注目領域を特定して抽出することが必要となる。しかし、前記医用画像における注目領域は形状、画素値(濃度)分布、周辺領域との関係などのバリエーションが大きいという特徴がある。よって、このようにバリエーションが大きい注目領域を抽出するには、複数の抽出アルゴリズムまたは複数の抽出パラメータを用意する必要がある。 In recent years, many medical images such as computed tomography (CT) images and nuclear magnetic resonance (MR) images have come to be used in medical practice. Along with this, the load of work called image interpretation, in which a doctor makes a diagnosis based on hundreds of medical images and examines a treatment policy, is increasing. Therefore, there are increasing expectations for a technology related to computer-aided diagnosis (CAD) that uses information obtained by analyzing a medical image with a computer as an aid in diagnosis. In such a technique, in order to analyze the characteristics of organs / lesions and distinguish between benign and malignant lesions, it is necessary to identify and extract a region of interest such as a tumor. However, the region of interest in the medical image is characterized in that there are large variations in shape, pixel value (density) distribution, relationship with the peripheral region, and the like. Therefore, in order to extract a region of interest having such a large variation, it is necessary to prepare a plurality of extraction algorithms or a plurality of extraction parameters.

特許文献1複数のパラメータ候補に基づいて得られた複数の画像解析処理の結果からユーザに少なくとも1つの結果を手動で選択してもらう技術が開示されている。 Patent Document 1 Discloses a technique for allowing a user to manually select at least one result from the results of a plurality of image analysis processes obtained based on a plurality of parameter candidates.

特開2008−104798号公報Japanese Unexamined Patent Publication No. 2008-104798

しかしながら、手動で処理結果を選択することはユーザの負担となる。 However, it is a burden on the user to manually select the processing result.

開示の情報処理装置は、複数の異なるパラメータを用いて、前記パラメータ毎に医用画像に対する注目領域をそれぞれ抽出する処理を行い、前記医用画像の各画素が抽出された前記注目領域に属するか否かを示す複数の抽出結果を取得する結果取得手段と、前記抽出結果のそれぞれに基づいて得られる第1特徴量を取得する第1取得手段と、前記抽出結果を得た方法と異なる方法を用いて、前記医用画像に対する注目領域に対応する第2特徴量を取得する第2取得手段と、数の前記第1特徴量と前記第2特徴量との比較を行い、比較結果に基づいて前記複数の抽出結果から1の抽出結果を選択し、選択した前記抽出結果に基づいて前記医用画像における注目領域を特定する選択手段と、を備える。 The disclosed information processing apparatus uses a plurality of different parameters to perform processing for extracting a region of interest for a medical image for each of the parameters, and whether or not each pixel of the medical image belongs to the extracted region of interest. a result obtaining unit that acquire a plurality of extraction results showing, before the first obtaining means for obtaining a first feature amount obtained based on the respective Ki抽out results, a method different from the method to obtain the extraction result using the second acquisition means for acquiring second characteristic amount corresponding to the region of interest for medical images, it makes a comparison between the first feature amount of more than the second feature amount, based on the comparison result The present invention includes a selection means for selecting one extraction result from the plurality of extraction results and specifying a region of interest in the medical image based on the selected extraction result .

開示の技術によれば、医用画像から得られた注目領域の複数の抽出結果から適切な抽出結果を選択する際のユーザの負担を軽減することが可能となる。 According to the disclosed technique, it is possible to reduce the burden on the user when selecting an appropriate extraction result from a plurality of extraction results of the region of interest obtained from the medical image.

第1実施形態に係る画像処理システムの装置構成の一例を示す図である。It is a figure which shows an example of the apparatus configuration of the image processing system which concerns on 1st Embodiment. 第1実施形態に係る画像処理システムの機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of the image processing system which concerns on 1st Embodiment. 第1実施形態に係る画像処理装置100の画像処理の処理手順の一例を示す図である。It is a figure which shows an example of the processing procedure of the image processing of the image processing apparatus 100 which concerns on 1st Embodiment. 第1実施形態に係るパラメータ情報の設定方法の一例を説明する図である。It is a figure explaining an example of the setting method of the parameter information which concerns on 1st Embodiment. 第1実施形態に係る抽出結果群の取得方法の一例を説明する図である。It is a figure explaining an example of the acquisition method of the extraction result group which concerns on 1st Embodiment. 第1実施形態に係る整合度の算出方法の一例を説明する第一の図である。FIG. 1 is a first diagram illustrating an example of a method for calculating consistency according to the first embodiment. 第1実施形態に係る整合度の算出方法の一例を説明する第二の図である。FIG. 2 is a second diagram illustrating an example of a method for calculating consistency according to the first embodiment. 第1実施形態に係る整合度の算出方法の一例を説明する第三の図である。FIG. 3 is a third diagram illustrating an example of a method for calculating consistency according to the first embodiment. 第1実施形態に係る整合度の算出方法の一例を説明する第四の図であるFIG. 4 is a fourth diagram illustrating an example of a method for calculating consistency according to the first embodiment. 第2実施形態に係る画像処理システムの機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of the image processing system which concerns on 2nd Embodiment. 第2実施形態に係る画像処理装置200の処理手順の一例を示す図である。It is a figure which shows an example of the processing procedure of the image processing apparatus 200 which concerns on 2nd Embodiment.

以下、図面を参照して、本発明の実施形態を詳しく説明する。ただし、この実施形態に記載されている構成要素はあくまで一例であり、本発明の技術的範囲は、特許請求の範囲によって確定されるのであって、以下の個別の実施形態によって限定されるわけではない。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. However, the components described in this embodiment are merely examples, and the technical scope of the present invention is determined by the scope of claims and is not limited by the following individual embodiments. Absent.

(第1の実施形態)
(概要)
本実施形態に係る画像処理装置は、対象症例の医用画像(入力画像)から、臓器や腫瘍などの被検体の所定の解剖学的部位が存在する領域(注目領域)を抽出する。このとき、本装置は、注目領域の抽出に用いる抽出パラメータを複数個設定し,それぞれのパラメータを用いて入力画像から注目領域の抽出処理を実施する。その後、抽出処理を行う前の入力画像における注目領域と想定される領域の属性(第2属性)および、抽出処理によって取得された複数の抽出結果の属性(第1属性)をそれぞれ計算する。第2属性1と複数の第1属性との一致度(整合度)に基づいて、実際の注目領域に最も整合する抽出結果を選択する。このような方法により、形状や濃度分布のバリエーションが大きい注目領域であっても、自動的に最適な領域抽出結果を選択することができる。なお、第1属性は第1特徴量の一例に相当し、第2属性は第2特徴量の一例に相当する。
(First Embodiment)
(Overview)
The image processing apparatus according to the present embodiment extracts a region (area of interest) in which a predetermined anatomical site of a subject such as an organ or a tumor exists from a medical image (input image) of a target case. At this time, the present apparatus sets a plurality of extraction parameters used for extracting the region of interest, and performs extraction processing of the region of interest from the input image using each parameter. After that, the attributes of the region of interest (second attribute) in the input image before the extraction process and the attributes of the plurality of extraction results acquired by the extraction process (first attribute) are calculated. Based on the degree of coincidence (consistency) between the second attribute 1 and the plurality of first attributes, the extraction result most consistent with the actual region of interest is selected. By such a method, the optimum region extraction result can be automatically selected even in the region of interest where the variation in shape and density distribution is large. The first attribute corresponds to an example of the first feature amount, and the second attribute corresponds to an example of the second feature amount.

以下の説明では、CT画像に写った肺結節を処理対象とする場合について説明するが、本発明の適用範囲は、特定の対象臓器、異常陰影の種類、及びモダリティの種類に限定されるものではない。以下、具体的な装置構成、機能構成および処理手順を説明する。 In the following description, the case where the lung nodule shown in the CT image is to be processed will be described, but the scope of application of the present invention is not limited to a specific target organ, a type of abnormal shadow, and a type of modality. Absent. Hereinafter, specific device configurations, functional configurations, and processing procedures will be described.

(装置構成)
図1に基づいて本発明の第一の実施形態に係る画像処理装置100及び、画像処理装置100と接続される各装置から構成される画像処理システム190について詳しく説明する。なお、画像処理装置100は情報処理装置の一例に相当する。また、画像処理システム190は情報処理システムの一例に相当する。
(Device configuration)
An image processing device 100 according to the first embodiment of the present invention and an image processing system 190 composed of each device connected to the image processing device 100 will be described in detail with reference to FIG. The image processing device 100 corresponds to an example of an information processing device. The image processing system 190 corresponds to an example of an information processing system.

画像処理システム190において、画像処理装置100は、入力画像を取得し、当該入力画像に写った注目領域を画像処理により抽出する。画像処理システム190は、被検体の画像を撮影する画像撮影装置110と、撮影された画像を記憶するデータサーバ120と、画像処理を行う画像処理装置100と、取得された入力画像及び画像処理結果を表示する表示部160と、ユーザからの指示を入力するための操作部170とを有する。入力画像とは、画像撮影装置110により取得された画像データを、例えば、診断に好適な画像とするための画像処理等を施して得られる画像である。また、画像処理装置100、画像撮影装置110、データサーバ120、表示部160および操作部170は有線または無線を介して相互に通信可能に接続されている。なお、表示部160は画像処理装置100と別体であってもよいし画像処理装置100と一体に備えられていてもよい。以下、各部について説明する。 In the image processing system 190, the image processing device 100 acquires an input image and extracts a region of interest reflected in the input image by image processing. The image processing system 190 includes an image capturing device 110 that captures an image of a subject, a data server 120 that stores the captured image, an image processing device 100 that performs image processing, and acquired input images and image processing results. It has a display unit 160 for displaying the above and an operation unit 170 for inputting an instruction from the user. The input image is an image obtained by subjecting the image data acquired by the image capturing apparatus 110 to, for example, image processing for making an image suitable for diagnosis. Further, the image processing device 100, the image capturing device 110, the data server 120, the display unit 160, and the operation unit 170 are connected to each other so as to be able to communicate with each other via wired or wireless. The display unit 160 may be separate from the image processing device 100, or may be provided integrally with the image processing device 100. Each part will be described below.

画像処理装置100は、例えばコンピュータ(情報処理装置)であり、本実施形態に係る画像処理を行う。画像処理装置100は、中央演算処理装置(CPU:Central Processing Unit)11、主メモリ12、磁気ディスク13、表示メモリ14を有する。CPU11は、画像処理装置100の各構成要素の動作を統合的に制御する。 The image processing device 100 is, for example, a computer (information processing device), and performs image processing according to the present embodiment. The image processing device 100 includes a central processing unit (CPU: Central Processing Unit) 11, a main memory 12, a magnetic disk 13, and a display memory 14. The CPU 11 integrally controls the operation of each component of the image processing device 100.

CPU11の制御により、画像処理装置100が画像撮影装置110の動作も併せて制御するようにしてもよい。主メモリ12は、CPU11が実行する制御プログラムを格納し、CPU11によるプログラム実行時の作業領域を提供する。磁気ディスク13は、オペレーティングシステム(OS:Operating System)、周辺機器のデバイスドライバ、後述する本実施形態に係る画像処理を行うためのプログラムを含む各種アプリケーションソフトウェアを格納する。表示メモリ14は、表示部160に表示するデータを一時的に格納する。表示部160は、例えば液晶モニタであり、表示メモリ14からの出力に基づいて画像を表示する。操作部170は、例えばマウスやキーボードであり、操作者による位置情報の入力や文字等の入力を行う。表示部160は操作入力を受け付けるタッチパネルモニタであってもよく、操作部170はスタイラスペンであってもよい。上記の各構成要素は共通バス18により互いに通信可能に接続されている。 The image processing device 100 may also control the operation of the image capturing device 110 by controlling the CPU 11. The main memory 12 stores a control program executed by the CPU 11 and provides a work area when the program is executed by the CPU 11. The magnetic disk 13 stores various application software including an operating system (OS: Operating System), device drivers for peripheral devices, and a program for performing image processing according to the present embodiment described later. The display memory 14 temporarily stores data to be displayed on the display unit 160. The display unit 160 is, for example, a liquid crystal monitor, and displays an image based on the output from the display memory 14. The operation unit 170 is, for example, a mouse or a keyboard, and the operator inputs position information and characters. The display unit 160 may be a touch panel monitor that accepts operation input, and the operation unit 170 may be a stylus pen. Each of the above components is communicably connected to each other by a common bus 18.

画像撮影装置110は、例えば、コンピュータ断層撮影装置(CT:Computed Tomography)、核磁気共鳴映像装置(MRI:Magnetic Resonance Imaging)または2次元の放射線画像を撮像する放射線撮影装置(DR:Digital Radiography)などである。画像撮影装置110は取得した画像をデータサーバ120へ送信する。画像撮影装置110を制御する不図示の撮影制御部が、画像処理装置100に含まれていてもよい。この撮影制御部は、例えば、撮影オーダーに基づいて画像撮影装置110による撮影を制御し、撮影した画像をデータサーバ120へ送信する。 The imaging device 110 is, for example, a computer tomography device (CT: Computed Tomography), a nuclear magnetic resonance imaging device (MRI), a radiography device (DR) for capturing a two-dimensional radiograph, or the like. Is. The image capturing device 110 transmits the acquired image to the data server 120. An imaging control unit (not shown) that controls the image capturing apparatus 110 may be included in the image processing apparatus 100. The imaging control unit controls imaging by the image capturing device 110 based on the imaging order, and transmits the captured image to the data server 120, for example.

データサーバ120は、画像撮影装置110が撮影した画像を保持する。データサーバ120は、例えばPACS(Picture Archiving and Communication System)サーバである。画像処理装置100は、LAN(Local Area Network)等のネットワークを介してデータサーバ120から画像を取得する。 The data server 120 holds an image captured by the image capturing device 110. The data server 120 is, for example, a PACS (Picture Archiving and Communication System) server. The image processing device 100 acquires an image from the data server 120 via a network such as a LAN (Local Area Network).

(機能構成)
次に、図2に基づいて画像処理装置100の機能構成の一例について説明する。主メモリ12に格納されたプログラムをCPU11が実行することにより、図2に示した各部の機能が実現される。画像処理装置100は、画像取得部1000、パラメータ取得部1010、領域抽出部1020、整合度算出部1030、抽出結果決定部1040、表示制御部1050を有する。なお、画像処理装置100が備えるCPUは複数であってもよく、プログラムは複数のメモリに分散して記憶されていてもよい。また、プログラムを実行する主体はCPUに限らない。すなわち、少なくとも1以上のプロセッサが少なくとも1以上のメモリに記憶されたプログラムを実行することで、図2に示す各機能が実現される。
(Functional configuration)
Next, an example of the functional configuration of the image processing apparatus 100 will be described with reference to FIG. When the CPU 11 executes the program stored in the main memory 12, the functions of each part shown in FIG. 2 are realized. The image processing device 100 includes an image acquisition unit 1000, a parameter acquisition unit 1010, an area extraction unit 1020, a consistency calculation unit 1030, an extraction result determination unit 1040, and a display control unit 1050. The image processing device 100 may have a plurality of CPUs, and the programs may be distributed and stored in a plurality of memories. Further, the main body that executes the program is not limited to the CPU. That is, each function shown in FIG. 2 is realized by executing a program stored in at least one memory by at least one or more processors.

画像取得部1000は、本実施形態に係る画像処理の対象とする医用画像(入力画像)をデータサーバ120から取得する。 The image acquisition unit 1000 acquires a medical image (input image) to be image-processed according to the present embodiment from the data server 120.

パラメータ取得部1010は、注目領域を抽出するためのパラメータを複数個取得する。例えば、パラメータ取得部1010は、主メモリ12から機械学習などで予め得られたパラメータを取得する。また、パラメータ取得部1010は、操作部170を介してユーザにより入力されたパラメータを取得することとしてもよい。 The parameter acquisition unit 1010 acquires a plurality of parameters for extracting the region of interest. For example, the parameter acquisition unit 1010 acquires parameters obtained in advance by machine learning or the like from the main memory 12. Further, the parameter acquisition unit 1010 may acquire the parameters input by the user via the operation unit 170.

領域抽出部1020は、パラメータ取得部1010が取得した複数個のパラメータを用いて、入力画像から注目領域を抽出する処理を行い,複数個の抽出結果(注目領域を示すラベル画像)を取得する。より具体的には、領域抽出部1020は、同じ注目領域に対してパラメータを変更しながら複数回抽出処理を行うことで、それぞれのパラメータに対応した複数の抽出結果を取得する。すなわち、領域抽出部1020は、医用画像に含まれる注目領域の抽出結果を複数取得する結果取得手段の一例に相当する。 The area extraction unit 1020 performs a process of extracting a region of interest from an input image using a plurality of parameters acquired by the parameter acquisition unit 1010, and acquires a plurality of extraction results (label images indicating the region of interest). More specifically, the region extraction unit 1020 acquires a plurality of extraction results corresponding to each parameter by performing the extraction process a plurality of times while changing the parameters for the same region of interest. That is, the region extraction unit 1020 corresponds to an example of a result acquisition means for acquiring a plurality of extraction results of the region of interest included in the medical image.

整合度算出部1030は、まず、領域抽出部1020が取得した複数の抽出結果の特徴(第1属性)と、画像取得部1000が取得した入力画像における注目領域の特徴(第2属性)とを計算する。整合度算出部1030は注目領域の複数の抽出結果それぞれの特徴を計算する。すなわち、整合度算出部1030は複数の第1属性を計算する。この整合度算出部1030は、複数の抽出結果をそれぞれ表す複数の第1特徴量を取得する第1取得手段の一例に相当する。また、整合度算出部1030は、例えばLaplacian of Gaussian(LoG)カーネルのスケールスペースを用いて、医用画像から注目領域の概略形状(大きさ)を示す第2属性を計算する。すなわち、整合度算出部1030は、抽出結果を得た方法と異なる方法を用いて注目領域を表す第2特徴量を取得する第2取得手段の一例に相当する。 The consistency calculation unit 1030 first obtains the characteristics (first attribute) of the plurality of extraction results acquired by the region extraction unit 1020 and the characteristics (second attribute) of the region of interest in the input image acquired by the image acquisition unit 1000. calculate. The consistency calculation unit 1030 calculates the characteristics of each of the plurality of extraction results of the region of interest. That is, the consistency calculation unit 1030 calculates a plurality of first attributes. The consistency calculation unit 1030 corresponds to an example of a first acquisition means for acquiring a plurality of first feature quantities representing a plurality of extraction results. Further, the consistency calculation unit 1030 calculates a second attribute indicating the approximate shape (size) of the region of interest from the medical image using, for example, the scale space of the Laplacian of Gaussian (LoG) kernel. That is, the consistency calculation unit 1030 corresponds to an example of the second acquisition means for acquiring the second feature amount representing the region of interest by using a method different from the method for obtaining the extraction result.

また、整合度算出部1030は、複数個の第1属性のそれぞれに対して、第2属性との一致度(整合度)を計算する。すなわち、整合度算出部1030は複数個の整合度を取得する。 In addition, the consistency calculation unit 1030 calculates the degree of coincidence (consistency) with the second attribute for each of the plurality of first attributes. That is, the consistency calculation unit 1030 acquires a plurality of consistencys.

抽出結果決定部1040は、例えば、整合度算出部1030が計算した複数個の整合度に基づいて、複数個の整合度のうち最も整合度の高い抽出結果を注目領域の抽出結果に決定する。すなわち、抽出結果決定部1040は、複数の第1特徴量と第2特徴量との比較に基づいて複数の抽出結果から1の抽出結果を選択する選択手段の一例に相当する。 The extraction result determination unit 1040 determines, for example, the extraction result having the highest consistency among the plurality of consistency as the extraction result of the region of interest, based on the plurality of consistency calculated by the consistency calculation unit 1030. That is, the extraction result determination unit 1040 corresponds to an example of a selection means for selecting one extraction result from a plurality of extraction results based on a comparison between the plurality of first feature amounts and the second feature amount.

表示制御部1050は、抽出結果決定部1040が決定した注目領域の抽出結果を表示部160に出力し、表示部160にその抽出結果を表示させる。表示制御部1050は、選択手段による選択結果を表示部に表示させる表示制御手段の一例に相当する。 The display control unit 1050 outputs the extraction result of the region of interest determined by the extraction result determination unit 1040 to the display unit 160, and causes the display unit 160 to display the extraction result. The display control unit 1050 corresponds to an example of the display control means for displaying the selection result by the selection means on the display unit.

なお、画像処理装置100が有する各部の少なくとも一部を独立した装置として実現してもよい。画像処理装置100はワークステーションでもよい。各部の機能はコンピュータ上で動作するソフトウェアとして実現してもよく、各部の機能を実現するソフトウェアは、クラウドをはじめとするネットワークを介したサーバ上で動作してもよい。以下に説明する本実施形態では、各部はローカル環境に設置したコンピュータ上で動作するソフトウェアによりそれぞれ実現されているものとする。 At least a part of each part of the image processing device 100 may be realized as an independent device. The image processing device 100 may be a workstation. The functions of each part may be realized as software that operates on a computer, and the software that realizes the functions of each part may be realized on a server via a network such as a cloud. In the present embodiment described below, it is assumed that each part is realized by software running on a computer installed in a local environment.

(処理フロー)
続いて、上記のように構成された画像処理の動作について説明する。図3は、本実施形態の画像処理装置100が実行する画像処理の処理手順の一例を示す図である。本実施形態では、入力画像はCT画像であるとする。CT画像は3次元濃淡画像として取得される。また、本実施形態では入力画像に写った注目領域は肺結節であるとする。なお、入力画像および注目領域は上記の例に限定されるものではない。
(Processing flow)
Subsequently, the operation of the image processing configured as described above will be described. FIG. 3 is a diagram showing an example of an image processing processing procedure executed by the image processing apparatus 100 of the present embodiment. In the present embodiment, the input image is a CT image. The CT image is acquired as a three-dimensional shade image. Further, in the present embodiment, the region of interest shown in the input image is a lung nodule. The input image and the region of interest are not limited to the above example.

(ステップS1100)
ステップS1100において、画像取得部1000は入力画像を取得する。すなわち、画像取得部1000はCT画像をデータサーバ120から取得し、画像処理装置100の主メモリ12上に記憶する。別の例では、画像取得部1000は画像撮影装置110で撮影した画像データを通信手段を介して直接取得し、診断に好適な画像とするための画像処理等を施した医用画像を、本実施形態に係る入力画像として取得する。画像撮影装置110が例えばCT装置であった場合、画像撮影装置110からHU(Hounsfield Unit)値と呼ばれる画素値から成る画像データを取得する。
(Step S1100)
In step S1100, the image acquisition unit 1000 acquires an input image. That is, the image acquisition unit 1000 acquires the CT image from the data server 120 and stores it in the main memory 12 of the image processing device 100. In another example, the image acquisition unit 1000 directly acquires the image data captured by the image capturing device 110 via a communication means, and performs the present medical image subjected to image processing or the like to obtain an image suitable for diagnosis. It is acquired as an input image related to the form. When the image capturing device 110 is, for example, a CT device, image data composed of pixel values called HU (Hounsfield Unit) values is acquired from the image capturing device 110.

ここで、本実施形態における入力画像は、3次元直交座標(x,y,z)によって位置が特定できる複数の画素により構成される。画像の属性の一つである画素サイズは、3軸の座標方向それぞれに対して定義される。本実施形態では、x,y,zの各方向に対する画素サイズを、r_size_x,r_size_y,r_size_zと記すこととし、いずれの値も1.0mmである場合の例を説明する。入力画像の各画素値は3次元座標(x,y,z)の値毎に決定されるため、入力画像を、3次元座標値を引数とする関数I(x,y,z)によって定義されるデータと見なすことができる。 Here, the input image in the present embodiment is composed of a plurality of pixels whose positions can be specified by three-dimensional Cartesian coordinates (x, y, z). The pixel size, which is one of the attributes of an image, is defined for each of the three coordinate directions. In the present embodiment, the pixel sizes in each of the x, y, and z directions are described as r_size_x, r_size_y, and r_size_z, and an example in which all the values are 1.0 mm will be described. Since each pixel value of the input image is determined for each value of the three-dimensional coordinates (x, y, z), the input image is defined by the function I (x, y, z) having the three-dimensional coordinate values as arguments. Can be regarded as data.

(ステップS1110)
ステップS1110において、パラメータ取得部1010は、注目領域の抽出用パラメータに関する情報(パラメータ情報)を取得する。パラメータ取得部1010が注目領域を入力画像から抽出するためのパラメータをN個取得する時、各パラメータをP(i=1,2,...,N)とする。
(Step S1110)
In step S1110, the parameter acquisition unit 1010 acquires information (parameter information) regarding the extraction parameter of the region of interest. When the parameter for the parameter obtaining unit 1010 extracts a region of interest from the input image N P pieces to obtain, each parameter P i (i = 1,2, ... , N p) and.

なお、医用画像から注目領域を抽出する方法として、領域拡張法、Level−set法、Graph cut法またはWater flow、Dynamic Programmingなどの手法を用いることができる。よって、ここでのパラメータPは、例えば領域拡張法を利用する場合のしきい値(1種類の係数)を表すことができる。また、抽出手法としてGraph cut法を用いる場合、Graph cut法に用いられるエネルギー関数Eにはデータ項の係数Pと平滑化項の係数Pとの2種類の係数が含まれるため、各パラメータPをP=(Pid,PiS)(i=1,2,...,N)として定義してもよい。 As a method for extracting a region of interest from a medical image, a region expansion method, a level-set method, a Graph cut method, or a method such as Water flow or Dynamic programming can be used. Thus, the parameter P i in this case can be expressed, for example the threshold (one factor) in the case of utilizing a region growing technique. In the case of using the Graph cut method as the extraction method, since the energy function E for use in Graph cut method includes two types of coefficients of the coefficient P S of the coefficient P d and smoothing term data section, each parameter P i may be defined as P i = (P id , P iS ) (i = 1, 2, ..., N p ).

上記のように、抽出手法に応じて、1つのパラメータには、複数種類の係数が含まれる場合があるため、以下ではPをパラメータセットと記述する。このように、本ステップで取得されるパラメータ情報は、注目領域の抽出に用いられるパラメータセットの個数N及びそれぞれのパラメータセットPの具体的な値となる。 As described above, according to the extraction method, the one parameter, because it may contain multiple types of coefficients, referred to as the parameter set P i in the following. Thus, the parameter information acquired in this step, a specific value of the number of parameter sets N P and the respective parameter set P i to be used in the extraction of the region of interest.

各パラメータセットの具体的な値は、臨床診断上のルールに応じて決定されてもよい。画像診断の臨床において、肺結節内の画素値の分布に応じて、肺結節を充実性結節(SN,Solid nodules)と、すりガラス状結節(GGN, ground−glass nodules)に分類している。さらに、肺結節内の部分領域を、軟部組織領域、石灰化領域、空気領域などに分類することがある。このような様々なタイプの肺結節領域を識別するために利用される部分領域内の平均濃度値を、領域拡張に基づく抽出手法でのパラメータセット(しきい値)として利用することができる。パラメータセット数Nは、ユーザの経験または、取り組む課題に応じて決定できる。例えば、SNとGGNとの2種類の肺結節を別々のパラメータセットで抽出したい場合は、N=2となる。 Specific values for each parameter set may be determined according to clinical diagnostic rules. In clinical imaging, lung nodules are classified into solid nodules (SN, Solid nodules) and ground-glass nodules (GGN, ground-glass nodules) according to the distribution of pixel values in the lung nodules. In addition, partial regions within lung nodules may be classified into soft tissue regions, calcified regions, air regions, and the like. The average concentration value in the partial region used to identify these various types of lung nodule regions can be used as a parameter set (threshold value) in the extraction method based on region expansion. The number of parameter sets N P can be determined according to the user's experience or the task to be tackled. For example, if you want to extract two types of lung nodules between SN and GGN in separate parameter set, and N P = 2.

また、パラメータ取得部1010は、Nと各パラメータセットの値とを、機械学習を用いて、肺結節領域の抽出精度に基づいて事前に決めることとしてもよい。すなわち、複数の異なるパラメータは、注目領域の抽出精度を利用した機械学習により得られる。本実施形態では、肺結節の領域抽出を、Graph cut法によって実施することを例として説明する。肺結節の正解領域が事前に分かっている(医師が手作業で正解ラベルを与えている)T個の学習症例に対して、パラメータ取得部1010はGraph cut法のパラメータセットP=(P,P)の係数PとPとの値をある範囲で変動させ、領域抽出部1020による抽出処理を行う。なお、係数PとPとの値は手動または自動により変動させられる。その際、パラメータセットの総数をnとし、それぞれのパラメータセットをP(I=1,2,...,n)で表す。各々のパラメータセットには、形状や濃度値分布などの得意な抽出対象領域があるため、n個のパラメータセットのうち、1つのみを用いることでは、すべての症例で対象領域を精度よく抽出することが困難である。そのため、n個のパラメータセットP(I=1,2,...,n)から複数個(N)パラメータセットP(i=1,2,...,N)を選択して組み合わせる必要がある。なお、N≦nである。 Further, the parameter obtaining unit 1010, the value of N P and each parameter set, using a machine learning, may be determined in advance based on the extraction accuracy of the lung nodule region. That is, a plurality of different parameters are obtained by machine learning using the extraction accuracy of the region of interest. In this embodiment, the region extraction of the lung nodule will be described as an example by performing the Graph cut method. For T learning cases in which the correct region of the lung nodule is known in advance (the doctor manually gives the correct label), the parameter acquisition unit 1010 uses the Graph cut method parameter set P = (P d ,). varied within a certain range the value of the coefficient P d and P S of P S), performing the extracting process by the region extracting unit 1020. The value of the coefficient P d and P S is varied manually or automatically. At that time, the total number of parameter sets is n, representing each of the parameter set P I (I = 1,2, ... , n) in. Since each parameter set has an extraction target area that is good at such as shape and density value distribution, by using only one of the n parameter sets, the target area can be extracted accurately in all cases. Is difficult. Therefore, n number of the parameter set P I (I = 1,2, ... , n) a plurality of (N P) parameter set P i (i = 1,2, ... , N p) Select Must be combined. In addition, N P ≦ n.

パラメータ取得部1010がn個のパラメータセットからN個を選択して組み合わせる際、全組み合わせから1つ最適な組み合わせを選択する必要がある。まず、領域抽出部1020はそれぞれの組み合わせを全T症例に適用して抽出処理を行い、パラメータ取得部1010は抽出精度の平均一致度を計算する。そのとき、例えば、パラメータセット組み合わせP(i=1,2,...,N)を全T症例に適用する際、得られた平均一致度を When the parameter obtaining unit 1010 selecting and combining N P pieces of n parameter set, it is necessary to select one optimal combination from all combinations. First, the region extraction unit 1020 applies each combination to all T cases to perform extraction processing, and the parameter acquisition unit 1010 calculates the average degree of agreement of extraction accuracy. At that time, for example, when the parameter set combination Pi (i = 1, 2, ..., N p ) is applied to all T cases, the average degree of agreement obtained is calculated.

Figure 0006827707

とする。ここで、tはT症例中の任意の症例Caseを表し、Rは症例Caseにおける抽出精度の評価値である。ここで、抽出精度の評価値Rとは、例えば、症例Caseで得た最も高い抽出精度である。Pに属するそれぞれのパラメータセットによって得た症例Caseの抽出結果の精度(症例Caseの正解領域との一致度)をRtiとする際、Rは以下の式
Figure 0006827707

And. Here, t represents an arbitrary case Case t in the T case, and R t is an evaluation value of the extraction accuracy in the case Case t . Here, the evaluation value R t of the extraction accuracy is, for example, the highest extraction accuracy obtained in the case case t . When each of the parameter sets of extraction results of cases Case t obtained by the precision belonging to P i (the degree of coincidence between correct region of cases Case t) and R ti, R t is the following formula

Figure 0006827707

によって計算され、N個の抽出結果の中から抽出精度が最も高いものが選択される。
Figure 0006827707

Is calculated by, with the highest extraction precision from the N P-number of the extraction result is selected.

パラメータ取得部1010は、式1に示す平均一致度が最も高いときの組みあわせPをパラメータセット数がNであるときの最適組み合わせとする。そして、パラメータ取得部1010は、最適組み合わせによる平均一致度を評価値Eとする。なお、パラメータ取得部1010は、評価値Eを平均一致度以外に、全T症例に渡る最大一致度または最小一致度に基づいて決定してもよい。 Parameter acquisition unit 1010, a combination P i of when the highest average degree of coincidence represented by Formula 1 parameter set number is the optimum combination of time is N p. Then, the parameter acquisition unit 1010 sets the average degree of agreement by the optimum combination as the evaluation value E. The parameter acquisition unit 1010 may determine the evaluation value E based on the maximum or minimum degree of agreement over all T cases, in addition to the average degree of agreement.

一般的に、パラメータセット数Nの値が大きいほど評価値Eが高くなる。しかし、計算時間および処理の複雑度などの要素を総合的に考慮する上、Nを適切な値に決める必要がある。例えば、全ての学習症例に対して、Nの数を1から増加させながら領域抽出部1020が抽出処理を行う。パラメータ取得部1010は、Nの増加によって生じる評価値Eの向上量が所定値以下になる(収束する)ときのNを、最終のパラメータセット数として決定することとしてもよい。 In general, the larger the value of the number of parameter sets N P , the higher the evaluation value E. However, overall the consideration factors such as computational time and processing complexity, it is necessary to determine the N P to an appropriate value. For example, with respect to all the learning cases, the region extraction unit 1020 while increasing the number of N P 1 is the extraction process. Parameter acquisition unit 1010, the N P when the increase amount of the evaluation value E caused by the increase in N P is equal to or lower than a predetermined value (converged), it may be determined as the final parameter set number.

機械学習による抽出用パラメータセットの設定は、抽出結果の一致度のみではなく、注目領域の特徴に基づいて行われることとしてもよい。例えば、パラメータ取得部1010が、注目領域の形状特徴に基づいてパラメータを設定する場合を説明する。 The setting of the extraction parameter set by machine learning may be performed based not only on the degree of agreement of the extraction results but also on the characteristics of the region of interest. For example, the case where the parameter acquisition unit 1010 sets the parameter based on the shape feature of the region of interest will be described.

図4に示すように、学習症例500は、形状によって3つのデータセットに分類されている。なお、この分類は自動であっても手動であってもよい。また、分類の数は3に限定されるものではなく、2であってもよりし4以上であってもよい。501は球形または球形に近似する類球形データセット、505は6面体などの多面体からなるポリゴン形データセット、510は1つの注目領域にその他の様々な形状が混在する不整形データセットである。各学習データセットにおいて、パラメータ取得部1010は抽出パラメータセットの探索を行い、得られたパラメータセットをそれぞれP、P、Pとする。すなわち、複数の異なるパラメータは、注目領域の複数の形状特徴毎に得られる。ここで、各データセットでのパラメータセットの探索としては、パラメータ取得部1010は、例えばパラメータ数Nを1とする時の、平均抽出一致度が最も高いパラメータセットを選択してもよい。 As shown in FIG. 4, the learning case 500 is classified into three data sets according to the shape. This classification may be automatic or manual. Further, the number of classifications is not limited to 3, and may be 2 or 4 or more. 501 is a spherical or similar spherical data set that is close to a spherical shape, 505 is a polygonal data set consisting of a polyhedron such as a hexahedron, and 510 is an irregular data set in which various other shapes are mixed in one region of interest. In each learning data set, the parameter acquisition unit 1010 searches for the extraction parameter set, and sets the obtained parameter sets as PS , P P , and P I , respectively. That is, a plurality of different parameters are obtained for each of the plurality of shape features in the region of interest. Here, as the search parameter set for each data set, the parameter obtaining unit 1010, for example, when a 1 parameter number N P, the average extraction degree of coincidence may select the highest parameter set.

本実施形態の以下の処理では、N=3のとき、式1に示す抽出の平均一致度に基づいて選択された最適なパラメータセットを用いることで説明する。なお、選択された3つのパラメータセットをP、P、Pとする。また、本実施の形態においてはN=3としたが、Nをこの数値以外の値としてもよい。 The following processing of the present embodiment will be described by using the optimum parameter set selected based on the average degree of matching of the extracts shown in Equation 1 when NP = 3. The three selected parameter sets are P 1 , P 2 , and P 3 . Further, in the present embodiment is set to N P = 3, the N P may be a value other than this number.

(ステップS1120)
ステップS1120において、領域抽出部1020は複数の肺結節抽出結果を取得する。具体的には、領域抽出部1020は、ステップS1100で取得した入力画像I(x,y,z)と、ステップS1110で取得した抽出パラメータセットをP、P、Pを用いて抽出処理を行い、3つの肺結節抽出結果を取得する。
(Step S1120)
In step S1120, the region extraction unit 1020 acquires a plurality of lung nodule extraction results. Specifically, the region extraction unit 1020 extracts the input image I (x, y, z) acquired in step S1100 and the extraction parameter set acquired in step S1110 using P 1 , P 2 , and P 3. And obtain the results of extracting three lung nodules.

本実施形態において、領域抽出部1020での領域抽出処理は、一例としてGraph cut法を用いる場合を説明する。ステップS1110で取得したGraph cut用のパラメータセットをそれぞれ、P(P1d,P1S)、P(P2d,P2S)、P(P3d,P3S)とする。領域抽出部1020は、ユーザが事前に設定した前景領域Robj(抽出対象に属する画素)、背景領域Rbkg(抽出対象ではない画素)および上記パラメータセットが代入されているデータ項、平滑項に基づいて、Graph cut法のエネルギー関数を構築する。領域抽出部1020は、入力画像の各画素に対して、当該エネルギー関数を適用し、エネルギーが最小となるような境界に属する画素の集合を注目領域の輪郭とする。このとき、領域抽出部1020は、当該輪郭に囲まれている領域を対象肺結節の抽出結果とする。 In the present embodiment, the case where the Graph cut method is used as an example of the region extraction process in the region extraction unit 1020 will be described. The parameter sets for Graph cut acquired in step S1110 are P 1 (P 1d , P 1S ), P 2 (P 2d , P 2S ), and P 3 (P 3d , P 3S ), respectively. The area extraction unit 1020 sets the foreground area Robj (pixels belonging to the extraction target), the background area R bkg (pixels not the extraction target) preset by the user, and the data term and smoothing term to which the above parameter set is assigned. Based on this, the energy function of the Graph cut method is constructed. The region extraction unit 1020 applies the energy function to each pixel of the input image, and sets a set of pixels belonging to the boundary where the energy is minimized as the outline of the region of interest. At this time, the region extraction unit 1020 sets the region surrounded by the contour as the extraction result of the target lung nodule.

図5に示すように、パラメータセットP(P1d,P1S)、P(P2d,P2S)、P(P3d,P3S)を用いて抽出処理を行い、それぞれの抽出結果601、602、603が得られる。複数の抽出結果は、1の抽出方法において複数の異なるパラメータを用いて注目領域を抽出した結果である。抽出結果601はパラメータPを用いた際の領域抽出部1020による抽出結果、抽出結果602はパラメータPを用いた際の領域抽出部1020による抽出結果、抽出結果603はパラメータPを用いた際の領域抽出部1020による抽出結果を示している。抽出結果601−603において、黒塗り部分は注目領域として抽出された領域を示しており、パラメータの違いに応じて異なる領域が注目領域として抽出されている。 As shown in FIG. 5, extraction processing was performed using the parameter sets P 1 (P 1d , P 1S ), P 2 (P 2d , P 2S ), and P 3 (P 3d , P 3S ), and the extraction results of each were performed. 601, 602 and 603 are obtained. The plurality of extraction results are the results of extracting the region of interest using a plurality of different parameters in one extraction method. The extraction result 601 is the extraction result by the region extraction unit 1020 when the parameter P 1 is used, the extraction result 602 is the extraction result by the region extraction unit 1020 when the parameter P 2 is used, and the extraction result 603 uses the parameter P 3 . The extraction result by the region extraction unit 1020 is shown. In the extraction results 601-603, the black-painted portion indicates the region extracted as the region of interest, and different regions are extracted as the region of interest according to the difference in the parameters.

(ステップS1130)
次に、ステップS1130において、整合度算出部1030は整合度を算出する。整合度算出部1030は、ステップS1100で取得した入力画像I(x,y,z)と、ステップS1120で取得した3つの抽出結果とを用いて、入力画像における注目領域とそれぞれの抽出結果との整合度を算出する。
(Step S1130)
Next, in step S1130, the consistency calculation unit 1030 calculates the consistency. The consistency calculation unit 1030 uses the input image I (x, y, z) acquired in step S1100 and the three extraction results acquired in step S1120 to obtain the region of interest in the input image and the respective extraction results. Calculate the consistency.

本実施形態において、整合度は、入力画像から推定される注目領域の属性(第2属性)と、抽出結果から計算される属性(第1属性)との一致度として算出される。まず、整合度算出部1030により入力画像から第2属性を推定する処理について説明する。 In the present embodiment, the consistency is calculated as the degree of coincidence between the attribute of the region of interest estimated from the input image (second attribute) and the attribute calculated from the extraction result (first attribute). First, a process of estimating the second attribute from the input image by the consistency calculation unit 1030 will be described.

入力画像における注目領域の正確な輪郭は不明であるが、濃度分布の特徴を解析することによって、注目領域の概略形状を整合度算出部1030により推定することが可能である。ここで、本実施形態では、入力画像から推定される注目領域の概略形状を第2属性とする。概略形状を推定する具体的な方法の一例として、整合度算出部1030は、Laplacian of Gaussian(LoG)カーネルのスケールスペースを用いることができる。 Although the exact contour of the region of interest in the input image is unknown, it is possible for the consistency calculation unit 1030 to estimate the approximate shape of the region of interest by analyzing the characteristics of the density distribution. Here, in the present embodiment, the approximate shape of the region of interest estimated from the input image is set as the second attribute. As an example of a specific method for estimating the approximate shape, the consistency calculation unit 1030 can use the scale space of the Laplacian of Gaussian (LoG) kernel.

まず、注目領域の濃度値分布がガウス分布に従うと仮定し、整合度算出部1030は、ガウス分布の標準偏差σを複数の値(スケール)に変えながら、注目領域に属する画素にLoGカーネルを適用する。その際、注目領域に最適なスケール(注目領域を近似する円の直径と一致)でのLoGカーネルが適用されていれば、注目領域の中心部において、LoGカーネルの出力値が最大となる。よって、注目領域の大きさ(概略形状)をそのときのLoGカーネルのスケールに基づいて推定することができる。 First, assuming that the concentration value distribution in the region of interest follows a Gaussian distribution, the consistency calculation unit 1030 applies the LoG kernel to the pixels belonging to the region of interest while changing the standard deviation σ of the Gaussian distribution to multiple values (scales). To do. At that time, if the LoG kernel on the optimum scale (corresponding to the diameter of the circle that approximates the region of interest) is applied to the region of interest, the output value of the LoG kernel becomes maximum at the center of the region of interest. Therefore, the size (rough shape) of the region of interest can be estimated based on the scale of the LoG kernel at that time.

LoGカーネルによる注目領域の概略形状の推定は、3次元または2次元画像を対象に行うことができる。本実施例では2次元の場合を説明する。図6に示すように、入力画像610の右肺野615に肺結節620が存在する場合、まず、整合度算出部1030は、肺結節620を通るaxial断面630、sagittal断面631、coronal断面632を取得する。これは、例えばユーザが操作部170を介して、肺結節620に属するシード点(Spoint)を入力し、整合度算出部1030はシード点の座標を取得し、Spointを含むaxial、sagittal、coronalの3断面を入力画像から取得することができる。なお、シード点Spointは手動ではなく自動検出アルゴリズムを用いて取得してもよい。 The estimation of the approximate shape of the region of interest by the LoG kernel can be performed on a three-dimensional or two-dimensional image. In this embodiment, a two-dimensional case will be described. As shown in FIG. 6, when the lung nodule 620 is present in the right lung field 615 of the input image 610, the consistency calculation unit 1030 first obtains an axial cross section 630, a sagittal cross section 631, and a coronal cross section 632 through the lung nodule 620. get. In this method, for example, the user inputs a seed point (S point ) belonging to the lung nodule 620 via the operation unit 170, the consistency calculation unit 1030 acquires the coordinates of the seed point, and the axial, sagittal, including the S point , Three cross sections of the coronal can be obtained from the input image. The seed point S point may be acquired by using an automatic detection algorithm instead of manually.

また、図7に示すように、処理時間を短縮するために、整合度算出部1030はaxial断面630、sagittal断面631、coronal断面632に対して、注目領域を含む範囲をさらに絞り、局所断面f、f、fを設定してもよい。本実施例では、図8(a)に示す局所断面f640を用いて注目領域の概略形状を推定する例を説明する。 Further, as shown in FIG. 7, in order to shorten the processing time, the consistency calculation unit 1030 further narrows the range including the region of interest with respect to the sagittal cross section 630, the sagittal cross section 631, and the coronal cross section 632, and the local cross section f. You may set a , f s , and f c . In this embodiment, an example for estimating the approximate shape of the region of interest using a local sectional f a 640 shown in FIG. 8 (a).

2次元直交座標(x,y)を用いて定義される局所断面f(x,y)に対して、マルチスケールでのLoGカーネルを適用し、式 Two-dimensional orthogonal coordinates (x, y) local section f a (x, y) is defined with respect to applying the LoG kernel with multi-scale, wherein

Figure 0006827707

に示す出力曲面S(x,y,h)を取得する(図8(b)の出力曲面645)。なお、式(3)において、LoG(r)はLoGカーネルを表し、rは以下のように定義される。
Figure 0006827707

The output curved surface S (x, y, h) shown in FIG. 8 is acquired (output curved surface 645 in FIG. 8B). In the equation (3), LoG h (r) represents the LoG kernel, and r is defined as follows.

Figure 0006827707


また、スケールを表すパラメータhは、S(x,y,h)の中央部の幅を表しており、
Figure 0006827707


Further, the parameter h representing the scale represents the width of the central portion of S (x, y, h).

Figure 0006827707

に設定される。また、記号「*」は畳み込み演算を表している。
Figure 0006827707

Is set to. The symbol "*" represents a convolution operation.

図9を用いて概略形状推定の具体的な処理を説明する。スケールhを一定の範囲{hmin,…,hmax}内で変動させ、各スケールhにおいてSpoint付近でS(x,y,h)の最大出力値を取得することにより整合度算出部1030は出力曲線C(h)を得る(図9(a))。なお、hminとhmaxはユーザが任意の値に指定することができる。スケールhが図9(b)に示す注目領域を近似する円の直径654の大きさと一致する場合に、C(h)は最大値を得る。よって、整合度算出部1030は、C(h)の極大値651に対応するスケール(hopt652)を選択し、その値を注目領域の概略形状(大きさ)を表す係数Dとする。例えばDは注目領域を近似する円の直径を示している。なお、注目領域を近似する円の半径をDとしてもよい。整合度算出部1030は、局所断面f、fに対しても上記と同様の処理を適用し、それぞれの断面における注目領域の概略形状を表す係数D、Dを取得できる。上記概略形状を表す係数D、D、Dは入力画像から推定される第2属性である。すなわち、整合度算出部1030は、医用画像に対してLoG(Laplacian of Gaussian)カーネルを適用することにより第2特徴量を取得する。 A specific process of rough shape estimation will be described with reference to FIG. The consistency calculation unit 1030 is obtained by varying the scale h within a certain range {h min , ..., H max } and acquiring the maximum output value of S (x, y, h) near the Point at each scale h. Obtains the output curve C (h) (FIG. 9 (a)). The user can specify h min and h max as arbitrary values. When the scale h coincides with the size of the diameter 654 of the circle that approximates the region of interest shown in FIG. 9B, C (h) obtains the maximum value. Therefore, the consistency calculation unit 1030 selects a scale ( hopt 652) corresponding to the maximum value 651 of C (h), and sets the value as a coefficient D 1 representing the approximate shape (size) of the region of interest. For example, D 1 indicates the diameter of a circle that approximates the region of interest. The radius of the circle that approximates the region of interest may be D 1 . The consistency calculation unit 1030 can apply the same processing to the local cross sections f c and f s as described above, and can obtain coefficients D 2 and D 3 representing the approximate shape of the region of interest in each cross section. The coefficients D 1 , D 2 , and D 3 representing the schematic shape are the second attributes estimated from the input image. That is, the consistency calculation unit 1030 acquires the second feature amount by applying the LoG (Laplacian of Gaussian) kernel to the medical image.

次に、整合度算出部1030は抽出結果から第1属性を計算する。第2属性との整合度を計算するために、第1属性は、抽出結果の概略形状を表す必要がある。ここで、抽出結果603からの概略形状推定を例として説明する。 Next, the consistency calculation unit 1030 calculates the first attribute from the extraction result. In order to calculate the consistency with the second attribute, the first attribute needs to represent the approximate shape of the extraction result. Here, the approximate shape estimation from the extraction result 603 will be described as an example.

まず、整合度算出部1030は、抽出結果603に対して、入力画像における概略形状の推定と同様に局所断面作成し、f’、f’、f’とする。整合度算出部1030は、それぞれの断面から、注目領域の抽出結果を用いて概略形状を計算する。その際、整合度算出部1030は、局所断面における前景画素(抽出結果に属する画素)を用いて注目領域の大きさを算出することができる。整合度算出部1030は、例えば、f’における前景画素の近似円を推定し、その円の直径をD’(第1属性)としてもよい。また、前景画素の境界と重心との平均距離をD’としてもよい。なお、近似円の半径をD’としてもよい。すなわち、整合度算出部1030は、抽出された注目領域の形状を示す特徴量を取得する。整合度算出部1030は、f’、f’においても、上記と同様の処理を行い、注目領域の抽出結果の概略形状を表す係数D’、D’を第1属性として取得することができる。上記のように、第1特徴量(第1属性)および第2特徴量(第2属性)は、両者ともに注目領域の形状を示しているため比較可能となっている。一例として、第1特徴量および前記第2特徴量は、注目領域の直径または半径を示す。 First, the matching degree calculation unit 1030, the extracted result 603, creates a local cross-section similar to the estimation of the general shape of the input image, and f 'a, f' c, f 's. The consistency calculation unit 1030 calculates the approximate shape from each cross section using the extraction result of the region of interest. At that time, the consistency calculation unit 1030 can calculate the size of the region of interest using the foreground pixels (pixels belonging to the extraction result) in the local cross section. Matching degree calculation unit 1030, for example, 'to estimate the approximate circle of the foreground pixels in a, the diameter of the circle D' f may be one (first attribute). Further, the average distance between the boundary of the foreground pixel and the center of gravity may be D' 1 . The radius of the approximate circle may be D' 1 . That is, the consistency calculation unit 1030 acquires a feature amount indicating the shape of the extracted region of interest. Matching degree calculation unit 1030, f 'c, f' also in s, performs the same processing as described above, to obtain the coefficient D '2, D' 3 representing the general shape of the extraction result of the region of interest as the first attribute be able to. As described above, the first feature amount (first attribute) and the second feature amount (second attribute) are comparable because they both show the shape of the region of interest. As an example, the first feature amount and the second feature amount indicate the diameter or radius of the region of interest.

最後に、整合度算出部1030は、第2属性(D、D、D)と第1属性(D’、D’、D’)とを用いて、注目領域と抽出結果との整合度εを計算する。εの計算は様々な方法を用いることができる。例えば式4 Finally, the consistency calculation unit 1030 uses the second attribute (D 1 , D 2 , D 3 ) and the first attribute (D' 1 , D' 2 , D' 3 ) to determine the region of interest and the extraction result. Calculate the consistency ε with. Various methods can be used to calculate ε. For example, Equation 4

Figure 0006827707

によって計算してもよい。なお、E(A,B)は式5で表される。
Figure 0006827707

It may be calculated by. E (A, B) is represented by Equation 5.

Figure 0006827707

式4によると、εが大きいほど第2属性と第1属性との差が小さいため、整合度が高いことを示す。
Figure 0006827707

According to Equation 4, the larger the ε, the smaller the difference between the second attribute and the first attribute, indicating that the consistency is higher.

整合度計算の別の例では、整合度算出部1030は、入力画像および抽出結果それぞれから計算される注目領域の体積に基づいて整合度を計算する。整合度算出部1030は、例えば、D、D、Dに基づいて、入力画像から注目領域を近似する楕円体を推定し、その楕円体の体積Vを計算する。一方、抽出結果601における前景画素の体積をVS1とする。そして、整合度算出部1030は、整合度εを式6により計算する。 In another example of consistency calculation, the consistency calculation unit 1030 calculates the consistency based on the volume of the region of interest calculated from each of the input image and the extraction result. Matching degree calculation unit 1030, for example, on the basis of the D 1, D 2, D 3 , estimates the ellipsoid that approximates a region of interest from the input image, calculate the volume V I of the ellipsoid. On the other hand, the volume of the foreground pixels in the extraction result 601 and V S1. Then, the consistency calculation unit 1030 calculates the consistency ε by the equation 6.

Figure 0006827707

整合度計算のさらに別の例では、入力画像および抽出結果それぞれから計算される注目領域の曲率に基づいて整合度算出部1030は整合度を計算する。例えば、整合度算出部1030は、抽出結果601における前景画素の輪郭をSs1として検出する。輪郭の検出は一般的な画素処理技術であるため説明を省略する。また、整合度算出部1030は、Ss1における各画素の曲率を計算(距離変換画像に基づく曲率)し、それらの曲率の平均値をκs1とする。ここで、κs1の計算は例えば、抽出結果601に対して、前景領域における各画素と背景領域との距離値を計算する距離変換処理を実施し、その距離値に基づいて計算することができる。一方、入力画像においては、整合度算出部1030は、Ss1と重なる部分の画素における曲率(濃度値に基づく曲率)を計算し、それらの曲率の平均値をκとする。
Figure 0006827707

In yet another example of consistency calculation, the consistency calculation unit 1030 calculates the consistency based on the curvature of the region of interest calculated from each of the input image and the extraction result. For example, the consistency calculation unit 1030 detects the contour of the foreground pixel in the extraction result 601 as S s1 . Since contour detection is a general pixel processing technique, the description thereof will be omitted. Further, the consistency calculation unit 1030 calculates the curvature of each pixel in S s1 (curvature based on the distance conversion image), and sets the average value of those curvatures to κ s1 . Here, the calculation of κ s1 can be performed based on, for example, a distance conversion process for calculating the distance value between each pixel in the foreground region and the background region on the extraction result 601 and the distance value. .. On the other hand, in the input image, the consistency calculation unit 1030 calculates the curvature (curvature based on the density value) of the portion overlapping with S s1 and sets the average value of those curvatures as κ I.

そして、曲率κs1と曲率κとの整合度εを式6によって計算する。 Then, the consistency ε between the curvature κ s1 and the curvature κ I is calculated by Equation 6.

Figure 0006827707

なお、上記整合度計算手法の何れかを用いて整合度を算出してもよいし、それぞれを組み合わせて整合度を算出してもよい。本実施形態では、式4によって、入力画像から計算された注目領域の概略形状と抽出結果601、602、603それぞれの概略形状との整合度を計算し、複数の整合度ε、ε、εを取得する。
Figure 0006827707

The consistency may be calculated by using any of the above-mentioned consistency calculation methods, or may be combined to calculate the consistency. In the present embodiment, the consistency between the approximate shape of the region of interest calculated from the input image and the approximate shape of each of the extraction results 601, 602, and 603 is calculated by Equation 4, and a plurality of consistency ε 1 , ε 2 , Get ε 3 .

(ステップS1140)
ステップS1140では、抽出結果決定部1040が注目領域の複数の抽出結果から適切な抽出結果を決定する。抽出結果決定部1040は、ステップS1120で取得した複数の抽出結果、およびステップS1130で取得した複数個の整合度を用いて注目領域の最終抽出結果を決定する。
(Step S1140)
In step S1140, the extraction result determination unit 1040 determines an appropriate extraction result from a plurality of extraction results in the region of interest. The extraction result determination unit 1040 determines the final extraction result of the region of interest by using the plurality of extraction results acquired in step S1120 and the plurality of consistency acquired in step S1130.

本実施形態において、抽出結果決定部1040は、抽出結果601、602、603から最終抽出結果として最も適した抽出結果を選択する。抽出結果決定部1040は、例えばステップS1130で計算された整合度ε、ε、εから,最も高い整合度に対応する抽出結果を選択すればよい。すなわち、選択手段は、複数の第1特徴量のうち第2特徴量との整合度が最も高い第1特徴量に対応する抽出結果を選択する。 In the present embodiment, the extraction result determination unit 1040 selects the most suitable extraction result as the final extraction result from the extraction results 601, 602, and 603. The extraction result determination unit 1040 may select, for example, the extraction result corresponding to the highest consistency from the consistency ε 1 , ε 2 , and ε 3 calculated in step S1130. That is, the selection means selects the extraction result corresponding to the first feature amount having the highest consistency with the second feature amount among the plurality of first feature amounts.

また、ユーザの需要に応じて、整合度算出部1030は、各抽出結果自身の特徴量(例えば球形度、モーメント、伸長度など)を計算し、抽出結果決定部1040は、この計算結果に基づく最適な抽出結果であるか否かの尤度を上記整合度に加えて、最も適した抽出結果を決定してもよい。 Further, the consistency calculation unit 1030 calculates the feature amount (for example, sphericity, moment, elongation, etc.) of each extraction result itself according to the demand of the user, and the extraction result determination unit 1040 is based on this calculation result. The most suitable extraction result may be determined by adding the likelihood of whether or not the extraction result is the optimum extraction result to the above consistency.

なお、ステップS1140で選択された領域抽出の結果はRsegとする。さらに、Rsegに対応する抽出パラメータセットを、入力画像に最適なパラメータセットPOPTとする。 The result of the region extraction selected in step S1140 is R seg . Further, the extraction parameter set corresponding to R seg is set as the optimum parameter set OPT for the input image.

(ステップS1150)
ステップS1150では表示制御部1050が領域抽出の結果を表示部160に表示させる。表示制御部1050は、ステップS1140で選択された抽出結果Rsegに関する情報を画像処理装置100に接続された表示部160に送信し、表示部160に抽出結果Rsegに関する情報を表示させる。表示制御部1050は、例えばRsegと入力画像とを重ね合わせて合成した画像(以下、合成画像と称する)を表示部160に表示させる。別の例では、表示制御部1050は、所定の面で切断した2次元の断面画像とRsegとの合成画像を表示部160に表示させる。さらに別の例では、表示制御部1050は、3次元の合成画像をボリュームレンダリングして表示部160に表示させる。すなわち、表示制御部1050は、三次元の医用画像に三次元の抽出結果を重畳して表示部160に表示させる。
(Step S1150)
In step S1150, the display control unit 1050 causes the display unit 160 to display the result of the area extraction. The display control unit 1050 transmits the information regarding the extraction result R seg selected in step S1140 to the display unit 160 connected to the image processing device 100, and causes the display unit 160 to display the information regarding the extraction result R seg . The display control unit 1050 causes the display unit 160 to display, for example, an image (hereinafter, referred to as a composite image) synthesized by superimposing the R seg and the input image. In another example, the display control unit 1050 causes the display unit 160 to display a composite image of a two-dimensional cross-sectional image cut on a predetermined surface and R seg . In yet another example, the display control unit 1050 volume-renders the three-dimensional composite image and displays it on the display unit 160. That is, the display control unit 1050 superimposes the three-dimensional extraction result on the three-dimensional medical image and displays it on the display unit 160.

また、表示制御部1050は領域抽出の結果の表示形態を制御する。例えば、抽出結果Rsegの輪郭を曲線で表示させる。表示制御部1050は、抽出結果Rsegの輪郭の内部の色を当該輪郭外部の色とは異なる色で表示部160に表示させてもよい。このとき、複数の抽出結果のうち抽出結果決定部1040により選択されなかった抽出結果を選択された抽出結果の表示色に比べて薄めの色で併せて表示させてもよい。すなわち、表示される抽出結果は抽出結果決定部1040により選択された1の抽出結果に限るものではない。例えば、表示制御部1050は抽出結果決定部1040により選択された抽出結果を他の抽出結果と識別可能な状態で複数の抽出結果を表示部160に表示させることとしてもよい。なお、複数の抽出結果を同時に表示させてもよいし、表示する抽出結果を切換えて表示させることとしてもよい。 In addition, the display control unit 1050 controls the display form of the result of region extraction. For example, the outline of the extraction result R seg is displayed as a curve. The display control unit 1050 may display the color inside the contour of the extraction result R seg on the display unit 160 with a color different from the color outside the contour. At this time, the extraction results not selected by the extraction result determination unit 1040 among the plurality of extraction results may be displayed together in a color lighter than the display color of the selected extraction results. That is, the displayed extraction result is not limited to the extraction result of 1 selected by the extraction result determination unit 1040. For example, the display control unit 1050 may display a plurality of extraction results on the display unit 160 in a state in which the extraction results selected by the extraction result determination unit 1040 can be distinguished from other extraction results. It should be noted that a plurality of extraction results may be displayed at the same time, or the extraction results to be displayed may be switched and displayed.

別の例では、表示制御部1050は、矢印の先端部が抽出された領域を示すように矢印を示す図形を入力画像と重ね合わせて表示部160に表示させる。さらに、抽出された領域の大きさに応じて上述した表示形態を変更するようにしてもよい。例えば、表示制御部1050は、抽出された領域の大きさが所定の閾値よりも大きい場合は輪郭を曲線で表示部160に表示させ、閾値よりも小さい場合は矢印の先端部で抽出領域の位置を示すように表示部160に矢印を表示させてもよい。これらの表示形態により、入力画像および注目領域の視認性を向上させることが可能となる。 In another example, the display control unit 1050 causes the display unit 160 to display a figure indicating the arrow on the input image so that the tip of the arrow indicates the extracted region. Further, the above-mentioned display form may be changed according to the size of the extracted area. For example, the display control unit 1050 displays the contour as a curve on the display unit 160 when the size of the extracted area is larger than a predetermined threshold value, and when it is smaller than the threshold value, the position of the extraction area is at the tip of the arrow. An arrow may be displayed on the display unit 160 so as to indicate. These display modes make it possible to improve the visibility of the input image and the region of interest.

上述の第1の実施形態に係る画像処理装置では、複数のパラメータセットによる注目領域の抽出処理を行い、複数の抽出結果を取得する。さらにそれぞれの抽出結果から計算される第1属性と、入力画像から計算される注目領域の第2属性との一致度に基づいて、最適な抽出結果を自動で選択する。従って、医師等のユーザの手間を軽減することが可能となる。 In the image processing apparatus according to the first embodiment described above, the extraction process of the region of interest is performed by a plurality of parameter sets, and a plurality of extraction results are acquired. Further, the optimum extraction result is automatically selected based on the degree of coincidence between the first attribute calculated from each extraction result and the second attribute of the region of interest calculated from the input image. Therefore, it is possible to reduce the labor of users such as doctors.

(変形例1)
第1実施形態の説明では、ステップS1130での整合度の計算を、入力画像から計算される注目領域の第2属性と、抽出結果から計算される注目領域の第1属性との一致度の計算により実行する場合を説明した。しかし、本発明はこの例に限定されるのではない。例えば、ステップS1110で、パラメータ取得部1010が形状特徴に基づいて抽出パラメータセットを設定する場合、整合度算出部1030は各形状カテゴリにおける学習データから、平均形状を作成し、その平均形状を用いて整合度を計算してもよい。
(Modification example 1)
In the description of the first embodiment, the calculation of the consistency in step S1130 is the calculation of the degree of coincidence between the second attribute of the attention region calculated from the input image and the first attribute of the attention region calculated from the extraction result. The case of executing by is explained. However, the present invention is not limited to this example. For example, in step S1110, when the parameter acquisition unit 1010 sets the extraction parameter set based on the shape feature, the consistency calculation unit 1030 creates an average shape from the learning data in each shape category, and uses the average shape. Consistency may be calculated.

具体的には、例えば、図4に示す3種類の学習データを用いる。パラメータ取得部1010は、それぞれの学習データセットから最適な抽出パラメータセットP、P、Pを探索する。パラメータセットPは類球形データセット501から、パラメータセットPはポリゴン形データセット505から、パラメータセットPは不整形データセット510からそれぞれ得られる。そして、領域抽出部1020は、それぞれの学習データセットが対応する最適な抽出パラメータ(P、P、Pのいずれか)を用いて注目領域の領域を抽出し、取得された抽出結果から平均形状A、A、Aを作成する。また、領域抽出部1020は、入力画像に対して、パラメータセットP、P、Pによる注目領域の抽出を行い、得られた抽出結果をR、R、Rとする。最後に、整合度算出部1030は、AとR、AとR、AとR、それぞれの属性の一致度を計算する。そして、抽出結果決定部1040は最も属性の一致度が高い組みの抽出結果を最終結果として選択する。ここで、属性の計算は第1実施例と同じ方法を利用してもよい。 Specifically, for example, three types of learning data shown in FIG. 4 are used. The parameter acquisition unit 1010 searches for the optimum extraction parameter sets P S , P P , and P I from each training data set. The parameter set P S is obtained from the spherical data set 501, the parameter set P P is obtained from the polygonal data set 505, and the parameter set P I is obtained from the irregular data set 510. Then, the region extracting unit 1020, the optimum extraction parameters, each of the learning data sets corresponding to extract the region of the region of interest by using a (P S, P P, either P I), from the obtained extraction result mean shape a S, a P, to create the a I. The region extracting unit 1020, the input image, the parameter set P S, P P, followed by extraction of the region of interest by P I, the extraction results obtained R S, R P, and R I. Finally, the matching degree calculation unit 1030, A S and R S, A P and R P, A I and R I, calculates a matching degree of each attribute. Then, the extraction result determination unit 1040 selects the extraction result of the set having the highest degree of attribute matching as the final result. Here, the attribute calculation may use the same method as in the first embodiment.

また、上述した学習データの平均形状ではなく、抽出結果決定部1040はそれぞれの学習データセットで最も入力画像と近似する学習データでの抽出結果を選択してもよい。この場合は、例えば、領域抽出部1020は、類球形データセット501において、全ての学習症例と入力画像との近似度を計算し、最も近似する学習症例を当該データセットにおける入力画像の参照症例として選択する。 Further, instead of the above-mentioned average shape of the training data, the extraction result determination unit 1040 may select the extraction result of the learning data that most closely resembles the input image in each training data set. In this case, for example, the region extraction unit 1020 calculates the degree of approximation between all the learning cases and the input image in the spherical data set 501, and sets the closest learning case as the reference case of the input image in the data set. select.

ここで、学習症例と入力画像との近似度の評価は、例えば、Large Deformation Diffeomorphic Metric Mapping(LDDMM)技術を用いて、入力画像と学習症例との間の位置合わせを行う際の変形度により行われてもよい。変形度が少ない症例ほど近似度が高いため、最も変形度の少ない症例を参照症例Bとする。ポリゴン形データセット505、不整形データセット510からも同じ処理を行い、それぞれでの参照症例をB、Bとする。そして、上述したように、領域抽出部1020は、入力画像に対して学習データから求められたパラメータセットP、P、Pを用いて注目領域の抽出を行い、得た抽出結果をR、R、Rとする。 Here, the evaluation of the degree of approximation between the learning case and the input image is performed based on the degree of deformation when aligning the input image and the learning case using, for example, the Evaluation Deformation Differential Mapping (LDDMM) technique. You may be broken. Because of the high degree of approximation as the degree of deformation is small cases, the reference case B S a small sample the least deformation degree. Polygon shaped data set 505, also do the same from the irregular data set 510, to the reference case in each B P, and B I. Then, as described above, the region extracting unit 1020, a parameter set P S obtained from the training data to the input image, P P, followed by extraction of the region of interest using P I, the extraction results obtained R Let S , R P , and R I.

最後に、整合度算出部1030はBとR、BとR、BとR、それぞれの属性の一致度(整合度)を計算する。そして、抽出結果決定部1040は最も属性の一致度が高い組みの抽出結果を最終結果として選択する。なお、属性の計算は第1実施例と同じ方法を利用してもよい。 Finally, the matching degree calculation unit 1030 calculates B S and R S, B P and R P, B I and R I, matching degree of each attribute (matching degree). Then, the extraction result determination unit 1040 selects the extraction result of the set having the highest degree of attribute matching as the final result. The attribute calculation may use the same method as in the first embodiment.

(変形例2)
第1の実施形態では、領域抽出部1020がGraph−Cutにおけるパラメータを複数用いて、注目領域の複数の抽出結果を得る場合について説明したが、本発明は上記の例に限定されるものではない。例えば、領域抽出部1020は、Graph−Cut法およびLevel−set法により注目領域の複数の抽出結果を取得する。すなわち、複数の抽出結果は、異なる複数の抽出方法を用いて注目領域を抽出した結果である。そして、整合度算出部1030はそれぞれの抽出結果から上述のような複数の第1属性を取得し、第2属性との整合度を算出する。抽出結果決定部1040は算出された整合度に基づいてGraph−Cut法またはLevel−set法による抽出結果を選択する。
(Modification 2)
In the first embodiment, the case where the region extraction unit 1020 uses a plurality of parameters in Graph-Cut to obtain a plurality of extraction results of the region of interest has been described, but the present invention is not limited to the above example. .. For example, the region extraction unit 1020 acquires a plurality of extraction results of the region of interest by the Graph-Cut method and the Level-set method. That is, the plurality of extraction results are the results of extracting the region of interest using a plurality of different extraction methods. Then, the consistency calculation unit 1030 acquires a plurality of first attributes as described above from each extraction result, and calculates the consistency with the second attribute. The extraction result determination unit 1040 selects the extraction result by the Graph-Cut method or the Level-set method based on the calculated consistency.

このように、抽出結果決定部1040は、異なる領域抽出方法により得られた複数の抽出結果から適切な抽出結果を選択することとしてもよい。 As described above, the extraction result determination unit 1040 may select an appropriate extraction result from a plurality of extraction results obtained by different region extraction methods.

第一の実施形態に係る画像処理装置の効果について説明する。本発明における画像処理装置は、公知の領域抽出手法に存在するいくつかの課題を解決する。この課題とはすなわち、従来の領域抽出手法では、単一のパラメータセットを用いる場合、形状のバリエーションが大きい注目領域を精度よく抽出できない。また、複数のパラメータセットを用いる場合であっても、便宜かつ精度良く最適な抽出結果を選択することが困難であった。換言すれば、注目領域を高精度で抽出できないという課題がある。 The effect of the image processing apparatus according to the first embodiment will be described. The image processing apparatus in the present invention solves some problems existing in the known region extraction method. This problem is that, in the conventional region extraction method, when a single parameter set is used, it is not possible to accurately extract the region of interest with a large variation in shape. Moreover, even when a plurality of parameter sets are used, it is difficult to select the optimum extraction result conveniently and accurately. In other words, there is a problem that the region of interest cannot be extracted with high accuracy.

一方、本実施形態に係る画像処理装置では、形状のバリエーションが大きい注目領域に適した複数個のパラメータセットによって入力画像から複数個の注目領域抽出結果を得る。さらに、入力画像から求められた注目領域の属性と、複数個の抽出結果から求められた属性との一致度に基づいて、最適な抽出結果を効率かつ精度よく選択することができる。 On the other hand, in the image processing apparatus according to the present embodiment, a plurality of attention region extraction results are obtained from the input image by a plurality of parameter sets suitable for the attention region having a large variation in shape. Further, the optimum extraction result can be efficiently and accurately selected based on the degree of agreement between the attribute of the region of interest obtained from the input image and the attribute obtained from the plurality of extraction results.

上述のことから、本発明の第一の実施形態に係る画像処理装置では、注目領域を高精細で抽出することができる。
(第2の実施形態)
続いて、第二の実施形態に係る画像処理について説明する。本実施形態では、ステップS1110で、パラメータ取得部1015が注目領域の画像所見Fに基づいてパラメータの種類を設定し、ステップS1140で、抽出結果決定部1040は、注目領域の抽出結果を決定する。その後、ステップS1145で、画像所見決定部1045は、注目領域の画像所見Fの値を決定する。そして、表示制御部1055は、決定された画像所見Fを表示部160に表示させることでユーザに提示する。以下、第二の実施形態に係る画像処理について詳述する。
From the above, in the image processing apparatus according to the first embodiment of the present invention, the region of interest can be extracted with high definition.
(Second Embodiment)
Subsequently, the image processing according to the second embodiment will be described. In the present embodiment, in step S1110, the parameter acquisition unit 1015 sets the type of the parameter based on the image finding F of the region of interest, and in step S1140, the extraction result determination unit 1040 determines the extraction result of the region of interest. Then, in step S1145, the image finding determination unit 1045 determines the value of the image finding F in the region of interest. Then, the display control unit 1055 presents the determined image finding F to the user by displaying it on the display unit 160. Hereinafter, the image processing according to the second embodiment will be described in detail.

(機能構成)
図10に基づいて、第二の実施形態に係る画像処理装置200を構成する各機能構成の一例について説明する。画像処理装置200は、本発明の第二の実施形態に係る画像処理を実行する。画像処理装置200は、画像取得部1000、パラメータ設定部1015、領域抽出部1020、整合度算出部1030、抽出結果決定部1040、画像所見決定部1045、表示制御部1050を有する。第一の実施形態に係る画像処理装置100を構成する各部と同様の機能を有する構成には図2と同一の番号を付しており、詳細な説明を省略する。
(Functional configuration)
An example of each functional configuration constituting the image processing apparatus 200 according to the second embodiment will be described with reference to FIG. The image processing device 200 executes the image processing according to the second embodiment of the present invention. The image processing device 200 includes an image acquisition unit 1000, a parameter setting unit 1015, an area extraction unit 1020, a consistency calculation unit 1030, an extraction result determination unit 1040, an image finding determination unit 1045, and a display control unit 1050. The configurations having the same functions as the respective parts constituting the image processing apparatus 100 according to the first embodiment are numbered the same as those in FIG. 2, and detailed description thereof will be omitted.

パラメータ取得部1015は、注目領域を抽出するためのパラメータを、注目領域の画像所見項目に基づいて複数個取得する。その後、領域抽出部1020は複数個パラメータを用いて注目領域の抽出を行い、整合度算出部1030はそれぞれの抽出結果と入力画像との整合度を計算する。画像所見決定部1045は、その整合度に基づいて注目領域の抽出結果を決定し、さらに注目領域の前記画像所見項目の値を決定する。 The parameter acquisition unit 1015 acquires a plurality of parameters for extracting the region of interest based on the image findings items of the region of interest. After that, the region extraction unit 1020 extracts the region of interest using a plurality of parameters, and the consistency calculation unit 1030 calculates the consistency between each extraction result and the input image. The image finding determination unit 1045 determines the extraction result of the region of interest based on the consistency, and further determines the value of the image finding item in the region of interest.

(処理フロー)
本発明の第二の実施形態に係る画像処理の一例について説明する。図11は本実施形態の画像処理装置200が実行する処理手順の一例を示す図である。本実施形態は、主メモリ12に格納されている各部の機能を実現するプログラムをCPU11が実行することにより実現される。ステップS2100、S2120、S2130、S2140の処理は図3に示すステップS1100、S1120、S1130、S1140の処理とそれぞれ同様であるため、詳細な説明を省略する。
(Processing flow)
An example of image processing according to the second embodiment of the present invention will be described. FIG. 11 is a diagram showing an example of a processing procedure executed by the image processing apparatus 200 of the present embodiment. This embodiment is realized by the CPU 11 executing a program that realizes the functions of each part stored in the main memory 12. Since the processing of steps S2100, S2120, S2130, and S2140 is the same as the processing of steps S1100, S1120, S1130, and S1140 shown in FIG. 3, detailed description thereof will be omitted.

(ステップS2100)
ステップS2100において、画像取得部1000は処理対象画像(入力画像)を取得する。この処理は、ステップS1100と同様の処理であるため、説明を省略する。
(Step S2100)
In step S2100, the image acquisition unit 1000 acquires the image to be processed (input image). Since this process is the same as step S1100, the description thereof will be omitted.

(ステップS2110)
ステップS2110において、パラメータ取得部1015がパラメータ情報を取得する。パラメータ取得部1015は、臨床上の画像所見項目Fに基づいて、注目領域を入力画像から抽出するためのパラメータセットの値を設定する。
(Step S2110)
In step S2110, the parameter acquisition unit 1015 acquires the parameter information. The parameter acquisition unit 1015 sets the value of the parameter set for extracting the region of interest from the input image based on the clinical image finding item F.

例えば、パラメータ取得部1015が、全体形状という画像所見項目に基づいて、機械学習技術によってパラメータセットを取得する場合を説明する。全体形状に、球形、類球形、分葉形、ポリゴン形、楔系、線形、不整形7つの項目が存在するとする場合、パラメータ取得部1015は、学習データをその7つの項目に従って7個のサブデータセットに分類する。なお、分類数は7に限定されるものではなく、他の数であってもよい。 For example, a case where the parameter acquisition unit 1015 acquires a parameter set by machine learning technology based on an image finding item of overall shape will be described. If there are seven items in the overall shape: spherical, spherical, lobulated, polygonal, wedge-based, linear, and irregular, the parameter acquisition unit 1015 collects the training data according to the seven items and seven subs. Classify into datasets. The number of classifications is not limited to 7, and may be any other number.

次に、パラメータ取得部1015は、それぞれのデータセットにおける最適な領域抽出パラメータセットを探索する。パラメータセットの探索はステップS1110と同様な処理であるため、説明を省略する。 Next, the parameter acquisition unit 1015 searches for the optimum region extraction parameter set for each data set. Since the parameter set search is the same process as in step S1110, the description thereof will be omitted.

(ステップS2120)
ステップS2120において、領域抽出部1020は、ステップS2100で取得した入力画像と、ステップS2110取得した7個のパラメータセットとに基づいて、複数の肺結節の抽出結果を取得する。この処理は、ステップS1120と同様の処理であるため、説明を省略する。
(Step S2120)
In step S2120, the region extraction unit 1020 acquires the extraction results of a plurality of lung nodules based on the input image acquired in step S2100 and the seven parameter sets acquired in step S2110. Since this process is the same as step S1120, the description thereof will be omitted.

(ステップS2130)
ステップS2130において、整合度算出部1030は、ステップS2100で取得した入力画像と、ステップS2120取得した複数の抽出結果に基づいて、整合度を算出する。この処理は、ステップS1130と同様の処理であるため、説明を省略する。
(Step S2130)
In step S2130, the consistency calculation unit 1030 calculates the consistency based on the input image acquired in step S2100 and the plurality of extraction results acquired in step S2120. Since this process is the same as step S1130, the description thereof will be omitted.

(ステップS2140)
ステップS2140において、抽出結果決定部1040は、ステップS2130で取得した整合度の計算結果に基づいて、注目領域の抽出結果RsegとRsegを得た際のパラメータである最適抽出パラメータPOPTとを決定する。この処理は、ステップS1140と同様の処理であるため、説明を省略する。
(Step S2140)
In step S2140, the extraction result determining unit 1040, based on the obtained degree of matching calculation result in step S2130, the optimal extraction parameter P OPT is a parameter when the extraction results to obtain a R seg and R seg of the region of interest decide. Since this process is the same as step S1140, the description thereof will be omitted.

(ステップS2145)
次に、ステップS2145において、画像所見決定部1045は、注目領域の画像所見を決定する。画像所見決定部1045は、ステップS2140で取得した最適抽出パラメータPOPTが属する上述のサブデータセットの分類に基づいて、注目領域の画像所見Fの値を決定する。例えば、最適抽出パラメータPOPTが分葉形という項目のサブデータセットから得られたパラメータである場合には、画像所見決定部1045は、画像所見Fを分葉形と決定する。すなわち、画像所見決定部1045は、選択手段による選択結果に基づいて、注目領域を表す所見を決定する決定手段の一例に相当する。より具体的には、画像所見決定部1045は、注目領域の形状を表す所見を決定する。
(Step S2145)
Next, in step S2145, the image finding determination unit 1045 determines the image finding in the region of interest. The image finding determination unit 1045 determines the value of the image finding F in the region of interest based on the classification of the above-mentioned sub-dataset to which the optimum extraction parameter P OPT acquired in step S2140 belongs. For example, when the optimum extraction parameter P OPT is a parameter obtained from the sub-dataset of the item lobulated, the image finding determination unit 1045 determines the image finding F to be lobulated. That is, the image finding determination unit 1045 corresponds to an example of the determination means for determining the findings representing the region of interest based on the selection result by the selection means. More specifically, the image finding determination unit 1045 determines the finding representing the shape of the region of interest.

また、全体形状所見を1つの値に設定するではなく、例えば7つの項目のそれぞれの尤度に設定してもよい。この場合は、例えば7個のパラメータにより取得された抽出結果の整合度を上記尤度とすることができる。 Further, instead of setting the overall shape finding to one value, for example, the likelihood of each of the seven items may be set. In this case, for example, the consistency of the extraction result acquired by the seven parameters can be used as the above-mentioned likelihood.

さらに、上記尤度に加えて、入力画像I(x,y,z)とそれぞれの抽出結果で計算される注目領域の特徴量および、事前に取得した注目領域の臨床情報などを用いて、機械学習の技術によって、全体形状所見の値を決定してもよい。 Further, in addition to the above-mentioned likelihood, the machine uses the input image I (x, y, z), the feature amount of the region of interest calculated from each extraction result, and the clinical information of the region of interest acquired in advance. The value of the overall shape finding may be determined by the learning technique.

(ステップS2150)
ステップS2150では、表示制御部1055は、領域抽出の結果を表示部160に表示させる処理を行う。表示制御部1055は、ステップS2140で決定された注目領域の抽出結果RsegおよびステップS2145で決定された注目領域の所見Fの値に関する情報を画像処理装置100に接続された表示部160に送信し、表示部160に表示させる。抽出結果Rsegの表示はステップS1150と同様の処理であるため、説明を省略する。一方、表示制御部1055は、注目領域の所見Fの値を、Rsegの内部または外部の近傍に表示させる。さらに、ユーザがマウスといった操作部170を介して、Rseg領域を指定する際に所見Fの値を表示させてもよい。
(Step S2150)
In step S2150, the display control unit 1055 performs a process of displaying the result of the area extraction on the display unit 160. The display control unit 1055 transmits information about the value of finding F of the region of interest determined by the extraction result R seg and step S2145 of the region of interest determined in step S2140 on the display unit 160 connected to the image processing apparatus 100 , Displayed on the display unit 160. Since the display of the extraction result R seg is the same process as in step S1150, the description thereof will be omitted. On the other hand, the display control unit 1055, the value of findings F of the region of interest, is displayed near the internal or external R seg. Further, the value of the finding F may be displayed when the user specifies the R seg region via the operation unit 170 such as a mouse.

本発明の第二の実施形態に係る画像処理装置によれば、注目領域を特定することと同時に、注目領域の属性(所見)を提示することができる。 According to the image processing apparatus according to the second embodiment of the present invention, it is possible to specify the region of interest and at the same time present the attributes (findings) of the region of interest.

上述の各実施形態における画像処理装置および画像処理システムは、単体の装置として実現してもよいし、複数の情報処理装置を含む装置を互いに通信可能に組合せて上述の処理を実行する形態としてもよく、いずれも本発明の実施形態に含まれる。共通のサーバ装置あるいはサーバ群で、上述の処理を実行することとしてもよい。この場合、当該共通のサーバ装置は実施形態に係る画像処理装置に対応し、当該サーバ群は実施形態に係る画像処理システムに対応する。画像処理装置および画像処理システムを構成する複数の装置は所定の通信レートで通信可能であればよく、また同一の施設内あるいは同一の国に存在することを要しない。 The image processing device and the image processing system in each of the above-described embodiments may be realized as a single device, or may be a form in which devices including a plurality of information processing devices are combined so as to be able to communicate with each other to execute the above-mentioned processing. Often, both are included in the embodiments of the present invention. The above processing may be executed by a common server device or a group of servers. In this case, the common server device corresponds to the image processing device according to the embodiment, and the server group corresponds to the image processing system according to the embodiment. The image processing device and the plurality of devices constituting the image processing system need not be present in the same facility or in the same country as long as they can communicate at a predetermined communication rate.

本発明の実施形態には、前述した実施形態の機能を実現するソフトウェアのプログラムを、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータが該供給されたプログラムのコードを読みだして実行するという形態を含む。 In the embodiment of the present invention, a software program that realizes the functions of the above-described embodiment is supplied to the system or device, and the computer of the system or device reads and executes the code of the supplied program. Including morphology.

したがって、実施形態に係る処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明の実施形態の一つである。また、コンピュータが読みだしたプログラムに含まれる指示に基づき、コンピュータで稼働しているOSなどが、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。 Therefore, in order to realize the processing according to the embodiment on the computer, the program code itself installed on the computer is also one of the embodiments of the present invention. Further, based on the instruction included in the program read by the computer, the OS or the like running on the computer performs a part or all of the actual processing, and the function of the above-described embodiment can be realized by the processing. ..

上述の実施形態を適宜組み合わせた形態も、本発明の実施形態に含まれる。 An embodiment in which the above-described embodiments are appropriately combined is also included in the embodiment of the present invention.

100 画像処理装置
1000 画像取得部
1010 パラメータ取得部
1020 領域抽出部
1030 整合度算出部
1040 抽出結果決定部
1050 表示制御部
100 Image processing device 1000 Image acquisition unit 1010 Parameter acquisition unit 1020 Area extraction unit 1030 Consistency calculation unit 1040 Extraction result determination unit 1050 Display control unit

Claims (15)

複数の異なるパラメータを用いて、前記パラメータ毎に医用画像に対する注目領域をそれぞれ抽出する処理を行い、前記医用画像の各画素が抽出された前記注目領域に属するか否かを示す複数の抽出結果を取得する結果取得手段と、
記抽出結果のそれぞれに基づいて得られる第1特徴量を取得する第1取得手段と、
前記抽出結果を得た方法と異なる方法を用いて、前記医用画像に対する注目領域に対応する第2特徴量を取得する第2取得手段と、
数の前記第1特徴量と前記第2特徴量との比較を行い、比較結果に基づいて前記複数の抽出結果から1の抽出結果を選択し、選択した前記抽出結果に基づいて前記医用画像における注目領域を特定する選択手段と、
を備えることを特徴とする情報処理装置。
A process of extracting a region of interest for a medical image for each of the parameters using a plurality of different parameters is performed, and a plurality of extraction results indicating whether or not each pixel of the medical image belongs to the extracted region of interest are obtained. and the result acquisition means retrieve,
A first obtaining means for obtaining a first feature amount obtained based on the respective front Ki抽out results,
A second acquisition means for acquiring a second feature amount corresponding to a region of interest for the medical image by using a method different from the method for obtaining the extraction result.
The first feature amount of several to compare with the second feature amount, selects one of the extraction result from the plurality of extraction results based on the comparison result, the medical image based on the extracted result of the selected Selection means to identify the area of interest in
An information processing device characterized by being equipped with.
前記選択手段は、前記複数の第1特徴量のうち前記第2特徴量との整合度が最も高い前記第1特徴量に対応する前記抽出結果を選択することを特徴とする請求項1記載の情報処理装置。 The method according to claim 1, wherein the selection means selects the extraction result corresponding to the first feature amount having the highest consistency with the second feature amount among the plurality of first feature amounts. Information processing device. 前記第1特徴量および前記第2特徴量は、前記注目領域の形状を示すことを特徴とする請求項1または請求項2記載の情報処理装置。 The information processing apparatus according to claim 1 or 2, wherein the first feature amount and the second feature amount indicate the shape of the region of interest. 前記第1特徴量および前記第2特徴量は、前記注目領域の直径または半径を示すことを特徴とする請求項3記載の情報処理装置。 The information processing apparatus according to claim 3, wherein the first feature amount and the second feature amount indicate the diameter or radius of the region of interest. 前記複数の抽出結果は、1つの抽出方法において複数の異なるパラメータを用いて前記注目領域を抽出した結果であることを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 4, wherein the plurality of extraction results are the results of extracting the region of interest using a plurality of different parameters in one extraction method. 前記複数の異なるパラメータは、機械学習により得られたパラメータであることを特徴とする請求項5記載に記載の情報処理装置。 The information processing apparatus according to claim 5, wherein the plurality of different parameters are parameters obtained by machine learning. 前記複数の異なるパラメータは、注目領域の抽出精度に基づいて得られたパラメータであることを特徴とする請求項6記載の情報処理装置。 The information processing apparatus according to claim 6, wherein the plurality of different parameters are parameters obtained based on the extraction accuracy of the region of interest. 前記複数の異なるパラメータは、注目領域の複数の形状特徴毎に得られたパラメータであることを特徴とする請求項5または請求項7に記載の情報処理装置。 The information processing apparatus according to claim 5 or 7, wherein the plurality of different parameters are parameters obtained for each of the plurality of shape features in the region of interest. 前記複数の抽出結果は、異なる複数の抽出方法を用いて前記注目領域を抽出した結果であることを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 4, wherein the plurality of extraction results are the results of extracting the region of interest using a plurality of different extraction methods. 前記複数の抽出結果のそれぞれは、領域拡張法、Level−set法、Graph Cut法またはDynamic Programmingにより前記注目領域を抽出した結果であり、
前記第2取得手段は、前記医用画像に対してLoG(Laplacian of Gaussian)カーネルを適用することにより前記第2特徴量を取得することを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。
Each of the plurality of extraction results is the result of extracting the region of interest by the region expansion method, the Level-set method, the Graph Cut method, or Dynamic programming.
The second acquisition means according to any one of claims 1 to 9, wherein the second acquisition means acquires the second feature amount by applying a LoG (Laplacian of Gaussian) kernel to the medical image. Information processing equipment.
前記選択手段による選択結果に基づいて、前記注目領域を表す所見を決定する決定手段を更に備えることを特徴とする請求項1乃至10のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 10, further comprising a determination means for determining a finding representing the region of interest based on the selection result by the selection means. 前記決定手段は、前記注目領域の形状を表す所見を決定することを特徴とする請求項11記載の情報処理装置。 The information processing apparatus according to claim 11, wherein the determination means determines a finding representing the shape of the region of interest. 前記選択手段による選択結果を表示部に表示させる表示制御手段を更に備えることを特徴とする請求項1乃至12のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 12, further comprising a display control means for displaying the selection result by the selection means on the display unit. 前記選択手段は、前記1の抽出結果に加えて少なくとも1つの他の抽出結果を選択することを特徴とする請求項1に記載の情報処理装置。The information processing apparatus according to claim 1, wherein the selection means selects at least one other extraction result in addition to the extraction result of 1. 被験体を撮影することで医用画像を得る撮影手段と、
複数の異なるパラメータを用いて、前記パラメータ毎に前記医用画像に対する注目領域をそれぞれ抽出する処理を行い、前記医用画像の各画素が抽出された前記注目領域に属するか否かを示す複数の抽出結果を取得する結果取得手段と、
記抽出結果のそれぞれに基づいて得られる第1特徴量を取得する第1取得手段と、
前記抽出結果を得た方法と異なる方法を用いて、前記医用画像に対する注目領域に対応する第2特徴量を取得する第2取得手段と、
数の前記第1特徴量と前記第2特徴量との比較を行い、比較結果に基づいて前記複数の抽出結果から1の抽出結果を選択し、選択した前記抽出結果に基づいて前記医用画像における注目領域を特定する選択手段と、
を備えることを特徴とする情報処理システム。
A means of imaging to obtain a medical image by photographing a subject,
A process of extracting a region of interest for the medical image for each of the parameters using a plurality of different parameters is performed, and a plurality of extraction results indicating whether or not each pixel of the medical image belongs to the extracted region of interest. and taken Tokusuru result acquisition means,
A first obtaining means for obtaining a first feature amount obtained based on the respective front Ki抽out results,
A second acquisition means for acquiring a second feature amount corresponding to a region of interest for the medical image by using a method different from the method for obtaining the extraction result.
The first feature amount of several to compare with the second feature amount, selects one of the extraction result from the plurality of extraction results based on the comparison result, the medical image based on the extracted result of the selected Selection means to identify the area of interest in
An information processing system characterized by being equipped with.
JP2016080649A 2016-04-13 2016-04-13 Information processing equipment and information processing system Active JP6827707B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016080649A JP6827707B2 (en) 2016-04-13 2016-04-13 Information processing equipment and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016080649A JP6827707B2 (en) 2016-04-13 2016-04-13 Information processing equipment and information processing system

Publications (2)

Publication Number Publication Date
JP2017189394A JP2017189394A (en) 2017-10-19
JP6827707B2 true JP6827707B2 (en) 2021-02-10

Family

ID=60084264

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016080649A Active JP6827707B2 (en) 2016-04-13 2016-04-13 Information processing equipment and information processing system

Country Status (1)

Country Link
JP (1) JP6827707B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020044435A1 (en) * 2018-08-28 2020-03-05 株式会社島津製作所 Data analysis method, data analysis device, and learning model creation method for data analysis
US11934944B2 (en) 2018-10-04 2024-03-19 International Business Machines Corporation Neural networks using intra-loop data augmentation during network training
JP7360651B2 (en) * 2019-09-30 2023-10-13 龍一 中原 Medical image processing device, medical image processing program, and medical image processing method

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0469647A (en) * 1990-07-10 1992-03-04 Fuji Photo Film Co Ltd Method for recognizing division pattern of radiograph
JP3975668B2 (en) * 2000-10-31 2007-09-12 コニカミノルタホールディングス株式会社 Feature quantity correctness determination method and image processing apparatus
JP2003339684A (en) * 2002-05-28 2003-12-02 Canon Inc Device, system, and method for processing image, and storage medium
JP2004351100A (en) * 2003-05-30 2004-12-16 Konica Minolta Medical & Graphic Inc System and method for medical image processing
JP2005270279A (en) * 2004-03-24 2005-10-06 Canon Inc Image processor
JP2006167289A (en) * 2004-12-17 2006-06-29 Toshiba Corp Compound diagnostic imaging support system and apparatus, and medical image database creation method
US7648460B2 (en) * 2005-08-31 2010-01-19 Siemens Medical Solutions Usa, Inc. Medical diagnostic imaging optimization based on anatomy recognition
US20090034810A1 (en) * 2007-08-03 2009-02-05 Fujifilm Corporation Abnormal tissue pattern detection apparatus, method and program
US8311296B2 (en) * 2007-11-21 2012-11-13 Parascript, Llc Voting in mammography processing
JP5197140B2 (en) * 2008-05-07 2013-05-15 キヤノン株式会社 X-ray fluoroscopic apparatus, moving image processing method, program, and storage medium
JP2010082001A (en) * 2008-09-29 2010-04-15 Toshiba Corp Image display device
DE102009022834A1 (en) * 2009-05-27 2010-12-09 Siemens Aktiengesellschaft Method for automatic analysis of image data of a structure
DE112011105116T5 (en) * 2011-03-30 2014-01-23 General Electric Company Method and apparatus for image content based automatic brightness detection
JP5864942B2 (en) * 2011-07-29 2016-02-17 キヤノン株式会社 Image processing apparatus and image processing method
JP5868231B2 (en) * 2012-03-16 2016-02-24 株式会社日立製作所 Medical image diagnosis support apparatus, medical image diagnosis support method, and computer program
CN103093473A (en) * 2013-01-25 2013-05-08 北京理工大学 Multi-target picture segmentation based on level set
KR102042202B1 (en) * 2013-02-25 2019-11-08 삼성전자주식회사 Lesion segmentation apparatus and method in medical image
JP6221770B2 (en) * 2014-01-24 2017-11-01 コニカミノルタ株式会社 Image processing apparatus and program
JP6383182B2 (en) * 2014-06-02 2018-08-29 キヤノン株式会社 Image processing apparatus, image processing system, image processing method, and program
GB2528249B (en) * 2014-07-11 2019-03-06 Siemens Medical Solutions Usa Inc Automatic background region selection for lesion delineation in medical images

Also Published As

Publication number Publication date
JP2017189394A (en) 2017-10-19

Similar Documents

Publication Publication Date Title
US10111713B2 (en) Surgery assistance apparatus, surgery assistance method and non-transitory computer-readable recording medium having stored therein surgery assistance program
EP3035287B1 (en) Image processing apparatus, and image processing method
US8335359B2 (en) Systems, apparatus and processes for automated medical image segmentation
US7773786B2 (en) Method and apparatus for three-dimensional interactive tools for semi-automatic segmentation and editing of image objects
CN112885453A (en) Method and system for identifying pathological changes in subsequent medical images
CN107767962B (en) Determining result data based on medical measurement data from different measurements
EP3206189B1 (en) Image processing apparatus, image processing method, and program
EP3796210A1 (en) Spatial distribution of pathological image patterns in 3d image data
US8805471B2 (en) Surgery-assistance apparatus, method and program
JP6643827B2 (en) Image processing apparatus, image processing method, and program
US10949698B2 (en) Image processing apparatus, image processing system, image processing method, and storage medium
EP3893198A1 (en) Method and system for computer aided detection of abnormalities in image data
JP2010119850A (en) System, apparatus, and process for automated medical image segmentation using statistical model
JP6824845B2 (en) Image processing systems, equipment, methods and programs
JP5832938B2 (en) Image processing apparatus, method, and program
CN107004305A (en) Medical image editor
EP3424017B1 (en) Automatic detection of an artifact in patient image data
US10762636B2 (en) Systems and methods for volumetric segmentation of structures in planar medical images
JP6458166B2 (en) MEDICAL IMAGE PROCESSING METHOD, DEVICE, SYSTEM, AND PROGRAM
US8907949B2 (en) Image display apparatus, method and program
WO2018088055A1 (en) Image processing device, image processing method, image processing system, and program
JP6827707B2 (en) Information processing equipment and information processing system
CN115861656A (en) Method, apparatus and system for automatically processing medical images to output an alert
CN117711576A (en) Method and system for providing a template data structure for medical reports
JP7321671B2 (en) Information processing device, information processing method, information processing system and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200501

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200701

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210120

R151 Written notification of patent or utility model registration

Ref document number: 6827707

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151