JP6643821B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP6643821B2
JP6643821B2 JP2015132181A JP2015132181A JP6643821B2 JP 6643821 B2 JP6643821 B2 JP 6643821B2 JP 2015132181 A JP2015132181 A JP 2015132181A JP 2015132181 A JP2015132181 A JP 2015132181A JP 6643821 B2 JP6643821 B2 JP 6643821B2
Authority
JP
Japan
Prior art keywords
shape
image processing
partial
region
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015132181A
Other languages
Japanese (ja)
Other versions
JP2017012446A (en
Inventor
斌 陳
斌 陳
建策 森
建策 森
嘉彦 中村
嘉彦 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015132181A priority Critical patent/JP6643821B2/en
Publication of JP2017012446A publication Critical patent/JP2017012446A/en
Application granted granted Critical
Publication of JP6643821B2 publication Critical patent/JP6643821B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、医用画像に画像処理を施す画像処理装置、画像処理システム、画像処理方法、画像処理プログラム、に関する。   The present invention relates to an image processing device that performs image processing on a medical image, an image processing system, an image processing method, and an image processing program.

近年、医療現場では多くの医用画像が活用されるようになってきている。それに伴い、医師が医用画像をもとに診断を行ったり、治療方針を検討したりする、いわゆる読影と呼ばれる作業の負荷が増加している。そこで、コンピュータで医用画像を解析して得られる情報を診断の助けとするコンピュータ診断支援(Computer Aided Diagnosis:CAD)に関する技術への期待が高まっている。かかる技術においては、病変の特徴を解析したり、良悪性を鑑別したりするために、腫瘍など解析対象領域を特定して抽出する(対象物を抽出する)精度が重要となる。   In recent years, many medical images have been used in medical sites. Along with this, the workload of so-called image reading, in which a doctor makes a diagnosis based on medical images and examines a treatment policy, is increasing. Therefore, there is an increasing expectation for a technology related to computer aided diagnosis (CAD) in which information obtained by analyzing a medical image with a computer is used to assist diagnosis. In such technology, the accuracy of identifying and extracting an analysis target region such as a tumor (extracting an object) is important in order to analyze the characteristics of a lesion or distinguish between benign and malignant.

特許文献1には、入力画像から塊状の対象物の形状を近似する円の半径(期待半径)を求め、期待半径を用いた評価関数に基づいて対象物を抽出することが開示されている。   Patent Literature 1 discloses that a radius (expected radius) of a circle approximating the shape of a massive object is obtained from an input image, and the object is extracted based on an evaluation function using the expected radius.

特許第5231007号公報Japanese Patent No. 5231007

腫瘍など解析対象となる病変領域の形状は、規則的な塊状(球形、円形)を示すもののほか、病変の種類や周辺臓器との接触の状態に依って、楕円体状、分葉状、糸状などの形状を示すものが存在する。さらに、上述したような複数の形状の特徴を併せ持つ、不規則な形状を示すものも存在する。対象物の形状を円で近似して対象物を抽出しようとすると、対象物が不規則な形状を有する場合に、外形を正しく求めることが難しく抽出精度が低下するおそれがある。   The shape of the lesion area to be analyzed, such as a tumor, shows a regular mass (spherical or circular), and depending on the type of lesion and the state of contact with surrounding organs, it may be ellipsoidal, lobulated, filamentous, etc. There exists a thing which shows the shape of. Further, there is an object having an irregular shape having the features of a plurality of shapes as described above. When trying to extract an object by approximating the shape of the object with a circle, when the object has an irregular shape, it is difficult to accurately determine the outer shape, and the extraction accuracy may be reduced.

本発明の実施形態に係る画像処理装置は、医用画像を取得する画像取得手段と、前記医用画像に含まれる対象物における互いに異なる複数の領域に対して画像処理を行うことで前記対象物に含まれる領域の形状を近似する部分形状を複数推定し、当該推定により得られた複数の部分形状を結合した形状を前記対象物の形状を近似する概略形状として取得する概略形状取得手段と、前記概略形状前記対象物の領域を抽出する処理の条件として用いて前記対象物の領域を抽出する抽出手段と、を有することを特徴とする。 An image processing apparatus according to an embodiment of the present invention includes an image acquisition unit configured to acquire a medical image, and an image acquisition unit that performs image processing on a plurality of different regions in the object included in the medical image to include the medical image in the object. A plurality of partial shapes that approximate the shape of the region to be estimated, and a rough shape obtaining unit that obtains a shape obtained by combining the plurality of partial shapes obtained by the estimation as a rough shape that approximates the shape of the target object; Extracting means for extracting a region of the object using a shape as a condition for a process of extracting the region of the object .

本発明によれば、対象物の外形を、より精度良く抽出することが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to extract the external shape of an object more accurately.

第1実施形態に係る画像処理システムの装置構成を示す図である。FIG. 2 is a diagram illustrating a device configuration of the image processing system according to the first embodiment. 第1実施形態に係る画像処理システムの機能構成を示す図である。FIG. 2 is a diagram illustrating a functional configuration of the image processing system according to the first embodiment. 第1実施形態に係る画像処理装置100の処理手順を示す図である。FIG. 2 is a diagram illustrating a processing procedure of the image processing apparatus 100 according to the first embodiment. 第1実施形態に係る部分形状の推定を説明する図である。FIG. 5 is a diagram illustrating estimation of a partial shape according to the first embodiment. 第1実施形態に係る部分形状の推定を説明する図である。FIG. 5 is a diagram illustrating estimation of a partial shape according to the first embodiment. 第1実施形態に係る部分形状の結合を説明する図である。It is a figure explaining combination of a partial shape concerning a 1st embodiment. 第1実施形態に係る対象物の抽出を説明する図である。It is a figure explaining extraction of an object concerning a 1st embodiment. 第1実施形態の変形例4に係る部分形状の結合を説明する図である。It is a figure explaining combination of partial shape concerning modification 4 of a 1st embodiment. 第2実施形態に係る画像処理システムの機能構成を示す図である。It is a figure showing the functional composition of the image processing system concerning a 2nd embodiment. 第2実施形態に係る画像処理装置の処理手順を示す図である。It is a figure showing the processing procedure of the image processing device concerning a 2nd embodiment. 第2実施形態に係る概略形状の修正を説明する図である。It is a figure explaining correction of a schematic shape concerning a 2nd embodiment. 第2実施形態に係る概略形状の修正を説明する図である。It is a figure explaining correction of a schematic shape concerning a 2nd embodiment. 第3実施形態に係る画像処理システムの機能構成を示す図である。It is a figure showing the functional composition of the image processing system concerning a 3rd embodiment. 第3実施形態に係る画像処理装置の処理手順を示す図である。FIG. 13 is a diagram illustrating a processing procedure of the image processing apparatus according to the third embodiment. 第3実施形態に係るシード点の修正を説明する図である。It is a figure explaining correction of a seed point concerning a 3rd embodiment.

図1に基づいて本発明の第一の実施形態に係る画像処理装置100及び、画像処理装置100と接続される各装置から構成される画像処理システム190について詳しく説明する。画像処理システム190において、医用画像を取得し、当該医用画像に含まれる対象物の領域を画像処理により抽出する。画像処理システム190は、画像を撮影する画像撮影装置110と、撮影された画像を記憶するデータサーバ120と、画像処理を行う画像処理装置100と、取得された医用画像及び画像処理の結果を表示する表示部160と、操作入力のための操作部170、を有する。医用画像とは、画像撮影装置110により取得された画像データを、診断に好適な画像とするための画像処理等を施して得られる画像である。以下、各部について説明する。   An image processing apparatus 100 according to the first embodiment of the present invention and an image processing system 190 including each device connected to the image processing apparatus 100 will be described in detail with reference to FIG. In the image processing system 190, a medical image is acquired, and a region of the target included in the medical image is extracted by image processing. The image processing system 190 displays an image capturing apparatus 110 that captures an image, a data server 120 that stores the captured image, an image processing apparatus 100 that performs image processing, and an acquired medical image and the result of the image processing. And an operation unit 170 for inputting operations. The medical image is an image obtained by performing image processing or the like for converting image data acquired by the image capturing apparatus 110 into an image suitable for diagnosis. Hereinafter, each unit will be described.

画像処理装置100は、例えばコンピュータであり、本実施形態に係る画像処理を行う。画像処理装置100は、中央演算処理装置(CPU:Central Processing Unit)11、主メモリ12、磁気ディスク13、表示メモリ14を有する。CPU11は、画像処理装置100の各構成要素の動作を統合的に制御する。CPU11の処理により、画像処理装置100が画像撮影装置110の動作も併せて制御するようにしてもよい。主メモリ12は、CPU11が実行する制御プログラムを格納し、CPU11によるプログラム実行時の作業領域を提供する。磁気ディスク13は、オペレーティングシステム(OS:Operating System)、周辺機器のデバイスドライバ、後述する本実施形態に係る画像処理を行うためのプログラムを含む各種アプリケーションソフトを格納する。表示メモリ14は、表示部160に表示するデータを一時的に格納する。表示部160は、例えば液晶モニタであり、表示メモリ14からの出力に基づいて画像を表示する。操作部170は、例えばマウスやキーボードであり、操作者によるポインティング入力や文字等の入力を行う。表示部160は操作入力を受け付けるタッチパネルモニタであってもよく、操作部170はスタイラスペンであってもよい。画像処理装置100は、医用画像を分析した結果を医師の診断に役立てるための、いわゆるコンピュータ診断支援(computer−aided diagnosis:CAD)装置を構成するものであってもよい。上記の各構成要素は共通バス18により互いに通信可能に接続されている。   The image processing apparatus 100 is, for example, a computer, and performs image processing according to the present embodiment. The image processing apparatus 100 includes a central processing unit (CPU) 11, a main memory 12, a magnetic disk 13, and a display memory 14. The CPU 11 integrally controls the operation of each component of the image processing apparatus 100. By the processing of the CPU 11, the image processing apparatus 100 may control the operation of the image photographing apparatus 110 together. The main memory 12 stores a control program executed by the CPU 11 and provides a work area when the CPU 11 executes the program. The magnetic disk 13 stores an operating system (OS: Operating System), device drivers for peripheral devices, and various application software including a program for performing image processing according to the embodiment described below. The display memory 14 temporarily stores data to be displayed on the display unit 160. The display unit 160 is, for example, a liquid crystal monitor, and displays an image based on an output from the display memory 14. The operation unit 170 is, for example, a mouse or a keyboard, and performs a pointing input, an input of characters, and the like by the operator. Display unit 160 may be a touch panel monitor that receives an operation input, and operation unit 170 may be a stylus pen. The image processing apparatus 100 may constitute a so-called computer-aided diagnosis (CAD) apparatus for utilizing the result of analyzing the medical image for a doctor's diagnosis. The above components are communicably connected to each other by a common bus 18.

画像撮影装置110は、例えばコンピュータ断層撮影装置(CT:Computed Tomography)、核磁気共鳴映像装置(MRI:Magnetic Resonance Imaging)、2次元の放射線画像を撮像する放射線撮影装置(DR:Degital Radiography)である。画像撮影装置110は取得した画像をデータサーバ120へ送信する。画像撮影装置110を制御する撮影制御部(不図示)が画像処理装置100に含まれていてもよい。   The image capturing apparatus 110 is, for example, a computed tomography apparatus (CT: Computed Tomography), a nuclear magnetic resonance imaging apparatus (MRI: Magnetic Resonance Imaging), or a radiation imaging apparatus (DR: Digital Radiography) that captures a two-dimensional radiation image. . The image photographing device 110 transmits the acquired image to the data server 120. An imaging control unit (not shown) that controls the image imaging device 110 may be included in the image processing device 100.

データサーバ120は、画像撮影装置110が撮影した画像を保持する。データサーバ120は、例えばPACS(Picture Archiving and Communication System)サーバである。画像処理装置100は、データサーバ120から、Ethernet(登録商標)等のネットワークを介して必要なデータを読み込み、データサーバ120に保持された画像を取得する。   The data server 120 holds an image captured by the image capturing device 110. The data server 120 is, for example, a PACS (Picture Archiving and Communication System) server. The image processing apparatus 100 reads necessary data from the data server 120 via a network such as Ethernet (registered trademark), and acquires an image stored in the data server 120.

次に、図2に基づいて画像処理装置100を構成する各機能構成について説明する。主メモリ12に格納されている、各部の機能を実現するプログラムをCPU11が実行することにより実現される。画像処理装置100は、画像取得部1000、シード点取得部1010、形状推定部1020、形状結合部1030、抽出部1040、表示制御部1050を有する。   Next, each functional configuration of the image processing apparatus 100 will be described based on FIG. It is realized by the CPU 11 executing a program for realizing the function of each unit stored in the main memory 12. The image processing apparatus 100 includes an image acquisition unit 1000, a seed point acquisition unit 1010, a shape estimation unit 1020, a shape combination unit 1030, an extraction unit 1040, and a display control unit 1050.

画像取得部1000は、本実施形態に係る画像処理の対象とする医用画像を対象画像としてデータサーバ120から取得する。画像取得部1000は、画像撮影装置110により撮影された医用画像を、通信手段(不図示)を介して取得してもよい。シード点取得部1010は、画像取得部1000が取得した画像に含まれる、対象物の領域に属する一又は複数の点(以下、シード点と称する)に関する情報(以下、シード点情報と称する)を取得する。シード点情報とは、例えばそれぞれのシード点の位置を示す座標や、取得したシード点の個数である。形状推定部1020は、シード点取得部1010が取得したシード点に関する情報と、それぞれのシード点の周辺画素の濃度値に関する情報とに基づいて、対象物に含まれる領域(以下、部分領域と称する)の形状を近似する部分形状を推定する。そして、複数の部分領域それぞれの部分形状を推定する。形状結合部1030は、形状推定部1020が取得した複数の部分形状を結合し、対象物領域の概略形状とする。ここで、概略形状とは対象物の形状を近似した形状である。すなわち、形状推定部1020と形状結合部分形状1030が、概略形状取得のための構成である。抽出部1040は、画像取得部1000が取得した対象画像の濃度値に関する情報と、及び形状結合部1030が取得した概略形状に基づいて、対象物の領域を抽出する。表示制御部1050は、抽出部1040が取得した対象物の領域の情報を表示部160に出力し、表示部160に対象物の領域の抽出結果を表示させる。   The image acquisition unit 1000 acquires a medical image to be subjected to image processing according to the present embodiment from the data server 120 as a target image. The image acquisition unit 1000 may acquire a medical image captured by the image capturing device 110 via a communication unit (not illustrated). The seed point acquisition unit 1010 stores information (hereinafter, referred to as seed point information) regarding one or a plurality of points (hereinafter, referred to as seed points) belonging to the region of the object included in the image acquired by the image acquisition unit 1000. get. The seed point information is, for example, coordinates indicating the position of each seed point and the number of acquired seed points. The shape estimating unit 1020 determines a region included in the target object (hereinafter, referred to as a partial region) based on the information on the seed points acquired by the seed point acquiring unit 1010 and the information on the density values of the peripheral pixels of each seed point. ) Is estimated. Then, a partial shape of each of the plurality of partial regions is estimated. The shape combining unit 1030 combines the plurality of partial shapes acquired by the shape estimating unit 1020 to form a general shape of the target region. Here, the approximate shape is a shape that approximates the shape of the object. That is, the shape estimating unit 1020 and the shape-coupled partial shape 1030 are configurations for obtaining a general shape. The extraction unit 1040 extracts the region of the target object based on the information regarding the density value of the target image acquired by the image acquisition unit 1000 and the schematic shape acquired by the shape combining unit 1030. The display control unit 1050 outputs the information on the region of the object acquired by the extraction unit 1040 to the display unit 160, and causes the display unit 160 to display the extraction result of the region of the object.

なお、画像処理装置100が有する各部の少なくとも一部を独立した装置として実現してもよい。画像処理装置100はワークステーションでもよい。各部の機能を実現するソフトウェアとして実現してもよく、機能を実現するソフトウェアは、クラウドをはじめとするネットワークを介したサーバ上で動作してもよい。以下に説明する本実施形態では、各部はローカル環境におけるソフトウェアによりそれぞれ実現されているものとする。   Note that at least a part of each unit included in the image processing apparatus 100 may be realized as an independent device. The image processing device 100 may be a workstation. The software for realizing the functions of the respective units may be realized, and the software for realizing the functions may operate on a server via a network such as a cloud. In the present embodiment described below, it is assumed that each unit is realized by software in a local environment.

続いて、本発明の第一の実施形態に係る画像処理について説明する。図3は本実施形態の画像処理装置100が実行する処理手順を示す図である。本実施形態は、主メモリ12に格納されている各部の機能を実現するプログラムをCPU11が実行することにより実現される。本実施形態では、対象画像はCT画像であるとして説明する。CT画像は3次元濃淡画像として取得される。また、本実施形態では対象画像に含まれる対象物はリンパ節であるとして説明する。   Subsequently, image processing according to the first embodiment of the present invention will be described. FIG. 3 is a diagram illustrating a processing procedure executed by the image processing apparatus 100 according to the present embodiment. The present embodiment is realized by the CPU 11 executing a program for realizing the function of each unit stored in the main memory 12. In the present embodiment, a description will be given assuming that the target image is a CT image. The CT image is acquired as a three-dimensional gray image. In the present embodiment, the description will be given on the assumption that the target included in the target image is a lymph node.

ステップS1100において、医用画像を取得する。すなわち、画像取得部1000は対象画像であるCT画像をデータサーバ120から取得し、画像処理装置100の主メモリ12上に展開して保持する。別の例では、画像撮影装置110で撮影した画像データを、画像取得部1000は通信手段(不図示)を介して取得し、診断に好適な画像とするための画像処理等を施して、本実施形態に係る画像処理を施す医用画像を取得する。画像撮影装置110が例えばCT装置であった場合、画像撮影装置110からCT値とよばれる相対的なX線吸収係数値の一次元分布を画像データとして取得する。その後、画像取得部1000は画像再構成とよばれる処理を施して、3次元濃淡画像で表される医用画像を得る。画像取得部1000は、画像撮影装置110が画像再構成を行って得られた3次元濃淡画像を取得してもよい。   In step S1100, a medical image is obtained. That is, the image acquiring unit 1000 acquires a CT image as a target image from the data server 120, and develops and holds the CT image on the main memory 12 of the image processing apparatus 100. In another example, the image acquisition unit 1000 acquires image data photographed by the image photographing apparatus 110 via a communication unit (not shown), and performs image processing or the like to make the image suitable for diagnosis. A medical image to be subjected to image processing according to the embodiment is obtained. When the image capturing apparatus 110 is, for example, a CT apparatus, a one-dimensional distribution of relative X-ray absorption coefficient values called CT values is acquired from the image capturing apparatus 110 as image data. After that, the image acquisition unit 1000 performs a process called image reconstruction to obtain a medical image represented by a three-dimensional grayscale image. The image acquisition unit 1000 may acquire a three-dimensional grayscale image obtained by the image capturing apparatus 110 performing image reconstruction.

ここで、本実施形態における対象画像は、直交する3軸(x,y,z)の成分によって識別可能な複数の画素により構成される。付帯情報として取得される画素サイズは、3軸の方向それぞれに対して定義される。本実施形態では、3軸の方向それぞれに対する画素サイズが、r_size_x=1.0mm、r_size_y=1.0mm、r_size_z=1.0mm、の場合を例として説明する。対象画像の濃度値は、画素の3次元配列における画素位置を参照して導出される関数とみなすことができる。本実施形態では対象画像を関数I(x,y,z)として表す。関数I(x,y,z)は、対象画像の撮影領域の3次元の実空間座標(x,y,z)を引数として、その座標における画素値を出力する関数である。   Here, the target image in the present embodiment is composed of a plurality of pixels that can be identified by components of three orthogonal axes (x, y, z). The pixel size acquired as the supplementary information is defined for each of the three axes. In the present embodiment, a case where the pixel size in each of the three axis directions is r_size_x = 1.0 mm, r_size_y = 1.0 mm, and r_size_z = 1.0 mm will be described as an example. The density value of the target image can be regarded as a function derived with reference to a pixel position in a three-dimensional array of pixels. In the present embodiment, the target image is represented as a function I (x, y, z). The function I (x, y, z) is a function that takes the three-dimensional real space coordinates (x, y, z) of the imaging region of the target image as an argument and outputs a pixel value at the coordinates.

ステップS1110において、シード点情報を取得する。シード点取得部1010は対象物の領域すなわちリンパ節領域に属するn点の座標pseed_i(xseed_i,yseed_i,zseed_i) (i=1, 2, ・・・, n)を、シード点群として取得する。ここで、シード点はリンパ節領域の中心線付近に位置することが好ましい。中心線とは、リンパ節領域の重心(p)を含む任意の2次元平面におけるpを通る線である。 In step S1110, seed point information is obtained. The seed point acquisition unit 1010 converts the coordinates p seed — i (x seed — i, y seed — i, z seed — i) (i = 1, 2,..., N) of the n points belonging to the region of the object, that is, the lymph node region, into a seed point group. To get as Here, the seed point is preferably located near the center line of the lymph node region. The center line is a line through the p g in arbitrary two-dimensional plane including the center of gravity (p g) of the lymph node area.

シード点の取得について説明する。まず、表示部160に表示される対象画像の、例えば横断面(Axial)、矢状面(Sagittal)、冠状面(Coronal)の断層像を参照しながら、操作者がマウスといった操作部170を介して操作入力を行う。当該操作入力により得られた、リンパ節領域に含まれる一個の座標を一つ目のシード点pseed_1として取得する。そして、取得したpseed_1の近傍領域において、pseed_1と類似した特徴量を有する画素を、新たにシード点として取得する。別の例では、対象画像に対してヘッセ行列に基づく塊状強調フィルタを適用し、強調されたn個の領域から、例えばそれぞれの領域の重心をシード点として選択する。シード点の個数は予め操作者が設定しておいてもよい。シード点間の間隔を予め操作者が設定しておいて、操作者は対象画像上で対象物の範囲を、たとえば矩形にマウスを介して指定し、その矩形の中心線において設定されたシード点間隔に基づいてシード点を取得するようにしてもよい。 The acquisition of the seed point will be described. First, the operator operates the operation unit 170 such as a mouse while referring to a tomographic image of a target image displayed on the display unit 160, for example, a cross section (Axial), a sagittal plane (Sagittal), or a coronal plane (Coronal). To perform operation input. Obtained by the operation input, to acquire one of the coordinates included in the lymph node area as the seed point p Seed_1 first one. Then, in the region near the p Seed_1 acquired, a pixel having a feature value similar to p Seed_1, obtains as a new seed point. In another example, a lump enhancement filter based on a Hessian matrix is applied to the target image, and, for example, the center of gravity of each of the n regions is selected as a seed point from the n regions. The number of seed points may be set in advance by the operator. The operator sets the interval between the seed points in advance, and the operator specifies the range of the object on the target image using, for example, a rectangle using a mouse, and sets the seed point set at the center line of the rectangle. The seed point may be obtained based on the interval.

ステップS1120において、対象物の領域に属する複数の点に基づいて複数の部分形状を推定する。形状推定部1020は、ステップS1100で取得した対象画像I(x,y,z)と、ステップS1110で取得したそれぞれのシード点pseed_iを用いて、該シード点を含む部分形状をそれぞれ推定する処理を行う。画像中に含まれる様々な大きさの特徴領域である部分形状を推定するには、例えば画像をスケールによってパラメータ付けられたものとして表現するスケールスペース表現が有効である。画像のスケールスペース表現とは、与えられた画像を漸進的にぼかした画像を積み上げたものである。ここでは、部分形状が球であると仮定し、Laplacian of Gaussian(LoG)カーネルのスケールスペースを用いた部分形状の推定について説明する。これは、様々なスケールのLoGフィルタを適用したとき、部分形状の大きさとするのに適切なスケールが極値をもつことを利用するものである。 In step S1120, a plurality of partial shapes are estimated based on a plurality of points belonging to the region of the target object. The shape estimating unit 1020 uses the target image I (x, y, z) acquired in step S1100 and each of the seed points p seed_i acquired in step S1110 to estimate a partial shape including the seed point. I do. In order to estimate partial shapes that are feature regions of various sizes included in an image, for example, a scale space expression that expresses an image as being parameterized by a scale is effective. The scale-space representation of an image is a stack of images obtained by progressively blurring a given image. Here, assuming that the partial shape is a sphere, estimation of the partial shape using the scale space of a Laplacian of Gaussian (LoG) kernel will be described. This makes use of the fact that, when LoG filters of various scales are applied, the scale appropriate for the size of the partial shape has an extreme value.

まず、シード点pseed_iごとに、pseed_iの座標を原点としたシード点周辺の局所画像領域I´(x,y,z)に対して式1及び式2で表されるLoGカーネルを適用する。
L(x,y,z,h)=I´(x,y,z)*LoG(r) (式1)
First, for each seed point p seed_i , the LoG kernel represented by Expressions 1 and 2 is applied to a local image area I (x, y, z) around the seed point with the coordinates of p seed_i as the origin. .
L (x, y, z, h) = I (x, y, z) * LoG h (r) (Equation 1)


ここで、hはLoGカーネルのスケールを表すパラメータである。*は畳み込みを表す演算子である。スケールhを所定の範囲{hmin,・・・,hmax}で変動させたときのL(x,y,z,h)の出力を取得する。hminとhmaxは操作者が任意の値に設定することができる。次に、L(x,y,z,h)の出力の最大値に対応するスケールhを選択する。そして、当該スケールを直径とする球を、シード点周辺の部分形状として取得する。

Here, h is a parameter representing the scale of the LoG kernel. * Is an operator representing convolution. The output of L (x, y, z, h) when the scale h is changed in a predetermined range {h min ,..., H max } is acquired. The operator can set h min and h max to arbitrary values. Next, a scale h corresponding to the maximum value of the output of L (x, y, z, h) is selected. Then, a sphere having the diameter of the scale is obtained as a partial shape around the seed point.

図4に基づいて、LoGカーネルによるリンパ節の部分形状の推定について説明する。簡単のために、図において全ての形状は全て二次元で示す。図4(a)は、対象画像であるCT画像510であり、CT画像510中には対象物であるリンパ節520、およびステップS1110で取得したシード点530、531、532が示されている。それぞれのシード点を中心とする局所領域に対して上述したLoGカーネルを適用すると、図4(b)に示すように、それぞれの局所領域を近似する球の半径540、541、542が取得される。そして、図4(c)に示すように、取得された3つの半径に対応する球550、551、552が部分形状Q(pseed_i|i=1,・・・n)として推定される。対象物に含まれる複数の部分領域のそれぞれにおいて、式1及び式2に基づいて部分形状を推定すると、部分形状は複数の球として推定される。LoGフィルタによる処理でそれぞれの径に事前に設定した係数を乗じて、係数を乗じた径に対応する球を部分形状として推定してもよい。 The estimation of the partial shape of the lymph node using the LoG kernel will be described with reference to FIG. For simplicity, all shapes are shown in two dimensions in the figures. FIG. 4A shows a CT image 510 that is a target image. The CT image 510 shows a lymph node 520 that is a target object and the seed points 530, 531, and 532 acquired in step S1110. When the above-described LoG kernel is applied to a local region centered on each seed point, radii 540, 541, and 542 of spheres approximating each local region are obtained as shown in FIG. . Then, as shown in FIG. 4C, the spheres 550, 551, and 552 corresponding to the obtained three radii are estimated as the partial shape Q i (p seed — i | i = 1,..., N). In each of the plurality of partial regions included in the target object, when the partial shape is estimated based on Expressions 1 and 2, the partial shape is estimated as a plurality of spheres. In the processing by the LoG filter, each diameter may be multiplied by a coefficient set in advance, and a sphere corresponding to the diameter multiplied by the coefficient may be estimated as a partial shape.

ステップS1120の別の例では、部分形状が球又は楕円体のいずれかであると仮定して推定する。例えば、シード点を含む互いに直行する3つの断面において、部分形状である球又は楕円体の径を推定する。具体的には、任意の断面を第一の断面とし、第一の断面において、シード点pseed_iごとに、pseed_iの座標を原点としたシード点周辺の局所画像領域I´(x,y)を円であると仮定する。そして、式3及び式4で表されるLoGカーネルを適用する。
L(x,y,h)=I´(x,y)*LoG(rxy) (式3)
In another example of step S1120, estimation is performed assuming that the partial shape is either a sphere or an ellipsoid. For example, in three cross sections orthogonal to each other including the seed point, the diameter of a partial sphere or ellipsoid is estimated. Specifically, an arbitrary section is defined as a first section, and in the first section, for each seed point p seed_i , a local image area I (x, y) around the seed point with the coordinates of p seed_i as the origin. Is assumed to be a circle. Then, the LoG kernel represented by Expressions 3 and 4 is applied.
L (x, y, h) = I (x, y) * LoG h (r xy ) (Equation 3)


そして、L(x,y,h)の出力の最大値に対応するスケールhを選択する。当該スケールに対応する半径rxyを当該部分形状の第一の径とする。第二の断面と第三の断面においても同様の処理を行い、第二の径であるryzと、第三の径であるrzxを得る。これにより、3軸の各方向において、それぞれ2つずつの径が当該部分形状の径を表す候補として取得される。例えばx軸方向においてはrxyとrzxが当該部分形状のx軸方向の径の候補として取得される。2つの径からx軸方向の径を推定する方法としては、例えば2つの径の平均値を採用する。あるいは、2つの径のうち大きい方を採用するようにしてもよい。同様にして、3軸の各方向の径を推定できる。推定された3軸方向の径を有する楕円体を、形状推定部1020は当該部分形状として推定する。第一の径と第二の径と第三の径がそれぞれ等しい場合は、当該部分形状を球として推定する。第一の径と第二の径と第三の径をそれぞれ3軸方向に有する直方体を当該部分形状としてもよい。直方体に内接する楕円体を当該部分形状としてもよい。

Then, a scale h corresponding to the maximum value of the output of L (x, y, h) is selected. The radius r xy corresponding to the scale is set as the first diameter of the partial shape. The same processing is performed on the second section and the third section to obtain a second diameter ryz and a third diameter rzx . Thus, in each of the three axes, two diameters are obtained as candidates representing the diameter of the partial shape. For example, in the x-axis direction, r xy and r zx are acquired as candidates for the diameter of the partial shape in the x-axis direction. As a method of estimating the diameter in the x-axis direction from the two diameters, for example, an average value of the two diameters is employed. Alternatively, the larger one of the two diameters may be adopted. Similarly, the diameter of each of the three axes can be estimated. The shape estimating unit 1020 estimates an ellipsoid having the estimated three-axis direction diameter as the partial shape. When the first diameter, the second diameter, and the third diameter are respectively equal, the partial shape is estimated as a sphere. A rectangular parallelepiped having the first diameter, the second diameter, and the third diameter in three axial directions may be used as the partial shape. An ellipsoid inscribed in the rectangular parallelepiped may be the partial shape.

ステップS1120のまた別の例では、3つの径について自由度を有する楕円体モデルによって部分形状を推定する。図5に示すように、当該楕円体モデルをリンパ節の各シード点を中心とした領域にフィッティングし、取得された楕円体を当該部分形状として推定する。   In another example of step S1120, a partial shape is estimated by an ellipsoid model having degrees of freedom for three diameters. As shown in FIG. 5, the ellipsoid model is fitted to a region around each seed point of the lymph node, and the obtained ellipsoid is estimated as the partial shape.

ステップS1120のさらに別の例では、それぞれのシード点から対象物を囲む最小の六面体(bounding box)を推定することにより、複数の六面体を部分形状として推定する。形状は直方体などその他の多面体でもよい。複数の手法を同時に適用し、ユーザが手動で実際の形状と最も近いと思われる部分形状の集合を選択してもよい。   In still another example of step S1120, a plurality of hexahedrons are estimated as partial shapes by estimating the smallest bounding box surrounding the object from each seed point. The shape may be another polyhedron such as a rectangular parallelepiped. A plurality of methods may be applied simultaneously, and the user may manually select a set of partial shapes that are considered to be closest to the actual shape.

ステップS1120のさらに別の例では、予め部分形状の図形をテンプレートとして設定しておく。操作者は表示部160に表示されている対象画像を参照しながら、テンプレート図形を指定し、指定した図形を用いて形状を近似したい部分領域に含まれる点をシード点として指定する。たとえば、テンプレート図形として球を指定し、ある部分領域に含まれる点を指定すると、指定された点を中心とする球の径を式1及び式2を用いて推定し、当該部分領域を近似する部分形状とする。テンプレート図形としては、球や楕円体や直方体や多面体が挙げられる。   In still another example of step S1120, a partial figure is set in advance as a template. The operator designates a template figure while referring to the target image displayed on the display unit 160, and designates a point included in a partial area whose shape is to be approximated using the designated figure as a seed point. For example, when a sphere is specified as a template figure and a point included in a certain partial area is specified, the diameter of the sphere centered on the specified point is estimated using Expressions 1 and 2, and the partial area is approximated. Partial shape. Examples of the template figure include a sphere, an ellipsoid, a rectangular solid, and a polyhedron.

すなわち、ステップS1120では対象物の領域に属する複数の点のうち一つを含む部分領域において、一つの点を含む球または楕円体または多面体のいずれかを、当該部分領域の部分形状として、複数の部分形状のそれぞれを推定する。   That is, in step S1120, in a partial region including one of a plurality of points belonging to the region of the target object, any of a sphere, an ellipsoid, or a polyhedron including one point is defined as a partial shape of the partial region. Estimate each of the partial shapes.

ステップS1130では、推定された複数の部分形状を結合し、概略形状として取得する。形状結合部1030は、ステップS1120で取得した部分形状Qを結合し、リンパ節の概略形状を求める。本実施形態においては、ステップ1120で取得された複数の部分形状(Q,Q,・・・Q)の論理和をとることにより結合する。結合された領域が示す形状Qを、リンパ節の概略形状とする。図6(a)に、ステップS1120で取得した部分形状である球550、551、552を示す。図6(b)に、これらの球550、551、552の論理和により結合して取得した概略形状600を示す。 In step S1130, the plurality of estimated partial shapes are combined to obtain a rough shape. Shaped coupling unit 1030 combines the partial shape Q i obtained in Step S1120, obtains the general shape of the lymph node. In the present embodiment, the partial shapes (Q 1 , Q 2 ,..., Q n ) acquired in step 1120 are combined by ORing them. The shape Q indicated by the connected region is set as a schematic shape of the lymph node. FIG. 6A shows the spheres 550, 551, and 552 that are the partial shapes acquired in step S1120. FIG. 6B shows a schematic shape 600 obtained by combining these spheres 550, 551, and 552 by logical OR.

ステップS1130の別の例では、例えばS1120で推定された部分形状に対して、ある係数を乗じた部分形状をそれぞれ結合して概略形状として取得する。これにより取得される概略形状は対象物であるリンパ節よりも大きい形状であることが好ましい。係数は、抽出の対象となる形状よりも大きくなるように実験的に求めておく。操作者が設定するようにしてもよい。すなわち、ステップS1130では、概略形状の領域を対象物よりも大きな領域とするための係数を部分領域の径に乗じて、概略形状を取得するようにしてもよい。   In another example of step S1130, for example, a partial shape obtained by multiplying a partial shape estimated in step S1120 by a certain coefficient is combined to obtain a general shape. It is preferable that the approximate shape obtained by this is a shape larger than the lymph node that is the object. The coefficient is experimentally obtained so as to be larger than the shape to be extracted. The setting may be made by the operator. That is, in step S1130, the approximate shape may be obtained by multiplying the diameter of the partial region by a coefficient for making the region of the approximate shape larger than the target object.

ステップS1140では、概略形状に基づいて対象物の領域を抽出する。抽出部1040は、ステップS1100で取得した対象画像I(x,y,z)と、ステップS1130で取得した概略形状Qを用いて対象物であるリンパ節の領域を抽出する。ステップS1110で取得したシード点群pseed_iのシード点情報を用いてもよい。本実施形態では、濃淡画像から特定の領域を抽出する処理として可変形状モデルを用いた処理を行う。可変形状モデルとは、輪郭形状を所定の評価関数に従って逐次的に変形し、最適化された輪郭を、目的とする領域として抽出する方法である。ここでは、可変形状モデルを用いた処理の一つであるレベルセット法を例として説明する。レベルセット法は、対象物の輪郭のトポロジー変化や特異点の発生などに対応可能な手法である。レベルセット法では、対象物の空間よりも一次元高次の空間で定義した陰関数φにおいて、φ=0である断面(以下、ゼロ等値面と称する)を、抽出する対象物の輪郭として捉える。φの形状を変化させることで、ゼロ等値面の形状を変化させ、対象物の輪郭を変化させる。φの形状を設計するための評価関数により、抽出される輪郭の位置が制御される。概略形状Qに応じた評価関数によりφの形状を設計することで、対象物の領域を概略形状Qから乖離しないように制御する。すなわち、概略形状に基づいて対象物の領域の仮の輪郭を作成し、評価関数により仮の輪郭の変形を制御して、対象物の領域の輪郭を取得する。 In step S1140, a region of the target object is extracted based on the schematic shape. The extracting unit 1040 extracts a region of a lymph node as a target using the target image I (x, y, z) obtained in step S1100 and the schematic shape Q obtained in step S1130. The seed point information of the seed point group p seed_i acquired in step S1110 may be used. In the present embodiment, a process using a variable shape model is performed as a process for extracting a specific area from a grayscale image. The variable shape model is a method of sequentially deforming a contour shape according to a predetermined evaluation function and extracting an optimized contour as a target region. Here, the level set method which is one of the processes using the variable shape model will be described as an example. The level set method is a method capable of coping with a change in the topology of a contour of an object and occurrence of a singular point. In the level set method, in an implicit function φ defined in a space one-dimensionally higher than the space of the object, a cross section where φ = 0 (hereinafter referred to as a zero isosurface) is defined as a contour of the object to be extracted. Catch. By changing the shape of φ, the shape of the zero isosurface is changed, and the contour of the object is changed. The position of the contour to be extracted is controlled by an evaluation function for designing the shape of φ. By designing the shape of φ using an evaluation function corresponding to the approximate shape Q, the region of the target object is controlled so as not to deviate from the approximate shape Q. That is, a tentative outline of the target object area is created based on the schematic shape, and the deformation of the tentative outline is controlled by the evaluation function to acquire the outline of the target object area.

以下、レベルセット法を用いた抽出について説明する。抽出の対象物であるリンパ節の領域について、仮の輪郭を作成する。仮の輪郭すなわちゼロ等値面を変形させるために、ゼロ等値面に属する点に速度を与えるための速度関数を構築する。速度関数が、φの形状を設計するための評価関数となる。速度関数は、抽出したい対象物の濃度値や形状特徴等を考慮した項を有し、そのような特性に反する輪郭であるほど速度が大きくなり、そのような特性を有する輪郭であるほど速度が小さくなるように構築される。   Hereinafter, extraction using the level set method will be described. A provisional outline is created for the lymph node region to be extracted. In order to deform the tentative contour, that is, the zero iso-surface, a velocity function for giving a velocity to a point belonging to the zero iso-surface is constructed. The speed function is an evaluation function for designing the shape of φ. The velocity function has a term that takes into account the density value, shape characteristic, etc. of the target object to be extracted.The velocity increases as the contour deviates from such characteristics, and the velocity increases as the contour has such characteristics. Constructed to be small.

第一の特性として、リンパ節の領域内と領域外での濃度値の違いが挙げられる。従って、例えば式5に示すような、エッジ強度に基づく速度関数f(i,j,k)を用いる。 The first characteristic is a difference in concentration value between the inside and outside of the lymph node region. Therefore, for example, a velocity function f E (i, j, k) based on the edge strength as shown in Expression 5 is used.


ここで、E(i,j,k)は画素(i,j,k)におけるエッジ強度を表し、αは重み係数である。E(i,j,k)は濃度勾配で表される。別の例では、ソーベルフィルタ、ラプラシアンフィルタといったエッジ検出フィルタを対象画像に適応し、それらの出力値を用いる。f(i,j,k)によって、リンパ節の輪郭形状の変形速度は、濃度値変化が少ない領域で大きく、濃度値変化が大きいエッジ領域付近で小さくなる。これにより、抽出された対象物の輪郭の領域において濃度値変化が大きくなるように輪郭の位置が制御される。

Here, E (i, j, k) represents the edge strength at the pixel (i, j, k), and α is a weight coefficient. E (i, j, k) is represented by a concentration gradient. In another example, an edge detection filter such as a Sobel filter or a Laplacian filter is applied to a target image and their output values are used. Due to f E (i, j, k), the deformation speed of the contour shape of the lymph node is large in the area where the density value change is small, and is small near the edge area where the density value change is large. Thus, the position of the contour is controlled so that the change in density value is large in the region of the contour of the extracted object.

第二の特性として、リンパ節の輪郭はなめらかであることが挙げられる。従って、例えば式6に示すような、曲率に基づく速度関数fκ(i,j,k)を用いる。
κ(i,j,k)=1−β・κ(i,j,k) (式6)
ここで、κ(i,j,k)は画素(i,j,k)における曲率を表し、βは重み係数である。fκ(i,j,k)によって、リンパ節の輪郭形状の変形速度は、曲率が小さい箇所で大きくなり、曲率が大きい場所では小さくなる。これにより、抽出された対象物の輪郭の曲率が大きくなるように輪郭の位置が制御される。
The second characteristic is that the contour of the lymph node is smooth. Therefore, for example, a velocity function f κ (i, j, k) based on the curvature as shown in Expression 6 is used.
f κ (i, j, k) = 1−β · κ (i, j, k) (Equation 6)
Here, κ (i, j, k) represents the curvature at the pixel (i, j, k), and β is a weight coefficient. Due to f κ (i, j, k), the deformation speed of the contour shape of the lymph node increases at a location where the curvature is small, and decreases at a location where the curvature is large. Thereby, the position of the contour is controlled such that the curvature of the contour of the extracted object becomes large.

さらに、本発明の第一の実施形態に係る画像処理においては、抽出する対象物の輪郭がステップS1130で取得した概略形状Qから乖離しない、という特性を加える。従って、式7に示すような、ある画素と概略形状Qの輪郭との距離に基づく速度関数f(i,j,k)を用いる。
(i,j,k)=1−γ・d(i,j,k) (式7)
ここで、d(i,j,k)は画素(i,j,k)と概略形状Qの輪郭との距離である。γは重み係数である。画素(i,j,k)と概略形状Qとの距離は、例えば符号付きの距離変換により算出できる。具体的には、図7に基づいて説明する。まず、ステップS1130で取得した概略形状601に対して、符号付きの距離変換を行う。図7に示すように、概略形状601の輪郭上の位置では距離値は0、概略形状601の内部では距離値が負、概略形状601の外部では距離値が正になるように設定する。距離値の絶対値は、例えば画素(i,j,k)とQの輪郭画素との6近傍距離で表す。18近傍距離、26近傍距離で表してもよい。このような符号付きの距離場を用いることによって、f(i,j,k)すなわちリンパ節の輪郭形状の変形速度は、概略形状の輪郭付近で小さく、概略形状の輪郭から離れるほど大きくなる。さらに、概略形状内部では正の速度となるため仮の輪郭は拡張する方向に変形し、概略形状外部では負の速度となるため仮の輪郭は縮小する方向に変形するように設定できる。これにより、抽出された対象物の輪郭が概略形状から乖離しないように輪郭の位置が制御される。
Further, in the image processing according to the first embodiment of the present invention, a characteristic is added that the contour of the object to be extracted does not deviate from the general shape Q acquired in step S1130. Therefore, a velocity function f d (i, j, k) based on the distance between a certain pixel and the outline of the general shape Q as shown in Expression 7 is used.
f d (i, j, k) = 1−γ · d (i, j, k) (Equation 7)
Here, d (i, j, k) is the distance between the pixel (i, j, k) and the outline of the general shape Q. γ is a weight coefficient. The distance between the pixel (i, j, k) and the approximate shape Q can be calculated by, for example, signed distance conversion. Specifically, description will be given based on FIG. First, signed distance conversion is performed on the schematic shape 601 acquired in step S1130. As shown in FIG. 7, the distance value is set so that the distance value is 0 at the position on the outline of the general shape 601, the distance value is negative inside the general shape 601, and the distance value is positive outside the general shape 601. The absolute value of the distance value is represented by, for example, six neighboring distances between the pixel (i, j, k) and the contour pixel of Q. The distance may be represented by 18 neighborhood distances or 26 neighborhood distances. By using such a signed distance field, f d (i, j, k), that is, the deformation speed of the contour shape of the lymph node is small near the contour of the general shape, and increases as the distance from the contour of the general shape increases. . Furthermore, the temporary contour can be set to be deformed in the expanding direction because the speed becomes positive inside the general shape, and the temporary outline is deformed in the direction to be reduced because the speed becomes negative outside the general shape. Thereby, the position of the extracted object is controlled so that the outline of the object does not deviate from the general shape.

前述した3種類の速度関数を式8のように組み合わせて、レベルセット法の速度関数として用いる。
i,j,k=f(i,j,k)・fκ(i,j,k)・f(i,j,k) (式8)
これにより、対象物の領域の輪郭を、エッジ部分で、なめらかかつ概略形状から乖離しない曲線として抽出できる。式8で示される速度関数により制御される変形が停止あるいは変形量が予め設定しておいた閾値以下になる輪郭を、対象物の抽出結果Rとする。
The three types of speed functions described above are combined as shown in Expression 8 and used as a speed function of the level set method.
F i, j, k = f E (i, j, k) · f κ (i, j, k) · f d (i, j, k) (Equation 8)
Thereby, the contour of the region of the target object can be extracted as a curve that is smooth and does not deviate from the approximate shape at the edge portion. An outline in which the deformation controlled by the speed function shown in Expression 8 stops or the deformation amount becomes equal to or less than a preset threshold is defined as an object extraction result R.

ステップS1130で対象物よりも大きい概略形状を取得した場合、速度関数がf(i,j,k)の項を有することにより、対象物の輪郭はステップS1120で求めた概略形状の範囲内となるように輪郭の位置が制御される。対象物の輪郭において他の構造物との濃度差が小さい場合、例えばリンパ節が他の臓器と近接した位置にある場合など、抽出の対象であるリンパ節の輪郭よりもエッジ強度の強い輪郭を抽出するおそれがある。f(i,j,k)の項を有することにより、対象物よりも大きい形状で推定された概略形状の範囲内で輪郭を変形させれば良いので、対象物の抽出精度が向上する。 When a general shape larger than the target object is acquired in step S1130, the contour of the target object falls within the range of the general shape obtained in step S1120 because the velocity function has a term of f d (i, j, k). The position of the contour is controlled so that When the density difference between the target object and other structures is small, for example, when the lymph node is in a position close to other organs, a contour with stronger edge strength than the contour of the lymph node to be extracted is used. May be extracted. By having the term of f d (i, j, k), the contour may be deformed within the range of the approximate shape estimated by the shape larger than the object, so that the extraction accuracy of the object is improved.

ステップS1140の別の例としては、対象物を抽出する際の制限として概略形状Qを用いる。この例ではリンパ節の抽出を、式9を満たす領域で行う。   As another example of step S1140, the rough shape Q is used as a restriction when extracting an object. In this example, the extraction of the lymph node is performed in a region satisfying Expression 9.


ここで、d(P)は画素Pの符号付きの距離場における値を表す。dは操作者が事前に定義した閾値である。dの設定に応じて、リンパ節の抽出処理を概略形状内外の所望の領域で行うことができる。この場合、概略形状Qと画素(i,j,k)との距離に関する項を速度関数には含めないようにしてもよい。

Here, d (P i ) represents a value of the pixel P i in the signed distance field. dt is a threshold value defined in advance by the operator. According to the setting of dt , the extraction processing of the lymph node can be performed in a desired area inside and outside the schematic shape. In this case, the term relating to the distance between the approximate shape Q and the pixel (i, j, k) may not be included in the velocity function.

ステップS1140の更に別の例としては、抽出部1040は抽出処理にGraph cutや、Water flow、Dynamic Programmingなどの手法を用いても良い。例えば、Graph cutを用いて抽出する手法では、概略形状Qを抽出するための前景領域Robjとして定義し、対象画像とRobjとの差分領域において、しきい処理で得た領域を背景領域Rbkgとして定義する。そして対象物の期待濃度値などの特徴を用いたデータ項と、隣接画素の値に応じた平滑化項とで定義されるエネルギーを求める。注目画素が設定した特徴と近く、境界において濃度値が大きく異なる場合にエネルギーが小さくなる。このエネルギーを最小化するような境界を、対象物の領域の輪郭として抽出する。 As still another example of step S1140, the extraction unit 1040 may use a technique such as Graph cut, Water flow, or Dynamic Programming for the extraction processing. For example, in the method of extracting using the graph cut, a foreground region R obj for extracting the outline shape Q is defined, and in the difference region between the target image and R obj , the region obtained by the threshold processing is set to the background region R obj. Defined as bkg . Then, energy defined by a data term using a characteristic such as an expected density value of the target object and a smoothing term corresponding to a value of an adjacent pixel is obtained. The energy decreases when the target pixel is close to the set feature and the density value greatly differs at the boundary. A boundary that minimizes this energy is extracted as a contour of the region of the target object.

ステップS1140では、上述したような抽出方法に加えて、抽出の対象物であるリンパ節の濃度値や形状に関する情報や、統計的な情報を併せて利用してもよい。   In step S1140, in addition to the above-described extraction method, information on the density value and shape of the lymph node to be extracted or statistical information may be used together.

ステップS1140において抽出したリンパ節の領域710を図6(c)に示す。   FIG. 6C shows the lymph node region 710 extracted in step S1140.

ステップS1150では抽出の結果を表示する処理を行う。表示制御部1050は、ステップS1140で抽出した形状に関する情報を画像処理装置100に接続された表示部160に送信し、表示する制御を行う。表示制御部1050は、例えば抽出された領域と元の3次元CT画像とを重ね合わせて合成した画像(以下、合成画像と称する)を表示部160に表示させる。別の例では、所定の面で切断した2次元の断面画像との合成画像を表示させる。さらに別の例では、3次元の合成画像をボリュームレンダリングして表示させる。図6(c)に示すように、抽出までの処理に用いたシード点を抽出した領域710に重ね合わせて表示してもよい。   In step S1150, a process of displaying the result of the extraction is performed. The display control unit 1050 performs control to transmit information about the shape extracted in step S1140 to the display unit 160 connected to the image processing apparatus 100 and display the information. The display control unit 1050 causes the display unit 160 to display, for example, an image obtained by superimposing the extracted region and the original three-dimensional CT image and synthesizing the image (hereinafter, referred to as a synthesized image). In another example, a composite image with a two-dimensional cross-sectional image cut on a predetermined surface is displayed. In still another example, a three-dimensional composite image is volume-rendered and displayed. As shown in FIG. 6C, the seed points used in the processing up to the extraction may be displayed so as to be superimposed on the extracted area 710.

また、表示制御部1050は抽出の結果の表示形態を制御する。例えば、図15(a)のように、抽出された対象物の領域の輪郭を曲線で表示させる。輪郭の内部の色を変えて表示させてもよい。このとき、抽出処理に用いたシード点を併せて表示させてもよい。別の例では、矢印のような図形を対象画像と重ね合わせて表示させ、矢印の先端部が抽出された領域を示すように表示させる。抽出された領域の大きさに応じて上述した表示形態を変更するようにしてもよい。例えば、抽出された領域の大きさが所定の閾値よりも大きい場合は輪郭を曲線で表示し、閾値よりも小さい場合は矢印の先端部で抽出領域の位置を示すようにしてもよい。これらの表示形態により、対象画像の観察が容易になる。   The display control unit 1050 controls a display mode of the result of the extraction. For example, as shown in FIG. 15A, the outline of the region of the extracted target object is displayed as a curve. The color inside the outline may be changed and displayed. At this time, the seed points used for the extraction processing may be displayed together. In another example, a graphic such as an arrow is displayed so as to be superimposed on the target image, and the tip of the arrow is displayed so as to indicate the extracted region. The above-described display form may be changed according to the size of the extracted area. For example, when the size of the extracted region is larger than a predetermined threshold, the outline may be displayed as a curve, and when the size of the extracted region is smaller than the threshold, the position of the extracted region may be indicated by the tip of an arrow. These display modes facilitate observation of the target image.

本発明の第一の実施形態に係る画像処理装置では、対象物の形状を近似する概略形状を、複数の部分領域を結合して取得することにより、概略形状の近似の精度が向上する。よって、概略形状に基づいて行われる対象物の抽出の精度が向上する。   In the image processing apparatus according to the first embodiment of the present invention, the approximate shape approximate to the shape of the target object is obtained by combining a plurality of partial regions, thereby improving the accuracy of the approximate approximate shape. Therefore, the accuracy of target object extraction performed based on the schematic shape is improved.

続いて、本発明の第二の実施形態について説明する。本実施形態においては、取得した概略形状の形状を修正するステップをさらに有する。取得した概略形状に対して、必要な領域を追加したり、不要な領域を削除したりする処理を行う。そして、修正された概略形状に応じた取得方法により、対象物の領域を抽出する。以下詳述する。   Subsequently, a second embodiment of the present invention will be described. In the present embodiment, the method further includes a step of correcting the shape of the acquired general shape. A process of adding a necessary area or deleting an unnecessary area is performed on the acquired schematic shape. Then, an area of the target object is extracted by an acquisition method according to the corrected schematic shape. The details will be described below.

図9に基づいて、本発明の第二の実施形態に係る画像処理装置200を構成する各機能構成について説明する。画像処理装置200は、本発明の第二の実施形態に係る画像処理を実行する。画像処理装置200は、画像取得部1000、シード点取得部1010、形状推定部1020、形状結合部1030、形状修正部1035、抽出部1040、表示制御部1050を有する。第一の実施形態に係る画像処理装置100を構成する各部と同様の機能を有する構成には図2と同一の番号を付しており、説明を省略する。形状修正部1035は、形状推定部1020が推定した部分形状を形状結合部1030が結合して取得した概略形状について、必要な領域を追加したり、不要な領域を削除したりして、より適切な形状に修正するための処理を行う。形状修正部1035により修正された概略形状に基づいて、抽出部1040は対象物の領域を抽出する。   Based on FIG. 9, each functional configuration of the image processing apparatus 200 according to the second embodiment of the present invention will be described. The image processing device 200 executes the image processing according to the second embodiment of the present invention. The image processing device 200 includes an image acquisition unit 1000, a seed point acquisition unit 1010, a shape estimation unit 1020, a shape combination unit 1030, a shape modification unit 1035, an extraction unit 1040, and a display control unit 1050. The components having the same functions as those of the components constituting the image processing apparatus 100 according to the first embodiment are denoted by the same reference numerals as those in FIG. 2 and their description is omitted. The shape correcting unit 1035 adds a necessary area or deletes an unnecessary area to the schematic shape acquired by the shape combining unit 1030 by combining the partial shapes estimated by the shape estimating unit 1020, and thereby more appropriately. Perform processing to correct the shape. The extraction unit 1040 extracts a region of the target based on the schematic shape corrected by the shape correction unit 1035.

続いて、本発明の第二の実施形態に係る画像処理について説明する。図10は本実施形態の画像処理装置200が実行する処理手順を示す図である。本実施形態は、主メモリ12に格納されている各部の機能を実現するプログラムをCPU11が実行することにより実現される。ステップS2000、S2010、S2020、S2030の処理は図3に示すステップS1100、S1110、S1120、S1130の処理とそれぞれ同様であるため、説明を省略する。   Subsequently, image processing according to the second embodiment of the present invention will be described. FIG. 10 is a diagram illustrating a processing procedure executed by the image processing apparatus 200 according to the present embodiment. The present embodiment is realized by the CPU 11 executing a program for realizing the function of each unit stored in the main memory 12. The processing in steps S2000, S2010, S2020, and S2030 is the same as the processing in steps S1100, S1110, S1120, and S1130 shown in FIG.

ステップS2035では、取得された概略形状を修正する。形状修正部1035は、ステップS2000で取得した画像の濃度値情報、ステップS2010で取得したシード点情報を用いて、ステップS2030で取得した概略形状を修正する。ステップS2030において、例えば式1に基づいて推定した部分形状に基づいて取得された概略形状では、図11の概略形状610のように不連続であったり、図11の概略形状611のように不適切であったりするおそれがある。不連続であったり、不適切であったりする概略形状に基づいて対象物の抽出処理を行うと、抽出精度が低下するおそれがある。ステップS2035ではより適切な概略形状を取得するために概略形状の修正処理を行う。   In step S2035, the acquired general shape is corrected. The shape correction unit 1035 corrects the schematic shape obtained in step S2030 using the density value information of the image obtained in step S2000 and the seed point information obtained in step S2010. In step S2030, for example, the schematic shape acquired based on the partial shape estimated based on Expression 1 is discontinuous as in the general shape 610 in FIG. 11 or inappropriate as in the general shape 611 in FIG. Or If the target object is extracted based on a discontinuous or inappropriate outline shape, the extraction accuracy may be reduced. In step S2035, a general shape correction process is performed to obtain a more appropriate general shape.

修正の手法としては、例えば概略形状に基づいて陰多項式(IP:Implicit Polynomial)で形状を近似し、連続かつより滑らかな形状に修正する。ここで、陰多項式とは、陰関数を多項式の形式で定義したものである。IPによる形状の近似は、陰関数を多項式の形式で表現し、その多項式の係数を取得して行われる。IPによる形状の近似は、例えば特許第5335280号公報に開示されている方法を用いて行う。   As a correction method, for example, the shape is approximated by an implicit polynomial (IP: Implicit Polynomial) based on the approximate shape, and the shape is corrected to a continuous and smoother shape. Here, the implicit polynomial is an implicit function defined in the form of a polynomial. The approximation of the shape by IP is performed by expressing the implicit function in the form of a polynomial, and acquiring the coefficients of the polynomial. The approximation of the shape by IP is performed using a method disclosed in, for example, Japanese Patent No. 5335280.

IPを用いた概略形状の修正について、図12に基づいて説明する。ステップS2030で取得した概略形状610の表面に属する輪郭点800においてIPの値がゼロとなるような関数を求め、当該関数で表される曲面で近似し、対象物体の表面形状をモデル化する。取得したモデルが表す形状を修正した概略形状をQ´とする。 The correction of the schematic shape using the IP will be described with reference to FIG. A function is obtained such that the value of IP becomes zero at the contour point 800 belonging to the surface of the general shape 610 acquired in step S2030, and the function is approximated by a curved surface represented by the function to model the surface shape of the target object. The approximate shape obtained by correcting the shape represented by the acquired model is defined as Q .

さらに、輪郭点の位置や関数の次数といった拘束条件を加味することで、様々な概略形状Q´を連続かつなめらかな輪郭をもつ形状として取得することができる。図12に様々な修正された概略形状の例を示す。ここで、拘束条件は操作者が事前に設定しておいてもよいし、様々な条件下での形状を作成して提示し、操作者が最も適切なものを選択するようにしてもよい。 Furthermore, by taking into account the constraint conditions such as the position of the contour point and the order of the function, it is possible to acquire various schematic shapes Q as shapes having continuous and smooth contours. FIG. 12 shows examples of various modified schematic shapes. Here, the constraint conditions may be set in advance by the operator, or shapes under various conditions may be created and presented, and the operator may select the most appropriate one.

形状修正部1035は、ステップS2030で取得された概略形状が連続した形状であるか否かを判定し、上述したような修正を行う。あるいは、概略形状が連続していない旨を操作者に報知する画面を表示するように、表示制御部1050に出力してもよい。   The shape correction unit 1035 determines whether or not the schematic shape obtained in step S2030 is a continuous shape, and performs the correction as described above. Alternatively, the information may be output to the display control unit 1050 so as to display a screen for notifying the operator that the schematic shapes are not continuous.

また、形状修正部1035はステップS2030で取得した概略形状に対して、明らかに対象物に属する領域ではない領域を削除する。形状修正部1035は、ステップS2000で取得した濃度値情報をもとに、概略形状の輪郭の周辺領域で大きな濃度値変化があるか否かを判定する。所定の距離以上の概略形状内部の位置で大きな濃度値変化がある場合には当該概略形状が明らかに対象物に属する領域ではない領域を含んでいると判定する。あるいは概略形状の輪郭を、表示制御部1050を介して表示させ、操作者が適宜修正の指示を入力するようにしてもよい。表示制御部1050は、操作者が修正可能な箇所を示して、当該箇所への操作入力を受け付けるようにしてもよい。   Also, the shape correcting unit 1035 deletes, from the schematic shape acquired in step S2030, an area that is not clearly an area belonging to the target object. The shape correction unit 1035 determines whether or not there is a large density value change in the peripheral region of the outline of the outline shape based on the density value information acquired in step S2000. If there is a large change in the density value at a position inside the schematic shape that is equal to or longer than the predetermined distance, it is determined that the general shape includes an area that does not clearly belong to the target object. Alternatively, the outline of the schematic shape may be displayed via the display control unit 1050, and the operator may appropriately input a correction instruction. The display control unit 1050 may indicate a location that can be corrected by the operator and accept an operation input to the location.

ステップS2035の別の例では、推定された部分形状を修正することにより、概略形状を修正する。例えば、ステップS2020で部分形状を球又は楕円体として推定した場合に、推定された径の大きさを変更することにより、部分形状を修正する。形状修正部1035はステップ2000で取得した濃度値情報をもとに、概略形状の輪郭の周辺領域で大きな濃度値変化があるか否かを判定する。所定の距離以上の概略形状外部の位置で大きな濃度値変化がある場合には当該概略形状が明らかに対象物の属する領域である領域を含んでいないと判定する。その場合には、対応するステップS2020で推定された径を大きく修正して、部分形状を大きくするように修正する。同様の判定に依り、明らかに対象物の属する領域ではない領域を含んでいると判定する。その場合には、対応するステップS2020で推定された径を小さく修正して、部分形状を小さくするように修正する。形状修正部1035は、修正された部分形状を結合し、修正された概略形状として取得する。また、概略形状を構成する部分形状である球又は楕円体の中心点の位置を変更することにより、部分形状を変更し、変更された部分形状に基づいて概略形状を修正してもよい。   In another example of step S2035, the approximate shape is corrected by correcting the estimated partial shape. For example, when the partial shape is estimated as a sphere or an ellipsoid in step S2020, the partial shape is corrected by changing the size of the estimated diameter. Based on the density value information acquired in step 2000, the shape correction unit 1035 determines whether or not there is a large density value change in the peripheral area of the outline of the outline shape. If there is a large change in the density value at a position outside the schematic shape that is longer than the predetermined distance, it is determined that the general shape does not clearly include a region to which the target object belongs. In that case, the diameter estimated in the corresponding step S2020 is corrected to be large, and the partial shape is corrected to be large. Based on the same determination, it is determined that an area that is not clearly the area to which the object belongs is included. In that case, the diameter estimated in the corresponding step S2020 is corrected to be small, and the partial shape is corrected to be small. The shape correction unit 1035 combines the corrected partial shapes and acquires the corrected partial shape as a corrected schematic shape. Alternatively, the partial shape may be changed by changing the position of the center point of a sphere or ellipsoid, which is a partial shape constituting the schematic shape, and the schematic shape may be corrected based on the changed partial shape.

形状修正部1035は表示制御部1050を介して修正の処理の過程を表示させてもよい。例えば、修正前の部分形状を示す図形を対象画像に重ねて表示させておく。部分形状が球や楕円体である場合には、径を示す直線等をあわせて表示させておく。操作者は部分形状を示す図形の位置や径の大きさを変更することにより、部分形状を修正する操作を入力できる。   The shape correction unit 1035 may display the process of the correction process via the display control unit 1050. For example, a figure indicating a partial shape before correction is displayed so as to overlap the target image. If the partial shape is a sphere or an ellipsoid, a straight line indicating the diameter or the like is also displayed. The operator can input an operation for correcting the partial shape by changing the position and the size of the diameter of the graphic representing the partial shape.

ステップS2040において、対象物の輪郭を抽出する。抽出部1040は、ステップS2000で取得した画像I(x,y,z)、ステップS2010で取得したシード点群pseed_i、及びステップS2035で取得した修正後の概略形状Q’を用いて、対象物を抽出する。ステップS2040の処理は第1実施形態のステップS1140と同様である。ただし、例えばレベルセット法を利用する場合、抽出部1040は、速度関数f(i,j,k)における距離d(i, j, k)を、ステップS2035で得たIPに画素p(i, j, k)を代入して算出してもよい。これにより、抽出処理が高速化される。また、ステップS1140のように、修正後の概略形状Q’に対して符号付きの距離変換を実施し、取得した距離マップに基づいて算出してもよい。 In step S2040, the contour of the object is extracted. The extraction unit 1040 uses the image I (x, y, z) acquired in step S2000, the seed point group p seed_i acquired in step S2010, and the corrected general shape Q ′ acquired in step S2035 to obtain the target object. Is extracted. The processing in step S2040 is the same as step S1140 in the first embodiment. However, when the level set method is used, for example, the extraction unit 1040 adds the distance d (i, j, k) in the velocity function f d (i, j, k) to the pixel p (i , j, k). This speeds up the extraction process. Further, as in step S1140, a signed distance conversion may be performed on the corrected general shape Q ′, and the calculation may be performed based on the acquired distance map.

ステップS2050の処理は、第1実施形態のステップS1150と同様の処理であるため、説明を省略する。   The process in step S2050 is the same as the process in step S1150 of the first embodiment, and thus the description is omitted.

本発明の第二の実施形態に係る画像処理装置によれば、対象物領域の概略形状を修正することができる。修正後の概略形状を用いて抽出を行うことにより、対象物の領域を精度よく抽出することができる。   According to the image processing device according to the second embodiment of the present invention, it is possible to correct the schematic shape of the target object area. By performing the extraction using the corrected schematic shape, the region of the target object can be accurately extracted.

続いて、本発明の第三の実施形態について説明する。本実施形態においては、概略形状と抽出結果との比較に基づいて、処理を繰り返すか否かを判定するステップをさらに有する。処理を繰り返すか否かを判定し、繰り返すと判定された場合、シード点の取得から領域抽出までの処理を再び実施する。以下詳述する。   Subsequently, a third embodiment of the present invention will be described. This embodiment further includes a step of determining whether or not to repeat the process based on a comparison between the schematic shape and the extraction result. It is determined whether or not to repeat the processing, and if it is determined to be repeated, the processing from acquisition of the seed point to extraction of the region is performed again. The details will be described below.

図13は、本発明の第三の実施形態に係る画像処理装置300を構成する各機能構成について説明する。画像処理装置300は、本発明の第三の実施形態に係る画像処理を実行する。画像処理装置300は、画像取得部1000、シード点取得部1010、形状推定部1020、形状結合部1030、抽出部1040、継続判定部1045、表示制御部1050を有する。第一の実施形態に係る画像処理装置100を構成する各部と同様の機能を有する構成には図2と同一の番号を付しており、説明を省略する。継続判定部1045は、形状結合部1030で取得した概略形状と、抽出部1040で取得した抽出結果に基づいて、繰り返し処理を施すか否かを判定する。繰り返し処理を施す必要があると判定された場合、シード点の取得から領域抽出までを行う各部の処理を再び実施する。形状結合部1030は形状修正部1035を含んでいてもよい。   FIG. 13 illustrates each functional configuration of the image processing apparatus 300 according to the third embodiment of the present invention. The image processing device 300 executes the image processing according to the third embodiment of the present invention. The image processing device 300 includes an image acquisition unit 1000, a seed point acquisition unit 1010, a shape estimation unit 1020, a shape combination unit 1030, an extraction unit 1040, a continuation determination unit 1045, and a display control unit 1050. The components having the same functions as those of the components constituting the image processing apparatus 100 according to the first embodiment are denoted by the same reference numerals as those in FIG. 2 and their description is omitted. The continuation determining unit 1045 determines whether or not to perform the repetitive processing based on the schematic shape acquired by the shape combining unit 1030 and the extraction result acquired by the extracting unit 1040. When it is determined that it is necessary to perform the repetitive processing, the processing of each unit from the acquisition of the seed point to the extraction of the area is performed again. The shape coupling unit 1030 may include a shape correction unit 1035.

続いて、本発明の第三の実施形態に係る画像処理について説明する。図14は本実施形態の画像処理装置300が実行する処理手順を示す図である。本実施形態は、主メモリ12に格納されている各部の機能を実現するプログラムをCPU11が実行することにより実現される。ステップS3000、S3010、S3020、S3030、S3040の処理は図3に示すステップS1100、S1110、S1120、S1130、S1140の処理とそれぞれ同様であるため、説明を省略する。   Subsequently, image processing according to the third embodiment of the present invention will be described. FIG. 14 is a diagram illustrating a processing procedure executed by the image processing apparatus 300 according to the present embodiment. The present embodiment is realized by the CPU 11 executing a program for realizing the function of each unit stored in the main memory 12. The processing in steps S3000, S3010, S3020, S3030, and S3040 is the same as the processing in steps S1100, S1110, S1120, S1130, and S1140 shown in FIG.

ステップS3045において、継続判定部1045は、ステップS3030で取得した概略形状Qと、ステップS3040で取得した抽出結果Rの比較を行い、繰り返し処理を行うか否かを判定する。例えば、抽出結果Rと概略形状Qの差分Vを求める。差分Vは、例えば式10により算出することができる。
V=Q∪R−Q∩R (式10)
差分Vの体積がしきい値Vより大きい場合、継続判定部1045は、シード点取得部1010から、抽出部1040までの処理を繰り返し行うと判定する。ここで、しきい値Vは式11のように算出してもよい。
=ω・V (式11)
ここでωは係数であり、Vは概略形状Qの体積である。Vは操作者が事前に設定してもよい。すなわち、概略形状と抽出された対象物の領域との類似度に基づいて、概略形状取得および抽出の処理を継続するか否かを判定する。
In step S3045, the continuation determination unit 1045 compares the schematic shape Q acquired in step S3030 with the extraction result R acquired in step S3040, and determines whether to perform the repetitive processing. For example, a difference V between the extraction result R and the general shape Q is obtained. The difference V can be calculated by, for example, Expression 10.
V = Q∪R−Q∩R (Equation 10)
When the volume of the difference V is greater than the threshold value V T, continuation determination unit 1045 determines that the seed point obtaining unit 1010 repeats the processing up to the extraction unit 1040. Here, the threshold value V T may be calculated as Equation 11.
V T = ω · V Q (Equation 11)
Here, ω is a coefficient, and V Q is the volume of the approximate shape Q. V T is the operator may be set in advance. That is, it is determined whether or not to continue the process of acquiring and extracting the general shape based on the similarity between the general shape and the extracted region of the target object.

繰り返し処理を行うと判定された場合、シード点取得部1010、形状推定部1020、形状結合部1030、ならびに抽出部1040は、それぞれの処理を再び実行する。   When it is determined that the repetitive processing is to be performed, the seed point acquiring unit 1010, the shape estimating unit 1020, the shape combining unit 1030, and the extracting unit 1040 execute each processing again.

再度ステップS3010による処理を行い、シード点取得部1010は、対象画像I(x,y,z)、前回取得したシード点pseed_i(i=1,2,・・・,n)、前回取得した部分形状Qi、概略形状Q、および抽出結果Rに基づいて、シード点を取得する。シード点の取得は、操作者が操作部170を介して行ってもよいし、画像処理装置300が自動で行ってもよい。手動でシード点を取得する場合、ユーザが目視で、前回取得した概略形状Qと抽出結果Rを比較しながら、必要なシード点を追加したり、不要なシード点を削除したりしてもよい。 The processing in step S3010 is performed again, and the seed point acquiring unit 1010 acquires the target image I (x, y, z), the previously acquired seed point p seeded_i (i = 1, 2,..., N), and the previously acquired A seed point is obtained based on the partial shape Q i , the general shape Q, and the extraction result R. The acquisition of the seed point may be performed by the operator via the operation unit 170, or may be automatically performed by the image processing apparatus 300. When manually acquiring the seed points, the user may visually add the necessary seed points or delete the unnecessary seed points while visually comparing the previously acquired schematic shape Q and the extraction result R. .

自動でシード点を取得する場合、例えば、図15(a)に示すように、シード点取得部1010は、前回取得した抽出結果700の中心線900から、いくつかの点を新しいシード点として選択し、pseed_iに追加する。点の選択は、例えば中心線900にある全ての点を、一定の間隔で選択する。あるいは、濃度値などの特徴が前回までに取得したシード点pseed_iと類似する点を選択する。別の例では、図15(b)に示すように、抽出結果701と概略形状631の差分領域800から新しいシード点を求めてもよい。この場合は、例えばマルコフ連鎖モンテカルロ(MCMC:Markov chain Monte Carlo methods)法によって、領域800から点群をサンプリングする。サンプリングされた点群から、前回まで取得したシード点533と濃度値などの特徴が類似している点を新しいシード点534、535として取得する。つまり、シード点取得部1010は、前回取得したシード点による概略形状の抽出結果に基づいて、シード点をさらに取得する。シード点取得部1010は、表示制御部1050を介して前回までに取得したシード点及び抽出結果を表示させ、新しく取得したシード点を前回までに取得したシード点と区別可能に表示させてもよい。自動でシード点を取得する場合の別の例として、前回の抽出結果や抽出に用いられた概略形状や部分形状に対する操作入力に基づいて、新しいシード点を取得するようにしてもよい。例えば、操作者が前回の抽出結果を示す曲線上の点を選択し、ある方向に移動させる操作入力に基づいて新しいシード点を取得する。前回の抽出結果と、操作入力により変形させられた曲線が示す領域の差分の領域に新しいシード点を取得する。 When automatically acquiring seed points, for example, as shown in FIG. 15A, the seed point acquiring unit 1010 selects some points as new seed points from the center line 900 of the previously acquired extraction result 700. And add it to p seed_i . For the selection of points, for example, all points on the center line 900 are selected at regular intervals. Alternatively, a point whose characteristic such as a density value is similar to the seed point p seed_i obtained up to the previous time is selected. In another example, as shown in FIG. 15B, a new seed point may be obtained from the difference area 800 between the extraction result 701 and the schematic shape 631. In this case, a point group is sampled from the area 800 by, for example, the Markov chain Monte Carlo (MCMC) method. From the sampled point group, points having characteristics such as density values similar to the previously obtained seed point 533 are obtained as new seed points 534 and 535. That is, the seed point acquisition unit 1010 further acquires a seed point based on the extraction result of the schematic shape based on the previously acquired seed point. The seed point obtaining unit 1010 may display the previously obtained seed points and the extraction result via the display control unit 1050, and may display the newly obtained seed points so as to be distinguishable from the previously obtained seed points. . As another example of automatically acquiring a seed point, a new seed point may be acquired based on a previous extraction result or an operation input for a schematic shape or a partial shape used for extraction. For example, the operator selects a point on the curve indicating the previous extraction result, and acquires a new seed point based on an operation input for moving in a certain direction. A new seed point is acquired in the area of the difference between the previous extraction result and the area indicated by the curve deformed by the operation input.

さらに、不要なシード点を削除する。例えば、図15(c)に示しているように、抽出結果702から大きく外れた部分形状553に対応するシード点538を削除する。
以上のシード点修正処理を施した後のシード点群をp seed_i(i=1,2,・・・,n)とし、jは繰り返し回数を表す。シード点取得部1010は、表示制御部1050を介してシード点を対象画像に重ねて表示させ、操作者が表示部を参照しながらシード点を削除するようにしてもよい。
Further, unnecessary seed points are deleted. For example, as shown in FIG. 15C, the seed point 538 corresponding to the partial shape 553 that largely deviates from the extraction result 702 is deleted.
The seed point group after performing the above-described seed point correction processing is referred to as p j seeded_i (i = 1, 2,..., N), and j represents the number of repetitions. The seed point acquisition unit 1010 may display the seed point over the target image via the display control unit 1050, and the operator may delete the seed point while referring to the display unit.

本発明の第三の実施形態は、ステップS3010で取得するシード点の個数を、繰り返しの回数に応じて増加させる形態を含む。例えば、ステップS3010でシード点を1つ取得し、ステップS3020、S3030、S3040の処理により対象物の輪郭を抽出し、継続判定部1045が繰り返し処理を行うと判定したとする。ステップS3010に戻り、シード点取得部1010はシード点を少なくとも2つ取得するようにする。   The third embodiment of the present invention includes a mode in which the number of seed points acquired in step S3010 is increased according to the number of repetitions. For example, it is assumed that one seed point is acquired in step S3010, the contour of the object is extracted by the processing in steps S3020, S3030, and S3040, and the continuation determination unit 1045 determines that the repetition processing is performed. Returning to step S3010, the seed point acquisition unit 1010 acquires at least two seed points.

ステップS3020において、形状推定部1020は、対象画像I(x,y,z)とシード点群p seed_iを用いて、ステップS1120と同様に、複数の部分形状を推定する。この際、前回取得した抽出結果Rを参考して推定処理を行うことができる。例えば、抽出結果Rの形状が楕円体である場合、形状推定部1020は、対象物の部分形状を楕円体として推定する。また,前回と同じ方法で部分形状を推定する場合、前回のシード点群と修正後のシード点群が重複しているシード点に対応する部分形状は、前回推定されたものを利用する。これにより、より効率的に処理を実行することができる。新しく取得された部分形状をQ とする。 In step S3020, the shape estimating unit 1020 estimates a plurality of partial shapes using the target image I (x, y, z) and the seed point group p j seed_i , as in step S1120. At this time, the estimation process can be performed with reference to the previously obtained extraction result R. For example, when the shape of the extraction result R is an ellipsoid, the shape estimating unit 1020 estimates the partial shape of the target object as an ellipsoid. When the partial shape is estimated by the same method as the previous time, the previously estimated partial shape is used as the partial shape corresponding to the seed point where the previous seed point group and the corrected seed point group overlap. Thereby, the processing can be executed more efficiently. The newly acquired partial shape and Q j i.

ステップS3030において、形状結合部1030は、ステップS3020で取得した部分形状Q を結合し、概略形状Qとして取得する。この処理は第1実施形態の図3で説明したステップS1130と同様の処理であるため、説明を省略する。 In step S3030, the shape coupling unit 1030 combines the partial shape Q j i obtained in step S3020, acquires a general shape Q j. This processing is the same as the processing in step S1130 described in FIG. 3 of the first embodiment, and a description thereof will not be repeated.

ステップS3040において、抽出部1040は、ステップS3020で取得した対象画像I(x,y,z)と、ステップS3010で取得したシード点群p seed_i、およびステップS1130で取得した概略形状Qを用いて、対象物を抽出する。この処理は第1実施形態の図3で説明したステップS1140と同様の処理であるため、説明を省略する。 In step S3040, the extraction unit 1040, using the target image I obtained in step S3020 (x, y, z) and the obtained seed point group p j seed_i in step S3010, and the general shape Q j obtained in step S1130 To extract the object. This process is the same as step S1140 described in FIG. 3 of the first embodiment, and a description thereof will be omitted.

繰り返し処理が必要でないと判断された場合は、ステップS3050での表示制御部は、抽出結果を表示する。ステップS3050の処理は、第1実施形態の図3で説明したS1150と同様の処理であるため、説明を省略する。   If it is determined that the repetition processing is not necessary, the display control unit in step S3050 displays the extraction result. The processing in step S3050 is the same as the processing in step S1150 described with reference to FIG. 3 of the first embodiment, and a description thereof will not be repeated.

本発明の第三の実施形態に係る画像処理装置によれば、対象物領域の抽出結果と、その概略形状との差が小さくなるため、より適切な概略形状と抽出結果を取得することができる。   According to the image processing apparatus according to the third embodiment of the present invention, the difference between the extraction result of the target object region and the schematic shape is reduced, so that a more appropriate schematic shape and the extraction result can be obtained. .

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   The present invention supplies a program for realizing one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus read and execute the program. This process can be realized. Further, it can also be realized by a circuit (for example, an ASIC) that realizes one or more functions.

上述の各実施形態における画像処理装置および画像処理システムは、単体の装置として実現してもよいし、複数の情報処理装置を含む装置を互いに通信可能に組合せて上述の処理を実行する形態としてもよく、いずれも本発明の実施形態に含まれる。共通のサーバ装置あるいはサーバ群で、上述の処理を実行することとしてもよい。この場合、当該共通のサーバ装置は実施形態に係る画像処理装置に対応し、当該サーバ群は実施形態に係る画像処理システムに対応する。画像処理装置および画像処理システムを構成する複数の装置は所定の通信レートで通信可能であればよく、また同一の施設内あるいは同一の国に存在することを要しない。   The image processing apparatus and the image processing system in each of the above-described embodiments may be realized as a single apparatus, or may be a form in which apparatuses including a plurality of information processing apparatuses are communicably combined with each other to execute the above-described processing. Often, both are included in the embodiments of the present invention. The above processing may be executed by a common server device or server group. In this case, the common server device corresponds to the image processing device according to the embodiment, and the server group corresponds to the image processing system according to the embodiment. The image processing apparatus and the plurality of apparatuses constituting the image processing system need only be able to communicate at a predetermined communication rate, and do not need to be in the same facility or in the same country.

本発明の実施形態には、前述した実施形態の機能を実現するソフトウェアのプログラムを、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータが該供給されたプログラムのコードを読みだして実行するという形態を含む。   According to an embodiment of the present invention, a software program for realizing the functions of the above-described embodiment is supplied to a system or an apparatus, and a computer of the system or apparatus reads and executes the code of the supplied program. Including form.

したがって、実施形態に係る処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明の実施形態の一つである。また、コンピュータが読みだしたプログラムに含まれる指示に基づき、コンピュータで稼働しているOSなどが、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。   Therefore, the program code itself installed in the computer in order to realize the processing according to the embodiment by the computer is also one of the embodiments of the present invention. Also, based on instructions included in the program read by the computer, the OS or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments can also be realized by the processing. .

上述の実施形態を適宜組み合わせた形態も、本発明の実施形態に含まれる。   An embodiment in which the above embodiments are appropriately combined is also included in the embodiments of the present invention.

100 画像処理装置
1000 画像取得部
1010 シード点取得部
1020 形状推定部
1030 形状結合部
1040 抽出部
1050 表示制御部
1035 形状修正部
1045 継続判定部
REFERENCE SIGNS LIST 100 Image processing device 1000 Image acquisition unit 1010 Seed point acquisition unit 1020 Shape estimation unit 1030 Shape combination unit 1040 Extraction unit 1050 Display control unit 1035 Shape correction unit 1045 Continuation determination unit

Claims (23)

医用画像を取得する画像取得手段と、
前記医用画像に含まれる対象物における互いに異なる複数の領域に対して画像処理を行うことで前記対象物に含まれる領域の形状を近似する部分形状を複数推定し、当該推定により得られた複数の部分形状を結合した形状を前記対象物の形状を近似する概略形状として取得する概略形状取得手段と、
前記概略形状を前記対象物の領域を抽出する処理の条件として用いて前記対象物の領域を抽出する抽出手段と、を有することを特徴とする画像処理装置。
Image acquisition means for acquiring a medical image,
By performing image processing on a plurality of mutually different regions in the object included in the medical image, a plurality of partial shapes approximating the shape of the region included in the object are estimated, and a plurality of partial shapes obtained by the estimation are obtained. Schematic shape obtaining means for obtaining a shape obtained by combining the partial shapes as a schematic shape approximating the shape of the object,
An extraction unit configured to extract the region of the object by using the schematic shape as a condition for a process of extracting the region of the object.
前記概略形状取得手段は、前記対象物の領域に属する複数の点に基づいて前記複数の部分形状を推定するように構成されていることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the rough shape obtaining unit is configured to estimate the plurality of partial shapes based on a plurality of points belonging to a region of the object. 前記概略形状取得手段は、前記複数の点のうち一つの点を含む領域において、該一つの点を含む球または楕円体のいずれかを該領域における部分形状とすることにより、前記複数の部分形状のそれぞれを推定するように構成されていることを特徴とする請求項2に記載の画像処理装置。   The general shape obtaining means includes, in a region including one of the plurality of points, a sphere or an ellipsoid including the one point as a partial shape in the region, thereby obtaining the plurality of partial shapes. The image processing apparatus according to claim 2, wherein the image processing apparatus is configured to estimate each of the following. 前記概略形状取得手段は、前記複数の点のうち一つの点を含む領域において、該一つの点を中心とする球または楕円体のいずれかを該領域における部分形状とすることにより、前記複数の部分形状のそれぞれを推定するように構成されていることを特徴とする請求項2に記載の画像処理装置。   The general shape obtaining means includes, in a region including one of the plurality of points, a sphere or an ellipsoid centered on the one point as a partial shape in the region, thereby obtaining the plurality of points. The image processing apparatus according to claim 2, wherein each of the partial shapes is configured to be estimated. 前記概略形状取得手段は、前記複数の部分形状を、複数の球としてそれぞれ推定するように構成されていることを特徴とする請求項1乃至請求項4のいずれか一項に記載の画像処理装置。   The image processing apparatus according to any one of claims 1 to 4, wherein the rough shape obtaining unit is configured to estimate the plurality of partial shapes as a plurality of spheres. . 前記概略形状取得手段は、前記複数の部分形状を論理和により結合して前記概略形状を取得するように構成されていることを特徴とする請求項1乃至請求項5のいずれか一項に記載の画像処理装置。   The said general | schematic shape acquisition means is comprised so that the said several partial shape may be combined by a logical OR and may acquire the said general | schematic shape, The Claim 1 characterized by the above-mentioned. Image processing device. 前記概略形状取得手段は、前記複数の部分形状を結合した形状に基づいて近似された多項式で表される曲面を前記概略形状とするように構成されていることを特徴とする請求項1乃至請求項6のいずれか一項に記載の画像処理装置。   The said rough shape acquisition means is comprised so that the curved surface represented by the polynomial approximated based on the shape which combined the said several partial shape may be the said rough shape. Item 7. The image processing device according to any one of Items 6. 前記概略形状取得手段は、前記概略形状の領域を前記対象物よりも大きな領域とするための係数を前記部分形状の径に乗じて、該概略形状を取得するように構成されていることを特徴とする請求項7に記載の画像処理装置。   The general shape obtaining means is configured to obtain the general shape by multiplying a diameter of the partial shape by a coefficient for making the general shape region larger than the object. The image processing device according to claim 7. 前記抽出手段は、前記対象物より大きく推定された概略形状の範囲内で前記対象物の領域を抽出するように構成されていることを特徴とする請求項8に記載の画像処理装置。   The image processing apparatus according to claim 8, wherein the extraction unit is configured to extract a region of the target object within a range of a rough shape estimated larger than the target object. 前記抽出手段は、前記概略形状に基づいて前記対象物の領域の仮の輪郭を作成し、前記概略形状との位置関係に応じた変形速度で前記仮の輪郭を変形して前記対象物の領域の輪郭を抽出するように構成されていることを特徴とする請求項1乃至請求項9のいずれか一項に記載の画像処理装置。   The extraction means creates a temporary outline of the region of the object based on the general shape, and deforms the temporary outline at a deformation speed according to a positional relationship with the general shape to obtain an area of the object. The image processing apparatus according to any one of claims 1 to 9, wherein the image processing apparatus is configured to extract an outline of the image. 前記抽出手段は、前記概略形状に基づいて前記対象物の領域の仮の輪郭を作成し、前記仮の輪郭を変形して前記対象物の領域の輪郭を抽出する手段であり、
前記抽出手段は、前記概略形状に基づいて前記対象物の領域の仮の輪郭を作成し、前記概略形状の輪郭と前記仮の輪郭との距離に基づく項を有する評価関数を用いて、前記概略形状の輪郭との距離が小さくなるように前記変形を制御して前記対象物の領域を抽出するように構成されていることを特徴とする請求項1乃至請求項9のいずれか一項に記載の画像処理装置。
The extraction means is a means for creating a temporary outline of the region of the object based on the schematic shape, and extracting the outline of the region of the object by deforming the temporary outline,
The extraction means creates a temporary outline of the region of the object based on the general shape, and uses the evaluation function having a term based on a distance between the outline of the general shape and the temporary outline, The apparatus according to claim 1, wherein the object is extracted by controlling the deformation so as to reduce a distance from a contour of the shape. Image processing device.
前記評価関数は、抽出された前記対象物の領域の輪郭において濃度値変化が大きくなるように前記輪郭の位置を制御するための項と、抽出された前記対象物の領域の輪郭の曲率が大きくなるように前記輪郭の位置を制御するための項と、をさらに有していることを特徴とする請求項11に記載の画像処理装置。   The evaluation function is a term for controlling the position of the contour so that a change in density value is large in the contour of the extracted area of the object, and the curvature of the contour of the area of the extracted object is large. The image processing apparatus according to claim 11, further comprising: a section for controlling a position of the contour so that the contour is formed. 前記概略形状の形状を修正する形状修正手段をさらに有し、
前記抽出手段は、前記修正された概略形状に基づいて前記対象物の領域を抽出するように構成されていることを特徴とする請求項1乃至請求項12のいずれか一項に記載の画像処理装置。
Further comprising shape correction means for correcting the shape of the general shape,
The image processing apparatus according to claim 1, wherein the extraction unit is configured to extract a region of the object based on the corrected general shape. apparatus.
前記形状修正手段は、前記部分形状を論理和で結合して得られる概略形状が不連続である場合に、該概略形状を、該論理和で表される領域に基づいて連続した形状に修正するように構成されていることを特徴とする請求項13に記載の画像処理装置。   The shape correcting means corrects the general shape to a continuous shape based on the area represented by the logical sum when the general shape obtained by combining the partial shapes by logical sum is discontinuous. The image processing apparatus according to claim 13, wherein the image processing apparatus is configured as follows. 前記形状修正手段は、該概略形状を構成する部分形状を変更し、前記変更された部分形状に基づいて該概略形状を修正するように構成されていることを特徴とする請求項13に記載の画像処理装置。   14. The apparatus according to claim 13, wherein the shape correcting unit is configured to change a partial shape constituting the general shape and to correct the general shape based on the changed partial shape. Image processing device. 前記形状修正手段は、前記概略形状を構成する部分形状である球又は楕円体の中心点の位置を変更することにより前記部分形状を変更し、前記変更された部分形状に基づいて該概略形状を修正するように構成されていることを特徴とする請求項15に記載の画像処理装置。   The shape correcting means changes the partial shape by changing a position of a center point of a sphere or an ellipsoid which is a partial shape constituting the general shape, and changes the general shape based on the changed partial shape. The image processing apparatus according to claim 15, wherein the image processing apparatus is configured to perform correction. 前記形状修正手段は、前記概略形状を構成する部分形状である球又は楕円体の径を変更することにより前記部分形状を変更し、前記変更された部分形状に基づいて該概略形状を修正するように構成されていることを特徴とする請求項15又は請求項16のいずれか一項に記載の画像処理装置。   The shape correcting means changes the partial shape by changing the diameter of a sphere or an ellipsoid which is a partial shape constituting the general shape, and corrects the general shape based on the changed partial shape. The image processing apparatus according to claim 15, wherein the image processing apparatus is configured to: 前記概略形状と前記抽出された前記対象物の領域との類似度に基づいて、概略形状取得手段及び抽出手段による処理を継続するか否かを判定する判定手段を更に有することを特徴とする請求項13乃至請求項17のいずれか一項に記載の画像処理装置。   The apparatus further comprising: a determination unit configured to determine whether or not to continue processing by the general shape acquisition unit and the extraction unit based on the similarity between the general shape and the extracted region of the target object. The image processing apparatus according to claim 13. 医用画像を取得する画像取得手段と、
前記医用画像に含まれる対象物における互いに異なる複数の領域に対して画像処理を行うことで前記対象物に含まれる領域の形状を近似する部分形状を複数推定し、当該推定により得られた複数の部分形状を結合した形状を前記対象物の形状を近似する概略形状として取得する概略形状取得手段と、
前記概略形状を前記対象物の領域を抽出する処理の条件として用いて前記対象物の領域を抽出する抽出手段と、を有することを特徴とする画像処理システム。
Image acquisition means for acquiring a medical image,
By performing image processing on a plurality of mutually different regions in the object included in the medical image, a plurality of partial shapes approximating the shape of the region included in the object are estimated, and a plurality of partial shapes obtained by the estimation are obtained. Schematic shape obtaining means for obtaining a shape obtained by combining the partial shapes as a schematic shape approximating the shape of the object ,
An image processing system comprising: an extracting unit configured to extract the region of the object by using the schematic shape as a condition for a process of extracting the region of the object.
前記概略形状取得手段は、前記複数の部分形状を、球又は楕円体としてそれぞれ推定するように構成されていることを特徴とする請求項19に記載の画像処理システム。   20. The image processing system according to claim 19, wherein said rough shape obtaining means is configured to estimate each of said plurality of partial shapes as a sphere or an ellipsoid. 医用画像を取得する画像取得ステップと、
前記医用画像に含まれる対象物における互いに異なる複数の領域に対して画像処理を行うことで前記対象物に含まれる領域の形状を近似する部分形状を複数推定し、当該推定により得られた複数の部分形状を結合した形状を前記対象物の形状を近似する概略形状として取得する概略形状取得ステップと、
前記概略形状を前記対象物の領域を抽出する処理の条件として用いて前記対象物の領域を抽出する抽出ステップと、を有することを特徴とする画像処理方法。
An image acquisition step of acquiring a medical image;
By performing image processing on a plurality of mutually different regions in the object included in the medical image, a plurality of partial shapes approximating the shape of the region included in the object are estimated, and a plurality of partial shapes obtained by the estimation are obtained. A schematic shape obtaining step of obtaining a shape obtained by combining the partial shapes as a schematic shape approximating the shape of the object ,
An extraction step of extracting the region of the object by using the schematic shape as a condition for the process of extracting the region of the object.
前記概略形状取得ステップにおいて、前記複数の部分形状を、球又は楕円体としてそれぞれ推定することを特徴とする請求項21に記載の画像処理方法。   22. The image processing method according to claim 21, wherein the plurality of partial shapes are each estimated as a sphere or an ellipsoid in the rough shape obtaining step. 請求項21又は請求項22のいずれか一項に記載の画像処理方法をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute the image processing method according to claim 21.
JP2015132181A 2015-06-30 2015-06-30 Image processing device Active JP6643821B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015132181A JP6643821B2 (en) 2015-06-30 2015-06-30 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015132181A JP6643821B2 (en) 2015-06-30 2015-06-30 Image processing device

Publications (2)

Publication Number Publication Date
JP2017012446A JP2017012446A (en) 2017-01-19
JP6643821B2 true JP6643821B2 (en) 2020-02-12

Family

ID=57828404

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015132181A Active JP6643821B2 (en) 2015-06-30 2015-06-30 Image processing device

Country Status (1)

Country Link
JP (1) JP6643821B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6824845B2 (en) * 2017-08-09 2021-02-03 キヤノン株式会社 Image processing systems, equipment, methods and programs
US10902479B2 (en) * 2017-10-17 2021-01-26 Criteo Sa Programmatic generation and optimization of images for a computerized graphical advertisement display
KR101954858B1 (en) * 2017-10-25 2019-03-07 서울여자대학교 산학협력단 Method and apparatus for lung tumor segmentation using weighted voting-based ellipse propagation and neighbor structure probability map in chest ct images
CN111652880A (en) * 2020-07-01 2020-09-11 杭州脉流科技有限公司 Neural network-based CT coronary artery centerline seed point detection and tracking method, device, equipment and readable storage medium
CN112258499B (en) * 2020-11-10 2023-09-26 北京深睿博联科技有限责任公司 Lymph node partition method, apparatus, device, and computer-readable storage medium

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1893876B (en) * 2003-12-16 2010-12-08 株式会社日立医药 Apparatus for extracting by region
JP2007267979A (en) * 2006-03-31 2007-10-18 Yoko Arimasa Method and system of analyzing organ form of living creature
JP4999163B2 (en) * 2006-04-17 2012-08-15 富士フイルム株式会社 Image processing method, apparatus, and program
EP1947606A1 (en) * 2007-01-16 2008-07-23 National University Corporation Kobe University Medical image processing apparatus and medical image processing method
JP6516321B2 (en) * 2015-02-09 2019-05-22 学校法人日本大学 Shape feature extraction method, shape feature extraction processing device, shape description method and shape classification method

Also Published As

Publication number Publication date
JP2017012446A (en) 2017-01-19

Similar Documents

Publication Publication Date Title
US7773786B2 (en) Method and apparatus for three-dimensional interactive tools for semi-automatic segmentation and editing of image objects
Messay et al. Segmentation of pulmonary nodules in computed tomography using a regression neural network approach and its application to the lung image database consortium and image database resource initiative dataset
JP6792364B2 (en) Image processing equipment, image processing systems, image processing methods, and programs
CN102460471B (en) Systems for computer aided lung nodule detection in chest tomosynthesis imaging
JP6643821B2 (en) Image processing device
EP2916737B1 (en) System and method for automated detection of lung nodules in medical images
US10275909B2 (en) Systems and methods for an integrated system for visualizing, simulating, modifying and 3D printing 3D objects
JP6824845B2 (en) Image processing systems, equipment, methods and programs
JP6385318B2 (en) Transform 3D objects to segment objects in 3D medical images
JP6643827B2 (en) Image processing apparatus, image processing method, and program
JP2007537811A (en) How to detect nodules
JP2007523402A (en) Mesh model with internal individual elements
CN112529834A (en) Spatial distribution of pathological image patterns in 3D image data
JPWO2007013300A1 (en) Abnormal shadow candidate detection method and abnormal shadow candidate detection apparatus
JP6383182B2 (en) Image processing apparatus, image processing system, image processing method, and program
Bendtsen et al. X-ray computed tomography: semiautomated volumetric analysis of late-stage lung tumors as a basis for response assessments
JP2005185405A (en) Medical image processor, region-of-interest extraction method and program
JP6934734B2 (en) Image processing device, control method and program of image processing device
JP6827707B2 (en) Information processing equipment and information processing system
CN115439423B (en) CT image-based identification method, device, equipment and storage medium
Dovganich et al. Automatic quality control in lung X-ray imaging with deep learning
US11244458B2 (en) Image processing apparatus, image processing method, and program
JP7321671B2 (en) Information processing device, information processing method, information processing system and program
EP3494544B1 (en) Robust pulmonary lobe segmentation
JP5954846B2 (en) Shape data generation program, shape data generation method, and shape data generation apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190717

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200107

R151 Written notification of patent or utility model registration

Ref document number: 6643821

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151