JP2020185031A - Image processing program, image processing device, and image processing method - Google Patents

Image processing program, image processing device, and image processing method Download PDF

Info

Publication number
JP2020185031A
JP2020185031A JP2019089444A JP2019089444A JP2020185031A JP 2020185031 A JP2020185031 A JP 2020185031A JP 2019089444 A JP2019089444 A JP 2019089444A JP 2019089444 A JP2019089444 A JP 2019089444A JP 2020185031 A JP2020185031 A JP 2020185031A
Authority
JP
Japan
Prior art keywords
contour line
image
region
image processing
convex
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019089444A
Other languages
Japanese (ja)
Other versions
JP7227487B2 (en
Inventor
明燮 鄭
Mingbian Zheng
明燮 鄭
正樹 石原
Masaki Ishihara
正樹 石原
康貴 森脇
Yasutaka Moriwaki
康貴 森脇
信浩 宮▲崎▼
Nobuhiro Miyazaki
信浩 宮▲崎▼
武部 浩明
Hiroaki Takebe
浩明 武部
馬場 孝之
Takayuki Baba
孝之 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019089444A priority Critical patent/JP7227487B2/en
Publication of JP2020185031A publication Critical patent/JP2020185031A/en
Application granted granted Critical
Publication of JP7227487B2 publication Critical patent/JP7227487B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

To accurately detect an upper end of a lung field area based on a medical image.SOLUTION: An image processing device 10 includes a contour line extraction part 11 and an area determination part 12. The contour line extraction part 11 extracts a contour line 2 from a binary image 1a indicating a coronal cross section of a chest, generated based on one or more cross sectional images taken by capturing the inside of the chest of a human body. The area determination part 12 searches convex apexes 4a and 4b in the contour line 2 by tracing the contour line 2 in an upper direction from the outside of both right and left sides in the human body. The area determination part 12 determines the positions of the convex apexes 4a and 4b that have been searched as the upper ends of a lung field area.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理プログラム、画像処理装置および画像処理方法に関する。 The present invention relates to an image processing program, an image processing apparatus, and an image processing method.

肺疾患の診断には、CT(Computed Tomography)画像などの医用画像が広く用いられている。医用画像を用いた画像診断では、医師は多数の画像を読影しなければならず、医師の負担が大きい。そのため、医師の診断作業をコンピュータによって何らかの形で支援する技術が求められている。 Medical images such as CT (Computed Tomography) images are widely used for diagnosing lung diseases. In diagnostic imaging using medical images, the doctor has to interpret a large number of images, which imposes a heavy burden on the doctor. Therefore, there is a demand for a technique for supporting a doctor's diagnostic work in some way by a computer.

例えば、医用画像から読影すべき領域を特定する、あるいは読影すべき医用画像を絞り込むために、医用画像を基に肺野領域を特定する技術が提案されている。その一例として、複数のCT画像を基に最小値投影法によって胸部の内部状況を正面に投影した投影画像を生成し、この投影画像から肺野領域を抽出する技術が提案されている。また、別の一例として、3次元医用画像の画素値を基に肺野底部領域における頭部側頂点位置を検出することで、肺気腫の診断に必要な横隔膜上端におけるアキシャル面の画像を特定する技術が提案されている。 For example, in order to identify the region to be read from the medical image or narrow down the medical image to be read, a technique for specifying the lung field region based on the medical image has been proposed. As an example, a technique has been proposed in which a projected image in which the internal state of the chest is projected to the front by a minimum value projection method based on a plurality of CT images is generated, and the lung field region is extracted from the projected image. In addition, as another example, a technique for identifying an image of the axial surface at the upper end of the diaphragm necessary for diagnosing emphysema by detecting the position of the apex on the head side in the bottom region of the lung field based on the pixel value of the three-dimensional medical image. Has been proposed.

また、関連技術として、胸部X線画像に基づく合計値プロファイルを用いることで、この画像における肺野領域の端部を特定する技術が提案されている。 Further, as a related technique, a technique for identifying the end portion of the lung field region in this image has been proposed by using a total value profile based on a chest X-ray image.

特開2012−096025号公報Japanese Unexamined Patent Publication No. 2012-096025 特開2017−104277号公報JP-A-2017-104277

富田稔啓、外7名、「モデル情報と最小値投影法による胸部CT像の肺野領域抽出」、MEDICAL IMAGING TECHNOLOGY Vol.15 No.2、1997年3月、164〜174頁Toshihiro Tomita, 7 outsiders, "Extraction of lung field region of chest CT image by model information and minimum value projection", MEDICAL IMAGING TECHNOLOGY Vol.15 No.2, March 1997, pp. 164-174

ところで、肺野領域の上端付近では、右肺と左肺との間に気管が存在している。コロナル断面画像や最小値投影法を用いた上記の投影画像においては、この気管の領域と肺野領域との区別がつきにくいため、肺野領域の上端を正確に検出することが難しいという問題がある。 By the way, near the upper end of the lung field region, a trachea exists between the right lung and the left lung. In the above-mentioned projected image using the coronal cross-sectional image and the minimum value projection method, it is difficult to distinguish the tracheal region from the lung field region, so that it is difficult to accurately detect the upper end of the lung field region. is there.

1つの側面では、本発明は、医用画像に基づいて肺野領域の上端を高精度に検出可能な画像処理プログラム、画像処理装置および画像処理方法を提供することを目的とする。 In one aspect, it is an object of the present invention to provide an image processing program, an image processing apparatus and an image processing method capable of detecting the upper end of a lung field region with high accuracy based on a medical image.

1つの案では、コンピュータに、人体の胸部の内部を撮影した1以上の断面画像に基づいて生成される、胸部のコロナル断面を示す2値化画像から、輪郭線を抽出し、人体における左右両方の外側から上方向に輪郭線を辿ることで輪郭線における凸状頂点を探索し、探索された凸状頂点の位置を肺野領域の上端として特定する、処理を実行させる画像処理プログラムが提供される。 One idea is to extract contour lines from a binarized image showing the coronal section of the chest, which is generated by a computer based on one or more cross-sectional images of the inside of the chest of the human body, and both left and right in the human body. An image processing program is provided that searches for convex vertices in the contour line by tracing the contour line from the outside to the upward direction, and identifies the position of the searched convex apex as the upper end of the lung field region. To.

また、1つの案では、人体の胸部の内部を撮影した1以上の断面画像に基づいて生成される、胸部のコロナル断面を示す2値化画像から、輪郭線を抽出する輪郭線抽出部と、人体における左右両方の外側から上方向に輪郭線を辿ることで輪郭線における凸状頂点を探索し、探索された凸状頂点の位置を肺野領域の上端として特定する領域特定部と、を有する画像処理装置が提供される。 Further, in one plan, a contour line extraction unit that extracts a contour line from a binarized image showing a coronal cross section of the chest, which is generated based on one or more cross-sectional images of the inside of the chest of the human body, It has a region identification part that searches for a convex apex in the contour line by tracing the contour line upward from both the left and right sides of the human body and specifies the position of the searched convex apex as the upper end of the lung field region. An image processing device is provided.

さらに、1つの案では、上記画像処理プログラムに基づく処理と同様の処理をコンピュータが実行する画像処理方法が提供される。 Further, one proposal provides an image processing method in which a computer executes a process similar to the process based on the image processing program.

1つの側面では、医用画像に基づいて肺野領域の上端を高精度に検出できる。 In one aspect, the upper end of the lung field region can be detected with high accuracy based on medical images.

第1の実施の形態に係る画像処理装置の構成例および処理例を示す図である。It is a figure which shows the configuration example and the processing example of the image processing apparatus which concerns on 1st Embodiment. 第2の実施の形態に係る画像処理システムの構成例を示す図である。It is a figure which shows the structural example of the image processing system which concerns on 2nd Embodiment. 胸部の臓器配置を示す図である。It is a figure which shows the organ arrangement of a chest. 画像処理装置が備える処理機能の構成例を示すブロック図である。It is a block diagram which shows the structural example of the processing function provided in the image processing apparatus. 正面投影画像の生成処理を説明するための図である。It is a figure for demonstrating the generation process of the front projection image. 凸状頂点検出部の内部構成例を示す図である。It is a figure which shows the internal structure example of the convex vertex detection part. 領域上端抽出部の処理例を示す第1の図である。It is the first figure which shows the processing example of the region upper end extraction part. 領域上端抽出部の処理例を示す第2の図である。It is a 2nd figure which shows the processing example of the region upper end extraction part. 領域上端抽出部の処理例を示す第3の図である。It is a 3rd figure which shows the processing example of the region upper end extraction part. 画像処理装置による全体の処理を示すフローチャートの例である。This is an example of a flowchart showing the entire processing by the image processing device. 肺野領域上端抽出処理を示すフローチャートの例である。This is an example of a flowchart showing the process of extracting the upper end of the lung field region. 頂点検出処理を示すフローチャートの例である。This is an example of a flowchart showing the vertex detection process. 変形例における凸状頂点検出部の内部構成例を示す図である。It is a figure which shows the internal structure example of the convex vertex detection part in the modification. 最大値検出部の処理例を示す図である。It is a figure which shows the processing example of the maximum value detection part. 変形例における頂点検出処理を示すフローチャートの例である。This is an example of a flowchart showing the vertex detection process in the modified example.

以下、本発明の実施の形態について図面を参照して説明する。
〔第1の実施の形態〕
図1は、第1の実施の形態に係る画像処理装置の構成例および処理例を示す図である。図1に示す画像処理装置10は、輪郭線抽出部11と領域特定部12を備える。輪郭線抽出部11と領域特定部12の処理は、例えば、画像処理装置10が備える図示しないプロセッサが所定のプログラムを実行することで実現される。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[First Embodiment]
FIG. 1 is a diagram showing a configuration example and a processing example of the image processing apparatus according to the first embodiment. The image processing device 10 shown in FIG. 1 includes a contour line extraction unit 11 and a region identification unit 12. The processing of the contour line extraction unit 11 and the area identification unit 12 is realized, for example, by executing a predetermined program by a processor (not shown) included in the image processing device 10.

輪郭線抽出部11には、人体の胸部のコロナル断面を示す2値化画像1aが入力される。この2値化画像1aは、胸部の内部を撮影した1以上の断面画像に基づいて生成される画像である。例えば、このような断面画像として、胸部領域におけるアキシャル断面画像(例えば、アキシャル断面のCTスライス画像)が複数枚撮影される。この場合、例えば、これらの各アキシャル断面画像における前後方向の画素群の最小値を正面に投影することで投影画像が生成され、投影画像が2値化されることで2値化画像1aが生成される。この場合の投影画像は、人体の特定位置のコロナル断面の状況を示す画像ではなく、コロナル断面における肺や気管の最大領域を示す画像となる。 A binarized image 1a showing a coronal cross section of the chest of the human body is input to the contour line extraction unit 11. The binarized image 1a is an image generated based on one or more cross-sectional images taken of the inside of the chest. For example, as such a cross-sectional image, a plurality of axial cross-sectional images (for example, CT slice images of the axial cross-section) in the chest region are taken. In this case, for example, a projected image is generated by projecting the minimum value of the pixel group in the front-rear direction in each of these axial cross-sectional images to the front, and a binarized image 1a is generated by binarizing the projected image. Will be done. The projected image in this case is not an image showing the state of the coronal cross section at a specific position of the human body, but an image showing the maximum region of the lungs and trachea in the coronal cross section.

あるいは、複数枚撮影されたアキシャル断面画像に基づいてコロナル断面画像が複数生成され、生成されたコロナル断面画像の中から選択された画像が2値化されることで、2値化画像1aが生成されてもよい。この場合、例えば、コロナル断面画像の中から空気領域の幅または面積が最大の画像が選択されて2値化される。また、複数枚撮影された胸部領域のコロナル断面画像の中から、同様の手順で選択された画像が2値化されることで、2値化画像1aが生成されてもよい。 Alternatively, a plurality of coronal cross-sectional images are generated based on a plurality of axial cross-sectional images taken, and the image selected from the generated coronal cross-sectional images is binarized to generate a binarized image 1a. May be done. In this case, for example, the image having the maximum width or area of the air region is selected from the coronal cross-sectional images and binarized. Further, the binarized image 1a may be generated by binarizing the image selected by the same procedure from the coronal cross-sectional images of the chest region taken in a plurality of images.

輪郭線抽出部11は、2値化画像1aから輪郭線2を抽出する。図1では、2値化画像1aにおける輪郭線2をわかりやすく表示した画像1bを示している。画像1bにおいては、輪郭線2を太線によって示している。 The contour line extraction unit 11 extracts the contour line 2 from the binarized image 1a. FIG. 1 shows an image 1b in which the contour line 2 in the binarized image 1a is displayed in an easy-to-understand manner. In the image 1b, the contour line 2 is shown by a thick line.

領域特定部12は、抽出された輪郭線2に基づいて、肺野領域の上端の位置を特定する。この特定では、領域特定部12は、輪郭線2を人体の左右両方の外側から上方向に辿ることで、輪郭線2における凸状頂点を探索する。領域特定部12は、探索された凸状頂点を肺野領域の上端として特定する。 The region identification unit 12 identifies the position of the upper end of the lung field region based on the extracted contour line 2. In this identification, the region specifying unit 12 searches for the convex vertices on the contour line 2 by tracing the contour line 2 from the outside of both the left and right sides of the human body upward. The region identification unit 12 identifies the searched convex apex as the upper end of the lung field region.

図1に示す画像1cでは、画像1bにおける輪郭線2のうち、左右両方の外側に位置する輪郭線のみを太線によって示している。領域特定部12は、例えば、輪郭線2における向かって左の外側の位置から矢印3aのように輪郭線2を辿ることで、凸状頂点4aを検出する。領域特定部12は、検出された凸状頂点4aの位置を右肺の領域の上端として特定する。また、領域特定部12は、輪郭線2における向かって右の外側の位置から矢印3bのように輪郭線2を辿ることで、凸状頂点4bを検出する。領域特定部12は、検出された凸状頂点4bの位置を左肺の領域の上端として特定する。 In the image 1c shown in FIG. 1, of the contour lines 2 in the image 1b, only the contour lines located outside both the left and right sides are shown by thick lines. The region specifying unit 12 detects the convex apex 4a by following the contour line 2 as shown by an arrow 3a from the outer position on the left side of the contour line 2, for example. The region identification unit 12 identifies the position of the detected convex apex 4a as the upper end of the region of the right lung. Further, the region specifying unit 12 detects the convex apex 4b by tracing the contour line 2 from the position on the outer right side of the contour line 2 as shown by the arrow 3b. The region specifying portion 12 identifies the position of the detected convex apex 4b as the upper end of the region of the left lung.

ここで、右肺、左肺のそれぞれの上端は、釣鐘形状における凸部のような凸状の形状を有している。また、肺野領域の上端領域では、右肺の凸状の上端部と左肺の凸状の上端部との間に気管が配置されている。このような解剖学的な構造から、輪郭線2を左の外側から上方向に辿った場合、気管の領域に達する前に右肺の凸状の上端部に達する。同様に、輪郭線2を右の外側から上方向に辿った場合、気管の領域に達する前に左肺の凸状の上端部に達する。 Here, the upper ends of the right lung and the left lung each have a convex shape like a convex portion in the bell shape. In the upper end region of the lung field region, the trachea is arranged between the convex upper end of the right lung and the convex upper end of the left lung. Due to such an anatomical structure, when contour line 2 is traced upward from the left outside, it reaches the convex upper end of the right lung before reaching the area of the trachea. Similarly, when contour line 2 is traced upward from the outside on the right, it reaches the convex upper end of the left lung before reaching the area of the trachea.

したがって、領域特定部12は、輪郭線2を左の外側から上方向に辿って凸状頂点4aを探索することで、右肺の上端を正確に検出できる。また、領域特定部12は、輪郭線2を右の外側から上方向に辿って凸状頂点4bを探索することで、左肺の上端を正確に検出できる。このように、本実施の形態に係る画像処理装置10は、医用画像に基づいて肺野領域の上端を高精度に検出できる。 Therefore, the region specifying portion 12 can accurately detect the upper end of the right lung by tracing the contour line 2 upward from the left outer side and searching for the convex apex 4a. Further, the region specifying portion 12 can accurately detect the upper end of the left lung by tracing the contour line 2 upward from the outside on the right and searching for the convex apex 4b. As described above, the image processing apparatus 10 according to the present embodiment can detect the upper end of the lung field region with high accuracy based on the medical image.

〔第2の実施の形態〕
図2は、第2の実施の形態に係る画像処理システムの構成例を示す図である。図2に示す画像処理システムは、CT装置50と画像処理装置100を含む。なお、画像処理装置100は、図1に示した画像処理装置10の一例である。
[Second Embodiment]
FIG. 2 is a diagram showing a configuration example of the image processing system according to the second embodiment. The image processing system shown in FIG. 2 includes a CT device 50 and an image processing device 100. The image processing device 100 is an example of the image processing device 10 shown in FIG.

CT装置50は、人体のX線CT画像を撮影する。本実施の形態では、CT装置50は、胸部領域におけるアキシャル断面のCTスライス画像を、人体の高さ方向(アキシャル断面に垂直な方向)に対する位置を所定間隔で変えながら所定枚数撮影する。 The CT device 50 captures an X-ray CT image of the human body. In the present embodiment, the CT apparatus 50 captures a predetermined number of CT slice images of the axial cross section in the chest region while changing the position with respect to the height direction of the human body (the direction perpendicular to the axial cross section) at predetermined intervals.

画像処理装置100は、CT装置50によって撮影された複数のCTスライス画像を基に、肺野領域の画像を抽出する。これにより、画像処理装置100は、CTスライス画像を用いた医師の画像診断作業、特に肺疾患の診断作業を支援する。 The image processing device 100 extracts an image of the lung field region based on a plurality of CT slice images taken by the CT device 50. Thereby, the image processing apparatus 100 supports the doctor's image diagnosis work using the CT slice image, particularly the lung disease diagnosis work.

この抽出処理において、画像処理装置100は、複数のCTスライス画像を基に肺野領域の上端と下端とを検出し、この検出結果に基づいて複数のCTスライス画像の中から肺野領域が写り込んでいるCTスライス画像を絞り込む。そして、画像処理装置100は、絞り込まれたCTスライス画像を用いて、機械学習によって肺野領域を特定し、特定された肺野領域の画像を抽出する。 In this extraction process, the image processing apparatus 100 detects the upper end and the lower end of the lung field region based on the plurality of CT slice images, and based on the detection result, the lung field region is captured from the plurality of CT slice images. Narrow down the crowded CT slice images. Then, the image processing apparatus 100 identifies the lung field region by machine learning using the narrowed-down CT slice image, and extracts an image of the specified lung field region.

この画像処理装置100は、例えば、次のようなハードウェア構成を有する。図2に示すように、画像処理装置100は、プロセッサ101、RAM(Random Access Memory)102、HDD(Hard Disk Drive)103、グラフィックインタフェース(I/F)104、入力インタフェース(I/F)105、読み取り装置106および通信インタフェース(I/F)107を有する。 The image processing device 100 has, for example, the following hardware configuration. As shown in FIG. 2, the image processing apparatus 100 includes a processor 101, a RAM (Random Access Memory) 102, an HDD (Hard Disk Drive) 103, a graphic interface (I / F) 104, and an input interface (I / F) 105. It has a reading device 106 and a communication interface (I / F) 107.

プロセッサ101は、画像処理装置100全体を統括的に制御する。プロセッサ101は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)またはPLD(Programmable Logic Device)である。また、プロセッサ101は、CPU、MPU、DSP、ASIC、PLDのうちの2以上の要素の組み合わせであってもよい。 The processor 101 comprehensively controls the entire image processing device 100. The processor 101 is, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), or a PLD (Programmable Logic Device). Further, the processor 101 may be a combination of two or more elements of the CPU, MPU, DSP, ASIC, and PLD.

RAM102は、画像処理装置100の主記憶装置として使用される。RAM102には、プロセッサ101に実行させるOS(Operating System)プログラムやアプリケーションプログラムの少なくとも一部が一時的に格納される。また、RAM102には、プロセッサ101による処理に必要な各種データが格納される。 The RAM 102 is used as the main storage device of the image processing device 100. At least a part of an OS (Operating System) program or an application program to be executed by the processor 101 is temporarily stored in the RAM 102. Further, the RAM 102 stores various data necessary for processing by the processor 101.

HDD103は、画像処理装置100の補助記憶装置として使用される。HDD103には、OSプログラム、アプリケーションプログラム、および各種データが格納される。なお、補助記憶装置としては、SSD(Solid State Drive)などの他の種類の不揮発性記憶装置を使用することもできる。 The HDD 103 is used as an auxiliary storage device for the image processing device 100. The OS program, application program, and various data are stored in the HDD 103. As the auxiliary storage device, other types of non-volatile storage devices such as SSD (Solid State Drive) can also be used.

グラフィックインタフェース104には、表示装置104aが接続されている。グラフィックインタフェース104は、プロセッサ101からの命令にしたがって、画像を表示装置104aに表示させる。表示装置としては、液晶ディスプレイや有機EL(Electroluminescence)ディスプレイなどがある。 A display device 104a is connected to the graphic interface 104. The graphic interface 104 causes the display device 104a to display an image according to an instruction from the processor 101. Display devices include liquid crystal displays and organic EL (Electroluminescence) displays.

入力インタフェース105には、入力装置105aが接続されている。入力インタフェース105は、入力装置105aから出力される信号をプロセッサ101に送信する。入力装置105aとしては、キーボードやポインティングデバイスなどがある。ポインティングデバイスとしては、マウス、タッチパネル、タブレット、タッチパッド、トラックボールなどがある。 An input device 105a is connected to the input interface 105. The input interface 105 transmits a signal output from the input device 105a to the processor 101. The input device 105a includes a keyboard, a pointing device, and the like. Pointing devices include mice, touch panels, tablets, touchpads, trackballs, and the like.

読み取り装置106には、可搬型記録媒体106aが脱着される。読み取り装置106は、可搬型記録媒体106aに記録されたデータを読み取ってプロセッサ101に送信する。可搬型記録媒体106aとしては、光ディスク、光磁気ディスク、半導体メモリなどがある。 A portable recording medium 106a is attached to and detached from the reading device 106. The reading device 106 reads the data recorded on the portable recording medium 106a and transmits it to the processor 101. Examples of the portable recording medium 106a include an optical disk, a magneto-optical disk, and a semiconductor memory.

通信インタフェース107は、ネットワークを介して、CT装置50などの他の装置との間でデータの送受信を行う。
以上のようなハードウェア構成によって、画像処理装置100の処理機能を実現することができる。
The communication interface 107 transmits / receives data to / from another device such as the CT device 50 via the network.
With the above hardware configuration, the processing function of the image processing apparatus 100 can be realized.

ところで、CT画像を用いた画像診断では、撮影装置の高度化によって読影対象の画像枚数が増加しているため、医師の負担が増大している。特に、びまん性肺疾患と呼ばれる疾患群では、病変が肺の広い範囲に分布する。このため、医師による読影対象の画像枚数が非常に多くなり、またその診断には豊富な知識や経験が必要で、診断の難易度が高い。このような症例を診断する際に、医師は、診断結果が確定された過去の類似症例を参考にして、病名の候補を絞り込んでいる。しかし、過去の類似症例を探す作業には時間と手間がかかるため、このような類似症例を検索する技術が求められている。 By the way, in image diagnosis using CT images, the number of images to be read is increasing due to the sophistication of the imaging apparatus, so that the burden on the doctor is increasing. In particular, in a group of diseases called diffuse lung disease, lesions are distributed over a wide area of the lung. For this reason, the number of images to be read by a doctor is extremely large, and abundant knowledge and experience are required for the diagnosis, which makes the diagnosis difficult. When diagnosing such cases, doctors narrow down the candidates for disease names by referring to similar cases in the past for which the diagnosis results have been confirmed. However, since it takes time and effort to search for similar cases in the past, a technique for searching for such similar cases is required.

びまん性肺疾患のように病変が広い範囲に分布する症例では、現在の患者についての1枚のCTスライス画像と、過去の患者についての1枚のCTスライス画像とが類似していたとしても、立体的に見ると病変の分布状況が類似しているとは限らない。そのため、正確な診断のためには、肺の全体における病変の分布状況の類似性を判断することが重要となる。したがって、類似症例の検索精度向上のためには、肺の一部領域でなく全体の領域についてのCTスライス画像を用いて類似性を判断する必要がある。 In cases where lesions are widely distributed, such as diffuse lung disease, even if one CT slice image of the current patient and one CT slice image of the past patient are similar, When viewed three-dimensionally, the distribution of lesions is not always similar. Therefore, for accurate diagnosis, it is important to judge the similarity of the distribution of lesions throughout the lung. Therefore, in order to improve the search accuracy of similar cases, it is necessary to judge the similarity by using CT slice images of the entire lung region instead of a partial region.

そこで、胸部領域を撮影したすべてのCTスライス画像(アキシャル断面画像)を用いて、機械学習により、肺野領域を特定し、特定された肺野領域から病変に対応する異常陰影を認識する方法が開発されている。しかし、この方法では、肺野領域が写っていないCTスライス画像を肺野領域が写っている画像と誤認識して、そこから異常陰影を誤認識してしまう場合がある。このため、CTスライス画像の中から肺野領域の上端と下端との間の領域を撮影したCTスライス画像だけを特定して、特定されたCT画像を用いて機械学習を行うことができれば、肺野領域の認識精度や肺野領域内の異常陰影の認識精度を向上させることができると考えられる。 Therefore, there is a method of identifying the lung field region by machine learning using all CT slice images (axial cross-sectional images) of the chest region and recognizing the abnormal shadow corresponding to the lesion from the identified lung field region. It is being developed. However, in this method, a CT slice image in which the lung field region is not shown may be mistakenly recognized as an image in which the lung field region is shown, and an abnormal shadow may be mistakenly recognized from the CT slice image. Therefore, if only the CT slice image obtained by capturing the region between the upper end and the lower end of the lung field region can be specified from the CT slice images and machine learning can be performed using the specified CT image, the lungs It is considered that the recognition accuracy of the field area and the recognition accuracy of abnormal shadows in the lung field area can be improved.

このような背景から、本実施の形態の画像処理装置100は、機械学習を行う前の段階において、撮影されたCTスライス画像を基に肺野領域を抽出し、肺野領域が写っているCTスライス画像を特定し、特定されたCTスライス画像だけを用いて機械学習を行う。 Against this background, the image processing device 100 of the present embodiment extracts the lung field region based on the captured CT slice image in the stage before performing machine learning, and the CT in which the lung field region is shown is captured. A slice image is specified, and machine learning is performed using only the specified CT slice image.

ここで、図3は、胸部の臓器配置を示す図である。
画像処理装置100は、胸部領域を撮影した複数のCTスライス画像(アキシャル断面画像)を基に、胸部のコロナル断面を示す2値化画像を生成する。具体的には、後述するように、画像処理装置100は、各CTスライス画像を基に最小値投影法によって正面投影画像を生成し、正面投影画像を2値化することで2値化画像を生成する。そして、画像処理装置100は、このような2値化画像に基づいて肺野領域を抽出する。
Here, FIG. 3 is a diagram showing the arrangement of organs in the chest.
The image processing device 100 generates a binarized image showing a coronal cross section of the chest based on a plurality of CT slice images (axial cross section images) obtained by photographing the chest region. Specifically, as will be described later, the image processing device 100 generates a front projection image by the minimum value projection method based on each CT slice image, and binarizes the front projection image to obtain a binarized image. Generate. Then, the image processing device 100 extracts the lung field region based on such a binarized image.

しかし、このような2値化画像を用いた場合、肺野領域の上端を正確に特定することが難しいという問題がある。これは、図3に示すように、右肺201の上部領域と左肺202の上部領域との間に気管203が隣接して存在しているからである。CTスライス画像では、肺野領域のCT濃度値と気管203の領域のCT濃度値との差が小さい。このため、2値化画像においては右肺201、左肺202、気管203の各領域が同じ画素値を持ってしまい、これらの区別がつかないために、右肺201、左肺202の各上端を正確に特定できなくなる。 However, when such a binarized image is used, there is a problem that it is difficult to accurately identify the upper end of the lung field region. This is because, as shown in FIG. 3, the trachea 203 is adjacent to the upper region of the right lung 201 and the upper region of the left lung 202. In the CT slice image, the difference between the CT concentration value in the lung field region and the CT concentration value in the trachea 203 region is small. Therefore, in the binarized image, each region of the right lung 201, the left lung 202, and the trachea 203 has the same pixel value, and since these cannot be distinguished, the upper ends of the right lung 201 and the left lung 202 are each upper ends. Can no longer be identified accurately.

ここで、図3からもわかるように、右肺201、左肺202の各上端付近は、釣鐘形状における凸部のような凸状の形状を有しており、凸状の頂点が右肺201、左肺202の各上端を形成している。そこで、本実施の形態の画像処理装置100は、上記の2値化画像から臓器の輪郭線を抽出し、輪郭線を左右の外側から上方向に順に辿って凸状の頂点を検出することで、右肺201、左肺202の各上端の位置を正確に特定する。 Here, as can be seen from FIG. 3, the vicinity of each upper end of the right lung 201 and the left lung 202 has a convex shape like a convex portion in the bell shape, and the convex apex is the right lung 201. , Each upper end of the left lung 202 is formed. Therefore, the image processing device 100 of the present embodiment extracts the contour line of the organ from the above-mentioned binarized image, traces the contour line in order from the left and right outside to the upward direction, and detects the convex apex. , The position of each upper end of the right lung 201 and the left lung 202 is accurately specified.

図4は、画像処理装置が備える処理機能の構成例を示すブロック図である。図4に示すうように、画像処理装置100は、画像入力部111、投影画像生成部112、領域上端抽出部113、領域下端抽出部114、スライス選定部115および肺野領域抽出部116を備える。画像入力部111、投影画像生成部112、領域上端抽出部113、領域下端抽出部114、スライス選定部115および肺野領域抽出部116の処理は、例えば、プロセッサ101が所定のプログラムを実行することで実現される。 FIG. 4 is a block diagram showing a configuration example of a processing function included in the image processing apparatus. As shown in FIG. 4, the image processing device 100 includes an image input unit 111, a projected image generation unit 112, a region upper end extraction unit 113, a region lower end extraction unit 114, a slice selection unit 115, and a lung field region extraction unit 116. .. For the processing of the image input unit 111, the projected image generation unit 112, the region upper end extraction unit 113, the region lower end extraction unit 114, the slice selection unit 115, and the lung field region extraction unit 116, for example, the processor 101 executes a predetermined program. It is realized by.

画像入力部111は、CT装置50によって撮像された所定枚数のCTスライス画像を受け付け、投影画像生成部112および領域下端抽出部114に出力する。前述のように、これらのCTスライス画像は、胸部におけるアキシャル断面画像である。また、これらのCTスライス画像は、人体の高さ方向に対して一定間隔を空けて撮影された画像であるので、各CTスライス画像は、画像上の座標(X座標、Y座標)に加えて高さ方向の座標(Z座標)も有している。 The image input unit 111 receives a predetermined number of CT slice images captured by the CT device 50 and outputs them to the projection image generation unit 112 and the region lower end extraction unit 114. As mentioned above, these CT slice images are axial cross-sectional images in the chest. Further, since these CT slice images are images taken at regular intervals in the height direction of the human body, each CT slice image is added to the coordinates (X coordinate, Y coordinate) on the image. It also has coordinates in the height direction (Z coordinates).

投影画像生成部112は、画像入力部111からの所定枚数のCTスライス画像を基に、最小値投影法によって胸部の内部状況を正面に投影した正面投影画像を生成する。
領域上端抽出部113は、生成された正面投影画像を基に肺野領域の上端を抽出する。この領域上端抽出部113は、輪郭線抽出部121と凸状頂点検出部122を備える。輪郭線抽出部121は、正面投影画像を2値化して2値化画像を生成し、2値化画像から輪郭線を抽出する。凸状頂点検出部122は、輪郭線から凸状頂点を検出することで、右肺、左肺の各上端位置を検出する。
The projection image generation unit 112 generates a front projection image in which the internal state of the chest is projected to the front by the minimum value projection method based on a predetermined number of CT slice images from the image input unit 111.
The region upper end extraction unit 113 extracts the upper end of the lung field region based on the generated front projection image. The region upper end extraction unit 113 includes a contour line extraction unit 121 and a convex vertex detection unit 122. The contour line extraction unit 121 binarizes the front projection image to generate a binarized image, and extracts the contour line from the binarized image. The convex apex detection unit 122 detects the upper end positions of the right lung and the left lung by detecting the convex apex from the contour line.

領域下端抽出部114は、画像入力部111からの所定枚数のCTスライス画像を基に、肺野領域の下端(右肺の下端、左肺の下端)を抽出する。
スライス選定部115は、領域上端抽出部113および領域下端抽出部114による肺野領域の上端、下端の検出結果に基づいて、画像入力部111が受け付けたCTスライス画像の中から、上端と下端との間の領域を撮影対象としているCTスライス画像を選定する。
The region lower end extraction unit 114 extracts the lower end of the lung field region (lower end of the right lung, lower end of the left lung) based on a predetermined number of CT slice images from the image input unit 111.
The slice selection unit 115 includes the upper end and the lower end from the CT slice images received by the image input unit 111 based on the detection results of the upper end and the lower end of the lung field region by the region upper end extraction unit 113 and the region lower end extraction unit 114. Select a CT slice image whose imaging target is the area between.

肺野領域抽出部116は、機械学習による学習結果に基づき、スライス選定部115によって選定されたCTスライス画像から肺野領域の画像領域を抽出し、その抽出結果を出力する。また、肺野領域抽出部116は、機械学習による学習結果に基づき、抽出された画像領域から異常陰影を認識してもよい。さらに、肺野領域抽出部116は、スライス選定部115によって選定されたCTスライス画像を、機械学習のための学習データとして出力して、この学習データを既存の学習データに加えて肺野領域の抽出および異常陰影の認識のための機械学習を実行してもよい。 The lung field region extraction unit 116 extracts an image region of the lung field region from the CT slice image selected by the slice selection unit 115 based on the learning result by machine learning, and outputs the extraction result. Further, the lung field region extraction unit 116 may recognize an abnormal shadow from the extracted image region based on the learning result by machine learning. Further, the lung field region extraction unit 116 outputs the CT slice image selected by the slice selection unit 115 as training data for machine learning, and adds this learning data to the existing learning data to obtain the lung field region. Machine learning may be performed for extraction and recognition of abnormal shadows.

次に、図5〜図9を用いて肺野領域の上端抽出処理を説明する。
まず、図5は、正面投影画像の生成処理を説明するための図である。図5に示すCTスライス画像群211は、画像入力部111から投影画像生成部112に出力される所定枚数のCTスライス画像を含む。図5では、人体の左右方向をX軸、奥行き方向をY軸、高さ方向をZ軸としている。各CTスライス画像は、X−Y平面(すなわちアキシャル断面)における人体内部の像を示している。
Next, the upper end extraction process of the lung field region will be described with reference to FIGS. 5 to 9.
First, FIG. 5 is a diagram for explaining a process of generating a front projection image. The CT slice image group 211 shown in FIG. 5 includes a predetermined number of CT slice images output from the image input unit 111 to the projection image generation unit 112. In FIG. 5, the left-right direction of the human body is the X-axis, the depth direction is the Y-axis, and the height direction is the Z-axis. Each CT slice image shows an image of the inside of the human body in the XY plane (ie, axial cross section).

投影画像生成部112は、次のような最小値投影法を用いることで正面投影画像を生成する。投影画像生成部112は、CTスライス画像ごとに次のような処理を実行する。投影画像生成部112は、CTスライス画像からY軸に沿った画素列を選択し、画素列におけるCT濃度値の最小値をX軸およびZ軸に沿った投影平面(X−Z平面)に投影する。投影画像生成部112は、CTスライス画像の各画素列についてCT濃度値の最小値を投影する。これにより、投影平面には1つのCTスライス画像からX軸に沿った画素列が形成される。そして、このような投影処理が各CTスライス画像について実行されることで、投影平面にはCTスライス画像の枚数分の画素列が形成される。 The projection image generation unit 112 generates a front projection image by using the following minimum value projection method. The projection image generation unit 112 executes the following processing for each CT slice image. The projection image generation unit 112 selects a pixel array along the Y-axis from the CT slice image, and projects the minimum value of the CT density value in the pixel array onto the X-axis and the projection plane (X-Z plane) along the Z-axis. To do. The projection image generation unit 112 projects the minimum value of the CT density value for each pixel sequence of the CT slice image. As a result, a pixel sequence along the X axis is formed from one CT slice image on the projection plane. Then, by executing such a projection process for each CT slice image, a pixel sequence corresponding to the number of CT slice images is formed on the projection plane.

投影画像生成部112は、例えば、投影平面に形成された、X軸に沿った画素列を基に、Z軸方向に対して補間演算を行うことで、正面投影画像212を生成する。このような最小値投影法により、正面投影画像212には、CTスライス画像群211から生成されるコロナル画像上の臓器の領域(少なくとも肺および気管の領域)のうち、最大の領域が投影される。 The projection image generation unit 112 generates a front projection image 212 by performing an interpolation calculation in the Z-axis direction based on, for example, a pixel sequence formed on the projection plane along the X-axis. By such a minimum value projection method, the largest region of the organ regions (at least the lung and tracheal regions) on the coronal image generated from the CT slice image group 211 is projected on the front projection image 212. ..

なお、上記のCTスライス画像群211に加えて、胸部についての複数枚のコロナル断面画像がCT装置50によって撮影された場合、投影画像はこれらのコロナル断面画像を用いて生成されてもよい。この場合、各コロナル断面画像における同一画素のCT濃度値の最小値が投影平面に投影されることで、正面投影画像が生成される。 In addition to the CT slice image group 211 described above, when a plurality of coronal cross-sectional images of the chest are taken by the CT device 50, the projected images may be generated using these coronal cross-sectional images. In this case, the front projection image is generated by projecting the minimum value of the CT density value of the same pixel in each coronal cross-sectional image onto the projection plane.

次に、領域上端抽出部113の処理について説明する。
まず、図6は、凸状頂点検出部の内部構成例を示す図である。図6に示すように、凸状頂点検出部122は、輪郭線分割部131、転換点検出部132および頂点検出部133を備える。
Next, the processing of the region upper end extraction unit 113 will be described.
First, FIG. 6 is a diagram showing an example of the internal configuration of the convex vertex detection unit. As shown in FIG. 6, the convex vertex detection unit 122 includes a contour line dividing unit 131, a turning point detection unit 132, and a vertex detection unit 133.

輪郭線分割部131は、正面投影画像を2値化した2値化画像を、同一サイズのブロックに分割する。これにより、2値化画像から抽出された輪郭線がブロックごとに分割される。 The contour line dividing unit 131 divides the binarized image obtained by binarizing the front projection image into blocks of the same size. As a result, the contour line extracted from the binarized image is divided into blocks.

転換点検出部132は、輪郭線を含むブロックについて、輪郭線の両端を結ぶ直線の傾きを算出する。転換点検出部132は、輪郭線を左端から上方向に辿っていき、ともに輪郭線を含む隣接するブロックの間で直線の傾きの正負が逆転する転換点を検出する。また、転換点検出部132は、輪郭線を右端から上方向に辿っていき、ともに輪郭線を含む隣接するブロックの間で直線の傾きの正負が逆転する転換点を検出する。 The turning point detection unit 132 calculates the slope of a straight line connecting both ends of the contour line for the block including the contour line. The turning point detection unit 132 traces the contour line upward from the left end, and detects a turning point in which the positive and negative of the slope of the straight line are reversed between adjacent blocks including the contour line. Further, the turning point detection unit 132 traces the contour line upward from the right end, and detects a turning point in which the positive and negative of the slope of the straight line are reversed between the adjacent blocks including the contour line.

頂点検出部133は、検出された転換点を挟む両側のブロックについてさらに小さいブロックに再分割し、再分割されたブロックのうち輪郭線を含むブロックについて、輪郭線の両端を結ぶ直線の傾きを算出する。頂点検出部133は、ブロック間で直線の傾きの正負が逆転する位置に基づいて、右肺の凸状頂点と左肺の凸状頂点を検出し、検出された各頂点の位置を右肺、左肺の各領域の上端として特定する。 The vertex detection unit 133 subdivides the blocks on both sides of the detected turning point into smaller blocks, and calculates the slope of the straight line connecting both ends of the contour line for the block including the contour line among the subdivided blocks. To do. The apex detection unit 133 detects the convex apex of the right lung and the convex apex of the left lung based on the position where the positive and negative of the slope of the straight line is reversed between the blocks, and determines the position of each detected vertex as the right lung. Identify as the top of each region of the left lung.

図7は、領域上端抽出部の処理例を示す第1の図である。
領域上端抽出部113の輪郭線抽出部121は、投影画像生成部112によって生成された正面投影画像を2値化することで2値化画像221を生成する。例えば、CT濃度値の最小値が−1000HU、最大値が1000HUとすると、輪郭線抽出部121は、正面投影画像におけるCT濃度値500HU未満の画素を0(黒)、500HU以上の画素を1(白)とすることで2値化画像221を生成する。
FIG. 7 is a first diagram showing a processing example of the region upper end extraction unit.
The contour line extraction unit 121 of the region upper end extraction unit 113 generates the binarized image 221 by binarizing the front projection image generated by the projection image generation unit 112. For example, assuming that the minimum value of the CT density value is -1000 HU and the maximum value is 1000 HU, the contour line extraction unit 121 sets 0 (black) for pixels with a CT density value of less than 500 HU and 1 (black) for pixels with a CT density value of 500 HU or more in the front projection image. White) to generate a binarized image 221.

次に、輪郭線抽出部121は、生成された2値化画像221から輪郭線222aを抽出する。輪郭線222aは、画素値が異なる領域の境界線となる。ただし、2値化画像221においては肺野領域は中央領域に存在すると推定される。このため、輪郭線抽出部121は、例えば、中央領域における輪郭線のみを抽出し、それより外側に存在する別の輪郭線の抽出をキャンセルする。図7において、画像222は、2値化画像221から太線で示す輪郭線222aが抽出された状態を示している。 Next, the contour line extraction unit 121 extracts the contour line 222a from the generated binarized image 221. The contour line 222a is a boundary line of regions having different pixel values. However, in the binarized image 221 it is presumed that the lung field region exists in the central region. Therefore, for example, the contour line extraction unit 121 extracts only the contour line in the central region and cancels the extraction of another contour line existing outside the contour line. In FIG. 7, the image 222 shows a state in which the contour line 222a shown by the thick line is extracted from the binarized image 221.

次に、凸状頂点検出部122の輪郭線分割部131は、輪郭線222aが抽出された画像222を、同一サイズのブロックに分割する。ここでは、輪郭線分割部131は、画像222を横方向、縦方向にそれぞれ等間隔で配置した分割線によって分割することで、画像222を分割する。図7において、画像223は、画像222がブロックに分割された状態を示している。 Next, the contour line dividing unit 131 of the convex vertex detecting unit 122 divides the image 222 from which the contour line 222a is extracted into blocks of the same size. Here, the contour line dividing unit 131 divides the image 222 by dividing the image 222 by dividing lines arranged at equal intervals in the horizontal direction and the vertical direction. In FIG. 7, image 223 shows a state in which image 222 is divided into blocks.

なお、分割されるブロックの高さと幅は、気管の幅より小さいことが望ましい。この条件により、右肺、左肺の凸状頂点を正確に検出できる可能性が高まる。
次に、凸状頂点検出部122の転換点検出部132は、輪郭線を含むブロックについて、輪郭線の両端を結ぶ直線の傾きを算出する。転換点検出部132は、直線の傾きに基づき、傾きの正負が逆転する転換点を検出する。凸状頂点検出部122の頂点検出部133は、検出された転換点を挟む両側のブロックを検証することで、肺野領域の上端を抽出する。以下、図8、図9を用いて転換点検出部132および頂点検出部133の処理例を説明する。
It is desirable that the height and width of the divided blocks are smaller than the width of the trachea. This condition increases the possibility of accurately detecting the convex apex of the right and left lungs.
Next, the turning point detection unit 132 of the convex vertex detection unit 122 calculates the slope of the straight line connecting both ends of the contour line for the block including the contour line. The turning point detection unit 132 detects a turning point where the positive and negative of the slope are reversed based on the slope of the straight line. The apex detection unit 133 of the convex apex detection unit 122 extracts the upper end of the lung field region by verifying the blocks on both sides of the detected turning point. Hereinafter, processing examples of the turning point detection unit 132 and the vertex detection unit 133 will be described with reference to FIGS. 8 and 9.

図8は、領域上端抽出部の処理例を示す第2の図である。この図8では、右肺の凸状頂点を検出する処理例を示す。
転換点検出部132は、画像223上の輪郭線を左端から上方向に辿っていき、ともに輪郭線を含む隣接するブロックの間で直線の傾きの正負が逆転する転換点を検出する。図8の例では、ブロックB1に輪郭線の左端が含まれている。転換点検出部132は、まず、ブロックB1における輪郭線の両端を結ぶ直線の傾きを算出する。次に、転換点検出部132は、輪郭線を上側に辿り、ブロックB1に隣接するブロックB2について、輪郭線の両端を結ぶ直線の傾きを算出する。そして、転換点検出部132は、ブロックB1とブロックB2との間で直線の傾きの正負が逆転したかを判定する。図8の例では直線の傾きは正のままであるので、転換点検出部132は次に、輪郭線を上側に辿り、ブロックB2に隣接するブロックB3について、輪郭線の両端を結ぶ直線の傾きを算出する。そして、転換点検出部132は、ブロックB2とブロックB3との間で直線の傾きの正負が逆転したかを判定する。
FIG. 8 is a second diagram showing a processing example of the region upper end extraction unit. FIG. 8 shows an example of processing for detecting the convex apex of the right lung.
The turning point detection unit 132 traces the contour line on the image 223 upward from the left end, and detects a turning point in which the positive and negative of the slope of the straight line are reversed between the adjacent blocks including the contour line. In the example of FIG. 8, the block B1 includes the left end of the contour line. The turning point detection unit 132 first calculates the slope of the straight line connecting both ends of the contour line in the block B1. Next, the turning point detection unit 132 traces the contour line upward and calculates the slope of the straight line connecting both ends of the contour line for the block B2 adjacent to the block B1. Then, the turning point detection unit 132 determines whether the positive or negative of the slope of the straight line is reversed between the block B1 and the block B2. In the example of FIG. 8, since the slope of the straight line remains positive, the turning point detection unit 132 then traces the contour line upward, and for the block B3 adjacent to the block B2, the slope of the straight line connecting both ends of the contour line. Is calculated. Then, the turning point detection unit 132 determines whether the positive or negative of the slope of the straight line is reversed between the block B2 and the block B3.

転換点検出部132は、このような判定を輪郭線を辿りながら順に繰り返していく。そして、図8の例では、ブロックB11とブロックB12との間で直線の傾きの正負が逆転したとする。すなわち、ブロックB11の直線L1の傾きは正であったが、ブロックB12の直線L2の傾きは負であったとする。この場合、ブロックB11とブロックB12との境界において輪郭線が通る点P1が、転換点として検出される。この転換点は、右肺の上端に位置する凸状頂点の近傍に位置していると推定される。したがって、画像223内のブロックの中から、右肺の上端が存在するブロックの候補として、検出された転換点を挟む両側のブロックB11,B12が絞り込まれる。 The turning point detection unit 132 repeats such a determination in order while following the contour line. Then, in the example of FIG. 8, it is assumed that the positive and negative of the slope of the straight line are reversed between the block B11 and the block B12. That is, it is assumed that the slope of the straight line L1 of the block B11 is positive, but the slope of the straight line L2 of the block B12 is negative. In this case, the point P1 through which the contour line passes at the boundary between the block B11 and the block B12 is detected as a turning point. This turning point is presumed to be located near the convex apex located at the upper end of the right lung. Therefore, from the blocks in the image 223, the blocks B11 and B12 on both sides sandwiching the detected turning point are narrowed down as candidates for the block in which the upper end of the right lung exists.

次に、頂点検出部133は、ブロックB11,B12をさらに小さなブロックに再分割する。そして、頂点検出部133は、再分割されたブロックのうち輪郭線を含むブロックについて、輪郭線の両端を結ぶ直線の傾きを算出する。頂点検出部133は、隣接するブロック間で直線の傾きの正負が逆転する位置を検出する。図8の例では、ブロックB12aとブロックB12bとの間で直線の傾きの正負が逆転したとする。すなわち、ブロックB12aの直線L2aの傾きは正であったが、ブロックB12bの直線L2bの傾きは負であったとする。この場合、ブロックB12aとブロックB12bとの境界において輪郭線が通る点P2が、転換点として検出される。なお、頂点検出部133は、ブロックB12の中から転換点が複数検出された場合、その中で高さ方向の座標が最大の転換点を選択して処理を続ける。 Next, the vertex detection unit 133 subdivides the blocks B11 and B12 into smaller blocks. Then, the vertex detection unit 133 calculates the slope of the straight line connecting both ends of the contour line for the block including the contour line among the subdivided blocks. The vertex detection unit 133 detects a position where the positive and negative of the slope of the straight line are reversed between adjacent blocks. In the example of FIG. 8, it is assumed that the positive and negative of the slope of the straight line are reversed between the block B12a and the block B12b. That is, it is assumed that the slope of the straight line L2a of the block B12a is positive, but the slope of the straight line L2b of the block B12b is negative. In this case, the point P2 through which the contour line passes at the boundary between the block B12a and the block B12b is detected as a turning point. When a plurality of turning points are detected in the block B12, the vertex detection unit 133 selects the turning point having the maximum coordinate in the height direction and continues the process.

頂点検出部133は、検出された転換点を挟む両側のブロックB12a,B12bについて、さらに小さなブロックに再分割し、上記と同様の手順で直線の傾きの正負が逆転する転換点を検出する。頂点検出部133は、転換点が検出されなくなるまでこのような処理を繰り返す。そして、頂点検出部133は、最後に検出された転換点を、右肺の上端に位置する凸状頂点として検出する。検出された凸状頂点の高さ方向の座標(Z座標)が、右肺の領域の上端の座標を示す。 The vertex detection unit 133 subdivides the blocks B12a and B12b on both sides of the detected turning point into smaller blocks, and detects the turning point where the positive and negative of the slope of the straight line are reversed by the same procedure as described above. The vertex detection unit 133 repeats such a process until the turning point is no longer detected. Then, the apex detection unit 133 detects the last detected turning point as a convex apex located at the upper end of the right lung. The height-wise coordinates (Z-coordinates) of the detected convex vertices indicate the coordinates of the upper end of the region of the right lung.

このような処理により、右肺の上端を高精度に抽出できる。すなわち、図3に示したように、右肺の上端は釣鐘形状における凸部のような凸状の形状を有しており、なおかつ、気管はこの凸状形状の位置より右側に存在する。このような構造のため、図8に示したように輪郭線を左端から上方向に辿っていくことで、気管の領域に達する前に右肺の凸状の上端部に達する。したがって、右肺の上端の位置を精度よく抽出できる。 By such a process, the upper end of the right lung can be extracted with high accuracy. That is, as shown in FIG. 3, the upper end of the right lung has a convex shape like a convex portion in a bell shape, and the trachea exists on the right side of the position of this convex shape. Due to such a structure, the contour line is traced upward from the left end as shown in FIG. 8 to reach the convex upper end of the right lung before reaching the area of the trachea. Therefore, the position of the upper end of the right lung can be extracted accurately.

図9は、領域上端抽出部の処理例を示す第3の図である。この図9では、左肺の凸状頂点を検出する処理例を示す。
転換点検出部132および頂点検出部133は、左肺についても、図8で説明した処理を左右逆転させて実行する。すなわち、転換点検出部132は、画像223上の輪郭線を右端から上方向に辿っていき、ともに輪郭線を含む隣接するブロックの間で直線の傾きの正負が逆転する転換点を検出する。図9の例では、ブロックB21に輪郭線の右端が含まれている。転換点検出部132は、まず、ブロックB21における輪郭線の両端を結ぶ直線の傾きを算出し、次に、ブロックB22における輪郭線の両端を結ぶ直線の傾きを算出する。そして、転換点検出部132は、ブロックB21とブロックB22との間で直線の傾きの正負が逆転したかを判定する。図9の例では直線の傾きは正のままであるので、転換点検出部132は次に、ブロックB23における輪郭線の両端を結ぶ直線の傾きを算出し、ブロックB22とブロックB23との間で直線の傾きの正負が逆転したかを判定する。
FIG. 9 is a third diagram showing a processing example of the region upper end extraction unit. FIG. 9 shows an example of processing for detecting the convex apex of the left lung.
The turning point detection unit 132 and the apex detection unit 133 also execute the process described with reference to FIG. 8 in the left-right reversal of the left lung. That is, the turning point detection unit 132 traces the contour line on the image 223 upward from the right end, and detects a turning point in which the positive and negative of the slope of the straight line are reversed between adjacent blocks including the contour line. In the example of FIG. 9, the block B21 includes the right end of the contour line. The turning point detection unit 132 first calculates the slope of the straight line connecting both ends of the contour line in the block B21, and then calculates the slope of the straight line connecting both ends of the contour line in the block B22. Then, the turning point detection unit 132 determines whether the positive or negative of the slope of the straight line is reversed between the block B21 and the block B22. In the example of FIG. 9, the slope of the straight line remains positive, so the turning point detection unit 132 then calculates the slope of the straight line connecting both ends of the contour line in the block B23, and between the block B22 and the block B23. It is determined whether the positive or negative of the slope of the straight line is reversed.

このようにして、図9ではブロックB31とブロックB32との間で直線の傾きの正負が逆転したとする。すなわち、ブロックB31の直線L11の傾きは負であったが、ブロックB32の直線L12の傾きは正であったとする。この場合、ブロックB31とブロックB32との境界において輪郭線が通る点P11が、転換点として検出される。 In this way, in FIG. 9, it is assumed that the positive and negative of the slope of the straight line are reversed between the block B31 and the block B32. That is, it is assumed that the slope of the straight line L11 of the block B31 is negative, but the slope of the straight line L12 of the block B32 is positive. In this case, the point P11 through which the contour line passes at the boundary between the block B31 and the block B32 is detected as a turning point.

次に、頂点検出部133は、転換点(点P11)を挟む両側のブロックB31,B32をさらにブロックに再分割し、図8と同様の手順で直線の傾きの正負が逆転する転換点を検出する。図9の例では、ブロックB32aとブロックB32bとの間で直線の傾きの正負が逆転したとする。すなわち、ブロックB32aの直線L12aの傾きは負であったが、ブロックB32bの直線L12bの傾きは正であったとする。この場合、ブロックB32aとブロックB32bとの境界において輪郭線が通る点P12が、転換点として検出される。 Next, the vertex detection unit 133 further subdivides the blocks B31 and B32 on both sides of the turning point (point P11) into blocks, and detects a turning point in which the positive and negative of the slope of the straight line are reversed by the same procedure as in FIG. To do. In the example of FIG. 9, it is assumed that the positive and negative of the slope of the straight line are reversed between the block B32a and the block B32b. That is, it is assumed that the slope of the straight line L12a of the block B32a is negative, but the slope of the straight line L12b of the block B32b is positive. In this case, the point P12 through which the contour line passes at the boundary between the block B32a and the block B32b is detected as a turning point.

頂点検出部133は、検出された転換点を挟む両側のブロックB32a,B32bについて、さらに小さなブロックに再分割し、上記と同様の手順で直線の傾きの正負が逆転する転換点を検出する。頂点検出部133は、転換点が検出されなくなるまでこのような処理を繰り返す。そして、頂点検出部133は、最後に検出された転換点を、左肺の上端に位置する凸状頂点として検出する。検出された凸状頂点の高さ方向の座標(Z座標)が、左肺の領域の上端の座標を示す。 The vertex detection unit 133 subdivides the blocks B32a and B32b on both sides of the detected turning point into smaller blocks, and detects the turning point where the positive and negative of the slope of the straight line are reversed by the same procedure as described above. The vertex detection unit 133 repeats such a process until the turning point is no longer detected. Then, the apex detection unit 133 detects the last detected turning point as a convex apex located at the upper end of the left lung. The height coordinate (Z coordinate) of the detected convex apex indicates the coordinate of the upper end of the region of the left lung.

このような処理により、左肺の上端を高精度に抽出できる。すなわち、図3に示したように、左肺の上端は釣鐘形状における凸部のような凸状の形状を有しており、なおかつ、気管はこの凸状形状の位置より左側に存在する。このような構造のため、図9に示したように輪郭線を右端から上方向に辿っていくことで、気管の領域に達する前に左肺の凸状の上端部に達する。したがって、左肺の上端の位置を精度よく抽出できる。 By such a process, the upper end of the left lung can be extracted with high accuracy. That is, as shown in FIG. 3, the upper end of the left lung has a convex shape like a convex portion in the bell shape, and the trachea exists on the left side from the position of this convex shape. Due to such a structure, by tracing the contour line upward from the right end as shown in FIG. 9, the convex upper end of the left lung is reached before reaching the area of the trachea. Therefore, the position of the upper end of the left lung can be extracted accurately.

次に、画像処理装置100の処理についてフローチャートを用いて説明する。
図10は、画像処理装置による全体の処理を示すフローチャートの例である。
[ステップS11]画像入力部111は、CT装置50によって撮像された所定枚数のCTスライス画像を受け付け、投影画像生成部112および領域下端抽出部114に出力する。
Next, the processing of the image processing apparatus 100 will be described with reference to a flowchart.
FIG. 10 is an example of a flowchart showing the entire processing by the image processing apparatus.
[Step S11] The image input unit 111 receives a predetermined number of CT slice images captured by the CT device 50 and outputs them to the projection image generation unit 112 and the region lower end extraction unit 114.

[ステップS12]画像入力部111から出力されたCTスライス画像を用いて、投影画像生成部112および領域上端抽出部113によって肺野領域上端抽出処理が実行される。これにより、肺野領域の上端(右肺の上端、左肺の上端)が抽出される。 [Step S12] Using the CT slice image output from the image input unit 111, the lung field region upper end extraction process is executed by the projection image generation unit 112 and the region upper end extraction unit 113. As a result, the upper end of the lung field region (the upper end of the right lung and the upper end of the left lung) is extracted.

[ステップS13]領域下端抽出部114は、画像入力部111から出力された所定枚数のCTスライス画像を基に、肺野領域の下端(右肺の下端、左肺の下端)を抽出する。
[ステップS14]スライス選定部115は、画像入力部111が受け付けたCTスライス画像の中から、ステップS12で抽出された上端より上側の領域を撮影した画像を除外する。さらにスライス選定部115は、除外後の残りのCTスライス画像の中から、ステップS13で抽出された下端より下側の領域を撮影した画像を除外する。これにより、画像入力部111が受け付けたCTスライス画像の中から、肺野領域を撮影したCTスライス画像が、肺野領域の抽出対象のCTスライス画像として選定される。
[Step S13] The region lower end extraction unit 114 extracts the lower end of the lung field region (lower end of the right lung, lower end of the left lung) based on a predetermined number of CT slice images output from the image input unit 111.
[Step S14] The slice selection unit 115 excludes an image obtained by capturing a region above the upper end extracted in step S12 from the CT slice images received by the image input unit 111. Further, the slice selection unit 115 excludes an image obtained by capturing a region below the lower end extracted in step S13 from the remaining CT slice images after exclusion. As a result, the CT slice image obtained by capturing the lung field region is selected as the CT slice image to be extracted from the lung field region from the CT slice images received by the image input unit 111.

[ステップS15]肺野領域抽出部116は、機械学習による学習結果に基づき、ステップS14で選定されたCTスライス画像から肺野領域の画像領域を抽出し、その抽出結果を出力する。ステップS14で選定されたCTスライス画像のみが抽出対象として使用されることで、肺野領域を精度よく抽出できる。 [Step S15] The lung field region extraction unit 116 extracts an image region of the lung field region from the CT slice image selected in step S14 based on the learning result by machine learning, and outputs the extraction result. By using only the CT slice image selected in step S14 as the extraction target, the lung field region can be extracted with high accuracy.

また、肺野領域抽出部116は、機械学習による学習結果に基づき、抽出された画像領域から異常陰影を認識してもよい。この処理でも、ステップS14で選定されたCTスライス画像のみが使用されることで、異常陰影の誤検出が少なくなり、その検出精度を向上させることができる。 Further, the lung field region extraction unit 116 may recognize an abnormal shadow from the extracted image region based on the learning result by machine learning. In this process as well, by using only the CT slice image selected in step S14, erroneous detection of abnormal shadows can be reduced, and the detection accuracy can be improved.

図11は、肺野領域上端抽出処理を示すフローチャートの例である。この図11の処理は、図10のステップS12の処理に対応する。
[ステップS21]投影画像生成部112は、画像入力部111から出力された所定枚数のCTスライス画像を基に、最小値投影法により正面投影画像を生成する。
FIG. 11 is an example of a flowchart showing the lung field region upper end extraction process. The process of FIG. 11 corresponds to the process of step S12 of FIG.
[Step S21] The projection image generation unit 112 generates a front projection image by the minimum value projection method based on a predetermined number of CT slice images output from the image input unit 111.

[ステップS22]輪郭線抽出部121は、生成された正面投影画像を2値化して、2値化画像を生成する。
[ステップS23]輪郭線抽出部121は、生成された2値化画像から輪郭線を抽出する。
[Step S22] The contour line extraction unit 121 binarizes the generated front projection image to generate a binarized image.
[Step S23] The contour line extraction unit 121 extracts a contour line from the generated binarized image.

[ステップS24]輪郭線分割部131は、輪郭線が抽出された画像を同一サイズのブロックに分割することで、輪郭線を分割する。
[ステップS25]分割された輪郭線に基づいて、画像内の左側の肺(右肺)の凸状頂点を検出する左側頂点検出処理が実行される。
[Step S24] The contour line dividing unit 131 divides the contour line by dividing the image from which the contour line is extracted into blocks of the same size.
[Step S25] The left apex detection process for detecting the convex apex of the left lung (right lung) in the image is executed based on the divided contour line.

[ステップS26]分割された輪郭線に基づいて、画像内の右側の肺(左肺)の凸状頂点を検出する右側頂点検出処理が実行される。
[ステップS27]頂点検出部133は、ステップS25,S26の検出結果から、肺野領域の上端位置(高さ)を出力する。すなわち、右肺の凸状頂点の高さ(Z座標)が右肺の上端位置として出力され、左肺の凸状頂点の高さ(Z座標)が左肺の上端位置として出力される。
[Step S26] The right apex detection process for detecting the convex apex of the right lung (left lung) in the image is executed based on the divided contour line.
[Step S27] The vertex detection unit 133 outputs the upper end position (height) of the lung field region from the detection results of steps S25 and S26. That is, the height of the convex apex of the right lung (Z coordinate) is output as the upper end position of the right lung, and the height of the convex apex of the left lung (Z coordinate) is output as the upper end position of the left lung.

図12は、頂点検出処理を示すフローチャートの例である。この図12の処理は、図11のステップS25,S26の処理に対応する。ステップS25,S26の処理は左右の関係が逆になるだけで基本的に同一である。そのため、ここでは主としてステップS25の左側頂点検出処理について説明し、ステップS26の右側頂点検出処理については適宜説明を補足する。また、以下の説明において、「分割曲線」とはブロックによって分割された輪郭線を指す。 FIG. 12 is an example of a flowchart showing the vertex detection process. The process of FIG. 12 corresponds to the process of steps S25 and S26 of FIG. The processes of steps S25 and S26 are basically the same except that the left-right relationship is reversed. Therefore, here, the left apex detection process in step S25 will be mainly described, and the right apex detection process in step S26 will be supplemented as appropriate. Further, in the following description, the "division curve" refers to a contour line divided by blocks.

[ステップS31]転換点検出部132は、画像上の左端の分割曲線を特定する。この処理は、輪郭線の左端を含むブロックが選択され、そのブロックに含まれる輪郭線(分割曲線)が特定される。転換点検出部132は、分割曲線の両端の座標を算出する。なお、右側頂点検出処理では、画像上の右端の分割曲線が特定される。 [Step S31] The turning point detection unit 132 identifies the leftmost dividing curve on the image. In this process, a block including the left end of the contour line is selected, and the contour line (division curve) included in the block is specified. The turning point detection unit 132 calculates the coordinates of both ends of the dividing curve. In the right vertex detection process, the rightmost dividing curve on the image is specified.

[ステップS32]転換点検出部132は、ステップS31で算出された座標に基づいて、分割曲線の両端を結ぶ直線の傾きを算出する。
[ステップS33]転換点検出部132は、輪郭線を上方向に辿ることにより、次の分割曲線を特定する。輪郭線を上方向に辿れなくなった場合には、輪郭線を右方向に辿ることで次の分割曲線が特定される。転換点検出部132は、分割曲線の両端の座標を算出する。なお、右側頂点検出処理では、同様に輪郭線を上方向に辿ることで次の分割曲線が特定され、上方向に辿れなくなった場合には輪郭線を左方向に辿ることで次の分割曲線が特定される。
[Step S32] The turning point detection unit 132 calculates the slope of the straight line connecting both ends of the dividing curve based on the coordinates calculated in step S31.
[Step S33] The turning point detection unit 132 identifies the next dividing curve by tracing the contour line upward. If the contour line cannot be traced upward, the next dividing curve is specified by tracing the contour line to the right. The turning point detection unit 132 calculates the coordinates of both ends of the dividing curve. In the right vertex detection process, the next dividing curve is specified by tracing the contour line upward, and if it cannot be traced upward, the next dividing curve is obtained by tracing the contour line to the left. Be identified.

[ステップS34]転換点検出部132は、ステップS33で算出された座標に基づいて、分割曲線の両端を結ぶ直線の傾きを算出する。
[ステップS35]転換点検出部132は、ステップS34で算出された直線の傾き(第1の傾き)と、ステップS32で算出された、または前回のステップS34の実行により算出された直線の傾き(第2の傾き)とを比較して、傾きの正負の転換点が検出されたかを判定する。第1の傾きと第2の傾きの両方の角度が0以上の場合、または両方の角度が0未満の場合には、傾きの正負が逆転しておらず、転換点は検出されない。一方、第1の傾きと第2の傾きのうちの一方の角度が0以上であり、他方の角度が0未満の場合には、傾きの正負が逆転したと判定される。この場合、2つの直線の接点(すなわち、各直線を含む2つのブロックの境界における、輪郭線の通過点)が転換点として検出される。
[Step S34] The turning point detection unit 132 calculates the slope of the straight line connecting both ends of the dividing curve based on the coordinates calculated in step S33.
[Step S35] The turning point detection unit 132 has the inclination of the straight line (first inclination) calculated in step S34 and the inclination of the straight line calculated in step S32 or calculated by the previous execution of step S34 (step S35). It is determined whether a positive / negative turning point of the slope is detected by comparing with the second slope). When both the angles of the first inclination and the second inclination are 0 or more, or when both angles are less than 0, the positive and negative of the inclination are not reversed and the turning point is not detected. On the other hand, when one of the first inclination and the second inclination is 0 or more and the other angle is less than 0, it is determined that the positive and negative of the inclination are reversed. In this case, the point of contact between the two straight lines (that is, the passing point of the contour line at the boundary between the two blocks including each straight line) is detected as a turning point.

転換点検出部132は、転換点が検出されなかった場合、ステップS33の処理を再度実行し、転換点が検出された場合、ステップS36の処理を実行する。
[ステップS36]ステップS36の初回実行時では、頂点検出部133は、ステップS35で検出された転換点の座標をRAM102に記録する。ステップS36の2回目以降の実行時では、頂点検出部133は、前回のステップS40の実行により検出された転換点の座標をRAM102に記録する。なお、後者の場合、前回のステップS36の実行により記録された転換点の座標は破棄される。
If the turning point is not detected, the turning point detection unit 132 executes the process of step S33 again, and if the turning point is detected, executes the process of step S36.
[Step S36] At the time of the first execution of step S36, the vertex detection unit 133 records the coordinates of the turning point detected in step S35 in the RAM 102. At the time of the second and subsequent executions of step S36, the apex detection unit 133 records the coordinates of the turning point detected by the previous execution of step S40 in the RAM 102. In the latter case, the coordinates of the turning point recorded by the previous execution of step S36 are discarded.

[ステップS37]頂点検出部133は、座標が記録された転換点を挟む両側のブロックを、より小さなサイズのブロックに再分割する。これにより、各ブロック内の輪郭線はさらに短い分割曲線に再分割される。 [Step S37] The vertex detection unit 133 subdivides the blocks on both sides of the turning point on which the coordinates are recorded into blocks having a smaller size. As a result, the contour line in each block is subdivided into a shorter dividing curve.

[ステップS38]頂点検出部133は、再分割された分割曲線のそれぞれについて、両端の座標を算出する。
[ステップS39]頂点検出部133は、再分割された分割曲線のそれぞれについて、ステップS38で算出された座標に基づき、両端を結ぶ直線の傾きを算出する。
[Step S38] The vertex detection unit 133 calculates the coordinates of both ends of each of the subdivided curves.
[Step S39] The vertex detection unit 133 calculates the slope of the straight line connecting both ends of each of the subdivided division curves based on the coordinates calculated in step S38.

[ステップS40]頂点検出部133は、ステップS39で算出された各直線の傾きに基づき、傾きの正負の転換点が検出されたかを判定する。具体的には、頂点検出部133は、隣接する直線の組み合わせのそれぞれについて、各直線の傾きを比較する。ステップS35での判定と同様に、両方の傾きの角度が0以上の場合、または0未満の場合には、各直線の接点は転換点ではない。一方、一方の傾きの角度が0以上であり、他方の傾きの角度が0未満である場合には、各直線の接点が転換点として検出される。 [Step S40] The vertex detection unit 133 determines whether a positive / negative turning point of the slope has been detected based on the slope of each straight line calculated in step S39. Specifically, the vertex detection unit 133 compares the slope of each straight line for each combination of adjacent straight lines. Similar to the determination in step S35, when the angles of both inclinations are 0 or more or less than 0, the contact point of each straight line is not a turning point. On the other hand, when the angle of inclination of one is 0 or more and the angle of inclination of the other is less than 0, the contact point of each straight line is detected as a turning point.

転換点検出部132は、転換点が検出されなかった場合、ステップS41の処理を実行する。一方、転換点検出部132は、転換点が1つ以上検出された場合、ステップS36の処理を再度実行する。なお、後者のケースにおいて、転換点が複数検出された場合には、それらのうち高さ(Z座標)が最大の転換点が選択されて、その座標がステップS36で記録される。 If the turning point is not detected, the turning point detection unit 132 executes the process of step S41. On the other hand, when one or more turning points are detected, the turning point detection unit 132 re-executes the process of step S36. In the latter case, when a plurality of turning points are detected, the turning point having the maximum height (Z coordinate) is selected and the coordinates are recorded in step S36.

[ステップS41]頂点検出部133は、ステップS36で記録された転換点の座標を読み出し、この座標を左側の凸状頂点の座標、すなわち右肺の上端の座標として出力する。なお、右側頂点検出処理では、読み出された座標が右側の凸状頂点の座標、すなわち左肺の上端の座標として出力される。 [Step S41] The vertex detection unit 133 reads out the coordinates of the turning point recorded in step S36, and outputs these coordinates as the coordinates of the convex vertex on the left side, that is, the coordinates of the upper end of the right lung. In the right apex detection process, the read coordinates are output as the coordinates of the right convex apex, that is, the coordinates of the upper end of the left lung.

以上説明した第2の実施の形態の画像処理装置100によれば、胸部を撮影したCTスライス画像に基づく正面投影画像から肺野領域の上端を精度よく抽出できる。このため、CTスライス画像の中から肺野領域を写した画像を正確に選定でき、選定された画像を用いて機械学習の学習結果に基づく肺野領域の抽出処理を精度よく実行できる。また、選定された画像を用いて、機械学習の学習結果に基づく異常陰影の認識処理を精度よく実行できる。 According to the image processing apparatus 100 of the second embodiment described above, the upper end of the lung field region can be accurately extracted from the front projection image based on the CT slice image of the chest. Therefore, an image showing the lung field region can be accurately selected from the CT slice images, and the lung field region extraction process based on the learning result of machine learning can be accurately executed using the selected image. In addition, using the selected image, it is possible to accurately execute the recognition process of abnormal shadows based on the learning result of machine learning.

<第2の実施の形態の変形例>
次に、第2の実施の形態における処理の一部を変更した変形例について説明する。なお、変形例の説明では、第2の実施の形態と同じ構成要素や同じ内容の処理ステップには同じ符号を用いる。
<Modified example of the second embodiment>
Next, a modified example in which a part of the processing in the second embodiment is changed will be described. In the description of the modified example, the same reference numerals are used for the same components and the same processing steps as in the second embodiment.

図13は、変形例における凸状頂点検出部の内部構成例を示す図である。変形例では、画像処理装置100は、図6に示した凸状頂点検出部122の代わりに図13に示す凸状頂点検出部122aを備える。 FIG. 13 is a diagram showing an example of the internal configuration of the convex vertex detection unit in the modified example. In the modified example, the image processing apparatus 100 includes the convex vertex detection unit 122a shown in FIG. 13 instead of the convex vertex detection unit 122 shown in FIG.

凸状頂点検出部122aは、図6に示した輪郭線分割部131と転換点検出部132を備える。また、凸状頂点検出部122aは、図6に示した頂点検出部133の代わりに最大値検出部134を備える。最大値検出部134は、転換点検出部132によって検出された転換点を挟む両側のブロックから、輪郭線上の高さ(Z座標)が最大となる点を検出することで、凸状頂点を検出する。 The convex apex detection unit 122a includes a contour line dividing unit 131 and a turning point detecting unit 132 shown in FIG. Further, the convex vertex detection unit 122a includes a maximum value detection unit 134 instead of the vertex detection unit 133 shown in FIG. The maximum value detection unit 134 detects the convex vertices by detecting the point at which the height (Z coordinate) on the contour line is maximum from the blocks on both sides of the conversion point detected by the conversion point detection unit 132. To do.

図14は、最大値検出部の処理例を示す図である。図14では、図8、図9と同様の画像223を示している。また、転換点検出部132による図8で説明した処理によって、左側の輪郭線から転換点として点P1が検出されている。さらに、転換点検出部132による図9で説明した処理によって、右側の輪郭線から転換点として点P11が検出されている。 FIG. 14 is a diagram showing a processing example of the maximum value detection unit. FIG. 14 shows an image 223 similar to that of FIGS. 8 and 9. Further, the point P1 is detected as a turning point from the contour line on the left side by the process described in FIG. 8 by the turning point detecting unit 132. Further, the point P11 is detected as a turning point from the contour line on the right side by the process described with reference to FIG. 9 by the turning point detecting unit 132.

最大値検出部134は、転換点(点P1)を挟む両側のブロックB11,B12を特定する。最大値検出部134は、ブロックB11,B12の内部の分割曲線(輪郭線)における高さ(Z座標)の最大値を検出し、最大値が検出された画素P21の位置を右肺の凸状頂点、すなわち右肺の上端として検出する。 The maximum value detection unit 134 identifies the blocks B11 and B12 on both sides of the turning point (point P1). The maximum value detection unit 134 detects the maximum value of the height (Z coordinate) on the dividing curve (contour line) inside the blocks B11 and B12, and positions the pixel P21 where the maximum value is detected as a convex shape of the right lung. Detect as the apex, the upper end of the right lung.

同様に、最大値検出部134は、転換点(点P11)を挟む両側のブロックB31,B32を特定する。最大値検出部134は、ブロックB31,B32の内部の分割曲線(輪郭線)における高さ(Z座標)の最大値を検出し、最大値が検出された画素P22の位置を左肺の凸状頂点、すなわち左肺の上端として検出する。 Similarly, the maximum value detection unit 134 identifies the blocks B31 and B32 on both sides of the turning point (point P11). The maximum value detection unit 134 detects the maximum value of the height (Z coordinate) on the internal division curve (contour line) of the blocks B31 and B32, and positions the pixel P22 where the maximum value is detected in the convex shape of the left lung. Detect as the apex, the upper end of the left lung.

このように、変形例では、第2の実施の形態と同様に、輪郭線を左端および右端からそれぞれ上方向に辿ることで、右肺の上端が存在するブロックB11,B12が絞り込まれ、左肺の上端が存在するブロックB31,B32が絞り込まれる。その後、第2の実施の形態とは異なり、ブロックB11,B12における輪郭線の座標に基づいて右肺の凸状頂点が検出され、ブロックB31,B32における輪郭線の座標に基づいて左肺の凸状頂点が検出される。これにより、右肺、左肺のそれぞれの上端を高精度に検出できる。 As described above, in the modified example, the blocks B11 and B12 in which the upper end of the right lung exists is narrowed down by tracing the contour line upward from the left end and the right end, respectively, as in the second embodiment, and the left lung. Blocks B31 and B32 having the upper end of the block B31 and B32 are narrowed down. After that, unlike the second embodiment, the convex apex of the right lung is detected based on the coordinates of the contour line in blocks B11 and B12, and the convexity of the left lung is detected based on the coordinates of the contour line in blocks B31 and B32. Shaped vertices are detected. As a result, the upper ends of each of the right lung and the left lung can be detected with high accuracy.

図15は、変形例における頂点検出処理を示すフローチャートの例である。この図15の処理は、図11のステップS25,S26の処理に対応する。また、図12と同じ内容の処理ステップには同じ符号を付して示しており、その説明を省略する。 FIG. 15 is an example of a flowchart showing the vertex detection process in the modified example. The process of FIG. 15 corresponds to the process of steps S25 and S26 of FIG. Further, the processing steps having the same contents as those in FIG. 12 are shown with the same reference numerals, and the description thereof will be omitted.

図15に示すように、変形例では、図12のステップS31〜S35が実行された後、ステップS51〜S53の処理が実行される。なお、ここでは図12と同様に、主としてステップS25の左側頂点検出処理について説明し、ステップS26の右側頂点検出処理については適宜説明を補足する。 As shown in FIG. 15, in the modified example, after steps S31 to S35 of FIG. 12 are executed, the processes of steps S51 to S53 are executed. Here, as in FIG. 12, the left-sided apex detection process in step S25 will be mainly described, and the right-sided apex detection process in step S26 will be supplemented as appropriate.

[ステップS51]最大値検出部134は、ステップS35で検出された転換点を挟む両側のブロックを特定する。
[ステップS52]最大値検出部134は、特定された2つのブロックに含まれる分割曲線(輪郭線)から、高さ(Z座標)の最大値を検出する。
[Step S51] The maximum value detection unit 134 identifies the blocks on both sides of the turning point detected in step S35.
[Step S52] The maximum value detecting unit 134 detects the maximum value of the height (Z coordinate) from the dividing curve (contour line) included in the two specified blocks.

[ステップS53]最大値検出部134は、最大値が検出された画素の位置を左側の凸状頂点の座標、すなわち右肺の上端の座標として出力する。なお、右側頂点検出処理では、最大値が検出された画素の位置が右側の凸状頂点の座標、すなわち左肺の上端の座標として出力される。 [Step S53] The maximum value detection unit 134 outputs the position of the pixel in which the maximum value is detected as the coordinates of the convex apex on the left side, that is, the coordinates of the upper end of the right lung. In the right apex detection process, the position of the pixel in which the maximum value is detected is output as the coordinates of the right convex apex, that is, the coordinates of the upper end of the left lung.

なお、以上の第2の実施の形態、およびその変形例において画像処理装置100が備えている処理機能の少なくとも一部は、CT装置50に搭載されていてもよい。また、画像処理装置100が備えている処理機能が、複数のコンピュータ装置に分散されて搭載されていてもよい。 In addition, at least a part of the processing functions provided in the image processing apparatus 100 in the above second embodiment and its modification may be mounted on the CT apparatus 50. Further, the processing functions provided in the image processing device 100 may be distributed and mounted in a plurality of computer devices.

また、上記の各実施の形態に示した装置(例えば、画像処理装置10,100)の処理機能は、コンピュータによって実現することができる。その場合、各装置が有すべき機能の処理内容を記述したプログラムが提供され、そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記憶装置、光ディスク、光磁気記録媒体、半導体メモリなどがある。磁気記憶装置には、ハードディスク装置(HDD)、磁気テープなどがある。光ディスクには、CD(Compact Disc)、DVD(Digital Versatile Disc)、ブルーレイディスク(Blu-ray Disc:BD、登録商標)などがある。光磁気記録媒体には、MO(Magneto-Optical disk)などがある。 Further, the processing functions of the devices (for example, the image processing devices 10, 100) shown in the above embodiments can be realized by a computer. In that case, a program describing the processing content of the function that each device should have is provided, and the above processing function is realized on the computer by executing the program on the computer. The program describing the processing content can be recorded on a computer-readable recording medium. Computer-readable recording media include magnetic storage devices, optical disks, opto-magnetic recording media, semiconductor memories, and the like. Magnetic storage devices include hard disk devices (HDDs), magnetic tapes, and the like. Optical discs include CDs (Compact Discs), DVDs (Digital Versatile Discs), and Blu-ray Discs (Blu-ray Discs: BDs, registered trademarks). The magneto-optical recording medium includes MO (Magneto-Optical disk) and the like.

プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD、CDなどの可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。 When a program is distributed, for example, a portable recording medium such as a DVD or a CD on which the program is recorded is sold. It is also possible to store the program in the storage device of the server computer and transfer the program from the server computer to another computer via the network.

プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムまたはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムにしたがった処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムにしたがった処理を実行することもできる。また、コンピュータは、ネットワークを介して接続されたサーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムにしたがった処理を実行することもできる。 The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes the processing according to the program. The computer can also read the program directly from the portable recording medium and execute the processing according to the program. In addition, the computer can sequentially execute processing according to the received program each time the program is transferred from the server computer connected via the network.

1a 2値化画像
1b,1c 画像
2 輪郭線
3a,3b 矢印
4a,4b 凸状頂点
10 画像処理装置
11 輪郭線抽出部
12 領域特定部
1a Binarized image 1b, 1c image 2 Contour line 3a, 3b Arrow 4a, 4b Convex apex 10 Image processing device 11 Contour line extraction unit 12 Area identification unit

Claims (8)

コンピュータに、
人体の胸部の内部を撮影した1以上の断面画像に基づいて生成される、前記胸部のコロナル断面を示す2値化画像から、輪郭線を抽出し、
前記人体における左右両方の外側から上方向に前記輪郭線を辿ることで前記輪郭線における凸状頂点を探索し、探索された前記凸状頂点の位置を肺野領域の上端として特定する、
処理を実行させる画像処理プログラム。
On the computer
A contour line is extracted from a binarized image showing the coronal cross-section of the chest, which is generated based on one or more cross-sectional images of the inside of the chest of the human body.
By tracing the contour line upward from both the left and right sides of the human body, the convex apex in the contour line is searched, and the position of the searched convex apex is specified as the upper end of the lung field region.
An image processing program that executes processing.
前記コンピュータに、
前記1以上の断面画像として前記胸部のアキシャル断面を示す複数のアキシャル断面画像を用い、前記複数のアキシャル断面画像のそれぞれにおける前後方向の画素群の最小値を正面に投影することで投影画像を生成し、前記投影画像を2値化することで前記2値化画像を生成する、
処理をさらに実行させる請求項1記載の画像処理プログラム。
On the computer
A plurality of axial cross-sectional images showing the axial cross-section of the chest are used as the one or more cross-sectional images, and a projected image is generated by projecting the minimum value of the pixel group in the front-rear direction in each of the plurality of axial cross-sectional images to the front. Then, the binarized image is generated by binarizing the projected image.
The image processing program according to claim 1, wherein the processing is further executed.
前記コンピュータに、
前記肺野領域の上端の特定結果に基づいて、前記複数のアキシャル断面画像から前記肺野領域を撮影範囲に含む画像を特定する、
処理をさらに実行させる請求項2記載の画像処理プログラム。
On the computer
Based on the identification result of the upper end of the lung field region, an image including the lung field region in the imaging range is specified from the plurality of axial cross-sectional images.
The image processing program according to claim 2, wherein the processing is further executed.
前記凸状頂点の探索では、前記2値化画像を複数の分割領域に分割し、前記複数の分割領域のうち前記輪郭線を含む第1の分割領域のそれぞれについて、前記輪郭線の両端を結ぶ第1の直線の傾きを計算し、前記輪郭線の左右両方の外側から上方向に前記第1の分割領域を順に辿っていったときに、隣接する前記第1の分割領域において前記第1の直線の傾きの正負が変化する位置に基づいて、前記凸状頂点を特定する、
請求項1乃至3のいずれか1項に記載の画像処理プログラム。
In the search for the convex vertices, the binarized image is divided into a plurality of divided regions, and both ends of the contour line are connected for each of the first divided regions including the contour line among the plurality of divided regions. When the inclination of the first straight line is calculated and the first division region is sequentially traced upward from the outside of both the left and right sides of the contour line, the first division region is adjacent to the first division region. The convex apex is specified based on the position where the positive or negative of the slope of the straight line changes.
The image processing program according to any one of claims 1 to 3.
前記凸状頂点の探索では、前記第1の分割領域のうち前記第1の直線の傾きの正負が変化した隣接する2つの第2の分割領域について、さらに複数の第3の分割領域に分割し、前記第3の分割領域のうち前記輪郭線を含む第4の分割領域のそれぞれについて前記輪郭線の両端を結ぶ第2の直線の傾きを計算し、隣接する前記第4の分割領域において前記第2の直線の傾きの正負が変化する位置に基づいて、前記凸状頂点を特定する、
請求項4記載の画像処理プログラム。
In the search for the convex vertices, the two adjacent second division regions in which the positive and negative slopes of the first straight line have changed in the first division region are further divided into a plurality of third division regions. , The slope of the second straight line connecting both ends of the contour line is calculated for each of the fourth divided regions including the contour line in the third divided region, and the second straight line is calculated in the adjacent fourth divided region. The convex apex is specified based on the position where the positive / negative of the slope of the straight line of 2 changes.
The image processing program according to claim 4.
前記凸状頂点の探索では、前記第1の分割領域のうち前記第1の直線の傾きの正負が変化した隣接する2つの第2の分割領域における、前記輪郭線の上端位置に基づいて、前記凸状頂点を特定する、
請求項4記載の画像処理プログラム。
In the search for the convex vertices, the said is based on the upper end position of the contour line in two adjacent second divided regions in which the positive and negative of the slope of the first straight line of the first divided region are changed. Identify convex vertices,
The image processing program according to claim 4.
人体の胸部の内部を撮影した1以上の断面画像に基づいて生成される、前記胸部のコロナル断面を示す2値化画像から、輪郭線を抽出する輪郭線抽出部と、
前記人体における左右両方の外側から上方向に前記輪郭線を辿ることで前記輪郭線における凸状頂点を探索し、探索された前記凸状頂点の位置を肺野領域の上端として特定する領域特定部と、
を有する画像処理装置。
A contour line extraction unit that extracts a contour line from a binarized image showing a coronal cross section of the chest, which is generated based on one or more cross-sectional images of the inside of the chest of the human body.
A region specifying portion that searches for a convex apex in the contour line by tracing the contour line upward from both the left and right sides of the human body, and specifies the position of the searched convex apex as the upper end of the lung field region. When,
An image processing device having.
コンピュータが、
人体の胸部の内部を撮影した1以上の断面画像に基づいて生成される、前記胸部のコロナル断面を示す2値化画像から、輪郭線を抽出し、
前記人体における左右両方の外側から上方向に前記輪郭線を辿ることで前記輪郭線における凸状頂点を探索し、探索された前記凸状頂点の位置を肺野領域の上端として特定する、
画像処理方法。
The computer
A contour line is extracted from a binarized image showing the coronal cross-section of the chest, which is generated based on one or more cross-sectional images of the inside of the chest of the human body.
By tracing the contour line upward from both the left and right sides of the human body, the convex apex in the contour line is searched, and the position of the searched convex apex is specified as the upper end of the lung field region.
Image processing method.
JP2019089444A 2019-05-10 2019-05-10 Image processing program, image processing apparatus and image processing method Active JP7227487B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019089444A JP7227487B2 (en) 2019-05-10 2019-05-10 Image processing program, image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019089444A JP7227487B2 (en) 2019-05-10 2019-05-10 Image processing program, image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2020185031A true JP2020185031A (en) 2020-11-19
JP7227487B2 JP7227487B2 (en) 2023-02-22

Family

ID=73223055

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019089444A Active JP7227487B2 (en) 2019-05-10 2019-05-10 Image processing program, image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP7227487B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08335271A (en) * 1995-04-25 1996-12-17 Arch Dev Corp Picture processing method of picture diagnosis support device
JP2003006661A (en) * 2001-06-22 2003-01-10 Fuji Photo Film Co Ltd Thoracic contour detector
JP2006110069A (en) * 2004-10-14 2006-04-27 Canon Inc Image processor, control method for the same, and program
US7206462B1 (en) * 2000-03-17 2007-04-17 The General Hospital Corporation Method and system for the detection, comparison and volumetric quantification of pulmonary nodules on medical computed tomography scans
JP2014023606A (en) * 2012-07-25 2014-02-06 Konica Minolta Inc Image processing device and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08335271A (en) * 1995-04-25 1996-12-17 Arch Dev Corp Picture processing method of picture diagnosis support device
US7206462B1 (en) * 2000-03-17 2007-04-17 The General Hospital Corporation Method and system for the detection, comparison and volumetric quantification of pulmonary nodules on medical computed tomography scans
JP2003006661A (en) * 2001-06-22 2003-01-10 Fuji Photo Film Co Ltd Thoracic contour detector
JP2006110069A (en) * 2004-10-14 2006-04-27 Canon Inc Image processor, control method for the same, and program
JP2014023606A (en) * 2012-07-25 2014-02-06 Konica Minolta Inc Image processing device and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
富田稔啓他: "モデル情報と最小値投影法による胸部CT像の肺野領域抽出", MEDICAL IMAGING TECHNOLOGY, vol. 15, no. 2, JPN6023000034, 1997, pages 164 - 174, ISSN: 0004958600 *

Also Published As

Publication number Publication date
JP7227487B2 (en) 2023-02-22

Similar Documents

Publication Publication Date Title
Yan et al. SAM: Self-supervised learning of pixel-wise anatomical embeddings in radiological images
Dray et al. Artificial intelligence in small bowel capsule endoscopy‐current status, challenges and future promise
Wiemker et al. Aspects of computer-aided detection (CAD) and volumetry of pulmonary nodules using multislice CT
JP6059261B2 (en) Intelligent landmark selection to improve registration accuracy in multimodal image integration
KR102043130B1 (en) The method and apparatus for computer aided diagnosis
US7869640B2 (en) Medical image processing apparatus and medical image processing method
CN105266845B (en) Apparatus and method for supporting computer-aided diagnosis based on probe speed
US8965083B2 (en) Automatic detection of vertebrae boundaries in spine images
CN108171712B (en) Method and device for determining image similarity
Pang et al. Stenosis-DetNet: Sequence consistency-based stenosis detection for X-ray coronary angiography
JP6901007B2 (en) Learning equipment, inspection system, learning method, inspection method and program
Remy-Jardin et al. Machine learning and deep neural network applications in the thorax: pulmonary embolism, chronic thromboembolic pulmonary hypertension, aorta, and chronic obstructive pulmonary disease
JP5310485B2 (en) Image processing method and apparatus, and program
US11464583B2 (en) Surgery support apparatus and surgical navigation system
JP5902196B2 (en) Method, apparatus and computer program for retrieving medical images
Liang et al. Dense networks with relative location awareness for thorax disease identification
US11600000B2 (en) Image processing method and system for selectively deleting label on medical image
JP5001002B2 (en) Image diagnosis support apparatus and method
JP7227487B2 (en) Image processing program, image processing apparatus and image processing method
Yang et al. A lightweight neural network for lung nodule detection based on improved ghost module
CN116490130A (en) Abnormality detection system and abnormality detection method for medical image
JP6696237B2 (en) Similar image search program, similar image search method, and similar image search device
JP2023173115A (en) Image recognition program, image recognition method and image recognition device
US20240070859A1 (en) Lesion detection and storage medium
Xie et al. Pulmonary nodules detection via 3D multi-scale dual path network

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220208

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221228

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230123

R150 Certificate of patent or registration of utility model

Ref document number: 7227487

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150