JP2020074967A - Image retrieval program, image retrieval device and image retrieval method - Google Patents

Image retrieval program, image retrieval device and image retrieval method Download PDF

Info

Publication number
JP2020074967A
JP2020074967A JP2018210418A JP2018210418A JP2020074967A JP 2020074967 A JP2020074967 A JP 2020074967A JP 2018210418 A JP2018210418 A JP 2018210418A JP 2018210418 A JP2018210418 A JP 2018210418A JP 2020074967 A JP2020074967 A JP 2020074967A
Authority
JP
Japan
Prior art keywords
image
region
bronchus
center line
divided
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018210418A
Other languages
Japanese (ja)
Other versions
JP7273285B2 (en
Inventor
正樹 石原
Masaki Ishihara
正樹 石原
明燮 鄭
Mingbian Zheng
明燮 鄭
信浩 宮▲崎▼
Nobuhiro Miyazaki
信浩 宮▲崎▼
康貴 森脇
Yasutaka Moriwaki
康貴 森脇
昌彦 杉村
Masahiko Sugimura
昌彦 杉村
武部 浩明
Hiroaki Takebe
浩明 武部
馬場 孝之
Takayuki Baba
孝之 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018210418A priority Critical patent/JP7273285B2/en
Publication of JP2020074967A publication Critical patent/JP2020074967A/en
Application granted granted Critical
Publication of JP7273285B2 publication Critical patent/JP7273285B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

To provide an image retrieval program, image retrieval device and image retrieval method which can correctly distinguish between a bronchus and a honeycomb lung, and can improve the accuracy of the case retrieval.SOLUTION: An image retrieval program causes a computer of an image retrieval device for retrieving a second image similar to a first image from the first image to execute: processing of extracting an image of a candidate region from the first image being a cross section image of a lung field region of a subject; processing of generating a binarized image obtained by binarizing the pixel value of the extracted image of the candidate region; processing of extracting the center line of the image of the candidate region from the binarized image; processing of dividing the center line at a branch point where the center line branches; processing of dividing the image of the candidate region into the region of the honeycomb lung and the region of the bronchus on the basis of the angle of the divided center line; and processing of retrieving the second image from the first image on the basis of the image of the lung field region other than the divided bronchus or the image of the region of the divided bronchus.SELECTED DRAWING: Figure 4

Description

本発明は、画像検索プログラム、画像検索装置、及び画像検索方法に関する。   The present invention relates to an image search program, an image search device, and an image search method.

従来から、医療分野においては、過去の類似症例を検索し、検索結果を参照して、医師の診断を支援する画像検索装置がある。例えば、データベースに過去の症例を表す画像が記憶され、画像検索装置において、処理対象である画像の画像特徴が類似した画像をデータベースから検索し、検索した画像を順番に表示する、などである。画像検索装置では、検索した画像に症例が紐づけられている。そのため、画像検索装置により、例えば、患者の症例に類似する症例をデータベースから検索することが可能となる。このような画像検索装置では、例えば、CT(Computed Tomography:コンピュータ断層撮影)画像が用いられる。   2. Description of the Related Art Conventionally, in the medical field, there is an image search apparatus that searches a similar case in the past and refers to the search result to support a doctor's diagnosis. For example, an image representing a past case is stored in a database, an image search apparatus searches the database for images having similar image characteristics, and the searched images are displayed in order. In the image search device, a case is linked to the searched image. Therefore, the image retrieval device can retrieve a case similar to the case of the patient from the database, for example. In such an image search device, for example, a CT (Computed Tomography) image is used.

CT画像で撮影される異常陰影の1つとして、蜂巣肺がある。蜂巣肺とは、例えば、肺の肺胞構造が破壊消失した線維化(又は硬化)の中にみられる不規則に拡張した気腔の形成を指す。蜂巣肺とは、例えば、炎症等による線維化が進行した状態の肺のことである。   One of the abnormal shadows taken on CT images is the cell lung. Honeycomb lung refers to, for example, the formation of irregularly expanded air spaces found in fibrosis (or hardening) in which the alveolar structure of the lung has been destroyed. Honeycomb lung is, for example, a lung in a state where fibrosis due to inflammation or the like has advanced.

また、気管支は肺と連結しており、蜂巣肺も気管支と連結している。この場合、蜂巣肺による肺の線維化による収縮で、気管支が拡張する場合がある。肺の線維化に伴い変形した状態となった気管支のことを、例えば、牽引性細気管支拡張と呼ぶ場合がある。   In addition, the bronchi are connected to the lungs, and the honeycomb lung is also connected to the bronchi. In this case, the bronchus may expand due to contraction due to fibrosis of the lung due to the cell lung. A bronchus that has become deformed due to fibrosis of the lung may be referred to as tractive bronchiectasis, for example.

牽引性細気管支拡張となった気管支は、陰影ではないものの、画像検索装置においては、誤って蜂巣肺と識別する場合がある。すなわち、蜂巣肺と、この蜂巣肺と連結した、牽引性細気管支拡張となった気管支とでは、画像検索装置においては、識別が困難であり、気管支を蜂巣肺と誤って認識する場合がある。牽引性細気管支拡張となった気管支に限らず、正常な気管支であっても、個体差もあるため、画像検索装置においては、そのような気管支を蜂巣肺と識別する場合もある。   Although the bronchus that have become tractive bronchiectasis are not shadows, the image retrieval apparatus may mistakenly identify them as honeycomb lungs. That is, it is difficult for the image retrieval apparatus to distinguish between the beehive lung and the bronchus that are connected to the beehive lung and have become tractive bronchiectasis, and the bronchus may be mistakenly recognized as the beehive lung. Not only a bronchus that has become a tractive bronchiole dilation, but even a normal bronchus has individual differences. Therefore, the image retrieval apparatus may identify such a bronchus as a honeycomb.

その原因としては、例えば、上述したように、物理的に蜂巣肺と気管支とは連結していることが考えられる。気管支と蜂巣肺は、ともに、中空構造であるため、空気のCT値(−1000)に相当する画素値を閾値にして領域抽出すると、類似した濃度の領域が連結して抽出されてしまう。   As a cause thereof, for example, as described above, it is considered that the honeycomb lung and the bronchus are physically connected. Since both the bronchus and the honeycomb are hollow structures, if the pixel value corresponding to the CT value (-1000) of air is used as a threshold value and the region is extracted, regions having similar concentrations are connected and extracted.

画像検索装置では、このような気管支を蜂巣肺と識別する識別ミスによって、症例検索の精度が低下する場合がある。   In the image search apparatus, the accuracy of the case search may be reduced due to an identification error in distinguishing such a bronchus from a beehive lung.

他方、例えば、肺のCT画像を中枢と末梢の2領域に分割し、それぞれの領域に存在する異常陰影の位置と数とをヒストグラムで表し、同様に表された過去の症例のヒストグラムとを照合して、類似症例を検索する画像検索装置もある。ヒストグラムとは、例えば、棒状グラフのことである。異常陰影の位置と数が棒状グラフとして表されることで、例えば、異常陰影の分布を定量的に症例間で比較することが可能となる。このような画像検索装置により、例えば、類似症例を高精度に検索することができ、診断時間も短縮することが可能となる。   On the other hand, for example, a CT image of the lung is divided into two regions, a central region and a peripheral region, and the position and number of abnormal shadows existing in each region are represented by a histogram, and the histograms of past cases similarly represented are collated. Then, there is also an image search device that searches for similar cases. The histogram is, for example, a bar graph. By displaying the position and number of abnormal shadows as a bar graph, for example, it becomes possible to quantitatively compare the distribution of abnormal shadows between cases. With such an image search device, for example, a similar case can be searched with high accuracy, and the diagnosis time can be shortened.

画像検索に関する技術として、例えば、以下がある。すなわち、複数の断面画像から目的部位に関する領域を抽出し、抽出された領域から気管支などの気管支樹の末梢点を検出し、末梢点から気管支樹の環状構造を抽出する画像処理装置がある。   Examples of techniques related to image retrieval include the following. That is, there is an image processing apparatus that extracts a region related to a target region from a plurality of cross-sectional images, detects a peripheral point of a bronchial tree such as a bronchus from the extracted regions, and extracts a ring structure of the bronchial tree from the peripheral point.

この技術によれば、高い分岐レベルの樹形管状構造を取得できる、とされる。   According to this technique, a tree-shaped tubular structure with a high branching level can be obtained.

また、胸部断層画像から抽出した肺辺縁領域から取得した特徴量に基づき、肺辺縁領域内の正常部及び蜂巣肺を含む1以上の病変部を識別して分類し、病変の識別結果と分類結果とを出力する診断支援装置がある。   In addition, based on the feature amount acquired from the lung marginal area extracted from the chest tomographic image, one or more lesion areas including the normal part and the honeycomb lung in the lung marginal area are identified and classified, and the lesion identification result is obtained. There is a diagnosis support device that outputs a classification result.

この技術によれば、間質性肺炎などの肺野病変の診断性能に優れ、従来非常に困難であったIPF(idiopathic pulmonary fibrosis:突発性肺線維症)とNSIP(nonspecific interstitial pneumonia:突発性非特異性間質性肺炎)との識別が可能になる、とされる。   According to this technology, it has excellent diagnostic performance for lung field lesions such as interstitial pneumonia, and IPF (idiopathic pulmonary fibrosis) and NSIP (nonspecific interstitial pneumonia), which have been extremely difficult in the past, have been diagnosed. Specific interstitial pneumonia) can be distinguished.

特開2014−223311号公報JP, 2014-223311, A 国際公開第2017/150497号International Publication No. 2017/150497

しかしながら、上述したように、気管支と蜂巣肺とが物理的に連結しているなどの理由から、画像検索装置においては、気管支と蜂巣肺との識別が困難な場合がある。ヒストグラムを用いた画像検索装置でも、気管支を蜂巣肺と識別することで、実際よりも中枢方向に多めに蜂巣肺の領域を抽出する場合がある。この場合、画像検索装置では、誤ったヒストグラムを用いてデータベースから症例を検索することになり、本来検索される症例が検索されず、症例検索の精度が低下する場合がある。   However, as described above, it may be difficult to distinguish between the bronchus and the beehive lung in the image search device because the bronchus and the beehive lung are physically connected. Even in the image search apparatus using the histogram, the bronchus may be distinguished from the honeycomb lung to extract a larger area of the honeycomb lung in the central direction than in the actual case. In this case, the image search device will search for a case from the database using an incorrect histogram, and the case to be searched originally may not be searched, and the accuracy of the case search may decrease.

また、上述した、気管支樹の末梢点を検出し、末梢点から気管支樹の環状構造を抽出する画像処理装置は、気管支と蜂巣肺との識別については何ら議論されていない。また、上述した、肺辺縁領域から取得した特徴量に基づき、肺辺縁領域内の正常部及び蜂巣肺を含む1以上の病変部を識別する診断支援装置も、蜂巣肺を識別しているものの、気管支と蜂巣肺とをどのように識別するかについては何ら議論されていない。   Further, in the above-described image processing apparatus that detects the peripheral points of the bronchial tree and extracts the annular structure of the bronchial tree from the peripheral points, there is no discussion about the discrimination between the bronchi and the lungs of the honeycomb. In addition, the above-described diagnosis support device that identifies one or more lesions including a normal part and a honeycomb lung in the lung peripheral region based on the feature amount acquired from the lung peripheral region also identifies the honeycomb lung. However, there is no discussion of how to distinguish between the bronchi and the honeycomb.

そこで、一開示は、気管支と蜂巣肺とを正確に分割することが可能な画像検索プログラム、画像検索装置、及び画像検索方法を提供することにある。   Therefore, one disclosure is to provide an image search program, an image search apparatus, and an image search method capable of accurately dividing the bronchus and the honeycomb lung.

また、一開示は、症例検索の精度を向上させることが可能な画像検索プログラム、画像検索装置、及び画像検索方法を提供することにある。   Further, one disclosure is to provide an image search program, an image search device, and an image search method capable of improving the accuracy of case search.

一開示は、第1の画像から前記第1の画像に類似する第2の画像を検索する画像検索装置のコンピュータに実行させる画像検索プログラムであって、被検体の肺野領域の断面画像である前記第1の画像から候補領域の画像を抽出し、抽出した前記候補領域の画像の画素値を二値化した二値化画像を生成し、前記二値化画像から前記候補領域の画像の中心線を抽出し、前記中心線が分岐した分岐点で前記中心線を分割し、分割した前記中心線の角度に基づいて、前記候補領域の画像を蜂巣肺の領域と気管支の領域とに分割し、分割した前記気管支以外の肺野領域の画像又は分割した前記気管支の領域の画像に基づいて、前記第1の画像から前記第2の画像を検索する処理を前記コンピュータに実行させるプログラムにある。   One disclosure is an image search program executed by a computer of an image search device that searches a first image for a second image similar to the first image, and is a cross-sectional image of a lung field region of a subject. An image of the candidate area is extracted from the first image, a binarized image is generated by binarizing the pixel values of the extracted image of the candidate area, and the center of the image of the candidate area is generated from the binarized image. Extract a line, divide the centerline at a branch point where the centerline is branched, and based on the angle of the divided centerline, divide the image of the candidate region into a honeycomb lung region and a bronchial region. The program causes the computer to execute a process of searching the first image for the second image based on the divided image of the lung field other than the bronchus or the divided image of the bronchus.

一開示によれば、蜂巣肺と気管支の領域を正確に分割することが可能となる。また、一開示によれば、症例検索の精度を向上させることが可能となる。   According to one disclosure, it is possible to accurately divide the regions of the honeycomb and bronchus. Further, according to one disclosure, it is possible to improve the accuracy of case search.

図1は画像検索システムの構成例を表す図である。FIG. 1 is a diagram showing a configuration example of an image search system. 図2(A)は辞書登録モジュール、図2(B)は検索モジュールの構成例を夫々表す図である。2A is a diagram showing a configuration example of a dictionary registration module, and FIG. 2B is a diagram showing a configuration example of a search module. 図3(A)はCT画像の例、図3(B)はヒストグラムの例を夫々表す図である。3A is a diagram showing an example of a CT image, and FIG. 3B is a diagram showing an example of a histogram. 図4は気管支領域分割部の構成例を表す図である。FIG. 4 is a diagram illustrating a configuration example of the bronchial region dividing unit. 図5(A)と図5(B)は気管支と蜂巣肺が写っているCT画像の例を表す図である。5 (A) and 5 (B) are diagrams showing an example of a CT image in which the bronchus and the honeycomb are shown. 図6(A)と図6(B)は気管支と蜂巣肺の分布例を表す模式図である。FIG. 6A and FIG. 6B are schematic diagrams showing an example of distribution of bronchi and honeycomb lungs. 図7(A)から図7(D)は各処理により生成される画像などの例を表す図である。7A to 7D are diagrams showing examples of images and the like generated by each process. 図8(A)から図8(D)は各処理の例を表す図である。FIG. 8A to FIG. 8D are diagrams showing an example of each processing. 図9は特徴抽出処理の例を表すフローチャートである。FIG. 9 is a flowchart showing an example of the feature extraction processing. 図10は気管支領域抽出処理の例を表すフローチャートである。FIG. 10 is a flowchart showing an example of bronchial region extraction processing. 図11は中心線抽出処理の例を表すフローチャートである。FIG. 11 is a flowchart showing an example of the centerline extraction processing. 図12(A)から図12(C)は距離変換の例を表す図である。12A to 12C are diagrams showing an example of distance conversion. 図13(A)と図13(B)は距離変換の例を表す図である。13A and 13B are diagrams showing an example of distance conversion. 図14(A)と図14(B)は距離変換の例を表す図である。14A and 14B are diagrams showing an example of distance conversion. 図15(A)と図15(B)は距離変換の例を表す図である。15A and 15B are diagrams showing an example of distance conversion. 図16(A)と図16(B)は距離変換の例を表す図である。16A and 16B are diagrams showing an example of distance conversion. 図17(A)と図17(B)は3次元の場合の距離変換の例を表す図である。17A and 17B are diagrams showing an example of distance conversion in the case of three dimensions. 図18(A)と図18(B)は3次元の場合の距離変換の例を表す図である。18A and 18B are diagrams showing an example of distance conversion in the case of three dimensions. 図19(A)から図19(C)は中心線抽出処理の例を表す図である。19A to 19C are diagrams showing an example of the center line extraction processing. 図20(A)と図20(B)は3次元の場合の中心線抽出処理の例を表す図である。20A and 20B are diagrams showing an example of centerline extraction processing in the case of three dimensions. 図21(A)と図21(B)はラベリングの例を表す図である。21 (A) and 21 (B) are diagrams showing an example of labeling. 図22は領域分割の例を表す図である。FIG. 22 is a diagram showing an example of area division. 図23は検索処理の例を表すフローチャートである。FIG. 23 is a flowchart showing an example of search processing. 図24は蜂巣肺領域と気管支領域の例を表す図である。FIG. 24 is a diagram showing an example of a honeycomb lung region and a bronchial region. 図25は画像検索装置のハードウェア構成例を表す図である。FIG. 25 is a diagram illustrating a hardware configuration example of the image search device. 図26は画像検索システムの構成例を表す図である。FIG. 26 is a diagram showing a configuration example of the image search system. 図27は画像検索装置のハードウェア構成例を表す図である。FIG. 27 is a diagram illustrating a hardware configuration example of the image search device.

以下、本発明を実施するための形態について説明する。なお、以下の実施の形態は開示の技術を限定するものではない。そして、各実施の形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。   Hereinafter, modes for carrying out the present invention will be described. The following embodiments do not limit the disclosed technology. Then, the respective embodiments can be appropriately combined within a range in which the processing content is not inconsistent.

[第1の実施の形態]
<画像検索システムの構成例>
図1は画像検索システム10の構成例を表す図である。
[First Embodiment]
<Example of image search system configuration>
FIG. 1 is a diagram showing a configuration example of an image search system 10.

画像検索システム10は、画像検索装置100と、画像データベース(以下、「画像DB」(DB:Data Base)と称する場合がある。)200、及びCT画像撮像装置300を備える。   The image search system 10 includes an image search device 100, an image database (hereinafter sometimes referred to as “image DB” (DB: Data Base)) 200, and a CT image capturing device 300.

画像DB200は、過去に撮影された患者の肺野領域の断面画像が症例などとともに記憶されている。CT画像撮像装置300は、患者の肺野領域の断面画像を撮影し、撮影した断面画像を画像検索装置100へ出力する。画像DB200もCT画像撮像装置300も、いずれも、断面画像として、CT画像が用いられる。   The image DB 200 stores a cross-sectional image of the lung field region of the patient, which has been photographed in the past, together with cases and the like. The CT image capturing apparatus 300 captures a cross-sectional image of a patient's lung field region and outputs the captured cross-sectional image to the image retrieval apparatus 100. Both the image DB 200 and the CT image capturing apparatus 300 use CT images as cross-sectional images.

画像検索装置100は、CT画像撮像装置300で撮影されたCT画像に対して、画像DB200に登録された過去の症例を表すCT画像と類似するCT画像を検索する。そして、画像検索装置100は、検索したCT画像を、UI(User Interface)140により表示する。医師は、表示されたCT画像に基づいて、患者の診断を行う。画像検索装置100は、例えば、類似症例検索装置でもある。   The image search device 100 searches the CT images captured by the CT image capturing device 300 for CT images similar to CT images representing past cases registered in the image DB 200. Then, the image search device 100 displays the searched CT image on the UI (User Interface) 140. The doctor diagnoses the patient based on the displayed CT image. The image search device 100 is also a similar case search device, for example.

なお、以下では、画像DB200から読み出されたCT画像を「CT画像」、CT画像撮像装置300から出力されたCT画像を「クエリ画像」とそれぞれ称する場合がある。また、第1の実施の形態では、画像として、CT画像を例にして説明するが、断面画像として、例えば、MRI(Magnetic Resonance Imaging)画像でもよい。   Hereinafter, the CT image read from the image DB 200 may be referred to as a “CT image”, and the CT image output from the CT image capturing apparatus 300 may be referred to as a “query image”. Further, in the first embodiment, a CT image will be described as an example of an image, but a cross-sectional image may be, for example, an MRI (Magnetic Resonance Imaging) image.

画像検索装置100は、辞書登録モジュール(又は辞書登録部)110、特徴量辞書データベース(又は特徴量辞書DB(Data Base))120、検索モジュール(又は検索部)130、及びUI140を備える。   The image search device 100 includes a dictionary registration module (or dictionary registration unit) 110, a feature amount dictionary database (or feature amount dictionary DB (Data Base)) 120, a search module (or search unit) 130, and a UI 140.

なお、「モジュール」は、例えば、プログラム内において、ある機能を実現するサブプログラムを表す。ただし、以下では、そのような機能を実現する処理ブロックを「モジュール」として表す場合がある。従って、「辞書登録モジュール」110は、例えば、CT画像の特徴量を特徴量辞書DB120へ登録するなどの機能を有する処理ブロックであり、「検索モジュール」130は、例えば、クエリ画像に類似するCT画像を検索するなどの機能を有する処理ブロックである。   The "module" represents, for example, a subprogram that realizes a certain function in the program. However, in the following, a processing block that realizes such a function may be represented as a “module”. Therefore, the “dictionary registration module” 110 is, for example, a processing block having a function of registering the feature amount of the CT image in the feature amount dictionary DB 120, and the “search module” 130 is, for example, a CT image similar to the query image. It is a processing block having a function of searching an image.

辞書登録モジュール110は、画像DB200から、過去の症例を表すCT画像を読み出し、読み出したCT画像のCT値(又は画像データ)に基づいて、CT画像の特徴量を抽出する。その際、辞書登録モジュール110は、CT画像から候補領域を抽出し、抽出した候補領域から気管支の領域と蜂巣肺の領域とを分割し、分割した気管支の領域又は蜂巣肺の領域に基づいて、陰影識別を行い、特徴量を抽出する。辞書登録モジュール110は、特徴量を特徴量辞書DB120へ出力する。辞書登録モジュール110の詳細は後述する。   The dictionary registration module 110 reads out a CT image representing a past case from the image DB 200, and extracts a feature amount of the CT image based on the CT value (or image data) of the read CT image. At that time, the dictionary registration module 110 extracts a candidate region from the CT image, divides the bronchus region and the honeycomb lung region from the extracted candidate region, and based on the divided bronchus region or honeycomb lung region, The shadow is identified and the feature amount is extracted. The dictionary registration module 110 outputs the feature amount to the feature amount dictionary DB 120. Details of the dictionary registration module 110 will be described later.

特徴量辞書DB120は、例えば、メモリや記憶装置であり、特徴量を記憶する。   The feature amount dictionary DB 120 is, for example, a memory or a storage device, and stores the feature amount.

検索モジュール130は、CT画像撮像装置300から出力されたクエリ画像のCT値(又は画像データ)に基づいて、特徴量算出処理を行い、クエリ画像の特徴量を算出する。その際、検索モジュール130は、CT画像から候補領域を抽出し、抽出した候補領域から気管支の領域と蜂巣肺の領域とを分割し、分割した気管支の領域又は蜂巣肺の領域に基づいて、陰影識別を行い、特徴量を抽出する。検索モジュール130は、特徴量辞書DB120からCT画像の特徴量を読み出し、読み出した特徴量と、クエリ画像の特徴量とを照合し、クエリ画像に類似する特徴量を有するCT画像を検索する。検索モジュール130は、検索結果をUI140へ出力する。検索モジュール130の詳細は後述する。   The search module 130 performs a feature amount calculation process based on the CT value (or image data) of the query image output from the CT image capturing apparatus 300, and calculates the feature amount of the query image. At that time, the search module 130 extracts a candidate region from the CT image, divides the bronchus region and the honeycomb lung region from the extracted candidate region, and determines the shadow based on the divided bronchus region or the honeycomb lung region. Identification is performed and feature quantities are extracted. The search module 130 reads the feature amount of the CT image from the feature amount dictionary DB 120, matches the read feature amount with the feature amount of the query image, and searches for a CT image having a feature amount similar to the query image. The search module 130 outputs the search result to the UI 140. Details of the search module 130 will be described later.

UI140は、例えば、モニタ141やキーボード142などであって、ユーザ(例えば医師)と画像検索装置100との間で情報をやりとりするためのインタフェースである。UI140は、例えば、モニタ141などを介して、検索結果を表示する。この場合、UI140は、検索結果に対応するCT画像を画像DB200から読み出して表示してもよい。また、UI140は、例えば、検索キーを検索モジュール130へ出力し、CT画像撮像装置300で撮影されたCT画像の閲覧や、検索処理対象となるクエリ画像の選択、などを行うことも可能である。UI140は、例えば、検索結果として、検索したCT画像に紐付けされた症例を表示することも可能である。   The UI 140 is, for example, a monitor 141, a keyboard 142, or the like, and is an interface for exchanging information between a user (for example, a doctor) and the image search device 100. The UI 140 displays the search result via, for example, the monitor 141. In this case, the UI 140 may read out the CT image corresponding to the search result from the image DB 200 and display it. In addition, the UI 140 can output a search key to the search module 130, for example, to browse a CT image captured by the CT image capturing apparatus 300 and to select a query image that is a search processing target. .. The UI 140 can also display, for example, the case associated with the searched CT image as the search result.

画像DB200は、例えば、メモリや記憶装置であって、過去の症例を表すCT画像を記憶する。なお、画像DB200は、各CT画像のファイル名や各CT画像のID(Identification)、対応する症例なども記憶してもよい。辞書登録モジュール110は、CT画像とこれらの情報とを、画像DB200から読み出し、特徴量とともに、対応するCT画像のこれらの情報を、特徴量辞書DB120に記憶してもよい。   The image DB 200 is, for example, a memory or a storage device, and stores CT images representing past cases. The image DB 200 may also store the file name of each CT image, the ID (Identification) of each CT image, the corresponding case, and the like. The dictionary registration module 110 may read the CT image and these pieces of information from the image DB 200, and store these pieces of information of the corresponding CT image in the characteristic quantity dictionary DB 120 together with the characteristic quantity.

CT画像撮像装置300は、例えば、照射器を回転させて人体にX線などの放射線を照射し、検出器により照射された放射線を検出することで、各画素においてCT値(又は画素値。以下では、CT値と画素値とを区別しないで用いる場合がある。)を有するCT画像を得る。CT画像撮像装置300は、撮影したCT画像をクエリ画像として、画像検索装置100へ出力する。   The CT image capturing apparatus 300 rotates the irradiator to irradiate the human body with radiation such as X-rays, and detects the radiation radiated by the detector to detect the CT value (or pixel value. Then, a CT image having a CT value and a pixel value may be used without distinction). The CT image capturing device 300 outputs the captured CT image as a query image to the image search device 100.

<辞書登録モジュールと検索モジュールの各構成例>
図2(A)は、辞書登録モジュール110の構成例を表す図である。
<Each configuration example of dictionary registration module and search module>
FIG. 2A is a diagram showing a configuration example of the dictionary registration module 110.

辞書登録モジュール110は、特徴量抽出部111を備える。特徴量抽出部111は、画像DB200から出力されたCT画像に対して特徴量を抽出し、抽出した特徴量を特徴量辞書DB120に記憶する。特徴量は、例えば、CT画像を格子状に分割した各格子領域において、異常陰影と判定された格子領域の数である。特徴量抽出部111は、特徴量として、ヒストグラムを特徴量辞書DB120に記憶してもよい。以下では、特徴量とヒストグラムを区別しないで用いる場合がある。   The dictionary registration module 110 includes a feature quantity extraction unit 111. The feature amount extraction unit 111 extracts the feature amount from the CT image output from the image DB 200 and stores the extracted feature amount in the feature amount dictionary DB 120. The feature amount is, for example, the number of lattice regions determined to be an abnormal shadow in each lattice region obtained by dividing the CT image in a lattice shape. The feature amount extraction unit 111 may store a histogram in the feature amount dictionary DB 120 as a feature amount. In the following, the feature amount and the histogram may be used without distinction.

図3(A)はCT画像(又はクエリ画像)の例、図3(B)はヒストグラムの例をそれぞれ表す図である。   3A is a diagram showing an example of a CT image (or a query image), and FIG. 3B is a diagram showing an example of a histogram.

図3(A)に示すように、CT画像は、例えば、被検体の肺野領域を、体幹を中心にしてアキシャル面で断面(又はスライス)した断面画像(又は断層画像)である。辞書登録モジュール110では、各CT画像を、グリッド状の格子領域に分割し、格子領域毎に異常陰影か正常陰影かを識別する。   As shown in FIG. 3A, the CT image is, for example, a cross-sectional image (or tomographic image) obtained by cross-sectioning (or slicing) the lung field region of the subject along the axial plane with the trunk as the center. The dictionary registration module 110 divides each CT image into grid-shaped lattice areas, and identifies whether each of the lattice areas is an abnormal shadow or a normal shadow.

また、辞書登録モジュール110では、各CT画像を、肺の中枢(例えば、体の中心部分)と末梢(例えば、体の中心部分以外の部分)に関する領域の三次元モデルに基づいて、中枢部分と末梢部分とに分割し、中枢部分毎、末梢部分毎に、異常陰影と識別した格子領域の数をカウントする。   Further, the dictionary registration module 110 identifies each CT image as a central part based on a three-dimensional model of a region related to the center of the lung (for example, the central part of the body) and the periphery (for example, a part other than the central part of the body). The number of lattice regions identified as abnormal shadows is counted for each central portion and each peripheral portion.

図3(B)の例では、辞書登録モジュール110は、このような三次元モデルに基づいて、左肺の中枢部分と末梢部分、右肺の中枢部分と末梢部分とに分割し、それぞれの部分で、異常陰影と識別した格子領域の数をカウントして生成したヒストグラムの例を表している。辞書登録モジュール110は、例えば、1人分の複数枚のCT画像に対して、図3(B)に示す1つのヒストグラムを作成する。   In the example of FIG. 3B, the dictionary registration module 110 divides into a central portion and a peripheral portion of the left lung and a central portion and a peripheral portion of the right lung based on such a three-dimensional model, and divides each portion. 4 shows an example of a histogram generated by counting the number of lattice areas identified as abnormal shadows. The dictionary registration module 110 creates one histogram shown in FIG. 3B for a plurality of CT images of one person, for example.

図3(B)に示すヒストグラムでは、図面上、上側が被検体の「頭」の方向であり、下側が「足」の方向である。また、図3(B)において、横方向は、例えば、その位置において異常陰影と識別された格子領域の数を表している。   In the histogram shown in FIG. 3B, the upper side is the “head” direction of the subject and the lower side is the “foot” direction in the drawing. Further, in FIG. 3B, the horizontal direction represents, for example, the number of lattice areas identified as abnormal shadows at that position.

図2(A)に戻り、特徴量抽出部111は、候補領域抽出部112と気管支領域分割部113、及び陰影識別及び分布特徴抽出部(以下、「分布特徴抽出部」と称する場合がある。)114を備える。   Returning to FIG. 2A, the feature amount extraction unit 111 may be referred to as a candidate region extraction unit 112, a bronchial region division unit 113, and a shadow identification and distribution feature extraction unit (hereinafter referred to as “distribution feature extraction unit”). ) 114.

候補領域抽出部112は、CT画像から候補領域を抽出する。例えば、候補領域抽出部112は、CT画像の各画素のCT値が「−1000」以下(CT値≦−1000)を満たす領域を、候補領域(又は候補領域画像)として抽出する。CT値が「−1000」以下は、例えば、その画素が空気であることを示している。図7(A)は、例えば、CT画像に対する候補領域の例を表す図である。   The candidate area extraction unit 112 extracts candidate areas from the CT image. For example, the candidate area extraction unit 112 extracts an area in which the CT value of each pixel of the CT image is “−1000” or less (CT value ≦ −1000) as a candidate area (or a candidate area image). A CT value of "-1000" or less indicates that the pixel is air, for example. FIG. 7A is a diagram showing an example of candidate regions for a CT image, for example.

図2(A)に戻り、気管支領域分割部113は、CT画像における候補領域の画像を、例えば、気管支の領域と、気管支以外の肺野領域とに分割し、気管支以外の肺野領域の画像を分布特徴抽出部114へ出力する。この場合、気管支領域分割部113は、分割した気管支領域の画像を分布特徴抽出部114へ出力してもよい。気管支領域分割部113の詳細は後述する。   Returning to FIG. 2A, the bronchial region dividing unit 113 divides the image of the candidate region in the CT image into, for example, a bronchial region and a lung field region other than the bronchus, and an image of the lung field region other than the bronchus. Is output to the distribution feature extraction unit 114. In this case, the bronchial region dividing unit 113 may output the divided image of the bronchial region to the distribution feature extracting unit 114. Details of the bronchial region dividing unit 113 will be described later.

図2(B)は検索モジュール130の構成例を表す図である。   FIG. 2B is a diagram showing a configuration example of the search module 130.

検索モジュール130は、特徴量抽出部131と照合処理部135を備える。特徴量抽出部131は、候補領域抽出部132と気管支領域分割部133、及び分布特徴抽出部134を備える。特徴量抽出部131は、例えば、辞書登録モジュール110の特徴量抽出部111と同様である。   The search module 130 includes a feature amount extraction unit 131 and a matching processing unit 135. The feature amount extraction unit 131 includes a candidate region extraction unit 132, a bronchial region division unit 133, and a distribution feature extraction unit 134. The feature amount extraction unit 131 is, for example, the same as the feature amount extraction unit 111 of the dictionary registration module 110.

ただし、特徴量抽出部131は、CT画像撮像装置300から取得したクエリ画像に対して、候補領域抽出部132で候補領域を抽出し、気管支領域分割部133で気管支とそれ以外の肺野領域に分割し、分布特徴抽出部134で、気管支以外の肺野領域に対して特徴量を抽出する。気管支領域分割部133は、例えば、気管支領域分割部113と同様に、分割した気管支領域の画像を出力してもよい。特徴量抽出部131も、例えば、クエリ画像に対して、図3(B)に示すヒストグラムを作成することができる。   However, in the feature amount extraction unit 131, the candidate region extraction unit 132 extracts candidate regions from the query image acquired from the CT image capturing apparatus 300, and the bronchus region division unit 133 selects bronchus and other lung field regions. Then, the distribution feature extraction unit 134 divides the feature amount and extracts the feature amount from the lung field region other than the bronchus. The bronchial area dividing unit 133 may output an image of the divided bronchial area, similar to the bronchial area dividing unit 113, for example. The feature quantity extraction unit 131 can also create the histogram shown in FIG. 3B for the query image, for example.

図2(B)に戻り、照合処理部135は、特徴量抽出部131から出力された特徴量と、特徴量辞書DB120から読み出した特徴量とを照合し、クエリ画像の特徴量に類似する特徴量を有するCT画像を検索する。照合処理部135は、検索結果として、例えば、このような類似する特徴を有するCT画像をUI140へ出力する。この場合、照合処理部135は、検索したCT画像に紐付けされた症例情報も、特徴量辞書DB120から読み出して、検索結果として、CT画像とともに症例情報とをUI140へ出力してもよい。   Returning to FIG. 2B, the matching processing unit 135 matches the feature amount output from the feature amount extraction unit 131 with the feature amount read from the feature amount dictionary DB 120, and a feature similar to the feature amount of the query image. Retrieve CT images with quantity. The matching processing unit 135 outputs, for example, a CT image having such similar characteristics to the UI 140 as the search result. In this case, the matching processing unit 135 may also read the case information associated with the searched CT image from the feature amount dictionary DB 120 and output the case information together with the CT image to the UI 140 as the search result.

<気管支領域分割部の構成例>
図4は気管支領域分割部113の構成例を表す図である。検索モジュール130の気管支領域分割部133も、例えば、図4に示す構成例と同一構成である。代表して、辞書登録モジュール110の気管支領域分割部113について説明する。
<Structural example of bronchial region dividing section>
FIG. 4 is a diagram showing a configuration example of the bronchial region dividing unit 113. The bronchial region dividing unit 133 of the search module 130 also has the same configuration as the configuration example shown in FIG. 4, for example. As a representative, the bronchial region dividing unit 113 of the dictionary registration module 110 will be described.

本第1の実施の形態における気管支領域分割部113では、気管支と蜂巣肺の肺内における分布の性質が異なることに着目し、その性質を利用して気管支と蜂巣肺の各領域を分割する。   The bronchial region dividing unit 113 according to the first embodiment focuses on the fact that the distribution properties of the bronchus and the honeycomb lung in the lung are different, and the respective regions of the bronchus and the honeycomb lung are divided by utilizing this property.

図5(A)は気管支の分布例、図5(B)は蜂巣肺の分布例をそれぞれ表すCT画像の例を表す。また、図6(A)と図6(B)は、気管支と蜂巣肺の分布の相違を表す模式図である。   FIG. 5A shows an example of a distribution of bronchi, and FIG. 5B shows an example of a CT image showing an example of distribution of honeycombs. Further, FIGS. 6A and 6B are schematic diagrams showing the difference in distribution between the bronchus and the honeycomb lung.

図5(A)に示すように気管支は、中枢から末梢方向へ、又は、末梢から中枢方向へ向かって分布している。一方、図5(B)に示すように蜂巣肺は、末梢(又は肺の輪郭)に沿って分布している。図6(B)に示すように、本第1の実施の形態における気管支領域分割部113では、このような気管支と蜂巣肺の分布の相違に着目し、中枢方向からだけではなく、末梢方向からも、その領域を辿って、気管支と蜂巣肺の各領域を分割するようにしている。   As shown in FIG. 5 (A), the bronchi are distributed from the center toward the periphery or from the periphery toward the center. On the other hand, as shown in FIG. 5B, the honeycomb lungs are distributed along the periphery (or the contour of the lung). As shown in FIG. 6 (B), in the bronchial region dividing unit 113 according to the first embodiment, focusing on such a difference in the distribution of the bronchi and the honeycomb lung, not only from the central direction but also from the peripheral direction. Also, by tracing that area, each area of the bronchus and the honeycomb is divided.

図4に戻り、気管支領域分割部113は、二値化画像生成部1130と、中心線抽出部1131、中心線分割部1134、角度算出部1135、ラベリング部1136、及び領域分割部1137を備える。   Returning to FIG. 4, the bronchial region dividing unit 113 includes a binarized image generating unit 1130, a centerline extracting unit 1131, a centerline dividing unit 1134, an angle calculating unit 1135, a labeling unit 1136, and a region dividing unit 1137.

二値化画像生成部1130は、候補領域の画像に対して、所定の閾値を用いて二値化する。例えば、二値化画像生成部1130は、候補領域の画像の各画素のCT値が閾値以上のときは、その画素の画素値を「255」、CT値が閾値より小さいときには、その画素の画素値を「0」に設定する。二値化画像生成部1130は、候補領域の画像のCT値を二値化することで、背景画像と前景画像を含む二値化画像を生成する。   The binarized image generation unit 1130 binarizes the image of the candidate area using a predetermined threshold value. For example, the binarized image generation unit 1130 sets the pixel value of the pixel to “255” when the CT value of each pixel of the image of the candidate region is equal to or larger than the threshold value, and sets the pixel value of the pixel to the pixel value when the CT value is smaller than the threshold value. Set the value to "0". The binarized image generation unit 1130 binarizes the CT value of the image of the candidate region to generate a binarized image including the background image and the foreground image.

図7(B)は二値化画像の例を表す図である。例えば、二値化画像生成部1130は、画素値を「255」に設定した画素の領域を前景領域、画素値を「0」に設定した画素の領域を背景領域に設定することで、背景画像と前景画像の二値化画像を生成する。二値化画像生成部1130は、二値化画像などを中心線抽出部1131へ出力する。   FIG. 7B is a diagram showing an example of a binarized image. For example, the binarized image generation unit 1130 sets the area of the pixel whose pixel value is set to “255” to the foreground area and the area of the pixel whose pixel value is set to “0” to the background area, thereby setting the background image. And a binary image of the foreground image is generated. The binarized image generation unit 1130 outputs the binarized image and the like to the centerline extraction unit 1131.

図4に戻り、中心線抽出部1131は、距離変換部1132と中心線抽出処理部1133を備える。   Returning to FIG. 4, the centerline extraction unit 1131 includes a distance conversion unit 1132 and a centerline extraction processing unit 1133.

距離変換部1132は、二値化画像において、前景画像の各画素値を、前景画像からの距離を表す距離値に変換することで、二値化画像を距離変換画像へ変換する。距離変換画像では、例えば、前景画像の各画素値が、背景画像との境界面からの最短距離(又は最短画素数)に応じた距離値へ変換された画像となっている。   The distance conversion unit 1132 converts each pixel value of the foreground image into a distance value representing a distance from the foreground image in the binarized image, thereby converting the binarized image into a distance converted image. In the distance conversion image, for example, each pixel value of the foreground image is converted into a distance value corresponding to the shortest distance (or the shortest number of pixels) from the boundary surface with the background image.

図7(C)は、例えば、距離変換画像の例を表す図である。図7(C)に示すように、前景画像の中心付近が、前景画像の中で、背景画像からの距離が最も遠いため、最も大きな距離値を有している。距離変換部1132における距離変換の詳細は動作例で説明する。距離変換部1132は、距離変換画像などを中心線抽出処理部1133へ出力する。   FIG. 7C is a diagram showing an example of the distance conversion image. As shown in FIG. 7C, the vicinity of the center of the foreground image has the largest distance value because the distance from the background image is the longest in the foreground image. Details of distance conversion in the distance conversion unit 1132 will be described in an operation example. The distance conversion unit 1132 outputs the distance conversion image and the like to the centerline extraction processing unit 1133.

図4に戻り、中心線抽出処理部1133は、距離変換画像の距離値に基づいて中心線を抽出する。   Returning to FIG. 4, the centerline extraction processing unit 1133 extracts the centerline based on the distance value of the distance conversion image.

図7(D)は、中心線抽出処理部1133により抽出した中心線の例を表す図である。中心線抽出処理の詳細は動作例で説明する。中心線抽出処理部1133は、抽出した中心線に関する情報などを中心線分割部1134へ出力する。   FIG. 7D is a diagram showing an example of the center line extracted by the center line extraction processing unit 1133. Details of the centerline extraction processing will be described with an operation example. The centerline extraction processing unit 1133 outputs information about the extracted centerline to the centerline dividing unit 1134.

図4に戻り、中心線分割部1134は、中心線が分岐した分岐点で中心線を各枝に分割する。図8(A)は各枝の例を表す図である。図8(A)の例では、分岐点b1を中心にして、中心線が、枝a1b1と枝b1c、及び枝b1d1に分割される例を表している。中心線の分割処理の詳細は動作例で説明する。中心線分割部1134は、分割した各枝の情報などを角度算出部1135へ出力する。   Returning to FIG. 4, the centerline dividing unit 1134 divides the centerline into branches at branch points where the centerline is branched. FIG. 8A is a diagram showing an example of each branch. In the example of FIG. 8A, the center line is divided into the branch a1b1, the branch b1c, and the branch b1d1 around the branch point b1. Details of the center line division processing will be described in an operation example. The center line dividing unit 1134 outputs information about each divided branch to the angle calculating unit 1135.

図4に戻り、角度算出部1135は、分岐した各枝を直線で近似し、近似した直線を利用して、各枝(又は各直線)の角度を算出する。例えば、角度算出部1135は、最小二乗法などを用いて、中心線の各点から直線を近似し、近似した直線を利用して、2つの直線の角度を算出する。直線近似と角度算出の詳細は動作例で説明する。図8(B)は、角度算出の例を表す図である。図8(B)では、角度算出部1135が、枝a1b1と枝b1d1との角度を算出する例を表している。角度算出部1135は、算出した角度に関する情報と各枝に関する情報などをラベリング部1136へ出力する。   Returning to FIG. 4, the angle calculation unit 1135 approximates each branched branch with a straight line, and calculates the angle of each branch (or each straight line) using the approximated straight line. For example, the angle calculation unit 1135 approximates a straight line from each point of the center line by using the least squares method or the like, and calculates the angles of the two straight lines by using the approximated straight line. Details of the linear approximation and the angle calculation will be described in an operation example. FIG. 8B is a diagram showing an example of angle calculation. FIG. 8B shows an example in which the angle calculation unit 1135 calculates the angle between the branch a1b1 and the branch b1d1. The angle calculation unit 1135 outputs information regarding the calculated angle and information regarding each branch to the labeling unit 1136.

図4に戻り、ラベリング部1136は、角度算出部1135で算出された角度に基づいて、各枝に対して、気管支又は蜂巣肺のラベリングを行う。   Returning to FIG. 4, the labeling unit 1136 performs bronchial or honeycomb lung labeling on each branch based on the angle calculated by the angle calculation unit 1135.

図8(C)はラベリングの例を表す図である。図8(C)の例では、ラベリング部1136は、枝a1b1と、枝b1cとを蜂巣肺、枝b1d1を気管支とそれぞれラベリングする。ラベリング部1136は、各中心線の情報と各中心線にラベリングした情報などを、領域分割部1137へ出力する。   FIG. 8C is a diagram showing an example of labeling. In the example of FIG. 8C, the labeling unit 1136 labels the branch a1b1 and the branch b1c with the honeycomb lung, and the branch b1d1 with the bronchus. The labeling unit 1136 outputs information about each center line, information about each center line, and the like to the region dividing unit 1137.

図4に戻り、領域分割部1137は、例えば、各枝にラベリングした情報に基づいて、候補領域を気管支の領域と蜂巣肺の領域とに分割する。図8(D)は、領域分割の例を表す図である。詳細については動作例で説明する。領域分割部1137は、例えば、分割した気管支の領域を候補領域の画像から取り除いた肺野領域の画像を出力する。   Returning to FIG. 4, the region dividing unit 1137 divides the candidate region into a bronchial region and a honeycomb lung region, for example, based on the information labeled on each branch. FIG. 8D is a diagram illustrating an example of area division. Details will be described in an operation example. The region dividing unit 1137 outputs, for example, an image of the lung field region obtained by removing the divided bronchus region from the image of the candidate region.

<動作例>
次に動作例について説明する。動作例については、最初に、辞書登録モジュール110の特徴量抽出部111や検索モジュール130の特徴量抽出部131で行われる特徴量抽出処理(又は特徴抽出処理。以下では、「特徴抽出処理」と称する場合がある。)について説明する。次に、検索モジュール130の照合処理部135で行われる照合処理について説明する。
<Operation example>
Next, an operation example will be described. Regarding the operation example, first, the feature amount extraction processing (or the feature extraction processing performed by the feature amount extraction unit 111 of the dictionary registration module 110 or the feature amount extraction unit 131 of the search module 130. May be referred to). Next, the collation processing performed by the collation processing unit 135 of the search module 130 will be described.

<1.特徴抽出処理>
図9は、画像検索装置100における特徴抽出処理の例を表すフローチャートである。
<1. Feature extraction process>
FIG. 9 is a flowchart showing an example of the feature extraction processing in the image search device 100.

画像検索装置100は、特徴抽出処理により、画像データに基づいて、画像の特徴量を算出する。例えば、辞書登録モジュール110が、画像DB200から読み出したCT画像に対して、特徴抽出処理を行って特徴量を抽出する。また、例えば、検索モジュール130が、CT画像撮像装置300から出力されたクエリ画像に対して、特徴抽出処理を行って特徴量を抽出する。ここでは、辞書登録モジュール110で行われる場合を例にして、図9を説明する。   The image search device 100 calculates the feature amount of the image based on the image data by the feature extraction processing. For example, the dictionary registration module 110 performs feature extraction processing on the CT image read from the image DB 200 to extract a feature amount. Further, for example, the search module 130 performs feature extraction processing on the query image output from the CT image capturing apparatus 300 to extract a feature amount. Here, FIG. 9 will be described by taking a case where the dictionary registration module 110 is used as an example.

辞書登録モジュール110の特徴量抽出部111は、特徴抽出処理を開始すると(S10)、CT画像を読み出して、CT画像から候補領域を抽出する(S11)。例えば、候補領域抽出部112は、CT画像の各画素のCT値と閾値(例えば、−1000)とを比較して、閾値より小さいCT値を有するCT画像の領域を抽出する。   When the feature extraction unit 111 of the dictionary registration module 110 starts the feature extraction process (S10), it reads the CT image and extracts a candidate region from the CT image (S11). For example, the candidate area extraction unit 112 compares the CT value of each pixel of the CT image with a threshold value (for example, −1000) and extracts an area of the CT image having a CT value smaller than the threshold value.

次に、特徴量抽出部111は、気管支領域抽出処理を行う(S12)。例えば、気管支領域分割部113が気管支領域抽出処理を行う。   Next, the feature amount extraction unit 111 performs a bronchial region extraction process (S12). For example, the bronchial region dividing unit 113 performs a bronchial region extraction process.

図10は、気管支領域抽出処理の例を表すフローチャートである。   FIG. 10 is a flowchart showing an example of bronchial region extraction processing.

気管支領域分割部113は、気管支領域抽出処理を開始すると(S120)、二値化画像を取得する(S121)。例えば、二値化画像生成部1130は、候補領域画像のCT値が閾値以上のとき、その画素の画素値を「255」、CT値が閾値より小さいときは、その画素の画素値を「0」にして、二値化画像を取得する。この場合、例えば、背景画像はその画素の画素値が「0」となっている画像であり、前景画像はその画素の画素値が「255」となっている画像のことである。   When the bronchial region dividing unit 113 starts the bronchial region extraction process (S120), it acquires a binarized image (S121). For example, the binarized image generation unit 1130 sets the pixel value of the pixel to “255” when the CT value of the candidate region image is equal to or larger than the threshold value, and sets the pixel value of the pixel to “0” when the CT value is smaller than the threshold value. To obtain a binarized image. In this case, for example, the background image is an image in which the pixel value of the pixel is “0”, and the foreground image is an image in which the pixel value of the pixel is “255”.

次に、気管支領域分割部113は、中心線抽出処理を行う(S122)。   Next, the bronchial region dividing unit 113 performs centerline extraction processing (S122).

図11は、中心線抽出処理の例を表すフローチャートである。   FIG. 11 is a flowchart showing an example of the centerline extraction processing.

中心線抽出部1131は、中心線抽出処理を開始すると(S1220)、距離変換を行う(S1221)。   When the centerline extraction unit 1131 starts the centerline extraction processing (S1220), the centerline extraction unit 1131 performs distance conversion (S1221).

図12(A)は、8×9画素の二値化画像の例を表す図である。距離変換の処理(S1221)については、例えば、図12(A)に示す二値化画像から距離変換画像が生成される例で説明する。例えば、距離変換部1132では、以下の処理を行う。   FIG. 12A is a diagram illustrating an example of a binarized image of 8 × 9 pixels. The distance conversion process (S1221) will be described with reference to an example in which the distance conversion image is generated from the binarized image shown in FIG. For example, the distance conversion unit 1132 performs the following processing.

すなわち、距離変換部1132は、図12(B)に示す順方向ラスター走査用マスクを、図12(A)に示す二値化画像に対して順方向へ走査(順方向ラスター走査)する。この際、距離変換部1132では、画素P(x,y)が「0」以外の前景画像の画素のとき、画素P(x,y)に隣接する4画素(P(x−1,y−1),P(x,y−1),P(x+1,y−1),P(x−1,y))の各画素値(又は距離値)を調べ、最小値に「1」を加えた値を、画素P(x,y)の距離値として設定する。   That is, the distance conversion unit 1132 scans the forward raster scanning mask shown in FIG. 12B in the forward direction (forward raster scanning) with respect to the binarized image shown in FIG. 12A. At this time, in the distance conversion unit 1132, when the pixel P (x, y) is a pixel of the foreground image other than “0”, four pixels (P (x−1, y−) adjacent to the pixel P (x, y) are used. 1), P (x, y−1), P (x + 1, y−1), P (x−1, y)) each pixel value (or distance value) is checked, and “1” is added to the minimum value. This value is set as the distance value of the pixel P (x, y).

図13(A)は、画素(2,2)をP(x,y)として、画素(2,2)から順番に、順方向ラスター走査用マスクを利用して走査する様子を表す図である。距離変換部1132は、図面上、左上から右下に向けて、順方向ラスター走査用マスクを走査する。   FIG. 13A is a diagram showing a state in which the pixel (2, 2) is set to P (x, y) and is sequentially scanned from the pixel (2, 2) using the forward raster scanning mask. .. The distance conversion unit 1132 scans the forward raster scanning mask from the upper left to the lower right on the drawing.

また、図13(B)は、画素(4,2)に対して距離値を設定している様子を表す図である。図13(B)に示すように、画素(4,2)をP(x,y)としたとき、P(x,y)は「0」以外の前景画像の画素となっている。そのため、距離変換部1132は、隣接する4画素((3,1),(3,2),(3,3),(4,1)の4画素)の画素値の最小値である「0」に「1」を加えた「1」を、画素(4,2)の距離値として設定する。   Further, FIG. 13B is a diagram showing a state in which the distance value is set for the pixel (4, 2). As shown in FIG. 13B, when the pixel (4, 2) is P (x, y), P (x, y) is a pixel of the foreground image other than “0”. Therefore, the distance conversion unit 1132 has the minimum pixel value “0” of the adjacent four pixels (four pixels of (3,1), (3,2), (3,3), and (4,1)). “1” obtained by adding “1” to “” is set as the distance value of the pixel (4, 2).

また、図14(A)も距離値を設定している様子を表す図である。図14(B)では、距離変換部1132は、画素(5,3)をP(x,y)とし、隣接する4画素の画素値の最小値「1」に「1」を加えた「2」を距離値に設定している。   Further, FIG. 14A is also a diagram showing how the distance value is set. In FIG. 14B, the distance conversion unit 1132 sets the pixel (5, 3) to P (x, y) and adds “1” to the minimum value “1” of the pixel values of four adjacent pixels to “2”. Is set to the distance value.

図14(B)は、順方向ラスター走査用マスクの順方向への走査が終了したときの、距離変換画像の例を表す図である。図14(B)に示すように、前景画像の各画素の距離値は、例えば、背景画像との境界面からの距離が画素数で表されたものとなっている。例えば、画素(4,2)は、背景画像の境界面から「1」画素の距離があるため、距離値として「1」が設定され、画素(5,3)は、背景画像の境界面から「2」画素の距離があるため、距離値として「2」が設定される。   FIG. 14B is a diagram illustrating an example of the distance-converted image when the forward scan of the forward raster scan mask is completed. As shown in FIG. 14B, the distance value of each pixel of the foreground image is, for example, the distance from the boundary surface with the background image represented by the number of pixels. For example, pixel (4, 2) has a distance of “1” pixels from the boundary surface of the background image, and thus “1” is set as the distance value, and pixel (5, 3) is separated from the boundary surface of the background image. Since there is a distance of "2" pixels, "2" is set as the distance value.

ただし、画素(6,3)から画素(6,6)までの距離値は、境界面からの距離に対応していない値となっている。   However, the distance value from the pixel (6, 3) to the pixel (6, 6) does not correspond to the distance from the boundary surface.

これは、例えば、図12(B)に示す順方向ラスター走査用マスクでは、画素P(x,y)に対して、左側の画素(P(x−1,y−1)とP(x−1,y)など)と上側の画素(P(x−1,y−1),P(x,y−1)など)の画素値(又は距離値)に着目して、距離値が設定されるからである。   For example, in the forward raster scanning mask shown in FIG. 12B, this is because pixels (P (x-1, y-1) and P (x-) on the left side of the pixel P (x, y). , Y)) and the pixel values (or distance values) of the upper pixels (P (x-1, y-1), P (x, y-1), etc.) are set, and the distance value is set. This is because that.

そのため、距離変換部1132は、図12(C)に示す逆方向ラスター走査用マスクを利用して、順方向への走査が終了した距離画像に対して、図15(A)に示すように、図面上、右下から左上に向けて、逆方向への走査を行って、最終的な距離画像への変換を行う。   Therefore, the distance conversion unit 1132 uses the reverse raster scanning mask shown in FIG. 12C, and as shown in FIG. On the drawing, scanning is performed in the reverse direction from the lower right to the upper left, and conversion into the final range image is performed.

この場合、距離変換部1132は、画素P(x,y)が「0」以外の前景画像の画素のとき、画素P(x,y)に隣接する4画素(P(x+1,y),P(x−1,y+1),P(x,y+1),P(x+1,y+1))の各距離を調べる。そして、距離変換部1132は、最小距離値に「1」を加算した値と、設定済の画素P(x,y)の距離値とを比較して、小さい値を、画素P(x,y)の距離値に採用する。   In this case, when the pixel P (x, y) is a pixel of the foreground image other than “0”, the distance conversion unit 1132 determines that four pixels (P (x + 1, y), P adjacent to the pixel P (x, y) are included. Each distance of (x-1, y + 1), P (x, y + 1), P (x + 1, y + 1)) is checked. Then, the distance conversion unit 1132 compares the value obtained by adding “1” to the minimum distance value with the distance value of the set pixel P (x, y), and determines a smaller value as the pixel P (x, y). ) Is adopted as the distance value.

図15(B)は、画素(6,7)に対して距離値を設定する例を表す図である。この場合、距離変換部1132は、隣接画素の最小距離値「0」に「1」を加えた値「1」と、既に設定済の画素(6,7)の距離値「1」とを比較して、小さい方の値「1」を採用する。従って、距離変換部1132は、画素(6,7)に距離値として「1」を設定する。   FIG. 15B is a diagram illustrating an example of setting the distance value for the pixel (6, 7). In this case, the distance conversion unit 1132 compares the value "1" obtained by adding "1" to the minimum distance value "0" of the adjacent pixel and the distance value "1" of the already set pixel (6, 7). Then, the smaller value “1” is adopted. Therefore, the distance conversion unit 1132 sets “1” as the distance value for the pixel (6, 7).

図16(A)は、画素(6,6)に距離値を設定する例を表す図である。この場合、距離変換部1132は、隣接画素の最小距離値「0」に「1」を加えた値「1」と、画素(6,6)に設定済の「2」とを比較して、小さい値「1」を、画素(6,6)の距離値に設定する。   FIG. 16A is a diagram illustrating an example of setting the distance value for the pixel (6, 6). In this case, the distance conversion unit 1132 compares the value “1”, which is obtained by adding “1” to the minimum distance value “0” of the adjacent pixel, with the preset value “2” of the pixel (6, 6), The small value "1" is set to the distance value of the pixel (6, 6).

図16(B)は、逆方向ラスター走査用マスクの逆方向への走査が終了したときの、距離変換画像の例を表す図である。図16(B)に示すように、画素画素(6,3)から画素(6,6)までの距離値は、境界面からの距離に対応した値となっている。   FIG. 16B is a diagram showing an example of the distance-converted image when the backward scan of the backward raster scan mask is completed. As shown in FIG. 16B, the distance value from pixel pixel (6,3) to pixel (6,6) is a value corresponding to the distance from the boundary surface.

これは、例えば、図12(C)に示すように、画素P(x,y)に対して、右側の画素(P(x+1,y)とP(x+1,y+1)など)と下側の画素(P(x−1,y+1)とP(x,y+1)など)の距離値に着目して、画素P(x,y)の距離値が設定されるからである。   For example, as shown in FIG. 12C, this is because the pixel on the right side (P (x + 1, y) and P (x + 1, y + 1), etc.) and the pixel on the lower side with respect to the pixel P (x, y). This is because the distance value of the pixel P (x, y) is set by focusing on the distance value of (P (x-1, y + 1) and P (x, y + 1), etc.).

以上が距離変換処理(S1221)の例である。図12(A)から図16(B)の例では、二次元の場合の距離変換の例である。例えば、本第1の実施の形態では、三次元の場合も距離変換でも実施可能である。   The above is an example of the distance conversion processing (S1221). The examples of FIGS. 12A to 16B are examples of distance conversion in the case of two dimensions. For example, in the first embodiment, the three-dimensional case and the distance conversion can be performed.

図17(A)は、三次元の場合における順方向の走査例を表す図である。また、図17(B)は、三次元の場合で利用される順方向ラスター走査用マスクの例を表す図である。   FIG. 17A is a diagram showing an example of forward scanning in a three-dimensional case. Further, FIG. 17B is a diagram showing an example of a forward raster scanning mask used in a three-dimensional case.

この場合、順方向ラスター走査用マスクの画素B20に着目し、各CT画像について、図17(A)に示すように、距離変換部1132は、左上から右下(図17(A)では左下から右上)に向けてラスター走査(順方向ラスター走査)をしながら、画素B20の距離値を設定していく。距離変換部1132は、画素B20が「0」以外の前景画像の画素のとき、画素B20に隣接する13画素(B10〜B18,B24〜B27)の画素値(又は距離値)を調べ、最小値に「1」を加えた値を、画素B20の距離値として設定する。距離変換部1132は、順方向のラスター走査が終了後、逆方向のラスター走査を行う。 In this case, focusing on the pixel B 20 of the forward raster scanning mask, for each CT image, as shown in FIG. 17A, the distance conversion unit 1132 changes the distance from the upper left to the lower right (lower left in FIG. 17A). While performing raster scanning (forward raster scanning) toward the upper right), the distance value of the pixel B 20 is set. When the pixel B 20 is a pixel of the foreground image other than “0”, the distance conversion unit 1132 determines the pixel value (or distance value) of 13 pixels (B 10 to B 18 , B 24 to B 27 ) adjacent to the pixel B 20. ), And a value obtained by adding “1” to the minimum value is set as the distance value of the pixel B 20 . The distance conversion unit 1132 performs reverse raster scanning after the completion of forward raster scanning.

図18(A)は逆方向ラスター走査の例、図18(B)は逆方向ラスター走査用マスクの例を夫々表す図である。距離変換部1132は、画素B20に隣接する13画素(B21〜B23,B30〜B38)の最小距離値を調べ、その距離値に「1」を加算した値と、設定済の画素B20の距離値とを比較し、小さい方の距離値を、画素B20の距離値に設定する。 FIG. 18A is a diagram showing an example of a reverse raster scan, and FIG. 18B is a diagram showing an example of a reverse raster scan mask. The distance conversion unit 1132 checks the minimum distance value of 13 pixels (B 21 to B 23 , B 30 to B 38 ) adjacent to the pixel B 20 and adds a value of “1” to the distance value and the set value. The distance value of the pixel B 20 is compared, and the smaller distance value is set as the distance value of the pixel B 20 .

図11に戻り、距離変換部1132は距離変換処理(S1221)を終了すると、次に、中心線抽出処理部1133は、中心線抽出処理を行う(S1222〜S1226)。   Returning to FIG. 11, when the distance conversion unit 1132 finishes the distance conversion processing (S1221), the centerline extraction processing unit 1133 then performs centerline extraction processing (S1222 to S1226).

すなわち、中心線抽出処理部1133は、距離変換後の画像に対して、順ラスター走査で、距離値が「1」より大きい点(又は画素。以下では、「点」と称する場合がある。)iについて、当該点iの距離Rを半径に持つ円を定義する。そして、中心線抽出処理部1133は、距離値「1」の点を、輪郭線を構成する点と定義する(S1222)。距離値が「1」の点の集合は、例えば、輪郭線となる。   In other words, the centerline extraction processing unit 1133 performs point raster scanning on the image after distance conversion and has a distance value larger than “1” (or a pixel; hereinafter, it may be referred to as a “point”). For i, a circle having a radius of the distance R of the point i is defined. Then, the center line extraction processing unit 1133 defines the point having the distance value “1” as a point forming the contour line (S1222). A set of points having a distance value of “1” is, for example, a contour line.

図19(A)は、点Aが点iのとき、点Aの距離値Rを半径に持つ円の例を表す図である。上述したように各画素の距離値は、例えば、前景画像と背景画像の境界線(又は輪郭線。以下、「輪郭線」と称する場合がある。)からの距離を画素数で表された値となっている。従って、点A(又はこの点Aの位置にある画素A)の距離値は、輪郭線からの距離を表し、その距離を半径に持つ円を定義することが可能である。点Bがi点のとき、点Bの距離rを半径に持つ円も定義することが可能であり、点Cがi点のとき、点Cの距離rを半径に持つ円も定義することが可能である。   FIG. 19A is a diagram showing an example of a circle having a distance value R of the point A as a radius when the point A is the point i. As described above, the distance value of each pixel is, for example, a value in which the distance from the boundary line (or contour line; hereinafter, sometimes referred to as “contour line”) between the foreground image and the background image is represented by the number of pixels. Has become. Therefore, the distance value of the point A (or the pixel A at the position of this point A) represents the distance from the contour line, and it is possible to define a circle having the distance as a radius. When the point B is the i point, a circle having the radius r of the point B can be defined, and when the point C is the i point, a circle having the radius r of the point C can also be defined. It is possible.

なお、距離が「1」の点(又はこの点の位置にある画素)は輪郭線を構成する点と定義している。   The point with the distance of "1" (or the pixel at the position of this point) is defined as the point forming the contour line.

図11に戻り、次に、中心線抽出処理部1133は、ある点iの円が点i以外の任意の点jの円に対して、常に以下の式(1)が成り立つか否かを判定する(S1223)。   Returning to FIG. 11, next, the center line extraction processing unit 1133 determines whether or not the following formula (1) always holds for a circle of a certain point j other than the point i. Yes (S1223).

>R、かつ 点iと点jの距離<R ・・・(1)
式(1)において、Rは点iにおける円の半径(又は距離値)を表し、Rは任意の点jにおける円の半径(又は距離値)を表す。
R i > R j , and the distance between points i and j <R i (1)
In Expression (1), R i represents the radius (or distance value) of the circle at the point i, and R j represents the radius (or distance value) of the circle at the arbitrary point j.

図19(A)の例では、点Aが点iのとき、任意の点jを点Bとすると、点Aを中心とする円の半径Rは、点Bを中心とする円の半径rよりも大きく、かつ、2点間の距離dは、点Aを中心とする円の半径Rより小さい。この場合、中心線抽出処理部1133は、式(1)は成立すると判定する。   In the example of FIG. 19A, when the point A is the point i and the arbitrary point j is the point B, the radius R of the circle centered on the point A is smaller than the radius r of the circle centered on the point B. And the distance d between the two points is smaller than the radius R of the circle centered on the point A. In this case, the centerline extraction processing unit 1133 determines that the expression (1) holds.

一方、点Aが点iで、任意の点jが点Cのとき、点Aを中心とする円の半径Rは、点Cを中心とする円の半径rより大きいものの、2点AC間の距離は、点Aを中心とする円の半径Rより大きい。この場合、中心線抽出処理部1133は、式(1)は成立しないと判定する。   On the other hand, when the point A is the point i and the arbitrary point j is the point C, the radius R of the circle centered on the point A is larger than the radius r of the circle centered on the point C, but between the two points AC. The distance is larger than the radius R of the circle centered on the point A. In this case, the centerline extraction processing unit 1133 determines that the formula (1) is not established.

本処理(S1223)では、例えば、中心線抽出処理部1133が、点iの輪郭線までの最短距離を半径とする円が他の任意の点における円に囲まれない円を見つけ出すようにしている。   In this processing (S1223), for example, the centerline extraction processing unit 1133 tries to find a circle whose radius is the shortest distance to the contour line of the point i and which is not surrounded by circles at other arbitrary points. .

例えば、図19(A)の例において、点Aが点i、点Bが点jの場合、式(1)を満たし、点Aが点i、点Cが点jのとき、式(1)を満たさない。この場合、点Aを中心とする円は、点Bを中心とする円を囲むが、点Cを中心とする円は囲まない。また、点Aを中心とする円は、式(1)を満たす他の円により囲まれることはない。従って、点Aを中心とする円は、他の円を囲むが、他の円によって囲まれることはない。   For example, in the example of FIG. 19A, when point A is point i and point B is point j, equation (1) is satisfied, and when point A is point i and point C is point j, equation (1) is satisfied. Does not meet. In this case, the circle centered on the point A encloses the circle centered on the point B, but does not enclose the circle centered on the point C. Further, the circle centered on the point A is not surrounded by other circles that satisfy the formula (1). Therefore, the circle centered on the point A surrounds other circles, but is not surrounded by other circles.

中心線抽出処理部1133は、点Aの距離値が、他の点(例えば点B)の距離値よりも大きく、かつ、点Aと他の点との距離が点Aの距離値よりも小さいとき、点Aを中心とする円は、他の点を中心とする円に囲まれない円(S1223でYes)と判定している。   The center line extraction processing unit 1133 has the distance value of the point A larger than the distance value of another point (for example, the point B) and the distance between the point A and the other point smaller than the distance value of the point A. At this time, it is determined that the circle centered on the point A is a circle that is not surrounded by circles centered on other points (Yes in S1223).

他の円に囲まれない円を有する点iを、例えば、「スケルトン」と称する場合がある。点Aや点Cはスケルトンであるが、点Bはスケルトンではない。   A point i having a circle that is not surrounded by other circles may be referred to as a “skeleton”, for example. The points A and C are skeletons, but the point B is not.

図11に戻り、中心線抽出処理部1133は、式(1)が成立すると判定したとき(S1223でYes)、点iを、中心線を構成する点とし、当該点iを中心とする半径Riの円を極大円と定義する(S1224)。図19(A)の例では、点Aは中心線を構成する点であり、点Aを中心とする半径Rの円は極大円となる。点Cも同様である。   Returning to FIG. 11, when the center line extraction processing unit 1133 determines that the formula (1) is satisfied (Yes in S1223), the point i is set as a point forming the center line, and the radius Ri around the point i is the center. Is defined as the maximum circle (S1224). In the example of FIG. 19A, the point A is a point forming the center line, and a circle centered on the point A and having a radius R is a maximum circle. The point C is also the same.

図11に戻り、次に、中心線抽出処理部1133は、順ラスターの走査が終了したか(距離値が「1」より大きい点を全て走査し終えたか)否かを判定する(S1225)。   Returning to FIG. 11, next, the center line extraction processing unit 1133 determines whether or not the scanning of the forward raster is completed (all the points whose distance values are larger than “1” have been completed) (S1225).

中心線抽出処理部1133は、順ラスターの走査が終了したと判定したとき(S1225でYes)、中心線を構成する点をつなげることで、中心線を形成する(S1226)。すなわち、中心線抽出処理部1133は、距離値が「1」より大きい点Aを中心とする円が、距離値が「1」より大きい他の点(例えば点B)を中心とする円に対して囲まれない円のとき、点Aの集合を候補領域画像の中心線として抽出する。   When the center line extraction processing unit 1133 determines that the scanning of the forward raster is completed (Yes in S1225), the center line is formed by connecting the points forming the center line (S1226). That is, the centerline extraction processing unit 1133 determines that a circle centered on the point A having a distance value larger than “1” is a circle centered on another point having a distance value larger than “1” (for example, point B). When the circle is not enclosed, the set of points A is extracted as the center line of the candidate area image.

そして、中心線抽出処理部1133は、中心線を構成する各点について、下記のルールに基づき、4種類に分類する(S1226)。   Then, the centerline extraction processing unit 1133 classifies each point forming the centerline into four types based on the following rules (S1226).

1)端点:輪郭線と一致するすべての点が連結しているような極大円の中心
2)分岐点:3つ以上の分離した連結部分が輪郭線と接するような極大円の中心
3)枝:両端が端点又は分岐点であり、点の集合で構成される線分
4)円中心:輪郭線の一部と一致するような極大円の中心
1) End point: the center of a maximal circle where all the points that coincide with the contour line are connected 2) Branch point: The center of the maximal circle where three or more separate connecting parts are in contact with the contour line 3) Branch : A line segment consisting of a set of points, both ends of which are end points or bifurcation points.

図19(B)は、ある領域内の端点Tと分岐点Bの例を表す図である。端点については、上記1)のように定義されるが、言い換えると、例えば、輪郭線と接している極大円の中心点である。図19(B)に示すように、点Tはいずれも、輪郭線と接する極大円の中心点となっている。   FIG. 19B is a diagram illustrating an example of an end point T and a branch point B in a certain area. The end point is defined as in 1) above, but in other words, it is, for example, the center point of the maximum circle in contact with the contour line. As shown in FIG. 19B, each of the points T is the center point of the maximum circle that is in contact with the contour line.

また、分岐点は、上記2)のように定義されるが、言い換えると、例えば、輪郭線と接する点が3か所以上ある極大円の中心点である。図19(B)に示すように、点Bの極大円はいずれも3か所で輪郭線と接している。   The branch point is defined as in 2) above, but in other words, it is the center point of a maximal circle having three or more points in contact with the contour line, for example. As shown in FIG. 19B, the maximum circles at the point B are in contact with the contour line at all three points.

さらに、図19(B)の例では、線分TBや線分BBは、いずれも両端が端点又は分岐点となっているため、枝である。   Further, in the example of FIG. 19B, the line segment TB and the line segment BB are both branches because both ends are end points or branch points.

さらに、図19(C)は、円中心Cの例を表す図である。図19(C)に示すように点Cの極大円は、輪郭線の一部と一致しており、その中心Cは円中心となり得る。   Further, FIG. 19C is a diagram showing an example of the center C of the circle. As shown in FIG. 19C, the maximum circle at the point C coincides with a part of the contour line, and its center C can be the center of the circle.

なお、中心線は、例えば、このように分類された各点の集合と考えることができる。   The centerline can be considered as a set of points classified in this way, for example.

図11に戻り、中心線抽出処理部1133は、中心線を構成する点を4種類に分類すると(S1226)、中心線抽出処理を終了する(S1227)。   Returning to FIG. 11, the centerline extraction processing unit 1133 classifies the points forming the centerline into four types (S1226), and ends the centerline extraction processing (S1227).

一方、中心線抽出処理部1133は、順ラスター走査が終了していないとき(S1225でNo)、S1222へ移行して、順ラスター走査が終了するまで、S1222以降の処理を行う。   On the other hand, when the forward raster scan is not finished (No in S1225), the centerline extraction processing unit 1133 moves to S1222 and performs the processes of S1222 and subsequent steps until the forward raster scan is finished.

一方、ある点iの円が、点i以外の任意の点jに対して式(1)が成立しないとき(S1223でNo)、そのような点iを中心とする円は他の任意の点jを中心とする円に囲まれる。そのため、中心線抽出処理部1133は、そのような点iを中心線と定義することははせず、また、その点iを中心とする円は極大円とは定義することもせず、S1225へ移行する。   On the other hand, when the circle of a certain point i does not hold the formula (1) for any point j other than the point i (No in S1223), the circle centered on such a point i is another arbitrary point. It is surrounded by a circle centered on j. Therefore, the centerline extraction processing unit 1133 does not define such a point i as a centerline, and does not define a circle centered on the point i as a maximum circle, and proceeds to S1225. Transition.

なお、距離変換(S1221)の際に、三次元の例について説明した。中心線抽出処理(S1222からS1226)についても三次元の例でも実施可能となる。   The three-dimensional example has been described in the distance conversion (S1221). The centerline extraction processing (S1222 to S1226) can also be performed in a three-dimensional example.

この場合、S1222では、中心線抽出処理部1133は、距離変換後の画像に対して、順ラスター走査で距離値が「1」より大きい点iについて、点iの距離値Rを半径に持つ球を定義し、距離値が「1」の点は輪郭面を構成する点と定義する。   In this case, in step S1222, the center line extraction processing unit 1133 has a radius of the distance value R of the point i with respect to the point i whose distance value is larger than “1” in the forward raster scan with respect to the image after the distance conversion. And a distance value of "1" is defined as a point forming the contour surface.

また、S1223では、中心線抽出処理部1133は、点iを中心にした半径Rの球が、点i以外の任意の点jの球に対して、式(1)が成立するか否かを判定する。   Further, in S1223, the centerline extraction processing unit 1133 determines whether or not the sphere having the radius R centered on the point i satisfies the formula (1) for the sphere at any point j other than the point i. judge.

そして、中心線抽出処理部1133は、式(1)が成立するとき(S1223でYes)、点iを中心とする半径Riの球を極大球と定義する(S1225)。さらに、S1226で、中心線抽出処理部1133は、中心線を構成する点(S1224)を、つなげることで中心線を形成し、中心線を構成する点を4種類に分類する(S1226)。   Then, when the expression (1) is satisfied (Yes in S1223), the centerline extraction processing unit 1133 defines a sphere having a radius Ri centered on the point i as a maximum sphere (S1225). Further, in S1226, the centerline extraction processing unit 1133 forms a centerline by connecting the points forming the centerline (S1224), and classifies the points forming the centerline into four types (S1226).

この場合、中心線抽出処理部1133は、二次元の例では輪郭線と極大円としたものを、三次元では輪郭面や極大球として、4種類に分類すればよい。   In this case, the centerline extraction processing unit 1133 may classify the contour line and the maximum circle in the two-dimensional example into four types as the contour surface and the maximum sphere in the three-dimensional case.

中心線抽出処理部1133は、例えば、中心線を構成する各点の情報、分類した各点の情報などを、中心線分割部1134へ出力する。   The centerline extraction processing unit 1133 outputs, for example, information on each point forming the centerline and information on each classified point to the centerline dividing unit 1134.

以上が中心線抽出処理の動作例(S1220〜S1227)である。   The above is the operation example (S1220 to S1227) of the center line extraction processing.

図10に戻り、気管支領域分割部113は、中心線抽出処理(S122)を終了すると、中心線を分割する(S123)。例えば、中心線分割部1134は、中心線を構成する各点の情報、分類した各点の情報などに基づいて、分岐点を中心にして中心線を枝に分割する。図8(A)の例では、中心線分割部1134は、分岐点b1を中心にして、中心線を、枝a1b1と、枝b1c、及枝b1d1に分割する。枝a1b1,枝b1c,及び枝b1d1は、例えば、分割された各中心線でもある。中心線分割部1134は、分割した各枝の情報、各枝を構成する各点の情報などを、角度算出部1135へ出力する。   Returning to FIG. 10, the bronchus region dividing unit 113 divides the center line (S123) after finishing the center line extraction processing (S122). For example, the centerline dividing unit 1134 divides the centerline into branches with the branch point as the center, based on information on each point forming the centerline, information on each classified point, and the like. In the example of FIG. 8A, the center line dividing unit 1134 divides the center line into a branch a1b1, a branch b1c, and a branch b1d1 around the branch point b1. The branch a1b1, the branch b1c, and the branch b1d1 are, for example, the respective divided center lines. The center line division unit 1134 outputs information on each divided branch, information on each point forming each branch, and the like to the angle calculation unit 1135.

図10に戻り、次に、気管支領域分割部113は、分割した各枝に対して直線近似を行い、近似した直線に対して角度を検出する(S124)。例えば、角度算出部1135は、直線近似について以下の処理を行う。   Returning to FIG. 10, next, the bronchial region dividing unit 113 performs linear approximation on each of the divided branches and detects an angle with respect to the approximated straight line (S124). For example, the angle calculation unit 1135 performs the following process for linear approximation.

すなわち、角度算出部1135は、中心線分割部1134で分割した各枝を構成する各点に対して、最小二乗法を適用して、各枝に近似した直線を生成する。具体的には、角度算出部1135は、枝を構成する各点(x,y)に対して、最小二乗法を適用して、二次方程式y=ax+bの傾きaとy切片bを以下の式を利用して算出し、二次方程式を生成することで、枝に近似した直線を生成する。   That is, the angle calculation unit 1135 applies the least-squares method to each point constituting each branch divided by the center line division unit 1134 to generate a straight line approximate to each branch. Specifically, the angle calculation unit 1135 applies the least squares method to each point (x, y) forming the branch, and calculates the slope a and the y intercept b of the quadratic equation y = ax + b as follows. A straight line that approximates a branch is generated by using a formula and calculating a quadratic equation.

式(2)と式(3)で、xi,yiは中心線を構成する各点(x,y)の位置、x(-),y(-)は、各点(x,y)の平均値を夫々表す。   In equations (2) and (3), xi and yi are the positions of the points (x, y) that make up the center line, and x (-) and y (-) are the averages of the points (x, y). Represent each value.

式(2)と式(3)の例は、各点(x,y)が二次元座標で表された例である。中心線を構成する点が(x,y,z)のように三次元座標で表される例もある。   The examples of the formulas (2) and (3) are examples in which each point (x, y) is represented by two-dimensional coordinates. In some cases, the points forming the center line are represented by three-dimensional coordinates such as (x, y, z).

図20(A)は、中心線を構成する各点A〜Eが三次元座標で表された場合の例を表す。三次元座標の場合、角度算出部1135は、各点(x,y,z)を極座標系(r,θ、φ)へ変換し、(θ,φ)空間における各枝の最頻値を算出することで、(θ,φ)空間における直線近似を行う。角度算出部1135は、以下の式を用いて、極座標系への変換を行う。   FIG. 20A shows an example in which each of the points A to E forming the center line is represented by three-dimensional coordinates. In the case of three-dimensional coordinates, the angle calculation unit 1135 converts each point (x, y, z) into a polar coordinate system (r, θ, φ) and calculates the mode value of each branch in the (θ, φ) space. By doing so, the linear approximation in the (θ, φ) space is performed. The angle calculation unit 1135 performs conversion into a polar coordinate system using the following formula.

図20(B)は、このようにして算出されたある枝の極座標点の例を表す図である。図20(B)の場合、角度算出部1135は、最頻値として、(θ,φ)=(45度,30度)を算出する。そして、角度算出部1135は、(θ,φ)空間においては、(45度,30度)とする直線により、直線近似を行う。   FIG. 20B is a diagram showing an example of polar coordinate points of a branch calculated in this way. In the case of FIG. 20B, the angle calculation unit 1135 calculates (θ, φ) = (45 degrees, 30 degrees) as the mode value. Then, the angle calculation unit 1135 performs, in the (θ, φ) space, a linear approximation with a straight line that is (45 degrees, 30 degrees).

なお、三次元座標(x,y,z)についても、二次元座標の場合と同様に、最小二乗法を利用して、直線近似を行ってもよい。この場合、角度算出部1135は、主成分分析(PCA:Principal Component Analysis)を用いた公知の手法を利用して、各三次元座標点からの垂直距離が最小となる直線を算出することで、近似した直線を得ることが可能である。   As for the three-dimensional coordinates (x, y, z), the linear approximation may be performed using the least squares method as in the case of the two-dimensional coordinates. In this case, the angle calculation unit 1135 calculates the straight line that minimizes the vertical distance from each three-dimensional coordinate point by using a known method using principal component analysis (PCA). It is possible to obtain an approximate straight line.

以上が、直線近似の例である。直線近似の例は、上述した最小二乗法や最頻値を求める方法以外の公知の方法で行われてもよい。なお、角度算出部1135は、例えば、内部メモリに式(2)から式(6)を記憶し、処理の際に読み出して、各点の位置を代入することで、近似した直線を得る。   The above is an example of linear approximation. An example of the linear approximation may be performed by a known method other than the method of least squares or the method of determining the mode value described above. Note that the angle calculation unit 1135 stores, for example, the equations (2) to (6) in the internal memory, reads them at the time of processing, and substitutes the position of each point to obtain an approximated straight line.

次に、角度算出部1135は、直線の角度を算出する。   Next, the angle calculation unit 1135 calculates the angle of the straight line.

図21(A)は、近似直線の例を表す図である。図21(A)において、枝a1b1は、直線abで近似され、枝b1cは直線bcで近似され、枝b1d1は、直線bdで近似される。角度算出部1135は、例えば、以下のようにして角度を算出する。   FIG. 21A is a diagram showing an example of an approximate straight line. In FIG. 21A, the branch a1b1 is approximated by the straight line ab, the branch b1c is approximated by the straight line bc, and the branch b1d1 is approximated by the straight line bd. The angle calculation unit 1135 calculates the angle as follows, for example.

すなわち、角度算出部1135は、枝を構成する各点が二次元座標で表されている場合、式(2)で算出した各近似直線の傾きaに基づいて、角度を算出する。具体的には、図21(A)の例では、直線abの傾きをa2、直線bdの傾きをa3、2つの直線のなす角度をθ1(0≦θ1≦π/2)とすると、角度算出部1135は、以下の式を用いて、角度θ1を算出する。   That is, the angle calculation unit 1135 calculates the angle based on the slope a of each approximate straight line calculated by the equation (2) when each point forming the branch is represented by two-dimensional coordinates. Specifically, in the example of FIG. 21A, if the inclination of the straight line ab is a2, the inclination of the straight line bd is a3, and the angle formed by the two straight lines is θ1 (0 ≦ θ1 ≦ π / 2), the angle calculation is performed. The unit 1135 calculates the angle θ1 using the following formula.

図21(A)の例に示すように、角度算出部1135は、他の直線bcと直線bdに対しても、直線bcの傾きをa2、直線bdの傾きをa3とし、式7を利用して、θ1を角度θ2として、角度θ2を算出する。   As shown in the example of FIG. 21A, the angle calculation unit 1135 sets the slope of the straight line bc as a2 and the slope of the straight line bd as a3 with respect to the other straight lines bc and bd, and uses Expression 7. Then, the angle θ2 is calculated with the angle θ1 as the angle θ2.

なお、角度算出部1135は、枝を構成する各点が三次元座標で表されている場合、算出した(θ,φ)の最頻値を、そのまま直線の角度として用いてもよい。また、角度算出部1135は、枝を構成する各点が三次元座標で表され、最小二乗法で近似直線を算出した場合、式(7)を用いて、角度を算出する。   Note that the angle calculation unit 1135 may use the calculated most frequent value of (θ, φ) as the angle of the straight line when each point forming the branch is represented by three-dimensional coordinates. In addition, the angle calculation unit 1135 calculates the angle using Expression (7) when each point forming the branch is represented by three-dimensional coordinates and the approximate straight line is calculated by the least squares method.

角度算出部1135は、例えば、内部メモリに式(7)を記憶し、処理の際に読み出して、直線の傾きを式(7)に代入することで、角度θを得る。角度算出部1135は、算出した角度に関する情報、各直線に関する情報などをラベリング部1136へ出力する。   The angle calculation unit 1135 obtains the angle θ by, for example, storing the formula (7) in the internal memory, reading it at the time of processing, and substituting the slope of the straight line into the formula (7). The angle calculation unit 1135 outputs information regarding the calculated angle, information regarding each straight line, and the like to the labeling unit 1136.

図10に戻り、次に、気管支領域分割部113は、ラベリングを行う(S125)。例えば、ラベリング部1136は、算出した角度(S124)に基づいて、各直線(又は各枝)を気管支又は蜂巣肺にラベリングする。   Returning to FIG. 10, next, the bronchial region dividing unit 113 performs labeling (S125). For example, the labeling unit 1136 labels each straight line (or each branch) on the bronchus or honeycomb based on the calculated angle (S124).

図21(B)は、ラベリングの例を表す図である。例えば、ラベリング部1136は、S124で算出した角度θが、閾値θth以下のとき、直線を気管支とラベリングし、角度θが閾値θthより大きいとき、直線を蜂巣肺とラベリングする。   FIG. 21B is a diagram showing an example of labeling. For example, the labeling unit 1136 labels the straight line with the bronchus when the angle θ calculated in S124 is less than or equal to the threshold θth, and labels the straight line with the honeycomb lung when the angle θ is greater than the threshold θth.

これは、例えば、図5(B)や図6(B)で説明したように、気管支は中枢方向から末梢方向へ又は末梢方向から中枢方向へ向けて分布しているのに対して、蜂巣肺は、肺の輪郭に沿って分布していることに基づいている。例えば、2つの気管支がある場合、気管支の分布を近似した2つの直線の角度は、ほぼ同じ角度となる。一方で、一方が気管支で他方が蜂巣肺のとき、例えば、2つの近似した直線の角度は、大きく異なり、90度に近い角度となる場合がある。このような気管支と蜂巣肺の分布の相違を考慮して、例えば、閾値θthを設定すればよい。   This is because, for example, as described in FIG. 5 (B) and FIG. 6 (B), the bronchi are distributed from the central direction to the peripheral direction or from the peripheral direction to the central direction. Is based on being distributed along the contour of the lung. For example, when there are two bronchi, the angles of the two straight lines that approximate the distribution of the bronchi are almost the same. On the other hand, when one is a bronchus and the other is a cell lung, for example, the angles of the two approximated straight lines may be greatly different and may be close to 90 degrees. The threshold value θth may be set, for example, in consideration of such a difference in distribution between the bronchi and the honeycomb lung.

図21(A)の例では、ラベリング部1136は、直線abに対して、直線bdとのなす角度θ1は閾値θth以上のため、直線abは蜂巣肺とラベリングする。この場合、ラベリング部1136は、例えば、一方の直線abを蜂巣肺と判定したときは、他方の直線bdを気管支とラベリングしてもよい。直線bcと直線bdとの関係も、ラベリング部1136は、直線bcに対して、直線bdとの角度θ2は閾値θth以上のため、直線bcは蜂巣肺、直線bdは気管支とラベリングする。   In the example of FIG. 21A, the labeling unit 1136 labels the straight line ab with the honeycomb because the angle θ1 formed by the straight line bd and the straight line bd is equal to or greater than the threshold value θth. In this case, the labeling unit 1136 may label the other straight line bd with the bronchus when determining the one straight line ab as the honeycomb lung. Regarding the relationship between the straight line bc and the straight line bd, the labeling unit 1136 labels the straight line bc with the honeycomb lung and the straight line bd with the bronchus because the angle θ2 with the straight line bd is greater than or equal to the threshold value θth.

なお、図21(A)の例で、例えば、直線abと直線bdとのなす角度θ1が閾値θ以下のとき、ラベリング部1136は、直線abは気管支と判定して、直線abと直線bdとを気管支とラベリングする。この場合、後述する領域分割部1137では、例えば、気管支と判別した2つの直線abと直線bdを含む領域に対しては、領域分割をしなくてもよい。   In the example of FIG. 21A, for example, when the angle θ1 formed by the straight line ab and the straight line bd is less than or equal to the threshold value θ, the labeling unit 1136 determines that the straight line ab is a bronchus, and the straight line ab and the straight line bd. Label the bronchus. In this case, the area dividing unit 1137 described later does not need to perform area division on the area including the two straight lines ab and bd determined to be the bronchus.

なお、枝を構成する各点が三次元座標で表されている場合、ラベリング部1136は、最小二乗法で直線を近似したときは、二次元座標の場合と同様に閾値θth判定で、各直線をラベリングする。また、ラベリング部1136は、例えば、(θ,φ)の最頻値を算出した場合は、以下のようにしてラベリングを行う。すなわち、ラベリング部1136は、最頻値(θ,φ)について、θが閾値θthよりも小さく、かつ、φが閾値φthよりも小さいとき、(θ,φ)で表された直線を、気管支とラベリングし、それ以外のとき、蜂巣肺とラベリングする。   When each point forming the branch is represented by three-dimensional coordinates, when the labeling unit 1136 approximates a straight line by the method of least squares, each straight line is determined by the threshold value θth as in the case of the two-dimensional coordinate. Label. In addition, for example, when the mode value of (θ, φ) is calculated, the labeling unit 1136 performs labeling as follows. That is, regarding the mode (θ, φ), the labeling unit 1136 defines the straight line represented by (θ, φ) as the bronchus when θ is smaller than the threshold θth and φ is smaller than the threshold φth. Label, otherwise label the lungs.

図10に戻り、次に、気管支領域分割部113は、領域分割を行う(S126)。   Returning to FIG. 10, the bronchial region dividing unit 113 then divides the region (S126).

図22は、領域分割の例を表す図である。図22の例を用いて説明すると、領域分割部1137は、例えば、以下のようにして領域分割を行う。   FIG. 22 is a diagram illustrating an example of area division. Explaining using the example of FIG. 22, the area division unit 1137 performs area division as follows, for example.

すなわち、領域分割部1137は、二値化画像生成部1130から候補領域の二値化画像を受け取り、二値化画像で境界領域(「0」から「255」へ変化する画素)と、直線bcとの交点eを算出する。領域分割部1137は、二値化画像の境界領域の画素のうち、直線bcを表す二次方程式を満たす画素(x,y)を、交点eとしてもよい。また、領域分割部1137は、同様にして、直線abと、二値化画像での境界領域との交点fを算出する。そして、領域分割部1137は、直線abと直線bcとの交点gに対して、直線geと直線gfにより、候補領域を蜂巣肺領域と気管支領域とに分割する。   That is, the area division unit 1137 receives the binarized image of the candidate area from the binarized image generation unit 1130, and in the binarized image, the boundary area (pixels changing from “0” to “255”) and the straight line bc. The intersection e with is calculated. The area dividing unit 1137 may set the pixel (x, y) satisfying the quadratic equation representing the straight line bc among the pixels in the boundary area of the binarized image as the intersection point e. Further, the area dividing unit 1137 similarly calculates the intersection f of the straight line ab and the boundary area in the binarized image. Then, the region dividing unit 1137 divides the candidate region into a honeycomb lung region and a bronchial region by the straight line ge and the straight line gf with respect to the intersection point g of the straight line ab and the straight line bc.

そして、領域分割部1137は、候補領域抽出部112から受け取った候補領域画像に対して、直線geと直線gfにより、候補領域を分割し、蜂巣肺とラベリングした直線abと直線bcを含む領域を、蜂巣肺領域として抽出する。一方、領域分割部1137は、直線geと直線gfにより、候補領域を分割し、気管支とラベリングした直線bdを含む領域を、気管支領域として抽出する。   Then, the region dividing unit 1137 divides the candidate region with respect to the candidate region image received from the candidate region extracting unit 112 by the straight line ge and the straight line gf, and divides the region including the honeycomb lung, the labeled straight line ab, and the straight line bc. , And extract as a honeycomb lung region. On the other hand, the region dividing unit 1137 divides the candidate region by the straight line ge and the straight line gf, and extracts a region including the bronchus and the labeled straight line bd as the bronchus region.

或いは、領域分割部1137は、候補領域抽出部112から受け取った候補領域画像に対して、端点a1を開始点として、公知の領域拡大法を用いて、直線geと直線gfまで、領域を拡大して、拡大した領域を蜂巣肺領域としてもよい。また、領域分割部1137は、端点d1(又は分岐点d1)を開始点として、公知の領域拡大法を用いて、直線geと直線gfまで、領域を拡大して、拡大した領域を気管支領域としてもよい。領域拡大法は、例えば、開始点から開始して、ある一定の基準を満たす点などを領域に含めるようにして、一定基準を満たす領域を拡大する方法である。   Alternatively, the area dividing unit 1137 expands the area of the candidate area image received from the candidate area extracting unit 112 to a straight line ge and a straight line gf using a known area expanding method with the end point a1 as a start point. Then, the enlarged area may be used as the honeycomb area. In addition, the area dividing unit 1137 expands the area up to the straight line ge and the straight line gf using the known area expansion method with the end point d1 (or the branching point d1) as a start point, and the expanded area as the bronchial area. Good. The area expansion method is, for example, a method of starting from a start point and including a point or the like satisfying a certain fixed criterion in the area to enlarge the area satisfying the certain criterion.

領域分割部1137は、例えば、候補領域から気管支領域を除いた肺野領域の画像を、分布特徴抽出部114へ出力する。又は、領域分割部1137は、例えば、分割した気管支領域の画像を、分布特徴抽出部114へ出力してもよい。   The region division unit 1137 outputs, for example, an image of the lung field region excluding the bronchial region from the candidate region to the distribution feature extraction unit 114. Alternatively, the region division unit 1137 may output the divided image of the bronchial region to the distribution feature extraction unit 114, for example.

図10に戻り、気管支領域分割部113は、領域を分割する(S126)と、気管支領域抽出処理を終了する(S127)。   Returning to FIG. 10, when the bronchial region dividing unit 113 divides the region (S126), the bronchial region extracting process ends (S127).

図9に戻り、辞書登録モジュール110は、気管支領域抽出処理(S12)を終了すると、陰影識別を行い(S13)、分布特徴を抽出する(S14)。   Returning to FIG. 9, upon completion of the bronchial region extraction processing (S12), the dictionary registration module 110 performs shadow identification (S13) and extracts distribution characteristics (S14).

例えば、分布特徴抽出部114は、気管支領域分割部113から出力された肺野領域の画像所定画素範囲毎に格子領域に分割し、格子領域毎に、正常な画像か、異常な画像かを識別する。分布特徴抽出部114は、例えば、SVM(Support Vector Machine)を用いて、正常か異常かを識別してもよい。   For example, the distribution feature extraction unit 114 divides the lung field image output from the bronchial region division unit 113 into lattice regions for each predetermined pixel range, and identifies each lattice region as a normal image or an abnormal image. To do. The distribution feature extraction unit 114 may identify whether it is normal or abnormal by using, for example, SVM (Support Vector Machine).

SVMは、例えば、教師あり学習を用いるパターン認識モデルの1つである。例えば、辞書登録モジュール110は、正常な格子の画像と、異常な格子の画像とを教師データとして、内部メモリに保持し、入力した格子状の肺野画像について、教師データを用いて正常か否かを判定する。   SVM is, for example, one of pattern recognition models using supervised learning. For example, the dictionary registration module 110 holds an image of a normal lattice and an image of an abnormal lattice in the internal memory as teacher data, and uses the teacher data to determine whether the input lattice-shaped lung field image is normal. To determine.

そして、例えば、分布特徴抽出部114は、分布特徴として、ヒストグラムを作成(又は抽出)する。分布特徴抽出部114は、異常と識別した格子領域の数を、特徴量とするヒストグラムを作成する。ヒストグラムの例としては、図3(B)がある。   Then, for example, the distribution feature extraction unit 114 creates (or extracts) a histogram as the distribution feature. The distribution feature extraction unit 114 creates a histogram in which the number of grid regions identified as abnormal is a feature amount. FIG. 3B is an example of the histogram.

図9に戻り、辞書登録モジュール110は、特徴抽出処理を終了する(S15)。   Returning to FIG. 9, the dictionary registration module 110 ends the feature extraction processing (S15).

辞書登録モジュール110は、作成したヒストグラムを、特徴量辞書DB120へ記憶する。   The dictionary registration module 110 stores the created histogram in the feature dictionary DB 120.

図9に示す処理は、上述したように検索モジュール130でも行われる。検索モジュール130の特徴量抽出部131も、分布特徴としてヒストグラムを作成して、照合処理部135へ出力する。   The processing illustrated in FIG. 9 is also performed by the search module 130 as described above. The feature amount extraction unit 131 of the search module 130 also creates a histogram as a distribution feature and outputs it to the matching processing unit 135.

<2.検索処理>
図23は、検索処理の例を表すフローチャートである。
<2. Search process>
FIG. 23 is a flowchart showing an example of the search process.

検索モジュール130は、処理を開始すると(S20)、クエリ画像をCT画像撮像装置300から入力する(S21)。   Upon starting the processing (S20), the search module 130 inputs a query image from the CT image capturing apparatus 300 (S21).

次に、検索モジュール130は、特徴抽出処理を行う(S10)。検索モジュール130は、辞書登録モジュール110における特徴抽出処理(図9のS10からS15)と同一の処理を行い、クエリ画像に対して、ヒストグラムを作成する。   Next, the search module 130 performs a feature extraction process (S10). The search module 130 performs the same processing as the feature extraction processing (S10 to S15 in FIG. 9) in the dictionary registration module 110, and creates a histogram for the query image.

次に、検索モジュール130は、照合処理を行う(S22)。例えば、照合処理部135は、クエリ画像に対するヒストグラムに対して、一定の範囲にあるCT画像のヒストグラムを抽出する。一定の範囲としては、例えば、ヒストグラムにおける各位置において、異常と識別された格子領域数が同じ又は一定の範囲内(±1や±2など)などがある。例えば、照合処理部135は、公知の手法を用いて、クエリ画像のヒストグラムに対して類似度を判別して、その類似度と一定の範囲内にある、CT画像のヒストグラムを抽出してもよい。照合処理部135は、照合結果を、UI140へ出力する。   Next, the search module 130 performs collation processing (S22). For example, the matching processing unit 135 extracts a histogram of CT images in a certain range from the histogram of the query image. As the fixed range, for example, at each position in the histogram, the number of lattice areas identified as abnormal is the same or within a fixed range (± 1, ± 2, etc.). For example, the matching processing unit 135 may use a known method to determine the similarity with respect to the histogram of the query image, and extract the histogram of the CT image that is within a certain range with the similarity. .. The matching processing unit 135 outputs the matching result to the UI 140.

次に、画像検索装置100は、検索結果を表示する(S23)。例えば、UI140は、照合結果として、クエリ画像とともに、クリエ画像のヒストグラムと一定の範囲内にあるヒストグラムを有するCT画像を、モニタ141に表示する。   Next, the image search device 100 displays the search result (S23). For example, the UI 140 displays, on the monitor 141, the query image and the CT image having the histogram of the CLIE image and the histogram within a certain range as the matching result.

そして、画像検索装置100は、検索処理を終了する(S24)。   Then, the image search device 100 ends the search process (S24).

例えば、医師は、検索結果が表示されたモニタ141を見ながら、陰影の診断を行い、症例判断を行う。   For example, a doctor diagnoses a shadow and judges a case while looking at the monitor 141 on which the search result is displayed.

このように、本第1の実施の形態における画像検索装置100では、気管支と蜂巣肺の分布の性質が異なることに着目し、その性質を利用して気管支と蜂巣肺の各領域を分割する。具体的には、画像検索装置100では、候補領域画像から二値化画像を生成し、二値化画像から中心線を抽出し、分岐点を中心にして中心線を分割して、分割した各中心線(又は各枝)の角度を算出する。そして、画像検索装置100では、その角度が閾値θth以下のとき、分割した中心線は気管支、その角度が閾値θthより大きいとき、分割した中心線は蜂巣肺と判定する(図10のS125、図21(B))。   As described above, in the image search device 100 according to the first embodiment, attention is paid to the fact that the distribution characteristics of the bronchus and the honeycomb lung are different, and the respective regions of the bronchus and the honeycomb lung are divided by utilizing the characteristics. Specifically, the image search device 100 generates a binarized image from the candidate region image, extracts a centerline from the binarized image, divides the centerline around the branch point, and divides each divided line. Calculate the angle of the centerline (or each branch). Then, in the image search apparatus 100, when the angle is equal to or smaller than the threshold value θth, the divided center line is determined to be bronchus, and when the angle is larger than the threshold value θth, the divided center line is determined to be the honeycomb structure (S125 in FIG. 10, FIG. 21 (B)).

図24は、領域拡大法を利用して、気管支領域を分割する例を表す図である。領域拡大法は、例えば、上述したように、開始点から一定の基準内にある画素又は小領域を領域に追加して、領域を拡大する方法である。図24の例では、開始点として、喉元、一定の基準として、喉元からの距離が30cmの範囲内、とし、この範囲内にある画素又は小領域を気管支領域とする。この場合、図24に示すように、領域拡大法によって、喉元から30cmの範囲内が気管支領域と判定される。   FIG. 24 is a diagram illustrating an example of dividing a bronchial region using the region expansion method. The area expansion method is, for example, a method of expanding the area by adding pixels or small areas within a certain reference from the start point to the area as described above. In the example of FIG. 24, the starting point is the throat, and the constant reference is within a range of 30 cm from the throat, and pixels or small areas within this range are the bronchial areas. In this case, as shown in FIG. 24, a region within 30 cm from the throat is determined as the bronchial region by the region expansion method.

しかし、蜂巣肺によって、気管支が牽引性細気管支拡張となる場合がある。また、気管支の領域は個人差や変形が生じる場合がある。このような場合、気管支が喉元から30cmとはならず、図24に示すように34cmまで伸びる場合がある。この場合、領域拡大法では、喉元から30cmから34cmまでの領域を、気管支領域ではなく蜂巣肺領域であると誤判定する場合がある。   However, the honeycomb may cause the bronchi to become tractive bronchiectasis. In addition, the bronchial region may have individual differences or deformation. In such a case, the bronchus may not extend from the throat to 30 cm, but may extend to 34 cm as shown in FIG. In this case, in the area expansion method, the area from 30 cm to 34 cm from the throat may be erroneously determined to be the honeycomb lung area instead of the bronchial area.

そこで、本第1の実施の形態では、気管支と蜂巣肺の分布の性質の相違を考慮して、分割した各中心線の角度に基づいて、気管支領域と蜂巣肺領域とを判定している。そのため、本画像検索装置100では、このような分布の相違に基づいて、気管支と蜂巣肺の各領域を分割しているため、領域拡大法を用いる場合と比較して、気管支と蜂巣肺の各領域を正確に分割することが可能となる。   Therefore, in the first embodiment, the bronchus region and the honeycomb lung region are determined based on the angles of the respective divided center lines in consideration of the difference in the distribution characteristics of the bronchus and the honeycomb lung. Therefore, since the image search apparatus 100 divides each region of the bronchus and the honeycomb lung based on such a difference in distribution, each region of the bronchus and the honeycomb lung is compared with the case where the region expansion method is used. It is possible to divide the area accurately.

従って、例えば、本画像検索装置100は、喉元から30cmから34cmまでを蜂巣肺領域ではなく気管支領域と判定して、この部分が気管支領域となっている類似症例を検索することが可能となる。よって、本画像検索装置100は、類似症例の検索精度を向上させることが可能となる。また、類似症例の検索精度が向上することで、例えば、医師の画像診断業務も効率化を図ることも可能となる。   Therefore, for example, the image search device 100 can determine that 30 cm to 34 cm from the throat is the bronchial region instead of the honeycomb lung region, and can search for similar cases in which this part is the bronchial region. Therefore, the image search device 100 can improve the search accuracy of similar cases. Further, since the search accuracy of similar cases is improved, it is possible to improve the efficiency of doctors' image diagnosis work, for example.

[その他の実施の形態]
図25は、画像検索装置100のハードウェア構成例を表す図である。
[Other Embodiments]
FIG. 25 is a diagram illustrating a hardware configuration example of the image search device 100.

画像検索装置100は、CPU(Central Processing Unit)160、IF(Interface)161、ROM(Read Only Memory)162、RAM(Random Access Memory)163、メモリ164、モニタ141、及びキーボード142を備える。   The image search apparatus 100 includes a CPU (Central Processing Unit) 160, an IF (Interface) 161, a ROM (Read Only Memory) 162, a RAM (Random Access Memory) 163, a memory 164, a monitor 141, and a keyboard 142.

CPU160は、例えば、ROM162に記憶されたプログラムを読み出して、RAM163にロードし、ロードしたプログラムを実行することで、辞書登録モジュール110と検索モジュール130の機能を実現する。CPU160は、例えば、辞書登録モジュール110と検索モジュール130に対応する。   The CPU 160 realizes the functions of the dictionary registration module 110 and the search module 130 by, for example, reading a program stored in the ROM 162, loading the program into the RAM 163, and executing the loaded program. The CPU 160 corresponds to, for example, the dictionary registration module 110 and the search module 130.

なお、CPU160に代えて、MPU(Micro Processing Unit)やDSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)などのプロセッサやコントローラなどが用いられてもよい。   Instead of the CPU 160, a processor such as an MPU (Micro Processing Unit), a DSP (Digital Signal Processor), an FPGA (Field Programmable Gate Array), a controller, or the like may be used.

IF161は、画像DB200からCT画像の画像データを入力し、入力した画像データをCPU160へ出力する。また、IF161は、CT画像撮像装置300からクエリ画像の画像データを入力し、入力した画像データをCPU160へ出力する。IF161は、例えば、辞書登録モジュール110と検索モジュール130に対応する。   The IF 161 inputs the image data of the CT image from the image DB 200 and outputs the input image data to the CPU 160. Further, the IF 161 inputs the image data of the query image from the CT image capturing apparatus 300 and outputs the input image data to the CPU 160. The IF 161 corresponds to, for example, the dictionary registration module 110 and the search module 130.

メモリ164は、例えば、特徴量辞書DB120に対応する。   The memory 164 corresponds to the feature amount dictionary DB 120, for example.

上述した第1の実施の形態の画像検索装置100は、例えば、クラウドサーバ装置として、検索結果を他の装置(例えば、クライアント装置)へ送信するようにしてもよい。図26は、この場合の画像検索装置100の構成例を表す図である。画像検索装置100は、更に、IF170を備える。IF170は、検索モジュール130から出力された検索結果を、他の装置へ送信する。IF170は、例えば、検索結果を有線方式のみならず無線方式で送信してもよい。図27は、この場合の画像検索装置100のハードウェア構成例を表す図である。IF161は、例えば、IF170に対応し、検索結果を他の装置へ送信すること可能である。   The image search device 100 according to the first embodiment described above may be a cloud server device, for example, and may transmit a search result to another device (for example, a client device). FIG. 26 is a diagram illustrating a configuration example of the image search device 100 in this case. The image search device 100 further includes an IF 170. The IF 170 transmits the search result output from the search module 130 to another device. The IF 170 may transmit the search result not only by a wired method but also by a wireless method. FIG. 27 is a diagram illustrating a hardware configuration example of the image search device 100 in this case. The IF 161 corresponds to the IF 170, for example, and can transmit the search result to another device.

上述した第1の実施の形態では、辞書登録モジュール110と検索モジュール130は、CT画像やクエリ画像の特徴量を抽出後、照合処理を行う例について説明した。例えば、辞書登録モジュール110と検索モジュール130は、特徴量を抽出しなくてもよい。この場合、検索モジュール130は、CT画像やクエリ画像をそのまま用いて照合処理を行ってもよい。この場合、辞書登録モジュール110の特徴量抽出部111では、分布特徴抽出部114がなく、気管支領域分割部113から出力される肺野領域の画像が特徴量辞書DB120に記憶される。また、検索モジュール130においても、特徴量抽出部131では分布特徴抽出部134がなく、気管支領域分割部133から出力される肺野領域の画像がそのまま照合処理部135へ出力される。照合処理部135は、CT画像の肺野画像とクエリ画像の肺野画像とを直線照合し、各画像の各画素の画素値(又はCT値)やある一定領域内に含まれる画素の画素値に基づいて、クエリ画像に類似するCT画像を検索してもよい。   In the above-described first embodiment, the example in which the dictionary registration module 110 and the search module 130 perform the matching process after extracting the feature amount of the CT image or the query image has been described. For example, the dictionary registration module 110 and the search module 130 do not have to extract the feature amount. In this case, the search module 130 may perform the matching process using the CT image or the query image as they are. In this case, the feature amount extraction unit 111 of the dictionary registration module 110 does not have the distribution feature extraction unit 114, and the image of the lung field output from the bronchial region division unit 113 is stored in the feature amount dictionary DB 120. Also in the search module 130, the feature amount extraction unit 131 does not have the distribution feature extraction unit 134, and the image of the lung field output from the bronchial region division unit 133 is output to the matching processing unit 135 as it is. The matching processing unit 135 performs a straight line matching between the lung field image of the CT image and the lung field image of the query image, and determines the pixel value (or CT value) of each pixel of each image or the pixel value of a pixel included in a certain fixed area. Based on, the CT image similar to the query image may be searched.

以上まとめると、付記のようになる。   The above is summarized as follows.

(付記1)
第1の画像から前記第1の画像に類似する第2の画像を検索する画像検索装置のコンピュータに実行させる画像検索プログラムであって、
被検体の肺野領域の断面画像である前記第1の画像から候補領域の画像を抽出し、
抽出した前記候補領域の画像の画素値を二値化した二値化画像を生成し、
前記二値化画像から前記候補領域の画像の中心線を抽出し、
前記中心線が分岐した分岐点で前記中心線を分割し、
分割した前記中心線の角度に基づいて、前記候補領域の画像を蜂巣肺の領域と気管支の領域とに分割し、
分割した前記気管支以外の肺野領域の画像又は分割した前記気管支の領域の画像に基づいて、前記第1の画像から前記第2の画像を検索する
処理を前記コンピュータに実行させる画像検索プログラム。
(Appendix 1)
An image search program to be executed by a computer of an image search device for searching a first image for a second image similar to the first image,
An image of the candidate region is extracted from the first image, which is a cross-sectional image of the lung field region of the subject,
Generating a binarized image in which the pixel values of the image of the extracted candidate area are binarized,
Extracting the center line of the image of the candidate region from the binarized image,
Divide the center line at a branch point where the center line branches,
Based on the angle of the divided center line, the image of the candidate region is divided into a honeycomb region and a bronchus region,
An image retrieval program that causes the computer to execute a process of retrieving the second image from the first image based on an image of a lung field region other than the divided bronchus or an image of the divided region of the bronchus.

(付記2)
前記角度が閾値以下のとき、前記気管支の領域、前記角度が閾値より大きいとき、前記蜂巣肺の領域と判定して、前記候補領域の画像を分割することを特徴とする付記1記載の画像検索プログラム。
(Appendix 2)
The image search according to Note 1, wherein when the angle is equal to or less than a threshold value, the bronchial area is determined, and when the angle is greater than the threshold value, the candidate lung area is determined and the image of the candidate area is divided. program.

(付記3)
前記分岐点で前記中心線を第1の中心線と第2の中心線に分割し、
前記第1の中心線に対して前記第2の中心線とのなす角度が閾値以下のとき、前記第1及び第2の中心線は気管支とラベリングし、前記第1の中心線に対して前記第2の中心線とのなす角度が閾値より大きいとき、前記第1の中心線は蜂巣肺、前記第2の中心線は気管支と夫々ラベリングし、蜂巣肺とラベリングした前記第1の中心線を含む領域を蜂巣肺の領域、気管支とラベリングした前記第2の中心線を含む領域を気管支の領域として、前記候補領域の画像を気管支の領域と蜂巣肺の領域とに分割する
ことを特徴とする付記2記載の画像検索プログラム。
(Appendix 3)
Dividing the center line into a first center line and a second center line at the branch point,
When the angle between the first centerline and the second centerline is less than or equal to a threshold value, the first and second centerlines label the bronchi, and the first centerline is labeled with respect to the first centerline. When the angle formed by the second center line is larger than a threshold value, the first center line is labeled with the honeycomb lung, the second center line is labeled with the bronchus, respectively, and the first center line labeled with the honeycomb lung is The image including the candidate region is divided into a bronchial region and a honeycomb lung region, with the region including the honeycomb lung region and the region including the second centerline labeled with the bronchus as the bronchus region. The image search program according to attachment 2.

(付記4)
前記第1の画像の画素値が−1000以下の画素を含む領域を前記候補領域の画像として抽出することを特徴とする付記1記載の画像検索プログラム。
(Appendix 4)
The image search program according to Note 1, wherein an area including pixels having a pixel value of −1000 or less in the first image is extracted as an image of the candidate area.

(付記5)
抽出した前記候補領域の画像の画素値を二値化して背景画像と前景画像を含む前記二値化画像を生成し、
前記二値化画像から、前記背景画像の各画素の画素値を、前記背景画像からの最短距離を表す距離値に変換し、前記距離値に基づいて前記候補領域の画像の中心線を抽出する
ことを特徴とする付記1記載の画像検索プログラム。
(Appendix 5)
Generate a binarized image including a background image and a foreground image by binarizing the pixel values of the extracted image of the candidate region,
From the binarized image, the pixel value of each pixel of the background image is converted into a distance value that represents the shortest distance from the background image, and the center line of the image of the candidate region is extracted based on the distance value. An image retrieval program according to appendix 1, characterized in that.

(付記6)
前記距離値が「1」より大きい第1の画素を中心とする第1の円又は球が、距離値が「1」より大きい第2の画素を中心とする第2の円又は球に対して夫々囲まれない円又は球のとき、前記第1の画素の集合を前記候補領域の画像の中心線として抽出することを特徴とする付記5記載の画像検索プログラム。
(Appendix 6)
The first circle or sphere centered on the first pixel having a distance value larger than “1” is compared to the second circle or sphere centered on the second pixel having a distance value larger than “1”. 6. The image retrieval program according to appendix 5, wherein when the circles or spheres are not enclosed, the first pixel set is extracted as the center line of the image of the candidate area.

(付記7)
前記第1の画素の距離値が、前記第2の画素の距離値よりも大きく、かつ、前記第1の画素と前記第2の画素との距離が前記第1の画素の距離値よりも小さいとき、前記第1の円又は球は前記第2の円又は球に対して夫々囲まれない円又は球と判定されることを特徴とする付記6記載の画像検索プログラム。
(Appendix 7)
The distance value of the first pixel is larger than the distance value of the second pixel, and the distance between the first pixel and the second pixel is smaller than the distance value of the first pixel. At this time, the image search program according to note 6, wherein the first circle or sphere is determined to be a circle or a sphere that is not surrounded by the second circle or sphere, respectively.

(付記8)
距離値が「1」の画素の集合である輪郭線と3点以上で接する、前記距離値が「1」より大きい第1の画素を中心とする第1の円又は球における前記第1の画素を前記分岐点として、前記分岐点を中心に前記中心線を分岐することを特徴とする付記1記載の画像検索プログラム。
(Appendix 8)
The first pixel in a first circle or sphere centered on a first pixel having a distance value larger than "1", which is in contact with an outline that is a set of pixels having a distance value of "1" at three or more points. The image retrieval program according to appendix 1, wherein the center line is branched around the branch point as a branch point.

(付記9)
分割した前記中心線に近似した直線を生成し、前記直線を用いて前記角度を算出することを特徴する付記1記載の画像検索プログラム。
(Appendix 9)
The image retrieval program according to appendix 1, wherein a straight line that is approximated to the divided center line is generated, and the angle is calculated using the straight line.

(付記10)
第1の画像から前記第1の画像に類似する第2の画像を検索する画像検索装置において、
被検体の肺野領域の断面画像である前記第1の画像から候補領域の画像を抽出する候補領域抽出部と、
抽出した前記候補領域の画像の画素値を二値化した二値化画像を生成する二値化画像生成部と、
前記二値化画像から前記候補領域の画像の中心線を抽出する中心線抽出部と、
前記中心線が分岐した分岐点で前記中心線を分割する中心線分割部と、
分割した前記中心線の角度に基づいて、前記候補領域の画像を蜂巣肺の領域と気管支の領域とに分割する領域分割部と、
分割した前記気管支以外の肺野領域の画像又は分割した前記気管支の領域の画像に基づいて、前記第1の画像から前記第2の画像を検索する照合処理部と
を備えることを特徴とする画像検索装置。
(Appendix 10)
In an image search device that searches for a second image similar to the first image from the first image,
A candidate area extraction unit that extracts an image of the candidate area from the first image that is a cross-sectional image of the lung field area of the subject;
A binarized image generation unit that generates a binarized image by binarizing the pixel values of the image of the extracted candidate region,
A centerline extraction unit that extracts the centerline of the image of the candidate region from the binarized image,
A centerline dividing unit that divides the centerline at a branch point where the centerline is branched,
Based on the angle of the divided center line, a region dividing unit that divides the image of the candidate region into a honeycomb lung region and a bronchus region,
An image of a lung field region other than the divided bronchus or an image of a divided region of the bronchus, and a collation processing unit that retrieves the second image from the first image. Search device.

(付記11)
第1の画像から前記第1の画像に類似する第2の画像を検索する画像検索装置における画像検索方法であって、
被検体の肺野領域の断面画像である前記第1の画像から候補領域の画像を抽出し、
抽出した前記候補領域の画像の画素値を二値化した二値化画像を生成し、
前記二値化画像から前記候補領域の画像の中心線を抽出し、
前記中心線が分岐した分岐点で前記中心線を分割し、
分割した前記中心線の角度に基づいて、前記候補領域の画像を蜂巣肺の領域と気管支の領域とに分割し、
分割した前記気管支以外の肺野領域の画像又は分割した前記気管支の領域の画像に基づいて、前記第1の画像から前記第2の画像を検索する
ことを特徴とする画像検索方法。
(Appendix 11)
An image retrieval method in an image retrieval device for retrieving a second image similar to the first image from a first image,
An image of the candidate region is extracted from the first image, which is a cross-sectional image of the lung field region of the subject,
Generating a binarized image in which the pixel values of the image of the extracted candidate area are binarized,
Extracting the center line of the image of the candidate region from the binarized image,
Divide the center line at a branch point where the center line branches,
Based on the angle of the divided center line, the image of the candidate region is divided into a honeycomb region and a bronchus region,
An image search method, wherein the second image is searched from the first image based on an image of a lung field region other than the divided bronchus or an image of a divided region of the bronchus.

10:画像検索システム 100:画像検索装置
110:辞書登録モジュール 111,131:特徴量抽出部
112,132:候補領域抽出部 113,133:気管支領域分割部
114,134:陰影識別及び分布特徴抽出部(分布特徴抽出部)
1130:二値化画像生成部 1131:中心線抽出部
1132:距離変換部 1133:中心線抽出処理部
1134:中心線分割部 1135:角度算出部
1136:ラベリング部 1137:領域分割部
120:特徴量辞書DB 130:検索モジュール
135:照合処理部 140:UI
160:CPU 170:IF
200:画像DB 300:CT画像撮像装置
10: Image Retrieval System 100: Image Retrieval Device 110: Dictionary Registration Module 111, 131: Feature Extraction Unit 112, 132: Candidate Region Extraction Unit 113, 133: Bronchus Region Division Unit 114, 134: Shadow Identification and Distribution Feature Extraction Unit (Distribution feature extraction unit)
1130: Binary image generation unit 1131: Center line extraction unit 1132: Distance conversion unit 1133: Center line extraction processing unit 1134: Center line division unit 1135: Angle calculation unit 1136: Labeling unit 1137: Region division unit 120: Feature amount Dictionary DB 130: Search module 135: Collation processing unit 140: UI
160: CPU 170: IF
200: Image DB 300: CT image pickup device

Claims (6)

第1の画像から前記第1の画像に類似する第2の画像を検索する画像検索装置のコンピュータに実行させる画像検索プログラムであって、
被検体の肺野領域の断面画像である前記第1の画像から候補領域の画像を抽出し、
抽出した前記候補領域の画像の画素値を二値化した二値化画像を生成し、
前記二値化画像から前記候補領域の画像の中心線を抽出し、
前記中心線が分岐した分岐点で前記中心線を分割し、
分割した前記中心線の角度に基づいて、前記候補領域の画像を蜂巣肺の領域と気管支の領域とに分割し、
分割した前記気管支以外の肺野領域の画像又は分割した前記気管支の領域の画像に基づいて、前記第1の画像から前記第2の画像を検索する
処理を前記コンピュータに実行させる画像検索プログラム。
An image search program to be executed by a computer of an image search device for searching a first image for a second image similar to the first image,
An image of the candidate region is extracted from the first image, which is a cross-sectional image of the lung field region of the subject,
Generating a binarized image in which the pixel values of the image of the extracted candidate area are binarized,
Extracting the center line of the image of the candidate region from the binarized image,
Divide the center line at a branch point where the center line branches,
Based on the angle of the divided center line, the image of the candidate region is divided into a honeycomb region and a bronchus region,
An image retrieval program that causes the computer to execute a process of retrieving the second image from the first image based on an image of a lung field region other than the divided bronchus or an image of the divided region of the bronchus.
前記角度が閾値以下のとき、前記気管支の領域、前記角度が閾値より大きいとき、前記蜂巣肺の領域と判定して、前記候補領域の画像を分割することを特徴とする請求項1記載の画像検索プログラム。   The image according to claim 1, wherein when the angle is less than or equal to a threshold value, the bronchus area is determined, and when the angle is greater than the threshold value, the honeycomb area is determined and the image of the candidate area is divided. Search program. 抽出した前記候補領域の画像の画素値を二値化して背景画像と前景画像を含む前記二値化画像を生成し、
前記二値化画像から、前記背景画像の各画素の画素値を、前記背景画像からの最短距離を表す距離値に変換し、前記距離値に基づいて前記候補領域の画像の中心線を抽出する
ことを特徴とする請求項1記載の画像検索プログラム。
Generate a binarized image including a background image and a foreground image by binarizing the pixel values of the extracted image of the candidate region,
From the binarized image, the pixel value of each pixel of the background image is converted into a distance value that represents the shortest distance from the background image, and the center line of the image of the candidate region is extracted based on the distance value. The image search program according to claim 1, wherein:
分割した前記中心線に近似した直線を生成し、前記直線を用いて前記角度を算出することを特徴する請求項1記載の画像検索プログラム。   The image search program according to claim 1, wherein a straight line that is close to the divided center line is generated, and the angle is calculated using the straight line. 第1の画像から前記第1の画像に類似する第2の画像を検索する画像検索装置において、
被検体の肺野領域の断面画像である前記第1の画像から候補領域の画像を抽出する候補領域抽出部と、
抽出した前記候補領域の画像の画素値を二値化した二値化画像を生成する二値化画像生成部と、
前記二値化画像から前記候補領域の画像の中心線を抽出する中心線抽出部と、
前記中心線が分岐した分岐点で前記中心線を分割する中心線分割部と、
分割した前記中心線の角度に基づいて、前記候補領域の画像を蜂巣肺の領域と気管支の領域とに分割する領域分割部と、
分割した前記気管支以外の肺野領域の画像又は分割した前記気管支の領域の画像に基づいて、前記第1の画像から前記第2の画像を検索する照合処理部と
を備えることを特徴とする画像検索装置。
In an image search device that searches for a second image similar to the first image from the first image,
A candidate area extraction unit that extracts an image of the candidate area from the first image that is a cross-sectional image of the lung field area of the subject;
A binarized image generation unit that generates a binarized image by binarizing the pixel values of the image of the extracted candidate region,
A centerline extraction unit that extracts the centerline of the image of the candidate region from the binarized image,
A centerline dividing unit that divides the centerline at a branch point where the centerline is branched,
Based on the angle of the divided center line, a region dividing unit that divides the image of the candidate region into a honeycomb lung region and a bronchus region,
An image of a lung field region other than the divided bronchus or an image of a divided region of the bronchus, and a collation processing unit that retrieves the second image from the first image. Search device.
第1の画像から前記第1の画像に類似する第2の画像を検索する画像検索装置における画像検索方法であって、
被検体の肺野領域の断面画像である前記第1の画像から候補領域の画像を抽出し、
抽出した前記候補領域の画像の画素値を二値化した二値化画像を生成し、
前記二値化画像から前記候補領域の画像の中心線を抽出し、
前記中心線が分岐した分岐点で前記中心線を分割し、
分割した前記中心線の角度に基づいて、前記候補領域の画像を蜂巣肺の領域と気管支の領域とに分割し、
分割した前記気管支以外の肺野領域の画像又は分割した前記気管支の領域の画像に基づいて、前記第1の画像から前記第2の画像を検索する
ことを特徴とする画像検索方法。
An image retrieval method in an image retrieval device for retrieving a second image similar to the first image from a first image,
An image of the candidate region is extracted from the first image, which is a cross-sectional image of the lung field region of the subject,
Generating a binarized image in which the pixel values of the image of the extracted candidate area are binarized,
Extracting the center line of the image of the candidate region from the binarized image,
Divide the center line at a branch point where the center line branches,
Based on the angle of the divided center line, the image of the candidate region is divided into a honeycomb region and a bronchus region,
An image search method, wherein the second image is searched from the first image based on an image of a lung field region other than the divided bronchus or an image of a divided region of the bronchus.
JP2018210418A 2018-11-08 2018-11-08 Image search program, image search device, and image search method Active JP7273285B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018210418A JP7273285B2 (en) 2018-11-08 2018-11-08 Image search program, image search device, and image search method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018210418A JP7273285B2 (en) 2018-11-08 2018-11-08 Image search program, image search device, and image search method

Publications (2)

Publication Number Publication Date
JP2020074967A true JP2020074967A (en) 2020-05-21
JP7273285B2 JP7273285B2 (en) 2023-05-15

Family

ID=70724693

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018210418A Active JP7273285B2 (en) 2018-11-08 2018-11-08 Image search program, image search device, and image search method

Country Status (1)

Country Link
JP (1) JP7273285B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011048481A (en) * 2009-08-25 2011-03-10 Fuji Xerox Co Ltd Image processing apparatus and program
JP2016221052A (en) * 2015-06-01 2016-12-28 東芝メディカルシステムズ株式会社 Medical image processor
JP2017215876A (en) * 2016-06-01 2017-12-07 富士通株式会社 Similar image retrieval program, similar image retrieval method, and similar image retrieval device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011048481A (en) * 2009-08-25 2011-03-10 Fuji Xerox Co Ltd Image processing apparatus and program
JP2016221052A (en) * 2015-06-01 2016-12-28 東芝メディカルシステムズ株式会社 Medical image processor
JP2017215876A (en) * 2016-06-01 2017-12-07 富士通株式会社 Similar image retrieval program, similar image retrieval method, and similar image retrieval device

Also Published As

Publication number Publication date
JP7273285B2 (en) 2023-05-15

Similar Documents

Publication Publication Date Title
JP4542591B2 (en) Image processing system, image storage device, image processing device, image processing method, and program
JP4999163B2 (en) Image processing method, apparatus, and program
JP5677798B2 (en) 3D object recognition and position and orientation determination method in 3D scene
JP3110045B2 (en) Automated method and system for detecting lesions in medical computed tomography scans
JP5864542B2 (en) Image data processing method, system, and program for detecting image abnormality
JP5138431B2 (en) Image analysis apparatus and method, and program
US8077946B2 (en) Apparatus and program for assisting report generation
Orozco et al. Lung nodule classification in CT thorax images using support vector machines
JP2014081347A (en) Method for recognition and pose determination of 3d object in 3d scene
CN111311655B (en) Multi-mode image registration method, device, electronic equipment and storage medium
Nguyen et al. Pulmonary nodule detection based on faster R-CNN with adaptive anchor box
JP2010000133A (en) Image display, image display method and program
JP5072625B2 (en) Image processing apparatus and method
JP2014221163A (en) Image diagnosis support device and support method
Mittal et al. Fast automatic detection of calcified coronary lesions in 3D cardiac CT images
GB2511686A (en) Medical-image retrieval method, device, and computer program
JP2004173748A (en) Generation method for similar medical image database, searching method for similar medical image database and similar medical image and device used for the same
JP5364009B2 (en) Image generating apparatus, image generating method, and program thereof
JP7273285B2 (en) Image search program, image search device, and image search method
CN114399731B (en) Target positioning method under supervision of single coarse point
Zhou et al. A universal approach for automatic organ segmentations on 3D CT images based on organ localization and 3D GrabCut
CN115690486A (en) Method, device and equipment for identifying focus in image and storage medium
US20150093001A1 (en) Image segmentation system and operating method thereof
JP7326845B2 (en) Diffuse case image determination program, system, and method
JP2022179433A (en) Image processing device and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230410

R150 Certificate of patent or registration of utility model

Ref document number: 7273285

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150