JP2015112150A - Image processing system and program - Google Patents

Image processing system and program Download PDF

Info

Publication number
JP2015112150A
JP2015112150A JP2013254304A JP2013254304A JP2015112150A JP 2015112150 A JP2015112150 A JP 2015112150A JP 2013254304 A JP2013254304 A JP 2013254304A JP 2013254304 A JP2013254304 A JP 2013254304A JP 2015112150 A JP2015112150 A JP 2015112150A
Authority
JP
Japan
Prior art keywords
region
local
target
image
global
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013254304A
Other languages
Japanese (ja)
Inventor
宏 大和
Hiroshi Yamato
宏 大和
藤原 浩一
Koichi Fujiwara
浩一 藤原
謙太 嶋村
Kenta Shimamura
謙太 嶋村
遠山 修
Osamu Toyama
修 遠山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2013254304A priority Critical patent/JP2015112150A/en
Publication of JP2015112150A publication Critical patent/JP2015112150A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology which can, with high accuracy, extract an area where a target part is captured from a biological image obtained by radiography.SOLUTION: By using template matching, of a biological image, a target defined area where at least a part of a target part is captured and an undefined area where a part of the target part may be captured are detected. In so doing, a position of an area which captures a global area part of the target part and a position of an area which captures a local part included in the global part are detected and, according to a result of detection, a target candidate area including the target defined area and the undefined area are set with respect to the biological image. On the basis of at least either a positional relation between the detected global area and the local area or a correlation value between the local area and a template, it is determined whether or not to set a target candidate area in accordance with the result of detection related to the local area. After that, on the basis of information about the target defined area and the undefined area, a target area related to the target part of the biological image is detected.

Description

本発明は、画像処理装置およびプログラムに関する。   The present invention relates to an image processing apparatus and a program.

医療現場では、X線を用いた撮影(X線撮影とも言う)によって内臓および骨格等に含まれる患部が捉えられた画像が取得され、該画像を用いた各種検査および診断が行われている。   In a medical field, an image in which an affected part included in a viscera and a skeleton is captured by imaging using X-rays (also referred to as X-ray imaging), and various examinations and diagnoses using the images are performed.

そして、近年では、デジタル技術の適用によって、X線撮影によって患部の動きを捉えた画像(動態画像とも言う)が比較的容易に得られる。例えば、FPD(flat panel detector)等の半導体イメージセンサーを用いた撮影によって、検査および診断の対象となる部位(対象部位とも言う)を含む領域(被写体領域とも言う)が捉えられた動態画像が取得される。これにより、造影剤を用いることなく、比較的簡易な構成によって、動態画像が取得され得る。そして、従来のX線撮影によって得られる静止画像を用いた診断では実施できなかった、対象部位の動きの解析による診断が可能となる。   In recent years, by applying digital technology, an image (also referred to as a dynamic image) that captures the motion of the affected area by X-ray imaging can be obtained relatively easily. For example, a dynamic image in which a region (also referred to as a target region) including a region (also referred to as a target region) to be inspected and diagnosed is acquired by imaging using a semiconductor image sensor such as an FPD (flat panel detector). Is done. Thereby, a dynamic image can be acquired with a relatively simple configuration without using a contrast agent. And it becomes possible to make a diagnosis by analyzing the movement of the target part, which could not be performed by the diagnosis using the still image obtained by the conventional X-ray imaging.

例えば、X線撮影によって得られる胸部の動きを捉えた画像(胸部X線動態画像とも言う)のうち、肺野内の濃度変化が解析されることで、肺野内における換気および血流(肺血流とも言う)の状態等に関する定量的な変化が認識される。具体的には、例えば、換気の状態に関する定量的な変化から換気の異常箇所が特定されることで、慢性閉塞性疾患(COPD)等の解析が可能となる。また、例えば、肺血流の状態に関する定量的な変化から肺血流の異常箇所が特定されることで、肺塞栓症等の解析が可能となる。   For example, in an image that captures the movement of the chest obtained by X-ray imaging (also referred to as a chest X-ray dynamic image), changes in concentration in the lung field are analyzed, so that ventilation and blood flow in the lung field (pulmonary blood flow) Quantitative changes related to the state of (also called). Specifically, for example, by identifying an abnormal portion of ventilation from a quantitative change regarding the state of ventilation, analysis of chronic obstructive disease (COPD) or the like becomes possible. Further, for example, by identifying an abnormal portion of the pulmonary blood flow from a quantitative change regarding the state of the pulmonary blood flow, analysis of pulmonary embolism or the like becomes possible.

但し、動態画像を用いた診断において対象部位の動きについての解析および診断を実施するためには、対象部位を捉えた領域(対象領域とも言う)を動態画像から精度良く抽出する必要がある。   However, in order to perform analysis and diagnosis on the movement of the target part in the diagnosis using the dynamic image, it is necessary to accurately extract a region that captures the target part (also referred to as the target region) from the dynamic image.

ところで、患部を捉えたX線画像から対象領域を抽出する技術としては、ある閾値を用いた2値化処理およびラベリング等によって対象領域としての肺を捉えた領域(肺野領域とも言う)を抽出する技術が提案されている(例えば、特許文献1,2等)。また、X線画像からフィルター処理によって低周波画像を生成し、該低周波画像から輝度の変化を示す輝度変化画像を生成し、輝度変化画像および低周波画像の画素値に基づいて関心領域の境界に位置する画素を選択する技術が提案されている(例えば、特許文献3等)。   By the way, as a technique for extracting a target region from an X-ray image that captures an affected area, a region that captures a lung as a target region (also referred to as a lung field region) is extracted by binarization processing using a certain threshold value and labeling. Techniques have been proposed (for example, Patent Documents 1 and 2). Further, a low-frequency image is generated from the X-ray image by filtering, a luminance change image indicating a change in luminance is generated from the low-frequency image, and the boundary of the region of interest is based on the pixel values of the luminance change image and the low-frequency image. A technique for selecting a pixel located at is proposed (for example, Patent Document 3).

特開平09−035043号公報JP 09-035043 A 特開平11−151232号公報JP-A-11-151232 特開2011−255033号公報JP 2011-255033 A

しかしながら、対象部位を捉えた動態画像の撮影においては、X線による患部の被爆量が増大しないように、各フレームの撮影に要する被爆量が低く抑えられる必要があり、各フレームの画質がノイズ等によって劣化し易い。   However, in capturing a dynamic image that captures the target region, it is necessary to keep the amount of exposure required for capturing each frame low so that the amount of exposure to the affected area caused by X-rays does not increase. It is easy to deteriorate by.

このため、例えば、上記特許文献1,2の技術では、単純な2値化処理が用いられてX線画像から肺野領域が抽出されるため、ノイズ等の影響によって、画像から肺野領域等の対象領域を精度良く抽出することが難しい。また、上記特許文献3の技術では、関心領域の境界部分における輝度変化が小さければ、肺野領域等の関心領域の輪郭が精度良く検出され難く、肋骨、鎖骨および乳房等の他の構造物の輪郭が誤って関心領域の境界として検出される虞がある。すなわち、関心領域が過大あるいは過小に抽出される虞がある。したがって、画像から関心領域を精度良く抽出することが難しい。このような問題は、X線撮影によって得られる体内を捉えた生体画像一般に共通する。   For this reason, for example, in the techniques of Patent Documents 1 and 2 described above, a simple binarization process is used to extract a lung field region from an X-ray image. It is difficult to accurately extract the target area. Further, in the technique of Patent Document 3, if the luminance change at the boundary portion of the region of interest is small, it is difficult to accurately detect the contour of the region of interest such as the lung region, and other structures such as ribs, clavicles, and breasts. There is a possibility that the contour is erroneously detected as the boundary of the region of interest. That is, there is a possibility that the region of interest is extracted too large or too small. Therefore, it is difficult to accurately extract the region of interest from the image. Such a problem is common to living body images obtained by capturing the inside of a body obtained by X-ray imaging.

本発明は、上記課題に鑑みてなされたものであり、X線撮影によって得られる体内の構造物を捉えた生体画像から対象部位が捉えられた領域を精度良く抽出することが可能な技術を提供することを目的とする。   The present invention has been made in view of the above problems, and provides a technique capable of accurately extracting a region in which a target portion is captured from a biological image capturing a body structure obtained by X-ray imaging. The purpose is to do.

上記課題を解決するために、第1の態様に係る画像処理装置は、X線の照射によって体内の構造物が捉えられた生体画像を取得する取得部と、前記生体画像を対象としたテンプレートマッチングを用いて、前記生体画像のうち、対象部位の少なくとも一部が捉えられている対象確定領域と、該対象部位の一部が捉えられている可能性がある未確定領域とを検出する第1検出部と、前記対象確定領域および前記未確定領域の情報に基づいて、前記生体画像のうち、前記対象部位の内部から輪郭に至る対象領域を検出する第2検出部と、を備え、前記第1検出部が、前記生体画像のうちの前記対象部位の大域部分が捉えられた大域領域の位置を、前記大域部分に係る大域テンプレートを用いたテンプレートマッチングによって検出する大域領域検出部と、前記生体画像のうちの前記大域部分に包含され且つ該大域部分よりも小さな局所部分が捉えられた局所領域の位置を、前記局所部分に係る局所テンプレートを用いたテンプレートマッチングによって検出する局所領域検出部と、前記大域領域検出部および前記局所領域検出部による検出結果に応じて、前記生体画像に対し、前記対象確定領域および前記未確定領域を含む対象候補領域を設定する候補領域設定部と、前記大域領域検出部で検出された前記大域領域の位置と前記局所領域検出部で検出された前記局所領域の位置との相対的な位置関係、および前記局所領域検出部におけるテンプレートマッチングで算出される前記局所領域と前記局所テンプレートとの間における相関値のうちの少なくとも一方に基づき、前記候補領域設定部において前記局所領域検出部による検出結果に応じて前記対象候補領域を設定するか否かを判定する判定部と、を有する。   In order to solve the above-described problem, an image processing apparatus according to a first aspect includes an acquisition unit that acquires a biological image in which a structure inside the body is captured by X-ray irradiation, and template matching for the biological image. To detect a target confirmed region in which at least a part of the target part is captured and an undetermined region in which a part of the target part may be captured in the biological image. A detection unit; and a second detection unit that detects a target region from the inside of the target region to an outline based on information on the target determination region and the unconfirmed region, and 1 detection part detects the position of the global region where the global part of the target part in the living body image was captured by template matching using the global template related to the global part. A local region that is included in the global portion of the biological image and in which a local portion smaller than the global portion is captured is detected by template matching using a local template related to the local portion A candidate region setting unit configured to set a target candidate region including the target fixed region and the undetermined region with respect to the biological image according to detection results by the global region detector and the local region detector. And a relative positional relationship between the position of the global region detected by the global region detection unit and the position of the local region detected by the local region detection unit, and template matching in the local region detection unit The candidate region setting is based on at least one of correlation values between the local region and the local template. Having a determination section for determining whether or not to set the target candidate region in accordance with a detection result obtained by the local region detecting unit in section.

第2の態様に係る画像処理装置は、第1の態様に係る画像処理装置であって、前記生体画像のうちの前記局所部分が捉えられた領域に対して、前記候補領域設定部において前記大域領域検出部による検出結果に応じて設定される前記未確定領域よりも、前記候補領域設定部において前記局所領域検出部による検出結果に応じて設定される前記未確定領域の方が狭い。   The image processing apparatus according to the second aspect is the image processing apparatus according to the first aspect, wherein the global area is selected by the candidate area setting unit for the area where the local part of the biological image is captured. The undetermined region set in the candidate region setting unit according to the detection result by the local region detection unit is narrower than the undetermined region set in accordance with the detection result by the region detection unit.

第3の態様に係る画像処理装置は、第1または第2の態様に係る画像処理装置であって、前記候補領域設定部が、前記大域領域検出部および前記局所領域検出部による検出結果に応じて、前記生体画像に対し、前記対象部位が捉えられていない非対象確定領域を設定する。   An image processing device according to a third aspect is the image processing device according to the first or second aspect, wherein the candidate region setting unit responds to a detection result by the global region detection unit and the local region detection unit. Then, a non-target fixed region where the target part is not captured is set for the biological image.

第4の態様に係る画像処理装置は、第1から第3の何れか1つの態様に係る画像処理装置であって、前記局所部分が、個体間で周期的な状態の変化に差が生じる部分、および個体間で形状に差が生じる部分のうちの少なくとも一方を含む。   An image processing apparatus according to a fourth aspect is the image processing apparatus according to any one of the first to third aspects, wherein the local part is a part where a difference in a periodic state changes between individuals , And at least one of the portions where the shape is different between individuals.

第5の態様に係る画像処理装置は、第4の態様に係る画像処理装置であって、前記対象部位が、肺野に係る構造物であり、前記局所部分が、大動脈弓、鎖骨、心臓、横隔膜および肋横角のうちの少なくとも1つの部分を含む。   An image processing device according to a fifth aspect is the image processing device according to the fourth aspect, wherein the target portion is a structure relating to a lung field, and the local portion includes an aortic arch, a clavicle, a heart, It includes at least one portion of the diaphragm and heel angle.

第6の態様に係る画像処理装置は、第1から第5の何れか1つの態様に係る画像処理装置であって、前記判定部が、予め設定された少なくとも1つの方向における、前記大域領域検出部によって検出された前記大域領域の位置と、前記局所領域検出部によって検出された前記局所領域の位置とのずれ量が、予め設定された値域から外れていれば、前記候補領域設定部における前記局所領域検出部による検出結果に応じた前記対象候補領域の設定を禁止する。   An image processing device according to a sixth aspect is the image processing device according to any one of the first to fifth aspects, wherein the determination unit detects the global area in at least one preset direction. If the amount of deviation between the position of the global region detected by the unit and the position of the local region detected by the local region detection unit is out of a preset value range, the candidate region setting unit Setting of the target candidate region according to the detection result by the local region detection unit is prohibited.

第7の態様に係る画像処理装置は、第1から第6の何れか1つの態様に係る画像処理装置であって、前記判定部が、前記相関値が、予め設定された値域から外れていれば、前記候補領域設定部における前記局所領域検出部による検出結果に応じた前記対象候補領域の設定を禁止する。   An image processing apparatus according to a seventh aspect is the image processing apparatus according to any one of the first to sixth aspects, wherein the determination unit determines that the correlation value is out of a preset range. For example, the setting of the target candidate region according to the detection result by the local region detection unit in the candidate region setting unit is prohibited.

第8の態様に係るプログラムは、画像処理装置に含まれる制御部において実行されることにより、前記画像処理装置を、第1から第7の何れか1つの態様に係る画像処理装置として機能させる。   The program according to the eighth aspect is executed by a control unit included in the image processing apparatus, thereby causing the image processing apparatus to function as the image processing apparatus according to any one of the first to seventh aspects.

第1から第7の何れの態様に係る画像処理装置によっても、局所領域の検出結果に応じて、局所領域に応じた対象部位に係る対象確定領域および未確定領域が設定されるか否か判定されるため、X線撮影によって得られる体内の構造物を捉えた生体画像から対象部位を捉えた領域が精度良く抽出され得る。   Whether or not the image processing apparatus according to any one of the first to seventh aspects sets the target fixed region and the undefined region related to the target part corresponding to the local region according to the detection result of the local region. Therefore, the region where the target part is captured can be extracted with high accuracy from the biological image capturing the internal structure obtained by X-ray imaging.

第2の態様に係る画像処理装置によれば、局所領域に応じた未確定領域がより狭く設定されることで、対象部位が捉えられた領域を広く検出し過ぎる過検出および対象部位が捉えられた領域を狭く検出し過ぎる未検出が生じ難い。すなわち、生体画像から対象部位を捉えた領域が安定して精度良く抽出され得る。   According to the image processing apparatus according to the second aspect, the undetermined region corresponding to the local region is set to be narrower, so that the region where the target region is captured is detected excessively and the target region is captured. It is difficult for undetected areas to be detected too narrowly. That is, a region in which a target part is captured from a biological image can be stably and accurately extracted.

第4および第5の何れの態様に係る画像処理装置によっても、生体画像において捉えられている大域部分の位置と、検出される大域領域の位置との間にずれが生じ易い部分について、局所領域が検出されるため、生体画像から対象部位を捉えた領域が精度良く抽出され得る。   In the image processing apparatus according to any of the fourth and fifth aspects, a local region is detected with respect to a portion where a shift is likely to occur between the position of the global portion captured in the biological image and the position of the detected global region. Therefore, a region where the target part is captured from the biological image can be extracted with high accuracy.

第6および第7の何れの態様に係る画像処理装置によっても、検出の信頼性が低い局所領域に応じた対象部位に係る対象確定領域および未確定領域の設定が抑制されるため、生体画像から対象部位を捉えた領域が精度良く抽出され得る。   In the image processing apparatus according to any of the sixth and seventh aspects, since the setting of the target definite region and the undetermined region related to the target region corresponding to the local region with low detection reliability is suppressed, A region that captures the target part can be extracted with high accuracy.

第8の態様に係るプログラムによれば、第1から第7の態様に係る画像処理装置と同様な効果が得られる。   According to the program according to the eighth aspect, the same effects as those of the image processing apparatus according to the first to seventh aspects can be obtained.

一実施形態に係る撮影システムの構成を示すブロック図である。It is a block diagram which shows the structure of the imaging | photography system which concerns on one Embodiment. 一実施形態に係る画像処理装置の機能的な構成を示すブロック図である。It is a block diagram which shows the functional structure of the image processing apparatus which concerns on one Embodiment. X線撮影によって得られる動態画像を例示する図である。It is a figure which illustrates the dynamic image obtained by X-ray imaging. 動態画像を構成するフレーム画像の特徴を説明するための図である。It is a figure for demonstrating the characteristic of the frame image which comprises a dynamic image. 動態画像を構成するフレーム画像の特徴を説明するための図である。It is a figure for demonstrating the characteristic of the frame image which comprises a dynamic image. 動態画像を構成するフレーム画像の特徴を説明するための図である。It is a figure for demonstrating the characteristic of the frame image which comprises a dynamic image. 画像を補正する処理を説明するための図である。It is a figure for demonstrating the process which correct | amends an image. 画像を補正する処理を説明するための図である。It is a figure for demonstrating the process which correct | amends an image. 画像を補正する処理を説明するための図である。It is a figure for demonstrating the process which correct | amends an image. 画像を補正する処理を説明するための図である。It is a figure for demonstrating the process which correct | amends an image. 画像を補正する処理を説明するための図である。It is a figure for demonstrating the process which correct | amends an image. 画像を補正する処理を説明するための図である。It is a figure for demonstrating the process which correct | amends an image. 画像を補正する処理を説明するための図である。It is a figure for demonstrating the process which correct | amends an image. 画像を補正する処理を説明するための図である。It is a figure for demonstrating the process which correct | amends an image. 画像を補正する処理を説明するための図である。It is a figure for demonstrating the process which correct | amends an image. 画像を補正する処理を説明するための図である。It is a figure for demonstrating the process which correct | amends an image. 粗検出の対象となるフレーム画像を例示する図である。It is a figure which illustrates the frame image used as the object of rough detection. 粗検出による検出結果の一例を模式的に示す図である。It is a figure which shows an example of the detection result by rough detection typically. 粗検出部の機能的な構成を示すブロック図である。It is a block diagram which shows the functional structure of a rough detection part. 大域領域および局所領域の設定例を示す図である。It is a figure which shows the example of a setting of a global region and a local region. 肺野の縦方向におけるサイズの変化の一態様を模式的に示す図である。It is a figure which shows typically the one aspect | mode of the change of the size in the vertical direction of a lung field. 肺野の縦方向におけるサイズの変化の一態様を模式的に示す図である。It is a figure which shows typically the one aspect | mode of the change of the size in the vertical direction of a lung field. 肺野の縦方向におけるサイズの変化の一態様を模式的に示す図である。It is a figure which shows typically the one aspect | mode of the change of the size in the vertical direction of a lung field. 横隔膜および心臓の形状における個体差の一態様を模式的に示す図である。It is a figure which shows typically the one aspect | mode of the individual difference in the shape of a diaphragm and a heart. 横隔膜および心臓の形状における個体差の一態様を模式的に示す図である。It is a figure which shows typically the one aspect | mode of the individual difference in the shape of a diaphragm and a heart. 横隔膜および心臓の形状における個体差の一態様を模式的に示す図である。It is a figure which shows typically the one aspect | mode of the individual difference in the shape of a diaphragm and a heart. 横隔膜および心臓の形状における個体差の一態様を模式的に示す図である。It is a figure which shows typically the one aspect | mode of the individual difference in the shape of a diaphragm and a heart. 横隔膜テンプレートの生成について説明するための図である。It is a figure for demonstrating the production | generation of a diaphragm template. 横隔膜テンプレートの生成について説明するための図である。It is a figure for demonstrating the production | generation of a diaphragm template. 横隔膜テンプレートの生成について説明するための図である。It is a figure for demonstrating the production | generation of a diaphragm template. 横隔膜テンプレートの生成について説明するための図である。It is a figure for demonstrating the production | generation of a diaphragm template. 部分区分情報の生成について説明するための図である。It is a figure for demonstrating the production | generation of partial division information. 部分区分情報の生成について説明するための図である。It is a figure for demonstrating the production | generation of partial division information. 部分区分情報の生成について説明するための図である。It is a figure for demonstrating the production | generation of partial division information. 部分区分情報の生成について説明するための図である。It is a figure for demonstrating the production | generation of partial division information. 部分区分情報の生成について説明するための図である。It is a figure for demonstrating the production | generation of partial division information. 部分区分情報の統合で生成される領域区分情報の一例を示す図である。It is a figure which shows an example of the area | region division information produced | generated by integration of partial division information. 精密検出の対象となるフレーム画像を例示する図である。It is a figure which illustrates the frame image used as the object of precise detection. 精密検出による検出結果の一例を模式的に示す図である。It is a figure which shows typically an example of the detection result by a precise detection. 対象領域抽出処理における動作フローを示すフローチャートである。It is a flowchart which shows the operation | movement flow in a target area | region extraction process. 対象領域抽出処理における動作フローを示すフローチャートである。It is a flowchart which shows the operation | movement flow in a target area | region extraction process.

以下、本発明の一実施形態を図面に基づいて説明する。なお、図面においては同様な構成および機能を有する部分については同じ符号が付されており、下記説明では重複説明が省略される。また、図面は模式的に示されたものであり、異なる図面にそれぞれ示されている画像のサイズおよび位置の相互関係は、必ずしも正確に記載されたものではない。なお、図4および図16には、画像の左上を原点とし、右方向をX方向、下方向をY方向とするXY座標系が付されている。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. In the drawings, parts having the same configuration and function are denoted by the same reference numerals, and redundant description is omitted in the following description. Further, the drawings are schematically shown, and the correlation between the sizes and positions of the images respectively shown in the different drawings is not necessarily accurately described. 4 and 16 are attached with an XY coordinate system in which the upper left of the image is the origin, the right direction is the X direction, and the lower direction is the Y direction.

<(1)撮影システムの概要>
図1は、一実施形態に係る撮影システム100の構成を示すブロック図である。撮影システム100は、ヒトを含む動物の体内の構造物を被写体として、放射線の照射によって体内の構造物が捉えられた画像(生体画像とも言う)を撮影し、該生体画像に対する各種画像処理を行う。なお、体内の構造物としては、例えば、肺を含む胸部の領域に含まれる臓器ならびに間接等を含む骨格が挙げられる。
<(1) Overview of shooting system>
FIG. 1 is a block diagram illustrating a configuration of an imaging system 100 according to an embodiment. The imaging system 100 captures an image (also referred to as a biological image) in which a structure in the body of an animal including a human being is taken as an object, and performs various image processing on the biological image. . In addition, as a structure in a body, the skeleton containing the organ contained in the area | region of the chest containing lungs and indirect etc. is mentioned, for example.

本実施形態では、例えば、撮影システム100が、人体用のシステムであり、撮影の主な対象となる部位(対象部位とも言う)が、検査の対象となる者(被検者とも言う)M1としてのヒトの肺野に係る構造物であれば良い。また、本実施形態では、例えば、放射線が、X線とされ、生体画像が、医療あるいは医学のために被検者M1の人体を撮影、または被検者M1の人体を計測した結果が画像化されたもの(医用画像とも言う)であれば良い。   In the present embodiment, for example, the imaging system 100 is a system for a human body, and a region (also referred to as a target region) that is a main target of imaging is a person (also referred to as a subject) M1 that is an inspection target. Any structure related to the human lung field may be used. In the present embodiment, for example, radiation is X-rays, and a living body image is obtained by imaging the human body of the subject M1 for medical treatment or medicine, or measuring the human body of the subject M1. It is only necessary that the image has been processed (also referred to as a medical image).

図1で示されるように、撮影システム100は、撮影装置1、撮影制御装置(撮影用コンソール)2および画像処理装置(診断用コンソール)3を備えている。撮影装置1と撮影制御装置2との間、ならびに撮影制御装置2と画像処理装置3との間が、それぞれ通信回線によってデータの送受信が可能に接続されている。撮影装置1と撮影制御装置2とを接続する通信回線は、通信ケーブル等の有線回線であっても、無線回線であっても良い。また、撮影制御装置2と画像処理装置3と接続する通信回線は、有線回線および無線回線の何れであっても良く、例えば、LAN(Local Area Network)回線等のネットワーク回線NTWであれば良い。   As shown in FIG. 1, the imaging system 100 includes an imaging device 1, an imaging control device (imaging console) 2, and an image processing device (diagnosis console) 3. The imaging device 1 and the imaging control device 2 and the imaging control device 2 and the image processing device 3 are connected to each other via a communication line so as to be able to transmit and receive data. The communication line connecting the image capturing apparatus 1 and the image capturing control apparatus 2 may be a wired line such as a communication cable or a wireless line. Further, the communication line connecting the imaging control apparatus 2 and the image processing apparatus 3 may be either a wired line or a wireless line, and may be a network line NTW such as a LAN (Local Area Network) line.

なお、撮影システム100では、例えば、DICOM(Digital Image and Communications in Medicine)と称される標準規格に準じた医用画像のフォーマットおよび画像を扱う機器間の通信プロトコルが採用される。   In the imaging system 100, for example, a medical image format and a communication protocol between devices that handle images conform to a standard called DICOM (Digital Image and Communications in Medicine).

<(2)撮影装置>
撮影装置1は、例えば、放射線としてのX線の照射によって体内の構造物を捉えた医用画像を取得する装置(X線撮影装置とも言う)等によって構成されている。撮影装置1では、例えば、呼吸等に伴う被検者M1の胸部内の構造物の動態が対象とされた撮影(動態撮影とも言う)が行われる。該動態撮影では、例えば、被検者M1の胸部に対してX線が繰り返して照射されつつ、被検者M1を透過するX線の2次元的な分布が時間順次に検出される。これにより、時間順次に複数の画像(フレーム画像とも言う)が取得される。これらの一連の複数のフレーム画像は、被検者M1の肺を含む領域(肺野領域とも言う)における物理的な状態(幾何学的形状および血流の濃度等)が時間変化する様子を時間順次に捉えた動態画像(動画像)を構成する。
<(2) Shooting device>
The imaging apparatus 1 is configured by, for example, an apparatus (also referred to as an X-ray imaging apparatus) that acquires a medical image capturing a body structure by irradiation with X-rays as radiation. In the imaging device 1, for example, imaging (also referred to as dynamic imaging) is performed on the dynamics of the structure in the chest of the subject M <b> 1 associated with breathing or the like. In the dynamic imaging, for example, a two-dimensional distribution of X-rays transmitted through the subject M1 is detected in time sequence while X-rays are repeatedly irradiated to the chest of the subject M1. Thereby, a plurality of images (also referred to as frame images) are acquired in time sequence. These series of a plurality of frame images show how the physical state (geometric shape, blood flow concentration, etc.) in the region including the lung of the subject M1 (also referred to as the lung field region) changes over time. A dynamic image (moving image) captured sequentially is constructed.

図1で示されるように、撮影装置1は、照射部(X線源)11、照射制御装置12、撮像部(X線検出部)13、読取制御装置14、サイクル検出センサー15およびサイクル検出装置16を備えている。   As shown in FIG. 1, an imaging apparatus 1 includes an irradiation unit (X-ray source) 11, an irradiation control device 12, an imaging unit (X-ray detection unit) 13, a reading control device 14, a cycle detection sensor 15, and a cycle detection device. 16 is provided.

照射部11は、照射制御装置12の制御に従って、被検者M1に対してX線を照射する。照射制御装置12は、撮影制御装置2に接続されており、撮影制御装置2から入力されるX線の照射条件を示す情報に基づいて照射部11を制御する。   The irradiation unit 11 irradiates the subject M1 with X-rays according to the control of the irradiation control device 12. The irradiation control device 12 is connected to the imaging control device 2 and controls the irradiation unit 11 based on information indicating the X-ray irradiation conditions input from the imaging control device 2.

撮像部13は、例えば、FPD(flat panel detector)等の半導体イメージセンサー等によって構成されており、照射部11から被検者M1に対して照射され、被検者M1を透過したX線をデジタル信号に変換する。   The imaging unit 13 is configured by, for example, a semiconductor image sensor such as an FPD (flat panel detector), and digitally radiates X-rays irradiated from the irradiation unit 11 to the subject M1 and transmitted through the subject M1. Convert to signal.

読取制御装置14は、撮影制御装置2に接続されており、撮影制御装置2から入力される読取条件に基づいて撮像部13の各画素のスイッチング部を制御する。これにより、読取制御装置14によって、撮像部13の各画素に蓄積された電荷に応じたデジタル信号が順次に読み取られ、撮像部13上で受け付けたX線の2次元的な強度分布に対応する画像データが取得される。そして、読取制御装置14は、取得した画像データ(単に画像とも言う)を、動態画像を構成するフレーム画像として撮影制御装置2に出力する。なお、読取条件は、例えば、フレームレート、画素サイズおよび画像サイズ等であれば良い。フレームレートは、1秒あたりに取得するフレーム画像の数であれば良い。   The reading control device 14 is connected to the imaging control device 2 and controls the switching unit of each pixel of the imaging unit 13 based on the reading condition input from the imaging control device 2. Thereby, the reading control device 14 sequentially reads digital signals corresponding to the charges accumulated in the respective pixels of the imaging unit 13, and corresponds to the two-dimensional intensity distribution of the X-rays received on the imaging unit 13. Image data is acquired. Then, the reading control device 14 outputs the acquired image data (also simply referred to as an image) to the imaging control device 2 as a frame image constituting a dynamic image. The reading conditions may be, for example, the frame rate, pixel size, image size, and the like. The frame rate may be the number of frame images acquired per second.

ここでは、照射制御装置12と読取制御装置14とが、互いに電気的に接続されており、互いに同期信号を送受信し合うことで、照射部11によるX線の照射動作と、読取制御装置14による画像データの読み取り動作とを同調させる。   Here, the irradiation control device 12 and the reading control device 14 are electrically connected to each other, and by transmitting and receiving a synchronization signal to each other, the irradiation operation of the X-ray by the irradiation unit 11 and the reading control device 14 are performed. Synchronize with image data reading operation.

サイクル検出センサー15は、例えば、デジタルカメラ等によって構成され、被検者M1の胸部の外観を対象とした撮影によって、被検者M1の胸部の動きが捉えられた動態画像を取得する。   The cycle detection sensor 15 is configured by, for example, a digital camera or the like, and acquires a dynamic image in which the movement of the chest of the subject M1 is captured by photographing the appearance of the chest of the subject M1.

サイクル検出装置16は、サイクル検出センサー15で取得された動態画像を解析することで、被検者M1における呼吸のサイクルの時間等を検出して撮影制御装置2の制御部21に出力する。この情報に応じて、例えば、撮影制御装置2によって照射条件および読取条件等が変更される態様が考えられる。   The cycle detection device 16 analyzes the dynamic image acquired by the cycle detection sensor 15 to detect the breathing cycle time of the subject M1 and outputs the detected time to the control unit 21 of the imaging control device 2. In accordance with this information, for example, an aspect in which the imaging control device 2 changes the irradiation condition, the reading condition, and the like can be considered.

<(3)撮影制御装置>
撮影制御装置2は、照射条件および読取条件等を示す情報を撮影装置1に出力することで、撮影装置1によるX線撮影およびフレーム画像の読み取り動作を制御する。該撮影制御装置2では、例えば、撮影装置1によって取得される画像が表示部24に適宜表示される。これにより、被検者M1の位置および姿勢等を含むポジショニング、ならびに画像の診断用としての適否等が、撮影技師によって確認され得る。
<(3) Shooting control device>
The imaging control device 2 controls the X-ray imaging and frame image reading operations of the imaging device 1 by outputting information indicating the irradiation condition, the reading condition, and the like to the imaging device 1. In the imaging control device 2, for example, an image acquired by the imaging device 1 is appropriately displayed on the display unit 24. Thereby, the positioning including the position and posture of the subject M1 and the suitability for image diagnosis can be confirmed by the imaging technician.

図1で示されるように、撮影制御装置2は、バス26によって相互にデータの授受が可能に接続されている制御部21、記憶部22、操作部23、表示部24および通信部25を備えて構成されている。   As shown in FIG. 1, the imaging control device 2 includes a control unit 21, a storage unit 22, an operation unit 23, a display unit 24, and a communication unit 25 that are connected to each other via a bus 26 so as to be able to exchange data. Configured.

制御部21は、例えば、プロセッサーおよびメモリー等を備えて構成されている。プロセッサーは、例えば、CPU(Central Processing Unit)であり、メモリーは、例えば、揮発性のRAM(Random Access Memory)等であれば良い。例えば、プロセッサーは、操作部23の操作等に応じて、記憶部22に記憶されているプログラムを読み出してメモリー内に展開し、該展開されたプログラムに従った各種処理を実行することで、撮影装置1および撮影制御装置2の各部の動作を制御する。   The control unit 21 includes, for example, a processor and a memory. The processor is, for example, a CPU (Central Processing Unit), and the memory may be, for example, a volatile RAM (Random Access Memory). For example, the processor reads out a program stored in the storage unit 22 in accordance with an operation of the operation unit 23, expands the program in the memory, and executes various processes according to the expanded program. The operation of each part of the apparatus 1 and the imaging control apparatus 2 is controlled.

記憶部22は、例えば、不揮発性の半導体メモリーあるいはハードディスク等を備えて構成されている。該記憶部22は、制御部21で実行される各種プログラムならびに処理の実行に必要な各種データを記憶する。ここで、各種データには、プログラムに従った処理の実行に必要なパラメーター等を示すデータ、ならびに演算処理の結果として少なくとも一時的に生成されるデータ等が含まれる。   The storage unit 22 includes, for example, a nonvolatile semiconductor memory or a hard disk. The storage unit 22 stores various programs executed by the control unit 21 and various data necessary for execution of processing. Here, the various data includes data indicating parameters and the like necessary for execution of processing according to the program, and data generated at least temporarily as a result of the arithmetic processing.

操作部23は、例えば、キーボードおよびマウス等のポインティングデバイス等を備えて構成されている。該操作部23では、キーボードおよびマウス等に対する操作に応じて入力される信号(指示信号とも言う)が制御部21に出力される。なお、操作部23には、タッチパネル等の構成が採用されても良い。   The operation unit 23 includes, for example, a pointing device such as a keyboard and a mouse. In the operation unit 23, a signal (also referred to as an instruction signal) input in response to an operation on a keyboard, a mouse, or the like is output to the control unit 21. The operation unit 23 may employ a configuration such as a touch panel.

表示部24は、例えば、LCD(Liquid Crystal Display)等のモニターを備えて構成されている。該表示部24では、制御部21から入力される信号に従って、操作部23から入力される指示の内容、ならびに各種データが表示される。   The display unit 24 includes a monitor such as an LCD (Liquid Crystal Display). In the display unit 24, in accordance with a signal input from the control unit 21, the content of an instruction input from the operation unit 23 and various data are displayed.

通信部25は、例えば、LANアダプター、モデムまたはターミナルアダプター(TA)等を備えて構成されている。該通信部25によって、ネットワーク回線NTWに接続されている各装置との間におけるデータの送受信が制御される。   The communication unit 25 includes, for example, a LAN adapter, a modem, or a terminal adapter (TA). The communication unit 25 controls transmission / reception of data to / from each device connected to the network line NTW.

<(4)画像処理装置>
<(4−1)画像処理装置の概略構成>
画像処理装置3は、情報処理を行う情報処理装置であり、撮影装置1における撮影によって得られる動態画像を、撮影制御装置2を介して取得し、該動態画像に対する画像処理を行うことで、医師等による読影および診断に適した画像を生成する。該画像は、表示部34に適宜表示される。本実施形態では、画像処理装置3によって、主として心臓および両肺を含む胸部の動的な態様が捉えられた動態画像を構成する複数のフレーム画像から、診断の対象となる対象部位が捉えられた領域(対象領域とも言う)としての肺野領域がそれぞれ検出される。なお、情報処理装置は、例えば、パーソナルコンピューター(パソコン)の構成あるいはパソコンに類似した機能的な構成を有していれば良い。
<(4) Image processing device>
<(4-1) Schematic Configuration of Image Processing Device>
The image processing device 3 is an information processing device that performs information processing, acquires a dynamic image obtained by photographing in the photographing device 1 via the photographing control device 2, and performs image processing on the dynamic image, thereby obtaining a doctor. An image suitable for interpretation and diagnosis by the like is generated. The image is appropriately displayed on the display unit 34. In the present embodiment, the image processing device 3 captures a target site to be diagnosed from a plurality of frame images constituting a dynamic image in which a dynamic aspect of the chest mainly including the heart and both lungs is captured. Lung field regions as regions (also referred to as target regions) are respectively detected. In addition, the information processing apparatus should just have the functional structure similar to the structure of a personal computer (personal computer) or a personal computer, for example.

図1で示されるように、画像処理装置3は、バス35によって相互にデータの授受が可能に接続されている制御部31、記憶部32、操作部33、表示部34および通信部35を備えて構成されている。   As shown in FIG. 1, the image processing apparatus 3 includes a control unit 31, a storage unit 32, an operation unit 33, a display unit 34, and a communication unit 35 that are connected to each other via a bus 35 so as to be able to exchange data. Configured.

制御部31は、例えば、プロセッサー31aおよびメモリー31b等を備えて構成されている。該プロセッサー31aは、例えば、CPU(Central Processing Unit)であり、メモリー31bは、例えば、揮発性のRAM(Random Access Memory)等であれば良い。例えば、プロセッサー31aは、操作部33の操作等に応じて、記憶部32に記憶されているプログラムP1を読み出してメモリー31b内に展開し、該展開されたプログラムP1に従った各種処理を実行することで、画像処理装置3の各部の動作を制御する。すなわち、プログラムP1は、情報処理装置に含まれる制御部31において実行されることにより、該情報処理装置を画像処理装置3として機能させる。   The control unit 31 includes, for example, a processor 31a and a memory 31b. The processor 31a is, for example, a CPU (Central Processing Unit), and the memory 31b may be, for example, a volatile RAM (Random Access Memory). For example, the processor 31a reads out the program P1 stored in the storage unit 32 in accordance with the operation of the operation unit 33, expands it in the memory 31b, and executes various processes according to the expanded program P1. Thus, the operation of each unit of the image processing apparatus 3 is controlled. That is, the program P1 is executed by the control unit 31 included in the information processing apparatus, thereby causing the information processing apparatus to function as the image processing apparatus 3.

記憶部32は、例えば、不揮発性の半導体メモリーあるいはハードディスク等を備えて構成されている。該記憶部32は、制御部31で実行されるプログラムP1ならびに処理の実行に必要な各種データD1を記憶する。ここで、各種データD1には、プログラムに従った処理の実行に必要なパラメーター等を示すデータ、ならびに演算処理の結果として少なくとも一時的に生成されるデータ等が含まれる。なお、プログラムP1には、例えば、画像処理を実行するためのプログラムが含まれている。そして、プログラムP1は、読取可能なプログラムコードの形態で記憶部32に格納されており、制御部31は、当該プログラムコードに従った動作を逐次実行する。   The storage unit 32 includes, for example, a nonvolatile semiconductor memory or a hard disk. The storage unit 32 stores a program P1 executed by the control unit 31 and various data D1 necessary for execution of processing. Here, the various data D1 includes data indicating parameters and the like necessary for execution of processing according to the program, data generated at least temporarily as a result of the arithmetic processing, and the like. The program P1 includes, for example, a program for executing image processing. The program P1 is stored in the storage unit 32 in the form of readable program code, and the control unit 31 sequentially executes operations according to the program code.

操作部33は、例えば、キーボードおよびマウス等のポインティングデバイス等を備えて構成されている。該操作部33では、キーボードおよびマウス等に対する操作に応じて入力される信号(指示信号とも言う)が制御部31に出力される。なお、操作部33には、タッチパネル等の構成が採用されても良い。   The operation unit 33 includes, for example, a pointing device such as a keyboard and a mouse. In the operation unit 33, a signal (also referred to as an instruction signal) that is input in response to an operation on the keyboard and the mouse is output to the control unit 31. The operation unit 33 may employ a configuration such as a touch panel.

表示部34は、例えば、LCD(Liquid Crystal Display)等のモニターを備えて構成されている。該表示部34では、制御部31から入力される信号に従って、操作部33から入力される指示の内容、各種データならびに各種画像が表示される。   The display unit 34 includes, for example, a monitor such as an LCD (Liquid Crystal Display). In the display unit 34, in accordance with a signal input from the control unit 31, the contents of instructions input from the operation unit 33, various data, and various images are displayed.

通信部35は、例えば、LANアダプター、モデムまたはターミナルアダプター(TA)等を備えて構成されている。該通信部35によって、ネットワーク回線NTWに接続されている各装置との間におけるデータの送受信が制御される。   The communication unit 35 includes, for example, a LAN adapter, a modem, or a terminal adapter (TA). The communication unit 35 controls transmission / reception of data to / from each device connected to the network line NTW.

<(4−2)画像処理装置の機能的な構成>
図2は、画像処理装置3において、プロセッサー31a等がプログラムP1に従って動作することによって制御部31で実現される機能的な構成を、他の構成とともに示すブロック図である。図2で示されるように、制御部31は、主に、画像取得部311、画像補正部312、第1検出部としての粗検出部313、第2検出部としての精密検出部314および対象領域抽出部315を備えている。
<(4-2) Functional Configuration of Image Processing Device>
FIG. 2 is a block diagram showing a functional configuration realized by the control unit 31 when the processor 31a and the like operate according to the program P1 in the image processing apparatus 3, together with other configurations. As shown in FIG. 2, the control unit 31 mainly includes an image acquisition unit 311, an image correction unit 312, a rough detection unit 313 as a first detection unit, a precision detection unit 314 as a second detection unit, and a target region. An extraction unit 315 is provided.

本実施形態に係る画像処理装置3では、主に次の処理A1〜A5を含む情報処理(対象領域抽出処理とも言う)が実行される。これにより、X線撮影によって得られる体内の構造物の動的な態様が捉えられた一連のフレーム画像I0(図3参照)から対象部位を捉えた領域が精度良く抽出され得る。   In the image processing apparatus 3 according to the present embodiment, information processing (also referred to as target area extraction processing) including mainly the following processes A1 to A5 is executed. Thereby, the area | region which caught the object site | part can be accurately extracted from the series of frame images I0 (refer FIG. 3) by which the dynamic aspect of the internal structure obtained by X-ray imaging was caught.

[処理A1]撮影制御装置2から一連の複数のフレーム画像I0が画像取得部311によって取得される。   [Process A1] The image acquisition unit 311 acquires a series of a plurality of frame images I0 from the imaging control device 2.

[処理A2]各フレーム画像I0に対する画像補正部312による補正により、ノイズの低減と対象部位以外の構造物による影響の低減とが行われることで、補正後のフレーム画像IC0(図9および図10参照)が得られる。   [Process A2] The frame image IC0 after correction (FIGS. 9 and 10) is performed by reducing the noise and the influence of the structure other than the target part by correcting the frame image I0 by the image correction unit 312. Reference) is obtained.

[処理A3]粗検出部313により、テンプレートマッチングが用いられて、補正後の各フレーム画像IC0から対象部位の位置が大まかに検出される処理(粗検出処理とも言う)が行われる。なお、テンプレートマッチングで通常用いられるテンプレートは、例えば、単純に複数の画像から生成される平均画像、あるいは白黒で表現される単純なモデルで表現された画像(モデル画像とも言う)等である。このため、X線画像を対象としたテンプレートマッチングでは、テンプレートの使用数が少なければ、肺野および心臓についての個体間における大きさ等の形状の差ならびに呼吸および心拍の変動による形状の差により、肺野領域が輪郭まで精度良く検出されない。そこで、テンプレートマッチングによる検出結果は、各フレーム画像IC0における対象部位の大まかな位置を示す情報として使用される。   [Process A3] The rough detection unit 313 performs a process (also referred to as a rough detection process) in which the position of the target portion is roughly detected from each corrected frame image IC0 using template matching. Note that a template normally used in template matching is, for example, an average image simply generated from a plurality of images, or an image (also referred to as a model image) expressed by a simple model expressed in black and white. For this reason, in template matching for X-ray images, if the number of templates used is small, due to the difference in shape such as the size of the lung field and heart between individuals and the difference in shape due to fluctuations in respiration and heartbeat, The lung field region is not accurately detected up to the contour. Therefore, the detection result by template matching is used as information indicating the approximate position of the target portion in each frame image IC0.

[処理A4]大まかに検出された対象部位の位置に係る情報が初期値とされて、精密検出部314によって各フレーム画像IC0から対象部位の位置が詳細に検出される処理(精密検出処理とも言う)が行われる。   [Process A4] Information regarding the position of the roughly detected target part is set as an initial value, and the precise detection unit 314 detects the position of the target part in detail from each frame image IC0 (also referred to as a precision detection process). ) Is performed.

[処理A5]詳細に検出された対象部位の位置に係る情報に基づき、対象領域抽出部315によってフレーム画像I0から対象領域が抽出される。   [Process A5] Based on the information regarding the position of the target part detected in detail, the target area is extracted from the frame image I0 by the target area extraction unit 315.

以下、各部311〜315について順次説明する。   Hereinafter, each part 311 to 315 will be sequentially described.

<(4−2−1)画像取得部>
画像取得部311は、X線の照射によって体内の構造物が捉えられた生体画像を取得する。本実施形態では、生体画像において肺野の構造物が捉えられている。そして、画像取得部311によって、撮影装置1におけるX線撮影で得られる動態画像(X線動態画像とも言う)を構成する複数の生体画像に係る画像データが、撮影制御装置2を介して取得される。具体的には、例えば、画像取得部311によって、撮影制御装置2の記憶部22に記憶された複数の画像データが、通信部25、ネットワーク回線NTWおよび通信部35を順に介して取得される。これにより、画像取得部311によって、X線の照射によって体内の構造物としての肺野内の構造物が捉えられた動態画像が取得される。
<(4-2-1) Image acquisition unit>
The image acquisition unit 311 acquires a biological image in which a structure inside the body is captured by X-ray irradiation. In this embodiment, the structure of the lung field is captured in the biological image. Then, the image acquisition unit 311 acquires image data related to a plurality of biological images constituting a dynamic image (also referred to as an X-ray dynamic image) obtained by X-ray imaging in the imaging apparatus 1 via the imaging control apparatus 2. The Specifically, for example, the image acquisition unit 311 acquires a plurality of image data stored in the storage unit 22 of the imaging control apparatus 2 via the communication unit 25, the network line NTW, and the communication unit 35 in order. As a result, the image acquisition unit 311 acquires a dynamic image in which a structure in the lung field as a structure inside the body is captured by X-ray irradiation.

図3は、被検者M1の肺野内における呼吸に伴う構造物の動態が捉えられたX線動態画像の一例を模式的に示す図である。図3には、呼吸のサイクルに係る1周期において、一定の撮影のタイミングで順次に撮影されることで得られる、一連の複数の生体画像としてのフレーム画像I0が例示されている。図3で示される複数のフレーム画像I0は、時刻Tがt1,t2,t3,・・・,t10である撮影のタイミングにおける撮影によってそれぞれ得られる複数のフレーム画像I1,I2,I3,・・・I10によって構成されている。なお、一連のフレーム画像I1〜I10のうち、前半のフレーム画像I1〜I5には、肺の吸気の動作によって肺野が拡張していく動態が捉えられ、後半のフレーム画像I6〜I10には、肺の呼気の動作によって肺野が収縮していく動態が捉えられている。なお、フレーム画像I0は、X線の2次元的な強度分布が、例えば、白黒の濃淡を示す画素値(濃淡値とも言う)の2次元的な分布に変換されたものである。   FIG. 3 is a diagram schematically showing an example of an X-ray dynamic image in which the dynamics of the structure accompanying breathing in the lung field of the subject M1 is captured. FIG. 3 illustrates a frame image I0 as a series of a plurality of biological images obtained by sequentially capturing images at a fixed capturing timing in one period related to the breathing cycle. The plurality of frame images I0 shown in FIG. 3 are a plurality of frame images I1, I2, I3,... Obtained by shooting at the shooting timing at time T of t1, t2, t3,. I10. Of the series of frame images I1 to I10, the first half frame images I1 to I5 capture the dynamics of expansion of the lung field due to the operation of lung inspiration, and the second half frame images I6 to I10 include The dynamics of the lung field contracting due to the exhalation of the lungs are captured. Note that the frame image I0 is obtained by converting a two-dimensional intensity distribution of X-rays into, for example, a two-dimensional distribution of pixel values (also referred to as gray values) indicating black and white.

<(4−2−2)画像補正部>
画像補正部312は、画像取得部311で取得されたX線動態画像を構成する各フレーム画像I0に対して補正を施すことで、補正後のフレーム画像IC0を得て、該補正後のフレーム画像IC0を粗検出部313に出力する。
<(4-2-2) Image Correction Unit>
The image correction unit 312 obtains a corrected frame image IC0 by performing correction on each frame image I0 constituting the X-ray dynamic image acquired by the image acquisition unit 311 and obtains the corrected frame image. IC0 is output to the coarse detection unit 313.

図4から図6は、フレーム画像I0の特徴を説明するための図である。図4には、フレーム画像I0が示され、図5には、フレーム画像I0のうちの被検者M1の背景が捉えられた領域(背景領域とも言う)HR1(図4参照)における濃淡値の頻度を示すヒストグラムが示されている。該ヒストグラムでは、横軸が濃淡値を示し、縦軸が該濃淡値の頻度を示している。また、図6には、フレーム画像I0のうちの対象部位としての肺野を含む縦長の領域VR2(図4参照)における濃淡値の分布を示すグラフが示されている。該グラフでは、横軸がY方向の座標を示し、縦軸が領域VR2内の各Y座標における濃淡値の平均を示している。図4から図6で示されるように、フレーム画像I0は、次の問題Pm1〜Pm3を有する。   4 to 6 are views for explaining the characteristics of the frame image I0. FIG. 4 shows a frame image I0, and FIG. 5 shows grayscale values in an area HR1 (refer to FIG. 4) in which the background of the subject M1 in the frame image I0 is captured. A histogram showing the frequency is shown. In the histogram, the horizontal axis indicates the gray value, and the vertical axis indicates the frequency of the gray value. Further, FIG. 6 shows a graph showing the gray value distribution in the vertically long region VR2 (see FIG. 4) including the lung field as the target site in the frame image I0. In the graph, the horizontal axis indicates the coordinate in the Y direction, and the vertical axis indicates the average of the gray value at each Y coordinate in the region VR2. As shown in FIGS. 4 to 6, the frame image I0 has the following problems Pm1 to Pm3.

[問題Pm1]図5で示されるように、フレーム画像I0では、被検者M1が存在しない部分に係る背景領域HR1においてもノイズが多く存在し、一般的な静止画としてのX線画像と比較して、フレーム画像I0全体におけるS/N比が低くなる傾向を示す。これは、対象部位を捉えたX線動態画像の取得においてX線による被検者M1の被爆量が増大しないように、各フレーム画像の撮影に要する被爆量が低く抑えられることに起因する。そして、このようにノイズが多く存在していれば、対象部位としての肺野が捉えられた対象領域としての肺野領域を精度良く抽出することが難しくなる。   [Problem Pm1] As shown in FIG. 5, in the frame image I0, there is a lot of noise also in the background region HR1 related to the part where the subject M1 does not exist, and it is compared with an X-ray image as a general still image. Thus, the S / N ratio in the entire frame image I0 tends to be low. This is because the amount of exposure required for photographing each frame image is kept low so that the amount of exposure of the subject M1 due to X-rays does not increase in the acquisition of the X-ray dynamic image capturing the target region. If there is a lot of noise in this way, it becomes difficult to accurately extract the lung field region as the target region where the lung field as the target region is captured.

[問題Pm2]図6で示されるように、フレーム画像I0では、肺に係る濃淡値に肺以外の構造物(肋骨および血管等の構造物)に係る濃淡値が重畳し、肺野内の構造物に係る濃淡値にばらつきが生じているため、対象領域としての肺野領域の輪郭が不鮮明である。このように輪郭が不鮮明であれば、対象部位としての肺野が捉えられた対象領域としての肺野領域を精度良く抽出することが難しくなる。   [Problem Pm2] As shown in FIG. 6, in the frame image I0, the grayscale value related to the structure other than the lung (structure such as ribs and blood vessels) is superimposed on the grayscale value related to the lung. Since there is a variation in the gray value relating to, the outline of the lung field region as the target region is unclear. Thus, if the outline is unclear, it is difficult to accurately extract the lung field region as the target region where the lung field as the target region is captured.

[問題Pm3]フレーム画像I0では、肋横角が捉えられた領域付近の濃淡値が、肺野内よりも肺野外において捉えられた周辺の領域の濃淡値に近く、心臓が捉えられた領域と肺野領域との境界が不鮮明である。このように境界が不鮮明であれば、対象部位としての肺野が捉えられた対象領域としての肺野領域を精度良く抽出することが難しくなる。なお、肋横角が捉えられた領域は、横隔膜の両端が捉えられた領域にあたる。   [Problem Pm3] In the frame image I0, the gray value in the vicinity of the region where the lateral angle is captured is closer to the gray value in the surrounding region captured outside the lung field than in the lung field, and the region where the heart is captured and the lungs. The border with the field is unclear. If the boundary is unclear in this way, it becomes difficult to accurately extract the lung field region as the target region where the lung field as the target region is captured. Note that the region where the heel lateral angle is captured corresponds to the region where both ends of the diaphragm are captured.

上記問題Pm1〜Pm3を軽減するために、フレーム画像I0におけるノイズを削減し、フレーム画像I0に対する肺以外の構造物の影響を軽減する処理として、肺野領域の輪郭を明瞭にする補正処理が、フレーム画像I0に施される。   In order to reduce the problems Pm1 to Pm3, as a process of reducing noise in the frame image I0 and reducing the influence of structures other than the lungs on the frame image I0, a correction process for clarifying the outline of the lung field region is performed. It is applied to the frame image I0.

図7から図10は、画像補正部312においてフレーム画像I0に施される補正処理の内容を説明するための図である。   FIGS. 7 to 10 are diagrams for explaining the content of the correction process performed on the frame image I0 in the image correction unit 312. FIG.

図7には、フレーム画像I0が示されている。図8には、該フレーム画像I0に対して画像全体に存在するノイズを削減する処理(ノイズ削減処理とも言う)が施された後のフレーム画像I1が示されている。図9および図10には、フレーム画像I1に強調処理が施された後のフレーム画像IC0が示されている。そして、図9には、フレーム画像I1の全体に強調処理(全体強調処理とも言う)が施された後のフレーム画像IC0が示されている。また、図10には、フレーム画像I1の予め設定された領域(所定領域とも言う)に強調処理(エリア内強調処理とも言う)が施された後のフレーム画像IC0が示されている。なお、図8から図10の右部には、それぞれ横軸を濃淡値(画素値)とし、縦軸を該濃淡値(画素値)の頻度(単位:%)とするヒストグラムが示されている。   FIG. 7 shows a frame image I0. FIG. 8 shows the frame image I1 after the processing for reducing noise existing in the entire image (also referred to as noise reduction processing) is performed on the frame image I0. 9 and 10 show the frame image IC0 after the enhancement processing is performed on the frame image I1. FIG. 9 shows the frame image IC0 after the enhancement processing (also referred to as overall enhancement processing) is performed on the entire frame image I1. FIG. 10 shows the frame image IC0 after an enhancement process (also referred to as an in-area enhancement process) is performed on a preset area (also referred to as a predetermined area) of the frame image I1. 8 to 10, histograms are shown in which the horizontal axis is the gray value (pixel value) and the vertical axis is the frequency (unit:%) of the gray value (pixel value). .

本実施形態では、画像補正部312における強調処理において、ノイズ削減処理および強調処理が、この順に実施される。   In the present embodiment, in the enhancement processing in the image correction unit 312, noise reduction processing and enhancement processing are performed in this order.

ここで、ノイズ削減処理および強調処理の内容について、簡単に説明する。   Here, the contents of the noise reduction process and the enhancement process will be briefly described.

<(4−2−2−1)ノイズ削減処理>
ノイズ削減処理としては、例えば、縮小処理等が挙げられる。縮小処理では、例えば、選択されたエリア(選択エリアとも言う)が、該選択エリアを構成する複数の画素値(濃淡値)に係る代表の画素値(代表画素値とも言う)に置換される。代表画素値は、例えば、選択エリア内に係る平均の画素値(濃淡値)、あるいは選択エリア内における最小の画素値等であれば良い。なお、代表画素値が、選択エリア内に係る平均の画素値である場合、縮小処理は、例えば、平均値フィルターを用いたフィルター処理等によって実現される。
<(4-2-2-1) Noise reduction processing>
Examples of noise reduction processing include reduction processing. In the reduction process, for example, a selected area (also referred to as a selection area) is replaced with a representative pixel value (also referred to as a representative pixel value) related to a plurality of pixel values (light / dark values) constituting the selection area. The representative pixel value may be, for example, an average pixel value (gray value) in the selection area, or a minimum pixel value in the selection area. When the representative pixel value is an average pixel value in the selected area, the reduction process is realized by, for example, a filter process using an average value filter.

図11から図15は、縮小処理の一例を説明するための図である。図11には、フレーム画像I0に1つの選択エリアR3が設定されている様子が示されている。図12には、フレーム画像I0における選択エリアR3の拡大図が示され、該選択エリアR3内の画素値が最小である画素Pmが示されている。ここでは、各選択エリアR3について画素Pmの画素値を代表画素値とする縮小処理が行われる。これにより、画像I0で捉えられた肺野領域のうち、最大値側の画素値(すなわち、ノイズ)が削減される。   11 to 15 are diagrams for explaining an example of the reduction process. FIG. 11 shows a state where one selection area R3 is set in the frame image I0. FIG. 12 shows an enlarged view of the selection area R3 in the frame image I0, and shows a pixel Pm having the smallest pixel value in the selection area R3. Here, a reduction process using the pixel value of the pixel Pm as the representative pixel value is performed for each selection area R3. Thereby, the pixel value (that is, noise) on the maximum value side in the lung field region captured in the image I0 is reduced.

例えば、図13には、フレーム画像I0にエリアR4が設定されている様子が示されている。図14には、フレーム画像I0におけるエリアR4の拡大図が示されており、図15には、フレーム画像I0に縮小処理が施された後のフレーム画像I1におけるエリアR4の拡大図が示されている。図14および図15で示されるように、フレーム画像I0に強調処理が施されることで、肺野領域内における小さな画素値が強調され、肺野領域内のノイズが低減される。なお、最小の画素値側のノイズが拡大される場合には、スムージングが施されても良い。   For example, FIG. 13 shows a state where an area R4 is set in the frame image I0. FIG. 14 shows an enlarged view of the area R4 in the frame image I0, and FIG. 15 shows an enlarged view of the area R4 in the frame image I1 after the reduction processing is performed on the frame image I0. Yes. As shown in FIGS. 14 and 15, by applying the enhancement process to the frame image I0, a small pixel value in the lung field region is enhanced, and noise in the lung field region is reduced. Note that smoothing may be performed when noise on the minimum pixel value side is enlarged.

なお、ノイズ削減処理としては、上記の縮小処理に限られず、例えば、バンドパスフィルター等を用いてフレーム画像I0の高周波成分をカットする処理等と言ったその他の処理が採用されても良い。   Note that the noise reduction process is not limited to the above reduction process, and other processes such as a process of cutting a high-frequency component of the frame image I0 using a bandpass filter or the like may be employed.

<(4−2−2−2)強調処理>
全体強調処理では、例えば、予め設定された閾値以上の画素値が、予め設定されたルールに従って、閾値以下の相対的に低い画素値に置換される。これにより、フレーム画像I0に対する肺以外の構造物の影響が軽減される。
<(4-2-2) Enhancement processing>
In the overall enhancement process, for example, pixel values that are equal to or greater than a preset threshold value are replaced with relatively low pixel values that are equal to or less than the threshold value in accordance with a preset rule. Thereby, the influence of structures other than the lungs on the frame image I0 is reduced.

図8および図9で示されるように、ノイズ削減処理が施されたフレーム画像I1と比較して、全体強調処理が施されたフレーム画像IC0では、濃淡値が大きな白い領域が相対的に少なく、濃淡値が小さな黒い領域が相対的に多い。つまり、全体強調処理によって、フレーム画像I1のうちの肺野領域を含めた全体について、肺以外の構造物に相当する白の領域が低減され、黒の領域が強調される。   As shown in FIG. 8 and FIG. 9, in the frame image IC0 subjected to the overall enhancement processing, the white region having a large gray value is relatively less than the frame image I1 subjected to the noise reduction processing, There are relatively many black areas with small gray values. That is, the whole area including the lung field area in the frame image I1 is reduced by the whole enhancement process, and the white area corresponding to the structure other than the lung is reduced, and the black area is emphasized.

なお、強調処理における閾値は、予め設定された固定値であっても良いし、適宜変更されても良い。例えば、処理の対象であるフレーム画像I1の状態に合わせて、閾値が変更される態様が考えられる。この態様では、例えば、フレーム画像I1の濃淡値のヒストグラムについて、濃淡値が小さな値の方から順に頻度が累積され、頻度の累積値が所定値に到達した濃淡値が、閾値に設定される。なお、頻度の累積値が百分率で示される場合、所定値は、例えば、80%等であれば良い。ここでは、例えば、一連の複数のフレーム画像I1に対し、例えば、フレーム画像I1毎に閾値が設定される態様が考えられる。また、例えば、一連の複数のフレーム画像I1に対し、1枚目のフレーム画像I1に基づいて閾値が設定され、一旦設定された閾値が、その他のフレーム画像I1に対する強調処理に適用される態様が考えられる。このような態様が採用されれば、演算量の削減による画像処理に要する時間が短縮され得る。   The threshold value in the enhancement process may be a fixed value set in advance or may be changed as appropriate. For example, a mode in which the threshold value is changed in accordance with the state of the frame image I1 that is the processing target can be considered. In this aspect, for example, regarding the histogram of the gray value of the frame image I1, the frequency is accumulated in order from the smaller gray value, and the gray value at which the accumulated frequency reaches a predetermined value is set as the threshold value. In addition, when the cumulative value of the frequency is expressed as a percentage, the predetermined value may be 80%, for example. Here, for example, a mode in which a threshold is set for each frame image I1 with respect to a series of a plurality of frame images I1 is conceivable. In addition, for example, a threshold is set for a series of a plurality of frame images I1 based on the first frame image I1, and the temporarily set threshold is applied to enhancement processing for the other frame images I1. Conceivable. If such an aspect is adopted, the time required for image processing by reducing the amount of calculation can be shortened.

ところで、エリア内強調処理では、フレーム画像I1における所定領域に強調処理が施される。該所定領域は、例えば、所望の固定領域であれば良いが、ロバスト性の向上を図るために、処理の対象としてのフレーム画像I1における濃淡値の分布(プロファイル)に応じて変更されても良い。   By the way, in the in-area enhancement process, the enhancement process is performed on a predetermined region in the frame image I1. For example, the predetermined region may be a desired fixed region, but may be changed according to the distribution (profile) of the gray value in the frame image I1 as the processing target in order to improve the robustness. .

図16は、エリア内強調処理における所定領域の設定方法の一例を説明するための図である。図16の右部には、Y座標と、フレーム画像I1の各Y座標における濃淡値の累積値(濃淡累積値とも言う)との関係が、縦方向のプロファイルとして示されている。また、図16の下部には、X座標と、フレーム画像I1の各X座標における濃淡値の累積値(濃淡累積値)との関係が、横方向のプロファイルとして示されている。   FIG. 16 is a diagram for explaining an example of a predetermined area setting method in the in-area enhancement process. In the right part of FIG. 16, the relationship between the Y coordinate and the accumulated value of the gray value (also referred to as the gray value accumulated value) at each Y coordinate of the frame image I1 is shown as a vertical profile. Further, in the lower part of FIG. 16, the relationship between the X coordinate and the accumulated value of the gray value at each X coordinate of the frame image I1 (light gray value) is shown as a profile in the horizontal direction.

ここでは、例えば、各プロファイルにおいて濃淡累積値の傾向が大きく変化する点(変化点とも言う)Px1,Px2,Py1,Py2が抽出される。そして、X座標が変化点Px1から変化点Px2までの範囲であり、且つY座標が変化点Py1から変化点Py2までの範囲である矩形状の領域R5が所定領域として設定される。   Here, for example, points (also referred to as change points) Px1, Px2, Py1, and Py2 at which the tendency of the accumulated gray value changes greatly in each profile are extracted. A rectangular region R5 in which the X coordinate is in the range from the change point Px1 to the change point Px2 and the Y coordinate is in the range from the change point Py1 to the change point Py2 is set as the predetermined region.

<(4−2−3)粗検出部>
粗検出部313は、生体画像としての各フレーム画像IC0(図17参照)を対象としたテンプレートマッチングを用いて、フレーム画像IC0のうち、対象確定領域PR11(図18参照)と、未確定領域PR12(図18参照)とを検出する。テンプレートマッチングの手法としては、例えば、公知のSAD(Sum of Absolute Differences)法、NCC(Normalized Cross Correlation)法、POC(Phase-Only Correlation)法およびRIPOC(Rotation Invariant Phase-Only Correlation)法等の手法が採用される。これにより、対象確定領域PR11と未確定領域PR12とを含む対象候補領域PR1(図18参照)が検出される。なお、ここで、対象確定領域PR11は、フレーム画像IC0のうち、対象部位としての肺野の少なくとも一部が捉えられている領域であり、未確定領域PR12は、フレーム画像IC0のうち、対象部位としての肺野の一部が捉えられている可能性がある領域である。
<(4-2-3) Coarse detection unit>
The coarse detection unit 313 uses the template matching for each frame image IC0 (see FIG. 17) as a biological image, and among the frame image IC0, the target confirmed region PR11 (see FIG. 18) and the undetermined region PR12. (See FIG. 18). Examples of template matching methods include known SAD (Sum of Absolute Differences) methods, NCC (Normalized Cross Correlation) methods, POC (Phase-Only Correlation) methods, and RIPOC (Rotation Invariant Phase-Only Correlation) methods. Is adopted. As a result, the target candidate region PR1 (see FIG. 18) including the target confirmed region PR11 and the undetermined region PR12 is detected. Here, the target confirmed region PR11 is a region in which at least a part of the lung field as the target region is captured in the frame image IC0, and the undetermined region PR12 is the target region in the frame image IC0. This is a region where a part of the lung field may be captured.

本実施形態では、粗検出部313は、フレーム画像IC0のうち、対象部位としての肺野が捉えられていない領域(非対象確定領域とも言う)PR2も検出する。これにより、図18で示されるように、フレーム画像IC0を、対象確定領域PR11と、未確定領域PR12と、非対象確定領域PR2とに区分する情報(領域区分情報とも言う)IC1が生成される。   In the present embodiment, the coarse detection unit 313 also detects a region PR2 in the lung image IC0 where a lung field as a target region is not captured (also referred to as a non-target determination region). Thereby, as shown in FIG. 18, information (also referred to as region division information) IC1 for dividing the frame image IC0 into the target fixed region PR11, the undetermined region PR12, and the non-target fixed region PR2 is generated. .

ところで、次段の精密検出処理を想定すれば、粗検出処理では、通常は、フレーム画像IC0から、検出が難しい構造物の輪郭まで極力接近している部分まで対象確定領域PR11および非対象確定領域PR2が検出されれば良い。つまり、未確定領域PR12が狭くなれば良い。これにより、精密検出処理において、構造物の不明瞭な輪郭を超えた対象領域の過大な検出が生じ難い。なお、輪郭の検出が難しい構造物としては、例えば、輪郭が不鮮明である構造物、あるいは他の構造物の存在によって分断されている構造物等が考えられる。   By the way, assuming the next precise detection process, in the rough detection process, the target fixed region PR11 and the non-target fixed region are usually from the frame image IC0 to the portion as close as possible to the contour of the structure that is difficult to detect. It suffices if PR2 is detected. That is, it is only necessary that the undetermined region PR12 becomes narrow. Thereby, in the precision detection process, it is difficult to cause excessive detection of the target region beyond the unclear outline of the structure. In addition, as a structure where it is difficult to detect the contour, for example, a structure where the contour is unclear, or a structure that is divided by the presence of another structure, or the like can be considered.

しかしながら、粗検出処理で検出される未確定領域PR12が狭ければ、病変による構造物の欠落、周期的な動きの違いによる形状の変化、および他の構造物の重畳等による構造物の隠れ等の問題により、対象確定領域PR11が過大に検出されている場合もある。このため、次段の精密検出処理において構造物の輪郭を超えた対象領域の過大な検出が生じ易い。   However, if the undetermined region PR12 detected by the rough detection process is narrow, the structure may be lost due to a lesion, the shape may change due to a periodic motion difference, or the structure may be hidden due to overlapping of other structures. Due to this problem, the target determination region PR11 may be detected excessively. For this reason, excessive detection of the target area exceeding the outline of the structure is likely to occur in the subsequent precision detection processing.

そこで、本実施形態に係る粗検出処理では、フレーム画像IC0に対して、大域部分に係る大域テンプレートを用いたテンプレートマッチングによって、大域部分が捉えられた大域領域の位置が検出される。また、フレーム画像IC0に対して、局所部分に係る局所テンプレートを用いたテンプレートマッチングによって、局所部分が捉えられた局所領域の位置が検出される。このとき、検出された局所領域の位置の信頼性に応じて、検出された局所領域の位置に係る情報を、領域区分情報IC1の生成に用いるか否か判定される。   Therefore, in the coarse detection processing according to the present embodiment, the position of the global region where the global part is captured is detected by template matching using the global template related to the global part with respect to the frame image IC0. Further, the position of the local region where the local portion is captured is detected by template matching using the local template related to the local portion with respect to the frame image IC0. At this time, in accordance with the reliability of the position of the detected local region, it is determined whether or not the information related to the position of the detected local region is used for generating the region segment information IC1.

ここで、局所部分は、対象部分のうちの局所的な部分であり、大域部分に含まれ且つ該大域部分よりも相対的に狭い領域を占める部分である。該局所部分には、例えば、個体間で周期的な状態の変化に差が生じる部分、および個体間において形状に差が生じる部分のうちの少なくとも一方が含まれていれば良い。このような局所部分には、例えば、大動脈弓、鎖骨、心臓、横隔膜および肋横角のうちの少なくとも1つの部分が含まれていれば良い。これにより、フレーム画像IC0において捉えられている実際の大域部分の位置と、検出される大域領域の位置との間にずれが生じ易い部分について、局所領域が検出される。このため、生体画像から対象部位を捉えた領域が精度良く検出ならびに抽出され得る。また、局所部分は、例えば、輪郭が不鮮明で検出し難い部分であっても良い。これにより、肋骨、鎖骨および乳房等の他の構造物の輪郭が誤って関心領域の輪郭として検出される過小な対象領域の検出が抑制される。   Here, the local part is a local part of the target part, and is a part that is included in the global part and occupies a relatively narrow area than the global part. The local portion only needs to include, for example, at least one of a portion in which a difference in a periodic state varies between individuals and a portion in which a shape difference occurs between individuals. Such a local portion only needs to include at least one portion of, for example, the aortic arch, the clavicle, the heart, the diaphragm, and the transverse angle. As a result, a local region is detected in a portion where a shift is likely to occur between the position of the actual global portion captured in the frame image IC0 and the position of the detected global region. For this reason, the area | region which caught the object site | part from the biological image can be detected and extracted with a sufficient precision. Further, the local portion may be, for example, a portion whose outline is unclear and difficult to detect. This suppresses detection of an excessively small target region in which the contours of other structures such as ribs, collarbones, and breasts are erroneously detected as the contours of the region of interest.

また、大域部分は、対象部分のうちの比較的大きな領域を占める部分であり、1以上の局所部分を含む。大域テンプレートは、大域領域に係るテンプレートであり、局所テンプレートは、局所領域に係るテンプレートである。   The global portion is a portion that occupies a relatively large region of the target portion, and includes one or more local portions. The global template is a template related to the global region, and the local template is a template related to the local region.

上記粗検出処理により、フレーム画像IC0から局所的な観点から検出された局所領域の位置の信頼性が低い部分については、フレーム画像IC0から比較的巨視的な観点から検出された大域領域の位置を示す情報に基づいて領域区分情報IC1が生成される。これにより、構造物の不明瞭な輪郭を超えた対象領域の過大な検出が生じ難くなる。その結果、X線撮影によって得られる体内の構造物の動的な態様を捉えた一連のフレーム画像I0から対象部位としての肺野を捉えた領域が精度良く抽出され得る。   With respect to the portion where the position of the local area detected from the local viewpoint is low from the frame image IC0 by the rough detection process, the position of the global area detected from the frame image IC0 from the relatively macroscopic viewpoint is determined. The area division information IC1 is generated based on the information shown. Thereby, it becomes difficult to produce the excessive detection of the object area | region exceeding the unclear outline of a structure. As a result, a region that captures a lung field as a target region can be accurately extracted from a series of frame images I0 that capture a dynamic aspect of a body structure obtained by X-ray imaging.

図19は、粗検出部313で実現される機能的な構成を、他の構成とともに示すブロック図である。図19で示されるように、粗検出部313は、主に、大域領域検出部3131、局所領域検出部3132、領域設定判定部3133および候補領域設定部3134を有している。   FIG. 19 is a block diagram illustrating a functional configuration realized by the coarse detection unit 313 together with other configurations. As illustrated in FIG. 19, the coarse detection unit 313 mainly includes a global region detection unit 3131, a local region detection unit 3132, a region setting determination unit 3133, and a candidate region setting unit 3134.

以下、大域領域および局所領域の設定、テンプレートの生成方法、ならびに粗検出部313の各部3131〜3133について説明する。   Hereinafter, setting of the global region and the local region, a template generation method, and each unit 3131 to 1133 of the rough detection unit 313 will be described.

<(4−2−3−1)大域領域および局所領域の設定>
図20は、大域領域および局所領域の設定例を示す図である。図20には、肺野が捉えられた典型的なX線画像(モデル画像とも言う)MI0における大域領域および局所領域の位置が例示されている。
<(4-2-3-1) Setting of global region and local region>
FIG. 20 is a diagram illustrating a setting example of the global region and the local region. FIG. 20 illustrates the positions of the global region and the local region in a typical X-ray image (also referred to as a model image) MI0 in which the lung field is captured.

図20で示されるように、肺野に係るモデル画像MI0においては、横隔膜の全体を包含する領域(横隔膜領域とも言う)R1に、左横隔膜を包含する領域(左横隔膜領域とも言う)R1Lおよび右横隔膜を包含する領域(右横隔膜領域とも言う)R1Rが含まれる。そして、左横隔膜領域R1Lに、左肋横角を包含する領域(左肋横角領域とも言う)R1L1および心臓に係る領域(心臓領域とも言う)R1L2が含まれ、右横隔膜領域R1Rに、右肋横角を包含する領域(右肋横角領域とも言う)R1R1が含まれる。また、肺野に係るモデル画像MI0においては、左肺尖部を包含する領域(左肺尖部領域とも言う)R2Lおよび右肺尖部を包含する領域(右肺尖部領域とも言う)R2Rがあり、左肺尖部領域R2Lに、大動脈弓を包含する領域(大動脈弓領域とも言う)R2L1が含まれる。   As shown in FIG. 20, in the model image MI0 related to the lung field, a region (also referred to as a diaphragm region) R1 including the entire diaphragm, a region including the left diaphragm (also referred to as a left diaphragm region) R1L, and a right A region including the diaphragm (also referred to as a right diaphragm region) R1R is included. The left diaphragm region R1L includes a region including a port lateral angle (also referred to as a port lateral angle region) R1L1 and a region relating to the heart (also referred to as a heart region) R1L2, and the right diaphragm region R1R includes a starboard A region including a lateral angle (also referred to as a starboard lateral angle region) R1R1 is included. Further, in the model image MI0 related to the lung field, a region including the left lung apex (also referred to as the left lung apex region) R2L and a region including the right lung apex (also referred to as the right lung apex region) R2R include The left apex region R2L includes a region (also referred to as an aortic arch region) R2L1 that includes the aortic arch.

このため、例えば、横隔膜領域R1が大域領域とされる場合、左横隔膜領域R1Lおよび右横隔膜領域R1Rがそれぞれ局所領域とされる。さらに、左横隔膜領域R1Lに対し、左肋横角領域R1L1および心臓領域R1L2がそれぞれ局所領域とされ、右横隔膜領域R1Rに対し、右肋横角領域R1R1が局所領域とされる。また、左肺尖部領域R2Lが大域領域とされる場合、大動脈弓領域R2L1が局所領域とされる。   For this reason, for example, when the diaphragm region R1 is a global region, the left diaphragm region R1L and the right diaphragm region R1R are local regions. Further, the left lateral lateral region R1L1 and the heart region R1L2 are local regions with respect to the left diaphragm region R1L, and the right lateral lateral region R1R1 is a local region with respect to the right diaphragm region R1R. When the left lung apex region R2L is a global region, the aortic arch region R2L1 is a local region.

<(4−2−3−2)テンプレートの種類>
図19で示されるように、記憶部32に格納される各種データD1には、大域テンプレートに係る情報(大域テンプレート情報とも言う)D11および局所テンプレートに係る情報(局所テンプレート情報とも言う)D12が含まれる。
<(4-2-3-2) Template types>
As shown in FIG. 19, the various data D1 stored in the storage unit 32 includes information relating to the global template (also referred to as global template information) D11 and information relating to the local template (also referred to as local template information) D12. It is.

図20で示されるように、大域テンプレート情報D11には、横隔膜テンプレートT1、左肺尖部テンプレートT2Lおよび右肺尖部テンプレートT2Rをそれぞれ示す情報が含まれる。横隔膜テンプレートT1は、横隔膜領域R1に対応する横隔膜の全体が捉えられたテンプレートである。左肺尖部テンプレートT2Lは、左肺尖部領域R2Lに対応する左肺尖部が捉えられたテンプレートである。右肺尖部テンプレートT2Rは、右肺尖部領域R2Rに対応する右肺尖部が捉えられたテンプレートである。   As shown in FIG. 20, the global template information D11 includes information indicating the diaphragm template T1, the left lung apex template T2L, and the right lung apex template T2R, respectively. The diaphragm template T1 is a template that captures the entire diaphragm corresponding to the diaphragm region R1. The left lung apex template T2L is a template in which the left lung apex corresponding to the left lung apex region R2L is captured. The right lung apex template T2R is a template in which the right lung apex corresponding to the right lung apex region R2R is captured.

また、局所テンプレート情報D12には、左横隔膜テンプレートT1L、右横隔膜テンプレートT1R、左肋横角テンプレートT1L1、心臓テンプレートT1L2、右肋横角テンプレートTlR1および大動脈弓テンプレートT2L1をそれぞれ示す情報が含まれる。左横隔膜テンプレートT1Lは、左横隔膜領域R1Lに対応する左横隔膜が捉えられたテンプレートである。右横隔膜テンプレートT1Rは、右横隔膜領域R1Rに対応する右横隔膜が捉えられたテンプレートである。左肋横角テンプレートT1L1は、左肋横角領域R1L1に対応する左肋横角が捉えられたテンプレートである。心臓テンプレートT1L2は、心臓領域R1L2に対応する心臓が捉えられたテンプレートである。右肋横角テンプレートTlR1は、右肋横角領域R1R1に対応する右肋横角が捉えられたテンプレートである。大動脈弓テンプレートT2L1は、大動脈弓領域R2L1に対応する大動脈弓が捉えられたテンプレートである。   The local template information D12 includes information indicating the left diaphragm template T1L, the right diaphragm template T1R, the left lateral lateral angle template T1L1, the heart template T1L2, the right lateral lateral angle template T1R1, and the aortic arch template T2L1, respectively. The left diaphragm template T1L is a template in which the left diaphragm corresponding to the left diaphragm region R1L is captured. The right diaphragm template T1R is a template in which the right diaphragm corresponding to the right diaphragm region R1R is captured. The port side horizontal angle template T1L1 is a template in which the port side horizontal angle corresponding to the port side horizontal angle region R1L1 is captured. The heart template T1L2 is a template in which the heart corresponding to the heart region R1L2 is captured. The starboard lateral angle template TlR1 is a template in which the starboard lateral angle corresponding to the starboard lateral angle region R1R1 is captured. The aortic arch template T2L1 is a template in which the aortic arch corresponding to the aortic arch region R2L1 is captured.

なお、図20では、大域テンプレートに対応する大域領域に局所テンプレートに対応する局所領域が完全に包含されるような設定が示されているが、これに限られない。例えば、局所テンプレートに係る局所領域の一部が大域テンプレートに係る大域領域からはみ出すような設定が採用されても構わない。   Although FIG. 20 shows a setting in which the local area corresponding to the local template is completely included in the global area corresponding to the global template, the present invention is not limited to this. For example, a setting may be adopted in which a part of the local area related to the local template protrudes from the global area related to the global template.

大域テンプレートは、例えば、複数のサンプル画像からそれぞれ切り出された複数の大域領域の平均画像であれば良い。ここで、平均画像の各画素値は、例えば、複数の大域領域における同一位置の画素に係る画素値の累積値がサンプル画像の数で除されることで算出される。また、各サンプル画像からの大域領域の切り出しは、操作部33を介した手動で行われても良いし、1つの大域領域がテンプレートとされた各サンプル画像を対象としたテンプレートマッチングによって実現されても良い。また、居所テンプレートは、例えば、大域テンプレートと同様に、複数のサンプル画像からそれぞれ切り出された複数の局所領域の平均画像であれば良い。   The global template may be an average image of a plurality of global regions cut out from a plurality of sample images, for example. Here, each pixel value of the average image is calculated, for example, by dividing a cumulative value of pixel values related to pixels at the same position in a plurality of global regions by the number of sample images. In addition, the extraction of the global area from each sample image may be performed manually via the operation unit 33, or is realized by template matching for each sample image in which one global area is a template. Also good. Further, the residence template may be an average image of a plurality of local areas respectively cut out from a plurality of sample images, for example, like the global template.

但し、大域部分および局所部分については、周期的な形状の変化ならびに個体間における形状の差が大きい。例えば、図21から図23で示されるように、呼吸によって周期的に肺野および横隔膜の縦方向のサイズおよび形状が変化する場合、ならびに図24から図27で示されるように、横隔膜および心臓の形状における個体差が生じる場合等が考えられる。このため、例えば、各部分における形状の変化および形状の差が考慮されて、例えば、各大域部分および各局所部分に対して複数のテンプレートが準備されても良い。また、各部分においては、病変による構造物の欠落および周期的な形状の変化における異状等が生じ得る。このため、例えば、病変による構造部の欠落および異状が考慮されて、症例毎にテンプレートが準備されても良い。   However, with regard to the global portion and the local portion, the periodic shape change and the shape difference between individuals are large. For example, as shown in FIGS. 21 to 23, when the longitudinal size and shape of the lung field and diaphragm change periodically due to respiration, and as shown in FIGS. The case where the individual difference in a shape arises is considered. For this reason, for example, a plurality of templates may be prepared for each global portion and each local portion in consideration of a change in shape and a difference in shape in each portion. Further, in each portion, a structure may be lost due to a lesion, an abnormality in a periodic shape change, or the like may occur. For this reason, for example, a template may be prepared for each case in consideration of omission and abnormality of a structure portion due to a lesion.

例えば、肺野および心臓の大きさの相違により、横隔膜の形状が異なるとともに、横隔膜の位置が左右で異なる。このため、本実施形態では、横隔膜の形状の差異に対し、縦方向および横方向において拡大および縮小させた関係(縦横変倍の関係とも言う)にある複数のテンプレートが採用される。また、横隔膜の左右の位置における差異に対し、左横隔膜と右横隔膜とについて別々のテンプレートが採用される。また、例えば、特定の症例としての心肥大による心臓の大きさの相違に応じて、心臓に沿った肺野の輪郭の形状が異なる。このため、本実施形態では、心臓の形状の差異に対し、縦方向および横方向において拡大および縮小させた関係にある複数のテンプレートが採用される。   For example, the shape of the diaphragm differs depending on the size of the lung field and the heart, and the position of the diaphragm differs on the left and right. For this reason, in the present embodiment, a plurality of templates that are in a relationship of being enlarged and reduced in the vertical direction and the horizontal direction (also referred to as a relationship of vertical / horizontal scaling) with respect to the difference in the shape of the diaphragm are employed. In addition, different templates are employed for the left diaphragm and the right diaphragm for differences in the left and right positions of the diaphragm. Further, for example, the shape of the contour of the lung field along the heart differs depending on the difference in the size of the heart due to cardiac hypertrophy as a specific case. For this reason, in the present embodiment, a plurality of templates having a relationship of being enlarged and reduced in the vertical direction and the horizontal direction with respect to the difference in the shape of the heart are employed.

<(4−2−3−3)テンプレートの生成方法>
図28から図31は、縦横変倍の関係にある複数の横隔膜テンプレートT1の生成方法を示す図である。図28から図31の左部にサンプル画像SI0が模式的に示されており、図28から図31の右部にサンプル画像SI0の横隔膜の形状を各々表現した横隔膜テンプレートT1a〜T1d(T1)が模式的に示されている。
<(4-2-3-3) Template generation method>
FIG. 28 to FIG. 31 are diagrams showing a method of generating a plurality of diaphragm templates T1 having a relationship of vertical / horizontal scaling. A sample image SI0 is schematically shown on the left part of FIGS. 28 to 31, and diaphragm templates T1a to T1d (T1) each representing the shape of the diaphragm of the sample image SI0 are shown on the right part of FIGS. It is shown schematically.

図28から図31のサンプル画像SI0で示されるように、横隔膜の形状には大きな個体差があり、とりわけ心臓の大きさによって横隔膜の形状が大きく異なる。このため、例えば、サンプル画像SI0が、心臓の大きさ等に応じて複数のグループに分類される。ここでは、心臓の形状が、小、一般的、中および大である4種類のグループに分類される様子が示されている。次に、図28から図31で示されるように、サンプル画像SI0における横隔膜を含む横隔膜領域R1(図中の破線で囲まれた領域)が指定されて切り出される。各サンプル画像SI0を対象とした横隔膜領域R1の指定は、操作部33を介した手動でなされても良いし、手動等によって指定された1つの横隔膜領域R1がテンプレートとされた各サンプル画像SI0を対象としたテンプレートマッチングによって実現されても良い。そして、事前に分類された4種類のグループ毎に、横隔膜領域R1から切り出された画像の平均画像が生成されることで、4種類の横隔膜テンプレートT1a〜T1d(T1)が生成される。すなわち、大域テンプレートとしての横隔膜テンプレートT1には、4種類の横隔膜テンプレートT1a〜T1dが含まれる。ここで、平均画像の各画素値は、例えば、複数の横隔膜領域R1から切り出された画像における同一位置の画素に係る画素値の累積値が横隔膜領域R1の数で除されることで算出される。   As shown in the sample images SI0 of FIGS. 28 to 31, there are large individual differences in the shape of the diaphragm, and the shape of the diaphragm varies greatly depending on the size of the heart. For this reason, for example, the sample images SI0 are classified into a plurality of groups according to the size of the heart and the like. Here, it is shown that the shapes of the heart are classified into four types of groups: small, general, medium and large. Next, as shown in FIGS. 28 to 31, a diaphragm region R1 including the diaphragm in the sample image SI0 (region surrounded by a broken line in the figure) is designated and cut out. Designation of the diaphragm region R1 for each sample image SI0 may be performed manually via the operation unit 33, or each sample image SI0 in which one diaphragm region R1 designated by manual operation or the like is used as a template. It may be realized by targeted template matching. Then, four types of diaphragm templates T1a to T1d (T1) are generated by generating an average image of images cut out from the diaphragm region R1 for each of the four types of groups classified in advance. That is, the diaphragm template T1 as the global template includes four types of diaphragm templates T1a to T1d. Here, each pixel value of the average image is calculated, for example, by dividing a cumulative value of pixel values related to pixels at the same position in an image cut out from a plurality of diaphragm regions R1 by the number of diaphragm regions R1. .

他の大域テンプレートおよび局所テンプレートについても、例えば、大域テンプレートとしての横隔膜テンプレートT1と同様な方法によって生成される。なお、左肺尖部テンプレートT2Lおよび右肺尖部テンプレートT2Rについては、例えば、肺尖部の大きさ、および鎖骨の傾き等の観点から複数のグループに分類されて、各グループに係るテンプレートが生成されれば良い。すなわち、各大域テンプレートには、複数種類の大域テンプレートが含まれ、各局所テンプレートには、複数種類の局所テンプレートが含まれる。   Other global templates and local templates are also generated, for example, by the same method as the diaphragm template T1 as the global template. Note that the left apex template T2L and the right apex template T2R are classified into a plurality of groups from the viewpoint of the size of the apex and the inclination of the clavicle, for example, and templates for each group are generated. It should be done. That is, each global template includes a plurality of types of global templates, and each local template includes a plurality of types of local templates.

<(4−2−3−4)大域領域検出部>
大域領域検出部3131は、生体画像としてのフレーム画像IC0の大域部分が捉えられた大域領域の位置を、大域部分に係る大域テンプレートを用いたテンプレートマッチングによって検出する。ここでは、各大域部分について、複数種類の大域テンプレートが用いられて、フレーム画像IC0のうちの大域テンプレートとの相関の度合い(相関度とも言う)が最も高い領域が大域領域として検出される。なお、本実施形態では、大域テンプレートとしての横隔膜テンプレートT1、左肺尖部テンプレートT2Lおよび右肺尖部テンプレートT2Rが用いられたテンプレートマッチングが行われる。これにより、横隔膜に係る大域領域としての横隔膜領域R1の位置、左肺尖部に係る大域領域としての左肺尖部領域R2Lの位置および右肺尖部に係る大域領域としての右肺尖部領域R2Rの位置がそれぞれ検出される。大域領域検出部3131で検出された結果を示す情報Rt11は、大域領域検出部3131から候補領域設定部3134に送出される。
<(4-2-3-4) Global Area Detection Unit>
The global area detection unit 3131 detects the position of the global area where the global part of the frame image IC0 as a biological image is captured by template matching using a global template related to the global part. Here, for each global portion, a plurality of types of global templates are used, and an area having the highest degree of correlation (also referred to as a degree of correlation) with the global template in the frame image IC0 is detected as the global area. In the present embodiment, template matching is performed using the diaphragm template T1, the left lung apex template T2L, and the right lung apex template T2R as the global template. Accordingly, the position of the diaphragm region R1 as the global region related to the diaphragm, the position of the left lung apex region R2L as the global region related to the left lung apex, and the right lung apex region as the global region related to the right lung apex The position of R2R is detected respectively. Information Rt11 indicating the result detected by the global region detection unit 3131 is sent from the global region detection unit 3131 to the candidate region setting unit 3134.

<(4−2−3−5)局所領域検出部>
局所領域検出部3132は、生体画像としてのフレーム画像IC0のうち、大域部分に包含され且つ大域部分よりも小さな局所部分が捉えられた局所領域の位置を、局所部分に係る局所テンプレートを用いたテンプレートマッチングによって検出する。ここでは、各局所部分について、複数種類の局所テンプレートが用いられて、フレーム画像IC0のうちの局所テンプレートとの相関度が最も高い領域が局所領域として検出される。なお、本実施形態では、局所テンプレートとしての左横隔膜テンプレートT1L、右横隔膜テンプレートT1R、左肋横角テンプレートT1L1、心臓テンプレートT1L2、右肋横角テンプレートTlR1および大動脈弓テンプレートT2L1が用いられたテンプレートマッチングが行われる。これにより、左横隔膜に係る局所領域としての左横隔膜領域R1Lの位置および右横隔膜に係る局所領域としての右横隔膜領域R1Rの位置が検出される。また、左肋横角に係る局所領域としての左肋横角領域R1L1の位置、心臓に係る局所領域としての心臓領域R1L2の位置、および右肋横角に係る局所領域としての右肋横角領域R1R1の位置が検出される。さらに、大動脈弓に係る局所領域としての大動脈弓領域R2L1の位置が検出される。
<(4-2-3-5) Local region detection unit>
The local region detection unit 3132 uses the local template related to the local portion as the position of the local region that is included in the global portion and captures the local portion smaller than the global portion in the frame image IC0 as the biological image. Detect by matching. Here, for each local portion, a plurality of types of local templates are used, and a region having the highest degree of correlation with the local template in the frame image IC0 is detected as a local region. In this embodiment, template matching using the left diaphragm template T1L, the right diaphragm template T1R, the left lateral lateral template T1L1, the cardiac template T1L2, the right lateral lateral template T1R1, and the aortic arch template T2L1 as local templates is performed. Done. Accordingly, the position of the left diaphragm region R1L as the local region related to the left diaphragm and the position of the right diaphragm region R1R as the local region related to the right diaphragm are detected. Further, the position of the port side lateral angle region R1L1 as a local region related to the port lateral angle, the position of the heart region R1L2 as the local region related to the heart, and the starboard lateral angle region as the local region related to the starboard lateral angle The position of R1R1 is detected. Further, the position of the aortic arch region R2L1 as a local region related to the aortic arch is detected.

局所領域検出部3132で検出された結果を示す情報Rt12は、局所領域検出部3132から領域設定判定部3133に送出される。   Information Rt12 indicating the result detected by the local region detection unit 3132 is sent from the local region detection unit 3132 to the region setting determination unit 3133.

なお、ここでは、例えば、肺切除等と言った病変による構造物の欠落等と言った情報が事前に与えられれば、テンプレートマッチングで使用されるテンプレートの種類の低減により、画像処理に要する演算量が削減される。すなわち画像処理の高速化等が図られる。   Here, for example, if information such as a missing structure due to a lesion such as lung resection is given in advance, the amount of calculation required for image processing is reduced by reducing the types of templates used in template matching. Is reduced. That is, the image processing can be speeded up.

<(4−2−3−6)領域設定判定部>
領域設定判定部3133は、候補領域設定部3134において、局所領域検出部3132による検出結果に応じて対象候補領域PR1を設定するか否か判定する。
<(4-2-3-6) Region Setting Determination Unit>
The region setting determination unit 3133 determines whether or not the candidate region setting unit 3134 sets the target candidate region PR1 according to the detection result by the local region detection unit 3132.

該判定は、記憶部32に格納された各種データD1に含まれる判定の基準となる情報(判定基準情報とも言う)D13に基づいて行われる。具体的には、該判定は、局所領域検出部3132におけるテンプレートマッチングで算出される局所領域と局所テンプレートとの間における相関の度合いを示す値(相関値とも言う)に基づいて実行される。また、該判定は、例えば、大域領域検出部3131で検出された大域領域の位置と局所領域検出部3132で検出された局所領域の位置との相対的な位置関係に基づいて実行される。   This determination is performed based on information (also referred to as determination criterion information) D13 that is a criterion for determination included in various data D1 stored in the storage unit 32. Specifically, this determination is performed based on a value (also referred to as a correlation value) indicating the degree of correlation between the local region and the local template calculated by template matching in the local region detection unit 3132. The determination is performed based on, for example, the relative positional relationship between the position of the global region detected by the global region detection unit 3131 and the position of the local region detected by the local region detection unit 3132.

これにより、検出された局所領域の位置の信頼性に応じて、検出された局所領域に応じた対象部位に係る対象確定領域PR11および未確定領域PR12が設定されるか否か判定される。このため、X線撮影によって得られる体内の構造物を捉えた生体画像としてのフレーム画像IC0から対象部位を捉えた対象領域が精度良く検出および抽出される。   Thus, it is determined whether or not the target confirmed region PR11 and the undetermined region PR12 related to the target portion corresponding to the detected local region are set according to the reliability of the position of the detected local region. For this reason, the target area | region which caught the target site | part from the frame image IC0 as a biological image which caught the structure inside the body obtained by X-ray imaging is detected and extracted with high precision.

なお、本実施形態では、上記判定は、局所領域と局所テンプレートとの間における相関値、および検出された大域領域の位置と検出された局所領域の位置との相対的な位置関係の双方に基づいて実行されるが、これに限られない。例えば、上記判定は、局所領域と局所テンプレートとの間における相関値、および検出された大域領域の位置と検出された局所領域の位置との相対的な位置関係の少なくとも一方に基づいて実行されれば良い。   In the present embodiment, the determination is based on both the correlation value between the local region and the local template and the relative positional relationship between the position of the detected global region and the position of the detected local region. However, the present invention is not limited to this. For example, the determination is performed based on at least one of a correlation value between the local region and the local template and a relative positional relationship between the position of the detected global region and the position of the detected local region. It ’s fine.

ここで、領域設定判定部3133における判定結果を示す情報Rt13は、領域設定判定部3133から候補領域設定部3134に送出される。   Here, the information Rt13 indicating the determination result in the region setting determination unit 3133 is sent from the region setting determination unit 3133 to the candidate region setting unit 3134.

<(4−2−3−6−1)相関値による判定>
例えば、局所領域と局所テンプレートとの間における相関値が、予め設定された値域から外れていれば、候補領域設定部3134における局所領域検出部3132による検出結果に応じた対象候補領域PR1の設定が禁止される。これにより、信頼性が低い局所領域に応じた対象部位に係る対象確定領域PR11および未確定領域PR12の設定が抑制される。その結果、生体画像としてのフレーム画像IC0から対象部位を捉えた対象領域が精度良く検出および抽出される。
<Determination based on (4-2-3-6-1) correlation value>
For example, if the correlation value between the local region and the local template is out of the preset value range, the setting of the target candidate region PR1 according to the detection result by the local region detection unit 3132 in the candidate region setting unit 3134 is set. It is forbidden. Thereby, the setting of the target confirmed region PR11 and the undetermined region PR12 related to the target portion corresponding to the local region with low reliability is suppressed. As a result, the target region in which the target part is captured is detected and extracted with high accuracy from the frame image IC0 as a biological image.

ここで、相関値は、SAD、NCC、POCおよびRIPOC等の手法によって算出される局所テンプレートと局所領域との一致度を示す値であれば良い。また、局所テンプレートと局所領域とが完全に一致する場合に、相関値が1となり、局所テンプレートと局所領域との一致度が小さくなれば、相関値が0に近づくような場合には、予め設定された値域は、例えば、予め設定された閾値を超え且つ1未満の値域であれば良い。閾値は、例えば、0.8〜0.9程度に設定されれば良い。   Here, the correlation value may be a value indicating the degree of coincidence between the local template and the local region calculated by a technique such as SAD, NCC, POC, and RIPOC. In addition, when the local template and the local region completely match, the correlation value becomes 1, and when the degree of matching between the local template and the local region decreases, the correlation value approaches 0. The value range that has been set may be, for example, a value range that exceeds a preset threshold and is less than 1. The threshold value may be set to about 0.8 to 0.9, for example.

<(4−2−3−6−2)相対的な位置関係による判定>
例えば、予め設定された少なくとも1つの方向における、大域領域検出部3131で検出された大域領域の位置と、局所領域検出部3132で検出された局所領域の位置とのずれ量が、予め設定された値域から外れていれば、候補領域設定部3134における局所領域検出部3132による検出結果に応じた対象候補領域PR1の設定が禁止される。これにより、信頼性が低い局所領域に応じた対象部位に係る対象確定領域PR11および未確定領域PR12の設定が抑制される。その結果、生体画像としてのフレーム画像IC0から対象部位を捉えた対象領域が精度良く検出および抽出される。
<(4-2-3-6-2) Determination by relative positional relationship>
For example, a deviation amount between the position of the global region detected by the global region detection unit 3131 and the position of the local region detected by the local region detection unit 3132 in at least one preset direction is set in advance. If it is out of the range, setting of the target candidate region PR1 according to the detection result by the local region detection unit 3132 in the candidate region setting unit 3134 is prohibited. Thereby, the setting of the target confirmed region PR11 and the undetermined region PR12 related to the target portion corresponding to the local region with low reliability is suppressed. As a result, the target region in which the target part is captured is detected and extracted with high accuracy from the frame image IC0 as a biological image.

ここで、少なくとも1つの方向は、例えば、Y方向である態様が考えられる。この態様では、例えば、大域領域検出部3131で検出された横隔膜よりも、局所領域検出部3132で検出される左肋横角が上方に位置していれば、一般的な健常者では起こり得ない状態である。このため、このような状態であれば、検出された左肋横角領域R1L1の位置の信頼性が低いものと考えられる。そこで、局所領域検出部3132による検出結果としての左肋横角領域R1L1の位置に応じた対象候補領域PR1の設定が禁止される。   Here, an aspect in which at least one direction is, for example, the Y direction is conceivable. In this aspect, for example, if the port lateral angle detected by the local region detection unit 3132 is located above the diaphragm detected by the global region detection unit 3131, it cannot occur in a normal healthy person. State. For this reason, in such a state, it is considered that the reliability of the position of the detected port side lateral region R1L1 is low. Therefore, setting of the target candidate region PR1 according to the position of the port side lateral region R1L1 as a detection result by the local region detection unit 3132 is prohibited.

より具体的には、大域領域としての横隔膜領域R1の所定位置のY座標がc1であり、局所領域としての左肋横角領域R1L1の所定位置のY座標d1である場合、次の式(1)が成立すれば、検出された左肋横角領域R1L1の位置の信頼性が低いものと判定される。   More specifically, when the Y coordinate of the predetermined position of the diaphragm region R1 as the global region is c1 and the Y coordinate d1 of the predetermined position of the port lateral region R1L1 as the local region, the following formula (1 ) Is established, it is determined that the reliability of the position of the detected port lateral area R1L1 is low.

c1−d1>0 ・・・(1)。     c1-d1> 0 (1).

ここで、横隔膜領域R1の所定位置が、横隔膜領域R1の下端の位置であり、左肋横角領域R1L1の所定位置が、左肋横角領域R1L1の下端の位置であるような態様が考えられる。但し、横隔膜領域R1および左肋横角領域R1L1の所定位置の設定、または横隔膜テンプレートT1および左肋横角テンプレートT1L1の設定によっては、横隔膜領域R1の所定位置よりも左肋横角領域R1L1の所定位置が上方に位置しても許容される場合がある。このような場合が想定されるのであれば、横隔膜領域R1の所定位置のY座標c1と、左肋横角領域R1L1の所定位置のY座標d1と、予め設定された閾値th1との間に、次の式(2)が成立すれば、検出された左肋横角領域R1L1の位置の信頼性が高いものと判定されても良い。すなわち、検出される大域領域と検出される局所領域とのずれ量に、ある程度の許容範囲が設定されても良い。   Here, a mode is conceivable in which the predetermined position of the diaphragm region R1 is the position of the lower end of the diaphragm region R1, and the predetermined position of the port side lateral angle region R1L1 is the position of the lower end of the port lateral angle region R1L1. . However, depending on the setting of the predetermined positions of the diaphragm region R1 and the port side lateral angle region R1L1, or the setting of the diaphragm template T1 and the port side lateral angle template T1L1, the predetermined value of the port side lateral angle region R1L1 is more than the predetermined position of the diaphragm region R1. Even if the position is located above, it may be allowed. If such a case is assumed, the Y coordinate c1 of the predetermined position of the diaphragm region R1, the Y coordinate d1 of the predetermined position of the port lateral angle region R1L1, and a preset threshold th1 If the following equation (2) is satisfied, it may be determined that the reliability of the position of the detected port side angle region R1L1 is high. That is, a certain allowable range may be set for the amount of deviation between the detected global region and the detected local region.

|c1−d1|<th1 ・・・(2)。     | C1-d1 | <th1 (2).

なお、閾値th1は、例えば、横隔膜テンプレートT1および左肋横角テンプレートT1L1の設定状況に応じて予め適宜設定されれば良い。   Note that the threshold value th1 may be appropriately set in advance according to the setting status of the diaphragm template T1 and the port side lateral angle template T1L1, for example.

<(4−2−3−7)候補領域設定部>
候補領域設定部3134は、大域領域検出部3131および局所領域検出部3132による検出結果に応じて、生体画像としてのフレーム画像IC0において、対象確定領域PR11および未確定領域PR12を含む対象候補領域PR1を設定する。本実施形態では、候補領域設定部3134は、大域領域検出部3131および局所領域検出部3132による検出結果に応じて、生体画像としてのフレーム画像IC0において、対象部位が捉えられていない非対象確定領域PR2も設定する。
<(4-2-3-7) Candidate area setting unit>
The candidate area setting unit 3134 selects the target candidate area PR1 including the target confirmed area PR11 and the undetermined area PR12 in the frame image IC0 as a biological image in accordance with the detection results by the global area detector 3131 and the local area detector 3132. Set. In the present embodiment, the candidate region setting unit 3134 is a non-target determination region in which the target part is not captured in the frame image IC0 as a biological image, according to the detection results by the global region detection unit 3131 and the local region detection unit 3132. PR2 is also set.

図19で示されるように、候補領域設定部3134は、部分区分情報設定部3134aおよび領域統合部3134bを有している。ここで、部分区分情報設定部3134aおよび領域統合部3134bについて説明する。   As illustrated in FIG. 19, the candidate area setting unit 3134 includes a partial segment information setting unit 3134a and an area integration unit 3134b. Here, the partial segment information setting unit 3134a and the region integration unit 3134b will be described.

<(4−2−3−7−1)部分区分情報設定部>
部分区分情報設定部3134aは、記憶部32に格納された各種データD1の部分区分情報D14に基づいて、大域領域検出部3131および局所領域検出部3132で検出された大域領域および局所領域に対し、それぞれ部分区分情報Rt14を設定する。
<(4-2-3-7-1) Partial section information setting unit>
The partial segment information setting unit 3134a is based on the partial segment information D14 of the various data D1 stored in the storage unit 32 with respect to the global region and the local region detected by the global region detection unit 3131 and the local region detection unit 3132. Partial segment information Rt14 is set for each.

部分区分情報D14には、大域テンプレートおよび該大域テンプレートと大域領域との相関値に応じた部分区分情報、ならびに局所テンプレートおよび該局所テンプレートと局所領域との相関値に応じた部分区分情報をそれぞれ示す情報が含まれる。ここで、部分区分情報は、各大域領域あるいは各局所領域を、対象確定領域PR11、未確定領域PR12および非対象確定領域PR2に区分する情報である。   In the partial segment information D14, a global template, partial segment information corresponding to the correlation value between the global template and the global region, and partial segment information corresponding to the local template and the correlation value between the local template and the local region are shown. Contains information. Here, the partial division information is information for dividing each global region or each local region into a target defined region PR11, an undefined region PR12, and a non-target defined region PR2.

このため、部分区分情報設定部3134aでは、大域領域が検出された際における大域テンプレートおよび該大域テンプレートと該大域領域との相関値に応じた部分区分情報が、部分区分情報D14から得られる。これにより、該大域領域に対して部分区分情報Rt14が設定される。また、部分区分情報設定部3134aでは、局所領域が検出された際における局所テンプレートおよび該局所テンプレートと該局所領域との相関値に応じた部分区分情報が、部分区分情報D14から得られる。これにより、該局所領域に対して部分区分情報Rt14が設定される。   For this reason, the partial segment information setting unit 3134a obtains, from the partial segment information D14, the global template when the global region is detected and the partial segment information corresponding to the correlation value between the global template and the global region. Thereby, the partial division information Rt14 is set for the global region. Further, the partial segment information setting unit 3134a obtains from the partial segment information D14 the local template when the local region is detected and the partial segment information corresponding to the correlation value between the local template and the local region. Thereby, the partial segment information Rt14 is set for the local region.

なお、領域設定判定部3133によって、候補領域設定部3134における局所領域検出部3132による検出結果に応じた対象候補領域PR1の設定が禁止された局所領域については、部分区分情報Rt14が設定されなくても良い。これにより、演算の低減による処理の高速化が図られる。   It should be noted that the partial classification information Rt14 is not set for the local region where the setting of the target candidate region PR1 according to the detection result by the local region detection unit 3132 in the candidate region setting unit 3134 is prohibited by the region setting determination unit 3133. Also good. As a result, processing speed can be increased by reducing computation.

ここで、部分区分情報D14の生成方法について説明する。   Here, a method of generating the partial segment information D14 will be described.

図32から図36は、部分区分情報D14の生成方法について説明するための図である。   32 to 36 are diagrams for explaining a method of generating the partial segment information D14.

上述したように、例えば、大域テンプレートおよび局所テンプレートが生成される際に、サンプル画像SI0が複数のグループに分類され、各グループについて、複数のサンプル画像SI0から大域領域および局所領域が切り出されて平均画像が生成される。   As described above, for example, when the global template and the local template are generated, the sample images SI0 are classified into a plurality of groups, and for each group, the global region and the local region are cut out from the plurality of sample images SI0 and averaged. An image is generated.

このとき、まず、切り出された各大域領域および各局所領域について、対象部位が捉えられた対象領域か、対象部位以外の部分が捉えられた非対象領域かを示すデータ(正解データとも言う)も生成される。図32には、あるサンプル画像SI0について、対象領域が白色で表され且つ非対象領域が黒色で表された正解データA0が例示されている。図33には、大域領域としての右肺尖部領域R2Rおよび該右肺尖部領域R2Rに係る正解データA2R(A0)、ならびに大域領域としての左肺尖部領域R2Lおよび該左肺尖部領域R2Lに係る正解データA2L(A0)が例示されている。図34には、局所領域としての左横隔膜領域R1Lおよび該左横隔膜領域R1Lに係る正解データA1L(A0)、ならびに局所領域としての右横隔膜領域R1Rおよび該右横隔膜領域R1Rに係る正解データA1R(A0)が例示されている。   At this time, first, for each of the extracted global region and each local region, there is also data (also referred to as correct data) indicating whether the target region is a target region where the target region is captured or a non-target region where a portion other than the target region is captured Generated. FIG. 32 exemplifies correct data A0 in which a target area is expressed in white and a non-target area is expressed in black for a sample image SI0. FIG. 33 shows the right lung apex region R2R as the global region and the correct data A2R (A0) related to the right lung apex region R2R, the left lung apex region R2L as the global region, and the left lung apex region. The correct data A2L (A0) related to R2L is illustrated. FIG. 34 shows correct data A1L (A0) related to the left diaphragm region R1L as the local region and the left diaphragm region R1L, and correct data A1R (A0) related to the right diaphragm region R1R and the right diaphragm region R1R as the local region. ) Is illustrated.

次に、大域領域毎および局所領域毎に、各グループについて、複数の正解データA0が重ねられ、画素毎に、正解データA0が重ねられた回数が複数の正解データA0の数で除されることで、正解データA0が重なっている確率(累積率とも言う)が算出される。累積率は、例えば、0〜100%等と言った百分率等の態様で示されれば良い。図35の左下には、左横隔膜領域R1Lに係る複数の正解データA1L(A0)についての累積率の分布を示す画像(累積率画像とも言う)Am1Lが例示されている。図35の右下には、右横隔膜領域R1Rに係る複数の正解データA1R(A0)についての累積率の分布を示す累積率画像Am1Rが例示されている。図35の左上には、左肺尖部領域R2Lに係る複数の正解データA2L(A0)についての累積率の分布を示す累積率画像Am2Lが例示されている。図35の右上には、右横隔膜領域R2Rに係る複数の正解データA2R(A0)についての累積率の分布を示す累積率画像Am2Rが例示されている。   Next, a plurality of correct data A0 is overlapped for each group for each global region and each local region, and the number of times correct data A0 is overlapped for each pixel is divided by the number of correct answer data A0. Thus, the probability (also referred to as a cumulative rate) that the correct data A0 overlap is calculated. The accumulation rate may be shown in a form such as a percentage such as 0 to 100%. In the lower left of FIG. 35, an image (also referred to as a cumulative rate image) Am1L showing the distribution of the cumulative rate for a plurality of correct answer data A1L (A0) related to the left diaphragm region R1L is illustrated. In the lower right of FIG. 35, an accumulation rate image Am1R showing the distribution of accumulation rates for a plurality of correct answer data A1R (A0) related to the right diaphragm region R1R is illustrated. In the upper left of FIG. 35, a cumulative rate image Am2L showing a cumulative rate distribution for a plurality of correct answer data A2L (A0) related to the left lung apex region R2L is illustrated. In the upper right of FIG. 35, a cumulative rate image Am2R showing the distribution of cumulative rates for a plurality of correct answer data A2R (A0) related to the right diaphragm region R2R is illustrated.

ここで、あるグループについて、累積率が100%である領域は、対象部位を捉えた対象領域に対応することが確実であり、累積率が0%である領域は、対象部位を捉えていない非対象領域に対応することが確実である。これに対し、累積率が1〜99%である領域については、対象領域に対応するか、非対象領域に対応するかについては、未確定である領域と言える。但し、例えば、大域領域毎の各グループについて、大域テンプレートと大域領域検出部3131によって検出される大域領域との間における相関値が大きくなる程、より累積率が高い領域が、対象領域に対応する可能性が高まる。同様に、局所領域毎の各グループについて、局所テンプレートと局所領域検出部3132によって検出される局所領域との間における相関値が大きくなる程、より累積率が高い領域が、対象領域に対応する可能性が高まる。   Here, for a certain group, it is certain that an area with a cumulative rate of 100% corresponds to a target area that captures the target part, and a region with a cumulative rate of 0% does not capture the target part. It is certain to correspond to the target area. On the other hand, it can be said that an area having an accumulation rate of 1 to 99% is an undetermined area that corresponds to a target area or a non-target area. However, for example, for each group for each global region, a region with a higher accumulation rate corresponds to the target region as the correlation value between the global template and the global region detected by the global region detection unit 3131 increases. The possibility increases. Similarly, for each group for each local region, a region having a higher accumulation rate can correspond to the target region as the correlation value between the local template and the local region detected by the local region detection unit 3132 increases. Increases nature.

そこで、大域テンプレート毎に、対応する累積率画像に基づいて、大域テンプレートと大域領域との相関値に応じた部分区分情報が生成される。また、局所テンプレート毎に、対応する累積率画像に基づいて、局所テンプレートと局所領域との相関値に応じた部分区分情報が生成される。これにより、部分区分情報D14が生成される。   Therefore, for each global template, partial segment information corresponding to the correlation value between the global template and the global region is generated based on the corresponding cumulative rate image. Further, for each local template, partial segment information corresponding to the correlation value between the local template and the local region is generated based on the corresponding cumulative rate image. Thereby, partial division information D14 is generated.

例えば、局所テンプレートに対する部分区分情報については、領域設定判定部3133の判定における相関値に係る閾値に応じて相関値の値域が設定され、その相関値の値域毎に部分区分情報が生成されれば良い。例えば、閾値が0.8であれば、相関値が大きな値域(0.99<相関値≦1)、相関値が中程度の値域(0.9<相関値≦0.99)および相関値が小さな値域(0.8<相関値≦0.9)が設定される態様が考えられる。   For example, for partial segment information for a local template, if a range of correlation values is set according to a threshold value related to a correlation value in determination by the region setting determination unit 3133, and partial segment information is generated for each range of correlation values good. For example, if the threshold is 0.8, the correlation value has a large value range (0.99 <correlation value ≦ 1), the correlation value has a medium value range (0.9 <correlation value ≦ 0.99), and the correlation value is A mode in which a small value range (0.8 <correlation value ≦ 0.9) is set is conceivable.

この態様では、相関値が大きな値域(0.99<相関値≦1)に対し、例えば、累積率が0%の領域が非対象確定領域、累積率が0%を超え且つ50%以下である領域が未確定領域、累積率が50%を超え且つ100%以下である領域が対象確定領域とされる。この場合における部分区分情報PV1の一例が、図36の左部に示されている。また、相関値が中程度の値域(0.9<相関値≦0.99)に対し、例えば、累積率が0%の領域が非対象確定領域、累積率が0%を超え且つ70%以下である領域が未確定領域、累積率が70%を超え且つ100%以下である領域が対象確定領域とされる。この場合における部分区分情報PV2の一例が、図36の中央部に示されている。さらに、相関値が小さな値域(0.8<相関値≦0.9)に対し、例えば、累積率が0%の領域が非対象確定領域、累積率が0%を超え且つ99%以下である領域が未確定領域、累積率が99%を超え且つ100%以下である領域が対象確定領域とされる。この場合における部分区分情報PV3の一例が、図36の右部に示されている。   In this aspect, for a range with a large correlation value (0.99 <correlation value ≦ 1), for example, a region with a cumulative rate of 0% is a non-target defined region, and a cumulative rate exceeds 0% and is 50% or less. A region is an unconfirmed region, and a region having an accumulation rate of more than 50% and not more than 100% is a target confirmed region. An example of the partial segment information PV1 in this case is shown in the left part of FIG. In addition, for an intermediate correlation value range (0.9 <correlation value ≦ 0.99), for example, an area with an accumulation rate of 0% is a non-target determination area, an accumulation ratio exceeds 0% and is less than 70% Is an undetermined area, and an area where the accumulation rate exceeds 70% and is equal to or less than 100% is a target confirmed area. An example of the partial segment information PV2 in this case is shown in the center of FIG. Furthermore, for a range where the correlation value is small (0.8 <correlation value ≦ 0.9), for example, a region where the accumulation rate is 0% is a non-target determination region, and the accumulation rate exceeds 0% and is 99% or less. A region is an unconfirmed region, and a region where the accumulation rate exceeds 99% and is 100% or less is a target confirmed region. An example of the partial segment information PV3 in this case is shown in the right part of FIG.

各大域テンプレートについても、各局所テンプレートと同様に、対応する累積率画像に基づいて、大域テンプレートと大域領域との相関値に応じた部分区分情報が生成される。但し、粗検出部313による検出結果が得られない領域が発生しないように、大域テンプレートと大域領域との相関値が、ある程度小さな場合についてまで、部分区分情報が生成されれば良い。   For each global template, as in the case of each local template, partial classification information corresponding to the correlation value between the global template and the global area is generated based on the corresponding cumulative rate image. However, the partial classification information may be generated only when the correlation value between the global template and the global region is small to some extent so that a region where the detection result by the rough detection unit 313 cannot be obtained does not occur.

なお、ここでは、体内の同一部分については、大域テンプレートに係る部分区分情報における未確定領域よりも、局所テンプレートに係る部分区分情報における未確定領域の方が狭くなるように設定されていれば良い。これにより、候補領域設定部3134では、フレーム画像IC0のうちの局所部分を捉えた領域について、大域領域検出部3131による検出結果よりも局所領域検出部3132による検出結果に応じて設定される未確定領域PR12の方が狭くなる。これにより、局所領域に応じた未確定領域がより狭く設定されることで、対象部位が捉えられた領域を広く検出し過ぎる過検出および対象部位が捉えられた領域を狭く検出し過ぎる未検出が生じ難くなる。すなわち、生体画像としてのフレーム画像IC0から対象部位を捉えた対象領域が安定して精度良く抽出され得る。   Here, for the same part in the body, it is sufficient that the undetermined area in the partial classification information related to the local template is set to be narrower than the undetermined area in the partial classification information related to the global template. . Thereby, in the candidate area setting unit 3134, the area in which the local part of the frame image IC0 is captured is set in accordance with the detection result by the local area detection unit 3132 rather than the detection result by the global area detection unit 3131. The region PR12 is narrower. As a result, the undetermined region corresponding to the local region is set to be narrower, so that over-detection in which the region where the target region is captured is detected too broadly and undetected where the region where the target region is captured is detected too narrowly. It becomes difficult to occur. That is, the target region that captures the target portion can be stably and accurately extracted from the frame image IC0 as a biological image.

<(4−2−3−7−2)領域統合部>
領域統合部3134bは、各大域領域および各局所領域に対してそれぞれ設定された部分区分情報Rt14が統合される。このとき、局所領域と大域領域とが重なる部分については、原則として、局所領域に係る部分区分情報Rt14が採用される。例えば、大域領域に係る部分区分情報Rt14の上に、局所領域に係る部分区分情報Rt14が上書きされる。但し、領域設定判定部3133において、候補領域設定部3134における局所領域検出部3132による検出結果に応じた対象候補領域PR1の設定が禁止された局所領域については、大域領域に係る部分区分情報Rt14が採用される。これにより、候補領域設定部3134における対象確定領域PR11および未確定領域PR12を含む対象候補領域PR1ならびに非対象確定領域PR2の設定が完了する。図37は、領域統合部3134bによって設定される対象候補領域PR1および非対象確定領域PR2を示す領域区分情報IC1の一例を示す図である。
<(4-2-3-7-2) region integration unit>
The area integration unit 3134b integrates the partial segment information Rt14 set for each global area and each local area. At this time, as a general rule, the partial section information Rt14 related to the local region is adopted for the portion where the local region and the global region overlap. For example, the partial segment information Rt14 related to the local region is overwritten on the partial segment information Rt14 related to the global region. However, in the region setting determination unit 3133, for the local region where the setting of the target candidate region PR1 according to the detection result by the local region detection unit 3132 in the candidate region setting unit 3134 is prohibited, the partial segment information Rt14 related to the global region is Adopted. As a result, the setting of the target candidate region PR1 and the non-target determined region PR2 including the target determined region PR11 and the undetermined region PR12 in the candidate region setting unit 3134 is completed. FIG. 37 is a diagram illustrating an example of the region classification information IC1 indicating the target candidate region PR1 and the non-target determination region PR2 set by the region integration unit 3134b.

<(4−2−4)精密検出部>
精密検出部314は、候補領域設定部3134で設定された対象確定領域PR11および未確定領域PR12の情報に基づいて、生体画像としてのフレーム画像IC0から、対象部位の内部から輪郭に至る対象領域を検出する精密検出処理を行う。本実施形態では、未確定領域PR12について、対象領域としての肺野領域の内部であるのか、外部であるのかが決定される。
<(4-2-4) Precision detection unit>
Based on the information on the target confirmed region PR11 and the undetermined region PR12 set by the candidate region setting unit 3134, the precision detection unit 314 selects a target region from the frame image IC0 as a biological image to the contour from the inside of the target part. Performs precise detection processing to detect. In the present embodiment, it is determined whether the undetermined region PR12 is inside or outside the lung field region as the target region.

図38は、画像補正部312から精密検出部314に入力されるフレーム画像IC0の一例を示す図である。図39は、精密検出部314において、フレーム画像IC0から検出される対象領域としての肺野領域RT1の一例を示す図である。図37から図39で示されるように、精密検出部314では、粗検出部313から入力される粗検出処理の結果としての領域区分情報IC1に基づき、画像補正部312から入力されるフレーム画像IC0が対象とされて、対象領域としての肺野領域RT1が検出される。   FIG. 38 is a diagram illustrating an example of the frame image IC0 input from the image correction unit 312 to the precision detection unit 314. FIG. 39 is a diagram illustrating an example of a lung field region RT1 as a target region detected from the frame image IC0 in the precision detection unit 314. As shown in FIG. 37 to FIG. 39, the precise detection unit 314 receives the frame image IC0 input from the image correction unit 312 based on the region classification information IC1 as a result of the rough detection process input from the rough detection unit 313. And the lung field region RT1 as the target region is detected.

精密検出部314では、対象部位の形状に依存しない検出手法によって対象領域としての肺野領域RT1が検出される。検出手法としては、例えば、レベルセット(Level set)およびスネーク(Snake)等のエッジの情報を利用する手法、領域拡張法(Region growing)等の領域の情報を利用する手法、グラフカット(Graph Cut)等のエッジと領域の情報を利用する手法等が挙げられる。   The precision detection unit 314 detects the lung field region RT1 as the target region by a detection method that does not depend on the shape of the target part. Examples of detection methods include methods that use edge information such as level set and snake, methods that use region information such as region growing, and graph cuts (Graph Cut). ) And the like using edge and area information.

スネーク(Snake)の処理では、例えば、検出したい領域を囲むように閉曲線の初期値が定義され、繰り返し計算によって該閉曲線が下記条件[i]〜[iii]を満たすように変形されていき、閉曲線の形状が変化しなくなったところで、閉曲線の変形が終了される。この処理により、対象領域としての肺野領域RT1の輪郭ED1が検出される。スネーク(Snake)の処理内容については、例えば、公知の種々の情報(蚊野浩”第11章「領域処理」”京都産業大学 コンピュータ理工学部 ネットワークメディア学科「春学期・火曜日・3時限」資料[平成25年11月18日検索]、インターネット〈www.cc.kyoto-su.ac.jp/~kano/pdf/course/chapter11.pdf〉、および代表者:矢島信彦”処理事例|sliceOmatic「面積/ 体積計測のためのエリア定義処理事例」イメージラボ社ホームページ[平成25年11月18日検索]、インターネット〈URL:http://www.imagelabo.com/Appli_sliceO.html〉等)に開示されている。   In the Snake process, for example, an initial value of a closed curve is defined so as to surround a region to be detected, and the closed curve is deformed so as to satisfy the following conditions [i] to [iii] by repeated calculation. When the shape no longer changes, the deformation of the closed curve is terminated. By this processing, the contour ED1 of the lung field region RT1 as the target region is detected. Regarding the processing contents of Snake, for example, various known information (Hiro Mosquito, “Chapter 11“ Regional Processing ””, Kyoto Sangyo University, Faculty of Computer Science and Engineering, Department of Network Media, “Spring Semester, Tuesday, Three Times” [Heisei Searched November 18, 2013], Internet <www.cc.kyoto-su.ac.jp/~kano/pdf/course/chapter11.pdf>, and representative: Nobuhiko Yajima "Processing Cases | sliceOmatic" Area / Volume Examples of area definition processing for measurement ”disclosed on Image Laboratories website [searched on November 18, 2013], Internet <URL: http://www.imagelabo.com/Appli_sliceO.html>, etc.)

[i]閉曲線自身の形は、連続でなめらかになろうとする。   [I] The shape of the closed curve itself tends to be continuous and smooth.

[ii]閉曲線がエッジの上にあると、そこにとどまろうとする。   [Ii] If the closed curve is on an edge, it tries to stay there.

[iii]閉曲線は小さくなろうとする。   [Iii] The closed curve tends to be small.

ここで、レベルセット(Level set)およびスネーク(Snake)等のエッジの情報を利用する手法では、領域区分情報IC1のうち、対象確定領域PR11と未確定領域PR12の情報があれば、対象領域の輪郭が検出され得る。このため、候補領域設定部3134では、大域領域検出部3131および局所領域検出部3132による検出結果に応じて、フレーム画像IC0のうち、対象確定領域PR11および未確定領域PR12を含む対象候補領域PR1が設定されれば良い。   Here, in the method using edge information such as level set and snake, if there is information on the target defined region PR11 and the undefined region PR12 in the region classification information IC1, A contour can be detected. Therefore, in the candidate area setting unit 3134, the target candidate area PR1 including the target confirmed area PR11 and the undefined area PR12 is included in the frame image IC0 according to the detection results by the global area detector 3131 and the local area detector 3132. It only has to be set.

また、領域拡張法(Region growing)の処理では、例えば、まず、画素値に関する条件を満足する画素が手動で決定され、1つのラベルが付されて種子点(seed point)とされる。そして、種子点の近傍の点で、画素値に関する条件を満足する画素に同一のラベルが付される処理が繰り返されることで、領域が拡張される。このような処理に沿って、対象確定領域PR11が種子点とされて、未確定領域PR12において領域が拡張されれば、対象領域としての肺野領域RT1が検出され得る。   In the region growing process, for example, first, a pixel that satisfies a condition relating to a pixel value is manually determined, and a single label is attached to the seed point. And the area | region is expanded by repeating the process in which the same label is attached | subjected to the pixel which satisfy | fills the conditions regarding a pixel value in the point of the seed point vicinity. In accordance with such processing, if the target confirmed region PR11 is used as a seed point and the region is expanded in the undetermined region PR12, the lung field region RT1 as the target region can be detected.

また、グラフカット(Graph Cut)の処理については、例えば、公知の情報(石川博”グラフカットの理論と応用”第14回画像センシングシンポジウムSS1108、[平成25年11月18日検索]、インターネット〈URL:http://www.f.waseda.jp/hfs/SSIITutorial.pdf〉等)に開示されている。   Regarding the processing of graph cut, for example, publicly known information (Hiroshi Ishikawa “Theory and Application of Graph Cut”, 14th Image Sensing Symposium SS1108, [retrieved on November 18, 2013], Internet < URL: http://www.f.waseda.jp/hfs/SSIITutorial.pdf>).

なお、精密検出部314で検出された結果を示す情報Rt2は、精密検出部314から対象領域抽出部315に送出される。   Information Rt2 indicating the result detected by the precision detection unit 314 is sent from the precision detection unit 314 to the target region extraction unit 315.

<(4−2−5)対象領域抽出部>
対象領域抽出部315は、精密検出部314における精密検出処理によって検出された対象領域に基づき、フレーム画像I0から対象領域としての肺野領域の画像が抽出される。なお、ここでは、フレーム画像I0の代わりにフレーム画像IC0から対象領域としての肺野領域の画像が抽出されても良い。
<(4-2-5) Target area extraction unit>
The target region extraction unit 315 extracts an image of the lung field region as the target region from the frame image I0 based on the target region detected by the precision detection process in the precision detection unit 314. Here, an image of the lung field region as the target region may be extracted from the frame image IC0 instead of the frame image I0.

<(5)対象領域抽出処理の動作フロー>
図40および図41は、画像処理装置3における対象領域抽出処理の動作フローを例示するフローチャートである。本動作フローは、例えば、制御部31の機能によって実現される。ここでは、例えば、画像処理装置3のオペレーターによる操作部33の操作に応じて、本動作フローが開始されて、図40のステップSt1に進む。
<(5) Operation flow of target area extraction processing>
40 and 41 are flowcharts illustrating the operation flow of the target area extraction processing in the image processing apparatus 3. This operation flow is realized by the function of the control unit 31, for example. Here, for example, this operation flow is started in accordance with the operation of the operation unit 33 by the operator of the image processing apparatus 3, and the process proceeds to step St1 in FIG.

ステップSt1では、画像取得部311により、一連の複数のフレーム画像I0によって構成される動態画像が取得される。   In step St1, the image acquisition unit 311 acquires a dynamic image composed of a series of a plurality of frame images I0.

ステップSt2では、画像補正部312により、ステップSt1で取得された複数のフレーム画像I0に対してそれぞれ補正が施される。これにより、各フレーム画像I0に対し、ノイズの低減と対象部位以外の構造物による影響の低減とが行われることで、補正後のフレーム画像IC0が生成される。   In step St2, the image correction unit 312 corrects each of the plurality of frame images I0 acquired in step St1. As a result, noise is reduced and the influence of the structure other than the target part is reduced on each frame image I0, thereby generating a corrected frame image IC0.

ステップSt3では、制御部31により、動態画像を構成する複数のフレーム画像IC0のうちの処理の対象となるフレーム画像IC0を特定する番号N(Nは自然数)が1に設定される。なお、番号Nは、例えば、動態画像を構成するN番目のフレーム画像IC0であることを示す番号であれば良い。   In step St <b> 3, the control unit 31 sets a number N (N is a natural number) for identifying the frame image IC <b> 0 to be processed among the plurality of frame images IC <b> 0 constituting the dynamic image to 1. The number N may be any number indicating that it is the Nth frame image IC0 constituting the dynamic image, for example.

ステップSt4では、粗検出部313により、粗検出処理が行われる。この粗検出処理では、図41で示される動作フローに沿った処理が実行される。   In step St4, the coarse detection unit 313 performs a coarse detection process. In this rough detection process, a process along the operation flow shown in FIG. 41 is executed.

図41のステップSt41では、大域領域検出部3131により、1以上の大域領域が検出される。   In step St41 of FIG. 41, the global region detection unit 3131 detects one or more global regions.

ステップSt42では、部分区分情報設定部3134aにより、ステップSt41で検出された各大域領域に対して、部分区分情報Rt14が設定される。   In step St42, the partial segment information setting unit 3134a sets partial segment information Rt14 for each global area detected in step St41.

ステップSt43では、局所領域検出部3132により、1以上の局所領域が検出される。このとき、例えば、各局所領域に対して、番号M(Mは自然数)が付される。   In step St43, the local region detection unit 3132 detects one or more local regions. At this time, for example, a number M (M is a natural number) is assigned to each local region.

ステップSt44では、制御部31により、ステップSt43において検出された1以上の局所領域のうち、処理の対象となる局所領域を特定する番号Mが1に設定される。   In step St44, the control unit 31 sets the number M for identifying the local region to be processed among the one or more local regions detected in step St43 to 1.

ステップSt45では、領域設定判定部3133により、番号Mに対応する局所領域に応じて対象候補領域PR1を設定するか否かが判定される。ここで、局所領域に応じて対象候補領域PR1を設定するものと判定されれば、ステップSt46に進み、局所領域に応じて対象候補領域PR1を設定しないものと判定されれば、ステップSt47に進む。   In step St45, the region setting determination unit 3133 determines whether or not to set the target candidate region PR1 according to the local region corresponding to the number M. If it is determined that the target candidate region PR1 is set according to the local region, the process proceeds to step St46, and if it is determined that the target candidate region PR1 is not set according to the local region, the process proceeds to step St47. .

ステップSt46では、部分区分情報設定部3134aにより、番号Mに対応する局所領域に応じた部分区分情報Rt14が設定される。   In step St46, the partial segment information setting unit 3134a sets the partial segment information Rt14 corresponding to the local region corresponding to the number M.

ステップSt47では、領域設定判定部3133により、番号Mに対応する局所領域に応じた部分区分情報Rt14の設定が禁止される。   In step St47, the region setting determination unit 3133 prohibits the setting of the partial segment information Rt14 corresponding to the local region corresponding to the number M.

ステップSt48では、制御部31により、ステップSt43で検出された全ての局所領域についての処理が完了したか否かが判定される。ここで、全ての局所領域についての処理が完了していなければ、ステップSt49に進み、全ての局所領域についての処理が完了していれば、ステップSt50に進む。   In step St48, the control unit 31 determines whether or not the processing for all local regions detected in step St43 has been completed. If processing for all local regions has not been completed, the process proceeds to step St49. If processing for all local regions has been completed, the process proceeds to step St50.

ステップSt49では、制御部31により、番号Mに1が加算されて、ステップSt45に進む。すなわち、全ての局所領域についての処理が完了するまで、ステップSt45〜ステップSt49の処理が繰り返される。   In step St49, 1 is added to the number M by the control part 31, and it progresses to step St45. That is, the processes in steps St45 to St49 are repeated until the processes for all local regions are completed.

ステップSt50では、領域統合部3134bにより、ステップSt42で設定された大域領域に係る部分区分情報Rt14と、ステップSt46で設定された局所領域に係る部分区分情報Rt14とが統合されることで、領域区分情報IC1が生成される。   In step St50, the region integration unit 3134b integrates the partial segment information Rt14 related to the global region set in step St42 and the partial segment information Rt14 related to the local region set in step St46, thereby obtaining a region segmentation. Information IC1 is generated.

図40のステップSt5では、精密検出部314により、精密検出処理が行われる。ここでは、ステップSt50で生成された領域区分情報IC1に基づいて、番号Nに係るフレーム画像IC0から対象領域が検出される。   In step St5 of FIG. 40, the precision detection unit 314 performs precision detection processing. Here, the target area is detected from the frame image IC0 associated with the number N based on the area division information IC1 generated in step St50.

ステップSt6では、制御部31により、動態画像における全てのフレーム画像IC0についての処理が完了したか否かが判定される。ここでは、全てのフレーム画像IC0についての処理が完了していなければ、ステップSt7に進み、全てのフレーム画像IC0についての処理が完了していれば、ステップSt8に進む。   In step St6, the control unit 31 determines whether or not the processing for all the frame images IC0 in the dynamic image has been completed. Here, if the process for all the frame images IC0 is not completed, the process proceeds to step St7, and if the process for all the frame images IC0 is completed, the process proceeds to step St8.

ステップSt7では、制御部31により、動態画像を構成する複数のフレーム画像IC0のうちの処理の対象となるフレーム画像IC0を特定する番号Nに1が加算されて、ステップSt4に進む。すなわち、全てのフレーム画像IC0についての処理が完了するまで、ステップSt4〜ステップSt7の処理が繰り返される。   In step St7, the control unit 31 adds 1 to the number N for specifying the frame image IC0 to be processed among the plurality of frame images IC0 constituting the dynamic image, and the process proceeds to step St4. That is, the processes of steps St4 to St7 are repeated until the processes for all the frame images IC0 are completed.

ステップSt8では、対象領域抽出部315により、ステップSt5で検出された各フレーム画像IC0に係る対象領域に基づき、各フレーム画像I0から対象領域としての肺野領域の画像が抽出される。   In step St8, the target region extraction unit 315 extracts a lung field region image as the target region from each frame image I0 based on the target region related to each frame image IC0 detected in step St5.

ステップSt9では、制御部31により、ステップSt8で抽出された対象領域としての肺野領域の画像が、記憶部32に記憶される。このとき、表示部34において、複数のフレーム画像I0に係る肺野領域の画像が動的な態様で表示されても良い。   In step St9, the control unit 31 stores an image of the lung field region as the target region extracted in step St8 in the storage unit 32. At this time, on the display unit 34, images of lung field regions related to the plurality of frame images I0 may be displayed in a dynamic manner.

<(6)一実施形態のまとめ>
以上のように、本実施形態に係る画像処理装置3では、検出された大域領域と局所領域との相対的な位置関係、および局所領域と局所テンプレートとの間における相関値の少なくとも一方に基づき、局所領域に応じて対象候補領域を設定するか否かが判定される。つまり、局所領域の検出結果に応じて、局所領域に応じた対象部位に係る対象確定領域PR11および未確定領域PR12が設定されるか否か判定される。このため、検出される局所領域の信頼度に応じて、局所領域に応じた対象確定領域PR11および未確定領域PR12の設定の可否が判定される。その結果、X線撮影によって得られる体内の構造物を捉えた生体画像としてのフレーム画像IC0から対象部位を捉えた領域が精度良く抽出され得る。
<Summary of (6) One Embodiment>
As described above, in the image processing device 3 according to this embodiment, based on at least one of the relative positional relationship between the detected global region and the local region and the correlation value between the local region and the local template, It is determined whether or not to set the target candidate area according to the local area. That is, according to the detection result of the local region, it is determined whether or not the target confirmed region PR11 and the undetermined region PR12 related to the target portion corresponding to the local region are set. For this reason, whether to set the target confirmed region PR11 and the undetermined region PR12 according to the local region is determined according to the reliability of the detected local region. As a result, it is possible to accurately extract a region in which the target part is captured from the frame image IC0 as a living body image capturing the internal structure obtained by X-ray imaging.

<(7)変形例>
なお、本発明は上述の一実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更、改良等が可能である。
<(7) Modification>
Note that the present invention is not limited to the above-described embodiment, and various modifications and improvements can be made without departing from the gist of the present invention.

例えば、上記一実施形態では、画像補正部312による補正がフレーム画像I0に施されたが、これに限られない。例えば、画像補正部312によるフレーム画像I0に対する補正が施されなくても良い。   For example, in the above-described embodiment, the correction by the image correction unit 312 is performed on the frame image I0, but is not limited thereto. For example, the correction to the frame image I0 by the image correction unit 312 may not be performed.

また、上記一実施形態では、図2および図19で示された制御部31の機能的な構成が、プログラムP1の実行によって実現されたが、これに限られず、例えば、専用のハードウエアによって実現されても良い。   In the above-described embodiment, the functional configuration of the control unit 31 illustrated in FIGS. 2 and 19 is realized by executing the program P1, but is not limited thereto, and is realized by, for example, dedicated hardware. May be.

また、上記一実施形態では、左横隔膜領域R1Lに含まれる心臓領域R1L2に係る心臓テンプレートT1L2が設定されたが、これに限られない。例えば、右横隔膜領域R1Rに含まれる心臓に係る領域について心臓テンプレートが設定されても良い。すなわち、その他の大域領域および大域テンプレートならびに局所領域および局所テンプレートが設定されても良い。   In the above embodiment, the heart template T1L2 related to the heart region R1L2 included in the left diaphragm region R1L is set. However, the present invention is not limited to this. For example, a heart template may be set for a region related to the heart included in the right diaphragm region R1R. That is, other global regions and global templates, and local regions and local templates may be set.

また、上記一実施形態では、対象部位が、肺野全体であったが、これに限られない。例えば、対象部位が、肺野の一部の構造物である左肺野および右肺野等であっても良いし、その他の臓器や骨格等に係るその他の構造物であっても良い。   Moreover, in the said one Embodiment, although the object site | part was the whole lung field, it is not restricted to this. For example, the target site may be a left lung field and a right lung field that are a part of the structure of the lung field, or may be another structure related to other organs, skeletons, and the like.

なお、上記一実施形態および各種変形例をそれぞれ構成する全部または一部を、適宜、矛盾しない範囲で組み合わせ可能であることは、言うまでもない。   Needless to say, all or a part of each of the above-described embodiment and various modifications can be combined as appropriate within a consistent range.

1 撮影装置
2 撮影制御装置
3 画像処理装置
31 制御部
32 記憶部
100 撮影システム
311 画像取得部
312 画像補正部
313 粗検出部
314 精密検出部
315 対象領域抽出部
3131 大域領域検出部
3132 局所領域検出部
3133 領域設定判定部
3134 候補領域設定部
3134a 部分区分情報設定部
3134b 領域統合部
I0,I1〜I10,IC0 フレーム画像
IC1 領域区分情報
P1 プログラム
PR1 対象候補領域
PR11 対象確定領域
PR12 未確定領域
PR2 非対象確定領域
DESCRIPTION OF SYMBOLS 1 Imaging device 2 Imaging control device 3 Image processing device 31 Control unit 32 Storage unit 100 Imaging system 311 Image acquisition unit 312 Image correction unit 313 Rough detection unit 314 Precision detection unit 315 Target region extraction unit 3131 Global region detection unit 3132 Local region detection Unit 3133 region setting determination unit 3134 candidate region setting unit 3134a partial segment information setting unit 3134b region integration unit I0, I1 to I10, IC0 frame image IC1 region segment information P1 program PR1 target candidate region PR11 target defined region PR12 undefined region PR2 non Target fixed area

Claims (8)

X線の照射によって体内の構造物が捉えられた生体画像を取得する取得部と、
前記生体画像を対象としたテンプレートマッチングを用いて、前記生体画像のうち、対象部位の少なくとも一部が捉えられている対象確定領域と、該対象部位の一部が捉えられている可能性がある未確定領域とを検出する第1検出部と、
前記対象確定領域および前記未確定領域の情報に基づいて、前記生体画像のうち、前記対象部位の内部から輪郭に至る対象領域を検出する第2検出部と、を備え、
前記第1検出部が、
前記生体画像のうちの前記対象部位の大域部分が捉えられた大域領域の位置を、前記大域部分に係る大域テンプレートを用いたテンプレートマッチングによって検出する大域領域検出部と、
前記生体画像のうちの前記大域部分に包含され且つ該大域部分よりも小さな局所部分が捉えられた局所領域の位置を、前記局所部分に係る局所テンプレートを用いたテンプレートマッチングによって検出する局所領域検出部と、
前記大域領域検出部および前記局所領域検出部による検出結果に応じて、前記生体画像に対し、前記対象確定領域および前記未確定領域を含む対象候補領域を設定する候補領域設定部と、
前記大域領域検出部で検出された前記大域領域の位置と前記局所領域検出部で検出された前記局所領域の位置との相対的な位置関係、および前記局所領域検出部におけるテンプレートマッチングで算出される前記局所領域と前記局所テンプレートとの間における相関値のうちの少なくとも一方に基づき、前記候補領域設定部において前記局所領域検出部による検出結果に応じて前記対象候補領域を設定するか否かを判定する判定部と、
を有する画像処理装置。
An acquisition unit for acquiring a biological image in which a structure inside the body is captured by irradiation with X-rays;
Using template matching for the biological image, there is a possibility that, in the biological image, a target fixed region in which at least a part of the target part is captured and a part of the target part is captured. A first detection unit for detecting an undefined region;
A second detection unit that detects a target region from the inside of the target part to an outline based on information on the target fixed region and the unconfirmed region;
The first detection unit is
A global region detection unit that detects a position of a global region in which the global part of the target portion in the biological image is captured by template matching using a global template according to the global part;
A local region detection unit that detects a position of a local region that is included in the global portion of the biological image and that captures a local portion smaller than the global portion by template matching using a local template related to the local portion. When,
A candidate region setting unit that sets a target candidate region including the target fixed region and the unconfirmed region with respect to the biological image according to a detection result by the global region detection unit and the local region detection unit;
Calculated by the relative positional relationship between the position of the global region detected by the global region detection unit and the position of the local region detected by the local region detection unit, and template matching in the local region detection unit Based on at least one of correlation values between the local region and the local template, the candidate region setting unit determines whether to set the target candidate region according to the detection result by the local region detection unit A determination unit to perform,
An image processing apparatus.
請求項1に記載の画像処理装置であって、
前記生体画像のうちの前記局所部分が捉えられた領域に対して、前記候補領域設定部において前記大域領域検出部による検出結果に応じて設定される前記未確定領域よりも、前記候補領域設定部において前記局所領域検出部による検出結果に応じて設定される前記未確定領域の方が狭い画像処理装置。
The image processing apparatus according to claim 1,
The candidate area setting unit is set to an area in which the local part of the biological image is captured, rather than the undetermined area set in the candidate area setting unit according to the detection result by the global area detection unit. The image processing apparatus according to claim 1, wherein the undetermined region set in accordance with a detection result by the local region detection unit is narrower.
請求項1または請求項2に記載の画像処理装置であって、
前記候補領域設定部が、
前記大域領域検出部および前記局所領域検出部による検出結果に応じて、前記生体画像に対し、前記対象部位が捉えられていない非対象確定領域を設定する画像処理装置。
The image processing apparatus according to claim 1 or 2,
The candidate area setting unit
An image processing apparatus that sets a non-target fixed region where the target part is not captured for the biological image according to detection results by the global region detection unit and the local region detection unit.
請求項1から請求項3の何れか1つの請求項に記載の画像処理装置であって、
前記局所部分が、
個体間で周期的な状態の変化に差が生じる部分、および個体間で形状に差が生じる部分のうちの少なくとも一方を含む画像処理装置。
An image processing apparatus according to any one of claims 1 to 3, wherein
The local portion is
An image processing apparatus including at least one of a portion in which a change in a periodic state varies between individuals and a portion in which a shape varies between individuals.
請求項4に記載の画像処理装置であって、
前記対象部位が、
肺野に係る構造物であり、
前記局所部分が、
大動脈弓、鎖骨、心臓、横隔膜および肋横角のうちの少なくとも1つの部分を含む画像処理装置。
The image processing apparatus according to claim 4,
The target site is
It is a structure related to the lung field,
The local portion is
An image processing apparatus including at least one portion of an aortic arch, a clavicle, a heart, a diaphragm, and a transverse angle.
請求項1から請求項5の何れか1つの請求項に記載の画像処理装置であって、
前記判定部が、
予め設定された少なくとも1つの方向における、前記大域領域検出部によって検出された前記大域領域の位置と、前記局所領域検出部によって検出された前記局所領域の位置とのずれ量が、予め設定された値域から外れていれば、前記候補領域設定部における前記局所領域検出部による検出結果に応じた前記対象候補領域の設定を禁止する画像処理装置。
The image processing apparatus according to any one of claims 1 to 5, wherein:
The determination unit is
A deviation amount between the position of the global region detected by the global region detection unit and the position of the local region detected by the local region detection unit in at least one preset direction is set in advance. An image processing apparatus that prohibits setting of the target candidate region according to a detection result by the local region detection unit in the candidate region setting unit if it is out of the range.
請求項1から請求項6の何れか1つの請求項に記載の画像処理装置であって、
前記判定部が、
前記相関値が、予め設定された値域から外れていれば、前記候補領域設定部における前記局所領域検出部による検出結果に応じた前記対象候補領域の設定を禁止する画像処理装置。
The image processing apparatus according to any one of claims 1 to 6, wherein
The determination unit is
An image processing apparatus that prohibits setting of the target candidate area according to a detection result by the local area detection unit in the candidate area setting unit if the correlation value is out of a preset range.
画像処理装置に含まれる制御部において実行されることにより、前記画像処理装置を、請求項1から請求項7の何れか1つの請求項に記載の画像処理装置として機能させるプログラム。   A program for causing the image processing apparatus to function as the image processing apparatus according to any one of claims 1 to 7 when executed by a control unit included in the image processing apparatus.
JP2013254304A 2013-12-09 2013-12-09 Image processing system and program Pending JP2015112150A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013254304A JP2015112150A (en) 2013-12-09 2013-12-09 Image processing system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013254304A JP2015112150A (en) 2013-12-09 2013-12-09 Image processing system and program

Publications (1)

Publication Number Publication Date
JP2015112150A true JP2015112150A (en) 2015-06-22

Family

ID=53526540

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013254304A Pending JP2015112150A (en) 2013-12-09 2013-12-09 Image processing system and program

Country Status (1)

Country Link
JP (1) JP2015112150A (en)

Similar Documents

Publication Publication Date Title
JP6350522B2 (en) Image processing apparatus and program
JP5643304B2 (en) Computer-aided lung nodule detection system and method and chest image segmentation system and method in chest tomosynthesis imaging
JP6221770B2 (en) Image processing apparatus and program
JP5408400B1 (en) Image generating apparatus and program
JP6570145B2 (en) Method, program, and method and apparatus for constructing alternative projections for processing images
US20140241606A1 (en) Apparatus and method for lesion segmentation in medical image
US20160117818A1 (en) Computer-aided diagnosis (cad) apparatus and method using consecutive medical images
JP2010279439A (en) Image processor, method for controlling the same and computer program
JP5631339B2 (en) Image processing apparatus, image processing method, ophthalmic apparatus, ophthalmic system, and computer program
JP5510619B1 (en) Image processing device
JP4938427B2 (en) Cerebral hemorrhage volume calculator
CN114359205B (en) Head and neck blood vessel analysis method and device, storage medium and electronic equipment
JP2006102353A (en) Apparatus, method and program for analyzing joint motion
KR20190090986A (en) System and method for assisting chest medical images reading
JP5880332B2 (en) Image processing apparatus and program
JP2007289335A (en) Medical image diagnosis support device
JP2019536531A (en) Apparatus for detecting opacity in X-ray images
KR20140104170A (en) Method and apparatus for determining scoliosis using camera
JP2015131057A (en) Image processing device and program
JP6326555B2 (en) Medical imaging system or method for adaptive segmentation for rotational C-arm computed tomography using reduced angle range
JP6789620B2 (en) Image processing device and its control method, computer program
JP7404857B2 (en) Image judgment device, image judgment method and program
JP5051025B2 (en) Image generating apparatus, program, and image generating method
JP2006043200A (en) Intracerebral hemorrhage/subarachnoid hemorrhage diagnostic support system
JP2015112150A (en) Image processing system and program