JP2015131057A - Image processing device and program - Google Patents

Image processing device and program Download PDF

Info

Publication number
JP2015131057A
JP2015131057A JP2014005204A JP2014005204A JP2015131057A JP 2015131057 A JP2015131057 A JP 2015131057A JP 2014005204 A JP2014005204 A JP 2014005204A JP 2014005204 A JP2014005204 A JP 2014005204A JP 2015131057 A JP2015131057 A JP 2015131057A
Authority
JP
Japan
Prior art keywords
region
value
image
target
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014005204A
Other languages
Japanese (ja)
Inventor
宏 大和
Hiroshi Yamato
宏 大和
藤原 浩一
Koichi Fujiwara
浩一 藤原
謙太 嶋村
Kenta Shimamura
謙太 嶋村
遠山 修
Osamu Toyama
修 遠山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2014005204A priority Critical patent/JP2015131057A/en
Publication of JP2015131057A publication Critical patent/JP2015131057A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To extract an area capturing a target region from a medical dynamic image with a high degree of precision.SOLUTION: A two-dimensional distribution of a statistical value in a time direction related to a feature value of a pixel value for each image area and/or a pixel value for each pixel is calculated for a plurality of frame images and/or a plurality of frame images in which the edge is emphasized. With regard to a first frame image, a first target region related to a target region is detected based on a first target specified region and a first unspecified region detected using template matching. With regard to a second frame image, a second target specified region and a second unspecified region are detected using template matching with a partial image corresponding to the template in the template matching for the first frame image as a template. A second target region related to the target region of the second frame image is detected based on a second target specified region, and an unspecified region including the second unspecified region and a third unspecified region based on the two-dimensional distribution of the statistical value.

Description

本発明は、画像処理装置およびプログラムに関する。   The present invention relates to an image processing apparatus and a program.

医療現場では、X線を用いた撮影(X線撮影とも言う)によって内臓および骨格等に含まれる患部を捉えた画像が取得され、該画像を用いた各種検査および診断が行われる。   In a medical field, an image that captures an affected part included in a viscera, a skeleton, or the like is acquired by imaging using X-rays (also referred to as X-ray imaging), and various examinations and diagnoses using the image are performed.

近年では、デジタル技術の適用によって、X線撮影によって患部の動きを捉えた画像(X線動態画像とも言う)が比較的容易に得られる。例えば、FPD(flat panel detector)等の半導体イメージセンサーを用いた撮影によって、検査および診断の対象となる部位(対象部位とも言う)を含む構造物を捉えたX線動態画像が取得される。これにより、造影剤を用いることなく、比較的簡易な構成によって、X線動態画像が取得され得る。また、従来のX線撮影によって得られる静止画像を用いた診断では実施できなかった、対象部位の動きの解析による診断が可能となる。   In recent years, by applying digital technology, an image (also referred to as an X-ray dynamic image) that captures the motion of an affected area by X-ray imaging can be obtained relatively easily. For example, an X-ray dynamic image capturing a structure including a part (also referred to as a target part) to be inspected and diagnosed is acquired by photographing using a semiconductor image sensor such as an FPD (flat panel detector). Thereby, an X-ray dynamic image can be acquired with a relatively simple configuration without using a contrast agent. Further, it is possible to make a diagnosis by analyzing the movement of the target part, which cannot be performed by the diagnosis using the still image obtained by the conventional X-ray imaging.

例えば、胸部の動きを捉えたX線動態画像における肺野に係る領域内の濃度の変化に係る解析により、肺野内における換気および血流(肺血流とも言う)の状態等に関する定量的な変化が認識される。具体的には、例えば、換気の状態に関する定量的な変化から換気の異常箇所が特定され、慢性閉塞性疾患(COPD)等が認識され得る。また、例えば、肺血流の状態に関する定量的な変化から肺血流の異常箇所が特定され、肺塞栓症等が認識され得る。   For example, quantitative analysis of the state of ventilation and blood flow (also referred to as pulmonary blood flow) in the lung field by analyzing the change in concentration in the region related to the lung field in an X-ray dynamic image capturing the movement of the chest Is recognized. Specifically, for example, an abnormal portion of ventilation is identified from a quantitative change regarding the state of ventilation, and chronic obstructive disease (COPD) or the like can be recognized. Further, for example, an abnormal portion of the pulmonary blood flow can be identified from a quantitative change regarding the state of the pulmonary blood flow, and pulmonary embolism or the like can be recognized.

但し、X線動態画像を用いた診断において対象部位の動きに関する解析および診断を実施するためには、対象部位を捉えた領域(対象領域とも言う)をX線動態画像から精度良く抽出する必要がある。   However, in order to carry out analysis and diagnosis related to the movement of the target part in the diagnosis using the X-ray dynamic image, it is necessary to accurately extract a region that captures the target part (also referred to as the target region) from the X-ray dynamic image. is there.

患部を捉えたX線画像から対象領域を抽出する技術としては、例えば、ある閾値を用いた2値化処理およびラベリング等によって対象領域としての肺野を捉えた領域(肺野領域とも言う)を抽出する技術が提案されている(例えば、特許文献1,2等)。また、被写体である眼部の断層画像から眼部を構成する所定の層の境界が検出され、被写体を構成する層の正常構造が精度良く推定される技術が提案されている(例えば、特許文献3等)。当該技術では、例えば、確率アトラスまたは統計アトラス等の事前知識が利用されて、グラフカット等の領域の抽出処理が実施されることで、構造物間の境界線が検出される。   As a technique for extracting a target region from an X-ray image that captures an affected area, for example, a region (also referred to as a lung field region) that captures a lung field as a target region by binarization processing using a certain threshold value, labeling, or the like. Techniques for extraction have been proposed (for example, Patent Documents 1 and 2). Further, a technique has been proposed in which a boundary of a predetermined layer constituting the eye part is detected from a tomographic image of the eye part being a subject, and the normal structure of the layer constituting the subject is accurately estimated (for example, Patent Documents). 3 etc.). In this technique, for example, prior knowledge such as a probability atlas or a statistical atlas is used to extract a region such as a graph cut, thereby detecting a boundary line between structures.

特開平09−035043号公報JP 09-035043 A 特開平11−151232号公報JP-A-11-151232 特開2013−138963号公報JP 2013-138963 A

しかしながら、対象部位を捉えたX線動態画像の撮影においては、X線による患部の被爆量が増大しないように、各フレームの撮影に要する被爆量が低く抑えられるため、各フレームの画質がノイズ等によって劣化し易い。従って、例えば、単純な2値化処理が用いられてX線画像から肺野領域が抽出される上記特許文献1,2の技術では、ノイズ等の影響によって、画像から肺野領域等の対象領域が精度良く抽出され難い。   However, in capturing an X-ray dynamic image that captures the target region, the exposure amount required for capturing each frame is kept low so that the exposure amount of the affected part due to X-rays does not increase. It is easy to deteriorate by. Therefore, for example, in the techniques of Patent Documents 1 and 2 in which a simple binarization process is used to extract a lung field region from an X-ray image, a target region such as a lung field region or the like is affected by noise or the like. Is difficult to extract accurately.

また、上記特許文献3の技術では、静止画としての断層画像が処理の対象とされ、一般に万人に対応可能となるように複数人の構造物の形状および濃淡差等の情報から生成される確率アトラス等が用いられている。このため、例えば、横隔膜および心臓を含む肺野等と言った時間の経過に伴って形状および位置が急変する部位、ならびに手術等で一部の構造物が切除された想定外の形状を有する部位等が被写体であれば、画像から肺野領域等の対象領域が精度良く抽出され難い。   Further, in the technique of Patent Document 3, a tomographic image as a still image is a processing target, and is generally generated from information such as the shape of a structure of a plurality of people and differences in shades so as to be compatible with everyone. Probabilistic atlases are used. For this reason, for example, a part whose shape and position change suddenly with the passage of time, such as a lung field including the diaphragm and the heart, and a part having an unexpected shape in which a part of the structure is removed by surgery or the like If the subject is a subject, it is difficult to accurately extract a target region such as a lung field region from an image.

本発明は、上記課題に鑑みてなされたものであり、体内の構造物の動きを捉えた医療用の動態画像から対象部位を捉えた領域を精度良く抽出することが可能な技術を提供することを目的とする。   The present invention has been made in view of the above problems, and provides a technique capable of accurately extracting a region capturing a target region from a medical dynamic image capturing the movement of a structure in the body. With the goal.

上記課題を解決するために、第1の態様に係る画像処理装置は、X線の照射によって体内の構造物が捉えられた医療用の動態画像を取得する取得部と、前記動態画像を構成する複数のフレーム画像における前記構造物に係るエッジがそれぞれ強調された複数のエッジ強調フレーム画像および前記複数のフレーム画像の少なくとも一方に対し、複数の画素を含む画像領域毎の画素値の特徴を示す特徴値および画素毎の画素値の少なくとも一方の値に関する時間方向の統計値の2次元分布を算出する算出部と、前記複数のフレーム画像のうちの第1フレーム画像について、テンプレートマッチングを用いて、対象部位の少なくとも一部が捉えられている第1対象確定領域と、該対象部位の一部が捉えられている可能性がある第1未確定領域とを検出する第1検出部と、前記第1対象確定領域および前記第1未確定領域の情報に基づき、前記第1フレーム画像のうちの前記対象部位の内部から輪郭に至る第1対象領域を検出する第2検出部と、を備え、前記第1検出部が、前記複数のフレーム画像のうちの前記第1フレーム画像とは異なる第2フレーム画像について、前記第1フレーム画像を対象とした前記テンプレートマッチングにおいて前記第1フレーム画像のうちのテンプレートと対応する対応領域に係る部分画像をテンプレートとするテンプレートマッチングを用いて、前記対象部位の少なくとも一部が捉えられている第2対象確定領域、および前記対象部位の一部が捉えられている可能性がある第2未確定領域を検出する処理と、前記統計値の2次元分布に基づき、前記対象部位の一部が捉えられている可能性がある第3未確定領域を検出する処理とを実行し、前記第2検出部が、前記第2対象確定領域、前記第2未確定領域と前記第3未確定領域とを含む未確定領域の情報に基づき、前記第2フレーム画像のうちの前記対象部位の内部から輪郭に至る第2対象領域を検出する。   In order to solve the above problem, an image processing apparatus according to a first aspect configures the dynamic image and an acquisition unit that acquires a medical dynamic image in which a body structure is captured by X-ray irradiation. A feature that indicates a feature of a pixel value for each image region including a plurality of pixels with respect to at least one of a plurality of edge-enhanced frame images in which edges of the structure in the plurality of frame images are respectively emphasized and the plurality of frame images A calculation unit that calculates a two-dimensional distribution of statistical values in the time direction related to at least one of a value and a pixel value for each pixel, and a template matching is used for a first frame image of the plurality of frame images, A first target definite region in which at least a part of the part is captured and a first unconfirmed region in which a part of the target part may be captured are detected. A first detection unit that detects a first target region that extends from the inside of the target part of the first frame image to an outline based on information on the first detection unit and the first target determination region and the first unconfirmed region. In the template matching for the first frame image, the second frame image is different from the first frame image among the plurality of frame images. A second target fixed region in which at least a part of the target portion is captured using template matching using a partial image related to a corresponding region corresponding to the template in the first frame image, and the target portion; Based on a process for detecting a second undefined region in which a part of the statistical value may be captured and a two-dimensional distribution of the statistical value And a process of detecting a third unconfirmed region in which a part of the second unconfirmed region may be captured, and the second detection unit performs the second target confirmed region, the second unconfirmed region, and the third Based on the information on the undetermined area including the undetermined area, a second target area extending from the inside of the target part to the contour in the second frame image is detected.

第2の態様に係る画像処理装置は、第1の態様に係る画像処理装置であって、前記時間方向の統計値が、時間方向の散布度を含む。   The image processing device according to the second aspect is the image processing device according to the first aspect, and the statistical value in the time direction includes a degree of dispersion in the time direction.

第3の態様に係る画像処理装置は、第2の態様に係る画像処理装置であって、前記散布度が、分散、標準偏差および変動係数の少なくとも1つを含む。   An image processing apparatus according to a third aspect is the image processing apparatus according to the second aspect, wherein the distribution degree includes at least one of variance, standard deviation, and variation coefficient.

第4の態様に係る画像処理装置は、第1の態様に係る画像処理装置であって、前記時間方向の統計値が、時間方向の代表値を含む。   The image processing device according to the fourth aspect is the image processing device according to the first aspect, wherein the time direction statistical value includes a time direction representative value.

第5の態様に係る画像処理装置は、第4の態様に係る画像処理装置であって、前記代表値が、最大値と最小値との差に係る値を含む。   An image processing apparatus according to a fifth aspect is the image processing apparatus according to the fourth aspect, wherein the representative value includes a value related to a difference between a maximum value and a minimum value.

第6の態様に係る画像処理装置は、第4または第5の態様に係る画像処理装置であって、前記代表値が、前記画像領域毎の前記特徴値および前記画素毎の画素値の少なくとも一方の値について、最頻値を基準とする予め設定された幅の値域における頻度の占有度に係る値を含む。   An image processing apparatus according to a sixth aspect is the image processing apparatus according to the fourth or fifth aspect, wherein the representative value is at least one of the feature value for each image region and the pixel value for each pixel. The value relating to the frequency occupancy in the range of the preset width with the mode as the reference is included.

第7の態様に係る画像処理装置は、第1から第6の何れか1つの態様に係る画像処理装置であって、前記特徴値が、画素値の平均値、中央値、最頻値、最大値および最小値の少なくとも1つの代表値を含む。   An image processing device according to a seventh aspect is the image processing device according to any one of the first to sixth aspects, wherein the feature value is an average value, median value, mode value, maximum value of pixel values. It includes at least one representative value of a value and a minimum value.

第8の態様に係る画像処理装置は、第1から第7の何れか1つの態様に係る画像処理装置であって、前記算出部が、前記複数のエッジ強調フレーム画像および前記複数のフレーム画像の少なくとも一方について、前記画像領域毎の前記特徴値および前記画素毎の画素値の少なくとも一方の値に関する、時間方向の第1統計値および第2統計値をそれぞれ算出し、予め設定されたルールに従った係数を各前記第1統計値に乗じて得られる第3統計値に係る2次元分布と、前記ルールに従った係数を各前記第2統計値に乗じて得られる第4統計値に係る2次元分布との組合せによって、前記統計値の2次元分布を算出する。   An image processing device according to an eighth aspect is the image processing device according to any one of the first to seventh aspects, wherein the calculation unit includes the plurality of edge-enhanced frame images and the plurality of frame images. At least one of the first statistical value and the second statistical value in the time direction is calculated for at least one of the feature value for each image area and the pixel value for each pixel, and a predetermined rule is followed. Two-dimensional distribution related to the third statistical value obtained by multiplying the first statistical value by each coefficient and the second statistical value obtained by multiplying the second statistical value by the coefficient according to the rule. A two-dimensional distribution of the statistical values is calculated by a combination with a dimensional distribution.

第9の態様に係る画像処理装置は、第1から第8の何れか1つの態様に係る画像処理装置であって、前記第1検出部が、前記第1および第2フレーム画像について、前記対象部位が捉えられていない非対象確定領域をそれぞれ検出する。   An image processing device according to a ninth aspect is the image processing device according to any one of the first to eighth aspects, wherein the first detection unit is configured to apply the target to the first and second frame images. Each non-target defined area in which a part is not captured is detected.

第10の態様に係る画像処理装置は、第1から第9の何れか1つの態様に係る画像処理装置であって、前記第1検出部が、前記統計値の2次元分布のうちの予め設定された条件を満たす領域を、前記第3未確定領域として検出する。   An image processing apparatus according to a tenth aspect is the image processing apparatus according to any one of the first to ninth aspects, wherein the first detection unit is preset in the two-dimensional distribution of the statistical values. A region satisfying the set condition is detected as the third undefined region.

第11の態様に係る画像処理装置は、第10の態様に係る画像処理装置であって、前記第1検出部が、前記統計値の2次元分布のうちの前記統計値と予め設定された閾値との大小関係が予め設定された条件を満たす領域を、前記第3未確定領域として検出する。   An image processing device according to an eleventh aspect is the image processing device according to the tenth aspect, in which the first detection unit has the statistical value of the two-dimensional distribution of the statistical value and a preset threshold value. Is detected as the third undetermined region.

第12の態様に係る画像処理装置は、情報処理装置に含まれる制御部において実行されることにより、前記情報処理装置を、第1から第11の何れか1つの態様に係る画像処理装置として機能させるプログラムである。   An image processing apparatus according to a twelfth aspect is executed by a control unit included in the information processing apparatus, so that the information processing apparatus functions as an image processing apparatus according to any one of the first to eleventh aspects. It is a program to let you.

第1から第11の何れの態様に係る画像処理装置によっても、第2フレーム画像を対象とするテンプレートマッチングの検出結果に応じた未確定領域よりも広い未確定領域が得られるため、体内の構造物の動きを捉えた医療用の動態画像から対象部位を捉えた領域が精度良く抽出され得る。   Since the image processing apparatus according to any one of the first to eleventh aspects can obtain an undetermined region wider than the undetermined region corresponding to the detection result of template matching for the second frame image, the internal structure A region in which the target part is captured can be accurately extracted from a medical dynamic image capturing the movement of an object.

第2から第6の何れの態様に係る画像処理装置によっても、動態画像で捉えられた構造物の時間的な変化に係る統計値の2次元分布が容易に算出され得る。   The image processing apparatus according to any of the second to sixth aspects can easily calculate a two-dimensional distribution of statistical values related to temporal changes in a structure captured by a dynamic image.

第6の態様に係る画像処理装置によれば、複数のフレーム画像の間における濃淡の差が統計値に及ぼす影響が低減され得る。   According to the image processing device of the sixth aspect, it is possible to reduce the influence of the difference in shading between the plurality of frame images on the statistical value.

第7の態様に係る画像処理装置によれば、画像領域毎の画素値の特徴を示す特徴値が容易に算出され得る。   According to the image processing device of the seventh aspect, the feature value indicating the feature of the pixel value for each image region can be easily calculated.

第8の態様に係る画像処理装置によれば、時間方向の複数種類の統計値の組合せによって、動態画像で捉えられた構造物の時間的な変化が良く反映された統計値の2次元分布が容易に算出され得る。   According to the image processing apparatus of the eighth aspect, a two-dimensional distribution of statistical values that well reflects a temporal change of a structure captured by a dynamic image by combining a plurality of types of statistical values in the time direction. It can be easily calculated.

第10および第11の何れの態様に係る画像処理装置によっても、動態画像で捉えられた構造物の時間的な変化に応じたより広い未確定領域が得られる。   With the image processing device according to any of the tenth and eleventh aspects, a wider undetermined region corresponding to the temporal change of the structure captured by the dynamic image can be obtained.

第12の態様に係るプログラムによれば、第1から第11の態様に係る画像処理装置と同様な効果が得られる。   According to the program according to the twelfth aspect, an effect similar to that of the image processing apparatus according to the first to eleventh aspects is obtained.

一実施形態に係る撮影システムの構成を示すブロック図である。It is a block diagram which shows the structure of the imaging | photography system which concerns on one Embodiment. 画像処理装置において実現される機能的な構成を示すブロック図である。It is a block diagram which shows the functional structure implement | achieved in an image processing apparatus. 対象領域抽出処理の流れを示す流れ図である。It is a flowchart which shows the flow of an object area | region extraction process. X線撮影によって得られる動態画像の一例を示す図である。It is a figure which shows an example of the dynamic image obtained by X-ray imaging. 動態画像を構成するフレーム画像の特徴を説明するための図である。It is a figure for demonstrating the characteristic of the frame image which comprises a dynamic image. 動態画像を構成するフレーム画像の特徴を説明するための図である。It is a figure for demonstrating the characteristic of the frame image which comprises a dynamic image. 動態画像を構成するフレーム画像の特徴を説明するための図である。It is a figure for demonstrating the characteristic of the frame image which comprises a dynamic image. フレーム画像を補正する処理を説明するための図である。It is a figure for demonstrating the process which correct | amends a frame image. フレーム画像を補正する処理を説明するための図である。It is a figure for demonstrating the process which correct | amends a frame image. フレーム画像を補正する処理を説明するための図である。It is a figure for demonstrating the process which correct | amends a frame image. フレーム画像を補正する処理を説明するための図である。It is a figure for demonstrating the process which correct | amends a frame image. フレーム画像を補正する処理を説明するための図である。It is a figure for demonstrating the process which correct | amends a frame image. フレーム画像を補正する処理を説明するための図である。It is a figure for demonstrating the process which correct | amends a frame image. フレーム画像を補正する処理を説明するための図である。It is a figure for demonstrating the process which correct | amends a frame image. フレーム画像を補正する処理を説明するための図である。It is a figure for demonstrating the process which correct | amends a frame image. フレーム画像を補正する処理を説明するための図である。It is a figure for demonstrating the process which correct | amends a frame image. フレーム画像を補正する処理を説明するための図である。It is a figure for demonstrating the process which correct | amends a frame image. 統計値分布算出部の機能的な構成を示すブロック図である。It is a block diagram which shows the functional structure of a statistical value distribution calculation part. 呼吸による横隔膜の位置の周期的な変化を例示する図である。It is a figure which illustrates the periodic change of the position of the diaphragm by respiration. 肺野および肺野周辺における画素値の変化の観測点を例示する図である。It is a figure which illustrates the observation point of the change of the pixel value in the lung field and the lung field periphery. 肺野および肺野周辺においる画素値の変化の観測点を例示する図である。It is a figure which illustrates the observation point of the change of the pixel value in the lung field and the lung field periphery. 観測点における時間の経過に応じた画素値の変化を例示する図である。It is a figure which illustrates change of a pixel value according to progress of time in an observation point. フレーム画像における統計値の算出対象としての画素を例示する図である。It is a figure which illustrates the pixel as a calculation object of the statistical value in a frame image. フレーム画像における統計値の算出対象としての画像領域を例示する図である。It is a figure which illustrates the image area | region as a calculation object of the statistical value in a frame image. 動態画像に係る統計値分布の一例を示す図である。It is a figure which shows an example of the statistical value distribution which concerns on a dynamic image. 動態画像に係る統計値分布の生成方法を説明するための図である。It is a figure for demonstrating the production | generation method of the statistical value distribution which concerns on a dynamic image. 動態画像に係る統計値分布の生成方法を説明するための図である。It is a figure for demonstrating the production | generation method of the statistical value distribution which concerns on a dynamic image. 動態画像に係る統計値分布の生成方法を説明するための図である。It is a figure for demonstrating the production | generation method of the statistical value distribution which concerns on a dynamic image. 動態画像に係る統計値分布の一例を示す図である。It is a figure which shows an example of the statistical value distribution which concerns on a dynamic image. 動態画像に係る統計値分布の生成方法を説明するための図である。It is a figure for demonstrating the production | generation method of the statistical value distribution which concerns on a dynamic image. 動態画像に係る統計値分布の生成方法を説明するための図である。It is a figure for demonstrating the production | generation method of the statistical value distribution which concerns on a dynamic image. 動態画像に係る統計値分布の生成方法を説明するための図である。It is a figure for demonstrating the production | generation method of the statistical value distribution which concerns on a dynamic image. 動態画像に係る統計値分布の生成方法を説明するための図である。It is a figure for demonstrating the production | generation method of the statistical value distribution which concerns on a dynamic image. 動態画像に係る統計値分布の生成方法を説明するための図である。It is a figure for demonstrating the production | generation method of the statistical value distribution which concerns on a dynamic image. 粗検出処理の対象となるフレーム画像を例示する図である。It is a figure which illustrates the frame image used as the object of rough detection processing. 粗検出処理による検出結果の一例を模式的に示す図である。It is a figure which shows typically an example of the detection result by a rough detection process. 粗検出部の機能的な構成を示すブロック図である。It is a block diagram which shows the functional structure of a rough detection part. 肺野の縦方向におけるサイズの変化の一例を模式的に示す図である。It is a figure which shows typically an example of the change of the size in the vertical direction of a lung field. 肺野の縦方向におけるサイズの変化の一例を模式的に示す図である。It is a figure which shows typically an example of the change of the size in the vertical direction of a lung field. 肺野の縦方向におけるサイズの変化の一例を模式的に示す図である。It is a figure which shows typically an example of the change of the size in the vertical direction of a lung field. 横隔膜および心臓の形状における個体差の一例を模式的に示す図である。It is a figure which shows typically an example of the individual difference in the shape of a diaphragm and a heart. 横隔膜および心臓の形状における個体差の一例を模式的に示す図である。It is a figure which shows typically an example of the individual difference in the shape of a diaphragm and a heart. 横隔膜および心臓の形状における個体差の一例を模式的に示す図である。It is a figure which shows typically an example of the individual difference in the shape of a diaphragm and a heart. 横隔膜および心臓の形状における個体差の一例を模式的に示す図である。It is a figure which shows typically an example of the individual difference in the shape of a diaphragm and a heart. テンプレートの生成方法について説明するための図である。It is a figure for demonstrating the production | generation method of a template. テンプレートの生成方法について説明するための図である。It is a figure for demonstrating the production | generation method of a template. テンプレートの生成方法について説明するための図である。It is a figure for demonstrating the production | generation method of a template. テンプレートの生成方法について説明するための図である。It is a figure for demonstrating the production | generation method of a template. 第1部分区分情報の生成方法について説明するための図である。It is a figure for demonstrating the production | generation method of 1st partial division information. 第1部分区分情報の生成方法について説明するための図である。It is a figure for demonstrating the production | generation method of 1st partial division information. 第1部分区分情報の生成方法について説明するための図である。It is a figure for demonstrating the production | generation method of 1st partial division information. 第1部分区分情報の生成方法について説明するための図である。It is a figure for demonstrating the production | generation method of 1st partial division information. 第1部分区分情報の生成方法について説明するための図である。It is a figure for demonstrating the production | generation method of 1st partial division information. 第1領域区分情報の一例を模式的に示す図である。It is a figure which shows typically an example of 1st area | region division information. 自己テンプレートの生成方法を説明するための図である。It is a figure for demonstrating the production | generation method of a self-template. 自己テンプレートの生成方法を説明するための図である。It is a figure for demonstrating the production | generation method of a self-template. 自己テンプレートの一例を示す図である。It is a figure which shows an example of a self-template. 自己テンプレートに対する重み付け係数の2次元分布を例示する図である。It is a figure which illustrates two-dimensional distribution of the weighting coefficient with respect to a self template. 自己テンプレートに対応する精密検出処理の検出結果を例示する図である。It is a figure which illustrates the detection result of the precision detection process corresponding to a self-template. 自己テンプレートに応じた第2部分区分情報を例示する図である。It is a figure which illustrates the 2nd partial division information according to a self template. 自己テンプレートを用いて決定される初期区分情報を例示する図である。It is a figure which illustrates the initial division information determined using a self template. 統計値の2次元分布から得られる第3未確定領域を例示する図である。It is a figure which illustrates the 3rd undecided field obtained from two-dimensional distribution of a statistics value. 第3未確定領域を考慮した領域区分情報の一例を模式的に示す図である。It is a figure which shows typically an example of area | region division information which considered the 3rd undecided area | region. 精密検出処理の対象となるフレーム画像を例示する図である。It is a figure which illustrates the frame image used as the object of precise detection processing. 精密検出処理による検出結果の一例を模式的に示す図である。It is a figure which shows typically an example of the detection result by a precision detection process. 一変形例に係る動態画像についての統計値分布の一例を示す図である。It is a figure which shows an example of the statistical value distribution about the dynamic image which concerns on one modification. 一変形例に係る動態画像についての統計値分布の一例を示す図である。It is a figure which shows an example of the statistical value distribution about the dynamic image which concerns on one modification. 一変形例に係る動態画像についての統計値分布の一例を示す図である。It is a figure which shows an example of the statistical value distribution about the dynamic image which concerns on one modification.

以下、本発明の一実施形態を図面に基づいて説明する。なお、図面においては同様な構成および機能を有する部分については同じ符号が付されており、下記説明では重複説明が省略される。また、図面は模式的に示されたものであり、異なる図面にそれぞれ示されている画像のサイズおよび位置の相互関係は、必ずしも正確に記載されたものではなく、適宜変更され得る。なお、図5および図17には、画像の左上を原点とし、右方向をX方向、下方向をY方向とするXY座標系が付されている。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. In the drawings, parts having the same configuration and function are denoted by the same reference numerals, and redundant description is omitted in the following description. Further, the drawings are schematically shown, and the mutual relationship between the sizes and positions of the images respectively shown in the different drawings is not necessarily accurately described and can be appropriately changed. 5 and 17, an XY coordinate system is attached in which the upper left of the image is the origin, the right direction is the X direction, and the lower direction is the Y direction.

<(1)撮影システムの概要>
図1は、一実施形態に係る撮影システム100の構成を示すブロック図である。撮影システム100は、ヒトを含む動物の体内の構造物を被写体として、放射線の照射によって体内の構造物が捉えられた動態画像を撮影し、該動態画像に各種画像処理を施す。なお、体内の構造物としては、例えば、肺等の胸部の領域に含まれる臓器ならびに間接等の骨格が挙げられる。
<(1) Overview of shooting system>
FIG. 1 is a block diagram illustrating a configuration of an imaging system 100 according to an embodiment. The imaging system 100 captures a dynamic image in which a structure in the body is captured by irradiation of radiation using a structure in the body of an animal including a human as a subject, and performs various image processing on the dynamic image. In addition, as a structure in a body, skeletons, such as an organ contained in the chest area | regions, such as a lung, and indirect, are mentioned, for example.

本実施形態では、撮影システム100が、人体用のシステムであり、撮影の主な対象となる部位(対象部位とも言う)が、検査の対象となる者(被検者とも言う)M1としてのヒトの肺野である。また、本実施形態では、放射線が、X線とされ、動態画像(X線動態画像とも言う)が、医療あるいは医学のために被検者M1の人体を撮影、または被検者M1の人体を計測した結果が画像化されたもの(医療用の動態画像とも言う)である。   In the present embodiment, the imaging system 100 is a system for the human body, and a part that is a main target of imaging (also referred to as a target part) is a person who is a subject of inspection (also referred to as a subject) M1. The lung field. In this embodiment, the radiation is X-rays, and a dynamic image (also referred to as an X-ray dynamic image) is used to photograph the human body of the subject M1 for medical treatment or medicine, or the human body of the subject M1. The measurement result is an image (also called a medical dynamic image).

図1で示されるように、撮影システム100は、撮影装置1、撮影制御装置(撮影用コンソール)2および画像処理装置(診断用コンソール)3を備えている。撮影装置1と撮影制御装置2との間、ならびに撮影制御装置2と画像処理装置3との間が、それぞれ通信回線によってデータの送受信が可能に接続されている。撮影装置1と撮影制御装置2とを接続する通信回線は、通信ケーブル等の有線回線であっても、無線回線であっても良い。また、撮影制御装置2と画像処理装置3と接続する通信回線は、有線回線および無線回線の何れであっても良く、例えば、LAN(Local Area Network)回線等のネットワーク回線NTWであれば良い。   As shown in FIG. 1, the imaging system 100 includes an imaging device 1, an imaging control device (imaging console) 2, and an image processing device (diagnosis console) 3. The imaging device 1 and the imaging control device 2 and the imaging control device 2 and the image processing device 3 are connected to each other via a communication line so as to be able to transmit and receive data. The communication line connecting the image capturing apparatus 1 and the image capturing control apparatus 2 may be a wired line such as a communication cable or a wireless line. Further, the communication line connecting the imaging control apparatus 2 and the image processing apparatus 3 may be either a wired line or a wireless line, and may be a network line NTW such as a LAN (Local Area Network) line.

なお、撮影システム100では、例えば、DICOM(Digital Image and Communications in Medicine)と称される標準規格に準じた医用画像のフォーマットおよび画像を扱う機器間の通信プロトコルが採用される。   In the imaging system 100, for example, a medical image format and a communication protocol between devices that handle images conform to a standard called DICOM (Digital Image and Communications in Medicine).

<(2)撮影装置>
撮影装置1は、例えば、放射線としてのX線の照射によって体内の構造物を捉えた医療用の動態画像を取得する装置(X線撮影装置とも言う)等によって構成されている。撮影装置1では、例えば、呼吸等に伴う被検者M1の胸部内の構造物の動態が対象とされた撮影(動態撮影とも言う)が行われる。該動態撮影では、例えば、被検者M1の胸部に対してX線が繰り返して照射されつつ、被検者M1を透過するX線の2次元的な分布が時間順次に検出される。これにより、時間順次に複数の画像(フレーム画像とも言う)が取得される。これらの一連の複数のフレーム画像は、被検者M1の肺を含む領域(肺野領域とも言う)における物理的な状態(幾何学的形状および血流の濃度等)が時間変化する様子を時間順次に捉えた動態画像(動画像)を構成する。
<(2) Shooting device>
The imaging apparatus 1 is configured by, for example, an apparatus (also referred to as an X-ray imaging apparatus) that acquires a dynamic image for medical use in which a structure inside the body is captured by irradiation with X-rays as radiation. In the imaging device 1, for example, imaging (also referred to as dynamic imaging) is performed on the dynamics of the structure in the chest of the subject M <b> 1 associated with breathing or the like. In the dynamic imaging, for example, a two-dimensional distribution of X-rays transmitted through the subject M1 is detected in time sequence while X-rays are repeatedly irradiated to the chest of the subject M1. Thereby, a plurality of images (also referred to as frame images) are acquired in time sequence. These series of a plurality of frame images show how the physical state (geometric shape, blood flow concentration, etc.) in the region including the lung of the subject M1 (also referred to as the lung field region) changes over time. A dynamic image (moving image) captured sequentially is constructed.

図1で示されるように、撮影装置1は、照射部(X線源)11、照射制御装置12、撮像部(X線検出部)13、読取制御装置14、サイクル検出センサー15およびサイクル検出装置16を備えている。   As shown in FIG. 1, an imaging apparatus 1 includes an irradiation unit (X-ray source) 11, an irradiation control device 12, an imaging unit (X-ray detection unit) 13, a reading control device 14, a cycle detection sensor 15, and a cycle detection device. 16 is provided.

照射部11は、照射制御装置12の制御に従って、被検者M1に対してX線を照射する。照射制御装置12は、撮影制御装置2に接続されており、撮影制御装置2から入力されるX線の照射条件を示す情報に基づいて照射部11を制御する。   The irradiation unit 11 irradiates the subject M1 with X-rays according to the control of the irradiation control device 12. The irradiation control device 12 is connected to the imaging control device 2 and controls the irradiation unit 11 based on information indicating the X-ray irradiation conditions input from the imaging control device 2.

撮像部13は、例えば、FPD(flat panel detector)等の半導体イメージセンサー等によって構成されており、照射部11から被検者M1に対して照射され、被検者M1を透過したX線をデジタル信号に変換する。   The imaging unit 13 is configured by, for example, a semiconductor image sensor such as an FPD (flat panel detector), and digitally radiates X-rays irradiated from the irradiation unit 11 to the subject M1 and transmitted through the subject M1. Convert to signal.

読取制御装置14は、撮影制御装置2に接続されており、撮影制御装置2から入力される読取条件に基づいて撮像部13の各画素のスイッチング部を制御する。これにより、読取制御装置14によって、撮像部13の各画素に蓄積された電荷に応じたデジタル信号が順次に読み取られ、撮像部13上で受け付けたX線の2次元的な強度分布に対応する画像データが取得される。そして、読取制御装置14は、取得した画像データ(単に画像とも言う)を、動態画像を構成するフレーム画像として撮影制御装置2に出力する。なお、読取条件は、例えば、フレームレート、画素サイズおよび画像サイズ等であれば良い。フレームレートは、1秒あたりに取得するフレーム画像の数であれば良い。   The reading control device 14 is connected to the imaging control device 2 and controls the switching unit of each pixel of the imaging unit 13 based on the reading condition input from the imaging control device 2. Thereby, the reading control device 14 sequentially reads digital signals corresponding to the charges accumulated in the respective pixels of the imaging unit 13, and corresponds to the two-dimensional intensity distribution of the X-rays received on the imaging unit 13. Image data is acquired. Then, the reading control device 14 outputs the acquired image data (also simply referred to as an image) to the imaging control device 2 as a frame image constituting a dynamic image. The reading conditions may be, for example, the frame rate, pixel size, image size, and the like. The frame rate may be the number of frame images acquired per second.

ここでは、照射制御装置12と読取制御装置14とが、互いに電気的に接続されており、互いに同期信号を送受信し合うことで、照射部11によるX線の照射動作と、読取制御装置14による画像データの読み取り動作とを同調させる。   Here, the irradiation control device 12 and the reading control device 14 are electrically connected to each other, and by transmitting and receiving a synchronization signal to each other, the irradiation operation of the X-ray by the irradiation unit 11 and the reading control device 14 are performed. Synchronize with image data reading operation.

サイクル検出センサー15は、例えば、デジタルカメラ等によって構成され、被検者M1の胸部の外観を対象とした撮影によって、被検者M1の胸部の動きが捉えられた動態画像を取得する。   The cycle detection sensor 15 is configured by, for example, a digital camera or the like, and acquires a dynamic image in which the movement of the chest of the subject M1 is captured by photographing the appearance of the chest of the subject M1.

サイクル検出装置16は、サイクル検出センサー15で取得された動態画像を解析することで、被検者M1における呼吸のサイクルについて、呼吸の位相の時間的な変化に係る情報を取得して、撮影制御装置2の制御部21に出力する。これにより、撮影装置1による各フレーム画像の取得タイミングにおける呼吸の位相に係る情報が取得され得る。   The cycle detection device 16 analyzes the dynamic image acquired by the cycle detection sensor 15 to acquire information related to the temporal change in the respiratory phase for the respiratory cycle of the subject M1, and performs imaging control. It outputs to the control part 21 of the apparatus 2. Thereby, the information regarding the phase of respiration in the acquisition timing of each frame image by the imaging device 1 can be acquired.

<(3)撮影制御装置>
撮影制御装置2は、照射条件および読取条件等を示す情報を撮影装置1に出力することで、撮影装置1によるX線撮影およびフレーム画像の読み取り動作を制御する。該撮影制御装置2では、例えば、撮影装置1によって取得される画像が表示部24に適宜表示される。これにより、被検者M1の位置および姿勢等を含むポジショニング、ならびに画像の診断用としての適否等が、撮影技師によって確認され得る。
<(3) Shooting control device>
The imaging control device 2 controls the X-ray imaging and frame image reading operations of the imaging device 1 by outputting information indicating the irradiation condition, the reading condition, and the like to the imaging device 1. In the imaging control device 2, for example, an image acquired by the imaging device 1 is appropriately displayed on the display unit 24. Thereby, the positioning including the position and posture of the subject M1 and the suitability for image diagnosis can be confirmed by the imaging technician.

図1で示されるように、撮影制御装置2は、バス26によって相互にデータの授受が可能に接続されている制御部21、記憶部22、操作部23、表示部24および通信部25を備えて構成されている。   As shown in FIG. 1, the imaging control device 2 includes a control unit 21, a storage unit 22, an operation unit 23, a display unit 24, and a communication unit 25 that are connected to each other via a bus 26 so as to be able to exchange data. Configured.

制御部21は、例えば、プロセッサーおよびメモリー等を備えて構成されている。プロセッサーは、例えば、CPU(Central Processing Unit)であり、メモリーは、例えば、揮発性のRAM(Random Access Memory)等であれば良い。例えば、プロセッサーは、操作部23の操作等に応じて、記憶部22に記憶されているプログラムを読み出してメモリー内に展開し、該展開されたプログラムに従った各種処理を実行することで、撮影装置1および撮影制御装置2の各部の動作を制御する。   The control unit 21 includes, for example, a processor and a memory. The processor is, for example, a CPU (Central Processing Unit), and the memory may be, for example, a volatile RAM (Random Access Memory). For example, the processor reads out a program stored in the storage unit 22 in accordance with an operation of the operation unit 23, expands the program in the memory, and executes various processes according to the expanded program. The operation of each part of the apparatus 1 and the imaging control apparatus 2 is controlled.

記憶部22は、例えば、不揮発性の半導体メモリーあるいはハードディスク等を備えて構成されている。該記憶部22は、制御部21で実行される各種プログラムならびに処理の実行に必要な各種データを記憶する。ここで、各種データには、プログラムに従った処理の実行に必要なパラメーター等を示すデータ、ならびに演算処理の結果として少なくとも一時的に生成されるデータ等が含まれる。   The storage unit 22 includes, for example, a nonvolatile semiconductor memory or a hard disk. The storage unit 22 stores various programs executed by the control unit 21 and various data necessary for execution of processing. Here, the various data includes data indicating parameters and the like necessary for execution of processing according to the program, and data generated at least temporarily as a result of the arithmetic processing.

操作部23は、例えば、キーボードおよびマウス等のポインティングデバイス等を備えて構成されている。該操作部23では、キーボードおよびマウス等に対する操作に応じて入力される信号(指示信号とも言う)が制御部21に出力される。なお、操作部23には、タッチパネル等の構成が採用されても良い。   The operation unit 23 includes, for example, a pointing device such as a keyboard and a mouse. In the operation unit 23, a signal (also referred to as an instruction signal) input in response to an operation on a keyboard, a mouse, or the like is output to the control unit 21. The operation unit 23 may employ a configuration such as a touch panel.

表示部24は、例えば、LCD(Liquid Crystal Display)等のモニターを備えて構成されている。該表示部24では、制御部21から入力される信号に従って、操作部23から入力される指示の内容、ならびに各種データが可視的に出力される。   The display unit 24 includes a monitor such as an LCD (Liquid Crystal Display). In the display unit 24, in accordance with a signal input from the control unit 21, the contents of the instruction input from the operation unit 23 and various data are visually output.

通信部25は、例えば、LANアダプター、モデムまたはターミナルアダプター(TA)等を備えて構成されている。該通信部25によって、ネットワーク回線NTWに接続されている各装置との間におけるデータの送受信が制御される。   The communication unit 25 includes, for example, a LAN adapter, a modem, or a terminal adapter (TA). The communication unit 25 controls transmission / reception of data to / from each device connected to the network line NTW.

<(4)画像処理装置>
<(4−1)画像処理装置の概略構成>
画像処理装置3は、情報処理を行う情報処理装置であり、例えば、撮影装置1における撮影によって得られる動態画像を、撮影制御装置2を介して取得し、該動態画像に対する画像処理を行うことで、医師等による読影および診断に適した画像を生成する。該画像は、表示部34に適宜表示される。本実施形態では、画像処理装置3によって、主として心臓および両肺を含む胸部の動的な態様が捉えられた動態画像を構成する複数のフレーム画像から、診断の対象となる対象部位が捉えられた領域(対象領域とも言う)としての肺野領域がそれぞれ検出される。なお、情報処理装置は、例えば、パーソナルコンピューター(パソコン)の構成あるいはパソコンに類似した機能的な構成を有していれば良い。
<(4) Image processing device>
<(4-1) Schematic Configuration of Image Processing Device>
The image processing device 3 is an information processing device that performs information processing. For example, a dynamic image obtained by photographing in the photographing device 1 is acquired via the photographing control device 2, and image processing is performed on the dynamic image. An image suitable for interpretation and diagnosis by a doctor or the like is generated. The image is appropriately displayed on the display unit 34. In the present embodiment, the image processing device 3 captures a target site to be diagnosed from a plurality of frame images constituting a dynamic image in which a dynamic aspect of the chest mainly including the heart and both lungs is captured. Lung field regions as regions (also referred to as target regions) are respectively detected. In addition, the information processing apparatus should just have the functional structure similar to the structure of a personal computer (personal computer) or a personal computer, for example.

図1で示されるように、画像処理装置3は、バス36によって相互にデータの授受が可能に接続されている制御部31、記憶部32、操作部33、表示部34および通信部35を備えて構成されている。   As shown in FIG. 1, the image processing apparatus 3 includes a control unit 31, a storage unit 32, an operation unit 33, a display unit 34, and a communication unit 35 that are connected to each other via a bus 36 so as to be able to exchange data. Configured.

制御部31は、例えば、プロセッサー31aおよびメモリー31b等を備えて構成されている。該プロセッサー31aは、例えば、CPUであり、メモリー31bは、例えば、揮発性のRAM等であれば良い。例えば、プロセッサー31aは、操作部33の操作等に応じて、記憶部32に記憶されているプログラムP1を読み出してメモリー31b内に展開し、該展開されたプログラムP1に従った各種処理を実行することで、画像処理装置3の各部の動作を制御する。すなわち、プログラムP1は、情報処理装置に含まれる制御部31において実行されることにより、該情報処理装置を画像処理装置3として機能させる。   The control unit 31 includes, for example, a processor 31a and a memory 31b. The processor 31a is, for example, a CPU, and the memory 31b may be, for example, a volatile RAM. For example, the processor 31a reads out the program P1 stored in the storage unit 32 in accordance with the operation of the operation unit 33, expands it in the memory 31b, and executes various processes according to the expanded program P1. Thus, the operation of each unit of the image processing apparatus 3 is controlled. That is, the program P1 is executed by the control unit 31 included in the information processing apparatus, thereby causing the information processing apparatus to function as the image processing apparatus 3.

記憶部32は、例えば、不揮発性の半導体メモリーあるいはハードディスク等を備えて構成されている。該記憶部32は、制御部31で実行されるプログラムP1ならびに処理の実行に必要な各種データD1を記憶する。ここで、各種データD1には、プログラムに従った処理の実行に必要なパラメーター等を示すデータ、ならびに演算処理の結果として少なくとも一時的に生成されるデータ等が含まれる。なお、プログラムP1には、例えば、画像処理を実行するためのプログラムが含まれている。そして、プログラムP1は、読取可能なプログラムコードの形態で記憶部32に格納されており、制御部31は、当該プログラムコードに従った動作を逐次実行する。   The storage unit 32 includes, for example, a nonvolatile semiconductor memory or a hard disk. The storage unit 32 stores a program P1 executed by the control unit 31 and various data D1 necessary for execution of processing. Here, the various data D1 includes data indicating parameters and the like necessary for execution of processing according to the program, data generated at least temporarily as a result of the arithmetic processing, and the like. The program P1 includes, for example, a program for executing image processing. The program P1 is stored in the storage unit 32 in the form of readable program code, and the control unit 31 sequentially executes operations according to the program code.

操作部33は、例えば、キーボードおよびマウス等のポインティングデバイス等を備えて構成されている。該操作部33では、キーボードおよびマウス等に対する操作に応じて入力される信号(指示信号とも言う)が制御部31に出力される。なお、操作部33には、タッチパネル等の構成が採用されても良い。   The operation unit 33 includes, for example, a pointing device such as a keyboard and a mouse. In the operation unit 33, a signal (also referred to as an instruction signal) that is input in response to an operation on the keyboard and the mouse is output to the control unit 31. The operation unit 33 may employ a configuration such as a touch panel.

表示部34は、例えば、LCD等のモニターを備えて構成されている。該表示部34では、制御部31から入力される信号に従って、操作部33から入力される指示の内容、各種データならびに各種画像が可視的に出力される。   The display unit 34 includes, for example, a monitor such as an LCD. In the display unit 34, in accordance with a signal input from the control unit 31, the contents of instructions input from the operation unit 33, various data, and various images are visually output.

通信部35は、例えば、LANアダプター、モデムまたはTA等を備えて構成されている。該通信部35によって、ネットワーク回線NTWに接続されている各装置との間におけるデータの送受信が制御される。   The communication unit 35 includes, for example, a LAN adapter, a modem, or a TA. The communication unit 35 controls transmission / reception of data to / from each device connected to the network line NTW.

<(4−2)画像処理装置の機能的な構成>
図2は、画像処理装置3において、プロセッサー31a等がプログラムP1に従って動作することによって制御部31で実現される機能的な構成を、他の構成とともに示すブロック図である。図2で示されるように、制御部31は、主に、画像取得部311、画像補正部312、統計値分布算出部313、第1検出部としての粗検出部314、第2検出部としての精密検出部315および対象領域抽出部316を備えている。
<(4-2) Functional Configuration of Image Processing Device>
FIG. 2 is a block diagram showing a functional configuration realized by the control unit 31 when the processor 31a and the like operate according to the program P1 in the image processing apparatus 3, together with other configurations. As shown in FIG. 2, the control unit 31 mainly includes an image acquisition unit 311, an image correction unit 312, a statistical value distribution calculation unit 313, a coarse detection unit 314 as a first detection unit, and a second detection unit. A precision detection unit 315 and a target region extraction unit 316 are provided.

図3は、画像処理装置3において実行される、主に次の処理A1〜A8を含む情報処理(対象領域抽出処理とも言う)の流れを示す流れ図である。該対象領域抽出処理により、X線撮影によって得られる体内の構造物の動的な態様が捉えられた一連の複数のフレーム画像I0(図4参照)から対象部位を捉えた対象領域が精度良く抽出され得る。   FIG. 3 is a flowchart showing a flow of information processing (also referred to as a target area extraction process) mainly including the following processes A1 to A8, which is executed in the image processing apparatus 3. By the target region extraction processing, a target region that captures the target region is accurately extracted from a series of a plurality of frame images I0 (see FIG. 4) in which a dynamic aspect of the internal structure obtained by X-ray imaging is captured. Can be done.

[処理A1]画像取得部311によって、撮影制御装置2から動態画像を構成する一連の複数のフレーム画像I0が取得される。   [Processing A1] The image acquisition unit 311 acquires a series of a plurality of frame images I0 constituting a dynamic image from the imaging control device 2.

[処理A2]画像補正部312によって、各フレーム画像I0に対する補正が施されることで、ノイズの低減と対象部位以外の構造物による影響の低減とが行われ、補正後のフレーム画像IC0(図10および図11参照)が得られる。ここでは、第1〜10フレーム画像I1〜I10(図4参照)を対象とした補正によって、補正後の第1〜10フレーム画像IC1〜IC10がそれぞれ得られる。   [Process A2] The image correction unit 312 performs correction on each frame image I0, thereby reducing noise and reducing the influence of a structure other than the target part. The corrected frame image IC0 (FIG. 10 and FIG. 11). Here, corrected first to tenth frame images IC1 to IC10 are obtained by correction for the first to tenth frame images I1 to I10 (see FIG. 4).

[処理A3]統計値分布算出部313によって、動態画像で捉えられた被写体の動きに関し、処理A2で得られた補正後の複数のフレーム画像IC0についての時間方向の統計値の2次元分布(統計値分布とも言う)が算出される。   [Process A3] A two-dimensional distribution of statistical values in the time direction (statistics) for the plurality of corrected frame images IC0 obtained in Process A2 regarding the movement of the subject captured by the dynamic image by the statistical value distribution calculation unit 313. Value distribution).

[処理A4]粗検出部314によって、テンプレートマッチングが用いられて、補正後の1番目のフレーム画像IC0(第1フレーム画像IC1)から対象部位の位置が大まかに検出される処理(粗検出処理とも言う)が行われる。なお、テンプレートマッチングで通常用いられるテンプレートは、例えば、単純に複数の画像から生成される平均画像、あるいは白黒で表現される単純なモデルで表現された画像(モデル画像とも言う)等である。このため、X線画像を対象としたテンプレートマッチングでは、テンプレートの使用数が限られていれば、肺野および心臓についての個体間における大きさ等の形状の差ならびに呼吸および心拍の変動による形状の差により、肺野領域が輪郭まで精度良く検出されない。そこで、テンプレートマッチングによる検出結果から、フレーム画像IC0における対象部位のある程度大まかな位置を示す情報が得られる。   [Process A4] The rough detection unit 314 uses template matching to roughly detect the position of the target region from the corrected first frame image IC0 (first frame image IC1) (both the rough detection process). Say) is done. Note that a template normally used in template matching is, for example, an average image simply generated from a plurality of images, or an image (also referred to as a model image) expressed by a simple model expressed in black and white. For this reason, in template matching for X-ray images, if the number of templates used is limited, the shape of the lung field and heart due to differences in shape such as size between individuals and changes in respiration and heart rate Due to the difference, the lung field region is not accurately detected up to the contour. Therefore, information indicating a rough position of the target portion in the frame image IC0 is obtained from the detection result by template matching.

[処理A5]精密検出部315によって、処理A4で大まかに検出された対象部位の位置に係る情報が初期値とされて、各フレーム画像IC0のうちの対象部位の内部から輪郭に至る対象領域が詳細に検出される処理(精密検出処理とも言う)が行われる。   [Process A5] Information regarding the position of the target part roughly detected in process A4 by the precision detection unit 315 is set as an initial value, and a target area extending from the inside of the target part to the contour in each frame image IC0 is detected. Processing that is detected in detail (also referred to as precise detection processing) is performed.

ここでは、1番目のフレーム画像IC0(第1フレーム画像IC1)を対象とした処理A4,A5が一旦行われた後は、動態画像を構成する第1フレーム画像IC1以外の2番目以降のフレーム画像IC0を対象とした処理A7,A8,A5がこの順に行われる処理が繰り返される。このとき、処理A5の精密検出処理では、処理A8で大まかに検出される対象部位の位置に係る情報が初期値とされる。   Here, after the processes A4 and A5 for the first frame image IC0 (first frame image IC1) are performed once, the second and subsequent frame images other than the first frame image IC1 constituting the dynamic image are displayed. The process in which the processes A7, A8, and A5 for the IC0 are performed in this order is repeated. At this time, in the precision detection process of process A5, information related to the position of the target portion roughly detected in process A8 is set as an initial value.

[処理A6]対象領域抽出部316により、処理A5で詳細に検出された対象領域に基づき、各フレーム画像I0から対象領域の画像が抽出される。   [Process A6] The target area extraction unit 316 extracts an image of the target area from each frame image I0 based on the target area detected in detail in process A5.

[処理A7]粗検出部314により、処理A4または直近の処理A8において、粗検出処理の対象とされたフレーム画像IC0のうちのテンプレートと対応する(対応領域とも言う)に係る部分がテンプレート(自己テンプレートとも言う)とされる。ここで、対応領域は、例えば、粗検出処理の対象とされたフレーム画像IC0のうちのテンプレートとの一致度が最も高い領域であれば良い。但し、対応領域は、粗検出処理の対象とされたフレーム画像IC0のうちのテンプレートとの一致度が最も高い領域に限られず、例えば、該一致度が予め設定された閾値以上であれば、該一致度が2番目以降に高い領域であっても構わない。そして、ここでは、各フレーム画像IC0から、対応領域に対応する部分的な画像(部分画像とも言う)が抽出され、該部分画像が自己テンプレートとされる。   [Process A7] By the coarse detection unit 314, in the process A4 or the latest process A8, the portion corresponding to the template (also referred to as the corresponding region) in the frame image IC0 that is the target of the coarse detection process is the template (self Also called a template). Here, for example, the corresponding region may be a region having the highest degree of matching with the template in the frame image IC0 that is the target of the rough detection process. However, the corresponding region is not limited to the region having the highest matching degree with the template in the frame image IC0 that is the target of the rough detection process. For example, if the matching degree is equal to or higher than a preset threshold, It may be a region having the second highest matching score. Here, a partial image (also referred to as a partial image) corresponding to the corresponding region is extracted from each frame image IC0, and the partial image is used as a self-template.

[処理A8]粗検出部314によって、直近の処理A7で準備された自己テンプレートを使用するテンプレートマッチングが用いられて、補正後の2番目以降のフレーム画像IC0(第2〜10フレーム画像IC2〜IC10)を対象とした粗検出処理が行われる。例えば、処理A7において第1フレーム画像IC1から生成された自己テンプレートを使用するテンプレートマッチングが用いられて、補正後の第2フレーム画像IC2から対象部位の位置が大まかに検出される。なお、処理A8では、処理A3で算出された統計値分布も踏まえて、自己テンプレートを用いたテンプレートマッチングが行われる。   [Process A8] The coarse detection unit 314 uses template matching using the self template prepared in the latest process A7, and corrects the second and subsequent frame images IC0 (second to tenth frame images IC2 to IC10). ) Is performed as a target. For example, template matching using a self-template generated from the first frame image IC1 in process A7 is used, and the position of the target portion is roughly detected from the corrected second frame image IC2. In the process A8, template matching using the self template is performed based on the statistical value distribution calculated in the process A3.

処理A8で大まかに検出された対象部位の位置を示す情報は、次の処理A5における精密検出処理に供される。例えば、処理A8において第2フレーム画像IC2が対象とされて大まかに検出された対象部位の位置を示す情報は、第2フレーム画像IC2を対象とした精密検出部315における精密検出処理に供される。   Information indicating the position of the target portion roughly detected in the process A8 is used for the precision detection process in the next process A5. For example, the information indicating the position of the target portion roughly detected with the second frame image IC2 as the target in the process A8 is used for the precision detection process in the precision detection unit 315 for the second frame image IC2. .

以下、各部311〜316について説明する。   Hereinafter, each part 311 to 316 will be described.

<(4−2−1)画像取得部311>
画像取得部311は、X線の照射によって体内の構造物が捉えられた医療用の動態画像を取得する。本実施形態では、体内の構造物は、肺野の構造物である。ここでは、画像取得部311によって、撮影装置1におけるX線撮影で得られるX線動態画像を構成する複数のフレーム画像I0に係る画像データが、撮影制御装置2を介して取得される。例えば、画像取得部311によって、撮影制御装置2の記憶部22に記憶された複数の画像データが、通信部25、ネットワーク回線NTWおよび通信部35を順に介して取得される。
<(4-2-1) Image Acquisition Unit 311>
The image acquisition unit 311 acquires a dynamic image for medical use in which a structure inside the body is captured by X-ray irradiation. In this embodiment, the body structure is a lung field structure. Here, the image acquisition unit 311 acquires image data related to a plurality of frame images I0 constituting an X-ray dynamic image obtained by X-ray imaging in the imaging apparatus 1 via the imaging control apparatus 2. For example, the image acquisition unit 311 acquires a plurality of image data stored in the storage unit 22 of the imaging control device 2 via the communication unit 25, the network line NTW, and the communication unit 35 in this order.

図4は、被検者M1の肺野内における呼吸に伴う構造物の動態が捉えられたX線動態画像の一例を模式的に示す図である。図4には、呼吸のサイクルに係る1周期において、一定のタイミングで順次に撮影が行われることで得られる、一連の複数のフレーム画像I0が例示されている。図4で示される複数のフレーム画像I0は、時刻Tがt1,t2,t3,・・・,t10であるタイミングで撮影が行われることでそれぞれ得られる複数のフレーム画像I1,I2,I3,・・・I10によって構成されている。なお、一連のフレーム画像I1〜I10のうち、前半のフレーム画像I1〜I5には、吸気の動作によって肺野が拡張していく動態が捉えられ、後半のフレーム画像I6〜I10には、呼気の動作によって肺野が収縮していく動態が捉えられている。なお、フレーム画像I0は、X線の2次元的な強度分布が、例えば、白黒の濃淡を示す画素値(濃淡値とも言う)の2次元的な分布に変換されたものである。   FIG. 4 is a diagram schematically illustrating an example of an X-ray dynamic image in which the dynamics of the structure associated with breathing in the lung field of the subject M1 is captured. FIG. 4 exemplifies a series of a plurality of frame images I0 obtained by sequentially performing imaging at a fixed timing in one cycle related to the breathing cycle. The plurality of frame images I0 shown in FIG. 4 are obtained by shooting at the timing when the time T is t1, t2, t3,..., T10, respectively. .. It is constituted by I10. Of the series of frame images I1 to I10, the first half of the frame images I1 to I5 capture the dynamics of the lung field expanding due to the inspiration, and the second half of the frame images I6 to I10 show the expiration of the breath. The dynamics of contraction of the lung field by movement are captured. Note that the frame image I0 is obtained by converting a two-dimensional intensity distribution of X-rays into, for example, a two-dimensional distribution of pixel values (also referred to as gray values) indicating black and white.

<(4−2−2)画像補正部312>
画像補正部312は、画像取得部311で取得されたX線動態画像を構成する複数のフレーム画像I0に対して補正を施すことで、補正後の複数のフレーム画像IC0を得る。該補正後の複数のフレーム画像IC0は、統計値分布算出部313、粗検出部314および精密検出部315に出力される。複数のフレーム画像IC0は、例えば、時刻Tがt1,t2,t3,・・・,t10であるタイミングの撮影によって得られた複数のフレーム画像I1,I2,I3,・・・I10に対応するフレーム画像IC1,IC2,IC3,・・・IC10で構成される。
<(4-2-2) Image Correction Unit 312>
The image correction unit 312 performs correction on the plurality of frame images I0 constituting the X-ray dynamic image acquired by the image acquisition unit 311 to obtain a plurality of corrected frame images IC0. The corrected plurality of frame images IC0 are output to the statistical value distribution calculation unit 313, the coarse detection unit 314, and the fine detection unit 315. The plurality of frame images IC0 are, for example, frames corresponding to the plurality of frame images I1, I2, I3,... I10 obtained by photographing at time T is t1, t2, t3,. Consists of images IC1, IC2, IC3,... IC10.

図5から図7は、フレーム画像I0の特徴を説明するための図である。図5には、フレーム画像I0が示され、図6には、フレーム画像I0のうちの被検者M1の背景が捉えられた領域(背景領域とも言う)HR1(図5参照)における濃淡値の頻度を示すヒストグラムが示されている。該ヒストグラムでは、横軸が濃淡値を示し、縦軸が該濃淡値の頻度を示している。また、図7には、フレーム画像I0のうちの対象部位としての肺野を含む縦長の領域VR2(図5参照)における濃淡値の分布を示すグラフが示されている。該グラフでは、横軸がY方向の座標を示し、縦軸が領域VR2内の各Y座標における濃淡値の平均を示している。図5から図7で示されるように、フレーム画像I0は、次の問題1〜3を有する。   5 to 7 are diagrams for explaining the characteristics of the frame image I0. FIG. 5 shows a frame image I0, and FIG. 6 shows the grayscale values in a region HR1 (refer to FIG. 5) in which the background of the subject M1 is captured in the frame image I0 (refer to FIG. 5). A histogram showing the frequency is shown. In the histogram, the horizontal axis indicates the gray value, and the vertical axis indicates the frequency of the gray value. Further, FIG. 7 shows a graph showing the gray value distribution in the vertically long region VR2 (see FIG. 5) including the lung field as the target site in the frame image I0. In the graph, the horizontal axis indicates the coordinate in the Y direction, and the vertical axis indicates the average of the gray value at each Y coordinate in the region VR2. As shown in FIGS. 5 to 7, the frame image I0 has the following problems 1 to 3.

[問題1]図6で示されるように、フレーム画像I0では、被検者M1を捉えていない背景領域HR1においてもノイズが多く存在し、一般的な静止画としてのX線画像と比較して、フレーム画像I0全体におけるS/N比が低くなる傾向を示す。これは、対象部位を捉えたX線動態画像の取得においてX線による被検者M1の被爆量が増大しないように、各フレーム画像の撮影に要する被爆量が低く抑えられることに起因する。そして、このようにノイズが多く存在していれば、対象部位としての肺野が捉えられた対象領域としての肺野領域を精度良く抽出することが難しくなる。   [Problem 1] As shown in FIG. 6, in the frame image I0, there is a lot of noise even in the background region HR1 where the subject M1 is not captured, compared with an X-ray image as a general still image. The S / N ratio in the entire frame image I0 tends to be low. This is because the amount of exposure required for photographing each frame image is kept low so that the amount of exposure of the subject M1 due to X-rays does not increase in the acquisition of the X-ray dynamic image capturing the target region. If there is a lot of noise in this way, it becomes difficult to accurately extract the lung field region as the target region where the lung field as the target region is captured.

[問題2]図7で示されるように、フレーム画像I0では、肺に係る濃淡値に肺以外の構造物(肋骨および血管等の構造物)に係る濃淡値が重畳して、肺野内の構造物に係る濃淡値にばらつきが生じており、対象領域としての肺野領域の輪郭が不鮮明である。このように輪郭が不鮮明であれば、対象部位としての肺野が捉えられた対象領域としての肺野領域を精度良く抽出することが難しい。   [Problem 2] As shown in FIG. 7, in the frame image I0, the grayscale values related to structures other than the lungs (structures such as ribs and blood vessels) are superimposed on the grayscale values related to the lungs. Variations occur in the gray value of the object, and the contour of the lung field region as the target region is unclear. Thus, if the outline is unclear, it is difficult to accurately extract the lung field region as the target region where the lung field as the target region is captured.

[問題3]フレーム画像I0では、肋横角が捉えられた領域の近傍における濃淡値が、肺野内よりも肺野外の部分に対応する領域の濃淡値に近く、心臓が捉えられた領域と肺野領域との境界も不鮮明である。このように境界が不鮮明であれば、対象部位としての肺野が捉えられた対象領域としての肺野領域を精度良く抽出することが難しい。なお、肋横角が捉えられた領域は、横隔膜の両端が捉えられた領域にあたる。   [Problem 3] In the frame image I0, the gray value in the vicinity of the region where the horizontal angle is captured is closer to the gray value of the region corresponding to the part outside the lung field than in the lung field, and the region where the heart is captured and the lung The boundary with the field is also unclear. Thus, if the boundary is unclear, it is difficult to accurately extract the lung field region as the target region where the lung field as the target region is captured. Note that the region where the heel lateral angle is captured corresponds to the region where both ends of the diaphragm are captured.

上記問題1〜3の発生を低減するために、フレーム画像I0におけるノイズを削減し、フレーム画像I0に対する肺以外の構造物の影響を軽減する処理として、肺野領域の輪郭を明瞭にする補正処理が、フレーム画像I0に施される。   In order to reduce the occurrence of the above problems 1 to 3, as a process of reducing noise in the frame image I0 and reducing the influence of structures other than the lungs on the frame image I0, a correction process for clarifying the outline of the lung field region Is applied to the frame image I0.

図8から図11は、画像補正部312においてフレーム画像I0に施される補正処理の内容を説明するための図である。   8 to 11 are diagrams for explaining the content of the correction process performed on the frame image I0 in the image correction unit 312. FIG.

図8には、フレーム画像I0が示されている。図9には、該フレーム画像I0に対して画像全体に存在するノイズを削減する処理(ノイズ削減処理とも言う)が施された後のフレーム画像IR0が示されている。図10および図11には、フレーム画像IR0に強調処理が施された後のフレーム画像IC0が示されている。そして、図10には、フレーム画像IR0の全体に強調処理(全体強調処理とも言う)が施された後のフレーム画像IC0が示されている。また、図11には、フレーム画像IR0の予め設定された領域(所定領域とも言う)に強調処理(エリア内強調処理とも言う)が施された後のフレーム画像IC0が示されている。なお、図9から図11の右部には、それぞれ横軸を濃淡値(画素値)とし、縦軸を該濃淡値(画素値)の頻度(単位:%)とするヒストグラムが示されている。本実施形態では、画像補正部312における強調処理において、ノイズ削減処理および強調処理が、この順に実施される。   FIG. 8 shows a frame image I0. FIG. 9 shows the frame image IR0 after the processing for reducing noise existing in the entire image (also referred to as noise reduction processing) is performed on the frame image I0. 10 and 11 show the frame image IC0 after the enhancement process is performed on the frame image IR0. FIG. 10 shows the frame image IC0 after the entire frame image IR0 has been subjected to enhancement processing (also referred to as overall enhancement processing). Further, FIG. 11 shows the frame image IC0 after an enhancement process (also referred to as an in-area enhancement process) is performed on a preset area (also referred to as a predetermined area) of the frame image IR0. 9 to 11, histograms are shown in which the horizontal axis represents the gray value (pixel value) and the vertical axis represents the frequency (unit:%) of the gray value (pixel value). . In the present embodiment, in the enhancement processing in the image correction unit 312, noise reduction processing and enhancement processing are performed in this order.

ここで、ノイズ削減処理および強調処理の内容について、簡単に説明する。   Here, the contents of the noise reduction process and the enhancement process will be briefly described.

<(4−2−2−1)ノイズ削減処理>
ノイズ削減処理としては、例えば、縮小処理等が挙げられる。縮小処理では、例えば、選択されたエリア(選択エリアとも言う)が、該選択エリアを構成する複数の画素値(濃淡値)に係る代表の画素値(代表画素値とも言う)に置換される。代表画素値は、例えば、選択エリア内に係る平均の画素値(濃淡値)、あるいは選択エリア内における最小の画素値等であれば良い。なお、代表画素値が、選択エリア内に係る平均の画素値である場合、縮小処理は、例えば、平均値フィルターを用いたフィルター処理等によって実現される。
<(4-2-2-1) Noise reduction processing>
Examples of noise reduction processing include reduction processing. In the reduction process, for example, a selected area (also referred to as a selection area) is replaced with a representative pixel value (also referred to as a representative pixel value) related to a plurality of pixel values (light / dark values) constituting the selection area. The representative pixel value may be, for example, an average pixel value (gray value) in the selection area, or a minimum pixel value in the selection area. When the representative pixel value is an average pixel value in the selected area, the reduction process is realized by, for example, a filter process using an average value filter.

図12から図16は、縮小処理の一例を説明するための図である。図12には、フレーム画像I0に1つの選択エリアR3が設定されている様子が示されている。図13には、フレーム画像I0における選択エリアR3の拡大図が示され、該選択エリアR3内の画素値が最小である画素Pmが示されている。ここでは、各選択エリアR3について画素Pmの画素値を代表画素値とする縮小処理が行われる。これにより、画像I0で捉えられた肺野領域のうち、最大値側の画素値(すなわち、ノイズ)が削減される。   12 to 16 are diagrams for explaining an example of the reduction process. FIG. 12 shows a state where one selection area R3 is set in the frame image I0. FIG. 13 shows an enlarged view of the selection area R3 in the frame image I0, and shows a pixel Pm having the smallest pixel value in the selection area R3. Here, a reduction process using the pixel value of the pixel Pm as the representative pixel value is performed for each selection area R3. Thereby, the pixel value (that is, noise) on the maximum value side in the lung field region captured in the image I0 is reduced.

例えば、図14には、フレーム画像I0にエリアR4が設定されている様子が示されている。図15には、フレーム画像I0におけるエリアR4の拡大図が示されており、図16には、フレーム画像I0に縮小処理が施された後のフレーム画像IR0におけるエリアR4の拡大図が示されている。図15および図16で示されるように、フレーム画像I0に強調処理が施されることで、肺野領域内における小さな画素値が強調され、肺野領域内のノイズが低減される。なお、最小の画素値側のノイズが拡大される場合には、スムージングが施されても良い。   For example, FIG. 14 shows a state where an area R4 is set in the frame image I0. FIG. 15 shows an enlarged view of the area R4 in the frame image I0, and FIG. 16 shows an enlarged view of the area R4 in the frame image IR0 after the reduction processing is performed on the frame image I0. Yes. As shown in FIGS. 15 and 16, by applying the enhancement process to the frame image I0, a small pixel value in the lung field region is enhanced, and noise in the lung field region is reduced. Note that smoothing may be performed when noise on the minimum pixel value side is enlarged.

なお、ノイズ削減処理としては、上記の縮小処理に限られず、例えば、バンドパスフィルター等を用いてフレーム画像I0の高周波成分をカットする処理等と言ったその他の処理が採用されても良い。   Note that the noise reduction process is not limited to the above reduction process, and other processes such as a process of cutting a high-frequency component of the frame image I0 using a bandpass filter or the like may be employed.

<(4−2−2−2)強調処理>
全体強調処理では、例えば、予め設定された閾値以上の画素値が、予め設定されたルールに従って、閾値以下の相対的に低い画素値に置換される。これにより、フレーム画像I0に対する肺以外の構造物の影響が軽減される。
<(4-2-2) Enhancement processing>
In the overall enhancement process, for example, pixel values that are equal to or greater than a preset threshold value are replaced with relatively low pixel values that are equal to or less than the threshold value in accordance with a preset rule. Thereby, the influence of structures other than the lungs on the frame image I0 is reduced.

図9および図10で示されるように、ノイズ削減処理が施されたフレーム画像IR0と比較して、全体強調処理が施されたフレーム画像IC0では、濃淡値が大きな白い領域が相対的に少なく、濃淡値が小さな黒い領域が相対的に多い。つまり、全体強調処理によって、フレーム画像IR0のうちの肺野領域を含めた全体について、肺以外の構造物に相当する白の領域が低減され、黒の領域が強調される。   As shown in FIGS. 9 and 10, in the frame image IC0 subjected to the overall enhancement processing, the white region having a large gray value is relatively less than the frame image IR0 subjected to the noise reduction processing. There are relatively many black areas with small gray values. That is, the whole area including the lung field area in the frame image IR0 is reduced by the whole enhancement process, and the white area corresponding to the structure other than the lung is reduced, and the black area is emphasized.

なお、強調処理における閾値は、予め設定された固定値であっても良いし、適宜変更されても良い。例えば、処理の対象であるフレーム画像IR0の状態に合わせて、閾値が変更される態様が考えられる。この態様では、例えば、フレーム画像IR0の濃淡値のヒストグラムについて、濃淡値が小さな値の方から順に頻度が累積され、頻度の累積値が所定値に到達した濃淡値が、閾値に設定される。なお、頻度の累積値が百分率で示される場合、所定値は、例えば、80%等であれば良い。ここでは、例えば、一連の複数のフレーム画像IR0に対し、例えば、フレーム画像IR0毎に閾値が設定される態様が考えられる。また、例えば、一連の複数のフレーム画像IR0に対し、1枚目のフレーム画像IR0に基づいて閾値が設定され、一旦設定された閾値が、その他のフレーム画像IR0に対する強調処理に適用される態様が考えられる。このような態様が採用されれば、演算量の削減によって画像処理に要する時間が短縮され得る。   The threshold value in the enhancement process may be a fixed value set in advance or may be changed as appropriate. For example, a mode in which the threshold value is changed in accordance with the state of the frame image IR0 that is the processing target can be considered. In this aspect, for example, regarding the histogram of the gray value of the frame image IR0, the frequency is accumulated in order from the smaller gray value, and the gray value at which the accumulated frequency reaches a predetermined value is set as the threshold value. In addition, when the cumulative value of the frequency is expressed as a percentage, the predetermined value may be 80%, for example. Here, for example, a mode in which a threshold is set for each frame image IR0 with respect to a series of frame images IR0 is conceivable. For example, a threshold is set for a series of a plurality of frame images IR0 based on the first frame image IR0, and the once set threshold is applied to enhancement processing for other frame images IR0. Conceivable. If such an aspect is adopted, the time required for image processing can be shortened by reducing the amount of calculation.

ところで、エリア内強調処理では、フレーム画像IR0における所定領域に強調処理が施される。該所定領域は、例えば、所望の固定領域であれば良いが、ロバスト性の向上を図るために、処理の対象としてのフレーム画像IR0における濃淡値の分布(プロファイル)に応じて変更されても良い。   By the way, in the in-area enhancement process, the enhancement process is performed on a predetermined area in the frame image IR0. The predetermined area may be, for example, a desired fixed area, but may be changed according to the distribution (profile) of gray values in the frame image IR0 as a processing target in order to improve robustness. .

図17は、エリア内強調処理における所定領域の設定方法の一例を説明するための図である。図17の右部には、Y座標と、フレーム画像IR0の各Y座標における濃淡値の累積値(濃淡累積値とも言う)との関係が、縦方向のプロファイルとして示されている。また、図17の下部には、X座標と、フレーム画像IR0の各X座標における濃淡値の累積値(濃淡累積値)との関係が、横方向のプロファイルとして示されている。   FIG. 17 is a diagram for explaining an example of a predetermined area setting method in the in-area enhancement process. In the right part of FIG. 17, the relationship between the Y coordinate and the accumulated value of the gray value (also referred to as the gray value accumulated value) at each Y coordinate of the frame image IR0 is shown as a vertical profile. Further, in the lower part of FIG. 17, the relationship between the X coordinate and the accumulated value of the gray value at each X coordinate of the frame image IR0 (light gray value) is shown as a horizontal profile.

ここでは、例えば、各プロファイルにおいて濃淡累積値の傾向が大きく変化する点(変化点とも言う)Px1,Px2,Py1,Py2が検出される。そして、X座標が変化点Px1から変化点Px2までの範囲であり、且つY座標が変化点Py1から変化点Py2までの範囲である矩形状の領域R5が所定領域として設定される。   Here, for example, points (also referred to as change points) Px1, Px2, Py1, and Py2 at which the tendency of the accumulated gray value changes greatly in each profile are detected. A rectangular region R5 in which the X coordinate is in the range from the change point Px1 to the change point Px2 and the Y coordinate is in the range from the change point Py1 to the change point Py2 is set as the predetermined region.

<(4−2−3)統計値分布算出部313>
統計値分布算出部313は、動態画像を構成する複数のフレーム画像IC0について、時間方向に係る統計値の2次元分布(統計値分布)を算出する処理(統計値分布算出処理とも言う)を実行する。
<(4-2-3) Statistical Value Distribution Calculation Unit 313>
The statistical value distribution calculation unit 313 executes a process (also referred to as a statistical value distribution calculation process) for calculating a two-dimensional distribution (statistical value distribution) of statistical values in the time direction with respect to a plurality of frame images IC0 constituting the dynamic image. To do.

図18は、統計値分布算出部313で実現される機能的な構成を、他の構成とともに示すブロック図である。図18で示されるように、統計値分布算出部313は、主に、認識部3131、統計値算出部3132および分布生成部3133を備えている。   FIG. 18 is a block diagram showing a functional configuration realized by the statistical value distribution calculation unit 313 together with other configurations. As illustrated in FIG. 18, the statistical value distribution calculation unit 313 mainly includes a recognition unit 3131, a statistical value calculation unit 3132, and a distribution generation unit 3133.

<(4−2−3−1)統計値分布を算出する目的>
図19は、複数のフレーム画像IC0における呼吸による横隔膜の位置の周期的な変化の一例を示す図である。図19では、横軸が時刻を示し、縦軸が−Y方向における特定部分としての横隔膜の位置を示し、該横隔膜の位置の時間的な変化が折れ線で示されている。図19で示されるように、時刻tp1において、呼気によって横隔膜が最も上昇した位置に到達し、時刻tb1において、吸気によって横隔膜が最も下降した位置に到達する。
<(4-2-3-1) Purpose of calculating statistical value distribution>
FIG. 19 is a diagram illustrating an example of a periodic change in the position of the diaphragm due to respiration in the plurality of frame images IC0. In FIG. 19, the horizontal axis indicates time, the vertical axis indicates the position of the diaphragm as a specific portion in the −Y direction, and the temporal change in the position of the diaphragm is indicated by a broken line. As shown in FIG. 19, at time tp1, the diaphragm reaches the position where the diaphragm is most elevated by expiration, and at time tb1, the diaphragm reaches the position where the diaphragm is most lowered by inspiration.

図20および図21は、肺野および肺野の周辺についての呼吸による画素値の変化を観測する点(第1〜第3観測点とも言う)Pt1〜Pt3を例示する図である。図20には、時刻tp1における肺野が捉えられたフレーム画像IC0の第1から第3観測点Pt1〜Pt3が示されており、図21には、時刻tb1における肺野が捉えられたフレーム画像IC0の第1から第3観測点Pt1〜Pt3が示されている。図20および図21で示されるように、第1観測点Pt1は、常に肺野内の部分に対応する領域に位置し、第2観測点Pt2は、肺野外の部分に対応する領域と肺野内の部分に対応する領域との間を往復する。また、第3観測点Pt3は、常に肺野外の部分に対応する領域に位置している。   20 and 21 are diagrams illustrating points (also referred to as first to third observation points) Pt1 to Pt3 for observing changes in pixel values due to breathing in and around the lung field. FIG. 20 shows the first to third observation points Pt1 to Pt3 of the frame image IC0 in which the lung field at time tp1 is captured, and FIG. 21 shows the frame image in which the lung field at time tb1 is captured. First to third observation points Pt1 to Pt3 of IC0 are shown. As shown in FIG. 20 and FIG. 21, the first observation point Pt1 is always located in a region corresponding to a part in the lung field, and the second observation point Pt2 is a region corresponding to a part outside the lung field and in the lung field. A round trip is made to and from the area corresponding to the part. The third observation point Pt3 is always located in a region corresponding to a portion outside the lung field.

図22は、第1から第3観測点Pt1〜Pt3における画素値の時間の経過に応じた変化を例示する図である。図22では、横軸が時刻を示し、縦軸が画素値(濃淡値)を示している。また、図22では、第1観測点Pt1における画素値の変化が一点鎖線の曲線Cv1で示され、第2観測点Pt2における画素値の変化が実線の曲線Cv2で示され、第3観測点Pt3における画素値の変化が破線の曲線Cv3で示されている。   FIG. 22 is a diagram exemplifying a change of the pixel value with the passage of time at the first to third observation points Pt1 to Pt3. In FIG. 22, the horizontal axis indicates the time, and the vertical axis indicates the pixel value (light / dark value). In FIG. 22, the change in the pixel value at the first observation point Pt1 is indicated by a dashed-dotted curve Cv1, the change in the pixel value at the second observation point Pt2 is indicated by a solid curve Cv2, and the third observation point Pt3. The change in the pixel value at is indicated by a dashed curve Cv3.

図22で示されるように、第1観測点Pt1は、常に肺野内の部分に対応する領域に位置しており、時間の経過に拘わらず、第1観測点Pt1における画素値は、黒に近い低輝度に対応する低い値に保持される。一方、第3観測点Pt3は、常に肺野外の部分に対応する領域に位置しており、時間の経過に拘わらず、第3観測点Pt3における画素値は、白に近い高輝度に対応する高い値に保持される。これに対し、第2観測点Pt2は、呼吸による肺野の伸縮に応じて肺野外の部分に対応する領域と肺野内の部分に対応する領域との間を往復する。このため、第2観測点Pt2における画素値は、白に近い高輝度に対応する高い値と、黒に近い低輝度に対応する低い値との間で往復する。   As shown in FIG. 22, the first observation point Pt1 is always located in a region corresponding to a portion in the lung field, and the pixel value at the first observation point Pt1 is close to black regardless of the passage of time. It is held at a low value corresponding to low brightness. On the other hand, the third observation point Pt3 is always located in a region corresponding to a portion outside the lung field, and the pixel value at the third observation point Pt3 is high corresponding to high brightness close to white regardless of the passage of time. Held in value. On the other hand, the second observation point Pt2 reciprocates between a region corresponding to a portion outside the lung field and a region corresponding to the portion inside the lung field according to the expansion and contraction of the lung field due to respiration. For this reason, the pixel value at the second observation point Pt2 reciprocates between a high value corresponding to high luminance close to white and a low value corresponding to low luminance close to black.

このように、動態画像においては、動きを有する部位の輪郭およびその近傍の部分に対応する画素の画素値が、上記第2観測点Pt2と同様に、白に近い高輝度に対応する高い値と、黒に近い低輝度に対応する低い値との間で往復する。換言すれば、動きを有する部位の輪郭およびその近傍の部分に対応する画素の画素値が、時間の経過とともに、大きく変化する。   As described above, in the dynamic image, the pixel value of the pixel corresponding to the contour of the part having motion and the vicinity thereof is a high value corresponding to high brightness close to white, similar to the second observation point Pt2. To and from a low value corresponding to a low brightness close to black. In other words, the pixel values of the pixels corresponding to the contour of the part having movement and the vicinity thereof change greatly with the passage of time.

そこで、本実施形態では、動態画像における時間方向の統計値が算出されることで、時間の経過とともに画素値が大きく変化する領域を示す統計値分布が取得される。この統計値分布によれば、対象部位が動きを有する部位であれば、急激な変化および想定外の形状を有する対象部位の輪郭が存在し得る領域が容易に認識され得る。したがって、本実施形態では、統計値分布に応じて、精密検出処理において対象部位の輪郭の検出が行われる対象となる領域が広げられ、動態画像から対象部位を捉えた領域が精度良く抽出され得る。   Therefore, in the present embodiment, a statistical value distribution indicating a region where the pixel value greatly changes with the passage of time is acquired by calculating the statistical value in the time direction in the dynamic image. According to this statistical value distribution, if the target part has a movement, a region where the contour of the target part having an abrupt change and an unexpected shape can exist can be easily recognized. Therefore, in the present embodiment, the target region where the contour of the target part is detected in the precision detection process is expanded according to the statistical value distribution, and the region capturing the target part can be accurately extracted from the dynamic image. .

<(4−2−3−2)認識部3131>
認識部3131は、画像補正部312からフレーム画像IC0を取得し、各フレーム画像IC0について、複数の画素を含む領域(画像領域とも言う)毎の画素値の特徴を示す特徴値または画素毎の画素値を認識する。ここでは、各フレーム画像IC0にエッジを強調する処理(エッジ強調処理とも言う)が施されることで生成されるエッジ強調フレーム画像Ee0(図27、図28参照)について、画像領域毎の特徴値または画素毎の画素値が認識されても良い。エッジ強調処理としては、例えば、ソーベルフィルターあるいはラプラシアンフィルターを用いたフィルター処理等が採用され得る。
<(4-2-3-2) recognition unit 3131>
The recognition unit 3131 acquires the frame image IC0 from the image correction unit 312, and for each frame image IC0, a feature value indicating a feature of a pixel value for each region (also referred to as an image region) including a plurality of pixels or a pixel for each pixel Recognize the value. Here, with respect to the edge-enhanced frame image Ee0 (see FIGS. 27 and 28) generated by performing edge enhancement processing (also referred to as edge enhancement processing) on each frame image IC0, the feature value for each image region Or the pixel value for every pixel may be recognized. As the edge enhancement processing, for example, filter processing using a Sobel filter or a Laplacian filter can be employed.

図23は、フレーム画像IC0における統計値の算出対象としての画素Pm0の一例を示す図である。図24は、フレーム画像IC0における統計値の算出対象としての画像領域Rv0の一例を示す図である。   FIG. 23 is a diagram illustrating an example of the pixel Pm0 as a statistical value calculation target in the frame image IC0. FIG. 24 is a diagram illustrating an example of an image region Rv0 as a statistical value calculation target in the frame image IC0.

図24で示されるように、各画像領域Rv0は、例えば、フレーム画像IC0が予め設定された区分けルールに従って複数の領域に区分けされたものであれば良い。区分けルールは、フレーム画像IC0が予め設定された数の画素からなる領域に区分けされるルールであれば良い。各画像領域Rv0は、例えば、横方向にm画素(mは自然数)を有し、縦方向にn画素(nは自然数)を有する矩形の領域であれば良い。なお、画像領域Rv0の形状およびサイズは、一定のものに限られず、例えば、フレーム画像IC0における場所によって変更されても良い。   As shown in FIG. 24, each image region Rv0 may be any image region Rv0 as long as the frame image IC0 is divided into a plurality of regions according to a preset division rule. The segmentation rule may be any rule that allows the frame image IC0 to be segmented into an area composed of a preset number of pixels. Each image region Rv0 may be, for example, a rectangular region having m pixels (m is a natural number) in the horizontal direction and n pixels (n is a natural number) in the vertical direction. Note that the shape and size of the image region Rv0 are not limited to a fixed one, and may be changed depending on the location in the frame image IC0, for example.

画像領域毎の特徴値としては、例えば、各画像領域における画素値の代表値および散布度を示す数値等が挙げられる。ここで、各画像領域における画素値の代表値としては、例えば、画素値の平均値(average)、中央値(median)、最頻値(mode)、最大値(maximum)および最小値(minimum)等が挙げられる。これにより、画像領域毎の画素値の特徴を示す特徴値が容易に算出され得る。画素値の平均値および中央値は、例えば、平均値フィルターおよびメディアンフィルターを用いたフィルター処理等によってそれぞれ算出される。また、各画像領域における画素値の散布度を示す数値としては、例えば、画素値の分散(variance)、標準偏差(standard deviation)および変動係数(coefficient of variation:CV)等が挙げられる。   Examples of the feature value for each image area include a representative value of a pixel value in each image area and a numerical value indicating the degree of dispersion. Here, as representative values of pixel values in each image region, for example, average value (average), median value (moden), mode value (mode), maximum value (maximum), and minimum value (minimum) of pixel values Etc. Thereby, the feature value indicating the feature of the pixel value for each image region can be easily calculated. The average value and the median value of the pixel values are calculated by, for example, filter processing using an average value filter and a median filter, respectively. In addition, examples of numerical values indicating the degree of dispersion of pixel values in each image region include pixel value variance, standard deviation, coefficient of variation (CV), and the like.

なお、平均値は、例えば、画像領域における全画素の画素値の総和を画素数で除した値(相加平均の値)であれば良い。中央値は、例えば、画像領域を構成する全画素の画素値を大きな方から順に並べた場合における中央の値であれば良い。該中央の値としては、例えば、画像領域を構成する画素の数が奇数であれば、順番が中央の値であり、画像領域を構成する画素の数が偶数であれば、順番が中央の2つの値の平均値である態様が考えられる。最頻値は、例えば、画像領域における全画素の画素値のうちの出現回数が最も多い画素値であれば良い。   The average value may be, for example, a value (arithmetic average value) obtained by dividing the sum of the pixel values of all the pixels in the image region by the number of pixels. The median value may be, for example, the median value when the pixel values of all the pixels constituting the image area are arranged in order from the largest. For example, if the number of pixels constituting the image area is an odd number, the order is the center value, and if the number of pixels constituting the image area is an even number, the order is the center value. An aspect that is an average value of two values is conceivable. The mode value may be, for example, a pixel value having the largest number of appearances among pixel values of all pixels in the image region.

ここで、分散(σ)は、画像領域における画素値のばらつきを示す数値であり、例えば、画像領域における各画素の画素値と画像領域における画素値の平均値との差の2乗の平均値であれば良い。標準偏差(σ)は、画像領域における画素値のばらつきの程度を示す数値であり、例えば、分散(σ)の正の平方根の値であれば良い。変動係数は、標準偏差(σ)が画素値の相加平均で除された数値であれば良い。なお、標準偏差(σ)が比較される場合には、数値の単位による影響が生じる場合があるため、無次元数である変動係数が採用されることで、数値の単位による影響が防止される。 Here, the variance (σ 2 ) is a numerical value indicating variations in pixel values in the image area. For example, the average of the squares of the difference between the pixel value of each pixel in the image area and the average value of the pixel values in the image area Any value is acceptable. The standard deviation (σ) is a numerical value indicating the degree of variation of the pixel value in the image region, and may be a positive square root value of the variance (σ 2 ), for example. The variation coefficient may be a numerical value obtained by dividing the standard deviation (σ) by the arithmetic average of the pixel values. In addition, when the standard deviation (σ) is compared, there is a case where the influence of the unit of numerical value may occur. Therefore, the influence of the unit of numerical value is prevented by adopting a variation coefficient that is a dimensionless number. .

<(4−2−3−3)統計値算出部3132>
統計値算出部3132は、複数のフレーム画像IC0または複数のエッジ強調フレーム画像Ee0に係る時間方向における統計値を算出する。ここでは、例えば、複数のフレーム画像IC0または複数のエッジ強調フレーム画像Ee0について、認識部3131で認識された画像領域毎の特徴値または画素毎の画素値に関して時間方向における統計値が算出される。
<(4-2-3-3) Statistical Value Calculation Unit 3132>
The statistical value calculation unit 3132 calculates statistical values in the time direction related to the plurality of frame images IC0 or the plurality of edge-enhanced frame images Ee0. Here, for example, for a plurality of frame images IC0 or a plurality of edge-enhanced frame images Ee0, statistical values in the time direction are calculated with respect to feature values for each image region recognized by the recognition unit 3131 or pixel values for each pixel.

時間方向における統計値は、例えば、複数のフレーム画像IC0または複数のエッジ強調フレーム画像Ee0についての画像領域毎の画素値に係る特徴値または画素毎の画素値に関する、時間方向の散布度を示す数値あるいは時間方向の代表値であれば良い。これにより、動態画像で捉えられた構造物の時間的な変化に係る統計値の2次元分布が容易に算出され得る。   The statistical value in the time direction is, for example, a numerical value indicating a scatter degree in the time direction regarding a feature value related to a pixel value for each image region or a pixel value for each pixel for a plurality of frame images IC0 or a plurality of edge-enhanced frame images Ee0. Alternatively, it may be a representative value in the time direction. Thereby, the two-dimensional distribution of the statistical value concerning the temporal change of the structure captured by the dynamic image can be easily calculated.

ここで、時間方向の散布度を示す数値としては、例えば、画素値の分散(variance)、標準偏差(standard deviation)および変動係数(coefficient of variation:CV)等が挙げられる。このような散布度を示す数値が採用されれば、フレーム画像IC0におけるノイズの影響が低減され得る。また、代表値としては、例えば、最大値と最小値との差に係る数値等が挙げられる。最大値と最小値との差に係る数値は、最大値と最小値との差そのものであっても良いし、最大値と最小値との差に若干の計算が加えられて得られる数値であっても良い。   Here, examples of numerical values indicating the degree of dispersion in the time direction include pixel value variance, standard deviation, coefficient of variation (CV), and the like. If such a numerical value indicating the degree of dispersion is employed, the influence of noise in the frame image IC0 can be reduced. Moreover, as a representative value, the numerical value etc. which concern on the difference of the maximum value and the minimum value etc. are mentioned, for example. The numerical value related to the difference between the maximum value and the minimum value may be the difference between the maximum value and the minimum value itself, or a value obtained by adding a slight calculation to the difference between the maximum value and the minimum value. May be.

ここで、分散(σ)は、同一画素に係る画素値あるいは同一画像領域に係る特徴値の時間方向におけるばらつきを示す数値である。該分散(σ)は、例えば、同一画素についての各フレーム画像IC0における画素値と該画素値の平均値との差の2乗の平均値、あるいは同一画像領域についての各フレーム画像IC0における特徴値と該特徴値の平均値との差の2乗の平均値であれば良い。標準偏差(σ)は、同一画素に係る画素値あるいは同一画像領域に係る特徴値の時間方向におけるばらつきの程度を示す数値である。例えば、標準偏差(σ)は、分散(σ)の正の平方根の値であれば良い。変動係数は、例えば、同一画素について、標準偏差(σ)が画素値の加重平均で除された数値、あるいは同一画像領域について、標準偏差(σ)が特徴値の加重平均で除された数値であれば良い。無次元数である変動係数が採用されれば、数値の単位による影響が防止される。 Here, the variance (σ 2 ) is a numerical value indicating variation in the time direction of the pixel value related to the same pixel or the feature value related to the same image area. The variance (σ 2 ) is, for example, the mean value of the square of the difference between the pixel value in each frame image IC0 for the same pixel and the average value of the pixel value, or the feature in each frame image IC0 for the same image region. The average value of the square of the difference between the value and the average value of the feature values may be used. The standard deviation (σ) is a numerical value indicating the degree of variation in the time direction of the pixel value related to the same pixel or the feature value related to the same image area. For example, the standard deviation (σ) may be a positive square root value of the variance (σ 2 ). The variation coefficient is, for example, a numerical value obtained by dividing the standard deviation (σ) by a weighted average of pixel values for the same pixel, or a numerical value obtained by dividing the standard deviation (σ) by a weighted average of feature values for the same image region. I need it. If a coefficient of variation that is a dimensionless number is employed, the influence of numerical units is prevented.

<(4−2−3−4)分布生成部3133>
分布生成部3133は、統計値算出部3132によって算出される統計値の2次元分布(統計値分布)を生成する。これにより、例えば、複数のフレーム画像IC0または複数のエッジ強調フレーム画像Ee0について、画像領域毎の特徴値または画素毎の画素値に関する時間方向の統計値の2次元分布としての統計値分布が算出される。分布生成部3133で生成される統計値分布を示すデータSvは、粗検出部314に出力される。
<(4-2-3-4) Distribution Generation Unit 3133>
The distribution generation unit 3133 generates a two-dimensional distribution (statistic value distribution) of statistical values calculated by the statistical value calculation unit 3132. Thereby, for example, for a plurality of frame images IC0 or a plurality of edge-enhanced frame images Ee0, a statistical value distribution is calculated as a two-dimensional distribution of statistical values in the time direction regarding feature values for each image region or pixel values for each pixel. The Data Sv indicating the statistical value distribution generated by the distribution generation unit 3133 is output to the coarse detection unit 314.

図25は、動態画像に係る統計値分布の一例としての統計値分布Ds1を示す図である。統計値分布Ds1は、複数のフレーム画像IC0についての画素毎の画素値に関する、時間方向の散布度を示す数値としての標準偏差の2次元分布である。図25では、標準偏差の高低が、輝度の高低で示されている。具体的には、標準偏差が低い程、黒に近い低輝度で示され、標準偏差が高い程、白に近い高輝度で示されている。図25で示されるように、統計値分布Ds1では、主に横隔膜ならびに心臓の輪郭の近傍の領域が、白に近い高輝度の標準偏差が大きな領域となっている。なお、ここでは、時間方向における代表値ではなく、標準偏差等と言った散布度を示す数値が統計値として使用されれば、フレーム画像IC0におけるノイズの統計値への反映が低減され得る。   FIG. 25 is a diagram illustrating a statistical value distribution Ds1 as an example of a statistical value distribution related to a dynamic image. The statistical value distribution Ds1 is a two-dimensional distribution of standard deviations as numerical values indicating the degree of dispersion in the time direction with respect to pixel values for each pixel for a plurality of frame images IC0. In FIG. 25, the level of the standard deviation is indicated by the level of luminance. Specifically, the lower the standard deviation, the lower the luminance is near black, and the higher the standard deviation, the higher the luminance near white. As shown in FIG. 25, in the statistical value distribution Ds1, an area mainly near the diaphragm and the outline of the heart is an area having a large standard deviation of high luminance close to white. Here, if a numerical value indicating the degree of dispersion such as standard deviation is used as a statistical value instead of a representative value in the time direction, reflection of noise in the statistical value of the frame image IC0 can be reduced.

<(4−2−3−5)統計値分布の生成方法の具体例>
図26は、動態画像に係る統計値分布の生成方法の一例を説明するための図である。図26には、時間方向の統計値としての時間方向の代表値が画素値の最大値と最小値との差である場合における統計値の算出例が示されている。図26で示されるように、例えば、第2観測点Pt2における画素値の変化を示す曲線Cv2(図22)の最大値と最小値との差Df1が、時間方向の代表値として算出される。但し、本生成方法によれば、統計値の算出が容易であるが、フレーム画像IC0におけるノイズに係る画素値が統計値に反映され易い。
<Specific example of (4-2-3-5) statistical value distribution generation method>
FIG. 26 is a diagram for explaining an example of a method for generating a statistical value distribution relating to a dynamic image. FIG. 26 shows an example of calculating a statistical value when the representative value in the time direction as the statistical value in the time direction is the difference between the maximum value and the minimum value of the pixel values. As shown in FIG. 26, for example, the difference Df1 between the maximum value and the minimum value of the curve Cv2 (FIG. 22) indicating the change in the pixel value at the second observation point Pt2 is calculated as a representative value in the time direction. However, according to this generation method, the calculation of the statistical value is easy, but the pixel value related to the noise in the frame image IC0 is easily reflected in the statistical value.

そこで、例えば、複数のフレーム画像IC0について、画像領域毎の画素値の平均値、中央値および最頻値と言った代表値に関して統計値としての最大値と最小値との差Df1が算出されれば、フレーム画像IC0におけるノイズの統計値への反映が低減され得る。また、例えば、時間方向における2以上のフレーム画像IC0の同一画素の平均値に関して統計値としての最大値と最小値との差Df1が算出されても良い。さらに、例えば、最大値と最小値との差のうちの大きな方からN個の値の平均値が、最大値と最小値との差Df1として算出されても良い。   Therefore, for example, for a plurality of frame images IC0, a difference Df1 between the maximum value and the minimum value as a statistical value is calculated with respect to representative values such as an average value, a median value, and a mode value of pixel values for each image region. For example, reflection of noise in the frame image IC0 in the statistical value can be reduced. Further, for example, the difference Df1 between the maximum value and the minimum value as the statistical value may be calculated with respect to the average value of the same pixels of two or more frame images IC0 in the time direction. Further, for example, an average value of N values from the larger one of the differences between the maximum value and the minimum value may be calculated as the difference Df1 between the maximum value and the minimum value.

図27から図29は、エッジ強調フレーム画像Ee0を用いた統計値分布の生成方法の一例を説明するための図である。   27 to 29 are diagrams for explaining an example of a method for generating a statistical value distribution using the edge-enhanced frame image Ee0.

図27および図28には、動態画像を構成する2つのフレーム画像I1,I2に基づく補正後のフレーム画像IC0について、構造物に係るエッジが強調されて生成されるエッジ強調フレーム画像Ee1,Ee2(Ee0)が例示されている。また、例えば、動態画像に係る複数のエッジ強調フレーム画像Ee0の各画素または各画像領域について、時間方向における散布度を示す数値あるいは代表値と言った統計値が算出されることで、統計値分布が生成されれば良い。   FIGS. 27 and 28 show edge-enhanced frame images Ee1, Ee2 () generated by emphasizing edges related to the structure of the corrected frame image IC0 based on the two frame images I1, I2 constituting the dynamic image. Ee0) is illustrated. Further, for example, a statistical value such as a numerical value indicating a degree of dispersion in the time direction or a representative value is calculated for each pixel or each image region of the plurality of edge-enhanced frame images Ee0 related to the dynamic image, thereby calculating the statistical value distribution Should be generated.

図29には、動態画像に係る複数のエッジ強調フレーム画像Ee0の各画素について、時間方向における統計値である代表値としての平均値が算出されることで生成される統計値分布Ds2が示されている。例えば、図29の領域AE0には、横隔膜に対応する相互にずれた白い筋が複数本並んだ状態が示されている。つまり、大きな動きが生じている部分については、例えば、統計値が比較的高い領域が広範囲に渡って分布する。   FIG. 29 shows a statistical value distribution Ds2 generated by calculating an average value as a representative value that is a statistical value in the time direction for each pixel of the plurality of edge-enhanced frame images Ee0 related to the dynamic image. ing. For example, a region AE0 in FIG. 29 shows a state in which a plurality of white streaks that are shifted from each other corresponding to the diaphragm are arranged. That is, for a portion where a large movement occurs, for example, a region having a relatively high statistical value is distributed over a wide range.

なお、ここでは、動態画像に係る複数のエッジ強調フレーム画像Ee0の各画素について、画素値の平均値が算出される例を挙げて説明したが、これに限られない。例えば、動態画像に係る複数のエッジ強調フレーム画像Ee0の各画素の画素値あるいは画像領域毎の特徴値について、累積値あるいは最大値と最小値との差等が算出されることで、統計値分布が算出されても良い。   Here, although an example in which the average value of the pixel values is calculated for each pixel of the plurality of edge-enhanced frame images Ee0 related to the dynamic image has been described, the present invention is not limited to this. For example, a statistical value distribution is calculated by calculating a cumulative value or a difference between a maximum value and a minimum value for a pixel value of each pixel of a plurality of edge-enhanced frame images Ee0 related to a dynamic image or a feature value for each image region. May be calculated.

このような複数のエッジ強調フレーム画像Ee0が用いられれば、対象部位の輪郭付近の変化がより確実に統計値分布に反映され得る。なお、動態画像のフレームレートが比較的大きな値に設定されていれば、統計値分布において比較的高輝度の統計値が狭い範囲にしか出現しない不具合が生じ難く、大きな動きが生じている部分が良好に認識され得る。   If such a plurality of edge-enhanced frame images Ee0 are used, a change in the vicinity of the contour of the target part can be more reliably reflected in the statistical value distribution. If the frame rate of the dynamic image is set to a relatively large value, it is difficult to cause a problem in which statistical values with relatively high brightness appear only in a narrow range in the statistical value distribution. Can be recognized well.

図30は、フレーム画像IC0における第1および第2観測点Pt1,Pt2を例示する図である。図31から図34は、複数のフレーム画像IC0における画素毎の画素値の頻度を示すヒストグラムから時間方向における統計値が算出される統計値分布の生成方法の一例を説明するための図である。図31は、複数のフレーム画像IC0についての第1観測点Pt1における画素値の頻度を示すヒストグラムである。図32は、複数のフレーム画像IC0についての第2観測点Pt2における画素値の頻度を示すヒストグラムである。図31および図32では、横軸が画素値を示し、縦軸が該画素値の頻度を示す。   FIG. 30 is a diagram illustrating the first and second observation points Pt1 and Pt2 in the frame image IC0. FIGS. 31 to 34 are diagrams for explaining an example of a method for generating a statistical value distribution in which statistical values in the time direction are calculated from a histogram indicating the frequency of pixel values for each pixel in a plurality of frame images IC0. FIG. 31 is a histogram showing the frequency of pixel values at the first observation point Pt1 for a plurality of frame images IC0. FIG. 32 is a histogram showing the frequency of pixel values at the second observation point Pt2 for a plurality of frame images IC0. 31 and 32, the horizontal axis indicates the pixel value, and the vertical axis indicates the frequency of the pixel value.

ここでは、画素毎に、画素値の頻度が最も高い値(最頻値とも言う)が認識され、該最頻値を基準とする予め設定された幅の値域における頻度の占有度に係る数値が、時間方向における統計値である代表値として算出される例について説明する。図33および図34で示されるように、例えば、最頻値Pk0を中心とする幅Aw1の値域における頻度の占有度を示す数値が、時間方向における統計値である代表値として算出される。例えば、図33で示される例では、頻度の占有度の最大値を1とした場合、幅Aw1の値域における頻度の占有度が、約0.8と算出され、図34で示される例では、幅Aw1の値域における頻度の占有度が、約0.3と算出される。このような態様が採用されれば、複数のフレーム画像IC0の間における濃淡の差による統計値への影響が低減され得る。   Here, for each pixel, a value having the highest pixel value frequency (also referred to as a mode value) is recognized, and a numerical value relating to the frequency occupancy in a preset range of width based on the mode value is obtained. An example calculated as a representative value that is a statistical value in the time direction will be described. As shown in FIGS. 33 and 34, for example, a numerical value indicating the frequency occupancy in the range of the width Aw1 centered on the mode value Pk0 is calculated as a representative value that is a statistical value in the time direction. For example, in the example shown in FIG. 33, when the maximum value of the frequency occupancy is 1, the frequency occupancy in the range of the width Aw1 is calculated as about 0.8. In the example shown in FIG. The frequency occupancy in the range of the width Aw1 is calculated to be about 0.3. If such an aspect is adopted, the influence on the statistical value due to the difference in shading between the plurality of frame images IC0 can be reduced.

なお、画素毎にではなく、例えば、画像領域毎に特徴値の頻度が最も高い値(最頻値)を基準とする予め設定された幅の値域における頻度の占有度に係る数値が、時間方向における統計値としての代表値として算出されても良い。   For example, a numerical value relating to the frequency occupancy in a value range of a preset width based on a value having the highest frequency of feature values (mode value) for each image area, not for each pixel, in the time direction May be calculated as a representative value as a statistical value.

<(4−2−4)粗検出部314>
粗検出部314は、動態画像を構成する各フレーム画像IC0(図35参照)について、テンプレートマッチングを用いて、対象確定領域PR11(図36参照)と未確定領域PR12(図36参照)とを検出する。
<(4-2-4) Coarse detection unit 314>
The coarse detection unit 314 detects the target confirmed region PR11 (see FIG. 36) and the unconfirmed region PR12 (see FIG. 36) using template matching for each frame image IC0 (see FIG. 35) constituting the dynamic image. To do.

テンプレートマッチングの手法としては、例えば、公知のSAD(Sum of Absolute Differences)法、NCC(Normalized Cross Correlation)法、POC(Phase-Only Correlation)法およびRIPOC(Rotation Invariant Phase-Only Correlation)法等の手法が採用される。これにより、対象確定領域PR11と未確定領域PR12とを含む対象候補領域PR1(図36参照)が検出される。なお、ここで、対象確定領域PR11は、フレーム画像IC0のうち、対象部位としての肺野の少なくとも一部が捉えられている領域であり、未確定領域PR12は、フレーム画像IC0のうち、対象部位としての肺野の一部が捉えられている可能性がある領域である。   Examples of template matching methods include known SAD (Sum of Absolute Differences) methods, NCC (Normalized Cross Correlation) methods, POC (Phase-Only Correlation) methods, and RIPOC (Rotation Invariant Phase-Only Correlation) methods. Is adopted. As a result, the target candidate region PR1 (see FIG. 36) including the target confirmed region PR11 and the undetermined region PR12 is detected. Here, the target confirmed region PR11 is a region in which at least a part of the lung field as the target region is captured in the frame image IC0, and the undetermined region PR12 is the target region in the frame image IC0. This is a region where a part of the lung field may be captured.

本実施形態では、粗検出部314は、各フレーム画像IC0について、対象部位としての肺野が捉えられていない領域(非対象確定領域とも言う)PR2も検出する。これにより、図36で示されるように、フレーム画像IC0を、対象確定領域PR11と、未確定領域PR12と、非対象確定領域PR2とに区分する情報(領域区分情報とも言う)ID1が生成される。   In the present embodiment, the coarse detection unit 314 also detects a region (also referred to as a non-target defined region) PR2 where a lung field as a target region is not captured for each frame image IC0. As a result, as shown in FIG. 36, information (also referred to as region division information) ID1 for dividing the frame image IC0 into the target confirmed region PR11, the undefined region PR12, and the non-target defined region PR2 is generated. .

ところで、次段の精密検出処理を想定すれば、粗検出処理では、通常は、フレーム画像IC0から、検出が難しい構造物の輪郭まで極力接近している部分まで対象確定領域PR11および非対象確定領域PR2が検出されれば良い。つまり、未確定領域PR12が狭くなれば良い。そこで、例えば、対象部分を複数の部分に分け、同一部分に対し、個体間における部位の大きさの差等と言った形状の差、および呼吸および心拍等の動作による時間の経過に応じた部位の形状の差に対応する、複数種類のテンプレートが用いられる態様が考えられる。これにより、精密検出処理において、構造物の不明瞭な輪郭を超えた対象領域の過大な検出等と言った不具合が生じ難い。なお、輪郭の検出が難しい構造物としては、例えば、輪郭が不鮮明である構造物、あるいは他の構造物の存在によって分断されている構造物等が考えられる。   By the way, assuming the next precise detection process, in the rough detection process, the target fixed region PR11 and the non-target fixed region are usually from the frame image IC0 to the portion as close as possible to the contour of the structure that is difficult to detect. It suffices if PR2 is detected. That is, it is only necessary that the undetermined region PR12 becomes narrow. Therefore, for example, the target part is divided into a plurality of parts, and for the same part, the part according to the passage of time due to the difference in shape such as the difference in part size between individuals and the action such as breathing and heartbeat A mode in which a plurality of types of templates corresponding to the difference in shape is used can be considered. Thereby, in precision detection processing, it is hard to produce the malfunctions, such as an excessive detection of the object area | region beyond the unclear outline of a structure. In addition, as a structure where it is difficult to detect the contour, for example, a structure where the contour is unclear, or a structure that is divided by the presence of another structure, or the like can be considered.

但し、同一部分に対して複数種類のテンプレートを用いたテンプレートマッチングが、複数のフレーム画像IC0に対してそれぞれ実行されると、演算量の増加によって粗検出処理に要する時間が増大する。また、粗検出処理において、フレーム画像IC0毎に、相関が最も高くなるテンプレートが異なることで、テンプレートマッチングによる検出結果にばらつきが生じ、精密検出処理における検出結果にもばらつきが生じる場合がある。   However, when template matching using a plurality of types of templates for the same portion is executed for each of the plurality of frame images IC0, the time required for the rough detection process increases due to an increase in the amount of calculation. In the rough detection process, the template having the highest correlation differs for each frame image IC0, so that the detection result by template matching may vary, and the detection result in the precise detection process may also vary.

そこで、本実施形態では、粗検出処理においてフレーム画像IC0のうちのテンプレートと対応する対応領域に係る部分画像を次のフレーム画像IC0を対象としたテンプレートマッチングのテンプレート(自己テンプレートとも言う)とする。つまり、Mを自然数とした場合、M番目の粗検出処理(第M粗検出処理とも言う)の結果から得られる自己テンプレートを用いたテンプレートマッチングが、次の(M+1)番目の粗検出処理(第(M+1)粗検出処理とも言う)において行われる。第M粗検出処理は、第Mフレーム画像ICMを対象とした粗検出処理であり、第(M+1)粗検出処理は、次の第(M+1)フレーム画像IC(M+1)を対象とした粗検出処理である。つまり、例えば、第1フレーム画像IC1を対象とした第1粗検出処理の結果から得られる自己テンプレートを用いたテンプレートマッチングが、第1フレーム画像IC1の次の第2フレーム画像IC2を対象とした第2粗検出処理において行われる。   Therefore, in this embodiment, a partial image related to a corresponding region corresponding to the template in the frame image IC0 in the rough detection process is set as a template matching template (also referred to as a self template) for the next frame image IC0. That is, when M is a natural number, template matching using the self template obtained from the result of the Mth coarse detection process (also referred to as the Mth coarse detection process) is the next (M + 1) th coarse detection process (the first (M + 1) also called rough detection processing). The Mth coarse detection process is a coarse detection process for the Mth frame image ICM, and the (M + 1) th coarse detection process is a coarse detection process for the next (M + 1) th frame image IC (M + 1). It is. That is, for example, the template matching using the self-template obtained from the result of the first rough detection process for the first frame image IC1 is the second frame image IC2 for the second frame image IC2 next to the first frame image IC1. 2 It is performed in the rough detection process.

ここで、第(M+1)フレーム画像IC(M+1)を対象とした第(M+1)粗検出処理では、例えば、第M精密検出処理で検出された対象領域(第M対象領域とも言う)の輪郭を基準としたオフセット範囲が、未確定領域PR12として検出されれば良い。第M精密検出処理は、第Mフレーム画像ICMを対象とした精密検出処理である。具体的には、例えば、第2フレーム画像IC2を対象とした第2粗検出処理では、第1精密検出処理で検出された第1対象領域の輪郭を基準としたオフセット範囲が、未確定領域PR12として検出されれば良い。オフセット範囲は、例えば、予め設定された所定の範囲、あるいは対象部位の動きに応じて設定されれば良い。このような自己テンプレートを用いた粗検出処理により、第2粗検出処理以降の第M粗検出処理については、演算量の低減によって処理に要する時間が低減されるとともに、フレーム画像IC0毎にテンプレートマッチングによる検出結果にばらつきが生じ難い。すなわち、比較的短時間の演算処理によって、複数のフレーム画像IC0からそれぞれ検出される対象部位の位置の滑らかな変化が実現される。   Here, in the (M + 1) th coarse detection process for the (M + 1) th frame image IC (M + 1), for example, the contour of the target area (also referred to as the Mth target area) detected in the Mth precision detection process is used. A reference offset range may be detected as the undetermined region PR12. The Mth precision detection process is a precision detection process for the Mth frame image ICM. Specifically, for example, in the second rough detection process for the second frame image IC2, the offset range based on the contour of the first target area detected in the first precise detection process is an undetermined area PR12. May be detected. The offset range may be set according to, for example, a predetermined range set in advance or the movement of the target part. With such a rough detection process using a self-template, for the Mth rough detection process after the second rough detection process, the time required for the process is reduced by reducing the amount of calculation, and template matching is performed for each frame image IC0. Variations in detection results due to are unlikely to occur. That is, a smooth change in the position of the target portion detected from each of the plurality of frame images IC0 is realized by a relatively short time calculation process.

しかしながら、自己テンプレートが用いられた粗検出処理が単純に行われるのみでは、複数のフレーム画像IC0で捉えられた部位のうち、形状および位置が大幅に変化する部分については、誤検出が生じ得るものと考えられる。例えば、本来は対象確定領域PR11として検出されるべき領域が、非対象確定領域PR2として検出される不具合、および本来は非対象確定領域PR2として検出されるべき領域が、対象確定領域PR11として検出される不具合が発生し得る。また、例えば、本来は未確定領域PR12として検出されるべき領域が、対象確定領域PR11あるいは非対象確定領域PR2として検出される不具合も発生し得る。   However, if the rough detection process using the self-template is simply performed, among the parts captured by the plurality of frame images IC0, a part whose shape and position change significantly may be erroneously detected. it is conceivable that. For example, a defect that should originally be detected as the target determination region PR11 is detected as the non-target determination region PR2, and a region that should originally be detected as the non-target determination region PR2 is detected as the target determination region PR11. Can cause problems. In addition, for example, a problem that an area that should originally be detected as the undetermined area PR12 may be detected as the target determined area PR11 or the non-target determined area PR2.

このような問題に対し、本実施形態における粗検出部314では、自己テンプレートを用いたテンプレートマッチングの検出結果だけでなく、統計値分布も考慮した未確定領域PR12が検出される。これにより、時間方向における構造物の動きに係る統計値に応じて、自己テンプレートが用いられた粗検出処理が単純に行われる場合に得られる未確定領域PR12よりも広い未確定領域PR12が得られる。その結果、体内の構造物の動きを捉えた医療用の動態画像から対象部位を捉えた領域が精度良く抽出され得る。   In response to such a problem, the rough detection unit 314 according to the present embodiment detects the undetermined region PR12 in consideration of not only the template matching detection result using the self-template but also the statistical value distribution. Thereby, an undetermined region PR12 larger than the undetermined region PR12 obtained when the rough detection process using the self-template is simply performed according to the statistical value related to the movement of the structure in the time direction. . As a result, it is possible to accurately extract a region that captures the target region from a medical dynamic image that captures the movement of the structure inside the body.

図37は、粗検出部314で実現される機能的な構成を、他の構成とともに示すブロック図である。図37で示されるように、粗検出部314は、主に、第1領域検出部3141、第1領域設定部3142、テンプレート生成部3143、第2領域検出部3144、第2領域設定部3145および第3領域設定部3146を備えている。   FIG. 37 is a block diagram showing a functional configuration realized by the coarse detection unit 314 together with other configurations. As shown in FIG. 37, the coarse detection unit 314 mainly includes a first region detection unit 3141, a first region setting unit 3142, a template generation unit 3143, a second region detection unit 3144, a second region setting unit 3145, and A third area setting unit 3146 is provided.

<(4−2−4−1)第1領域検出部3141>
第1領域検出部3141は、複数のフレーム画像IC0のうちの1番目の第1フレーム画像IC1を対象としたテンプレートマッチング(第1テンプレートマッチングとも言う)を行う。ここでは、第1テンプレートマッチングが用いられて、対象部位としての肺野を構成する各部分(構成部分とも言う)が捉えられた領域(構成領域とも言う)が検出される処理(第1構成領域検出処理とも言う)が実行される。
<(4-2-4-1) First Area Detection Unit 3141>
The first region detection unit 3141 performs template matching (also referred to as first template matching) for the first first frame image IC1 among the plurality of frame images IC0. Here, a process (first configuration region) in which a first template matching is used to detect a region (also referred to as a configuration region) in which each portion (also referred to as a configuration portion) constituting a lung field as a target region is captured (first configuration region). (Also referred to as detection processing).

ここで、第1構成領域検出処理について説明する。   Here, the first component region detection process will be described.

肺野については、周期的な形状の変化ならびに個体間における形状の差が大きい。例えば、図38から図40で示されるように、呼吸によって周期的に肺野および横隔膜の縦方向のサイズおよび形状が変化する場合、ならびに図41から図44で示されるように、横隔膜および心臓の形状における個体差が生じる場合等が考えられる。このため、例えば、各部分における形状の変化および差が考慮されて、複数のテンプレートが準備される。   In the lung field, there is a large change in the shape of the period and the difference in shape between individuals. For example, as shown in FIGS. 38 to 40, when the longitudinal size and shape of the lung field and diaphragm change periodically due to respiration, and as shown in FIGS. 41 to 44, the diaphragm and heart The case where the individual difference in a shape arises etc. can be considered. For this reason, for example, a plurality of templates are prepared in consideration of a change in shape and a difference in each part.

例えば、肺野については、複数のフレーム画像IC0で捉えられた肺野全体、横隔膜、心臓、鎖骨、肋骨、肋横角および大動脈等において生じる現象に応じた複数のテンプレートが準備されれば良い。   For example, for the lung field, a plurality of templates may be prepared in accordance with phenomena occurring in the entire lung field, the diaphragm, the heart, the collarbone, the rib, the lateral radius, the aorta, and the like captured by the plurality of frame images IC0.

肺野全体に関しては、例えば、個体差および呼吸による動きによって、肺野の縦方向の長さが大きく異なる。このため、例えば、肺野全体に対し、縦方向に拡大および縮小させた関係(縦変倍の関係とも言う)にある複数のテンプレート、ならびに肺野を上下に二分した上部および下部にそれぞれ対応する複数のテンプレートの少なくとも一方が採用される態様が考えられる。また、フレーム画像IC0では肋骨等の存在によって構造物の境界の候補が多数存在するため、例えば、肺野全体を分割した複数の部分にそれぞれ対応する複数のテンプレートが採用される態様が考えられる。   Regarding the entire lung field, for example, the length of the lung field in the vertical direction varies greatly depending on individual differences and movement due to breathing. For this reason, for example, a plurality of templates in a relationship in which the entire lung field is expanded and contracted in the vertical direction (also referred to as a longitudinal scaling relationship), and an upper portion and a lower portion that divide the lung field in the vertical direction, respectively. A mode in which at least one of a plurality of templates is adopted is conceivable. Further, in the frame image IC0, since there are many structure boundary candidates due to the presence of ribs or the like, for example, a mode in which a plurality of templates respectively corresponding to a plurality of portions obtained by dividing the entire lung field can be considered.

また、横隔膜に関しては、例えば、個体差および呼吸による動きによって、左横隔膜と右横隔膜との位置関係に多数のバリエーションが存在するため、例えば、左横隔膜および右横隔膜に対し、それぞれ独立したテンプレートが採用される態様が考えられる。また、例えば、心臓の幅の違いによってフレーム画像IC0において横隔膜が捉えられている領域の幅が異なるため、例えば、呼吸による横隔膜の変位の位相に応じた複数のテンプレートが採用される態様が考えられる。   For the diaphragm, for example, there are many variations in the positional relationship between the left diaphragm and the right diaphragm due to individual differences and movement due to breathing. For example, independent templates are adopted for the left diaphragm and the right diaphragm, respectively. A possible embodiment is conceivable. Further, for example, since the width of the region where the diaphragm is captured in the frame image IC0 differs depending on the difference in the width of the heart, for example, a mode in which a plurality of templates corresponding to the phase of the diaphragm displacement due to respiration is employed is conceivable. .

また、鎖骨および肋骨等に関しては、例えば、フレーム画像IC0において輪郭が鮮明な部分が、肺野の輪郭および肺尖部と混同され易いため、例えば、肩を捉えた領域も含めた広い範囲をカバーするテンプレートが採用される態様が考えられる。また、大動脈に関しては、例えば、個体差が大きいため、大動脈の形状の差に対し、複数のテンプレートが採用される態様が考えられる。なお、心臓および肋横角に関しては、例えば、フレーム画像IC0において輪郭が不鮮明であるため、後述する第2区分設定処理において、未確定領域PR12が広い範囲に設定される態様が考えられる。   For the clavicle, ribs, etc., for example, the clear outline of the frame image IC0 is easily confused with the outline of the lung field and the apex of the lung, and thus covers a wide range including, for example, the area capturing the shoulder. A mode in which a template to be adopted is considered. Moreover, regarding the aorta, for example, since individual differences are large, a mode in which a plurality of templates are employed for the difference in the shape of the aorta is conceivable. Regarding the heart and the lateral angle of the heel, for example, since the outline is unclear in the frame image IC0, a mode in which the undetermined region PR12 is set in a wide range in the second section setting process described later can be considered.

ところで、本実施形態では、例えば、肺野および心臓の大きさの相違による横隔膜の形状の差および左右の横隔膜の位置の差に対し、縦方向および横方向において拡大および縮小させた関係(縦横変倍の関係とも言う)にある複数のテンプレートが採用される。また、横隔膜の左右の位置における差異に対し、左横隔膜と右横隔膜とについて別々のテンプレートが採用される。また、例えば、特定の症例としての心肥大による心臓の大きさの相違に応じて、心臓に沿った肺野の輪郭の形状が異なるため、本実施形態では、心臓の形状の差異に対し、縦方向および横方向において拡大および縮小させた関係にある複数のテンプレートが採用される。   By the way, in the present embodiment, for example, a relationship in which the difference in the shape of the diaphragm due to the difference in the size of the lung field and the heart and the difference in the positions of the left and right diaphragms are expanded and reduced in the vertical and horizontal directions (vertical and horizontal changes). Multiple templates are also used. In addition, different templates are employed for the left diaphragm and the right diaphragm for differences in the left and right positions of the diaphragm. Further, for example, the shape of the contour of the lung field along the heart varies depending on the difference in the size of the heart due to cardiac hypertrophy as a specific case. A plurality of templates that are enlarged and reduced in the horizontal direction and the horizontal direction are employed.

そして、本実施形態では、対象部位としての肺野が複数の部分(構成部分とも言う)に分けられ、各構成部分に対して複数のテンプレートが準備される例を示して説明する。なお、本実施形態では、複数の構成部分として、左横隔膜、右横隔膜、左肺尖部および右肺尖部をそれぞれ含む部分が採用される。このため、左横隔膜、右横隔膜、左肺尖部および右肺尖部に係るテンプレート(左横隔膜テンプレート、右横隔膜テンプレート、左肺尖部テンプレートおよび右肺尖部テンプレートとも言う)がそれぞれ準備される。   In the present embodiment, an example in which a lung field as a target part is divided into a plurality of parts (also referred to as component parts) and a plurality of templates are prepared for each component part will be described. In this embodiment, as the plurality of constituent parts, parts including the left diaphragm, the right diaphragm, the left lung apex, and the right lung apex are employed. Therefore, templates for the left diaphragm, the right diaphragm, the left lung apex, and the right lung apex (also referred to as a left diaphragm template, a right diaphragm template, a left lung apex template, and a right lung apex template) are prepared.

図45から図48は、それぞれ縦横変倍の関係にある複数の右横隔膜テンプレートT1Rおよび複数の左横隔膜テンプレートT1Lの生成方法を示す図である。図45から図48の左部には、サンプル画像SI0が模式的に示されている。図45から図48の右部には、サンプル画像SI0の左右の横隔膜の形状を各々表現した右横隔膜テンプレートT1Ra〜T1Rd(T1R)および左横隔膜テンプレートT1La〜T1Ld(T1L)が模式的に示されている。   FIG. 45 to FIG. 48 are diagrams showing a method for generating a plurality of right diaphragm templates T1R and a plurality of left diaphragm templates T1L each having a relationship of vertical / horizontal scaling. A sample image SI0 is schematically shown on the left part of FIGS. 45 to 48, the right diaphragm templates T1Ra to T1Rd (T1R) and the left diaphragm templates T1La to T1Ld (T1L) respectively representing the shapes of the left and right diaphragms of the sample image SI0 are schematically shown. Yes.

図45から図48のサンプル画像SI0で示されるように、横隔膜の形状には大きな個体差があり、とりわけ心臓の大きさによって横隔膜の形状が大きく異なる。このため、例えば、サンプル画像SI0が、心臓の大きさ等に応じて複数のグループに分類される。ここでは、心臓の形状が、小、一般的、中および大である4種類のグループに分類される態様が示されている。   As shown in the sample images SI0 of FIGS. 45 to 48, there are large individual differences in the shape of the diaphragm, and the shape of the diaphragm varies greatly depending on the size of the heart. For this reason, for example, the sample images SI0 are classified into a plurality of groups according to the size of the heart and the like. Here, a mode in which the shape of the heart is classified into four groups, which are small, general, medium and large, is shown.

次に、図45から図48で示されるように、サンプル画像SI0における破線で囲まれた右横隔膜領域R1Rおよび左横隔膜領域R1Lが指定され、サンプル画像SI0から切り出される。ここで、右横隔膜領域R1Rは、サンプル画像SI0における右横隔膜が捉えられた構成領域およびその近傍の領域を含む領域(構成含有領域とも言う)である。また、左横隔膜領域R1Lは、サンプル画像SI0における左横隔膜が捉えられた構成領域およびその近傍の領域を含む構成含有領域である。各サンプル画像SI0を対象とした右横隔膜領域R1Rおよび左横隔膜領域R1Lの指定は、例えば、操作部33を介した手動でなされる態様が考えられる。また、各サンプル画像SI0を対象とした右横隔膜領域R1Rおよび左横隔膜領域R1Lの指定は、例えば、手動等で指定された各1つの右横隔膜領域R1Rおよび左横隔膜領域R1Lがテンプレートとされたテンプレートマッチングによって実現されても良い。   Next, as shown in FIGS. 45 to 48, the right diaphragm region R1R and the left diaphragm region R1L surrounded by the broken line in the sample image SI0 are designated and cut out from the sample image SI0. Here, the right diaphragm region R1R is a region including the component region in which the right diaphragm is captured in the sample image SI0 and a region in the vicinity thereof (also referred to as a component-containing region). The left diaphragm region R1L is a component-containing region including a component region in which the left diaphragm is captured in the sample image SI0 and a region in the vicinity thereof. The designation of the right diaphragm region R1R and the left diaphragm region R1L for each sample image SI0 may be performed manually via the operation unit 33, for example. The designation of the right diaphragm region R1R and the left diaphragm region R1L for each sample image SI0 is, for example, template matching in which each one of the right diaphragm region R1R and the left diaphragm region R1L designated manually is used as a template. It may be realized by.

そして、例えば、事前に分類された4種類のグループ毎に、右横隔膜領域R1Rから切り出された画像の平均画像が生成されることで、4種類の右横隔膜テンプレートT1Ra〜T1Rd(T1R)が生成される。ここで、平均画像の各画素値は、例えば、複数の右横隔膜領域R1Rから切り出された画像における同一位置の画素に係る画素値の累積値が右横隔膜領域R1Rの数で除されることで算出される。また、同様に、事前に分類された4種類のグループ毎に、左横隔膜領域R1Lから切り出された画像の平均画像が生成されることで、4種類の左横隔膜テンプレートT1La〜T1Ld(T1L)が生成される。   Then, for example, four types of right diaphragm templates T1Ra to T1Rd (T1R) are generated by generating an average image of images cut out from the right diaphragm region R1R for each of the four types of groups classified in advance. The Here, each pixel value of the average image is calculated, for example, by dividing a cumulative value of pixel values related to pixels at the same position in an image cut out from a plurality of right diaphragm regions R1R by the number of right diaphragm regions R1R. Is done. Similarly, four types of left diaphragm templates T1La to T1Ld (T1L) are generated by generating an average image of images cut out from the left diaphragm region R1L for each of the four types of groups classified in advance. Is done.

他のテンプレートについても、例えば、右横隔膜テンプレートT1Rおよび左横隔膜テンプレートT1Lと同様な方法によって生成される。なお、左肺尖部テンプレートおよび右肺尖部テンプレートについては、例えば、肺尖部の大きさ、および鎖骨の傾き等の観点からサンプル画像SI0が複数のグループに分類され、各グループに係るテンプレートが生成されれば良い。   The other templates are also generated by the same method as the right diaphragm template T1R and the left diaphragm template T1L, for example. As for the left apex template and the right apex template, for example, the sample images SI0 are classified into a plurality of groups from the viewpoint of the size of the apex, the inclination of the collarbone, and the like. It only has to be generated.

このようにして生成されるテンプレートに係る情報は、記憶部32に格納される各種データD1に事前に含まれていれば良い。   Information relating to the template generated in this way may be included in advance in the various data D1 stored in the storage unit 32.

そして、第1構成領域検出処理では、第1フレーム画像IC1が対象とされて、構成部分を捉えた構成領域の位置が、テンプレートを用いたテンプレートマッチングによって検出される。ここでは、各構成部分に関し、複数種類のテンプレートが用いられて、第1フレーム画像IC1のうちのテンプレートとの相関の度合い(相関度とも言う)が最も高い構成含有領域が検出されることで、構成含有領域に含まれる構成領域が検出される。   Then, in the first configuration area detection process, the position of the configuration area that captures the configuration part is detected by template matching using a template for the first frame image IC1. Here, for each component, a plurality of types of templates are used, and the component-containing region having the highest degree of correlation (also referred to as the degree of correlation) with the template in the first frame image IC1 is detected. A constituent area included in the constituent-containing area is detected.

<(4−2−4−2)第1領域設定部3142>
第1領域設定部3142は、第1構成領域検出処理で検出された各構成領域に対し、テンプレートと構成含有領域との相関値に応じて、第1部分区分情報を設定する処理(第1区分設定処理とも言う)を実行する。第1部分区分情報は、各構成領域に係る構成含有領域を、対象確定領域PR11(第1対象確定領域PR11a)、未確定領域PR12(第1未確定領域PR12a)および非対象確定領域PR2(第1非対象確定領域PR2a)に区分する情報である。また、第1領域設定部3142は、各構成領域に対して設定された第1部分区分情報を統合する処理(第1統合処理とも言う)を実行する。これにより、領域区分情報ID1(第1領域区分情報ID1a)が生成される。すなわち、第1フレーム画像IC1を対象とした第1テンプレートマッチングの結果に応じて、第1フレーム画像IC1について、第1対象確定領域PR11aと、第2未確定領域PR12aとを検出する処理が実行される。
<(4-2-2-4-2) First Area Setting Unit 3142>
The first region setting unit 3142 sets the first partial segment information for each component region detected in the first component region detection process according to the correlation value between the template and the component-containing region (first component) (Also referred to as setting processing). The first partial classification information includes the component-containing regions related to each component region as a target defined region PR11 (first target confirmed region PR11a), an undefined region PR12 (first undefined region PR12a), and a non-target defined region PR2 (first 1 is information classified into non-target defined regions PR2a). In addition, the first area setting unit 3142 executes a process of integrating the first partial section information set for each constituent area (also referred to as a first integration process). Thereby, area | region division information ID1 (1st area | region division information ID1a) is produced | generated. That is, processing for detecting the first target confirmed region PR11a and the second unconfirmed region PR12a for the first frame image IC1 is executed according to the result of the first template matching for the first frame image IC1. The

第1区分設定処理では、記憶部32に格納された各種データD1に含まれる第1部分区分情報群に基づいて、第1構成領域検出処理において検出された構成領域に対し、それぞれ第1部分区分情報を設定する。ここで、第1部分区分情報群は、テンプレート毎にテンプレートと構成含有領域との相関に応じた第1部分区分情報が蓄積されたものである。このため、第1区分設定処理では、第1構成領域検出処理で構成含有領域が検出された際におけるテンプレートおよび該テンプレートと該構成含有領域との相関に応じた第1部分区分情報が、第1部分区分情報群から得られる。これにより、該構成含有領域に含まれる構成領域に対して第1部分区分情報が設定される。   In the first segment setting process, the first partial segment is determined for each component area detected in the first component area detection process based on the first partial segment information group included in the various data D1 stored in the storage unit 32. Set the information. Here, the first partial classification information group is a collection of first partial classification information corresponding to the correlation between the template and the component-containing region for each template. For this reason, in the first category setting process, the first partial category information corresponding to the correlation between the template and the component-containing region when the component-containing region is detected in the first component region detecting process is Obtained from the partial segment information group. Thereby, 1st partial division information is set with respect to the structure area contained in this structure containing area | region.

ここで、図49から図53を参照しつつ、各テンプレートに対する、テンプレートと構成含有領域との相関に応じた第1部分区分情報の生成方法について説明する。   Here, with reference to FIG. 49 to FIG. 53, a method for generating the first partial section information corresponding to the correlation between the template and the component-containing region for each template will be described.

上述したように、例えば、テンプレートが生成される際に、サンプル画像SI0が複数のグループに分類され、各グループについて、複数のサンプル画像SI0から構成領域およびその近傍の領域を含む構成含有領域がそれぞれ切り出されて平均画像が生成される。このとき、まず、切り出された各構成含有領域について、対象部位が捉えられた対象領域か、対象部位以外の部分が捉えられた非対象領域かを示すデータ(正解データとも言う)も生成される。   As described above, for example, when the template is generated, the sample images SI0 are classified into a plurality of groups, and for each group, the component-containing regions including the component region and the region in the vicinity thereof from the plurality of sample images SI0, respectively. The average image is generated by cutting out. At this time, first, data (also referred to as correct data) indicating whether the target region is a target region in which the target part is captured or a non-target region in which a part other than the target part is captured is generated for each extracted component-containing region. .

図49には、あるサンプル画像SI0について、対象領域が白色で表され且つ非対象領域が黒色で表された正解データA0が例示されている。図50には、構成含有領域としての左横隔膜領域R1Lおよび該左横隔膜領域R1Lに係る正解データA1L(A0)、ならびに構成含有領域としての右横隔膜領域R1Rおよび該右横隔膜領域R1Rに係る正解データA1R(A0)が例示されている。図51には、構成含有領域としての左肺尖部領域R2Lおよび該左肺尖部領域R2Lに係る正解データA2L(A0)、ならびに構成含有領域としての右肺尖部領域R2Rおよび該右肺尖部領域R2Rに係る正解データA2R(A0)が例示されている。ここで、左肺尖部領域R2Lは、サンプル画像SI0において左肺尖部が捉えられた構成領域およびその近傍の領域を含む構成含有領域である。また、右肺尖部領域R2Rは、サンプル画像SI0における右肺尖部が捉えられた構成領域およびその近傍の領域を含む構成含有領域である。   FIG. 49 illustrates correct data A0 in which the target area is expressed in white and the non-target area is expressed in black for a certain sample image SI0. FIG. 50 shows the left diaphragm region R1L as the component-containing region and the correct data A1L (A0) regarding the left diaphragm region R1L, and the correct data A1R regarding the right diaphragm region R1R and the right diaphragm region R1R as the component-containing regions. (A0) is illustrated. 51 shows the left lung apex region R2L as the component-containing region and the correct data A2L (A0) regarding the left lung apex region R2L, the right lung apex region R2R as the component-containing region, and the right lung apex The correct answer data A2R (A0) related to the partial area R2R is illustrated. Here, the left lung apex region R2L is a configuration-containing region including a configuration region in which the left lung apex is captured in the sample image SI0 and a region in the vicinity thereof. The right lung apex region R2R is a configuration-containing region including a configuration region in which the right lung apex in the sample image SI0 is captured and a region in the vicinity thereof.

次に、構成領域毎に、各グループについて、複数の正解データA0が重ねられ、画素毎に、正解データA0が重ねられた回数が複数の正解データA0の数で除されることで、正解データA0が重なっている確率(累積率とも言う)が算出される。累積率は、例えば、0〜100%等と言った百分率等の態様で示されれば良い。図52の右下には、左横隔膜領域R1Lに係る複数の正解データA1L(A0)についての累積率の分布を示す画像(累積率画像とも言う)Am1Lが例示されている。図52の左下には、右横隔膜領域R1Rに係る複数の正解データA1R(A0)についての累積率の分布を示す累積率画像Am1Rが例示されている。図52の右上には、左肺尖部領域R2Lに係る複数の正解データA2L(A0)についての累積率の分布を示す累積率画像Am2Lが例示されている。図52の左上には、右肺尖部領域R2Rに係る複数の正解データA2R(A0)についての累積率の分布を示す累積率画像Am2Rが例示されている。   Next, a plurality of correct data A0 is overlaid for each group for each configuration area, and the number of times the correct data A0 is overlaid for each pixel is divided by the number of the plurality of correct data A0. The probability that A0 overlaps (also referred to as a cumulative rate) is calculated. The accumulation rate may be shown in a form such as a percentage such as 0 to 100%. In the lower right of FIG. 52, an image (also referred to as a cumulative rate image) Am1L showing the distribution of the cumulative rate for a plurality of correct answer data A1L (A0) related to the left diaphragm region R1L is illustrated. In the lower left of FIG. 52, an accumulation rate image Am1R showing the distribution of accumulation rates for a plurality of correct answer data A1R (A0) related to the right diaphragm region R1R is illustrated. In the upper right of FIG. 52, an accumulation rate image Am2L showing the distribution of accumulation rates for a plurality of correct answer data A2L (A0) related to the left lung apex region R2L is illustrated. In the upper left of FIG. 52, an accumulation rate image Am2R showing the distribution of accumulation rates for a plurality of correct answer data A2R (A0) related to the right lung apex region R2R is illustrated.

ここで、あるグループについて、累積率が100%である領域は、対象部位を捉えた対象領域に対応することが確実であり、累積率が0%である領域は、対象部位を捉えていない非対象領域に対応することが確実である。これに対し、累積率が1〜99%である領域については、対象領域に対応するか、非対象領域に対応するかについては、未確定である。但し、例えば、構成領域毎の各グループについて、テンプレートと第1構成領域検出処理で検出される構成含有領域との間における相関値が大きくなる程、より累積率が高い領域が、対象領域に対応する可能性が高まる。   Here, for a certain group, it is certain that an area with a cumulative rate of 100% corresponds to a target area that captures the target part, and a region with a cumulative rate of 0% does not capture the target part. It is certain to correspond to the target area. On the other hand, it is uncertain whether an area with an accumulation rate of 1 to 99% corresponds to a target area or a non-target area. However, for example, for each group for each constituent area, the higher the correlation value between the template and the constituent inclusion area detected in the first constituent area detection process, the higher the cumulative ratio corresponds to the target area. The possibility to do increases.

そこで、テンプレート毎に、対応する累積率画像に基づいて、テンプレートと構成含有領域との相関値に応じた第1部分区分情報が生成される。   Therefore, for each template, first partial section information corresponding to the correlation value between the template and the component-containing region is generated based on the corresponding cumulative rate image.

例えば、テンプレートに対する第1部分区分情報については、相関値の値域が予め設定され、その相関値の値域毎に第1部分区分情報が生成されれば良い。例えば、相関値が大きな値域(0.9<相関値≦1)、相関値が中程度の値域(0.8<相関値≦0.9)および相関値が小さな値域(0.5<相関値≦0.8)が設定される態様が考えられる。この態様では、相関値が大きな値域(0.90<相関値≦1)に対し、例えば、累積率が0%の領域が非対象確定領域、累積率が0%を超え且つ50%以下である領域が未確定領域、累積率が50%を超え且つ100%以下である領域が対象確定領域とされる。この場合における第1部分区分情報PV1の一例が、図53の左部に示されている。また、相関値が中程度の値域(0.8<相関値≦0.9)に対し、例えば、累積率が0%の領域が非対象確定領域、累積率が0%を超え且つ70%以下である領域が未確定領域、累積率が70%を超え且つ100%以下である領域が対象確定領域とされる。この場合における第1部分区分情報PV2の一例が、図53の中央部に示されている。さらに、相関値が小さな値域(0.5<相関値≦0.8)に対し、例えば、累積率が0%の領域が非対象確定領域、累積率が0%を超え且つ99%以下である領域が未確定領域、累積率が99%を超え且つ100%以下である領域が対象確定領域とされる。この場合における第1部分区分情報PV3の一例が、図53の右部に示されている。   For example, for the first partial classification information for the template, a correlation value range may be set in advance, and the first partial classification information may be generated for each correlation value range. For example, a range having a large correlation value (0.9 <correlation value ≦ 1), a range having a medium correlation value (0.8 <correlation value ≦ 0.9), and a range having a small correlation value (0.5 <correlation value). A mode in which ≦ 0.8) is set is conceivable. In this aspect, for a range with a large correlation value (0.90 <correlation value ≦ 1), for example, a region with a cumulative rate of 0% is a non-target defined region, and a cumulative rate exceeds 0% and is 50% or less. A region is an unconfirmed region, and a region having an accumulation rate of more than 50% and not more than 100% is a target confirmed region. An example of the first partial section information PV1 in this case is shown in the left part of FIG. In addition, for an intermediate correlation value range (0.8 <correlation value ≦ 0.9), for example, an area where the accumulation rate is 0% is a non-target determination area, an accumulation ratio exceeds 0% and is less than 70% Is an undetermined area, and an area where the accumulation rate exceeds 70% and is equal to or less than 100% is a target confirmed area. An example of the first partial section information PV2 in this case is shown in the central part of FIG. Furthermore, for a range with a small correlation value (0.5 <correlation value ≦ 0.8), for example, a region with a cumulative rate of 0% is a non-target defined region, and the cumulative rate exceeds 0% and is 99% or less. A region is an unconfirmed region, and a region where the accumulation rate exceeds 99% and is 100% or less is a target confirmed region. An example of the first partial section information PV3 in this case is shown in the right part of FIG.

第1統合処理では、第1区分設定処理において各構成領域に対してそれぞれ設定された第1部分区分情報が統合される。これにより、第1対象確定領域PR11aおよび第1未確定領域PR12aを含む対象候補領域PR1(第1対象候補領域PR1a)ならびに非対象確定領域PR2(第1非対象確定領域PR2a)を示す第1領域区分情報ID1aの設定が完了する。図54は、第1統合処理によって設定される第1対象候補領域PR1aおよび第1非対象確定領域PR2aを示す第1領域区分情報ID1aの一例を示す図である。なお、ここで得られる第1領域区分情報ID1aは、精密検出部315に送られる。   In the first integration process, the first partial classification information set for each component area in the first classification setting process is integrated. Accordingly, the first region indicating the target candidate region PR1 (first target candidate region PR1a) including the first target confirmed region PR11a and the first undefined region PR12a and the non-target defined region PR2 (first non-target defined region PR2a). Setting of the division information ID 1a is completed. FIG. 54 is a diagram illustrating an example of the first region classification information ID1a indicating the first target candidate region PR1a and the first non-target determination region PR2a set by the first integration process. The first area classification information ID1a obtained here is sent to the precision detection unit 315.

<(4−2−4−3)テンプレート生成部3143>
テンプレート生成部3143は、第Mフレーム画像ICMを対象としたテンプレートマッチング(第Mテンプレートマッチングとも言う)において第Mフレーム画像ICMのうちのテンプレートと対応する対応領域に係る部分画像を自己テンプレートとして生成する。本実施形態では、対応領域は、第Mテンプレートマッチングにおいて第Mフレーム画像ICMのうちのテンプレートとの一致度が最も高い領域である。但し、該対応領域は、第Mテンプレートマッチングにおいて第Mフレーム画像ICMのうちのテンプレートとの一致度が最も高い領域に限られず、例えば、該一致度が予め設定された閾値以上であれば、該一致度が2番目以降に高い領域であっても構わない。
<(4-2-4-3) Template Generation Unit 3143>
The template generation unit 3143 generates, as a self template, a partial image related to a corresponding region corresponding to a template in the Mth frame image ICM in template matching (also referred to as Mth template matching) for the Mth frame image ICM. . In the present embodiment, the corresponding region is a region having the highest degree of matching with the template in the Mth frame image ICM in the Mth template matching. However, the corresponding region is not limited to the region having the highest matching degree with the template in the Mth frame image ICM in the Mth template matching. For example, if the matching degree is equal to or higher than a preset threshold, It may be a region having the second highest matching score.

ここでは、例えば、第1領域検出部3141における第1テンプレートマッチングにおいて第1フレーム画像IC1のうちのテンプレートと対応する対応領域に係る部分画像が、該第1フレーム画像IC1から抽出されることで、自己テンプレートが生成される。また、例えば、第2領域検出部3144における第Mテンプレートマッチング(ここでは、Mは2以上の自然数)において第Mフレーム画像ICMのうちのテンプレートと対応する対応領域に係る部分画像が、該第Mフレーム画像ICMから抽出されることで、自己テンプレートが生成される。   Here, for example, in the first template matching in the first region detection unit 3141, the partial image related to the corresponding region corresponding to the template in the first frame image IC1 is extracted from the first frame image IC1, A self template is generated. Further, for example, in the M-th template matching (here, M is a natural number of 2 or more) in the second region detection unit 3144, the partial image related to the corresponding region corresponding to the template in the M-th frame image ICM is By extracting from the frame image ICM, a self template is generated.

図55および図56は、自己テンプレートの生成方法を説明するための図である。   55 and 56 are diagrams for explaining a self-template generation method.

図55には、第1フレーム画像IC1のうちの各テンプレートとの一致度が最も高い対応領域Mr1L,Mr1R,Mr2L,Mr2Lが示されている。例えば、第1フレーム画像IC1のうち、左横隔膜テンプレートT1Lとの一致度が最も高い対応領域Mr1Lの外縁、および右横隔膜テンプレートT1Rとの一致度が最も高い対応領域Mr1Rの外縁が、太い破線で描かれている。また、例えば、第1フレーム画像IC1のうち、左肺尖部テンプレートとの一致度が最も高い対応領域Mr2Lの外縁、および右肺尖部テンプレートとの一致度が最も高い対応領域Mr2Rの外縁が、太い破線で描かれている。なお、ここで、フレーム画像IC0のうちのテンプレートとの一致度が最も高い対応領域は、例えば、テンプレートマッチングの対象としてのフレーム画像IC0のうちのテンプレートとの相関の度合い(相関度)が最も高い領域(構成含有領域)であれば良い。   FIG. 55 shows corresponding areas Mr1L, Mr1R, Mr2L, and Mr2L that have the highest degree of matching with each template in the first frame image IC1. For example, in the first frame image IC1, the outer edge of the corresponding region Mr1L having the highest degree of coincidence with the left diaphragm template T1L and the outer edge of the corresponding region Mr1R having the highest degree of coincidence with the right diaphragm template T1R are drawn by thick broken lines. It is. Further, for example, in the first frame image IC1, the outer edge of the corresponding region Mr2L having the highest degree of coincidence with the left lung apex template and the outer edge of the corresponding region Mr2R having the highest degree of coincidence with the right lung apex template are It is drawn with a thick broken line. Here, the corresponding region having the highest degree of coincidence with the template in the frame image IC0 has, for example, the highest degree of correlation (correlation degree) with the template in the frame image IC0 as a template matching target. Any region (structure-containing region) may be used.

また、図56には、自己テンプレートとしての部分画像Ts1L,Ts1R,Ts2L,Ts2Rが模式的に例示されている。具体的には、右下に第1フレーム画像IC1のうちの左横隔膜の対応領域Mr1Lに係る部分画像Ts1Lが模式的に示され、左下に第1フレーム画像IC1のうちの右横隔膜の対応領域Mr1Rに係る部分画像Ts1Rが模式的に示されている。また、右上に第1フレーム画像IC1のうちの左肺尖部の対応領域Mr2Lに係る部分画像Ts2Lが模式的に示され、左上に第1フレーム画像IC1のうちの右肺尖部の対応領域Mr2Rに係る部分画像Ts2Rが模式的に示されている。図57は、自己テンプレートとしての部分画像Ts1Rの一例を示す図である。   FIG. 56 schematically illustrates partial images Ts1L, Ts1R, Ts2L, and Ts2R as self templates. Specifically, the partial image Ts1L related to the left diaphragm corresponding region Mr1L in the first frame image IC1 is schematically shown in the lower right, and the right diaphragm corresponding region Mr1R in the first frame image IC1 in the lower left. A partial image Ts1R according to is schematically shown. Further, the partial image Ts2L related to the corresponding region Mr2L of the left lung apex in the first frame image IC1 is schematically shown in the upper right, and the corresponding region Mr2R of the right lung apex in the first frame image IC1 is shown in the upper left. A partial image Ts2R according to is schematically shown. FIG. 57 is a diagram illustrating an example of a partial image Ts1R as a self template.

<(4−2−4−4)第2領域検出部3144>
第2領域検出部3144は、複数のフレーム画像IC0のうちの第1フレーム画像IC1とは異なる第Mフレーム画像ICM(ここではMは2以上の自然数)を対象として、自己テンプレートを用いたテンプレートマッチングを行う。ここでは、テンプレートマッチングが用いられて、肺野を構成する各構成部分が捉えられた構成領域が検出される処理(第M構成領域検出処理とも言う)が実行される。
<(4-2-4-4) Second Area Detection Unit 3144>
The second region detection unit 3144 targets a M-th frame image ICM (here, M is a natural number greater than or equal to 2) different from the first frame image IC1 among the plurality of frame images IC0, and performs template matching using a self-template. I do. Here, template matching is used to execute a process (also referred to as an M-th component area detection process) in which a component area in which each component part constituting the lung field is captured is detected.

第M構成領域検出処理では、第Mフレーム画像ICMが対象とされて、第(M−1)フレーム画像IC(M−1)から得られた自己テンプレートを用いたテンプレートマッチングが実行される。例えば、第2フレーム画像IC2が対象とされて、第1フレーム画像IC1から得られた自己テンプレートを用いたテンプレートマッチングが実行される。   In the M-th component region detection process, template matching is performed using the self-template obtained from the (M-1) th frame image IC (M-1) for the Mth frame image ICM. For example, template matching using the self template obtained from the first frame image IC1 is performed on the second frame image IC2.

具体的には、第Mフレーム画像ICMが対象とされて、構成部分を捉えた構成領域の位置が、自己テンプレートを用いたテンプレートマッチングによって検出される。例えば、各構成部分について、1つの自己テンプレートが用いられて、第Mフレーム画像ICMのうちの自己テンプレートとの相関の度合い(相関度とも言う)が最も高い領域が、構成部分が捉えられた構成領域およびその近傍の領域を含む構成含有領域として検出される。   Specifically, with respect to the Mth frame image ICM, the position of the configuration area capturing the configuration portion is detected by template matching using the self template. For example, for each component, a configuration in which one self-template is used and a region having the highest degree of correlation (also referred to as a degree of correlation) with the self-template in the Mth frame image ICM is captured. It is detected as a component-containing region including the region and the region in the vicinity thereof.

但し、自己テンプレートを用いたテンプレートマッチングでは、動態画像において大きな動きが生じている部分については、構成領域の検出精度が低下する可能性がある。このため、例えば、第2領域検出部3144における自己テンプレートを用いたテンプレートマッチングでは、統計値分布算出部313で算出された統計値分布に応じた重み付けが施される処理(重み付け処理とも言う)が実行される。重み付け処理としては、例えば、画素毎または画像領域毎に、第Mフレーム画像ICMのうちの自己テンプレートが重畳している領域(重畳領域とも言う)と該自己テンプレートとの相関値が、統計値分布における統計値で除される態様が考えられる。これにより、大きな動きが生じている部分について、構成領域の位置が誤って検出される不具合の発生が低減される。なお、重み付け処理として、例えば、統計値分布における統計値が予め設定された閾値を超える画素毎または画像領域毎に、第Mフレーム画像ICMの重畳領域と自己テンプレートとの相関値に所定の係数(重み付け係数とも言う)が乗じられる態様が考えられる。所定の係数は、例えば、予め設定される値(例えば、0等)であれば良い。   However, in template matching using a self-template, there is a possibility that the detection accuracy of the constituent area is lowered for a portion where a large movement occurs in the dynamic image. For this reason, for example, in the template matching using the self template in the second region detection unit 3144, a process (also referred to as a weighting process) in which weighting according to the statistical value distribution calculated by the statistical value distribution calculating unit 313 is performed. Executed. As the weighting process, for example, for each pixel or image area, a correlation value between a self-template and an area of the Mth frame image ICM on which the self-template is superimposed (also referred to as a superposition area) is a statistical value distribution. A mode divided by the statistical value in can be considered. As a result, the occurrence of a malfunction in which the position of the constituent area is erroneously detected in a portion where a large movement occurs is reduced. As the weighting process, for example, for each pixel or image area where the statistical value in the statistical value distribution exceeds a preset threshold value, a predetermined coefficient (for the correlation value between the overlapping area of the Mth frame image ICM and the self template is used. A mode in which the weighting coefficient is also multiplied is conceivable. The predetermined coefficient may be a value set in advance (for example, 0).

図58は、自己テンプレートに対する重み付け係数の2次元分布を例示する図である。図58には、統計値分布における統計値が閾値を超える画素についての重み付け係数が0とされ、統計値分布における統計値が閾値以下の画素についての重み付け係数が1とされている例が示されている。   FIG. 58 is a diagram illustrating a two-dimensional distribution of weighting coefficients for the self-template. FIG. 58 shows an example in which the weighting coefficient for a pixel whose statistical value exceeds a threshold value in the statistical value distribution is 0, and the weighting coefficient for a pixel whose statistical value is less than or equal to the threshold value is 1 in the statistical value distribution. ing.

<(4−2−4−5)第2領域設定部3145>
第2領域設定部3145は、動態画像を構成する各第Mフレーム画像ICM(ここではMは2以上の自然数)を対象として、第M構成領域検出処理で検出された各構成領域に対し、第M部分区分情報を設定する処理(第M区分設定処理とも言う)を実行する。第M部分区分情報は、各構成領域に係る構成含有領域を、対象確定領域PR11、未確定領域PR12および非対象確定領域PR2に区分する情報である。例えば、第2部分区分情報は、各構成領域に係る構成含有領域を、対象確定領域PR11(第2対象確定領域PR11b)、未確定領域PR12(第2未確定領域PR12b)および非対象確定領域PR2(第2非対象確定領域PR2b)に区分する情報である。
<(4-2-4-5) Second area setting unit 3145>
The second area setting unit 3145 applies the Mth frame area ICM (here, M is a natural number equal to or greater than 2) constituting the dynamic image to each of the constituent areas detected in the Mth constituent area detection process. A process of setting M partial section information (also referred to as an Mth section setting process) is executed. The Mth partial division information is information for dividing the configuration-containing region related to each configuration region into a target determination region PR11, an undefined region PR12, and a non-target determination region PR2. For example, the second partial classification information includes the component-containing regions related to each component region as the target confirmed region PR11 (second target confirmed region PR11b), the undefined region PR12 (second undefined region PR12b), and the non-target defined region PR2. The information is classified into (second non-target defined region PR2b).

また、第2領域設定部3145は、動態画像を構成する各第Mフレーム画像ICMを対象として、各構成領域に対して設定された第M部分区分情報を統合する処理(第M統合処理とも言う)を実行することで、第M領域区分情報ID1を生成する。つまり、第Mフレーム画像ICMを対象とした第Mテンプレートマッチングの結果に応じて、第Mフレーム画像ICMについて、対象確定領域PR11と、未確定領域PR12とを検出する処理が実行される。具体的には、例えば、第2フレーム画像IC2を対象として、各構成領域に対して設定された第2部分区分情報を統合する第2統合処理が実行されることにより、第2領域区分情報ID1bが生成される。つまり、第2フレーム画像IC2を対象とした第2テンプレートマッチングの結果に応じて、第2フレーム画像IC2について、第2対象確定領域PR11bと、第2未確定領域PR12bとを検出する処理が実行される。   The second area setting unit 3145 also integrates the Mth partial segment information set for each constituent area for each Mth frame image ICM constituting the dynamic image (also referred to as Mth integration process). ) To generate the M-th area division information ID1. That is, processing for detecting the target confirmed region PR11 and the undefined region PR12 is executed for the Mth frame image ICM according to the result of the Mth template matching for the Mth frame image ICM. Specifically, for example, the second region segment information ID1b is obtained by executing the second integration process for integrating the second partial segment information set for each component region for the second frame image IC2. Is generated. That is, processing for detecting the second target confirmed region PR11b and the second unconfirmed region PR12b for the second frame image IC2 is executed according to the result of the second template matching for the second frame image IC2. The

ここで、第M区分設定処理では、第M構成領域検出処理において検出された各構成領域に対し、第(M−1)精密検出処理で検出された第(M−1)対象領域を基準とした部分区分情報がそれぞれ設定される。具体的には、例えば、第2区分設定処理では、第2構成領域検出処理において検出された各構成領域に対し、第1精密検出処理で検出された第1対象領域を基準とした部分区分情報が設定される。   Here, in the M-th segment setting process, with respect to each configuration area detected in the M-th configuration area detection process, the (M-1) target area detected in the (M-1) precision detection process is used as a reference. The partial segment information is set. Specifically, for example, in the second segment setting process, partial segment information based on the first target area detected in the first precision detection process for each component area detected in the second component area detection process Is set.

図59および図60は、第2区分設定処理における第2部分区分情報の設定方法を説明するための図である。第2区分設定処理では、図59で示されるように、例えば、第1精密検出処理で検出された第1対象領域としての肺野領域RT1およびその近傍の領域のうち、自己テンプレートとして第1フレーム画像IC1から抽出された部分画像に対応する部分(部分対応領域とも言う)PA1が抽出される。そして、図59および図60で示されるように、部分対応領域PA1のうちの肺野領域RT1の輪郭ED1が基準とされたオフセット範囲が、未確定領域PR12とされた部分区分情報PV0が設定される。オフセット範囲は、例えば、予め設定された所定の範囲、あるいは対象部位の動きに応じて設定されれば良い。例えば、同一の構成部分を対象とした第1粗検出処理と第2粗検出処理との間における、フレーム画像IC0のうちのテンプレートに対応する対応領域のずれ量から、対象部位の動きが予測され得る。そして、例えば、該ずれ量に予め設定された所定値(例えば、3等)が乗じられた値が、オフセット範囲の幅とされる態様が考えられる。該オフセット範囲は、例えば、部分対応領域PA1の輪郭ED1が複数の部分に分割されて、各部分に対して設定される。   FIG. 59 and FIG. 60 are diagrams for explaining a setting method of the second partial section information in the second section setting process. In the second segment setting process, as shown in FIG. 59, for example, the first frame as the self template of the lung field region RT1 as the first target region detected in the first precise detection process and the vicinity region thereof. A portion (also referred to as a partial corresponding region) PA1 corresponding to the partial image extracted from the image IC1 is extracted. As shown in FIGS. 59 and 60, partial segment information PV0 in which the offset range based on the contour ED1 of the lung field region RT1 in the partial corresponding region PA1 is set as the undetermined region PR12 is set. The The offset range may be set according to, for example, a predetermined range set in advance or the movement of the target part. For example, the movement of the target part is predicted from the shift amount of the corresponding area corresponding to the template in the frame image IC0 between the first coarse detection process and the second coarse detection process for the same component. obtain. For example, a mode in which a value obtained by multiplying the deviation amount by a predetermined value (for example, 3) is set as the width of the offset range is conceivable. The offset range is set for each part by dividing the contour ED1 of the part corresponding area PA1 into a plurality of parts, for example.

また、部分区分情報PV0では、肺野領域RT1に対応する領域であって未確定領域PR12以外の領域が対象確定領域PR11とされ、肺野領域RT1に対応しない領域であって未確定領域PR12以外の領域が非対象確定領域PR2とされる。図60には、右横隔膜に係る自己テンプレートTs1Rに対応する部分区分情報PV1R(PV0)が例示されている。   In the partial classification information PV0, a region corresponding to the lung field region RT1 and other than the undetermined region PR12 is set as the target confirmed region PR11, and a region not corresponding to the lung field region RT1 and other than the undetermined region PR12. Is defined as a non-target defined region PR2. FIG. 60 illustrates partial segment information PV1R (PV0) corresponding to the self template Ts1R related to the right diaphragm.

第M統合処理では、第M区分設定処理において各構成領域に対してそれぞれ設定された第M部分区分情報が統合される。例えば、第2統合処理では、第2区分設定処理において各構成領域に対してそれぞれ設定された第2部分区分情報が統合される。これにより、対象確定領域PR11および未確定領域PR12を含む対象候補領域PR1ならびに非対象確定領域PR2を示す第M領域区分情報ID1の設定が完了する。例えば、第2対象確定領域PR11bおよび第2未確定領域PR12bを含む対象候補領域PR1(第2対象候補領域PR1b)ならびに第2非対象確定領域PR2bを示す第2領域区分情報ID1bの設定が完了する。図61は、第2統合処理によって設定される第2対象候補領域PR1bおよび第2非対象確定領域PR2bを示す第2領域区分情報ID1bの一例を示す図である。ここで得られる第2領域区分情報ID1bは、精密検出部315に送られる。   In the Mth integration process, the Mth partial classification information set for each component area in the Mth classification setting process is integrated. For example, in the second integration process, the second partial classification information set for each component area in the second classification setting process is integrated. Thereby, the setting of the target candidate region PR1 including the target confirmed region PR11 and the undefined region PR12 and the Mth region segment information ID1 indicating the non-target determined region PR2 is completed. For example, the setting of the target region PR1b (second target candidate region PR1b) including the second target confirmed region PR11b and the second undefined region PR12b and the second region classification information ID1b indicating the second non-target determined region PR2b is completed. . FIG. 61 is a diagram illustrating an example of the second region segment information ID1b indicating the second target candidate region PR1b and the second non-target defined region PR2b set by the second integration process. The second area classification information ID1b obtained here is sent to the precision detection unit 315.

<(4−2−4−6)第3領域設定部3146>
第3領域設定部3146は、統計値分布算出部313で得られた統計値分布に基づき、対象部位の一部が捉えられている可能性がある未確定領域PR12(第3未確定領域PR12c)を検出する処理(未確定検出処理とも言う)を実行する。未確定検出処理では、例えば、統計値分布のうちの統計値が予め設定された条件を満たす領域が、第3未確定領域PR12cとして検出される態様が考えられる。より具体的には、例えば、統計値分布のうちの統計値と予め設定された閾値との大小関係が予め設定された条件を満たす領域が、第3未確定領域PR12cとして検出される態様が考えられる。これにより、動態画像で捉えられた構造物の時間的な変化に応じて未確定領域PR12が容易に広げられ得る。
<(4-2-4-6) Third Area Setting Unit 3146>
The third region setting unit 3146 is based on the statistical value distribution obtained by the statistical value distribution calculating unit 313, and the unconfirmed region PR12 (third unconfirmed region PR12c) in which a part of the target part may be captured. Is executed (also referred to as an indeterminate detection process). In the undetermined detection process, for example, a mode is conceivable in which a region in the statistic value distribution satisfying a preset condition is detected as the third undetermined region PR12c. More specifically, for example, a mode is considered in which a region in which a magnitude relationship between a statistical value in a statistical value distribution and a preset threshold value satisfies a preset condition is detected as the third undetermined region PR12c. It is done. Thereby, the undetermined region PR12 can be easily expanded according to the temporal change of the structure captured by the dynamic image.

図62は、第3未確定領域PR12cの具体例を示す図である。図62では、第3未確定領域PR12cが白抜きの領域で示されている。   FIG. 62 is a diagram showing a specific example of the third undetermined region PR12c. In FIG. 62, the third undetermined region PR12c is indicated by a white region.

また、第3領域設定部3146は、第M統合処理で生成された第M領域区分情報ID1の対象確定領域PR11および非対象確定領域PR2のうち、第3未確定領域PR12cと重なる部分を、未確定領域PR12に変更する処理(変更処理とも言う)を実行する。例えば、第2統合処理で生成された第2領域区分情報ID1bの第2対象確定領域PR11bおよび第2非対象確定領域PR2bのうち、第3未確定領域PR12cと重なる部分が、未確定領域PR12に変更される。図63は、第2領域区分情報ID1bに変更処理が施されることで生成される第2領域区分情報ID1bcを示す図である。図61から図63で示されるように、第2未確定領域PR12bが、該第2未確定領域PR12bと第3未確定領域PR12cとを含む未確定領域PR12bcに広げられる。また、第2対象確定領域PR11bが、該第2対象確定領域PR11bのうちの第3未確定領域PR12cと重複する部分が除かれた第3対象確定領域PR11bcに変更される。また、第2非対象確定領域PR2bが、該第2非対象確定領域PR2bのうちの第3未確定領域PR12cと重複する部分が除かれた第3非対象確定領域PR2bcに変更される。   In addition, the third region setting unit 3146 removes a portion that overlaps the third unconfirmed region PR12c among the target confirmed region PR11 and the non-target confirmed region PR2 of the Mth region classification information ID1 generated by the Mth integration process. A process of changing to the fixed region PR12 (also referred to as a change process) is executed. For example, a portion of the second target determined area PR11b and the second non-target determined area PR2b of the second area classification information ID1b generated by the second integration process overlaps with the third undefined area PR12c in the undefined area PR12. Be changed. FIG. 63 is a diagram illustrating the second region partition information ID1bc generated by performing the change process on the second region partition information ID1b. As shown in FIGS. 61 to 63, the second undefined region PR12b is expanded to an undefined region PR12bc including the second undefined region PR12b and the third undefined region PR12c. Further, the second target confirmed region PR11b is changed to the third target confirmed region PR11bc from which the portion overlapping the third undefined region PR12c in the second target confirmed region PR11b is removed. Further, the second non-target defined region PR2b is changed to the third non-target defined region PR2bc from which the portion overlapping the third undefined region PR12c in the second non-target defined region PR2b is removed.

<(4−2−5)精密検出部>
精密検出部315は、粗検出部314で設定された対象確定領域PR11および未確定領域PR12の情報に基づいて、フレーム画像IC0のうちの、対象部位の内部から輪郭に至る対象領域を検出する精密検出処理を行う。例えば、第1フレーム画像IC1を対象とした粗検出処理で得られた第1対象確定領域PR11aおよび第1未確定領域PR12aの情報に基づき、第1フレーム画像IC1のうちの対象部分の内部から輪郭に至る第1対象領域が検出される。また、第2フレーム画像IC2を対象とした粗検出処理で得られた第2対象確定領域PR11bおよび未確定領域PR12bcの情報に基づき、第2フレーム画像IC2のうちの対象部位に係る対象領域(第2対象領域とも言う)が検出される。未確定領域PR12bcは、第2未確定領域PR12bと第3未確定領域PR12cとを含む未確定領域である。本実施形態の精密検出部315では、未確定領域PR12について、対象領域としての肺野領域の内部であるのか、外部であるのかが決定される。
<(4-2-5) Precision detection unit>
The precision detection unit 315 detects the target region from the inside of the target part to the contour in the frame image IC0 based on the information of the target determination region PR11 and the undetermined region PR12 set by the rough detection unit 314. Perform detection processing. For example, based on the information of the first target confirmed region PR11a and the first unconfirmed region PR12a obtained by the rough detection process for the first frame image IC1, the contour from the inside of the target portion of the first frame image IC1 The first target region that reaches is detected. In addition, based on the information on the second target confirmed region PR11b and the undetermined region PR12bc obtained by the rough detection process on the second frame image IC2, the target region (the first region) related to the target portion in the second frame image IC2 2 target region) is detected. The undetermined region PR12bc is an undetermined region including the second undetermined region PR12b and the third undetermined region PR12c. The precise detection unit 315 of the present embodiment determines whether the undetermined region PR12 is inside or outside the lung field region as the target region.

図64は、画像補正部312から精密検出部315に入力されるフレーム画像IC0の一例を示す図である。図65は、精密検出部315において、フレーム画像IC0から検出される対象領域としての肺野領域RT1の一例を示す図である。精密検出処理では、粗検出処理の結果としての領域区分情報ID1(図54、図63参照)に基づき、画像補正部312から入力されるフレーム画像IC0(図64参照)が対象とされて、対象領域としての肺野領域RT1(図65参照)が検出される。   FIG. 64 is a diagram illustrating an example of the frame image IC0 input from the image correction unit 312 to the precision detection unit 315. FIG. 65 is a diagram illustrating an example of a lung field region RT1 as a target region detected from the frame image IC0 in the precision detection unit 315. In the precision detection process, the frame image IC0 (see FIG. 64) input from the image correction unit 312 is targeted based on the area classification information ID1 (see FIGS. 54 and 63) as a result of the rough detection process. A lung field region RT1 (see FIG. 65) as a region is detected.

精密検出処理では、対象部位の形状に依存しない検出手法によって対象領域としての肺野領域RT1が検出される。検出手法としては、例えば、レベルセット(Level set)およびスネーク(Snake)等のエッジの情報を利用する手法、領域拡張法(Region growing)等の領域の情報を利用する手法、グラフカット(Graph Cut)等のエッジと領域の情報を利用する手法等が挙げられる。   In the precise detection process, the lung field region RT1 as the target region is detected by a detection method that does not depend on the shape of the target part. Examples of detection methods include methods that use edge information such as level set and snake, methods that use region information such as region growing, and graph cuts (Graph Cut). ) And the like using edge and area information.

スネーク(Snake)の処理では、例えば、検出したい領域を囲むように閉曲線の初期値が定義され、繰り返し計算によって該閉曲線が下記条件[i]〜[iii]を満たすように変形されていき、閉曲線の形状が変化しなくなったところで、閉曲線の変形が終了される。この処理により、対象領域としての肺野領域RT1の輪郭ED1が検出される。スネーク(Snake)の処理内容については、例えば、公知の種々の情報(蚊野浩"第11章「領域処理」"京都産業大学 コンピュータ理工学部 ネットワークメディア学科「春学期・火曜日・3時限」資料[平成25年11月18日検索]、インターネット〈www.cc.kyoto-su.ac.jp/~kano/pdf/course/chapter11.pdf〉、および代表者:矢島信彦"処理事例|sliceOmatic「面積/ 体積計測のためのエリア定義処理事例」イメージラボ社ホームページ[平成25年11月18日検索]、インターネット〈URL:http://www.imagelabo.com/Appli_sliceO.html〉等)に開示されている。   In the Snake process, for example, an initial value of a closed curve is defined so as to surround a region to be detected, and the closed curve is deformed so as to satisfy the following conditions [i] to [iii] by repeated calculation. When the shape no longer changes, the deformation of the closed curve is terminated. By this processing, the contour ED1 of the lung field region RT1 as the target region is detected. Regarding the processing contents of Snake, for example, various known information (Hiroshi Mosquito “Chapter 11“ Regional Processing ””, Kyoto Sangyo University Faculty of Computer Science and Engineering, Department of Network Media “Spring Semester / Tuesday / Three Times” Search on November 18, 2013], Internet <www.cc.kyoto-su.ac.jp/~kano/pdf/course/chapter11.pdf>, and representative: Nobuhiko Yajima "Processing example | sliceOmatic" area / volume Examples of area definition processing for measurement ”disclosed on Image Laboratories website [searched on November 18, 2013], Internet <URL: http://www.imagelabo.com/Appli_sliceO.html>, etc.)

[i]閉曲線自身の形は、連続でなめらかになろうとする。   [I] The shape of the closed curve itself tends to be continuous and smooth.

[ii]閉曲線がエッジの上にあると、そこにとどまろうとする。   [Ii] If the closed curve is on an edge, it tries to stay there.

[iii]閉曲線は小さくなろうとする。   [Iii] The closed curve tends to be small.

ここで、レベルセット(Level set)およびスネーク(Snake)等のエッジの情報を利用する手法では、領域区分情報ID1のうち、対象確定領域PR11と未確定領域PR12の情報があれば、対象領域の輪郭が検出され得る。この場合、粗検出部314では、フレーム画像IC0のうち、対象確定領域PR11および未確定領域PR12を含む対象候補領域PR1が設定されれば良い。   Here, in the method using edge information such as level set and snake, if there is information on the target defined region PR11 and the undefined region PR12 in the region classification information ID1, the target region A contour can be detected. In this case, the rough detection unit 314 may set the target candidate region PR1 including the target confirmed region PR11 and the undetermined region PR12 in the frame image IC0.

また、領域拡張法(Region growing)の処理では、例えば、まず、画素値に関する条件を満足する画素が手動で決定され、1つのラベルが付されて種子点(seed point)とされる。そして、種子点の近傍の点で、画素値に関する条件を満足する画素に同一のラベルが付される処理が繰り返されることで、領域が拡張される。このような処理に沿って、対象確定領域PR11が種子点とされて、未確定領域PR12において領域が拡張されれば、対象領域としての肺野領域RT1が検出され得る。   In the region growing process, for example, first, a pixel that satisfies a condition relating to a pixel value is manually determined, and a single label is attached to the seed point. And the area | region is expanded by repeating the process in which the same label is attached | subjected to the pixel which satisfy | fills the conditions regarding a pixel value in the point of the seed point vicinity. In accordance with such processing, if the target confirmed region PR11 is used as a seed point and the region is expanded in the undetermined region PR12, the lung field region RT1 as the target region can be detected.

また、グラフカット(Graph Cut)の処理については、例えば、公知の情報(石川博"グラフカットの理論と応用"第14回画像センシングシンポジウムSS1108、[平成25年11月18日検索]、インターネット〈URL:http://www.f.waseda.jp/hfs/SSIITutorial.pdf〉等)に開示されている。   Regarding graph cut processing, for example, publicly known information (Hiroshi Ishikawa “Theory and Application of Graph Cut”, 14th Image Sensing Symposium SS1108, [retrieved on November 18, 2013], Internet < URL: http://www.f.waseda.jp/hfs/SSIITutorial.pdf>).

なお、精密検出部315で検出された結果を示す情報Rt2は、精密検出部315から対象領域抽出部316に送出される。   Information Rt2 indicating the result detected by the precision detection unit 315 is sent from the precision detection unit 315 to the target region extraction unit 316.

<(4−2−6)対象領域抽出部>
対象領域抽出部316は、精密検出部315における精密検出処理によって検出された対象領域に基づき、各フレーム画像I0から対象領域としての肺野領域の画像を抽出する。なお、ここでは、各フレーム画像I0の代わりに各フレーム画像IC0から対象領域としての肺野領域の画像が抽出されても良い。
<(4-2-6) Target area extraction unit>
The target region extraction unit 316 extracts an image of a lung field region as a target region from each frame image I0 based on the target region detected by the precision detection process in the precision detection unit 315. Here, an image of a lung field region as a target region may be extracted from each frame image IC0 instead of each frame image I0.

<(5)一実施形態のまとめ>
以上のように、本実施形態に係る画像処理装置3では、例えば、第1フレーム画像IC1を対象としたテンプレートマッチングにおいて第1フレーム画像IC1のうちのテンプレートと対応する対応領域に係る部分画像が自己テンプレートとされる。そして、第2フレーム画像IC2を対象とする該自己テンプレートを用いたテンプレートマッチングの検出結果に応じた第2未確定領域PR12bが、統計値分布に応じて拡張されることで、未確定領域PR12bcが得られる。これにより、大きな動きが生じている体内の部分について、対象部位の位置が誤って検出される不具合の発生が低減される。その結果、体内の構造物の動きを捉えた医療用の動態画像から対象部位を捉えた領域が精度良く抽出され得る。
<(5) Summary of one embodiment>
As described above, in the image processing device 3 according to the present embodiment, for example, in template matching for the first frame image IC1, the partial image related to the corresponding region corresponding to the template in the first frame image IC1 is self- A template. Then, the second undetermined region PR12b corresponding to the detection result of template matching using the self template for the second frame image IC2 is expanded according to the statistical value distribution, so that the undetermined region PR12bc is changed. can get. As a result, the occurrence of a problem in which the position of the target part is erroneously detected for a part in the body where a large movement is occurring is reduced. As a result, it is possible to accurately extract a region that captures the target region from a medical dynamic image that captures the movement of the structure inside the body.

<(6)変形例>
なお、本発明は上述の一実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更、改良等が可能である。
<(6) Modification>
Note that the present invention is not limited to the above-described embodiment, and various modifications and improvements can be made without departing from the gist of the present invention.

例えば、上記一実施形態では、複数のフレーム画像IC0または複数のエッジ強調フレーム画像Ee0について、画像領域Rv0毎の画素値に係る特徴値または画素Pm0毎の画素値に関する時間方向の統計値の2次元分布が統計値分布として算出された。しかしながら、これに限られない。例えば、複数のフレーム画像IC0および複数のエッジ強調フレーム画像Ee0の少なくとも一方について、画像領域Rv0毎の特徴値および画素Pm0毎の画素値の少なくとも一方の値に関する時間方向の統計値の2次元分布が統計値分布として算出されても良い。   For example, in the above-described embodiment, for the plurality of frame images IC0 or the plurality of edge-enhanced frame images Ee0, the two-dimensional statistical values in the time direction relating to the feature values related to the pixel values for each image region Rv0 or the pixel values for each pixel Pm0 The distribution was calculated as a statistical value distribution. However, it is not limited to this. For example, for at least one of the plurality of frame images IC0 and the plurality of edge-enhanced frame images Ee0, there is a two-dimensional distribution of statistical values in the time direction regarding at least one of the feature value for each image region Rv0 and the pixel value for each pixel Pm0. It may be calculated as a statistical value distribution.

また、上記一実施形態では、各フレーム画像に対して、一種類の時間方向の統計値が算出されることで、時間方向の統計値の2次元分布が算出されたが、これに限られない。例えば、画素Pm0毎および画像領域Rv0毎の少なくとも一方に対し、時間方向に係る第1統計値および第2統計値が算出され、該第1統計値と該第2統計値との組合せによって、空間方向における統計値の2次元分布が算出されても良い。ここでは、例えば、画像領域Rv0毎の画素値に係る特徴値および画素Pm0毎の画素値の少なくとも一方の値に関する、時間方向の第1統計値および第2統計値がそれぞれ算出されれば良い。また、第1統計値と第2統計値との組合せは、例えば、予め設定されたルールに従って、第1係数を各第1統計値に乗じて得られる第3統計値に係る2次元分布と、第2係数を各第2統計値に乗じて得られる第4統計値に係る2次元分布との重畳による組合せであれば良い。これにより、時間方向の複数種類の統計値の組合せによって、動態画像で捉えられた構造物の時間的な変化が良く反映された統計値の2次元分布が容易に算出され得る。   In the above-described embodiment, a two-dimensional distribution of statistical values in the time direction is calculated by calculating one type of statistical value in the time direction for each frame image. However, the present invention is not limited to this. . For example, the first statistical value and the second statistical value in the time direction are calculated for at least one of each pixel Pm0 and each image region Rv0, and a combination of the first statistical value and the second statistical value is used to calculate a space. A two-dimensional distribution of statistical values in the direction may be calculated. Here, for example, the first statistical value and the second statistical value in the time direction relating to at least one of the feature value related to the pixel value for each image region Rv0 and the pixel value for each pixel Pm0 may be calculated. The combination of the first statistical value and the second statistical value is, for example, a two-dimensional distribution related to the third statistical value obtained by multiplying each first statistical value by the first coefficient according to a preset rule, Any combination by superimposing with a two-dimensional distribution related to the fourth statistical value obtained by multiplying each second statistical value by the second coefficient may be used. Accordingly, a two-dimensional distribution of statistical values that well reflects temporal changes of the structure captured in the dynamic image can be easily calculated by combining a plurality of types of statistical values in the time direction.

ここで、係数は、統計値の優先順位に応じた重み付けを示す値(重み付け係数とも言う)であれば良い。例えば、第1統計値に乗じられる第1係数と、第2統計値に乗じられる第2係数との和が、1となるように、第1係数と第2係数とが設定されれば良い。そして、例えば、第1統計値の方が第2統計値よりも優先順位が高い場合に、第1係数が、比較的大きな値(例えば、0.7以上で且つ1.0以下等)に設定され、第2係数が、比較的小さな値(例えば、0以上且つ0.3以下等)に設定される態様が考えられる。   Here, the coefficient may be a value (also referred to as a weighting coefficient) indicating weighting according to the priority order of statistical values. For example, the first coefficient and the second coefficient may be set so that the sum of the first coefficient multiplied by the first statistical value and the second coefficient multiplied by the second statistical value is 1. For example, when the first statistical value has a higher priority than the second statistical value, the first coefficient is set to a relatively large value (for example, 0.7 or more and 1.0 or less, etc.). Thus, a mode in which the second coefficient is set to a relatively small value (for example, not less than 0 and not more than 0.3) can be considered.

なお、ここでは、第3統計値に係る2次元分布と第4統計値に係る2次元分布との組み合わせ時に、各画素または各画像領域について第3統計値と第4統計値との和が求められることで、統計値の2次元分布が算出されたが、これに限られない。例えば、各フレーム画像における予め設定された複数の領域に対し、第1統計値または第2統計値の何れか一方が採用されることで、統計値の2次元分布が算出されても良い。つまり、各フレーム画像における予め設定された複数の領域に対して、時間方向の統計値の生成方法が異なっていても良い。   Here, when the two-dimensional distribution related to the third statistical value and the two-dimensional distribution related to the fourth statistical value are combined, the sum of the third statistical value and the fourth statistical value is obtained for each pixel or each image region. As a result, the two-dimensional distribution of statistical values is calculated, but the present invention is not limited to this. For example, the two-dimensional distribution of statistical values may be calculated by adopting either the first statistical value or the second statistical value for a plurality of preset regions in each frame image. That is, the method of generating the statistical value in the time direction may be different for a plurality of preset regions in each frame image.

また、上記一実施形態では、時間方向の統計値は、画像領域毎の画素値に係る特徴値または画素毎の画素値に関する、時間方向の散布度を示す数値あるいは代表値であったが、これに限られない。時間方向の統計値は、例えば、画像領域毎の画素値に係る特徴値および画素毎の画素値の少なくとも一方に関する、時間方向の散布度を示す数値および代表値の少なくとも一方に係る数値であれば良い。例えば、各フレーム画像における予め設定された複数の領域に対して、時間方向の統計値の種類が異なっていても良い。   In the above embodiment, the statistical value in the time direction is a numerical value or a representative value indicating the degree of dispersion in the time direction regarding the feature value related to the pixel value for each image region or the pixel value for each pixel. Not limited to. If the statistical value in the time direction is, for example, a numerical value indicating at least one of the characteristic value related to the pixel value for each image region and the pixel value for each pixel, the numerical value indicating the degree of scattering in the time direction and the representative value good. For example, the types of statistical values in the time direction may be different for a plurality of preset regions in each frame image.

また、上記一実施形態では、画像領域毎の画素値に係る特徴値としての散布度、および時間方向の散布度を示す数値が、分散、標準偏差および変動係数の何れか1つの数値である例を示して説明したが、これに限られない。例えば、画像領域毎の画素値に係る特徴値としての散布度、および時間方向の散布度を示す数値は、分散、標準偏差および変動係数の少なくとも1つを含んでいれば良い。   Further, in the above embodiment, an example in which the numerical value indicating the distribution degree as the feature value related to the pixel value for each image region and the distribution degree in the time direction is one of dispersion, standard deviation, and variation coefficient. However, the present invention is not limited to this. For example, the numerical value indicating the scatter degree as the feature value related to the pixel value for each image region and the scatter degree in the time direction may include at least one of variance, standard deviation, and variation coefficient.

また、上記一実施形態では、X線撮影によって体内の構造物が捉えられた動態画像が得られたが、これに限られない。例えば、CT、MRIおよび超音波等を用いたその他の手法によって体内の構造物が捉えられた動態画像が得られても良い。   Moreover, in the said one Embodiment, although the dynamic image in which the structure in the body was caught by X-ray imaging was obtained, it is not restricted to this. For example, a dynamic image in which a structure in the body is captured may be obtained by other methods using CT, MRI, ultrasound, and the like.

また、上記一実施形態では、対象部位が周期的な動きを呈する肺野であったが、これに限られない。例えば、対象部位は各種関節等、体内において変位を生じるその他の部位であっても良い。   Moreover, in the said one Embodiment, although the object site | part was the lung field which exhibits a periodic motion, it is not restricted to this. For example, the target site may be other sites that cause displacement in the body, such as various joints.

また、上記一実施形態では、第1フレーム画像IC1を対象とした精密検出処理によって検出された第1対象領域を含む部分画像を自己テンプレートとして、第1フレーム画像IC1の次の第2フレーム画像IC2を対象とした第2対象領域の粗検出処理が行われた。しかしながら、これに限られない。例えば、動態画像を構成する複数のフレーム画像において、第1フレーム画像が第2フレーム画像の次のフレーム画像であっても良い。つまり、第1フレーム画像IC1を対象とした精密検出処理によって検出された第1対象領域を含む部分画像を自己テンプレートとして、第1フレーム画像IC1の前の第2フレーム画像IC2を対象とした第2対象領域の粗検出処理が行われても良い。換言すれば、第(M+1)フレーム画像IC(M+1)を対象とした精密検出処理で検出された対象領域を含む部分画像を自己テンプレートとして、第(M+1)フレーム画像IC(M+1)の前の第Mフレーム画像ICMを対象とした粗検出処理が行われても良い。   Further, in the above-described embodiment, the second frame image IC2 next to the first frame image IC1 with the partial image including the first target region detected by the precision detection processing for the first frame image IC1 as a self template. A rough detection process of the second target region was performed. However, it is not limited to this. For example, in a plurality of frame images constituting the dynamic image, the first frame image may be a frame image next to the second frame image. That is, the second image targeting the second frame image IC2 before the first frame image IC1 with the partial image including the first target region detected by the precision detection process targeting the first frame image IC1 as a self template. A rough detection process of the target area may be performed. In other words, the partial image including the target area detected by the precision detection process for the (M + 1) th frame image IC (M + 1) is used as a self-template, and the first image before the (M + 1) th frame image IC (M + 1). A rough detection process may be performed on the M frame image ICM.

また、上記一実施形態では、粗検出部314において統計値分布がそのまま利用されたが、これに限られない。例えば、粗検出部314で利用される前に、統計値分布が、予め設定された閾値を基準として、2値化されても良い。また、例えば、各画素に関し、濃淡値の頻度を示すヒストグラムにおいて、最頻値を基準とする予め設定された幅の値域における頻度の占有度に係る数値が、予め設定された閾値を基準として、2値化されることで、統計値分布が算出されても良い。また、例えば、粗検出部314で利用される前に、統計値分布において統計値が予め設定された条件を満たす領域であって、予め設定された塊を形成している領域を、動きが大きな部分に対応する領域とする処理(ラベリング処理)が行われても良い。   In the above-described embodiment, the statistical value distribution is used as it is in the coarse detection unit 314. However, the present invention is not limited to this. For example, the statistical value distribution may be binarized with reference to a preset threshold value before being used by the coarse detection unit 314. Further, for example, for each pixel, in the histogram indicating the frequency of the gray value, the numerical value relating to the frequency occupancy in the range of the preset width based on the mode value is based on the preset threshold. A statistical value distribution may be calculated by binarization. Further, for example, before being used in the coarse detection unit 314, a region in which a statistical value satisfies a preset condition in a statistical value distribution, and a region that forms a preset lump has a large movement. A process (labeling process) for making an area corresponding to the part may be performed.

図66および図67は、統計値分布が、予め設定された閾値を基準として2値化される様子を示す図である。図66には、2値化が施される前の統計値分布Ds3の一例が示されており、図67には、統計値分布Ds3に対して2値化が施された後の統計値分布Ds4の一例が示されている。また、図68には、統計値分布Ds3に対して、ラベリング処理が施された後の統計値分布Ds5の一例が示されている。   66 and 67 are diagrams illustrating how the statistical value distribution is binarized using a preset threshold as a reference. FIG. 66 shows an example of the statistical value distribution Ds3 before binarization, and FIG. 67 shows the statistical value distribution after binarization of the statistical value distribution Ds3. An example of Ds4 is shown. FIG. 68 shows an example of the statistical value distribution Ds5 after the statistical value distribution Ds3 is subjected to the labeling process.

また、上記一実施形態では、第M統合処理で生成された第M領域区分情報ID1の対象確定領域PR11および非対象確定領域PR2のうち、第3未確定領域PR12cと重なる部分が、未確定領域PR12に変更されたが、これに限られない。つまり、例えば、第2未確定領域PR12bが、該第2未確定領域PR12bと第3未確定領域PR12cとを含む未確定領域PR12bcに広げられたが、これに限られない。例えば、統計値分布から得られる第3未確定領域PR12cが先に設定され、その後に、該第3未確定領域PR12cが、該第3未確定領域PR12cと第M統合処理で生成された未確定領域PR12とを含む未確定領域PR12bcに広げられても良い。例えば、統計値分布から得られる第3未確定領域PR12cが先に設定され、その後に、該第3未確定領域PR12cが、該第3未確定領域PR12cと第2未確定領域PR12bとを含む未確定領域PR12bcに広げられても良い。   Further, in the above-described embodiment, a portion of the target determined area PR11 and the non-target determined area PR2 of the Mth area segment information ID1 generated by the Mth integration process is overlapped with the third undefined area PR12c. Although changed to PR12, it is not limited to this. That is, for example, the second undetermined region PR12b is expanded to the undetermined region PR12bc including the second undetermined region PR12b and the third undetermined region PR12c, but is not limited thereto. For example, the third unconfirmed region PR12c obtained from the statistical value distribution is set first, and then the third unconfirmed region PR12c is unconfirmed generated by the third unconfirmed region PR12c and the M-th integration process. The region may be expanded to an undetermined region PR12bc including the region PR12. For example, the third unconfirmed region PR12c obtained from the statistical value distribution is set first, and then the third unconfirmed region PR12c includes the third unconfirmed region PR12c and the second unconfirmed region PR12b. It may be expanded to the fixed region PR12bc.

また、上記一実施形態では、動態画像を構成するフレーム画像IC0の数が、便宜的に10であるものとして説明したが、これに限られない。動態画像を構成するフレーム画像IC0の数は、複数であれば良く、適宜設定され得る。   In the above-described embodiment, the number of frame images IC0 constituting the dynamic image has been described as 10 for convenience, but the present invention is not limited to this. The number of frame images IC0 constituting the dynamic image may be plural and may be set as appropriate.

なお、上記一実施形態および各種変形例をそれぞれ構成する全部または一部を、適宜、矛盾しない範囲で組み合わせ可能であることは、言うまでもない。   Needless to say, all or a part of each of the above-described embodiment and various modifications can be combined as appropriate within a consistent range.

1 撮影装置
2 撮影制御装置
3 画像処理装置
31 制御部
31a プロセッサー
31b メモリー
32 記憶部
100 撮影システム
311 画像取得部
312 画像補正部
313 統計値分布算出部
314 粗検出部
315 精密検出部
316 対象領域抽出部
Ds1〜Ds5 統計値分布
Ee0,Ee1,Ee2 エッジ強調フレーム画像
IC0 フレーム画像
IC1〜IC10,ICM 第1〜10,Mフレーム画像
PR11 対象確定領域
PR11a,PR11b 第1,2対象確定領域
PR12,PR12bc 未確定領域
PR12a〜PR12c 第1〜3未確定領域
PR2 非対象確定領域
PR2a,PR2b 第1,2非対象確定領域
Ts1L,Ts1R,Ts2L,Ts2R 部分画像(自己テンプレート)
DESCRIPTION OF SYMBOLS 1 Shooting device 2 Shooting control device 3 Image processing device 31 Control unit 31a Processor 31b Memory 32 Storage unit 100 Shooting system 311 Image acquisition unit 312 Image correction unit 313 Statistical value distribution calculation unit 314 Rough detection unit 315 Precision detection unit 316 Target region extraction Part Ds1 to Ds5 Statistical value distribution Ee0, Ee1, Ee2 Edge-enhanced frame image IC0 Frame image IC1 to IC10, ICM 1st to 10th, M frame image PR11 Target defined area PR11a, PR11b First and second target defined areas PR12, PR12bc Not yet Determined areas PR12a to PR12c First to third undefined areas PR2 Non-target defined areas PR2a, PR2b First and second non-target defined areas Ts1L, Ts1R, Ts2L, Ts2R Partial images (self-template)

Claims (12)

X線の照射によって体内の構造物が捉えられた医療用の動態画像を取得する取得部と、
前記動態画像を構成する複数のフレーム画像における前記構造物に係るエッジがそれぞれ強調された複数のエッジ強調フレーム画像および前記複数のフレーム画像の少なくとも一方に対し、複数の画素を含む画像領域毎の画素値の特徴を示す特徴値および画素毎の画素値の少なくとも一方の値に関する時間方向の統計値の2次元分布を算出する算出部と、
前記複数のフレーム画像のうちの第1フレーム画像について、テンプレートマッチングを用いて、対象部位の少なくとも一部が捉えられている第1対象確定領域と、該対象部位の一部が捉えられている可能性がある第1未確定領域とを検出する第1検出部と、
前記第1対象確定領域および前記第1未確定領域の情報に基づき、前記第1フレーム画像のうちの前記対象部位の内部から輪郭に至る第1対象領域を検出する第2検出部と、
を備え、
前記第1検出部が、
前記複数のフレーム画像のうちの前記第1フレーム画像とは異なる第2フレーム画像について、前記第1フレーム画像を対象とした前記テンプレートマッチングにおいて前記第1フレーム画像のうちのテンプレートと対応する対応領域に係る部分画像をテンプレートとするテンプレートマッチングを用いて、前記対象部位の少なくとも一部が捉えられている第2対象確定領域、および前記対象部位の一部が捉えられている可能性がある第2未確定領域を検出する処理と、前記統計値の2次元分布に基づき、前記対象部位の一部が捉えられている可能性がある第3未確定領域を検出する処理と、を実行し、
前記第2検出部が、
前記第2対象確定領域、前記第2未確定領域と前記第3未確定領域とを含む未確定領域の情報に基づき、前記第2フレーム画像のうちの前記対象部位の内部から輪郭に至る第2対象領域を検出する画像処理装置。
An acquisition unit for acquiring a dynamic image for medical use in which a structure inside the body is captured by X-ray irradiation;
Pixels for each image region including a plurality of pixels with respect to at least one of the plurality of edge-enhanced frame images and the plurality of frame images in which edges related to the structure in the plurality of frame images constituting the dynamic image are respectively enhanced A calculation unit that calculates a two-dimensional distribution of statistical values in the time direction related to at least one of a feature value indicating a feature of the value and a pixel value for each pixel;
With respect to the first frame image of the plurality of frame images, the template matching may be used to capture a first target determination region in which at least a part of the target part is captured and a part of the target part. A first detector for detecting a first undetermined region having
A second detection unit that detects a first target region from the inside of the target portion of the first frame image to an outline based on information on the first target fixed region and the first undefined region;
With
The first detection unit is
For a second frame image different from the first frame image among the plurality of frame images, in a corresponding region corresponding to the template of the first frame image in the template matching for the first frame image. Using template matching using such a partial image as a template, a second target determination region in which at least a part of the target part is captured, and a second unsuccessful part in which a part of the target part may be captured Performing a process of detecting a definite region and a process of detecting a third undetermined region in which a part of the target part may be captured based on the two-dimensional distribution of the statistical values,
The second detection unit is
Second from the inside of the target part of the second frame image to the contour based on the information on the second target fixed region, the second undefined region including the second undefined region and the third undefined region. An image processing apparatus for detecting a target area.
請求項1に記載の画像処理装置であって、
前記時間方向の統計値が、
時間方向の散布度を含む画像処理装置。
The image processing apparatus according to claim 1,
The statistical value in the time direction is
An image processing device including the degree of dispersion in the time direction.
請求項2に記載の画像処理装置であって、
前記散布度が、
分散、標準偏差および変動係数の少なくとも1つを含む画像処理装置。
The image processing apparatus according to claim 2,
The spreading degree is
An image processing apparatus including at least one of variance, standard deviation, and coefficient of variation.
請求項1に記載の画像処理装置であって、
前記時間方向の統計値が、
時間方向の代表値を含む画像処理装置。
The image processing apparatus according to claim 1,
The statistical value in the time direction is
An image processing apparatus including a representative value in the time direction.
請求項4に記載の画像処理装置であって、
前記代表値が、
最大値と最小値との差に係る値を含む画像処理装置。
The image processing apparatus according to claim 4,
The representative value is
An image processing apparatus including a value related to a difference between a maximum value and a minimum value.
請求項4または請求項5に記載の画像処理装置であって、
前記代表値が、
前記画像領域毎の前記特徴値および前記画素毎の画素値の少なくとも一方の値について、最頻値を基準とする予め設定された幅の値域における頻度の占有度に係る値を含む画像処理装置。
The image processing apparatus according to claim 4 or 5, wherein
The representative value is
An image processing apparatus including a value related to a frequency occupancy in a value range of a preset width with respect to a mode value, regarding at least one of the feature value for each image region and the pixel value for each pixel.
請求項1から請求項6の何れか1つの請求項に記載の画像処理装置であって、
前記特徴値が、
画素値の平均値、中央値、最頻値、最大値および最小値の少なくとも1つの代表値を含む画像処理装置。
The image processing apparatus according to any one of claims 1 to 6, wherein
The feature value is
An image processing apparatus including at least one representative value of an average value, a median value, a mode value, a maximum value, and a minimum value of pixel values.
請求項1から請求項7の何れか1つの請求項に記載の画像処理装置であって、
前記算出部が、
前記複数のエッジ強調フレーム画像および前記複数のフレーム画像の少なくとも一方について、前記画像領域毎の前記特徴値および前記画素毎の画素値の少なくとも一方の値に関する、時間方向の第1統計値および第2統計値をそれぞれ算出し、予め設定されたルールに従った係数を各前記第1統計値に乗じて得られる第3統計値に係る2次元分布と、前記ルールに従った係数を各前記第2統計値に乗じて得られる第4統計値に係る2次元分布との組合せによって、前記統計値の2次元分布を算出する画像処理装置。
The image processing apparatus according to any one of claims 1 to 7, wherein
The calculation unit
For at least one of the plurality of edge-enhanced frame images and the plurality of frame images, a first statistical value in the time direction and a second value regarding at least one of the feature value for each image region and the pixel value for each pixel A statistical value is calculated, and a two-dimensional distribution relating to a third statistical value obtained by multiplying each first statistical value by a coefficient according to a preset rule; An image processing apparatus that calculates a two-dimensional distribution of the statistical values by a combination with a two-dimensional distribution related to a fourth statistical value obtained by multiplying the statistical values.
請求項1から請求項8の何れか1つの請求項に記載の画像処理装置であって、
前記第1検出部が、
前記第1および第2フレーム画像について、前記対象部位が捉えられていない非対象確定領域をそれぞれ検出する画像処理装置。
The image processing apparatus according to any one of claims 1 to 8, wherein
The first detection unit is
An image processing apparatus that detects a non-target fixed region in which the target part is not captured for each of the first and second frame images.
請求項1から請求項9の何れか1つの請求項に記載の画像処理装置であって、
前記第1検出部が、
前記統計値の2次元分布のうちの予め設定された条件を満たす領域を、前記第3未確定領域として検出する画像処理装置。
An image processing apparatus according to any one of claims 1 to 9, wherein
The first detection unit is
An image processing apparatus that detects a region satisfying a preset condition in the two-dimensional distribution of the statistical values as the third undetermined region.
請求項10に記載の画像処理装置であって、
前記第1検出部が、
前記統計値の2次元分布のうちの前記統計値と予め設定された閾値との大小関係が予め設定された条件を満たす領域を、前記第3未確定領域として検出する画像処理装置。
The image processing apparatus according to claim 10,
The first detection unit is
An image processing apparatus that detects, as the third unconfirmed region, an area in which a magnitude relationship between the statistical value and a preset threshold value in the two-dimensional distribution of the statistical value satisfies a preset condition.
情報処理装置に含まれる制御部において実行されることにより、前記情報処理装置を、請求項1から請求項11の何れか1つの請求項に記載の画像処理装置として機能させるプログラム。   A program for causing the information processing apparatus to function as the image processing apparatus according to any one of claims 1 to 11 when executed by a control unit included in the information processing apparatus.
JP2014005204A 2014-01-15 2014-01-15 Image processing device and program Pending JP2015131057A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014005204A JP2015131057A (en) 2014-01-15 2014-01-15 Image processing device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014005204A JP2015131057A (en) 2014-01-15 2014-01-15 Image processing device and program

Publications (1)

Publication Number Publication Date
JP2015131057A true JP2015131057A (en) 2015-07-23

Family

ID=53898812

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014005204A Pending JP2015131057A (en) 2014-01-15 2014-01-15 Image processing device and program

Country Status (1)

Country Link
JP (1) JP2015131057A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170017614A (en) * 2015-08-07 2017-02-15 원광대학교산학협력단 Method and apparatus for computing diagnosis of sickness based on ct or mri image
CN114526682A (en) * 2022-01-13 2022-05-24 华南理工大学 Deformation measurement method based on image feature enhanced digital volume image correlation method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170017614A (en) * 2015-08-07 2017-02-15 원광대학교산학협력단 Method and apparatus for computing diagnosis of sickness based on ct or mri image
KR101716039B1 (en) * 2015-08-07 2017-03-13 원광대학교산학협력단 Method and apparatus for computing diagnosis of sickness based on ct or mri image
CN114526682A (en) * 2022-01-13 2022-05-24 华南理工大学 Deformation measurement method based on image feature enhanced digital volume image correlation method
CN114526682B (en) * 2022-01-13 2023-03-21 华南理工大学 Deformation measurement method based on image feature enhanced digital volume image correlation method

Similar Documents

Publication Publication Date Title
JP6221770B2 (en) Image processing apparatus and program
JP6350522B2 (en) Image processing apparatus and program
JP5643304B2 (en) Computer-aided lung nodule detection system and method and chest image segmentation system and method in chest tomosynthesis imaging
JP6564018B2 (en) Radiation image lung segmentation technology and bone attenuation technology
JP2021504061A (en) 3D Medical Imaging Methods and Systems for Identifying Spine Fractures
JP2015154918A (en) Apparatus and method for lesion detection
KR20190046471A (en) Method for processing of medical image and medical image processing apparatus thereof
JP5510619B1 (en) Image processing device
JP2016002251A (en) Image processing apparatus, image processing method, and program
US11151715B2 (en) Dynamic analysis system
US11475568B2 (en) Method for controlling display of abnormality in chest x-ray image, storage medium, abnormality display control apparatus, and server apparatus
JP2015131057A (en) Image processing device and program
KR101464862B1 (en) Method and apparatus for determining scoliosis using camera
US11080866B2 (en) Dynamic image processing method and dynamic image processing device
JP2020044445A (en) Dynamic analysis system, program, and dynamic analysis apparatus
JP7404857B2 (en) Image judgment device, image judgment method and program
US20220122261A1 (en) Probabilistic Segmentation of Volumetric Images
JP6789620B2 (en) Image processing device and its control method, computer program
JP2005246032A (en) Abnormal shadow detecting method, apparatus, and program
JP5051025B2 (en) Image generating apparatus, program, and image generating method
JP7135759B2 (en) Image processing device and program
JP2015112150A (en) Image processing system and program
JP7454456B2 (en) Image processing device, image processing method, and program
JP2016171961A (en) Image processing device, image processing method, and program
WO2023032954A1 (en) Information processing method, program and image diagnosis device