JP2014023606A - Image processing device and program - Google Patents
Image processing device and program Download PDFInfo
- Publication number
- JP2014023606A JP2014023606A JP2012164590A JP2012164590A JP2014023606A JP 2014023606 A JP2014023606 A JP 2014023606A JP 2012164590 A JP2012164590 A JP 2012164590A JP 2012164590 A JP2012164590 A JP 2012164590A JP 2014023606 A JP2014023606 A JP 2014023606A
- Authority
- JP
- Japan
- Prior art keywords
- fitting
- shape model
- information
- image processing
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 222
- 230000008859 change Effects 0.000 claims abstract description 350
- 210000004072 lung Anatomy 0.000 claims abstract description 139
- 238000000034 method Methods 0.000 claims description 394
- 230000008569 process Effects 0.000 claims description 354
- 238000011156 evaluation Methods 0.000 claims description 160
- 230000000737 periodic effect Effects 0.000 claims description 18
- 230000003247 decreasing effect Effects 0.000 claims description 8
- 241001465754 Metazoa Species 0.000 claims description 7
- 230000002123 temporal effect Effects 0.000 claims description 7
- 238000006073 displacement reaction Methods 0.000 claims description 6
- 230000001360 synchronised effect Effects 0.000 claims description 5
- 238000000605 extraction Methods 0.000 abstract description 60
- 238000005516 engineering process Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 76
- 238000001514 detection method Methods 0.000 description 71
- 238000003384 imaging method Methods 0.000 description 53
- 230000000241 respiratory effect Effects 0.000 description 32
- 230000033001 locomotion Effects 0.000 description 28
- 238000004364 calculation method Methods 0.000 description 26
- 230000005855 radiation Effects 0.000 description 22
- 238000004891 communication Methods 0.000 description 13
- 230000029058 respiratory gaseous exchange Effects 0.000 description 13
- 210000000038 chest Anatomy 0.000 description 11
- 238000004458 analytical method Methods 0.000 description 8
- 238000012887 quadratic function Methods 0.000 description 8
- 210000000709 aorta Anatomy 0.000 description 7
- 230000007423 decrease Effects 0.000 description 7
- 238000012888 cubic function Methods 0.000 description 5
- 230000006866 deterioration Effects 0.000 description 5
- 238000003745 diagnosis Methods 0.000 description 4
- 210000000056 organ Anatomy 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 241000270295 Serpentes Species 0.000 description 3
- 238000004195 computer-aided diagnosis Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000012886 linear function Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000017531 blood circulation Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000003434 inspiratory effect Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 206010058178 Aortic occlusion Diseases 0.000 description 1
- 208000012661 Dyskinesia Diseases 0.000 description 1
- 208000015592 Involuntary movements Diseases 0.000 description 1
- 238000010923 batch production Methods 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 230000000747 cardiac effect Effects 0.000 description 1
- 238000011976 chest X-ray Methods 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000001125 extrusion Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000017311 musculoskeletal movement, spinal reflex action Effects 0.000 description 1
- 230000008855 peristalsis Effects 0.000 description 1
- 230000010349 pulsation Effects 0.000 description 1
- 238000012889 quartic function Methods 0.000 description 1
- 238000002601 radiography Methods 0.000 description 1
- 210000002345 respiratory system Anatomy 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 210000001835 viscera Anatomy 0.000 description 1
- 230000009278 visceral effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000021542 voluntary musculoskeletal movement Effects 0.000 description 1
Images
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、人体または動物の身体が撮影された動態画像に対して、対象領域を抽出する画像処理技術に関する。 The present invention relates to an image processing technique for extracting a target region from a dynamic image obtained by photographing a human body or an animal body.
医療現場では、X線等を用いて内臓や骨格等に含まれる患部を撮影することにより、各種検査や診断が行われている。そして、近年では、デジタル技術の適用により、X線等を用いて患部の動きを捉えた動画像を比較的容易に取得することが可能となっている。 In a medical field, various examinations and diagnoses are performed by photographing an affected part included in an internal organ, a skeleton, or the like using X-rays or the like. In recent years, it has become possible to relatively easily acquire a moving image that captures the motion of an affected area using X-rays or the like by applying digital technology.
そこでは、FPD(flat panel detector)等の半導体イメージセンサを利用し、対象領域を含む被写体領域に対し動態画像を撮影できるため、従来のX線撮影による静止画撮影及び診断では実施できなかった対象領域などの動き解析による診断を実施することが可能になってきた。また、医療画像では、臓器や骨などの対象物領域を時間方向に解析することで、呼吸器や循環器系の診断に有用な情報を得ることができるため、対象領域または境界を精度良く抽出する必要がある。 In this method, a solid-state image sensor such as a flat panel detector (FPD) can be used to capture a dynamic image of a subject area including the target area. It has become possible to carry out diagnosis by motion analysis of areas and the like. In medical images, information useful for diagnosis of the respiratory system and circulatory system can be obtained by analyzing target regions such as organs and bones in the time direction, so the target region or boundary can be extracted accurately. There is a need to.
ところで、静止画像に対して対象領域を抽出する手法として、例えば、非特許文献1が開示する手法では、胸郭や横隔膜のエッジを探索し、エッジについて、所定の次数の関数を使ってフィッティングを行い、垂直距離の標準偏差から精度を計算する手法が提案されている。
By the way, as a method for extracting a target region from a still image, for example, in the method disclosed in
また、空間または時間方向に連続する複数の画像に対して対象領域を抽出する手法として、例えば、特許文献1が開示する医用画像診断装置では、抽出した領域の重心を一定角度である対応点同士を補間曲線でフィッティングし、補正処理を行う手法が提案されている。
In addition, as a technique for extracting a target region from a plurality of images that are continuous in space or time, for example, in the medical image diagnostic apparatus disclosed in
しかしながら、上記特許文献1では、空間と時間方向に対する連続性を使った補間処理を実施する方法として記載されているものの、空間軸での構造物の違いや時間軸での形状変化の際に、対応した補間曲線の採用方法については明記されていない。すなわち、局所的な形状の修正に関しては、操作者がマウスなどの入力装置を手動で操作することにより対応することが開示されているに留まっている。このため、形状モデルは固定もしくは不定のため、対象領域を精度よく抽出することができない。
However, in
また、動画像に上記非特許文献1の技術を適用した場合においては、被曝量抑制のため低線量であることから、ノイズが多く画像が不鮮明画像であり、抽出の精度と安定性に対する課題が大きい。加えて、動画像は撮像枚数も多いことから抽出速度にも課題がある。
In addition, when the technique of Non-Patent
このように、対象領域が時間的及び2次元空間的に形状変化する動画像に対して、上記特許文献1及び上記非特許文献1のような対象領域の抽出方法を実施しても、精度良く対象領域の抽出を行うことはできない。
As described above, even if the extraction method of the target region as in
本発明は、このような事情に鑑みてなされたものであり、人体または動物の内部を捉えた動画像から対象領域の抽出において、安定的且つ高速に抽出精度の向上を実現する画像処理技術を提供することを目的とする。 The present invention has been made in view of such circumstances, and provides an image processing technique that realizes stable and high-speed extraction accuracy improvement in extraction of a target area from a moving image that captures the inside of a human body or an animal. The purpose is to provide.
上記課題を解決するために、請求項1の発明は、人体または動物の内部における所定領域の物理的状態が時間変化する状態を時間方向に順次に捉えた動画像を取得する動画像取得手段と、前記動画像に含まれる複数枚のフレーム画像を順次取得し、前記フレーム画像に対して、前記所定領域の大局的な形状を表現した形状モデルをフィッティングさせるフィッティング処理を行うことにより、当該フレーム画像上における前記所定領域の境界を近似するフィッティング関数を決定し、当該フィッティング関数を少なくとも反映させた所定領域境界情報を順次得る形状モデルフィッティング手段と、前記フレーム画像に対する前記フィッティング処理に用いる前記形状モデルを前記時間方向に沿って順次変更する形状モデル変更処理を実施する形状モデル制御手段と、を備え、前記フィッティング関数は、所定数の関数から構成され、前記形状モデルは、前記フィッティング関数を決定するためのモデルであり、前記所定数及び前記関数毎の次数の許容範囲のうち、少なくとも1つの情報を含むことを特徴とする、画像処理装置である。
In order to solve the above-mentioned problem, the invention of
また、請求項2の発明は、請求項1に記載の画像処理装置であって、前記形状モデルは、前記フレーム画像上における前記関数毎のフィッティング適用範囲の情報、を更に含む。
The invention according to
また、請求項3の発明は、請求項2に記載の画像処理装置であって、前記形状モデル変更処理は、(a)前記所定数を増減させる処理と、(b)前記所定数の関数のうち、少なくとも1つの関数の前記次数の許容範囲を変更する処理と、(c)前記所定数の関数のうち、少なくとも1つの関数の前記フィッティング適用範囲を変更する処理と、のうち、少なくとも1つの処理を含む。
The invention according to
また、請求項4の発明は、請求項3に記載の画像処理装置であって、前記形状モデルフィッティング手段は、前記フレーム画像の画像情報から所定の方法を用いて前記所定領域の境界と予想される境界候補情報を抽出する処理、を更に行い、前記フィッティング処理は、前記境界候補情報に基づいて、前記フィッティング関数を決定する処理、を含み、前記形状モデル変更処理は、前記境界候補情報に基づいて行う、前記処理(a)〜(c)のうち、少なくとも1つの処理、を含む。 According to a fourth aspect of the present invention, in the image processing apparatus according to the third aspect, the shape model fitting means is predicted from the image information of the frame image as a boundary of the predetermined region using a predetermined method. And the fitting process includes a process of determining the fitting function based on the boundary candidate information, and the shape model change process is based on the boundary candidate information. At least one of the processes (a) to (c).
また、請求項5の発明は、請求項4に記載の画像処理装置であって、前記フィッティング適用範囲を狭く変更する場合において、前記形状モデル変更処理における前記処理(a)は、前記所定数を減らす処理、を含み、前記形状モデル変更処理における前記処理(b)は、前記所定数の関数のうち、前記フィッティング適用範囲を狭くする関数においては当該関数の前記次数の許容範囲の上限を下げる処理、を含む。
The invention according to
また、請求項6の発明は、請求項1ないし請求項5のうち、いずれか1項記載の画像処理装置であって、前記形状モデル変更処理は、予め定めた規則や順序を記憶した制約条件に基づいて前記形状モデルを変更する処理を含む。
The invention according to
また、請求項7の発明は、請求項1ないし請求項5のうち、いずれか1項記載の画像処理装置であって、前記所定領域に近接する所定領域近接領域が存在する場合において、前記フレーム画像に同期した前記所定領域近接領域の周期的な時間変化を検出し、時間変化情報を得る時間変化検出手段、を更に備え、前記形状モデル変更処理は、前記時間変化情報に基づいて前記形状モデルを変更する処理を含む。 According to a seventh aspect of the present invention, in the image processing apparatus according to any one of the first to fifth aspects of the present invention, when there is a predetermined area adjacent area close to the predetermined area, the frame A time change detecting unit that detects a time change of the predetermined region adjacent to the predetermined region in synchronization with an image and obtains time change information; and the shape model change processing is based on the time change information. Includes processing to change
また、請求項8の発明は、請求項1に記載の画像処理装置であって、前記形状モデルフィッティング手段から出力される前記所定領域境界情報を順次記憶するフィッティング結果記憶手段、を更に備え、前記形状モデル変更処理は、前記フレーム画像に対してフィッティング処理が行われた形状モデルから、当該フレーム画像の次のフレーム画像のフィッティング処理に用いる形状モデルに変更する第1のモデル変更処理と、前記フレーム画像に対してフィッティング処理が行われた形状モデルから、当該フレーム画像の再度のフィッティング処理に用いる形状モデルに変更する第2のモデル変更処理と、を含み、前記形状モデル制御手段は、前記形状モデル制御手段にて順次変更した形状モデルあるいは前記フィッティング結果記憶手段にて格納された所定領域境界情報におけるフィッティング関数に基づいて、評価情報を得る形状モデル適正評価手段を含み、前記形状モデル制御手段は、当該評価情報に基づいて、前記第1のモデル変更処理及び前記第2のモデル変更処理のうち少なくとも一方の変更処理を実施することを特徴とする。
The invention according to claim 8 is the image processing apparatus according to
また、請求項9の発明は、請求項8に記載の画像処理装置であって、前記フィッティング結果記憶手段が3以上の前記所定領域境界情報を記憶する場合において、前記評価情報は、前記フィッティング結果記憶手段にて記憶された前記所定領域境界情報における3以上のフィッティング関数を示すフィッティング関数群を含むことを特徴とする。 The invention according to claim 9 is the image processing apparatus according to claim 8, wherein when the fitting result storage unit stores three or more pieces of the predetermined area boundary information, the evaluation information includes the fitting result. It includes a fitting function group indicating three or more fitting functions in the predetermined area boundary information stored in the storage means.
また、請求項10の発明は、請求項8に記載の画像処理装置であって、前記形状モデル制御手段は、前記所定領域境界情報におけるフィッティング関数が近似する前記所定領域の境界と、当該フィッティング関数を導くために用いられたフレーム画像の画像情報から所定の方法を用いて抽出した前記所定領域の境界と予想される境界候補情報と、の差異を比較した画像比較情報を算出するフィッティング精度算出手段、を含み、前記評価情報は、前記画像比較情報を含むことを特徴とする。 The invention according to claim 10 is the image processing apparatus according to claim 8, wherein the shape model control means includes a boundary of the predetermined region that approximates a fitting function in the predetermined region boundary information, and the fitting function. Fitting accuracy calculating means for calculating image comparison information that compares the difference between the boundary of the predetermined area extracted from the image information of the frame image used for deriving the image using a predetermined method and the expected boundary candidate information The evaluation information includes the image comparison information.
また、請求項11の発明は、請求項8に記載の画像処理装置であって、前記形状モデル制御手段は、前記形状モデル制御手段にて逐次決定された形状モデルを逐次記憶することでフィッティング履歴情報として総括的に記憶されたフィッティング履歴記憶手段、を更に備え、前記評価情報は、前記フィッティング履歴情報を含むことを特徴とする。
The invention according to
また、請求項12の発明は、請求項9に記載の画像処理装置であって、前記所定領域に近接する所定領域近接領域が存在する場合において、前記形状モデル制御手段は、前記フィッティング結果記憶手段にて記憶された所定領域境界情報におけるフィッティング関数間において、前記所定領域近接領域の時間的な位置変位量や形状変化を示す位置形状変化情報を算出する位置形状変化算出手段、を更に備え、前記評価情報は、前記位置形状変化情報を含むことを特徴とする。
The invention according to
また、請求項13の発明は、請求項8に記載の画像処理装置であって、前記所定領域に近接する所定領域近接領域が複数存在する場合において、前記形状モデル制御手段は、前記所定領域境界情報におけるフィッティング関数が導き出される当該所定領域の推定近接領域間における相対的な位置関係を示す位置関係情報を算出する位置関係算出手段、を更に備え、前記評価情報は、前記位置関係情報を含むことを特徴とする。
The invention according to
また、請求項14の発明は、請求項8に記載の画像処理装置であって、前記所定領域に近接する所定領域近接領域が存在する場合において、前記フレーム画像に同期した前記所定領域近接領域の周期的な時間変化を検出し、時間変化情報を得る時間変化検出手段、を更に備え、前記形状モデル制御手段は、前記形状モデルの変更パターンに前記所定領域近接領域の周期的な時間変化に対応する優先度を付して作成された優先度付変更パターン情報を予め記憶する優先度付変更パターン記憶手段、を更に備え、前記評価情報は、前記時間変化に対応付けられた前記優先度付変更パターン情報を含むことを特徴とする。
The invention according to
また、請求項15の発明は、請求項1ないし請求項14のうち、いずれか1項記載の画像処理装置であって、前記所定領域は肺野領域を含むことを特徴とする。
The invention according to
また、請求項16の発明は、請求項7、請求項12ないし請求項14のうち、いずれか1項記載の画像処理装置であって、前記所定領域は肺野領域を含み、前記所定領域近接領域は、横隔膜領域、心臓領域、及び、大動脈領域を含むことを特徴とする。
The invention according to
また、請求項17の発明は、画像処理装置に含まれるコンピュータによって実行されることにより、前記コンピュータを、請求項1ないし請求項16のうち、いずれか1項記載の画像処理装置として機能させるプログラムである。 According to a seventeenth aspect of the present invention, there is provided a program for causing a computer to function as the image processing apparatus according to any one of the first to sixteenth aspects when executed by a computer included in the image processing apparatus. It is.
請求項1ないし請求項16記載の画像処理装置における形状モデル制御手段では、フレーム画像に対するフィッティング処理に用いる形状モデルを時間方向に沿って順次変更する形状モデル変更処理を実施する。このため、時間方向で所定領域の形状が変化することに対応して、形状モデルを変更することが可能となる。これにより、安定的且つ高速に所定領域境界情報を得ることができるため、所定領域の抽出精度の向上を実現することが可能となる。
The shape model control means in the image processing apparatus according to any one of
また、フィッティング関数は、所定数の関数から構成されることにより、フィッティング関数は所定領域の局所的な形状を表現することができ、所定領域の抽出精度の向上を可能とする。 In addition, since the fitting function is composed of a predetermined number of functions, the fitting function can express the local shape of the predetermined area, and the extraction accuracy of the predetermined area can be improved.
さらに、形状モデルは、フィッティング関数を決定するためのモデルであり、前記所定数及び前記関数毎の次数の許容範囲のうち、少なくとも1つの情報を含む。これにより、フィッティング関数を求めるにあたっての制約条件を与えることが可能となる。このため、所定領域の境界を近似的に表現することが可能なフィッティング関数を早期かつ適切に決定することができる。 Furthermore, the shape model is a model for determining a fitting function, and includes at least one information of the predetermined number and an allowable range of the order for each function. Thereby, it is possible to give a constraint condition for obtaining the fitting function. For this reason, a fitting function capable of approximately expressing the boundary of the predetermined region can be determined early and appropriately.
請求項2の発明によれば、形状モデルは、フレーム画像上における関数毎のフィッティング適用範囲の情報を更に含む。これにより、所定領域の形状が複雑な場合においても、所定領域の境界をより近似的に表現することが可能なフィッティング関数を早期かつ適切に決定することができる。このため、所定領域の抽出精度がより向上する。
According to the invention of
請求項3の発明によれば、形状モデル変更処理は、(a)前記所定数を増減させる処理と、(b)前記所定数の関数のうち、少なくとも1つの関数の前記次数の許容範囲を変更する処理と、(c)前記所定数の関数のうち、少なくとも1つの関数の前記フィッティング適用範囲を変更する処理と、のうち、少なくとも1つの処理を含む。これにより、時間方向で所定領域の形状あるいは位置が著しく変化した場合においても十分対応することが可能となる。このため、所定領域の抽出精度がより向上する。
According to the invention of
請求項4の発明によれば、フィッティング処理は、境界候補情報に基づいて、フィッティング関数を決定する処理を含む。これにより、所定領域の形状が複雑な場合においても、所定領域の境界をより近似的に表現することが可能なフィッティング関数をより早期かつ適切に決定することができる。このため、所定領域の抽出精度が更に向上する。
According to the invention of
また、形状モデル変更処理は、前記境界候補情報に基づいて、(a)前記所定数を増減させる処理、(b)前記次数の許容範囲を変更する処理、及び、(c)前記フィッティング適用範囲を変更する処理、のうち、少なくとも1つの処理、を含む。これにより、時間方向で所定領域の形状あるいは位置が著しく変化した場合においても、境界候補情報を考慮することができるため、フィッティング処理の誤りを防止できる。このため、より安定的且つ高速にフィッティング結果を得ることが可能となる。 Further, the shape model changing process includes (a) a process for increasing / decreasing the predetermined number based on the boundary candidate information, (b) a process for changing the allowable range of the order, and (c) the fitting application range. At least one of the processes to be changed is included. As a result, even when the shape or position of the predetermined region changes significantly in the time direction, the boundary candidate information can be taken into account, so that an error in the fitting process can be prevented. For this reason, it becomes possible to obtain a fitting result more stably and at high speed.
請求項5の発明によれば、フィッティング適用範囲を狭く変更する場合において、前記形状モデル変更処理における前記処理(a)は、前記所定数を減らす処理、を含み、前記形状モデル変更処理における前記処理(b)は、前記所定数の関数のうち、前記フィッティング適用範囲を狭くする関数においては当該関数の前記次数の許容範囲の上限を下げる処理、を含む。ここで、境界候補情報に応じて前記処理(a)〜(c)の内容が決定されるため、境界候補情報が減少するときは、前記処理(a)では関数の数を減らす処理、前記処理(b)では関数の次数の許容範囲の上限を下げる処理、前記処理(c)ではフィッティング適用範囲を狭くする処理、のうち、少なくとも1つの処理が行われる。したがって、前記処理(c)にてフィッティング適用範囲が狭く変更される場合は、前記処理(a)において、関数の数を減らす処理、及び/または、前記処理(b)において、関数の次数の許容範囲の上限を下げる処理を行うことがより好ましい。これにより、関数の自由度を下げ、フィッティング処理の誤りを防止できるとともに、安定したフィッティング結果を得ることが可能となる。
According to the invention of
請求項6の発明によれば、予め定めた規則や順序を記憶した制約条件に基づいて形状モデルを変更することにより、形状モデルの変更において所定の制約をかけることができ、より安定的に所望の形状モデルの変更を誘導することが可能となる。
According to the invention of
請求項7の発明によれば、時間変化情報に基づいて形状モデルを変更することにより、所定領域近接領域の周期変化に適合させて形状モデルを決定することができる。このため、所定領域の抽出精度がより向上する。 According to the invention of claim 7, by changing the shape model based on the time change information, the shape model can be determined in conformity with the periodic change of the predetermined region adjacent region. For this reason, the extraction accuracy of the predetermined region is further improved.
請求項8記載の画像処理装置における形状モデル制御手段では、形状モデル制御手段にて順次変更した形状モデルあるいはフィッティング結果記憶手段にて格納された所定領域境界情報におけるフィッティング関数に基づいて得られた評価情報に基づいて、第1のモデル変更処理及び第2のモデル変更処理のうち少なくとも一方の変更処理を実施する。これにより、第1または第2のモデル変更処理のいずれにおいても、より的確な形状モデルを自動的に変更することが可能となる。すなわち、形状モデル制御手段は、第1のモデル変更処理ではフィッティング処理をこれから行う時間的に未来の形状モデルの変更を制御でき、第2のモデル変更処理では既にフィッティング処理を終えた過去の形状モデルに対してフィードバック制御が可能になる。 9. The shape model control means in the image processing apparatus according to claim 8, wherein the evaluation is obtained based on a shape model sequentially changed by the shape model control means or a fitting function in predetermined area boundary information stored in the fitting result storage means. Based on the information, at least one of the first model change process and the second model change process is executed. As a result, a more accurate shape model can be automatically changed in either the first or second model changing process. In other words, the shape model control means can control the change of the future shape model in time in the first model change process, and the past shape model that has already finished the fitting process in the second model change process. Feedback control becomes possible.
このため、より安定的に所定領域の抽出処理を行うことができるとともに、抽出精度がより向上する。 For this reason, the extraction process of the predetermined area can be performed more stably, and the extraction accuracy is further improved.
請求項9の発明によれば、評価情報はフィッティング結果記憶手段にて記憶された所定領域境界情報における3以上のフィッティング関数を示すフィッティング関数群を含むことにより、フィッティング関数群のフィッティング関数間の適否を判定して第2のモデル変更処理を実施することが可能となる。これにより、フィッティング精度向上を可能にする。 According to the invention of claim 9, the evaluation information includes fitting function groups indicating three or more fitting functions in the predetermined area boundary information stored in the fitting result storage means, whereby the suitability between the fitting functions of the fitting function group is determined. And the second model change process can be performed. Thereby, the fitting accuracy can be improved.
請求項10の発明によれば、評価情報は、所定領域境界情報におけるフィッティング関数が近似する前記所定領域の境界と、当該フィッティング関数を導くために用いられたフレーム画像の画像情報から所定の方法を用いて抽出した前記所定領域の境界と予想される境界候補情報と、の差異を比較した画像比較情報を含むことにより、別途所定の方法を用いて求めた実際の画像情報との違いを参考にして第1または第2のモデル変更処理を実施することが可能となるため、フィッティング精度向上を可能にする。 According to the invention of claim 10, the evaluation information is a predetermined method based on the boundary of the predetermined region approximated by the fitting function in the predetermined region boundary information and the image information of the frame image used for deriving the fitting function. By using the image comparison information that compares the difference between the boundary of the predetermined area extracted and the expected boundary candidate information, the difference from the actual image information obtained by using a predetermined method is referred to Thus, the first or second model change process can be performed, so that fitting accuracy can be improved.
請求項11の発明によれば、評価情報はフィッティング履歴情報を含むことにより、フィッティング履歴情報を参照しながら第1のモデル変更処理を実施することが可能となるため、フィッティング精度向上を可能にする。
According to the invention of
請求項12の発明によれば、評価情報は位置形状変化情報を含むことにより、位置形状変化が大きければ、フィッティング精度が悪いと予測して第2のモデル変更処理を実施することが可能となるため、フィッティング精度向上を可能にする。また逆に、位置形状変化が小さければ、フィッティング精度が悪くないと予測できるため、第2のモデル変更処理を実施しない判断を行える。これにより、フィッティング精度悪化を防ぐことが可能となる。 According to the twelfth aspect of the present invention, since the evaluation information includes the position shape change information, if the position shape change is large, it is possible to predict that the fitting accuracy is poor and to execute the second model change process. Therefore, the fitting accuracy can be improved. Conversely, if the change in position and shape is small, it can be predicted that the fitting accuracy is not bad, so that it is possible to determine not to perform the second model change process. Thereby, it becomes possible to prevent a fitting precision deterioration.
請求項13の発明によれば、評価情報は位置関係情報を含むことにより、所定領域の推定近接領域間における相対的な位置関係が想定と異なる場合は、フィッティング精度が悪いと予測して第1または第2のモデル変更処理を実施することが可能となるため、フィッティング精度向上を可能にする。 According to the thirteenth aspect of the present invention, the evaluation information includes the positional relationship information, so that when the relative positional relationship between the estimated proximity regions of the predetermined region is different from the assumption, it is predicted that the fitting accuracy is poor and the first Alternatively, since the second model change process can be performed, the fitting accuracy can be improved.
また逆に、所定領域の推定近接領域間における相対的な位置関係が想定内である場合は、フィッティング精度が悪くないと予測できる。このため、第1のモデル変更処理では、大きく形状モデルを変更しない処理、もしくは、現在の形状モデルをそのまま未来の形状モデルとする処理を実施できる。また、第2のモデル変更処理では実施しない判断を行える。これにより、フィッティング精度悪化を防ぐことが可能となる。 Conversely, when the relative positional relationship between the estimated proximity regions of the predetermined region is within the assumption, it can be predicted that the fitting accuracy is not bad. For this reason, in the first model change process, a process that does not change the shape model largely, or a process in which the current shape model is used as it is as the future shape model can be performed. In addition, it is possible to determine that the second model change process is not performed. Thereby, it becomes possible to prevent a fitting precision deterioration.
請求項14の発明によれば、評価情報は時間変化に対応付けられた優先度付変更パターン情報を含むことにより、優先度付変更パターン情報を参照しながら第1のモデル変更処理を実施することが可能となる。これにより、所定領域近接領域の周期変化に適合させて形状モデルを変更することができるため、フィッティング精度向上を可能にする。
According to the invention of
請求項15の発明によれば、所定領域は肺野領域であることにより、肺野領域の抽出精度の向上を実現することが可能となる。 According to the fifteenth aspect of the present invention, since the predetermined area is the lung field area, it is possible to improve the extraction accuracy of the lung field area.
請求項16の発明によれば、所定領域は肺野領域であることにより、肺野領域の抽出精度の向上を実現することが可能となる。また、所定領域近接領域は、横隔膜領域、心臓領域、及び、大動脈領域であることにより、相対的に時間変動量の大きい領域を考慮して、形状モデルのフィッティング処理を実施することができ、肺野領域においてより適切な形状モデルをフィッティングさせることが可能となる。 According to the sixteenth aspect of the present invention, it is possible to improve the extraction accuracy of the lung field region because the predetermined region is the lung field region. In addition, since the predetermined region proximity region is a diaphragm region, a heart region, and an aorta region, a shape model fitting process can be performed in consideration of a region with a relatively large amount of time variation, It becomes possible to fit a more appropriate shape model in the field region.
請求項17の発明によれば、請求項1から請求項16に記載の発明と同じ効果を得ることができる。
According to the invention of claim 17, the same effect as that of the invention of
<1.放射線動態画像撮影システムの全体構成>
本発明の実施の形態に係る放射線動態画像撮影システムは、人体または動物の身体を被写体として、被写体の放射線画像の撮影を行い、撮影された放射線画像から対象領域(所定領域)の抽出を行う。以下の各実施形態では、対象領域を肺野領域として説明する。
<1. Overall Configuration of Radiation Dynamic Imaging System>
The radiation dynamic image capturing system according to the embodiment of the present invention captures a radiation image of a subject using a human or animal body as a subject, and extracts a target region (predetermined region) from the captured radiation image. In the following embodiments, the target region is described as a lung field region.
図1は、本発明の一実施形態に係る放射線動態画像撮影システムの全体構成を示す図である。図1に示すように、放射線動態画像撮影システム100(100A,100B,100B’,100C〜100I)は、撮影装置1と、撮影制御装置2(撮影用コンソール)と、画像処理装置3(3A,3B,3B’,3C〜3I)(診断用コンソール)と、心電計4とを備える。撮影装置1及び心電計4と、撮影制御装置2とが通信ケーブル等により接続され、撮影制御装置2と、画像処理装置3(3A,3B,3B’,3C〜3I)とがLAN(Local Area Network)等の通信ネットワークNTを介して接続されて構成されている。放射線動態画像撮影システム100(100A,100B,100B’,100C〜100I)を構成する各装置は、DICOM(Digital Image and Communications in Medicine)規格に準じており、各装置間の通信は、DICOMに則って行われる。
FIG. 1 is a diagram showing an overall configuration of a radiation dynamic image capturing system according to an embodiment of the present invention. As shown in FIG. 1, the dynamic radiographic imaging system 100 (100A, 100B, 100B ′, 100C to 100I) includes an
<1−1.撮影装置1の構成>
撮影装置1は、例えば、X線撮影装置等によって構成され、呼吸に伴う被写体OBの胸部の動態を撮影する装置である。動態撮影は、被写体OBの胸部に対し、X線等の放射線を繰り返して照射しつつ、時間順時に複数の画像を取得することにより行う。この連続撮影により得られた一連の画像を動態画像(動画像)と呼ぶ。また、動態画像を構成する複数の画像のそれぞれをフレーム画像と呼ぶ。
<1-1. Configuration of photographing
The
図1に示すように、撮影装置1は、照射部(放射線源)11と、放射線照射制御装置12と、撮像部(放射線検出部)13と、読取制御装置14と、サイクル検出部15と、サイクル検出装置16とを備えて構成されている。
As shown in FIG. 1, the
照射部11は、放射線照射制御装置12の制御に従って、被写体OBに対し放射線(X線)を照射する。図示例は人体用のシステムであり、被写体OBは検査対象者に相当する。以下では被写体OBを「被検者」とも呼ぶ。
The
放射線照射制御装置12は、撮影制御装置2に接続されており、撮影制御装置2から入力された放射線照射条件に基づいて照射部11を制御して放射線撮影を行う。
The radiation
撮像部13は、FPD等の半導体イメージセンサにより構成され、照射部11から照射されて被検者OBを透過した放射線を電気信号(画像情報)に変換する。
The
読取制御装置14は、撮影制御装置2に接続されている。読取制御装置14は、撮影制御装置2から入力された画像読取条件に基づいて撮像部13の各画素のスイッチング部を制御して、当該各画素に蓄積された電気信号の読み取りをスイッチングしていき、撮像部13に蓄積された電気信号を読み取ることにより、画像データを取得する。そして、読取制御装置14は、取得した画像データ(フレーム画像)を撮影制御装置2に出力する。画像読取条件は、例えば、フレームレート、フレーム間隔、画素サイズ、画像サイズ(マトリックスサイズ)等である。フレームレートは、1秒あたりに取得するフレーム画像数であり、パルスレートと一致している。フレーム間隔は、連続撮影において、1回のフレーム画像の取得動作開始から次のフレーム画像の取得動作開始までの時間であり、パルスレートと一致している。
The
ここで、放射線照射制御装置12と読取制御装置14とは互いに接続され、互いに同期信号をやりとりして放射線照射動作と画像の読み取りの動作を同調させるようになっている。
Here, the radiation
サイクル検出部15は、被検者OBの呼吸サイクルを検出して撮影制御装置2の制御部21に出力する。また、サイクル検出部15は、被検者OBの呼吸サイクルを検出するサイクル検出センサ(不図示)と、サイクル検出センサにより検出された呼吸サイクルの時間を測定し制御部21に出力する計時部(不図示)とを備える。
The
<1−2.撮影制御装置2の構成>
撮影制御装置2は、放射線照射条件や画像読取条件を撮影装置1に出力して撮影装置1による放射線撮影及び放射線画像の読み取り動作を制御するとともに、撮影装置1により取得された動態画像を撮影技師によるポジショニングの確認や診断に適した画像であるか否かの確認用に表示する。
<1-2. Configuration of
The
図1に示すように、撮影制御装置2は、制御部21と、記憶部22と、操作部23と、表示部24と、通信部25とを備えて構成され、各部はバス26により接続されている。
As shown in FIG. 1, the photographing
制御部21は、CPU(Central Processing Unit)やRAM(Random Access Memory)等により構成される。制御部21のCPUは、操作部23の操作に応じて、記憶部22に記憶されているシステムプログラムや各種処理プログラムを読み出してRAM内に展開し、展開されたプログラムに従って後述する撮影制御処理を始めとする各種処理を実行し、撮影制御装置2各部の動作や、撮影装置1の動作を集中制御する。
The
記憶部22は、不揮発性の半導体メモリやハードディスク等により構成される。記憶部22は、制御部21で実行される各種プログラムやプログラムによる処理の実行に必要なパラメータ、或いは処理結果等のデータを記憶する。
The
操作部23は、カーソルキー、数字入力キー、及び各種機能キー等を備えたキーボードと、マウス等のポインティングデバイスとを備えて構成され、キーボードに対するキー操作、マウス操作、あるいは、タッチパネルを介して入力された指示信号を制御部21に出力する。
The
表示部24は、カラーLCD(Liquid Crystal Display)等のモニタにより構成され、制御部21から入力される表示信号の指示に従って、操作部23からの入力指示やデータ等を表示する。
The
通信部25は、LANアダプタやモデムやTA(Terminal Adapter)等を備え、通信ネットワークNTに接続された各装置との間のデータ送受信を制御する。
The
<1−3.画像処理装置3(3A,3B,3B’,3C〜3I)の構成>
画像処理装置3(3A,3B,3B’,3C〜3I)は、撮像装置1から送信された動態画像を、撮影制御装置2を介して取得し、医師等が読影診断するための画像を表示する。
<1-3. Configuration of Image Processing Device 3 (3A, 3B, 3B ′, 3C-3I)>
The image processing device 3 (3A, 3B, 3B ′, 3C to 3I) acquires the dynamic image transmitted from the
図1に示すように、画像処理装置3(3A,3B,3B’,3C〜3I)は、制御部31(3A,3B,3B’,3C〜3I)と、記憶部32と、操作部33と、表示部34と、通信部35とを備えて構成され、各部はバス36により接続されている。
As shown in FIG. 1, the image processing apparatus 3 (3A, 3B, 3B ′, 3C-3I) includes a control unit 31 (3A, 3B, 3B ′, 3C-3I), a
制御部31(31A,31B,31B’,31C〜31I)は、CPU、RAM等により構成される。制御部31(31A,31B,31B’,31C〜31I)のCPUは、操作部33の操作に応じて、記憶部32に記憶されているシステムプログラムや、各種処理プログラムを読み出してRAM内に展開し、展開されたプログラムに従って各種処理を実行し、画像処理装置3(3A,3B,3B’,3C〜3I)各部の動作を集中制御する(詳細は後述する)。
The control unit 31 (31A, 31B, 31B ', 31C to 31I) includes a CPU, a RAM, and the like. The CPU of the control unit 31 (31A, 31B, 31B ′, 31C to 31I) reads the system program and various processing programs stored in the
記憶部32は、不揮発性の半導体メモリやハードディスク等により構成される。記憶部32は、制御部31で実行される各種プログラムやプログラムによる処理の実行に必要なパラメータ、或いは処理結果等のデータを記憶する。例えば、記憶部32は、後述する画像生成処理を実行するための画像生成処理プログラムを記憶している。これらの各種プログラムは、読取可能なプログラムコードの形態で格納され、制御部31(31A,31B,31B’,31C〜31I)は、当該プログラムコードに従った動作を逐次実行する。
The
操作部33は、カーソルキー、数字入力キー、及び各種機能キー等を備えたキーボードと、マウス等のポインティングデバイスを備えて構成され、キーボードに対するキー操作やマウス操作、あるいは、タッチパネルを介して入力された指示信号を制御部31(31A,31B,31B’,31C〜31I)に出力する。
The
表示部34は、カラーLCD等のモニタにより構成され、制御部31(31A,31B,31B’,31C〜31I)から入力される表示信号の指示に従って、操作部33からの入力指示、データ、及び、後述する表示用画像を表示する。
The
通信部35は、LANアダプタやモデムやTA等を備え、通信ネットワークNTに接続された各装置との間のデータ送受信を制御する。
The
<1−4.心電計4の構成>
図1では心電計4は被検者OBとは離れて示されているが、実際には心電計4の各電極端子は被検者OBに装着されており、被検者OBの心電波形をデジタル信号として出力する。
<1-4. Configuration of
In FIG. 1, the
図1に示すように、心電計4は、位相検出部41を備えて構成され、位相検出部41は、制御部21のCPUからの制御信号に応答して、撮影装置1による撮影動作を同期させるための基礎情報として、被写体OBの心拍の位相を検出する。
As shown in FIG. 1, the
<2.第1実施形態>
本発明の第1実施形態における放射線動態画像撮影システム100の画像処理装置3は、撮影した動画像に対して被検者OBの肺野領域の抽出処理を時間方向に順次行う。
<2. First Embodiment>
The
以下では、画像処理装置3で実現される機能的な構成について説明する。
Below, the functional structure implement | achieved by the
<2−1.画像処理装置3の機能構成>
図2は、放射線動態画像撮影システム100における画像処理装置3において、CPU等が各種プログラムに従って動作することにより制御部31で実現される機能構成を他の構成とともに示す図である。この実施形態の画像処理装置3は、主として心臓および両肺を含む胸部が撮影された動態画像を使用する。
<2-1. Functional configuration of
FIG. 2 is a diagram showing a functional configuration realized by the
制御部31は、主に、動画像取得部110と、形状モデルフィッティング部120と、形状モデル制御部130と、対象領域抽出部140と、から構成される。
The
以下では、図2で示されたような制御部31の機能的な構成が、あらかじめインストールされたプログラムの実行によって実現されるものとして説明するが、専用のハードウエア構成で実現されても良い。
In the following description, the functional configuration of the
以降、動画像取得部110、形状モデルフィッティング部120、形状モデル制御部130、及び、対象領域抽出部140が行う各処理についての具体的内容を、図2を参照しながら順次説明する。
Hereinafter, specific contents of each process performed by the moving
<2−1−1.動画像取得部110>
動画像取得部110では、撮像装置1の読取制御装置14によって撮影された人体または動物の内部における肺野領域(所定領域)の物理的状態が時間変化する状態を時間方向に順次に捉えた動画像を取得する。ここでいう「物理的状態」という用語は、肺野領域の幾何学的形状を指すほか、血流の濃度(血流の有無)などをも包含した意味で用いている。
<2-1-1. Moving
In the moving
なお、図2は、撮像装置1と画像処理装置3との間に、撮影制御装置2が介在し、撮影制御装置2の記憶部22に記憶された検出データが通信部25を介して、画像処理装置3の通信部35に出力される。
In FIG. 2, the
図3は、呼吸に伴う被検者OBの胸部の動態に対し、放射線動態画像撮影によって撮影した動画像を例示する図である。図3で示されるように、動画像取得部110により取得されたフレーム画像G1〜G10は、呼吸サイクルの1周期を一定の撮影タイミングで連続撮影されたものである。具体的には、時刻 t=t1, t2, t3, …, t10 の撮影タイミングにおいて撮影された画像が、フレーム画像G1,G2,G3,…,G10にそれぞれ対応している。
FIG. 3 is a diagram exemplifying a moving image captured by radiodynamic image capturing with respect to the dynamics of the chest of the subject OB accompanying breathing. As shown in FIG. 3, the frame images G1 to G10 acquired by the moving
しかしながら、このように取得された動画像は、静止画像と比較して低線量であるため、ノイズが多く画像が不鮮明画像であり、肺野領域の抽出精度と安定性に対する課題がある。また、肺野領域が時空間的に形状変化する動画像は撮影枚数も多いことから、肺野領域の抽出速度の向上が望まれている。 However, since the moving image acquired in this way has a low dose compared to a still image, the image is a noisy image with a lot of noise, and there are problems with the extraction accuracy and stability of the lung field region. In addition, since a moving image in which the shape of the lung field changes in time and space has a large number of shots, an improvement in the extraction speed of the lung field is desired.
そこで、本発明では、動画像に含まれるフレーム画像Gに対して、肺野領域の境界を表現した形状モデルを時間方向に変更する以下の処理を行うことで、安定的且つ高速に抽出精度の向上を実現するようにする。 Therefore, in the present invention, the following processing for changing the shape model expressing the boundary of the lung field region in the time direction is performed on the frame image G included in the moving image, so that the extraction accuracy can be stably and rapidly increased. Make improvements happen.
<2−1−2.形状モデルフィッティング部120>
形状モデルフィッティング部120では、動画像取得部110において取得される動画像に含まれる複数枚のフレーム画像Gを順次取得し、フレーム画像Gに対して、肺野領域の大局的な形状を表現した形状モデルをフィッティングさせるフィッティング処理を行うことにより、当該フレーム画像G上における肺野領域の境界を近似するフィッティング関数を決定し、当該フィッティング関数を少なくとも反映させた肺野領域境界情報(所定領域境界情報)を順次得る。
<2-1-2. Shape
The shape model
ここでいう「フィッティング関数」は、所定数の関数から構成され、「形状モデル」は、フィッティング関数を決定するためのモデルであり、(A)当該所定数、(B)当該関数毎の次数の許容範囲、(C)フレーム画像G上における当該関数毎のフィッティング適用範囲のうち、少なくとも1つの情報を含む。 The “fitting function” here is composed of a predetermined number of functions, and the “shape model” is a model for determining the fitting function, and (A) the predetermined number and (B) the order of each function. It includes at least one piece of information within the allowable range and (C) the fitting application range for each function on the frame image G.
本実施形態におけるフィッティング処理では、後述の境界線付フレーム画像を順次出力し、肺野領域境界情報を「境界線付フレーム画像」として説明する。 In the fitting process according to the present embodiment, a frame image with a boundary line, which will be described later, is sequentially output, and lung field region boundary information is described as a “frame image with a boundary line”.
また、肺野領域境界情報は、肺野領域に近接する横隔膜領域、心臓領域等の肺野領域近接領域(所定領域近接領域)が存在する場合において、肺野領域と該肺野領域近接領域との境界部分が考慮されることが好ましい。本実施形態において、肺野領域近接領域として、横隔膜領域、心臓領域、及び、大動脈領域を想定している。 In addition, the lung field region boundary information includes a lung field region and a lung field region neighboring region in the case where there is a lung field region neighboring region (predetermined region neighboring region) such as a diaphragm region and a heart region adjacent to the lung field region. It is preferable that the boundary portion of is considered. In the present embodiment, the diaphragm region, the heart region, and the aorta region are assumed as the lung region adjacent region.
図4は、肺野領域近接領域を例示する図であり、図4(a)は肺野領域近接領域に相当する心臓領域の境界P1を示す図であり、図4(b)は肺野領域近接領域に相当する大動脈領域の境界P2及び横隔膜領域の境界P3,P4を示す図である。図4で示されるように、肺野領域の形状モデルを決定するにあたって、心臓領域の境界P1、大動脈領域の境界P2及び横隔膜領域の境界P3,P4等といった肺野領域近接領域の当該境界部分を考慮してフィッティング関数を求める。 FIG. 4 is a diagram illustrating a lung field region proximity region, FIG. 4 (a) is a diagram illustrating a boundary P1 of a heart region corresponding to the lung field region proximity region, and FIG. 4 (b) is a lung field region. It is a figure which shows the boundary P2 of the aorta area | region equivalent to a proximity | contact area | region, and the boundaries P3 and P4 of a diaphragm area | region. As shown in FIG. 4, in determining the shape model of the lung field region, the boundary part of the lung field region adjacent region such as the heart region boundary P1, the aorta region boundary P2, the diaphragm region boundaries P3, P4, etc. The fitting function is calculated in consideration.
図5は、肺野領域のフィッティング関数Fの特徴を説明する図である。すなわち、図5におけるフィッティング関数Fでは、上記の所定数の関数fとして、13の関数fから構成された例を示す。図5で示されるように、肺野領域のような幾何学的形状においても関数f1〜f13を用いると、より近似的に表現することが可能となる。 FIG. 5 is a diagram for explaining the characteristics of the fitting function F in the lung field region. That is, the fitting function F in FIG. 5 shows an example in which 13 functions f are formed as the predetermined number of functions f. As shown in FIG. 5, even if the functions f1 to f13 are used even in a geometric shape such as a lung field region, it can be expressed more approximately.
このように、フィッティング関数Fは、曲線及び直線のみならず、スプライン曲線のように複数曲線で構成されてもよく、それぞれの関数fの次数で表現される。 As described above, the fitting function F may be composed of a plurality of curves such as a spline curve as well as a curve and a straight line, and is expressed by the order of each function f.
また、図5の例におけるフィッティング関数Fを決定した形状モデルM(図2参照)は、上記(A)では13、上記(B)では13の関数f毎の次数の許容範囲、上記(C)ではフレーム画像G上における13の関数f毎のフィッティング適用範囲のうち、少なくとも1つの情報となる。 Further, the shape model M (see FIG. 2) in which the fitting function F in the example of FIG. 5 is determined is the allowable range of the order for each of the functions f of 13 in (A) and 13 in (B), and (C). Then, it is at least one piece of information in the fitting application range for each of the 13 functions f on the frame image G.
上記(A)の13の関数fのうちの1つの関数fを例にして、形状モデルMの概略を説明する。例えば、図4の境界P3の領域における形状モデルMは、上記(A)が1つの関数fであり、上記(B)が当該1の関数fが2次関数であり、上記(C)のフィッティング適用範囲が領域R3という情報をもつ。そして、この形状モデルMを用いて境界P3の領域のフィッティング処理を行うことでフィッティング関数Fは、関数f1(図5参照)と決定される。 The outline of the shape model M will be described using one of the 13 functions f in (A) as an example. For example, in the shape model M in the region of the boundary P3 in FIG. 4, the above (A) is one function f, the above (B) is the 1 function f is a quadratic function, and the fitting of (C) above. The scope of application has information of region R3. Then, the fitting function F is determined as the function f1 (see FIG. 5) by performing the fitting process on the boundary P3 region using the shape model M.
また、図4の境界P4の領域における形状モデルMも同様に、上記(A)が1つの関数fであり、上記(B)が当該1の関数fが2次〜3次関数であり、上記(C)のフィッティング適用範囲が領域R4という情報をもつ。そして、この形状モデルMを用いて境界P4の領域のフィッティング処理を行うことでフィッティング関数Fは、関数f7(図5参照)と決定される。 Similarly, in the shape model M in the region of the boundary P4 in FIG. 4, (A) is one function f, and (B) is the first function f is a quadratic to cubic function. The fitting application range of (C) has information that is the region R4. Then, the fitting function F is determined as the function f7 (see FIG. 5) by performing the fitting process on the boundary P4 using the shape model M.
このように、境界P3やP4と同様の情報が、抽出対象となる全ての境界領域に存在し、形状モデルMが構成されている。 In this way, the same information as the boundaries P3 and P4 exists in all the boundary regions to be extracted, and the shape model M is configured.
具体的に、各関数fは、例えばX,Y座標系における多項式の関数で表現できる。多項式の関数とは、Xを変数とするY=aX^n+bX^(n-1)+…の式、またはYを変数とするX=aY^n+bY^(n-1)+…の式であり、係数a,b,….の最適な値を見つけることで、フレーム画像Gにフィッティングさせることができる。また、XとYとは同時変数とすることで楕円形の関数などにしてもよい。 Specifically, each function f can be expressed by a polynomial function in the X, Y coordinate system, for example. The polynomial function is the equation Y = aX ^ n + bX ^ (n-1) + ... with X as a variable, or X = aY ^ n + bY ^ (n-1) + ... with Y as a variable. , And it is possible to fit the frame image G by finding the optimum values of the coefficients a, b,. Further, X and Y may be an elliptical function by setting them as simultaneous variables.
そして、各関数fは、例えば、X、Yのどちらを変数とする関数であるか、この多項式の最大次数の値(上述の式ではnに相当する)、該当する関数は座標上のどの範囲に出現するか、といった情報で表現される。 Each function f is, for example, a function having X or Y as a variable, the value of the maximum degree of this polynomial (corresponding to n in the above formula), and the corresponding function in which range on coordinates It is expressed by information such as whether it appears in
また、実際に各関数fを算出するには、後述の2値の領域情報やエッジに対し肺野領域の境界となる点をX=x1〜xnまで探索してゆくことで、(x1,y1),(x2,y2)…(xn,yn)の座標配列を取得し、この座標配列に最も近似する係数値a,b,….を見つけることで、関数を算出することができる。最も近似するとは、例えば最小二乗法などを使うことで、判断することができる。 In addition, in order to actually calculate each function f, (x1, y1) is obtained by searching for a point that becomes a boundary of the lung field region with respect to binary region information and an edge to be described later until X = x1 to xn. ), (x2, y2)... (xn, yn) is obtained, and a function can be calculated by finding the coefficient values a, b,. The closest approximation can be determined by using, for example, the least square method.
このように、形状モデルフィッティング部120では、形状モデルMのフィッティング処理を行い、フレーム画像Gに決定したフィッティング関数(すなわち、境界線)Fを付した境界線付フレーム画像GF(図5参照)を順次得る。すなわち、決定したフィッティング関数(境界線)Fとは、上述のように例えば、最小二乗法などを用いてフィッティングされた関数をいう。
As described above, the shape model
続いて、形状モデルフィッティング部120が行う処理について説明する。すなわち、形状モデルフィッティング部120は、フレーム画像Gの画像情報から所定の方法を用いて肺野領域の境界と予想される境界候補情報を抽出する処理、を更に行う。そして、フィッティング処理では、該境界候補情報に基づいて、フィッティング関数Fを決定する処理が行われる。
Next, processing performed by the shape model
図6は、形状モデルフィッティング部120によるフィッティング処理方法について説明する図であり、図6(a)は、肺野領域か否かの画像情報(0/1の領域情報)に対するフィッティング処理を示し、図6(b)は、画像濃度情報に対する直接的なフィッティング処理を示す。
FIG. 6 is a diagram for explaining a fitting process method by the shape model
図6(a)で示されるように、2値情報で分類されるドットで示した領域IR(“1”の領域)とそれ以外の領域(“0”の領域)情報(境界候補情報)に対して形状モデルMのフィッティング処理を行う(フィッティング関数Fを求める)と、形状モデルMは抽出領域を補正する効果や滑らかになって求められる。これは、本来の形状モデルMと異なる領域IRの凹凸部分IRbをノイズと考え、ノイズ部を滑らかにしてフィッティング関数Fを求めるため、精度向上や安定化を図ることが可能となり、肺野領域の抽出のミスを補う処理が可能となる。画像から0/1の領域情報を抽出する領域抽出方法としては、領域拡張法(Region growing)やグラフカット(Graph Cut)(例えば、"Fast Apporoximate Energy Minimization via Graph Cuts.",Y.Boykov,O. Veksler,R. Zabih. IEEE Transactions on Pattern Analysis and Machine Intelligence 23:1222-1239:2001.等参照)などを用いることが可能である。 As shown in FIG. 6A, an area IR ("1" area) indicated by dots classified by binary information and other area ("0" area) information (boundary candidate information) are included. On the other hand, when the fitting process of the shape model M is performed (the fitting function F is obtained), the shape model M is obtained by the effect of correcting the extraction region and the smoothness. This is because the unevenness portion IRb of the region IR different from the original shape model M is considered as noise, and the noise portion is smoothed to obtain the fitting function F. Therefore, it is possible to improve accuracy and stabilize the lung field region. A process to compensate for an extraction error can be performed. As a region extraction method for extracting 0/1 region information from an image, a region growing method or a graph cut (for example, “Fast Apporoximate Energy Minimization via Graph Cuts”, Y. Boykov, O Veksler, R. Zabih. IEEE Transactions on Pattern Analysis and Machine Intelligence 23: 1222-1239: 2001 etc.) can be used.
一方、多値の画像濃度情報(境界候補情報)から直接形状モデルMのフィッティング処理を行う手法もある。図6(b)で例示されるように、関数f7は、画像濃度から肺野領域の輪郭を抽出するためにエッジ判定を行いながらフィッティング処理が行われる。画像から肺野領域の輪郭を抽出するためにエッジを情報とする抽出手法としては、スネーク(Snakes)(例えば、" Snakes: Active contour models.", M.Kass, A.Witkin, and D.Terzopoulos, International Journal of Computer Vision, Vol.1, No.4, pp.321-331, 1988.等参照)等の動的輪郭モデル(Active Contour Model)を用いた手法を用いることが可能である。 On the other hand, there is also a method of performing a fitting process of the shape model M directly from multi-value image density information (boundary candidate information). As illustrated in FIG. 6B, the function f7 is subjected to fitting processing while performing edge determination in order to extract the contour of the lung field region from the image density. To extract the contour of the lung field from the image, as an extraction method using the edge as information, Snakes (for example, "Snakes: Active contour models.", M. Kass, A. Witkin, and D. Terzopoulos , International Journal of Computer Vision, Vol.1, No.4, pp.321-331, 1988.) and the like, it is possible to use a method using an active contour model.
以上のように、肺野領域近接領域として、横隔膜領域、心臓領域、及び、大動脈領域といった相対的に時間変動量の大きい領域を考慮して、形状モデルMのフィッティング処理を実施することができ、肺野領域においてより適切な形状モデルMをフィッティングさせることが可能となる。 As described above, the fitting process of the shape model M can be performed in consideration of regions having a relatively large amount of time variation such as the diaphragm region, the heart region, and the aorta region as the lung field region adjacent region, It becomes possible to fit a more appropriate shape model M in the lung field region.
<2−1−3.形状モデル制御部130>
続いて、形状モデル制御部130は、フレーム画像Gに対するフィッティング処理に用いる形状モデルMを時間方向に沿って順次変更する形状モデル変更処理を実施し、変更された形状モデルMを用いたフィッティング処理を実施するように形状モデルフィッティング部120に指令を与える。
<2-1-3. Shape
Subsequently, the shape
ここで言う「形状モデル変更処理」とは、(a)所定数の関数を増減させる処理と、(b)当該所定数の関数のうち、少なくとも1つの関数の次数の許容範囲を変更する処理と、(c)所定数の関数のうち、少なくとも1つの関数のフィッティング適用範囲を変更する処理と、の少なくとも1つの処理を含む。また、これら(a)〜(c)の処理は、上記の境界候補情報に基づいて行われることが好ましい。 The “shape model changing process” referred to herein includes (a) a process for increasing / decreasing a predetermined number of functions, and (b) a process for changing the allowable range of the order of at least one function among the predetermined number of functions. (C) at least one process of changing a fitting application range of at least one function among the predetermined number of functions. Moreover, it is preferable that the processes (a) to (c) are performed based on the boundary candidate information.
例えば、図5の決定されたフィッティング関数Fに基づいて次フレーム画像Gの形状モデルMを変更する場合について形状モデル変更処理を説明すると、上記(a)では13個の関数f1〜f13を増減させることが可能となる。また、当該13の関数f1〜f13のうち、(b)では少なくとも1つの関数fの次数を変更でき、(c)では少なくとも1つの関数fのフィッティング適用範囲を変更することが可能となる。 For example, the shape model changing process will be described in the case where the shape model M of the next frame image G is changed based on the determined fitting function F in FIG. 5. In (a), 13 functions f1 to f13 are increased or decreased. It becomes possible. Of the thirteen functions f1 to f13, the order of at least one function f can be changed in (b), and the fitting application range of at least one function f can be changed in (c).
形状モデル制御部130は、時間的に大幅に形状モデルMを変えないだけでなく、フィッティング関数F自体の時間的な移動も少なく且つ滑らかに描かれることが望ましい。ただし、心拍による心臓の動きなどにおいて、fps(frame per second)不足の撮影であった場合には、2つのフレーム画像G間で急激に関数変化があるため、領域に応じて滑らかにする処理が必要となる。胸部X線動画像の中では、とりわけ、体動、呼吸、心拍の3つの動きが想定される。領域ごとに3つの原因による急激な動きの上限値を予め保持し、想定内の動きのみを許容することが望ましい。例えば、想定外の動きは外れ値として除外し、対象のフレーム画像Gの前後のフレーム画像Gから補間値を求めることで実現できる。また、呼吸や心拍などは周期的にあるパターンで動くため、周期的な動きのみを許容することが望ましい。
It is desirable that the shape
<2−1−4.対象領域抽出部140>
対象領域抽出部140では、フィッティング処理が行われた境界線付フレーム画像GFを形状モデルフィッティング部120から順次取得し、記憶部32へ記憶する。
<2-1-4. Target
The target
<2−2.画像処理装置3の基本動作>
図7は、第1実施形態に係る画像処理装置3において実現される基本動作を説明するフローチャートである。既に各部の個別機能の説明は行ったため(図2参照)、ここでは全体の流れのみ説明する。
<2-2. Basic Operation of
FIG. 7 is a flowchart for explaining a basic operation realized in the
図7に示すように、まず、ステップS11において、制御部31の動画像取得部110が、撮像装置1の読取制御装置14によって撮影された動画像を、撮影制御装置2を介して取得する。
As shown in FIG. 7, first, in step S <b> 11, the moving
ステップS12では、形状モデルフィッティング部120が、ステップS11において取得された動画像におけるフレーム画像Gに対して、境界候補情報(0/1の領域情報(図6(a)参照)または画像濃度情報(図6(b)参照))に基づいて、形状モデルMのフィッティング処理を行うことで、境界線付フレーム画像GF(図5参照)を得て、当該境界線付フレーム画像GFを対象領域抽出部140に出力する。
In step S12, the shape model
ステップS13では、制御部31が、全てのフレーム画像Gにおいてフィッティング処理を実施したか否かを判定し、未処理がある場合にはステップS14に移り、未処理がない場合には本動作フローが終了される。
In step S13, the
ステップS14では、形状モデル制御部130が、境界線付フレーム画像GFの取得に用いた形状モデルMを変更して、変更した形状モデルMを次フレーム画像Gにフィッティングさせるよう形状モデルフィッティング部120に指令を与え、ステップS12に移る。
In step S <b> 14, the shape
そして、ステップS12においては、形状モデルフィッティング部120が、ステップS14において変更された形状モデルMを用いて新たに入力され、フレーム画像Gに対してフィッティング処理を行う。
In step S12, the shape model
このように、全てのフレーム画像Gにおけるフィッティング処理が終了されるまで、ステップS12〜ステップS14の工程が繰り返され、全てのフレーム画像Gにおいてフィッティング処理が終了された後、本動作フローが終了される。 As described above, the steps S12 to S14 are repeated until the fitting process is completed for all the frame images G. After the fitting process is completed for all the frame images G, the operation flow is completed. .
以上のように第1実施形態に係る画像処理装置3では、形状モデル制御部130が、フレーム画像Gに対するフィッティング処理に用いる形状モデルMを時間方向に沿って順次変更する形状モデル変更処理を実施する。このため、時間方向で肺野領域の形状が変化することに対応して、形状モデルMを変更することが可能となる。これにより、安定的且つ高速に境界線付フレーム画像GF(肺野領域境界情報)を得ることができるため、肺野領域の抽出精度の向上を実現することが可能となる。
As described above, in the
また、フィッティング関数Fは、所定数の関数fから構成されることにより、フィッティング関数Fは肺野領域の局所的な形状を表現することができ、肺野領域の抽出精度の向上を可能とする(図5)。 In addition, since the fitting function F is composed of a predetermined number of functions f, the fitting function F can express the local shape of the lung field region, and the extraction accuracy of the lung field region can be improved. (FIG. 5).
また、形状モデルMは、フィッティング関数Fを決定するためのモデルであり、当該所定数及び当該関数f毎の次数の許容範囲のうち、少なくとも1つの情報を含む。これにより、フィッティング関数Fを求めるにあたっての制約条件を与えることが可能となる。このため、肺野領域の境界を近似的に表現することが可能なフィッティング関数Fを早期かつ適切に決定することができる。 The shape model M is a model for determining the fitting function F, and includes at least one piece of information within the predetermined number and the allowable range of the order for each function f. Thereby, it is possible to give a constraint condition for obtaining the fitting function F. For this reason, the fitting function F that can approximately represent the boundary of the lung field region can be determined early and appropriately.
また、形状モデルMは、フレーム画像G上における関数f毎のフィッティング適用範囲の情報を更に含む。これにより、肺野領域の形状が複雑な場合においても、肺野領域の境界をより近似的に表現することが可能なフィッティング関数Fを早期かつ適切に決定することができる。このため、肺野領域の抽出精度がより向上する。 The shape model M further includes information on the fitting application range for each function f on the frame image G. As a result, even when the shape of the lung field region is complicated, the fitting function F capable of more approximately expressing the boundary of the lung field region can be determined early and appropriately. For this reason, the extraction accuracy of the lung field region is further improved.
また、形状モデル変更処理は、(a)所定数の関数fを増減させる処理と、(b)所定数の関数fのうち、少なくとも1つの関数fの次数の許容範囲を変更する処理と、(c)所定数の関数fのうち、少なくとも1つの関数fのフィッティング適用範囲を変更する処理と、のうち、少なくとも1つの処理を含む。これにより、時間方向で肺野領域の形状あるいは位置が著しく変化した場合においても十分対応することが可能となる。このため、所定領域の抽出精度がより向上する。 Further, the shape model changing process includes (a) a process for increasing / decreasing a predetermined number of functions f, (b) a process for changing an allowable range of the order of at least one function f among the predetermined number of functions f, and ( c) At least one process is included among the processes of changing the fitting application range of at least one function f among the predetermined number of functions f. As a result, even when the shape or position of the lung field region changes remarkably in the time direction, it is possible to sufficiently cope with it. For this reason, the extraction accuracy of the predetermined region is further improved.
また、フィッティング処理は、境界候補情報に基づいて、フィッティング関数Fを決定する処理を含む。これにより、肺野領域の形状が複雑な場合においても、肺野領域の境界をより近似的に表現することが可能なフィッティング関数Fをより早期かつ適切に決定することができる。このため、肺野領域の抽出精度が更に向上する。 The fitting process includes a process for determining the fitting function F based on the boundary candidate information. As a result, even when the shape of the lung field region is complicated, the fitting function F capable of expressing the boundary of the lung field region more approximately can be determined earlier and appropriately. For this reason, the extraction accuracy of the lung field region is further improved.
さらに、形状モデル変更処理は、境界候補情報に基づいて、上記(a)〜(c)のうち、少なくとも1つの処理、を含む。これにより、時間方向で肺野領域の形状あるいは位置が著しく変化した場合においても、境界候補情報を考慮することができるため、フィッティング処理の誤りを防止できる。このため、より安定的且つ高速にフィッティング結果を得ることが可能となる。 Furthermore, the shape model change process includes at least one of the above (a) to (c) based on the boundary candidate information. As a result, even when the shape or position of the lung field region changes significantly in the time direction, the boundary candidate information can be taken into account, so that an error in the fitting process can be prevented. For this reason, it becomes possible to obtain a fitting result more stably and at high speed.
<3.第2実施形態>
図8は、本発明の第2実施形態として構成された画像処理装置3A(図1参照)で用いられる制御部31Aの機能構成を示す図である。この制御部31Aは、第1実施形態の画像処理装置3における制御部31(図2参照)の代替として使用される。第1実施形態と異なる点は、第1実施形態の形状モデル制御部130に対応する形状モデル制御部130Aが制約条件記憶部135Aを備える点である。なお、残余の構成は画像処理装置3と同様である。
<3. Second Embodiment>
FIG. 8 is a diagram illustrating a functional configuration of the
<3−1.制約条件記憶部135A>
制約条件記憶部135Aでは、形状モデル変更処理に用いる予め定めた規則や順序といった制約条件を記憶する。そして、形状モデル制御部130Aが、当該制約条件に基づいて形状モデル変更処理を行う。
<3-1. Constraint Condition Storage Unit 135A>
The constraint condition storage unit 135A stores constraint conditions such as predetermined rules and order used for the shape model change process. Then, the shape
すなわち、時間方向で大幅に形状モデルMが変更される確率は低いため、次フレーム画像Gの形状モデルMの判断においては、前フレーム画像Gにおける形状モデルMを維持する制約条件を設けるほか、関数fに関する個数の増減を「±1」に予め限定する制約条件や、各関数fの次数の増減を「±1」に予め限定する制約条件を記憶しておくことで、安定した形状モデルMの変更を行うことができる。 That is, since the probability that the shape model M is significantly changed in the time direction is low, in determining the shape model M of the next frame image G, a constraint condition for maintaining the shape model M in the previous frame image G is provided, By storing the constraint condition that limits the increase / decrease in the number of f to “± 1” in advance and the constraint condition that limits the increase / decrease in the order of each function f to “± 1” in advance, the stable shape model M Changes can be made.
<3−2.画像処理装置3Aの基本動作>
続いて、図9は、第2実施形態に係る画像処理装置3Aの動作フローを例示した図である。なお、図9のうち、ステップS21〜S23は図7のステップS11〜S13と同様であるため、その説明は省略する。
<3-2. Basic Operation of
Subsequently, FIG. 9 is a diagram illustrating an operation flow of the
この第2実施形態では、第1実施形態では存在しなかった制約条件記憶部135Aが付加されたことで、下記の工程のみが変更される。 In the second embodiment, only the following steps are changed by adding the constraint condition storage unit 135A that did not exist in the first embodiment.
すなわち、第1実施形態と同様の工程として、ステップS21〜ステップS23を経て、図9で示されるように、ステップS24にて、形状モデル制御部130Aが、境界線付フレーム画像GFに付された境界線(フィッティング関数F)を制約条件記憶部135Aに記憶された予め定めた規則や順序に基づいて変更して、変更した形状モデルMを次フレーム画像Gにフィッティングさせるよう形状モデルフィッティング部120に指令を与え、ステップS22に移る。そして、残余の工程は第1実施形態と同様となる。
That is, as a process similar to that of the first embodiment, after passing through steps S21 to S23, as shown in FIG. 9, the shape
以上のように第2実施形態に係る画像処理装置3Aでは、予め定めた規則や順序を記憶した制約条件に基づいて形状モデルMを変更することにより、形状モデルMの変更において所定の制約をかけることができ、より安定的に所望の形状モデルMの変更を誘導することが可能となる。
As described above, in the
<4.第3実施形態>
図10及び図11は、本発明の第3実施形態として構成された画像処理装置3B,3B’(図1参照)で用いられる制御部31B,31B’の機能構成を示す図である。この制御部31B,31B’は、第1実施形態の画像処理装置3における制御部31(図2参照)の代替として使用される。第1実施形態と異なる点は、時間変化検出部115B,115B’をさらに備え、時間変化検出部115B,115B’の出力結果を形状モデル制御部130B,130B’が受ける点である。なお、残余の構成は画像処理装置3と同様である。
<4. Third Embodiment>
10 and 11 are diagrams showing a functional configuration of the
<4−1.時間変化検出部115B,115B’>
間変化検出部115B,115B’では、フレーム画像Gに同期した肺野領域の周期的な時間変化を検出して時間変化情報Tを取得する(図10及び図11参照)。時間変化情報Tとは、肺野領域において相対的に時間変動量が大きい領域の周期的な時間変化である。ここでは、とりわけ呼吸周期変化および心拍周期変化を例に挙げて説明する。
<4-1. Time
The inter-period
以下では、心拍周期変化及び呼吸周期変化についての算出方法を説明する。 Below, the calculation method about a cardiac cycle change and a respiratory cycle change is demonstrated.
<4−1−1.第1の心拍情報検出方法:心電計の検出結果>
第1の心拍情報検出方法として、図10で示されるように時間変化検出部115Bでは、心電計4の位相検出部41から取得された結果を用いる。すなわち、時間変化検出部115Bは、外部より心拍周期変化が取得されるように構成される。図12は、被検者OBの心電図波形の1周期を例示する図である。なお、図12では、横軸が時刻、縦軸が電気信号の大きさ(電圧)を示しており、いわゆるP波、Q波、R波、S波、T波及びU波の形状をそれぞれ示す曲線Pp,Qp,Rp,Sp,Tp及びUpを含む電気信号の変化を示す曲線が示されている。
<4-1-1. First Heart Rate Information Detection Method: Electrocardiograph Detection Result>
As a first heartbeat information detection method, the time
そこで、時間変化検出部115Bでは、位相検出部41から取得された検出結果に基づいて、上記の点(Pp,Qp,Rp,Sp,Tp及びUp)を検出することで、心拍周期変化を取得する。
Therefore, the time
なお、位相検出部41による検出動作は撮像装置1による撮像動作と同期して行われる(図1参照)。
The detection operation by the
このように、時間変化検出部115Bでは、外部より心拍周期変化が取得されることにより、心臓の周期的な時間変化を自動的に取得することが可能となる。
As described above, the time
<4−1−2.第2の心拍情報検出方法:心臓壁の動き量>
一方、第2の心拍情報検出方法として、図11で示されるように時間変化検出部115B’では、動画像取得部110によって取得された撮影画像を用いて、心臓壁の動き量を算出することで、心拍情報とする。すなわち、時間変化検出部115B’は、動画像で捉えられた心臓壁の変動に基づき心拍周期を検出後、形状モデル制御部130B’に出力する(図11参照)。詳細には、動画像から心臓壁の変動が検出されることで、各フレーム画像が撮影されたタイミングにおける心臓の拍動の位相が検出される。したがって、心臓壁が心臓の拍動の位相として検出される。
<4-1-2. Second Heart Rate Information Detection Method: Heart Wall Movement Amount>
On the other hand, as a second heart rate information detection method, as shown in FIG. 11, the time
図13は、動画像で捉えられた心臓壁の変動を例示する模式図である。図13で示されるように、心臓壁HLの変動の一例として、心臓の横幅の変動を採用する。図13(a)〜図13(c)では、心臓が拡張していく過程で、心臓の横幅がw1からw3へと大きくなっていく状態が例示されている。 FIG. 13 is a schematic diagram illustrating the fluctuation of the heart wall captured in the moving image. As shown in FIG. 13, as an example of the fluctuation of the heart wall HL, the fluctuation of the lateral width of the heart is adopted. FIGS. 13A to 13C illustrate a state in which the lateral width of the heart increases from w1 to w3 in the process of expanding the heart.
そこで、時間変化検出部115B’では、各フレーム画像から、心臓の横幅を検出することで、心拍周期を検出する。具体的に、心臓の横幅を検出する手法としては、例えば、心臓の輪郭を検出して行う手法等が挙げられる。そして、この心臓の輪郭を検出する手法としては、種々の公知の手法を採用することができ、例えば、心臓の形状を示すモデル(心臓モデル)を用いて、X線画像中の特徴点と、心臓モデルの特徴点とを合わせて行くことで、心臓の輪郭を検出する手法(例えば、"Image feature analysis and computer-aided diagnosis in digital radiography: Automated analysis of sizes of heart and lung in chest images", Nobuyuki Nakamori et al., Medical Physics, Volume 17, Issue 3, May,1990, pp.342-350.等参照)等を採用することができる。
Therefore, the time
図14は、動画像を構成する複数のフレーム画像について、撮影された時刻と心臓の横幅との関係を例示する模式図である。図14では、横軸が時刻、縦軸が心臓の横幅を示し、丸印が検出された心臓の横幅の値を示している。 FIG. 14 is a schematic view exemplifying the relationship between the time when the image was taken and the lateral width of the heart for a plurality of frame images constituting the moving image. In FIG. 14, the horizontal axis indicates time, the vertical axis indicates the width of the heart, and the value of the width of the heart where a circle is detected is illustrated.
ここで、時刻tで捉えられた心臓の横幅をHwt、時刻t+1で捉えられた心臓の横幅をHwt+1とし、(Hwt+1−Hwt)≧0が成立する場合には、時刻tで捉えられたフレーム画像が心臓の拡張時に分類され、(Hwt+1−Hwt)<0が成立する場合には、時刻tで捉えられたフレーム画像が心臓の収縮時に分類される。 Here, if the lateral width of the heart captured at time t is Hwt, the lateral width of the heart captured at time t + 1 is Hwt + 1, and if (Hwt + 1−Hwt) ≧ 0 holds, it is captured at time t. The obtained frame image is classified when the heart is expanded, and if (Hwt + 1−Hwt) <0 holds, the frame image captured at time t is classified when the heart contracts.
このように、心臓の横幅、すなわち、心臓壁HLの変動を検出することで、心臓の拡張時および収縮時が分類できるため、心臓の拍動の位相を検出することが可能となる。 In this way, by detecting the lateral width of the heart, that is, the fluctuation of the heart wall HL, it is possible to classify the time of dilation and contraction of the heart, so that the phase of the heart beat can be detected.
以上のように、時間変化検出部115B’では、動画像で捉えられた心臓壁の動きに基づき、心拍周期を検出することで、心拍周期を自動的に取得可能である。 As described above, the time change detection unit 115 </ b> B ′ can automatically acquire the heartbeat period by detecting the heartbeat period based on the motion of the heart wall captured in the moving image.
なお、第2の心拍情報検出方法は、第1の心拍情報検出方法と比較して間接的に心拍周期を検出するため、ノイズ成分も含まれやすいと予想される。そこで、時間変化検出部115B’では、動画像で捉えられた心臓壁HLの動きに基づき、周波数解析等を用いて心拍周期を検出することが好ましい。 In addition, since the 2nd heart rate information detection method detects a heart rate cycle indirectly compared with the 1st heart rate information detection method, it is estimated that a noise component is easy to be included. Therefore, it is preferable that the time change detection unit 115 </ b> B ′ detects the heartbeat period using frequency analysis or the like based on the motion of the heart wall HL captured in the moving image.
<4−1−3.第1の呼吸情報検出方法:別機器による計測結果>
第1の呼吸情報検出方法として、別機器による計測結果を用いる(図10参照)。すなわち、時間変化検出部115Bは、外部より呼吸周期が設定可能に構成される。別機器により計測する方法としては、例えば、特許第3793102号に記載されているような装置を用いることができる。また、レーザー光とCCDカメラで構成されたセンサによるモニタリングにより実施する手法(例えば、"FG視覚センサを用いた就寝者の呼吸モニタリングに関する検討",青木 広宙,中島 真人,電子情報通信学会ソサイエティ大会講演論文集 2001年.情報・システムソサイエティ大会講演論文集, 320-321, 2001-08-29.等参照)等を採用することもできる。
<4-1-3. First Respiratory Information Detection Method: Measurement Result with Another Device>
As a first respiratory information detection method, a measurement result by another device is used (see FIG. 10). That is, the time
なお、本実施形態では、図10で示される時間変化検出部115Bのように、サイクル検出装置16のサイクル検出部15が利用可能である。
In the present embodiment, the
このように、時間変化検出部115Bでは、外部より呼吸周期が取得されることにより、横隔膜の周期的な時間変化を自動的に取得可能である。
As described above, the time
<4−1−4.第2の呼吸情報検出方法:面積値または特徴点間距離>
一方、第2の呼吸情報検出方法として、図11で示されるように時間変化検出部115B’では、動画像取得部110によって取得された撮影画像を用いて、肺野部の面積値あるいは特徴点間距離を算出することで、呼吸情報とする。すなわち、時間変化検出部115B’は、動画像で捉えられた肺野領域の面積値あるいは特徴点間距離の変化に基づき、呼吸周期を検出後、形状モデル制御部130B’に出力する(図11参照)。肺野部の面積の求め方は、肺野部の輪郭抽出を行い、輪郭に囲まれた領域の画素数を肺野領域として定義することが可能である。
<4-1-4. Second respiratory information detection method: area value or distance between feature points>
On the other hand, as a second respiration information detection method, as shown in FIG. 11, the time
図15は、肺野部の輪郭抽出を例示する模式図である。肺野部の抽出は、図15で示すように、左右ごとに抽出しても、心臓や脊椎の領域を含んだ輪郭として抽出してもよい。抽出方法としては、従来技術(例えば、"Image feature analysis and computer-aided diagnosis: Accurate determination of ribcage boundary in chest radiographs”, Xin-Wei Xu and Kunio Doi, Medical Physics, Volume 22(5), May 1995, pp.617-626.等参照)等を採用することができる。 FIG. 15 is a schematic diagram illustrating the contour extraction of the lung field. As shown in FIG. 15, the lung field may be extracted for each of the left and right sides, or may be extracted as a contour including the heart and spine regions. Extraction methods include conventional techniques (eg, “Image feature analysis and computer-aided diagnosis: Accurate determination of ribcage boundary in chest radiographs”, Xin-Wei Xu and Kunio Doi, Medical Physics, Volume 22 (5), May 1995, pp.617-626 etc.) can be employed.
このように、時間変化検出部115B’では、取得された撮影画像を用いて、肺野部の輪郭OLの抽出を実施し、抽出された領域内のピクセル数を特徴量として、該特徴量を肺野領域の面積として検出する。
As described above, the time
また、第2の呼吸情報検出方法としては、撮影画像を用いて、肺野領域の特徴点間の距離を算出し、呼吸情報とすることも可能である。すなわち、肺野部の抽出を上記方法と同様に実施し、抽出された領域から、特徴点2点を求め、その2点間の距離を求めることで特徴量を算出する。 As a second respiration information detection method, it is also possible to calculate the distance between feature points of the lung field region using the captured image and use it as respiration information. That is, lung field extraction is performed in the same manner as described above, and two feature points are obtained from the extracted region, and a feature amount is calculated by obtaining a distance between the two points.
図16は、肺野領域の特徴点の位置を例示した図である。肺領域の上端LTから下端LBまでの長さ(肺野長)の変化を算出する場合、図16(a)では、肺尖部を肺領域の上端LTとし、肺尖部から体軸方向におろした直線と横隔膜との交点を肺領域の下端LBとして抽出した例であり、図16(b)では、肺尖部を肺領域の上端LTとし、肋横角を肺領域の下端LBとして抽出した例である。 FIG. 16 is a diagram illustrating positions of feature points in the lung field region. When calculating the change in the length (lung field length) from the upper end LT to the lower end LB of the lung region, in FIG. 16 (a), the lung apex is the upper end LT of the lung region, and from the lung apex to the body axis direction. FIG. 16B shows an example in which the intersection of the lowered straight line and the diaphragm is extracted as the lower end LB of the lung region. In FIG. 16B, the lung apex is extracted as the upper end LT of the lung region, and the lateral angle is extracted as the lower end LB of the lung region. This is an example.
図17は、時間変化検出部115B’において検出された呼吸情報の波形データを時系列で示した模式図であり、肺野領域の面積値あるいは特徴点間距離といった特徴量を算出し、時間方向にモニタリングした結果となる。図17で示されるように、呼吸の周期(呼吸サイクル)Bの1周期は、吸気と呼気とから構成され、1回の呼気と1回の吸気からなる。吸気では、横隔膜が下がって息が吸い込まれるに連れて胸郭中の肺野の領域が大きくなる。息を最大限に吸い込んだとき(吸気と呼気の変換点)が最大吸気時B1である。呼気では、横隔膜が上がって息が吐き出されるに連れて肺野の領域が小さくなるが、息を最大限に排出したとき(呼気と吸気の変換点)が最大呼気時B2となる。
FIG. 17 is a schematic diagram showing waveform data of respiratory information detected by the time
以上のように、時間変化検出部115B’では、動画像で捉えられた肺野領域の面積値あるいは特徴点間距離の時間的変化に基づき、呼吸周期を検出するため、呼吸周期を自動的に取得可能である。
As described above, the temporal
また、第2の呼吸情報検出方法は、第1の呼吸情報検出方法と比較して間接的に呼吸周期を検出するため、ノイズ成分も含まれやすいと予想される。そこで、時間変化検出部115B’では、動画像で捉えられた肺野領域の面積値あるいは特徴点間距離の時間的変化に基づき、周波数解析等を用いて呼吸周期を検出することが好ましい。
Moreover, since the 2nd respiratory information detection method detects a respiratory cycle indirectly compared with the 1st respiratory information detection method, it is estimated that a noise component is easy to be included. Therefore, it is preferable that the time
<4−2.形状モデル制御部130B,130B’>
制御部31B,31B’が時間変化検出部115B,115B’を備えるため、形状モデル制御部130B,130B’では、時間変化検出部115B,115B’から出力される呼吸周期変化および心拍周期変化に基づいて形状モデル変更処理を行う。
<4-2. Shape
Since the
以下では、呼吸周期変化に基づいて形状モデル変更処理を行う例を説明する。図18は、呼吸周期変化に基づく関数f(形状モデルM)の変更ルールについて説明する模式図である。図18(a)〜図18(c)では、呼吸周期変化に対応してフレーム画像Gの画像の見え方が異なることを示した図であり、図18(d)では、フレーム画像Gの画像の見え方が異なることを考慮した関数fの次数の設定ルールを説明する図である。なお、各フレーム画像Gにおける関数fの次数は、画像上でエッジ検出を実施した後決定される。 Below, the example which performs a shape model change process based on a respiratory cycle change is demonstrated. FIG. 18 is a schematic diagram for explaining a change rule of the function f (shape model M) based on a respiratory cycle change. 18 (a) to 18 (c) are diagrams showing that the appearance of the image of the frame image G is different corresponding to the respiratory cycle change, and in FIG. 18 (d), the image of the frame image G is shown. It is a figure explaining the setting rule of the order of the function f which considered that the appearance of is different. Note that the order of the function f in each frame image G is determined after performing edge detection on the image.
図18(a)で示されるフレーム画像Gaは、呼吸周期変化において呼気に対応しており、肺野領域近接領域に相当する横隔膜領域の境界P4は、画像上隠れてしまう傾向にある。したがって、関数f71の設定は、関数なしとして定義される(図18(d)参照)。 A frame image Ga shown in FIG. 18A corresponds to exhalation in the change of the respiratory cycle, and the boundary P4 of the diaphragm region corresponding to the lung field region proximate region tends to be hidden on the image. Therefore, the setting of the function f71 is defined as no function (see FIG. 18D).
図18(b)で示されるフレーム画像Gbは、呼吸周期変化において呼気と吸気の中間の位置に対応しており、肺野領域近接領域に相当する横隔膜領域の境界P4は、画像上、直線または曲線として見える傾向にある。したがって、関数f72の設定では1次関数または2次関数として定義される(図18(d)参照)。 A frame image Gb shown in FIG. 18 (b) corresponds to an intermediate position between exhalation and inspiration in the change of the respiratory cycle, and the boundary P4 of the diaphragm region corresponding to the lung region adjacent region is linear or It tends to appear as a curve. Therefore, the function f72 is defined as a linear function or a quadratic function (see FIG. 18D).
図18(c)で示されるフレーム画像Gcは、呼吸周期変化において吸気に対応しており、肺野領域近接領域に相当する横隔膜領域の境界P4は、画像上、S字曲線として見える傾向になる。したがって、関数f73の設定では3次関数として定義される(図18(d)参照)。 A frame image Gc shown in FIG. 18C corresponds to inspiration in the change of the respiratory cycle, and the boundary P4 of the diaphragm region corresponding to the lung region adjacent region tends to appear as an S-shaped curve on the image. . Therefore, the function f73 is defined as a cubic function (see FIG. 18D).
以上のように、呼吸位相に対して横隔膜は、吸気で次数増、呼気で次数減の変化をしてゆくため、位相に対応して形状モデルMの変更先を予め限定したルールとすることが好ましい。つまり、吸気位相では肺が膨張して肋横角の形がよく見える状態に近づくため、横隔膜の関数の次数が増える方向に遷移するようにルール化する。逆に、呼気位相では肺が収縮して他の臓器に隠れていくため、次数が減る方向に遷移するよう、ルール化する(図18(d)参照)。このようにルール化することで、フレーム画像Gが呼気か吸気かの何れに位置するかがわかれば、形状モデルMの変更処理を変えることができるため、呼吸周期変化に基づいて形状モデル変更処理を行うことが可能となる。 As described above, since the diaphragm changes in order with inspiration and decreases in order with respect to the breathing phase, the change destination of the shape model M may be defined in advance according to the phase. preferable. In other words, in the inspiratory phase, the lungs expand and approach the state where the shape of the heel lateral angle can be seen well, so a rule is set so that the order of the diaphragm function increases. Conversely, in the expiration phase, since the lungs contract and hide in other organs, a rule is set so that the order is reduced (see FIG. 18D). By making the rules in this way, if it is known whether the frame image G is located in expiration or inspiration, the change process of the shape model M can be changed, so that the shape model change process based on the respiratory cycle change Can be performed.
また、横隔膜の隠れなど呼吸周期変化だけでなく、心拍位相による心臓形状の変化(図13及び図14参照)や大動脈の隠れによる変化などにおいても、予め限定したルール化を行い、当該ルールに従って形状モデル変更処理を行うことが可能となる。 In addition, not only respiratory cycle changes such as diaphragm hiding, but also changes in heart shape due to heartbeat phase (see FIGS. 13 and 14) and changes due to aortic occlusion, etc., preliminarily limited rules are formed, and shapes according to the rules are determined. Model change processing can be performed.
また、上記処理(c)におけるフィッティング適用範囲を狭く変更する場合において、形状モデル制御手段130B,130B’では、形状モデル変更処理において、上記処理(a)として所定数の関数fを減らす処理と、上記処理(b)として所定数の関数fのうち、フィッティング適用範囲を狭くする関数fにおいては当該関数fの次数の許容範囲の上限を下げる処理と、が行われる。 Further, when the fitting application range in the process (c) is narrowly changed, the shape model control means 130B, 130B ′ includes a process of reducing a predetermined number of functions f as the process (a) in the shape model change process; As the process (b), among the predetermined number of functions f, the function f for narrowing the fitting application range is performed to lower the upper limit of the allowable range of the order of the function f.
すなわち、境界候補情報に応じて上記(a)〜(c)の処理内容が決定されるため、境界候補情報が減少するときは、上記処理(a)では関数の数を減らす処理、上記処理(b)では関数の次数の許容範囲の上限を下げる処理、上記処理(c)ではフィッティング適用範囲を狭くする処理、のうち、少なくとも1つの処理が行われる。したがって、上記処理(c)にてフィッティング適用範囲が狭く変更される場合は、上記処理(a)において、関数の数を減らす処理、及び/または、上記処理(b)において、関数の次数の許容範囲の上限を下げる処理を行うことよりが好ましい。 That is, since the processing contents (a) to (c) are determined according to the boundary candidate information, when the boundary candidate information decreases, the processing (a) reduces the number of functions, and the processing ( In b), at least one of processing for lowering the upper limit of the allowable range of the order of the function and processing for narrowing the fitting application range in the processing (c) is performed. Accordingly, when the fitting application range is narrowly changed in the process (c), the function order is reduced in the process (a) and / or the function order is allowed in the process (b). It is more preferable to perform a process of lowering the upper limit of the range.
ここで、図18の例で説明すると、フレーム画像Gc(図18(c)参照)からフレーム画像Gb(図18(b)参照)に移る際の形状モデル変更処理では、上記処理(b)としてフィッティング適用範囲を狭くする関数f73においては当該関数f73の次数の許容範囲の上限を下げる処理(すなわち、3次関数から2次または1次関数に変更)を行うことになる。また、フレーム画像Gb(図18(b)参照)からフレーム画像Ga(図18(a)参照)に移る際の形状モデル変更処理では、上記処理(a)として関数f72から関数なしに変更(すなわち、関数の数を−1に変更)することになる。 Here, in the example of FIG. 18, in the shape model change process when moving from the frame image Gc (see FIG. 18C) to the frame image Gb (see FIG. 18B), the above process (b) is performed. In the function f73 for narrowing the fitting application range, processing for lowering the upper limit of the allowable range of the order of the function f73 (that is, changing from a cubic function to a quadratic or linear function) is performed. Further, in the shape model change process when moving from the frame image Gb (see FIG. 18B) to the frame image Ga (see FIG. 18A), the function f72 is changed from the function f72 to no function as the process (a) (that is, , The number of functions is changed to −1).
このように、上記処理(c)にてフィッティング適用範囲が狭く変更される場合は、上記処理(a)において、関数の数を減らす処理、及び/または、上記処理(b)において、関数の次数の許容範囲の上限を下げる処理を行うことにより、関数の自由度を下げ、フィッティング処理の誤りを防止できるとともに、安定したフィッティング結果を得ることが可能となる。 Thus, when the fitting application range is narrowly changed in the process (c), the order of the function is reduced in the process (a) and / or the process (b) in which the number of functions is reduced. By performing the process of lowering the upper limit of the allowable range, it is possible to reduce the degree of freedom of the function, prevent an error in the fitting process, and obtain a stable fitting result.
<4−3.画像処理装置3B,3B’の基本動作>
続いて、図19は、第3実施形態に係る画像処理装置3B,3B’のうち、代表して画像処理装置3Bの動作フローを例示した図である。なお、図19のうち、ステップS32〜S33は図7のステップS12〜S13と同様であるため、その説明は省略する。
<4-3. Basic Operation of
Subsequently, FIG. 19 is a diagram exemplarily showing an operation flow of the
この第3実施形態では、第1実施形態では存在しなかった時間変化検出部115Bが付加されたことで、下記の工程が変更される。
In the third embodiment, the following process is changed by adding the time
図19に示すように、まず、ステップS31において、制御部31Bの動画像取得部110が、撮像装置1の読取制御装置14によって撮影された動画像を、撮影制御装置2を介して取得するとともに、時間変化検出部115Bが、撮像装置1のサイクル検出部15から呼吸周期変化を取得し、心電計4の位相検出部41から心拍周期変化を取得する。
As shown in FIG. 19, first, in step S <b> 31, the moving
そして、第1実施形態と同様の工程として、ステップS32〜ステップS33を経て、ステップS34にて、形状モデル制御部130Bが、境界線付フレーム画像GFに付された境界線(フィッティング関数F)を時間変化検出部115Bにて検出された時間変化情報Tに基づいて変更して、変更した形状モデルMを次フレーム画像Gにフィッティングさせるよう形状モデルフィッティング部120に指令を与え、ステップS32に移る。そして、残余の工程は第1実施形態と同様となる。
Then, as steps similar to those in the first embodiment, through step S32 to step S33, in step S34, the shape
以上のように画像処理装置3B(3B’)では、時間変化情報に基づいて形状モデルMを変更することにより、肺野領域近接領域の周期変化に適合させて形状モデルMを決定することができる。このため、肺野領域の抽出精度がより向上する。
As described above, in the
<5.第4実施形態>
図20及び図21は、本発明の第4実施形態として構成された画像処理装置3C(図1参照)で用いられる制御部31Cの機能構成を示す図である。この制御部31Cは、第1実施形態の画像処理装置3における制御部31(図2参照)の代替として使用される。第1実施形態と異なる点は、フィッティング結果記憶部125を備える点、及び、形状モデル制御部130Cが形状モデル適正評価部135Cを備える点である。なお、残余の構成は画像処理装置3と同様である。
<5. Fourth Embodiment>
20 and 21 are diagrams showing a functional configuration of the
<5−1.フィッティング結果記憶部125>
フィッティング結果記憶部125では、形状モデルフィッティング部120から出力される境界線付フレーム画像GFを順次記憶する(図20及び図21参照)。
<5-1. Fitting
The fitting
フィッティング結果記憶部125が付加されたことにより、形状モデル変更処理は以下の2つのモデル変更処理を実施することが可能となる。すなわち、フレーム画像Gに対してフィッティング処理が行われた形状モデルMから、当該フレーム画像Gの次のフレーム画像Gのフィッティング処理に用いる形状モデルMを変更する「第1のモデル変更処理」(第1〜第3実施形態と同様、図20参照)に加え、フレーム画像Gに対してフィッティング処理が行われた形状モデルMから、当該フレーム画像Gの再度のフィッティング処理に用いる形状モデルMに変更する「第2のモデル変更処理」(図21参照)を行うことが可能となる。
With the addition of the fitting
なお、第2のモデル変更処理によって、フィッティング結果記憶部125にて格納された境界線付フレーム画像GFに付された境界線(フィッティング関数)Fを修正してその内容を変更することが可能となる。
Note that it is possible to modify the content of the boundary line (fitting function) F attached to the frame image GF with boundary line stored in the fitting
<5−2.形状モデル適正評価部135C>
形状モデル制御部130Cにおける形状モデル適正評価部135Cは、形状モデル制御部130Cにて順次変更した形状モデルMあるいはフィッティング結果記憶部125にて格納された境界線付フレーム画像GFに付された境界線(フィッティング関数)Fに基づいて、評価情報を得る(図20及び図21参照)。
<5-2. Shape Model Suitability Evaluation Unit 135C>
The shape model appropriate evaluation unit 135C in the shape model control unit 130C is a boundary line attached to the frame model GF with a boundary line stored in the shape model M or the fitting
また、形状モデル適正評価部135Cでは、単純にfpsが固定である場合には、形状モデルMの変更パターンが規則的であるためにシンプルな評価情報を得ることができる。ただし、fps不足においては変更パターンが一足飛びになるケースや、時間的に逆方向に形状モデルMをフィッティングさせるケースも想定すると、処理するフレーム画像G間の時間差情報を予め保持しておき、その時間差に基づいて評価情報を変えることが好ましい。 Further, in the shape model appropriate evaluation unit 135C, when the fps is simply fixed, simple evaluation information can be obtained because the change pattern of the shape model M is regular. However, assuming that there is a case where the change pattern is skipped when fps is insufficient or a case where the shape model M is fitted in the opposite direction in time, the time difference information between the frame images G to be processed is stored in advance. It is preferable to change the evaluation information based on the above.
さらに、形状モデル適正評価部135Cでは、第3実施形態における時間変化検出部115B,115B’などが付加されることにより、心拍や呼吸の位相情報に基づいた評価情報を得ることや、可視光のカメラ画像から被写体OBの姿勢情報を取得し、体動に基づいた評価情報を得ることも可能である。
Furthermore, in the shape model appropriate evaluation unit 135C, the time
そして、形状モデル制御部130Cは、当該評価情報に基づいて、第1のモデル変更処理(図20参照)または第2のモデル変更処理(図21参照)の何れかを実施し、変更された形状モデルMを用いたフィッティング処理を実施するように形状モデルフィッティング部120に指令を与える。
Then, the shape model control unit 130C performs either the first model change process (see FIG. 20) or the second model change process (see FIG. 21) based on the evaluation information, and the changed shape. A command is given to the shape model
以下では、形状モデル適正評価部135Cにより得られる評価情報の一例について説明する。なお、ここではフィッティング結果記憶部125にて格納された境界線付フレーム画像GFに付されたフィッティング関数(境界線)Fに基づいて評価情報が得られる場合を説明する。
Hereinafter, an example of the evaluation information obtained by the shape model appropriate evaluation unit 135C will be described. Here, a case where the evaluation information is obtained based on the fitting function (boundary line) F attached to the frame image with boundary line GF stored in the fitting
図22は、境界線付フレーム画像GFに付されたフィッティング関数Fが適正か否かを説明する模式図である。図22(a)及び図22(b)では肺尖部の形状に関する関数f5,f5eを示し、図22(c)及び図22(d)では横隔膜の形状に関する関数f7,f7eを示す。 FIG. 22 is a schematic diagram for explaining whether or not the fitting function F attached to the frame image with boundary line GF is appropriate. 22 (a) and 22 (b) show functions f5 and f5e related to the shape of the lung apex, and FIGS. 22 (c) and 22 (d) show functions f7 and f7e related to the shape of the diaphragm.
図22(a)で示される関数f5は、肺尖部の形状を適切に表現しているため、形状モデル適正評価部135Cによりフィッティング精度が高いと評価される。一方、図22(b)で示される関数f5eは、肺尖部の形状に4次関数を関数として用いたため、一部が下に凸となり形状モデル適正評価部135Cによりフィッティング精度が低いと評価される。 Since the function f5 shown in FIG. 22A appropriately represents the shape of the lung apex, it is evaluated that the fitting accuracy is high by the shape model appropriate evaluation unit 135C. On the other hand, since the function f5e shown in FIG. 22B uses a quartic function as the function for the shape of the apex of the lung, a part of the function f5e is convex downward, and the shape model appropriate evaluation unit 135C evaluates that the fitting accuracy is low. The
同様に、図22(c)で示される関数f7は、2次関数を用いた場合であり、横隔膜の上に凸の形状を適切に表現している。このため、形状モデル適正評価部135Cによりフィッティング精度が高いと評価される。一方、図22(d)で示される関数f7eは、1次関数(直線)を用いた場合であり、横隔膜の上に凸の形状を適切に表現しきれていない。このため、形状モデル適正評価部135Cによりフィッティング精度が低いと評価される。 Similarly, the function f7 shown in FIG. 22C is a case where a quadratic function is used, and appropriately expresses a convex shape on the diaphragm. For this reason, it is evaluated that the fitting accuracy is high by the shape model appropriate evaluation unit 135C. On the other hand, the function f7e shown in FIG. 22D is a case where a linear function (straight line) is used, and the convex shape on the diaphragm cannot be adequately expressed. For this reason, it is evaluated that the fitting accuracy is low by the shape model appropriate evaluation unit 135C.
このように、形状モデル適正評価部135Cでは、試しにフィッティング処理を行った評価として、極値が許容範囲内にあるか否か、極値の正負によって凸形状が表れるかなど、関数fの形状によって評価することが可能である。 As described above, the shape model appropriate evaluation unit 135C evaluates the shape of the function f by evaluating whether the extreme value is within the allowable range or whether the convex shape appears depending on whether the extreme value is positive or negative. It is possible to evaluate by.
<5−3.画像処理装置3Cの基本動作:第1のモデル変更処理>
続いて、図23は、第4実施形態に係る画像処理装置3Cのうち、第1のモデル変更処理(図20参照)の動作フローを例示した図である。なお、図23のうち、ステップS141は図7のステップS11と同様であるため、その説明は省略する。
<5-3. Basic Operation of
Next, FIG. 23 is a diagram illustrating an operation flow of the first model change process (see FIG. 20) in the
この第4実施形態では、第1実施形態では存在しなかったフィッティング結果記憶部125、及び、形状モデル適正評価部135Cが付加されたことで、下記の工程が変更される。
In the fourth embodiment, the following process is changed by adding the fitting
すなわち、第1実施形態と同様の工程として、ステップS141を経て、図23で示されるように、ステップS142では、ステップS12(図7参照)と同様に形状モデルフィッティング部120が境界線付フレーム画像GFを得た後、当該境界線付フレーム画像GFをフィッティング結果記憶部125に出力する。そして、フィッティング結果記憶部125が当該境界線付フレーム画像GFを格納する。
That is, as a process similar to that of the first embodiment, after step S141, as shown in FIG. 23, in step S142, the shape model
そして、ステップS143にて、未処理がない場合にはステップS145に移り、ステップS145にて、フィッティング結果記憶部125が、格納している境界線付フレーム画像GFを対象領域抽出部140に出力して本動作フローが終了される。一方、未処理があると判定されればステップS144に移る。
In step S143, if there is no unprocessed process, the process proceeds to step S145. In step S145, the fitting
ステップS144では、形状モデル適正評価部135Cが形状モデル制御部130Cにて順次変更した形状モデルMあるいはフィッティング結果記憶部125にて格納された境界線付フレーム画像GFに付されたフィッティング関数(境界線)Fに基づいて、評価情報を得る。そして、形状モデル制御部130Cが、当該評価情報に基づいて第1のモデル変更処理を実施し、変更された形状モデルMを用いたフィッティング処理を実施するように形状モデルフィッティング部120に指令を与え、ステップS142に移る。
In step S144, the fitting function (boundary line) attached to the shape model M sequentially changed by the shape model appropriate evaluation unit 135C by the shape model control unit 130C or the frame image GF with boundary line stored in the fitting
そして、ステップS142においては、形状モデルフィッティング部120が、ステップS144において変更された形状モデルMを用いてフィッティング処理を行い、フィッティング結果記憶部125に境界線付フレーム画像GFを格納する。
In step S <b> 142, the shape model
このように、全てのフレーム画像Gにおけるフィッティング処理が終了されるまで、ステップS142〜ステップS144の工程が繰り返され、全てのフレーム画像Gにおいてフィッティング処理が終了された後、上記のステップS145を経由して本動作フローが終了される。 As described above, the processes of Steps S142 to S144 are repeated until the fitting process is completed for all the frame images G. After the fitting process is completed for all the frame images G, the process goes through Step S145 described above. This operation flow is completed.
以上のように画像処理装置3Cにおける形状モデル制御部130Cでは、形状モデル制御部130Cにて順次変更した形状モデルMあるいはフィッティング結果記憶部125にて格納された境界線付フレーム画像(領域境界情報)GFにおけるフィッティング関数Fに基づいて得られた評価情報に基づいて、第1のモデル変更処理を実施することにより、より的確な形状モデルMを自動的に変更することが可能となる。すなわち、形状モデル制御部130Cは、第1のモデル変更処理を実施することにより、フィッティング処理をこれから行う時間的に未来の形状モデルMの変更を制御可能にする。このため、より安定的に肺野領域の抽出処理を行うことができるとともに、抽出精度がより向上する。
As described above, in the shape model control unit 130C in the
<5−4.画像処理装置3Cの基本動作:第2のモデル変更処理>
続いて、図24は、第4実施形態に係る画像処理装置3Cのうち、第2のモデル変更処理(図21参照)の動作フローを例示した図である。なお、図24のうち、ステップS241は図7のステップS11と同様であるため、その説明は省略する。
<5-4. Basic Operation of
Next, FIG. 24 is a diagram illustrating an operation flow of the second model change process (see FIG. 21) in the
第1のモデル変更処理と同様に、第1実施形態では存在しなかったフィッティング結果記憶部125、及び、形状モデル適正評価部135Cが付加されたことで、下記の工程が変更される。
Similar to the first model change process, the following process is changed by adding the fitting
すなわち、第1実施形態と同様の工程として、ステップS241を経て、図24で示されるように、ステップS242では、ステップS12(図7参照)と同様に形状モデルフィッティング部120が境界線付フレーム画像GFを順次得ながら、当該境界線付フレーム画像GFをフィッティング結果記憶部125に順次出力する。そして、フィッティング結果記憶部125が当該境界線付フレーム画像GFを順次格納する。なお、順次得られる境界線付フレーム画像GFは、上述の第1のモデル変更処理により取得されることが好ましい。
That is, as a process similar to that of the first embodiment, through step S241, as shown in FIG. 24, in step S242, the shape model
ステップS243では、形状モデル適正評価部135Cが形状モデル制御部130Cにて順次変更した形状モデルMあるいはフィッティング結果記憶部125にて格納された境界線付フレーム画像GFにおけるフィッティング関数(境界線)Fに基づいて、評価情報を得る。
In step S243, the fitting function (boundary line) F in the frame image GF with a boundary line stored in the shape model M or the fitting
そして、ステップS244にて、ステップS243で取得した評価情報に基づき第2のモデル変更処理を実施するか否かを形状モデル制御部130Cが判定し、実施しない場合(評価情報が「良」を指示している場合等)にはステップS248に移り、ステップS248にて、フィッティング結果記憶部125が、格納している境界線付フレーム画像GFを対象領域抽出部140に出力して本動作フローが終了される。一方、第2のモデル変更処理を実施する場合にはステップS245に移る。
In step S244, the shape model control unit 130C determines whether or not to execute the second model change process based on the evaluation information acquired in step S243. In step S248, the fitting
ステップS245では、形状モデル制御部130Cが、ステップS243にて得られた評価情報に基づいて第2のモデル変更処理を実施し、変更された形状モデルMを用いた再度のフィッティング処理を実施するように形状モデルフィッティング部120に指令を与える。このとき、形状モデル制御部130Cは、再度のフィッティング処理に用いるフレーム画像(境界線付フレーム画像GF)を形状モデルフィッティング部120に出力するようにフィッティング結果記憶部125に指令を与える(図21の矢印AR1)。
In step S245, the shape model control unit 130C performs the second model change process based on the evaluation information obtained in step S243, and performs the fitting process again using the changed shape model M. A command is given to the shape model
そして、ステップS246では、形状モデルフィッティング部120が、境界線付フレーム画像GFをフィッティング結果記憶部125から取得し、ステップS245において変更された形状モデルMを用いて再度のフィッティング処理を行う。そして、フィッティング結果記憶部125に元々格納されている境界線付フレーム画像GFを、再度のフィッティング処理で出力された境界線付フレーム画像GF’に置き換えてフィッティング結果記憶部125に格納する。
In step S246, the shape model
そして、ステップS247にて、更に第2のモデル変更処理を続けるか否かを形状モデル制御部130Cが判定し、続けない場合にはフィッティング結果記憶部125に終了する指令を与え(図21の矢印AR2)、上記のステップS248を経由して本動作フローが終了される。一方、更に第2のモデル変更処理を続ける場合にはステップS243に移る。 Then, in step S247, the shape model control unit 130C determines whether or not to continue the second model change process, and if not, gives a command to end the fitting result storage unit 125 (arrow in FIG. 21). AR2), the operation flow is terminated through step S248 described above. On the other hand, when continuing the second model change process, the process proceeds to step S243.
このように、第2のモデル変更処理が終了されるまで、ステップS243〜ステップS247の工程が繰り返され、第2のモデル変更処理が終了された後、上記のステップS248を経由して本動作フローが終了される。 As described above, until the second model change process is completed, steps S243 to S247 are repeated. After the second model change process is completed, the operation flow is performed via the above-described step S248. Is terminated.
以上のように画像処理装置3Cにおける形状モデル制御部130Cでは、形状モデル制御部130Cにて順次変更した形状モデルMあるいはフィッティング結果記憶部125にて格納された境界線付フレーム画像(領域境界情報)GFにおける境界線(フィッティング関数)Fに基づいて得られた評価情報に基づいて、第2のモデル変更処理を実施することにより、より的確な形状モデルMを自動的に変更することが可能となる。すなわち、形状モデル制御部130Cは、第2のモデル変更処理を実施することにより、既にフィッティング処理を終えた過去の形状モデルMに対してフィードバック制御が可能になる。このため、より安定的に肺野領域の抽出処理を行うことができるとともに、抽出精度がより向上する。
As described above, in the shape model control unit 130C in the
なお、上述した第1及び第2のモデル変更処理を共に行っても良い。すなわち、第4実施形態は、第1及び第2のモデル変更処理のうち少なくとも一方を実施する形状モデル制御部130Cを有している。 In addition, you may perform the 1st and 2nd model change process mentioned above together. That is, the fourth embodiment includes a shape model control unit 130C that performs at least one of the first and second model change processes.
<6.第5実施形態>
図25は、本発明の第5実施形態として構成された画像処理装置3D(図1参照)で用いられる制御部31Dの機能構成を示す図である。この制御部31Dは、第4実施形態の画像処理装置3Cのうち第2のモデル変更処理を制御する制御部31C(図21参照)の代替として使用される。第4実施形態と異なる点は、形状モデル制御部130Dがフィッティング関数群記憶部131Dを更に備える点である。なお、残余の構成は画像処理装置3C(図21参照)と同様である。
<6. Fifth Embodiment>
FIG. 25 is a diagram showing a functional configuration of a control unit 31D used in the
<6−1.フィッティング関数群記憶部131D>
フィッティング関数群記憶部131Dでは、フィッティング結果記憶部125が3枚以上の境界線付フレーム画像GFを記憶する場合において、フィッティング結果記憶部125にて記憶された境界線付フレーム画像GFにおける3以上のフィッティング関数Fを示すフィッティング関数群を記憶する。
<6-1. Fitting Function Group Storage Unit 131D>
In the fitting function group storage unit 131D, when the fitting
そして、形状モデル制御部130Dにおける形状モデル適正評価部135Dは、当該フィッティング関数群を評価情報として得ることで、形状モデル制御部130Dは、当該評価情報に基づいて、第2のモデル変更処理(図25参照)を実施し、変更された形状モデルMを用いた再度のフィッティング処理を実施するように形状モデルフィッティング部120に指令を与える。
Then, the shape model
以下では、フィッティング関数群を評価情報とする一例について説明する。図26は、フィッティング関数群を用いて形状モデルMの適正評価を行うことを説明する模式図である。図26の上段(フィッティング関数F及びそれを決定したモデル)は、フィッティング関数群記憶部131Dにて記憶されたフィッティング関数F及びそれを決定したモデル(すなわち、フィッティング関数Fを導出するモデル)をフレーム順に示す図であり、図26の下段(評価後の形状モデルM)は、形状モデル制御部130Dにより第2のモデル変更処理が実施され、再度のフィッティング処理に用いられる形状モデルMをフレーム順に示す図である。 Hereinafter, an example in which a fitting function group is used as evaluation information will be described. FIG. 26 is a schematic diagram for explaining the appropriate evaluation of the shape model M using the fitting function group. The upper part of FIG. 26 (fitting function F and the model that has determined the fitting function F) stores the fitting function F stored in the fitting function group storage unit 131D and the model that has determined the fitting function F (that is, the model that derives the fitting function F). FIG. 26 is a diagram illustrating the order, and the lower part of FIG. 26 (the shape model M after evaluation) shows the shape model M used in the second fitting process in the frame order after the second model change process is performed by the shape model control unit 130D. FIG.
評価単位を3枚のフレーム画像Gとした場合、図26で示されるように、第1〜第3番目のフレーム画像G内、第2〜第4番目のフレーム画像G内、第3〜第5番目のフレーム画像G内、第4〜第6番目のフレーム画像G内で形状モデル適正評価部135Dにより評価判断される。ここで、例えば、フィッティング関数F1,F2,F3を示すナンバーが、減少して増加することは起こりえないという判断基準がある場合には、第3〜第5番目のフレーム画像G内において、フィッティング関数Fが、F2,F1,F2の順番で変更されていることがフィッティング関数群から認識されるため、第4番目のフレーム画像Gは、フィッティング関数F1ではなく、フィッティング関数F2に変更されることが好ましいという評価結果が形状モデル適正評価部135Dにより得られる。そして、形状モデル制御部130Dによる上記評価結果を受けて、第4番目のフィッティング関数Fを決定したモデルを、フィッティング関数F1を導出するモデル1からフィッティング関数F2を導出するモデル2に変更する、所謂、第2のモデル変更処理を実施される。なお、説明の都合上、モデル1〜3からフィッティング関数F1〜F3が導き出されると仮定した。
When the evaluation unit is three frame images G, as shown in FIG. 26, the first to third frame images G, the second to fourth frame images G, and the third to fifth frames. In the fourth frame image G and the fourth to sixth frame images G, the shape model
このように、時間的に過去の複数のフィッティング関数Fを総合して判断することで、精度向上と安定化とが図れる。時間的に大幅にモデルの内容が変わることがないので、フィッティング関数F間でのフィッティング精度の相対的な評価で判断すれば、精度向上安定化につながる。 Thus, accuracy can be improved and stabilized by comprehensively determining a plurality of past fitting functions F in terms of time. Since the contents of the model do not change significantly in terms of time, if the judgment is made based on the relative evaluation of the fitting accuracy between the fitting functions F, the accuracy can be improved and stabilized.
<6−2.画像処理装置3Dの基本動作:第2のモデル変更処理>
続いて、図27は、第5実施形態に係る画像処理装置3D(第2のモデル変更処理)の動作フローを例示した図である。なお、図27のうち、ステップS253を除いて、図24の工程と全て同様であるため、その説明は省略する。
<6-2. Basic Operation of
Subsequently, FIG. 27 is a diagram illustrating an operation flow of the
この第5実施形態では、第4実施形態では存在しなかったフィッティング関数群記憶部131Dが付加されたことで、下記の工程が変更される。 In the fifth embodiment, the following process is changed by adding the fitting function group storage unit 131D that did not exist in the fourth embodiment.
すなわち、第4実施形態と同様の工程として、ステップS251〜ステップS252を経て、図27で示されるように、ステップS253では、フィッティング関数群記憶部131DがステップS252にて順次格納された境界線付フレーム画像GFに付された3以上のフィッティング関数Fを示すフィッティング関数群を記憶するとともに、形状モデル適正評価部135Dがフィッティング関数群を評価情報として得る。そして、残余の工程は第4実施形態と同様となる(図24参照)。
That is, as a process similar to that of the fourth embodiment, through steps S251 to S252, as shown in FIG. 27, in step S253, the fitting function group storage unit 131D has the boundary lines sequentially stored in step S252. A fitting function group indicating three or more fitting functions F attached to the frame image GF is stored, and the shape model
以上のように画像処理装置3Dでは、評価情報はフィッティング結果記憶部125にて記憶された境界線付フレーム画像GFにおける3以上のフィッティング関数Fを示すフィッティング関数群を含むことにより、フィッティング関数群のフィッティング関数F間の適否を判定して第2のモデル変更処理を実施することが可能となる。これにより、フィッティング精度向上を可能にする。
As described above, in the
<7.第6実施形態>
図28は、本発明の第6実施形態として構成された画像処理装置3E(図1参照)で用いられる制御部31Eの機能構成を示す図である。この制御部31Eは、第1及び第2のモデル変更処理の何れも制御可能であり、第4実施形態の画像処理装置3Cの第1及び第2のモデル変更処理を制御する制御部31C(図20及び図21参照)の代替として使用される。第4実施形態と異なる点は、形状モデル制御部130Eがフィッティング精度算出部131Eを更に備える点である。ここで、図28は、第1及び第2のモデル変更処理を合わせて示した図である。なお、残余の構成は画像処理装置3C(図20及び図21参照)と同様である。
<7. Sixth Embodiment>
FIG. 28 is a diagram showing a functional configuration of the
<7−1.フィッティング精度算出部131E>
フィッティング精度算出部131Eでは、境界線付フレーム画像GFにおけるフィッティング関数Fが近似する肺野領域の境界と、当該フィッティング関数Fを導くために用いられたフレーム画像G(当該境界線付フレーム画像GF)の画像情報から所定の方法を用いて抽出した肺野領域の境界と予想される境界候補情報と、の差異を比較した画像比較情報を算出する。
<7-1. Fitting
In the fitting
すなわち、形状モデルフィッティング部120において、領域拡張法(Region growing)、グラフカット(Graph Cut)、スネーク(Snakes)等を用いてフレーム画像Gから画像情報(エッジや0/1の領域情報)の抽出を行っているため(図6参照)、境界線付フレーム画像GFに当該画像情報を付した境界線付フレーム画像GF2(図6参照)がフィッティング結果記憶部125に格納される。そして、フィッティング結果記憶部125から境界線付フレーム画像GF2がフィッティング精度算出部131Eに出力され、フィッティング精度算出部131Eにて画像比較情報が算出される。
That is, the shape model
境界線付フレーム画像GF2がフレーム画像Gのエッジに対してフィッティング処理が行われた場合は、フィッティング関数Fとエッジ(別途行われる画像抽出処理(所定の方法)により抽出される)との間に生じたズレを計算し、当該ズレの距離を画像比較情報として用いることができる。また、境界線付フレーム画像GF2がフレーム画像Gから抽出した0/1の領域情報に対してフィッティング処理が行われた場合は、エッジが0/1で明確なため比較的簡単な画像抽出処理(所定の方法)を用いてエッジを抽出することができ、フィッティング関数、エッジ間の距離計算により、画像比較情報とすることができる。さらに、境界線付フレーム画像GF2が濃度を持つフレーム画像Gに対して各画素のエッジらしさをもとにフィッティング処理が行われた場合には、各画素のエッジらしさによって重み付けをし、上記重み付けを考慮して画像抽出処理(所定の方法)を用いて抽出されたエッジとフィッティング関数Fとの距離を計算することで、画像比較情報とすることができる。画像比較情報はX及びY座標の距離でもよいし、簡略のためXまたはY座標のどちらか一方のみでもよい。また、形状モデルMをあてはめる方向が一方向の場合は、その方向と同じくすると簡易に計算することができる。 When the fitting process is performed on the edge of the frame image G for the frame image GF2 with the boundary line, between the fitting function F and the edge (extracted by a separate image extraction process (predetermined method)). The generated deviation can be calculated, and the distance of the deviation can be used as image comparison information. In addition, when the fitting process is performed on the 0/1 region information extracted from the frame image G by the frame image GF2 with the boundary line, the edge is clear at 0/1, and thus a relatively simple image extraction process ( An edge can be extracted using a predetermined method, and image comparison information can be obtained by calculating a fitting function and a distance between edges. Further, when the fitting process is performed on the frame image G having the density of the frame image with boundary line GF2 based on the edge likeness of each pixel, the weighting is performed according to the edge likeness of each pixel. The image comparison information can be obtained by calculating the distance between the edge extracted using the image extraction process (predetermined method) and the fitting function F in consideration. The image comparison information may be the distance between the X and Y coordinates, or may be only one of the X or Y coordinates for simplicity. In addition, when the direction in which the shape model M is applied is one direction, it can be easily calculated by making it the same as that direction.
そして、形状モデル制御部130Eにおける形状モデル適正評価部135Eは、当該画像比較情報を評価情報として得ることで、形状モデル制御部130Eは、当該評価情報に基づいて、第1及び第2のモデル変更処理のうち少なくとも一方の処理(図28参照)を実施し、変更された形状モデルMを用いたフィッティング処理を実施するように形状モデルフィッティング部120に指令を与える。
Then, the shape model appropriate evaluation unit 135E in the shape
以下では、画像比較情報を評価情報とする一例について説明する。図29は、画像比較情報を用いて形状モデルMの適正評価を行うことを説明する模式図である。図29(a)では、図18(b)と同様に、呼吸周期変化において呼気と吸気の中間の位置に対応するフレーム画像Gbであり、肺野領域近接領域に相当する横隔膜領域の境界P4を表現する関数f72は2次関数としてフィッティング処理されたことを示す図である。そして、図29(b)では、図29(a)のフレーム画像Gbから所定数枚分経過後の吸気に対応するフレーム画像Gc(図18(c)と同様)であり、境界P4においてフレーム画像Gbと同様のフィッティング関数f72(すなわち、2次関数)を試しにフィッティングさせた結果を示す図であり、図29(c)では、フレーム画像Gcの境界P4において関数f73(すなわち、3次関数)をフィッティングさせた結果を示す図である。なお、ドットで示した領域IRは、図6と同様に、画像情報から肺野領域と判断された領域を示す。 Hereinafter, an example in which image comparison information is used as evaluation information will be described. FIG. 29 is a schematic diagram for explaining the appropriate evaluation of the shape model M using the image comparison information. In FIG. 29 (a), as in FIG. 18 (b), the frame image Gb corresponding to an intermediate position between expiration and inspiration in the change in the respiratory cycle, and the boundary P4 of the diaphragm region corresponding to the lung field region adjacent region is shown. The function f72 to be expressed is a diagram showing that the fitting process is performed as a quadratic function. FIG. 29B shows a frame image Gc (similar to FIG. 18C) corresponding to the intake air after a predetermined number of frames have elapsed from the frame image Gb of FIG. 29A, and the frame image at the boundary P4. It is a figure which shows the result of having fitted fitting function f72 (namely, quadratic function) similar to Gb as a test, and in FIG.29 (c), function f73 (namely, cubic function) in the boundary P4 of the frame image Gc. It is a figure which shows the result of having fitted. In addition, the area | region IR shown with the dot shows the area | region judged to be a lung field area | region from image information similarly to FIG.
図29で示されるように、フレーム画像Gb(図29(a)参照)においてフィッティング精度の良い関数f72(2次関数)を用いて、フレーム画像Gcに対してフィッティング処理を行うと、フィッティング精度が悪くなる(図29(b)参照)。すなわち、フィッティング精度算出部131Eが、画像比較情報を自動で算出する。ここでは、図29(a)のフレーム画像Gbの横隔膜領域に対しては画像比較情報として差異の値が小さく算出され、逆に、図29(b)のフレーム画像Gcに対しては差異の値が大きく算出される。そして、形状モデル適正評価部135Eが、図29(b)のフレーム画像Gcの横隔膜領域の境界P4に対しては、2次関数より3次関数の関数fが適切であると判定し、形状モデル制御部130Eが、関数f72から関数f73に変更する第1または第2のモデル変更処理を行う。
As shown in FIG. 29, when the fitting process is performed on the frame image Gc using the function f72 (quadratic function) with good fitting accuracy in the frame image Gb (see FIG. 29A), the fitting accuracy is improved. It becomes worse (see FIG. 29B). That is, the fitting
<7−2.画像処理装置3Eの基本動作:第1のモデル変更処理>
続いて、図30は、第6実施形態に係る画像処理装置3Eのうち、第1のモデル変更処理(図28参照)の動作フローを例示した図である。なお、図30のうち、ステップS161,S163は図23のステップS141,S143と同様であるため、その説明は省略する。
<7-2. Basic Operation of
Subsequently, FIG. 30 is a diagram illustrating an operation flow of the first model change process (see FIG. 28) in the
この第6実施形態では、第4実施形態では存在しなかったフィッティング精度算出部131Eが付加されたことで、下記の工程が変更される。
In the sixth embodiment, the following steps are changed by adding the fitting
すなわち、第4実施形態と同様の工程として、ステップS161を経て、図30で示されるように、ステップS162では、形状モデルフィッティング部120が境界線付フレーム画像GFに画像情報を付した境界線付フレーム画像GF2をフィッティング結果記憶部125に出力し、フィッティング結果記憶部125が当該境界線付フレーム画像GF2を格納する。
That is, as a process similar to that of the fourth embodiment, after step S161, as shown in FIG. 30, in step S162, the shape model
そして、ステップS163にて、未処理がない場合にはステップS166に移り、ステップS166にて、フィッティング結果記憶部125が、格納している境界線付フレーム画像GF2のうち画像情報を取り除いた境界線付フレーム画像GFを対象領域抽出部140に出力して本動作フローが終了される。一方、未処理があると判定されればステップS164に移る。
In step S163, if there is no unprocessed state, the process proceeds to step S166. In step S166, the fitting
ステップS164では、フィッティング結果記憶部125がフィッティング精度算出部131Eに境界線付フレーム画像GF2を出力し、フィッティング精度算出部131Eが、境界線付フレーム画像GF2に基づき画像比較情報を算出する。
In step S164, the fitting
ステップS165では、形状モデル適正評価部135Eが画像比較情報に基づいて評価情報を得る。そして、形状モデル制御部130Eが、当該評価情報に基づいて第1のモデル変更処理を実施し、変更された形状モデルMを用いたフィッティング処理を実施するように形状モデルフィッティング部120に指令を与え、ステップS162に移る。
In step S165, the shape model appropriate evaluation unit 135E obtains evaluation information based on the image comparison information. Then, the shape
そして、ステップS162においては、形状モデルフィッティング部120が、ステップS165において変更された形状モデルMを用いてフィッティング処理を行い、フィッティング結果記憶部125に境界線付フレーム画像GF2を格納する。
In step S162, the shape model
このように、全てのフレーム画像Gにおけるフィッティング処理が終了されるまで、ステップS162〜ステップS165の工程が繰り返され、全てのフレーム画像Gにおいてフィッティング処理が終了された後、上記のステップS166を経由して本動作フローが終了される。 As described above, the processes in steps S162 to S165 are repeated until the fitting process is completed for all the frame images G. After the fitting process is completed for all the frame images G, the process goes through the above-described step S166. This operation flow is completed.
以上のように画像処理装置3Eでは、評価情報は、境界線付フレーム画像GFにおけるフィッティング関数Fが近似する肺野領域の境界と、当該フィッティング関数Fを導くために用いられたフレーム画像G(当該境界線付フレーム画像GF)の画像情報から所定の方法を用いて抽出した肺野領域の境界と予想される境界候補情報と、の差異を比較した画像比較情報を含むことにより、別途所定の方法を用いて求めた実際の画像情報との違いを参考にして第1のモデル変更処理を実施することが可能となるため、フィッティング精度向上を可能にする。
As described above, in the
<7−3.画像処理装置3Eの基本動作:第2のモデル変更処理>
続いて、図31は、第6実施形態に係る画像処理装置3Eのうち、第2のモデル変更処理(図28参照)の動作フローを例示した図である。なお、図31のうち、ステップS261,S264,S267は図24のステップS241,S244,S247と同様であるため、その説明は省略する。
<7-3. Basic Operation of
Next, FIG. 31 is a diagram illustrating an operation flow of the second model change process (see FIG. 28) in the
第1のモデル変更処理と同様に、第4実施形態では存在しなかったフィッティング精度算出部131Eが付加されたことで、下記の工程が変更される。
Similar to the first model change process, the following steps are changed by adding the fitting
すなわち、第4実施形態と同様の工程として、ステップS261を経て、図31で示されるように、ステップS262では、形状モデルフィッティング部120が境界線付フレーム画像GF2を順次得ながら、当該境界線付フレーム画像GF2をフィッティング結果記憶部125に順次出力する。そして、フィッティング結果記憶部125が当該境界線付フレーム画像GF2を順次格納する。なお、順次得られる境界線付フレーム画像GF2は、上述の第1のモデル変更処理(図30参照)により取得されることが好ましい。
That is, as a process similar to the fourth embodiment, after step S261, as shown in FIG. 31, in step S262, the shape model
ステップS263では、フィッティング結果記憶部125がフィッティング精度算出部131Eに境界線付フレーム画像GF2を順次出力し、フィッティング精度算出部131Eが、境界線付フレーム画像GF2に基づき画像比較情報を順次算出する。
In step S263, the fitting
そして、ステップS264にて、ステップS263で取得した画像比較情報に基づき、第2のモデル変更処理を実施するか否かを判定し、実施しない場合にはステップS268に移り、ステップS268にて、フィッティング結果記憶部125が、格納している境界線付フレーム画像GF2のうち画像情報を取り除いた境界線付フレーム画像GFを対象領域抽出部140に出力して本動作フローが終了される。一方、第2のモデル変更処理を実施する場合にはステップS265に移る。
In step S264, based on the image comparison information acquired in step S263, it is determined whether or not the second model change process is to be performed. If not, the process proceeds to step S268. In step S268, the fitting is performed. The
ステップS265では、形状モデル制御部130Eが、ステップS263にて得られた画像比較情報に基づいて第2のモデル変更処理を実施し、変更された形状モデルMを用いた再度のフィッティング処理を実施するように形状モデルフィッティング部120に指令を与える。このとき、形状モデル制御部130Eは、再度のフィッティング処理に用いるフレーム画像(境界線付フレーム画像GF2)を形状モデルフィッティング部120に出力するようにフィッティング結果記憶部125に指令を与える。
In step S265, the shape
そして、ステップS266では、形状モデルフィッティング部120が、境界線付フレーム画像GF2をフィッティング結果記憶部125から取得し、ステップS245において変更された形状モデルMを用いて再度のフィッティング処理を行う。そして、フィッティング結果記憶部125に元々格納されている境界線付フレーム画像GF2を、再度のフィッティング処理で出力された境界線付フレーム画像GF2に置き換えてフィッティング結果記憶部125に格納する。
In step S266, the shape model
そして、ステップS267にて、更に第2のモデル変更処理を続けるか否かを形状モデル制御部130Eが判定し、続けない場合にはステップS268に移り、上記のステップS268を経由して本動作フローが終了される。一方、更に第2のモデル変更処理を続ける場合にはステップS263に移る。
Then, in step S267, the shape
このように、第2のモデル変更処理が終了されるまで、ステップS263〜ステップS267の工程が繰り返され、第2のモデル変更処理が終了された後、上記のステップS268を経由して本動作フローが終了される。 As described above, until the second model change process is completed, steps S263 to S267 are repeated. After the second model change process is completed, the operation flow is performed via the above-described step S268. Is terminated.
以上のように画像処理装置3Eでは、評価情報は、境界線付フレーム画像GFにおけるフィッティング関数Fが近似する肺野領域の境界と、当該フィッティング関数Fを導くために用いられたフレーム画像G(当該境界線付フレーム画像GF)の画像情報から所定の方法を用いて抽出した肺野領域の境界と予想される境界候補情報と、の差異を比較した画像比較情報を含むことにより、別途所定の方法を用いて求めた実際の画像情報との違いを参考にして第2のモデル変更処理を実施することが可能となるため、フィッティング精度向上を可能にする。
As described above, in the
<8.第7実施形態>
図32は、本発明の第7実施形態として構成された画像処理装置3F(図1参照)で用いられる制御部31Fの機能構成を示す図である。この制御部31Fは、第1のモデル変更処理の制御が可能であり、第4実施形態の画像処理装置3Cのうち第1のモデル変更処理を制御する制御部31C(図20参照)の代替として使用される。第4実施形態と異なる点は、形状モデル制御部130Fがフィッティング履歴記憶部131Fを更に備える点である。なお、残余の構成は画像処理装置3C(図20参照)と同様である。
<8. Seventh Embodiment>
FIG. 32 is a diagram illustrating a functional configuration of a
<8−1.フィッティング履歴記憶部131F>
フィッティング履歴記憶部131Fでは、形状モデル制御部130Fにて逐次決定された形状モデルMを逐次記憶することでフィッティング履歴情報として総括的に記憶する。
<8-1. Fitting
In the fitting
そして、形状モデル制御部130Fにおける形状モデル適正評価部135Fは、当該フィッティング履歴情報を評価情報として得ることで、形状モデル制御部130Fは、当該評価情報に基づいて、第1のモデル変更処理(図32参照)を実施し、変更された形状モデルMを用いたフィッティング処理を実施するように形状モデルフィッティング部120に指令を与える。
Then, the shape model
以下では、フィッティング履歴情報を評価情報とする一例について説明する。図33は、フィッティング履歴情報を用いて形状モデルMの適正評価を行うことを説明する模式図である。図33の上段(フィッティング関数F及びそれを決定したモデル)は、フィッティング履歴記憶部131Fにて記憶されたフィッティング関数F及びそれを決定したモデル(すなわち、フィッティング関数Fを導出するモデル)をフレーム順に示す図であり、図33の下段(フィッティング履歴)は、フィッティング履歴記憶部131Fにて既に格納されている形状モデルMの履歴情報を示す図である。このフィッティング履歴に示される形状モデルMは、形状モデル適正評価部135Fにより適正であると判断されたモデルのみが対象となり、フィッティング履歴記憶部131Fにて格納されている。
Hereinafter, an example in which fitting history information is used as evaluation information will be described. FIG. 33 is a schematic diagram for explaining the appropriate evaluation of the shape model M using the fitting history information. The upper part of FIG. 33 (fitting function F and the model that has determined it) shows the fitting function F stored in the fitting
図33で示されるように、過去から現在までのフレーム画像G(フレーム(1)〜フレーム(i))が、フィッティング関数Fを決定したモデルとフィッティング履歴に示されるモデルとが同じモデルで処理されている場合には、次のフレーム画像G(フレーム(i+1))においてもフィッティング履歴と同様であると予測できる。このため、形状モデル適正評価部135Fは、フレーム(i+1)に対してはフィッティング関数F2を導き出すモデル2を採用することに高評価を与え、フィッティング関数F1やF3を導き出すモデル1やモデル3を採用することに低評価を与える。そして、形状モデル制御部130Fが当該評価情報を受けて、フレーム(i+1)の形状モデルFをモデル3からモデル2に変更する、所謂、第1のモデル変更処理を実施する。なお、説明の都合上、モデル1〜3からフィッティング関数F1〜F3が導き出されると仮定した。
As shown in FIG. 33, the frame image G (frame (1) to frame (i)) from the past to the present is processed by the same model as the model in which the fitting function F is determined and the model shown in the fitting history. If it is, the next frame image G (frame (i + 1)) can be predicted to be the same as the fitting history. Therefore, the shape model
このように、過去の境界線付フレーム画像GFを得るために用いられた形状モデルMの変更履歴を使って、形状モデルMの変更を評価することができる。既に決定したモデル履歴を使うことで、過去の境界線付フレーム画像GFとの一貫性を保った安定化を図ることが可能となる。 In this way, the change of the shape model M can be evaluated using the change history of the shape model M used for obtaining the past frame image GF with a boundary line. By using the already determined model history, it becomes possible to achieve stabilization while maintaining consistency with the past frame image GF with a boundary line.
<8−2.画像処理装置3Fの基本動作:第1のモデル変更処理>
続いて、図34は、第7実施形態に係る画像処理装置3F(図32参照)の動作フローを例示した図である。なお、図34のうち、ステップS171〜S173,S175は図23のステップS141〜S143,S145と同様であるため、その説明は省略する。
<8-2. Basic Operation of
Next, FIG. 34 is a diagram illustrating an operation flow of the
この第7実施形態では、第4実施形態では存在しなかったフィッティング履歴記憶部131Fが付加されたことで、下記の工程が変更される。
In the seventh embodiment, the following process is changed by adding the fitting
すなわち、第4実施形態と同様の工程として、ステップS171〜S173を経て、図34で示されるように、ステップS174では、形状モデル適正評価部135Fがフィッティング履歴情報に基づいて評価情報を得た後、形状モデル制御部130Fが、当該評価情報に基づいて第1のモデル変更処理を実施し、変更された形状モデルMを用いたフィッティング処理を実施するように形状モデルフィッティング部120に指令を与え、ステップS172に移る。そして、残余の工程は第4実施形態と同様となる。
That is, as steps similar to those in the fourth embodiment, after steps S171 to S173, as shown in FIG. 34, in step S174, after the shape model
以上のように画像処理装置3Fでは、評価情報はフィッティング履歴情報を含むことにより、フィッティング履歴情報を参照しながら第1のモデル変更処理を実施することが可能となるため、フィッティング精度向上を可能にする。
As described above, in the
<9.第8実施形態>
図35は、本発明の第8実施形態として構成された画像処理装置3G(図1参照)で用いられる制御部31Gの機能構成を示す図である。この制御部31Gは、第4実施形態の画像処理装置3Cのうち第2のモデル変更処理を制御する制御部31C(図21参照)の代替として使用される。第4実施形態と異なる点は、形状モデル制御部130Gが位置形状変化算出部131Gを更に備える点である。なお、残余の構成は画像処理装置3C(図21参照)と同様である。
<9. Eighth Embodiment>
FIG. 35 is a diagram illustrating a functional configuration of a
<9−1.位置形状変化算出部131G>
位置形状変化算出部131Gでは、フィッティング結果記憶部125にて格納された境界線付フレーム画像GFにおけるフィッティング関数F間において、肺野領域近接領域の時間的な位置変位量や形状変化を示す位置形状変化情報を算出する。
<9-1. Position / Shape Change Calculation Unit 131G>
In the position shape change calculation unit 131G, a position shape indicating a temporal position displacement amount or shape change of the lung field region adjacent region between the fitting functions F in the frame image with boundary line GF stored in the fitting
そして、形状モデル制御部130Gにおける形状モデル適正評価部135Gは、当該位置形状変化情報を評価情報として得ることで、形状モデル制御部130Gは、当該評価情報に基づいて、第2のモデル変更処理(図35参照)を実施し、変更された形状モデルMを用いた再度のフィッティング処理を実施するように形状モデルフィッティング部120に指令を与える。
Then, the shape model appropriate evaluation unit 135G in the shape model control unit 130G obtains the position shape change information as evaluation information, so that the shape model control unit 130G performs the second model change process ( 35), and a command is given to the shape model
以下では、位置形状変化情報を評価情報とする一例について説明する。図36は、位置形状変化情報を用いて形状モデルの適正評価を行うことを説明する模式図であり、フィッティング結果記憶部125にて格納されたフィッティング関数Fの横隔膜領域の境界P3(図4参照)における関数をフレーム順に示す図である。同図(a)及び(b)に示すように、f12,f11間、f13(f13e),f12間、f14(f14e),f13間、f15,f14間それぞれの位置形状変化が位置形状変化情報となる。 Below, an example which uses position shape change information as evaluation information is demonstrated. FIG. 36 is a schematic diagram for explaining the proper evaluation of the shape model using the position shape change information. The boundary P3 of the diaphragm region of the fitting function F stored in the fitting result storage unit 125 (see FIG. 4). FIG. As shown in FIGS. 5A and 5B, the position shape change information between f12 and f11, between f13 (f13e) and f12, between f14 (f14e) and f13, and between f15 and f14 is the position shape change information. Become.
まず、位置変位量を示す位置形状変化情報について説明する。図36(a)で示されるように、第1〜第5番目のフレーム画像G(フレーム(1)〜(5))のうち、フレーム(1)〜(3)(5)の関数f11,f12,f13,f15は、この順で右上がりに位置が変化するトレンドを示す。しかしながら、フレーム(4)のる関数f14eは関数f13,f15の中間の位置には存在せず、関数f13の位置よりも下に位置している。このため、第4番目のフレーム画像Gは、関数f14eから関数f14の位置に変更されることが好ましいという、位置変位量を主体とした位置形状変化情報に基づく評価結果が形状モデル適正評価部135Gにより得られる。そして、形状モデル制御部130Gが当該評価結果を受けて、第4番目のフレーム画像Gの形状モデルMの横隔膜領域の境界P3を、関数f14eから関数f14に変更する、所謂、第2のモデル変更処理を実施する。 First, the position shape change information indicating the position displacement amount will be described. As shown in FIG. 36A, among the first to fifth frame images G (frames (1) to (5)), the functions f11 and f12 of the frames (1) to (3) and (5). , F13, and f15 indicate trends whose positions change to the right in this order. However, the function f14e of the frame (4) does not exist at the middle position between the functions f13 and f15, and is located below the position of the function f13. For this reason, it is preferable that the fourth frame image G is changed from the function f14e to the position of the function f14. The evaluation result based on the position shape change information mainly based on the position displacement amount is the shape model appropriate evaluation unit 135G. Is obtained. The shape model control unit 130G receives the evaluation result, and changes the boundary P3 of the diaphragm region of the shape model M of the fourth frame image G from the function f14e to the function f14, so-called second model change. Perform the process.
次に、形状変化を示す位置形状変化情報について説明する。図36(b)で示されるように、第1〜第5番目のフレーム画像Gのうち、フレーム(1)(2)(4)(5)の関数f11,f12,f14,f15は上に凸の形状を表現しているが、フレーム(3)の関数f13eだけが下に凸の形状を表現している。このため、第3番目のフレーム画像Gは、関数f13eから関数f13の形状に変更されることが好ましいという、形状変化を主体とした位置形状変化情報に基づく評価結果が形状モデル適正評価部135Gにより得られる。そして、形状モデル制御部130Gが当該評価結果を受けて、第3番目のフレーム画像Gの形状モデルMの横隔膜領域の境界P3を、関数f13eから関数f13に変更する、所謂、第2のモデル変更処理を実施する。 Next, position shape change information indicating a shape change will be described. As shown in FIG. 36B, among the first to fifth frame images G, the functions f11, f12, f14, and f15 of the frames (1), (2), (4), and (5) are convex upward. However, only the function f13e of the frame (3) expresses a downwardly convex shape. For this reason, it is preferable that the third frame image G is changed from the function f13e to the shape of the function f13, and an evaluation result based on position shape change information mainly including shape change is obtained by the shape model appropriate evaluation unit 135G. can get. Then, upon receiving the evaluation result, the shape model control unit 130G changes the boundary P3 of the diaphragm region of the shape model M of the third frame image G from the function f13e to the function f13, so-called second model change. Perform the process.
<9−2.画像処理装置3Gの基本動作:第2のモデル変更処理>
続いて、図37は、第8実施形態に係る画像処理装置3G(第2のモデル変更処理)の動作フローを例示した図である。なお、図37のうち、ステップS283を除いて、図24の工程と全て同様であるため、その説明は省略する。
<9-2. Basic Operation of
Subsequently, FIG. 37 is a diagram illustrating an operation flow of the
この第8実施形態では、第4実施形態では存在しなかった位置形状変化算出部131Gが付加されたことで、下記の工程が変更される。 In the eighth embodiment, the following process is changed by adding the position shape change calculating unit 131G that did not exist in the fourth embodiment.
すなわち、第4実施形態と同様の工程として、ステップS281〜ステップS282を経て、図37で示されるように、ステップS283では、位置形状変化算出部131GがステップS282にて順次格納された境界線付フレーム画像GFに付されたフィッティング関数F間において、肺野領域近接領域の時間的な位置変位量や形状変化を示す位置形状変化情報を算出するとともに、形状モデル適正評価部135Gが位置形状変化情報を評価情報として得る(図36参照)。そして、残余の工程は第4実施形態と同様となる(図24参照)。 That is, as a process similar to that of the fourth embodiment, through step S281 to step S282, as shown in FIG. 37, in step S283, the position shape change calculating unit 131G has the boundary line sequentially stored in step S282. Between the fitting functions F attached to the frame image GF, position shape change information indicating the temporal position displacement amount and shape change of the lung field adjacent region is calculated, and the shape model appropriate evaluation unit 135G receives the position shape change information. Is obtained as evaluation information (see FIG. 36). The remaining steps are the same as in the fourth embodiment (see FIG. 24).
以上のように画像処理装置3Gでは、評価情報は位置形状変化情報であることにより、位置形状変化が大きければ、フィッティング精度が悪いと予測して第2のモデル変更処理を実施することが可能となるため、フィッティング精度向上を可能にする。また逆に、位置形状変化が小さければ、フィッティング精度が悪くないと予測できるため、第2のモデル変更処理を実施しない判断(ステップS283で“N”)を行える。これにより、フィッティング精度悪化を防ぐことが可能となる。
As described above, in the
<10.第9実施形態>
図38は、本発明の第9実施形態として構成された画像処理装置3H(図1参照)で用いられる制御部31Hの機能構成を示す図である。この制御部31Hは、第1及び第2のモデル変更処理の何れも制御可能であり、第4実施形態の画像処理装置3Cの第1及び第2のモデル変更処理を制御する制御部31C(図20及び図21参照)の代替として使用される。第4実施形態と異なる点は、形状モデル制御部130Hが位置関係算出部131Hを更に備える点である。ここで、図38は、第1及び第2のモデル変更処理を合わせて示した図である。なお、残余の構成は画像処理装置3C(図20及び図21参照)と同様である。
<10. Ninth Embodiment>
FIG. 38 is a diagram showing a functional configuration of the
<10−1.位置関係算出部131H>
肺野領域近接領域が複数存在する場合において、位置関係算出部131Hでは、境界線付フレーム画像GFに付されたフィッティング関数Fの肺野領域の推定近接領域間における相対的な位置関係を示す位置関係情報を算出する。
<10-1. Positional
In the case where there are a plurality of adjacent lung field areas, the positional
そして、形状モデル制御部130Hにおける形状モデル適正評価部135Hは、当該位置関係情報を評価情報として得ることで、形状モデル制御部130Hは、当該評価情報に基づいて、第1または第2のモデル変更処理(図38参照)を実施し、変更された形状モデルMを用いたフィッティング処理を実施するように形状モデルフィッティング部120に指令を与える。
Then, the shape model
位置関係情報を評価情報とする場合として次のような例がある。例えば、横隔膜や心臓は呼吸や心拍に応じて形状を変えるが、右肺野と左肺野とで通常位相が同一であり連動している。左右ともに横隔膜の位置関係が大きく異なる場合は、フィッティングさせた形状モデルMが悪かった可能性があるため評価値を低くすることができる。一方、心臓は心拍の際に膨らみ位置が移動してゆくが、左肺野と右肺野とでその高さ方向の位置関係はあまり変わらない。そこで、その位置関係が同一であるほど評価値を高くすることができる。 Examples of the case where the positional relationship information is used as evaluation information include the following. For example, the shape of the diaphragm and heart changes according to respiration and heartbeat, but the right and left lung fields have the same normal phase and are linked. If the positional relationship of the diaphragms is significantly different on the left and right, the evaluation value can be lowered because the fitted shape model M may be bad. On the other hand, the bulge position of the heart moves during the heartbeat, but the positional relationship in the height direction does not change much between the left lung field and the right lung field. Therefore, the evaluation value can be increased as the positional relationship is the same.
図39は、位置関係情報を用いて形状モデルMの適正評価を行うことを説明する模式図であり、ここでは、肺野領域近接領域として横隔膜領域(左肺野と右肺野との高さ方向の位置関係)を例にして説明する。図39(a)では、適正にフィッティング処理が行われなかった横隔膜領域の境界P3,P4(図4参照)における関数f1e,f7eを示す図であり、図39(b)では、評価結果を受けて適正にフィッティング処理が行われた関数f1,f7を示す図である。 FIG. 39 is a schematic diagram for explaining the appropriate evaluation of the shape model M using the positional relationship information. Here, the diaphragm region (the height of the left lung field and the right lung field is used as the lung field region proximity region). (Directional positional relationship) will be described as an example. FIG. 39A is a diagram showing the functions f1e and f7e at the boundaries P3 and P4 (see FIG. 4) of the diaphragm region where the fitting process has not been properly performed, and FIG. 39B shows the evaluation results. It is a figure which shows the function f1, f7 by which fitting process was performed appropriately.
図39(a)で示されるように、関数f1e,f7eは、横隔膜領域の境界P3,P4(図4参照)の高さ方向の位置関係が左右で大きく異なった状態でフィッティング処理が行われており、図39(b)で示されるような適正な位置関係(関数f1,f7)に変更されることが好ましいという評価結果が形状モデル適正評価部135Hにより得られる。そして、形状モデル制御部130Hが当該評価結果を受けて、フレーム画像Gの形状モデルMの関数f1e,f7eを、関数f1,f7(図39(b)参照)に変更する、所謂、第1または第2のモデル変更処理を実施する。
As shown in FIG. 39 (a), the functions f1e and f7e are subjected to the fitting process in a state where the positional relationship in the height direction of the boundaries P3 and P4 (see FIG. 4) of the diaphragm region is greatly different on the left and right. Therefore, the shape model
<10−2.画像処理装置3Hの基本動作:第1のモデル変更処理>
続いて、図40は、第9実施形態に係る画像処理装置3Hのうち、第1のモデル変更処理(図38参照)の動作フローを例示した図である。なお、図40のうち、ステップS191〜S193,S196は図23のステップS141〜S143,S145と同様であるため、その説明は省略する。
<10-2. Basic Operation of
Subsequently, FIG. 40 is a diagram illustrating an operation flow of the first model change process (see FIG. 38) in the
この第6実施形態では、第4実施形態では存在しなかった位置関係算出部131Hが付加されたことで、下記の工程が変更及び追加される。
In the sixth embodiment, the following steps are changed and added by adding the positional
すなわち、第1実施形態と同様の工程として、ステップS191〜ステップS193を経て、図40で示されるように、ステップS194では、位置関係算出部131Hが、ステップS192において格納された境界線付フレーム画像GFに付されたフィッティング関数Fの肺野領域の推定近接領域間における相対的な位置関係を示す位置関係情報を算出する(図39参照)。
That is, as a process similar to the first embodiment, through step S191 to step S193, as shown in FIG. 40, in step S194, the positional
ステップS195では、形状モデル適正評価部135Hが位置関係情報に基づいて評価結果を得る。そして、形状モデル制御部130Hが、当該評価結果に基づいて第1のモデル変更処理を実施し、変更された形状モデルMを用いたフィッティング処理を実施するように形状モデルフィッティング部120に指令を与え、ステップS192に移る。そして、残余の工程は第4実施形態と同様となる(図23参照)。
In step S195, the shape model
以上のように画像処理装置3Hでは、評価情報は位置関係情報であることにより、肺野領域の推定近接領域間における相対的な位置関係が想定と異なる場合は、フィッティング精度が悪いと予測して第1のモデル変更処理を実施することが可能となるため、フィッティング精度向上を可能にする。
As described above, in the
また逆に、肺野領域の推定近接領域間における相対的な位置関係が想定内である場合は、フィッティング精度が悪くないと予測できる。このため、第1のモデル変更処理では、大きく形状モデルMを変更しない処理、もしくは、現在の形状モデルMをそのまま未来の形状モデルMとする処理を実施できる。これにより、フィッティング精度悪化を防ぐことが可能となる。 Conversely, when the relative positional relationship between the estimated proximity regions of the lung field region is within the assumption, it can be predicted that the fitting accuracy is not bad. For this reason, in the first model change process, a process that does not greatly change the shape model M or a process in which the current shape model M is used as it is as the future shape model M can be performed. Thereby, it becomes possible to prevent a fitting precision deterioration.
<10−3.画像処理装置3Hの基本動作:第2のモデル変更処理>
続いて、図41は、第9実施形態に係る画像処理装置3Hのうち、第2のモデル変更処理(図38参照)の動作フローを例示した図である。なお、図41のうち、ステップS293を除いて、図24の工程と全て同様であるため、その説明は省略する。
<10-3. Basic Operation of
Subsequently, FIG. 41 is a diagram illustrating an operation flow of the second model change process (see FIG. 38) in the
第1のモデル変更処理と同様に、第4実施形態では存在しなかった位置関係算出部131Hが付加されたことで、下記の工程が変更される。
Similar to the first model change process, the following steps are changed by adding the positional
すなわち、第4実施形態と同様の工程として、ステップS291〜ステップS292を経て、図41で示されるように、ステップS293では、位置関係算出部131HがステップS292にて順次格納された境界線付フレーム画像GFに付されたフィッティング関数Fにおいて、肺野領域の推定近接領域間における相対的な位置関係を示す位置関係情報をフレーム毎に順次算出するとともに、形状モデル適正評価部135Hが位置形状変化情報を評価情報として得る(図39参照)。そして、残余の工程は第4実施形態と同様となる(図24参照)。
That is, as a process similar to that of the fourth embodiment, through steps S291 to S292, as shown in FIG. 41, in step S293, the positional
以上のように画像処理装置3Gでは、評価情報は位置関係情報であることにより、肺野領域の推定近接領域間における相対的な位置関係が想定と異なる場合は、フィッティング精度が悪いと予測して第2のモデル変更処理を実施することが可能となるため、フィッティング精度向上を可能にする。また逆に、肺野領域の推定近接領域間における相対的な位置関係が想定内である場合は、フィッティング精度が悪くないと予測できる。このため、第2のモデル変更処理では実施しない判断(ステップS294で“N”)を行える。これにより、フィッティング精度悪化を防ぐことが可能となる。
As described above, the
<11.第10実施形態>
図42は、本発明の第10実施形態として構成された画像処理装置3I(図1参照)で用いられる制御部31Iの機能構成を示す図である。この制御部31Iは、第1のモデル変更処理の制御が可能であり、第4実施形態の画像処理装置3Cのうち第1のモデル変更処理を制御する制御部31C(図20参照)の代替として使用される。第4実施形態と異なる点は、時間変化検出部115Iを更に備える点、及び、形状モデル制御部130Iが優先度付変更パターン記憶部131Iを更に備える点である。なお、残余の構成は画像処理装置3C(図20参照)と同様である。
<11. 10th Embodiment>
FIG. 42 is a diagram showing a functional configuration of the control unit 31I used in the image processing apparatus 3I (see FIG. 1) configured as the tenth embodiment of the present invention. The control unit 31I can control the first model change process, and is an alternative to the
<11−1.時間変化検出部115I>
時間変化検出部115Iでは、フレーム画像Gに同期した肺野領域近接領域の周期的な時間変化を検出し、時間変化情報Tを得る。時間変化検出部115Iは、第3実施形態における時間変化検出部115B(図10参照)と同様の機能を有しており、時間変化検出部115B’(図11参照)の機能と代替させることも可能である。
<11-1. Time Change Detection Unit 115I>
The time change detection unit 115I detects a periodic time change in the lung field adjacent region synchronized with the frame image G, and obtains time change information T. The time change detection unit 115I has the same function as the time
<11−2.優先度付変更パターン記憶部131I>
優先度付変更パターン記憶部131Iでは、形状モデルMの変更パターンに肺野領域近接領域の周期的な時間変化に対応する優先度を付して作成された優先度付変更パターン情報Cを予め記憶する。
<11-2. Change pattern storage unit 131I with priority>
The change pattern storage unit with priority 131I stores change pattern information with priority C created in advance by assigning priority to the change pattern of the shape model M corresponding to the periodic time change of the lung field adjacent region. To do.
形状モデルMの変更パターンに肺野領域近接領域の周期的な時間変化としては、心拍位相による心臓形状の変化(図13及び図14参照)、呼吸位相による横隔膜の隠れ(図18参照)や大動脈の隠れなどが挙げられる。例えば、図18で示されるように、呼吸位相に対して横隔膜は、吸気で次数増、呼気で次数減の変化をしてゆくため、位相に対応して形状モデルMの変更先を予め限定した評価条件を優先度付変更パターン情報Cとして設定することが可能である。つまり、吸気位相では肺が膨張して肋横角の形がよく見える状態に近づくため、横隔膜の関数の次数が増える方向に遷移するような評価条件を優先度付変更パターン情報Cとして設定することができ、逆に、呼気位相では肺が収縮して他の臓器に隠れていくため、次数が減る方向に遷移するような評価条件を優先度付変更パターン情報Cとして設定することができる。 Periodic changes over time in the adjacent region of the lung field in the change pattern of the shape model M include changes in the heart shape due to the heartbeat phase (see FIGS. 13 and 14), concealment of the diaphragm due to the respiratory phase (see FIG. 18), and the aorta. The hiding of the. For example, as shown in FIG. 18, the diaphragm changes in order with inspiration and decreases in order with inspiration, so that the change destination of the shape model M is limited in advance corresponding to the phase. It is possible to set the evaluation condition as the change pattern information with priority C. In other words, since the lungs expand in the inspiratory phase and approach the state where the shape of the heel lateral angle can be seen well, an evaluation condition for transitioning in the direction in which the order of the diaphragm function increases is set as the priority change pattern information C. On the contrary, since the lung contracts and hides in other organs in the expiration phase, an evaluation condition that makes a transition in the direction of decreasing the order can be set as the change pattern information C with priority.
そして、形状モデル制御部130Iにおける形状モデル適正評価部135Iは、当該優先度付変更パターン情報Cを評価情報として得ることで、形状モデル制御部130Iは、当該評価情報に基づいて、第1のモデル変更処理(図42参照)を実施し、変更された形状モデルMを用いたフィッティング処理を実施するように形状モデルフィッティング部120に指令を与える。
Then, the shape model appropriate evaluation unit 135I in the shape model control unit 130I obtains the change pattern information with priority C as evaluation information, so that the shape model control unit 130I uses the first model based on the evaluation information. The change process (see FIG. 42) is performed, and a command is given to the shape model
以下では、優先度付変更パターン情報Cを評価情報とする一例について説明する。図43は、優先度付変更パターン情報を用いて形状モデルの適正評価を行うことを説明する模式図であり、ここでは、肺野領域近接領域は横隔膜領域とし、周期的な時間変化は呼気吸気として説明する。 Below, an example which uses the change pattern information C with a priority as evaluation information is demonstrated. FIG. 43 is a schematic diagram for explaining the appropriate evaluation of the shape model using the change pattern information with priority. Here, the lung region adjacent region is a diaphragm region, and the periodic time change is exhaled breath. Will be described.
図43で示されるように、現在のフレーム画像Gの形状モデルMがID1の時、次のフレーム画像Gの形状モデルMがID1であれば、呼気及び吸気ともに、優先度評価の最も高い5となる。また、次のフレーム画像Gの形状モデルMがID2であれば、呼気は優先度評価が中の3、吸気は優先度評価が最も低い0となる。そして、次のフレーム画像Gの形状モデルMがID3であれば、呼気は優先度評価が低い1、吸気は優先度評価が最も低い0となる。例えば、時間変化検出部115Iにて得られた時間変化情報Tから次のフレーム画像Gが呼気に位置するとわかる場合、形状モデル適正評価部135Iは、現在のフレーム画像Gの形状モデルMがID1の時、次のフレーム画像Gの形状モデルMとしてID1を採用することに高評価を与え、ID2やID3を採用することに低評価を与える。そして、形状モデル制御部130が当該評価情報を受けて、形状モデルMをID1からID1に変更(維持)する、所謂、第1のモデル変更処理を実施する。
As shown in FIG. 43, when the shape model M of the current frame image G is ID1, if the shape model M of the next frame image G is ID1, both exhalation and inspiration are 5 with the highest priority evaluation. Become. If the shape model M of the next frame image G is ID2, exhalation has a medium priority evaluation of 3, and inhalation has a lowest priority evaluation of 0. If the shape model M of the next frame image G is ID3, exhalation has a low priority evaluation of 1, and inhalation has a lowest priority evaluation of 0. For example, when it is known from the time change information T obtained by the time change detection unit 115I that the next frame image G is located in the expiration, the shape model appropriate evaluation unit 135I has the shape model M of the current frame image G of ID1. In some cases, high evaluation is given to adopting ID1 as the shape model M of the next frame image G, and low evaluation is given to adopting ID2 or ID3. The shape
同様に、現在のフレーム画像Gの形状モデルMがID2の時、次のフレーム画像Gの形状モデルMがID1であれば、呼気は優先度評価が最も低い0となり、吸気は優先度評価が中の3となる。また、次のフレーム画像Gの形状モデルMがID2であれば、呼気及び吸気ともに、優先度評価の最も高い5となる。例えば、時間変化検出部115Iにて得られた時間変化情報から次のフレーム画像Gが吸気に位置するとわかる場合、形状モデル適正評価部135Iは、現在のフレーム画像Gの形状モデルMがID2の時、次のフレーム画像Gの形状モデルMとしてID2を採用することに高評価を与え、ID1を採用することに低評価を与える。そして、形状モデル制御部130Iが当該評価情報を受けて、形状モデルMをID2からID2に変更(維持)する、所謂、第1のモデル変更処理を実施する。 Similarly, when the shape model M of the current frame image G is ID2, if the shape model M of the next frame image G is ID1, exhalation has the lowest priority evaluation of 0, and inhalation has a medium priority evaluation. It becomes 3. If the shape model M of the next frame image G is ID2, both exhalation and inspiration are 5 with the highest priority evaluation. For example, when it is known from the time change information obtained by the time change detection unit 115I that the next frame image G is located in the intake air, the shape model appropriate evaluation unit 135I determines that the shape model M of the current frame image G is ID2. Adopting ID2 as the shape model M of the next frame image G gives high evaluation, and adopting ID1 gives low evaluation. The shape model control unit 130I receives the evaluation information, and performs a so-called first model change process in which the shape model M is changed (maintained) from ID2 to ID2.
<11−3.画像処理装置3Iの基本動作:第1のモデル変更処理>
続いて、図44は、第10実施形態に係る画像処理装置3I(図42参照)の動作フローを例示した図である。なお、図44のうち、ステップS102,S103,S105は図23のステップS142,S143,S145と同様であるため、その説明は省略する。
<11-3. Basic Operation of Image Processing Device 3I: First Model Change Process>
Subsequently, FIG. 44 is a diagram illustrating an operation flow of the image processing apparatus 3I (see FIG. 42) according to the tenth embodiment. In FIG. 44, steps S102, S103, and S105 are the same as steps S142, S143, and S145 in FIG.
第4実施形態では存在しなかった優先度付変更パターン記憶部131Iが付加されたことで、下記の工程が変更される。 The following steps are changed by adding the priority-added change pattern storage unit 131I that did not exist in the fourth embodiment.
図44に示すように、まず、ステップS101において、制御部31Iの動画像取得部110が、撮像装置1の読取制御装置14によって撮影された動画像を、撮影制御装置2を介して取得するとともに、時間変化検出部115Iが、撮像装置1のサイクル検出部15から呼吸周期変化を取得し、心電計4の位相検出部41から心拍周期変化(時間変化情報C)を取得する。
As shown in FIG. 44, first, in step S101, the moving
そして、第4実施形態と同様の工程として、ステップS102〜S103を経て、図44で示されるように、ステップS104では、形状モデル適正評価部135Iが、ステップS101にて取得した時間変化に対応付けられた優先度付変更パターン情報C(図43参照)に基づいて評価情報を得た後、形状モデル制御部130Iが、当該評価情報に基づいて第1のモデル変更処理を実施し、変更された形状モデルMを用いたフィッティング処理を実施するように形状モデルフィッティング部120に指令を与え、ステップS102に移る。そして、残余の工程は第4実施形態と同様となる。
Then, as steps similar to the fourth embodiment, through steps S102 to S103, as shown in FIG. 44, in step S104, the shape model appropriate evaluation unit 135I associates with the time change acquired in step S101. After obtaining the evaluation information based on the obtained priority-added change pattern information C (see FIG. 43), the shape model control unit 130I performs the first model change processing based on the evaluation information, and has been changed. A command is given to the shape model
以上のように画像処理装置3Iでは、評価情報は時間変化に対応付けられた優先度付変更パターン情報Cであることにより、優先度付変更パターン情報Cを参照しながら第1のモデル変更処理を実施することが可能となる。これにより、肺野領域近接領域(横隔膜領域等)の周期変化に適合させて形状モデルを変更することができるため、フィッティング精度向上を可能にする。 As described above, in the image processing device 3I, since the evaluation information is the change pattern information with priority C associated with the time change, the first model change process is performed with reference to the change pattern information with priority C. It becomes possible to carry out. As a result, the shape model can be changed in conformity with the periodic change of the lung field region adjacent region (diaphragm region or the like), so that the fitting accuracy can be improved.
<12.フレーム画像Gの処理方法>
動画像に含まれるフレーム画像Gを形状モデルフィッティング部120に入力し境界線付フレーム画像GFを対象領域抽出部140に出力する処理方法において、本発明の画像処理装置では、大別すると次の3つのケースを主に想定している。
<12. Method for processing frame image G>
In the processing method in which the frame image G included in the moving image is input to the shape model
(I)1フレーム画像G毎の処理
1つ目は、1枚のフレーム画像G毎に形状モデルフィッティング部120に入力し、1枚の境界線付フレーム画像GF毎に対象領域抽出部140に出力する処理である。すなわち、1フレーム画像G毎の処理であり、実施形態6,7,9,10において先述した画像比較情報(図29参照)、フィッティング履歴情報(図33参照)、位置関係情報(図39参照)、優先度付変更パターン情報(図43参照)などの評価情報に基づいて第1のモデル変更処理が実施される。この場合、これまでの処理情報だけ保持していればよいので、単純に逐次のフレーム画像G毎に処理することができる。
(I) Processing for each frame image G The first is input to the shape model
(II)動画データ一括処理
2つ目は、動画像に含まれる全てのフレーム画像Gを一括して形状モデルフィッティング部120に入力し(但し、フィッティング処理は順次行う)、境界線付フレーム画像GFを一括して対象領域抽出部140に出力する。すなわち、動画データ一括処理であり、フィッティング処理後、全ての境界線付フレーム画像GFをフィッティング結果記憶部125に格納した後、実施形態5,6,8,9において先述したフィッティング関数群(図26参照)、画像比較情報(図29参照)、位置形状変化情報(図36参照)、位置関係情報(図39参照)などの評価情報に基づいて第2のモデル変更処理が実施される。この場合、全ての境界線付フレーム画像GFのデータをフィッティング結果記憶部125にバッファしておくことで、時間方向の情報を十分使うことができる。
(II) Moving Image Data Batch Processing Second, all the frame images G included in the moving image are input to the shape model
(III)押し出し処理
3つ目は、動画像に含まれるX1枚数のフレーム画像Gを形状モデルフィッティング部120に入力し、X1枚数のフレーム画像GのうちのX2枚数ずつフィッティング処理を行って、逐次的に境界線付フレーム画像GFを対象領域抽出部140に出力する。
(III) Extrusion processing Thirdly, the X1 number of frame images G included in the moving image are input to the shape model
例えば、動画像に含まれるフレーム画像Gの30枚分が形状モデルフィッティング部120に入力された場合は、最初の第1〜第5フレーム画像Gまでは時間方向の情報を使わずにフィッティング処理を行い、第6〜第25フレーム画像Gまでを、その第1〜第5フレーム画像Gのフィッティング処理結果(時間情報)を使って第1のモデル変更処理後、フィッティング処理を行う。そして、第26フレーム画像G以降はフィッティング処理を行わず保留しておく。
For example, when 30 frame images G included in a moving image are input to the shape model
次に、第31〜第60フレーム画像Gまでの30枚分が形状モデルフィッティング部120に入力された場合は、第26〜第55フレーム画像Gまでを、第1〜第25フレーム画像Gのフィッティング処理結果(時間情報)を使って第1のモデル変更処理後、フィッティング処理を行う。そして、第56フレーム画像G以降はフィッティング処理を行わず保留しておく。
Next, when 30 sheets from the 31st to 60th frame images G are input to the shape model
その後、後続するフレーム画像Gがないと判明していれば、第56〜第60フレーム画像Gまでは時間方向の情報を使わずにフィッティング処理を行う。 Thereafter, if it is determined that there is no subsequent frame image G, the fitting process is performed for the 56th to 60th frame images G without using information in the time direction.
上述の処理例では30枚分ごとに行われたが、1フレーム画像G毎でもよい。また、この処理方法では、実施形態6,7,9,10において先述した画像比較情報(図29参照)、フィッティング履歴情報(図33参照)、位置関係情報(図39参照)、優先度付変更パターン情報(図43参照)などの評価情報に基づく第1のモデル変更処理だけでなく、実施形態5,6,8,9において先述したフィッティング関数群(図26参照)、画像比較情報(図29参照)、位置形状変化情報(図36参照)、位置関係情報(図39参照)などの評価情報に基づく第2のモデル変更処理も実施可能である。また、逐次的に処理ができ時間ロスが少ない本処理は、リアルタイム処理に適している。 In the above processing example, the processing is performed every 30 frames, but may be performed for each frame image G. In this processing method, the image comparison information (see FIG. 29), the fitting history information (see FIG. 33), the positional relationship information (see FIG. 39), and the priority change described above in the sixth, seventh, ninth, and tenth embodiments. In addition to the first model change process based on evaluation information such as pattern information (see FIG. 43), the fitting function group (see FIG. 26) and image comparison information (see FIG. 29) described in the fifth, sixth, eighth, and ninth embodiments. Reference model), position shape change information (see FIG. 36), positional relationship information (see FIG. 39), and other second model change processing based on evaluation information can also be implemented. In addition, this processing that can be processed sequentially and has little time loss is suitable for real-time processing.
<13.変形例>
以上、本発明の実施形態について説明してきたが、本発明は、上記実施形態に限定されるものではなく、様々な変形が可能である。
<13. Modification>
As mentioned above, although embodiment of this invention has been described, this invention is not limited to the said embodiment, A various deformation | transformation is possible.
※ 本実施形態では、画像処理装置3,3A,3B,3B’,3C〜3Iを個別に実施されるように各実施形態に分けて記載したが、これらの個別機能は、互いに矛盾しない限り、相互に組み合わせてもよい。
* In the present embodiment, the
※ 本実施形態におけるフィッティング処理(形状モデルフィッティング部120)では、境界線付フレーム画像GFを順次出力する構成であったが、これに限られず、“肺野領域(抽出領域)を切り出した画像”や“フィッティング関数Fのみ”を出力する構成であってもよい。したがって、本実施形態におけるフィッティング関数Fを少なくとも反映させた所定領域境界情報として、“境界線付フレーム画像GF”を指したが、これに限られず、“抽出領域を切り出した画像”や“フィッティング関数F”であってもよい。 * The fitting process (shape model fitting unit 120) in the present embodiment is configured to sequentially output the frame image GF with a boundary line, but is not limited to this, and “an image obtained by cutting out a lung field region (extraction region)” Or “only fitting function F” may be output. Therefore, the “frame image with boundary line GF” is pointed out as the predetermined area boundary information that reflects at least the fitting function F in the present embodiment, but the present invention is not limited to this. F ″ may also be used.
なお、本実施形態では、フィッティング関数Fは“境界線付フレーム画像GFに付された境界線”によって表現(反映)されていたが、所定領域境界情報が“抽出領域を切り出した画像”である場合には“抽出領域を切り出した画像の縁”によってフィッティング関数Fを表現(反映)している。 In the present embodiment, the fitting function F is expressed (reflected) by “the boundary line attached to the frame image GF with boundary line”, but the predetermined area boundary information is “an image obtained by cutting out the extraction area”. In this case, the fitting function F is expressed (reflected) by “the edge of the image from which the extraction region is cut out”.
※ この発明では、身体の撮影対象となる部分のうち、物理的状態が周期的に時間変化する肺野領域を抽出対象としたが、それは、肺野領域だけでなく、蠕動などの不随意運動を行う他の臓器であってもよく、また、筋肉や関節などの随意運動を行う領域であってもよい。また、肺野や心臓等の内臓領域に限られず、例えば、身体に入った異物などを抽出対象としてもよい。 * In this invention, the lung field area where the physical state changes periodically with time is extracted from the part to be photographed, but it is not only the lung field area but also involuntary movements such as peristalsis. It may be other organs that perform the movement, or may be an area where voluntary movements such as muscles and joints are performed. In addition, the present invention is not limited to the visceral regions such as the lung field and the heart, and for example, a foreign substance entering the body may be the extraction target.
※ 被写体は、人体だけでなく、動物の身体であってもよい。 * The subject may be an animal body as well as a human body.
1 撮影装置
2 撮影制御装置
3,3A,3B,3B’,3C〜3I 画像処理装置
4 心電計
31,31A,31B,31B’,31C〜31I 制御部
41 位相検出部
100,100A,100B,100B’,100C〜100I 放射線動態画像撮影システム
110 動画像取得部
120 形状モデルフィッティング部
115B,115B’,115I 時間変化検出部
131D フィッティング関数群記憶部
131E フィッティング精度算出部
131F フィッティング履歴記憶部
131G 位置形状変化算出部
131H 位置関係算出部
131I 優先度付変更パターン記憶部
135A 制約条件記憶部
135C〜135I 形状モデル適正評価部
140 対象領域抽出部
M 形状モデル
F フィッティング関数
G フレーム画像
GF 境界線付フレーム画像
OB 被写体(被検者)
DESCRIPTION OF
Claims (17)
前記動画像に含まれる複数枚のフレーム画像を順次取得し、前記フレーム画像に対して、前記所定領域の大局的な形状を表現した形状モデルをフィッティングさせるフィッティング処理を行うことにより、当該フレーム画像上における前記所定領域の境界を近似するフィッティング関数を決定し、当該フィッティング関数を少なくとも反映させた所定領域境界情報を順次得る形状モデルフィッティング手段と、
前記フレーム画像に対する前記フィッティング処理に用いる前記形状モデルを前記時間方向に沿って順次変更する形状モデル変更処理を実施する形状モデル制御手段と、
を備え、
前記フィッティング関数は、所定数の関数から構成され、
前記形状モデルは、
前記フィッティング関数を決定するためのモデルであり、前記所定数及び前記関数毎の次数の許容範囲のうち、少なくとも1つの情報を含むことを特徴とする、
画像処理装置。 A moving image acquisition means for acquiring a moving image that sequentially captures a state in which a physical state of a predetermined region in a human body or an animal changes with time;
By sequentially obtaining a plurality of frame images included in the moving image, and performing a fitting process for fitting a shape model expressing the global shape of the predetermined area on the frame image, Determining a fitting function that approximates the boundary of the predetermined region in the shape model fitting means for sequentially obtaining predetermined region boundary information reflecting at least the fitting function;
Shape model control means for performing shape model change processing for sequentially changing the shape model used for the fitting processing on the frame image along the time direction;
With
The fitting function is composed of a predetermined number of functions,
The shape model is
A model for determining the fitting function, characterized in that it includes at least one information out of the predetermined number and an allowable range of the order for each function,
Image processing device.
前記形状モデルは、
前記フレーム画像上における前記関数毎のフィッティング適用範囲の情報、
を更に含む、
画像処理装置。 The image processing apparatus according to claim 1,
The shape model is
Information on the fitting application range for each function on the frame image;
Further including
Image processing device.
前記形状モデル変更処理は、
(a)前記所定数を増減させる処理と、
(b)前記所定数の関数のうち、少なくとも1つの関数の前記次数の許容範囲を変更する処理と、
(c)前記所定数の関数のうち、少なくとも1つの関数の前記フィッティング適用範囲を変更する処理と、
のうち、少なくとも1つの処理を含む、
画像処理装置。 The image processing apparatus according to claim 2,
The shape model change process includes:
(A) a process of increasing or decreasing the predetermined number;
(B) a process of changing an allowable range of the order of at least one function among the predetermined number of functions;
(C) a process of changing the fitting application range of at least one function among the predetermined number of functions;
Including at least one process,
Image processing device.
前記形状モデルフィッティング手段は、
前記フレーム画像の画像情報から所定の方法を用いて前記所定領域の境界と予想される境界候補情報を抽出する処理、
を更に行い、
前記フィッティング処理は、
前記境界候補情報に基づいて、前記フィッティング関数を決定する処理、
を含み、
前記形状モデル変更処理は、
前記境界候補情報に基づいて行う、前記処理(a)〜(c)のうち、少なくとも1つの処理、
を含む、
画像処理装置。 The image processing apparatus according to claim 3,
The shape model fitting means includes
A process of extracting boundary candidate information that is expected to be a boundary of the predetermined region from the image information of the frame image using a predetermined method;
And further
The fitting process is
A process for determining the fitting function based on the boundary candidate information;
Including
The shape model change process includes:
At least one of the processes (a) to (c) performed based on the boundary candidate information;
including,
Image processing device.
前記フィッティング適用範囲を狭く変更する場合において、
前記形状モデル変更処理における前記処理(a)は、
前記所定数を減らす処理、
を含み、
前記形状モデル変更処理における前記処理(b)は、
前記所定数の関数のうち、前記フィッティング適用範囲を狭くする関数においては当該関数の前記次数の許容範囲の上限を下げる処理、
を含む、
画像処理装置。 The image processing apparatus according to claim 4,
In the case of changing the fitting application range narrowly,
The process (a) in the shape model change process is:
Processing to reduce the predetermined number;
Including
The process (b) in the shape model change process is:
Among the predetermined number of functions, in the function that narrows the fitting application range, a process of lowering the upper limit of the allowable range of the order of the function,
including,
Image processing device.
前記形状モデル変更処理は、
予め定めた規則や順序を記憶した制約条件に基づいて前記形状モデルを変更する処理を含む、
画像処理装置。 An image processing apparatus according to any one of claims 1 to 5, wherein
The shape model change process includes:
Including a process of changing the shape model based on a constraint condition storing a predetermined rule or order,
Image processing device.
前記所定領域に近接する所定領域近接領域が存在する場合において、
前記フレーム画像に同期した前記所定領域近接領域の周期的な時間変化を検出し、時間変化情報を得る時間変化検出手段、
を更に備え、
前記形状モデル変更処理は、
前記時間変化情報に基づいて前記形状モデルを変更する処理を含む、
画像処理装置。 An image processing apparatus according to any one of claims 1 to 5, wherein
In the case where there is a predetermined area adjacent area close to the predetermined area,
A time change detecting means for detecting a time change information by detecting a periodic time change of the predetermined region adjacent region synchronized with the frame image;
Further comprising
The shape model change process includes:
Including changing the shape model based on the time change information.
Image processing device.
前記形状モデルフィッティング手段から出力される前記所定領域境界情報を順次記憶するフィッティング結果記憶手段、
を更に備え、
前記形状モデル変更処理は、
前記フレーム画像に対してフィッティング処理が行われた形状モデルから、当該フレーム画像の次のフレーム画像のフィッティング処理に用いる形状モデルに変更する第1のモデル変更処理と、
前記フレーム画像に対してフィッティング処理が行われた形状モデルから、当該フレーム画像の再度のフィッティング処理に用いる形状モデルに変更する第2のモデル変更処理と、
を含み、
前記形状モデル制御手段は、
前記形状モデル制御手段にて順次変更した形状モデルあるいは前記フィッティング結果記憶手段にて格納された所定領域境界情報におけるフィッティング関数に基づいて、評価情報を得る形状モデル適正評価手段を含み、
前記形状モデル制御手段は、
当該評価情報に基づいて、前記第1のモデル変更処理及び前記第2のモデル変更処理のうち少なくとも一方の変更処理を実施することを特徴とする、
画像処理装置。 The image processing apparatus according to claim 1,
Fitting result storage means for sequentially storing the predetermined region boundary information output from the shape model fitting means;
Further comprising
The shape model change process includes:
A first model changing process for changing from a shape model subjected to the fitting process to the frame image to a shape model used for the fitting process of the next frame image of the frame image;
A second model change process for changing from a shape model subjected to the fitting process to the frame image to a shape model used for the fitting process for the frame image again;
Including
The shape model control means includes
A shape model appropriate evaluation means for obtaining evaluation information based on a shape model sequentially changed by the shape model control means or a fitting function in predetermined area boundary information stored in the fitting result storage means;
The shape model control means includes
Based on the evaluation information, at least one of the first model change process and the second model change process is performed.
Image processing device.
前記フィッティング結果記憶手段が3以上の前記所定領域境界情報を記憶する場合において、
前記評価情報は、
前記フィッティング結果記憶手段にて記憶された前記所定領域境界情報における3以上のフィッティング関数を示すフィッティング関数群を含むことを特徴とする、
画像処理装置。 The image processing apparatus according to claim 8,
In the case where the fitting result storage means stores the predetermined area boundary information of 3 or more,
The evaluation information is
Including a fitting function group indicating three or more fitting functions in the predetermined area boundary information stored in the fitting result storage means;
Image processing device.
前記形状モデル制御手段は、
前記所定領域境界情報におけるフィッティング関数が近似する前記所定領域の境界と、当該フィッティング関数を導くために用いられたフレーム画像の画像情報から所定の方法を用いて抽出した前記所定領域の境界と予想される境界候補情報と、の差異を比較した画像比較情報を算出するフィッティング精度算出手段、
を含み、
前記評価情報は、
前記画像比較情報を含むことを特徴とする、
画像処理装置。 The image processing apparatus according to claim 8,
The shape model control means includes
The boundary of the predetermined area approximated by the fitting function in the predetermined area boundary information and the boundary of the predetermined area extracted from the image information of the frame image used for deriving the fitting function are expected. Fitting accuracy calculating means for calculating image comparison information comparing the difference between the boundary candidate information and
Including
The evaluation information is
Including the image comparison information,
Image processing device.
前記形状モデル制御手段は、
前記形状モデル制御手段にて逐次決定された形状モデルを逐次記憶することでフィッティング履歴情報として総括的に記憶されたフィッティング履歴記憶手段、
を更に備え、
前記評価情報は、
前記フィッティング履歴情報を含むことを特徴とする、
画像処理装置。 The image processing apparatus according to claim 8,
The shape model control means includes
Fitting history storage means generally stored as fitting history information by sequentially storing the shape models sequentially determined by the shape model control means;
Further comprising
The evaluation information is
Including the fitting history information,
Image processing device.
前記所定領域に近接する所定領域近接領域が存在する場合において、
前記形状モデル制御手段は、
前記フィッティング結果記憶手段にて記憶された所定領域境界情報におけるフィッティング関数間において、前記所定領域近接領域の時間的な位置変位量や形状変化を示す位置形状変化情報を算出する位置形状変化算出手段、
を更に備え、
前記評価情報は、
前記位置形状変化情報を含むことを特徴とする、
画像処理装置。 The image processing apparatus according to claim 9,
In the case where there is a predetermined area adjacent area close to the predetermined area,
The shape model control means includes
A position shape change calculating means for calculating position shape change information indicating a temporal position displacement amount or shape change of the predetermined area adjacent area between the fitting functions in the predetermined area boundary information stored in the fitting result storage means;
Further comprising
The evaluation information is
The position shape change information is included,
Image processing device.
前記所定領域に近接する所定領域近接領域が複数存在する場合において、
前記形状モデル制御手段は、
前記所定領域境界情報におけるフィッティング関数が導き出される当該所定領域の推定近接領域間における相対的な位置関係を示す位置関係情報を算出する位置関係算出手段、
を更に備え、
前記評価情報は、
前記位置関係情報を含むことを特徴とする、
画像処理装置。 The image processing apparatus according to claim 8,
In the case where there are a plurality of predetermined area adjacent areas close to the predetermined area,
The shape model control means includes
A positional relationship calculating means for calculating positional relationship information indicating a relative positional relationship between estimated adjacent regions of the predetermined region from which a fitting function in the predetermined region boundary information is derived;
Further comprising
The evaluation information is
Including the positional relationship information,
Image processing device.
前記所定領域に近接する所定領域近接領域が存在する場合において、
前記フレーム画像に同期した前記所定領域近接領域の周期的な時間変化を検出し、時間変化情報を得る時間変化検出手段、
を更に備え、
前記形状モデル制御手段は、
前記形状モデルの変更パターンに前記所定領域近接領域の周期的な時間変化に対応する優先度を付して作成された優先度付変更パターン情報を予め記憶する優先度付変更パターン記憶手段、
を更に備え、
前記評価情報は、
前記時間変化に対応付けられた前記優先度付変更パターン情報を含むことを特徴とする、
画像処理装置。 The image processing apparatus according to claim 8,
In the case where there is a predetermined area adjacent area close to the predetermined area,
A time change detecting means for detecting a time change information by detecting a periodic time change of the predetermined region adjacent region synchronized with the frame image;
Further comprising
The shape model control means includes
Prioritized change pattern storage means for preliminarily storing prioritized change pattern information created by attaching a priority corresponding to a periodic time change of the predetermined region adjacent area to the shape model change pattern;
Further comprising
The evaluation information is
It includes the change pattern information with priority associated with the time change,
Image processing device.
前記所定領域は肺野領域を含むことを特徴とする、
画像処理装置。 The image processing device according to any one of claims 1 to 14,
The predetermined region includes a lung field region,
Image processing device.
前記所定領域は肺野領域を含み、
前記所定領域近接領域は、
横隔膜領域、心臓領域、及び、大動脈領域を含むことを特徴とする、
画像処理装置。 An image processing apparatus according to any one of claims 7, 12 to 14, wherein
The predetermined area includes a lung field area;
The predetermined area proximity area is:
Including a diaphragm region, a heart region, and an aortic region,
Image processing device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012164590A JP5747878B2 (en) | 2012-07-25 | 2012-07-25 | Image processing apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012164590A JP5747878B2 (en) | 2012-07-25 | 2012-07-25 | Image processing apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014023606A true JP2014023606A (en) | 2014-02-06 |
JP5747878B2 JP5747878B2 (en) | 2015-07-15 |
Family
ID=50197864
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012164590A Expired - Fee Related JP5747878B2 (en) | 2012-07-25 | 2012-07-25 | Image processing apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5747878B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015173720A (en) * | 2014-03-13 | 2015-10-05 | コニカミノルタ株式会社 | Image processing apparatus and program |
JP2020185031A (en) * | 2019-05-10 | 2020-11-19 | 富士通株式会社 | Image processing program, image processing device, and image processing method |
JP2021115120A (en) * | 2020-01-23 | 2021-08-10 | コニカミノルタ株式会社 | Image diagnosis support device and program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000285253A (en) * | 1999-01-28 | 2000-10-13 | Toshiba Corp | Method for description of object area information, generator of object area information, method for video information processing, and information processor |
JP2005319080A (en) * | 2004-05-10 | 2005-11-17 | Aloka Co Ltd | Ultrasonic diagnostic equipment |
US20070047789A1 (en) * | 2005-08-30 | 2007-03-01 | Agfa-Gevaert N.V. | Method of Constructing Gray Value or Geometric Models of Anatomic Entity in Medical Image |
JP2009273597A (en) * | 2008-05-13 | 2009-11-26 | Canon Inc | Alignment processing device, aligning method, program and storage medium |
JP2010268979A (en) * | 2009-05-22 | 2010-12-02 | Konica Minolta Medical & Graphic Inc | Moving image processor and program |
-
2012
- 2012-07-25 JP JP2012164590A patent/JP5747878B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000285253A (en) * | 1999-01-28 | 2000-10-13 | Toshiba Corp | Method for description of object area information, generator of object area information, method for video information processing, and information processor |
JP2005319080A (en) * | 2004-05-10 | 2005-11-17 | Aloka Co Ltd | Ultrasonic diagnostic equipment |
US20070047789A1 (en) * | 2005-08-30 | 2007-03-01 | Agfa-Gevaert N.V. | Method of Constructing Gray Value or Geometric Models of Anatomic Entity in Medical Image |
JP2009273597A (en) * | 2008-05-13 | 2009-11-26 | Canon Inc | Alignment processing device, aligning method, program and storage medium |
JP2010268979A (en) * | 2009-05-22 | 2010-12-02 | Konica Minolta Medical & Graphic Inc | Moving image processor and program |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015173720A (en) * | 2014-03-13 | 2015-10-05 | コニカミノルタ株式会社 | Image processing apparatus and program |
JP2020185031A (en) * | 2019-05-10 | 2020-11-19 | 富士通株式会社 | Image processing program, image processing device, and image processing method |
JP2021115120A (en) * | 2020-01-23 | 2021-08-10 | コニカミノルタ株式会社 | Image diagnosis support device and program |
JP7434923B2 (en) | 2020-01-23 | 2024-02-21 | コニカミノルタ株式会社 | Image diagnosis support device and program |
Also Published As
Publication number | Publication date |
---|---|
JP5747878B2 (en) | 2015-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6350522B2 (en) | Image processing apparatus and program | |
CN107403446B (en) | Method and system for image registration using intelligent artificial agents | |
KR101908520B1 (en) | Landmark detection with spatial and temporal constraints in medical imaging | |
JP6636331B2 (en) | Calculation of blood flow reserve volume ratio | |
JP5643304B2 (en) | Computer-aided lung nodule detection system and method and chest image segmentation system and method in chest tomosynthesis imaging | |
US8218845B2 (en) | Dynamic pulmonary trunk modeling in computed tomography and magnetic resonance imaging based on the detection of bounding boxes, anatomical landmarks, and ribs of a pulmonary artery | |
US8923590B2 (en) | Method and system for 3D cardiac motion estimation from single scan of C-arm angiography | |
JP7308099B2 (en) | Methods, devices and systems for dynamic analysis from sequences of volumetric images | |
JP6958202B2 (en) | Dynamic image processing equipment and programs | |
JP5408400B1 (en) | Image generating apparatus and program | |
JP5464799B2 (en) | Image processing apparatus, image processing method, and program | |
JP2014140742A (en) | Method and apparatus for tracking object in target area of moving organ | |
JP6221770B2 (en) | Image processing apparatus and program | |
CN113384287B (en) | CT scan with reduced interaction | |
JP5510619B1 (en) | Image processing device | |
TW202122038A (en) | System and method for determining radiation parameters | |
JP5747878B2 (en) | Image processing apparatus and program | |
JP5880332B2 (en) | Image processing apparatus and program | |
EP2912634B1 (en) | Determining a four-dimensional ct image based on three-dimensional ct data and four-dimensional model data | |
JPWO2019220871A1 (en) | Chest X-ray image abnormality display control method, abnormality display control program, abnormality display control device, and server device | |
KR101460908B1 (en) | Lung tumor tracking system and the method in 4D CT images | |
JP6927020B2 (en) | Dynamic image processing method, dynamic image processing device and program | |
JP6253992B2 (en) | Organ position estimation apparatus, organ position estimation apparatus control method, and organ position estimation apparatus control program | |
JP2015131057A (en) | Image processing device and program | |
JP2019180799A (en) | Medical image processing apparatus, medical image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140918 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150408 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150414 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150427 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5747878 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |