JP2008067916A - Medical image processor - Google Patents
Medical image processor Download PDFInfo
- Publication number
- JP2008067916A JP2008067916A JP2006249604A JP2006249604A JP2008067916A JP 2008067916 A JP2008067916 A JP 2008067916A JP 2006249604 A JP2006249604 A JP 2006249604A JP 2006249604 A JP2006249604 A JP 2006249604A JP 2008067916 A JP2008067916 A JP 2008067916A
- Authority
- JP
- Japan
- Prior art keywords
- image
- region
- alignment
- images
- interest
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 claims abstract description 121
- 238000000605 extraction Methods 0.000 claims description 16
- 210000000988 bone and bone Anatomy 0.000 abstract 1
- 238000000034 method Methods 0.000 description 87
- 230000008569 process Effects 0.000 description 75
- 230000008859 change Effects 0.000 description 30
- 210000000746 body region Anatomy 0.000 description 17
- 238000002059 diagnostic imaging Methods 0.000 description 12
- 238000003384 imaging method Methods 0.000 description 12
- 238000012937 correction Methods 0.000 description 10
- 210000000621 bronchi Anatomy 0.000 description 9
- 230000005484 gravity Effects 0.000 description 5
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 210000003437 trachea Anatomy 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 210000001217 buttock Anatomy 0.000 description 1
- 210000000038 chest Anatomy 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 210000000779 thoracic wall Anatomy 0.000 description 1
Images
Abstract
Description
本発明は、医用画像処理装置に係り、特に2枚以上の画像を位置合わせした後で接合・差分することにより新しい画像を作成する医用画像処理装置に関する。 The present invention relates to a medical image processing apparatus, and more particularly to a medical image processing apparatus that creates a new image by joining and subtracting two or more images after aligning them.
被検体を体軸方向に2回撮影し、重複させて2枚を並べて接合して長尺画像を作成する場合、同じ部位を撮影した撮影時期が異なる2枚の写真の差分を取り、正常構造を消去することにより、経時的変化が抽出された差分画像を作成する場合等においては、長尺画像、差分画像等を作成する基となる2枚の写真を正確に位置合わせする必要がある。 When the subject is imaged twice in the body axis direction and the two images are overlapped and joined together to create a long image, the difference between the two images taken at the same site and taken at different times is taken to obtain a normal structure For example, when creating a difference image from which changes over time are extracted by deleting the image, it is necessary to accurately align two photographs that are the basis for creating a long image, a difference image, and the like.
しかし、画像を観察する作業者が目視で2枚の画像の位置を合わせる場合には、位置合わせに熟練が必要であるため、慣れていない作業者の場合には、位置合わせの精度が低く、正確な長尺画像又は差分画像が作成できない恐れがある。また、位置合わせが手作業であるために、時間がかかるという問題がある。 However, when an operator who observes an image visually aligns the positions of the two images, skill is required for the alignment, so in the case of an unfamiliar operator, the alignment accuracy is low, There is a possibility that an accurate long image or difference image cannot be created. Moreover, since alignment is a manual operation, there is a problem that it takes time.
これに対応するために、特許文献1には、被検体を検出器に密着させた状態で検出器を体軸方向に動かすことで、被検体を複数回撮影し、その画像を結合することによって長尺画像を作成する技術が開示されている。
しかしながら、上記特許文献1では以下のような欠点があった。特許文献1では、被検体が動かないことを前提としているため、被検体が動いた場合には、被検体が動いた分だけ位置がずれた長尺画像が作成されてしまうという問題がある。また、被検体が動かない場合においても、検出器が体軸方向に動くことによる誤差が生じ、その誤差分だけ位置がずれた長尺画像が作成されてしまうという問題がある。また、位置ずれを修正する場合には、作業者が画像を確認しながら修正を行わなくてはならず、効率が低下するという問題がある。
However,
本発明は、上記事情に鑑みてなされたものであり、自動的に高精度の位置合わせを行なうことで、効率よく長尺画像又は差分画像を作成する医用画像処理装置を提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object thereof is to provide a medical image processing apparatus that efficiently creates a long image or a difference image by automatically performing high-precision alignment. To do.
前記課題を解決するために、請求項1に記載の医用画像処理装置は、被検体が撮影された第1の画像と、この第1の画像と一部の画像が重複する第2の画像とを取得する画像取得手段と、前記第1の画像と第2の画像とを位置合わせしたときの重複部分の画像からそれぞれ位置合わせに用いる第1の画像上の第1の注目領域と第2の画像上の第2の注目領域とを抽出する第1の注目領域抽出手段と、前記第1の注目領域抽出手段によって抽出された第1の注目領域内の画像と第2の注目領域内の画像との相関を求め、この相関に基づいて前記第1の画像と第2の画像の位置合わせを行う第1の位置合わせ手段と、前記第1の位置合わせ手段によって位置合わせされた第1の画像と第2の画像とから位置合わせ部分の画像を含む所定の処理領域を抽出する処理領域抽出手段と、前記抽出された処理領域内の画像の形状特徴量又は濃度特徴量に基づいて前記第1の画像と第2の画像との位置合わせを行う第2の位置合わせ手段と、前記第2の位置合わせ手段によって位置合わせされた第1の画像と第2の画像とに基づいて第1の画像と第2の画像とを加工することにより新しい画像を作成する画像作成手段と、前記画像作成手段によって作成された前記新しい画像を表示する表示手段と、を備えたことを特徴としている。
In order to solve the above problem, the medical image processing apparatus according to
請求項1に記載の医用画像処理装置によれば、まず、一部が重複するように撮影位置を被検体の体軸方向に移動させて撮影された第1の画像と第2の画像とにそれぞれ第1の注目領域と第2の注目領域とを設定し、それらの相関に基づいて、第1の画像と第2の画像との大まかな位置合わせを行なう。その後、大まかな位置合わせが行なわれた部分から抽出された処理領域内において、形状特徴量又は濃度特徴量に基づいて第1の画像と第2の画像との局所的な位置合わせを行なう。
According to the medical image processing apparatus of
これにより、自動的に高精度の位置合わせを行なうことができる。 Thereby, highly accurate alignment can be performed automatically.
請求項2に記載の医用画像処理装置は、請求項1に記載の医用画像処理装置において、前記形状特徴量は、背骨の形状の連続性から求められた値であることを特徴としている。 According to a second aspect of the present invention, in the medical image processing apparatus according to the first aspect, the shape feature amount is a value obtained from continuity of the shape of the spine.
請求項2に記載の医用画像処理装置によれば、一部が重複するように撮影位置を被検体の体軸方向に移動させて撮影された第1の画像と第2の画像とにそれぞれ第1の注目領域と第2の注目領域とを設定し、それらの相関に基づいて、第1の画像と第2の画像との大まかな位置合わせを行なう。その後、大まかな位置合わせが行なわれた部分から抽出された処理領域内において、背骨の形状の連続性に関する形状特徴量に基づいて第1の画像と第2の画像との局所的な位置合わせを行なう。 According to the medical image processing apparatus of the second aspect, the first image and the second image respectively captured by moving the imaging position in the body axis direction of the subject so as to partially overlap each other. One attention area and a second attention area are set, and the first image and the second image are roughly aligned based on the correlation between them. Thereafter, local alignment between the first image and the second image is performed based on the shape feature amount related to the continuity of the shape of the spine in the processing region extracted from the portion where the rough alignment has been performed. Do.
これにより、自動的に高精度の位置合わせを行なうことで、容易に効率よく長尺画像を作成することができる。また、背骨の形状の連続性に関する形状特徴量、すなわち背骨を構成する脊椎の長さが、頭から足方向にいくにつれて同等もしくは長くなるという特徴を用いることで、体軸方向の位置合わせを精密に行なうことができる。 Thus, a long image can be easily and efficiently created by automatically performing high-precision positioning. In addition, the shape feature value related to the continuity of the shape of the spine, that is, the feature that the length of the spine constituting the spine is the same or longer as it goes from the head to the foot direction is used, so that the alignment in the body axis direction is precise. Can be done.
請求項3に記載の医用画像処理装置は、請求項1に記載の医用画像処理装置において、前記処理領域抽出手段は、前記第1の位置合わせ手段によって位置合わせされた第1の画像と第2の画像との位置合わせ領域内の複数箇所において、前記第1の注目領域よりも狭い第1の画像上の第3の注目領域と第2の注目領域よりも狭い第2の画像上の第4の注目領域とをそれぞれ抽出し、前記第2の位置合わせ手段は、前記濃度特徴量である複数箇所毎に求められた前記抽出された第3の注目領域内の画像と前記抽出された第4の注目領域内の画像との相関に関する値に基づいて前記第1の画像と第2の画像との位置合わせを行うことを特徴としている。
The medical image processing apparatus according to
請求項3に記載の医用画像処理装置によれば、一部が重複するように撮影位置を被検体の体軸方向に移動させて撮影された第1の画像と第2の画像とにそれぞれ第1の注目領域と第2の注目領域とを設定し、それらの相関に基づいて、第1の画像と第2の画像との大まかな位置合わせを行なう。その後、大まかな位置合わせが行なわれた部分から抽出された、第1の画像上の複数個所の第3の注目領域と、第2の画像上の複数個所の第4の注目領域との相関に基づいて、第1の画像と第2の画像との局所的な位置合わせを行なう。 According to the medical image processing apparatus of the third aspect, the first image and the second image respectively obtained by moving the imaging position in the body axis direction of the subject so as to partially overlap each other. One attention area and a second attention area are set, and the first image and the second image are roughly aligned based on the correlation between them. Thereafter, a correlation between a plurality of third regions of interest on the first image and a plurality of fourth regions of interest on the second image extracted from the roughly aligned portion is obtained. Based on this, local alignment between the first image and the second image is performed.
これにより、自動的に高精度の位置合わせを行なうことができる。また、複数個所毎に第3の注目領域及び第4の注目領域の相関を求め、求められた相関関係から最適な相関関係を求めることより、より精密な局所的な位置合わせを行なうことができる。 Thereby, highly accurate alignment can be performed automatically. Further, by obtaining the correlation between the third attention area and the fourth attention area for each of a plurality of locations, and obtaining the optimum correlation from the obtained correlation, it is possible to perform more precise local alignment. .
本発明によれば、自動的に高精度の位置合わせを行なうことで、効率よく長尺画像又は差分画像を作成する医用画像処理装置を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the medical image processing apparatus which produces a long image or a difference image efficiently can be provided by performing highly accurate position alignment automatically.
以下、本発明を実施するための最良の形態を添付図面に基づいて説明する。 The best mode for carrying out the present invention will be described below with reference to the accompanying drawings.
<第1の実施の形態>
本発明は、医用画像撮影装置2の一つであるX線装置によって、一部が重複するように撮影位置を被検体の体軸方向に移動させて撮影された2枚の画像を接合して長尺画像を作成するものである。
<First Embodiment>
The present invention uses an X-ray apparatus, which is one of the medical
図1は、本発明に係る第1の実施の形態の医用画像処理装置全体の構成を示すハードウェア構成図である。 FIG. 1 is a hardware configuration diagram showing the overall configuration of the medical image processing apparatus according to the first embodiment of the present invention.
医用画像処理装置10は、X線装置、X線CT装置等の被検体の画像を撮影する医用画像撮影装置2及び医用画像撮影装置2で撮影された被検体の画像が保存されている画像データベース4とLAN3等のネットワークによって接続される。
The medical
医用画像処理装置10は、主として各構成要素の動作を制御する制御装置としての中央処理装置(CPU)11、装置の制御プログラムが格納されたり、プログラム実行時の作業領域となったりする主メモリ12と、オペレーティングシステム(OS)、周辺機器のデバイスドライブ、胸壁の厚さの測定等の処理が行われるためのプログラムを含む各種アプリケーションソフト等が格納される磁気ディスク13と、表示用データを一時記憶する表示メモリ14と、この表示メモリ14からのデータに基づいて画像を表示するCRTモニタや液晶モニタ等のモニタ15と、位置入力装置としてのマウス17、マウス17の状態を検出してモニタ15上のマウスポインタの位置やマウス17の状態等の信号をCPU11に出力するコントローラ18と、作業者が指示を入力するためのキーボード16と、上記各構成要素を接続するバス19とから構成される。
The medical
CPU11は、上記プログラムを磁気ディスク13から読み出して主メモリ12にロードし、実行する。
The
なお、本実施例では、主メモリ12以外の記憶装置として磁気ディスク13が接続されているが、それ以外にハードディスクドライブ等が接続されていてもよい。
In this embodiment, the
次に、一部が重複するように撮影位置を被検体の体軸方向に移動させて撮影された2枚の画像を接合し、長尺画像を作成する方法について説明する。 Next, a method for creating a long image by joining two images captured by moving the imaging position in the body axis direction of the subject so as to partially overlap each other will be described.
図2は、医用画像処理装置10の処理の流れを示すフローチャートである。CPU11は、このフローチャートに従って動作する。以下の処理は、一部が重複するように撮影位置を被検体の体軸方向に移動させて撮影された2枚以上の画像データが医用画像撮影装置2から医用画像処理装置10へ読みこまれた後で開始される。なお、画像データベース4に保存されている被検体の体軸方向に沿って撮影された2枚以上の画像データが、画像データベース4から医用画像処理装置10へ読みこまれた後で開始されるようにしてもよい。なお、医用画像処理装置10に読みこまれた画像データは、一旦磁気ディスク13に保存される。
FIG. 2 is a flowchart showing a processing flow of the medical
まず、磁気ディスク13に保存されている、一部が重複するように撮影位置を被検体の体軸方向に移動させて撮影された2枚の画像20、21と、画像に添付されている付帯情報とが主メモリ12に読み込まれる(ステップS10)。付帯情報には、例えば、1枚目の画像を撮影した後で2枚目の画像を撮影するときにX線装置の検出器が移動した距離、2枚の画像20、21の重複領域の体軸方向の長さ、画像を撮影した日時の情報等が含まれている。
First, two
次に、読み出した2枚の画像20、21から、位置合わせ処理で用いる領域(計算対象領域)を抽出する処理が行われる(ステップS12〜S18)。
Next, a process of extracting an area (calculation target area) used in the alignment process is performed from the two read
まず、閾値が決定される(ステップS12)。この閾値は、位置合わせ処理で用いる領域が明確に分離されるような値があらかじめ設定されている。なお、X線撮影された画像の濃度範囲内における最多頻度を示す濃度を中央値として、その下限値、上限値を探索することにより、閾値を自動設定するようにしてもよい。 First, a threshold value is determined (step S12). The threshold value is set in advance so that a region used in the alignment process is clearly separated. Note that the threshold value may be automatically set by searching for a lower limit value and an upper limit value with the density indicating the highest frequency in the density range of the X-ray image taken as a median value.
画像20、21にステップS12で決定された閾値に基づいて閾値処理が行われることにより、二値化画像が作成される。(ステップS14)。
A binarized image is created by performing threshold processing on the
ステップS14で作成された二値化画像に二次元ラベリング処理を行なうことにより、ラベル画像が作成される(ステップS16)。 A label image is created by performing a two-dimensional labeling process on the binarized image created in step S14 (step S16).
ステップS16で作成されたラベル画像で、最大面積のラベル領域が計算対象領域として抽出される(ステップS18)。 In the label image created in step S16, the label area having the maximum area is extracted as a calculation target area (step S18).
これにより、図3に示すように、計算対象領域30が画像20、21に設定される。なお、本実施例では、脊椎が計算対象領域として処理される。
Thereby, as shown in FIG. 3, the
次に、画像20、21に対して、大まかな位置合わせが行われる(ステップS20〜S28)。以下、大まかな位置合わせについて説明する。
Next, rough alignment is performed on the
ステップS18で抽出された計算対象領域30の重心座標と、抽出領域の横幅が求められ(ステップS20)、その結果を基に、図4(a)に示すように、計算対象領域30の重心座標を中心にして、画像(下部画像)20にテンプレート領域31が設定される(ステップS22)。なお、テンプレート領域31の大きさは、計算対象領域30の大きさに合わせてあらかじめ設定されている。
The center-of-gravity coordinates of the
また、画像(上部画像)21についても、図4(b)に示すように、計算対象領域30の重心座標を中心にして、画像21に探索領域32が設定される(ステップS24)。なお、探索領域32は、テンプレート領域31の大きさよりやや大きめ(テンプレート領域31の約1〜2倍であり、テンプレート領域31の大きさに合わせてあらかじめ設定されている)に設定される。
As for the image (upper image) 21, as shown in FIG. 4B, the
その後、ステップS22で設定されたテンプレート領域31とステップS24で設定された探索領域32との間で、下記(1)式により、最も相関の高い場所における計算結果が、移動距離として算出される(ステップS26)。
Thereafter, between the
なお、相関を求める式は上記式(1)に限らず、式(2)に示す関数のような、その他のさまざまな評価関数を用いることができる。 Note that the equation for obtaining the correlation is not limited to the above equation (1), and various other evaluation functions such as the function shown in equation (2) can be used.
そして、ステップS26で求められた移動距離を用いて、画像20、21が移動される(ステップS28)。
Then, the
これにより、第1の注目領域、第2の注目領域であるテンプレート領域、探索領域により大まかな位置合わせが終了し、図5(a)に示すように、画像20、21が大まかに位置合わせされた画像22が作成される。この段階で、横方向(体軸方向であるy方向に垂直なx方向)の位置合わせはほぼ終了している。
As a result, the rough alignment is completed by the first attention area, the template area as the second attention area, and the search area, and the
次に、画像20、21が大まかに位置合わせされた画像22に対して、形状特徴量を利用した位置合わせ処理(局所的な位置合わせ)が行われる(ステップS30〜S48)。ここで、形状特徴とは、画像に示されている輪郭の形状の連続性のことを言う。本実施例では、背骨(脊椎)の形状の連続性に注目した位置合わせを意味する。以下、形状特徴量を利用した位置合わせ処理(局所的な位置合わせ)について説明する。
Next, alignment processing (local alignment) using the shape feature amount is performed on the
まず、図5(a)に示すように、位置合わせ処理を行なうための処理範囲33が設定される(ステップS30)。この処理範囲33は、画像20、21が貼り合わされた部分である重複領域22aを含み、y方向に所定の幅を持った範囲である。なお、処理範囲33のy方向の幅は、以下に述べる処理が正確に行われるために必要な大きさであり、予め設定されている。
First, as shown in FIG. 5A, a
処理範囲33の中のあるy方向の位置Yにおいて、x方向の全ての画素Y’の濃度が加算される(ステップS32)。その結果、図5(b)に示すように、Yにおける濃度値41が算出される。
At a position Y in the y direction in the
その後、ステップS32で行われる濃度加算処理が、処理範囲33全てに対して行われたかどうかが判定される(ステップS34)。 Thereafter, it is determined whether or not the density addition processing performed in step S32 has been performed on the entire processing range 33 (step S34).
処理範囲33全てに対して濃度加算処理が行われていない場合(ステップS34でNOの場合)は、ステップS32へ戻り、再度濃度加算処理が行われる。 If the density addition process has not been performed on the entire processing range 33 (NO in step S34), the process returns to step S32, and the density addition process is performed again.
処理範囲33全てに対して濃度加算処理が行われた場合(ステップS34でYESの場合)は、図5(b)に示すように、濃度値の折れ線40が得られ、これを基に、注目部位(脊椎)のレングスが計測される(ステップS36)。ここで、レングスとは、輪郭42(折れ線40の濃度値が高い部分)から輪郭42までの距離、すなわち、脊椎の長さのことである。なお、輪郭42と輪郭42との距離が短い場合はレングスとして計測しない。
When density addition processing has been performed on all the processing ranges 33 (YES in step S34), a
脊椎の端面は他の部分に比べて濃度が高いため、脊椎の端面を含む場合の加算値は他の部分の加算値より濃度値が高くなる。そのため、輪郭42と輪郭42とのy方向の幅43α、43β、43γ、43δは、それぞれ脊椎34α、34β、34γ、34δ(図5(a)参照)の長さを意味する。
Since the density of the end face of the spine is higher than that of the other part, the added value when the end face of the spine is included is higher than the added value of the other part. Therefore, the widths 43α, 43β, 43γ, and 43δ in the y direction between the
なお、本実施例においては、説明のため、4個の脊椎に対してレングスを計測した場合について示したが、計測する脊椎の数はこれに限らない。 In this embodiment, for the sake of explanation, the case where the length is measured for four vertebrae is shown, but the number of vertebrae to be measured is not limited to this.
次に、注目部位(脊椎)のy値、レングスが求められる(ステップS38)。ここで、y値とは、画像22(図5(a)参照)の左上(x軸とy軸との交点)を0としたときのy軸の値である。例えば、図5(a)、(b)に示すように、脊椎34αのy値は、その脊椎34αのy方向の中央値yαであり、レングスは43αである。同様に、処理範囲33に含まれる全ての注目部位(脊椎)について上記処理を行うことにより、表1に示すような関係が求められる。
Next, the y value and length of the site of interest (spine) are obtained (step S38). Here, the y value is a value of the y axis when the upper left (intersection of the x axis and the y axis) of the image 22 (see FIG. 5A) is 0. For example, as shown in FIGS. 5A and 5B, the y value of the spine 34α is the median value yα of the spine 34α in the y direction, and the length is 43α. Similarly, the relationship as shown in Table 1 is obtained by performing the above-described processing on all the attention sites (vertebrae) included in the
全ての注目部位(脊椎)について処理が終了したら、注目部位(脊椎)のy値、レングスの相関をとることにより、計測したレングス変化が求められる(ステップS40)。つまり、図6に示すように、縦方向(体軸方向)をy値、横軸をレングスとしたグラフに、表1の値をプロットし、それらを最小二乗法等により補間近似線で連結することで、計測したレングス変化を示す近似線50(図6実線)が作成される。 When the processing is completed for all the target regions (vertebrae), the measured length change is obtained by correlating the y value and the length of the target region (spine) (step S40). That is, as shown in FIG. 6, the values in Table 1 are plotted on a graph in which the vertical direction (body axis direction) is the y value and the horizontal axis is the length, and these are connected by interpolation approximate lines by the least square method or the like. Thus, an approximate line 50 (solid line in FIG. 6) indicating the measured length change is created.
その後、注目部位(脊椎)のy値、レングスより理想的なレングス変化が求められる(ステップS42)。レングス、すなわち脊椎の長さは、頭から足方向にいくにつれて同等もしくは長くなるという特徴がある。つまり、図6に示すように、縦軸をy値、横軸をレングスとしたグラフに上記表1の値をプロットし、そのプロットをできるだけ多く含んだ近似曲線であって、Y値の増大と共にレングスが増大又は同等になるような近似直線が作成されることで、理想的なレングス変化を示す近似線51(図6点線)が作成される。 Thereafter, an ideal length change is obtained from the y value and length of the site of interest (spine) (step S42). The length, that is, the length of the spine is characterized by being equal or longer in the direction from the head to the foot. That is, as shown in FIG. 6, the values in Table 1 are plotted on a graph with the y-axis on the vertical axis and the length on the horizontal axis, and the approximate curve includes as many plots as possible. By creating an approximate straight line that increases or becomes equivalent in length, an approximate line 51 (dotted line in FIG. 6) indicating an ideal length change is created.
これにより、レングス変化を示す近似線すなわち、背骨の形状の連続性に関する値が求められる。 Thereby, an approximate line indicating a change in length, that is, a value related to the continuity of the shape of the spine is obtained.
計測したレングス変化を示す近似線50及び理想的なレングス変化を示す近似線51が作成されたら、計測したレングス変化を示す近似線50と理想的なレングス変化を示す近似線51とが一致するかどうかが判断される(ステップS44)。
When the
計測したレングス変化を示す近似線50と理想的なレングス変化を示す近似線51とが一致しない場合には、計測したレングス変化を示す近似線50と理想的なレングス変化を示す近似線51との差(ずれ量)が計算され(ステップS46)、そのずれ量がなくなるように、画像20又は画像21が移動される(ステップS48)。例えば、図6においては、理想的なレングス変化を示す近似線51にくらべて、計測したレングス変化を示す近似線50のレングスが脊椎43γ近辺で短くなる方向にずれているため、脊椎43γがこのずれ量だけ長くなるように画像20又は画像21を移動させる。
When the
計測したレングス変化を示す近似線50と理想的なレングス変化を示す近似線51とが一致する場合には、画像20と画像21とが正確に位置合わせされていると判断されるため、形状特徴量を利用した位置合わせ処理を終了する。
When the
これにより、形状特徴量を利用した局所的な位置合わせが終了し、画像20、21が横方向(体軸方向であるy方向に垂直なx方向)のみでなく縦方向(y方向)の精密な位置合わせが終了される。
Thereby, the local alignment using the shape feature amount is completed, and the
次に、画像20、21を貼り合わせた部分の濃度値補正処理(ステップS50〜S54)が行われる。以下、濃度値補正処理について説明する。
Next, density value correction processing (steps S50 to S54) is performed on the portion where the
同条件で撮影を行った場合においても、一般的に画像20と画像21との濃度は異なっている。そのため、画像20、21の重複領域22a(図5(a)参照)と重複領域22aでない領域22b、22cとでは、濃度が不連続となるため、不自然な画像となってしまう。そこで、より滑らかに画像20と画像21とを接合するために、画像20、21の濃度値に基づいて重複領域22aの濃度合成処理が行われる必要がある。
Even when shooting is performed under the same conditions, the densities of the
貼り合わせ箇所からの注目するy方向の画素間の距離に応じて、図7に示すように、注目する画素の濃度値が式(3)によって算出される(ステップS50)。 As shown in FIG. 7, the density value of the pixel of interest is calculated by Equation (3) according to the distance between the pixels of interest in the y direction from the pasted portion (step S50).
注目する画素の濃度値が算出されたら、画像22の濃度値が、画像22の左上の画素からy方向に補正され(ステップ52)、この濃度値の補正が画像22全体に対して行われたかどうかが判定される(ステップS54)。そして、濃度補正処理が画像22全体に対して行われたと判断されると、処理を終了する。
When the density value of the pixel of interest is calculated, the density value of the
これにより、位置合わせが行なわれた画像22に対して、濃度が補正され、画像20、21が滑らかに接合され、自然な長尺画像23(図8(a)参照)が生成される。
As a result, the density of the
長尺画像23が作成されたら、表示メモリ14を介してモニタ15に表示される(ステップS56)。モニタ15には、画像23の他に、作業者がキーボード16、マウス17などで操作することによって、画像23を拡大、縮小したり、画像23を移動させたりするための十字キー56(図8(b)参照)、カラー表示、白黒表示等のモード選択を行うためのモード画面58(図8(c)参照)、十字キー56、モード画面58等を操作するためカーソル56等を表示させることができる。
When the
本実施の形態によれば、一部が重複するように撮影位置を被検体の体軸方向に移動させて撮影された2枚の画像に対して設定された第1の注目領域であるテンプレート領域と第2の注目領域である探索領域との相関に基づいて、第1の画像と第2の画像との大まかな位置合わせを行ない、その結果をもとに精密な位置合わせをするため、自動的に高精度の位置合わせを行なうことができる。 According to the present embodiment, a template region that is a first region of interest set for two images that are imaged by moving the imaging position in the body axis direction of the subject so as to partially overlap each other The first image and the second image are roughly aligned based on the correlation between the image and the search area, which is the second region of interest, and automatic alignment is performed based on the result. Therefore, highly accurate alignment can be performed.
また、形状特徴量である背骨(脊椎)の形状の連続性から求められた値、すなわち、脊椎の長さが頭から足方向にいくにつれて同等もしくは長くなるという特徴から求められた値を用いることで、体軸方向の位置合わせを精密に行なうことができる。 Also, use the value obtained from the continuity of the shape of the spine (spine), which is the shape feature quantity, that is, the value obtained from the feature that the length of the spine is equal or longer as it goes from the head to the foot. Thus, alignment in the body axis direction can be performed precisely.
また、位置合わせが行なわれた画像に対して、濃度補正されることで、2枚の画像が滑らかに接合され、その結果、自然な長尺画像(第3の画像)を生成することができる。自動的に長尺画像が生成されるため、容易に効率よく長尺画像が作成されることができる。 Further, density correction is performed on the image that has been aligned, so that the two images are smoothly joined, and as a result, a natural long image (third image) can be generated. . Since a long image is automatically generated, a long image can be created easily and efficiently.
なお、本実施の形態では、2枚の画像を接合する方法について説明したが、3枚以上の場合においても、同様に処理することで画像の接合が可能である。 In this embodiment, the method of joining two images has been described. However, even when there are three or more images, the images can be joined by performing the same processing.
<第2の実施の形態>
上記第1の実施の形態の医用画像処理装置では、大まかに位置合わせされた2枚の画像に対して、形状特徴量に基づいて局所的な位置合わせが行なわれるが、局所的な位置合わせを行なう方法は、これに限定されるものではない。
<Second Embodiment>
In the medical image processing apparatus according to the first embodiment, local alignment is performed based on the shape feature amount with respect to the two images roughly aligned, but the local alignment is performed. The method to be performed is not limited to this.
本実施の形態の医用画像処理装置は、大まかに位置合わせされた2枚の画像に対して、複数個所の注目領域の相関によって局所的な位置合わせを行うものである。図9は、本発明に係る第2の実施の形態の医用画像処理装置10aの処理の流れを示すフローチャートである。なお、図中、第1の実施の形態と同一の部分については、同一の符号を付し、説明を省略する。 The medical image processing apparatus according to the present embodiment performs local alignment on two roughly aligned images by correlation of a plurality of regions of interest. FIG. 9 is a flowchart showing a processing flow of the medical image processing apparatus 10a according to the second embodiment of the present invention. In the figure, the same portions as those of the first embodiment are denoted by the same reference numerals, and description thereof is omitted.
まず、磁気ディスク13に保存されている2枚の画像20、21と、画像に添付されている付帯情報とが主メモリ12に読み込まれる(ステップS10)。
First, the two
次に、読み出した2枚の画像20、21から、位置合わせ処理で用いる領域(計算対象領域)を抽出する処理が行われる(ステップS12〜S18)。
Next, a process of extracting an area (calculation target area) used in the alignment process is performed from the two read
次に、画像20、21に対して、大まかな位置合わせが行われる(ステップS20〜S28)。
Next, rough alignment is performed on the
なお、ステップS10〜S28の処理は、第1の実施の形態と同一であるため、詳細な説明は省略する。 In addition, since the process of step S10-S28 is the same as 1st Embodiment, detailed description is abbreviate | omitted.
ステップS20〜S28に示す大まかな位置合わせが終了したら、大まかに位置合わせされた画像20、21に対して、濃度特徴量を利用した位置合わせ処理1(局所的な位置合わせ)が行われる(ステップS60〜S76)。ここで、濃度特徴量とは、画像の濃度を閾値処理することで求められる特徴のことをいう。以下、濃度特徴量を利用した位置合わせ処理1(局所的な位置合わせ)について説明する。
When the rough alignment shown in steps S20 to S28 is completed, the alignment processing 1 (local alignment) using the density feature amount is performed on the roughly aligned
図10(a−1)、(a−2)に示すように、ステップS24において画像(上部画像)21に設定された探索領域32の内部に、テンプレート領域35―nが設定される(ステップS60)。
As shown in FIGS. 10A-1 and 10A-2, a template area 35-n is set inside the
また、画像(下部画像)20についても、図10(b−1)、(b−2)に示すように、ステップS22において画像(下部画像)20に設定されたテンプレート領域31の内部に、探索領域36が設定される(ステップS62)。
As for the image (lower image) 20, as shown in FIGS. 10 (b-1) and (b-2), a search is performed inside the
本実施例では、テンプレート領域35−nの高さは約20mmであり、探索領域36の高さは約40mmである。また、テンプレート領域35−n及び探索領域36は脊椎と脊椎の間が含まれるように設定されている。
In the present embodiment, the height of the template region 35-n is about 20 mm, and the height of the
まず、n=1、すなわち図10(a−2)、(b−2)に示すように、テンプレート領域35−1が探索領域36の左端に位置するように、テンプレート領域35−nが設定される(ステップS64)。
First, template area 35-n is set such that n = 1, that is, template area 35-1 is positioned at the left end of
その後、テンプレート領域35−nを探索領域36の範囲内で上下に動かす(ステップS66)ことにより、テンプレート領域35−nにおける移動距離が算出される(ステップS68)。本実施例では、テンプレート領域35−nの高さは約20mmであり、探索領域36の高さは約40mmであることより、テンプレート領域35−nは、探索領域36の内部を上下に約20mm移動することができる。なお、移動距離の算出は、ステップS26と同様の方法を用いることができる。
Then, the movement distance in the template area 35-n is calculated by moving the template area 35-n up and down within the search area 36 (step S66) (step S68). In the present embodiment, the height of the template region 35-n is about 20 mm, and the height of the
そして、n=Nかが判断される(ステップS72)。 Then, it is determined whether n = N (step S72).
n=Nで無い(ステップS72でNO)場合には、n=n+1に設定され(ステップS70)、その後ステップS66に戻り、テンプレート領域35−nが再度設定される。例えば、ステップS68でn=1の場合には、図10(a−2)、(b−2)に示すように、テンプレート領域35−1が探索領域36の左端に位置しているが、ステップS70でn=2に設定されると、図10(a−3)、(b−3)に示すように、テンプレート領域35−1の位置から1画素だけ右に移動した位置にテンプレート領域35−2が設定される。
If n = N is not satisfied (NO in step S72), n = n + 1 is set (step S70), and then the process returns to step S66, where the template area 35-n is set again. For example, when n = 1 in step S68, the template area 35-1 is located at the left end of the
n=N(ステップS72でYES)の場合、すなわち、図10(a−4)、(b−4)に示すように、テンプレート領域35−Nが探索領域36の右端に位置している場合には、ステップS72で求められた複数の移動距離の中で最も頻度の高い移動距離(最多頻度移動距離)が算出される(ステップS74)。最多頻度移動距離の算出は、ステップS68で求められた複数の移動距離のヒストグラムを作成し、その中で最も度数が多い階級の中央値を最多頻度移動距離として算出してもよいし、ステップS68で求められた複数の移動距離のヒストグラムを作成し、そのヒストグラムの重心を計算し、その値を最多頻度移動距離として算出してもよい。
When n = N (YES in step S72), that is, when the template area 35-N is located at the right end of the
そして、ステップS74で求められた最多頻度移動距離を用いて、画像20、21が移動される(ステップS76)。
Then, the
これにより、第3の注目領域、第4の注目領域であるテンプレート領域、探索領域により濃度特徴量を利用した位置合わせが終了し、画像20、21が局所的に位置合わせされ、横方向(体軸方向であるy方向に垂直なx方向)のみでなく縦方向(y方向)の精密な位置合わせが終了される。
Thereby, the registration using the density feature amount by the third attention area, the template area which is the fourth attention area, and the search area is finished, and the
濃度特徴量を利用した位置合わせ処理1(局所的な位置合わせ)が終了したら、画像20、21を貼り合わせた部分の濃度値補正処理(ステップS50〜S54)、生成された長尺画像の表示(ステップS56)。が行われる。なお、ステップS50〜S56の処理は、第1の実施の形態と同一であるため、詳細な説明は省略する。
When the registration process 1 (local registration) using the density feature amount is completed, the density value correction process (steps S50 to S54) of the part where the
本実施の形態によれば、大まかな位置合わせが行なわれた部分から抽出された、複数の第3の注目領域であるテンプレート領域と、複数個所の第4の注目領域である探索領域との相関に基づいて、2枚の画像の局所的な位置合わせを行なうことにより、自動的に高精度の位置合わせを行なうことができる。 According to the present embodiment, the correlation between a plurality of template regions that are third attention regions and a plurality of fourth attention regions that are extracted from a portion where rough positioning has been performed. Based on the above, by performing the local alignment of the two images, it is possible to automatically perform the high-accuracy alignment.
また、あるテンプレート領域に対して探索領域との相関を求め、求められた複数個の相関関係(移動距離)から最適な相関関係を求めることより、2枚の画像のズレが1mm以下という、より精密な局所的な位置合わせを行なうことができる。 Further, by obtaining a correlation with a search area for a certain template area and obtaining an optimum correlation from a plurality of obtained correlations (movement distances), the deviation between the two images is 1 mm or less. Precise local alignment can be performed.
<第3の実施の形態>
上記第2の実施の形態の医用画像処理装置では、大まかに位置合わせされた2枚の画像に対して、テンプレート領域を探索領域の中で1画素ずつ動かしてその各々の場所で移動距離を測定し、その中の最多頻度移動距離を算出することで局所的な位置合わせを行なったが、局所的な位置合わせを行なう方法は、これに限定されるものではない。
<Third Embodiment>
In the medical image processing apparatus according to the second embodiment, the template region is moved pixel by pixel in the search region for two roughly aligned images, and the movement distance is measured at each location. In addition, the local alignment is performed by calculating the most frequently moved distance among them, but the method of performing the local alignment is not limited to this.
本実施の形態の医用画像処理装置は、大まかに位置合わせされた2枚の画像に対してテンプレート領域及び探索領域をそれぞれ複数個所設定し、その各々において移動距離を測定し、その中の最多頻度移動距離を算出することで局所的な位置合わせを行うものである。図11は、本発明に係る第2の実施の形態の医用画像処理装置10bの処理の流れを示すフローチャートである。なお、図中、第1の実施の形態及び第2の実施の形態と同一の部分については、同一の符号を付し、説明を省略する。 The medical image processing apparatus according to the present embodiment sets a plurality of template regions and search regions for two roughly aligned images, measures the moving distance in each of them, and most frequently among them. Local alignment is performed by calculating the movement distance. FIG. 11 is a flowchart showing a processing flow of the medical image processing apparatus 10b according to the second embodiment of the present invention. In the figure, the same portions as those in the first embodiment and the second embodiment are denoted by the same reference numerals, and description thereof is omitted.
まず、磁気ディスク13に保存されている2枚の画像20、21と、画像に添付されている付帯情報とが主メモリ12に読み込まれる(ステップS10)。
First, the two
次に、読み出した2枚の画像20、21から、位置合わせ処理で用いる領域(計算対象領域)を抽出する処理が行われる(ステップS12〜S18)。
Next, a process of extracting an area (calculation target area) used in the alignment process is performed from the two read
次に、画像20、21に対して、大まかな位置合わせが行われる(ステップS20〜S28)。
Next, rough alignment is performed on the
なお、ステップS10〜S28の処理は、第1の実施の形態と同一であるため、詳細な説明は省略する。 In addition, since the process of step S10-S28 is the same as 1st Embodiment, detailed description is abbreviate | omitted.
ステップS20〜S28に示す大まかな位置合わせが終了したら、大まかに位置合わせされた画像20、21に対して、濃度特徴量を利用した位置合わせ処理2(局所的な位置合わせ)が行われる(ステップS80〜S90)。以下、濃度特徴量を利用した位置合わせ処理2(局所的な位置合わせ)について説明する。
When the rough alignment shown in Steps S20 to S28 is completed, alignment processing 2 (local alignment) using density feature amounts is performed on the roughly aligned
図12(a−1)、(a−2)に示すように、ステップS22において画像(下部画像)20に設定されたテンプレート領域31の内部に、複数のテンプレート領域37が設定される(ステップS80)。
As shown in FIGS. 12A-1 and 12A-2, a plurality of
また、画像(上部画像)21についても、図12(b−1)、(b−2)に示すように、ステップS24において画像(上部画像)21に設定された探索領域32の内部の、テンプレート領域37に対応する場所に、探索領域38が設定される(ステップS82)。
As for the image (upper image) 21, as shown in FIGS. 12B-1 and 12B-2, the template inside the
例えば、図12(a−2)、(b−2)に示すように、テンプレート領域37−1に対しては、その対応する場所に探索領域38−1が設定される。同様にして、テンプレート領域37−1〜37−9に対して探索領域38−1〜38−9が設定される。また、テンプレート領域37−1〜37−9及び探索領域38−1〜38−9は、ステップS26で求められた移動距離を基に、テンプレート領域31及び探索領域32より小さい大きさに設定される。なお、図12では、9個のテンプレート領域37−1〜37−9及び探索領域38−1〜38−9を設定したが、テンプレート領域37及び探索領域38は複数個であれば9個に限らない。
For example, as shown in FIGS. 12A-2 and 12B-2, for the template area 37-1, a search area 38-1 is set at the corresponding location. Similarly, search areas 38-1 to 38-9 are set for template areas 37-1 to 37-9. The template areas 37-1 to 37-9 and the search areas 38-1 to 38-9 are set to be smaller than the
テンプレート領域37及び探索領域38の設定が終了したら、各々のテンプレート領域37及び探索領域38における移動距離が算出される(ステップS84)。すなわち、テンプレート領域37−1と探索領域38−1とで移動距離が算出され、同様の方法で、テンプレート領域37−1〜37−9と探索領域38−1〜38−9との移動距離が算出される。なお、移動距離の算出は、ステップS26と同様の方法を用いることができる。
When the setting of the
その後、全てのテンプレート領域37及び探索領域38に対して移動距離が計算されたかが判断される(ステップS86)。本実施例では、テンプレート領域37及び探索領域38が、テンプレート領域37−1〜37−9、探索領域38−1〜38−9と各9個設定されており、その9個全てに対して移動距離が算出されたかが判断される。
Thereafter, it is determined whether the movement distance has been calculated for all
全てのテンプレート領域37及び探索領域38に対して移動距離が計算されていない場合には、ステップS84へ戻り、再度移動距離の算出を行う。
If the movement distance is not calculated for all the
全てのテンプレート領域37及び探索領域38に対して移動距離が計算された場合には、ステップS86で求められた複数の移動距離の中で最も頻度の高い移動距離(最多頻度移動距離)が算出される(ステップS88)。最多頻度移動距離の算出は、ステップS86で求められた複数の移動距離のヒストグラムを作成し、その中で最も度数が多い階級の中央値を最多頻度移動距離として算出してもよいし、ステップS86で求められた複数の移動距離のヒストグラムを作成し、そのヒストグラムの重心を計算し、その値を最多頻度移動距離として算出してもよい。
When the movement distances are calculated for all the
そして、ステップS88で求められた最多頻度移動距離を用いて、画像20、21が移動される(ステップS90)。
Then, the
これにより、第3の注目領域、第4の注目領域であるテンプレート領域、探索領域により濃度特徴量を利用した位置合わせが終了し、画像20、21が局所的に位置合わせされ、横方向(体軸方向であるy方向に垂直なx方向)のみでなく縦方向(y方向)の精密な位置合わせが終了される。
Thereby, the registration using the density feature amount by the third attention area, the template area which is the fourth attention area, and the search area is finished, and the
濃度特徴量を利用した位置合わせ処理2(局所的な位置合わせ)が終了したら、画像20、21を貼り合わせた部分の濃度値補正処理(ステップS50〜S54)、生成された長尺画像の表示(ステップS56)。が行われる。なお、ステップS50〜S56の処理は、第1の実施の形態と同一であるため、詳細な説明は省略する。
When the registration process 2 (local registration) using the density feature amount is completed, the density value correction process (steps S50 to S54) of the part where the
本実施の形態によれば、大まかな位置合わせが行なわれた部分から抽出された、複数の第3の注目領域であるテンプレート領域と、複数個所の第4の注目領域である探索領域との相関に基づいて、2枚の画像の局所的な位置合わせを行なうことにより、自動的に高精度の位置合わせを行なうことができる。 According to the present embodiment, the correlation between a plurality of template regions that are third attention regions and a plurality of fourth attention regions that are extracted from a portion where rough positioning has been performed. Based on the above, by performing the local alignment of the two images, it is possible to automatically perform the high-accuracy alignment.
<第4の実施の形態>
上記第1の実施の形態の医用画像処理装置では、濃度特徴量を利用した大まかな位置合わせの後で、形状特徴量を利用した局所的な位置合わせを行なったが、これに限定されるものではない。
<Fourth embodiment>
In the medical image processing apparatus according to the first embodiment, the local alignment using the shape feature amount is performed after the rough alignment using the density feature amount. However, the present invention is not limited to this. is not.
本実施の形態の医用画像処理装置は、2通りの方法で局所的な位置合わせを行なって結果を比較するものである。図13は、本発明に係る第4の実施の形態の医用画像処理装置10cの処理の流れを示すフローチャートである。なお、図中、第1の実施の形態、第2の実施の形態又は第3の実施の形態と同一の部分については、同一の符号を付し、説明を省略する。 The medical image processing apparatus according to the present embodiment performs local alignment by two methods and compares the results. FIG. 13 is a flowchart showing a processing flow of the medical image processing apparatus 10c according to the fourth embodiment of the present invention. In the figure, the same portions as those in the first embodiment, the second embodiment, or the third embodiment are denoted by the same reference numerals, and the description thereof is omitted.
まず、磁気ディスク13に保存されている2枚の画像20、21と、画像に添付されている付帯情報とが主メモリ12に読み込まれる(ステップS10)。
First, the two
次に、読み出した2枚の画像20、21から、位置合わせ処理で用いる領域(計算対象領域)を抽出する処理が行われる(ステップS12〜S18)。
Next, a process of extracting an area (calculation target area) used in the alignment process is performed from the two read
次に、画像20、21に対して大まかな位置合わせが行われる(ステップS20〜S28)。
Next, rough alignment is performed on the
なお、ステップS10〜S28の処理は、第1の実施の形態と同一であるため、詳細な説明は省略する。 In addition, since the process of step S10-S28 is the same as 1st Embodiment, detailed description is abbreviate | omitted.
画像20、21が大まかに位置合わせされたら、画像20、21が大まかに位置合わせされた画像20、22に対して、局所的な位置合わせが行われる(ステップS30〜S96)。以下、局所的な位置合わせについて説明する。
When the
まずは、形状特徴量を利用した位置合わせ処理(局所的な位置合わせ1)が行われる(ステップS30〜S47)。 First, alignment processing (local alignment 1) using shape feature values is performed (steps S30 to S47).
まず、位置合わせ処理を行なうための処理範囲33が設定される(ステップS30)。
First, a
処理範囲33の中のあるy方向の位置Yにおいて、x方向の全ての画素Y’の濃度が加算され(ステップS32)、この濃度加算処理が、処理範囲33全てに対して行われたかどうかが判定される(ステップS34)。
At a position Y in the y direction in the
処理範囲33全てに対して濃度加算処理が行われていない場合(ステップS34でNOの場合)は、ステップS32へ戻り、再度濃度加算処理が行われる。 If the density addition process has not been performed on the entire processing range 33 (NO in step S34), the process returns to step S32, and the density addition process is performed again.
処理範囲33全てに対して濃度加算処理が行われた場合(ステップS34でYESの場合)は、注目部位(脊椎)のレングスが計測される(ステップS36)。 When the density addition processing has been performed on the entire processing range 33 (YES in step S34), the length of the site of interest (spine) is measured (step S36).
次に、注目部位(脊椎)のy値、レングスが求められる(ステップS38)。 Next, the y value and length of the site of interest (spine) are obtained (step S38).
全ての注目部位(脊椎)について処理が終了したら、注目部位(脊椎)のy値、レングスの相関をとることにより、計測したレングス変化が求められる(ステップS40)。 When the processing is completed for all the target regions (vertebrae), the measured length change is obtained by correlating the y value and the length of the target region (spine) (step S40).
その後、注目部位(脊椎)のy値、レングスより理想的なレングス変化が求められる(ステップS42)。 Thereafter, an ideal length change is obtained from the y value and length of the site of interest (spine) (step S42).
計測したレングス変化を示す近似線50及び理想的なレングス変化を示す近似線51が作成されたら、計測したレングス変化を示す近似線50と理想的なレングス変化を示す近似線51とが一致するかどうかが判断される(ステップS44)。
When the
なお、ステップS30〜S44の処理は、第1の実施の形態と同一であるため、詳細な説明は省略する。 In addition, since the process of step S30-S44 is the same as 1st Embodiment, detailed description is abbreviate | omitted.
計測したレングス変化を示す近似線50と理想的なレングス変化を示す近似線51とが一致しない場合には、計測したレングス変化を示す近似線50と理想的なレングス変化を示す近似線51との差(ずれ量)が計算され、このずれ量(図6参照)が形状特徴量を利用した位置合わせでの移動量pと設定される(ステップS47)。
When the
計測したレングス変化を示す近似線50と理想的なレングス変化を示す近似線51とが一致する場合には、画像20と画像21とが正確に位置合わせされていると判断されるため、形状特徴量を利用した位置合わせでの移動量pが0に設定される。
When the
これにより、ステップS30〜S47に示す形状特徴量を利用した位置合わせ処理(局所的な位置合わせ1)が終了される。 Thereby, the alignment process (local alignment 1) using the shape feature amount shown in steps S30 to S47 is completed.
次に、大まかに位置合わせされた画像20、21に対して、濃度特徴量を利用した位置合わせ処理1(局所的な位置合わせ2)が行われる(ステップS60〜S75)。
Next, alignment processing 1 (local alignment 2) using density feature amounts is performed on the roughly aligned
ステップS24において画像(上部画像)21に設定された探索領域32の内部に、テンプレート領域35―nが設定される(ステップS60)。また、画像(下部画像)20についても、ステップS22において画像(下部画像)20に設定されたテンプレート領域31の内部に、探索領域36が設定される(ステップS62)。
A template area 35-n is set inside the
テンプレート領域35―n及び探索領域36が設定された後で、n=1に設定される(ステップS64)。
After the template area 35-n and the
その後、テンプレート領域35−nを探索領域36の範囲内で上下に動かす(ステップS66)ことにより、テンプレート領域35−nにおける移動距離が算出される(ステップS68)。 Then, the movement distance in the template area 35-n is calculated by moving the template area 35-n up and down within the search area 36 (step S66) (step S68).
そして、n=Nかが判断される(ステップS72)。 Then, it is determined whether n = N (step S72).
n=Nで無い(ステップS72でNO)場合には、n=n+1に設定され(ステップS70)、その後ステップS66に戻り、テンプレート領域35−nが再度設定される。 If n = N is not satisfied (NO in step S72), n = n + 1 is set (step S70), and then the process returns to step S66, where the template area 35-n is set again.
なお、ステップS60〜S70の処理は、第2の実施の形態と同一であるため、詳細な説明は省略する。 In addition, since the process of step S60-S70 is the same as 2nd Embodiment, detailed description is abbreviate | omitted.
n=N(ステップS72でYES)の場合には、ステップS68で求められた複数の移動距離の中で最も頻度の高い移動距離(最多頻度移動距離)が算出され、この最多頻度移動距離が形状特徴量を利用した位置合わせでの移動量qとして設定される(ステップS75)。 In the case of n = N (YES in step S72), the most frequent travel distance (most frequent travel distance) is calculated among the plurality of travel distances obtained in step S68, and this most frequent travel distance is the shape. It is set as the movement amount q in the alignment using the feature amount (step S75).
なお、最多頻度移動距離の算出は、ステップS68で求められた複数の移動距離のヒストグラムを作成し、その中で最も度数が多い階級の中央値を最多頻度移動距離として算出してもよいし、ステップS68で求められた複数の移動距離のヒストグラムを作成し、そのヒストグラムの重心を計算し、その値を最多頻度移動距離として算出してもよい。 The calculation of the most frequent movement distance may be performed by creating a histogram of the plurality of movement distances obtained in step S68 and calculating the median of the class with the highest frequency as the most frequent movement distance. A histogram of a plurality of movement distances obtained in step S68 may be created, the center of gravity of the histogram may be calculated, and the value may be calculated as the most frequent movement distance.
これにより、ステップS60〜S75に示す濃度特徴量を利用した位置合わせ処理1(局所的な位置合わせ2)が終了される。 Thereby, the registration process 1 (local registration 2) using the density feature amount shown in steps S60 to S75 is completed.
形状特徴量を利用した位置合わせ処理(局所的な位置合わせ1)及び濃度特徴量を利用した位置合わせ処理1(局所的な位置合わせ2)が終了したら、ステップS47で求められた形状特徴量を利用した位置合わせ処理(局所的な位置合わせ1)での移動量pと、ステップS75で求められた濃度特徴量を利用した位置合わせ処理1(局所的な位置合わせ2)での移動量qとの差が、閾値(例えば1画素)以下であるかどうかが判断される(ステップS92)。なお、その閾値は、所定の値があらかじめ設定されているが、作業者が変更することも可能である。 When the registration processing (local registration 1) using the shape feature amount and the registration processing 1 (local registration 2) using the density feature amount are completed, the shape feature amount obtained in step S47 is obtained. The amount of movement p in the used alignment processing (local alignment 1), and the amount of movement q in the alignment processing 1 (local alignment 2) using the density feature obtained in step S75. It is determined whether or not the difference is equal to or less than a threshold (for example, one pixel) (step S92). The threshold value is set in advance, but can be changed by an operator.
移動量pと移動量qとの差が閾値以下である場合(ステップS92でYESの場合)には、移動量qが局所的な位置合わせにおける移動量と設定され(ステップS94)、画像20、21が移動される(ステップS96)。
When the difference between the movement amount p and the movement amount q is equal to or smaller than the threshold value (in the case of YES in step S92), the movement amount q is set as the movement amount in the local alignment (step S94), and the
移動量pと移動量qとの差が閾値以下でない場合(ステップS92でNOの場合)には、ステップS20へ戻り、再度大まかな位置合わせ、形状特徴量を利用した位置合わせ処理(局所的な位置合わせ1)及び濃度特徴量を利用した位置合わせ処理1(局所的な位置合わせ2)が行われる。なお、この場合に設定されるテンプレート領域、探索領域又は処理範囲は、1回目に行われる場合でのテンプレート領域、探索領域又は処理範囲より小さく設定される。 If the difference between the movement amount p and the movement amount q is not less than or equal to the threshold value (NO in step S92), the process returns to step S20, and the rough alignment is performed again. Alignment 1) and alignment processing 1 (local alignment 2) using density feature amounts are performed. Note that the template area, search area, or processing range set in this case is set to be smaller than the template area, search area, or processing range that is used for the first time.
これにより、ステップS30〜S96に示す局所的な位置合わせが終了され、画像20、21が横方向(体軸方向であるy方向に垂直なx方向)のみでなく縦方向(y方向)の精密な位置合わせが行われる。
As a result, the local alignment shown in steps S30 to S96 is completed, and the
なお、本実施の形態では、移動量pと移動量qとの差が閾値以下である場合において、移動量qを用いて画像20、21を移動させたが、これに限らず、移動量pを用いてもよいし、移動量pと移動量qとを比較して、どちらか小さい方を用いるようにしてもよい。
In the present embodiment, when the difference between the movement amount p and the movement amount q is less than or equal to the threshold value, the
局所的な位置合わせが終了されたら、画像20、21を貼り合わせた部分の濃度値補正処理(ステップS50〜S54)が行われ、画像がモニタに表示される(ステップS56)。なお、ステップS50〜S56の処理は、第1の実施の形態と同一であるため、詳細な説明は省略する。
When the local alignment is completed, density value correction processing (steps S50 to S54) is performed on the portion where the
本実施の形態によれば、形状特徴量を利用した位置合わせ処理(局所的な位置合わせ1)と、濃度特徴量を利用した位置合わせ処理1(局所的な位置合わせ2)との2通りの方法で局所的な位置合わせを行ない、それらの差が所定の閾値以下であるかどうかを確認することにより、より正確に、かつより確実に局所的な位置合わせを行なうことができる。 According to the present embodiment, there are two types of alignment processing (local alignment 1) using shape feature amounts and alignment processing 1 (local alignment 2) using density feature amounts. By performing local alignment by the method and confirming whether or not the difference is equal to or less than a predetermined threshold value, the local alignment can be performed more accurately and more reliably.
<第5の実施の形態>
上記第1の実施の形態の医用画像処理装置では、一部が重複するように撮影位置を被検体の体軸方向に移動させて撮影された2枚の画像に対して、まず大まかに位置合わせを行ない、その後局所的な位置合わせを行なうことによって正確に位置合わせを行なうものであるが、これに限定されるものではない。
<Fifth embodiment>
In the medical image processing apparatus according to the first embodiment, first, rough alignment is performed on two images captured by moving the imaging position in the body axis direction of the subject so that a part of the medical image processing apparatus overlaps. However, the present invention is not limited to this.
本実施の形態の医用画像処理装置は、被検体の体軸方向に連続して撮影された断層像に対して、まず大まかに位置合わせを行ない、その後局所的な位置合わせを行なうことによって正確に位置合わせを行なうものである。図14は、本発明に係る第5の実施の形態の医用画像処理装置10dの処理の流れを示すフローチャートである。なお、図中、第1の実施の形態と同一の部分については、同一の符号を付し、説明を省略する。 The medical image processing apparatus according to the present embodiment accurately aligns a tomographic image continuously taken in the body axis direction of a subject by first roughly aligning and then performing local alignment. Alignment is performed. FIG. 14 is a flowchart showing a process flow of the medical image processing apparatus 10d according to the fifth embodiment of the present invention. In the figure, the same portions as those of the first embodiment are denoted by the same reference numerals, and description thereof is omitted.
以下の処理は、医用画像撮影装置2のひとつであるX線CT装置で撮影された被検体の断層像及び画像データベース4に保存されている過去に撮影された同じ被検体の断層像が、医用画像処理装置10へ読みこまれた後で開始される。なお、撮影時期の異なる同じ被検体の断層像が画像データベース4から医用画像処理装置10へ読みこまれた後で開始されるようにしてもよい。なお、医用画像処理装置10に読みこまれた画像データは、一旦磁気ディスク13に保存される。
In the following processing, a tomographic image of a subject imaged by an X-ray CT apparatus, which is one of the medical
最初に、異なる時期に撮影された2組の断層像En、Fn(n=1〜N、図15参照)に対して、体軸方向の位置合わせ処理(大まかな位置合わせ2)が行われる(ステップS100〜S152)。本実施例では、異なる時期に撮影された2組の断層像から気管支分岐部を特定し、過去に撮影された断層像の気管支分岐部と最近撮影された断層像の気管支分岐部との位置を一致させることによって、異なる時期に撮影された2組の断層像の体軸方向の位置を合わせる、という処理である。以下、大まかな位置合わせ2について説明する。
First, alignment processing (rough alignment 2) in the body axis direction is performed on two sets of tomographic images En and Fn (n = 1 to N, see FIG. 15) photographed at different times ( Steps S100 to S152). In this embodiment, the bronchial bifurcation is identified from two sets of tomographic images taken at different times, and the positions of the bronchial bifurcation of the tomographic image taken in the past and the bronchial bifurcation of the recently taken tomographic image are determined. This is a process of matching the positions in the body axis direction of two sets of tomographic images taken at different times by matching. Hereinafter, the
まず、過去に撮影された被検体の断層像(過去画像)En(n=1〜N、図15(a)参照)に対して、体軸方向の位置合わせを行なうスライスを特定する処理を行う(ステップS100〜S124)。 First, processing for specifying a slice to be aligned in the body axis direction is performed on a tomographic image (past image) En (n = 1 to N, see FIG. 15A) of a subject imaged in the past. (Steps S100 to S124).
最初に、特徴領域抽出処理を行う(ステップS100〜S114)。以下、特徴領域抽出処理について説明する。 First, feature area extraction processing is performed (steps S100 to S114). Hereinafter, the feature region extraction process will be described.
磁気ディスク13に保存されている、過去画像En(n=1〜N)と、画像に添付されている付帯情報とが主メモリ12に読み込まれる(ステップS100)。付帯情報には、例えば、過去画像Enを撮影した撮影した日時の情報等が含まれている。
The past image En (n = 1 to N) and the incidental information attached to the image stored in the
n=1に設定される(ステップS102)。すなわち、過去画像Enの先頭のスライスE1から処理が開始される。 n = 1 is set (step S102). That is, the process starts from the first slice E1 of the past image En.
その後、閾値が決定される(ステップS104)。この閾値は、位置合わせ処理で用いる領域が明確に分離されるような最適な値があらかじめ設定されている。なお、過去画像Enに含まれるCT値の範囲内における最多頻度を示すCT値を中央値として、その下限値、上限値を探索することにより、閾値を自動設定するようにしてもよい。 Thereafter, a threshold value is determined (step S104). This threshold value is set in advance to an optimum value that clearly separates the area used in the alignment process. Note that the threshold value may be automatically set by searching for the lower limit value and the upper limit value with the CT value indicating the highest frequency within the range of CT values included in the past image En as the median value.
そして、ステップS104で決定された閾値に基づいて、過去画像Enに対して閾値処理が行われることにより、過去画像Enの二値化画像が作成される(ステップS106)。 Then, based on the threshold determined in step S104, threshold processing is performed on the past image En, thereby creating a binary image of the past image En (step S106).
ステップS106で作成された二値化画像に二次元ラベリング処理を行ない、最大面積のラベル領域を用いることにより体領域が作成される(ステップS108)。 A two-dimensional labeling process is performed on the binarized image created in step S106, and a body region is created by using the label region of the maximum area (step S108).
ステップS108で作成された体領域と2値化処理した領域とを論理演算することにより、体領域内の空気領域が抽出される(ステップS110)。 An air region in the body region is extracted by performing a logical operation on the body region created in step S108 and the binarized region (step S110).
ステップS110で作成した空気領域に対して、体領域の中央付近にあり、孤立している領域を特徴領域として抽出する(ステップS112)。ここで、特徴領域とは気管、気管支領域である。 An isolated region that is near the center of the body region with respect to the air region created in step S110 is extracted as a feature region (step S112). Here, the characteristic regions are the trachea and the bronchial region.
そして、n=Nであるか、すなわち過去画像Enの全てのスライスに対して、上記処理が終了したかが判断される(ステップS114)。 Then, it is determined whether n = N, that is, whether the above processing has been completed for all slices of the past image En (step S114).
全てのスライスに対して特徴領域が抽出されていない場合(ステップS114でNOの場合)には、n=N+1に設定(ステップS115)、した後で、ステップS104に戻る。すなわち、次のスライスEnに対して閾値設定(ステップS104)を行う。 If feature regions have not been extracted for all slices (NO in step S114), n = N + 1 is set (step S115), and the process returns to step S104. That is, threshold setting (step S104) is performed for the next slice En.
全てのスライスに対して特徴領域が抽出されている場合(ステップS114でYESの場合)には、特徴領域抽出処理を終了する。 If feature regions have been extracted for all slices (YES in step S114), the feature region extraction process ends.
特徴領域抽出処理が終了したら、特徴領域に特徴があるスライス、すなわち特徴領域である気管支領域が分岐する気管支分岐部があるスライスを特定する(ステップS116〜S124)。 When the feature region extraction process is completed, a slice having a feature in the feature region, that is, a slice having a bronchial bifurcation where the bronchial region that is the feature region branches is identified (steps S116 to S124).
n=1に設定される(ステップS116)。すなわち、過去画像Enの先頭のスライスE1から処理が開始される。 n = 1 is set (step S116). That is, the process starts from the first slice E1 of the past image En.
特徴領域が1箇所であるかが判断される(ステップS118)。すなわち、そのスライスの中に気管支が1本含まれているかが判断される。 It is determined whether there is one feature region (step S118). That is, it is determined whether one bronchus is included in the slice.
特徴領域が1箇所でない場合(ステップS118でNO)の場合には、n=n+1に設定し(ステップS119)、ステップS118に戻る。すなわち、次のスライスに進み、再度特徴領域が1箇所であるかの判断が行われる(ステップS118)。 If there is not one feature region (NO in step S118), n = n + 1 is set (step S119), and the process returns to step S118. That is, the process proceeds to the next slice, and it is determined again whether there is one feature region (step S118).
特徴領域が1箇所である場合(ステップS118でYES)の場合には、スライスEnの特徴領域とスライスEn+1の特徴領域が連続しているかが判断される(ステップS120)。すなわち、スライスEnに含まれる気管支と、スライスEn+1に含まれる気管支が連続しているかが判断される。 If there is one feature region (YES in step S118), it is determined whether the feature region of slice En and the feature region of slice En + 1 are continuous (step S120). That is, it is determined whether the bronchus included in the slice En and the bronchus included in the slice En + 1 are continuous.
スライスEnの特徴領域とスライスEn+1の特徴領域が連続していない場合(ステップS120でNO)には、n=n+1に設定し(ステップS119)、ステップS118に戻る。すなわち、次のスライスに進み、再度特徴領域が1箇所であるかの判断が行われる(ステップS118)。 If the feature region of slice En and the feature region of slice En + 1 are not continuous (NO in step S120), n = n + 1 is set (step S119), and the process returns to step S118. That is, the process proceeds to the next slice, and it is determined again whether there is one feature region (step S118).
スライスEnの特徴領域とスライスEn+1の特徴領域が連続している場合(ステップS120でYES)には、スライスEn+1の特徴領域が2箇所であるかが判断される(ステップS122)。すなわち、スライスEnで1本であったスライスがスライスEn+1において2本になっているかどうか、つまり、気管支が分岐している気管支分岐部であるかどうかが判断される。 If the feature region of slice En and the feature region of slice En + 1 are continuous (YES in step S120), it is determined whether there are two feature regions of slice En + 1 (step S122). That is, it is determined whether or not there is two slices in slice En + 1, that is, one bronchus branch portion where the bronchus is branched.
スライスEn+1の特徴領域が2箇所でない場合(ステップS122でNO)には、n=n+1に設定し(ステップS119)、ステップS118に戻る。すなわち、次のスライスに進み、再度特徴領域が1箇所であるかの判断が行われる(ステップS118)。 If there are not two feature regions in the slice En + 1 (NO in step S122), n = n + 1 is set (step S119), and the process returns to step S118. That is, the process proceeds to the next slice, and it is determined again whether there is one feature region (step S118).
スライスEn+1の特徴領域が2箇所である場合(ステップS122でYES)には、このスライスEnを過去画像における位置合わせを行なうスライスと特定する(ステップS124)。 If there are two feature regions of the slice En + 1 (YES in step S122), the slice En is identified as a slice to be aligned in the past image (step S124).
これにより、過去画像Enにおいて、位置合わせを行なうスライス、すなわち、気管支分岐部を含むスライスが特定される。 Thereby, in the past image En, a slice to be aligned, that is, a slice including a bronchial bifurcation is specified.
過去画像Enに対して、体軸方向の位置合わせを行なうスライスを特定する処理が終了したら、最近撮影された被検体の断層像(現在画像)Fn(n=1〜N、図15(b)参照)に対して、体軸方向の位置合わせを行なうスライスを特定する処理を行う(ステップS126〜S150)。 When the process of specifying the slice for positioning in the body axis direction with respect to the past image En is completed, the tomographic image (current image) Fn (n = 1 to N, FIG. 15B) of the subject imaged recently. (Refer to step S126 to S150) for identifying a slice to be aligned in the body axis direction.
最初に、特徴領域抽出処理を行う(ステップS126〜S140)。以下、特徴領域抽出処理について説明する。 First, feature area extraction processing is performed (steps S126 to S140). Hereinafter, the feature region extraction process will be described.
磁気ディスク13に保存されている、現在画像Fn(n=1〜N)と、画像に添付されている付帯情報とが主メモリ12に読み込まれる(ステップS126)。付帯情報には、例えば、現在画像Fnを撮影した撮影した日時の情報等が含まれている。
The current image Fn (n = 1 to N) and the incidental information attached to the image stored in the
n=1に設定される(ステップS128)。すなわち、現在画像Fnの先頭のスライスF1から処理が開始される。 n = 1 is set (step S128). That is, the processing starts from the first slice F1 of the current image Fn.
その後、閾値が決定される(ステップS130)。この閾値は、位置合わせ処理で用いる領域が明確に分離されるような最適な値があらかじめ設定されている。なお、現在画像Fnに含まれるCT値の範囲内における最多頻度を示すCT値を中央値として、その下限値、上限値を探索することにより、閾値を自動設定するようにしてもよい。 Thereafter, a threshold value is determined (step S130). This threshold value is set in advance to an optimum value that clearly separates the area used in the alignment process. The threshold value may be automatically set by searching for the lower limit value and the upper limit value with the CT value indicating the most frequent frequency within the range of CT values included in the current image Fn as the median value.
そして、ステップS130で決定された閾値に基づいて、現在画像Fnに対して閾値処理が行われることにより、現在画像Fnの二値化画像が作成される(ステップS132)。 Then, based on the threshold value determined in step S130, threshold processing is performed on the current image Fn to create a binary image of the current image Fn (step S132).
ステップS132で作成された二値化画像に二次元ラベリング処理を行ない、最大面積のラベル領域を用いることにより体領域が作成される(ステップS134)。 A two-dimensional labeling process is performed on the binarized image created in step S132, and a body region is created by using the label region of the maximum area (step S134).
ステップS134で作成された体領域と2値化処理した領域とを論理演算することにより、体領域内の空気領域が抽出される(ステップS136)。 An air region in the body region is extracted by performing a logical operation on the body region created in step S134 and the binarized region (step S136).
ステップS136で作成した空気領域に対して、体領域の中央付近にあり、孤立している領域を特徴領域として抽出する(ステップS138)。ここで、特徴領域とは気管、気管支領域である。 An isolated region that is near the center of the body region with respect to the air region created in step S136 is extracted as a feature region (step S138). Here, the characteristic regions are the trachea and the bronchial region.
そして、n=Nであるか、すなわち現在画像Fnの全てのスライスに対して、上記処理が終了したかが判断される(ステップS140)。 Then, it is determined whether n = N, that is, whether the above processing has been completed for all slices of the current image Fn (step S140).
全てのスライスに対して特徴領域が抽出されていない場合(ステップS140でNOの場合)には、n=N+1に設定(ステップS141)、した後で、ステップS130に戻る。すなわち、次のスライスFnに対して閾値設定(ステップS130)を行う。 If feature regions have not been extracted for all slices (NO in step S140), n = N + 1 is set (step S141), and the process returns to step S130. That is, threshold setting (step S130) is performed for the next slice Fn.
全てのスライスに対して特徴領域が抽出されている場合(ステップS140でYESの場合)には、特徴領域抽出処理を終了する。 If feature regions have been extracted for all slices (YES in step S140), the feature region extraction process ends.
特徴領域抽出処理が終了したら、特徴領域に特徴があるスライス、すなわち特徴領域である気管支領域が分岐する気管支分岐部があるスライスを特定する(ステップS142〜S150)。 When the feature region extraction processing is completed, a slice having a feature in the feature region, that is, a slice having a bronchial bifurcation where the bronchial region that is the feature region branches is identified (steps S142 to S150).
n=1に設定される(ステップS142)。すなわち、現在画像Fnの先頭のスライスF1から処理が開始される。 n = 1 is set (step S142). That is, the processing starts from the first slice F1 of the current image Fn.
特徴領域が1箇所であるかが判断される(ステップS144)。すなわち、そのスライスの中に気管支が1本含まれているかが判断される。 It is determined whether there is one feature region (step S144). That is, it is determined whether one bronchus is included in the slice.
特徴領域が1箇所でない場合(ステップS144でNO)の場合には、n=n+1に設定し(ステップS145)、ステップS144に戻る。すなわち、次のスライスに進み、再度特徴領域が1箇所であるかの判断が行われる(ステップS144)。 If there is not one feature region (NO in step S144), n = n + 1 is set (step S145), and the process returns to step S144. That is, the process proceeds to the next slice, and it is determined again whether there is one feature region (step S144).
特徴領域が1箇所である場合(ステップS144でYES)の場合には、スライスFnの特徴領域とスライスFn+1の特徴領域が連続しているかが判断される(ステップS146)。すなわち、スライスFnに含まれる気管支と、スライスFn+1に含まれる気管支が連続しているかが判断される。 When there is one feature region (YES in step S144), it is determined whether the feature region of slice Fn and the feature region of slice Fn + 1 are continuous (step S146). That is, it is determined whether the bronchus included in the slice Fn and the bronchus included in the slice Fn + 1 are continuous.
スライスFnの特徴領域とスライスFn+1の特徴領域が連続していない場合(ステップS146でNO)には、n=n+1に設定し(ステップS145)、ステップS144に戻る。すなわち、次のスライスに進み、再度特徴領域が1箇所であるかの判断が行われる(ステップS144)。 When the feature region of slice Fn and the feature region of slice Fn + 1 are not continuous (NO in step S146), n = n + 1 is set (step S145), and the process returns to step S144. That is, the process proceeds to the next slice, and it is determined again whether there is one feature region (step S144).
スライスFnの特徴領域とスライスFn+1の特徴領域が連続している場合(ステップS146でYES)には、スライスFn+1の特徴領域が2箇所であるかが判断される(ステップS148)。すなわち、スライスFnで1本であったスライスがスライスFn+1において2本になっているかどうか、つまり、気管支が分岐している気管支分岐部であるかどうかが判断される。 If the feature region of slice Fn and the feature region of slice Fn + 1 are continuous (YES in step S146), it is determined whether there are two feature regions of slice Fn + 1 (step S148). That is, it is determined whether or not there is two slices in the slice Fn + 1 in the slice Fn, that is, whether or not it is a bronchial bifurcation where the bronchus is branched.
スライスFn+1の特徴領域が2箇所でない場合(ステップS148でNO)には、n=n+1に設定し(ステップS145)、ステップS144に戻る。すなわち、次のスライスに進み、再度特徴領域が1箇所であるかの判断が行われる(ステップS144)。 If there are not two feature regions in the slice Fn + 1 (NO in step S148), n = n + 1 is set (step S145), and the process returns to step S144. That is, the process proceeds to the next slice, and it is determined again whether there is one feature region (step S144).
スライスFn+1の特徴領域が2箇所である場合(ステップS148でYES)には、このスライスFnを現在画像における位置合わせを行なうスライスと特定する(ステップS150)。 If there are two feature regions of slice Fn + 1 (YES in step S148), this slice Fn is identified as a slice to be aligned in the current image (step S150).
これにより、現在画像Fnにおいて、位置合わせを行なうスライス、すなわち、気管支分岐部を含むスライスが特定される。 Thereby, in the current image Fn, a slice to be aligned, that is, a slice including a bronchial bifurcation is specified.
位置合わせを行なう過去画像Enと現在画像Fnとが特定されたら、過去画像Enと現在画像Fnとの体軸方向の位置合わせを行なう(ステップS152)。例えば、図15に示すように、現在画像F1〜FNにおいて、過去画像E3(胸部)に対応するスライスをF3とし、過去画像E20(臀部)に対応するスライスをF20とすることで、過去画像Enと現在画像Fnとの体軸方向のスライスの位置を合わせる。 When the past image En and the current image Fn to be aligned are specified, the past image En and the current image Fn are aligned in the body axis direction (step S152). For example, as shown in FIG. 15, in the current images F1 to FN, the slice corresponding to the past image E3 (chest) is F3, and the slice corresponding to the past image E20 (buttock) is F20, so that the past image En And the position of the slice in the body axis direction of the current image Fn.
これにより、過去画像Enと現在画像Fnとの体軸方向の位置合わせ処理(大まかな位置合わせ)が終了する。 Thereby, the alignment process (rough alignment) of the past image En and the current image Fn in the body axis direction is completed.
過去画像Enと現在画像Fnとの体軸方向の位置合わせ処理(大まかな位置合わせ2)が終了したら、濃度特徴量を利用して、過去画像Enと現在画像Fnとの局所的な位置合わせ(ステップS154〜S180)が行われる。本実施例では、異なる時期に撮影された2組の断層像の体軸方向の位置を合わせた状態において、臓器や血管などの構造物の位置を合わせるという処理である。以下、濃度特徴量を利用した局所的な位置合わせ(濃度特徴量を利用した位置合わせ3)について説明する。
When the alignment process (rough alignment 2) between the past image En and the current image Fn in the body axis direction is completed, the local alignment (the alignment of the past image En and the current image Fn) is performed using the density feature amount. Steps S154 to S180) are performed. In the present embodiment, the processing is to align the positions of structures such as organs and blood vessels in the state in which the positions in the body axis direction of two sets of tomographic images taken at different times are aligned. Hereinafter, local registration using the density feature quantity (
n=1に設定される(ステップS154)。すなわち、過去画像En及び現在画像Fnの先頭のスライスE1、F1から処理が開始される。 n = 1 is set (step S154). That is, processing is started from the first slices E1 and F1 of the past image En and the current image Fn.
まず、ステップS108及びステップS134(大まかな位置合わせ2)において抽出された体領域の大きさ及び傾きを用いて、画像サイズ(体領域の大きさ)を調整し、過去画像Enと現在画像Fnの体領域の大きさを一致させる(ステップS156)。過去と現在では、被検体の体型の変化等で体領域の大きさが一致しない場合がある。そのため、過去画像En又は現在画像Fnを拡大・縮小させることにより、スライス毎に体領域の大きさを調整し、過去画像Enの体領域の大きさと現在画像Fnの体領域の大きさとを大まかに一致させる。なお、画像の拡大・縮小は、様々な公知技術を使用できる。 First, the image size (the size of the body region) is adjusted using the size and inclination of the body region extracted in step S108 and step S134 (rough alignment 2), and the past image En and the current image Fn are adjusted. The body regions are matched in size (step S156). In the past and present, the size of the body region may not match due to a change in the body shape of the subject. Therefore, by enlarging / reducing the past image En or the current image Fn, the size of the body region is adjusted for each slice, and the size of the body region of the past image En and the size of the body region of the current image Fn are roughly set. Match. Note that various known techniques can be used for enlarging / reducing an image.
その後、過去画像En及び現在画像Fnの体領域を複数のブロックBi(i=2〜I)に分割する(ステップS158)。例えば、図16に示すように、過去画像En及び現在画像Fnに対して、ステップS110及びステップS136(大まかな位置合わせ2)において抽出された空気領域を利用して、空気領域とそうでない領域との境界を含むようなブロックBiを設定する。このときブロックB1〜BIによって体領域全体が覆われるようにする。 Thereafter, the body regions of the past image En and the current image Fn are divided into a plurality of blocks Bi (i = 2 to I) (step S158). For example, as shown in FIG. 16, with respect to the past image En and the current image Fn, using the air region extracted in step S110 and step S136 (rough alignment 2), the air region and the other region A block Bi including the boundary is set. At this time, the entire body region is covered by the blocks B1 to BI.
i=1に設定する(ステップS160)。 i = 1 is set (step S160).
過去画像Enに対してステップS158で設定されたブロックBiに、複数のテンプレート領域60が設定される(ステップS162)。図16(a)に示すように、このテンプレート領域60は、互いに重なり合わないように設定される。
A plurality of
同様に、現在画像Fnに対してステップS158で設定されたブロックBiに、複数の探索領域61が設定される(ステップS164)。図16(b)に示すように、この探索領域61は、テンプレート領域60に対応する位置に、互いに重なり合わないように設定される。
Similarly, a plurality of
例えば、図16に示すように、テンプレート領域60−1に対しては、その対応する場所に探索領域61−1が設定される。同様にして、テンプレート領域60−1〜60−9に対して探索領域61−1〜61−9が、互いに重ならないように設定される。なお、図16では、9個のテンプレート領域60−1〜60−及び探索領域61−1〜61−9を設定したが、テンプレート領域60及び探索領域61は複数個であれば9個に限らない。
For example, as shown in FIG. 16, for the template area 60-1, a search area 61-1 is set at the corresponding location. Similarly, search areas 61-1 to 61-9 are set so as not to overlap each other with respect to template areas 60-1 to 60-9. In FIG. 16, nine template regions 60-1 to 60- and search regions 61-1 to 61-9 are set. However, the number of
なお、本実施の形態では、過去画像Enにテンプレート領域60を設定し、現在画像Fnに探索領域61を設定したが、これに限らず、過去画像Enに探索領域61を設定し、現在画像Fnにテンプレート領域60を設定してもよい。
In the present embodiment, the
テンプレート領域60及び探索領域61の設定が終了したら、各々のテンプレート領域60及び探索領域61における移動距離が算出される(ステップS166)。すなわち、テンプレート領域60−1と探索領域61−1とで移動距離が算出され、同様の方法で、テンプレート領域60−1〜60−9と探索領域61−1〜61−9との移動距離が算出される。なお、移動距離の算出は、第1の実施の形態におけるステップS26と同様の方法を用いることができる。
When the setting of the
その後、全てのテンプレート領域60及び探索領域61に対して移動距離が計算されたかが判断される(ステップS168)。本実施例では、テンプレート領域60及び探索領域61が、テンプレート領域60−1〜60−9、探索領域61−1〜61−9と各9個設定されており、その9個全てに対して移動距離が算出されたかが判断される。
Thereafter, it is determined whether the movement distance has been calculated for all the
全てのテンプレート領域60及び探索領域61に対して移動距離が計算されていない場合には、ステップS166へ戻り、再度移動距離の算出を行う。
If the movement distance is not calculated for all the
全てのテンプレート領域60及び探索領域61に対して移動距離が計算された場合には、ステップS166で求められた複数の移動距離の中で最も頻度の高い移動距離(最多頻度移動距離)が算出される(ステップS170)。最多頻度移動距離の算出は、ステップS170で求められた複数の移動距離のヒストグラムを作成し、その中で最も度数が多い階級の中央値を最多頻度移動距離として算出してもよいし、ステップS170で求められた複数の移動距離のヒストグラムを作成し、そのヒストグラムの重心を計算し、その値を最多頻度移動距離として算出してもよい。
When the movement distances are calculated for all the
そして、i=Iかどうか、すなわち、全てのブロックB1〜BIに対して最多頻度移動距離が算出されたかどうかが判断される(ステップS172)。 Then, it is determined whether i = I, that is, whether the most frequently moved distance is calculated for all the blocks B1 to BI (step S172).
全てのブロックB1〜BIに対して最多頻度移動距離が算出されていない場合(ステップS172でNOの場合)には、i=i+1に設定され(ステップS174)、その後ステップS162に戻る。すなわち、次のブロックBi+1に対して、テンプレート領域の設定が行われる。 If the most frequently traveled distance has not been calculated for all the blocks B1 to BI (NO in step S172), i = i + 1 is set (step S174), and then the process returns to step S162. That is, the template area is set for the next block Bi + 1.
全てのブロックB1〜BIに対して最多頻度移動距離が算出されている場合(ステップS172でYESの場合)には、あるブロックBiにおいて算出された最多頻度移動距離をこのブロックBiにおける移動距離として、全てのブロックB1〜BIをそのブロックB1〜BIにおける移動距離だけ平行移動(局所画像変形処理)させる(ステップS176)。 When the most frequent travel distance is calculated for all the blocks B1 to BI (YES in step S172), the most frequent travel distance calculated in a certain block Bi is set as the travel distance in this block Bi. All the blocks B1 to BI are translated (local image deformation processing) by the movement distance in the blocks B1 to BI (step S176).
これにより、過去画像Enと現在画像Fnとの濃度特徴量を利用した局所的な位置合わせが行われる。 Thereby, local alignment using the density feature amount of the past image En and the current image Fn is performed.
そして、n=Nかどうか、すなわち全てのスライスに対して濃度特徴量を利用した局所的な位置合わせ(ステップS156〜S176)が行われたかどうかが判断される(ステップS178)。 Then, it is determined whether or not n = N, that is, whether or not local alignment (steps S156 to S176) using density feature amounts has been performed for all slices (step S178).
全てのスライスに対して濃度特徴量を利用した局所的な位置合わせが行われていない場合(ステップS178でNOの場合)には、n=n+1に設定され(ステップS180)、その後ステップS156に戻る。すなわち、次のスライスEn+1、Fn+1に対して、拡大・縮小処理が行われる。 When local alignment using the density feature amount is not performed for all slices (NO in step S178), n = n + 1 is set (step S180), and then the process returns to step S156. . That is, enlargement / reduction processing is performed on the next slices En + 1 and Fn + 1.
全てのスライスに対して濃度特徴量を利用した局所的な位置合わせが行われている場合(ステップS178でYESの場合)には、全てのスライスに対して濃度特徴量を利用した局所的な位置合わせが終了しているため、濃度特徴量を利用した局所的な位置合わせ処理を終了する。 When local alignment using density feature values is performed for all slices (YES in step S178), local positions using density feature values for all slices. Since the alignment is complete, the local alignment process using the density feature amount is terminated.
これにより、濃度特徴量を利用して、過去画像Enと現在画像Fnとの局所的な位置合わせが終了される。 Thereby, the local alignment of the past image En and the current image Fn is completed using the density feature amount.
過去画像Enと現在画像Fnとの局所的な位置合わせが終了したら、過去画像Enと現在画像Fnとの差分画像が作成される(ステップS182)。 When the local alignment between the past image En and the current image Fn is completed, a difference image between the past image En and the current image Fn is created (step S182).
本実施の形態によれば、被検体の体軸方向に連続して撮影された断層像である過去画像と現在画像とにそれぞれ含まれる注目領域(気管支分岐)の相関に基づいて、過去画像と現在画像とを体軸方向に大まかな位置合わせを行なった後で、大まかな位置合わせが行なわれた過去画像から抽出された複数個所の第3の注目領域であるテンプレート領域と、現在画像から抽出された複数個所の第4の注目領域である探索領域との相関に基づいて、過去画像と現在画像とを体軸方向と直交する方向に局所的な位置合わせを行なうことにより、自動的に高精度の位置合わせを行なうことができる。 According to the present embodiment, based on the correlation between the attention areas (bronchial bifurcations) included in the past image and the current image, which are tomographic images continuously taken in the body axis direction of the subject, After roughly aligning the current image in the body axis direction, a plurality of template regions that are third attention regions extracted from the past image subjected to the rough alignment, and extracted from the current image Based on the correlation with the plurality of search areas that are the fourth attention areas, the past image and the current image are automatically aligned in a direction orthogonal to the body axis direction, thereby automatically increasing the height. Accurate alignment can be performed.
なお、本実施の形態では、X線CT装置で撮影された断層像に対して位置合わせを行ない、差分画像を作成したが、これに限らず、図17に示すように、X線CT装置で撮影された画像データから最大値投影によって体軸方向に平行な長尺画像を作成し、過去の長尺画像と現在の長尺画像とに対して位置合わせを行ない、差分画像を作成してもよい。 In the present embodiment, the tomographic image taken by the X-ray CT apparatus is aligned and a difference image is created. However, the present invention is not limited to this, and as shown in FIG. Even if a long image parallel to the body axis direction is created from the captured image data by the maximum value projection, the past long image and the current long image are aligned, and a difference image is created. Good.
10:医用画像処理装置、15:モニタ、20:下部画像、21:上部画像、31、35、37、60:テンプレート領域、32、36、38、61:探索領域 10: Medical image processing device, 15: Monitor, 20: Lower image, 21: Upper image, 31, 35, 37, 60: Template region, 32, 36, 38, 61: Search region
Claims (3)
前記第1の画像と第2の画像とを位置合わせしたときの重複部分の画像からそれぞれ位置合わせに用いる第1の画像上の第1の注目領域と第2の画像上の第2の注目領域とを抽出する第1の注目領域抽出手段と、
前記第1の注目領域抽出手段によって抽出された第1の注目領域内の画像と第2の注目領域内の画像との相関を求め、この相関に基づいて前記第1の画像と第2の画像の位置合わせを行う第1の位置合わせ手段と、
前記第1の位置合わせ手段によって位置合わせされた第1の画像と第2の画像とから位置合わせ部分の画像を含む所定の処理領域を抽出する処理領域抽出手段と、
前記抽出された処理領域内の画像の形状特徴量又は濃度特徴量に基づいて前記第1の画像と第2の画像との位置合わせを行う第2の位置合わせ手段と、
前記第2の位置合わせ手段によって位置合わせされた第1の画像と第2の画像とに基づいて第3の画像を作成する画像作成手段と、
前記画像作成手段によって作成された前記第3の画像を表示する表示手段と、
を備えたことを特徴とする医用画像処理装置。 Image acquisition means for acquiring a first image in which the subject is imaged and a second image in which a part of the first image overlaps with the first image;
The first region of interest on the first image and the second region of interest on the second image that are used for alignment from the images of overlapping portions when the first image and the second image are aligned First region of interest extraction means for extracting
A correlation between the image in the first region of interest and the image in the second region of interest extracted by the first region of interest extraction unit is obtained, and the first image and the second image are obtained based on this correlation. First alignment means for performing alignment of
Processing area extraction means for extracting a predetermined processing area including an image of the alignment portion from the first image and the second image aligned by the first alignment means;
Second alignment means for aligning the first image and the second image based on the shape feature amount or density feature amount of the image in the extracted processing region;
Image creating means for creating a third image based on the first image and the second image aligned by the second alignment means;
Display means for displaying the third image created by the image creation means;
A medical image processing apparatus comprising:
前記第2の位置合わせ手段は、前記濃度特徴量である複数箇所毎に求められた前記抽出された第3の注目領域内の画像と前記抽出された第4の注目領域内の画像との相関に関する値に基づいて前記第1の画像と第2の画像との位置合わせを行うことを特徴とする請求項1に記載の医用画像処理装置。 The processing region extraction unit includes a first narrower region than the first region of interest at a plurality of locations in the alignment region between the first image and the second image aligned by the first alignment unit. Extracting a third region of interest on the second image and a fourth region of interest on the second image that is narrower than the second region of interest;
The second alignment means correlates the image in the extracted third region of interest obtained for each of a plurality of locations as the density feature amount and the image in the extracted fourth region of interest. The medical image processing apparatus according to claim 1, wherein alignment of the first image and the second image is performed based on a value related to the image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006249604A JP4858963B2 (en) | 2006-09-14 | 2006-09-14 | Medical image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006249604A JP4858963B2 (en) | 2006-09-14 | 2006-09-14 | Medical image processing device |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2008067916A true JP2008067916A (en) | 2008-03-27 |
JP2008067916A5 JP2008067916A5 (en) | 2009-10-22 |
JP4858963B2 JP4858963B2 (en) | 2012-01-18 |
Family
ID=39290040
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006249604A Expired - Fee Related JP4858963B2 (en) | 2006-09-14 | 2006-09-14 | Medical image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4858963B2 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010246662A (en) * | 2009-04-14 | 2010-11-04 | Hitachi Medical Corp | Image processor |
WO2011043458A1 (en) * | 2009-10-09 | 2011-04-14 | 株式会社 日立メディコ | Medical image processing device, x-ray image capturing device, medical image processing program, and medical image processing method |
US20110169864A1 (en) * | 2008-09-26 | 2011-07-14 | Koninklijke Philips Electronics N.V. | Patient specific anatiomical sketches for medical reports |
JP2015100642A (en) * | 2013-11-27 | 2015-06-04 | 株式会社島津製作所 | X-ray machine |
JP2015159887A (en) * | 2014-02-26 | 2015-09-07 | 株式会社島津製作所 | X-ray machine |
JP2017189338A (en) * | 2016-04-13 | 2017-10-19 | 富士フイルム株式会社 | Image positioning apparatus and method, and program |
JP2019141717A (en) * | 2019-05-22 | 2019-08-29 | 富士フイルム株式会社 | Image positioning apparatus and method, and program |
JP2020107000A (en) * | 2018-12-26 | 2020-07-09 | キヤノン株式会社 | Image processing apparatus, image processing method and program |
CN111526795A (en) * | 2017-12-27 | 2020-08-11 | 佳能株式会社 | Radiation imaging apparatus, image processing apparatus, and image specifying method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08103439A (en) * | 1994-10-04 | 1996-04-23 | Konica Corp | Alignment processor for image and inter-image processor |
JP2002044413A (en) * | 2000-07-26 | 2002-02-08 | Konica Corp | Radiographic image processing method and processor thereof |
JP2002324238A (en) * | 2001-04-26 | 2002-11-08 | Fuji Photo Film Co Ltd | Method and device for positioning image |
WO2006011545A1 (en) * | 2004-07-30 | 2006-02-02 | Hitachi Medical Corporation | Medical image diagnosis assisting system, device and image processing program |
-
2006
- 2006-09-14 JP JP2006249604A patent/JP4858963B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08103439A (en) * | 1994-10-04 | 1996-04-23 | Konica Corp | Alignment processor for image and inter-image processor |
JP2002044413A (en) * | 2000-07-26 | 2002-02-08 | Konica Corp | Radiographic image processing method and processor thereof |
JP2002324238A (en) * | 2001-04-26 | 2002-11-08 | Fuji Photo Film Co Ltd | Method and device for positioning image |
WO2006011545A1 (en) * | 2004-07-30 | 2006-02-02 | Hitachi Medical Corporation | Medical image diagnosis assisting system, device and image processing program |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10102347B2 (en) | 2008-09-26 | 2018-10-16 | Koninklijke Philips N.V. | Patient specific anatiomical sketches for medical reports |
US20110169864A1 (en) * | 2008-09-26 | 2011-07-14 | Koninklijke Philips Electronics N.V. | Patient specific anatiomical sketches for medical reports |
JP2012507066A (en) * | 2008-09-26 | 2012-03-22 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Patient-specific anatomical sketch for medical reports |
JP2010246662A (en) * | 2009-04-14 | 2010-11-04 | Hitachi Medical Corp | Image processor |
WO2011043458A1 (en) * | 2009-10-09 | 2011-04-14 | 株式会社 日立メディコ | Medical image processing device, x-ray image capturing device, medical image processing program, and medical image processing method |
CN102596035A (en) * | 2009-10-09 | 2012-07-18 | 株式会社日立医疗器械 | Medical image processing device, x-ray image capturing device, medical image processing program, and medical image processing method |
JPWO2011043458A1 (en) * | 2009-10-09 | 2013-03-04 | 株式会社日立メディコ | Medical image processing apparatus, X-ray imaging apparatus, medical image processing program, and medical image processing method |
JP2015100642A (en) * | 2013-11-27 | 2015-06-04 | 株式会社島津製作所 | X-ray machine |
JP2015159887A (en) * | 2014-02-26 | 2015-09-07 | 株式会社島津製作所 | X-ray machine |
JP2017189338A (en) * | 2016-04-13 | 2017-10-19 | 富士フイルム株式会社 | Image positioning apparatus and method, and program |
CN111526795A (en) * | 2017-12-27 | 2020-08-11 | 佳能株式会社 | Radiation imaging apparatus, image processing apparatus, and image specifying method |
EP3714791A4 (en) * | 2017-12-27 | 2021-11-10 | Canon Kabushiki Kaisha | Radiography device, image processing device, and image determination method |
US11210809B2 (en) | 2017-12-27 | 2021-12-28 | Canon Kabushiki Kaisha | Image processing apparatus, image determination method and non-transitory computer-readable storage medium |
CN111526795B (en) * | 2017-12-27 | 2023-05-02 | 佳能株式会社 | Radiographic apparatus, image processing apparatus, and image specifying method |
JP2020107000A (en) * | 2018-12-26 | 2020-07-09 | キヤノン株式会社 | Image processing apparatus, image processing method and program |
JP7346027B2 (en) | 2018-12-26 | 2023-09-19 | キヤノン株式会社 | Image processing device, image processing method, and program |
JP2019141717A (en) * | 2019-05-22 | 2019-08-29 | 富士フイルム株式会社 | Image positioning apparatus and method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP4858963B2 (en) | 2012-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4858963B2 (en) | Medical image processing device | |
JP5138431B2 (en) | Image analysis apparatus and method, and program | |
JP4901254B2 (en) | Pattern matching method and computer program for performing pattern matching | |
JP5346938B2 (en) | Image processing apparatus and method of operating image processing apparatus | |
TWI492165B (en) | Pattern matching method and device | |
US20110103655A1 (en) | Fundus information processing apparatus and fundus information processing method | |
JP5210615B2 (en) | Medical image diagnosis support apparatus and medical image diagnosis support program | |
KR20130117862A (en) | Pattern matching apparatus, and computer program | |
JP2002150303A (en) | Automatic detection of spinal axis and spinal boundary in digital radiography | |
US20100150418A1 (en) | Image processing method, image processing apparatus, and image processing program | |
CN110892255B (en) | Image processing apparatus, method and storage medium for detecting defect from image | |
JPWO2007000940A1 (en) | Abnormal shadow candidate detection method, abnormal shadow candidate detection device | |
JP2007105264A (en) | Medical picture judgment apparatus, medical picture judgment method, and program thereof | |
WO2014038428A1 (en) | Image processing device and image processing method | |
JP5166909B2 (en) | Inspection device and inspection method | |
JP2004057275A (en) | Image diagnostic device | |
JP4401140B2 (en) | Diagnostic imaging support device | |
JP2009045286A (en) | Medical image processor, medical image diagnostic apparatus, and program | |
JP4453321B2 (en) | Medical image processing apparatus and program | |
JP6687395B2 (en) | Medical image processing apparatus, medical image processing method, and medical imaging apparatus | |
JP4408863B2 (en) | Medical image processing apparatus and method | |
JP2018023709A (en) | Image processing apparatus and image processing method | |
JP4738236B2 (en) | Image display device | |
JP2001078996A (en) | Three-dimensional tomographic image interpreting method, automatic collation method, its device, and record medium recording its program | |
CN111199533A (en) | Image processing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20090721 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20090731 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090908 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090908 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110727 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110802 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110928 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111026 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111026 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141111 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |