JP2008067916A - Medical image processor - Google Patents

Medical image processor Download PDF

Info

Publication number
JP2008067916A
JP2008067916A JP2006249604A JP2006249604A JP2008067916A JP 2008067916 A JP2008067916 A JP 2008067916A JP 2006249604 A JP2006249604 A JP 2006249604A JP 2006249604 A JP2006249604 A JP 2006249604A JP 2008067916 A JP2008067916 A JP 2008067916A
Authority
JP
Japan
Prior art keywords
image
region
alignment
images
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006249604A
Other languages
Japanese (ja)
Other versions
JP2008067916A5 (en
JP4858963B2 (en
Inventor
Kuniyoshi Nakajima
邦佳 中島
Yoshihiro Goto
良洋 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Healthcare Manufacturing Ltd
Original Assignee
Hitachi Medical Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Medical Corp filed Critical Hitachi Medical Corp
Priority to JP2006249604A priority Critical patent/JP4858963B2/en
Publication of JP2008067916A publication Critical patent/JP2008067916A/en
Publication of JP2008067916A5 publication Critical patent/JP2008067916A5/ja
Application granted granted Critical
Publication of JP4858963B2 publication Critical patent/JP4858963B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a medical image processor which prepares a long length image or a difference image efficiently by automatically performing alignment with high precision. <P>SOLUTION: According to the correlation between a template area and a search area set to two images photographed while moving their photographing positions in the direction of the body axis of a patient so as to superpose partially, the two images are aligned roughly. Thereafter, within a processing area extracted from a part registered roughly, the two images are aligned locally according to a shape featured value concerning the continuity of the shape of the back bone. Thus, the images are aligned automatically and precisely. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、医用画像処理装置に係り、特に2枚以上の画像を位置合わせした後で接合・差分することにより新しい画像を作成する医用画像処理装置に関する。   The present invention relates to a medical image processing apparatus, and more particularly to a medical image processing apparatus that creates a new image by joining and subtracting two or more images after aligning them.

被検体を体軸方向に2回撮影し、重複させて2枚を並べて接合して長尺画像を作成する場合、同じ部位を撮影した撮影時期が異なる2枚の写真の差分を取り、正常構造を消去することにより、経時的変化が抽出された差分画像を作成する場合等においては、長尺画像、差分画像等を作成する基となる2枚の写真を正確に位置合わせする必要がある。   When the subject is imaged twice in the body axis direction and the two images are overlapped and joined together to create a long image, the difference between the two images taken at the same site and taken at different times is taken to obtain a normal structure For example, when creating a difference image from which changes over time are extracted by deleting the image, it is necessary to accurately align two photographs that are the basis for creating a long image, a difference image, and the like.

しかし、画像を観察する作業者が目視で2枚の画像の位置を合わせる場合には、位置合わせに熟練が必要であるため、慣れていない作業者の場合には、位置合わせの精度が低く、正確な長尺画像又は差分画像が作成できない恐れがある。また、位置合わせが手作業であるために、時間がかかるという問題がある。   However, when an operator who observes an image visually aligns the positions of the two images, skill is required for the alignment, so in the case of an unfamiliar operator, the alignment accuracy is low, There is a possibility that an accurate long image or difference image cannot be created. Moreover, since alignment is a manual operation, there is a problem that it takes time.

これに対応するために、特許文献1には、被検体を検出器に密着させた状態で検出器を体軸方向に動かすことで、被検体を複数回撮影し、その画像を結合することによって長尺画像を作成する技術が開示されている。
特開2005-270277号公報
In order to deal with this, Patent Document 1 discloses that the subject is moved a plurality of times in the body axis direction while the subject is in close contact with the detector, and the subject is imaged a plurality of times and the images are combined. A technique for creating a long image is disclosed.
JP 2005-270277 A

しかしながら、上記特許文献1では以下のような欠点があった。特許文献1では、被検体が動かないことを前提としているため、被検体が動いた場合には、被検体が動いた分だけ位置がずれた長尺画像が作成されてしまうという問題がある。また、被検体が動かない場合においても、検出器が体軸方向に動くことによる誤差が生じ、その誤差分だけ位置がずれた長尺画像が作成されてしまうという問題がある。また、位置ずれを修正する場合には、作業者が画像を確認しながら修正を行わなくてはならず、効率が低下するという問題がある。   However, Patent Document 1 has the following drawbacks. In Patent Document 1, since it is assumed that the subject does not move, there is a problem that when the subject moves, a long image whose position is shifted by the amount the subject moves is created. In addition, even when the subject does not move, there is a problem that an error occurs due to the movement of the detector in the body axis direction, and a long image whose position is shifted by that amount is generated. Further, when correcting the misalignment, there is a problem that the operator must perform the correction while confirming the image, and the efficiency is lowered.

本発明は、上記事情に鑑みてなされたものであり、自動的に高精度の位置合わせを行なうことで、効率よく長尺画像又は差分画像を作成する医用画像処理装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object thereof is to provide a medical image processing apparatus that efficiently creates a long image or a difference image by automatically performing high-precision alignment. To do.

前記課題を解決するために、請求項1に記載の医用画像処理装置は、被検体が撮影された第1の画像と、この第1の画像と一部の画像が重複する第2の画像とを取得する画像取得手段と、前記第1の画像と第2の画像とを位置合わせしたときの重複部分の画像からそれぞれ位置合わせに用いる第1の画像上の第1の注目領域と第2の画像上の第2の注目領域とを抽出する第1の注目領域抽出手段と、前記第1の注目領域抽出手段によって抽出された第1の注目領域内の画像と第2の注目領域内の画像との相関を求め、この相関に基づいて前記第1の画像と第2の画像の位置合わせを行う第1の位置合わせ手段と、前記第1の位置合わせ手段によって位置合わせされた第1の画像と第2の画像とから位置合わせ部分の画像を含む所定の処理領域を抽出する処理領域抽出手段と、前記抽出された処理領域内の画像の形状特徴量又は濃度特徴量に基づいて前記第1の画像と第2の画像との位置合わせを行う第2の位置合わせ手段と、前記第2の位置合わせ手段によって位置合わせされた第1の画像と第2の画像とに基づいて第1の画像と第2の画像とを加工することにより新しい画像を作成する画像作成手段と、前記画像作成手段によって作成された前記新しい画像を表示する表示手段と、を備えたことを特徴としている。   In order to solve the above problem, the medical image processing apparatus according to claim 1 includes a first image obtained by imaging a subject, and a second image in which a part of the first image overlaps with the first image. Image acquisition means for acquiring the first attention area on the first image and the second region used for the alignment from the overlapping image when the first image and the second image are aligned First attention area extraction means for extracting a second attention area on the image, an image in the first attention area and an image in the second attention area extracted by the first attention area extraction means. And a first alignment means for aligning the first image and the second image based on the correlation, and a first image aligned by the first alignment means A predetermined processing area including the image of the alignment portion from the second image and the second image Processing area extracting means for extracting, and second positioning means for aligning the first image and the second image based on the shape feature quantity or density feature quantity of the image in the extracted processing area And image creating means for creating a new image by processing the first image and the second image based on the first image and the second image aligned by the second positioning means And display means for displaying the new image created by the image creating means.

請求項1に記載の医用画像処理装置によれば、まず、一部が重複するように撮影位置を被検体の体軸方向に移動させて撮影された第1の画像と第2の画像とにそれぞれ第1の注目領域と第2の注目領域とを設定し、それらの相関に基づいて、第1の画像と第2の画像との大まかな位置合わせを行なう。その後、大まかな位置合わせが行なわれた部分から抽出された処理領域内において、形状特徴量又は濃度特徴量に基づいて第1の画像と第2の画像との局所的な位置合わせを行なう。   According to the medical image processing apparatus of claim 1, first, the first image and the second image that are imaged by moving the imaging position in the body axis direction of the subject so as to partially overlap each other. A first region of interest and a second region of interest are set for each, and based on their correlation, the first image and the second image are roughly aligned. Thereafter, local alignment between the first image and the second image is performed based on the shape feature amount or the density feature amount in the processing region extracted from the portion where the rough alignment has been performed.

これにより、自動的に高精度の位置合わせを行なうことができる。   Thereby, highly accurate alignment can be performed automatically.

請求項2に記載の医用画像処理装置は、請求項1に記載の医用画像処理装置において、前記形状特徴量は、背骨の形状の連続性から求められた値であることを特徴としている。   According to a second aspect of the present invention, in the medical image processing apparatus according to the first aspect, the shape feature amount is a value obtained from continuity of the shape of the spine.

請求項2に記載の医用画像処理装置によれば、一部が重複するように撮影位置を被検体の体軸方向に移動させて撮影された第1の画像と第2の画像とにそれぞれ第1の注目領域と第2の注目領域とを設定し、それらの相関に基づいて、第1の画像と第2の画像との大まかな位置合わせを行なう。その後、大まかな位置合わせが行なわれた部分から抽出された処理領域内において、背骨の形状の連続性に関する形状特徴量に基づいて第1の画像と第2の画像との局所的な位置合わせを行なう。   According to the medical image processing apparatus of the second aspect, the first image and the second image respectively captured by moving the imaging position in the body axis direction of the subject so as to partially overlap each other. One attention area and a second attention area are set, and the first image and the second image are roughly aligned based on the correlation between them. Thereafter, local alignment between the first image and the second image is performed based on the shape feature amount related to the continuity of the shape of the spine in the processing region extracted from the portion where the rough alignment has been performed. Do.

これにより、自動的に高精度の位置合わせを行なうことで、容易に効率よく長尺画像を作成することができる。また、背骨の形状の連続性に関する形状特徴量、すなわち背骨を構成する脊椎の長さが、頭から足方向にいくにつれて同等もしくは長くなるという特徴を用いることで、体軸方向の位置合わせを精密に行なうことができる。   Thus, a long image can be easily and efficiently created by automatically performing high-precision positioning. In addition, the shape feature value related to the continuity of the shape of the spine, that is, the feature that the length of the spine constituting the spine is the same or longer as it goes from the head to the foot direction is used, so that the alignment in the body axis direction is precise. Can be done.

請求項3に記載の医用画像処理装置は、請求項1に記載の医用画像処理装置において、前記処理領域抽出手段は、前記第1の位置合わせ手段によって位置合わせされた第1の画像と第2の画像との位置合わせ領域内の複数箇所において、前記第1の注目領域よりも狭い第1の画像上の第3の注目領域と第2の注目領域よりも狭い第2の画像上の第4の注目領域とをそれぞれ抽出し、前記第2の位置合わせ手段は、前記濃度特徴量である複数箇所毎に求められた前記抽出された第3の注目領域内の画像と前記抽出された第4の注目領域内の画像との相関に関する値に基づいて前記第1の画像と第2の画像との位置合わせを行うことを特徴としている。   The medical image processing apparatus according to claim 3 is the medical image processing apparatus according to claim 1, wherein the processing region extraction unit includes a first image and a second image that are aligned by the first alignment unit. The third attention area on the first image that is narrower than the first attention area and the fourth on the second image that is narrower than the second attention area at a plurality of positions in the alignment area with the image of FIG. And the second alignment means extracts the image in the extracted third region of interest obtained for each of the plurality of locations as the density feature amount and the extracted fourth region. The first image and the second image are aligned based on a value related to a correlation with an image in the region of interest.

請求項3に記載の医用画像処理装置によれば、一部が重複するように撮影位置を被検体の体軸方向に移動させて撮影された第1の画像と第2の画像とにそれぞれ第1の注目領域と第2の注目領域とを設定し、それらの相関に基づいて、第1の画像と第2の画像との大まかな位置合わせを行なう。その後、大まかな位置合わせが行なわれた部分から抽出された、第1の画像上の複数個所の第3の注目領域と、第2の画像上の複数個所の第4の注目領域との相関に基づいて、第1の画像と第2の画像との局所的な位置合わせを行なう。   According to the medical image processing apparatus of the third aspect, the first image and the second image respectively obtained by moving the imaging position in the body axis direction of the subject so as to partially overlap each other. One attention area and a second attention area are set, and the first image and the second image are roughly aligned based on the correlation between them. Thereafter, a correlation between a plurality of third regions of interest on the first image and a plurality of fourth regions of interest on the second image extracted from the roughly aligned portion is obtained. Based on this, local alignment between the first image and the second image is performed.

これにより、自動的に高精度の位置合わせを行なうことができる。また、複数個所毎に第3の注目領域及び第4の注目領域の相関を求め、求められた相関関係から最適な相関関係を求めることより、より精密な局所的な位置合わせを行なうことができる。   Thereby, highly accurate alignment can be performed automatically. Further, by obtaining the correlation between the third attention area and the fourth attention area for each of a plurality of locations, and obtaining the optimum correlation from the obtained correlation, it is possible to perform more precise local alignment. .

本発明によれば、自動的に高精度の位置合わせを行なうことで、効率よく長尺画像又は差分画像を作成する医用画像処理装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the medical image processing apparatus which produces a long image or a difference image efficiently can be provided by performing highly accurate position alignment automatically.

以下、本発明を実施するための最良の形態を添付図面に基づいて説明する。   The best mode for carrying out the present invention will be described below with reference to the accompanying drawings.

<第1の実施の形態>
本発明は、医用画像撮影装置2の一つであるX線装置によって、一部が重複するように撮影位置を被検体の体軸方向に移動させて撮影された2枚の画像を接合して長尺画像を作成するものである。
<First Embodiment>
The present invention uses an X-ray apparatus, which is one of the medical image capturing apparatuses 2, to join two images captured by moving the imaging position in the body axis direction of the subject so as to partially overlap each other. A long image is created.

図1は、本発明に係る第1の実施の形態の医用画像処理装置全体の構成を示すハードウェア構成図である。   FIG. 1 is a hardware configuration diagram showing the overall configuration of the medical image processing apparatus according to the first embodiment of the present invention.

医用画像処理装置10は、X線装置、X線CT装置等の被検体の画像を撮影する医用画像撮影装置2及び医用画像撮影装置2で撮影された被検体の画像が保存されている画像データベース4とLAN3等のネットワークによって接続される。   The medical image processing apparatus 10 includes an X-ray apparatus, an X-ray CT apparatus, and the like, a medical image capturing apparatus 2 that captures an image of the subject, and an image database in which images of the subject captured by the medical image capturing apparatus 2 are stored. 4 and a network such as LAN3.

医用画像処理装置10は、主として各構成要素の動作を制御する制御装置としての中央処理装置(CPU)11、装置の制御プログラムが格納されたり、プログラム実行時の作業領域となったりする主メモリ12と、オペレーティングシステム(OS)、周辺機器のデバイスドライブ、胸壁の厚さの測定等の処理が行われるためのプログラムを含む各種アプリケーションソフト等が格納される磁気ディスク13と、表示用データを一時記憶する表示メモリ14と、この表示メモリ14からのデータに基づいて画像を表示するCRTモニタや液晶モニタ等のモニタ15と、位置入力装置としてのマウス17、マウス17の状態を検出してモニタ15上のマウスポインタの位置やマウス17の状態等の信号をCPU11に出力するコントローラ18と、作業者が指示を入力するためのキーボード16と、上記各構成要素を接続するバス19とから構成される。   The medical image processing apparatus 10 mainly includes a central processing unit (CPU) 11 as a control device that controls the operation of each component, and a main memory 12 that stores a control program for the device and serves as a work area when the program is executed. And a magnetic disk 13 in which various application software including a program for processing such as an operating system (OS), a device drive of a peripheral device, and measurement of the thickness of the chest wall are stored, and display data is temporarily stored Display memory 14, a monitor 15 such as a CRT monitor or a liquid crystal monitor that displays an image based on data from the display memory 14, a mouse 17 as a position input device, and the state of the mouse 17 is detected and is displayed A controller 1 that outputs signals such as the position of the mouse pointer and the state of the mouse 17 to the CPU 11 When, a keyboard 16 for operator inputs an instruction, and a bus 19 which connects the above components.

CPU11は、上記プログラムを磁気ディスク13から読み出して主メモリ12にロードし、実行する。   The CPU 11 reads the program from the magnetic disk 13, loads it into the main memory 12, and executes it.

なお、本実施例では、主メモリ12以外の記憶装置として磁気ディスク13が接続されているが、それ以外にハードディスクドライブ等が接続されていてもよい。   In this embodiment, the magnetic disk 13 is connected as a storage device other than the main memory 12, but a hard disk drive or the like may be connected in addition thereto.

次に、一部が重複するように撮影位置を被検体の体軸方向に移動させて撮影された2枚の画像を接合し、長尺画像を作成する方法について説明する。   Next, a method for creating a long image by joining two images captured by moving the imaging position in the body axis direction of the subject so as to partially overlap each other will be described.

図2は、医用画像処理装置10の処理の流れを示すフローチャートである。CPU11は、このフローチャートに従って動作する。以下の処理は、一部が重複するように撮影位置を被検体の体軸方向に移動させて撮影された2枚以上の画像データが医用画像撮影装置2から医用画像処理装置10へ読みこまれた後で開始される。なお、画像データベース4に保存されている被検体の体軸方向に沿って撮影された2枚以上の画像データが、画像データベース4から医用画像処理装置10へ読みこまれた後で開始されるようにしてもよい。なお、医用画像処理装置10に読みこまれた画像データは、一旦磁気ディスク13に保存される。   FIG. 2 is a flowchart showing a processing flow of the medical image processing apparatus 10. The CPU 11 operates according to this flowchart. In the following processing, two or more pieces of image data obtained by moving the imaging position in the body axis direction of the subject so as to partially overlap are read from the medical image imaging apparatus 2 to the medical image processing apparatus 10. Will start after. Note that the processing is started after two or more pieces of image data taken along the body axis direction of the subject stored in the image database 4 are read from the image database 4 into the medical image processing apparatus 10. It may be. Note that the image data read by the medical image processing apparatus 10 is temporarily stored in the magnetic disk 13.

まず、磁気ディスク13に保存されている、一部が重複するように撮影位置を被検体の体軸方向に移動させて撮影された2枚の画像20、21と、画像に添付されている付帯情報とが主メモリ12に読み込まれる(ステップS10)。付帯情報には、例えば、1枚目の画像を撮影した後で2枚目の画像を撮影するときにX線装置の検出器が移動した距離、2枚の画像20、21の重複領域の体軸方向の長さ、画像を撮影した日時の情報等が含まれている。   First, two images 20 and 21 that are stored on the magnetic disk 13 and are imaged by moving the imaging position in the body axis direction of the subject so as to partially overlap each other, and the incidental attached to the images. Information is read into the main memory 12 (step S10). The incidental information includes, for example, the distance traveled by the detector of the X-ray apparatus when the second image is captured after the first image is captured, and the body of the overlapping region of the two images 20 and 21. Information on the length in the axial direction, the date and time when the image was taken, and the like are included.

次に、読み出した2枚の画像20、21から、位置合わせ処理で用いる領域(計算対象領域)を抽出する処理が行われる(ステップS12〜S18)。   Next, a process of extracting an area (calculation target area) used in the alignment process is performed from the two read images 20 and 21 (steps S12 to S18).

まず、閾値が決定される(ステップS12)。この閾値は、位置合わせ処理で用いる領域が明確に分離されるような値があらかじめ設定されている。なお、X線撮影された画像の濃度範囲内における最多頻度を示す濃度を中央値として、その下限値、上限値を探索することにより、閾値を自動設定するようにしてもよい。   First, a threshold value is determined (step S12). The threshold value is set in advance so that a region used in the alignment process is clearly separated. Note that the threshold value may be automatically set by searching for a lower limit value and an upper limit value with the density indicating the highest frequency in the density range of the X-ray image taken as a median value.

画像20、21にステップS12で決定された閾値に基づいて閾値処理が行われることにより、二値化画像が作成される。(ステップS14)。   A binarized image is created by performing threshold processing on the images 20 and 21 based on the threshold determined in step S12. (Step S14).

ステップS14で作成された二値化画像に二次元ラベリング処理を行なうことにより、ラベル画像が作成される(ステップS16)。   A label image is created by performing a two-dimensional labeling process on the binarized image created in step S14 (step S16).

ステップS16で作成されたラベル画像で、最大面積のラベル領域が計算対象領域として抽出される(ステップS18)。   In the label image created in step S16, the label area having the maximum area is extracted as a calculation target area (step S18).

これにより、図3に示すように、計算対象領域30が画像20、21に設定される。なお、本実施例では、脊椎が計算対象領域として処理される。   Thereby, as shown in FIG. 3, the calculation target region 30 is set to the images 20 and 21. In this embodiment, the spine is processed as the calculation target area.

次に、画像20、21に対して、大まかな位置合わせが行われる(ステップS20〜S28)。以下、大まかな位置合わせについて説明する。   Next, rough alignment is performed on the images 20 and 21 (steps S20 to S28). Hereinafter, rough alignment will be described.

ステップS18で抽出された計算対象領域30の重心座標と、抽出領域の横幅が求められ(ステップS20)、その結果を基に、図4(a)に示すように、計算対象領域30の重心座標を中心にして、画像(下部画像)20にテンプレート領域31が設定される(ステップS22)。なお、テンプレート領域31の大きさは、計算対象領域30の大きさに合わせてあらかじめ設定されている。   The center-of-gravity coordinates of the calculation target region 30 extracted in step S18 and the width of the extraction region are obtained (step S20). Based on the result, the center-of-gravity coordinates of the calculation target region 30 are obtained as shown in FIG. A template region 31 is set in the image (lower image) 20 centering on (step S22). Note that the size of the template region 31 is set in advance according to the size of the calculation target region 30.

また、画像(上部画像)21についても、図4(b)に示すように、計算対象領域30の重心座標を中心にして、画像21に探索領域32が設定される(ステップS24)。なお、探索領域32は、テンプレート領域31の大きさよりやや大きめ(テンプレート領域31の約1〜2倍であり、テンプレート領域31の大きさに合わせてあらかじめ設定されている)に設定される。   As for the image (upper image) 21, as shown in FIG. 4B, the search area 32 is set in the image 21 around the center of gravity coordinates of the calculation target area 30 (step S <b> 24). The search area 32 is set to be slightly larger than the size of the template area 31 (about 1 to 2 times the template area 31 and preset in accordance with the size of the template area 31).

その後、ステップS22で設定されたテンプレート領域31とステップS24で設定された探索領域32との間で、下記(1)式により、最も相関の高い場所における計算結果が、移動距離として算出される(ステップS26)。   Thereafter, between the template region 31 set in step S22 and the search region 32 set in step S24, the calculation result at the place with the highest correlation is calculated as the movement distance by the following equation (1) ( Step S26).

Figure 2008067916
Figure 2008067916

なお、相関を求める式は上記式(1)に限らず、式(2)に示す関数のような、その他のさまざまな評価関数を用いることができる。     Note that the equation for obtaining the correlation is not limited to the above equation (1), and various other evaluation functions such as the function shown in equation (2) can be used.

Figure 2008067916
Figure 2008067916

そして、ステップS26で求められた移動距離を用いて、画像20、21が移動される(ステップS28)。  Then, the images 20 and 21 are moved using the movement distance obtained in step S26 (step S28).

これにより、第1の注目領域、第2の注目領域であるテンプレート領域、探索領域により大まかな位置合わせが終了し、図5(a)に示すように、画像20、21が大まかに位置合わせされた画像22が作成される。この段階で、横方向(体軸方向であるy方向に垂直なx方向)の位置合わせはほぼ終了している。   As a result, the rough alignment is completed by the first attention area, the template area as the second attention area, and the search area, and the images 20 and 21 are roughly aligned as shown in FIG. An image 22 is created. At this stage, the alignment in the lateral direction (the x direction perpendicular to the y direction which is the body axis direction) is almost completed.

次に、画像20、21が大まかに位置合わせされた画像22に対して、形状特徴量を利用した位置合わせ処理(局所的な位置合わせ)が行われる(ステップS30〜S48)。ここで、形状特徴とは、画像に示されている輪郭の形状の連続性のことを言う。本実施例では、背骨(脊椎)の形状の連続性に注目した位置合わせを意味する。以下、形状特徴量を利用した位置合わせ処理(局所的な位置合わせ)について説明する。   Next, alignment processing (local alignment) using the shape feature amount is performed on the image 22 in which the images 20 and 21 are roughly aligned (steps S30 to S48). Here, the shape feature means continuity of the shape of the contour shown in the image. In the present embodiment, the alignment means focusing on the continuity of the shape of the spine (spine). Hereinafter, an alignment process (local alignment) using the shape feature amount will be described.

まず、図5(a)に示すように、位置合わせ処理を行なうための処理範囲33が設定される(ステップS30)。この処理範囲33は、画像20、21が貼り合わされた部分である重複領域22aを含み、y方向に所定の幅を持った範囲である。なお、処理範囲33のy方向の幅は、以下に述べる処理が正確に行われるために必要な大きさであり、予め設定されている。   First, as shown in FIG. 5A, a processing range 33 for performing the alignment process is set (step S30). The processing range 33 includes an overlapping region 22a that is a portion where the images 20 and 21 are pasted, and has a predetermined width in the y direction. Note that the width in the y direction of the processing range 33 is a size necessary for the processing described below to be accurately performed, and is set in advance.

処理範囲33の中のあるy方向の位置Yにおいて、x方向の全ての画素Y’の濃度が加算される(ステップS32)。その結果、図5(b)に示すように、Yにおける濃度値41が算出される。   At a position Y in the y direction in the processing range 33, the densities of all the pixels Y 'in the x direction are added (step S32). As a result, as shown in FIG. 5B, a density value 41 in Y is calculated.

その後、ステップS32で行われる濃度加算処理が、処理範囲33全てに対して行われたかどうかが判定される(ステップS34)。   Thereafter, it is determined whether or not the density addition processing performed in step S32 has been performed on the entire processing range 33 (step S34).

処理範囲33全てに対して濃度加算処理が行われていない場合(ステップS34でNOの場合)は、ステップS32へ戻り、再度濃度加算処理が行われる。   If the density addition process has not been performed on the entire processing range 33 (NO in step S34), the process returns to step S32, and the density addition process is performed again.

処理範囲33全てに対して濃度加算処理が行われた場合(ステップS34でYESの場合)は、図5(b)に示すように、濃度値の折れ線40が得られ、これを基に、注目部位(脊椎)のレングスが計測される(ステップS36)。ここで、レングスとは、輪郭42(折れ線40の濃度値が高い部分)から輪郭42までの距離、すなわち、脊椎の長さのことである。なお、輪郭42と輪郭42との距離が短い場合はレングスとして計測しない。   When density addition processing has been performed on all the processing ranges 33 (YES in step S34), a broken line 40 of density values is obtained as shown in FIG. The length of the part (spine) is measured (step S36). Here, the length is the distance from the contour 42 (the portion where the density value of the broken line 40 is high) to the contour 42, that is, the length of the spine. When the distance between the contour 42 and the contour 42 is short, the length is not measured.

脊椎の端面は他の部分に比べて濃度が高いため、脊椎の端面を含む場合の加算値は他の部分の加算値より濃度値が高くなる。そのため、輪郭42と輪郭42とのy方向の幅43α、43β、43γ、43δは、それぞれ脊椎34α、34β、34γ、34δ(図5(a)参照)の長さを意味する。   Since the density of the end face of the spine is higher than that of the other part, the added value when the end face of the spine is included is higher than the added value of the other part. Therefore, the widths 43α, 43β, 43γ, and 43δ in the y direction between the contour 42 and the contour 42 mean the lengths of the spines 34α, 34β, 34γ, and 34δ (see FIG. 5A), respectively.

なお、本実施例においては、説明のため、4個の脊椎に対してレングスを計測した場合について示したが、計測する脊椎の数はこれに限らない。   In this embodiment, for the sake of explanation, the case where the length is measured for four vertebrae is shown, but the number of vertebrae to be measured is not limited to this.

次に、注目部位(脊椎)のy値、レングスが求められる(ステップS38)。ここで、y値とは、画像22(図5(a)参照)の左上(x軸とy軸との交点)を0としたときのy軸の値である。例えば、図5(a)、(b)に示すように、脊椎34αのy値は、その脊椎34αのy方向の中央値yαであり、レングスは43αである。同様に、処理範囲33に含まれる全ての注目部位(脊椎)について上記処理を行うことにより、表1に示すような関係が求められる。   Next, the y value and length of the site of interest (spine) are obtained (step S38). Here, the y value is a value of the y axis when the upper left (intersection of the x axis and the y axis) of the image 22 (see FIG. 5A) is 0. For example, as shown in FIGS. 5A and 5B, the y value of the spine 34α is the median value yα of the spine 34α in the y direction, and the length is 43α. Similarly, the relationship as shown in Table 1 is obtained by performing the above-described processing on all the attention sites (vertebrae) included in the processing range 33.

Figure 2008067916
Figure 2008067916

全ての注目部位(脊椎)について処理が終了したら、注目部位(脊椎)のy値、レングスの相関をとることにより、計測したレングス変化が求められる(ステップS40)。つまり、図6に示すように、縦方向(体軸方向)をy値、横軸をレングスとしたグラフに、表1の値をプロットし、それらを最小二乗法等により補間近似線で連結することで、計測したレングス変化を示す近似線50(図6実線)が作成される。    When the processing is completed for all the target regions (vertebrae), the measured length change is obtained by correlating the y value and the length of the target region (spine) (step S40). That is, as shown in FIG. 6, the values in Table 1 are plotted on a graph in which the vertical direction (body axis direction) is the y value and the horizontal axis is the length, and these are connected by interpolation approximate lines by the least square method or the like. Thus, an approximate line 50 (solid line in FIG. 6) indicating the measured length change is created.

その後、注目部位(脊椎)のy値、レングスより理想的なレングス変化が求められる(ステップS42)。レングス、すなわち脊椎の長さは、頭から足方向にいくにつれて同等もしくは長くなるという特徴がある。つまり、図6に示すように、縦軸をy値、横軸をレングスとしたグラフに上記表1の値をプロットし、そのプロットをできるだけ多く含んだ近似曲線であって、Y値の増大と共にレングスが増大又は同等になるような近似直線が作成されることで、理想的なレングス変化を示す近似線51(図6点線)が作成される。   Thereafter, an ideal length change is obtained from the y value and length of the site of interest (spine) (step S42). The length, that is, the length of the spine is characterized by being equal or longer in the direction from the head to the foot. That is, as shown in FIG. 6, the values in Table 1 are plotted on a graph with the y-axis on the vertical axis and the length on the horizontal axis, and the approximate curve includes as many plots as possible. By creating an approximate straight line that increases or becomes equivalent in length, an approximate line 51 (dotted line in FIG. 6) indicating an ideal length change is created.

これにより、レングス変化を示す近似線すなわち、背骨の形状の連続性に関する値が求められる。   Thereby, an approximate line indicating a change in length, that is, a value related to the continuity of the shape of the spine is obtained.

計測したレングス変化を示す近似線50及び理想的なレングス変化を示す近似線51が作成されたら、計測したレングス変化を示す近似線50と理想的なレングス変化を示す近似線51とが一致するかどうかが判断される(ステップS44)。   When the approximate line 50 indicating the measured length change and the approximate line 51 indicating the ideal length change are created, does the approximate line 50 indicating the measured length change match the approximate line 51 indicating the ideal length change? It is determined whether or not (step S44).

計測したレングス変化を示す近似線50と理想的なレングス変化を示す近似線51とが一致しない場合には、計測したレングス変化を示す近似線50と理想的なレングス変化を示す近似線51との差(ずれ量)が計算され(ステップS46)、そのずれ量がなくなるように、画像20又は画像21が移動される(ステップS48)。例えば、図6においては、理想的なレングス変化を示す近似線51にくらべて、計測したレングス変化を示す近似線50のレングスが脊椎43γ近辺で短くなる方向にずれているため、脊椎43γがこのずれ量だけ長くなるように画像20又は画像21を移動させる。   When the approximate line 50 indicating the measured length change does not match the approximate line 51 indicating the ideal length change, the approximate line 50 indicating the measured length change and the approximate line 51 indicating the ideal length change. The difference (shift amount) is calculated (step S46), and the image 20 or the image 21 is moved so that the shift amount disappears (step S48). For example, in FIG. 6, the length of the approximate line 50 indicating the measured length change is shifted in the direction of shortening around the spine 43γ, compared to the approximate line 51 indicating the ideal length change. The image 20 or the image 21 is moved so as to become longer by the shift amount.

計測したレングス変化を示す近似線50と理想的なレングス変化を示す近似線51とが一致する場合には、画像20と画像21とが正確に位置合わせされていると判断されるため、形状特徴量を利用した位置合わせ処理を終了する。   When the approximate line 50 indicating the measured length change matches the approximate line 51 indicating the ideal length change, it is determined that the image 20 and the image 21 are accurately aligned. The registration process using the quantity is terminated.

これにより、形状特徴量を利用した局所的な位置合わせが終了し、画像20、21が横方向(体軸方向であるy方向に垂直なx方向)のみでなく縦方向(y方向)の精密な位置合わせが終了される。   Thereby, the local alignment using the shape feature amount is completed, and the images 20 and 21 are not only in the horizontal direction (x direction perpendicular to the y direction which is the body axis direction) but also in the vertical direction (y direction). Complete alignment is completed.

次に、画像20、21を貼り合わせた部分の濃度値補正処理(ステップS50〜S54)が行われる。以下、濃度値補正処理について説明する。   Next, density value correction processing (steps S50 to S54) is performed on the portion where the images 20 and 21 are bonded. Hereinafter, the density value correction process will be described.

同条件で撮影を行った場合においても、一般的に画像20と画像21との濃度は異なっている。そのため、画像20、21の重複領域22a(図5(a)参照)と重複領域22aでない領域22b、22cとでは、濃度が不連続となるため、不自然な画像となってしまう。そこで、より滑らかに画像20と画像21とを接合するために、画像20、21の濃度値に基づいて重複領域22aの濃度合成処理が行われる必要がある。   Even when shooting is performed under the same conditions, the densities of the image 20 and the image 21 are generally different. For this reason, the overlapping regions 22a (see FIG. 5A) of the images 20 and 21 and the regions 22b and 22c that are not the overlapping regions 22a are discontinuous in density, resulting in an unnatural image. Therefore, in order to join the image 20 and the image 21 more smoothly, it is necessary to perform density composition processing of the overlapping region 22a based on the density values of the images 20 and 21.

貼り合わせ箇所からの注目するy方向の画素間の距離に応じて、図7に示すように、注目する画素の濃度値が式(3)によって算出される(ステップS50)。   As shown in FIG. 7, the density value of the pixel of interest is calculated by Equation (3) according to the distance between the pixels of interest in the y direction from the pasted portion (step S50).

Figure 2008067916
Figure 2008067916

注目する画素の濃度値が算出されたら、画像22の濃度値が、画像22の左上の画素からy方向に補正され(ステップ52)、この濃度値の補正が画像22全体に対して行われたかどうかが判定される(ステップS54)。そして、濃度補正処理が画像22全体に対して行われたと判断されると、処理を終了する。   When the density value of the pixel of interest is calculated, the density value of the image 22 is corrected in the y direction from the upper left pixel of the image 22 (step 52), and this density value correction is performed on the entire image 22 It is determined whether or not (step S54). When it is determined that the density correction process has been performed on the entire image 22, the process ends.

これにより、位置合わせが行なわれた画像22に対して、濃度が補正され、画像20、21が滑らかに接合され、自然な長尺画像23(図8(a)参照)が生成される。   As a result, the density of the image 22 that has been aligned is corrected, the images 20 and 21 are smoothly joined, and a natural long image 23 (see FIG. 8A) is generated.

長尺画像23が作成されたら、表示メモリ14を介してモニタ15に表示される(ステップS56)。モニタ15には、画像23の他に、作業者がキーボード16、マウス17などで操作することによって、画像23を拡大、縮小したり、画像23を移動させたりするための十字キー56(図8(b)参照)、カラー表示、白黒表示等のモード選択を行うためのモード画面58(図8(c)参照)、十字キー56、モード画面58等を操作するためカーソル56等を表示させることができる。   When the long image 23 is created, it is displayed on the monitor 15 via the display memory 14 (step S56). In addition to the image 23, the monitor 15 has a cross key 56 (FIG. 8) for enlarging and reducing the image 23 and moving the image 23 by an operator operating the keyboard 16 and the mouse 17. (B)), a mode screen 58 for selecting a mode such as color display, black and white display (see FIG. 8C), a cross key 56, a cursor 56 for operating the mode screen 58, and the like are displayed. Can do.

本実施の形態によれば、一部が重複するように撮影位置を被検体の体軸方向に移動させて撮影された2枚の画像に対して設定された第1の注目領域であるテンプレート領域と第2の注目領域である探索領域との相関に基づいて、第1の画像と第2の画像との大まかな位置合わせを行ない、その結果をもとに精密な位置合わせをするため、自動的に高精度の位置合わせを行なうことができる。   According to the present embodiment, a template region that is a first region of interest set for two images that are imaged by moving the imaging position in the body axis direction of the subject so as to partially overlap each other The first image and the second image are roughly aligned based on the correlation between the image and the search area, which is the second region of interest, and automatic alignment is performed based on the result. Therefore, highly accurate alignment can be performed.

また、形状特徴量である背骨(脊椎)の形状の連続性から求められた値、すなわち、脊椎の長さが頭から足方向にいくにつれて同等もしくは長くなるという特徴から求められた値を用いることで、体軸方向の位置合わせを精密に行なうことができる。   Also, use the value obtained from the continuity of the shape of the spine (spine), which is the shape feature quantity, that is, the value obtained from the feature that the length of the spine is equal or longer as it goes from the head to the foot. Thus, alignment in the body axis direction can be performed precisely.

また、位置合わせが行なわれた画像に対して、濃度補正されることで、2枚の画像が滑らかに接合され、その結果、自然な長尺画像(第3の画像)を生成することができる。自動的に長尺画像が生成されるため、容易に効率よく長尺画像が作成されることができる。   Further, density correction is performed on the image that has been aligned, so that the two images are smoothly joined, and as a result, a natural long image (third image) can be generated. . Since a long image is automatically generated, a long image can be created easily and efficiently.

なお、本実施の形態では、2枚の画像を接合する方法について説明したが、3枚以上の場合においても、同様に処理することで画像の接合が可能である。   In this embodiment, the method of joining two images has been described. However, even when there are three or more images, the images can be joined by performing the same processing.

<第2の実施の形態>
上記第1の実施の形態の医用画像処理装置では、大まかに位置合わせされた2枚の画像に対して、形状特徴量に基づいて局所的な位置合わせが行なわれるが、局所的な位置合わせを行なう方法は、これに限定されるものではない。
<Second Embodiment>
In the medical image processing apparatus according to the first embodiment, local alignment is performed based on the shape feature amount with respect to the two images roughly aligned, but the local alignment is performed. The method to be performed is not limited to this.

本実施の形態の医用画像処理装置は、大まかに位置合わせされた2枚の画像に対して、複数個所の注目領域の相関によって局所的な位置合わせを行うものである。図9は、本発明に係る第2の実施の形態の医用画像処理装置10aの処理の流れを示すフローチャートである。なお、図中、第1の実施の形態と同一の部分については、同一の符号を付し、説明を省略する。   The medical image processing apparatus according to the present embodiment performs local alignment on two roughly aligned images by correlation of a plurality of regions of interest. FIG. 9 is a flowchart showing a processing flow of the medical image processing apparatus 10a according to the second embodiment of the present invention. In the figure, the same portions as those of the first embodiment are denoted by the same reference numerals, and description thereof is omitted.

まず、磁気ディスク13に保存されている2枚の画像20、21と、画像に添付されている付帯情報とが主メモリ12に読み込まれる(ステップS10)。   First, the two images 20 and 21 stored on the magnetic disk 13 and the accompanying information attached to the images are read into the main memory 12 (step S10).

次に、読み出した2枚の画像20、21から、位置合わせ処理で用いる領域(計算対象領域)を抽出する処理が行われる(ステップS12〜S18)。   Next, a process of extracting an area (calculation target area) used in the alignment process is performed from the two read images 20 and 21 (steps S12 to S18).

次に、画像20、21に対して、大まかな位置合わせが行われる(ステップS20〜S28)。   Next, rough alignment is performed on the images 20 and 21 (steps S20 to S28).

なお、ステップS10〜S28の処理は、第1の実施の形態と同一であるため、詳細な説明は省略する。   In addition, since the process of step S10-S28 is the same as 1st Embodiment, detailed description is abbreviate | omitted.

ステップS20〜S28に示す大まかな位置合わせが終了したら、大まかに位置合わせされた画像20、21に対して、濃度特徴量を利用した位置合わせ処理1(局所的な位置合わせ)が行われる(ステップS60〜S76)。ここで、濃度特徴量とは、画像の濃度を閾値処理することで求められる特徴のことをいう。以下、濃度特徴量を利用した位置合わせ処理1(局所的な位置合わせ)について説明する。   When the rough alignment shown in steps S20 to S28 is completed, the alignment processing 1 (local alignment) using the density feature amount is performed on the roughly aligned images 20 and 21 (step alignment). S60 to S76). Here, the density feature amount refers to a feature obtained by performing threshold processing on the density of an image. Hereinafter, the registration process 1 (local registration) using the density feature amount will be described.

図10(a−1)、(a−2)に示すように、ステップS24において画像(上部画像)21に設定された探索領域32の内部に、テンプレート領域35―nが設定される(ステップS60)。   As shown in FIGS. 10A-1 and 10A-2, a template area 35-n is set inside the search area 32 set in the image (upper image) 21 in step S24 (step S60). ).

また、画像(下部画像)20についても、図10(b−1)、(b−2)に示すように、ステップS22において画像(下部画像)20に設定されたテンプレート領域31の内部に、探索領域36が設定される(ステップS62)。   As for the image (lower image) 20, as shown in FIGS. 10 (b-1) and (b-2), a search is performed inside the template region 31 set in the image (lower image) 20 in step S22. Region 36 is set (step S62).

本実施例では、テンプレート領域35−nの高さは約20mmであり、探索領域36の高さは約40mmである。また、テンプレート領域35−n及び探索領域36は脊椎と脊椎の間が含まれるように設定されている。   In the present embodiment, the height of the template region 35-n is about 20 mm, and the height of the search region 36 is about 40 mm. The template region 35-n and the search region 36 are set so as to include the space between the vertebrae.

まず、n=1、すなわち図10(a−2)、(b−2)に示すように、テンプレート領域35−1が探索領域36の左端に位置するように、テンプレート領域35−nが設定される(ステップS64)。   First, template area 35-n is set such that n = 1, that is, template area 35-1 is positioned at the left end of search area 36, as shown in FIGS. 10 (a-2) and 10 (b-2). (Step S64).

その後、テンプレート領域35−nを探索領域36の範囲内で上下に動かす(ステップS66)ことにより、テンプレート領域35−nにおける移動距離が算出される(ステップS68)。本実施例では、テンプレート領域35−nの高さは約20mmであり、探索領域36の高さは約40mmであることより、テンプレート領域35−nは、探索領域36の内部を上下に約20mm移動することができる。なお、移動距離の算出は、ステップS26と同様の方法を用いることができる。   Then, the movement distance in the template area 35-n is calculated by moving the template area 35-n up and down within the search area 36 (step S66) (step S68). In the present embodiment, the height of the template region 35-n is about 20 mm, and the height of the search region 36 is about 40 mm. Therefore, the template region 35-n is about 20 mm up and down inside the search region 36. Can move. The movement distance can be calculated using the same method as in step S26.

そして、n=Nかが判断される(ステップS72)。   Then, it is determined whether n = N (step S72).

n=Nで無い(ステップS72でNO)場合には、n=n+1に設定され(ステップS70)、その後ステップS66に戻り、テンプレート領域35−nが再度設定される。例えば、ステップS68でn=1の場合には、図10(a−2)、(b−2)に示すように、テンプレート領域35−1が探索領域36の左端に位置しているが、ステップS70でn=2に設定されると、図10(a−3)、(b−3)に示すように、テンプレート領域35−1の位置から1画素だけ右に移動した位置にテンプレート領域35−2が設定される。   If n = N is not satisfied (NO in step S72), n = n + 1 is set (step S70), and then the process returns to step S66, where the template area 35-n is set again. For example, when n = 1 in step S68, the template area 35-1 is located at the left end of the search area 36 as shown in FIGS. 10 (a-2) and (b-2). When n = 2 is set in S70, as shown in FIGS. 10A-3 and 10B-3, the template area 35- is moved to the position moved to the right by one pixel from the position of the template area 35-1. 2 is set.

n=N(ステップS72でYES)の場合、すなわち、図10(a−4)、(b−4)に示すように、テンプレート領域35−Nが探索領域36の右端に位置している場合には、ステップS72で求められた複数の移動距離の中で最も頻度の高い移動距離(最多頻度移動距離)が算出される(ステップS74)。最多頻度移動距離の算出は、ステップS68で求められた複数の移動距離のヒストグラムを作成し、その中で最も度数が多い階級の中央値を最多頻度移動距離として算出してもよいし、ステップS68で求められた複数の移動距離のヒストグラムを作成し、そのヒストグラムの重心を計算し、その値を最多頻度移動距離として算出してもよい。   When n = N (YES in step S72), that is, when the template area 35-N is located at the right end of the search area 36 as shown in FIGS. 10 (a-4) and (b-4). The most frequent travel distance (the most frequent travel distance) among the plurality of travel distances obtained in step S72 is calculated (step S74). The calculation of the most frequent movement distance may be performed by creating a histogram of the plurality of movement distances obtained in step S68 and calculating the median value of the class having the highest frequency as the most frequent movement distance, or in step S68. It is also possible to create a histogram of a plurality of movement distances obtained in step 1, calculate the center of gravity of the histogram, and calculate the value as the most frequent movement distance.

そして、ステップS74で求められた最多頻度移動距離を用いて、画像20、21が移動される(ステップS76)。   Then, the images 20 and 21 are moved using the most frequent moving distance obtained in step S74 (step S76).

これにより、第3の注目領域、第4の注目領域であるテンプレート領域、探索領域により濃度特徴量を利用した位置合わせが終了し、画像20、21が局所的に位置合わせされ、横方向(体軸方向であるy方向に垂直なx方向)のみでなく縦方向(y方向)の精密な位置合わせが終了される。   Thereby, the registration using the density feature amount by the third attention area, the template area which is the fourth attention area, and the search area is finished, and the images 20 and 21 are locally aligned, and the horizontal direction (body The precise alignment not only in the axial direction (x direction perpendicular to the y direction) but also in the vertical direction (y direction) is completed.

濃度特徴量を利用した位置合わせ処理1(局所的な位置合わせ)が終了したら、画像20、21を貼り合わせた部分の濃度値補正処理(ステップS50〜S54)、生成された長尺画像の表示(ステップS56)。が行われる。なお、ステップS50〜S56の処理は、第1の実施の形態と同一であるため、詳細な説明は省略する。   When the registration process 1 (local registration) using the density feature amount is completed, the density value correction process (steps S50 to S54) of the part where the images 20 and 21 are bonded together, and the display of the generated long image (Step S56). Is done. In addition, since the process of step S50-S56 is the same as 1st Embodiment, detailed description is abbreviate | omitted.

本実施の形態によれば、大まかな位置合わせが行なわれた部分から抽出された、複数の第3の注目領域であるテンプレート領域と、複数個所の第4の注目領域である探索領域との相関に基づいて、2枚の画像の局所的な位置合わせを行なうことにより、自動的に高精度の位置合わせを行なうことができる。   According to the present embodiment, the correlation between a plurality of template regions that are third attention regions and a plurality of fourth attention regions that are extracted from a portion where rough positioning has been performed. Based on the above, by performing the local alignment of the two images, it is possible to automatically perform the high-accuracy alignment.

また、あるテンプレート領域に対して探索領域との相関を求め、求められた複数個の相関関係(移動距離)から最適な相関関係を求めることより、2枚の画像のズレが1mm以下という、より精密な局所的な位置合わせを行なうことができる。   Further, by obtaining a correlation with a search area for a certain template area and obtaining an optimum correlation from a plurality of obtained correlations (movement distances), the deviation between the two images is 1 mm or less. Precise local alignment can be performed.

<第3の実施の形態>
上記第2の実施の形態の医用画像処理装置では、大まかに位置合わせされた2枚の画像に対して、テンプレート領域を探索領域の中で1画素ずつ動かしてその各々の場所で移動距離を測定し、その中の最多頻度移動距離を算出することで局所的な位置合わせを行なったが、局所的な位置合わせを行なう方法は、これに限定されるものではない。
<Third Embodiment>
In the medical image processing apparatus according to the second embodiment, the template region is moved pixel by pixel in the search region for two roughly aligned images, and the movement distance is measured at each location. In addition, the local alignment is performed by calculating the most frequently moved distance among them, but the method of performing the local alignment is not limited to this.

本実施の形態の医用画像処理装置は、大まかに位置合わせされた2枚の画像に対してテンプレート領域及び探索領域をそれぞれ複数個所設定し、その各々において移動距離を測定し、その中の最多頻度移動距離を算出することで局所的な位置合わせを行うものである。図11は、本発明に係る第2の実施の形態の医用画像処理装置10bの処理の流れを示すフローチャートである。なお、図中、第1の実施の形態及び第2の実施の形態と同一の部分については、同一の符号を付し、説明を省略する。   The medical image processing apparatus according to the present embodiment sets a plurality of template regions and search regions for two roughly aligned images, measures the moving distance in each of them, and most frequently among them. Local alignment is performed by calculating the movement distance. FIG. 11 is a flowchart showing a processing flow of the medical image processing apparatus 10b according to the second embodiment of the present invention. In the figure, the same portions as those in the first embodiment and the second embodiment are denoted by the same reference numerals, and description thereof is omitted.

まず、磁気ディスク13に保存されている2枚の画像20、21と、画像に添付されている付帯情報とが主メモリ12に読み込まれる(ステップS10)。   First, the two images 20 and 21 stored on the magnetic disk 13 and the accompanying information attached to the images are read into the main memory 12 (step S10).

次に、読み出した2枚の画像20、21から、位置合わせ処理で用いる領域(計算対象領域)を抽出する処理が行われる(ステップS12〜S18)。   Next, a process of extracting an area (calculation target area) used in the alignment process is performed from the two read images 20 and 21 (steps S12 to S18).

次に、画像20、21に対して、大まかな位置合わせが行われる(ステップS20〜S28)。   Next, rough alignment is performed on the images 20 and 21 (steps S20 to S28).

なお、ステップS10〜S28の処理は、第1の実施の形態と同一であるため、詳細な説明は省略する。   In addition, since the process of step S10-S28 is the same as 1st Embodiment, detailed description is abbreviate | omitted.

ステップS20〜S28に示す大まかな位置合わせが終了したら、大まかに位置合わせされた画像20、21に対して、濃度特徴量を利用した位置合わせ処理2(局所的な位置合わせ)が行われる(ステップS80〜S90)。以下、濃度特徴量を利用した位置合わせ処理2(局所的な位置合わせ)について説明する。   When the rough alignment shown in Steps S20 to S28 is completed, alignment processing 2 (local alignment) using density feature amounts is performed on the roughly aligned images 20 and 21 (Step S20). S80 to S90). Hereinafter, the alignment process 2 (local alignment) using the density feature amount will be described.

図12(a−1)、(a−2)に示すように、ステップS22において画像(下部画像)20に設定されたテンプレート領域31の内部に、複数のテンプレート領域37が設定される(ステップS80)。   As shown in FIGS. 12A-1 and 12A-2, a plurality of template regions 37 are set inside the template region 31 set in the image (lower image) 20 in step S22 (step S80). ).

また、画像(上部画像)21についても、図12(b−1)、(b−2)に示すように、ステップS24において画像(上部画像)21に設定された探索領域32の内部の、テンプレート領域37に対応する場所に、探索領域38が設定される(ステップS82)。   As for the image (upper image) 21, as shown in FIGS. 12B-1 and 12B-2, the template inside the search area 32 set in the image (upper image) 21 in step S24. A search area 38 is set at a location corresponding to the area 37 (step S82).

例えば、図12(a−2)、(b−2)に示すように、テンプレート領域37−1に対しては、その対応する場所に探索領域38−1が設定される。同様にして、テンプレート領域37−1〜37−9に対して探索領域38−1〜38−9が設定される。また、テンプレート領域37−1〜37−9及び探索領域38−1〜38−9は、ステップS26で求められた移動距離を基に、テンプレート領域31及び探索領域32より小さい大きさに設定される。なお、図12では、9個のテンプレート領域37−1〜37−9及び探索領域38−1〜38−9を設定したが、テンプレート領域37及び探索領域38は複数個であれば9個に限らない。   For example, as shown in FIGS. 12A-2 and 12B-2, for the template area 37-1, a search area 38-1 is set at the corresponding location. Similarly, search areas 38-1 to 38-9 are set for template areas 37-1 to 37-9. The template areas 37-1 to 37-9 and the search areas 38-1 to 38-9 are set to be smaller than the template area 31 and the search area 32 based on the movement distance obtained in step S26. . In FIG. 12, nine template areas 37-1 to 37-9 and search areas 38-1 to 38-9 are set. However, if there are a plurality of template areas 37 and search areas 38, the number is limited to nine. Absent.

テンプレート領域37及び探索領域38の設定が終了したら、各々のテンプレート領域37及び探索領域38における移動距離が算出される(ステップS84)。すなわち、テンプレート領域37−1と探索領域38−1とで移動距離が算出され、同様の方法で、テンプレート領域37−1〜37−9と探索領域38−1〜38−9との移動距離が算出される。なお、移動距離の算出は、ステップS26と同様の方法を用いることができる。   When the setting of the template area 37 and the search area 38 is completed, the movement distance in each template area 37 and the search area 38 is calculated (step S84). That is, the movement distance is calculated between the template area 37-1 and the search area 38-1, and the movement distance between the template area 37-1 to 37-9 and the search area 38-1 to 38-9 is calculated in the same manner. Calculated. The movement distance can be calculated using the same method as in step S26.

その後、全てのテンプレート領域37及び探索領域38に対して移動距離が計算されたかが判断される(ステップS86)。本実施例では、テンプレート領域37及び探索領域38が、テンプレート領域37−1〜37−9、探索領域38−1〜38−9と各9個設定されており、その9個全てに対して移動距離が算出されたかが判断される。   Thereafter, it is determined whether the movement distance has been calculated for all template regions 37 and search regions 38 (step S86). In the present embodiment, nine template areas 37-1 to 37-9 and nine search areas 38-1 to 38-9 are set for the template area 37 and the search area 38, respectively. It is determined whether the distance has been calculated.

全てのテンプレート領域37及び探索領域38に対して移動距離が計算されていない場合には、ステップS84へ戻り、再度移動距離の算出を行う。   If the movement distance is not calculated for all the template areas 37 and the search areas 38, the process returns to step S84, and the movement distance is calculated again.

全てのテンプレート領域37及び探索領域38に対して移動距離が計算された場合には、ステップS86で求められた複数の移動距離の中で最も頻度の高い移動距離(最多頻度移動距離)が算出される(ステップS88)。最多頻度移動距離の算出は、ステップS86で求められた複数の移動距離のヒストグラムを作成し、その中で最も度数が多い階級の中央値を最多頻度移動距離として算出してもよいし、ステップS86で求められた複数の移動距離のヒストグラムを作成し、そのヒストグラムの重心を計算し、その値を最多頻度移動距離として算出してもよい。   When the movement distances are calculated for all the template areas 37 and the search areas 38, the most frequent movement distance (the most frequent movement distance) among the plurality of movement distances obtained in step S86 is calculated. (Step S88). The calculation of the most frequent movement distance may be performed by creating a histogram of the plurality of movement distances obtained in step S86 and calculating the median value of the class having the highest frequency as the most frequent movement distance. It is also possible to create a histogram of a plurality of movement distances obtained in step 1, calculate the center of gravity of the histogram, and calculate the value as the most frequent movement distance.

そして、ステップS88で求められた最多頻度移動距離を用いて、画像20、21が移動される(ステップS90)。   Then, the images 20 and 21 are moved using the most frequently moved distance obtained in step S88 (step S90).

これにより、第3の注目領域、第4の注目領域であるテンプレート領域、探索領域により濃度特徴量を利用した位置合わせが終了し、画像20、21が局所的に位置合わせされ、横方向(体軸方向であるy方向に垂直なx方向)のみでなく縦方向(y方向)の精密な位置合わせが終了される。   Thereby, the registration using the density feature amount by the third attention area, the template area which is the fourth attention area, and the search area is finished, and the images 20 and 21 are locally aligned, and the horizontal direction (body The precise alignment not only in the axial direction (x direction perpendicular to the y direction) but also in the vertical direction (y direction) is completed.

濃度特徴量を利用した位置合わせ処理2(局所的な位置合わせ)が終了したら、画像20、21を貼り合わせた部分の濃度値補正処理(ステップS50〜S54)、生成された長尺画像の表示(ステップS56)。が行われる。なお、ステップS50〜S56の処理は、第1の実施の形態と同一であるため、詳細な説明は省略する。   When the registration process 2 (local registration) using the density feature amount is completed, the density value correction process (steps S50 to S54) of the part where the images 20 and 21 are bonded together, and the display of the generated long image (Step S56). Is done. In addition, since the process of step S50-S56 is the same as 1st Embodiment, detailed description is abbreviate | omitted.

本実施の形態によれば、大まかな位置合わせが行なわれた部分から抽出された、複数の第3の注目領域であるテンプレート領域と、複数個所の第4の注目領域である探索領域との相関に基づいて、2枚の画像の局所的な位置合わせを行なうことにより、自動的に高精度の位置合わせを行なうことができる。   According to the present embodiment, the correlation between a plurality of template regions that are third attention regions and a plurality of fourth attention regions that are extracted from a portion where rough positioning has been performed. Based on the above, by performing the local alignment of the two images, it is possible to automatically perform the high-accuracy alignment.

<第4の実施の形態>
上記第1の実施の形態の医用画像処理装置では、濃度特徴量を利用した大まかな位置合わせの後で、形状特徴量を利用した局所的な位置合わせを行なったが、これに限定されるものではない。
<Fourth embodiment>
In the medical image processing apparatus according to the first embodiment, the local alignment using the shape feature amount is performed after the rough alignment using the density feature amount. However, the present invention is not limited to this. is not.

本実施の形態の医用画像処理装置は、2通りの方法で局所的な位置合わせを行なって結果を比較するものである。図13は、本発明に係る第4の実施の形態の医用画像処理装置10cの処理の流れを示すフローチャートである。なお、図中、第1の実施の形態、第2の実施の形態又は第3の実施の形態と同一の部分については、同一の符号を付し、説明を省略する。   The medical image processing apparatus according to the present embodiment performs local alignment by two methods and compares the results. FIG. 13 is a flowchart showing a processing flow of the medical image processing apparatus 10c according to the fourth embodiment of the present invention. In the figure, the same portions as those in the first embodiment, the second embodiment, or the third embodiment are denoted by the same reference numerals, and the description thereof is omitted.

まず、磁気ディスク13に保存されている2枚の画像20、21と、画像に添付されている付帯情報とが主メモリ12に読み込まれる(ステップS10)。   First, the two images 20 and 21 stored on the magnetic disk 13 and the accompanying information attached to the images are read into the main memory 12 (step S10).

次に、読み出した2枚の画像20、21から、位置合わせ処理で用いる領域(計算対象領域)を抽出する処理が行われる(ステップS12〜S18)。   Next, a process of extracting an area (calculation target area) used in the alignment process is performed from the two read images 20 and 21 (steps S12 to S18).

次に、画像20、21に対して大まかな位置合わせが行われる(ステップS20〜S28)。   Next, rough alignment is performed on the images 20 and 21 (steps S20 to S28).

なお、ステップS10〜S28の処理は、第1の実施の形態と同一であるため、詳細な説明は省略する。   In addition, since the process of step S10-S28 is the same as 1st Embodiment, detailed description is abbreviate | omitted.

画像20、21が大まかに位置合わせされたら、画像20、21が大まかに位置合わせされた画像20、22に対して、局所的な位置合わせが行われる(ステップS30〜S96)。以下、局所的な位置合わせについて説明する。   When the images 20 and 21 are roughly aligned, local alignment is performed on the images 20 and 22 on which the images 20 and 21 are roughly aligned (steps S30 to S96). Hereinafter, local alignment will be described.

まずは、形状特徴量を利用した位置合わせ処理(局所的な位置合わせ1)が行われる(ステップS30〜S47)。   First, alignment processing (local alignment 1) using shape feature values is performed (steps S30 to S47).

まず、位置合わせ処理を行なうための処理範囲33が設定される(ステップS30)。   First, a processing range 33 for performing alignment processing is set (step S30).

処理範囲33の中のあるy方向の位置Yにおいて、x方向の全ての画素Y’の濃度が加算され(ステップS32)、この濃度加算処理が、処理範囲33全てに対して行われたかどうかが判定される(ステップS34)。   At a position Y in the y direction in the processing range 33, the densities of all the pixels Y ′ in the x direction are added (step S32), and whether or not this density addition processing has been performed on all the processing ranges 33. Determination is made (step S34).

処理範囲33全てに対して濃度加算処理が行われていない場合(ステップS34でNOの場合)は、ステップS32へ戻り、再度濃度加算処理が行われる。   If the density addition process has not been performed on the entire processing range 33 (NO in step S34), the process returns to step S32, and the density addition process is performed again.

処理範囲33全てに対して濃度加算処理が行われた場合(ステップS34でYESの場合)は、注目部位(脊椎)のレングスが計測される(ステップS36)。   When the density addition processing has been performed on the entire processing range 33 (YES in step S34), the length of the site of interest (spine) is measured (step S36).

次に、注目部位(脊椎)のy値、レングスが求められる(ステップS38)。   Next, the y value and length of the site of interest (spine) are obtained (step S38).

全ての注目部位(脊椎)について処理が終了したら、注目部位(脊椎)のy値、レングスの相関をとることにより、計測したレングス変化が求められる(ステップS40)。   When the processing is completed for all the target regions (vertebrae), the measured length change is obtained by correlating the y value and the length of the target region (spine) (step S40).

その後、注目部位(脊椎)のy値、レングスより理想的なレングス変化が求められる(ステップS42)。   Thereafter, an ideal length change is obtained from the y value and length of the site of interest (spine) (step S42).

計測したレングス変化を示す近似線50及び理想的なレングス変化を示す近似線51が作成されたら、計測したレングス変化を示す近似線50と理想的なレングス変化を示す近似線51とが一致するかどうかが判断される(ステップS44)。   When the approximate line 50 indicating the measured length change and the approximate line 51 indicating the ideal length change are created, does the approximate line 50 indicating the measured length change match the approximate line 51 indicating the ideal length change? It is determined whether or not (step S44).

なお、ステップS30〜S44の処理は、第1の実施の形態と同一であるため、詳細な説明は省略する。   In addition, since the process of step S30-S44 is the same as 1st Embodiment, detailed description is abbreviate | omitted.

計測したレングス変化を示す近似線50と理想的なレングス変化を示す近似線51とが一致しない場合には、計測したレングス変化を示す近似線50と理想的なレングス変化を示す近似線51との差(ずれ量)が計算され、このずれ量(図6参照)が形状特徴量を利用した位置合わせでの移動量pと設定される(ステップS47)。   When the approximate line 50 indicating the measured length change does not match the approximate line 51 indicating the ideal length change, the approximate line 50 indicating the measured length change and the approximate line 51 indicating the ideal length change. The difference (deviation amount) is calculated, and this deviation amount (see FIG. 6) is set as the movement amount p in the alignment using the shape feature quantity (step S47).

計測したレングス変化を示す近似線50と理想的なレングス変化を示す近似線51とが一致する場合には、画像20と画像21とが正確に位置合わせされていると判断されるため、形状特徴量を利用した位置合わせでの移動量pが0に設定される。   When the approximate line 50 indicating the measured length change matches the approximate line 51 indicating the ideal length change, it is determined that the image 20 and the image 21 are accurately aligned. The movement amount p in the alignment using the amount is set to zero.

これにより、ステップS30〜S47に示す形状特徴量を利用した位置合わせ処理(局所的な位置合わせ1)が終了される。   Thereby, the alignment process (local alignment 1) using the shape feature amount shown in steps S30 to S47 is completed.

次に、大まかに位置合わせされた画像20、21に対して、濃度特徴量を利用した位置合わせ処理1(局所的な位置合わせ2)が行われる(ステップS60〜S75)。   Next, alignment processing 1 (local alignment 2) using density feature amounts is performed on the roughly aligned images 20 and 21 (steps S60 to S75).

ステップS24において画像(上部画像)21に設定された探索領域32の内部に、テンプレート領域35―nが設定される(ステップS60)。また、画像(下部画像)20についても、ステップS22において画像(下部画像)20に設定されたテンプレート領域31の内部に、探索領域36が設定される(ステップS62)。   A template area 35-n is set inside the search area 32 set in the image (upper image) 21 in step S24 (step S60). Also for the image (lower image) 20, the search area 36 is set inside the template area 31 set in the image (lower image) 20 in step S22 (step S62).

テンプレート領域35―n及び探索領域36が設定された後で、n=1に設定される(ステップS64)。   After the template area 35-n and the search area 36 are set, n = 1 is set (step S64).

その後、テンプレート領域35−nを探索領域36の範囲内で上下に動かす(ステップS66)ことにより、テンプレート領域35−nにおける移動距離が算出される(ステップS68)。   Then, the movement distance in the template area 35-n is calculated by moving the template area 35-n up and down within the search area 36 (step S66) (step S68).

そして、n=Nかが判断される(ステップS72)。   Then, it is determined whether n = N (step S72).

n=Nで無い(ステップS72でNO)場合には、n=n+1に設定され(ステップS70)、その後ステップS66に戻り、テンプレート領域35−nが再度設定される。   If n = N is not satisfied (NO in step S72), n = n + 1 is set (step S70), and then the process returns to step S66, where the template area 35-n is set again.

なお、ステップS60〜S70の処理は、第2の実施の形態と同一であるため、詳細な説明は省略する。   In addition, since the process of step S60-S70 is the same as 2nd Embodiment, detailed description is abbreviate | omitted.

n=N(ステップS72でYES)の場合には、ステップS68で求められた複数の移動距離の中で最も頻度の高い移動距離(最多頻度移動距離)が算出され、この最多頻度移動距離が形状特徴量を利用した位置合わせでの移動量qとして設定される(ステップS75)。   In the case of n = N (YES in step S72), the most frequent travel distance (most frequent travel distance) is calculated among the plurality of travel distances obtained in step S68, and this most frequent travel distance is the shape. It is set as the movement amount q in the alignment using the feature amount (step S75).

なお、最多頻度移動距離の算出は、ステップS68で求められた複数の移動距離のヒストグラムを作成し、その中で最も度数が多い階級の中央値を最多頻度移動距離として算出してもよいし、ステップS68で求められた複数の移動距離のヒストグラムを作成し、そのヒストグラムの重心を計算し、その値を最多頻度移動距離として算出してもよい。   The calculation of the most frequent movement distance may be performed by creating a histogram of the plurality of movement distances obtained in step S68 and calculating the median of the class with the highest frequency as the most frequent movement distance. A histogram of a plurality of movement distances obtained in step S68 may be created, the center of gravity of the histogram may be calculated, and the value may be calculated as the most frequent movement distance.

これにより、ステップS60〜S75に示す濃度特徴量を利用した位置合わせ処理1(局所的な位置合わせ2)が終了される。   Thereby, the registration process 1 (local registration 2) using the density feature amount shown in steps S60 to S75 is completed.

形状特徴量を利用した位置合わせ処理(局所的な位置合わせ1)及び濃度特徴量を利用した位置合わせ処理1(局所的な位置合わせ2)が終了したら、ステップS47で求められた形状特徴量を利用した位置合わせ処理(局所的な位置合わせ1)での移動量pと、ステップS75で求められた濃度特徴量を利用した位置合わせ処理1(局所的な位置合わせ2)での移動量qとの差が、閾値(例えば1画素)以下であるかどうかが判断される(ステップS92)。なお、その閾値は、所定の値があらかじめ設定されているが、作業者が変更することも可能である。   When the registration processing (local registration 1) using the shape feature amount and the registration processing 1 (local registration 2) using the density feature amount are completed, the shape feature amount obtained in step S47 is obtained. The amount of movement p in the used alignment processing (local alignment 1), and the amount of movement q in the alignment processing 1 (local alignment 2) using the density feature obtained in step S75. It is determined whether or not the difference is equal to or less than a threshold (for example, one pixel) (step S92). The threshold value is set in advance, but can be changed by an operator.

移動量pと移動量qとの差が閾値以下である場合(ステップS92でYESの場合)には、移動量qが局所的な位置合わせにおける移動量と設定され(ステップS94)、画像20、21が移動される(ステップS96)。   When the difference between the movement amount p and the movement amount q is equal to or smaller than the threshold value (in the case of YES in step S92), the movement amount q is set as the movement amount in the local alignment (step S94), and the image 20, 21 is moved (step S96).

移動量pと移動量qとの差が閾値以下でない場合(ステップS92でNOの場合)には、ステップS20へ戻り、再度大まかな位置合わせ、形状特徴量を利用した位置合わせ処理(局所的な位置合わせ1)及び濃度特徴量を利用した位置合わせ処理1(局所的な位置合わせ2)が行われる。なお、この場合に設定されるテンプレート領域、探索領域又は処理範囲は、1回目に行われる場合でのテンプレート領域、探索領域又は処理範囲より小さく設定される。   If the difference between the movement amount p and the movement amount q is not less than or equal to the threshold value (NO in step S92), the process returns to step S20, and the rough alignment is performed again. Alignment 1) and alignment processing 1 (local alignment 2) using density feature amounts are performed. Note that the template area, search area, or processing range set in this case is set to be smaller than the template area, search area, or processing range that is used for the first time.

これにより、ステップS30〜S96に示す局所的な位置合わせが終了され、画像20、21が横方向(体軸方向であるy方向に垂直なx方向)のみでなく縦方向(y方向)の精密な位置合わせが行われる。   As a result, the local alignment shown in steps S30 to S96 is completed, and the images 20 and 21 are accurate not only in the horizontal direction (x direction perpendicular to the y direction which is the body axis direction) but also in the vertical direction (y direction). Alignment is performed.

なお、本実施の形態では、移動量pと移動量qとの差が閾値以下である場合において、移動量qを用いて画像20、21を移動させたが、これに限らず、移動量pを用いてもよいし、移動量pと移動量qとを比較して、どちらか小さい方を用いるようにしてもよい。   In the present embodiment, when the difference between the movement amount p and the movement amount q is less than or equal to the threshold value, the images 20 and 21 are moved using the movement amount q. Alternatively, the movement amount p and the movement amount q may be compared, and the smaller one may be used.

局所的な位置合わせが終了されたら、画像20、21を貼り合わせた部分の濃度値補正処理(ステップS50〜S54)が行われ、画像がモニタに表示される(ステップS56)。なお、ステップS50〜S56の処理は、第1の実施の形態と同一であるため、詳細な説明は省略する。   When the local alignment is completed, density value correction processing (steps S50 to S54) is performed on the portion where the images 20 and 21 are bonded, and the image is displayed on the monitor (step S56). In addition, since the process of step S50-S56 is the same as 1st Embodiment, detailed description is abbreviate | omitted.

本実施の形態によれば、形状特徴量を利用した位置合わせ処理(局所的な位置合わせ1)と、濃度特徴量を利用した位置合わせ処理1(局所的な位置合わせ2)との2通りの方法で局所的な位置合わせを行ない、それらの差が所定の閾値以下であるかどうかを確認することにより、より正確に、かつより確実に局所的な位置合わせを行なうことができる。   According to the present embodiment, there are two types of alignment processing (local alignment 1) using shape feature amounts and alignment processing 1 (local alignment 2) using density feature amounts. By performing local alignment by the method and confirming whether or not the difference is equal to or less than a predetermined threshold value, the local alignment can be performed more accurately and more reliably.

<第5の実施の形態>
上記第1の実施の形態の医用画像処理装置では、一部が重複するように撮影位置を被検体の体軸方向に移動させて撮影された2枚の画像に対して、まず大まかに位置合わせを行ない、その後局所的な位置合わせを行なうことによって正確に位置合わせを行なうものであるが、これに限定されるものではない。
<Fifth embodiment>
In the medical image processing apparatus according to the first embodiment, first, rough alignment is performed on two images captured by moving the imaging position in the body axis direction of the subject so that a part of the medical image processing apparatus overlaps. However, the present invention is not limited to this.

本実施の形態の医用画像処理装置は、被検体の体軸方向に連続して撮影された断層像に対して、まず大まかに位置合わせを行ない、その後局所的な位置合わせを行なうことによって正確に位置合わせを行なうものである。図14は、本発明に係る第5の実施の形態の医用画像処理装置10dの処理の流れを示すフローチャートである。なお、図中、第1の実施の形態と同一の部分については、同一の符号を付し、説明を省略する。   The medical image processing apparatus according to the present embodiment accurately aligns a tomographic image continuously taken in the body axis direction of a subject by first roughly aligning and then performing local alignment. Alignment is performed. FIG. 14 is a flowchart showing a process flow of the medical image processing apparatus 10d according to the fifth embodiment of the present invention. In the figure, the same portions as those of the first embodiment are denoted by the same reference numerals, and description thereof is omitted.

以下の処理は、医用画像撮影装置2のひとつであるX線CT装置で撮影された被検体の断層像及び画像データベース4に保存されている過去に撮影された同じ被検体の断層像が、医用画像処理装置10へ読みこまれた後で開始される。なお、撮影時期の異なる同じ被検体の断層像が画像データベース4から医用画像処理装置10へ読みこまれた後で開始されるようにしてもよい。なお、医用画像処理装置10に読みこまれた画像データは、一旦磁気ディスク13に保存される。   In the following processing, a tomographic image of a subject imaged by an X-ray CT apparatus, which is one of the medical image capturing devices 2, and a tomographic image of the same subject imaged in the past stored in the image database 4 are medically used. The process is started after reading into the image processing apparatus 10. Note that it may be started after the tomographic images of the same subject having different imaging timings are read from the image database 4 to the medical image processing apparatus 10. Note that the image data read by the medical image processing apparatus 10 is temporarily stored in the magnetic disk 13.

最初に、異なる時期に撮影された2組の断層像En、Fn(n=1〜N、図15参照)に対して、体軸方向の位置合わせ処理(大まかな位置合わせ2)が行われる(ステップS100〜S152)。本実施例では、異なる時期に撮影された2組の断層像から気管支分岐部を特定し、過去に撮影された断層像の気管支分岐部と最近撮影された断層像の気管支分岐部との位置を一致させることによって、異なる時期に撮影された2組の断層像の体軸方向の位置を合わせる、という処理である。以下、大まかな位置合わせ2について説明する。   First, alignment processing (rough alignment 2) in the body axis direction is performed on two sets of tomographic images En and Fn (n = 1 to N, see FIG. 15) photographed at different times ( Steps S100 to S152). In this embodiment, the bronchial bifurcation is identified from two sets of tomographic images taken at different times, and the positions of the bronchial bifurcation of the tomographic image taken in the past and the bronchial bifurcation of the recently taken tomographic image are determined. This is a process of matching the positions in the body axis direction of two sets of tomographic images taken at different times by matching. Hereinafter, the rough alignment 2 will be described.

まず、過去に撮影された被検体の断層像(過去画像)En(n=1〜N、図15(a)参照)に対して、体軸方向の位置合わせを行なうスライスを特定する処理を行う(ステップS100〜S124)。   First, processing for specifying a slice to be aligned in the body axis direction is performed on a tomographic image (past image) En (n = 1 to N, see FIG. 15A) of a subject imaged in the past. (Steps S100 to S124).

最初に、特徴領域抽出処理を行う(ステップS100〜S114)。以下、特徴領域抽出処理について説明する。   First, feature area extraction processing is performed (steps S100 to S114). Hereinafter, the feature region extraction process will be described.

磁気ディスク13に保存されている、過去画像En(n=1〜N)と、画像に添付されている付帯情報とが主メモリ12に読み込まれる(ステップS100)。付帯情報には、例えば、過去画像Enを撮影した撮影した日時の情報等が含まれている。   The past image En (n = 1 to N) and the incidental information attached to the image stored in the magnetic disk 13 are read into the main memory 12 (step S100). The incidental information includes, for example, information on the date and time when the past image En was captured.

n=1に設定される(ステップS102)。すなわち、過去画像Enの先頭のスライスE1から処理が開始される。   n = 1 is set (step S102). That is, the process starts from the first slice E1 of the past image En.

その後、閾値が決定される(ステップS104)。この閾値は、位置合わせ処理で用いる領域が明確に分離されるような最適な値があらかじめ設定されている。なお、過去画像Enに含まれるCT値の範囲内における最多頻度を示すCT値を中央値として、その下限値、上限値を探索することにより、閾値を自動設定するようにしてもよい。   Thereafter, a threshold value is determined (step S104). This threshold value is set in advance to an optimum value that clearly separates the area used in the alignment process. Note that the threshold value may be automatically set by searching for the lower limit value and the upper limit value with the CT value indicating the highest frequency within the range of CT values included in the past image En as the median value.

そして、ステップS104で決定された閾値に基づいて、過去画像Enに対して閾値処理が行われることにより、過去画像Enの二値化画像が作成される(ステップS106)。   Then, based on the threshold determined in step S104, threshold processing is performed on the past image En, thereby creating a binary image of the past image En (step S106).

ステップS106で作成された二値化画像に二次元ラベリング処理を行ない、最大面積のラベル領域を用いることにより体領域が作成される(ステップS108)。   A two-dimensional labeling process is performed on the binarized image created in step S106, and a body region is created by using the label region of the maximum area (step S108).

ステップS108で作成された体領域と2値化処理した領域とを論理演算することにより、体領域内の空気領域が抽出される(ステップS110)。   An air region in the body region is extracted by performing a logical operation on the body region created in step S108 and the binarized region (step S110).

ステップS110で作成した空気領域に対して、体領域の中央付近にあり、孤立している領域を特徴領域として抽出する(ステップS112)。ここで、特徴領域とは気管、気管支領域である。   An isolated region that is near the center of the body region with respect to the air region created in step S110 is extracted as a feature region (step S112). Here, the characteristic regions are the trachea and the bronchial region.

そして、n=Nであるか、すなわち過去画像Enの全てのスライスに対して、上記処理が終了したかが判断される(ステップS114)。   Then, it is determined whether n = N, that is, whether the above processing has been completed for all slices of the past image En (step S114).

全てのスライスに対して特徴領域が抽出されていない場合(ステップS114でNOの場合)には、n=N+1に設定(ステップS115)、した後で、ステップS104に戻る。すなわち、次のスライスEnに対して閾値設定(ステップS104)を行う。   If feature regions have not been extracted for all slices (NO in step S114), n = N + 1 is set (step S115), and the process returns to step S104. That is, threshold setting (step S104) is performed for the next slice En.

全てのスライスに対して特徴領域が抽出されている場合(ステップS114でYESの場合)には、特徴領域抽出処理を終了する。   If feature regions have been extracted for all slices (YES in step S114), the feature region extraction process ends.

特徴領域抽出処理が終了したら、特徴領域に特徴があるスライス、すなわち特徴領域である気管支領域が分岐する気管支分岐部があるスライスを特定する(ステップS116〜S124)。   When the feature region extraction process is completed, a slice having a feature in the feature region, that is, a slice having a bronchial bifurcation where the bronchial region that is the feature region branches is identified (steps S116 to S124).

n=1に設定される(ステップS116)。すなわち、過去画像Enの先頭のスライスE1から処理が開始される。   n = 1 is set (step S116). That is, the process starts from the first slice E1 of the past image En.

特徴領域が1箇所であるかが判断される(ステップS118)。すなわち、そのスライスの中に気管支が1本含まれているかが判断される。   It is determined whether there is one feature region (step S118). That is, it is determined whether one bronchus is included in the slice.

特徴領域が1箇所でない場合(ステップS118でNO)の場合には、n=n+1に設定し(ステップS119)、ステップS118に戻る。すなわち、次のスライスに進み、再度特徴領域が1箇所であるかの判断が行われる(ステップS118)。   If there is not one feature region (NO in step S118), n = n + 1 is set (step S119), and the process returns to step S118. That is, the process proceeds to the next slice, and it is determined again whether there is one feature region (step S118).

特徴領域が1箇所である場合(ステップS118でYES)の場合には、スライスEnの特徴領域とスライスEn+1の特徴領域が連続しているかが判断される(ステップS120)。すなわち、スライスEnに含まれる気管支と、スライスEn+1に含まれる気管支が連続しているかが判断される。   If there is one feature region (YES in step S118), it is determined whether the feature region of slice En and the feature region of slice En + 1 are continuous (step S120). That is, it is determined whether the bronchus included in the slice En and the bronchus included in the slice En + 1 are continuous.

スライスEnの特徴領域とスライスEn+1の特徴領域が連続していない場合(ステップS120でNO)には、n=n+1に設定し(ステップS119)、ステップS118に戻る。すなわち、次のスライスに進み、再度特徴領域が1箇所であるかの判断が行われる(ステップS118)。   If the feature region of slice En and the feature region of slice En + 1 are not continuous (NO in step S120), n = n + 1 is set (step S119), and the process returns to step S118. That is, the process proceeds to the next slice, and it is determined again whether there is one feature region (step S118).

スライスEnの特徴領域とスライスEn+1の特徴領域が連続している場合(ステップS120でYES)には、スライスEn+1の特徴領域が2箇所であるかが判断される(ステップS122)。すなわち、スライスEnで1本であったスライスがスライスEn+1において2本になっているかどうか、つまり、気管支が分岐している気管支分岐部であるかどうかが判断される。   If the feature region of slice En and the feature region of slice En + 1 are continuous (YES in step S120), it is determined whether there are two feature regions of slice En + 1 (step S122). That is, it is determined whether or not there is two slices in slice En + 1, that is, one bronchus branch portion where the bronchus is branched.

スライスEn+1の特徴領域が2箇所でない場合(ステップS122でNO)には、n=n+1に設定し(ステップS119)、ステップS118に戻る。すなわち、次のスライスに進み、再度特徴領域が1箇所であるかの判断が行われる(ステップS118)。   If there are not two feature regions in the slice En + 1 (NO in step S122), n = n + 1 is set (step S119), and the process returns to step S118. That is, the process proceeds to the next slice, and it is determined again whether there is one feature region (step S118).

スライスEn+1の特徴領域が2箇所である場合(ステップS122でYES)には、このスライスEnを過去画像における位置合わせを行なうスライスと特定する(ステップS124)。   If there are two feature regions of the slice En + 1 (YES in step S122), the slice En is identified as a slice to be aligned in the past image (step S124).

これにより、過去画像Enにおいて、位置合わせを行なうスライス、すなわち、気管支分岐部を含むスライスが特定される。   Thereby, in the past image En, a slice to be aligned, that is, a slice including a bronchial bifurcation is specified.

過去画像Enに対して、体軸方向の位置合わせを行なうスライスを特定する処理が終了したら、最近撮影された被検体の断層像(現在画像)Fn(n=1〜N、図15(b)参照)に対して、体軸方向の位置合わせを行なうスライスを特定する処理を行う(ステップS126〜S150)。   When the process of specifying the slice for positioning in the body axis direction with respect to the past image En is completed, the tomographic image (current image) Fn (n = 1 to N, FIG. 15B) of the subject imaged recently. (Refer to step S126 to S150) for identifying a slice to be aligned in the body axis direction.

最初に、特徴領域抽出処理を行う(ステップS126〜S140)。以下、特徴領域抽出処理について説明する。   First, feature area extraction processing is performed (steps S126 to S140). Hereinafter, the feature region extraction process will be described.

磁気ディスク13に保存されている、現在画像Fn(n=1〜N)と、画像に添付されている付帯情報とが主メモリ12に読み込まれる(ステップS126)。付帯情報には、例えば、現在画像Fnを撮影した撮影した日時の情報等が含まれている。   The current image Fn (n = 1 to N) and the incidental information attached to the image stored in the magnetic disk 13 are read into the main memory 12 (step S126). The incidental information includes, for example, information on the date and time when the current image Fn was taken.

n=1に設定される(ステップS128)。すなわち、現在画像Fnの先頭のスライスF1から処理が開始される。   n = 1 is set (step S128). That is, the processing starts from the first slice F1 of the current image Fn.

その後、閾値が決定される(ステップS130)。この閾値は、位置合わせ処理で用いる領域が明確に分離されるような最適な値があらかじめ設定されている。なお、現在画像Fnに含まれるCT値の範囲内における最多頻度を示すCT値を中央値として、その下限値、上限値を探索することにより、閾値を自動設定するようにしてもよい。   Thereafter, a threshold value is determined (step S130). This threshold value is set in advance to an optimum value that clearly separates the area used in the alignment process. The threshold value may be automatically set by searching for the lower limit value and the upper limit value with the CT value indicating the most frequent frequency within the range of CT values included in the current image Fn as the median value.

そして、ステップS130で決定された閾値に基づいて、現在画像Fnに対して閾値処理が行われることにより、現在画像Fnの二値化画像が作成される(ステップS132)。   Then, based on the threshold value determined in step S130, threshold processing is performed on the current image Fn to create a binary image of the current image Fn (step S132).

ステップS132で作成された二値化画像に二次元ラベリング処理を行ない、最大面積のラベル領域を用いることにより体領域が作成される(ステップS134)。   A two-dimensional labeling process is performed on the binarized image created in step S132, and a body region is created by using the label region of the maximum area (step S134).

ステップS134で作成された体領域と2値化処理した領域とを論理演算することにより、体領域内の空気領域が抽出される(ステップS136)。   An air region in the body region is extracted by performing a logical operation on the body region created in step S134 and the binarized region (step S136).

ステップS136で作成した空気領域に対して、体領域の中央付近にあり、孤立している領域を特徴領域として抽出する(ステップS138)。ここで、特徴領域とは気管、気管支領域である。   An isolated region that is near the center of the body region with respect to the air region created in step S136 is extracted as a feature region (step S138). Here, the characteristic regions are the trachea and the bronchial region.

そして、n=Nであるか、すなわち現在画像Fnの全てのスライスに対して、上記処理が終了したかが判断される(ステップS140)。   Then, it is determined whether n = N, that is, whether the above processing has been completed for all slices of the current image Fn (step S140).

全てのスライスに対して特徴領域が抽出されていない場合(ステップS140でNOの場合)には、n=N+1に設定(ステップS141)、した後で、ステップS130に戻る。すなわち、次のスライスFnに対して閾値設定(ステップS130)を行う。   If feature regions have not been extracted for all slices (NO in step S140), n = N + 1 is set (step S141), and the process returns to step S130. That is, threshold setting (step S130) is performed for the next slice Fn.

全てのスライスに対して特徴領域が抽出されている場合(ステップS140でYESの場合)には、特徴領域抽出処理を終了する。   If feature regions have been extracted for all slices (YES in step S140), the feature region extraction process ends.

特徴領域抽出処理が終了したら、特徴領域に特徴があるスライス、すなわち特徴領域である気管支領域が分岐する気管支分岐部があるスライスを特定する(ステップS142〜S150)。   When the feature region extraction processing is completed, a slice having a feature in the feature region, that is, a slice having a bronchial bifurcation where the bronchial region that is the feature region branches is identified (steps S142 to S150).

n=1に設定される(ステップS142)。すなわち、現在画像Fnの先頭のスライスF1から処理が開始される。   n = 1 is set (step S142). That is, the processing starts from the first slice F1 of the current image Fn.

特徴領域が1箇所であるかが判断される(ステップS144)。すなわち、そのスライスの中に気管支が1本含まれているかが判断される。   It is determined whether there is one feature region (step S144). That is, it is determined whether one bronchus is included in the slice.

特徴領域が1箇所でない場合(ステップS144でNO)の場合には、n=n+1に設定し(ステップS145)、ステップS144に戻る。すなわち、次のスライスに進み、再度特徴領域が1箇所であるかの判断が行われる(ステップS144)。   If there is not one feature region (NO in step S144), n = n + 1 is set (step S145), and the process returns to step S144. That is, the process proceeds to the next slice, and it is determined again whether there is one feature region (step S144).

特徴領域が1箇所である場合(ステップS144でYES)の場合には、スライスFnの特徴領域とスライスFn+1の特徴領域が連続しているかが判断される(ステップS146)。すなわち、スライスFnに含まれる気管支と、スライスFn+1に含まれる気管支が連続しているかが判断される。   When there is one feature region (YES in step S144), it is determined whether the feature region of slice Fn and the feature region of slice Fn + 1 are continuous (step S146). That is, it is determined whether the bronchus included in the slice Fn and the bronchus included in the slice Fn + 1 are continuous.

スライスFnの特徴領域とスライスFn+1の特徴領域が連続していない場合(ステップS146でNO)には、n=n+1に設定し(ステップS145)、ステップS144に戻る。すなわち、次のスライスに進み、再度特徴領域が1箇所であるかの判断が行われる(ステップS144)。   When the feature region of slice Fn and the feature region of slice Fn + 1 are not continuous (NO in step S146), n = n + 1 is set (step S145), and the process returns to step S144. That is, the process proceeds to the next slice, and it is determined again whether there is one feature region (step S144).

スライスFnの特徴領域とスライスFn+1の特徴領域が連続している場合(ステップS146でYES)には、スライスFn+1の特徴領域が2箇所であるかが判断される(ステップS148)。すなわち、スライスFnで1本であったスライスがスライスFn+1において2本になっているかどうか、つまり、気管支が分岐している気管支分岐部であるかどうかが判断される。   If the feature region of slice Fn and the feature region of slice Fn + 1 are continuous (YES in step S146), it is determined whether there are two feature regions of slice Fn + 1 (step S148). That is, it is determined whether or not there is two slices in the slice Fn + 1 in the slice Fn, that is, whether or not it is a bronchial bifurcation where the bronchus is branched.

スライスFn+1の特徴領域が2箇所でない場合(ステップS148でNO)には、n=n+1に設定し(ステップS145)、ステップS144に戻る。すなわち、次のスライスに進み、再度特徴領域が1箇所であるかの判断が行われる(ステップS144)。   If there are not two feature regions in the slice Fn + 1 (NO in step S148), n = n + 1 is set (step S145), and the process returns to step S144. That is, the process proceeds to the next slice, and it is determined again whether there is one feature region (step S144).

スライスFn+1の特徴領域が2箇所である場合(ステップS148でYES)には、このスライスFnを現在画像における位置合わせを行なうスライスと特定する(ステップS150)。   If there are two feature regions of slice Fn + 1 (YES in step S148), this slice Fn is identified as a slice to be aligned in the current image (step S150).

これにより、現在画像Fnにおいて、位置合わせを行なうスライス、すなわち、気管支分岐部を含むスライスが特定される。   Thereby, in the current image Fn, a slice to be aligned, that is, a slice including a bronchial bifurcation is specified.

位置合わせを行なう過去画像Enと現在画像Fnとが特定されたら、過去画像Enと現在画像Fnとの体軸方向の位置合わせを行なう(ステップS152)。例えば、図15に示すように、現在画像F1〜FNにおいて、過去画像E3(胸部)に対応するスライスをF3とし、過去画像E20(臀部)に対応するスライスをF20とすることで、過去画像Enと現在画像Fnとの体軸方向のスライスの位置を合わせる。   When the past image En and the current image Fn to be aligned are specified, the past image En and the current image Fn are aligned in the body axis direction (step S152). For example, as shown in FIG. 15, in the current images F1 to FN, the slice corresponding to the past image E3 (chest) is F3, and the slice corresponding to the past image E20 (buttock) is F20, so that the past image En And the position of the slice in the body axis direction of the current image Fn.

これにより、過去画像Enと現在画像Fnとの体軸方向の位置合わせ処理(大まかな位置合わせ)が終了する。   Thereby, the alignment process (rough alignment) of the past image En and the current image Fn in the body axis direction is completed.

過去画像Enと現在画像Fnとの体軸方向の位置合わせ処理(大まかな位置合わせ2)が終了したら、濃度特徴量を利用して、過去画像Enと現在画像Fnとの局所的な位置合わせ(ステップS154〜S180)が行われる。本実施例では、異なる時期に撮影された2組の断層像の体軸方向の位置を合わせた状態において、臓器や血管などの構造物の位置を合わせるという処理である。以下、濃度特徴量を利用した局所的な位置合わせ(濃度特徴量を利用した位置合わせ3)について説明する。   When the alignment process (rough alignment 2) between the past image En and the current image Fn in the body axis direction is completed, the local alignment (the alignment of the past image En and the current image Fn) is performed using the density feature amount. Steps S154 to S180) are performed. In the present embodiment, the processing is to align the positions of structures such as organs and blood vessels in the state in which the positions in the body axis direction of two sets of tomographic images taken at different times are aligned. Hereinafter, local registration using the density feature quantity (positioning 3 using the density feature quantity) will be described.

n=1に設定される(ステップS154)。すなわち、過去画像En及び現在画像Fnの先頭のスライスE1、F1から処理が開始される。   n = 1 is set (step S154). That is, processing is started from the first slices E1 and F1 of the past image En and the current image Fn.

まず、ステップS108及びステップS134(大まかな位置合わせ2)において抽出された体領域の大きさ及び傾きを用いて、画像サイズ(体領域の大きさ)を調整し、過去画像Enと現在画像Fnの体領域の大きさを一致させる(ステップS156)。過去と現在では、被検体の体型の変化等で体領域の大きさが一致しない場合がある。そのため、過去画像En又は現在画像Fnを拡大・縮小させることにより、スライス毎に体領域の大きさを調整し、過去画像Enの体領域の大きさと現在画像Fnの体領域の大きさとを大まかに一致させる。なお、画像の拡大・縮小は、様々な公知技術を使用できる。   First, the image size (the size of the body region) is adjusted using the size and inclination of the body region extracted in step S108 and step S134 (rough alignment 2), and the past image En and the current image Fn are adjusted. The body regions are matched in size (step S156). In the past and present, the size of the body region may not match due to a change in the body shape of the subject. Therefore, by enlarging / reducing the past image En or the current image Fn, the size of the body region is adjusted for each slice, and the size of the body region of the past image En and the size of the body region of the current image Fn are roughly set. Match. Note that various known techniques can be used for enlarging / reducing an image.

その後、過去画像En及び現在画像Fnの体領域を複数のブロックBi(i=2〜I)に分割する(ステップS158)。例えば、図16に示すように、過去画像En及び現在画像Fnに対して、ステップS110及びステップS136(大まかな位置合わせ2)において抽出された空気領域を利用して、空気領域とそうでない領域との境界を含むようなブロックBiを設定する。このときブロックB1〜BIによって体領域全体が覆われるようにする。   Thereafter, the body regions of the past image En and the current image Fn are divided into a plurality of blocks Bi (i = 2 to I) (step S158). For example, as shown in FIG. 16, with respect to the past image En and the current image Fn, using the air region extracted in step S110 and step S136 (rough alignment 2), the air region and the other region A block Bi including the boundary is set. At this time, the entire body region is covered by the blocks B1 to BI.

i=1に設定する(ステップS160)。   i = 1 is set (step S160).

過去画像Enに対してステップS158で設定されたブロックBiに、複数のテンプレート領域60が設定される(ステップS162)。図16(a)に示すように、このテンプレート領域60は、互いに重なり合わないように設定される。   A plurality of template regions 60 are set in the block Bi set in step S158 for the past image En (step S162). As shown in FIG. 16A, the template regions 60 are set so as not to overlap each other.

同様に、現在画像Fnに対してステップS158で設定されたブロックBiに、複数の探索領域61が設定される(ステップS164)。図16(b)に示すように、この探索領域61は、テンプレート領域60に対応する位置に、互いに重なり合わないように設定される。   Similarly, a plurality of search areas 61 are set in the block Bi set in step S158 for the current image Fn (step S164). As shown in FIG. 16B, the search area 61 is set at a position corresponding to the template area 60 so as not to overlap each other.

例えば、図16に示すように、テンプレート領域60−1に対しては、その対応する場所に探索領域61−1が設定される。同様にして、テンプレート領域60−1〜60−9に対して探索領域61−1〜61−9が、互いに重ならないように設定される。なお、図16では、9個のテンプレート領域60−1〜60−及び探索領域61−1〜61−9を設定したが、テンプレート領域60及び探索領域61は複数個であれば9個に限らない。   For example, as shown in FIG. 16, for the template area 60-1, a search area 61-1 is set at the corresponding location. Similarly, search areas 61-1 to 61-9 are set so as not to overlap each other with respect to template areas 60-1 to 60-9. In FIG. 16, nine template regions 60-1 to 60- and search regions 61-1 to 61-9 are set. However, the number of template regions 60 and search regions 61 is not limited to nine as long as there are a plurality of template regions 60 and search regions 61. .

なお、本実施の形態では、過去画像Enにテンプレート領域60を設定し、現在画像Fnに探索領域61を設定したが、これに限らず、過去画像Enに探索領域61を設定し、現在画像Fnにテンプレート領域60を設定してもよい。   In the present embodiment, the template area 60 is set in the past image En and the search area 61 is set in the current image Fn. However, the present invention is not limited thereto, and the search area 61 is set in the past image En and the current image Fn. The template area 60 may be set in

テンプレート領域60及び探索領域61の設定が終了したら、各々のテンプレート領域60及び探索領域61における移動距離が算出される(ステップS166)。すなわち、テンプレート領域60−1と探索領域61−1とで移動距離が算出され、同様の方法で、テンプレート領域60−1〜60−9と探索領域61−1〜61−9との移動距離が算出される。なお、移動距離の算出は、第1の実施の形態におけるステップS26と同様の方法を用いることができる。   When the setting of the template area 60 and the search area 61 is completed, the movement distance in each of the template area 60 and the search area 61 is calculated (step S166). That is, the movement distance is calculated between the template area 60-1 and the search area 61-1, and the movement distance between the template areas 60-1 to 60-9 and the search areas 61-1 to 61-9 is calculated in the same manner. Calculated. The movement distance can be calculated using the same method as in step S26 in the first embodiment.

その後、全てのテンプレート領域60及び探索領域61に対して移動距離が計算されたかが判断される(ステップS168)。本実施例では、テンプレート領域60及び探索領域61が、テンプレート領域60−1〜60−9、探索領域61−1〜61−9と各9個設定されており、その9個全てに対して移動距離が算出されたかが判断される。   Thereafter, it is determined whether the movement distance has been calculated for all the template areas 60 and the search areas 61 (step S168). In this embodiment, nine template areas 60-1 to 60-9 and nine search areas 61-1 to 61-9 are set for the template area 60 and the search area 61, respectively. It is determined whether the distance has been calculated.

全てのテンプレート領域60及び探索領域61に対して移動距離が計算されていない場合には、ステップS166へ戻り、再度移動距離の算出を行う。   If the movement distance is not calculated for all the template areas 60 and the search areas 61, the process returns to step S166, and the movement distance is calculated again.

全てのテンプレート領域60及び探索領域61に対して移動距離が計算された場合には、ステップS166で求められた複数の移動距離の中で最も頻度の高い移動距離(最多頻度移動距離)が算出される(ステップS170)。最多頻度移動距離の算出は、ステップS170で求められた複数の移動距離のヒストグラムを作成し、その中で最も度数が多い階級の中央値を最多頻度移動距離として算出してもよいし、ステップS170で求められた複数の移動距離のヒストグラムを作成し、そのヒストグラムの重心を計算し、その値を最多頻度移動距離として算出してもよい。   When the movement distances are calculated for all the template areas 60 and the search areas 61, the most frequent movement distance (the most frequent movement distance) among the plurality of movement distances obtained in step S166 is calculated. (Step S170). The calculation of the most frequent movement distance may be performed by creating a histogram of the plurality of movement distances obtained in step S170, and calculating the median value of the class having the highest frequency as the most frequent movement distance. It is also possible to create a histogram of a plurality of movement distances obtained in step 1, calculate the center of gravity of the histogram, and calculate the value as the most frequent movement distance.

そして、i=Iかどうか、すなわち、全てのブロックB1〜BIに対して最多頻度移動距離が算出されたかどうかが判断される(ステップS172)。   Then, it is determined whether i = I, that is, whether the most frequently moved distance is calculated for all the blocks B1 to BI (step S172).

全てのブロックB1〜BIに対して最多頻度移動距離が算出されていない場合(ステップS172でNOの場合)には、i=i+1に設定され(ステップS174)、その後ステップS162に戻る。すなわち、次のブロックBi+1に対して、テンプレート領域の設定が行われる。   If the most frequently traveled distance has not been calculated for all the blocks B1 to BI (NO in step S172), i = i + 1 is set (step S174), and then the process returns to step S162. That is, the template area is set for the next block Bi + 1.

全てのブロックB1〜BIに対して最多頻度移動距離が算出されている場合(ステップS172でYESの場合)には、あるブロックBiにおいて算出された最多頻度移動距離をこのブロックBiにおける移動距離として、全てのブロックB1〜BIをそのブロックB1〜BIにおける移動距離だけ平行移動(局所画像変形処理)させる(ステップS176)。   When the most frequent travel distance is calculated for all the blocks B1 to BI (YES in step S172), the most frequent travel distance calculated in a certain block Bi is set as the travel distance in this block Bi. All the blocks B1 to BI are translated (local image deformation processing) by the movement distance in the blocks B1 to BI (step S176).

これにより、過去画像Enと現在画像Fnとの濃度特徴量を利用した局所的な位置合わせが行われる。   Thereby, local alignment using the density feature amount of the past image En and the current image Fn is performed.

そして、n=Nかどうか、すなわち全てのスライスに対して濃度特徴量を利用した局所的な位置合わせ(ステップS156〜S176)が行われたかどうかが判断される(ステップS178)。   Then, it is determined whether or not n = N, that is, whether or not local alignment (steps S156 to S176) using density feature amounts has been performed for all slices (step S178).

全てのスライスに対して濃度特徴量を利用した局所的な位置合わせが行われていない場合(ステップS178でNOの場合)には、n=n+1に設定され(ステップS180)、その後ステップS156に戻る。すなわち、次のスライスEn+1、Fn+1に対して、拡大・縮小処理が行われる。   When local alignment using the density feature amount is not performed for all slices (NO in step S178), n = n + 1 is set (step S180), and then the process returns to step S156. . That is, enlargement / reduction processing is performed on the next slices En + 1 and Fn + 1.

全てのスライスに対して濃度特徴量を利用した局所的な位置合わせが行われている場合(ステップS178でYESの場合)には、全てのスライスに対して濃度特徴量を利用した局所的な位置合わせが終了しているため、濃度特徴量を利用した局所的な位置合わせ処理を終了する。   When local alignment using density feature values is performed for all slices (YES in step S178), local positions using density feature values for all slices. Since the alignment is complete, the local alignment process using the density feature amount is terminated.

これにより、濃度特徴量を利用して、過去画像Enと現在画像Fnとの局所的な位置合わせが終了される。   Thereby, the local alignment of the past image En and the current image Fn is completed using the density feature amount.

過去画像Enと現在画像Fnとの局所的な位置合わせが終了したら、過去画像Enと現在画像Fnとの差分画像が作成される(ステップS182)。   When the local alignment between the past image En and the current image Fn is completed, a difference image between the past image En and the current image Fn is created (step S182).

本実施の形態によれば、被検体の体軸方向に連続して撮影された断層像である過去画像と現在画像とにそれぞれ含まれる注目領域(気管支分岐)の相関に基づいて、過去画像と現在画像とを体軸方向に大まかな位置合わせを行なった後で、大まかな位置合わせが行なわれた過去画像から抽出された複数個所の第3の注目領域であるテンプレート領域と、現在画像から抽出された複数個所の第4の注目領域である探索領域との相関に基づいて、過去画像と現在画像とを体軸方向と直交する方向に局所的な位置合わせを行なうことにより、自動的に高精度の位置合わせを行なうことができる。   According to the present embodiment, based on the correlation between the attention areas (bronchial bifurcations) included in the past image and the current image, which are tomographic images continuously taken in the body axis direction of the subject, After roughly aligning the current image in the body axis direction, a plurality of template regions that are third attention regions extracted from the past image subjected to the rough alignment, and extracted from the current image Based on the correlation with the plurality of search areas that are the fourth attention areas, the past image and the current image are automatically aligned in a direction orthogonal to the body axis direction, thereby automatically increasing the height. Accurate alignment can be performed.

なお、本実施の形態では、X線CT装置で撮影された断層像に対して位置合わせを行ない、差分画像を作成したが、これに限らず、図17に示すように、X線CT装置で撮影された画像データから最大値投影によって体軸方向に平行な長尺画像を作成し、過去の長尺画像と現在の長尺画像とに対して位置合わせを行ない、差分画像を作成してもよい。   In the present embodiment, the tomographic image taken by the X-ray CT apparatus is aligned and a difference image is created. However, the present invention is not limited to this, and as shown in FIG. Even if a long image parallel to the body axis direction is created from the captured image data by the maximum value projection, the past long image and the current long image are aligned, and a difference image is created. Good.

本発明が適用された医用画像処理装置の第1の実施の形態の全体構成を示す概略図である。1 is a schematic diagram showing an overall configuration of a first embodiment of a medical image processing apparatus to which the present invention is applied. 上記医療画像装置の第1の実施の形態の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of 1st Embodiment of the said medical imaging device. 上記医療画像装置の第1の実施の形態の計算領域を抽出する処理の説明図である。It is explanatory drawing of the process which extracts the calculation area | region of 1st Embodiment of the said medical imaging device. 上記医療画像装置の第1の実施の形態の大まかな位置合わせの説明図である。It is explanatory drawing of the rough alignment of 1st Embodiment of the said medical imaging device. 上記医療画像装置の第1の実施の形態の形状特徴量を利用した位置合わせ(局所的な位置合わせ)の説明図である。It is explanatory drawing of the positioning (local positioning) using the shape feature-value of 1st Embodiment of the said medical imaging device. 上記医療画像装置の第1の実施の形態の形状特徴量を利用した位置合わせ(局所的な位置合わせ)の説明図である。It is explanatory drawing of the positioning (local positioning) using the shape feature-value of 1st Embodiment of the said medical imaging device. 上記医療画像装置の第1の実施の形態の濃度補正の説明図である。It is explanatory drawing of density correction of 1st Embodiment of the said medical imaging device. 上記医療画像装置の第1の実施の形態の表示の一例である。It is an example of the display of 1st Embodiment of the said medical imaging device. 本発明が適用された医用画像処理装置の第2の実施の形態の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of 2nd Embodiment of the medical image processing apparatus to which this invention was applied. 上記医療画像装置の第3の実施の形態の濃度特徴量を利用した位置合わせ1(局所的な位置合わせ)の説明図である。It is explanatory drawing of the positioning 1 (local positioning) using the density | concentration feature-value of 3rd Embodiment of the said medical imaging device. 本発明が適用された医用画像処理装置の第3の実施の形態の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of 3rd Embodiment of the medical image processing apparatus to which this invention was applied. 上記医療画像装置の第3の実施の形態の濃度特徴量を利用した位置合わせ2(局所的な位置合わせ)の説明図である。It is explanatory drawing of the positioning 2 (local positioning) using the density | concentration feature-value of 3rd Embodiment of the said medical imaging device. 本発明が適用された医用画像処理装置の第4の実施の形態の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of 4th Embodiment of the medical image processing apparatus to which this invention was applied. 本発明が適用された医用画像処理装置の第5の実施の形態の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of 5th Embodiment of the medical image processing apparatus to which this invention was applied. 上記医療画像装置の第5の実施の形態の大まかな位置合わせ2の説明図である。It is explanatory drawing of the rough alignment 2 of 5th Embodiment of the said medical imaging device. 上記医療画像装置の第5の実施の形態の濃度特徴量を利用した位置合わせ3(局所的な位置合わせ)の説明図である。It is explanatory drawing of the position alignment 3 (local position alignment) using the density | concentration feature-value of 5th Embodiment of the said medical imaging device. 上記医療画像装置の第5の実施の形態の変形例の説明図である。It is explanatory drawing of the modification of 5th Embodiment of the said medical imaging device.

符号の説明Explanation of symbols

10:医用画像処理装置、15:モニタ、20:下部画像、21:上部画像、31、35、37、60:テンプレート領域、32、36、38、61:探索領域 10: Medical image processing device, 15: Monitor, 20: Lower image, 21: Upper image, 31, 35, 37, 60: Template region, 32, 36, 38, 61: Search region

Claims (3)

被検体が撮影された第1の画像と、この第1の画像と一部の画像が重複する第2の画像とを取得する画像取得手段と、
前記第1の画像と第2の画像とを位置合わせしたときの重複部分の画像からそれぞれ位置合わせに用いる第1の画像上の第1の注目領域と第2の画像上の第2の注目領域とを抽出する第1の注目領域抽出手段と、
前記第1の注目領域抽出手段によって抽出された第1の注目領域内の画像と第2の注目領域内の画像との相関を求め、この相関に基づいて前記第1の画像と第2の画像の位置合わせを行う第1の位置合わせ手段と、
前記第1の位置合わせ手段によって位置合わせされた第1の画像と第2の画像とから位置合わせ部分の画像を含む所定の処理領域を抽出する処理領域抽出手段と、
前記抽出された処理領域内の画像の形状特徴量又は濃度特徴量に基づいて前記第1の画像と第2の画像との位置合わせを行う第2の位置合わせ手段と、
前記第2の位置合わせ手段によって位置合わせされた第1の画像と第2の画像とに基づいて第3の画像を作成する画像作成手段と、
前記画像作成手段によって作成された前記第3の画像を表示する表示手段と、
を備えたことを特徴とする医用画像処理装置。
Image acquisition means for acquiring a first image in which the subject is imaged and a second image in which a part of the first image overlaps with the first image;
The first region of interest on the first image and the second region of interest on the second image that are used for alignment from the images of overlapping portions when the first image and the second image are aligned First region of interest extraction means for extracting
A correlation between the image in the first region of interest and the image in the second region of interest extracted by the first region of interest extraction unit is obtained, and the first image and the second image are obtained based on this correlation. First alignment means for performing alignment of
Processing area extraction means for extracting a predetermined processing area including an image of the alignment portion from the first image and the second image aligned by the first alignment means;
Second alignment means for aligning the first image and the second image based on the shape feature amount or density feature amount of the image in the extracted processing region;
Image creating means for creating a third image based on the first image and the second image aligned by the second alignment means;
Display means for displaying the third image created by the image creation means;
A medical image processing apparatus comprising:
前記形状特徴量は、背骨の形状の連続性から求められた値であることを特徴とする請求項1に記載の医用画像処理装置。   The medical image processing apparatus according to claim 1, wherein the shape feature amount is a value obtained from continuity of a spine shape. 前記処理領域抽出手段は、前記第1の位置合わせ手段によって位置合わせされた第1の画像と第2の画像との位置合わせ領域内の複数箇所において、前記第1の注目領域よりも狭い第1の画像上の第3の注目領域と第2の注目領域よりも狭い第2の画像上の第4の注目領域とをそれぞれ抽出し、
前記第2の位置合わせ手段は、前記濃度特徴量である複数箇所毎に求められた前記抽出された第3の注目領域内の画像と前記抽出された第4の注目領域内の画像との相関に関する値に基づいて前記第1の画像と第2の画像との位置合わせを行うことを特徴とする請求項1に記載の医用画像処理装置。
The processing region extraction unit includes a first narrower region than the first region of interest at a plurality of locations in the alignment region between the first image and the second image aligned by the first alignment unit. Extracting a third region of interest on the second image and a fourth region of interest on the second image that is narrower than the second region of interest;
The second alignment means correlates the image in the extracted third region of interest obtained for each of a plurality of locations as the density feature amount and the image in the extracted fourth region of interest. The medical image processing apparatus according to claim 1, wherein alignment of the first image and the second image is performed based on a value related to the image.
JP2006249604A 2006-09-14 2006-09-14 Medical image processing device Expired - Fee Related JP4858963B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006249604A JP4858963B2 (en) 2006-09-14 2006-09-14 Medical image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006249604A JP4858963B2 (en) 2006-09-14 2006-09-14 Medical image processing device

Publications (3)

Publication Number Publication Date
JP2008067916A true JP2008067916A (en) 2008-03-27
JP2008067916A5 JP2008067916A5 (en) 2009-10-22
JP4858963B2 JP4858963B2 (en) 2012-01-18

Family

ID=39290040

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006249604A Expired - Fee Related JP4858963B2 (en) 2006-09-14 2006-09-14 Medical image processing device

Country Status (1)

Country Link
JP (1) JP4858963B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010246662A (en) * 2009-04-14 2010-11-04 Hitachi Medical Corp Image processor
WO2011043458A1 (en) * 2009-10-09 2011-04-14 株式会社 日立メディコ Medical image processing device, x-ray image capturing device, medical image processing program, and medical image processing method
US20110169864A1 (en) * 2008-09-26 2011-07-14 Koninklijke Philips Electronics N.V. Patient specific anatiomical sketches for medical reports
JP2015100642A (en) * 2013-11-27 2015-06-04 株式会社島津製作所 X-ray machine
JP2015159887A (en) * 2014-02-26 2015-09-07 株式会社島津製作所 X-ray machine
JP2017189338A (en) * 2016-04-13 2017-10-19 富士フイルム株式会社 Image positioning apparatus and method, and program
JP2019141717A (en) * 2019-05-22 2019-08-29 富士フイルム株式会社 Image positioning apparatus and method, and program
JP2020107000A (en) * 2018-12-26 2020-07-09 キヤノン株式会社 Image processing apparatus, image processing method and program
CN111526795A (en) * 2017-12-27 2020-08-11 佳能株式会社 Radiation imaging apparatus, image processing apparatus, and image specifying method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08103439A (en) * 1994-10-04 1996-04-23 Konica Corp Alignment processor for image and inter-image processor
JP2002044413A (en) * 2000-07-26 2002-02-08 Konica Corp Radiographic image processing method and processor thereof
JP2002324238A (en) * 2001-04-26 2002-11-08 Fuji Photo Film Co Ltd Method and device for positioning image
WO2006011545A1 (en) * 2004-07-30 2006-02-02 Hitachi Medical Corporation Medical image diagnosis assisting system, device and image processing program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08103439A (en) * 1994-10-04 1996-04-23 Konica Corp Alignment processor for image and inter-image processor
JP2002044413A (en) * 2000-07-26 2002-02-08 Konica Corp Radiographic image processing method and processor thereof
JP2002324238A (en) * 2001-04-26 2002-11-08 Fuji Photo Film Co Ltd Method and device for positioning image
WO2006011545A1 (en) * 2004-07-30 2006-02-02 Hitachi Medical Corporation Medical image diagnosis assisting system, device and image processing program

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10102347B2 (en) 2008-09-26 2018-10-16 Koninklijke Philips N.V. Patient specific anatiomical sketches for medical reports
US20110169864A1 (en) * 2008-09-26 2011-07-14 Koninklijke Philips Electronics N.V. Patient specific anatiomical sketches for medical reports
JP2012507066A (en) * 2008-09-26 2012-03-22 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Patient-specific anatomical sketch for medical reports
JP2010246662A (en) * 2009-04-14 2010-11-04 Hitachi Medical Corp Image processor
WO2011043458A1 (en) * 2009-10-09 2011-04-14 株式会社 日立メディコ Medical image processing device, x-ray image capturing device, medical image processing program, and medical image processing method
CN102596035A (en) * 2009-10-09 2012-07-18 株式会社日立医疗器械 Medical image processing device, x-ray image capturing device, medical image processing program, and medical image processing method
JPWO2011043458A1 (en) * 2009-10-09 2013-03-04 株式会社日立メディコ Medical image processing apparatus, X-ray imaging apparatus, medical image processing program, and medical image processing method
JP2015100642A (en) * 2013-11-27 2015-06-04 株式会社島津製作所 X-ray machine
JP2015159887A (en) * 2014-02-26 2015-09-07 株式会社島津製作所 X-ray machine
JP2017189338A (en) * 2016-04-13 2017-10-19 富士フイルム株式会社 Image positioning apparatus and method, and program
CN111526795A (en) * 2017-12-27 2020-08-11 佳能株式会社 Radiation imaging apparatus, image processing apparatus, and image specifying method
EP3714791A4 (en) * 2017-12-27 2021-11-10 Canon Kabushiki Kaisha Radiography device, image processing device, and image determination method
US11210809B2 (en) 2017-12-27 2021-12-28 Canon Kabushiki Kaisha Image processing apparatus, image determination method and non-transitory computer-readable storage medium
CN111526795B (en) * 2017-12-27 2023-05-02 佳能株式会社 Radiographic apparatus, image processing apparatus, and image specifying method
JP2020107000A (en) * 2018-12-26 2020-07-09 キヤノン株式会社 Image processing apparatus, image processing method and program
JP7346027B2 (en) 2018-12-26 2023-09-19 キヤノン株式会社 Image processing device, image processing method, and program
JP2019141717A (en) * 2019-05-22 2019-08-29 富士フイルム株式会社 Image positioning apparatus and method, and program

Also Published As

Publication number Publication date
JP4858963B2 (en) 2012-01-18

Similar Documents

Publication Publication Date Title
JP4858963B2 (en) Medical image processing device
JP5138431B2 (en) Image analysis apparatus and method, and program
JP4901254B2 (en) Pattern matching method and computer program for performing pattern matching
JP5346938B2 (en) Image processing apparatus and method of operating image processing apparatus
TWI492165B (en) Pattern matching method and device
US20110103655A1 (en) Fundus information processing apparatus and fundus information processing method
JP5210615B2 (en) Medical image diagnosis support apparatus and medical image diagnosis support program
KR20130117862A (en) Pattern matching apparatus, and computer program
JP2002150303A (en) Automatic detection of spinal axis and spinal boundary in digital radiography
US20100150418A1 (en) Image processing method, image processing apparatus, and image processing program
CN110892255B (en) Image processing apparatus, method and storage medium for detecting defect from image
JPWO2007000940A1 (en) Abnormal shadow candidate detection method, abnormal shadow candidate detection device
JP2007105264A (en) Medical picture judgment apparatus, medical picture judgment method, and program thereof
WO2014038428A1 (en) Image processing device and image processing method
JP5166909B2 (en) Inspection device and inspection method
JP2004057275A (en) Image diagnostic device
JP4401140B2 (en) Diagnostic imaging support device
JP2009045286A (en) Medical image processor, medical image diagnostic apparatus, and program
JP4453321B2 (en) Medical image processing apparatus and program
JP6687395B2 (en) Medical image processing apparatus, medical image processing method, and medical imaging apparatus
JP4408863B2 (en) Medical image processing apparatus and method
JP2018023709A (en) Image processing apparatus and image processing method
JP4738236B2 (en) Image display device
JP2001078996A (en) Three-dimensional tomographic image interpreting method, automatic collation method, its device, and record medium recording its program
CN111199533A (en) Image processing apparatus

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090721

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20090731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090908

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111026

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111026

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141111

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees