JP4915836B2 - Method, program, and apparatus for operating image processing apparatus - Google Patents

Method, program, and apparatus for operating image processing apparatus Download PDF

Info

Publication number
JP4915836B2
JP4915836B2 JP2005362332A JP2005362332A JP4915836B2 JP 4915836 B2 JP4915836 B2 JP 4915836B2 JP 2005362332 A JP2005362332 A JP 2005362332A JP 2005362332 A JP2005362332 A JP 2005362332A JP 4915836 B2 JP4915836 B2 JP 4915836B2
Authority
JP
Japan
Prior art keywords
image
noise
intraoperative
divided
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005362332A
Other languages
Japanese (ja)
Other versions
JP2007159933A (en
Inventor
拡樹 谷口
忠生 垣添
寿光 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Healthcare Manufacturing Ltd
National Cancer Center Japan
Original Assignee
Hitachi Medical Corp
National Cancer Center Japan
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Medical Corp, National Cancer Center Japan filed Critical Hitachi Medical Corp
Priority to JP2005362332A priority Critical patent/JP4915836B2/en
Publication of JP2007159933A publication Critical patent/JP2007159933A/en
Application granted granted Critical
Publication of JP4915836B2 publication Critical patent/JP4915836B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置の作動方法、プログラム、及び装置に係り、特に、磁気共鳴イメージング装置、X線CT装置および超音波装置などの医用画像撮影装置によって得られた複数の術前画像を用いて、医用画像撮影装置によって得られた術中画像上のノイズ情報や臓器変形を判別し、画像上で臓器変形が生じている場合にはレジストレーションを、ノイズ情報がある場合には除去を行うことによって、画質の高い最新の術中画像を提供する技術に関する。 The present invention relates to an operation method, a program, and an apparatus for an image processing apparatus , and in particular, uses a plurality of preoperative images obtained by a medical imaging apparatus such as a magnetic resonance imaging apparatus, an X-ray CT apparatus, and an ultrasonic apparatus. Thus, noise information and organ deformation on the intraoperative image obtained by the medical imaging apparatus are discriminated, and registration is performed when organ deformation occurs on the image, and removal is performed when noise information is present. The present invention relates to a technique for providing the latest intraoperative images with high image quality.

手術部位の三次元空間位置や姿勢を、術前または術中の医用画像でリアルタイムに認識することによって外科医の介助を行う手術を画像誘導手術という。画像誘導手術では、臓器の位置や内部形態情報の認識や手術器具と臓器との位置関係の把握を支援ながら外科手術を施行できる。   An operation that assists the surgeon by recognizing the three-dimensional spatial position and posture of the surgical site in real time with a pre- or intraoperative medical image is called an image-guided operation. In image-guided surgery, a surgical operation can be performed while supporting the recognition of the position of the organ and internal morphological information and the understanding of the positional relationship between the surgical instrument and the organ.

しかし、術前の医用画像を画像誘導手術に用いる場合、術中操作に伴う臓器の変形によって、術前に計画した三次元空間位置や姿勢と、術中の実際の三次元空間位置や姿勢にズレが生じる問題がある。そこで、近年では医用画像撮影装置で術中に撮影された術中画像で手術計画が立てられ、臓器変形の影響を極力回避できるようになった。ただし、種々の術中画像が持つ特性により、さまざまな問題があり、その選定には目的に応じて十分に気を付けなければならない。   However, when preoperative medical images are used for image-guided surgery, there is a discrepancy between the 3D spatial position and posture planned before the operation and the actual 3D spatial position and posture during the operation due to the deformation of the organ during the operation. There are problems that arise. In recent years, therefore, a surgical plan has been made with intraoperative images taken intraoperatively with a medical imaging apparatus, and the influence of organ deformation has been avoided as much as possible. However, there are various problems depending on the characteristics of various intraoperative images, and the selection must be made carefully depending on the purpose.

このような術中画像を表示するシステムの例として、特許文献1には、磁気共鳴イメージング装置(以下、MRI装置という)で得られる術中MR画像と超音波診断装置(以下、US装置という)に用いられる弾性画像との位置合わせを行い、特に手術中に撮像された画像における浮腫と悪性腫瘍の境界判定に寄与する画像表示システムが開示されている。
特開2005−102713号公報
As an example of such a system for displaying an intraoperative image, Patent Document 1 describes an intraoperative MR image obtained by a magnetic resonance imaging apparatus (hereinafter referred to as an MRI apparatus) and an ultrasonic diagnostic apparatus (hereinafter referred to as a US apparatus). An image display system that performs alignment with an elastic image obtained and contributes to determination of a boundary between edema and a malignant tumor in an image captured during surgery is disclosed.
JP 2005-102713 A

術中画像としてCT画像を画像誘導手術に用いる場合、画像歪みが少ない反面、軟部組織描出能に乏しいこと、CT撮影中に患者が被爆することなど、装置の原理上、避けられない問題がある。一方、軟部組織描出能に優れ、被爆の問題のないMRI画像を画像誘導手術に用いる場合、MRI画像の幾何学的歪みや、高速撮影に伴う画質劣化、麻酔器等の電気的ノイズを導くものや、共鳴信号の受信コイルのアンテナ特性を阻害するものによって、MRI画像の画質劣化が生じる問題がある。また、超音波装置は画像撮影の面でリアルタイム性に優れているが、CT装置やMRI装置と比較すると、画質低下は否めない。   When a CT image is used as an intraoperative image for image-guided surgery, there are problems that are unavoidable due to the principle of the device, such as low image distortion, poor soft tissue rendering ability, and patient exposure during CT imaging. On the other hand, when MRI images with excellent soft tissue visualization and no problem of exposure are used for image-guided surgery, they lead to geometric distortion of the MRI images, image quality deterioration due to high-speed imaging, and electrical noise such as anesthesia machines In addition, there is a problem that the image quality of the MRI image is deteriorated due to obstruction of the antenna characteristics of the reception coil of the resonance signal. In addition, the ultrasonic apparatus is excellent in real time in terms of image capturing, but the image quality cannot be denied compared with the CT apparatus or the MRI apparatus.

上記の問題に鑑み、本発明は画像誘導手術において、術前画像をリファレンスとしつつ、画質のよい術中画像を生成、表示することができる画像処理装置の作動方法、プログラム、及び装置を提供することを目的とする。 In view of the above problems, the present invention provides an operation method, a program, and an apparatus for an image processing apparatus capable of generating and displaying an intraoperative image with high image quality while using a preoperative image as a reference in image guided surgery. With the goal.

上記目的を達成するために、本発明に係る画像処理装置の作動方法は、手術前に第一医用画像撮影装置により被検体の手術対象部位を撮影して得られた術前画像を読み込む第一読込ステップと、手術中に第二医用画像撮影装置により前記被検体の手術対象部位を撮影して得られた術中画像を読み込む第二読込ステップと、前記術前画像を任意の画像サイズからなる複数の第一分割領域に分割するとともに、前記術中画像を前記第一分割領域に対応する領域からなる複数の第二分割領域に分割する分割ステップと、前記第一分割領域及び該第一分割領域に対応する第二分割領域毎に、前記第一分割領域と第二分割領域との画像の一致度を示す相互情報量を算出する算出ステップと、前記相互情報量と、前記術中画像に所定のノイズが含まれることを示すノイズ判別閾値と比較し、前記第二分割領域に前記所定のノイズが含まれる否かを判別する判別ステップと、前記第二分割領域に前記所定のノイズが含まれると判断された場合に、第二分割領域から前記所定のノイズを除去し、該ノイズが除去された術中画像を生成するノイズ除去ステップと、前記所定のノイズが除去された術中画像を表示する表示ステップと、を含むことを特徴とする。 In order to achieve the above object, an operation method of an image processing apparatus according to the present invention is a first method of reading a preoperative image obtained by imaging a surgical target region of a subject by a first medical image photographing apparatus before surgery. A plurality of reading steps; a second reading step for reading an intraoperative image obtained by imaging a surgical target site of the subject by a second medical imaging device during surgery; and a plurality of preoperative images having an arbitrary image size. And dividing the intraoperative image into a plurality of second divided areas composed of areas corresponding to the first divided areas, the first divided areas and the first divided areas. For each corresponding second divided region, a calculation step for calculating a mutual information amount indicating a degree of coincidence between the first divided region and the second divided region, the mutual information amount, and a predetermined noise in the intraoperative image This is included A determination step for determining whether or not the predetermined noise is included in the second divided area, and when it is determined that the predetermined noise is included in the second divided area A noise removing step for removing the predetermined noise from the second divided region and generating an intraoperative image from which the noise has been removed; and a display step for displaying the intraoperative image from which the predetermined noise has been removed. It is characterized by.

上記「第一医用画像撮影装置」と「第二医用画像撮影装置」とは、同種類のものでもよいし、異種類のものでもよい。例えば、MRI装置とX線CT装置の組み合わせでもよい。   The “first medical image capturing device” and the “second medical image capturing device” may be the same type or different types. For example, a combination of an MRI apparatus and an X-ray CT apparatus may be used.

また、前記術前画像は、前記被検体の手術対象部位を撮影した複数の断面像からなる3次元画像であって、前記手術中に前記被検体の手術対象部位を示す位置情報を取得する位置情報取得ステップを更に含み、前記第一読込ステップにおいて、前記3次元画像から前記位置情報に基づいて前記被検体の手術対象部位を撮影した断面像を抽出又は再構成して前記術前画像として読込み、前記3次元画像のうち前記所定のノイズが除去された術中画像に対応する前記断面像を、前記ノイズ除去ステップにおいて生成された前記所定のノイズが除去された術中画像に取り替えるステップを更に含んでもよい。   Further, the preoperative image is a three-dimensional image composed of a plurality of cross-sectional images obtained by photographing the surgical target site of the subject, and a position at which position information indicating the surgical target site of the subject is acquired during the surgery. An information acquisition step is further included, and in the first reading step, a cross-sectional image obtained by photographing the surgical target site of the subject is extracted or reconstructed from the three-dimensional image and read as the preoperative image. The method further includes a step of replacing the cross-sectional image corresponding to the intraoperative image from which the predetermined noise has been removed in the three-dimensional image with the intraoperative image from which the predetermined noise has been removed generated in the noise removing step. Good.

また、前記判別ステップにおいて、前記相互情報量と臓器変形部位を撮影した領域であることを示す所定の臓器変形判別値との比較を更に行い、前記第二分割領域に前記臓器変形部位を撮影した領域が含まれるか否かを判別し、前記第二分割領域に前記臓器変形部位を撮影した領域が含まれると判断された場合に、前記第一分割領域が前記第二分割領域に一致するように前記第一分割領域の位置合わせを行う位置合わせステップと、前記位置合わせされた第一分割領域と前記第二分割領域との相互情報量を再度算出する再算出ステップと、前記再算出された相互情報量と前記ノイズ判別閾値とを再度比較し、前記第二分割領域に前記所定のノイズが含まれる否かを判別する再判別ステップと、を更に含み、前記ノイズ除去ステップは、前記再判別ステップの判断結果に基づいて実行されてもよい。   Further, in the determination step, the mutual information amount is further compared with a predetermined organ deformation determination value indicating a region where the organ deformation site is imaged, and the organ deformation site is imaged in the second divided region. It is determined whether or not a region is included, and when it is determined that the region obtained by imaging the organ deformation site is included in the second divided region, the first divided region matches the second divided region. An alignment step for aligning the first divided region, a recalculation step for recalculating the mutual information amount between the aligned first divided region and the second divided region, and the recalculated A re-discrimination step of comparing the mutual information amount with the noise discrimination threshold again to discriminate whether or not the predetermined noise is included in the second divided region, wherein the noise removal step It may be performed based on another step of the determination result.

また、前記所定のノイズは、画素値が欠損したスパイクノイズ又は被検体の濃度値に対応しない画素値を有するホワイトノイズの少なくとも一つを含み、前記ノイズ判別閾値は、前記スパイクノイズが含まれていることを示すスパイクノイズ判別閾値又は前記ホワイトノイズが含まれていることを示すホワイトノイズ判別閾値の少なくとも一つを含み、前記判別ステップにおいて、前記相互情報量と前記スパイクノイズ判別閾値又は前記ホワイトノイズ判別閾値の少なくとも一方とを比較し、前記スパイクノイズが含まれると判断された場合には、前記ノイズ除去ステップにおいて、前記第二分割領域における前記スパイクノイズが生じた位置に対応する第一分割領域の画素値を取得し、該画素値を前記第二分割領域における前記スパイクノイズが生じた画素の画素値に置き換え、前記ホワイトノイズが含まれると判断された場合には、前記ノイズ除去ステップにおいて、前記第二分割領域を平滑化処理した平滑化画像と、前記第二分割領域を構造物強調処理した輪郭強調画像と、を生成し、前記平滑化画像と前記輪郭強調画像と、を合成して前記ホワイトノイズを除去してもよい。   The predetermined noise includes at least one of spike noise in which a pixel value is missing or white noise having a pixel value not corresponding to the density value of the subject, and the noise determination threshold includes the spike noise. At least one of a spike noise discrimination threshold indicating that the white noise is included, and in the determination step, the mutual information and the spike noise determination threshold or the white noise When it is determined that the spike noise is included by comparing with at least one of the determination threshold values, the first divided region corresponding to the position where the spike noise is generated in the second divided region in the noise removal step. Is obtained, and the pixel value is obtained from the spike node in the second divided region. When it is determined that the white noise is included in the pixel value of the pixel in which a shift occurs, in the noise removal step, a smoothed image obtained by smoothing the second divided region, and the second divided An edge-enhanced image obtained by subjecting the region to the structure enhancement process may be generated, and the smoothed image and the edge-enhanced image may be combined to remove the white noise.

また、前記表示ステップにおいて、前記術中画像と、該術中画像に対応する前記被検体位置で撮影された術前画像、前記3次元画像に基づいて再構成された仮想内視的画像、前記ノイズ除去前の術中画像のうちの少なくとも一つと、を並べて表示してもよい。   In the display step, the intraoperative image, a preoperative image taken at the subject position corresponding to the intraoperative image, a virtual endoscopic image reconstructed based on the three-dimensional image, and the noise removal At least one of the previous intraoperative images may be displayed side by side.

また、本発明に係る画像処理プログラムは、上記いずれかの画像処理装置の作動方法をコンピュータに実行させることを特徴とする。 The image processing program according to the present invention is characterized in that to execute the method of operating any of the image processing apparatus described above in a computer.

また、本発明に係る画像処理装置は、手術前に第一医用画像撮影装置により被検体の手術対象部位を撮影して得られた複数の断面像からなる3次元画像を格納する第一格納手段と、前記手術中に前記被検体の手術対象部位を示す位置情報を取得する位置情報取得手段と、前記位置情報に基づいて前記3次元画像から前記被検体の手術対象部位を撮影した断面像を抽出又は再構成し、術前画像として読み込む第一読込手段と、手術中に第二医用画像撮影装置により前記被検体の手術対象部位を撮影して得られた術中画像を読み込む第二読込手段と、前記術前画像を任意の画像サイズからなる複数の第一分割領域に分割するとともに、前記術中画像を前記第一分割領域に対応する領域からなる複数の第二分割領域に分割する分割手段と、前記第一分割領域及び該第一分割領域に対応する第二分割領域毎に、前記第一分割領域と第二分割領域との画像の一致度を示す相互情報量を算出する算出手段と、前記相互情報量と、前記術中画像に所定のノイズが含まれることを示すノイズ判別閾値とを比較し、前記第二分割領域に前記所定のノイズが含まれる否かを判別する判別手段と、前記第二分割領域に前記ノイズが含まれると判断された場合に、第二分割領域から前記ノイズを除去し、ノイズが除去された術中画像を生成するノイズ除去手段と、前記ノイズが除去された術中画像を表示する表示手段と、前記3次元画像のうち前記ノイズが除去された術中画像に対応する前記被検体位置を撮影した断面像を、前記ノイズ除去ステップにおいて生成された前記ノイズが除去された術中画像に置き換えて前記第一格納手段に格納する置換手段と、を備え、前記ノイズが除去された術中画像が生成されると、前記置換手段は、前記3次元画像の断層像を前記ノイズが除去された術中画像に置き換え、前記第一読込手段は、前記置き換えられた術中画像を含む3次元画像から、前記被検体の手術対象部位を撮影した断面像を抽出する動作を繰り返す、ことを特徴とする。   Further, the image processing apparatus according to the present invention stores a first storage means for storing a three-dimensional image composed of a plurality of cross-sectional images obtained by imaging a surgical target site of a subject with a first medical image imaging apparatus before surgery. And a position information acquisition means for acquiring position information indicating a surgical target part of the subject during the surgery, and a cross-sectional image obtained by photographing the surgical target part of the subject from the three-dimensional image based on the positional information. A first reading means for extracting or reconstructing and reading as a preoperative image; and a second reading means for reading an intraoperative image obtained by imaging a surgical target region of the subject by a second medical image capturing apparatus during surgery. Dividing means for dividing the preoperative image into a plurality of first divided areas having an arbitrary image size and dividing the intraoperative image into a plurality of second divided areas having areas corresponding to the first divided areas; The first A calculation means for calculating a mutual information amount indicating a degree of coincidence between the first divided region and the second divided region for each divided region and the second divided region corresponding to the first divided region; and the mutual information amount And a determination means for comparing whether or not the predetermined noise is included in the second divided region, and a determination unit for comparing whether or not the predetermined noise is included in the second divided region; When it is determined that the noise is included, noise removal means for removing the noise from the second divided region and generating an intraoperative image from which the noise has been removed, and an intraoperative image from which the noise has been removed are displayed. A display means and a cross-sectional image obtained by imaging the subject position corresponding to the intraoperative image from which the noise has been removed in the three-dimensional image are placed on the intraoperative image from which the noise has been removed generated in the noise removal step. A replacement means for storing in the first storage means, and when the intraoperative image from which the noise is removed is generated, the replacement means removes the noise from the tomographic image of the three-dimensional image. It replaces with an intraoperative image, The said 1st reading means repeats the operation | movement which extracts the cross-sectional image which image | photographed the surgery object site | part of the said subject from the three-dimensional image containing the said replaced intraoperative image, It is characterized by the above-mentioned.

本発明によれば、画像誘導手術において、術前画像を用いて術中画像のノイズ除去及び臓器変形に対する処理を行うことにより、術中画像の画質を向上させることができる。   According to the present invention, in image-guided surgery, the image quality of an intraoperative image can be improved by performing processing for noise removal and organ deformation of the intraoperative image using a preoperative image.

以下、本発明の実施例を添付図面に基づいて説明する。なお、発明の実施の形態を説明するための全図において、同一機能を有するものは同一符号を付け、その繰り返しの説明は省略する。   Embodiments of the present invention will be described below with reference to the accompanying drawings. Note that components having the same function are denoted by the same reference symbols throughout the drawings for describing the embodiment of the invention, and the repetitive description thereof is omitted.

<ハードウェア構成>
図1の術中画像ノイズ除去システム1は、被検体の内部診断画像(医用画像)を撮影する医用画像撮影装置10、医用画像を用いてノイズ除去や様々な画像処理技術を行う画像処理装置20、外科医が取り扱う手術器具30、手術器具30の位置情報や姿勢情報を検出し、医用画像撮影装置10や画像処理装置20へその情報を送信する位置検出装置40を備える。医用画像撮影装置は、MRI装置、X線CT装置、US装置など、被検体の内部を撮影した医用画像を生成できるものであればよい。
<Hardware configuration>
An intraoperative image noise removal system 1 in FIG. 1 includes a medical image photographing device 10 that photographs an internal diagnostic image (medical image) of a subject, an image processing device 20 that performs noise removal and various image processing techniques using a medical image, The surgical instrument 30 handled by the surgeon and the position detector 40 that detects position information and posture information of the surgical instrument 30 and transmits the information to the medical image capturing apparatus 10 and the image processing apparatus 20 are provided. The medical imaging apparatus may be any apparatus that can generate a medical image obtained by imaging the inside of the subject, such as an MRI apparatus, an X-ray CT apparatus, or a US apparatus.

画像処理装置20は、医用画像のノイズ除去処理を行う処理部21と、ノイズが除去された医用画像を表示する表示部22とを備える。処理部21は、図示はしないものの、主として各構成要素の動作を制御する中央処理装置(CPU)と、画像表示システムの制御プログラムや画像データを読み出して作業領域となる主メモリと、画像表示システムの制御プログラムや各種アプリケーションソフトウェア、被検体の画像データなどが格納されるデータ記録装置と、表示用データを一時記憶する表示メモリと、マウス、トラックボール、タッチパネル等のポインティングデバイスと、ポインティングデバイスのコントローラと、各種パラメータ設定用のキーやスイッチを備えたキーボードと、上記各構成要素を接続するデータバス、医用画像撮影装置10や位置検出装置40と電気的に接続し、術中画像や手術器具位置情報/姿勢情報の入力を受け付けるためのインターフェース部と、を備えて構成される。表示部22は、CRTや液晶ディスプレイ装置などのディスプレイにより構成される。   The image processing apparatus 20 includes a processing unit 21 that performs noise removal processing on a medical image, and a display unit 22 that displays the medical image from which noise has been removed. Although not shown, the processing unit 21 is a central processing unit (CPU) that mainly controls the operation of each component, a main memory that reads a control program and image data of the image display system, and serves as a work area, and an image display system Control program, various application software, data recording device for storing image data of subject, display memory for temporarily storing display data, pointing device such as mouse, trackball and touch panel, and controller for pointing device And a keyboard having keys and switches for setting various parameters, a data bus connecting each of the above components, the medical imaging device 10 and the position detection device 40, and an intraoperative image and surgical instrument position information. / Interface part for accepting input of posture information Configured to include a. The display unit 22 includes a display such as a CRT or a liquid crystal display device.

手術器具30は、例えば内視鏡、鉗子、カテーテルなど、被検体の体内に挿入される手術器具である。   The surgical instrument 30 is a surgical instrument inserted into the body of a subject, such as an endoscope, forceps, or catheter.

位置検出装置40は、例えば内視鏡の挿入量をメモリに格納しておき、挿入量と予め取得した血管の走行パターンと組み合わせることにより、内視鏡先端部が被検体の挿入部位を基準としてどの位置にあるかを検出する装置として構成してもよい。   The position detection device 40 stores, for example, the insertion amount of the endoscope in a memory, and combines the insertion amount with a travel pattern of a blood vessel acquired in advance, so that the endoscope distal end is based on the insertion site of the subject. You may comprise as an apparatus which detects in which position.

図2は、本実施形態に係る画像表示システム1を実現するためのプログラムを示すプログラムブロック図である。   FIG. 2 is a program block diagram showing a program for realizing the image display system 1 according to the present embodiment.

プログラムは、手術中に位置検出装置40から被検体の手術対象部位を示す位置情報及び姿勢情報を取得する位置情報取得部21aと、位置情報及び姿勢情報に基づいてサーバ25に格納された3次元画像から手術対象部位を撮影した断面像を抽出又は再構成し、術前画像として読み込む第一読込部21bと、手術中にMRI装置11により被検体の手術対象部位を撮影して得られた術中画像50を読み込む第二読込部21cと、術前画像を任意の画像サイズからなる複数の第一分割領域に分割するとともに、前記術中画像を前記第一分割領域に対応する領域からなる複数の第二分割領域に分割する分割部21dと、第一分割領域及び該第一分割領域に対応する第二分割領域毎に、前記第一分割領域と第二分割領域との画像の一致度を示す相互情報量を算出する算出部21eと、相互情報量と、術中画像50に所定のノイズが含まれることを示すノイズ判別閾値とを比較し、第二分割領域に前記所定のノイズが含まれる否かを判別する判別部21fと、第二分割領域に前記ノイズが含まれると判断された場合に、第二分割領域からノイズを除去し、ノイズが除去された術中画像50を生成するノイズ除去部21gと、ノイズが除去された術中画像50を表示部22に表示する制御を行う表示制御部21hと、3次元画像のうちノイズが除去された術中画像50に対応する被検体位置を撮影した断面像を、ノイズが除去された術中画像に置き換えてサーバ25に格納する置換部21iと、を備える。これらのプログラムは、処理部21のハードディスクに格納され、適宜主メモリにロードされてCPUにより実行される。   The program includes a position information acquisition unit 21a that acquires position information and posture information indicating the surgical target site of the subject from the position detection device 40 during surgery, and a three-dimensional stored in the server 25 based on the position information and posture information. A first reading unit 21b that extracts or reconstructs a cross-sectional image obtained by imaging a surgical target site from an image and reads it as a preoperative image, and an intraoperative result obtained by imaging the surgical target site of a subject using the MRI apparatus 11 during surgery. The second reading unit 21c that reads the image 50 and the preoperative image are divided into a plurality of first divided areas having an arbitrary image size, and the intraoperative image is divided into a plurality of first areas including areas corresponding to the first divided areas. A division unit 21d that divides the image into two divided regions, a phase indicating the degree of coincidence between the first divided region and the second divided region for each of the first divided region and the second divided region corresponding to the first divided region. The calculation unit 21e that calculates the information amount compares the mutual information amount with a noise determination threshold value indicating that the intraoperative image 50 includes predetermined noise, and whether or not the predetermined noise is included in the second divided region. And a noise removing unit 21g that generates the intraoperative image 50 from which noise is removed from the second divided region when it is determined that the noise is included in the second divided region. And a display control unit 21 h that performs control to display the intraoperative image 50 from which noise has been removed on the display unit 22, and a cross-sectional image obtained by imaging a subject position corresponding to the intraoperative image 50 from which noise has been removed from the three-dimensional image. Is replaced with an intraoperative image from which noise has been removed, and a replacement unit 21 i for storing in the server 25. These programs are stored in the hard disk of the processing unit 21, loaded into the main memory as appropriate, and executed by the CPU.

<処理の概要>
図3に基づいて画像表示システム1の処理の概要を説明する。
<Outline of processing>
The outline of the processing of the image display system 1 will be described based on FIG.

手術器具、例えば内視鏡31やカンシの先端の位置情報、姿勢情報を位置検出装置で取得し、医用画像撮影装置、例えばMRI装置11に送信する。位置情報、姿勢情報を受け取ったMRI装置11は、位置情報・姿勢情報に基づく断面をFluoroscopyで高速に撮影し、その断面データ(ノイズ除去前の術中画像)50を画像処理装置20に送信する。画像処理装置20は、術中画像50に対してノイズ除去処理を行い、ノイズが除去された術中画像51を生成し、この術中画像51と、これに対応する術前画像とを置き換えて3次元ボリュームデータの一部を更新する。処理部21は、随時更新される3次元ボリュームデータに対して臓器抽出や3次元画像処理を行う。   The position information and posture information of the surgical instrument, for example, the endoscope 31 and the tip of the cantilever, are acquired by the position detection device and transmitted to the medical image photographing device, for example, the MRI apparatus 11. The MRI apparatus 11 that has received the position information and posture information captures a cross section based on the position information / posture information at high speed with Fluoroscopy, and transmits the cross section data (intraoperative image before noise removal) 50 to the image processing apparatus 20. The image processing device 20 performs noise removal processing on the intraoperative image 50 to generate an intraoperative image 51 from which noise has been removed, and replaces the intraoperative image 51 with a preoperative image corresponding thereto to obtain a three-dimensional volume. Update part of the data. The processing unit 21 performs organ extraction and three-dimensional image processing on the three-dimensional volume data updated as needed.

表示部22には、術中画像50、ノイズ除去がされた術中画像51、随時更新された3次元ボリュームデータに基づいて再構成された仮想的内視鏡画像52とが並列表示される。並列表示の態様は、上記3つの画像の任意の組み合わせでもよいし、1枚ずつの画像を表示し、必要に応じて最前面に見たい画像を表示させるように構成してもよい。術者は、表示された画像処理結果を見ながら手術を引き続き行う。その際の変化する位置情報・姿勢情報は随時MRI装置11に送信される。このように、刻一刻と変化する手術器具先端の臓器の断面画像を更新し、最新画像を用いた処理後画像で画像誘導手術を行う。   On the display unit 22, an intraoperative image 50, an intraoperative image 51 from which noise has been removed, and a virtual endoscopic image 52 reconstructed based on three-dimensional volume data updated as needed are displayed in parallel. The mode of parallel display may be any combination of the above three images, or may be configured to display one image at a time and display the image to be viewed in the foreground as necessary. The surgeon continues the operation while viewing the displayed image processing result. The changing position information / attitude information at that time is transmitted to the MRI apparatus 11 as needed. In this manner, the cross-sectional image of the organ at the tip of the surgical instrument that changes from moment to moment is updated, and image guided surgery is performed with the processed image using the latest image.

しかし、術中に撮影された画像には、麻酔器等の電気的ノイズを導くものや、磁性体等の共鳴信号の受信コイルのアンテナ特性を阻害するものによって、図4のようにホワイトノイズ70やスパイクノイズ71または、それらが混合したノイズを含む。さらに、最新の画像で3次元ボリュームデータが更新されているが、臓器変形の速度に追随できずに、画像がずれる場合がある。これらの画像からノイズおよび臓器変形を認識して、ノイズ除去および臓器のレジストレーションに対応できなければ、後の臓器抽出や3次元画像処理が適切になされない可能性がある。   However, images taken during the operation include white noise 70 and the like as shown in FIG. 4 depending on what induces electrical noise such as an anesthesia machine, or obstructs the antenna characteristics of the reception coil of a resonance signal such as a magnetic substance. It includes spike noise 71 or a noise in which they are mixed. Furthermore, although the three-dimensional volume data is updated with the latest image, the image may be shifted without being able to follow the speed of organ deformation. Unless noise and organ deformation are recognized from these images and noise removal and organ registration cannot be dealt with, subsequent organ extraction and three-dimensional image processing may not be performed appropriately.

<ノイズ除去処理>
図4に基づいてノイズ除去処理について説明する。
<Noise removal processing>
The noise removal process will be described with reference to FIG.

術中に撮影された術中画像50a,bには、麻酔器等の電気的ノイズを導くものや、磁性体等の共鳴信号の受信コイルのアンテナ特性を阻害するものによって、あらゆる周波数成分が画像に均等に含まれ、実際の濃度値とは異なる濃度値に対応する画素値が表示されたホワイトノイズ70や画素値が欠損したスパイクノイズ71、または、それらが混合したノイズを含む。さらに、最新の画像で3次元ボリュームデータが更新されているが、臓器変形の速度に追随できずに、画像がずれる場合がある。これらの画像からノイズおよび臓器変形を認識して、ノイズ除去および臓器のレジストレーションに対応できなければ、後の臓器抽出や3次元画像処理が適切になされない可能性がある。   Intraoperative images 50a and 50b taken during the operation have all frequency components equal to the image depending on what induces electrical noise such as an anesthesia machine or obstructs the antenna characteristics of the receiving coil of a resonance signal such as a magnetic substance. Included, white noise 70 in which pixel values corresponding to density values different from the actual density values are displayed, spike noise 71 in which pixel values are missing, or noise in which they are mixed. Furthermore, although the three-dimensional volume data is updated with the latest image, the image may be shifted without being able to follow the speed of organ deformation. Unless noise and organ deformation are recognized from these images and noise removal and organ registration cannot be dealt with, subsequent organ extraction and three-dimensional image processing may not be performed appropriately.

そこで、手術器具30の位置情報および姿勢情報により、術中画像50a、50bを撮影すると同時に、あらかじめ撮影された術前の3次元ボリュームデータから同じ位置・姿勢の断面像80を再構成し作成する。術前画像80をリファレンスとして、術中画像50a、50bにノイズ除去処理を施し、ノイズ除去された術中画像51を作成する。この術中画像51で術前の3次元ボリュームデータの一部を更新し、最新の画像を含む術前3次元ボリュームデータを作成する。そうすることで、手術操作に伴う臓器変形に対応した最新の画像をリファレンスとして用いることができる。   Therefore, the intraoperative images 50a and 50b are imaged based on the position information and posture information of the surgical instrument 30, and at the same time, a cross-sectional image 80 having the same position and posture is reconstructed and created from pre-operative three-dimensional volume data. Using the preoperative image 80 as a reference, noise removal processing is performed on the intraoperative images 50a and 50b to create the intraoperative image 51 from which noise has been removed. A part of the preoperative three-dimensional volume data is updated with the intraoperative image 51, and preoperative three-dimensional volume data including the latest image is created. By doing so, the latest image corresponding to the organ deformation accompanying the surgical operation can be used as a reference.

ノイズ除去処理には、最大Mutual Information法を用いる。これは、レジストレーション処理で使われる手法であり、相互情報量を2つの画像(確率分布)の類似度と捉え、これが最大になるように画像位置をチューニングすることによってレジストレーションを行う方法である。   The maximum Mutual Information method is used for noise removal processing. This is a method used in the registration process, in which mutual information is regarded as the similarity between two images (probability distribution), and registration is performed by tuning the image position so that this is maximized. .

図5に用いてレジストレーション処理について説明する。   The registration process will be described with reference to FIG.

オリジナル画像(術前画像80)を回転・移動処理(ステップS50)し、オリジナル画像(術前画像80)とリファレンス画像(術中画像50)との評価基準の計算を行う(ステップS51)。評価基準(後述する「相互情報量」に該当する。)には、パラメータ(dx, dy, dz, θx, θy, θz)が真値に近づくにしたがって、スムーズに最大値(あるいは最小値)に到達するものがよい。評価基準値と最適な状態を示す閾値とを比較し、評価基準値が閾値以上であればオリジナル画像とリファレンス画像とは一致するマッチング画像と判断する(ステップS52)。評価基準値が閾値未満であれば、パラメータの修正(最適化)を行い(ステップS53)、再度ステップS52へ戻る。これらを繰り返し計算することで、真値に収束させ )、マッチング画像を作成する。   The original image (pre-operative image 80) is rotated / moved (step S50), and the evaluation standard between the original image (pre-operative image 80) and the reference image (in-operative image 50) is calculated (step S51). According to the evaluation criteria (corresponding to “mutual information amount” described later), the parameter (dx, dy, dz, θx, θy, θz) smoothly reaches the maximum value (or minimum value) as it approaches the true value. What you reach is good. The evaluation reference value is compared with a threshold value indicating an optimal state, and if the evaluation reference value is equal to or greater than the threshold value, the original image and the reference image are determined as matching images (step S52). If the evaluation reference value is less than the threshold value, the parameter is corrected (optimized) (step S53), and the process returns to step S52 again. By repeating these calculations, it is converged to a true value) and a matching image is created.

最大Mutual Information法における評価基準は、2つの画像の信号強度(画素のカウント)から、画像間の類似性を数値化する。画像間の類似性の評価には、平均相互情報量I(A,B)を用いる。平均相互情報量の算出において、2つの事象A,Bが全体として持っている情報量(結合エントロピー)H(A,B)は、事象それぞれの情報量H(A)、H(B)の総和に、一方に関する情報量I(A,B)が他方に含まれることを考慮し、H(A)+H(B)-I(A,B)となる。このI(A,B)が相互情報量である。画像に適用して考えると、事象Aの情報量をai(i = 1〜m)とすれば、画像の信号強度の出現頻度(つまり、正規化したヒストグラムからなる確率分布
p(ai))の重みつき平均(期待値)で表される(数1式)。事象Bの情報量も同様に求められる。
The evaluation criterion in the maximum mutual information method quantifies the similarity between images from the signal intensity (pixel count) of two images. The average mutual information I (A, B) is used to evaluate the similarity between images. In calculating the average mutual information amount, the information amount (joint entropy) H (A, B) of the two events A and B as a whole is the sum of the information amounts H (A) and H (B) of each event. In addition, considering that the information amount I (A, B) relating to one is included in the other, H (A) + H (B) −I (A, B). This I (A, B) is the mutual information amount. Considering application to an image, if the amount of information of event A is a i (i = 1 to m), the appearance frequency of the signal intensity of the image (that is, a probability distribution p (a i ) consisting of a normalized histogram) ) Expressed by a weighted average (expected value) (Expression 1). The amount of information of event B is obtained in the same way.

Figure 0004915836
Figure 0004915836

また、2つの事象A,Bの結合平均情報量(結合エントロピー)H(A,B)は、事象Aがai(i = 1〜m)、事象Bがbj(j = 1〜n)をとる同時確率をp(ai∩bj)とすると、数2式のようになる。 The combined average information amount (joint entropy) H (A, B) of two events A and B is that event A is a i (i = 1 to m ) and event B is b j (j = 1 to n). If the simultaneous probability of taking p is p (a i ∩b j ), Equation 2 is obtained.

Figure 0004915836
Figure 0004915836

となる。 It becomes.

平均相互情報量が異種画像のレジストレーションに使われるのは、異種画像で均一な信号強度の領域が、他の異種画像の同じ領域内で大体均一なカウント分布を示すことに帰着している。したがって、相互情報量が2つの画像が持っている共通性を表すという性質を、画像間の類似性の尺度で表現していることになる。   The average mutual information amount is used for registration of different images because the region of uniform signal intensity in the different images shows a roughly uniform count distribution in the same region of other different images. Therefore, the property that the mutual information represents the commonality of the two images is expressed by a measure of the similarity between the images.

図6に相互情報量を用いたノイズ情報判別方法を示す。図4のように、手術器具の位置情報・姿勢情報により、術中画像と術前画像は位置・姿勢が一致した画像が得られる。術中画像には、ホワイトノイズやスパイクノイズが含まれており、術前画像には極力ノイズが含まれていないと仮定する。相互情報量は2つの画像(確率分布)の類似度を表すため、これら2つの画像を任意の画像サイズに分割し、その分割領域毎に同時確率密度 (Joint probability)と周辺確率分布(Marginal probability)とを求め、これらに基づいて相互情報量(Mutual information)を計算する。この相互情報量は、二つの画像が持っている共通性を示す値であって、ノイズが多い場合は、相互情報量が小さく、ノイズが少ない場合は相互情報量が大きくなる。また、相互情報量の結合事象確率は2次元ヒストグラムで現される(図6A参照)。また、画像中の臓器変形では相互情報量は小さくなり、レジストレーション対象の分割領域として認められる。上記同時確率密度、周辺確率分布、相互情報量は図6及び下式のとおり算出できる。   FIG. 6 shows a noise information discrimination method using the mutual information amount. As shown in FIG. 4, an image in which the position and posture of the intraoperative image and the preoperative image coincide with each other is obtained based on the position information and posture information of the surgical instrument. It is assumed that the intraoperative image contains white noise and spike noise, and the preoperative image contains as little noise as possible. Since mutual information represents the similarity of two images (probability distribution), these two images are divided into arbitrary image sizes, and the joint probability density (Joint probability) and marginal probability distribution (Marginal probability) for each divided region. ) And the mutual information (Mutual information) is calculated based on these. The mutual information amount is a value indicating the commonality of the two images. When the noise is large, the mutual information amount is small, and when the noise is small, the mutual information amount is large. Further, the joint event probability of the mutual information amount is represented by a two-dimensional histogram (see FIG. 6A). In addition, the amount of mutual information is reduced by organ deformation in the image, and is recognized as a divided region to be registered. The simultaneous probability density, peripheral probability distribution, and mutual information can be calculated as shown in FIG.

Figure 0004915836
Figure 0004915836

次に図7に基づいて、画像表示システム1の処理手順について説明する。   Next, a processing procedure of the image display system 1 will be described with reference to FIG.

ステップS1では、手術前に医用画像撮影装置を用いて被検体の手術部位の
3次元画像を撮影し、格納する(S1)。
In step S1, a three-dimensional image of the surgical site of the subject is photographed and stored using a medical image photographing device before surgery (S1).

ステップS2では、手術が開始される。画像処理装置20の位置情報取得部21aは、被検体に挿入された手術器具30の位置情報及び姿勢情報を位置検出装置40から取得する(S2)。同様に、位置検出装置40は、医用画像撮影装置、例えばMRI装置11に位置情報及び姿勢情報を送信する。   In step S2, surgery is started. The position information acquisition unit 21a of the image processing device 20 acquires position information and posture information of the surgical instrument 30 inserted into the subject from the position detection device 40 (S2). Similarly, the position detection apparatus 40 transmits position information and posture information to a medical image photographing apparatus, for example, the MRI apparatus 11.

ステップS3では、第一読込部21bがS2で取得した位置情報に対応する断面像に3次元画像からその位置情報に対応する断面像を読み込む(S3)
ステップS4では、位置情報、姿勢情報を受け取ったMRI装置11は、位置情報・姿勢情報に基づく断面をFluoroscopyで高速に撮影し、術中画像50を生成する(S4)。
In step S3, the first reading unit 21b reads the cross-sectional image corresponding to the position information from the three-dimensional image into the cross-sectional image corresponding to the position information acquired in S2 (S3).
In step S4, the MRI apparatus 11 that has received the position information and the posture information captures a cross section based on the position information / posture information at a high speed with Fluoroscopy, and generates an intraoperative image 50 (S4).

ステップS5では、第二読込部21cが、S4で撮影した術中画像50を読み込む。そして、分割部21dは、任意の画像サイズの領域に術前、術中画像を分割する(S5)。術前画像60に設定した分割領域を第一分割領域といい、第一分割領域の位置に対応させて術中画像を分割した各分割領域を第二分割領域という。   In step S5, the second reading unit 21c reads the intraoperative image 50 photographed in S4. Then, the dividing unit 21d divides the preoperative and intraoperative images into regions of arbitrary image sizes (S5). The divided areas set in the preoperative image 60 are referred to as first divided areas, and the divided areas obtained by dividing the intraoperative image corresponding to the positions of the first divided areas are referred to as second divided areas.

ステップS6では、第一分割領域及び第二分割領域の相互情報量MIを算出する(S6)。   In step S6, the mutual information MI of the first divided area and the second divided area is calculated (S6).

ステップS7では、その領域内で臓器変形による位置ずれがあるかを相互情報量MI<αから判別する(S7)。αは臓器変形がある場合に相互情報量がとりうる閾値である。臓器変形があり、レジストレーション処理が必要な場合はS8に移る。相互情報量MIがαより小さいときはステップS8へ、α以上であればステップS9へ遷移する。   In step S7, it is determined from the mutual information MI <α whether there is a position shift due to organ deformation in the region (S7). α is a threshold that mutual information can take when there is organ deformation. If there is organ deformation and registration processing is necessary, the process proceeds to S8. When the mutual information MI is smaller than α, the process proceeds to step S8, and when it is equal to or larger than α, the process proceeds to step S9.

ステップS8では、レジストレーション処理を行う。オリジナルのボリューム画像として、分割領域と同範囲で奥行き方向にデータ量を拡張した限定された術前ボリューム画像を用いる。リファレンス画像として、術中の分割領域を用いる。本ステップの処理は、図8に基づいて後述する。   In step S8, a registration process is performed. As the original volume image, a limited preoperative volume image in which the data amount is expanded in the depth direction within the same range as the divided area is used. An intraoperative divided region is used as a reference image. The process of this step will be described later with reference to FIG.

ステップS9では局所にノイズがあるかを判定する。βはノイズ(主にホワイトノイズ)を判定する判定値である。相互情報量MIがβよりも小さいときには、ノイズがあると判断しS10へ進む。相互情報量MIがβ以上であれば、ノイズがないと判断しS11へ進む。   In step S9, it is determined whether there is local noise. β is a determination value for determining noise (mainly white noise). When the mutual information MI is smaller than β, it is determined that there is noise and the process proceeds to S10. If the mutual information MI is equal to or greater than β, it is determined that there is no noise and the process proceeds to S11.

ステップS10では、局所ノイズ除去法として、Adaptive Filterを用いる。Adaptive Filterの処理概要を示す。Adaptive Filterでは入力画像から構造物強調画像(輪郭強調画像)とノイズ除去画像(平滑化画像)とを作成し、両者を混合することで出力画像を得る。平滑化処理とは、基本的にマトリクス内の画素値を平均化することでノイズを除去する処理である。マトリクスサイズを大きくするほどノイズ除去効果が大きくなるが、解像度の低下も大きくなる。そこでAdaptive Filterでは、解像度の低下を抑制するため、近傍画素との標準偏差を算出し、標準偏差に応じてマトリクスサイズを変更する。ノイズが多いほど画像の粒状性が悪くなるため、標準偏差が大きい画素ほど大きなマトリクスサイズで平滑化する。   In step S10, an adaptive filter is used as a local noise removal method. An overview of Adaptive Filter processing is shown. The Adaptive Filter creates a structure emphasized image (outline enhanced image) and a noise-removed image (smoothed image) from the input image, and obtains an output image by mixing both. The smoothing process is basically a process for removing noise by averaging pixel values in a matrix. As the matrix size is increased, the noise removal effect is increased, but the reduction in resolution is also increased. Therefore, in the Adaptive Filter, in order to suppress a decrease in resolution, a standard deviation from neighboring pixels is calculated, and the matrix size is changed according to the standard deviation. Since the granularity of the image becomes worse as the noise increases, the pixels having a larger standard deviation are smoothed with a larger matrix size.

Adaptive Filterでは、数4式で出力画素Poが決定される。   In the Adaptive Filter, the output pixel Po is determined by Equation (4).

Figure 0004915836
なお、Piは注目画素、Wiは重みである。注目画素に対する重みを注目画素からの距離だけでなく、画素値の差や標準偏差といった統計量に基づいて重みを決定する。つまり、マトリクス内で類似した値を持つ画素ほど重みを大きくして平均化する。
Figure 0004915836
Pi is a pixel of interest and Wi is a weight. The weight for the target pixel is determined based on not only the distance from the target pixel but also a statistic such as a pixel value difference or standard deviation. That is, the pixels having similar values in the matrix are averaged by increasing the weight.

Adaptive Filterでは平滑化成分と先鋭化成分を標準偏差に応じて混合する比率を変更する。標準偏差が大きい画素ほど平滑化成分の比率を大きくして、輪郭強調成分の比率を小さくして混合する。輪郭付近は標準偏差が顕著に高くなるので、標準偏差が閾値以上の画素は輪郭とみなし平滑化成分の比率を最小に、輪郭強調成分を最大にして混合する。   In the Adaptive Filter, the mixing ratio of the smoothing component and the sharpening component is changed according to the standard deviation. Pixels with a larger standard deviation are mixed by increasing the ratio of the smoothing component and decreasing the ratio of the contour enhancement component. Since the standard deviation is remarkably high in the vicinity of the contour, the pixels having the standard deviation equal to or larger than the threshold are regarded as the contour, and the smoothing component ratio is minimized and the contour enhancement component is maximized.

このようにして、まず、臓器変形による位置づれやスパイクノイズ等の領域の比較的大きなノイズ成分を最初に除去し、そのあとにホワイトノイズを除去することによって、大抵のノイズ情報を除去することができる。また、本方法は、リファレンス画像として、術前MRI画像を例にしたが、CT画像や超音波画像であってもよい。また、対象となる術中画像もCT画像や超音波画像であってもよい。本方法の特徴は、異種画像であっても、同じ領域では大体均一的なカウント分布を示すことを利用し、ノイズの有無や臓器変形の有無を判別するものである。   In this way, most noise information can be removed by first removing relatively large noise components in areas such as positioning due to organ deformation and spike noise, and then removing white noise. it can. In this method, a preoperative MRI image is taken as an example of a reference image, but a CT image or an ultrasound image may be used. The target intraoperative image may also be a CT image or an ultrasound image. The feature of this method is to determine the presence / absence of noise and the presence / absence of organ deformation by utilizing the fact that even in the case of different images, a substantially uniform count distribution is shown in the same region.

ステップS11では、ノイズを除去した分割領域を合成してノイズ除去後の術中画像を生成する。   In step S11, the divided regions from which noise has been removed are combined to generate an intraoperative image after noise removal.

ステップS12では、S11で生成した術中画像を術前に撮影したボリュームデータの術中画像に対応する断層像と置き換える。   In step S12, the intraoperative image generated in S11 is replaced with a tomographic image corresponding to the intraoperative image of the volume data taken before the operation.

ステップS13では、この処理を終了するか否かを判断する(S13)。終了する場合には「Y」に進み、終了する。終了しない場合には、「N」へ進みステップS2へ戻り、新たに手術器具の位置情報及び姿勢情報を取得し、S3においてノイズ除去後の術中画像に置き換えられたボリューム画像から、新たに取得した位置情報に対応する断層像を読み込む。   In step S13, it is determined whether or not to end this process (S13). When the process ends, the process proceeds to “Y” and ends. If not completed, proceed to “N” and return to step S2 to newly acquire the position information and posture information of the surgical instrument, and newly acquired from the volume image replaced with the intraoperative image after noise removal in S3 A tomographic image corresponding to the position information is read.

次に図8に基づいて上記ステップS8のレジストレーション処理について説明する。   Next, the registration process in step S8 will be described with reference to FIG.

ステップS81のレジストレーション処理は、図5に示す方法をとる。オリジナルのボリューム画像として、分割領域と同範囲で奥行き方向にデータ量を拡張した限定された術前ボリューム画像を用いる。リファレンス画像として、術中の分割領域を用いる。術前ボリューム画像に回転、拡大処理を行い臓器変形を加味した位置合わせ処理を行う。その後、再度、相互情報量を求める。   The registration process in step S81 employs the method shown in FIG. As the original volume image, a limited preoperative volume image in which the data amount is expanded in the depth direction within the same range as the divided area is used. An intraoperative divided region is used as a reference image. Rotation and enlargement processing is performed on preoperative volume images, and alignment processing is performed in consideration of organ deformation. Thereafter, the mutual information amount is obtained again.

ステップS82では、その相互情報量と、スパイクノイズの有無を判定するための判定値γとを比較する(S82)。相互情報量が判定値γよりも小さければ、その分割領域にはスパイクノイズのように一部データが欠損する程のノイズを含んでいると判定する。   In step S82, the mutual information amount is compared with a determination value γ for determining the presence or absence of spike noise (S82). If the mutual information amount is smaller than the determination value γ, it is determined that the divided area includes noise such that spike data is partially lost.

ステップS83では、スパイクノイズの場合、ノイズの信号強度はある値に集中し、ヒストグラムが偏ると仮定し、術中画像の確率分布から判別する。2次元ヒストグラムで表せば、術前画像のヒストグラムの軸に対して平行に、術中画像のヒストグラムが頻繁にカウントされる。これにより、ノイズを検出する(S83)。   In step S83, in the case of spike noise, it is determined from the probability distribution of the intraoperative image, assuming that the signal intensity of the noise is concentrated on a certain value and the histogram is biased. When represented by a two-dimensional histogram, the histogram of the intraoperative image is frequently counted in parallel to the histogram axis of the preoperative image. Thereby, noise is detected (S83).

ステップS84では、スパイクノイズの信号強度をもつ画素に対して術前画像の画素値で置き換える(S84)。   In step S84, the pixel having the spike noise signal intensity is replaced with the pixel value of the preoperative image (S84).

上記実施形態では、相互情報量と比較する判定値をα(臓器変形の判定)、β(ホワイトノイズの判定)、γ(スパイクノイズの判定)を用いたが、画像ノイズの種類に応じて適宜判定値を設けてもよい。また、α、β、γの大小関係はα>γ>βという一例を用いてもよいが、これに限定されるものではない。   In the above embodiment, α (determination of organ deformation), β (determination of white noise), and γ (determination of spike noise) are used as the determination values to be compared with the mutual information amount, but as appropriate according to the type of image noise. A determination value may be provided. In addition, an example of α> γ> β may be used as the magnitude relationship among α, β, and γ, but the present invention is not limited to this.

本実施の形態によれば、術中MRI画像には高速撮影による画像劣化や外因子によるホワイトノイズやスパイクノイズが含まれるため、その画像に対して臓器抽出等の画像処理技術を施しても、術前画像に対する程、正確に適用されない可能性がある。また、従来のノイズ除去方法のようにホワイトノイズを除去する方法を採用すれば、スパイクノイズが強調される。本発明によれば、ホワイトノイズやスパイクノイズによらず、種々のノイズ情報を除去でき、術前画像に対する画像処理方法を術中画像に施行することができる。   According to the present embodiment, since intraoperative MRI images include image degradation due to high-speed imaging and white noise and spike noise due to external factors, even if image processing techniques such as organ extraction are applied to the images, It may not be applied as accurately as the previous image. Further, if a method of removing white noise, such as a conventional noise removal method, is employed, spike noise is enhanced. According to the present invention, various noise information can be removed regardless of white noise or spike noise, and an image processing method for a preoperative image can be applied to an intraoperative image.

術中画像ノイズ除去装置ブロック図Intraoperative image denoising device block diagram 術中画像ノイズ除去プログラムのブロック図Block diagram of intraoperative image denoising program 術中画像ノイズ除去装置の処理の概要図Schematic diagram of the process of the intraoperative image denoising device 画質改善方法の概略図Schematic diagram of image quality improvement method レジストレーション処理の一般的な処理の流れを示す図Diagram showing the general process flow of the registration process 相互情報量を用いたノイズ判定処理の計算方法を説明する図The figure explaining the calculation method of the noise judgment processing using mutual information amount 術中画像ノイズ除去処理の処理手順を示すフローチャートFlow chart showing processing procedure of intraoperative image noise removal processing 図7のステップS8の処理手順を示すフローチャートThe flowchart which shows the process sequence of step S8 of FIG.

符号の説明Explanation of symbols

1:術中画像ノイズ除去システム、10:医用画像撮影装置、20:画像処理装置、30:手術器具、40:位置検出装置 1: intraoperative image noise removal system, 10: medical imaging device, 20: image processing device, 30: surgical instrument, 40: position detection device

Claims (7)

手術前に第一医用画像撮影装置により被検体の手術対象部位を撮影して得られた術前画像を読み込む第一読込ステップと、
手術中に第二医用画像撮影装置により前記被検体の手術対象部位を撮影して得られた術中画像を読み込む第二読込ステップと、
前記術前画像を任意の画像サイズからなる複数の第一分割領域に分割するとともに、前記術中画像を前記第一分割領域に対応する領域からなる複数の第二分割領域に分割する分割ステップと、
前記第一分割領域及び該第一分割領域に対応する第二分割領域毎に、前記第一分割領域と第二分割領域との画像の一致度を示す相互情報量を算出する算出ステップと、
前記相互情報量と、前記術中画像に所定のノイズが含まれることを示すノイズ判別閾値と比較し、前記第二分割領域に前記所定のノイズが含まれる否かを判別する判別ステップと、
前記第二分割領域に前記所定のノイズが含まれると判断された場合に、第二分割領域から前記所定のノイズを除去し、該ノイズが除去された術中画像を生成するノイズ除去ステップと、
前記所定のノイズが除去された術中画像を表示する表示ステップと、
を含むことを特徴とする画像処理装置の作動方法。
A first reading step for reading a preoperative image obtained by imaging a surgical target region of a subject by a first medical imaging device before surgery;
A second reading step of reading an intraoperative image obtained by imaging a surgical target region of the subject by a second medical imaging apparatus during surgery;
A division step of dividing the preoperative image into a plurality of first divided regions having an arbitrary image size and dividing the intraoperative image into a plurality of second divided regions consisting of regions corresponding to the first divided regions;
A calculation step of calculating a mutual information amount indicating a degree of coincidence between the first divided area and the second divided area for each of the first divided area and the second divided area corresponding to the first divided area;
A determination step of comparing the mutual information amount with a noise determination threshold value indicating that predetermined noise is included in the intraoperative image, and determining whether the predetermined noise is included in the second divided region;
When it is determined that the predetermined noise is included in the second divided area, a noise removing step of removing the predetermined noise from the second divided area and generating an intraoperative image from which the noise is removed;
A display step of displaying an intraoperative image from which the predetermined noise has been removed;
A method for operating an image processing apparatus, comprising :
前記術前画像は、前記被検体の手術対象部位を撮影した複数の断面像からなる3次元画像であって、
前記手術中に前記被検体の手術対象部位を示す位置情報を取得する位置情報取得ステップを更に含み、
前記第一読込ステップにおいて、前記3次元画像から前記位置情報に基づいて前記被検体の手術対象部位を撮影した断面像を抽出又は再構成して前記術前画像として読込み、
前記3次元画像のうち前記所定のノイズが除去された術中画像に対応する前記断面像を、前記ノイズ除去ステップにおいて生成された前記所定のノイズが除去された術中画像に取り替えるステップを更に含む、
ことを特徴とする請求項1に記載の画像処理装置の作動方法。
The preoperative image is a three-dimensional image composed of a plurality of cross-sectional images obtained by imaging the surgical target site of the subject,
A position information acquisition step of acquiring position information indicating a surgery target site of the subject during the surgery;
In the first reading step, a cross-sectional image obtained by imaging the surgical target site of the subject is extracted or reconstructed based on the position information from the three-dimensional image and read as the preoperative image,
The method further includes the step of replacing the cross-sectional image corresponding to the intraoperative image from which the predetermined noise has been removed from the three-dimensional image with the intraoperative image from which the predetermined noise has been removed generated in the noise removing step.
The method of operating an image processing apparatus according to claim 1.
前記判別ステップにおいて、前記相互情報量と臓器変形部位を撮影した領域であることを示す所定の臓器変形判別値との比較を更に行い、前記第二分割領域に前記臓器変形部位を撮影した領域が含まれるか否かを判別し、
前記第二分割領域に前記臓器変形部位を撮影した領域が含まれると判断された場合に、前記第一分割領域が前記第二分割領域に一致するように前記第一分割領域の位置合わせを行う位置合わせステップと、
前記位置合わせされた第一分割領域と前記第二分割領域との相互情報量を再度算出する再算出ステップと、
前記再算出された相互情報量と前記ノイズ判別閾値とを再度比較し、前記第二分割領域に前記所定のノイズが含まれる否かを判別する再判別ステップと、を更に含み、
前記ノイズ除去ステップは、前記再判別ステップの判断結果に基づいて実行される、
ことを特徴とする請求項1又は2に記載の画像処理装置の作動方法。
In the determination step, a comparison is further made between the mutual information amount and a predetermined organ deformation determination value indicating an area where the organ deformation site is imaged, and an area where the organ deformation site is imaged in the second divided area Determine whether it is included,
When it is determined that the region obtained by imaging the organ deformation site is included in the second divided region, the first divided region is aligned so that the first divided region matches the second divided region. An alignment step;
A recalculation step of recalculating the mutual information amount between the aligned first divided region and the second divided region;
A re-determination step of comparing the recalculated mutual information amount with the noise determination threshold again to determine whether or not the predetermined noise is included in the second divided region, and
The noise removal step is executed based on a determination result of the redetermination step.
The method for operating an image processing apparatus according to claim 1, wherein:
前記所定のノイズは、画素値が欠損したスパイクノイズ又は被検体の濃度値に対応しない画素値を有するホワイトノイズの少なくとも一つを含み、
前記ノイズ判別閾値は、前記スパイクノイズが含まれていることを示すスパイクノイズ判別閾値又は前記ホワイトノイズが含まれていることを示すホワイトノイズ判別閾値の少なくとも一つを含み、
前記判別ステップにおいて、前記相互情報量と前記スパイクノイズ判別閾値又は前記ホワイトノイズ判別閾値の少なくとも一方とを比較し、
前記スパイクノイズが含まれると判断された場合には、前記ノイズ除去ステップにおいて、前記第二分割領域における前記スパイクノイズが生じた位置に対応する第一分割領域の画素値を取得し、該画素値を前記第二分割領域における前記スパイクノイズが生じた画素の画素値に置き換え、
前記ホワイトノイズが含まれると判断された場合には、前記ノイズ除去ステップにおいて、前記第二分割領域を平滑化処理した平滑化画像と、前記第二分割領域を構造物強調処理した輪郭強調画像と、を生成し、前記平滑化画像と前記輪郭強調画像と、を合成して前記ホワイトノイズを除去する、
ことを特徴とする請求項1乃至3のいずれかに記載の画像処理装置の作動方法。
The predetermined noise includes at least one of spike noise in which a pixel value is missing or white noise having a pixel value that does not correspond to the density value of the subject,
The noise determination threshold includes at least one of a spike noise determination threshold indicating that the spike noise is included or a white noise determination threshold indicating that the white noise is included,
In the determination step, the mutual information amount is compared with at least one of the spike noise determination threshold or the white noise determination threshold;
When it is determined that the spike noise is included, the pixel value of the first divided region corresponding to the position where the spike noise is generated in the second divided region is acquired in the noise removing step. Is replaced with the pixel value of the pixel in which the spike noise occurs in the second divided region,
When it is determined that the white noise is included, in the noise removal step, a smoothed image obtained by smoothing the second divided region, and a contour emphasized image obtained by performing structure enhancement processing on the second divided region, , And combining the smoothed image and the contour-enhanced image to remove the white noise,
The method for operating an image processing apparatus according to claim 1, wherein:
前記表示ステップにおいて、前記術中画像と、該術中画像に対応する前記被検体位置で撮影された術前画像、前記3次元画像に基づいて再構成された仮想内視的画像、前記ノイズ除去前の術中画像のうちの少なくとも一つと、を並べて表示する、
ことを特徴とする請求項1乃至4のいずれか一つに記載の画像処理装置の作動方法。
In the display step, the intraoperative image, a preoperative image captured at the subject position corresponding to the intraoperative image, a virtual endoscopic image reconstructed based on the three-dimensional image, and before the noise removal Displaying at least one of the intraoperative images side by side,
The method for operating an image processing apparatus according to claim 1, wherein:
請求項1乃至5のいずれかの画像処理装置の作動方法をコンピュータに実行させることを特徴とする画像表示プログラム。 An image display program for causing a computer to execute the operation method of the image processing apparatus according to claim 1. 手術前に第一医用画像撮影装置により被検体の手術対象部位を撮影して得られた複数の断面像からなる3次元画像を格納する第一格納手段と、
前記手術中に前記被検体の手術対象部位を示す位置情報を取得する位置情報取得手段と、
前記位置情報に基づいて前記3次元画像から前記被検体の手術対象部位を撮影した断面像を抽出又は再構成し、術前画像として読み込む第一読込手段と、
手術中に第二医用画像撮影装置により前記被検体の手術対象部位を撮影して得られた術中画像を読み込む第二読込手段と、
前記術前画像を任意の画像サイズからなる複数の第一分割領域に分割するとともに、前記術中画像を前記第一分割領域に対応する領域からなる複数の第二分割領域に分割する分割手段と、
前記第一分割領域及び該第一分割領域に対応する第二分割領域毎に、前記第一分割領域と第二分割領域との画像の一致度を示す相互情報量を算出する算出手段と、
前記相互情報量と、前記術中画像に所定のノイズが含まれることを示すノイズ判別閾値とを比較し、前記第二分割領域に前記所定のノイズが含まれる否かを判別する判別手段と、
前記第二分割領域に前記ノイズが含まれると判断された場合に、第二分割領域から前記ノイズを除去し、ノイズが除去された術中画像を生成するノイズ除去手段と、
前記ノイズが除去された術中画像を表示する表示手段と、
前記3次元画像のうち前記ノイズが除去された術中画像に対応する前記被検体位置を撮影した断面像を、前記ノイズ除去ステップにおいて生成された前記ノイズが除去された術中画像に置き換えて前記第一格納手段に格納する置換手段と、を備え、
前記ノイズが除去された術中画像が生成されると、前記置換手段は、前記3次元画像の断層像を前記ノイズが除去された術中画像に置き換え、前記第一読込手段は、前記置き換えられた術中画像を含む3次元画像から、前記被検体の手術対象部位を撮影した断面像を抽出する動作を繰り返す、
ことを特徴とする画像表示装置。
First storage means for storing a three-dimensional image consisting of a plurality of cross-sectional images obtained by imaging a surgical target site of a subject by a first medical imaging device before surgery;
Position information acquisition means for acquiring position information indicating a surgery target site of the subject during the surgery;
First reading means for extracting or reconstructing a cross-sectional image obtained by imaging the surgical target region of the subject from the three-dimensional image based on the position information, and reading as a preoperative image;
A second reading means for reading an intraoperative image obtained by imaging a surgical target region of the subject by a second medical image capturing apparatus during surgery;
A dividing unit that divides the preoperative image into a plurality of first divided regions having an arbitrary image size, and divides the intraoperative image into a plurality of second divided regions made up of regions corresponding to the first divided regions;
Calculating means for calculating a mutual information amount indicating a degree of coincidence between the first divided area and the second divided area for each of the first divided area and the second divided area corresponding to the first divided area;
A determination unit that compares the mutual information amount with a noise determination threshold value indicating that predetermined noise is included in the intraoperative image, and determines whether or not the predetermined noise is included in the second divided region;
When it is determined that the noise is included in the second divided region, the noise is removed from the second divided region, and a noise removing unit that generates an intraoperative image from which noise is removed;
Display means for displaying an intraoperative image from which the noise has been removed;
The cross-sectional image obtained by imaging the subject position corresponding to the intraoperative image from which the noise has been removed in the three-dimensional image is replaced with the intraoperative image from which the noise has been removed generated in the noise removal step. Replacement means for storing in the storage means,
When the intraoperative image from which the noise has been removed is generated, the replacement unit replaces the tomographic image of the three-dimensional image with the intraoperative image from which the noise has been removed, and the first reading unit performs the replacement of the intraoperative image. Repeating the operation of extracting a cross-sectional image obtained by photographing the surgical site of the subject from a three-dimensional image including an image;
An image display device characterized by that.
JP2005362332A 2005-12-15 2005-12-15 Method, program, and apparatus for operating image processing apparatus Expired - Fee Related JP4915836B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005362332A JP4915836B2 (en) 2005-12-15 2005-12-15 Method, program, and apparatus for operating image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005362332A JP4915836B2 (en) 2005-12-15 2005-12-15 Method, program, and apparatus for operating image processing apparatus

Publications (2)

Publication Number Publication Date
JP2007159933A JP2007159933A (en) 2007-06-28
JP4915836B2 true JP4915836B2 (en) 2012-04-11

Family

ID=38243499

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005362332A Expired - Fee Related JP4915836B2 (en) 2005-12-15 2005-12-15 Method, program, and apparatus for operating image processing apparatus

Country Status (1)

Country Link
JP (1) JP4915836B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2919096A1 (en) * 2007-07-19 2009-01-23 Gen Electric METHOD OF CORRECTING RADIOGRAPHIC IMAGE RECOVERY
JP5358856B2 (en) * 2009-04-24 2013-12-04 公立大学法人首都大学東京 Medical image processing apparatus and method
JP5896207B2 (en) 2011-11-24 2016-03-30 富士ゼロックス株式会社 Distribution evaluation apparatus, distribution determination apparatus, image processing apparatus, and program
JP5955199B2 (en) 2011-12-20 2016-07-20 富士フイルム株式会社 Image processing apparatus, image processing method, and image processing program
KR101993381B1 (en) * 2012-01-03 2019-06-26 삼성전자주식회사 Method, apparatus and medical imaging system for estimating organ deformation model
WO2023216947A1 (en) * 2022-05-07 2023-11-16 武汉联影智融医疗科技有限公司 Medical image processing system and method for interventional operation
WO2024024495A1 (en) * 2022-07-27 2024-02-01 国立大学法人筑波大学 Organ deformation estimation device, treatment device, treatment assistance device, organ deformation estimation method, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69918877T2 (en) * 1998-02-17 2005-07-28 Koninklijke Philips Electronics N.V. Image processing method for motion estimation in a picture sequence
JP4674948B2 (en) * 2000-09-29 2011-04-20 オリンパス株式会社 Surgical navigation device and method of operating surgical navigation device
JP4171833B2 (en) * 2002-03-19 2008-10-29 国立大学法人東京工業大学 Endoscope guidance device and method
US7317841B2 (en) * 2003-12-22 2008-01-08 Ge Medical Systems Global Technology Company, Llc System and method for image noise reduction using a minimal error spatiotemporal recursive filter

Also Published As

Publication number Publication date
JP2007159933A (en) 2007-06-28

Similar Documents

Publication Publication Date Title
JP4915836B2 (en) Method, program, and apparatus for operating image processing apparatus
US8675996B2 (en) Catheter RF ablation using segmentation-based 2D-3D registration
US8831310B2 (en) Systems and methods for displaying guidance data based on updated deformable imaging data
US6782287B2 (en) Method and apparatus for tracking a medical instrument based on image registration
US9240046B2 (en) Method and system to assist 2D-3D image registration
US20200405397A1 (en) Augmented reality guidance system for cardiac interventional surgery
Lang et al. Multi-modal registration of speckle-tracked freehand 3D ultrasound to CT in the lumbar spine
CN112057165B (en) Path planning method, device, equipment and medium
JP2003153082A (en) Image aligner and image processor
JP5060117B2 (en) 3D image processing apparatus, 3D image processing method, storage medium, and program
CN110464462B (en) Image navigation registration system for abdominal surgical intervention and related device
CN112384949A (en) Lower to higher resolution image fusion
JP5016518B2 (en) Alignment apparatus and program thereof
WO2006092594A2 (en) 3d ultrasound registration
EP3544537A1 (en) System and methods for interventional image navigation and image registration refinement
US20230149083A1 (en) Method and navigation system for registering two-dimensional image data set with three-dimensional image data set of body of interest
US10977812B2 (en) Deformation correction
US9582892B2 (en) Radiation imaging apparatus, radiation imaging method, and program
van de Kraats et al. Three-dimensional rotational X-ray navigation for needle guidance in percutaneous vertebroplasty: an accuracy study
CN109155068B (en) Motion compensation in combined X-ray/camera interventions
JP2019150358A (en) Image processing device, image processing program and image processing method
JP2007296341A (en) System and method for determining distal end of catheter with x-ray base
Zheng et al. Reality-augmented virtual fluoroscopy for computer-assisted diaphyseal long bone fracture osteosynthesis: a novel technique and feasibility study results
US20230145531A1 (en) Systems and methods for registering visual representations of a surgical space
US20230346351A1 (en) Image processing device, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081126

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20100507

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111117

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20111201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20111201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120113

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120119

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150203

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees