JP2011136132A - Medical image diagnostic apparatus and image processor - Google Patents

Medical image diagnostic apparatus and image processor Download PDF

Info

Publication number
JP2011136132A
JP2011136132A JP2010000171A JP2010000171A JP2011136132A JP 2011136132 A JP2011136132 A JP 2011136132A JP 2010000171 A JP2010000171 A JP 2010000171A JP 2010000171 A JP2010000171 A JP 2010000171A JP 2011136132 A JP2011136132 A JP 2011136132A
Authority
JP
Japan
Prior art keywords
image
medical image
image generation
position information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010000171A
Other languages
Japanese (ja)
Other versions
JP5624328B2 (en
Inventor
Katsuhiko Fujimoto
克彦 藤本
Yasuo Sakurai
康雄 櫻井
Shigeharu Oyu
重治 大湯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Priority to JP2010000171A priority Critical patent/JP5624328B2/en
Publication of JP2011136132A publication Critical patent/JP2011136132A/en
Application granted granted Critical
Publication of JP5624328B2 publication Critical patent/JP5624328B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Image Generation (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reduce a burden of a doctor who refers to a medical image recorded during an operation to diagnose the image. <P>SOLUTION: A volume data generating part 361 generates volume data from three-dimensional projected data in an affected site of a patient P receiving the operation. A posture-acquisition part 362a and a position/angle acquisition part 362b obtain from an input device 31 and an encoder 22 position information of the patient P during the operation when the volume data is recorded. On the basis of the position information during the operation, an image-generating-parameter calculating part 362c calculates an image-generating parameter for generating an MPR image which is the same or close to the same as a CT image before the operation. An MPR generating part 362d generates the MPR image from the volume data by using the image generating parameter. A system control part 38 controls the generated MPR image to be displayed on a monitor of a display device 32 as the CT image during the operation. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

この発明は、医用画像診断装置および画像処理装置に関する。   The present invention relates to a medical image diagnostic apparatus and an image processing apparatus.

近年、脳外科領域や整形外科領域において、X線CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置およびX線診断装置などの医用画像診断装置により手術中の患者を撮影した医用画像を取得することで、手術中における医師の画像診断を支援する術中画像支援が注目されている。医師は、術中画像支援により取得した手術中の医用画像と手術前に取得した患者の医用画像とを比較読影することで、治療の効果を判定したり、重篤な状態にある臓器、血管などの位置情報や腫瘍細胞の遺残などを確認したうえで治療方針を手術中で修正したりすることが可能となる。   2. Description of the Related Art In recent years, medical images obtained by imaging a patient during surgery are acquired by a medical image diagnostic apparatus such as an X-ray CT (Computed Tomography) apparatus, an MRI (Magnetic Resonance Imaging) apparatus, or an X-ray diagnostic apparatus in a brain surgery region or an orthopedic region. Thus, intraoperative image support that supports image diagnosis by doctors during surgery has been attracting attention. Doctors can judge the effect of treatment by comparing and interpreting medical images during surgery acquired with intraoperative image support and medical images of patients acquired before surgery, organs, blood vessels, etc. It is possible to correct the treatment policy during surgery after confirming the location information of the tumor and the remaining tumor cells.

ここで、実際の手術において患者は、手術を行なう医師が患部にアクセスしやすいように、仰臥位、横臥位、腹臥位など、様々な体位を取ることとなる。また、特に、脳外科手術においては、通常、手術中の患部からの出血を抑えるため心臓よりも頭部を高くなるように、患者が載置される手術台の背もたれを傾けたうえで手術が行なわれている。   Here, in an actual operation, the patient takes various postures such as a supine position, a recumbent position, and a prone position so that a doctor who performs the operation can easily access the affected part. Also, particularly in brain surgery, surgery is usually performed with the back of the operating table on which the patient is placed tilted so that the head is higher than the heart in order to suppress bleeding from the affected area during surgery. It is.

しかし、医用画像診断装置による手術中の患者に対する撮影は、通常、手術台から標準寝台に患者を移載することで、手術中の患者を水平な体位にしたうえで行なわれていた。このため、術中画像支援を行なうためには、手術中の撮影のために患者を標準寝台へ移載し、さらに、撮影後に患者を手術中の体位となるように手術台へ移載することとなり、手術を行なう医師および患者双方にとって負担が大きい。また、標準寝台へ移載することで、手術中の患部の状態および形状は、例えば、ブレインシフトなどにより、変化してしまうこととなる。   However, imaging of a patient during surgery by a medical image diagnostic apparatus is usually performed after the patient is placed in a horizontal position by transferring the patient from the operating table to a standard bed. For this reason, in order to perform intraoperative image support, the patient is transferred to a standard bed for imaging during the operation, and further, the patient is transferred to the operating table so as to be in the postoperative position after imaging. This is a heavy burden for both the doctor and the patient performing the operation. Further, by transferring to the standard bed, the state and shape of the affected area during the operation change due to, for example, a brain shift.

そこで、手術台、患者の体位および周辺機器など手術中のセットアップを保ったままで医用画像の撮影が可能となる医用画像撮影システムが開発されている(例えば、特許文献1参照)。かかる医用画像撮影システムでは、例えば、投影データを収集するガントリの開口径を大きくすることで、手術中のセットアップを保ったままでX線CT画像の撮影が可能となる。また、かかる医用画像撮影システムでは、例えば、術前の撮影を行なうためのCアームの他に、術中の撮影を行なうためのΩアームを取り付けることにより、手術中のセットアップを保ったままでアンギオ用のX線画像の撮影が可能となる。   In view of this, a medical image photographing system has been developed that enables photographing of medical images while maintaining a setup during surgery such as an operating table, a patient's posture, and peripheral devices (see, for example, Patent Document 1). In such a medical imaging system, for example, by increasing the aperture diameter of the gantry that collects projection data, it is possible to capture an X-ray CT image while maintaining the setup during surgery. In such a medical image photographing system, for example, an Ω arm for performing intraoperative photographing is attached in addition to a C arm for performing preoperative photographing. X-ray images can be taken.

特開2009−28160号公報JP 2009-28160 A

ところで、上記した従来の技術は、手術中の体位を維持したまま医用画像の撮影が行なわれるので、モニタにて表示される手術中の医用画像の断面方向が、比較読影の対象となる手術前の医用画像の断面方向と必ずしも一致しない。すなわち、手術前の撮影では、通常、寝台にて水平な体位で載置された患者に対して手術前の撮影が行なわれるため、上記した従来の技術により手術中の体位を維持したまま医用画像の撮影が行なわれると、手術前と手術中とで撮影された医用画像の断面方向は、必ずしも一致せず、表示される画像に描出される患部の形状も異なってしまう。   By the way, in the conventional technique described above, since a medical image is taken while maintaining the posture during the operation, the cross-sectional direction of the medical image during the operation displayed on the monitor is the same as the target of the comparative interpretation. This does not necessarily match the cross-sectional direction of the medical image. That is, in the pre-surgical radiography, since the pre-surgical radiography is usually performed on a patient placed in a horizontal position on the bed, the medical image is maintained while maintaining the post-surgical position by the conventional technique described above. When imaging is performed, the cross-sectional directions of the medical images taken before and during the operation do not always match, and the shape of the affected area depicted in the displayed image also differs.

したがって、上記した従来の技術は、手術中に撮影された医用画像を参照して画像診断を行なう医師の負担を必ずしも軽減することができない場合があるといった課題があった。   Therefore, the above-described conventional technique has a problem that it may not always be possible to reduce the burden on a doctor who performs image diagnosis with reference to a medical image taken during surgery.

そこで、この発明は、上述した従来技術の課題を解決するためになされたものであり、手術中に撮影された医用画像を参照して画像診断を行なう医師の負担を軽減することが可能となる医用画像診断装置および画像処理装置を提供することを目的とする。   Therefore, the present invention has been made to solve the above-described problems of the prior art, and can reduce the burden on a doctor who performs image diagnosis with reference to a medical image taken during surgery. It is an object of the present invention to provide a medical image diagnostic apparatus and an image processing apparatus.

上述した課題を解決し、目的を達成するために、請求項1記載の本発明は、手術中の被検体を撮影して3次元医用画像を生成する3次元医用画像生成手段と、前記3次元医用画像生成手段によって生成された前記3次元医用画像が撮影された時点における前記被検体の手術中位置情報を取得する手術中位置情報取得手段と、前記手術中位置情報取得手段によって取得された前記手術中位置情報に基づいて、手術前に撮影された前記被検体の2次元医用画像と同一または同一に近い断面を前記3次元医用画像から生成するための画像生成パラメータを算出する画像生成パラメータ算出手段と、前記画像生成パラメータ算出手段によって算出された前記画像生成パラメータを用いて、前記3次元医用画像から断面画像を生成する断面画生成手段と、前記断面画像生成手段によって生成された前記断面画像を所定の表示部にて表示するように制御する表示制御手段と、を備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention according to claim 1 includes a three-dimensional medical image generation unit that images a subject during surgery and generates a three-dimensional medical image; In-surgery position information acquisition means for acquiring position information during operation of the subject at the time when the three-dimensional medical image generated by the medical image generation means is captured, and the acquired position information acquisition means during operation. Image generation parameter calculation for calculating an image generation parameter for generating from the three-dimensional medical image a cross section that is the same as or close to the two-dimensional medical image of the subject imaged before the operation based on the intra-operative position information Means for generating a cross-sectional image from the three-dimensional medical image by using the image generation parameter calculated by the image generation parameter calculation unit; Characterized by comprising a display control means for controlling to display at generated the sectional images a predetermined display unit by the tomographic image generating means.

また、請求項7記載の本発明は、手術中の被検体の3次元医用画像が撮影された時点における前記被検体の位置情報を取得する位置情報取得手段と、前記位置情報取得手段によって取得された前記位置情報に基づいて、手術前に撮影された前記被検体の2次元医用画像と同一または同一に近い断面を前記3次元医用画像から生成するための画像生成パラメータを算出する画像生成パラメータ算出手段と、前記画像生成パラメータ算出手段によって算出された前記画像生成パラメータを用いて、前記3次元医用画像から断面画像を生成する断面画像生成手段と、前記断面画像生成手段によって生成された前記断面画像を所定の表示部にて表示するように制御する表示制御手段と、を備えたことを特徴とする。   According to a seventh aspect of the present invention, there is provided the position information acquiring means for acquiring the position information of the subject at the time when the three-dimensional medical image of the subject under operation is photographed, and the position information acquiring means. Based on the position information, image generation parameter calculation for calculating an image generation parameter for generating a cross section that is the same as or close to the same as the two-dimensional medical image of the subject imaged before surgery from the three-dimensional medical image Means, a cross-sectional image generating means for generating a cross-sectional image from the three-dimensional medical image using the image generation parameter calculated by the image generation parameter calculating means, and the cross-sectional image generated by the cross-sectional image generating means Display control means for controlling to display the image on a predetermined display unit.

請求項1または7の発明によれば、手術中に撮影された医用画像を参照して画像診断を行なう医師の負担を軽減することが可能となる。   According to the invention of claim 1 or 7, it is possible to reduce a burden on a doctor who performs an image diagnosis with reference to a medical image taken during an operation.

図1は、実施例1におけるX線CT装置の構成を説明するための図である。FIG. 1 is a diagram for explaining the configuration of the X-ray CT apparatus according to the first embodiment. 図2は、実施例1におけるX線CT装置の架台装置を説明するための図である。FIG. 2 is a diagram for explaining the gantry device of the X-ray CT apparatus according to the first embodiment. 図3は、実施例1における画像生成部の構成を説明するための図である。FIG. 3 is a diagram for explaining the configuration of the image generation unit according to the first embodiment. 図4は、画像処理部による処理を説明するための図(1)である。FIG. 4 is a diagram (1) for explaining processing by the image processing unit. 図5は、画像処理部による処理を説明するための図(2)である。FIG. 5 is a diagram (2) for explaining the processing by the image processing unit. 図6は、スカルピンに取り付けられるセンサについて説明するための図である。FIG. 6 is a diagram for explaining a sensor attached to a skull pin. 図7は、実施例1におけるX線CT装置の処理を説明するためのフローチャートである。FIG. 7 is a flowchart for explaining processing of the X-ray CT apparatus according to the first embodiment. 図8は、実施例2における画像生成部を説明するための図である。FIG. 8 is a diagram for explaining the image generation unit according to the second embodiment. 図9は、位置記憶部を説明するための図である。FIG. 9 is a diagram for explaining the position storage unit. 図10は、実施例3における画像生成部を説明するための図である。FIG. 10 is a diagram for explaining the image generation unit according to the third embodiment. 図11は、ランドマーク抽出部を説明するための図である。FIG. 11 is a diagram for explaining the landmark extraction unit. 図12は、実施例3におけるX線CT装置の処理を説明するためのフローチャートである。FIG. 12 is a flowchart for explaining processing of the X-ray CT apparatus according to the third embodiment. 図13は、実施例4における画像生成部を説明するための図である。FIG. 13 is a diagram for explaining an image generation unit according to the fourth embodiment.

以下に添付図面を参照して、この発明に係る医用画像診断装置および画像処理装置の実施例を詳細に説明する。なお、以下では、医用画像診断装置であるX線CT装置に、本発明を適用した場合を実施例として説明する。   Exemplary embodiments of a medical image diagnostic apparatus and an image processing apparatus according to the present invention will be described below in detail with reference to the accompanying drawings. Hereinafter, a case where the present invention is applied to an X-ray CT apparatus which is a medical image diagnostic apparatus will be described as an example.

まず、本実施例におけるX線CT装置の構成について、図1を用いて説明する。図1は、実施例1におけるX線CT装置の構成を説明するための図である。図1に示すように、本実施例におけるX線CT装置は、架台装置10と、手術台20と、ヘッドフレーム21と、エンコーダ22と、コンソール装置30とを有し、さらに、画像データベース40と接続される。   First, the structure of the X-ray CT apparatus in a present Example is demonstrated using FIG. FIG. 1 is a diagram for explaining the configuration of the X-ray CT apparatus according to the first embodiment. As shown in FIG. 1, the X-ray CT apparatus in this embodiment includes a gantry device 10, an operating table 20, a head frame 21, an encoder 22, and a console device 30, and an image database 40. Connected.

ここで、本実施例におけるX線CT装置は、手術中のセットアップを保ったままで手術中の患者Pを撮影してX線CT画像(術中CT画像)を生成し、生成した術中CT画像を表示する手術用のX線CT装置である。また、本実施例におけるX線CT装置は、術中CT画像とともに、通常のX線CT装置により手術前の患者を撮影することで生成されたX線CT画像(術前CT画像)と術中CT画像とを表示する。なお、以下では、患者Pの頭部に対する脳神経外科手術中に、術中CT画像が撮影される場合について説明する。   Here, the X-ray CT apparatus according to the present embodiment takes an image of the patient P during surgery while maintaining the setup during surgery, generates an X-ray CT image (intraoperative CT image), and displays the generated intraoperative CT image. X-ray CT apparatus for surgery. In addition, the X-ray CT apparatus according to the present embodiment includes an intra-operative CT image, an X-ray CT image (pre-operative CT image) and an intra-operative CT image generated by imaging a patient before surgery with a normal X-ray CT apparatus. Is displayed. In the following, a case where an intraoperative CT image is taken during neurosurgery for the head of the patient P will be described.

画像データベース40は、各種の医用画像のデータを管理するシステムであるPACS(Picture Archiving and Communication System)のデータベースや、医用画像が添付された電子カルテを管理する電子カルテシステムなどのデータベースである。具体的には、画像データベース40は、通常のX線CT装置により撮影された患者Pの術前CT画像を記憶している。なお、術前CT画像は、2次元の断面画像である。   The image database 40 is a database such as a PACS (Picture Archiving and Communication System) database, which is a system for managing various medical image data, and an electronic medical record system for managing an electronic medical record with attached medical images. Specifically, the image database 40 stores a preoperative CT image of the patient P taken by a normal X-ray CT apparatus. The preoperative CT image is a two-dimensional cross-sectional image.

架台装置10は、患者Pが挿入される撮影口となる空洞を有し、患者PにX線を照射して投影データを収集する装置であり、高電圧発生部11と、X線管12と、X線検出器13と、データ収集部14と、回転フレーム15と、架台駆動部16とを有する。   The gantry device 10 has a cavity serving as an imaging port into which the patient P is inserted, and is an apparatus that collects projection data by irradiating the patient P with X-rays. , X-ray detector 13, data collection unit 14, rotating frame 15, and gantry driving unit 16.

高電圧発生部11は、X線管12に高電圧を供給する装置であり、X線管12は、高電圧発生部11から供給される高電圧によりX線を発生する真空管である。X線検出器13は、患者Pを透過したX線のX線強度分布データを検出する検出器である。   The high voltage generator 11 is a device that supplies a high voltage to the X-ray tube 12, and the X-ray tube 12 is a vacuum tube that generates X-rays by the high voltage supplied from the high voltage generator 11. The X-ray detector 13 is a detector that detects X-ray intensity distribution data of X-rays transmitted through the patient P.

データ収集部14は、X線検出器13により検出されたX線強度分布データを用いて投影データを生成し、X線の照射方向ごとの投影データを収集するDAS(data acquisition system)であり、投影データを後述するコンソール装置30に送信する。   The data acquisition unit 14 is a DAS (data acquisition system) that generates projection data using the X-ray intensity distribution data detected by the X-ray detector 13 and collects projection data for each X-ray irradiation direction. The projection data is transmitted to the console device 30 described later.

回転フレーム15は、高速でかつ連続的に回転する円環状のフレームであり、X線管12とX線検出器13とを患者Pを挟んで対向するように支持している。   The rotating frame 15 is an annular frame that rotates continuously at high speed, and supports the X-ray tube 12 and the X-ray detector 13 so as to face each other with the patient P interposed therebetween.

架台駆動部16は、回転フレーム15を回転駆動させることによって、患者Pを中心とした円軌道上でX線管12およびX線検出器13を旋回させる駆動装置である。また、架台駆動部16は、架台装置10を後述する移動用レールに沿って移動させながら、回転フレーム15を回転駆動させることによって、患者Pをらせん状にスキャンするヘリカルスキャンを行なう。これにより、データ収集部14は、患者Pの患部における3次元投影データを収集する。   The gantry drive unit 16 is a drive device that rotates the rotary frame 15 to rotate the X-ray tube 12 and the X-ray detector 13 on a circular orbit around the patient P. Further, the gantry driving unit 16 performs a helical scan that scans the patient P in a spiral shape by rotating the rotating frame 15 while moving the gantry device 10 along a moving rail described later. Thereby, the data collection unit 14 collects three-dimensional projection data in the affected part of the patient P.

なお、本実施例では、ヘリカルスキャンにより患者Pの患部における3次元投影データを収集する場合について説明するが、本発明はこれに限定されるものではなく、X線強度分布データを広範囲に検出することができる2次元アレイ型検出器(面検出器)をX線検出器13として用いることにより、コンベンショナルスキャンにより患者Pの患部における3次元投影データを収集する場合であってもよい。具体的には、面検出器としてのX線検出器13は、チャンネル方向(図1に示すY軸方向)に配列されたX線検出素子である検出素子列が被検体Pの体軸方向(図1に示すZ軸方向)に沿って、例えば、320列に配列された検出素子列を有する。   In the present embodiment, the case where three-dimensional projection data in the affected area of the patient P is collected by helical scanning will be described. However, the present invention is not limited to this, and X-ray intensity distribution data is detected over a wide range. By using a two-dimensional array detector (surface detector) that can be used as the X-ray detector 13, three-dimensional projection data in the affected area of the patient P may be collected by a conventional scan. Specifically, the X-ray detector 13 as a surface detector has an X-ray detection element array arranged in the channel direction (Y-axis direction shown in FIG. 1) in the body axis direction of the subject P ( For example, the detection element rows are arranged in 320 rows along the Z-axis direction shown in FIG.

手術台20は、図1に示すように、脳外科手術などで用いられる三つ折寝台であり、手術を行なう医師が患部にアクセスしやすいように、仰臥位、横臥位、腹臥位など、様々な体位を取った患者Pが固定されて載置される。また、手術台20の背もたれの部分は、図1に示すように、手術を行なう医師が患部にアクセスしやすいように、また、患者Pの頭部が心臓より高くなるように、傾斜される。   As shown in FIG. 1, the operating table 20 is a three-fold bed used in brain surgery or the like, and has various functions such as a supine position, a recumbent position, and a prone position so that an operating doctor can easily access the affected area. A patient P in a posture is fixed and placed. Further, as shown in FIG. 1, the backrest portion of the operating table 20 is inclined so that a doctor who performs the operation can easily access the affected part and the head of the patient P is higher than the heart.

ヘッドフレーム21は、手術台20に取り付けられる頭部固定用の治具であり、患者Pの頭部を固定するスカルピンを有する。すなわち、手術台20に載置された患者Pの頭部は、開頭されたうえで、頭蓋骨がスカルピンにより固定される。   The head frame 21 is a jig for fixing the head attached to the operating table 20 and has a skull pin for fixing the head of the patient P. That is, the head of the patient P placed on the operating table 20 is opened, and the skull is fixed by the skull pin.

エンコーダ22は、手術台20の背もたれの部分や、ヘッドフレーム21に取り付けられたセンサから、手術台20の背もたれの角度、ヘッドフレーム21の位置などを検知する。例えば、ヘッドフレーム21においてセンサが取り付けられる位置は、図1に示すように、ヘッドフレーム21が手術台20と接続されるためのアームなどが挙げられる。なお、エンコーダ22については、のちに詳述する。   The encoder 22 detects the backrest angle of the operating table 20, the position of the head frame 21, and the like from the backrest portion of the operating table 20 and sensors attached to the head frame 21. For example, the position where the sensor is attached to the head frame 21 includes an arm for connecting the head frame 21 to the operating table 20 as shown in FIG. The encoder 22 will be described in detail later.

ここで、図2を用いて、本実施例におけるX線CT装置の架台装置10について、改めて説明する。図2は、実施例1におけるX線CT装置の架台装置を説明するための図である。   Here, the gantry 10 of the X-ray CT apparatus in the present embodiment will be described again with reference to FIG. FIG. 2 is a diagram for explaining the gantry device of the X-ray CT apparatus according to the first embodiment.

図2に示すように、架台装置10は、架台装置移動台に固定されており、架台装置移動台は、移動用レールにより、移動する。すなわち、架台駆動部16は、架台装置移動台を移動用レールに沿って移動させることで、架台装置10を手術台20に載置された患者Pの患部(頭部)を撮影可能な位置まで移動させたり、ヘリカルスキャン実行中に、架台装置10を患者Pの体軸方向に沿って移動させたりする。   As shown in FIG. 2, the gantry device 10 is fixed to a gantry device moving table, and the gantry device moving table moves by a moving rail. In other words, the gantry driving unit 16 moves the gantry device moving table along the moving rail, so that the gantry device 10 can be photographed to the affected part (head) of the patient P placed on the operating table 20. The gantry device 10 is moved along the body axis direction of the patient P during the execution of the helical scan.

ここで、手術中において、手術台20やヘッドフレーム21には、脳ベラなどの様々な治具が固定されるため、患者Pの頭部周辺は、ヘッドフレーム21も合わせて50cmを超えるボリュームとなる。そこで、架台装置10の撮影口の開口径は、通常の架台装置の撮影口の開口径が約70cmであるのに対して、80cm以上となっている。   Here, during the operation, various jigs such as a brain spatula are fixed to the operating table 20 and the head frame 21, and therefore the volume around the head of the patient P including the head frame 21 exceeds 50 cm. Become. Therefore, the opening diameter of the photographing port of the gantry device 10 is 80 cm or more, whereas the opening diameter of the photographing port of the normal gantry device is about 70 cm.

すなわち、本実施例におけるX線CT装置は、架台装置10を大口径とすることで、ヘッドフレーム21で固定された脳外手術中の患者Pを、手術中の体位そのままで撮像することが出来るようになっている。   That is, the X-ray CT apparatus according to the present embodiment can image the patient P during an extracerebral operation fixed by the head frame 21 as it is during the operation by setting the gantry device 10 to have a large diameter. It is like that.

図1に戻って、コンソール装置30は、操作者によるX線CT装置の操作を受け付けたり、架台装置10によって収集された投影データからX線CT画像(術中CT画像)を生成したりする装置であり、入力装置31と、表示装置32と、スキャン制御部33と、前処理部34と、投影データ記憶部35と、画像生成部36と、画像記憶部37と、システム制御部38とを有する。   Returning to FIG. 1, the console device 30 is a device that accepts an operation of the X-ray CT apparatus by the operator and generates an X-ray CT image (intraoperative CT image) from the projection data collected by the gantry device 10. And includes an input device 31, a display device 32, a scan control unit 33, a preprocessing unit 34, a projection data storage unit 35, an image generation unit 36, an image storage unit 37, and a system control unit 38. .

入力装置31は、マウスやキーボードやマイクなどを有し、操作者がX線CT装置を操作するための各種設定情報を入力するために用いられる。   The input device 31 includes a mouse, a keyboard, a microphone, and the like, and is used for an operator to input various setting information for operating the X-ray CT apparatus.

表示装置32は、モニタなどを有し、入力装置31を介して操作者から各種設定情報を受け付けるためのGUI(Graphical User Interface)や後述する画像記憶部37が記憶する画像などを表示する。   The display device 32 has a monitor or the like, and displays a GUI (Graphical User Interface) for receiving various setting information from the operator via the input device 31, an image stored in the image storage unit 37 described later, and the like.

スキャン制御部33は、後述するシステム制御部38による制御のもと高電圧発生部11、データ収集部14、架台駆動部16の動作を制御することによって、患者Pの患部へのX線照射や投影データ(本実施例では、3次元投影データ)の収集処理などを制御する装置である。   The scan control unit 33 controls the operations of the high voltage generation unit 11, the data collection unit 14, and the gantry driving unit 16 under the control of the system control unit 38, which will be described later. This is a device for controlling the process of collecting projection data (three-dimensional projection data in this embodiment).

前処理部34は、データ収集部14が収集した投影データに対して感度補正などの前処理を行う処理部であり、投影データ記憶部35は、前処理部34により前処理された投影データを記憶する記憶部である。   The preprocessing unit 34 is a processing unit that performs preprocessing such as sensitivity correction on the projection data collected by the data collection unit 14, and the projection data storage unit 35 stores the projection data preprocessed by the preprocessing unit 34. It is a memory | storage part to memorize | store.

画像生成部36は、後述するシステム制御部38の制御により、投影データ記憶部35が記憶する前処理済み投影データからX線CT画像を生成したり、生成したX線CT画像を画像処理したりする処理部である。   The image generation unit 36 generates an X-ray CT image from preprocessed projection data stored in the projection data storage unit 35 or performs image processing on the generated X-ray CT image under the control of a system control unit 38 to be described later. Is a processing unit.

具体的には、画像生成部36は、前処理済みの3次元投影データを逆投影処理することで、3次元X線CT画像(以下、ボリュームデータと記載する)を生成する。また、画像生成部36は、ボリュームデータを画像処理することで、MPR(Multi Plane Reformat)画像を生成する。なお、画像生成部36については、のちに詳述する。   Specifically, the image generation unit 36 generates a three-dimensional X-ray CT image (hereinafter referred to as volume data) by performing a back projection process on the preprocessed three-dimensional projection data. Further, the image generation unit 36 generates an MPR (Multi Plane Reformat) image by performing image processing on the volume data. The image generator 36 will be described in detail later.

画像記憶部37は、画像生成部36により生成された各種画像を記憶する記憶部である。   The image storage unit 37 is a storage unit that stores various images generated by the image generation unit 36.

システム制御部38は、架台装置10、寝台装置20、コンソール装置30の動作を制御することによって、X線CT装置の全体制御を行う。具体的には、システム制御部38は、入力装置31を介して操作者から受け付けた各種設定情報に基づいて、スキャン制御部33を制御することで、架台装置10から投影データを収集する。また、システム制御部38は、前処理部34、画像生成部36を制御することで、コンソール装置30における画像処理を制御する。また、システム制御部38は、画像記憶部37が記憶する各種画像を、表示装置32のモニタに表示するように制御する。さらに、システム制御部38は、画像データベースが記憶する患者Pの術前CT画像も、表示装置32のモニタに表示するように制御する。また、システム制御部38は、エンコーダ20が検知した角度・位置の情報を画像生成部36に転送する。   The system control unit 38 performs overall control of the X-ray CT apparatus by controlling the operations of the gantry device 10, the couch device 20, and the console device 30. Specifically, the system control unit 38 collects projection data from the gantry device 10 by controlling the scan control unit 33 based on various setting information received from the operator via the input device 31. Further, the system control unit 38 controls the image processing in the console device 30 by controlling the preprocessing unit 34 and the image generation unit 36. Further, the system control unit 38 performs control so that various images stored in the image storage unit 37 are displayed on the monitor of the display device 32. Further, the system control unit 38 controls the preoperative CT image of the patient P stored in the image database to be displayed on the monitor of the display device 32. In addition, the system control unit 38 transfers information on the angle and position detected by the encoder 20 to the image generation unit 36.

ここで、本実施例におけるX線CT装置は、以下、詳細に説明するエンコーダ20や画像生成部36などの処理により、手術中に撮影されたX線CT画像(術中CT画像)を参照して画像診断を行なう医師の負担を軽減することが可能となることに主たる特徴がある。   Here, the X-ray CT apparatus in the present embodiment refers to an X-ray CT image (intraoperative CT image) taken during surgery by processing of the encoder 20 and the image generation unit 36 described in detail below. The main feature is that it is possible to reduce the burden on the doctor who performs the image diagnosis.

以下、この主たる特徴について図3〜図6を用いて説明する。なお、図3は、実施例1における画像生成部の構成を説明するための図であり、図4および5は、画像処理部による処理を説明するための図であり、図6は、スカルピンに取り付けられるセンサについて説明するための図である。   Hereinafter, this main feature will be described with reference to FIGS. 3 is a diagram for explaining the configuration of the image generation unit in the first embodiment, FIGS. 4 and 5 are diagrams for explaining the processing by the image processing unit, and FIG. 6 shows a skull pin. It is a figure for demonstrating the sensor attached.

図3に示すように、実施例1における画像生成部36は、ボリュームデータ生成部361と画像処理部362とを有する。   As illustrated in FIG. 3, the image generation unit 36 according to the first embodiment includes a volume data generation unit 361 and an image processing unit 362.

ボリュームデータ生成部361は、前処理済みの3次元投影データを逆投影処理することで、ボリュームデータを生成し、生成したボリュームデータを画像記憶部37に格納する。   The volume data generation unit 361 generates volume data by performing a back projection process on the preprocessed three-dimensional projection data, and stores the generated volume data in the image storage unit 37.

画像処理部362は、ボリュームデータ生成部361が生成したボリュームデータから、MPR画像を術中CT画像として生成する処理部であり、体位取得部362aと、位置・角度取得部362bと、画像生成パラメータ算出部362cと、MPR生成部362dとを有する。   The image processing unit 362 is a processing unit that generates an MPR image as an intraoperative CT image from the volume data generated by the volume data generation unit 361. The body position acquisition unit 362a, the position / angle acquisition unit 362b, and image generation parameter calculation Unit 362c and MPR generation unit 362d.

ここで、術前CT画像は、通常のX線CT装置により水平な寝台に載置された患者Pの頭部を撮影されているので、図4の(A)に示すように、水平な体位に固定された患者Pの頭部が、体軸方向に沿って一定間隔でスライスされたアキシャル(Axial)断面となっている。   Here, since the preoperative CT image is obtained by imaging the head of the patient P placed on a horizontal bed by a normal X-ray CT apparatus, as shown in FIG. The head of the patient P fixed to the head has an axial cross section sliced at regular intervals along the body axis direction.

しかし、脳神経外科手術中の撮影では、図4の(B)に示すように、患者Pの頭部が、例えば、傾斜角度「θ(シータ)」で傾斜された状態となっており、術中撮影時スライス面は、術前CT画像のスライス面と異なる。すなわち、脳外科手術中に患者Pを撮影することで生成されたボリュームデータから、術中撮影時スライス面によりMPR画像を生成すると、生成されたMPR画像は、術前CT画像と異なるスライス面となってしまう。   However, in imaging during neurosurgery, as shown in FIG. 4B, the head of the patient P is tilted at an inclination angle “θ (theta)”, for example. The time slice plane is different from the slice plane of the preoperative CT image. That is, when an MPR image is generated from the volume data generated by imaging the patient P during the brain surgery using the intraoperative imaging slice plane, the generated MPR image becomes a slice plane different from the preoperative CT image. End up.

このため、画像処理部362は、図4の(B)に示すように、傾斜角度「θ(シータ)」などの情報を用いて、表示用スライス面を調整することで、術前CT画像とほぼ同一の断面のMPR画像を、ボリュームデータ生成部361が生成したボリュームデータから生成する。   For this reason, as shown in FIG. 4B, the image processing unit 362 adjusts the display slice plane using information such as the inclination angle “θ (theta)”, so that the preoperative CT image and An MPR image having substantially the same cross section is generated from the volume data generated by the volume data generation unit 361.

かかる処理を行なうために、まず、画像処理部362は、図2に示す体位取得部362aおよび位置・角度取得部362bにより、ボリュームデータが撮影された時点における患者Pの手術中位置情報を取得する。   In order to perform such processing, first, the image processing unit 362 acquires the intra-operative position information of the patient P at the time when the volume data is imaged by the body position acquisition unit 362a and the position / angle acquisition unit 362b illustrated in FIG. .

具体的には、体位取得部362aは、患者Pの手術中における体位の情報を、X線CT装置の操作者から入力装置31を介して取得する。例えば、医師は、入力装置31を用いて、患者Pの体位が「仰臥位」であるとする情報を入力する。これにより、体位取得部362aは、システム制御部38を介して「患者P:仰臥位」を取得する。なお、医師は、患者Pの体位をより詳細に示す情報として、手術中の患者Pの頭部が、例えば、右30度に傾いていることを表す「右30度」も、入力装置31を用いて入力してもよい。これにより、体位取得部362aは、図5に示すように、システム制御部38を介して「患者P:仰臥位、右30度」を取得する。   Specifically, the body position acquisition unit 362a acquires information on the body position of the patient P during the operation from the operator of the X-ray CT apparatus via the input device 31. For example, the doctor uses the input device 31 to input information indicating that the posture of the patient P is “the supine position”. Thereby, the body position acquisition unit 362a acquires “patient P: supine position” via the system control unit 38. Note that the doctor uses the input device 31 as “30 degrees to the right” indicating that the head of the patient P during the operation is tilted to 30 degrees to the right, for example, as information indicating the posture of the patient P in more detail. May be used. As a result, the body position acquisition unit 362a acquires “patient P: supine position, 30 degrees to the right” via the system control unit 38, as shown in FIG.

また、位置・角度取得部362bは、図1を用いて説明した手術台20およびヘッドフレーム21に取り付けられたセンサと接続されるエンコーダ20から、手術台20およびヘッドフレーム21の手術中における位置および角度を取得する。例えば、位置・角度取得部362bは、図5に示すように、手術台20の背もたれの部分に取り付けられた角度センサからエンコーダ22が検知した背もたれの傾斜角度(θ)を取得し、さらに、ヘッドフレーム21に取り付けられた位置センサからエンコーダ22が検知したヘッドフレーム21の空間位置における座標を取得する。   Further, the position / angle acquisition unit 362b receives the position of the operating table 20 and the head frame 21 during the operation from the encoder 20 connected to the operating table 20 and the sensor attached to the head frame 21 described with reference to FIG. Get the angle. For example, the position / angle acquisition unit 362b acquires the inclination angle (θ) of the backrest detected by the encoder 22 from an angle sensor attached to the backrest portion of the operating table 20, as shown in FIG. The coordinates at the spatial position of the head frame 21 detected by the encoder 22 are acquired from the position sensor attached to the frame 21.

図3に戻って、画像生成パラメータ算出部362cは、体位取得部362aが取得した患者Pの手術中の体位情報と、位置・角度取得部362bが取得した手術台20およびヘッドフレーム21の手術中における位置および角度とを手術中位置情報として受信する。   Returning to FIG. 3, the image generation parameter calculation unit 362 c performs the operation of the patient P during the operation of the patient P acquired by the position acquisition unit 362 a and the operation table 20 and the head frame 21 acquired by the position / angle acquisition unit 362 b. The position and angle at are received as intra-operative position information.

そして、画像生成パラメータ算出部362cは、受信した手術中位置情報に基づいて、術前CT画像と同一または同一に近いMPR画像をボリュームデータから生成するための画像生成パラメータを算出する。   Then, the image generation parameter calculation unit 362c calculates image generation parameters for generating, from the volume data, an MPR image that is the same as or close to the preoperative CT image, based on the received intra-operative position information.

具体的には、画像生成パラメータ算出部362cは、図5に示すように、画像生成パラメータとして、MPR画像を生成する際に用いられる画像生成座標面の向きおよび間隔を設定する。例えば、画像生成パラメータ算出部362cは、患者Pの手術中の体位と、手術台20の背もたれの傾斜角度(θ)と、ヘッドフレーム21の空間位置における座標とから、MPR画像を生成するための画像生成座標面の向き(傾き)を設定する。また、画像生成パラメータ算出部362cは、画像データベース40に患者Pの術前CT画像の付帯情報として格納されていた「術前CT画像のスライス間隔の情報」から、MPR画像を生成するための画像生成座標面の間隔を設定する。   Specifically, as shown in FIG. 5, the image generation parameter calculation unit 362c sets the orientation and interval of the image generation coordinate plane used when generating the MPR image as the image generation parameter. For example, the image generation parameter calculation unit 362c generates an MPR image from the posture of the patient P during the operation, the inclination angle (θ) of the backrest of the operating table 20, and the coordinates at the spatial position of the head frame 21. Sets the orientation (tilt) of the image generation coordinate plane. Further, the image generation parameter calculation unit 362c generates an MPR image from “slice interval information of the preoperative CT image” stored as the incidental information of the preoperative CT image of the patient P in the image database 40. Sets the interval between generated coordinate planes.

また、画像生成パラメータ算出部362cは、図5に示すように、画像生成パラメータとして、MPR画像にて描出される患者Pの患部の方向を、術前CT画像と一致させるための回転角度を設定する。例えば、画像生成パラメータ算出部362cは、図5に示すように、「患者P:仰臥位、右30度」の体位情報から、「右30度」を用いて回転角度「左30度」を設定する。   Further, as shown in FIG. 5, the image generation parameter calculation unit 362c sets a rotation angle for making the direction of the affected part of the patient P depicted in the MPR image coincide with the preoperative CT image as the image generation parameter. To do. For example, as illustrated in FIG. 5, the image generation parameter calculation unit 362c sets the rotation angle “30 degrees left” using “right 30 degrees” from the posture information of “patient P: supine position, right 30 degrees”. To do.

なお、画像生成パラメータ算出部362cは、例えば、術前CT画像が撮影された際に患者Pが架台装置に挿入された方向と、ボリュームデータが撮影された際に患者Pが架台装置10に挿入された方向とが逆であることが、術前CT画像の付帯情報、あるいは操作者から入力装置31を介して取得した場合、回転角度「左右逆転」とする。   Note that the image generation parameter calculation unit 362c, for example, inserts the patient P into the gantry device 10 when the preoperative CT image is imaged and the direction in which the patient P is inserted into the gantry device and the volume data is imaged. When it is acquired from the supplementary information of the preoperative CT image or from the operator via the input device 31 that the direction is reversed, the rotation angle is “left-right reverse”.

図3に戻って、MPR生成部362dは、画像生成パラメータ算出部362cによって算出された画像生成パラメータを用いて、ボリュームデータからMPR画像を生成し、生成したMPR画像を患者Pの術中CT画像として画像記憶部37に格納する。   Returning to FIG. 3, the MPR generation unit 362d generates an MPR image from the volume data using the image generation parameter calculated by the image generation parameter calculation unit 362c, and uses the generated MPR image as an intraoperative CT image of the patient P. Stored in the image storage unit 37.

すなわち、MPR生成部362dは、「画像生成座標面の向き」および「画像生成座標面の間隔」を用いて、ボリュームデータを、術前CT画像のスライス面とほぼ同一のスライス面にて、術前CT画像のスライス間隔と同一間隔でスライスした複数のMPR画像を生成する。そして、MPR生成部362dは、「回転角度」を用いて、複数のMPR画像の方向を修正する。   That is, the MPR generation unit 362d uses the “image generation coordinate plane direction” and the “image generation coordinate plane interval” to perform volume data operation on a slice plane substantially the same as the slice plane of the preoperative CT image. A plurality of MPR images sliced at the same interval as the slice interval of the previous CT image are generated. Then, the MPR generation unit 362d corrects the directions of the plurality of MPR images using the “rotation angle”.

システム制御部38は、患者Pの術中CT画像を画像記憶部37から読み出して、表示装置32のモニタにて表示するように制御する。具体的には、システム制御部38は、画像データベース40から読み出した患者Pの術前CT画像と、画像記憶部37に患者Pの術中CT画像として格納されたMPR画像とを、対応するスライス面にて並列表示したり、重畳表示したりするように制御する。   The system control unit 38 controls to read the intraoperative CT image of the patient P from the image storage unit 37 and display it on the monitor of the display device 32. Specifically, the system control unit 38 corresponds to the slice plane corresponding to the preoperative CT image of the patient P read from the image database 40 and the MPR image stored as the intraoperative CT image of the patient P in the image storage unit 37. Is controlled to display in parallel or superimposed.

なお、エンコーダ22と接続されるセンサが取り付けられる位置は、上述したように、手術台20の背もたれ部分や、ヘッドフレーム21が手術台20と接続されるためのアームに限定されるものではない。例えば、エンコーダ22と接続されるセンサが取り付けられる位置は、ヘッドフレーム21のスカルピンの位置や角度を検出可能な位置である場合であってもよい。   Note that the position where the sensor connected to the encoder 22 is attached is not limited to the backrest portion of the operating table 20 or the arm for connecting the head frame 21 to the operating table 20 as described above. For example, the position where the sensor connected to the encoder 22 is attached may be a position where the position and angle of the skull pin of the head frame 21 can be detected.

ここで、ヘッドフレーム21は、スカルピンの本数により、3点固定式のヘッドフレーム(図6の(A)参照)と、4点固定式のヘッドフレーム(図6の(B)参照)とが知られている。例えば、3点固定式のヘッドフレームでは、図6の(A)に示すように、3本のスカルピンにより患者Pの頭蓋骨がおよその位置に固定されたのち、回転ねじにより2本のスカルピンが回転されて微調整されることで、患者Pの頭蓋骨が術式に応じて固定される。また、4点固定式のヘッドフレームでは、図6の(B)に示すように、スカルピンの挿入箇所が複数あり、例えば、2本のスカルピンにより患者Pの頭蓋骨がおよその位置に固定されたのち、さらに患者Pの頭部位置を微調整したのち他の2本のスカルピンで固定されることで、患者Pの頭蓋骨が術式に応じて固定される。   Here, the head frame 21 is known to be a three-point fixed head frame (see FIG. 6A) and a four-point fixed head frame (see FIG. 6B) depending on the number of skull pins. It has been. For example, in a three-point fixed head frame, as shown in FIG. 6A, the skull of the patient P is fixed at an approximate position by three skull pins, and then the two skull pins are rotated by a rotating screw. By being finely adjusted, the skull of the patient P is fixed according to the surgical procedure. Further, in the four-point fixed head frame, as shown in FIG. 6B, there are a plurality of skull pin insertion locations. For example, after the skull of the patient P is fixed at an approximate position by two skull pins. Further, after finely adjusting the head position of the patient P, the skull of the patient P is fixed according to the surgical procedure by fixing with the other two skull pins.

したがって、3点固定式のヘッドフレーム21が用いられる場合、図6の(A)に示すように、2本のスカルピンを回転するための回転ねじに角度センサを取り付け、残りの1本のスカルピンが固定される箇所に位置センサに取り付けることにより、エンコーダ22は、患者Pの頭部が固定されている位置の情報を検知することができる。   Therefore, when a three-point fixed head frame 21 is used, as shown in FIG. 6A, an angle sensor is attached to a rotary screw for rotating two skull pins, and the remaining one skull pin is attached. By attaching the position sensor to the fixed position, the encoder 22 can detect information on the position where the head of the patient P is fixed.

また、4点固定式のヘッドフレーム21が用いられる場合、図6の(B)に示すように、各スカルピンに位置センサに取り付けることにより、エンコーダ22は、患者Pの頭部が固定されている位置の情報を検知することができる。   When a four-point fixed head frame 21 is used, as shown in FIG. 6B, the encoder 22 is fixed to the position sensor on each skull pin, so that the head of the patient P is fixed to the encoder 22. The position information can be detected.

すなわち、図6に示すようにヘッドフレーム21におけるスカルピンの位置や角度を検出可能なセンサを取り付けることで、画像生成パラメータ算出部362cは、手術台20に取り付けた角度センサと、操作者から入力された体位(例えば、仰臥位)の情報とにより、より精度の高い画像生成パラメータを算出することができる。   That is, as shown in FIG. 6, by attaching a sensor capable of detecting the position and angle of the skull pin in the head frame 21, the image generation parameter calculation unit 362c is input from the operator and the angle sensor attached to the operating table 20. More accurate image generation parameters can be calculated based on the information on the body position (for example, the supine position).

続いて、図7を用いて、本実施例におけるX線CT装置の処理の流れについて説明する。図7は、実施例1におけるX線CT装置の処理を説明するためのフローチャートである。   Subsequently, a processing flow of the X-ray CT apparatus in the present embodiment will be described with reference to FIG. FIG. 7 is a flowchart for explaining processing of the X-ray CT apparatus according to the first embodiment.

図7に示すように、実施例1におけるX線CT装置は、操作者から術中CT画像の撮影開始要求を受け付けると(ステップS101肯定)、ボリュームデータ生成部361は、架台装置10が収集し、前処理部34が前処理した3次元投影データから、ボリュームデータを生成する(ステップS102)。   As illustrated in FIG. 7, when the X-ray CT apparatus according to the first embodiment receives an intraoperative CT image imaging start request from the operator (Yes in step S101), the volume data generation unit 361 collects the gantry device 10, Volume data is generated from the three-dimensional projection data preprocessed by the preprocessing unit 34 (step S102).

そして、体位取得部362aおよび位置・角度取得部362bは、ボリュームデータが撮影された時点における患者Pの手術中位置情報を取得する(ステップS103)。具体的には、体位取得部362aは、患者Pの手術中における体位の情報を操作者から入力装置31を介して取得し、位置・角度取得部362bは、手術台20およびヘッドフレーム21に取り付けられたセンサと接続されるエンコーダ20から、手術台20およびヘッドフレーム21の手術中における位置および角度を取得する。   Then, the body position acquisition unit 362a and the position / angle acquisition unit 362b acquire the intra-operative position information of the patient P at the time when the volume data was imaged (step S103). Specifically, the posture acquisition unit 362a acquires information on the posture of the patient P during the operation from the operator via the input device 31, and the position / angle acquisition unit 362b is attached to the operating table 20 and the head frame 21. The position and angle of the operating table 20 and the head frame 21 during the operation are acquired from the encoder 20 connected to the sensor.

そののち、画像生成パラメータ算出部362cは、手術中位置情報に基づいて、患者Pの術前CT画像と同一または同一に近いMPR画像をボリュームデータから生成するための画像生成パラメータを算出する(ステップS104)。   After that, the image generation parameter calculation unit 362c calculates an image generation parameter for generating an MPR image that is the same as or close to the preoperative CT image of the patient P from the volume data based on the intra-operative position information (step) S104).

続いて、MPR生成部362dは、画像生成パラメータ算出部362cによって算出された画像生成パラメータを用いて、ボリュームデータからMPR画像を生成する(ステップS105)。   Subsequently, the MPR generation unit 362d generates an MPR image from the volume data using the image generation parameter calculated by the image generation parameter calculation unit 362c (step S105).

そして、システム制御部38は、生成されたMPR画像を、術中CT画像として表示装置32のモニタにて表示するように制御し(ステップS106)、処理を終了する。具体的には、システム制御部38は、画像データベース40から読み出した患者Pの術前CT画像と、患者Pの術中CT画像として生成されたMPR画像とを、対応するスライス面にて並列表示したり、重畳表示したりするように制御する。   Then, the system control unit 38 controls to display the generated MPR image on the monitor of the display device 32 as an intraoperative CT image (step S106), and ends the process. Specifically, the system control unit 38 displays the preoperative CT image of the patient P read from the image database 40 and the MPR image generated as the intraoperative CT image of the patient P in parallel on the corresponding slice plane. Or superimpose display.

上述してきたように、実施例1においては、ボリュームデータ生成部361は、手術中の患者Pの患部における3次元投影データから、ボリュームデータを生成する。体位取得部362aは、患者Pの手術中における体位の情報を操作者から入力装置31を介して取得し、位置・角度取得部362bは、手術台20およびヘッドフレーム21に取り付けられたセンサと接続されるエンコーダ20から、手術台20およびヘッドフレーム21の手術中における位置および角度を取得する。画像生成パラメータ算出部362cは、体位取得部362aおよび位置・角度取得部362bが取得した情報を、患者Pの手術中位置情報とし、手術中位置情報に基づいて、患者Pの術前CT画像と同一または同一に近いMPR画像をボリュームデータから生成するための画像生成パラメータを算出する。   As described above, in the first embodiment, the volume data generation unit 361 generates volume data from the three-dimensional projection data in the affected part of the patient P during surgery. The body position acquisition unit 362a acquires information on the body posture of the patient P during the operation from the operator via the input device 31, and the position / angle acquisition unit 362b is connected to the operating table 20 and the sensors attached to the head frame 21. The position and angle of the operating table 20 and the head frame 21 during the operation are acquired from the encoder 20. The image generation parameter calculation unit 362c uses the information acquired by the body position acquisition unit 362a and the position / angle acquisition unit 362b as intra-operative position information of the patient P, and based on the intra-operative position information, Image generation parameters for generating identical or nearly identical MPR images from volume data are calculated.

そして、MPR生成部362dは、画像生成パラメータ算出部362cによって算出された画像生成パラメータを用いて、ボリュームデータからMPR画像を生成し、システム制御部38は、画像生成されたMPR画像を、術中CT画像として表示装置32のモニタにて表示するように制御する。   Then, the MPR generation unit 362d generates an MPR image from the volume data using the image generation parameter calculated by the image generation parameter calculation unit 362c, and the system control unit 38 converts the image generated MPR image into the intraoperative CT. It controls so that it may display on the monitor of the display apparatus 32 as an image.

したがって、実施例1によれば、術前CT画像とほぼ同一スライス方向の術中CT画像を表示することができ、上記した主たる特徴の通り、手術中に撮影されたX線CT画像(術中CT画像)を参照して画像診断を行なう医師の負担を軽減することが可能となる。   Therefore, according to the first embodiment, an intraoperative CT image in the almost same slice direction as that of a preoperative CT image can be displayed. As described above, an X-ray CT image (intraoperative CT image) taken during an operation is displayed. ), It is possible to reduce the burden on the doctor who performs the image diagnosis.

また、実施例1においては、画像生成パラメータ算出部362cは、画像生成パラメータとして、MPR画像にて描出される患者Pの患部の方向を、術前CT画像と一致させるための回転角度を設定するので、表示される術中CT画像の方向を術前CT画像の方向と一致させることができ、画像診断を行なう医師の負担をより軽減することが可能となることに主たる特徴がある。   In the first embodiment, the image generation parameter calculation unit 362c sets a rotation angle for making the direction of the affected part of the patient P depicted in the MPR image coincide with the preoperative CT image as the image generation parameter. Therefore, the main feature is that the direction of the displayed intraoperative CT image can coincide with the direction of the preoperative CT image, and the burden on the doctor who performs the image diagnosis can be further reduced.

実施例2では、上記した実施例1とは異なる方法で、手術中位置情報を取得する場合について、図8および図9を用いて説明する。なお、図8は、実施例2における画像生成部を説明するための図であり、図9は、位置記憶部を説明するための図である。   In the second embodiment, a case where position information during operation is acquired by a method different from the first embodiment will be described with reference to FIGS. 8 and 9. FIG. 8 is a diagram for explaining the image generation unit in the second embodiment, and FIG. 9 is a diagram for explaining the position storage unit.

図8に示すように、実施例2における画像生成部36は、図3を用いて説明した実施例1における画像生成部36と比較して、体位取得部362aおよび位置・角度取得部362bの代わりに位置記憶部362eを有する点が異なる。以下、これを中心に説明する。   As illustrated in FIG. 8, the image generation unit 36 according to the second embodiment replaces the body position acquisition unit 362 a and the position / angle acquisition unit 362 b as compared with the image generation unit 36 according to the first embodiment described with reference to FIG. 3. Is different in that it has a position storage unit 362e. Hereinafter, this will be mainly described.

ここで、脳神経外科手術で頭部を固定するために用いられるスカルピンの標準的な頭蓋固定位置は、利用施設において、術式ごとに標準的な位置が予め定められている。すなわち、スカルピンの標準的な頭蓋固定位置は、手術中位置情報として用いることができる。   Here, the standard cranial fixation position of the skull pin used for fixing the head in neurosurgery is determined in advance for each surgical method in the use facility. That is, the standard skull fixing position of the skull pin can be used as position information during surgery.

そこで、位置記憶部362eは、ヘッドフレーム21が有するスカルピンの頭蓋固定位置を術式ごとに記憶する。例えば、位置記憶部362eは、図9に示すように、「術式:1」と「スカルピン位置:P1」とを対応付けて記憶する。   Therefore, the position storage unit 362e stores the skull pin skull fixing position of the head frame 21 for each surgical procedure. For example, as illustrated in FIG. 9, the position storage unit 362 e stores “technique: 1” and “skull pin position: P1” in association with each other.

そして、術中CT画像(MPR画像)を生成する際に、操作者から入力装置31を介して現在行なわれている術式が指定されると、画像生成パラメータ算出部362cは、指定された術式に対応するスカルピン位置を手術中位置情報として位置記憶部362eから取得して、画像生成パラメータの「画像生成座標面の向き」や「回転角度」を算出する。なお、画像生成パラメータ算出部362cは、画像生成座標面の間隔に関しては、実施例1と同様に算出する。   Then, when generating an intraoperative CT image (MPR image), if an operator currently designated is designated via the input device 31, the image generation parameter calculation unit 362 c will designate the designated technique. Is acquired from the position storage unit 362e as intra-operative position information, and the “image generation coordinate plane orientation” and “rotation angle” of the image generation parameters are calculated. Note that the image generation parameter calculation unit 362c calculates the interval between the image generation coordinate planes in the same manner as in the first embodiment.

なお、実施例2におけるX線CT装置による処理の流れは、図7を用いて説明した実施例1のX線CT装置による処理において、ステップS103における手術中位置情報の取得処理が、位置記憶部362eを用いた処理である以外は、同様であるので説明を省略する。   The processing flow by the X-ray CT apparatus according to the second embodiment is the same as the processing by the X-ray CT apparatus according to the first embodiment described with reference to FIG. Except for the process using 362e, the description is omitted because it is the same.

上述してきたように、実施例2では、術式ごとのスカルピン位置を記憶し、操作者から入力された術式に対応するスカルピン位置を手術中位置情報として取得して画像生成パラメータを算出するので、センサやエンコーダ20の設置が不用とすることができ、術前CT画像とほぼ同一スライス方向の術中CT画像を簡易に生成することが可能となる。   As described above, in the second embodiment, the skull pin position for each surgical procedure is stored, and the skull pin position corresponding to the surgical procedure input by the operator is acquired as the intra-operative positional information to calculate the image generation parameter. The installation of the sensor and the encoder 20 can be dispensed with, and an intraoperative CT image in substantially the same slice direction as that of the preoperative CT image can be easily generated.

なお、本実施例では、術式に対応付けられたスカルピン位置のみを手術中位置情報として画像生成パラメータを算出する場合について説明したが、本発明はこれに限定されるものではなく、位置記憶部362eから取得したスカルピン位置と、図6を用いて説明したセンサを介してエンコーダ22が取得したスカルピン位置や角度とを手術中位置情報として画像生成パラメータを算出する場合であってもよい。   In the present embodiment, the case where the image generation parameter is calculated using only the skull pin position associated with the surgical technique as the position information during surgery has been described, but the present invention is not limited to this, and the position storage unit The image generation parameter may be calculated using the skull pin position acquired from 362e and the skull pin position and angle acquired by the encoder 22 via the sensor described with reference to FIG.

実施例3では、画像生成パラメータ算出部362cが算出した画像生成パラメータを修正する場合について、図10および図11を用いて説明する。なお、図10は、実施例3における画像生成部を説明するための図であり、図11は、ランドマーク抽出部を説明するための図である。   In the third embodiment, a case where the image generation parameter calculated by the image generation parameter calculation unit 362c is corrected will be described with reference to FIGS. FIG. 10 is a diagram for explaining the image generation unit in the third embodiment, and FIG. 11 is a diagram for explaining the landmark extraction unit.

図10に示すように、実施例2における画像生成部36は、図3を用いて説明した実施例1における画像生成部36と比較して、ランドマーク抽出部362fおよび画像生成パラメータ修正部362gをさらに有する点が異なる。以下、これらを中心に説明する。   As illustrated in FIG. 10, the image generation unit 36 according to the second embodiment includes a landmark extraction unit 362 f and an image generation parameter correction unit 362 g as compared with the image generation unit 36 according to the first embodiment described with reference to FIG. 3. Furthermore, it has a different point. Hereinafter, these will be mainly described.

実施例3においては、実施例1と同様に、体位取得部362aおよび位置・角度取得部362bによって手術中位置情報が取得され、画像生成パラメータ算出部362cによって手術中位置情報から画像生成パラメータが算出される。   In the third embodiment, as in the first embodiment, the position information during surgery is acquired by the body position acquisition unit 362a and the position / angle acquisition unit 362b, and the image generation parameters are calculated from the position information during surgery by the image generation parameter calculation unit 362c. Is done.

そして、実施例3において、ランドマーク抽出部362fは、ボリュームデータ生成部361によって生成されたボリュームデータにて描出されている患者Pの生体組織に由来するランドマークを抽出する。   In the third embodiment, the landmark extraction unit 362f extracts a landmark derived from the living tissue of the patient P depicted by the volume data generated by the volume data generation unit 361.

例えば、ランドマーク抽出部362fは、図11に示すように、ボリュームデータから頭蓋骨が描出されている領域(頭蓋骨領域)のみを抽出し、抽出した頭蓋骨領域において、鼻骨の頂点、耳の穴における面積重心、眼窩における面積重心、頭蓋骨の縫合線の交点などをランドマークとして抽出する。   For example, as shown in FIG. 11, the landmark extraction unit 362f extracts only the region (skull region) where the skull is depicted from the volume data, and in the extracted skull region, the area at the apex of the nasal bone and the ear hole The center of gravity, the area center of gravity in the orbit, the intersection of the skull sutures, etc. are extracted as landmarks.

図10に戻って、画像生成パラメータ修正部362gは、画像生成パラメータ算出部362cによって算出された画像生成パラメータを、ランドマーク抽出部362fによって抽出されたランドマークのボリュームデータにおける位置情報に基づいて修正する。   Returning to FIG. 10, the image generation parameter correction unit 362g corrects the image generation parameter calculated by the image generation parameter calculation unit 362c based on the position information in the volume data of the landmark extracted by the landmark extraction unit 362f. To do.

そして、MPR生成部362dは、画像生成パラメータ修正部362gによって修正された画像生成パラメータを用いて、ボリュームデータからMPR画像を生成する。   Then, the MPR generation unit 362d generates an MPR image from the volume data using the image generation parameter corrected by the image generation parameter correction unit 362g.

なお、ランドマーク抽出部362fによって抽出されるランドマークの個数が3個以上であるならば、画像生成パラメータ修正部362gは、画像生成パラメータの修正処理を精度よく実行することができる。   Note that if the number of landmarks extracted by the landmark extraction unit 362f is three or more, the image generation parameter correction unit 362g can execute the image generation parameter correction processing with high accuracy.

また、ランドマーク抽出部362fによって抽出されるランドマークは、上述したように、患者Pの生体組織に由来するものに限定されるものではなく、生体組織以外の人工マーカがランドマークとして抽出される場合であってもよい。例えば、人工マーカとしては、患者Pの頭蓋骨に塗られたX線不透過性のマーカや、上述したスカルピンなどが挙げられる。   Further, as described above, the landmarks extracted by the landmark extraction unit 362f are not limited to those derived from the biological tissue of the patient P, and artificial markers other than the biological tissue are extracted as landmarks. It may be the case. For example, examples of the artificial marker include a radiopaque marker applied to the skull of the patient P, the above-described skull pin, and the like.

また、ランドマークを用いた画像生成パラメータの修正処理は、実施例2で説明したスカルピン位置を手術中位置情報として用いる場合でも適用可能である。   Further, the image generation parameter correction process using landmarks can be applied even when the skull pin position described in the second embodiment is used as intra-operative position information.

続いて、図12を用いて、本実施例におけるX線CT装置の処理の流れについて説明する。図12は、実施例3におけるX線CT装置の処理を説明するためのフローチャートである。   Subsequently, a processing flow of the X-ray CT apparatus in the present embodiment will be described with reference to FIG. FIG. 12 is a flowchart for explaining processing of the X-ray CT apparatus according to the third embodiment.

なお、図12に示すステップS201〜ステップS204の処理は、実施例1において図7を用いて説明したステップS101〜ステップS104の処理と同様であるので、説明を省略する。   Note that the processing in steps S201 to S204 shown in FIG. 12 is the same as the processing in steps S101 to S104 described with reference to FIG.

ステップS204の処理ののち、ランドマーク抽出部362fは、ボリュームデータにて描出されている患者Pの生体組織または人工マーカに由来するランドマークを抽出する(ステップS205)。   After the process of step S204, the landmark extraction unit 362f extracts a landmark derived from the biological tissue or artificial marker of the patient P depicted by the volume data (step S205).

そして、画像生成パラメータ修正部362gは、ランドマーク抽出部362fによって抽出されたランドマークのボリュームデータにおける位置情報に基づいて、ステップS204にて算出された画像生成パラメータを修正する(ステップS206)。   Then, the image generation parameter correction unit 362g corrects the image generation parameter calculated in step S204 based on the position information in the volume data of the landmark extracted by the landmark extraction unit 362f (step S206).

続いて、MPR生成部362dは、画像生成パラメータ修正部362gによって修正された画像生成パラメータを用いて、ボリュームデータからMPR画像を生成する(ステップS207)。   Subsequently, the MPR generation unit 362d generates an MPR image from the volume data using the image generation parameter corrected by the image generation parameter correction unit 362g (step S207).

そして、システム制御部38は、生成されたMPR画像を、術中CT画像として表示装置32のモニタにて表示するように制御し(ステップS208)、処理を終了する。   Then, the system control unit 38 controls to display the generated MPR image on the monitor of the display device 32 as an intraoperative CT image (step S208), and ends the process.

上述してきたように、実施例3では、ランドマークの位置情報を用いて画像生成パラメータを修正するので、術前CT画像とスライス方向が、実施例1および2の場合と比較して、より同一方向に近い術中CT画像を表示することができ、画像診断を行なう医師の負担をより軽減することが可能となる。   As described above, in the third embodiment, since the image generation parameters are corrected using the landmark position information, the preoperative CT image and the slice direction are more identical than those in the first and second embodiments. An intraoperative CT image close to the direction can be displayed, and the burden on the doctor performing the image diagnosis can be further reduced.

実施例4では、ランドマーク抽出部362fによって抽出されたランドマークのみを用いてMPR画像を生成する場合について、図13を用いて説明する。なお、図13は、実施例4における画像生成部を説明するための図である。   In the fourth embodiment, a case where an MPR image is generated using only landmarks extracted by the landmark extraction unit 362f will be described with reference to FIG. FIG. 13 is a diagram for explaining an image generation unit according to the fourth embodiment.

図13に示すように、実施例4における画像生成部36の画像処理部362は、ランドマーク抽出部362fと、画像生成パラメータ算出部362cと、MPR生成部362dとを有する。   As illustrated in FIG. 13, the image processing unit 362 of the image generation unit 36 according to the fourth embodiment includes a landmark extraction unit 362f, an image generation parameter calculation unit 362c, and an MPR generation unit 362d.

そして、実施例4におけるランドマーク抽出部362fは、実施例3と同様に、ボリュームデータにて描出されている患者Pの生体組織または人工マーカに由来するランドマークを抽出する。   And the landmark extraction part 362f in Example 4 extracts the landmark derived from the biological tissue or artificial marker of the patient P drawn by volume data similarly to Example 3.

さらに、ランドマーク抽出部362fは、抽出したランドマークのボリュームデータにおける位置情報を、手術中位置情報として取得する。   Further, the landmark extraction unit 362f acquires position information in the volume data of the extracted landmark as position information during surgery.

そして、実施例4における画像生成パラメータ算出部362cは、ランドマーク抽出部362fが取得した手術中位置情報(ランドマークの位置情報)に基づいて、画像生成パラメータを算出する。   Then, the image generation parameter calculation unit 362c according to the fourth embodiment calculates image generation parameters based on the intra-operative position information (landmark position information) acquired by the landmark extraction unit 362f.

なお、実施例4におけるX線CT装置による処理の流れは、図7を用いて説明した実施例1のX線CT装置による処理において、ステップS103における手術中位置情報の取得処理が、ランドマーク抽出部362fを用いた処理である以外は、同様であるので説明を省略する。   Note that the flow of processing by the X-ray CT apparatus in the fourth embodiment is the same as that in the processing by the X-ray CT apparatus of the first embodiment described with reference to FIG. Since the processing is the same except for the processing using the unit 362f, the description thereof is omitted.

上述してきたように、実施例4では、ランドマークの位置情報を手術中位置情報として画像生成パラメータを算出するので、センサやエンコーダ20の設置が不用とすることができ、術前CT画像とほぼ同一スライス方向の術中CT画像を簡易に生成することが可能となる。   As described above, in the fourth embodiment, since the image generation parameters are calculated using the position information of the landmark as the position information during the operation, the installation of the sensor and the encoder 20 can be made unnecessary, and almost the same as the preoperative CT image. Intraoperative CT images in the same slice direction can be easily generated.

なお、上記した実施例1〜4では、手術中のセットアップを保ったままで3次元のX線CT画像の撮影を行なうX線CT装置に本発明を適用した場合について説明した。しかし、本発明は、手術中のセットアップを保ったままで3次元のMRI画像の撮影を行なうMRI装置や、手術中のセットアップを保ったままで3次元のX線画像の撮影を行なうX線診断装置などの医用画像診断装置に対しても、適用可能である。   In the first to fourth embodiments described above, the case where the present invention is applied to an X-ray CT apparatus that captures a three-dimensional X-ray CT image while maintaining a setup during surgery has been described. However, the present invention provides an MRI apparatus that captures a three-dimensional MRI image while maintaining the setup during surgery, an X-ray diagnostic apparatus that captures a three-dimensional X-ray image while maintaining the setup during surgery, and the like. The present invention can also be applied to other medical image diagnostic apparatuses.

また、上記した実施例1〜4では、医用画像診断装置において術中のMPR画像を生成する場合について説明した。しかし、本発明は、画像処理部361の機能を有する画像処理装置が画像データベース40に格納された術中のボリュームデータから術中のMPR画像を生成する場合であってもよい。   In the first to fourth embodiments, the case where an intraoperative MPR image is generated in the medical image diagnostic apparatus has been described. However, the present invention may be a case where the image processing apparatus having the function of the image processing unit 361 generates an intraoperative MPR image from intraoperative volume data stored in the image database 40.

また、本発明は、脳神経外科手術における術中画像支援だけでなく、患者Pの手術中位置情報を取得することができるならば、整形外科手術などにおける術中画像支援においても適用可能である。   Further, the present invention can be applied not only to intraoperative image support in neurosurgery but also to intraoperative image support in orthopedic surgery or the like if position information of the patient P can be acquired during operation.

以上のように、本発明に係る医用画像診断装置および画像処理装置は、術中画像支援を行なう場合に有用であり、特に、手術中に撮影された医用画像を参照して画像診断を行なう医師の負担を軽減することに適する。   As described above, the medical image diagnostic apparatus and the image processing apparatus according to the present invention are useful when performing intraoperative image support, and in particular, by a doctor who performs image diagnosis with reference to medical images taken during surgery. Suitable for reducing the burden.

10 架台装置
11 高電圧発生部
12 X線管
13 X線検出器
14 データ収集部
15 回転フレーム
16 架台駆動部
20 手術台
21 ヘッドフレーム
22 エンコーダ
30 コンソール装置
31 入力装置
32 表示装置
33 スキャン制御部
34 前処理部
35 投影データ記憶部
36 画像生成部
361 ボリュームデータ生成部
362 画像処理部
362a 体位取得部
362b 位置・角度取得部
362c 画像生成パラメータ算出部
362d MPR生成部
37 画像記憶部
38 システム制御部
40 画像データベース
DESCRIPTION OF SYMBOLS 10 Mount apparatus 11 High voltage generation part 12 X-ray tube 13 X-ray detector 14 Data collection part 15 Rotating frame 16 Mount drive part 20 Operating table 21 Head frame 22 Encoder 30 Console apparatus 31 Input apparatus 32 Display apparatus 33 Scan control part 34 Pre-processing unit 35 Projection data storage unit 36 Image generation unit 361 Volume data generation unit 362 Image processing unit 362a Position acquisition unit 362b Position / angle acquisition unit 362c Image generation parameter calculation unit 362d MPR generation unit 37 Image storage unit 38 System control unit 40 Image database

Claims (7)

手術中の被検体を撮影して3次元医用画像を生成する3次元医用画像生成手段と、
前記3次元医用画像生成手段によって生成された前記3次元医用画像が撮影された時点における前記被検体の手術中位置情報を取得する手術中位置情報取得手段と、
前記手術中位置情報取得手段によって取得された前記手術中位置情報に基づいて、手術前に撮影された前記被検体の2次元医用画像と同一または同一に近い断面を前記3次元医用画像から生成するための画像生成パラメータを算出する画像生成パラメータ算出手段と、
前記画像生成パラメータ算出手段によって算出された前記画像生成パラメータを用いて、前記3次元医用画像から断面画像を生成する断面画生成手段と、
前記断面画像生成手段によって生成された前記断面画像を所定の表示部にて表示するように制御する表示制御手段と、
を備えたことを特徴とする医用画像診断装置。
3D medical image generation means for imaging a subject during surgery and generating a 3D medical image;
Intra-operative position information acquisition means for acquiring intra-operative position information of the subject at the time when the three-dimensional medical image generated by the three-dimensional medical image generation means is captured;
Based on the intra-operative position information acquired by the intra-operative position information acquisition unit, a cross section that is the same as or close to the same as the two-dimensional medical image of the subject imaged before the operation is generated from the three-dimensional medical image. Image generation parameter calculation means for calculating image generation parameters for
Using the image generation parameter calculated by the image generation parameter calculation means, a cross-sectional image generation means for generating a cross-sectional image from the three-dimensional medical image;
Display control means for controlling the cross-sectional image generated by the cross-sectional image generating means to be displayed on a predetermined display unit;
A medical image diagnostic apparatus comprising:
前記画像生成パラメータ算出手段は、前記画像生成パラメータとして、前記断面画像を生成する際に用いられる画像生成座標面を設定するための第一のパラメータと、前記断面画像にて描出される前記被検体の患部の方向を、前記2次元医用画像と一致させるための回転角度を設定するための第二のパラメータとを算出し、
前記断面画生成手段は、前記画像生成パラメータ算出手段によって算出された前記第一のパラメータを用いて前記3次元医用画像から生成した画像の方向を、前記画像生成パラメータ算出手段によって算出された前記第二のパラメータを用いて修正したうえで、前記断面画像を生成することを特徴とする請求項1に記載の医用画像診断装置。
The image generation parameter calculation means includes, as the image generation parameter, a first parameter for setting an image generation coordinate plane used when generating the cross-sectional image, and the subject imaged by the cross-sectional image And calculating a second parameter for setting a rotation angle for matching the direction of the affected area with the two-dimensional medical image,
The cross-sectional image generation means uses the first parameter calculated by the image generation parameter calculation means to determine the direction of the image generated from the three-dimensional medical image by the image generation parameter calculation means. The medical image diagnostic apparatus according to claim 1, wherein the cross-sectional image is generated after correction using two parameters.
前記被検体の手術中における体位の情報である体位情報を所定の入力部を介して取得する体位情報取得手段と、
前記被検体を固定して載置する手術台、および/または、前記被検体の患部を固定する固定具の位置情報を検知するセンサと、
をさらに備え、
前記手術中位置情報取得手段は、前記体位情報取得手段が取得した前記体位情報と、前記センサが検知した前記手術台、および/または、前記固定具の位置情報とを前記手術中位置情報として取得することを特徴とする請求項1または2に記載の医用画像診断装置。
Body position information acquisition means for acquiring body position information, which is information on the body position during surgery of the subject, via a predetermined input unit;
An operating table for fixing and placing the subject, and / or a sensor for detecting position information of a fixture for fixing the affected part of the subject;
Further comprising
The intra-operative position information acquisition means acquires the positional information acquired by the posture information acquisition means and the positional information of the operating table and / or the fixture detected by the sensor as the intra-operative position information. The medical image diagnostic apparatus according to claim 1, wherein the medical image diagnostic apparatus is a medical image diagnostic apparatus.
脳外科手術で用いられる頭部固定具が有するスカルピンの頭蓋固定位置を術式ごとに記憶する頭蓋固定位置記憶手段をさらに備え、
前記手術中位置情報取得手段は、操作者から指定された術式に対応するスカルピンの頭蓋固定位置を前記頭蓋固定位置記憶手段から取得し、当該取得したスカルピンの頭蓋固定位置を前記手術中位置情報として取得することを特徴とする請求項1〜3のいずれか一つに記載の医用画像診断装置。
A skull fixing position storage means for storing the skull fixing position of the skull pin included in the head fixing tool used in brain surgery for each surgical method;
The intra-operative position information acquisition means acquires the skull fixed position of the skull pin corresponding to the surgical method designated by the operator from the skull fixed position storage means, and the acquired skull pin's skull fixed position is the intra-operative position information. The medical image diagnostic apparatus according to claim 1, wherein the medical image diagnostic apparatus is acquired as
前記3次元医用画像生成手段によって生成された前記3次元医用画像にて描出されている前記被検体の生体組織に由来する特徴点、および/または、前記3次元医用画像生成手段によって生成された前記3次元医用画像にて描出されている前記被検体の生体組織以外の指標に由来する特徴点を抽出する特徴点抽出手段と、
前記画像生成パラメータ算出手段によって算出された前記画像生成パラメータを、前記特徴点抽出手段によって抽出された前記特徴点の位置情報に基づいて修正する画像生成パラメータ修正手段と、
をさらに備え、
前記断面画生成手段は、前記画像生成パラメータ修正手段によって修正された画像生成パラメータを用いて前記3次元医用画像から前記断面画像を生成することを特徴とする請求項1〜4のいずれか一つに記載の医用画像診断装置。
Feature points derived from the biological tissue of the subject depicted in the three-dimensional medical image generated by the three-dimensional medical image generation means, and / or the feature points generated by the three-dimensional medical image generation means A feature point extracting means for extracting a feature point derived from an index other than the biological tissue of the subject depicted in a three-dimensional medical image;
Image generation parameter correction means for correcting the image generation parameter calculated by the image generation parameter calculation means based on position information of the feature points extracted by the feature point extraction means;
Further comprising
The cross-sectional image generation unit generates the cross-sectional image from the three-dimensional medical image using the image generation parameter corrected by the image generation parameter correction unit. The medical image diagnostic apparatus described in 1.
前記位置情報取得手段は、前記3次元医用画像生成手段によって生成された前記3次元医用画像にて描出されている前記被検体の生体組織に由来する特徴点、および/または、前記3次元医用画像生成部によって生成された前記3次元医用画像にて描出されている前記被検体の生体組織以外の指標に由来する特徴点を抽出し、当該抽出した特徴点の位置情報を前記手術中位置情報として取得することを特徴とする請求項1または2に記載の医用画像診断装置。   The position information acquisition unit includes a feature point derived from the biological tissue of the subject and / or the three-dimensional medical image depicted in the three-dimensional medical image generated by the three-dimensional medical image generation unit. A feature point derived from an index other than the biological tissue of the subject depicted in the three-dimensional medical image generated by the generation unit is extracted, and position information of the extracted feature point is used as the intra-operative position information. The medical image diagnostic apparatus according to claim 1, wherein the medical image diagnostic apparatus is acquired. 手術中の被検体の3次元医用画像が撮影された時点における前記被検体の位置情報を取得する位置情報取得手段と、
前記位置情報取得手段によって取得された前記位置情報に基づいて、手術前に撮影された前記被検体の2次元医用画像と同一または同一に近い断面を前記3次元医用画像から生成するための画像生成パラメータを算出する画像生成パラメータ算出手段と、
前記画像生成パラメータ算出手段によって算出された前記画像生成パラメータを用いて、前記3次元医用画像から断面画像を生成する断面画像生成手段と、
前記断面画像生成手段によって生成された前記断面画像を所定の表示部にて表示するように制御する表示制御手段と、
を備えたことを特徴とする画像処理装置。
Position information acquisition means for acquiring position information of the subject at the time when a three-dimensional medical image of the subject under surgery is captured;
Image generation for generating, from the three-dimensional medical image, a cross section that is the same as or close to the two-dimensional medical image of the subject imaged before surgery based on the position information acquired by the position information acquisition means Image generation parameter calculation means for calculating parameters;
Using the image generation parameter calculated by the image generation parameter calculation means, a cross-sectional image generation means for generating a cross-sectional image from the three-dimensional medical image;
Display control means for controlling the cross-sectional image generated by the cross-sectional image generating means to be displayed on a predetermined display unit;
An image processing apparatus comprising:
JP2010000171A 2010-01-04 2010-01-04 Medical image diagnostic apparatus and image processing apparatus Active JP5624328B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010000171A JP5624328B2 (en) 2010-01-04 2010-01-04 Medical image diagnostic apparatus and image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010000171A JP5624328B2 (en) 2010-01-04 2010-01-04 Medical image diagnostic apparatus and image processing apparatus

Publications (2)

Publication Number Publication Date
JP2011136132A true JP2011136132A (en) 2011-07-14
JP5624328B2 JP5624328B2 (en) 2014-11-12

Family

ID=44348163

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010000171A Active JP5624328B2 (en) 2010-01-04 2010-01-04 Medical image diagnostic apparatus and image processing apparatus

Country Status (1)

Country Link
JP (1) JP5624328B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2544400A2 (en) 2011-06-20 2013-01-09 Renesas Electronics Corporation PUF based Cryptographic communication system and cryptographic communication method
WO2020166697A1 (en) 2019-02-14 2020-08-20 大日本印刷株式会社 Medical instrument color correction device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH021244A (en) * 1987-11-10 1990-01-05 George S Allen Anatomic image method and apparatus
JP2002510214A (en) * 1994-10-07 2002-04-02 セントルイス ユニバーシティー Surgical guidance device with reference and localization frame

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH021244A (en) * 1987-11-10 1990-01-05 George S Allen Anatomic image method and apparatus
JP2002510214A (en) * 1994-10-07 2002-04-02 セントルイス ユニバーシティー Surgical guidance device with reference and localization frame

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2544400A2 (en) 2011-06-20 2013-01-09 Renesas Electronics Corporation PUF based Cryptographic communication system and cryptographic communication method
WO2020166697A1 (en) 2019-02-14 2020-08-20 大日本印刷株式会社 Medical instrument color correction device

Also Published As

Publication number Publication date
JP5624328B2 (en) 2014-11-12

Similar Documents

Publication Publication Date Title
CN107847278B (en) Targeting system for providing visualization of a trajectory for a medical instrument
JP4822634B2 (en) A method for obtaining coordinate transformation for guidance of an object
US10102640B2 (en) Registering three-dimensional image data of an imaged object with a set of two-dimensional projection images of the object
JP6205078B2 (en) Vertebral level imaging system
US8238631B2 (en) System and method for automatic registration between an image and a subject
JP3947707B2 (en) Method and apparatus for acquiring and displaying computed tomographic images using a fluoroscopic imaging system
KR102269516B1 (en) Intraoperative image recording by means of reference markers
US9232982B2 (en) System for orientation assistance and display of an instrument in an object under examination particularly for use in human body
US8024026B2 (en) Dynamic reference method and system for use with surgical procedures
US7010095B2 (en) Apparatus for determining a coordinate transformation
EP2298223A1 (en) Technique for registering image data of an object
JP5231791B2 (en) Medical image diagnostic apparatus, medical image processing method, and computer program product
EP2676627B1 (en) System and method for automatic registration between an image and a subject
JP2022516642A (en) Systems and methods for alignment of coordinate system and navigation
JP2008029844A6 (en) X-ray combined diagnosis system
WO2013027228A1 (en) Tool positioning system
JPH09173352A (en) Medical navigation system
JP2010035814A (en) Medical image diagnostic apparatus
WO2008072398A1 (en) Medical photographing apparatus
JP2009028160A (en) Surgical ct system and medical image photographing system during surgery
JP5624328B2 (en) Medical image diagnostic apparatus and image processing apparatus
WO2015091226A1 (en) Laparoscopic view extended with x-ray vision
WO2023186996A1 (en) Method for registering a 3d medical image with a registration phantom
JP6878028B2 (en) Medical image diagnostic system and mixed reality image generator
WO2023072887A1 (en) Method for registering a 3d medical image with a registration phantom

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140422

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140902

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140926

R150 Certificate of patent or registration of utility model

Ref document number: 5624328

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350