JP2011072534A - Image processor and medical image diagnostic system - Google Patents

Image processor and medical image diagnostic system Download PDF

Info

Publication number
JP2011072534A
JP2011072534A JP2009226791A JP2009226791A JP2011072534A JP 2011072534 A JP2011072534 A JP 2011072534A JP 2009226791 A JP2009226791 A JP 2009226791A JP 2009226791 A JP2009226791 A JP 2009226791A JP 2011072534 A JP2011072534 A JP 2011072534A
Authority
JP
Japan
Prior art keywords
image
region
cutting position
generated
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009226791A
Other languages
Japanese (ja)
Other versions
JP5523784B2 (en
Inventor
Hideaki Kobayashi
秀明 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Priority to JP2009226791A priority Critical patent/JP5523784B2/en
Publication of JP2011072534A publication Critical patent/JP2011072534A/en
Application granted granted Critical
Publication of JP5523784B2 publication Critical patent/JP5523784B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To make a diagnosis, based on a virtual endoscope image, more efficiently. <P>SOLUTION: A 3D image data memory 33 stores a 3D X-ray CT image. A VE image generator 34 generates a VE image resulting from the perspective projection of a 3D X-ray CT image from a viewpoint position. An image cut position decision part 35 determines a cut position so that it covers the region of concern. A synthesizing VE image generator 36 generates a synthesizing VE image from the VE image where the viewpoint position side regarding the cut position is cut off. An MPR image generator 37 generates an MPR image of the 3D X-ray CT image at the cut position. An image region decision part 38 determines the air region containing the region of concern to be a non-display part of the MPR image. A synthesized image generation part 39 generates a synthesized image, in which synthesis is made between the synthesizing VE image region equivalent to the non-display MPR image region part and an MPR image region equivalent to this region except the MPR non-display region part. A display control part 310 displays the synthesized image on a display 32. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

この発明は、画像処理装置および医用画像診断装置に関する。   The present invention relates to an image processing apparatus and a medical image diagnostic apparatus.

従来、X線CT装置(CT;Computed Tomography)、磁気共鳴イメージング(MRI:Magnetic Resonance Imaging)装置、超音波診断装置などの医用画像診断装置によって収集された3次元画像データの画像表示方法として、仮想内視鏡(VE:Virtual Endoscopy)表示法(以下、VE法と記す)が知られている。例えば、VE法は、スクリーニング検査を含む術前診断を行なうための大腸解析システムにおいて、大腸を撮影した3次元X線CT画像の表示法(CTC:CT Colonography)として広く用いられている。   Conventionally, as an image display method of three-dimensional image data collected by a medical image diagnostic apparatus such as an X-ray CT apparatus (CT), a magnetic resonance imaging (MRI) apparatus, an ultrasonic diagnostic apparatus, etc., a virtual An endoscope (VE: Virtual Endoscopy) display method (hereinafter referred to as VE method) is known. For example, the VE method is widely used as a display method (CTC: CT Colonography) of a three-dimensional X-ray CT image obtained by photographing the large intestine in a large intestine analysis system for performing preoperative diagnosis including a screening test.

VE法は、3次元画像データに設定した視点を用いた透視投影法により投影画像を生成する方法である。具体的には、VE法においては、3次元画像データに含まれる器官内部に「視点位置」、「視線方向」および「視線方向を中心とする視野角度」からなるパラメータが設定される。そして、VE法においては、視点位置から視線方向および視野角度で定まる範囲に対して放射状に3次元画像データを透視投影することで、投影画像が生成される。   The VE method is a method of generating a projection image by a perspective projection method using a viewpoint set in three-dimensional image data. Specifically, in the VE method, parameters including “viewpoint position”, “line-of-sight direction”, and “viewing angle around the line-of-sight direction” are set inside the organ included in the three-dimensional image data. In the VE method, a projection image is generated by perspectively projecting three-dimensional image data radially from a viewpoint position in a range determined by a viewing direction and a viewing angle.

VE法により生成される投影画像は、内視鏡により器官内部の表面(内壁)を観察した内視鏡画像と類似した画像となり、仮想内視鏡画像(VE画像)と称される。図10は、仮想内視鏡画像を説明するための図である。例えば、図10に示すような大腸のVE画像を参照することで、医師は、大腸内壁における大腸ポリープの有無や大腸ポリープの大きさなどを観察することができる。また、パラメータを任意に変更することで、医師は、従来、内視鏡では観察できなかった部位をVE画像により観察することができる。   A projection image generated by the VE method is an image similar to an endoscopic image obtained by observing the surface (inner wall) inside the organ with an endoscope, and is called a virtual endoscopic image (VE image). FIG. 10 is a diagram for explaining a virtual endoscopic image. For example, referring to a VE image of the large intestine as shown in FIG. 10, the doctor can observe the presence / absence of the large intestine polyp on the inner wall of the large intestine, the size of the large intestine polyp, and the like. In addition, by arbitrarily changing the parameters, the doctor can observe a site that could not be observed with an endoscope by using a VE image.

ところで、医師にとっては、観察対象となる領域の器官内(組織内)の情報も画像診断を行なううえで重要となる。例えば、大腸のVE画像により大腸内壁にて確認された大腸ポリープが、大腸の組織内にどの程度広がっているのかを観察することが、医師にとっては、画像診断を行なうために重要となる。   By the way, for the doctor, information in the organ (tissue) of the region to be observed is also important in performing image diagnosis. For example, it is important for a doctor to perform image diagnosis to observe how much a large intestine polyp confirmed on the inner wall of the large intestine by a VE image of the large intestine spreads in the tissue of the large intestine.

このため、3次元画像データを所定の断面位置にて切断した断面画像をVE画像に合成した合成画像を表示する技術が知られている(例えば、特許文献1参照)。図11は、従来技術を説明するための図である。   For this reason, a technique for displaying a composite image obtained by combining a cross-sectional image obtained by cutting three-dimensional image data at a predetermined cross-sectional position with a VE image is known (see, for example, Patent Document 1). FIG. 11 is a diagram for explaining the prior art.

まず、図11に示すように、大腸の管腔内に設定された視点位置、視線方向(例えば、管腔の芯線)および視野角度により、図10に示すようなVE画像が生成される。そして、予め設定されている所定の距離により、VE画像の切削および断面画像を生成するための断面位置が決定される。具体的には、図11に示すように、視点位置から視線方向に向かって所定の距離だけ進んだ位置にて、視線方向に直交する断面が切断位置として決定される。   First, as shown in FIG. 11, a VE image as shown in FIG. 10 is generated based on the viewpoint position set in the lumen of the large intestine, the viewing direction (for example, the core line of the lumen), and the viewing angle. Then, the cutting position of the VE image and the cross-sectional position for generating the cross-sectional image are determined based on a predetermined distance set in advance. Specifically, as shown in FIG. 11, a cross section perpendicular to the line-of-sight direction is determined as a cutting position at a position advanced from the viewpoint position by a predetermined distance in the line-of-sight direction.

そして、図11に示すように、切断位置から視線位置側にある領域がVE画像から切削されることで合成用VE画像が生成され、大腸の3次元X線CT画像から切断位置におけるMPR(Multi Planar Reformat)画像が生成される。そして、図11に示すように、合成用VE画像とMPR画像とを合成することで、合成画像が生成される。   Then, as shown in FIG. 11, an area on the sight line side from the cutting position is cut from the VE image to generate a synthesis VE image, and an MPR (Multi-Plate) at the cutting position is generated from the three-dimensional X-ray CT image of the large intestine. Planar Reformat) image is generated. Then, as shown in FIG. 11, a composite image is generated by combining the composite VE image and the MPR image.

医師は、かかる技術により生成された合成画像を参照することで、観察対象領域の内壁表面だけでなく、観察対象領域の組織内のCT値も観察することができ、その結果、VE画像を用いた画像診断を効率的に行なうことができる。   The doctor can observe not only the inner wall surface of the observation target region but also the CT value in the tissue of the observation target region by referring to the composite image generated by such a technique. As a result, the VE image is used. The image diagnosis can be performed efficiently.

特開平11−76228号公報Japanese Patent Laid-Open No. 11-76228

ところで、上述した従来の技術は、VE画像を用いた画像診断を必ずしも効率的に行なうことができない場合があった。図12は、従来技術の課題を説明するための図である。   By the way, the conventional technology described above may not always be able to efficiently perform image diagnosis using a VE image. FIG. 12 is a diagram for explaining the problems of the prior art.

上述した従来の技術では、設定された視野角度の範囲内にあるVE画像から切削された合成用VE画像を用いて合成画像が生成される。したがって、視野角度によって定まる範囲に観察対象領域以外の管腔が含まれる場合、図12の(A)に示すように、合成画像には、観察対象領域とともに、観察対象領域以外の管腔(大腸内壁)も同時に描出される。このため、医師は、合成画像を参照しても、VE画像にて観察していた領域を容易に判別することができない。   In the above-described conventional technique, a composite image is generated using a composite VE image cut from a VE image within a set viewing angle range. Therefore, when a lumen other than the observation target region is included in the range determined by the viewing angle, as shown in FIG. 12A, the composite image includes a lumen other than the observation target region (colon). The inner wall is also drawn at the same time. For this reason, even if the doctor refers to the composite image, the doctor cannot easily determine the region observed in the VE image.

また、上述した従来の技術では、予め設定された所定の距離と視線方向とによって定まる切断位置を用いて合成用VE画像を生成している。このため、所定の距離と視線方向との設定によっては、切断位置が観察対象となる器官の外側に設定されたり、観察対象領域とは異なる管腔に設定されたりする場合がある。かかる場合、図12の(B)に示すように、合成画像には、観察対象領域以外の管腔(大腸内壁)のみ描出されてしまう。   Further, in the above-described conventional technique, the composition VE image is generated using a cutting position determined by a predetermined distance and a line-of-sight direction set in advance. For this reason, depending on the setting of the predetermined distance and the line-of-sight direction, the cutting position may be set to the outside of the organ to be observed or set to a lumen different from the observation target region. In this case, as shown in FIG. 12B, only the lumen (colon inner wall) other than the observation target region is depicted in the composite image.

そこで、この発明は、上述した従来技術の課題を解決するためになされたものであり、仮想内視鏡画像を用いた画像診断を効率的に行なうことが可能となる画像処理装置および医用画像診断装置を提供することを目的とする。   Accordingly, the present invention has been made to solve the above-described problems of the prior art, and an image processing apparatus and medical image diagnosis that can efficiently perform image diagnosis using a virtual endoscopic image. An object is to provide an apparatus.

上述した課題を解決し、目的を達成するために、請求項1記載の本発明は、視点位置、視線方向および視野角度を含む設定情報を用いた透視投影法により3次元医用画像データから投影画像を生成する投影画像生成手段と、前記投影画像生成手段によって生成された前記投影画像にて、前記設定情報によって定まる関心領域が含まれる切断位置を決定する切断位置決定手段と、前記投影画像生成手段によって生成された前記投影画像から、前記切断位置決定手段によって決定された前記切断位置に対して前記視点位置側に位置する領域を切削することで第一の画像を生成する第一の画像生成手段と、前記切断位置決定手段によって決定された前記切断位置における前記3次元医用画像データの断面画像を第二の画像として生成する第二の画像生成手段と、前記第二の画像生成手段によって生成された前記第二の画像において前記関心領域が含まれる空気領域を決定する領域決定手段と、前記第一の画像において前記領域決定手段によって決定された前記空気領域に該当する領域と、前記第二の画像において前記領域決定手段によって決定された前記空気領域以外の領域に該当する領域とを合成した合成画像を生成する合成画像生成手段と、前記合成画像生成手段によって生成された前記合成画像を、所定の表示部に表示するように制御する表示制御手段と、を備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention according to claim 1 is a projection image from three-dimensional medical image data by a perspective projection method using setting information including a viewpoint position, a line-of-sight direction, and a viewing angle. A projection image generation unit that generates a cutting position, a cutting position determination unit that determines a cutting position that includes a region of interest determined by the setting information in the projection image generated by the projection image generation unit, and the projection image generation unit First image generating means for generating a first image by cutting a region located on the viewpoint position side with respect to the cutting position determined by the cutting position determining means from the projection image generated by And a second image for generating a cross-sectional image of the three-dimensional medical image data at the cutting position determined by the cutting position determining means as a second image Generating means, area determining means for determining an air area including the region of interest in the second image generated by the second image generating means, and area determining means for the first image determined by the area determining means. A combined image generating unit that generates a combined image by combining a region corresponding to the air region and a region corresponding to a region other than the air region determined by the region determining unit in the second image; And display control means for controlling the composite image generated by the composite image generation means to be displayed on a predetermined display unit.

また、請求項3記載の本発明は、3次元医用画像データを収集する画像データ収集手段と、視点位置、視線方向および視野角度を含む設定情報を用いた透視投影法により前記画像データ収集手段によって収集された3次元医用画像データから投影画像を生成する投影画像生成手段と、前記投影画像生成手段によって生成された前記投影画像にて、前記設定情報によって定まる関心領域が含まれる切断位置を決定する切断位置決定手段と、前記投影画像生成手段によって生成された前記投影画像から、前記切断位置決定手段によって決定された前記切断位置に対して前記視点位置側に位置する領域を切削することで第一の画像を生成する第一の画像生成手段と、前記切断位置決定手段によって決定された前記切断位置における前記3次元医用画像データの断面画像を第二の画像として生成する第二の画像生成手段と、前記第二の画像生成手段によって生成された前記第二の画像において前記関心領域が含まれる空気領域を決定する領域決定手段と、前記第一の画像において前記領域決定手段によって決定された前記空気領域に該当する領域と、前記第二の画像において前記領域決定手段によって決定された前記空気領域以外の領域に該当する領域とを合成した合成画像を生成する合成画像生成手段と、前記合成画像生成手段によって生成された前記合成画像を、所定の表示部に表示するように制御する表示制御手段と、を備えたことを特徴とする。   According to a third aspect of the present invention, there is provided the image data collecting means for collecting the three-dimensional medical image data and the image data collecting means by the perspective projection method using the setting information including the viewpoint position, the line-of-sight direction, and the viewing angle. A cutting image generation unit that generates a projection image from the collected three-dimensional medical image data, and a cutting position that includes a region of interest determined by the setting information is determined by the projection image generated by the projection image generation unit. A cutting position determining unit and a region located on the viewpoint position side with respect to the cutting position determined by the cutting position determining unit are cut from the projection image generated by the projection image generating unit by first cutting First image generating means for generating an image of the three-dimensional medical image at the cutting position determined by the cutting position determining means A second image generating means for generating a cross-sectional image of the data as a second image, and an area determination for determining an air area including the region of interest in the second image generated by the second image generating means; A region corresponding to the air region determined by the region determination unit in the first image, and a region corresponding to a region other than the air region determined by the region determination unit in the second image. And a display control means for controlling the composite image generated by the composite image generation means to be displayed on a predetermined display unit. Features.

請求項1または3の発明によれば、仮想内視鏡画像を用いた画像診断を効率的に行なうことが可能となる。   According to the first or third aspect of the present invention, it is possible to efficiently perform image diagnosis using a virtual endoscopic image.

図1は、実施例1における画像処理装置の構成を示す図である。FIG. 1 is a diagram illustrating the configuration of the image processing apparatus according to the first embodiment. 図2は、VE画像生成部を説明するための図である。FIG. 2 is a diagram for explaining the VE image generation unit. 図3は、切断位置決定部を説明するための図である。FIG. 3 is a diagram for explaining the cutting position determination unit. 図4は、合成用VE画像生成部を説明するための図である。FIG. 4 is a diagram for explaining the composition VE image generation unit. 図5は、MPR画像生成部を説明するための図である。FIG. 5 is a diagram for explaining the MPR image generation unit. 図6は、実施例1における領域決定部を説明するための図である。FIG. 6 is a diagram for explaining the region determination unit according to the first embodiment. 図7は、合成画像生成部を説明するための図である。FIG. 7 is a diagram for explaining the composite image generation unit. 図8は、実施例1における画像処置装置の処理を説明するためのフローチャートである。FIG. 8 is a flowchart for explaining processing of the image processing apparatus according to the first embodiment. 図9は、実施例2における領域決定部を説明するための図である。FIG. 9 is a diagram for explaining the region determining unit according to the second embodiment. 図10は、仮想内視鏡画像を説明するための図である。FIG. 10 is a diagram for explaining a virtual endoscopic image. 図11は、従来技術を説明するための図である。FIG. 11 is a diagram for explaining the prior art. 図12は、従来技術の課題を説明するための図である。FIG. 12 is a diagram for explaining the problems of the prior art.

以下に添付図面を参照して、この発明に係る画像処理装置および医用画像診断装置の実施例を詳細に説明する。なお、本実施例によって本発明が限定されるものではない。   Exemplary embodiments of an image processing apparatus and a medical image diagnostic apparatus according to the present invention will be described below in detail with reference to the accompanying drawings. Note that the present invention is not limited to the embodiments.

まず、実施例1における画像処理装置の構成について説明する。図1は、実施例1における画像処理装置の構成を示す図である。図1に示すように、実施例1における画像処理装置30は、医用画像データベース20と接続されており、医用画像データベース20は、医用画像診断装置10と接続されている。なお、医用画像データベース20は、実際には、複数の医用画像診断装置10と接続されている。   First, the configuration of the image processing apparatus according to the first embodiment will be described. FIG. 1 is a diagram illustrating the configuration of the image processing apparatus according to the first embodiment. As shown in FIG. 1, the image processing apparatus 30 according to the first embodiment is connected to a medical image database 20, and the medical image database 20 is connected to a medical image diagnostic apparatus 10. The medical image database 20 is actually connected to a plurality of medical image diagnostic apparatuses 10.

実施例1における医用画像診断装置10は、3次元の医用画像を生成することが可能な医用画像診断装置である。具体的には、医用画像診断装置10は、3次元X線CT画像を生成可能なX線CT装置、3次元MRI画像を生成可能なMRI装置、3次元超音波画像を生成可能な超音波診断装置などである。   The medical image diagnostic apparatus 10 according to the first embodiment is a medical image diagnostic apparatus capable of generating a three-dimensional medical image. Specifically, the medical image diagnostic apparatus 10 is an X-ray CT apparatus capable of generating a three-dimensional X-ray CT image, an MRI apparatus capable of generating a three-dimensional MRI image, and an ultrasonic diagnosis capable of generating a three-dimensional ultrasonic image. Such as a device.

医用画像データベース20は、医用画像診断装置10によって生成された各種3次元医用画像を格納するデータベースである。具体的には、医用画像データベース20は、各種医用画像のデータを管理するシステムであるPACS(Picture Archiving and Communication System)のデータベースや、医用画像が添付された電子カルテを管理する電子カルテシステムのデータベースなどである。   The medical image database 20 is a database that stores various three-dimensional medical images generated by the medical image diagnostic apparatus 10. Specifically, the medical image database 20 is a database of a PACS (Picture Archiving and Communication System) that is a system that manages data of various medical images, and a database of an electronic medical record system that manages an electronic medical record to which medical images are attached. Etc.

ここで、実施例1における画像処理装置30は、操作者である医師から指定された3次元医用画像を医用画像データベース20から取得し、取得した3次元医用画像を画像処理したうえで、医師に提示する。   Here, the image processing apparatus 30 according to the first embodiment acquires a three-dimensional medical image designated by a doctor who is an operator from the medical image database 20, performs image processing on the acquired three-dimensional medical image, and then performs a process for the doctor. Present.

具体的には、実施例1における画像処理装置30は、医用画像データベース20から取得した3次元医用画像に基づいて、透視投影法により仮想内視鏡(VE:Virtual Endoscopy)画像を生成する。そして、実施例1における画像処理装置30は、生成したVE画像と、VE画像の生成元である3次元医用画像から生成した断面画像とを合成した合成画像の生成および表示を行なうことで、VE画像を用いた画像診断を効率的に行なうことが可能となるように構成された装置である。   Specifically, the image processing apparatus 30 according to the first embodiment generates a virtual endoscopy (VE) image by a perspective projection method based on a three-dimensional medical image acquired from the medical image database 20. Then, the image processing apparatus 30 according to the first embodiment generates and displays a composite image in which the generated VE image and the cross-sectional image generated from the three-dimensional medical image that is the generation source of the VE image are combined and displayed. It is an apparatus configured to be able to efficiently perform image diagnosis using an image.

以下、実施例1における画像処理装置30が行なう画像処理について、図1とともに、図2〜7を用いて詳細に説明する。なお、図2は、VE画像生成部を説明するための図であり、図3は、切断位置決定部を説明するための図であり、図4は、合成用VE画像生成部を説明するための図であり、図5は、MPR画像生成部を説明するための図であり、図6は、実施例1における領域決定部を説明するための図であり、図7は、合成画像生成部を説明するための図である。   Hereinafter, image processing performed by the image processing apparatus 30 according to the first embodiment will be described in detail with reference to FIGS. 2 is a diagram for explaining the VE image generation unit, FIG. 3 is a diagram for explaining the cutting position determination unit, and FIG. 4 is a diagram for explaining the composition VE image generation unit. FIG. 5 is a diagram for explaining the MPR image generation unit, FIG. 6 is a diagram for explaining the region determination unit in the first embodiment, and FIG. 7 is a composite image generation unit. It is a figure for demonstrating.

図1に示すように、実施例1における画像処理装置30は、入力部31と、表示部32と、3次元画像データ記憶部33と、VE画像生成部34と、切断位置決定部35と、合成用VE画像生成部36と、MPR画像生成部37と、領域決定部38と、合成画像生成部39と、表示制御部310とを有する。   As illustrated in FIG. 1, the image processing apparatus 30 according to the first embodiment includes an input unit 31, a display unit 32, a three-dimensional image data storage unit 33, a VE image generation unit 34, a cutting position determination unit 35, It has a composition VE image generation unit 36, an MPR image generation unit 37, an area determination unit 38, a composite image generation unit 39, and a display control unit 310.

入力部31は、マウスやキーボードやマイクなどを有し、医用画像を読影する医師など操作者が画像処理装置30を操作するための各種設定情報を入力するために用いられる。なお、入力部31が受け付ける各種設定情報については、後に詳述する。   The input unit 31 includes a mouse, a keyboard, a microphone, and the like, and is used for inputting various setting information for an operator such as a doctor who interprets a medical image to operate the image processing apparatus 30. Various setting information received by the input unit 31 will be described in detail later.

表示部32は、モニタなどを有し、入力部31を介して操作者から各種設定情報を受け付けるためのGUI(Graphical User Interface)や、後述する表示制御部310の制御の元、各種画像を表示したりする。   The display unit 32 includes a monitor and displays various images under the control of the GUI (Graphical User Interface) for receiving various setting information from the operator via the input unit 31 and the display control unit 310 described later. To do.

3次元画像データ記憶部33は、入力部31を介して操作者が指定することにより、画像処理装置30が医用画像データベース20から取得した3次元医用画像データを記憶する。なお、以下では、造影剤の投与および炭酸ガスの注入が行なわれている被検体の大腸をX線CT装置によって撮影した3次元X線画像が、3次元画像データ記憶部33に格納された場合について説明する。ただし、本発明は、被検体の大腸を撮影した3次元MRI画像や3次元超音波画像が3次元画像データ記憶部33に格納される場合であっても、適用可能である。また、本発明は、VE画像を用いた画像診断を行なうことが可能な箇所であるならば、大腸以外の箇所が被検体の撮影部位である場合でも適用可能である。   The three-dimensional image data storage unit 33 stores the three-dimensional medical image data acquired from the medical image database 20 by the image processing device 30 as specified by the operator via the input unit 31. In the following, when a three-dimensional X-ray image obtained by imaging the large intestine of a subject on which a contrast medium is administered and carbon dioxide is injected is stored in the three-dimensional image data storage unit 33. Will be described. However, the present invention is applicable even when a three-dimensional MRI image or a three-dimensional ultrasonic image obtained by photographing the large intestine of a subject is stored in the three-dimensional image data storage unit 33. In addition, the present invention can be applied even when a portion other than the large intestine is an imaging region of a subject as long as it is a portion where image diagnosis using a VE image can be performed.

VE画像生成部34は、透視投影法により3次元X線CT画像から仮想内視鏡(VE:Virtual Endoscopy)画像を生成する。まず、VE画像生成部34は、3次元X線CT画像において、例えば、閾値を用いた処理により、空気に相当するCT値を有する領域(空気領域)を抽出する。また、VE画像生成部34は、空気領域において設定された視点位置、視線方向および視野角度を含むパラメータを操作者から入力部31を介して受け付ける。なお、かかるパラメータを設定することで、VE画像の有効視野(FOV:Field Of View)が設定されることとなる。そして、VE画像生成部34は、設定された視点位置から視線方向および視野角度で定まる範囲に対して放射状に3次元X線CT画像を透視投影することでVE画像を生成する。   The VE image generation unit 34 generates a virtual endoscopy (VE) image from the three-dimensional X-ray CT image by a perspective projection method. First, the VE image generation unit 34 extracts a region (air region) having a CT value corresponding to air in the three-dimensional X-ray CT image, for example, by processing using a threshold value. Further, the VE image generation unit 34 receives parameters including the viewpoint position, the line-of-sight direction, and the viewing angle set in the air region from the operator via the input unit 31. By setting such parameters, an effective field of view (FOV: Field Of View) of the VE image is set. Then, the VE image generation unit 34 generates a VE image by perspectively projecting a three-dimensional X-ray CT image radially from a set viewpoint position in a range determined by the viewing direction and the viewing angle.

例えば、図2の(A)に示すような視点位置、視線方向および視野角度からなるパラメータが設定された場合、VE画像生成部34は、設定された視点位置から大腸の管腔における芯線と同一方向において、大腸の内壁を観察したVE画像を生成する。また、図2の(B)に示すようなパラメータが設定された場合、VE画像生成部34は、設定された視点位置から通常の内視鏡では観察することが困難な視線方向における大腸の内壁を観察したVE画像を生成する。   For example, when parameters including a viewpoint position, a line-of-sight direction, and a viewing angle as shown in FIG. 2A are set, the VE image generation unit 34 is the same as the core line in the colon lumen from the set viewpoint position. In the direction, a VE image in which the inner wall of the large intestine is observed is generated. When the parameters as shown in FIG. 2B are set, the VE image generation unit 34 causes the inner wall of the large intestine in the viewing direction that is difficult to observe with a normal endoscope from the set viewpoint position. A VE image in which is observed is generated.

ここで、図2の(A)に示すような視点位置、視線方向および視野角度からなるパラメータが設定されているならば、操作者が観察したい関心領域は、芯線方向を中心とした大腸の内壁の周囲全体となる。また、図2の(B)に示すようなパラメータが設定されているならば、操作者が観察したい関心領域は、視点位置に対して芯線方向の下側に位置する大腸の内壁部分となる。   Here, if parameters including the viewpoint position, the line-of-sight direction, and the viewing angle as shown in FIG. 2A are set, the region of interest that the operator wants to observe is the inner wall of the large intestine centering on the core line direction. The whole surroundings. If the parameters as shown in FIG. 2B are set, the region of interest that the operator wants to observe is the inner wall portion of the large intestine located on the lower side of the core line direction with respect to the viewpoint position.

図1に戻って、切断位置決定部35は、VE画像生成部34によって生成されたVE画像にて、上述したパラメータによって定まる関心領域が含まれる切断位置を決定する。具体的には、切断位置決定部35は、VE画像と合成されるMPR(Multi Planar Reformat)画像を生成するための切断位置を決定する。ここで、初期設定として、例えば、操作者から入力部31を介して予め「所定の距離」が設定され、切断位置決定部35は、図3に示すように、視点位置から視点方向に沿って「所定の距離」だけ進んだ位置にて、視線方向に直交する断面(以下、Aと記載する)に、関心領域が含まれるか否かを判定する。   Returning to FIG. 1, the cutting position determination unit 35 determines a cutting position in which the region of interest determined by the above-described parameters is included in the VE image generated by the VE image generation unit 34. Specifically, the cutting position determination unit 35 determines a cutting position for generating an MPR (Multi Planar Reformat) image to be combined with the VE image. Here, as an initial setting, for example, a “predetermined distance” is set in advance by the operator via the input unit 31, and the cutting position determination unit 35 follows the viewpoint direction from the viewpoint position as shown in FIG. 3. It is determined whether or not the region of interest is included in a cross section orthogonal to the line-of-sight direction (hereinafter referred to as A) at a position advanced by a “predetermined distance”.

まず、切断位置決定部35は、VE画像生成部34によって3次元X線CT画像にて抽出された空気領域を参照して、視点位置から視線方向の延長線上に位置する空気領域と非空気領域との境界面を算出する。ここで、図3に示すように、空気領域は、大腸の管腔に相当する領域であり、空気領域と非空気領域との境界面は、視点位置から視線方向に沿って観察した場合に最も近接した位置にある大腸の内壁が存在する面(以下、A’と記載する)となる。   First, the cutting position determination unit 35 refers to the air region extracted from the three-dimensional X-ray CT image by the VE image generation unit 34, and the air region and the non-air region located on the extension line in the line-of-sight direction from the viewpoint position. And the boundary surface is calculated. Here, as shown in FIG. 3, the air region is a region corresponding to the lumen of the large intestine, and the boundary surface between the air region and the non-air region is the most when observed from the viewpoint position along the line-of-sight direction. It is a surface (hereinafter referred to as A ′) where the inner wall of the large intestine exists at a close position.

ここで、切断位置決定部35は、視点位置から見てAの位置がA’の位置より近い場合、Aに関心領域が含まれているとして、初期設定により定まるAを切断位置として決定する(図3の(A)参照)。一方、切断位置決定部35は、視点位置から見てA’の位置がAの位置より近い場合、Aに関心領域が含まれておらず、A’に関心領域が含まれていると判断して、A’を切断位置として決定する(図3の(B)参照)。   Here, when the position of A is closer to the position of A ′ when viewed from the viewpoint position, the cutting position determination unit 35 determines that A is included in the region of interest and determines A determined by the initial setting as the cutting position ( (See (A) of FIG. 3). On the other hand, when the position of A ′ is closer to the position of A when viewed from the viewpoint position, the cutting position determination unit 35 determines that A does not include the region of interest and A ′ includes the region of interest. Then, A ′ is determined as the cutting position (see FIG. 3B).

図1に戻って、合成用VE画像生成部36は、VE画像生成部34によって生成されたVE画像から、切断位置決定部35によって決定された切断位置に対して視点位置側に位置する領域を切削することで合成用VE画像を生成する。例えば、合成用VE画像生成部36は、図2の(A)に示すパラメータに基づいてVE画像生成部34が生成したVE画像から、切断位置決定部35が決定した切断位置「A」(図3の(A)参照)に対して視点位置側に位置する領域を切削することで、図4に示すような合成用VE画像を生成する。また、合成用VE画像生成部36は、図2の(B)に示すパラメータに基づいてVE画像生成部34が生成したVE画像からは、切断位置決定部35が決定した切断位置「A’」(図3の(B)参照)に対して視点位置側に位置する領域を切削した合成用VE画像を生成する。   Returning to FIG. 1, the composition VE image generation unit 36 selects an area located on the viewpoint position side with respect to the cutting position determined by the cutting position determination unit 35 from the VE image generated by the VE image generation unit 34. A composite VE image is generated by cutting. For example, the composition VE image generation unit 36 determines the cutting position “A” determined by the cutting position determination unit 35 from the VE image generated by the VE image generation unit 34 based on the parameters shown in FIG. 3 (see (A)), a region located on the viewpoint position side is cut to generate a composition VE image as shown in FIG. Further, the composition VE image generation unit 36 determines the cutting position “A ′” determined by the cutting position determination unit 35 from the VE image generated by the VE image generation unit 34 based on the parameters shown in FIG. A composite VE image is generated by cutting a region located on the viewpoint position side with respect to (see FIG. 3B).

図1に戻って、MPR画像生成部37は、切断位置決定部35によって決定された切断位置における3次元X線CT画像のMPR画像を生成する。例えば、合成用VE画像生成部36は、図2の(A)に示すパラメータに基づいてVE画像生成部34がVE画像を生成するために用いた3次元X線CT画像を処理対象とし、この3次元X線CT画像の切断位置「A」におけるMPR画像を生成する(図5参照)。また、合成用VE画像生成部36は、図2の(B)に示すパラメータに基づいてVE画像生成部34がVE画像を生成するために用いた3次元X線CT画像を処理対象とし、この3次元X線CT画像の切断位置「A’」におけるMPR画像を生成する(図5参照)。   Returning to FIG. 1, the MPR image generation unit 37 generates an MPR image of the three-dimensional X-ray CT image at the cutting position determined by the cutting position determination unit 35. For example, the synthesizing VE image generation unit 36 targets the three-dimensional X-ray CT image used for generating the VE image by the VE image generation unit 34 based on the parameters shown in FIG. An MPR image at the cutting position “A” of the three-dimensional X-ray CT image is generated (see FIG. 5). In addition, the synthesis VE image generation unit 36 sets the three-dimensional X-ray CT image used by the VE image generation unit 34 to generate the VE image based on the parameters shown in FIG. An MPR image at the cutting position “A ′” of the three-dimensional X-ray CT image is generated (see FIG. 5).

図1に戻って、領域決定部38は、MPR画像生成部37によって生成されたMPR画像において関心領域が含まれる空気領域を決定する。具体的には、領域決定部38は、図6の(A)に示すように、3次元X線CT画像の視点位置を通り、視線方向上にある直線上において、視点位置から一番遠くに位置する空気領域の点「P」の位置を算出する。これにより、領域決定部38は、図6の(A)に示すように、視点位置と点「P」とを結んだ点列の位置情報(以下、点列情報と記載する)を算出する。   Returning to FIG. 1, the region determination unit 38 determines an air region in which the region of interest is included in the MPR image generated by the MPR image generation unit 37. Specifically, as shown in FIG. 6A, the region determination unit 38 passes through the viewpoint position of the three-dimensional X-ray CT image and is farthest from the viewpoint position on a straight line in the line-of-sight direction. The position of the point “P” in the located air region is calculated. As a result, the region determination unit 38 calculates position information (hereinafter referred to as point sequence information) of a point sequence connecting the viewpoint position and the point “P” as shown in FIG.

そして、領域決定部38は、図6の(A)に示すように、算出した点列情報と切断位置決定部35が決定した切断位置との交点を決定する。そして、領域決定部38は、切断位置に含まれ、かつ、決定した交点と連結する空気領域を決定する。そして、領域決定部38は、図6の(B)に示すように、決定した領域を、MPR画像の非表示領域であると決定する。すなわち、MPR画像の非表示領域は、操作者がVE画像にて観察したい領域となる。   Then, as shown in FIG. 6A, the region determining unit 38 determines the intersection between the calculated point sequence information and the cutting position determined by the cutting position determining unit 35. Then, the region determination unit 38 determines an air region that is included in the cutting position and connected to the determined intersection. Then, the area determination unit 38 determines that the determined area is a non-display area of the MPR image, as illustrated in FIG. That is, the non-display area of the MPR image is an area that the operator wants to observe on the VE image.

図1に戻って、合成画像生成部39は、合成用VE画像生成部36が生成した合成用VE画像において「MPR画像の非表示領域」に該当する領域と、MPR画像生成部37が生成したMPR画像において「MPR画像の非表示領域」以外の領域に該当する領域とを合成した合成画像を生成する。例えば、合成画像生成部39は、図2の(A)に示すパラメータによりVE画像が生成された場合、図4に示す合成用VE画像の「MPR画像の非表示領域」に該当する領域と、図5に示すMPR画像において「MPR画像の非表示領域」以外の領域に該当する領域とを合成することで、図7に示すような合成画像を生成する。   Returning to FIG. 1, the composite image generation unit 39 generates an area corresponding to the “non-display area of the MPR image” in the composite VE image generated by the composite VE image generation unit 36 and the MPR image generation unit 37 generates. In the MPR image, a composite image is generated by combining regions corresponding to regions other than the “MPR image non-display region”. For example, when the VE image is generated with the parameters shown in FIG. 2A, the composite image generation unit 39 includes a region corresponding to the “MPR image non-display region” of the composite VE image shown in FIG. The synthesized image as shown in FIG. 7 is generated by synthesizing the MPR image shown in FIG. 5 with an area corresponding to an area other than the “non-display area of the MPR image”.

図1に戻って、表示制御部310は、合成画像生成部39によって生成された前記合成画像を、表示部32のモニタにて表示するように制御する。例えば、合成画像生成部39は、図7に示す合成画像を表示部32のモニタにて表示するように制御する。これにより、読影者である医師は、関心領域のVE画像のみがMPR画像と合成された合成画像を参照することができる。   Returning to FIG. 1, the display control unit 310 controls to display the composite image generated by the composite image generation unit 39 on the monitor of the display unit 32. For example, the composite image generation unit 39 controls to display the composite image illustrated in FIG. 7 on the monitor of the display unit 32. Thereby, the doctor who is an image interpreter can refer to the composite image in which only the VE image of the region of interest is combined with the MPR image.

次に、図8を用いて、実施例1における画像処置装置30の処理について説明する。図8は、実施例1における画像処置装置の処理を説明するためのフローチャートである。   Next, processing of the image processing apparatus 30 according to the first embodiment will be described with reference to FIG. FIG. 8 is a flowchart for explaining processing of the image processing apparatus according to the first embodiment.

図8に示すように、実施例1における画像処置装置30は、医用画像データベース20から処理対象となる3次元X線CT画像が3次元画像データ記憶部33に格納されると(ステップS101肯定)、操作者から各種パラメータが設定されたか否かを判定する(ステップS102)。ここで、操作者が設定する各種パラメータは、上述したように、視点位置、視線方向および視野角度からなるVE画像生成用のパラメータと、初期の切断位置を設定するために用いられる「所定の距離」のことである。   As shown in FIG. 8, the image processing apparatus 30 according to the first embodiment stores a 3D X-ray CT image to be processed from the medical image database 20 in the 3D image data storage unit 33 (Yes in step S101). Then, it is determined whether various parameters are set by the operator (step S102). Here, as described above, the various parameters set by the operator are the VE image generation parameters including the viewpoint position, the line-of-sight direction, and the viewing angle, and the “predetermined distance” used for setting the initial cutting position. ".

そして、実施例1における画像処置装置30は、操作者から各種パラメータが設定されない場合(ステップS102否定)、各種パラメータが設定されるまで待機する。一方、操作者から各種パラメータが設定されると(ステップS102肯定)、VE画像生成部34は、3次元X線CT画像にて空気領域を抽出し、空気領域にて設定された視点位置から視線方向および視野角度で定まる範囲に対して放射状に3次元X線CT画像を透視投影することでVE画像を生成する(ステップS103)。   Then, when various parameters are not set by the operator (No at Step S102), the image processing device 30 according to the first embodiment stands by until various parameters are set. On the other hand, when various parameters are set by the operator (Yes in step S102), the VE image generation unit 34 extracts an air region from the three-dimensional X-ray CT image, and looks from the viewpoint position set in the air region. A VE image is generated by perspectively projecting a three-dimensional X-ray CT image radially over a range determined by the direction and the viewing angle (step S103).

そして、切断位置決定部35は、3次元X線CT画像において、設定されたパラメータに基づく切断位置を決定する(ステップS104)。すなわち、切断位置決定部35は、3次元X線CT画像において、視点位置から視点方向に沿って「所定の距離」だけ進んだ位置にて、視線方向に直交する断面を切断位置(A)として決定する。   Then, the cutting position determination unit 35 determines a cutting position based on the set parameters in the three-dimensional X-ray CT image (step S104). That is, the cutting position determination unit 35 sets a cross section orthogonal to the line-of-sight direction as a cutting position (A) at a position advanced by “a predetermined distance” from the viewpoint position along the viewpoint direction in the three-dimensional X-ray CT image. decide.

そののち、切断位置決定部35は、ステップS104にて決定した切断位置に関心領域が含まれるか否かを判定する(ステップS105)。具体的には、切断位置決定部35は、VE画像生成部34によって3次元X線CT画像にて抽出された空気領域を参照して、視点位置から視線方向の延長線上に位置する大腸の内壁が存在する面(A’)を算出する。そして、切断位置決定部35は、視点位置から見てAの位置がA’の位置より近い場合、Aに関心領域が含まれていると判断する。一方、切断位置決定部35は、視点位置から見てA’の位置がAの位置より近い場合、Aに関心領域が含まれていないと判断する。   After that, the cutting position determination unit 35 determines whether or not the region of interest is included in the cutting position determined in step S104 (step S105). Specifically, the cutting position determination unit 35 refers to the air region extracted from the three-dimensional X-ray CT image by the VE image generation unit 34, and the inner wall of the large intestine located on the extended line in the line-of-sight direction from the viewpoint position The surface (A ′) on which is present is calculated. Then, when the position of A is closer to the position of A ′ when viewed from the viewpoint position, the cutting position determination unit 35 determines that a region of interest is included in A. On the other hand, when the position of A ′ is closer to the position of A when viewed from the viewpoint position, the cutting position determination unit 35 determines that the region of interest is not included in A.

ここで、ステップS104にて決定した切断位置(A)に関心領域が含まれていると判定した場合(ステップS105肯定)、切断位置決定部35は、ステップS104で決定した切断位置を合成用VE画像生成部36およびMPR画像生成部37に通知する(ステップS108)。   Here, when it is determined that the region of interest is included in the cutting position (A) determined in step S104 (Yes in step S105), the cutting position determination unit 35 uses the cutting position determined in step S104 as a composition VE. The image generation unit 36 and the MPR image generation unit 37 are notified (step S108).

一方、ステップS104にて決定した切断位置(A)に関心領域が含まれていないと判定した場合(ステップS105否定)、切断位置決定部35は、新たな切断位置を決定する(ステップS106)。すなわち、切断位置決定部35は、A’に関心領域が含まれていると判断して、A’を新たな切断位置として決定する。そして、切断位置決定部35は、ステップS106で決定した切断位置を合成用VE画像生成部36およびMPR画像生成部37に通知する(ステップS107)。   On the other hand, when it is determined that the region of interest is not included in the cutting position (A) determined in step S104 (No in step S105), the cutting position determination unit 35 determines a new cutting position (step S106). That is, the cutting position determination unit 35 determines that A ′ includes a region of interest, and determines A ′ as a new cutting position. Then, the cutting position determination unit 35 notifies the combining VE image generation unit 36 and the MPR image generation unit 37 of the cutting position determined in step S106 (step S107).

そして、合成用VE画像生成部36は、VE画像生成部34によって生成されたVE画像から、切断位置決定部35から通知された切断位置を用いて合成用VE画像を生成する(ステップS109)。すなわち、合成用VE画像生成部36は、VE画像生成部34によって生成されたVE画像から、切断位置に対して視点位置側に位置する領域を切削することで合成用VE画像を生成する。   Then, the composition VE image generation unit 36 generates a composition VE image from the VE image generated by the VE image generation unit 34 by using the cutting position notified from the cutting position determination unit 35 (step S109). That is, the composition VE image generation unit 36 generates a composition VE image by cutting an area located on the viewpoint position side with respect to the cutting position from the VE image generated by the VE image generation unit 34.

続いて、MPR画像生成部37は、切断位置決定部35から通知された切断位置を用いて3次元X線CT画像からMPR画像を生成する(ステップS110)。すなわち、MPR画像生成部37は、切断位置決定部35によって決定された切断位置における3次元X線CT画像のMPR画像を生成する。   Subsequently, the MPR image generation unit 37 generates an MPR image from the three-dimensional X-ray CT image using the cutting position notified from the cutting position determination unit 35 (step S110). That is, the MPR image generation unit 37 generates an MPR image of the three-dimensional X-ray CT image at the cutting position determined by the cutting position determination unit 35.

そして、領域決定部38は、MPR画像生成部37によって生成されたMPR画像において関心領域が含まれる空気領域を決定することで、MPR画像の非表示領域を決定する(ステップS111、図6参照)。   Then, the region determination unit 38 determines a non-display region of the MPR image by determining an air region including the region of interest in the MPR image generated by the MPR image generation unit 37 (see step S111, FIG. 6). .

そののち、合成画像生成部39は、合成用VE画像において「MPR画像の非表示領域」に該当する領域と、MPR画像において「MPR画像の非表示領域」以外の領域に該当する領域とを合成した合成画像を生成する(ステップS112)。   After that, the composite image generation unit 39 combines the region corresponding to the “non-display region of the MPR image” in the composite VE image and the region corresponding to the region other than the “non-display region of the MPR image” in the MPR image. The synthesized image is generated (step S112).

そして、表示制御部310は、合成画像生成部39によって生成された前記合成画像を、表示部32のモニタにて表示するように制御し(ステップS113)、処理を終了する。   Then, the display control unit 310 controls to display the composite image generated by the composite image generation unit 39 on the monitor of the display unit 32 (step S113), and ends the process.

上述してきたように、実施例1では、VE画像生成部34は、3次元画像データ記憶部33に格納された3次元X線CT画像を、設定された視点位置から視線方向および視野角度で定まる範囲に対して放射状に透視投影することでVE画像を生成する。そして、切断位置決定部35は、VE画像生成部34によって生成されたVE画像にて、視点位置、視線方向および視野角度によって定まる関心領域が含まれる切断位置を決定する。そして、合成用VE画像生成部36は、VE画像生成部34によって生成されたVE画像から、切断位置決定部35によって決定された切断位置に対して視点位置側に位置する領域を切削することで合成用VE画像を生成し、MPR画像生成部37は、切断位置決定部35によって決定された切断位置における3次元X線CT画像のMPR画像を生成する。   As described above, in the first embodiment, the VE image generation unit 34 determines the 3D X-ray CT image stored in the 3D image data storage unit 33 based on the viewing direction and the viewing angle from the set viewpoint position. A VE image is generated by performing radial projection on the range in a radial manner. Then, the cutting position determination unit 35 determines a cutting position including a region of interest determined by the viewpoint position, the line-of-sight direction, and the viewing angle in the VE image generated by the VE image generation unit 34. Then, the composition VE image generation unit 36 cuts a region located on the viewpoint position side with respect to the cutting position determined by the cutting position determination unit 35 from the VE image generated by the VE image generation unit 34. The composition VE image is generated, and the MPR image generation unit 37 generates an MPR image of the three-dimensional X-ray CT image at the cutting position determined by the cutting position determination unit 35.

そして、領域決定部38は、MPR画像生成部37によって生成されたMPR画像において関心領域が含まれる空気領域を決定する。合成画像生成部39は、合成用VE画像生成部36が生成した合成用VE画像において「MPR画像の非表示領域」に該当する領域と、MPR画像生成部37が生成したMPR画像において「MPR画像の非表示領域」以外の領域に該当する領域とを合成した合成画像を生成する。表示制御部310は、合成画像生成部39によって生成された前記合成画像を、表示部32のモニタにて表示するように制御する。   Then, the region determination unit 38 determines an air region that includes the region of interest in the MPR image generated by the MPR image generation unit 37. The composite image generation unit 39 includes an “MPR image” in the region corresponding to the “non-display region of the MPR image” in the composite VE image generated by the composite VE image generation unit 36 and the MPR image generated by the MPR image generation unit 37. A combined image is generated by combining regions corresponding to regions other than “non-display region”. The display control unit 310 performs control so that the composite image generated by the composite image generation unit 39 is displayed on the monitor of the display unit 32.

したがって、実施例1によれば、VE画像で観察したい関心領域のみが合成画像にて必ず表示されるので、VE画像を用いた画像診断を効率的に行なうことが可能となる。特に、スクリーニング検査を含む術前診断における画像診断の効率を向上させることが可能になる。また、実施例1によれば、VE画像の関心領域以外は、MPR画像と合成された合成画像が表示されるので、関心領域(大腸の内壁)の組織内部のCT値を確実に把握することができるので、VE画像を用いた画像診断をより効率的に行なうことが可能となる。   Therefore, according to the first embodiment, since only the region of interest to be observed with the VE image is always displayed with the composite image, the image diagnosis using the VE image can be performed efficiently. In particular, it is possible to improve the efficiency of image diagnosis in preoperative diagnosis including screening examination. In addition, according to the first embodiment, since the synthesized image synthesized with the MPR image is displayed except for the region of interest of the VE image, the CT value inside the tissue of the region of interest (the inner wall of the large intestine) can be reliably grasped. Therefore, image diagnosis using a VE image can be performed more efficiently.

また、実施例1における合成画像の表示法は、X線CT装置におけるCTC(CT Colonography)だけでなく、CTCと比較して、被検体に対する負担軽減や、X線被曝が発生しないなどの利点を有するMRI装置におけるMRC(MR Colonography)でも実行可能であり、MRCの普及を推進することが可能となる。   Further, the composite image display method according to the first embodiment is advantageous not only in CTC (CT Colonography) in the X-ray CT apparatus, but also in that the burden on the subject is reduced and the X-ray exposure does not occur compared to the CTC. It can also be executed by MRC (MR Colonography) in the MRI apparatus that has it, and the spread of MRC can be promoted.

実施例2では、視線方向に沿って視点位置を「所定の間隔」で移動させることにより、合成画像の生成および表示を順次行なう場合について、図9を用いて説明する。なお、図9は、実施例2における領域決定部を説明するための図である。   In the second embodiment, a case in which a composite image is sequentially generated and displayed by moving the viewpoint position at “predetermined intervals” along the line-of-sight direction will be described with reference to FIG. FIG. 9 is a diagram for explaining the region determination unit in the second embodiment.

実施例2における画像処理装置は、図1に示す画像処理装置30と同様の構成からなるが、領域決定部38の行なう処理内容が実施例1と異なる。以下、これを中心に説明する。   The image processing apparatus according to the second embodiment has the same configuration as that of the image processing apparatus 30 illustrated in FIG. 1, but the processing content performed by the region determination unit 38 is different from that of the first embodiment. Hereinafter, this will be mainly described.

実施例2における領域決定部38は、実施例1と同様に、MPR画像において関心領域が含まれる空気領域を決定する。しかし、実施例2における領域決定部38は、実施例1とは異なり、直前に生成されたMPR画像において決定した関心領域が含まれる空気領域と、「所定の間隔」とを用いて、新たに生成されたMPR画像において関心領域が含まれる空気領域を決定する。   Similar to the first embodiment, the region determination unit 38 in the second embodiment determines an air region in which the region of interest is included in the MPR image. However, unlike the first embodiment, the region determination unit 38 in the second embodiment newly uses the air region including the region of interest determined in the MPR image generated immediately before and the “predetermined interval”. An air region that includes a region of interest in the generated MPR image is determined.

例えば、図9の(A)に示すように、視線方向が大腸の芯線として設定されており、「所定の間隔」として「移動間隔:d」が設定されているとする。かかる場合、直前に合成画像の生成および表示処理を行なう際に用いられた視点位置(i)は、次の時点で、芯線方向に沿って「移動間隔:d」進んだ視点位置(i+1)に移動することとなる。ここで、画像処理装置30は、視点位置(i+1)を用いて、実施例1と同様に、VE画像の生成、切断位置の決定、合成用VE画像の生成、MPR画像の生成を順次行なう。   For example, as shown in FIG. 9A, it is assumed that the line-of-sight direction is set as the core of the large intestine, and “movement interval: d” is set as the “predetermined interval”. In such a case, the viewpoint position (i) used when the composite image is generated and displayed immediately before is set to the viewpoint position (i + 1) advanced by “movement interval: d” along the core line direction at the next time point. Will move. Here, the image processing apparatus 30 sequentially uses the viewpoint position (i + 1) to generate a VE image, determine a cutting position, generate a synthesis VE image, and generate an MPR image, as in the first embodiment.

そして、領域決定部38は、図9の(B)に示すように、視点位置(i)の処理において決定したMPR画像の非表示領域(i)を芯線方向に沿って「移動間隔:d」だけ移動させた断面において、非表示領域(i)と同一の空気領域にある断面を、非表示領域(i+1)として決定する。これにより、画像処理装置30は、視点位置(i+1)における合成画像の生成および表示処理を行なう。   Then, as shown in FIG. 9B, the region determination unit 38 sets the non-display region (i) of the MPR image determined in the processing of the viewpoint position (i) along the core line direction as “movement interval: d”. The cross section in the same air region as the non-display area (i) is determined as the non-display area (i + 1). Thereby, the image processing device 30 performs the generation and display processing of the composite image at the viewpoint position (i + 1).

なお、実施例2における画像処理装置30の処理では、図8におけるステップS102にて設定されるパラメータに「移動間隔:d」が追加される。また、実施例2における画像処理装置30は、最初の視点位置においては、図8におけるステップS103〜ステップS112の処理を実施例1と同様に行なう。そして、実施例2における画像処理装置30は、第二の視点位置以降においては、図8におけるステップS103〜ステップS112の処理のうちステップS111の処理を上記にて説明した処理により行なう。   In the processing of the image processing apparatus 30 in the second embodiment, “movement interval: d” is added to the parameter set in step S102 in FIG. Further, the image processing apparatus 30 according to the second embodiment performs the processes of steps S103 to S112 in FIG. 8 in the same manner as the first embodiment at the first viewpoint position. Then, after the second viewpoint position, the image processing apparatus 30 according to the second embodiment performs the process of step S111 among the processes of steps S103 to S112 in FIG. 8 by the process described above.

上述してきたように、実施例2では、視点位置が移動されて合成画像が順次合成表示される場合、直前に決定された非表示領域を用いて新規の非表示領域を決定するので、合成画像を生成する際の処理負荷を軽減することが可能となる。   As described above, in the second embodiment, when the viewpoint position is moved and the synthesized images are sequentially synthesized and displayed, a new non-display area is determined using the non-display area determined immediately before. It is possible to reduce the processing load when generating.

なお、上記した実施例1および2では、画像処理装置30が医用画像診断装置30と独立に設置される場合について説明したが、本発明はこれに限定されるものではなく、医用画像診断装置10に画像処理装置30が組み込まれる場合であってもよい。すなわち、3次元X線CT画像を生成可能なX線CT装置、3次元MRI画像を生成可能なMRI装置、3次元超音波画像を生成可能な超音波診断装置などに画像処理装置30が組み込まれる場合であってもよい。   In the first and second embodiments, the case where the image processing apparatus 30 is installed independently of the medical image diagnostic apparatus 30 has been described. However, the present invention is not limited to this and the medical image diagnostic apparatus 10 is not limited thereto. The image processing apparatus 30 may be incorporated in the image processing apparatus. That is, the image processing apparatus 30 is incorporated in an X-ray CT apparatus that can generate a three-dimensional X-ray CT image, an MRI apparatus that can generate a three-dimensional MRI image, an ultrasonic diagnostic apparatus that can generate a three-dimensional ultrasonic image, and the like. It may be the case.

以上のように、本発明に係る画像処理装置および医用画像診断装置は、仮想内視鏡表示を行なう場合に有用であり、特に、仮想内視鏡画像を用いた画像診断を効率的に行なうことに適する。   As described above, the image processing apparatus and the medical image diagnostic apparatus according to the present invention are useful when performing virtual endoscopy display, and in particular, efficiently perform image diagnosis using a virtual endoscopic image. Suitable for.

10 医用画像診断装置
20 医用画像データベース
30 画像処理装置
31 入力部
32 表示部
33 3次元画像データ記憶部
34 VE画像生成部
35 切断位置決定部
36 合成用VE画像生成部
37 MPR画像生成部
38 領域決定部
39 合成画像生成部
310 表示制御部
DESCRIPTION OF SYMBOLS 10 Medical image diagnostic apparatus 20 Medical image database 30 Image processing apparatus 31 Input part 32 Display part 33 Three-dimensional image data memory | storage part 34 VE image generation part 35 Cutting position determination part 36 VE image generation part 37 MPR image generation part 38 Area | region Determination unit 39 Composite image generation unit 310 Display control unit

Claims (3)

視点位置、視線方向および視野角度を含む設定情報を用いた透視投影法により3次元医用画像データから投影画像を生成する投影画像生成手段と、
前記投影画像生成手段によって生成された前記投影画像にて、前記設定情報によって定まる関心領域が含まれる切断位置を決定する切断位置決定手段と、
前記投影画像生成手段によって生成された前記投影画像から、前記切断位置決定手段によって決定された前記切断位置に対して前記視点位置側に位置する領域を切削することで第一の画像を生成する第一の画像生成手段と、
前記切断位置決定手段によって決定された前記切断位置における前記3次元医用画像データの断面画像を第二の画像として生成する第二の画像生成手段と、
前記第二の画像生成手段によって生成された前記第二の画像において前記関心領域が含まれる空気領域を決定する領域決定手段と、
前記第一の画像において前記領域決定手段によって決定された前記空気領域に該当する領域と、前記第二の画像において前記領域決定手段によって決定された前記空気領域以外の領域に該当する領域とを合成した合成画像を生成する合成画像生成手段と、
前記合成画像生成手段によって生成された前記合成画像を、所定の表示部に表示するように制御する表示制御手段と、
を備えたことを特徴とする画像処理装置。
Projection image generating means for generating a projection image from three-dimensional medical image data by a perspective projection method using setting information including a viewpoint position, a line-of-sight direction, and a viewing angle;
A cutting position determining means for determining a cutting position including a region of interest determined by the setting information in the projection image generated by the projection image generating means;
A first image is generated by cutting an area located on the viewpoint position side with respect to the cutting position determined by the cutting position determining means from the projection image generated by the projection image generating means. An image generating means;
Second image generating means for generating a cross-sectional image of the three-dimensional medical image data at the cutting position determined by the cutting position determining means as a second image;
Area determining means for determining an air area in which the region of interest is included in the second image generated by the second image generating means;
The region corresponding to the air region determined by the region determining unit in the first image and the region corresponding to a region other than the air region determined by the region determining unit in the second image are combined. A composite image generating means for generating the composite image,
Display control means for controlling the composite image generated by the composite image generation means to be displayed on a predetermined display unit;
An image processing apparatus comprising:
前記視線方向に沿って前記視点位置を所定の間隔で移動させることにより、前記合成画像の生成および表示が順次行なわれる場合、
前記領域決定手段は、前記第二の画像生成手段によって新たに生成された第二の画像において前記関心領域が含まれる空気領域を、直前に決定した空気領域と前記所定の間隔とに基づいて決定することを特徴とする請求項1に記載の画像処理装置。
When the composite image is generated and displayed sequentially by moving the viewpoint position at a predetermined interval along the line-of-sight direction,
The region determination unit determines an air region including the region of interest in the second image newly generated by the second image generation unit based on the air region determined immediately before and the predetermined interval. The image processing apparatus according to claim 1, wherein:
3次元医用画像データを収集する画像データ収集手段と、
視点位置、視線方向および視野角度を含む設定情報を用いた透視投影法により前記画像データ収集手段によって収集された3次元医用画像データから投影画像を生成する投影画像生成手段と、
前記投影画像生成手段によって生成された前記投影画像にて、前記設定情報によって定まる関心領域が含まれる切断位置を決定する切断位置決定手段と、
前記投影画像生成手段によって生成された前記投影画像から、前記切断位置決定手段によって決定された前記切断位置に対して前記視点位置側に位置する領域を切削することで第一の画像を生成する第一の画像生成手段と、
前記切断位置決定手段によって決定された前記切断位置における前記3次元医用画像データの断面画像を第二の画像として生成する第二の画像生成手段と、
前記第二の画像生成手段によって生成された前記第二の画像において前記関心領域が含まれる空気領域を決定する領域決定手段と、
前記第一の画像において前記領域決定手段によって決定された前記空気領域に該当する領域と、前記第二の画像において前記領域決定手段によって決定された前記空気領域以外の領域に該当する領域とを合成した合成画像を生成する合成画像生成手段と、
前記合成画像生成手段によって生成された前記合成画像を、所定の表示部に表示するように制御する表示制御手段と、
を備えたことを特徴とする医用画像診断装置。
Image data collection means for collecting three-dimensional medical image data;
A projection image generating means for generating a projection image from the three-dimensional medical image data collected by the image data collecting means by a perspective projection method using setting information including a viewpoint position, a line-of-sight direction, and a viewing angle;
A cutting position determining means for determining a cutting position including a region of interest determined by the setting information in the projection image generated by the projection image generating means;
A first image is generated by cutting an area located on the viewpoint position side with respect to the cutting position determined by the cutting position determining means from the projection image generated by the projection image generating means. An image generating means;
Second image generating means for generating a cross-sectional image of the three-dimensional medical image data at the cutting position determined by the cutting position determining means as a second image;
Area determining means for determining an air area in which the region of interest is included in the second image generated by the second image generating means;
The region corresponding to the air region determined by the region determining unit in the first image and the region corresponding to a region other than the air region determined by the region determining unit in the second image are combined. A composite image generating means for generating the composite image,
Display control means for controlling the composite image generated by the composite image generation means to be displayed on a predetermined display unit;
A medical image diagnostic apparatus comprising:
JP2009226791A 2009-09-30 2009-09-30 Image processing apparatus and medical image diagnostic apparatus Active JP5523784B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009226791A JP5523784B2 (en) 2009-09-30 2009-09-30 Image processing apparatus and medical image diagnostic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009226791A JP5523784B2 (en) 2009-09-30 2009-09-30 Image processing apparatus and medical image diagnostic apparatus

Publications (2)

Publication Number Publication Date
JP2011072534A true JP2011072534A (en) 2011-04-14
JP5523784B2 JP5523784B2 (en) 2014-06-18

Family

ID=44017188

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009226791A Active JP5523784B2 (en) 2009-09-30 2009-09-30 Image processing apparatus and medical image diagnostic apparatus

Country Status (1)

Country Link
JP (1) JP5523784B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015535466A (en) * 2012-11-23 2015-12-14 アイカード インコーポレイテッドIcad, Inc. System and method for improving workflow efficiency in tomosynthesis medical image data interpretation

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1031761A (en) * 1996-07-17 1998-02-03 Ge Yokogawa Medical Syst Ltd Image display method and image display device
JPH1156832A (en) * 1997-08-26 1999-03-02 Ge Yokogawa Medical Syst Ltd Method and device for displaying image
JP2004016721A (en) * 2002-06-20 2004-01-22 Hitachi Medical Corp Diagnostic imaging support system
JP2006288495A (en) * 2005-04-06 2006-10-26 Toshiba Corp Image processor
JP2008259712A (en) * 2007-04-12 2008-10-30 Fujifilm Corp Image diagnostic reading support apparatus, method and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1031761A (en) * 1996-07-17 1998-02-03 Ge Yokogawa Medical Syst Ltd Image display method and image display device
JPH1156832A (en) * 1997-08-26 1999-03-02 Ge Yokogawa Medical Syst Ltd Method and device for displaying image
JP2004016721A (en) * 2002-06-20 2004-01-22 Hitachi Medical Corp Diagnostic imaging support system
JP2006288495A (en) * 2005-04-06 2006-10-26 Toshiba Corp Image processor
JP2008259712A (en) * 2007-04-12 2008-10-30 Fujifilm Corp Image diagnostic reading support apparatus, method and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015535466A (en) * 2012-11-23 2015-12-14 アイカード インコーポレイテッドIcad, Inc. System and method for improving workflow efficiency in tomosynthesis medical image data interpretation

Also Published As

Publication number Publication date
JP5523784B2 (en) 2014-06-18

Similar Documents

Publication Publication Date Title
JP5417609B2 (en) Medical diagnostic imaging equipment
JP4653542B2 (en) Image processing device
JP5377153B2 (en) Image processing apparatus, image processing program, and medical diagnostic system
JP5486432B2 (en) Image processing apparatus, operating method thereof, and program
JP2011193885A (en) System, method, apparatus and program for supporting endoscope observation
JP2013059609A (en) Medical image display device and x-ray diagnosis device
JP6013037B2 (en) Medical image processing device
JP2008061858A (en) Puncture treatment navigation apparatus
JP2013153883A (en) Image processing apparatus, imaging system, and image processing method
JP2007144162A (en) System and method for improved ablation of tumors
JP2008005923A (en) Medical guide system
JP2008183245A (en) Ultrasonic diagnostic apparatus and ultrasonic image display program
JP2013244211A (en) Medical image processor, medical image processing method and control program
US20100007663A1 (en) Medical image display control device and method for operating medical image display control device
JP2012016575A (en) Image processing apparatus and medical image diagnosis apparatus
JP2013009956A (en) Medical image display apparatus and medical image diagnostic apparatus
WO2014038703A1 (en) Diagnostic ultrasound apparatus, medical image-processing device and image processing program
JP2007014483A (en) Medical diagnostic apparatus and diagnostic support apparatus
JP6738631B2 (en) Medical image processing apparatus, medical image processing method, and medical image processing program
JP5170993B2 (en) Image processing apparatus and medical diagnostic apparatus including the image processing apparatus
JP2010075549A (en) Image processor
CN106919781B (en) Medical image processing apparatus
WO2013132820A1 (en) Medical image processing device, method, and program
JP5631584B2 (en) Medical image processing apparatus, medical image processing program, and medical image diagnostic apparatus
JP5523784B2 (en) Image processing apparatus and medical image diagnostic apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130813

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140311

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140409

R150 Certificate of patent or registration of utility model

Ref document number: 5523784

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350