JP2011072534A - Image processor and medical image diagnostic system - Google Patents
Image processor and medical image diagnostic system Download PDFInfo
- Publication number
- JP2011072534A JP2011072534A JP2009226791A JP2009226791A JP2011072534A JP 2011072534 A JP2011072534 A JP 2011072534A JP 2009226791 A JP2009226791 A JP 2009226791A JP 2009226791 A JP2009226791 A JP 2009226791A JP 2011072534 A JP2011072534 A JP 2011072534A
- Authority
- JP
- Japan
- Prior art keywords
- image
- region
- cutting position
- generated
- determined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000002131 composite material Substances 0.000 claims description 54
- 238000012545 processing Methods 0.000 claims description 45
- 238000000034 method Methods 0.000 claims description 26
- 238000013480 data collection Methods 0.000 claims 1
- 238000003745 diagnosis Methods 0.000 abstract description 15
- 230000002194 synthesizing effect Effects 0.000 abstract description 5
- 230000015572 biosynthetic process Effects 0.000 abstract description 4
- 238000003786 synthesis reaction Methods 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 21
- 210000002429 large intestine Anatomy 0.000 description 21
- 239000000203 mixture Substances 0.000 description 15
- 238000002595 magnetic resonance imaging Methods 0.000 description 7
- 238000013500 data storage Methods 0.000 description 6
- 210000000056 organ Anatomy 0.000 description 4
- 206010051589 Large intestine polyp Diseases 0.000 description 3
- 210000001072 colon Anatomy 0.000 description 3
- 208000022131 polyp of large intestine Diseases 0.000 description 3
- CURLTUGMZLYLDI-UHFFFAOYSA-N Carbon dioxide Chemical compound O=C=O CURLTUGMZLYLDI-UHFFFAOYSA-N 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000010882 preoperative diagnosis Methods 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 229910002092 carbon dioxide Inorganic materials 0.000 description 1
- 239000001569 carbon dioxide Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000002872 contrast media Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
Abstract
Description
この発明は、画像処理装置および医用画像診断装置に関する。 The present invention relates to an image processing apparatus and a medical image diagnostic apparatus.
従来、X線CT装置(CT;Computed Tomography)、磁気共鳴イメージング(MRI:Magnetic Resonance Imaging)装置、超音波診断装置などの医用画像診断装置によって収集された3次元画像データの画像表示方法として、仮想内視鏡(VE:Virtual Endoscopy)表示法(以下、VE法と記す)が知られている。例えば、VE法は、スクリーニング検査を含む術前診断を行なうための大腸解析システムにおいて、大腸を撮影した3次元X線CT画像の表示法(CTC:CT Colonography)として広く用いられている。 Conventionally, as an image display method of three-dimensional image data collected by a medical image diagnostic apparatus such as an X-ray CT apparatus (CT), a magnetic resonance imaging (MRI) apparatus, an ultrasonic diagnostic apparatus, etc., a virtual An endoscope (VE: Virtual Endoscopy) display method (hereinafter referred to as VE method) is known. For example, the VE method is widely used as a display method (CTC: CT Colonography) of a three-dimensional X-ray CT image obtained by photographing the large intestine in a large intestine analysis system for performing preoperative diagnosis including a screening test.
VE法は、3次元画像データに設定した視点を用いた透視投影法により投影画像を生成する方法である。具体的には、VE法においては、3次元画像データに含まれる器官内部に「視点位置」、「視線方向」および「視線方向を中心とする視野角度」からなるパラメータが設定される。そして、VE法においては、視点位置から視線方向および視野角度で定まる範囲に対して放射状に3次元画像データを透視投影することで、投影画像が生成される。 The VE method is a method of generating a projection image by a perspective projection method using a viewpoint set in three-dimensional image data. Specifically, in the VE method, parameters including “viewpoint position”, “line-of-sight direction”, and “viewing angle around the line-of-sight direction” are set inside the organ included in the three-dimensional image data. In the VE method, a projection image is generated by perspectively projecting three-dimensional image data radially from a viewpoint position in a range determined by a viewing direction and a viewing angle.
VE法により生成される投影画像は、内視鏡により器官内部の表面(内壁)を観察した内視鏡画像と類似した画像となり、仮想内視鏡画像(VE画像)と称される。図10は、仮想内視鏡画像を説明するための図である。例えば、図10に示すような大腸のVE画像を参照することで、医師は、大腸内壁における大腸ポリープの有無や大腸ポリープの大きさなどを観察することができる。また、パラメータを任意に変更することで、医師は、従来、内視鏡では観察できなかった部位をVE画像により観察することができる。 A projection image generated by the VE method is an image similar to an endoscopic image obtained by observing the surface (inner wall) inside the organ with an endoscope, and is called a virtual endoscopic image (VE image). FIG. 10 is a diagram for explaining a virtual endoscopic image. For example, referring to a VE image of the large intestine as shown in FIG. 10, the doctor can observe the presence / absence of the large intestine polyp on the inner wall of the large intestine, the size of the large intestine polyp, and the like. In addition, by arbitrarily changing the parameters, the doctor can observe a site that could not be observed with an endoscope by using a VE image.
ところで、医師にとっては、観察対象となる領域の器官内(組織内)の情報も画像診断を行なううえで重要となる。例えば、大腸のVE画像により大腸内壁にて確認された大腸ポリープが、大腸の組織内にどの程度広がっているのかを観察することが、医師にとっては、画像診断を行なうために重要となる。 By the way, for the doctor, information in the organ (tissue) of the region to be observed is also important in performing image diagnosis. For example, it is important for a doctor to perform image diagnosis to observe how much a large intestine polyp confirmed on the inner wall of the large intestine by a VE image of the large intestine spreads in the tissue of the large intestine.
このため、3次元画像データを所定の断面位置にて切断した断面画像をVE画像に合成した合成画像を表示する技術が知られている(例えば、特許文献1参照)。図11は、従来技術を説明するための図である。 For this reason, a technique for displaying a composite image obtained by combining a cross-sectional image obtained by cutting three-dimensional image data at a predetermined cross-sectional position with a VE image is known (see, for example, Patent Document 1). FIG. 11 is a diagram for explaining the prior art.
まず、図11に示すように、大腸の管腔内に設定された視点位置、視線方向(例えば、管腔の芯線)および視野角度により、図10に示すようなVE画像が生成される。そして、予め設定されている所定の距離により、VE画像の切削および断面画像を生成するための断面位置が決定される。具体的には、図11に示すように、視点位置から視線方向に向かって所定の距離だけ進んだ位置にて、視線方向に直交する断面が切断位置として決定される。 First, as shown in FIG. 11, a VE image as shown in FIG. 10 is generated based on the viewpoint position set in the lumen of the large intestine, the viewing direction (for example, the core line of the lumen), and the viewing angle. Then, the cutting position of the VE image and the cross-sectional position for generating the cross-sectional image are determined based on a predetermined distance set in advance. Specifically, as shown in FIG. 11, a cross section perpendicular to the line-of-sight direction is determined as a cutting position at a position advanced from the viewpoint position by a predetermined distance in the line-of-sight direction.
そして、図11に示すように、切断位置から視線位置側にある領域がVE画像から切削されることで合成用VE画像が生成され、大腸の3次元X線CT画像から切断位置におけるMPR(Multi Planar Reformat)画像が生成される。そして、図11に示すように、合成用VE画像とMPR画像とを合成することで、合成画像が生成される。 Then, as shown in FIG. 11, an area on the sight line side from the cutting position is cut from the VE image to generate a synthesis VE image, and an MPR (Multi-Plate) at the cutting position is generated from the three-dimensional X-ray CT image of the large intestine. Planar Reformat) image is generated. Then, as shown in FIG. 11, a composite image is generated by combining the composite VE image and the MPR image.
医師は、かかる技術により生成された合成画像を参照することで、観察対象領域の内壁表面だけでなく、観察対象領域の組織内のCT値も観察することができ、その結果、VE画像を用いた画像診断を効率的に行なうことができる。 The doctor can observe not only the inner wall surface of the observation target region but also the CT value in the tissue of the observation target region by referring to the composite image generated by such a technique. As a result, the VE image is used. The image diagnosis can be performed efficiently.
ところで、上述した従来の技術は、VE画像を用いた画像診断を必ずしも効率的に行なうことができない場合があった。図12は、従来技術の課題を説明するための図である。 By the way, the conventional technology described above may not always be able to efficiently perform image diagnosis using a VE image. FIG. 12 is a diagram for explaining the problems of the prior art.
上述した従来の技術では、設定された視野角度の範囲内にあるVE画像から切削された合成用VE画像を用いて合成画像が生成される。したがって、視野角度によって定まる範囲に観察対象領域以外の管腔が含まれる場合、図12の(A)に示すように、合成画像には、観察対象領域とともに、観察対象領域以外の管腔(大腸内壁)も同時に描出される。このため、医師は、合成画像を参照しても、VE画像にて観察していた領域を容易に判別することができない。 In the above-described conventional technique, a composite image is generated using a composite VE image cut from a VE image within a set viewing angle range. Therefore, when a lumen other than the observation target region is included in the range determined by the viewing angle, as shown in FIG. 12A, the composite image includes a lumen other than the observation target region (colon). The inner wall is also drawn at the same time. For this reason, even if the doctor refers to the composite image, the doctor cannot easily determine the region observed in the VE image.
また、上述した従来の技術では、予め設定された所定の距離と視線方向とによって定まる切断位置を用いて合成用VE画像を生成している。このため、所定の距離と視線方向との設定によっては、切断位置が観察対象となる器官の外側に設定されたり、観察対象領域とは異なる管腔に設定されたりする場合がある。かかる場合、図12の(B)に示すように、合成画像には、観察対象領域以外の管腔(大腸内壁)のみ描出されてしまう。 Further, in the above-described conventional technique, the composition VE image is generated using a cutting position determined by a predetermined distance and a line-of-sight direction set in advance. For this reason, depending on the setting of the predetermined distance and the line-of-sight direction, the cutting position may be set to the outside of the organ to be observed or set to a lumen different from the observation target region. In this case, as shown in FIG. 12B, only the lumen (colon inner wall) other than the observation target region is depicted in the composite image.
そこで、この発明は、上述した従来技術の課題を解決するためになされたものであり、仮想内視鏡画像を用いた画像診断を効率的に行なうことが可能となる画像処理装置および医用画像診断装置を提供することを目的とする。 Accordingly, the present invention has been made to solve the above-described problems of the prior art, and an image processing apparatus and medical image diagnosis that can efficiently perform image diagnosis using a virtual endoscopic image. An object is to provide an apparatus.
上述した課題を解決し、目的を達成するために、請求項1記載の本発明は、視点位置、視線方向および視野角度を含む設定情報を用いた透視投影法により3次元医用画像データから投影画像を生成する投影画像生成手段と、前記投影画像生成手段によって生成された前記投影画像にて、前記設定情報によって定まる関心領域が含まれる切断位置を決定する切断位置決定手段と、前記投影画像生成手段によって生成された前記投影画像から、前記切断位置決定手段によって決定された前記切断位置に対して前記視点位置側に位置する領域を切削することで第一の画像を生成する第一の画像生成手段と、前記切断位置決定手段によって決定された前記切断位置における前記3次元医用画像データの断面画像を第二の画像として生成する第二の画像生成手段と、前記第二の画像生成手段によって生成された前記第二の画像において前記関心領域が含まれる空気領域を決定する領域決定手段と、前記第一の画像において前記領域決定手段によって決定された前記空気領域に該当する領域と、前記第二の画像において前記領域決定手段によって決定された前記空気領域以外の領域に該当する領域とを合成した合成画像を生成する合成画像生成手段と、前記合成画像生成手段によって生成された前記合成画像を、所定の表示部に表示するように制御する表示制御手段と、を備えたことを特徴とする。 In order to solve the above-described problems and achieve the object, the present invention according to claim 1 is a projection image from three-dimensional medical image data by a perspective projection method using setting information including a viewpoint position, a line-of-sight direction, and a viewing angle. A projection image generation unit that generates a cutting position, a cutting position determination unit that determines a cutting position that includes a region of interest determined by the setting information in the projection image generated by the projection image generation unit, and the projection image generation unit First image generating means for generating a first image by cutting a region located on the viewpoint position side with respect to the cutting position determined by the cutting position determining means from the projection image generated by And a second image for generating a cross-sectional image of the three-dimensional medical image data at the cutting position determined by the cutting position determining means as a second image Generating means, area determining means for determining an air area including the region of interest in the second image generated by the second image generating means, and area determining means for the first image determined by the area determining means. A combined image generating unit that generates a combined image by combining a region corresponding to the air region and a region corresponding to a region other than the air region determined by the region determining unit in the second image; And display control means for controlling the composite image generated by the composite image generation means to be displayed on a predetermined display unit.
また、請求項3記載の本発明は、3次元医用画像データを収集する画像データ収集手段と、視点位置、視線方向および視野角度を含む設定情報を用いた透視投影法により前記画像データ収集手段によって収集された3次元医用画像データから投影画像を生成する投影画像生成手段と、前記投影画像生成手段によって生成された前記投影画像にて、前記設定情報によって定まる関心領域が含まれる切断位置を決定する切断位置決定手段と、前記投影画像生成手段によって生成された前記投影画像から、前記切断位置決定手段によって決定された前記切断位置に対して前記視点位置側に位置する領域を切削することで第一の画像を生成する第一の画像生成手段と、前記切断位置決定手段によって決定された前記切断位置における前記3次元医用画像データの断面画像を第二の画像として生成する第二の画像生成手段と、前記第二の画像生成手段によって生成された前記第二の画像において前記関心領域が含まれる空気領域を決定する領域決定手段と、前記第一の画像において前記領域決定手段によって決定された前記空気領域に該当する領域と、前記第二の画像において前記領域決定手段によって決定された前記空気領域以外の領域に該当する領域とを合成した合成画像を生成する合成画像生成手段と、前記合成画像生成手段によって生成された前記合成画像を、所定の表示部に表示するように制御する表示制御手段と、を備えたことを特徴とする。 According to a third aspect of the present invention, there is provided the image data collecting means for collecting the three-dimensional medical image data and the image data collecting means by the perspective projection method using the setting information including the viewpoint position, the line-of-sight direction, and the viewing angle. A cutting image generation unit that generates a projection image from the collected three-dimensional medical image data, and a cutting position that includes a region of interest determined by the setting information is determined by the projection image generated by the projection image generation unit. A cutting position determining unit and a region located on the viewpoint position side with respect to the cutting position determined by the cutting position determining unit are cut from the projection image generated by the projection image generating unit by first cutting First image generating means for generating an image of the three-dimensional medical image at the cutting position determined by the cutting position determining means A second image generating means for generating a cross-sectional image of the data as a second image, and an area determination for determining an air area including the region of interest in the second image generated by the second image generating means; A region corresponding to the air region determined by the region determination unit in the first image, and a region corresponding to a region other than the air region determined by the region determination unit in the second image. And a display control means for controlling the composite image generated by the composite image generation means to be displayed on a predetermined display unit. Features.
請求項1または3の発明によれば、仮想内視鏡画像を用いた画像診断を効率的に行なうことが可能となる。 According to the first or third aspect of the present invention, it is possible to efficiently perform image diagnosis using a virtual endoscopic image.
以下に添付図面を参照して、この発明に係る画像処理装置および医用画像診断装置の実施例を詳細に説明する。なお、本実施例によって本発明が限定されるものではない。 Exemplary embodiments of an image processing apparatus and a medical image diagnostic apparatus according to the present invention will be described below in detail with reference to the accompanying drawings. Note that the present invention is not limited to the embodiments.
まず、実施例1における画像処理装置の構成について説明する。図1は、実施例1における画像処理装置の構成を示す図である。図1に示すように、実施例1における画像処理装置30は、医用画像データベース20と接続されており、医用画像データベース20は、医用画像診断装置10と接続されている。なお、医用画像データベース20は、実際には、複数の医用画像診断装置10と接続されている。
First, the configuration of the image processing apparatus according to the first embodiment will be described. FIG. 1 is a diagram illustrating the configuration of the image processing apparatus according to the first embodiment. As shown in FIG. 1, the image processing apparatus 30 according to the first embodiment is connected to a
実施例1における医用画像診断装置10は、3次元の医用画像を生成することが可能な医用画像診断装置である。具体的には、医用画像診断装置10は、3次元X線CT画像を生成可能なX線CT装置、3次元MRI画像を生成可能なMRI装置、3次元超音波画像を生成可能な超音波診断装置などである。 The medical image diagnostic apparatus 10 according to the first embodiment is a medical image diagnostic apparatus capable of generating a three-dimensional medical image. Specifically, the medical image diagnostic apparatus 10 is an X-ray CT apparatus capable of generating a three-dimensional X-ray CT image, an MRI apparatus capable of generating a three-dimensional MRI image, and an ultrasonic diagnosis capable of generating a three-dimensional ultrasonic image. Such as a device.
医用画像データベース20は、医用画像診断装置10によって生成された各種3次元医用画像を格納するデータベースである。具体的には、医用画像データベース20は、各種医用画像のデータを管理するシステムであるPACS(Picture Archiving and Communication System)のデータベースや、医用画像が添付された電子カルテを管理する電子カルテシステムのデータベースなどである。
The
ここで、実施例1における画像処理装置30は、操作者である医師から指定された3次元医用画像を医用画像データベース20から取得し、取得した3次元医用画像を画像処理したうえで、医師に提示する。
Here, the image processing apparatus 30 according to the first embodiment acquires a three-dimensional medical image designated by a doctor who is an operator from the
具体的には、実施例1における画像処理装置30は、医用画像データベース20から取得した3次元医用画像に基づいて、透視投影法により仮想内視鏡(VE:Virtual Endoscopy)画像を生成する。そして、実施例1における画像処理装置30は、生成したVE画像と、VE画像の生成元である3次元医用画像から生成した断面画像とを合成した合成画像の生成および表示を行なうことで、VE画像を用いた画像診断を効率的に行なうことが可能となるように構成された装置である。
Specifically, the image processing apparatus 30 according to the first embodiment generates a virtual endoscopy (VE) image by a perspective projection method based on a three-dimensional medical image acquired from the
以下、実施例1における画像処理装置30が行なう画像処理について、図1とともに、図2〜7を用いて詳細に説明する。なお、図2は、VE画像生成部を説明するための図であり、図3は、切断位置決定部を説明するための図であり、図4は、合成用VE画像生成部を説明するための図であり、図5は、MPR画像生成部を説明するための図であり、図6は、実施例1における領域決定部を説明するための図であり、図7は、合成画像生成部を説明するための図である。 Hereinafter, image processing performed by the image processing apparatus 30 according to the first embodiment will be described in detail with reference to FIGS. 2 is a diagram for explaining the VE image generation unit, FIG. 3 is a diagram for explaining the cutting position determination unit, and FIG. 4 is a diagram for explaining the composition VE image generation unit. FIG. 5 is a diagram for explaining the MPR image generation unit, FIG. 6 is a diagram for explaining the region determination unit in the first embodiment, and FIG. 7 is a composite image generation unit. It is a figure for demonstrating.
図1に示すように、実施例1における画像処理装置30は、入力部31と、表示部32と、3次元画像データ記憶部33と、VE画像生成部34と、切断位置決定部35と、合成用VE画像生成部36と、MPR画像生成部37と、領域決定部38と、合成画像生成部39と、表示制御部310とを有する。
As illustrated in FIG. 1, the image processing apparatus 30 according to the first embodiment includes an input unit 31, a display unit 32, a three-dimensional image
入力部31は、マウスやキーボードやマイクなどを有し、医用画像を読影する医師など操作者が画像処理装置30を操作するための各種設定情報を入力するために用いられる。なお、入力部31が受け付ける各種設定情報については、後に詳述する。 The input unit 31 includes a mouse, a keyboard, a microphone, and the like, and is used for inputting various setting information for an operator such as a doctor who interprets a medical image to operate the image processing apparatus 30. Various setting information received by the input unit 31 will be described in detail later.
表示部32は、モニタなどを有し、入力部31を介して操作者から各種設定情報を受け付けるためのGUI(Graphical User Interface)や、後述する表示制御部310の制御の元、各種画像を表示したりする。
The display unit 32 includes a monitor and displays various images under the control of the GUI (Graphical User Interface) for receiving various setting information from the operator via the input unit 31 and the
3次元画像データ記憶部33は、入力部31を介して操作者が指定することにより、画像処理装置30が医用画像データベース20から取得した3次元医用画像データを記憶する。なお、以下では、造影剤の投与および炭酸ガスの注入が行なわれている被検体の大腸をX線CT装置によって撮影した3次元X線画像が、3次元画像データ記憶部33に格納された場合について説明する。ただし、本発明は、被検体の大腸を撮影した3次元MRI画像や3次元超音波画像が3次元画像データ記憶部33に格納される場合であっても、適用可能である。また、本発明は、VE画像を用いた画像診断を行なうことが可能な箇所であるならば、大腸以外の箇所が被検体の撮影部位である場合でも適用可能である。
The three-dimensional image
VE画像生成部34は、透視投影法により3次元X線CT画像から仮想内視鏡(VE:Virtual Endoscopy)画像を生成する。まず、VE画像生成部34は、3次元X線CT画像において、例えば、閾値を用いた処理により、空気に相当するCT値を有する領域(空気領域)を抽出する。また、VE画像生成部34は、空気領域において設定された視点位置、視線方向および視野角度を含むパラメータを操作者から入力部31を介して受け付ける。なお、かかるパラメータを設定することで、VE画像の有効視野(FOV:Field Of View)が設定されることとなる。そして、VE画像生成部34は、設定された視点位置から視線方向および視野角度で定まる範囲に対して放射状に3次元X線CT画像を透視投影することでVE画像を生成する。 The VE image generation unit 34 generates a virtual endoscopy (VE) image from the three-dimensional X-ray CT image by a perspective projection method. First, the VE image generation unit 34 extracts a region (air region) having a CT value corresponding to air in the three-dimensional X-ray CT image, for example, by processing using a threshold value. Further, the VE image generation unit 34 receives parameters including the viewpoint position, the line-of-sight direction, and the viewing angle set in the air region from the operator via the input unit 31. By setting such parameters, an effective field of view (FOV: Field Of View) of the VE image is set. Then, the VE image generation unit 34 generates a VE image by perspectively projecting a three-dimensional X-ray CT image radially from a set viewpoint position in a range determined by the viewing direction and the viewing angle.
例えば、図2の(A)に示すような視点位置、視線方向および視野角度からなるパラメータが設定された場合、VE画像生成部34は、設定された視点位置から大腸の管腔における芯線と同一方向において、大腸の内壁を観察したVE画像を生成する。また、図2の(B)に示すようなパラメータが設定された場合、VE画像生成部34は、設定された視点位置から通常の内視鏡では観察することが困難な視線方向における大腸の内壁を観察したVE画像を生成する。 For example, when parameters including a viewpoint position, a line-of-sight direction, and a viewing angle as shown in FIG. 2A are set, the VE image generation unit 34 is the same as the core line in the colon lumen from the set viewpoint position. In the direction, a VE image in which the inner wall of the large intestine is observed is generated. When the parameters as shown in FIG. 2B are set, the VE image generation unit 34 causes the inner wall of the large intestine in the viewing direction that is difficult to observe with a normal endoscope from the set viewpoint position. A VE image in which is observed is generated.
ここで、図2の(A)に示すような視点位置、視線方向および視野角度からなるパラメータが設定されているならば、操作者が観察したい関心領域は、芯線方向を中心とした大腸の内壁の周囲全体となる。また、図2の(B)に示すようなパラメータが設定されているならば、操作者が観察したい関心領域は、視点位置に対して芯線方向の下側に位置する大腸の内壁部分となる。 Here, if parameters including the viewpoint position, the line-of-sight direction, and the viewing angle as shown in FIG. 2A are set, the region of interest that the operator wants to observe is the inner wall of the large intestine centering on the core line direction. The whole surroundings. If the parameters as shown in FIG. 2B are set, the region of interest that the operator wants to observe is the inner wall portion of the large intestine located on the lower side of the core line direction with respect to the viewpoint position.
図1に戻って、切断位置決定部35は、VE画像生成部34によって生成されたVE画像にて、上述したパラメータによって定まる関心領域が含まれる切断位置を決定する。具体的には、切断位置決定部35は、VE画像と合成されるMPR(Multi Planar Reformat)画像を生成するための切断位置を決定する。ここで、初期設定として、例えば、操作者から入力部31を介して予め「所定の距離」が設定され、切断位置決定部35は、図3に示すように、視点位置から視点方向に沿って「所定の距離」だけ進んだ位置にて、視線方向に直交する断面(以下、Aと記載する)に、関心領域が含まれるか否かを判定する。
Returning to FIG. 1, the cutting
まず、切断位置決定部35は、VE画像生成部34によって3次元X線CT画像にて抽出された空気領域を参照して、視点位置から視線方向の延長線上に位置する空気領域と非空気領域との境界面を算出する。ここで、図3に示すように、空気領域は、大腸の管腔に相当する領域であり、空気領域と非空気領域との境界面は、視点位置から視線方向に沿って観察した場合に最も近接した位置にある大腸の内壁が存在する面(以下、A’と記載する)となる。
First, the cutting
ここで、切断位置決定部35は、視点位置から見てAの位置がA’の位置より近い場合、Aに関心領域が含まれているとして、初期設定により定まるAを切断位置として決定する(図3の(A)参照)。一方、切断位置決定部35は、視点位置から見てA’の位置がAの位置より近い場合、Aに関心領域が含まれておらず、A’に関心領域が含まれていると判断して、A’を切断位置として決定する(図3の(B)参照)。
Here, when the position of A is closer to the position of A ′ when viewed from the viewpoint position, the cutting
図1に戻って、合成用VE画像生成部36は、VE画像生成部34によって生成されたVE画像から、切断位置決定部35によって決定された切断位置に対して視点位置側に位置する領域を切削することで合成用VE画像を生成する。例えば、合成用VE画像生成部36は、図2の(A)に示すパラメータに基づいてVE画像生成部34が生成したVE画像から、切断位置決定部35が決定した切断位置「A」(図3の(A)参照)に対して視点位置側に位置する領域を切削することで、図4に示すような合成用VE画像を生成する。また、合成用VE画像生成部36は、図2の(B)に示すパラメータに基づいてVE画像生成部34が生成したVE画像からは、切断位置決定部35が決定した切断位置「A’」(図3の(B)参照)に対して視点位置側に位置する領域を切削した合成用VE画像を生成する。
Returning to FIG. 1, the composition VE
図1に戻って、MPR画像生成部37は、切断位置決定部35によって決定された切断位置における3次元X線CT画像のMPR画像を生成する。例えば、合成用VE画像生成部36は、図2の(A)に示すパラメータに基づいてVE画像生成部34がVE画像を生成するために用いた3次元X線CT画像を処理対象とし、この3次元X線CT画像の切断位置「A」におけるMPR画像を生成する(図5参照)。また、合成用VE画像生成部36は、図2の(B)に示すパラメータに基づいてVE画像生成部34がVE画像を生成するために用いた3次元X線CT画像を処理対象とし、この3次元X線CT画像の切断位置「A’」におけるMPR画像を生成する(図5参照)。
Returning to FIG. 1, the MPR
図1に戻って、領域決定部38は、MPR画像生成部37によって生成されたMPR画像において関心領域が含まれる空気領域を決定する。具体的には、領域決定部38は、図6の(A)に示すように、3次元X線CT画像の視点位置を通り、視線方向上にある直線上において、視点位置から一番遠くに位置する空気領域の点「P」の位置を算出する。これにより、領域決定部38は、図6の(A)に示すように、視点位置と点「P」とを結んだ点列の位置情報(以下、点列情報と記載する)を算出する。
Returning to FIG. 1, the
そして、領域決定部38は、図6の(A)に示すように、算出した点列情報と切断位置決定部35が決定した切断位置との交点を決定する。そして、領域決定部38は、切断位置に含まれ、かつ、決定した交点と連結する空気領域を決定する。そして、領域決定部38は、図6の(B)に示すように、決定した領域を、MPR画像の非表示領域であると決定する。すなわち、MPR画像の非表示領域は、操作者がVE画像にて観察したい領域となる。
Then, as shown in FIG. 6A, the
図1に戻って、合成画像生成部39は、合成用VE画像生成部36が生成した合成用VE画像において「MPR画像の非表示領域」に該当する領域と、MPR画像生成部37が生成したMPR画像において「MPR画像の非表示領域」以外の領域に該当する領域とを合成した合成画像を生成する。例えば、合成画像生成部39は、図2の(A)に示すパラメータによりVE画像が生成された場合、図4に示す合成用VE画像の「MPR画像の非表示領域」に該当する領域と、図5に示すMPR画像において「MPR画像の非表示領域」以外の領域に該当する領域とを合成することで、図7に示すような合成画像を生成する。
Returning to FIG. 1, the composite
図1に戻って、表示制御部310は、合成画像生成部39によって生成された前記合成画像を、表示部32のモニタにて表示するように制御する。例えば、合成画像生成部39は、図7に示す合成画像を表示部32のモニタにて表示するように制御する。これにより、読影者である医師は、関心領域のVE画像のみがMPR画像と合成された合成画像を参照することができる。
Returning to FIG. 1, the
次に、図8を用いて、実施例1における画像処置装置30の処理について説明する。図8は、実施例1における画像処置装置の処理を説明するためのフローチャートである。 Next, processing of the image processing apparatus 30 according to the first embodiment will be described with reference to FIG. FIG. 8 is a flowchart for explaining processing of the image processing apparatus according to the first embodiment.
図8に示すように、実施例1における画像処置装置30は、医用画像データベース20から処理対象となる3次元X線CT画像が3次元画像データ記憶部33に格納されると(ステップS101肯定)、操作者から各種パラメータが設定されたか否かを判定する(ステップS102)。ここで、操作者が設定する各種パラメータは、上述したように、視点位置、視線方向および視野角度からなるVE画像生成用のパラメータと、初期の切断位置を設定するために用いられる「所定の距離」のことである。
As shown in FIG. 8, the image processing apparatus 30 according to the first embodiment stores a 3D X-ray CT image to be processed from the
そして、実施例1における画像処置装置30は、操作者から各種パラメータが設定されない場合(ステップS102否定)、各種パラメータが設定されるまで待機する。一方、操作者から各種パラメータが設定されると(ステップS102肯定)、VE画像生成部34は、3次元X線CT画像にて空気領域を抽出し、空気領域にて設定された視点位置から視線方向および視野角度で定まる範囲に対して放射状に3次元X線CT画像を透視投影することでVE画像を生成する(ステップS103)。 Then, when various parameters are not set by the operator (No at Step S102), the image processing device 30 according to the first embodiment stands by until various parameters are set. On the other hand, when various parameters are set by the operator (Yes in step S102), the VE image generation unit 34 extracts an air region from the three-dimensional X-ray CT image, and looks from the viewpoint position set in the air region. A VE image is generated by perspectively projecting a three-dimensional X-ray CT image radially over a range determined by the direction and the viewing angle (step S103).
そして、切断位置決定部35は、3次元X線CT画像において、設定されたパラメータに基づく切断位置を決定する(ステップS104)。すなわち、切断位置決定部35は、3次元X線CT画像において、視点位置から視点方向に沿って「所定の距離」だけ進んだ位置にて、視線方向に直交する断面を切断位置(A)として決定する。
Then, the cutting
そののち、切断位置決定部35は、ステップS104にて決定した切断位置に関心領域が含まれるか否かを判定する(ステップS105)。具体的には、切断位置決定部35は、VE画像生成部34によって3次元X線CT画像にて抽出された空気領域を参照して、視点位置から視線方向の延長線上に位置する大腸の内壁が存在する面(A’)を算出する。そして、切断位置決定部35は、視点位置から見てAの位置がA’の位置より近い場合、Aに関心領域が含まれていると判断する。一方、切断位置決定部35は、視点位置から見てA’の位置がAの位置より近い場合、Aに関心領域が含まれていないと判断する。
After that, the cutting
ここで、ステップS104にて決定した切断位置(A)に関心領域が含まれていると判定した場合(ステップS105肯定)、切断位置決定部35は、ステップS104で決定した切断位置を合成用VE画像生成部36およびMPR画像生成部37に通知する(ステップS108)。
Here, when it is determined that the region of interest is included in the cutting position (A) determined in step S104 (Yes in step S105), the cutting
一方、ステップS104にて決定した切断位置(A)に関心領域が含まれていないと判定した場合(ステップS105否定)、切断位置決定部35は、新たな切断位置を決定する(ステップS106)。すなわち、切断位置決定部35は、A’に関心領域が含まれていると判断して、A’を新たな切断位置として決定する。そして、切断位置決定部35は、ステップS106で決定した切断位置を合成用VE画像生成部36およびMPR画像生成部37に通知する(ステップS107)。
On the other hand, when it is determined that the region of interest is not included in the cutting position (A) determined in step S104 (No in step S105), the cutting
そして、合成用VE画像生成部36は、VE画像生成部34によって生成されたVE画像から、切断位置決定部35から通知された切断位置を用いて合成用VE画像を生成する(ステップS109)。すなわち、合成用VE画像生成部36は、VE画像生成部34によって生成されたVE画像から、切断位置に対して視点位置側に位置する領域を切削することで合成用VE画像を生成する。
Then, the composition VE
続いて、MPR画像生成部37は、切断位置決定部35から通知された切断位置を用いて3次元X線CT画像からMPR画像を生成する(ステップS110)。すなわち、MPR画像生成部37は、切断位置決定部35によって決定された切断位置における3次元X線CT画像のMPR画像を生成する。
Subsequently, the MPR
そして、領域決定部38は、MPR画像生成部37によって生成されたMPR画像において関心領域が含まれる空気領域を決定することで、MPR画像の非表示領域を決定する(ステップS111、図6参照)。
Then, the
そののち、合成画像生成部39は、合成用VE画像において「MPR画像の非表示領域」に該当する領域と、MPR画像において「MPR画像の非表示領域」以外の領域に該当する領域とを合成した合成画像を生成する(ステップS112)。
After that, the composite
そして、表示制御部310は、合成画像生成部39によって生成された前記合成画像を、表示部32のモニタにて表示するように制御し(ステップS113)、処理を終了する。
Then, the
上述してきたように、実施例1では、VE画像生成部34は、3次元画像データ記憶部33に格納された3次元X線CT画像を、設定された視点位置から視線方向および視野角度で定まる範囲に対して放射状に透視投影することでVE画像を生成する。そして、切断位置決定部35は、VE画像生成部34によって生成されたVE画像にて、視点位置、視線方向および視野角度によって定まる関心領域が含まれる切断位置を決定する。そして、合成用VE画像生成部36は、VE画像生成部34によって生成されたVE画像から、切断位置決定部35によって決定された切断位置に対して視点位置側に位置する領域を切削することで合成用VE画像を生成し、MPR画像生成部37は、切断位置決定部35によって決定された切断位置における3次元X線CT画像のMPR画像を生成する。
As described above, in the first embodiment, the VE image generation unit 34 determines the 3D X-ray CT image stored in the 3D image
そして、領域決定部38は、MPR画像生成部37によって生成されたMPR画像において関心領域が含まれる空気領域を決定する。合成画像生成部39は、合成用VE画像生成部36が生成した合成用VE画像において「MPR画像の非表示領域」に該当する領域と、MPR画像生成部37が生成したMPR画像において「MPR画像の非表示領域」以外の領域に該当する領域とを合成した合成画像を生成する。表示制御部310は、合成画像生成部39によって生成された前記合成画像を、表示部32のモニタにて表示するように制御する。
Then, the
したがって、実施例1によれば、VE画像で観察したい関心領域のみが合成画像にて必ず表示されるので、VE画像を用いた画像診断を効率的に行なうことが可能となる。特に、スクリーニング検査を含む術前診断における画像診断の効率を向上させることが可能になる。また、実施例1によれば、VE画像の関心領域以外は、MPR画像と合成された合成画像が表示されるので、関心領域(大腸の内壁)の組織内部のCT値を確実に把握することができるので、VE画像を用いた画像診断をより効率的に行なうことが可能となる。 Therefore, according to the first embodiment, since only the region of interest to be observed with the VE image is always displayed with the composite image, the image diagnosis using the VE image can be performed efficiently. In particular, it is possible to improve the efficiency of image diagnosis in preoperative diagnosis including screening examination. In addition, according to the first embodiment, since the synthesized image synthesized with the MPR image is displayed except for the region of interest of the VE image, the CT value inside the tissue of the region of interest (the inner wall of the large intestine) can be reliably grasped. Therefore, image diagnosis using a VE image can be performed more efficiently.
また、実施例1における合成画像の表示法は、X線CT装置におけるCTC(CT Colonography)だけでなく、CTCと比較して、被検体に対する負担軽減や、X線被曝が発生しないなどの利点を有するMRI装置におけるMRC(MR Colonography)でも実行可能であり、MRCの普及を推進することが可能となる。 Further, the composite image display method according to the first embodiment is advantageous not only in CTC (CT Colonography) in the X-ray CT apparatus, but also in that the burden on the subject is reduced and the X-ray exposure does not occur compared to the CTC. It can also be executed by MRC (MR Colonography) in the MRI apparatus that has it, and the spread of MRC can be promoted.
実施例2では、視線方向に沿って視点位置を「所定の間隔」で移動させることにより、合成画像の生成および表示を順次行なう場合について、図9を用いて説明する。なお、図9は、実施例2における領域決定部を説明するための図である。 In the second embodiment, a case in which a composite image is sequentially generated and displayed by moving the viewpoint position at “predetermined intervals” along the line-of-sight direction will be described with reference to FIG. FIG. 9 is a diagram for explaining the region determination unit in the second embodiment.
実施例2における画像処理装置は、図1に示す画像処理装置30と同様の構成からなるが、領域決定部38の行なう処理内容が実施例1と異なる。以下、これを中心に説明する。
The image processing apparatus according to the second embodiment has the same configuration as that of the image processing apparatus 30 illustrated in FIG. 1, but the processing content performed by the
実施例2における領域決定部38は、実施例1と同様に、MPR画像において関心領域が含まれる空気領域を決定する。しかし、実施例2における領域決定部38は、実施例1とは異なり、直前に生成されたMPR画像において決定した関心領域が含まれる空気領域と、「所定の間隔」とを用いて、新たに生成されたMPR画像において関心領域が含まれる空気領域を決定する。
Similar to the first embodiment, the
例えば、図9の(A)に示すように、視線方向が大腸の芯線として設定されており、「所定の間隔」として「移動間隔:d」が設定されているとする。かかる場合、直前に合成画像の生成および表示処理を行なう際に用いられた視点位置(i)は、次の時点で、芯線方向に沿って「移動間隔:d」進んだ視点位置(i+1)に移動することとなる。ここで、画像処理装置30は、視点位置(i+1)を用いて、実施例1と同様に、VE画像の生成、切断位置の決定、合成用VE画像の生成、MPR画像の生成を順次行なう。 For example, as shown in FIG. 9A, it is assumed that the line-of-sight direction is set as the core of the large intestine, and “movement interval: d” is set as the “predetermined interval”. In such a case, the viewpoint position (i) used when the composite image is generated and displayed immediately before is set to the viewpoint position (i + 1) advanced by “movement interval: d” along the core line direction at the next time point. Will move. Here, the image processing apparatus 30 sequentially uses the viewpoint position (i + 1) to generate a VE image, determine a cutting position, generate a synthesis VE image, and generate an MPR image, as in the first embodiment.
そして、領域決定部38は、図9の(B)に示すように、視点位置(i)の処理において決定したMPR画像の非表示領域(i)を芯線方向に沿って「移動間隔:d」だけ移動させた断面において、非表示領域(i)と同一の空気領域にある断面を、非表示領域(i+1)として決定する。これにより、画像処理装置30は、視点位置(i+1)における合成画像の生成および表示処理を行なう。
Then, as shown in FIG. 9B, the
なお、実施例2における画像処理装置30の処理では、図8におけるステップS102にて設定されるパラメータに「移動間隔:d」が追加される。また、実施例2における画像処理装置30は、最初の視点位置においては、図8におけるステップS103〜ステップS112の処理を実施例1と同様に行なう。そして、実施例2における画像処理装置30は、第二の視点位置以降においては、図8におけるステップS103〜ステップS112の処理のうちステップS111の処理を上記にて説明した処理により行なう。 In the processing of the image processing apparatus 30 in the second embodiment, “movement interval: d” is added to the parameter set in step S102 in FIG. Further, the image processing apparatus 30 according to the second embodiment performs the processes of steps S103 to S112 in FIG. 8 in the same manner as the first embodiment at the first viewpoint position. Then, after the second viewpoint position, the image processing apparatus 30 according to the second embodiment performs the process of step S111 among the processes of steps S103 to S112 in FIG. 8 by the process described above.
上述してきたように、実施例2では、視点位置が移動されて合成画像が順次合成表示される場合、直前に決定された非表示領域を用いて新規の非表示領域を決定するので、合成画像を生成する際の処理負荷を軽減することが可能となる。 As described above, in the second embodiment, when the viewpoint position is moved and the synthesized images are sequentially synthesized and displayed, a new non-display area is determined using the non-display area determined immediately before. It is possible to reduce the processing load when generating.
なお、上記した実施例1および2では、画像処理装置30が医用画像診断装置30と独立に設置される場合について説明したが、本発明はこれに限定されるものではなく、医用画像診断装置10に画像処理装置30が組み込まれる場合であってもよい。すなわち、3次元X線CT画像を生成可能なX線CT装置、3次元MRI画像を生成可能なMRI装置、3次元超音波画像を生成可能な超音波診断装置などに画像処理装置30が組み込まれる場合であってもよい。 In the first and second embodiments, the case where the image processing apparatus 30 is installed independently of the medical image diagnostic apparatus 30 has been described. However, the present invention is not limited to this and the medical image diagnostic apparatus 10 is not limited thereto. The image processing apparatus 30 may be incorporated in the image processing apparatus. That is, the image processing apparatus 30 is incorporated in an X-ray CT apparatus that can generate a three-dimensional X-ray CT image, an MRI apparatus that can generate a three-dimensional MRI image, an ultrasonic diagnostic apparatus that can generate a three-dimensional ultrasonic image, and the like. It may be the case.
以上のように、本発明に係る画像処理装置および医用画像診断装置は、仮想内視鏡表示を行なう場合に有用であり、特に、仮想内視鏡画像を用いた画像診断を効率的に行なうことに適する。 As described above, the image processing apparatus and the medical image diagnostic apparatus according to the present invention are useful when performing virtual endoscopy display, and in particular, efficiently perform image diagnosis using a virtual endoscopic image. Suitable for.
10 医用画像診断装置
20 医用画像データベース
30 画像処理装置
31 入力部
32 表示部
33 3次元画像データ記憶部
34 VE画像生成部
35 切断位置決定部
36 合成用VE画像生成部
37 MPR画像生成部
38 領域決定部
39 合成画像生成部
310 表示制御部
DESCRIPTION OF SYMBOLS 10 Medical image
Claims (3)
前記投影画像生成手段によって生成された前記投影画像にて、前記設定情報によって定まる関心領域が含まれる切断位置を決定する切断位置決定手段と、
前記投影画像生成手段によって生成された前記投影画像から、前記切断位置決定手段によって決定された前記切断位置に対して前記視点位置側に位置する領域を切削することで第一の画像を生成する第一の画像生成手段と、
前記切断位置決定手段によって決定された前記切断位置における前記3次元医用画像データの断面画像を第二の画像として生成する第二の画像生成手段と、
前記第二の画像生成手段によって生成された前記第二の画像において前記関心領域が含まれる空気領域を決定する領域決定手段と、
前記第一の画像において前記領域決定手段によって決定された前記空気領域に該当する領域と、前記第二の画像において前記領域決定手段によって決定された前記空気領域以外の領域に該当する領域とを合成した合成画像を生成する合成画像生成手段と、
前記合成画像生成手段によって生成された前記合成画像を、所定の表示部に表示するように制御する表示制御手段と、
を備えたことを特徴とする画像処理装置。 Projection image generating means for generating a projection image from three-dimensional medical image data by a perspective projection method using setting information including a viewpoint position, a line-of-sight direction, and a viewing angle;
A cutting position determining means for determining a cutting position including a region of interest determined by the setting information in the projection image generated by the projection image generating means;
A first image is generated by cutting an area located on the viewpoint position side with respect to the cutting position determined by the cutting position determining means from the projection image generated by the projection image generating means. An image generating means;
Second image generating means for generating a cross-sectional image of the three-dimensional medical image data at the cutting position determined by the cutting position determining means as a second image;
Area determining means for determining an air area in which the region of interest is included in the second image generated by the second image generating means;
The region corresponding to the air region determined by the region determining unit in the first image and the region corresponding to a region other than the air region determined by the region determining unit in the second image are combined. A composite image generating means for generating the composite image,
Display control means for controlling the composite image generated by the composite image generation means to be displayed on a predetermined display unit;
An image processing apparatus comprising:
前記領域決定手段は、前記第二の画像生成手段によって新たに生成された第二の画像において前記関心領域が含まれる空気領域を、直前に決定した空気領域と前記所定の間隔とに基づいて決定することを特徴とする請求項1に記載の画像処理装置。 When the composite image is generated and displayed sequentially by moving the viewpoint position at a predetermined interval along the line-of-sight direction,
The region determination unit determines an air region including the region of interest in the second image newly generated by the second image generation unit based on the air region determined immediately before and the predetermined interval. The image processing apparatus according to claim 1, wherein:
視点位置、視線方向および視野角度を含む設定情報を用いた透視投影法により前記画像データ収集手段によって収集された3次元医用画像データから投影画像を生成する投影画像生成手段と、
前記投影画像生成手段によって生成された前記投影画像にて、前記設定情報によって定まる関心領域が含まれる切断位置を決定する切断位置決定手段と、
前記投影画像生成手段によって生成された前記投影画像から、前記切断位置決定手段によって決定された前記切断位置に対して前記視点位置側に位置する領域を切削することで第一の画像を生成する第一の画像生成手段と、
前記切断位置決定手段によって決定された前記切断位置における前記3次元医用画像データの断面画像を第二の画像として生成する第二の画像生成手段と、
前記第二の画像生成手段によって生成された前記第二の画像において前記関心領域が含まれる空気領域を決定する領域決定手段と、
前記第一の画像において前記領域決定手段によって決定された前記空気領域に該当する領域と、前記第二の画像において前記領域決定手段によって決定された前記空気領域以外の領域に該当する領域とを合成した合成画像を生成する合成画像生成手段と、
前記合成画像生成手段によって生成された前記合成画像を、所定の表示部に表示するように制御する表示制御手段と、
を備えたことを特徴とする医用画像診断装置。 Image data collection means for collecting three-dimensional medical image data;
A projection image generating means for generating a projection image from the three-dimensional medical image data collected by the image data collecting means by a perspective projection method using setting information including a viewpoint position, a line-of-sight direction, and a viewing angle;
A cutting position determining means for determining a cutting position including a region of interest determined by the setting information in the projection image generated by the projection image generating means;
A first image is generated by cutting an area located on the viewpoint position side with respect to the cutting position determined by the cutting position determining means from the projection image generated by the projection image generating means. An image generating means;
Second image generating means for generating a cross-sectional image of the three-dimensional medical image data at the cutting position determined by the cutting position determining means as a second image;
Area determining means for determining an air area in which the region of interest is included in the second image generated by the second image generating means;
The region corresponding to the air region determined by the region determining unit in the first image and the region corresponding to a region other than the air region determined by the region determining unit in the second image are combined. A composite image generating means for generating the composite image,
Display control means for controlling the composite image generated by the composite image generation means to be displayed on a predetermined display unit;
A medical image diagnostic apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009226791A JP5523784B2 (en) | 2009-09-30 | 2009-09-30 | Image processing apparatus and medical image diagnostic apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009226791A JP5523784B2 (en) | 2009-09-30 | 2009-09-30 | Image processing apparatus and medical image diagnostic apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011072534A true JP2011072534A (en) | 2011-04-14 |
JP5523784B2 JP5523784B2 (en) | 2014-06-18 |
Family
ID=44017188
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009226791A Active JP5523784B2 (en) | 2009-09-30 | 2009-09-30 | Image processing apparatus and medical image diagnostic apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5523784B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015535466A (en) * | 2012-11-23 | 2015-12-14 | アイカード インコーポレイテッドIcad, Inc. | System and method for improving workflow efficiency in tomosynthesis medical image data interpretation |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1031761A (en) * | 1996-07-17 | 1998-02-03 | Ge Yokogawa Medical Syst Ltd | Image display method and image display device |
JPH1156832A (en) * | 1997-08-26 | 1999-03-02 | Ge Yokogawa Medical Syst Ltd | Method and device for displaying image |
JP2004016721A (en) * | 2002-06-20 | 2004-01-22 | Hitachi Medical Corp | Diagnostic imaging support system |
JP2006288495A (en) * | 2005-04-06 | 2006-10-26 | Toshiba Corp | Image processor |
JP2008259712A (en) * | 2007-04-12 | 2008-10-30 | Fujifilm Corp | Image diagnostic reading support apparatus, method and program |
-
2009
- 2009-09-30 JP JP2009226791A patent/JP5523784B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1031761A (en) * | 1996-07-17 | 1998-02-03 | Ge Yokogawa Medical Syst Ltd | Image display method and image display device |
JPH1156832A (en) * | 1997-08-26 | 1999-03-02 | Ge Yokogawa Medical Syst Ltd | Method and device for displaying image |
JP2004016721A (en) * | 2002-06-20 | 2004-01-22 | Hitachi Medical Corp | Diagnostic imaging support system |
JP2006288495A (en) * | 2005-04-06 | 2006-10-26 | Toshiba Corp | Image processor |
JP2008259712A (en) * | 2007-04-12 | 2008-10-30 | Fujifilm Corp | Image diagnostic reading support apparatus, method and program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015535466A (en) * | 2012-11-23 | 2015-12-14 | アイカード インコーポレイテッドIcad, Inc. | System and method for improving workflow efficiency in tomosynthesis medical image data interpretation |
Also Published As
Publication number | Publication date |
---|---|
JP5523784B2 (en) | 2014-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3164050B1 (en) | Dynamic 3d lung map view for tool navigation inside the lung | |
JP5417609B2 (en) | Medical diagnostic imaging equipment | |
JP4653542B2 (en) | Image processing device | |
JP5377153B2 (en) | Image processing apparatus, image processing program, and medical diagnostic system | |
EP2430979B1 (en) | Biopsy support system | |
JP5019205B2 (en) | Ultrasonic diagnostic equipment | |
JP5486432B2 (en) | Image processing apparatus, operating method thereof, and program | |
JP2011193885A (en) | System, method, apparatus and program for supporting endoscope observation | |
JP6013037B2 (en) | Medical image processing device | |
JP2008061858A (en) | Puncture treatment navigation apparatus | |
JP2013153883A (en) | Image processing apparatus, imaging system, and image processing method | |
JP2013244211A (en) | Medical image processor, medical image processing method and control program | |
JP2008005923A (en) | Medical guide system | |
JP2012016575A (en) | Image processing apparatus and medical image diagnosis apparatus | |
JP2013009956A (en) | Medical image display apparatus and medical image diagnostic apparatus | |
WO2014038703A1 (en) | Diagnostic ultrasound apparatus, medical image-processing device and image processing program | |
JP4686279B2 (en) | Medical diagnostic apparatus and diagnostic support apparatus | |
JP6738631B2 (en) | Medical image processing apparatus, medical image processing method, and medical image processing program | |
JP5170993B2 (en) | Image processing apparatus and medical diagnostic apparatus including the image processing apparatus | |
JP2010075549A (en) | Image processor | |
JP5932406B2 (en) | Medical image processing apparatus and method, and program | |
CN106919781B (en) | Medical image processing apparatus | |
JP5631584B2 (en) | Medical image processing apparatus, medical image processing program, and medical image diagnostic apparatus | |
JP5523784B2 (en) | Image processing apparatus and medical image diagnostic apparatus | |
JP2018033657A (en) | Medical image system and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120924 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130807 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130813 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131015 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140311 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140409 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5523784 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |