JP5846368B2 - Medical image processing apparatus, method, and program - Google Patents

Medical image processing apparatus, method, and program Download PDF

Info

Publication number
JP5846368B2
JP5846368B2 JP2011250806A JP2011250806A JP5846368B2 JP 5846368 B2 JP5846368 B2 JP 5846368B2 JP 2011250806 A JP2011250806 A JP 2011250806A JP 2011250806 A JP2011250806 A JP 2011250806A JP 5846368 B2 JP5846368 B2 JP 5846368B2
Authority
JP
Japan
Prior art keywords
region
dimensional image
extracted
target
pixel values
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011250806A
Other languages
Japanese (ja)
Other versions
JP2013103080A (en
Inventor
直幸 相川
直幸 相川
英行 薄井
英行 薄井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo University of Science
Original Assignee
Tokyo University of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo University of Science filed Critical Tokyo University of Science
Priority to JP2011250806A priority Critical patent/JP5846368B2/en
Publication of JP2013103080A publication Critical patent/JP2013103080A/en
Application granted granted Critical
Publication of JP5846368B2 publication Critical patent/JP5846368B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Magnetic Resonance Imaging Apparatus (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

本発明は、医療画像処理装置、方法、及びプログラムに係り、特に、造影剤を用いずに撮影された非造影画像から対象部位を抽出する医療画像処理装置、方法、及びプログラムに関する。   The present invention relates to a medical image processing apparatus, method, and program, and more particularly, to a medical image processing apparatus, method, and program for extracting a target region from a non-contrast image taken without using a contrast agent.

近年、医療現場においては、X線CT(Computed Tomography)画像、MRI(Magnetic Resonance Imaging)画像等に代表される医療画像を用いた医療画像診断技術が導入されている。   In recent years, medical image diagnostic techniques using medical images represented by X-ray CT (Computed Tomography) images, MRI (Magnetic Resonance Imaging) images and the like have been introduced in the medical field.

現在、これらの医療画像から対象部位を抽出するために、MRIやCTなどの撮影機器に応じて撮影時に高い反応性を示す造影剤を予め対象部位に注入し、画像上に対象部位が明瞭に写るようにすることが行われている。また、このような造影画像から対象部位を精度良く抽出するための画像処理が提案されている。   At present, in order to extract a target region from these medical images, a contrast agent having high reactivity at the time of radiographing is injected into the target site in advance according to an imaging device such as MRI or CT, and the target site is clearly displayed on the image. It is done to make it appear. In addition, image processing for accurately extracting a target region from such a contrast image has been proposed.

例えば、原画像の画素値から投影像の各画素への投影線近傍に位置する複数の画素値を取り出し、これら取り出された各画素値よりスプライン関数による補間計算によって投影像の各画素位置に投影されるべき画素値を補間し、その同一画素位置に投影されるべき画素値として求めた値のうちの最大値を選ぶ画像投影装置が提案されている(特許文献1参照)。   For example, a plurality of pixel values located in the vicinity of the projection line to each pixel of the projected image are extracted from the pixel value of the original image, and projected to each pixel position of the projected image by interpolation calculation using a spline function from each of the extracted pixel values. There has been proposed an image projection apparatus that interpolates pixel values to be performed and selects a maximum value among values obtained as pixel values to be projected at the same pixel position (see Patent Document 1).

また、ユーザにより指定された指定点群を含む曲面を生成し、その曲面に対して陰面処理を行って得た描画対象領域に対して厚みTを設定し、関心領域を確定し、この関心領域に対してMIP処理を行う関心領域指定方法が提案されている(特許文献2参照)。   Further, a curved surface including a designated point group designated by the user is generated, a thickness T is set for a drawing target region obtained by performing hidden surface processing on the curved surface, and a region of interest is determined. A region-of-interest designating method for performing MIP processing has been proposed (see Patent Document 2).

また、被写体を撮影して得た三次元医用画像を構成する第1のボクセルデータを用いて心臓の各位置における機能を表した機能画像を生成し、被写体を撮影して得た三次元医用画像を構成する第2のボクセルデータのうち心臓の心筋外壁に沿う血管を含む領域のボクセルデータを用いて、血管の形態を描画した形態画像を生成し、機能画像の心臓の各位置と形態画像の心臓の各位置とを対応させて、機能画像と形態画像とを重ねて表示する心機能表示装置が提案されている(特許文献3参照)。   Also, a functional image representing the function at each position of the heart is generated using the first voxel data constituting the three-dimensional medical image obtained by photographing the subject, and the three-dimensional medical image obtained by photographing the subject. Using the voxel data of the region including the blood vessel along the outer wall of the heart of the heart among the second voxel data constituting the morphological image, a morphological image in which the shape of the blood vessel is drawn is generated, and each position of the heart in the functional image and the morphological image There has been proposed a cardiac function display device that displays a function image and a morphological image in an overlapping manner in correspondence with each position of the heart (see Patent Document 3).

また、心機能の評価指標データを表す三次元機能画像から心腔領域を抽出し、心腔の機能を表す心機能ブルズアイ画像を生成し、心臓および冠動脈の構造を表す三次元形態画像から、冠動脈像データを抽出するとともに、抽出された冠動脈像データを含む冠動脈閉曲面を算出し、抽出された冠動脈像データから冠動脈像ブルズアイ画像を生成するとともに、冠動脈閉曲面に基づいて、心腔領域の境界面から冠動脈閉曲面までの距離を算出する診断支援装置が提案されている(特許文献4参照)。   In addition, a cardiac cavity region is extracted from a three-dimensional functional image representing cardiac function evaluation index data, a cardiac functional bullseye image representing cardiac chamber function is generated, and a coronary artery is derived from a three-dimensional morphological image representing the structure of the heart and coronary artery. Extracting image data, calculating a coronary artery closed curved surface including the extracted coronary artery image data, generating a coronary artery bullseye image from the extracted coronary artery image data, and based on the coronary artery closed curved surface, boundary of the heart chamber region A diagnosis support apparatus that calculates the distance from the surface to the coronary artery closed curved surface has been proposed (see Patent Document 4).

また、観察対象の厚さを含んだ領域のボリュームデータに対して、最大値法あるいは平均値法などの描画方法を決定し、表示面となる任意面を作成し、任意面に対応する画像領域を作成し、この画像領域上の各ピクセル毎に対応する任意面上の位置(例えばxy座標)を求め、任意面11上の位置(x,y)における厚さdを計算する画像処理方法が提案されている(特許文献5参照)。   Also, for the volume data of the area including the thickness of the object to be observed, a drawing method such as the maximum value method or the average value method is determined, an arbitrary surface to be a display surface is created, and an image region corresponding to the arbitrary surface Is obtained, a position on an arbitrary plane (for example, xy coordinates) corresponding to each pixel on the image area is obtained, and a thickness d at the position (x, y) on the arbitrary plane 11 is calculated. It has been proposed (see Patent Document 5).

また、3次元画像データを投影してMIP画像等を得る場合に、3次元空間の3軸x,y,zのうち実在する画像データの密度が最も低いz軸方向についてはBスプラインを用いて補間する画像処理装置が提案されている(特許文献6参照)。   When projecting 3D image data to obtain an MIP image or the like, a B-spline is used in the z-axis direction where the density of existing image data is the lowest among the 3 axes x, y, and z in the 3D space. An image processing apparatus for interpolation has been proposed (see Patent Document 6).

特開平05−207990号公報Japanese Patent Laid-Open No. 05-207990 特開2006−187531号公報Japanese Patent Laid-Open No. 2006-187531 特開2008−253753号公報JP 2008-253753 A 特開2010−246776号公報JP 2010-246776 特開2006−263078号公報JP 2006-263078 A 特開2004−173847号公報JP 2004-173847 A

しかしながら、特許文献1〜6の技術は、造影剤を用いて撮影された造影画像を対象としており、造影剤を用いずに撮影された非造影画像では、対象部位のコントラストが低いため、適用するのが困難である、という問題がある。   However, the techniques of Patent Documents 1 to 6 are applied to a contrast image captured using a contrast agent, and a non-contrast image captured without using a contrast agent is applied because the contrast of the target portion is low. There is a problem that it is difficult.

また、医療画像の撮影に造影剤を使用する場合には、被撮影者である患者に悪影響を及ぼす場合がある、という問題がある。   Moreover, when using a contrast agent for imaging | photography of a medical image, there exists a problem that it may have a bad influence on the patient who is a to-be-photographed person.

本発明は、上記問題点に鑑みてなされたものであり、非造影断層画像から精度良く対象部位を抽出して、3次元表示することができる医療画像処理装置、方法、及びプログラムを提供することを目的とする。   The present invention has been made in view of the above-described problems, and provides a medical image processing apparatus, method, and program capable of accurately extracting a target region from a non-contrast tomographic image and displaying it three-dimensionally. With the goal.

上記目的を達成するために、本発明の医療画像処理装置は、造影剤を用いずに対象部位を含む身体を撮影した複数の非造影断層画像を積層して3次元画像を生成する生成手段と、前記生成手段により生成された3次元画像から画素値が所定値以上の領域を骨領域として抽出し、前記複数の非造影断層画像内の連続する所定枚数に対応する前記骨領域を積層方向に投影した際に投影線上で最大となる画素値により構成される骨領域投影画像に基づいて、前記所定枚数毎に前記対象部位を含む処理領域を設定する設定手段と、前記3次元画像において前記設定手段により設定された処理領域内の画素値の分布、及び予め求めた対象部位と画素値の分布との関係に基づいて、前記対象部位を示す画素値の所定範囲を設定し、該所定範囲に含まれる画素値をシフトさせると共に、該所定範囲の幅が拡大するように補正する補正手段と、前記補正手段により画素値が補正された前記3次元画像において、前記対象部位を示す補正後の画素値を有する画素を連結した領域であって、該領域内の画素数が最大となる領域を抽出する対象部位抽出手段と、前記対象部位抽出手段により抽出された領域が3次元画像として表示されるように表示手段を制御する表示制御手段と、を含んで構成されている。   In order to achieve the above object, the medical image processing apparatus of the present invention includes a generating unit that generates a three-dimensional image by stacking a plurality of non-contrast tomographic images obtained by imaging a body including a target region without using a contrast agent. Extracting a region having a pixel value equal to or larger than a predetermined value from the three-dimensional image generated by the generating unit as a bone region, and corresponding the predetermined number of bone regions in the plurality of non-contrast tomographic images in the stacking direction. Setting means for setting a processing region including the target portion for each of the predetermined number of images based on a bone region projection image constituted by a pixel value that is maximum on a projection line when projected; and the setting in the three-dimensional image Based on the distribution of pixel values in the processing region set by the means and the relationship between the target portion and the distribution of pixel values obtained in advance, a predetermined range of pixel values indicating the target portion is set, and the predetermined range Included picture A correction unit that shifts the value and corrects the width of the predetermined range to expand; and the three-dimensional image in which the pixel value is corrected by the correction unit has a corrected pixel value indicating the target portion A target part extracting unit that extracts a region where pixels are connected and has the maximum number of pixels in the region, and a region extracted by the target part extracting unit is displayed so as to be displayed as a three-dimensional image. Display control means for controlling the means.

本発明の医療画像処理装置によれば、生成手段が、造影剤を用いずに対象部位を含む身体を撮影した複数の非造影断層画像を積層して3次元画像を生成する。そして、設定手段が、生成手段により生成された3次元画像から画素値が所定値以上の領域を骨領域として抽出し、複数の非造影断層画像内の連続する所定枚数に対応する骨領域を積層方向に投影した際に投影線上で最大となる画素値により構成される骨領域投影画像に基づいて、所定枚数毎に対象部位を含む処理領域を設定する。非造影断層画像において、骨領域は臓器や筋肉を示す領域と比較して画素値が高く、明確に識別することができる。このような骨領域を利用して、処理領域を設定するものである。また、複数の非造影断層画像内の連続する所定枚数毎に処理領域を設定するため、人体構造に沿った処理領域を設定することができる。   According to the medical image processing apparatus of the present invention, the generation unit generates a three-dimensional image by stacking a plurality of non-contrast tomographic images obtained by imaging the body including the target region without using a contrast agent. Then, the setting unit extracts a region having a pixel value equal to or larger than a predetermined value from the three-dimensional image generated by the generation unit as a bone region, and stacks bone regions corresponding to a predetermined number of consecutive images in a plurality of non-contrast tomographic images. A processing region including a target region is set for each predetermined number based on a bone region projection image formed by pixel values that are maximum on the projection line when projected in the direction. In a non-contrast tomographic image, a bone region has a higher pixel value than a region showing an organ or muscle and can be clearly identified. A processing region is set using such a bone region. In addition, since the processing area is set for every predetermined number of consecutive non-contrast tomographic images, it is possible to set the processing area along the human body structure.

そして、補正手段が、3次元画像において設定手段により設定された領域内の画素値の分布、及び予め求めた対象部位と画素値の分布との関係に基づいて、対象部位を示す画素値の所定範囲を設定し、その所定範囲に含まれる画素値をシフトさせると共に、所定範囲の幅が拡大するように補正する。予め求めた対象部位と画素値の分布との関係、すなわち先見情報に基づいて、3次元画像から得られた画素値の分布のどの範囲が対象部位を示す画素値かを判定することができる。その範囲の画素値をシフト及び範囲を拡大することにより、周辺画素との差別化を図るものである。   Then, the correction unit determines a predetermined pixel value indicating the target part based on the distribution of the pixel values in the region set by the setting unit in the three-dimensional image and the relationship between the target part and the pixel value distribution obtained in advance. A range is set, pixel values included in the predetermined range are shifted, and correction is performed so that the width of the predetermined range is expanded. Based on the relationship between the target part and the distribution of pixel values obtained in advance, that is, foresight information, it is possible to determine which range of the pixel value distribution obtained from the three-dimensional image is the pixel value indicating the target part. The pixel values in the range are shifted and the range is expanded to differentiate from the surrounding pixels.

そして、対象部位抽出手段が、補正手段により画素値が補正された3次元画像において、対象部位を示す補正後の画素値を有する画素を連結した領域であって、その領域内の画素数が最大となる領域を抽出する。対象部位を示す領域はある程度の大きさを持っており、領域が小さい場合、すなわち画素数の少ない領域は、陰影の影響等により抽出された誤差やノイズ等に相当する領域であり、対象部位を示す領域ではないと判定することができる。そして、表示制御手段が、対象部位抽出手段により抽出された領域が3次元画像として表示されるように表示手段を制御する。   Then, in the three-dimensional image in which the pixel value is corrected by the correction unit, the target part extraction unit is a region in which pixels having corrected pixel values indicating the target part are connected, and the number of pixels in the region is the maximum To extract the region. The area indicating the target part has a certain size, and when the area is small, that is, the area with a small number of pixels is an area corresponding to an error or noise extracted due to the influence of the shadow, etc. It can be determined that the region is not shown. Then, the display control means controls the display means so that the region extracted by the target part extraction means is displayed as a three-dimensional image.

このように、骨領域に基づいて処理領域を設定し、処理領域内の対象部位を示す画素値をシフト及び範囲を拡大するように補正し、対象部位を示す補正後の画素値を有する画素を連結した領域で画素数最大の領域を対象部位を示す領域として抽出するため、非造影断層画像から精度良く対象部位を抽出して、3次元表示することができる。   In this way, the processing region is set based on the bone region, the pixel value indicating the target region in the processing region is corrected so as to shift and expand the range, and the pixel having the corrected pixel value indicating the target region is obtained. Since the region having the maximum number of pixels in the connected region is extracted as a region indicating the target part, the target part can be extracted from the non-contrast tomographic image with high accuracy and displayed three-dimensionally.

また、前記設定手段は、前記骨領域投影画像において骨領域を示す画素が離散的な箇所を、スプライン曲線により補間することができる。複数の非造影断層画像内の連続する所定枚数に対応する骨領域投影画像では、所定枚数が少ない場合に骨領域を示す画素が離散的になる可能性もあるが、スプライン曲線により補間することで、精度良く処理領域を設定することができる。   Further, the setting means can interpolate, with a spline curve, a point where the pixels indicating the bone region are discrete in the bone region projection image. In a bone region projection image corresponding to a predetermined number of consecutive images in a plurality of non-contrast tomographic images, pixels indicating the bone region may be discrete when the predetermined number is small, but by interpolating with a spline curve, The processing area can be set with high accuracy.

また、前記補正手段は、造影剤を用いて対象部位を含む身体を撮影した複数の造影断層画像に基づく3次元画像の画素値の分布と、前記複数の非造影断層画像に基づく3次元画像の画素値の分布との比較により予め求めた前記関係に基づいて、前記対象部位を示す画素値の所定範囲を設定することができる。このような先見情報を用いることで、精度良く対象部位を示す画素値の所定範囲を設定することができる。   In addition, the correction unit may include a distribution of pixel values of a three-dimensional image based on a plurality of contrast tomographic images obtained by imaging a body including a target region using a contrast agent, and a three-dimensional image based on the plurality of non-contrast tomographic images. A predetermined range of pixel values indicating the target portion can be set based on the relationship obtained in advance by comparison with the distribution of pixel values. By using such look-ahead information, it is possible to set a predetermined range of pixel values indicating the target portion with high accuracy.

また、本発明の医療画像処理装置は、前記3次元画像から、領域拡張法により拡張された領域を抽出し、該拡張された領域に含まれる画素の画素値を、該拡張された領域と背景との最短距離を示す距離値に変換し、該距離値に基づいて、前記拡張された領域を該領域のくびれ箇所で分離し、分離された領域毎のサイズ及び形状の少なくとも一方に基づいて、前記対象部位とは異なる他部位を示す領域を抽出する他部位抽出手段を含んで構成することができ、前記表示制御手段は、前記対象部位抽出手段により抽出された領域と、前記他部位抽出手段により抽出された領域との差分領域が3次元画像として表示されるように表示手段を制御することができる。これにより、対象部位と他部位とが密接した領域として抽出された場合でも、他部位を除去して精度良く対象部位を抽出することができる。   The medical image processing apparatus of the present invention extracts a region expanded by the region expansion method from the three-dimensional image, and calculates pixel values of pixels included in the expanded region as the expanded region and the background. Is converted into a distance value indicating the shortest distance to the area, and based on the distance value, the expanded area is separated at a constricted portion of the area, and based on at least one of the size and shape of each separated area, The other part extraction means for extracting a region indicating another part different from the target part may be included, and the display control means includes the area extracted by the target part extraction means and the other part extraction means. The display means can be controlled so that the difference area from the area extracted by the above is displayed as a three-dimensional image. Thereby, even when the target part and the other part are extracted as a close region, the target part can be extracted with high accuracy by removing the other part.

また、本発明の医療画像処理方法は、コンピュータが、造影剤を用いずに対象部位を含む身体を撮影した複数の非造影断層画像を積層して3次元画像を生成し、生成された3次元画像から画素値が所定値以上の領域を骨領域として抽出し、前記複数の非造影断層画像内の連続する所定枚数に対応する前記骨領域を積層方向に投影した際に投影線上で最大となる画素値により構成される骨領域投影画像に基づいて、前記所定枚数毎に前記対象部位を含む処理領域を設定し、前記3次元画像において設定された処理領域内の画素値の分布、及び予め求めた対象部位と画素値の分布との関係に基づいて、前記対象部位を示す画素値の所定範囲を設定し、該所定範囲に含まれる画素値をシフトさせると共に、該所定範囲の幅が拡大するように補正し、画素値が補正された前記3次元画像において、前記対象部位を示す補正後の画素値を有する画素を連結した領域であって、該領域内の画素数が最大となる領域を抽出し、抽出された領域が3次元画像として表示されるように表示手段を制御する方法である。 Further, in the medical image processing method of the present invention, a computer generates a three-dimensional image by stacking a plurality of non-contrast tomographic images obtained by imaging a body including a target region without using a contrast agent. When a region having a pixel value greater than or equal to a predetermined value is extracted from the image as a bone region, the bone region corresponding to a predetermined number of consecutive images in the plurality of non-contrast tomographic images is maximized on the projection line. Based on a bone region projection image composed of pixel values, a processing region including the target part is set for each of the predetermined number, and a distribution of pixel values in the processing region set in the three-dimensional image is obtained in advance. Based on the relationship between the target portion and the distribution of pixel values, a predetermined range of pixel values indicating the target portion is set, the pixel values included in the predetermined range are shifted, and the width of the predetermined range is expanded. So that In the three-dimensional image in which the prime value is corrected, a region where pixels having corrected pixel values indicating the target portion are connected and the number of pixels in the region is maximized is extracted and extracted. This is a method for controlling the display means so that the region is displayed as a three-dimensional image.

また、本発明の医療画像処理プログラムは、コンピュータを、上記の医療画像処理装置を構成する各手段として機能させるためのプログラムである。   The medical image processing program of the present invention is a program for causing a computer to function as each means constituting the medical image processing apparatus.

以上説明したように、本発明の医療画像処理装置、方法、及びプログラムによれば、骨領域に基づいて処理領域を設定し、処理領域内の対象部位を示す画素値をシフト及び範囲を拡大するように補正し、対象部位を示す補正後の画素値を有する画素を連結した領域で画素数最大の領域を対象部位を示す領域として抽出するため、非造影断層画像から精度良く対象部位を抽出して、3次元表示することができる、という効果が得られる。   As described above, according to the medical image processing apparatus, method, and program of the present invention, a processing region is set based on a bone region, a pixel value indicating a target part in the processing region is shifted, and the range is expanded. In order to extract the region having the maximum number of pixels as the region indicating the target region in the region where the pixels having corrected pixel values indicating the target region are connected, the target region is accurately extracted from the non-contrast tomographic image. Thus, an effect that three-dimensional display can be performed is obtained.

第1の実施の形態に係る医療画像処理装置の概略構成を示すブロック図である。It is a block diagram showing a schematic structure of a medical image processing device concerning a 1st embodiment. 画素値補正部の処理を説明するための図である。It is a figure for demonstrating the process of a pixel value correction | amendment part. ラベリング処理を説明するための図である。It is a figure for demonstrating a labeling process. 連結性の判定基準である近傍数の一例を示す図である。It is a figure which shows an example of the number of the neighborhood which is a determination criterion of connectivity. 第1の実施の形態における医療画像処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the medical image processing routine in 1st Embodiment. 3次元画像の生成を説明するための図である。It is a figure for demonstrating the production | generation of a three-dimensional image. 処理領域設定処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the process area setting process routine. 骨領域の3次元画像を示す図である。It is a figure which shows the three-dimensional image of a bone area | region. 骨領域投影画像を示す図である。It is a figure which shows a bone area | region projection image. 骨領域投影画像のスプライン補間を説明するための図である。It is a figure for demonstrating the spline interpolation of a bone area | region projection image. 処理領域の設定を示す図である。It is a figure which shows the setting of a processing area. 画素値補正処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the pixel value correction process routine. 解析用の画素値のヒストグラムを示す図である。It is a figure which shows the histogram of the pixel value for an analysis. 画素値のヒストグラムにおける変曲点の算出を説明するための図である。It is a figure for demonstrating calculation of the inflection point in the histogram of a pixel value. 補正対象の画素値を定める処理幅WIDEの設定を説明するための図である。It is a figure for demonstrating the setting of the processing width WIDE which determines the pixel value of correction object. 画素値補正処理の処理結果の一例を示す図である。It is a figure which shows an example of the process result of a pixel value correction process. ラベリング処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the labeling process routine. ラベリング処理の対象となる画素値の設定を説明するための図である。It is a figure for demonstrating the setting of the pixel value used as the object of a labeling process. ラベル値別画素数ヒストグラムを示す図である。It is a figure which shows the pixel number histogram according to label value. ラベリング処理後の領域からの対象部位を示す領域の抽出を説明するための図である。It is a figure for demonstrating extraction of the area | region which shows the object site | part from the area | region after a labeling process. 第1の実施の形態に係る医療画像処理装置の処理結果の一例を示す図である。It is a figure which shows an example of the process result of the medical image processing apparatus which concerns on 1st Embodiment. 第1の実施の形態に係る医療画像処理装置の処理結果の一例を示す図である。It is a figure which shows an example of the process result of the medical image processing apparatus which concerns on 1st Embodiment. 第1の実施の形態に係る医療画像処理装置の処理結果の一例を示す図である。It is a figure which shows an example of the process result of the medical image processing apparatus which concerns on 1st Embodiment. 第2の実施の形態に係る医療画像処理装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the medical image processing apparatus which concerns on 2nd Embodiment. 第2の実施の形態における医療画像処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the medical image processing routine in 2nd Embodiment. 他部位除去処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the other site | part removal process routine. 領域拡張法を説明するための図である。It is a figure for demonstrating the area | region expansion method. 領域拡張法を説明するための図である。It is a figure for demonstrating the area | region expansion method. くびれ箇所による領域の分割を説明するための図である。It is a figure for demonstrating the division | segmentation of the area | region by a constriction location. 第2の実施の形態に係る医療画像処理装置の処理結果の一例を示す図である。It is a figure which shows an example of the process result of the medical image processing apparatus which concerns on 2nd Embodiment.

以下、図面を参照して本発明の実施の形態を詳細に説明する。なお、本実施の形態では、胸部及び腹部の血管を対象部位として抽出して3次元表示するための医療画像処理装置に本発明を適用した場合を例に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the present embodiment, a case where the present invention is applied to a medical image processing apparatus for extracting and displaying three-dimensionally the blood vessels of the chest and abdomen as target portions will be described as an example.

図1に示すように、第1の実施の形態に係る医療画像処理装置10は、医療画像から抽出された対象部位を3次元表示するための画像処理を行うコンピュータ12と、画像処理結果を表示するための表示装置14とを備えている。   As shown in FIG. 1, a medical image processing apparatus 10 according to the first embodiment displays a computer 12 that performs image processing for three-dimensionally displaying a target region extracted from a medical image, and displays an image processing result. And a display device 14 for doing so.

コンピュータ12は、CPU、ROM、RAM、及びHDDを備え、HDDには、後述する医療画像処理ルーチンに対するプログラムが記憶されている。このコンピュータ12は、機能的には、3次元画像生成部20と、処理領域設定部22と、画素値補正部24と、ラベリング処理部26と、表示制御部28とを含んだ構成で表すことができる。   The computer 12 includes a CPU, a ROM, a RAM, and an HDD, and a program for a medical image processing routine described later is stored in the HDD. The computer 12 is functionally represented by a configuration including a three-dimensional image generation unit 20, a processing region setting unit 22, a pixel value correction unit 24, a labeling processing unit 26, and a display control unit 28. Can do.

3次元画像生成部20は、CTやMRIなどの医療画像撮影装置において、造影剤を使用することなく対象部位を含む人体の部位(ここでは胸部及び腹部)を所定間隔毎に断層撮影した複数の非造影断層画像を、断層方向と直交する方向に積層することにより3次元画像を生成する。   The three-dimensional image generation unit 20 uses a plurality of tomographic images of a part of the human body (here, the chest and abdomen) including the target part without using a contrast agent in a medical image photographing apparatus such as CT or MRI. A three-dimensional image is generated by stacking non-contrast tomographic images in a direction orthogonal to the tomographic direction.

処理領域設定部22は、3次元画像生成部20で生成された3次元画像から画素値が所定値以上の領域を骨領域として抽出する。また、3次元画像を生成する際に積層した複数の非造影断層画像内の連続する所定枚数に対応する骨領域の3次元画像にMIP(MaximumIntensityProjection)を適用して得られる骨領域投影画像に基づいて、非造影断層画像の所定枚数毎に処理領域を設定する。処理領域とは、後述する画素値補正処理及びラベリング処理の対象となる領域である。ここでの処理領域設定は、胸部及び腹部の筋肉や脂肪などの領域を臓器領域から分離することを目的としている。内部臓器と筋肉とは画像中において非常に近い画素値によって構成されるため、画素値情報を基とした分離が非常に難しい。よってここでは、脊椎、肋骨、胸骨による環状構造の外に存在する画素は脂肪や筋肉を構成するもので、本実施の形態での対象部位である血管は含まれていないという臨床的特性に基づいて、処理領域の設定を行うものである。なお、3次元画像に対して、任意方向からの投影線上の最大値を画素値とする処理をMIPといい、従来では主に造影血管の可視化に用いられ、最大値を持たない画素は抽出されない。   The processing region setting unit 22 extracts a region having a pixel value equal to or greater than a predetermined value from the three-dimensional image generated by the three-dimensional image generation unit 20 as a bone region. Also, based on a bone region projection image obtained by applying MIP (Maximum Intensity Projection) to a three-dimensional image of a bone region corresponding to a predetermined number of consecutive non-contrast tomographic images stacked when generating a three-dimensional image. Thus, a processing area is set for every predetermined number of non-contrast tomographic images. The processing area is an area that is a target of pixel value correction processing and labeling processing described later. The processing region setting here is intended to separate regions such as chest and abdominal muscles and fat from the organ region. Since internal organs and muscles are composed of very close pixel values in the image, separation based on pixel value information is very difficult. Therefore, here, the pixels existing outside the annular structure of the spine, ribs, and sternum constitute fat and muscle, and are based on the clinical characteristic that blood vessels that are target sites in this embodiment are not included. Thus, the processing area is set. Note that the processing for setting the maximum value on the projection line from an arbitrary direction as a pixel value for a three-dimensional image is referred to as MIP. Conventionally, it is mainly used for visualization of contrast blood vessels, and pixels having no maximum value are not extracted. .

画素値補正部24は、3次元画像生成部20で生成された3次元画像において、処理領域設定部22により設定された処理領域内の画素の画素値のヒストグラムを作成する。また、予め求めた対象部位と画素値のヒストグラムとの関係に基づいて、作成したヒストグラムにおいて、対象部位を示す画素値の所定範囲を設定する。その所定範囲に含まれる画素値に透過関数を適用して補正する。ここで、画素値補正部24で用いる透過関数について説明する。ここでは、抽出する対象部位である血管を示す画素とその周辺の画素との差別化を行うために、透過関数を適用した画素値の補正を行う。これは、図2に示すような画素値のヒストグラムに対して、血管を示す画素の画素値周辺のヒストグラムを変形させるような関数式を掛け合わせて画素値を補正することを表す。透過関数は、対象部位を示す画素の画素値を、高輝度側へシフトさせると共に、補正された画素値の範囲が補正前に設定された所定範囲より拡大するように定義された関数であり、この関数を適用することにより、対象部位を示す画素と周辺画素との差別化を図る。   The pixel value correction unit 24 creates a histogram of pixel values of pixels in the processing region set by the processing region setting unit 22 in the three-dimensional image generated by the three-dimensional image generation unit 20. In addition, based on the relationship between the target portion and the pixel value histogram obtained in advance, a predetermined range of pixel values indicating the target portion is set in the created histogram. Correction is performed by applying a transmission function to pixel values included in the predetermined range. Here, the transmission function used in the pixel value correction unit 24 will be described. Here, in order to differentiate between a pixel indicating a blood vessel that is a target site to be extracted and its surrounding pixels, the pixel value to which the transmission function is applied is corrected. This means that the pixel value is corrected by multiplying the histogram of the pixel value as shown in FIG. 2 by a functional expression that deforms the histogram around the pixel value of the pixel indicating the blood vessel. The transmission function is a function defined so that the pixel value of the pixel indicating the target region is shifted to the high luminance side, and the corrected pixel value range is expanded from the predetermined range set before correction, By applying this function, the pixel indicating the target region and the peripheral pixels are differentiated.

このような画素値の補正を行うための透過関数の概念について説明する。3次元画像INの各座標(i,j,k)における画素値を、IN(i,j,k)と表記する。ここで、画素値IN(i,j,k)についての透過関数を考えると、処理幅をWIDE、処理幅中心をCENTERとしたとき、処理幅始点α及び処理幅終点βは、下記(1)式となり、補正後の3次元画像OUT(i,j,k)は、下記(2)式となる。   The concept of a transmission function for correcting such pixel values will be described. A pixel value at each coordinate (i, j, k) of the three-dimensional image IN is denoted as IN (i, j, k). Here, considering the transmission function for the pixel value IN (i, j, k), when the processing width is WIDE and the center of the processing width is CENTER, the processing width start point α and the processing width end point β are the following (1) The corrected three-dimensional image OUT (i, j, k) is expressed by the following expression (2).

この処理は、処理幅WIDEの大きさ、及び処理幅中心CENTERの設定に依存する。WIDE及びCENTERの設定は、画素値のヒストグラムにおいて、対象部位を示す画素値がどの範囲に表れるかという先見情報に基づいて定める。この先見情報は、例えば、同一の対象部位を、造影剤を使用して撮影した造影画像と、造影剤を使用しないで撮影した非造影画像とを用いて、造影画像から得られる画素値のヒストグラムと、非造影画像から得られる画素値のヒストグラムとの差分から得ることができる。   This processing depends on the size of the processing width WIDE and the setting of the processing width center CENTER. The setting of WIDE and CENTER is determined based on the foresight information indicating in which range the pixel value indicating the target part appears in the pixel value histogram. This foresight information is, for example, a histogram of pixel values obtained from a contrast image using a contrast image obtained by imaging the same target region using a contrast agent and a non-contrast image obtained without using a contrast agent. And the difference between the histogram of pixel values obtained from the non-contrast image.

本実施の形態では、後述する画素値補正処理において、上記のような画素値の補正を行う範囲(WIDE)を自動的に設定する。   In the present embodiment, a range (WIDE) for correcting the pixel value as described above is automatically set in a pixel value correction process described later.

ラベリング処理部26は、画素値補正部24により画素値が補正された3次元画像において、対象部位を示す補正後の画素値を有する画素を連結した領域毎にラベルを付与する(ラベリング処理)。ラベル毎の領域内の画素数が最大となる領域を、対象部位を示す領域として抽出する。ラベリング処理とは、画像内で独立した構造体に対してグループ属性を持たせるための処理であり、単一画像内に複数の構造体が存在する場合に、各々が持つ領域を識別するための処理である。領域毎のラベリング処理及びグループ属性のイメージを図3に示す。図3上図において、網掛けした画素が対象部位を示す補正後の画素値を有する画素である。そして図3下図に示すように、この網掛けした画素が連結している領域毎に異なるラベルが付与される。なお、図3では、説明の簡単のため、2次元画像でラベリング処理を示しているが、本実施の形態では、3次元画像に対してラベリング処理を行う。3次元画像に対するラベリング処理では、例えば、図4に示すような連結性の判定基準が用いられる。図4の例では、縦横上下方向のみを考えた6近傍処理、3次元の軸毎の平面の連結性を重視した18近傍処理、及び対角方向を含む全方向の連結性を重視した26近傍処理を示している。特に、18近傍処理では斜め方向に連続した画素に対しても同値のラベルを付加されるのに対して、6近傍処理では斜め方向の連続画素には異なるラベルが付加されるように、連結判定を行う近傍数は、ラベリング処理において重要である。連結判定の近傍数の増加に伴い演算量も増加するため、ラベルを付加したい対象部位の形状に応じて、使用する連結判定の種類を選択するとよい。本実施の形態では、18近傍処理と26近傍処理とで得られる結果の差が少ないことから、演算量の削減及び演算時間の短縮という観点から18近傍処理を用いる。   The labeling processing unit 26 assigns a label to each region where pixels having corrected pixel values indicating the target portion are connected in the three-dimensional image whose pixel values are corrected by the pixel value correcting unit 24 (labeling processing). A region having the maximum number of pixels in the region for each label is extracted as a region indicating the target part. The labeling process is a process for giving a group attribute to independent structures in an image. When there are multiple structures in a single image, each labeling process identifies It is processing. FIG. 3 shows an image of labeling processing and group attributes for each region. In the upper diagram of FIG. 3, shaded pixels are pixels having corrected pixel values indicating the target portion. Then, as shown in the lower diagram of FIG. 3, a different label is assigned to each region where the shaded pixels are connected. In FIG. 3, for ease of explanation, the labeling process is shown for a two-dimensional image. However, in the present embodiment, the labeling process is performed on a three-dimensional image. In the labeling process for a three-dimensional image, for example, a connectivity determination criterion as shown in FIG. 4 is used. In the example of FIG. 4, 6 neighborhood processing that considers only vertical and horizontal directions, 18 neighborhood processing that emphasizes connectivity of planes for each three-dimensional axis, and 26 neighborhoods that emphasize connectivity in all directions including diagonal directions. Processing is shown. In particular, in the 18 neighborhood processing, the same value label is added to pixels that are continuous in the diagonal direction, whereas in 6 neighborhood processing, different labels are added to the continuous pixels in the diagonal direction. The number of neighbors to perform is important in the labeling process. Since the amount of calculation increases with an increase in the number of neighbors for connection determination, the type of connection determination to be used may be selected according to the shape of the target part to which a label is to be added. In this embodiment, since there is little difference in the results obtained between the 18-neighbor process and the 26-neighbor process, the 18-neighbor process is used from the viewpoint of reducing the amount of computation and shortening the computation time.

表示制御部28は、抽出された対象部位を示す領域が表示装置14に3次元表示されるように制御する。   The display control unit 28 performs control so that the region indicating the extracted target part is displayed three-dimensionally on the display device 14.

次に、第1の実施の形態の医療画像処理装置10の作用について説明する。CTやMRIなどの医療画像撮影装置において、造影剤を使用することなく対象部位を含む人体の部位(ここでは胸部及び腹部)が所定間隔毎に断層撮影され、複数の非造影断層画像(2次元画像)が得られると、医療画像処理装置10において、図5に示す医療画像処理ルーチンが実行される。   Next, the operation of the medical image processing apparatus 10 according to the first embodiment will be described. In a medical imaging apparatus such as CT or MRI, a part of the human body (here, the chest and abdomen) including the target part is tomographically imaged at predetermined intervals without using a contrast agent, and a plurality of non-contrast tomographic images (two-dimensional) When the image is obtained, the medical image processing apparatus 10 executes a medical image processing routine shown in FIG.

ステップ100で、撮影された複数の非造影断層画像を取得する。   In step 100, a plurality of non-contrast tomographic images taken are acquired.

次に、ステップ110で、上記ステップ100で取得した複数の非造影断層画像を、図6(a)に示すように、断層方向と直交する方向に積層し、同図(b)に示すような3次元画像を生成する。   Next, in step 110, the plurality of non-contrast tomographic images acquired in step 100 are stacked in a direction orthogonal to the tomographic direction as shown in FIG. 6A, and as shown in FIG. A three-dimensional image is generated.

次に、ステップ120で、処理領域設定処理を実行する。ここで、図7を参照して、処理領域設定処理ルーチンについて説明する。   Next, in step 120, processing area setting processing is executed. Here, the processing region setting processing routine will be described with reference to FIG.

ステップ122で、上記ステップ110で生成された3次元画像において、予め定めた閾値以上の画素値の画素を骨領域として抽出する。非造影断層画像のCT値が−2000(HU)〜+2000(HU)の間で分布している場合には、110(HU)以上のCT値を持つ領域はほぼ全てが骨領域と見なすことができる。よってこの値を閾値として、図8に示すような骨領域のみを抽出した3次元画像を作成する。   In step 122, in the three-dimensional image generated in step 110, a pixel having a pixel value equal to or greater than a predetermined threshold is extracted as a bone region. When CT values of non-contrast tomographic images are distributed between −2000 (HU) and +2000 (HU), almost all regions having CT values of 110 (HU) or more can be regarded as bone regions. it can. Therefore, using this value as a threshold, a three-dimensional image in which only the bone region as shown in FIG. 8 is extracted is created.

次に、ステップ124で、上記ステップ122で作成された骨領域の3次元画像に、画像積層方向からのMIPを適応する。ここでは、人体の腹部から胸部にかけての断層面積が逐次異なることを考慮して、積層方向に連続する所定枚数(例えば、5枚)の非造影断層画像に対応する骨領域の部分毎にMIPを適用する。これにより、可能な限り身体構造に近い処理領域を設定することができる。非造影断層画像の所定枚数分に対応する骨領域の3次元画像にMIPを適用すると、図9に示すような2次元画像(骨領域投影画像)が作成される。このように少ない枚数の画像に対してMIPを適用するため、同図に示すように、骨領域投影画像上で骨領域が離散的になる箇所が存在する。   Next, in step 124, the MIP from the image stacking direction is applied to the three-dimensional image of the bone region created in step 122. Here, considering that the tomographic areas from the abdomen to the chest of the human body are sequentially different, the MIP is calculated for each part of the bone region corresponding to a predetermined number (for example, five) of non-contrast tomographic images continuous in the stacking direction. Apply. Thereby, it is possible to set a processing region as close to the body structure as possible. When MIP is applied to a three-dimensional image of a bone region corresponding to a predetermined number of non-contrast tomographic images, a two-dimensional image (bone region projection image) as shown in FIG. 9 is created. In order to apply MIP to such a small number of images, there are locations where the bone regions are discrete on the bone region projection image, as shown in FIG.

そこで、ステップ126で、上記ステップ124で作成した骨領域投影画像に対して、図10に示すように、離散的な箇所をスプライン曲線で補間する。同図において、黒丸が既知の点であり、網掛けの丸が既知の点に基づいてスプライン曲線で補間された点である。   Therefore, in step 126, discrete points are interpolated with spline curves as shown in FIG. 10 for the bone region projection image created in step 124. In the figure, black circles are known points, and shaded circles are points interpolated with a spline curve based on the known points.

次に、ステップ128で、図11に示すように、補間後の骨領域投影画像の骨領域を結んだ環状構造の内部を、後述する画素値補正処理及びラベリング処理の処理領域として設定して、図5の医療画像処理ルーチンにリターンする。   Next, in step 128, as shown in FIG. 11, the inside of the annular structure connecting the bone regions of the bone region projection image after interpolation is set as a processing region for pixel value correction processing and labeling processing described later, The process returns to the medical image processing routine of FIG.

次に、ステップ140で、画素値補正処理を実行する。ここで、図12を参照して、画素値補正処理ルーチンについて説明する。   Next, in step 140, pixel value correction processing is executed. Here, the pixel value correction processing routine will be described with reference to FIG.

ステップ142で、上記ステップ110で生成された3次元画像において、上記ステップ128で設定された処理領域内の画素の画素値のヒストグラムを作成する。本実施の形態のように対象部位が血管の場合には、図13に示すように、画素値のヒストグラムの最も右のピーク周辺(図中網掛け部)の画素値が、血管を示す画素の画素値に対応することが分かっている。これは、例えば、造影画像に基づく画素値のヒストグラムと、非造影画像に基づく画素値のヒストグラムとを複数の患者を撮影することにより得て、これらを比較したデータにより得られる。そこで、以下のステップでは、この範囲を自動的に抽出して、透過関数を設定する。   In step 142, a histogram of pixel values of the pixels in the processing region set in step 128 is created in the three-dimensional image generated in step 110. When the target region is a blood vessel as in the present embodiment, as shown in FIG. 13, the pixel value around the rightmost peak (shaded portion in the figure) of the pixel value histogram is the pixel value indicating the blood vessel. It is known to correspond to the pixel value. This is obtained, for example, by obtaining a pixel value histogram based on a contrast image and a pixel value histogram based on a non-contrast image by imaging a plurality of patients and comparing them. Therefore, in the following steps, this range is automatically extracted and a transmission function is set.

次に、ステップ144で、上記ステップ142で作成した画素値のヒストグラムに対して前処理を施す。ここでの前処理とは、不要な範囲の画素値を削除すること、及びローパスフィルタを適用することである。まず、画素値0[HU]周辺の画素は、空気や寝台などの機器を映す領域であることが分かっているため、例えば、500[HU]以下の情報を削除する。削除する範囲は、対象部位に応じて適宜設定するとよい。また、ローパスフィルタは、ヒストグラム中で微少な変動を繰り返す部分(高周波成分)の除去を行い、後述する変曲点の算出を容易にするためのものである。例えば、正規化角周波数ω=0.05[rad/s]のローパスフィルタを適応することができる。   Next, in step 144, preprocessing is performed on the histogram of pixel values created in step 142. The preprocessing here is to delete pixel values in an unnecessary range and to apply a low-pass filter. First, since it is known that the pixels around the pixel value 0 [HU] are regions that reflect devices such as air and a bed, information of 500 [HU] or less is deleted, for example. The range to be deleted may be appropriately set according to the target part. The low-pass filter is for removing a portion (high frequency component) that repeats minute fluctuations in the histogram and facilitating calculation of an inflection point, which will be described later. For example, a low-pass filter with a normalized angular frequency ω = 0.05 [rad / s] can be applied.

次に、ステップ146で、上記ステップ144で前処理を施したヒストグラムから、図14に示すように、全ての変曲点(図中●印)を算出する。そして、これらの変曲点から、最右ピークを探索し、最右ピークを示す変曲点をCENTERとして設定する。また、図15に示すように、CENTERよりマイナス方向へ最初の変曲点を点P1、プラス方向へ最初の変曲点をP2とし、この2点間の所定幅(例えば、2点間の幅の1/2)を、WIDEとして設定する。所定幅は、2点間の全幅としてもよいし、2点間の1/3、3/4等としてもよく、対象部位に応じて適宜設定しておく。   Next, in step 146, all inflection points (marked with ● in the figure) are calculated from the histogram pre-processed in step 144 as shown in FIG. Then, the rightmost peak is searched from these inflection points, and the inflection point indicating the rightmost peak is set as CENTER. Further, as shown in FIG. 15, the first inflection point in the minus direction from CENTER is point P1, and the first inflection point in the plus direction is P2, and a predetermined width between these two points (for example, the width between the two points). 1/2) is set as WIDE. The predetermined width may be the entire width between two points, or may be 1/3 between two points, 3/4, or the like, and is set as appropriate according to the target site.

次に、ステップ148で、上記ステップ146の設定に基づいて、下記(3)式に示す透過関数を設定する。   Next, in step 148, based on the setting in step 146, a transmission function shown in the following equation (3) is set.

(3)式に示す透過関数は、CENTER周辺の画素値をより高輝度側へシフトさせると共に、WIDE範囲内の画素値の補正後の範囲を拡大する特性を持つ。どの程度まで高輝度化するかはRATEの値によって定まる。RATEの値を高くするほど、補正対象となった画素とその周辺画素との差別化は容易となる。その一方で、RATE=10以上の値では16bitのダイナミックレンジを越える画素値をとる可能性があるため、対象部位に応じて適切な値を予め定めておく。ここでは、例えば、RATE=1.5とすることができる。   The transmission function shown in the equation (3) has a characteristic of shifting the pixel value around CENTER to a higher luminance side and expanding the corrected range of the pixel value within the WIDE range. To what extent the luminance is increased is determined by the value of RATE. The higher the RATE value, the easier it is to differentiate between the pixel to be corrected and its surrounding pixels. On the other hand, since a pixel value exceeding the 16-bit dynamic range may be taken with a value of RATE = 10 or more, an appropriate value is determined in advance according to the target region. Here, for example, RATE = 1.5 can be set.

次に、ステップ150で、上記ステップ146で設定したWIDE範囲内の画素値を持つ画素について、上記ステップ148で設定した透過関数を用いて、画素値を補正して、図5の医療画像処理ルーチンにリターンする。   Next, in step 150, for the pixel having the pixel value within the WIDE range set in step 146, the pixel value is corrected using the transmission function set in step 148, and the medical image processing routine of FIG. Return to

図16に、透過関数を適用した段階での処理結果の一例を示す。同図(a)は本実施の形態の透過関数非適用の単純非造影CT画像、(b)は非造影画像に本実施の形態の透過関数を適用した結果、及び(c)はほぼ同等の部位を撮影した造影画像である。(a)と(b)とを比較した場合、大動脈、大静脈を初めとした血管部分の画素値が補正されたことにより(a)では不明瞭であった部分のコントラストが(b)では明瞭化されていることがわかる。また、腹部外縁部の筋肉や脂肪部分の画素値については、処理領域外となるため、画素値の補正が行われておらず、他領域との差別化を図りながら対象部位の画素値が補正されている。同図(b)と(c)とを比較すると、造影によってコントラストが明瞭化されている部分と同等の領域が補正対象となっていることが確認できる。   FIG. 16 shows an example of the processing result at the stage where the transmission function is applied. (A) is a simple non-contrast CT image without application of the transmission function of this embodiment, (b) is a result of applying the transmission function of this embodiment to a non-contrast image, and (c) is substantially equivalent. It is the contrast image which image | photographed the site | part. When (a) and (b) are compared, the contrast of the part that was unclear in (a) is clear in (b) because the pixel values of blood vessels such as the aorta and vena cava are corrected. It can be seen that In addition, the pixel values of the muscles and fat portions of the outer edge of the abdomen are outside the processing region, so the pixel values are not corrected, and the pixel values of the target region are corrected while differentiating from other regions. Has been. Comparing (b) and (c) in the figure, it can be confirmed that a region equivalent to a portion whose contrast is clarified by contrast is a correction target.

次に、ステップ160で、ラベリング処理を実行する。ここで、図17を参照して、ラベリング処理ルーチンについて説明する。   Next, in step 160, a labeling process is executed. Here, the labeling processing routine will be described with reference to FIG.

ステップ162で、ラベリング処理の対象となる画素値を設定する。ここでは、図18に示すように、上記ステップ150による補正後の画素値を用いて作成されたヒストグラムにおいて、新しく発生した変曲点P3をCENTERとして、上記ステップ146で設定したWIDEと同幅のWIDEを設定し、このWIDE範囲内の画素値を持つ画素をラベリング対象として設定する。なお、補正前のWIDEの開始点画素値の補正後の画素値から、補正前のWIDEの終了点画素値の補正後の画素値までを、新たなWIDEとして設定してもよい。   In step 162, a pixel value to be labeled is set. Here, as shown in FIG. 18, in the histogram created using the pixel values after the correction in step 150, the newly generated inflection point P3 is CENTER and has the same width as WIDE set in step 146. WIDE is set, and pixels having pixel values within this WIDE range are set as labeling targets. Note that a new WIDE may be set from the pixel value after correction of the WIDE start point pixel value before correction to the pixel value after correction of the WIDE end point pixel value before correction.

次に、ステップ164で、3次元画像の処理領域内の画素であって、上記ステップ162で設定した画素値を持つ連結した画素に対して同値のラベルを付加する。連結性の判定条件は、例えば18近傍処理とすることができる。   Next, in step 164, a label having the same value is added to the connected pixels having the pixel value set in step 162, which are pixels in the processing region of the three-dimensional image. The connectivity determination condition may be 18 neighborhood processing, for example.

次に、ステップ166で、図19に示すように、同値のラベルが付与された画素の画素数を表すラベル値別画素数ヒストグラムを作成し、画素数が最大となるラベル値を選択する。同値のラベルが付与された画素数が多いということは、その領域が1つの構造体を表している確率が高く、同値のラベルが付与された画素数が少ない場合には、陰影の影響など、その領域が構造体を表しているわけではない可能性が高い。特に、本実施の形態の対象部位である血管は、上下に伸びる構造であるため、3次元的に見ると画素数が多くなる。そこで、画素数に基づいて領域を抽出するものである。   Next, in step 166, as shown in FIG. 19, a label value-specific pixel number histogram representing the number of pixels to which the label of the same value is assigned is created, and the label value that maximizes the number of pixels is selected. The fact that the number of pixels with the same value label is large means that there is a high probability that the area represents one structure, and when the number of pixels with the same value label is small, the influence of shadows, etc. It is likely that the area does not represent a structure. In particular, since the blood vessel that is the target portion of the present embodiment has a structure that extends vertically, the number of pixels increases when viewed three-dimensionally. Therefore, a region is extracted based on the number of pixels.

次に、ステップ168で、上記ステップ166で選択されたラベル値が付与された領域を抽出して、図5の医療画像処理ルーチンにリターンする。   Next, in step 168, the region to which the label value selected in step 166 is added is extracted, and the process returns to the medical image processing routine of FIG.

例えば、図20(a)に示すようにラベルが付与され、ラベル1の画素数が最大であった場合には、同図(b)に示すような領域が抽出される。なお、図20では、説明の簡単のため、2次元画像で表示しているが、実際の処理は3次元画像に対して行う。このため、同図(a)において、ラベル1の領域が複数存在するように見えるが、3次元的に見るとこれらの領域はいずれかの箇所で連結されていることを表している。   For example, when a label is given as shown in FIG. 20A and the number of pixels of label 1 is the maximum, a region as shown in FIG. 20B is extracted. In FIG. 20, for simplicity of explanation, a two-dimensional image is displayed, but actual processing is performed on the three-dimensional image. For this reason, in FIG. 5A, it appears that there are a plurality of regions of the label 1, but when viewed three-dimensionally, these regions are connected at any point.

次に、ステップ180で、上記ステップ168で抽出した領域を、表示装置14に3次元表示して、処理を終了する。   Next, in step 180, the region extracted in step 168 is displayed three-dimensionally on the display device 14, and the process ends.

第1の実施の形態の医療画像処理層による処理結果を、図21〜23に示す。各図において(a)は本実施の形態による処理結果、及び(b)は参考として造影画像からの抽出結果を示している。(a)は画像入力から出力までを全自動的に行い、(b)の造影画像については手作業でのレタリングを交えながらの抽出作業を行い参考資料とした。この結果より心臓、並びに周辺の弓部大動脈及び腹部大動脈については、造影画像と同等の抽出が確認でき、本実施の形態の有効性が確認できた。   The processing results by the medical image processing layer of the first embodiment are shown in FIGS. In each figure, (a) shows the processing result according to the present embodiment, and (b) shows the extraction result from the contrast image for reference. (A) was performed automatically from image input to output, and the contrast image (b) was extracted as a reference material with manual lettering. From this result, it was confirmed that the heart, the surrounding arch aorta and the abdominal aorta were extracted in the same manner as the contrast image, and the effectiveness of the present embodiment was confirmed.

以上説明したように、第1の実施の形態の医療画像処理装置によれば、骨領域に基づいて処理領域を設定し、処理領域内の対象部位を示す画素値を、高輝度側へシフトすると共に範囲を拡大するような透過関数を用いて補正し、補正後の処理領域内の画素値を用いてラベリング処理を行うことにより、対象部位を示す領域を抽出するため、非造影断層画像から精度良く対象部位を抽出して、3次元表示することができる。   As described above, according to the medical image processing apparatus of the first embodiment, the processing region is set based on the bone region, and the pixel value indicating the target part in the processing region is shifted to the high luminance side. In addition, by using a transmission function that expands the range and performing a labeling process using the pixel values in the corrected processing region, the region indicating the target region is extracted, so accuracy can be obtained from the non-contrast tomographic image. The target part can be well extracted and displayed three-dimensionally.

次に、第2の実施の形態について説明する。なお、第2の実施の形態の医療画像処理装置について、第1の実施の形態の医療画像処理装置10と同一の構成については、同一符号を付して詳細な説明を省略する。   Next, a second embodiment will be described. In addition, about the medical image processing apparatus of 2nd Embodiment, about the structure same as the medical image processing apparatus 10 of 1st Embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.

図24に示すように、第2の実施の形態の医療画像処理装置210は、コンピュータ212と表示装置14とを備えている。コンピュータ212は、機能的には、3次元画像生成部20と、処理領域設定部22と、画素値補正部24と、ラベリング処理部26と、他部位抽出部30と、表示制御部228とを含んだ構成で表すことができる。   As illustrated in FIG. 24, the medical image processing apparatus 210 according to the second embodiment includes a computer 212 and a display device 14. Functionally, the computer 212 includes a three-dimensional image generation unit 20, a processing region setting unit 22, a pixel value correction unit 24, a labeling processing unit 26, another part extraction unit 30, and a display control unit 228. It can be expressed in a configuration that includes it.

図21〜23に示したように、第1の実施の形態における医療画像処理では、対象部位を精度良く抽出できているものの、対象部位とは異なる他部位もあわせて抽出されている。第2の実施の形態では、このような他部位の除去を目的とする。   As shown in FIGS. 21 to 23, in the medical image processing in the first embodiment, although the target part can be extracted with high accuracy, other parts different from the target part are also extracted. The second embodiment aims to remove such other parts.

他部位抽出部30は、3次元画像生成部20で生成された3次元画像から、領域拡張法により、除去対象の他部位を示す領域を大まかに抽出し、抽出した領域の各画素の距離値に基づいて領域を分離することにより、他部位を示す領域を抽出する。   The other part extraction unit 30 roughly extracts a region indicating the other part to be removed from the three-dimensional image generated by the three-dimensional image generation unit 20 by a region expansion method, and the distance value of each pixel of the extracted region By separating the regions based on the above, regions indicating other parts are extracted.

表示制御部228は、ラベリング処理部26で抽出された領域と、他部位抽出部30で抽出された領域との差分領域をとることにより、ラベリング処理部26で抽出された領域から他部位を示す領域を除去して、対象部位を示す領域を抽出して、その領域を表示装置14に3次元表示するように制御する。   The display control unit 228 indicates another region from the region extracted by the labeling processing unit 26 by taking a difference region between the region extracted by the labeling processing unit 26 and the region extracted by the other region extracting unit 30. The region is removed, a region indicating the target part is extracted, and control is performed so that the region is three-dimensionally displayed on the display device 14.

次に、第2の実施の形態の医療画像処理装置210の作用について説明する。第2の実施の形態では、図25に示すように、第1の実施の形態における医療画像処理ルーチンに、他部位除去処理のステップ(ステップ200)を加えただけであるため、図26を参照して、他部位除去処理ルーチンについて説明する。   Next, the operation of the medical image processing apparatus 210 according to the second embodiment will be described. In the second embodiment, as shown in FIG. 25, the other part removal processing step (step 200) is only added to the medical image processing routine in the first embodiment, so refer to FIG. The other part removal processing routine will be described.

ステップ202で、上記ステップ110で生成した3次元画像に対して、領域拡張法を適用して、大まかな他部位領域を抽出する。具体的には、図27(a)に示すように、3次元画像上にシードポイントを設定し、同図(b)に示すように、シードポイントを中心とした所定領域の窓(例えば、64×64画素)を設定し、窓内の画素値の平均値μ及び標準偏差σを計算する。そして、図28(a)に示すように、シードポイントから所定の拡張方向に隣接する画素(例えば、6近傍の画素)について、下記(4)式の条件を満たすか否かを判定し、条件を満たす場合には領域を拡張する。   In step 202, a region extension method is applied to the three-dimensional image generated in step 110 to extract a rough region region. Specifically, as shown in FIG. 27A, a seed point is set on a three-dimensional image, and as shown in FIG. X64 pixels) is set, and the average value μ and standard deviation σ of the pixel values in the window are calculated. Then, as shown in FIG. 28A, it is determined whether or not the condition of the following expression (4) is satisfied for pixels adjacent in the predetermined extension direction from the seed point (for example, pixels in the vicinity of 6). If the condition is satisfied, the area is expanded.

次に、同図(b)に示すように、拡張された画素について新たに探索画素として設定し、探索画素を中心とする窓を設定して処理を繰り返し、条件を満たす画素が存在しなくなった段階での拡張済みの画素群を拡張された領域として抽出する(同図(c))。なお、図27及び28は、説明の簡単のため、2次元画像で示している。   Next, as shown in FIG. 4B, the expanded pixel is newly set as a search pixel, a window centered on the search pixel is set, and the process is repeated, so that there is no pixel that satisfies the condition. The expanded pixel group at the stage is extracted as an expanded region ((c) in the figure). 27 and 28 are shown as two-dimensional images for ease of explanation.

次に、ステップ204で、上記ステップ202で抽出された大まかな他部位を示す拡張領域に含まれる各画素の画素値を、その画素と背景(抽出された拡張領域以外の領域)との最短距離を示す距離値に変換する。   Next, in step 204, the pixel value of each pixel included in the extended region indicating the rough other part extracted in step 202 is set to the shortest distance between the pixel and the background (region other than the extracted extended region). Is converted into a distance value indicating.

次に、ステップ206で、上記ステップ204で変換した距離値に基づいて、図29に示すように、領域のくびれ箇所で領域を分割する。異なる部位同士が密接することにより1つの拡張領域として抽出されている場合には、その密接箇所にはくびれが生じる、すなわち領域内で経路が細くなっている箇所が存在する。このくびれ箇所により分割することで、異なる部位同士を分割することができる。分割した領域毎にラベルを付与する。   Next, in step 206, based on the distance value converted in step 204, the region is divided at the constricted portion of the region as shown in FIG. When different parts are extracted as one extended region due to close contact with each other, a constriction occurs in the close contact portion, that is, there is a portion where the path is narrowed in the region. Different parts can be divided by dividing by the constricted part. A label is assigned to each divided area.

次に、ステップ208で、ラベルが付与された領域毎に、その領域の大きさ及び形状等に基づいて、その領域が除去対象の他部位を示す領域か否かを判定する。他部位ではないと判定された領域は削除して、他部位を示す領域を抽出する。   Next, in step 208, for each region to which a label is assigned, it is determined whether or not the region is a region indicating another part to be removed based on the size and shape of the region. An area determined not to be another part is deleted, and an area indicating the other part is extracted.

次に、ステップ209で、上記ステップ168で抽出された領域から、上記ステップ208で抽出された領域を除去して、すなわち、ラベリング処理後の画像と他部位を抽出した画像との差分画像を生成して、図25の医療画像処理ルーチンにリターンする。   Next, in step 209, the region extracted in step 208 is removed from the region extracted in step 168, that is, a difference image between the image after labeling and the image extracted from other parts is generated. Then, the process returns to the medical image processing routine of FIG.

第2の実施の形態の医療画像処理装置210による処理結果を、図30に示す。同図(a)は、ラベリング処理部26による抽出結果、(b)は第2の実施の形態における他部位除去処理後の処理結果、及び(c)は参考例としての造影画像からの抽出結果である。   The processing result by the medical image processing apparatus 210 of the second embodiment is shown in FIG. (A) is an extraction result by the labeling processing unit 26, (b) is a processing result after the removal of other parts in the second embodiment, and (c) is an extraction result from a contrast image as a reference example. It is.

以上説明したように、第2の実施の形態によれば、密接する他部位と共に対象部位が抽出された場合でも、他部位と対象部位との密接箇所にくびれが生じる点を利用して、他部位を抽出して除去することができるため、より精度良く非造影断層画像から対象部位を抽出することができる。   As described above, according to the second embodiment, even when the target part is extracted together with the other part that is in close contact with each other, the constriction between the other part and the target part is generated. Since the part can be extracted and removed, the target part can be extracted from the non-contrast tomographic image with higher accuracy.

なお、上記第1及び第2の実施の形態では、胸部及び腹部内の血管を対象部位として抽出する場合について説明したが、その他の臓器や腫瘍等を対象部位としてもよい。また、上記実施の形態では、骨領域により得られる環状構造に基づいて処理領域を設定する場合について説明したが、これに限定されない。骨領域と対象部位との大まかな位置関係が既知であれば、これに基づいて処理領域を設定することができる。例えば、腕や足などでは、骨領域を中心とした所定範囲を処理領域として設定することができる。   In the first and second embodiments, the case where blood vessels in the chest and abdomen are extracted as target portions has been described. However, other organs, tumors, and the like may be used as target portions. Moreover, although the said embodiment demonstrated the case where a process area | region was set based on the cyclic | annular structure obtained by a bone area | region, it is not limited to this. If the rough positional relationship between the bone region and the target region is known, the processing region can be set based on this. For example, for arms and legs, a predetermined range centered on the bone region can be set as the processing region.

また、上記実施の形態では、透過関数により、WIDE範囲内の画素を高輝度側へシフトする場合について説明したが、対象部位以外の画素との差別化を図ることができればよいため、低輝度側へシフトしてもよい。   In the above embodiment, the case where the pixels within the WIDE range are shifted to the high luminance side by the transmission function has been described. However, since it is only necessary to be able to differentiate from the pixels other than the target region, the low luminance side You may shift to.

また、上記実施の形態では、画素値のヒストグラムにおける所定範囲の画素値を補正する場合について説明したが、これに限定されない。例えば、生成した3次元画像における対象部位を示す画素の分布パターンを先見情報として求めておき、パターンが適合する箇所の画素を補正対象の画素としてもよい。   Moreover, although the said embodiment demonstrated the case where the pixel value of the predetermined range in the histogram of a pixel value was demonstrated, it is not limited to this. For example, a distribution pattern of pixels indicating a target part in the generated three-dimensional image may be obtained as foreseeing information, and a pixel at a position that matches the pattern may be set as a correction target pixel.

また、上記実施の形態では、プログラムが予め装置にインストールされている場合について説明したが、本実施の形態の医療画像処理プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供してもよいし、ネットワークを介して提供してもよい。   In the above-described embodiment, the case where the program is preinstalled in the apparatus has been described. However, the medical image processing program of the present embodiment may be stored in a computer-readable recording medium and provided. It may be provided via a network.

10、210 医療画像処理装置
12、212 コンピュータ
14 表示装置
20 3次元画像生成部
22 処理領域設定部
24 画素値補正部
26 ラベリング処理部
28、228 表示制御部
30 他部位抽出部
10, 210 Medical image processing device 12, 212 Computer 14 Display device 20 3D image generation unit 22 Processing region setting unit 24 Pixel value correction unit 26 Labeling processing unit 28, 228 Display control unit 30 Other part extraction unit

Claims (6)

造影剤を用いずに対象部位を含む身体を撮影した複数の非造影断層画像を積層して3次元画像を生成する生成手段と、
前記生成手段により生成された3次元画像から画素値が所定値以上の領域を骨領域として抽出し、前記複数の非造影断層画像内の連続する所定枚数に対応する前記骨領域を積層方向に投影した際に投影線上で最大となる画素値により構成される骨領域投影画像に基づいて、前記所定枚数毎に前記対象部位を含む処理領域を設定する設定手段と、
前記3次元画像において前記設定手段により設定された処理領域内の画素値の分布、及び予め求めた対象部位と画素値の分布との関係に基づいて、前記対象部位を示す画素値の所定範囲を設定し、該所定範囲に含まれる画素値をシフトさせると共に、該所定範囲の幅が拡大するように補正する補正手段と、
前記補正手段により画素値が補正された前記3次元画像において、前記対象部位を示す補正後の画素値を有する画素を連結した領域であって、該領域内の画素数が最大となる領域を抽出する対象部位抽出手段と、
前記対象部位抽出手段により抽出された領域が3次元画像として表示されるように表示手段を制御する表示制御手段と、
を含む医療画像処理装置。
Generating means for generating a three-dimensional image by stacking a plurality of non-contrast tomographic images obtained by imaging a body including a target region without using a contrast agent;
A region having a pixel value greater than or equal to a predetermined value is extracted as a bone region from the three-dimensional image generated by the generating unit, and the bone regions corresponding to a predetermined number of consecutive images in the plurality of non-contrast tomographic images are projected in the stacking direction. Setting means for setting a processing region including the target part for each of the predetermined number based on a bone region projection image configured by a pixel value that is maximum on the projection line when
Based on the distribution of pixel values in the processing area set by the setting means in the three-dimensional image and the relationship between the target part and the distribution of pixel values obtained in advance, a predetermined range of pixel values indicating the target part is obtained. Correction means for setting and shifting the pixel values included in the predetermined range and correcting the width of the predetermined range to expand;
In the three-dimensional image in which the pixel value is corrected by the correction unit, an area where pixels having corrected pixel values indicating the target portion are connected and the number of pixels in the area is maximized is extracted. Target part extraction means to perform,
Display control means for controlling the display means so that the region extracted by the target part extraction means is displayed as a three-dimensional image;
A medical image processing apparatus.
前記設定手段は、前記骨領域投影画像において骨領域を示す画素が離散的な箇所を、スプライン曲線により補間する請求項1記載の医療画像処理装置。   The medical image processing apparatus according to claim 1, wherein the setting unit interpolates, with a spline curve, a location where pixels indicating bone regions are discrete in the bone region projection image. 前記補正手段は、造影剤を用いて対象部位を含む身体を撮影した複数の造影断層画像に基づく3次元画像の画素値の分布と、前記複数の非造影断層画像に基づく3次元画像の画素値の分布との比較により予め求めた前記関係に基づいて、前記対象部位を示す画素値の所定範囲を設定する請求項1または請求項2記載の医療画像処理装置。   The correction means includes a distribution of pixel values of a three-dimensional image based on a plurality of contrast tomographic images obtained by imaging a body including a target region using a contrast agent, and a pixel value of a three-dimensional image based on the plurality of non-contrast tomographic images. The medical image processing apparatus according to claim 1, wherein a predetermined range of pixel values indicating the target portion is set based on the relationship obtained in advance by comparison with the distribution of the medical image. 前記3次元画像から、領域拡張法により拡張された領域を抽出し、該拡張された領域に含まれる画素の画素値を、該拡張された領域と背景との最短距離を示す距離値に変換し、該距離値に基づいて、前記拡張された領域を該領域のくびれ箇所で分離し、分離された領域毎のサイズ及び形状の少なくとも一方に基づいて、前記対象部位とは異なる他部位を示す領域を抽出する他部位抽出手段を含み、
前記表示制御手段は、前記対象部位抽出手段により抽出された領域と、前記他部位抽出手段により抽出された領域との差分領域が3次元画像として表示されるように表示手段を制御する
請求項1〜請求項3のいずれか1項記載の医療画像処理装置。
A region expanded by a region expansion method is extracted from the three-dimensional image, and pixel values of pixels included in the expanded region are converted into distance values indicating the shortest distance between the expanded region and the background. , Based on the distance value, the expanded region is separated at a constricted portion of the region, and based on at least one of the size and shape of each separated region, a region indicating another part different from the target part Including other part extracting means for extracting
The display control means controls the display means so that a difference area between the area extracted by the target part extracting means and the area extracted by the other part extracting means is displayed as a three-dimensional image. The medical image processing apparatus according to any one of claims 3 to 4.
コンピュータが、
造影剤を用いずに対象部位を含む身体を撮影した複数の非造影断層画像を積層して3次元画像を生成し、
生成された3次元画像から画素値が所定値以上の領域を骨領域として抽出し、前記複数の非造影断層画像内の連続する所定枚数に対応する前記骨領域を積層方向に投影した際に投影線上で最大となる画素値により構成される骨領域投影画像に基づいて、前記所定枚数毎に前記対象部位を含む処理領域を設定し、
前記3次元画像において設定された処理領域内の画素値の分布、及び予め求めた対象部位と画素値の分布との関係に基づいて、前記対象部位を示す画素値の所定範囲を設定し、該所定範囲に含まれる画素値をシフトさせると共に、該所定範囲の幅が拡大するように補正し、
画素値が補正された前記3次元画像において、前記対象部位を示す補正後の画素値を有する画素を連結した領域であって、該領域内の画素数が最大となる領域を抽出し、
抽出された領域が3次元画像として表示されるように表示手段を制御する
医療画像処理方法。
Computer
Laminating a plurality of non-contrast tomographic images of the body including the target region without using a contrast agent to generate a three-dimensional image,
Projected when a region having a pixel value equal to or greater than a predetermined value is extracted from the generated three-dimensional image as a bone region, and the bone regions corresponding to a predetermined number of consecutive non-contrast tomographic images are projected in the stacking direction Based on a bone region projection image composed of pixel values that are maximum on a line, a processing region including the target part is set for each predetermined number of images,
Based on the distribution of pixel values in the processing region set in the three-dimensional image and the relationship between the target portion and the distribution of pixel values obtained in advance, a predetermined range of pixel values indicating the target portion is set, The pixel value included in the predetermined range is shifted and corrected so that the width of the predetermined range is expanded.
In the three-dimensional image in which the pixel value is corrected, an area where pixels having a corrected pixel value indicating the target portion are connected and the number of pixels in the area is maximized is extracted,
A medical image processing method for controlling display means so that an extracted region is displayed as a three-dimensional image.
コンピュータを、請求項1〜請求項4のいずれか1項記載の医療画像処理装置を構成する各手段として機能させるための医療画像処理プログラム。   The medical image processing program for functioning a computer as each means which comprises the medical image processing apparatus of any one of Claims 1-4.
JP2011250806A 2011-11-16 2011-11-16 Medical image processing apparatus, method, and program Expired - Fee Related JP5846368B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011250806A JP5846368B2 (en) 2011-11-16 2011-11-16 Medical image processing apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011250806A JP5846368B2 (en) 2011-11-16 2011-11-16 Medical image processing apparatus, method, and program

Publications (2)

Publication Number Publication Date
JP2013103080A JP2013103080A (en) 2013-05-30
JP5846368B2 true JP5846368B2 (en) 2016-01-20

Family

ID=48623091

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011250806A Expired - Fee Related JP5846368B2 (en) 2011-11-16 2011-11-16 Medical image processing apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP5846368B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111882527B (en) * 2020-07-14 2021-12-21 上海商汤智能科技有限公司 Image processing method and device, electronic equipment and storage medium

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008018016A (en) * 2006-07-12 2008-01-31 Toshiba Corp Medical image processing equipment and method
JP5188693B2 (en) * 2006-10-13 2013-04-24 富士フイルム株式会社 Image processing device
JP2008206965A (en) * 2007-01-31 2008-09-11 Aze Ltd Medical image forming device, method and program
JP5063292B2 (en) * 2007-10-19 2012-10-31 株式会社日立メディコ Diagnostic imaging support device
JP5166120B2 (en) * 2008-05-26 2013-03-21 株式会社東芝 Medical image display device and medical image display program

Also Published As

Publication number Publication date
JP2013103080A (en) 2013-05-30

Similar Documents

Publication Publication Date Title
KR101981202B1 (en) Method and apparatus for reconstructing medical image
US9697639B2 (en) Three-dimensional model data generation device, method and program
JP5643304B2 (en) Computer-aided lung nodule detection system and method and chest image segmentation system and method in chest tomosynthesis imaging
EP3547207A1 (en) Blood vessel extraction method and system
CN102727236B (en) By the method and apparatus using the medical image of 3D model generation organ
JP5486197B2 (en) Vertebral center detecting device, method and program
US9230331B2 (en) Systems and methods for registration of ultrasound and CT images
EP3352135B1 (en) Method and apparatus for segmentation of blood vessels
JP2002282235A (en) Automatic segment dividing method for medical image
US20160117797A1 (en) Image Processing Apparatus and Image Processing Method
KR101028365B1 (en) Multistage matching method and apparatus of pulmonary nodules in serial computed tomography scan
JP5301197B2 (en) Sectional image display apparatus and method, and program
KR20140096919A (en) Method and Apparatus for medical image registration
JP2007135858A (en) Image processor
JP6983573B2 (en) Image processing equipment, image processing methods and programs
US20130004039A1 (en) Medical image conversion apparatus, method and program
JP2015066311A (en) Image processor, image processing method, program for controlling image processor, and recording medium
JP2008534105A (en) Method, system and computer program for partitioning structures in a data set
US11278257B2 (en) Diagnostic auxiliary image generation apparatus, diagnostic auxiliary image generation method, and diagnostic auxiliary image generation program
US20070053564A1 (en) Image processing method and computer readable medium for image processing
JP7423338B2 (en) Image processing device and image processing method
Jandt et al. Automatic generation of time resolved motion vector fields of coronary arteries and 4D surface extraction using rotational x-ray angiography
JP6927020B2 (en) Dynamic image processing method, dynamic image processing device and program
JP5846368B2 (en) Medical image processing apparatus, method, and program
CN107292351A (en) The matching process and device of a kind of tubercle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150924

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151110

R150 Certificate of patent or registration of utility model

Ref document number: 5846368

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees