JP5595750B2 - Medical image processing apparatus and medical image processing program - Google Patents

Medical image processing apparatus and medical image processing program Download PDF

Info

Publication number
JP5595750B2
JP5595750B2 JP2010031971A JP2010031971A JP5595750B2 JP 5595750 B2 JP5595750 B2 JP 5595750B2 JP 2010031971 A JP2010031971 A JP 2010031971A JP 2010031971 A JP2010031971 A JP 2010031971A JP 5595750 B2 JP5595750 B2 JP 5595750B2
Authority
JP
Japan
Prior art keywords
contour
tumor
unit
wall
unevenness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010031971A
Other languages
Japanese (ja)
Other versions
JP2011167263A (en
Inventor
秀明 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Priority to JP2010031971A priority Critical patent/JP5595750B2/en
Publication of JP2011167263A publication Critical patent/JP2011167263A/en
Application granted granted Critical
Publication of JP5595750B2 publication Critical patent/JP5595750B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

この発明は、病変部を表す医用画像データを生成する医用画像処理装置、及び医用画像処理プログラムに関する。   The present invention relates to a medical image processing apparatus that generates medical image data representing a lesioned part, and a medical image processing program.

X線CT装置やMRI装置などの医用画像撮影装置を用いて被検体を撮影し、その撮影で得られた医用画像データを用いた診断が行われている。例えばスクリーニング検査を含む術前診断においては、医用画像データを用いてCTコロノグラフィー(CT Colonography)が行われている。   A subject is imaged using a medical image imaging apparatus such as an X-ray CT apparatus or an MRI apparatus, and diagnosis using medical image data obtained by the imaging is performed. For example, in preoperative diagnosis including screening examination, CT colonography is performed using medical image data.

CTコロノグラフィーにおける画像表示方法としては、展開画像表示(Virtual Gross Pathology:VGP)、又は仮想内視鏡表示(Virtual Endoscopy:VE)がある。   As an image display method in CT colonography, there is a developed image display (Virtual Grossology: VGP) or a virtual endoscope display (Virtual Endoscope: VE).

展開画像は、大腸や血管や胃などの管腔体が切り開かれた状態を表す。すなわち、展開画像は、管腔体の内部の表面が展開された状態を表す画像であり、管腔体の内部の表面を表す。   The developed image represents a state in which luminal bodies such as the large intestine, blood vessels, and stomach are cut open. That is, the developed image is an image representing a state in which the inner surface of the luminal body is developed, and represents the inner surface of the luminal body.

仮想内視鏡画像は、大腸や血管などの管腔体の内部の表面を3次元的に表す仮想的な内視鏡画像である。仮想内視鏡画像を用いた画像の表示方法は、フライスルーと称されている。フライスルーは、大腸や血管などの管腔体の内部の表面を、内視鏡と同じ視線で観察する技術である。   The virtual endoscopic image is a virtual endoscopic image that three-dimensionally represents the inner surface of a lumen body such as a large intestine or a blood vessel. A method for displaying an image using a virtual endoscopic image is called fly-through. Fly-through is a technique for observing the inner surface of a luminal body such as the large intestine or blood vessel with the same line of sight as an endoscope.

フライスルーを用いた例として、特許文献1に記載の方法がある。特許文献1に記載の方法は、観察対象領域の表面の各ボクセルに対する法線ベクトルを求める。そして、基準となる法線ベクトルと各法線ベクトルとがなす角度を求め、角度の分散を表面の凹凸度として求める。このように表面の凹凸度を求めることで病変部候補を検出する。   As an example using a fly-through, there is a method described in Patent Document 1. The method described in Patent Literature 1 obtains a normal vector for each voxel on the surface of the observation target region. Then, an angle formed by the normal vector serving as a reference and each normal vector is obtained, and the dispersion of the angle is obtained as the degree of surface unevenness. In this way, a lesion candidate is detected by obtaining the surface roughness.

特開2007−14483号公報JP 2007-14483 A

従来においては、医師などの術者が、展開画像又は仮想内視鏡画像に表された大腸の内壁の表面を観察し、表面の形状に基づいて腫瘍の有無を判断していた。隆起型の腫瘍であれば、術者が表面の形状を観察することで、腫瘍の有無を比較的容易に判断することができる。隆起型の腫瘍には、有茎型の腫瘍、亜悠茎型の腫瘍、及び無茎型の腫瘍がある。   Conventionally, a surgeon such as a doctor observes the surface of the inner wall of the large intestine represented in a developed image or a virtual endoscopic image, and determines the presence or absence of a tumor based on the shape of the surface. In the case of a bulging type tumor, the operator can determine the presence or absence of the tumor relatively easily by observing the shape of the surface. Raised tumors include pedunculated tumors, subcarpal tumors, and sessile tumors.

しかしながら腫瘍が非隆起型の腫瘍(表面型腫瘍)の場合には、表面の形状を術者が観察するだけでは、腫瘍の有無を判断することは困難である。非隆起型の腫瘍(表面型腫瘍)には、表面隆起型の腫瘍、表面平坦型の腫瘍、及び表面陥凹型の腫瘍がある。表面隆起型の腫瘍が形成されると、内壁の表面に低い隆起が形成されるが、腫瘍の形状はほぼ平坦である。表面平坦型の腫瘍が形成されても、内壁の表面に隆起が形成されず、腫瘍の形状は平坦である。表面陥凹型の腫瘍が形成されると、内壁の表面にくぼみが形成される。このように非隆起型の腫瘍は、大腸の内壁の表面から突起した形状を有しない。表面隆起型の腫瘍であっても隆起の程度は低く、腫瘍の形状はほぼ平坦である。そのため、表面の形状を術者が観察するだけでは、腫瘍の有無を判断することは困難である。一般的に、スクリーニング検査において、非隆起型の腫瘍は隆起型の腫瘍と比べて発見されにくい。   However, when the tumor is a non-protruding type tumor (surface type tumor), it is difficult for the operator to determine the presence or absence of the tumor only by observing the surface shape. Non-protruding type tumors (surface type tumors) include surface type tumors, surface type tumors, and surface depression type tumors. When a surface-bulged tumor is formed, a low bump is formed on the surface of the inner wall, but the shape of the tumor is almost flat. Even if a flat surface type tumor is formed, no bulge is formed on the surface of the inner wall, and the shape of the tumor is flat. When a surface-recessed tumor is formed, a recess is formed on the surface of the inner wall. Thus, the non-bulged tumor does not have a shape protruding from the surface of the inner wall of the large intestine. Even a surface bulging tumor has a low degree of bulging and the shape of the tumor is almost flat. Therefore, it is difficult to determine the presence or absence of a tumor simply by observing the shape of the surface. In general, non-protruding tumors are less likely to be found in screening tests than bulging tumors.

非隆起型の腫瘍は隆起型の腫瘍とは異なり、多段階発がん過程を経ずに癌化することが多い。そのため、非隆起型の腫瘍を早期に発見して早期に切除することが重要である。   Non-bulged tumors, unlike bulged tumors, often become cancerous without going through a multi-stage carcinogenic process. Therefore, it is important to detect a non-lifting tumor early and remove it early.

この発明は上記の問題を解決するものであり、非隆起型の病変部の形状が把握しやすい情報を生成することが可能な医用画像処理装置、及び医用画像処理プログラムを提供することを特徴とする。   The present invention solves the above problem, and provides a medical image processing apparatus and a medical image processing program capable of generating information that makes it easy to grasp the shape of a non-raised lesion. To do.

請求項1に記載の発明は、管腔体を表すボリュームデータを受けて、前記ボリュームデータに基づいて前記管腔体の内壁の第1の輪郭を求める輪郭抽出手段と、前記第1の輪郭を基準にして前記内壁よりも外側の領域における画素の画素値に基づいて、病変部の位置を求める病変部抽出手段と、前記病変部の位置と前記第1の輪郭とに基づいて、前記病変部が存在しない場合における前記内壁の第2の輪郭を推定する推定手段と、前記第1の輪郭と前記第2の輪郭とに基づいて、前記病変部の凹凸の程度を求める隆起レベル算出手段と、前記ボリュームデータに基づいて前記管腔体を表す画像データを生成する画像生成手段と、前記凹凸の程度を示す情報と前記画像データに基づく画像とを表示手段に表示させる表示制御手段とを備え、前記病変部抽出手段は、前記内壁の位置から前記外側の領域に向けて所定距離、前記第1の輪郭を平行移動させ、前記平行移動後の前記第1の輪郭上の画素の画素値に基づいて、前記病変部が存在する箇所を求める医用画像処理装置である。
請求項に記載の発明は、コンピュータに、管腔体を表すボリュームデータを受けて、前記ボリュームデータに基づいて前記管腔体の内壁の第1の輪郭を求める輪郭抽出機能と、前記第1の輪郭を基準にして前記内壁よりも外側の領域における画素の画素値に基づいて、病変部の位置を求める病変部抽出機能と、前記病変部の位置と前記第1の輪郭とに基づいて、前記病変部が存在しない場合における前記内壁の第2の輪郭を推定する推定機能と、前記第1の輪郭と前記第2の輪郭とに基づいて、前記病変部の凹凸の程度を求める隆起レベル算出機能と、前記ボリュームデータに基づいて前記管腔体を表す画像データを生成する画像生成機能と、前記凹凸の程度を示す情報と前記画像データに基づく画像とを表示装置に表示させる表示制御機能と、を実行させ、前記内壁の位置から前記外側の領域に向けて所定距離、前記第1の輪郭を平行移動させ、前記平行移動後の前記第1の輪郭上の画素の画素値に基づいて、前記病変部が存在する箇所を求めることを特徴とする医用画像処理プログラムである。
According to the first aspect of the present invention, there is provided contour extracting means for receiving volume data representing a luminal body and obtaining a first contour of an inner wall of the luminal body based on the volume data, and the first contour. Based on a pixel value of a pixel in a region outside the inner wall with respect to a reference, a lesion part extraction means for obtaining a position of a lesion part, and based on the position of the lesion part and the first contour, the lesion part Estimating means for estimating the second contour of the inner wall in the case where there is not, and a ridge level calculating means for determining the degree of unevenness of the lesion based on the first contour and the second contour; Image generating means for generating image data representing the luminal body based on the volume data, and display control means for displaying on the display means information indicating the degree of unevenness and an image based on the image data , Above The transformation part extracting unit translates the first contour from the position of the inner wall toward the outer region by a predetermined distance, and based on the pixel value of the pixel on the first contour after the translation. A medical image processing apparatus for obtaining a location where the lesioned part exists .
According to the seventh aspect of the present invention, the computer receives volume data representing a luminal body, and obtains a first contour of an inner wall of the luminal body based on the volume data, and the first Based on the pixel value of the pixel in the area outside the inner wall with reference to the contour of the lesion, based on the lesion extraction function to determine the position of the lesion, the position of the lesion and the first contour, Based on the estimation function for estimating the second contour of the inner wall when the lesion is not present, and the first contour and the second contour, the ridge level calculation for determining the degree of unevenness of the lesion A display controller for displaying a function, an image generation function for generating image data representing the lumen body based on the volume data, and information indicating the degree of unevenness and an image based on the image data When, by the execution, predetermined distance from the position of the inner wall toward the outer region, the first by translating the contour, based on the pixel values of the pixels on the first contour after the translation A medical image processing program characterized by obtaining a location where the lesion is present .

この発明によると、内壁の第1の輪郭と推定された第2の輪郭とに基づいて病変部の凹凸の程度を求めて、病変部の凹凸の程度を画像とともに表示する。このように病変部の凹凸の程度を求めることで、非隆起型の病変部の形状が把握しやすい情報を提供することが可能となる。   According to the present invention, the degree of unevenness of the lesioned part is obtained based on the first contour of the inner wall and the estimated second contour, and the degree of unevenness of the lesioned part is displayed together with the image. Thus, by obtaining the degree of unevenness of the lesioned part, it is possible to provide information that makes it easy to grasp the shape of the non-raised lesioned part.

この発明の実施形態に係る医用画像処理装置を示すブロック図である。1 is a block diagram illustrating a medical image processing apparatus according to an embodiment of the present invention. 大腸の長手方向に沿った断面を示す断面図である。It is sectional drawing which shows the cross section along the longitudinal direction of large intestine. 大腸の長手方向に沿った断面を示す断面図である。It is sectional drawing which shows the cross section along the longitudinal direction of large intestine. 大腸の長手方向に沿った断面を示す断面図である。It is sectional drawing which shows the cross section along the longitudinal direction of large intestine. 隆起レベルと色との対応関係の1例を示す図である。It is a figure which shows an example of the correspondence of a protruding level and a color. 展開画像と仮想内視鏡画像とを示す図である。It is a figure which shows an expansion | deployment image and a virtual endoscopic image. 大腸の長手方向に沿った断面を示す断面図である。It is sectional drawing which shows the cross section along the longitudinal direction of large intestine. この実施形態に係る医用画像処理装置による一連の動作を示すフローチャートである。It is a flowchart which shows a series of operation | movement by the medical image processing apparatus which concerns on this embodiment.

図1を参照して、この発明の実施形態に係る医用画像処理装置について説明する。この実施形態に係る医用画像処理装置1には、例えば医用画像撮影装置90が接続されている。   A medical image processing apparatus according to an embodiment of the present invention will be described with reference to FIG. For example, a medical image photographing apparatus 90 is connected to the medical image processing apparatus 1 according to this embodiment.

(医用画像撮影装置90)
医用画像撮影装置90には、X線CT装置やMRI装置などの撮影装置が用いられる。医用画像撮影装置90は、観察対象を含む撮影領域を撮影することで医用画像データを生成する。例えば医用画像撮影装置90は、3次元の撮影領域を撮影することでボリュームデータを生成する。観察対象の1例は管腔体である。管腔体は、管状の組織と袋状の組織とを含む。管状の組織の1例は、大腸や血管である。袋状の組織の1例は、胃である。例えば管状組織を観察対象とした場合、医用画像撮影装置90は、管状組織を含む撮影領域を撮影することで、管状組織を含む撮影領域を表すボリュームデータを生成する。
(Medical image capturing device 90)
As the medical image capturing apparatus 90, an image capturing apparatus such as an X-ray CT apparatus or an MRI apparatus is used. The medical image photographing device 90 generates medical image data by photographing a photographing region including an observation target. For example, the medical image photographing apparatus 90 generates volume data by photographing a three-dimensional photographing region. One example of an observation object is a luminal body. The lumen body includes a tubular tissue and a bag-shaped tissue. One example of tubular tissue is the large intestine or blood vessels. One example of a bag-like tissue is the stomach. For example, when the tubular tissue is an observation target, the medical image capturing apparatus 90 generates volume data representing the imaging region including the tubular tissue by capturing the imaging region including the tubular tissue.

例えば医用画像撮影装置90としてのX線CT装置は、3次元の撮影領域を撮影することで、位置がそれぞれ異なる複数の断面におけるCT画像データを生成する。X線CT装置は、複数のCT画像データを用いてボリュームデータを生成する。管状組織の1例として大腸を観察対象とした場合、X線CT装置は、大腸を含む3次元の撮影領域を撮影することで大腸を含む撮影領域を表すボリュームデータを生成する。医用画像撮影装置90はボリュームデータを医用画像処理装置1に出力する。以下では、大腸を観察対象の1例とし、腫瘍を病変部の1例として説明する。   For example, an X-ray CT apparatus as the medical image imaging apparatus 90 generates CT image data in a plurality of cross sections having different positions by imaging a three-dimensional imaging region. The X-ray CT apparatus generates volume data using a plurality of CT image data. When the large intestine is an observation target as an example of the tubular tissue, the X-ray CT apparatus generates volume data representing an imaging region including the large intestine by imaging a three-dimensional imaging region including the large intestine. The medical image photographing device 90 outputs the volume data to the medical image processing device 1. Hereinafter, the large intestine will be described as an example of an observation target, and the tumor will be described as an example of a lesion.

(医用画像処理装置1)
医用画像処理装置1は、画像記憶部2と、画像処理部3と、画像生成部4と、表示制御部5と、ユーザインターフェース(UI)6と、条件記憶部7とを備えている。
(Medical image processing apparatus 1)
The medical image processing apparatus 1 includes an image storage unit 2, an image processing unit 3, an image generation unit 4, a display control unit 5, a user interface (UI) 6, and a condition storage unit 7.

(画像記憶部2)
画像記憶部2は、医用画像撮影装置90から出力された医用画像データを記憶する。例えば、画像記憶部2は、大腸を含む撮影領域を表すボリュームデータを記憶する。
(Image storage unit 2)
The image storage unit 2 stores medical image data output from the medical image photographing device 90. For example, the image storage unit 2 stores volume data representing an imaging region including the large intestine.

医用画像撮影装置90がボリュームデータを生成せずに、医用画像処理装置1がボリュームデータを生成しても良い。この場合、医用画像撮影装置90は、複数の医用画像データ(例えばCT画像データ)を医用画像処理装置1に出力する。医用画像処理装置1は、医用画像撮影装置90によって生成された複数の医用画像データを受ける。画像記憶部2は、複数の医用画像データを記憶する。画像生成部4は、複数の医用画像データを画像記憶部2から読み込み、複数の医用画像データに基づいてボリュームデータを生成する。画像記憶部2は、画像生成部4によって生成されたボリュームデータを記憶する。   The medical image processing apparatus 1 may generate volume data without the medical image capturing apparatus 90 generating volume data. In this case, the medical image photographing apparatus 90 outputs a plurality of medical image data (for example, CT image data) to the medical image processing apparatus 1. The medical image processing apparatus 1 receives a plurality of medical image data generated by the medical image photographing apparatus 90. The image storage unit 2 stores a plurality of medical image data. The image generation unit 4 reads a plurality of medical image data from the image storage unit 2 and generates volume data based on the plurality of medical image data. The image storage unit 2 stores the volume data generated by the image generation unit 4.

(画像処理部3)
画像処理部3は、観察対象抽出部31と、輪郭抽出部32と、病変部抽出部33と、推定部34と、隆起レベル算出部35と、変換部36とを備えている。画像処理部3はボリュームデータを画像記憶部2から読み込み、ボリュームデータに基づいて病変部の凹凸の程度(隆起レベル)を求める。腫瘍を病変部の1例とする。大腸を観察対象とした場合、画像処理部3は、大腸に存在する腫瘍の凹凸の程度(隆起レベル)を求める。具体的には画像処理部3は、ボリュームデータから大腸の内壁の輪郭を抽出し、腫瘍の位置を求め、正常な内壁の輪郭を推定する。画像処理部3は、抽出された内壁の輪郭と、推定された正常な内壁の輪郭とに基づいて、腫瘍の凹凸の程度(隆起レベル)を求める。正常な内壁とは、大腸に腫瘍が形成されていない状態における内壁である。
(Image processing unit 3)
The image processing unit 3 includes an observation target extraction unit 31, a contour extraction unit 32, a lesion extraction unit 33, an estimation unit 34, a bulge level calculation unit 35, and a conversion unit 36. The image processing unit 3 reads the volume data from the image storage unit 2 and obtains the degree of unevenness (bump level) of the lesioned part based on the volume data. A tumor is taken as an example of a lesion. In the case where the large intestine is the observation target, the image processing unit 3 obtains the degree of unevenness (protrusion level) of the tumor present in the large intestine. Specifically, the image processing unit 3 extracts the contour of the inner wall of the large intestine from the volume data, obtains the position of the tumor, and estimates the normal contour of the inner wall. The image processing unit 3 obtains the degree of unevenness of the tumor (bump level) based on the extracted inner wall contour and the estimated normal inner wall contour. A normal inner wall is an inner wall in a state where no tumor is formed in the large intestine.

図2から図5を参照して、画像処理部3による処理について説明する。図2から図4は、大腸の長手方向に沿った断面を示す断面図である。図5は、隆起レベルと色との対応関係の1例を示す図である。   Processing performed by the image processing unit 3 will be described with reference to FIGS. 2 to 4 are sectional views showing a section along the longitudinal direction of the large intestine. FIG. 5 is a diagram illustrating an example of a correspondence relationship between the bulge level and the color.

(観察対象抽出部31)
観察対象抽出部31は、ボリュームデータを画像記憶部2から読み込み、そのボリュームデータから大腸を表すボリュームデータを抽出する。この抽出には公知の方法を用いることができる。例えば観察対象抽出部31は、公知のセグメンテーション処理を実行することで、大腸を表すボリュームデータを抽出する。1例として、観察対象抽出部31は、CT値などの画素値に基づいて大腸を表すボリュームデータを抽出する。観察対象抽出部31は、大腸を表すボリュームデータを、輪郭抽出部32と病変部抽出部33とに出力する。
(Observation target extraction unit 31)
The observation target extraction unit 31 reads volume data from the image storage unit 2 and extracts volume data representing the large intestine from the volume data. A known method can be used for this extraction. For example, the observation target extraction unit 31 extracts volume data representing the large intestine by executing a known segmentation process. As an example, the observation target extraction unit 31 extracts volume data representing the large intestine based on pixel values such as CT values. The observation target extraction unit 31 outputs volume data representing the large intestine to the contour extraction unit 32 and the lesion extraction unit 33.

(輪郭抽出部32)
輪郭抽出部32は、大腸を表すボリュームデータに基づいて、3次元空間における大腸の内壁(腸壁)の輪郭を求める。輪郭を求める方法には公知の方法を用いることができる。例えば輪郭抽出部32は、CT値などの画素値に基づいて大腸の内壁の輪郭を求める。以下において、輪郭抽出部32によって求められた内壁の輪郭を、第1の輪郭と称する場合がある。また輪郭抽出部32は、大腸を表すボリュームデータに基づいて、3次元空間における大腸の外壁の輪郭を求めてもよい。また輪郭抽出部32は、大腸を表すボリュームデータに基づいて、3次元空間における大腸の心線の位置を求めてもよい。例えば輪郭抽出部32は、大腸の長手方向に沿って大腸の中心を通る線を心線として求めてもよい。輪郭抽出部32は、内壁の輪郭(第1の輪郭)の位置を示す第1の内壁情報(座標情報)と、外壁の輪郭の位置を示す外壁情報と、心線の位置を示す心線情報とを、病変部抽出部33と隆起レベル算出部35とに出力する。
(Outline extraction unit 32)
The contour extraction unit 32 obtains the contour of the inner wall (intestinal wall) of the large intestine in the three-dimensional space based on the volume data representing the large intestine. A known method can be used as a method for obtaining the contour. For example, the contour extraction unit 32 obtains the contour of the inner wall of the large intestine based on pixel values such as CT values. Hereinafter, the contour of the inner wall obtained by the contour extraction unit 32 may be referred to as a first contour. The contour extraction unit 32 may obtain the contour of the outer wall of the large intestine in the three-dimensional space based on the volume data representing the large intestine. The contour extraction unit 32 may obtain the position of the heart line of the large intestine in the three-dimensional space based on the volume data representing the large intestine. For example, the contour extracting unit 32 may obtain a line passing through the center of the large intestine along the longitudinal direction of the large intestine as a heart line. The contour extracting unit 32 includes first inner wall information (coordinate information) indicating the position of the inner wall contour (first contour), outer wall information indicating the position of the outer wall contour, and core line information indicating the position of the core wire. Are output to the lesioned part extracting unit 33 and the raised level calculating unit 35.

図2に、輪郭抽出部32によって抽出された輪郭の1例を示す。例えば図2(a)には、内壁の輪郭10(第1の輪郭)と外壁の輪郭11とが表されている。1例として、内壁と外壁との間の領域(大腸壁の内部の領域)に腫瘍12が存在する。厚さTは、内壁の輪郭10と外壁の輪郭11との間の長さに相当する。1例として、厚さTは2mm程度である。   FIG. 2 shows an example of the contour extracted by the contour extraction unit 32. For example, FIG. 2A shows an inner wall contour 10 (first contour) and an outer wall contour 11. As an example, the tumor 12 exists in a region between the inner wall and the outer wall (region inside the colon wall). The thickness T corresponds to the length between the contour 10 of the inner wall and the contour 11 of the outer wall. As an example, the thickness T is about 2 mm.

(病変部抽出部33)
病変部抽出部33は、大腸の内壁よりも外側の領域における画素値(例えばCT値)を求める。すなわち、病変部抽出部33は、大腸壁の内部の組織における画素値を求める。病変部抽出部33は、画素値に基づいて腫瘍の位置を求める。具体的に病変部抽出部33は、大腸の内壁から外壁の方向に向かって所定距離離れた位置の画素値を求める。病変部抽出部33は、その画素値に基づいて腫瘍の位置を求める。
(Lesion extraction unit 33)
The lesion extraction unit 33 obtains pixel values (for example, CT values) in a region outside the inner wall of the large intestine. That is, the lesion part extraction part 33 calculates | requires the pixel value in the structure | tissue inside a colon wall. The lesion extraction unit 33 obtains the tumor position based on the pixel value. Specifically, the lesion extraction unit 33 obtains a pixel value at a position away from the inner wall of the large intestine by a predetermined distance in the direction of the outer wall. The lesion extraction unit 33 obtains the tumor position based on the pixel value.

腫瘍は、大腸の内壁の表面に形成されず、内壁の表面に最も近い粘膜層に形成される。そのため、粘膜層における画素値を求めることで、大腸に腫瘍が形成されているか否かを判別することができる。しかしながら、医用画像撮影装置90の空間分解能によっては、画素値に基づいて粘着層の位置を求めることは困難である。   Tumors are not formed on the surface of the inner wall of the large intestine, but in the mucosal layer closest to the surface of the inner wall. Therefore, it is possible to determine whether or not a tumor is formed in the large intestine by obtaining the pixel value in the mucosal layer. However, depending on the spatial resolution of the medical image capturing apparatus 90, it is difficult to obtain the position of the adhesive layer based on the pixel value.

そこで病変部抽出部33は、第1の内壁情報が示す内壁の輪郭(第1の輪郭)から、外壁に向かう方向に所定距離離れた位置を、腫瘍を検索する位置として定義する。例えば図2(a)に示すように、病変部抽出部33は、内壁の輪郭10(第1の輪郭)から外壁の輪郭11に向かう方向(図中のX方向)に、所定の移動距離、輪郭10を平行移動させる。病変部抽出部33は、移動後の輪郭10を検索線13(破線で示す線)として定義する。所定の移動距離の1例は、1ピクセル(1画素)に相当する距離である。すなわち病変部抽出部33は、輪郭10上のすべての点を、輪郭11に向かう方向(X方向)へ同一距離(1ピクセルに相当する距離)移動させ、移動先の輪郭10を検索線13として定義する。検索線13は、内壁の輪郭10を平行移動させた仮想の線である。そのため、検索線13の形状は、内壁の輪郭10の形状と同じである。   Therefore, the lesion extraction unit 33 defines a position that is separated from the inner wall contour (first contour) indicated by the first inner wall information by a predetermined distance in the direction toward the outer wall as a position to search for a tumor. For example, as shown in FIG. 2A, the lesion part extraction unit 33 is configured to move a predetermined moving distance in a direction (X direction in the drawing) from the inner wall contour 10 (first contour) to the outer wall contour 11; The contour 10 is translated. The lesion extraction unit 33 defines the moved contour 10 as a search line 13 (a line indicated by a broken line). An example of the predetermined movement distance is a distance corresponding to one pixel (one pixel). That is, the lesion extraction unit 33 moves all points on the contour 10 in the direction (X direction) toward the contour 11 by the same distance (a distance corresponding to one pixel), and uses the destination contour 10 as the search line 13. Define. The search line 13 is a virtual line obtained by translating the contour 10 of the inner wall. Therefore, the shape of the search line 13 is the same as the shape of the inner wall contour 10.

1例として、1ピクセルの1辺の長さを0.25mmとする。X線CT装置を用いた場合、0.25mmは最小のスライス厚に相当する。病変部抽出部33は、内壁の輪郭10から外壁の輪郭11に向かう方向に、輪郭10を0.25mm平行移動させ、移動後の位置を検索線13として定義する。内壁の輪郭10から0.25mm離れた位置には、粘膜層が存在すると推定される。そのため、検索線13の位置には、粘膜層が存在すると推定される。移動距離は0.25mmに限定されず、数ピクセルに相当する距離であっても良い。   As an example, the length of one side of one pixel is 0.25 mm. When an X-ray CT apparatus is used, 0.25 mm corresponds to the minimum slice thickness. The lesion extraction unit 33 translates the contour 10 by 0.25 mm in the direction from the inner wall contour 10 toward the outer wall contour 11, and defines the moved position as the search line 13. It is presumed that a mucosal layer is present at a position 0.25 mm away from the contour 10 of the inner wall. Therefore, it is estimated that a mucous membrane layer exists at the position of the search line 13. The moving distance is not limited to 0.25 mm, and may be a distance corresponding to several pixels.

病変部抽出部33は、検索線13上における各画素の画素値(CT値)を求める。病変部抽出部33は、画素値に基づいて腫瘍の位置を求める。例えば病変部抽出部33は、検索線13上における各画素の画素値が、予め設定された所定範囲内の値に含まれているか否かを判定する。所定範囲の値は、画素に表されている組織が病変部(腫瘍)か否かを判定するための基準である。所定範囲の値は、病変部(腫瘍)の画素値(CT値)に相当する値である。所定範囲の値は、図示しない記憶部に予め記憶されている。操作者は操作部62を用いて所定範囲の値を任意に変更することができる。   The lesion extraction unit 33 obtains a pixel value (CT value) of each pixel on the search line 13. The lesion extraction unit 33 obtains the tumor position based on the pixel value. For example, the lesion extraction unit 33 determines whether or not the pixel value of each pixel on the search line 13 is included in a value within a predetermined range set in advance. The value in the predetermined range is a reference for determining whether or not the tissue represented by the pixel is a lesion (tumor). The value in the predetermined range is a value corresponding to the pixel value (CT value) of the lesioned part (tumor). The value in the predetermined range is stored in advance in a storage unit (not shown). The operator can arbitrarily change the value in the predetermined range using the operation unit 62.

病変部抽出部33は、画素値が所定範囲内の値に含まれる画素を、腫瘍に含まれる画素であると判定する。病変部抽出部33は、検索線13上の各画素を対象にして、所定範囲内の値に画素値が含まれるか否かを判定する。これにより、病変部抽出部33は、検索線13上における腫瘍の位置を求める。病変部抽出部33は、検索線13の位置を示す検索線情報(位置情報)と、病変部(腫瘍)の位置を示す病変部情報(座標情報)とを、推定部34に出力する。   The lesion extraction unit 33 determines that a pixel whose pixel value is included in a value within a predetermined range is a pixel included in the tumor. The lesion extraction unit 33 determines whether or not a pixel value is included in a value within a predetermined range for each pixel on the search line 13. Thereby, the lesion part extraction unit 33 obtains the position of the tumor on the search line 13. The lesion part extraction unit 33 outputs search line information (position information) indicating the position of the search line 13 and lesion part information (coordinate information) indicating the position of the lesion part (tumor) to the estimation unit 34.

以上により、大腸の内壁の表面に近い領域における画素値を求めて、腫瘍の位置を求めることができる。すなわち、検索線13の位置には、粘膜層が存在すると推定される。そのため、検索線13上の各画素の画素値は、粘膜層の画素値であると推定される。その結果、検索線13上の各画素の画素値に基づいて、粘着層に腫瘍が形成されているか否かを判定することができる。   As described above, the pixel value in the region close to the surface of the inner wall of the large intestine can be obtained to obtain the position of the tumor. That is, it is estimated that a mucous membrane layer exists at the position of the search line 13. Therefore, the pixel value of each pixel on the search line 13 is estimated to be the mucosal layer pixel value. As a result, based on the pixel value of each pixel on the search line 13, it can be determined whether or not a tumor is formed in the adhesive layer.

(推定部34)
推定部34は、大腸の正常な内壁の輪郭を求める。推定部34は、検索線情報と病変部情報とを受けて、検索線13において腫瘍が存在する範囲を除く。推定部34は、腫瘍が存在していない箇所の検索線13であって、隣り合う検索線13同士を繋げる。例えば図2(a)に示すように、推定部34は、検索線13において腫瘍12が存在している範囲を除く。推定部34は、腫瘍12の両側に延びる検索線13同士を繋げる。図2(a)、(b)に示すように、推定部34は、腫瘍12の一方側に延びる検索線13の端点Aと、腫瘍12の他方側に延びる検索線13の端点Bとを、直線で結ぶことで、連結線13Aを求める。
(Estimation unit 34)
The estimation unit 34 obtains the outline of the normal inner wall of the large intestine. The estimation unit 34 receives the search line information and the lesion part information, and excludes the range where the tumor exists in the search line 13. The estimation unit 34 is a search line 13 where there is no tumor, and connects adjacent search lines 13. For example, as illustrated in FIG. 2A, the estimation unit 34 excludes a range where the tumor 12 exists in the search line 13. The estimation unit 34 connects the search lines 13 extending on both sides of the tumor 12. As shown in FIGS. 2A and 2B, the estimation unit 34 calculates an end point A of the search line 13 extending to one side of the tumor 12 and an end point B of the search line 13 extending to the other side of the tumor 12. The connecting line 13A is obtained by connecting with a straight line.

図2(b)に示すように、推定部34は、外壁の輪郭11から内壁の輪郭10に向かう方向(図中のY方向)に、上記の所定の移動距離(例えば1ピクセル分の距離)、連結線13Aを平行移動させる。Y方向は、X方向とは反対の方向である。図2(c)に示すように、推定部34は、移動後の輪郭を輪郭13Bとして定義する。すなわち推定部34は、輪郭10が移動させられた方向とは反対の方向に、輪郭10が移動させられた距離と同じ距離、連結線13Aを平行移動させる。このようにして、推定部34は、大腸の正常な内壁の輪郭13Bを求める。   As shown in FIG. 2 (b), the estimation unit 34 performs the predetermined movement distance (for example, a distance of one pixel) in the direction from the outer wall contour 11 toward the inner wall contour 10 (Y direction in the drawing). Then, the connecting line 13A is moved in parallel. The Y direction is the opposite direction to the X direction. As illustrated in FIG. 2C, the estimation unit 34 defines the contour after movement as the contour 13B. That is, the estimating unit 34 translates the connecting line 13A in the direction opposite to the direction in which the contour 10 is moved, by the same distance as the distance in which the contour 10 is moved. In this way, the estimation unit 34 obtains the outline 13B of the normal inner wall of the large intestine.

以上のように、推定部34は、検索線13から腫瘍12が存在する範囲を除き、腫瘍の範囲が除かれた検索線13を繋げることで連結線13Aを生成する。推定部34は、その連結線13Aを平行移動前の位置に戻すことで、大腸の正常な輪郭13Bを求める。   As described above, the estimation unit 34 generates the connection line 13A by connecting the search line 13 from which the tumor range is removed, except the range where the tumor 12 exists from the search line 13. The estimation unit 34 obtains the normal outline 13B of the large intestine by returning the connecting line 13A to the position before the parallel movement.

以下において、推定部34によって推定された内壁の輪郭13Bを、第2の輪郭と称する場合がある。推定部34は、内壁の輪郭13B(第2の輪郭)の位置を示す第2の内壁情報(座標情報)を、隆起レベル算出部35に出力する。   Hereinafter, the outline 13B of the inner wall estimated by the estimation unit 34 may be referred to as a second outline. The estimation unit 34 outputs the second inner wall information (coordinate information) indicating the position of the inner wall contour 13 </ b> B (second contour) to the uplift level calculation unit 35.

図3に、推定された輪郭13Bの1例を示す。図3には、内壁の輪郭10(第1の輪郭)と、外壁の輪郭11と、推定された内壁の輪郭13B(第2の輪郭)とが表されている。内壁の輪郭10は、輪郭抽出部32によって求められた輪郭である。輪郭13Bは、推定部34によって求められた輪郭である。例えば、内壁と外壁との間の領域(大腸壁の内部の領域)に、腫瘍12と腫瘍14とが存在する。腫瘍12の存在により、腫瘍12の周辺における輪郭10が、外壁の輪郭11に向かう方向とは反対の方向に隆起している。腫瘍14の存在により、腫瘍14の周辺における輪郭10が、外壁の輪郭11に向かう方向に凹んでいる。腫瘍が存在しない正常な大腸であれば、腫瘍12と腫瘍14とがそれぞれ存在している箇所の周辺における内壁は、平坦であると推定される。腫瘍12と腫瘍14とがそれぞれ存在する箇所において、推定された輪郭13Bは平坦になっている。なお、説明を簡便にするために、腫瘍12及び腫瘍14は模式的に示されている。   FIG. 3 shows an example of the estimated contour 13B. FIG. 3 shows an inner wall contour 10 (first contour), an outer wall contour 11, and an estimated inner wall contour 13B (second contour). The contour 10 of the inner wall is a contour obtained by the contour extracting unit 32. The contour 13 </ b> B is a contour obtained by the estimation unit 34. For example, the tumor 12 and the tumor 14 exist in a region between the inner wall and the outer wall (region inside the large intestine wall). Due to the presence of the tumor 12, the contour 10 around the tumor 12 protrudes in a direction opposite to the direction toward the contour 11 of the outer wall. Due to the presence of the tumor 14, the contour 10 around the tumor 14 is recessed in a direction toward the contour 11 of the outer wall. If it is a normal large intestine without a tumor, the inner wall around the location where the tumor 12 and the tumor 14 are present is estimated to be flat. The estimated contour 13B is flat where the tumor 12 and the tumor 14 exist. In order to simplify the description, the tumor 12 and the tumor 14 are schematically shown.

(隆起レベル算出部35)
隆起レベル算出部35は、輪郭抽出部32によって求められた内壁の輪郭10(第1の輪郭)と、推定部34によって推定された内壁の輪郭13B(第2の輪郭)とに基づいて、病変部(腫瘍)の凹凸の程度(隆起レベル)を求める。例えば、腫瘍の大きさと腫瘍の方向とが、腫瘍の凹凸の程度(隆起レベル)に相当する。
(Uplift level calculator 35)
Based on the inner wall contour 10 (first contour) obtained by the contour extracting unit 32 and the inner wall contour 13B (second contour) estimated by the estimating unit 34, the ridge level calculating unit 35 The degree of unevenness (protrusion level) of the part (tumor) is obtained. For example, the size of the tumor and the direction of the tumor correspond to the degree of unevenness (bump level) of the tumor.

まず、隆起レベル算出部35は、輪郭抽出部32によって求められた輪郭10(第1の輪郭)の位置と、推定部34によって推定された輪郭13B(第2の輪郭)の位置との差を求める。この差が、腫瘍の凹凸の程度に相当する。隆起レベル算出部35は、輪郭に差が生じている領域を、病変部(腫瘍)として求める。   First, the ridge level calculation unit 35 calculates the difference between the position of the contour 10 (first contour) obtained by the contour extraction unit 32 and the position of the contour 13B (second contour) estimated by the estimation unit 34. Ask. This difference corresponds to the degree of unevenness of the tumor. The bulge level calculation unit 35 obtains a region where the contour is different as a lesion (tumor).

腫瘍の周辺においては、輪郭抽出部32によって求められた輪郭10(第1の輪郭)の位置と、推定部34によって推定された輪郭13B(第2の輪郭)の位置とに差がある。すなわち、大腸に腫瘍が存在する場合には、腫瘍の形状及び大きさに応じて、輪郭抽出部32によって求められた輪郭10は、隆起しているか、又は陥凹している。一方、推定部34によって推定された輪郭13Bは、腫瘍が存在する範囲が除かれた輪郭である。そのため、輪郭13Bは、腫瘍が存在しないと仮定した場合における正常な内壁の輪郭を表している。従って、輪郭抽出部32によって求められた輪郭10の位置と、推定部34によって推定された輪郭13Bの位置との差を求めることで、腫瘍の位置と凹凸の程度とを求めることができる。   In the vicinity of the tumor, there is a difference between the position of the contour 10 (first contour) obtained by the contour extraction unit 32 and the position of the contour 13B (second contour) estimated by the estimation unit 34. That is, when a tumor is present in the large intestine, the contour 10 obtained by the contour extraction unit 32 is raised or depressed depending on the shape and size of the tumor. On the other hand, the outline 13B estimated by the estimation unit 34 is an outline from which a range in which a tumor exists is removed. Therefore, the outline 13B represents the outline of the normal inner wall when it is assumed that there is no tumor. Therefore, by obtaining the difference between the position of the contour 10 obtained by the contour extraction unit 32 and the position of the contour 13B estimated by the estimation unit 34, the position of the tumor and the degree of unevenness can be obtained.

次に、隆起レベル算出部35は、輪郭に差がある領域(腫瘍)を対象にして、腫瘍の大きさを求める。具体的には、隆起レベル算出部35は、輪郭に差がある領域(腫瘍)を対象にして、推定された輪郭13Bから実際の輪郭10までの距離を腫瘍ごとに求める。すなわち、隆起レベル算出部35は、正常な内壁から実際の内壁までの距離を腫瘍ごとに求める。隆起レベル算出部35は、その距離を腫瘍の大きさとして定義する。   Next, the ridge level calculation unit 35 obtains the size of the tumor for a region (tumor) having a difference in contour. Specifically, the bulge level calculation unit 35 obtains the distance from the estimated contour 13B to the actual contour 10 for each tumor for a region (tumor) having a difference in contour. That is, the bulge level calculation unit 35 obtains the distance from the normal inner wall to the actual inner wall for each tumor. The ridge level calculation unit 35 defines the distance as the size of the tumor.

図4を参照して、腫瘍の凹凸の程度を求める方法について説明する。窪み部15は、推定された輪郭13Bの位置と実際の輪郭10の位置とに差がある領域である。窪み部15においては、輪郭10が、外壁の輪郭11に向かう方向に凹んでいる。窪み部15の凹みは、腫瘍に起因する。隆起レベル算出部35は、腫瘍が存在する領域(窪み部15)において、輪郭13Bに直交する直交線を設定する。隆起レベル算出部35は、その直交線と実際の輪郭10とが交差する交点を求める。隆起レベル算出部35は、直交線に沿って輪郭13Bから交点までの距離を求める。隆起レベル算出部35は、腫瘍が存在する領域(窪み部15)において位置を変えて、それぞれの位置において輪郭13Bに直交する直交線を設定する。隆起レベル算出部35は、各直交線と実際の輪郭10とが交差する交点を求める。隆起レベル算出部35は、輪郭13Bから交点までの距離を直交線ごとに求める。隆起レベル算出部35は、各直交線について求められた距離のうち、最大となる距離(長さL1)を求める。すなわち、隆起レベル算出部35は、輪郭13Bと輪郭10との間において最大となる距離(長さL1)を求める。最大の距離(長さL1)は、窪み部15における腫瘍の大きさに対応している。隆起レベル算出部35は、最大の距離(長さL1)を、窪み部15における腫瘍の大きさとして定義する。   With reference to FIG. 4, a method for determining the degree of unevenness of the tumor will be described. The depression 15 is an area where there is a difference between the estimated position of the contour 13 </ b> B and the actual position of the contour 10. In the recess 15, the contour 10 is recessed in the direction toward the contour 11 of the outer wall. The dent of the dent 15 is caused by the tumor. The ridge level calculation unit 35 sets an orthogonal line orthogonal to the contour 13B in the region where the tumor exists (the depression 15). The ridge level calculation unit 35 obtains an intersection where the orthogonal line and the actual contour 10 intersect. The ridge level calculation unit 35 calculates the distance from the contour 13B to the intersection along the orthogonal line. The ridge level calculation unit 35 changes the position in the area where the tumor exists (the depression 15), and sets orthogonal lines orthogonal to the contour 13B at each position. The ridge level calculation unit 35 obtains an intersection where each orthogonal line and the actual contour 10 intersect. The ridge level calculation unit 35 calculates the distance from the contour 13B to the intersection for each orthogonal line. The ridge level calculation unit 35 obtains the maximum distance (length L1) among the distances obtained for each orthogonal line. That is, the ridge level calculation unit 35 obtains the maximum distance (length L1) between the contour 13B and the contour 10. The maximum distance (length L1) corresponds to the size of the tumor in the depression 15. The ridge level calculation unit 35 defines the maximum distance (length L1) as the size of the tumor in the depression 15.

突起部16は、推定された輪郭13Bの位置と実際の輪郭10とに差がある領域である。突起部16においては、輪郭10が、大腸の心線CLに向かう方向に突出している。突起部16の突起は、腫瘍に起因する。隆起レベル算出部35は、腫瘍が存在する領域(突起部16)において位置を変えて、それぞれの位置において輪郭13Bに直交する直交線を設定する。隆起レベル算出部35は、各直交線と輪郭10とが交差する交点を直交線ごとに求める。隆起レベル算出部35は、輪郭13Bから交点までの距離を直交線ごとに求める。隆起レベル算出部35は、各直交線について求められた距離のうち、最大となる距離(長さL2)を求める。最大の距離(長さL2)は、突起部16における腫瘍の大きさに対応している。隆起レベル算出部35は、最大の距離(長さL2)を、突起部16における腫瘍の大きさとして定義する。   The protrusion 16 is an area where there is a difference between the estimated position of the contour 13 </ b> B and the actual contour 10. In the protrusion 16, the contour 10 protrudes in a direction toward the large intestine core line CL. The protrusion of the protrusion 16 is caused by a tumor. The bulge level calculation unit 35 changes the position in the region where the tumor exists (projection 16), and sets an orthogonal line orthogonal to the contour 13B at each position. The ridge level calculation unit 35 obtains an intersection where each orthogonal line intersects the contour 10 for each orthogonal line. The ridge level calculation unit 35 calculates the distance from the contour 13B to the intersection for each orthogonal line. The ridge level calculation unit 35 calculates a maximum distance (length L2) among the distances calculated for each orthogonal line. The maximum distance (length L2) corresponds to the size of the tumor in the protrusion 16. The bulge level calculation unit 35 defines the maximum distance (length L2) as the size of the tumor in the protrusion 16.

また、隆起レベル算出部35は、輪郭に差がある領域(腫瘍)を対象にして、腫瘍の方向を腫瘍ごとに求める。具体的には、隆起レベル算出部35は、推定された輪郭13Bの位置を基準にして、実際の内壁の輪郭10が存在している方向を腫瘍ごとに求める。   Further, the bulge level calculation unit 35 obtains the direction of the tumor for each tumor by targeting a region (tumor) having a difference in contour. Specifically, the bulge level calculation unit 35 obtains, for each tumor, the direction in which the actual contour 10 of the inner wall exists with reference to the estimated position of the contour 13B.

例えば図4に示すように、推定された輪郭13Bから外壁の輪郭11に向かう方向を、マイナス方向(−方向)と定義する。マイナス方向(−方向)とは反対の方向を、プラス方向(+方向)と定義する。換言すると、輪郭13Bから大腸の心線CLに向かう方向を、プラス方向(+方向)と定義する。輪郭13Bの位置を基準にした輪郭10の方向は、腫瘍の種類に対応している。輪郭13Bよりもマイナス方向に輪郭10が位置している腫瘍は、1例として表面陥凹型の腫瘍に対応する。輪郭13Bよりもプラス方向に輪郭10が位置している領域は、1例として表面隆起型の腫瘍に対応する。   For example, as shown in FIG. 4, the direction from the estimated contour 13B toward the contour 11 of the outer wall is defined as a minus direction (− direction). The direction opposite to the minus direction (− direction) is defined as the plus direction (+ direction). In other words, the direction from the contour 13B to the large intestine core line CL is defined as a plus direction (+ direction). The direction of the contour 10 based on the position of the contour 13B corresponds to the type of tumor. A tumor in which the contour 10 is located in the minus direction with respect to the contour 13B corresponds to a surface depression type tumor as an example. The region where the contour 10 is located in the plus direction with respect to the contour 13B corresponds to a surface-bulged tumor as an example.

隆起レベル算出部35は、輪郭13Bの位置を基準にして、腫瘍が存在する領域(窪み部15)における輪郭10の方向を求める。窪み部15においては、輪郭10は、輪郭13Bよりも外壁の輪郭11側に位置している。すなわち、窪み部15においては、輪郭10は、輪郭13Bよりもマイナス方向に位置している。隆起レベル算出部35は、窪み部15における腫瘍の方向を、マイナス方向と決定する。従って、窪み部15における腫瘍は、表面陥凹型の腫瘍であると判断できる。   The ridge level calculation unit 35 obtains the direction of the contour 10 in the region where the tumor exists (the hollow portion 15) with reference to the position of the contour 13B. In the hollow portion 15, the contour 10 is located closer to the contour 11 side of the outer wall than the contour 13B. That is, in the hollow portion 15, the contour 10 is positioned in the minus direction with respect to the contour 13B. The ridge level calculation unit 35 determines the direction of the tumor in the depression 15 as the minus direction. Therefore, it can be determined that the tumor in the depression 15 is a surface-recessed tumor.

同様に、隆起レベル算出部35は、輪郭13Bの位置を基準にして、腫瘍が存在する領域(突起部16)における輪郭10の方向を求める。突起部16においては、輪郭10は、輪郭13Bよりも心線CL側に位置している。すなわち、突起部16においては、輪郭10は、輪郭13Bよりもプラス方向に位置している。隆起レベル算出部35は、突起部16における腫瘍の方向を、プラス方向と決定する。従って、突起部16における腫瘍は、表面隆起型の腫瘍であると判断できる。   Similarly, the ridge level calculation unit 35 obtains the direction of the contour 10 in the region where the tumor exists (projection 16) with reference to the position of the contour 13B. In the protrusion 16, the contour 10 is located closer to the core line CL than the contour 13 </ b> B. That is, in the protrusion 16, the contour 10 is positioned in the plus direction with respect to the contour 13 </ b> B. The ridge level calculation unit 35 determines the direction of the tumor in the protrusion 16 as a plus direction. Therefore, it can be determined that the tumor in the protrusion 16 is a surface-bulged tumor.

以上のようにして、隆起レベル算出部35は、腫瘍の大きさと腫瘍の方向とを腫瘍ごとに求める。上述したように、腫瘍の大きさと腫瘍の方向とが、腫瘍の凹凸の程度(隆起レベル)に相当する。例えば窪み部15における腫瘍については、長さL1が腫瘍の大きさに相当し、マイナス方向が腫瘍の方向に相当する。また、突起部16における腫瘍については、長さL2が腫瘍の大きさに相当し、プラス方向が腫瘍の方向に相当する。   As described above, the bulge level calculation unit 35 determines the tumor size and the tumor direction for each tumor. As described above, the size of the tumor and the direction of the tumor correspond to the degree of unevenness (bump level) of the tumor. For example, for the tumor in the depression 15, the length L1 corresponds to the size of the tumor, and the minus direction corresponds to the direction of the tumor. For the tumor in the protrusion 16, the length L2 corresponds to the size of the tumor, and the plus direction corresponds to the direction of the tumor.

隆起レベル算出部35は、腫瘍の位置を示す位置情報(座標情報)と、腫瘍の大きさ(長さ)を示す長さ情報と、腫瘍の方向を示す方向情報とを含む隆起レベル情報を、腫瘍ごとに生成する。隆起レベル算出部35は、隆起レベル情報を変換部36に出力する。   The bulge level calculation unit 35 includes bulge level information including position information (coordinate information) indicating the position of the tumor, length information indicating the size (length) of the tumor, and direction information indicating the direction of the tumor. Generated for each tumor. The bump level calculation unit 35 outputs the bump level information to the conversion unit 36.

図4に示す例では、隆起レベル算出部35は、窪み部15における腫瘍について、腫瘍の位置を示す位置情報と、腫瘍の大きさ(長さL1)の値と、腫瘍の方向(マイナス方向)を示す方向情報とを含む隆起レベル情報を生成する。また、隆起レベル算出部35は、突起部16における腫瘍については、腫瘍の位置を示す位置情報と、腫瘍の大きさ(長さL2)の値と、腫瘍の方向(プラス方向)を示す方向情報とを含む隆起レベル情報を生成する。隆起レベル算出部35は、各隆起レベル情報を変換部36に出力する。   In the example shown in FIG. 4, for the tumor in the depression 15, the bulge level calculation unit 35 includes position information indicating the position of the tumor, the value of the tumor size (length L1), and the direction of the tumor (minus direction). The ridge level information including the direction information indicating is generated. In addition, for the tumor in the protrusion 16, the bulge level calculation unit 35 includes position information indicating the position of the tumor, a value of the tumor size (length L2), and direction information indicating the direction of the tumor (plus direction). Protrusion level information including The uplift level calculation unit 35 outputs each uplift level information to the conversion unit 36.

隆起レベル算出部35は、腫瘍の方向に基づいて腫瘍の種類を判断しても良い。具体的には、隆起レベル算出部35は、方向がマイナス方向である腫瘍を、表面陥凹型の腫瘍であると判断する。また、隆起レベル算出部35は、方向がプラス方向である腫瘍を、表面隆起型の腫瘍であると判断する。隆起レベル算出部35は、判断結果を隆起レベル情報に含ませて、隆起レベル情報を変換部36に出力しても良い。   The bulge level calculator 35 may determine the type of tumor based on the direction of the tumor. Specifically, the bulge level calculation unit 35 determines that a tumor having a negative direction is a surface depression type tumor. In addition, the ridge level calculation unit 35 determines that a tumor whose direction is a plus direction is a surface bulge type tumor. The uplift level calculation unit 35 may include the determination result in the uplift level information and output the uplift level information to the conversion unit 36.

(変換部36)
変換部36は、隆起レベル情報を隆起レベル算出部35から受ける。変換部36は、隆起レベル情報が示す腫瘍の大きさと腫瘍の方向とに基づいて、腫瘍の凹凸の程度に応じた色を決定する。例えば、腫瘍の凹凸の程度を色に変換するためのルックアップテーブル(LUT)が、条件記憶部7に記憶されている。ルックアップテーブルは、腫瘍の凹凸の程度と色とが対応付けられたテーブルである。変換部36は、条件記憶部7に記憶されているルックアップテーブルを参照して、腫瘍の凹凸の程度を色に変換する。
(Conversion unit 36)
The conversion unit 36 receives the elevation level information from the elevation level calculation unit 35. The conversion unit 36 determines a color corresponding to the degree of unevenness of the tumor based on the size of the tumor and the direction of the tumor indicated by the bump level information. For example, a look-up table (LUT) for converting the degree of unevenness of the tumor into a color is stored in the condition storage unit 7. The look-up table is a table in which the degree of unevenness of the tumor and the color are associated with each other. The conversion unit 36 refers to the look-up table stored in the condition storage unit 7 and converts the degree of tumor unevenness into a color.

図5に、ルックアップテーブルの1例を示す。ルックアップテーブル20は、腫瘍の大きさ(長さ)と、腫瘍の方向と、色とが対応付けられたテーブルである。0mmの点が基準点である。基準点(0mm)を基準にして、+方向と−方向とが腫瘍の方向に対応する。+方向が、表面隆起型の腫瘍に対応する。−方向が、表面陥凹型の腫瘍に対応する。基準点(0mm)が、表面平坦型の腫瘍に対応する。基準点からの距離が、腫瘍の大きさ(長さ)に対応する。基準点から離れるほど、腫瘍の大きさ(長さ)が大きいことを示している。図5においては説明を簡便にするために、ルックアップテーブル20の色をハッチングで模式的に表している。ルックアップテーブル20における色は、腫瘍の大きさ(長さ)に応じて段階的に変化している。   FIG. 5 shows an example of a lookup table. The lookup table 20 is a table in which a tumor size (length), a tumor direction, and a color are associated with each other. A point of 0 mm is a reference point. With reference to the reference point (0 mm), the + direction and the − direction correspond to the direction of the tumor. The + direction corresponds to a surface raised tumor. The direction corresponds to a tumor with a surface depression. The reference point (0 mm) corresponds to a flat surface tumor. The distance from the reference point corresponds to the size (length) of the tumor. The farther away from the reference point, the larger the tumor size (length). In FIG. 5, the color of the lookup table 20 is schematically represented by hatching for the sake of simplicity. The color in the look-up table 20 changes stepwise according to the size (length) of the tumor.

腫瘍の凹凸の程度に対応する色は、凹凸の程度に応じて異なる色であっても良いし、白黒の濃淡の程度であっても良い。すなわち、腫瘍の凹凸の程度に応じて色を変えても良いし、白黒の濃淡の程度を変えても良い。   The color corresponding to the degree of unevenness of the tumor may be a different color depending on the degree of unevenness, or may be a black and white shade. That is, the color may be changed according to the degree of unevenness of the tumor, or the degree of black and white shading may be changed.

操作者が操作部62を用いて、ルックアップテーブル20を変更できるようにしても良い。すなわち、操作者が操作部62を用いて、腫瘍の凹凸の程度と色との対応関係を変更できるようにしても良い。   The operator may be able to change the lookup table 20 using the operation unit 62. That is, the operator may use the operation unit 62 to change the correspondence between the degree of tumor unevenness and the color.

変換部36は、隆起レベル情報が示す腫瘍の大きさと方向とに対応する色を、ルックアップテーブル20から選択する。例えば、変換部36は、窪み部15における腫瘍について、腫瘍の大きさ(長さL1)と腫瘍の方向(−方向)とに対応する色を、ルックアップテーブル20から選択する。また、変換部36は、突起部16における腫瘍について、腫瘍の大きさ(長さL2)と腫瘍の方向(+方向)とに対応する色を、ルックアップテーブル20から選択する。   The conversion unit 36 selects a color corresponding to the size and direction of the tumor indicated by the bump level information from the lookup table 20. For example, the conversion unit 36 selects a color corresponding to the size (length L1) of the tumor and the direction (− direction) of the tumor from the lookup table 20 for the tumor in the depression 15. Further, the conversion unit 36 selects a color corresponding to the size (length L2) of the tumor and the direction (+ direction) of the tumor from the look-up table 20 for the tumor in the protrusion 16.

変換部36は、隆起レベル情報に含まれる腫瘍の位置情報と、腫瘍の凹凸の程度に応じた色を示す色情報とを含むカラーデータを生成する。変換部36は、カラーデータを表示制御部5に出力する。   The conversion unit 36 generates color data including tumor position information included in the bulge level information and color information indicating a color corresponding to the degree of unevenness of the tumor. The conversion unit 36 outputs the color data to the display control unit 5.

(画像生成部4)
画像生成部4は、画像記憶部2からボリュームデータを読み込み、ボリュームデータに基づいて3次元画像データなどの画像データを生成する。例えば画像生成部4は、ボリュームデータに表された組織の内部を平面状に展開して、内部の表面を平面的に表す展開画像データを生成する。また、画像生成部4は、ボリュームデータにボリュームレンダリングを施すことで、管状組織の内部の表面を3次元的に表す仮想内視鏡画像データを生成しても良い。例えば操作者が操作部62を用いて視点の位置と視線方向とを指定すると、視点の位置を示す視点情報と視線方向を示す視線方向情報とが、ユーザインターフェース(UI)6から画像生成部4に出力される。画像生成部4は、その視点の位置から視線方向に向けてボリュームレンダリングを施すことで、仮想内視鏡画像データを生成する。また、画像生成部4は、ボリュームデータにMPR(Multi Planar Reconstruction)処理を施すことで、任意の断面におけるMPR画像データを生成しても良い。例えば操作者が操作部62を用いて断面の位置を指定すると、断面の位置を示す位置情報が、ユーザインターフェース(UI)6から画像生成部4に出力される。画像生成部4は、指定された断面におけるMPR画像データを生成する。画像生成部4は、展開画像データ、仮想内視鏡画像データ、又はMPR画像データなどの画像データを表示制御部5に出力する。
(Image generation unit 4)
The image generation unit 4 reads volume data from the image storage unit 2 and generates image data such as three-dimensional image data based on the volume data. For example, the image generation unit 4 expands the inside of the tissue represented by the volume data into a planar shape, and generates expanded image data that represents the internal surface in a planar manner. The image generation unit 4 may generate virtual endoscopic image data that three-dimensionally represents the internal surface of the tubular tissue by performing volume rendering on the volume data. For example, when the operator designates the position of the viewpoint and the line-of-sight direction using the operation unit 62, the viewpoint information indicating the position of the viewpoint and the line-of-sight direction information indicating the line-of-sight direction are transmitted from the user interface (UI) 6 to the image generation unit 4. Is output. The image generation unit 4 generates virtual endoscope image data by performing volume rendering from the position of the viewpoint toward the viewing direction. Further, the image generation unit 4 may generate MPR image data in an arbitrary cross section by performing MPR (Multi Planar Reconstruction) processing on the volume data. For example, when the operator specifies the position of the cross section using the operation unit 62, position information indicating the position of the cross section is output from the user interface (UI) 6 to the image generation unit 4. The image generation unit 4 generates MPR image data in the designated cross section. The image generation unit 4 outputs image data such as developed image data, virtual endoscopic image data, or MPR image data to the display control unit 5.

画像生成部4は、展開画像データ又は仮想内視鏡画像データのうち、いずれか一方の画像データのみを生成しても良いし、両方の画像データを生成しても良い。操作者が操作部62を用いて画像データの種類を指定した場合に、画像生成部4は、操作者によって指定された画像データを生成しても良い。   The image generation unit 4 may generate only one of the developed image data and the virtual endoscopic image data, or may generate both image data. When the operator uses the operation unit 62 to specify the type of image data, the image generation unit 4 may generate image data specified by the operator.

(表示制御部5)
表示制御部5は、画像生成部4から画像データを受けて、画像データに基づく画像を表示部61に表示させる。例えば表示制御部5は、画像生成部4から展開画像データを受けて、展開画像データに基づく展開画像を表示部61に表示させる。また、表示制御部5は、画像生成部4から仮想内視鏡画像データを受けて、仮想内視鏡画像データに基づく仮想内視鏡画像を表示部61に表示させる。
(Display control unit 5)
The display control unit 5 receives the image data from the image generation unit 4 and causes the display unit 61 to display an image based on the image data. For example, the display control unit 5 receives the developed image data from the image generation unit 4 and causes the display unit 61 to display a developed image based on the developed image data. The display control unit 5 receives virtual endoscopic image data from the image generation unit 4 and causes the display unit 61 to display a virtual endoscopic image based on the virtual endoscopic image data.

表示制御部5は、変換部36からカラーデータを受けて、カラーデータが示す色を、展開画像においてカラーデータが示す位置に着色する。また表示制御部5は、カラーデータが示す色を、仮想内視鏡画像においてカラーデータが示す位置に着色しても良い。カラーデータが示す色は、腫瘍の凹凸の程度を示す。すなわち、カラーデータが示す色は、腫瘍の大きさと腫瘍の方向とを示す。腫瘍の方向は、腫瘍の種類に対応している。腫瘍の種類には、1例として、表面隆起型、表面平坦型、及び表面陥凹型がある。   The display control unit 5 receives the color data from the conversion unit 36 and colors the color indicated by the color data at the position indicated by the color data in the developed image. Further, the display control unit 5 may color the color indicated by the color data at the position indicated by the color data in the virtual endoscopic image. The color indicated by the color data indicates the degree of unevenness of the tumor. That is, the color indicated by the color data indicates the size of the tumor and the direction of the tumor. The direction of the tumor corresponds to the type of tumor. Examples of tumor types include a surface raised type, a surface flat type, and a surface recessed type.

表示制御部5は、腫瘍の凹凸の程度に応じた色が付けられた展開画像を、表示部61に表示させる。また表示制御部5は、腫瘍の凹凸の程度に応じた色が付けられた仮想内視鏡画像を、表示部61に表示させても良い。   The display control unit 5 causes the display unit 61 to display a developed image colored according to the degree of unevenness of the tumor. The display control unit 5 may cause the display unit 61 to display a virtual endoscopic image colored according to the degree of unevenness of the tumor.

表示制御部5は、展開画像又は仮想内視鏡画像のうち、いずれか一方の画像のみを表示部61に表示しても良いし、両方の画像を並べて表示部61に表示しても良い。操作者が操作部62を用いて画像の種類を指定した場合に、表示制御部5は、操作者によって指定された画像を表示部61に表示させても良い。   The display control unit 5 may display only one of the developed image and the virtual endoscopic image on the display unit 61, or may display both images side by side on the display unit 61. When the operator designates the type of image using the operation unit 62, the display control unit 5 may cause the display unit 61 to display the image designated by the operator.

図6に、色が付けられた画像の1例を示す。図6(a)には、展開画像100が表されている。展開画像100には、大腸の内壁が平面的に表されている。表示制御部5は、腫瘍(病変部)が存在する領域110と領域120とに、それぞれのカラーデータが示す色を付けて、展開画像100を表示部61に表示させる。カラーデータが示す色は、腫瘍の凹凸の程度を示す。従って、領域110と領域120とに付けられた色は、それぞれの位置における腫瘍の凹凸の程度を表している。例えば領域110の色は、領域110における腫瘍が表面隆起型の腫瘍であることを示している。また領域110の色は、表面隆起型の腫瘍の隆起の程度を示している。領域120の色は、領域120における腫瘍が表面陥凹型の腫瘍であることを示している。また領域120の色は、表面陥凹型の腫瘍の凹みの程度を示している。   FIG. 6 shows an example of a colored image. FIG. 6A shows a developed image 100. In the developed image 100, the inner wall of the large intestine is planarly represented. The display control unit 5 causes the display unit 61 to display the developed image 100 by adding colors indicated by the respective color data to the region 110 and the region 120 where the tumor (lesioned portion) exists. The color indicated by the color data indicates the degree of unevenness of the tumor. Therefore, the color given to the area | region 110 and the area | region 120 represents the grade of the unevenness | corrugation of the tumor in each position. For example, the color of region 110 indicates that the tumor in region 110 is a surface-bulged tumor. Further, the color of the region 110 indicates the degree of bulge of the surface bulge type tumor. The color of region 120 indicates that the tumor in region 120 is a surface-recessed tumor. The color of the region 120 indicates the degree of depression of the surface-recessed tumor.

また、図6(b)には、仮想内視鏡画像200が表されている。図6(c)には、仮想内視鏡画像300が表されている。仮想内視鏡画像200と仮想内視鏡画像300とには、大腸の内壁が立体的に表されている。図6(b)に示すように、表示制御部5は、腫瘍が存在する領域210に、カラーデータが示す色を付けて、仮想内視鏡画像200を表示部61に表示させる。また図6(c)に示すように、表示制御部5は、腫瘍が存在する領域310に、カラーデータが示す色を付けて、仮想内視鏡画像300を表示部61に表示させる。例えば領域210の色は、領域210における腫瘍が表面隆起型の腫瘍であることを示している。また領域210の色は、表面隆起型の腫瘍の隆起の程度を示している。領域310の色は、領域310における腫瘍が表面陥凹型の腫瘍であることを示している。また領域310の色は、表面陥凹型の腫瘍の凹みの程度を示している。   FIG. 6B shows a virtual endoscopic image 200. In FIG. 6C, a virtual endoscopic image 300 is shown. In the virtual endoscopic image 200 and the virtual endoscopic image 300, the inner wall of the large intestine is three-dimensionally represented. As illustrated in FIG. 6B, the display control unit 5 causes the display unit 61 to display the virtual endoscopic image 200 by adding a color indicated by the color data to the region 210 where the tumor exists. Further, as shown in FIG. 6C, the display control unit 5 causes the display unit 61 to display the virtual endoscopic image 300 with the color indicated by the color data added to the region 310 where the tumor is present. For example, the color of region 210 indicates that the tumor in region 210 is a surface-bulged tumor. The color of the region 210 indicates the degree of bulge of the surface bulge type tumor. The color of region 310 indicates that the tumor in region 310 is a surface-recessed tumor. The color of the region 310 indicates the degree of depression of the surface-recessed tumor.

例えば展開画像100に表された領域110と、仮想内視鏡画像200に表された領域210とが対応している。展開画像100に表された領域120と、仮想内視鏡画像300に表された領域310とが対応している。   For example, the area 110 represented in the developed image 100 and the area 210 represented in the virtual endoscopic image 200 correspond to each other. The area 120 shown in the developed image 100 and the area 310 shown in the virtual endoscopic image 300 correspond to each other.

表示制御部5は、展開画像100と仮想内視鏡画像200(又は仮想内視鏡画像300)とを並べて表示部61に表示させても良い。または、表示制御部5は、展開画像100及び仮想内視鏡画像200(又は仮想内視鏡画像300)のうち、いずれか一方の画像を表示部61に表示させても良い。   The display control unit 5 may display the developed image 100 and the virtual endoscopic image 200 (or the virtual endoscopic image 300) side by side on the display unit 61. Alternatively, the display control unit 5 may cause the display unit 61 to display either one of the developed image 100 and the virtual endoscopic image 200 (or the virtual endoscopic image 300).

操作者は、展開画像又は仮想内視鏡画像に表示された色を参照することで、腫瘍の凹凸の程度(隆起レベル)を把握することが可能となる。すなわち、操作者は、画像に表示された色によって、腫瘍が、表面隆起型の腫瘍であるのか、表面平坦型の腫瘍であるのか、表面陥凹型の腫瘍であるのかを判断することが可能となる。これにより、腫瘍の種類が非隆起型であっても、操作者は、腫瘍の有無及び腫瘍の種類を把握することが可能となる。例えば、スクリーニング検査を含む術前診断に医用画像処理装置1を適用した場合、術前診断を効率的に行うことができる。   By referring to the color displayed in the developed image or the virtual endoscopic image, the operator can grasp the degree of unevenness (bump level) of the tumor. That is, the operator can determine whether the tumor is a surface-bulged type tumor, a surface-flat type tumor, or a surface-concave type tumor by the color displayed in the image. Become. Thereby, even if the kind of tumor is a non-lifting type, the operator can grasp the presence or absence of the tumor and the kind of tumor. For example, when the medical image processing apparatus 1 is applied to a preoperative diagnosis including a screening test, the preoperative diagnosis can be performed efficiently.

(変形例)
図7を参照して、変形例について説明する。隆起レベル算出部35は、輪郭に差がある領域(腫瘍)において、複数箇所の凹凸の程度を求めても良い。窪み部15は、推定された輪郭13Bの位置と実際の輪郭10の位置とに差がある領域である。隆起レベル算出部35は、腫瘍が存在する領域(窪み部15)において位置を変えて、それぞれの位置において輪郭13Bに直交する直交線を設定する。隆起レベル算出部35は、各直交線と輪郭10とが交差する交点を直交線ごとに求める。隆起レベル算出部35は、輪郭13Bから交点までの距離を直交線ごとに求める。また、隆起レベル算出部35は、各位置における腫瘍の方向を求める。
(Modification)
A modification will be described with reference to FIG. The ridge level calculation unit 35 may obtain the degree of unevenness at a plurality of locations in a region (tumor) having a difference in outline. The depression 15 is an area where there is a difference between the estimated position of the contour 13 </ b> B and the actual position of the contour 10. The ridge level calculation unit 35 changes the position in the area where the tumor exists (the depression 15), and sets orthogonal lines orthogonal to the contour 13B at each position. The ridge level calculation unit 35 obtains an intersection where each orthogonal line intersects the contour 10 for each orthogonal line. The ridge level calculation unit 35 calculates the distance from the contour 13B to the intersection for each orthogonal line. Further, the bulge level calculation unit 35 obtains the direction of the tumor at each position.

例えば隆起レベル算出部35は、輪郭13B上においてそれぞれ異なる位置に、点41、点42、点43、点44、及び点45を設定する。隆起レベル算出部35は、点41から点45のそれぞれの点において、輪郭13Bに直交する直交線を設定する。隆起レベル算出部35は、各直交線と輪郭10とが交差する交点を直交線ごとに求める。隆起レベル算出部35は、輪郭13Bから交点までの距離を直交線ごとに求める。図7に示す例では、隆起レベル算出部35は、点41における距離(長さL3)、点42における距離(長さL4)、点43における距離(長さL5)、点44における距離(長さL6)、及び点45における距離(長さL7)を求める。   For example, the ridge level calculation unit 35 sets points 41, 42, 43, 44, and 45 at different positions on the contour 13B. The ridge level calculation unit 35 sets an orthogonal line orthogonal to the contour 13 </ b> B at each of the points 41 to 45. The ridge level calculation unit 35 obtains an intersection where each orthogonal line intersects the contour 10 for each orthogonal line. The ridge level calculation unit 35 calculates the distance from the contour 13B to the intersection for each orthogonal line. In the example illustrated in FIG. 7, the ridge level calculation unit 35 includes a distance at the point 41 (length L3), a distance at the point 42 (length L4), a distance at the point 43 (length L5), and a distance at the point 44 (long). L6) and the distance (length L7) at the point 45 are obtained.

隆起レベル算出部35は、輪郭13B上に設定された各点における腫瘍の方向を求める。図7に示す例では、隆起レベル算出部35は、点41から点45のそれぞれの点において、腫瘍の方向を求める。   The ridge level calculation unit 35 obtains the direction of the tumor at each point set on the contour 13B. In the example illustrated in FIG. 7, the ridge level calculation unit 35 obtains the direction of the tumor at each of the points 41 to 45.

以上のようにして、隆起レベル算出部35は、複数箇所の長さと方向とを求める。隆起レベル算出部35は、輪郭13B上に設定された点の位置を示す位置情報(座標情報)と、その点における腫瘍の大きさ(長さ)を示す長さ情報と、その点における腫瘍の方向を示す方向情報とを含む隆起レベル情報を、輪郭13B上に設定された点ごとに生成する。図7に示す例では、隆起レベル算出部35は、点41から点45のそれぞれの点について隆起レベル情報を生成する。隆起レベル算出部35は、各点についての隆起レベル情報を変換部36に出力する。   As described above, the bulge level calculation unit 35 obtains the lengths and directions of a plurality of locations. The ridge level calculation unit 35 includes position information (coordinate information) indicating the position of a point set on the outline 13B, length information indicating the size (length) of the tumor at the point, and the tumor at the point. Protrusion level information including direction information indicating the direction is generated for each point set on the contour 13B. In the example illustrated in FIG. 7, the uplift level calculation unit 35 generates uplift level information for each of the points 41 to 45. The ridge level calculation unit 35 outputs the ridge level information for each point to the conversion unit 36.

変換部36は、各点についての隆起レベル情報に従って、腫瘍の凹凸の程度に応じた色を各点について決定する。図7に示す例では、変換部36は、点41から点45のそれぞれの点に対する色を決定する。変換部36は、輪郭13B上に設定された点の位置を示す位置情報と、腫瘍の凹凸の程度に応じた色を示す色情報とを含むカラーデータを、輪郭13B上に設定された各点について生成する。変換部36は、カラーデータを表示制御部5に出力する。   The conversion unit 36 determines a color for each point according to the degree of unevenness of the tumor according to the ridge level information for each point. In the example illustrated in FIG. 7, the conversion unit 36 determines a color for each of the points 41 to 45. The conversion unit 36 outputs color data including position information indicating the position of a point set on the contour 13B and color information indicating a color according to the degree of unevenness of the tumor to each point set on the contour 13B. Generate about. The conversion unit 36 outputs the color data to the display control unit 5.

表示制御部5は、各点についてのカラーデータが示す色を、展開画像又は仮想内視鏡画像においてカラーデータが示す位置に着色する。表示制御部5は、腫瘍内の各点において凹凸の程度に応じた色が付けられた展開画像又は仮想内視鏡画像を、表示部61に表示させる。   The display control unit 5 colors the color indicated by the color data for each point at the position indicated by the color data in the developed image or virtual endoscopic image. The display control unit 5 causes the display unit 61 to display a developed image or a virtual endoscopic image colored according to the degree of unevenness at each point in the tumor.

以上のように、腫瘍内の複数箇所において凹凸の程度を求めることで、腫瘍内での凹凸の分布を表示することが可能となる。そのことにより、操作者は、腫瘍の凹凸の程度をより詳細に把握することが可能となる。   As described above, it is possible to display the unevenness distribution in the tumor by obtaining the degree of unevenness in a plurality of locations in the tumor. As a result, the operator can grasp the degree of unevenness of the tumor in more detail.

観察対象は大腸以外の部位であっても良い。例えば血管を観察対象とした場合であっても、上述した画像処理部3による処理を行うことで、大腸を観察対象とした場合と同じ作用及び効果を奏することができる。また、胃などの袋状の組織を観察対象にした場合も、大腸を観察対象とした場合と同じ作用及び効果を奏することができる。   The observation target may be a site other than the large intestine. For example, even when a blood vessel is an observation target, the same operations and effects as when the large intestine is the observation target can be achieved by performing the processing by the image processing unit 3 described above. In addition, even when a bag-like tissue such as the stomach is an observation target, the same actions and effects as when the large intestine is the observation target can be achieved.

(ユーザインターフェース(UI)6)
ユーザインターフェース(UI)6は、表示部61と操作部62とを備えている。表示部61は、CRTや液晶ディスプレイなどのモニタで構成されている。操作部62は、キーボードやマウスなどの入力装置で構成されている。
(User interface (UI) 6)
The user interface (UI) 6 includes a display unit 61 and an operation unit 62. The display unit 61 includes a monitor such as a CRT or a liquid crystal display. The operation unit 62 includes an input device such as a keyboard and a mouse.

画像処理部3と画像生成部4と表示制御部5とはそれぞれ、CPU、GPU、又はASICなどの図示しない処理装置と、ROM、RAM、又はHDDなどの図示しない記憶装置とによって構成されていても良い。記憶装置には、画像処理部3の機能を実行するための画像処理プログラムが記憶されている。画像処理プログラムには、観察対象抽出部31の機能を実行するための観察対象抽出プログラムと、輪郭抽出部32の機能を実行するための輪郭抽出プログラムと、病変部抽出部33の機能を実行するための病変部抽出プログラムと、推定部34の機能を実行するための推定プログラムと、隆起レベル算出部35の機能を実行するための隆起レベル算出プログラムと、変換部36の機能を実行するための変換プログラムとが含まれている。また記憶装置には、画像生成部4の機能を実行するための画像生成プログラムが記憶されている。また記憶装置には、表示制御部5の機能を実行するための表示制御プログラムが記憶されている。CPUなどの処理装置が、記憶装置に記憶されている各プログラムを実行することで、各部の機能が実行される。   Each of the image processing unit 3, the image generation unit 4, and the display control unit 5 includes a processing device (not shown) such as a CPU, GPU, or ASIC, and a storage device (not shown) such as a ROM, RAM, or HDD. Also good. The storage device stores an image processing program for executing the functions of the image processing unit 3. The image processing program executes the observation target extraction program for executing the function of the observation target extraction unit 31, the contour extraction program for executing the function of the contour extraction unit 32, and the function of the lesion extraction unit 33. For executing the function of the estimation unit 34, the estimation program for executing the function of the estimation unit 34, the elevation level calculation program for executing the function of the elevation level calculation unit 35, and the function of the conversion unit 36 A conversion program is included. The storage device stores an image generation program for executing the function of the image generation unit 4. The storage device stores a display control program for executing the functions of the display control unit 5. A processing device such as a CPU executes each program stored in the storage device, so that the function of each unit is executed.

(動作)
図8を参照して、医用画像処理装置1による一連の動作について説明する。観察対象は大腸である。例えば被検体に造影剤を投与し、大腸内に炭酸ガスを注入する。医用画像撮影装置90としてのX線CT装置が被検体を撮影することで、大腸を含む撮影領域を表すボリュームデータを生成する。
(Operation)
A series of operations performed by the medical image processing apparatus 1 will be described with reference to FIG. The observation object is the large intestine. For example, a contrast medium is administered to a subject, and carbon dioxide is injected into the large intestine. The X-ray CT apparatus as the medical image capturing apparatus 90 captures the subject, thereby generating volume data representing an imaging region including the large intestine.

(ステップS01)
医用画像処理装置1は、大腸を含む撮影領域を表すボリュームデータを医用画像撮影装置90から取得する。画像記憶部2は、ボリュームデータを記憶する。
(Step S01)
The medical image processing apparatus 1 acquires volume data representing an imaging region including the large intestine from the medical image imaging apparatus 90. The image storage unit 2 stores volume data.

(ステップS02)
観察対象抽出部31は、ボリュームデータを画像記憶部2から読み込み、セグメンテーション処理を実行することで、そのボリュームデータから大腸を表すボリュームデータを抽出する。
(Step S02)
The observation target extraction unit 31 reads volume data from the image storage unit 2 and executes segmentation processing to extract volume data representing the large intestine from the volume data.

(ステップS03)
輪郭抽出部32は、大腸を表すボリュームデータに基づいて、大腸の内壁の輪郭(第1の輪郭)を求める。
(Step S03)
The contour extraction unit 32 obtains the contour of the inner wall of the large intestine (first contour) based on the volume data representing the large intestine.

(ステップS04)
病変部抽出部33は、大腸壁の内部の画素値を求める。例えば図2(a)に示すように、病変部抽出部33は、内壁の輪郭10(第1の輪郭)から外壁の輪郭11に向かう方向に、1ピクセル分の距離、輪郭10を平行移動させる。病変部抽出部33は、移動後の輪郭10を検索線13として定義する。病変部抽出部33は、検索線13上における各画素の画素値(CT値)を求める。
(Step S04)
The lesion part extraction part 33 calculates | requires the pixel value inside a colon wall. For example, as illustrated in FIG. 2A, the lesion extraction unit 33 translates the contour 10 by a distance of one pixel in a direction from the inner wall contour 10 (first contour) toward the outer wall contour 11. . The lesion extraction unit 33 defines the moved contour 10 as the search line 13. The lesion extraction unit 33 obtains a pixel value (CT value) of each pixel on the search line 13.

(ステップS05)
病変部抽出部33は、画素値が所定範囲内の値に含まれる画素を、腫瘍に含まれる画素であると判定する。これにより、病変部抽出部33は、検索線13上における腫瘍の位置を求める。
(Step S05)
The lesion extraction unit 33 determines that a pixel whose pixel value is included in a value within a predetermined range is a pixel included in the tumor. Thereby, the lesion part extraction part 33 calculates | requires the position of the tumor on the search line 13. FIG.

(ステップS06)
推定部34は、大腸の正常な内壁の輪郭を求める。例えば図2(a)、(b)に示すように、推定部34は、検索線13において腫瘍12が存在している範囲を除く。推定部34は、腫瘍12の一方側に延びる検索線13の端点Aと、腫瘍12の他方側に延びる検索線13の端点Bとを、直線で結ぶことで、連結線13Aを求める。そして図2(b)に示すように、推定部34は、外壁の輪郭11から内壁の輪郭10に向かう方向に、1ピクセル分の距離、連結線13Aを平行移動させる。図2(c)に示すように、推定部34は、移動後の輪郭を、正常な内膜の輪郭13Bとして定義する。
(Step S06)
The estimation unit 34 obtains the outline of the normal inner wall of the large intestine. For example, as illustrated in FIGS. 2A and 2B, the estimation unit 34 excludes a range where the tumor 12 exists in the search line 13. The estimation unit 34 obtains the connecting line 13A by connecting the end point A of the search line 13 extending to one side of the tumor 12 and the end point B of the search line 13 extending to the other side of the tumor 12 by a straight line. 2B, the estimation unit 34 translates the connecting line 13A by a distance of one pixel in the direction from the outer wall contour 11 toward the inner wall contour 10. As shown in FIG. 2C, the estimation unit 34 defines the contour after movement as a normal intimal contour 13B.

(ステップS07)
隆起レベル算出部35は、内壁の輪郭10(第1の輪郭)と、推定された輪郭13B(第2の輪郭)とに基づいて、腫瘍の凹凸の程度(隆起レベル)を求める。例えば図4に示すように、隆起レベル算出部35は、窪み部15における腫瘍の大きさ(長さL1)と、腫瘍の方向(マイナス方向)とを求める。また、隆起レベル算出部35は、突起部16における腫瘍の大きさ(長さL2)と、腫瘍の方向(プラス方向)とを求める。隆起レベル算出部35は、腫瘍の位置を示す位置情報、腫瘍の大きさ(長さ)を示す長さ情報と、腫瘍の方向を示す方向情報とを含む隆起レベル情報を、腫瘍ごとに生成する。
(Step S07)
The bulge level calculation unit 35 obtains the degree of tumor unevenness (bulge level) based on the inner wall contour 10 (first contour) and the estimated contour 13B (second contour). For example, as shown in FIG. 4, the ridge level calculation unit 35 obtains the size (length L1) of the tumor in the depression 15 and the direction of the tumor (minus direction). Further, the bulge level calculation unit 35 obtains the size (length L2) of the tumor in the protrusion 16 and the direction of the tumor (plus direction). The ridge level calculation unit 35 generates ridge level information including position information indicating the position of the tumor, length information indicating the size (length) of the tumor, and direction information indicating the direction of the tumor for each tumor. .

(ステップS08)
変換部36は、条件記憶部7に記憶されているルックアップテーブルを参照して、隆起レベル情報が示す腫瘍の大きさと腫瘍の方向とに基づいて、腫瘍の凹凸の程度に応じた色を、腫瘍ごとに決定する。このように変換部36は、腫瘍の凹凸の程度を色に変換する。変換部36は、腫瘍の位置情報と、腫瘍の凹凸の程度に応じた色を示す色情報とを含むカラーデータを生成する。
(Step S08)
The conversion unit 36 refers to the look-up table stored in the condition storage unit 7, and based on the tumor size and the direction of the tumor indicated by the uplift level information, the color corresponding to the degree of the unevenness of the tumor, Determine for each tumor. In this way, the conversion unit 36 converts the degree of unevenness of the tumor into a color. The conversion unit 36 generates color data including tumor position information and color information indicating a color corresponding to the degree of unevenness of the tumor.

(ステップS09)
画像生成部4は、画像記憶部2からボリュームデータを読み込み、ボリュームデータに基づいて展開画像データ又は仮想内視鏡画像データを生成する。
(Step S09)
The image generation unit 4 reads volume data from the image storage unit 2 and generates developed image data or virtual endoscopic image data based on the volume data.

(ステップS10)
表示制御部5は、カラーデータが示す色を、展開画像又は仮想内視鏡画像においてカラーデータが示す位置に着色する。表示制御部5は、腫瘍の凹凸の程度に応じた色が付けられた展開画像又は仮想内視鏡画像を、表示部61に表示させる。
(Step S10)
The display control unit 5 colors the color indicated by the color data at a position indicated by the color data in the developed image or virtual endoscopic image. The display control unit 5 causes the display unit 61 to display a developed image or a virtual endoscopic image colored according to the degree of unevenness of the tumor.

以上の処理によると、腫瘍の凹凸の程度(隆起レベル)に応じた色が、展開画像又は仮想内視鏡画像などの画像に表される。操作者は画像に表示された色を参照することで、腫瘍の凹凸の程度を把握することが可能となる。そのことにより、腫瘍の種類が非隆起型であっても、操作者は、腫瘍の有無及び腫瘍の種類を把握することが可能となる。   According to the above processing, a color corresponding to the degree of unevenness (protrusion level) of the tumor is represented in an image such as a developed image or a virtual endoscopic image. The operator can grasp the degree of unevenness of the tumor by referring to the color displayed in the image. Thereby, even if the type of tumor is a non-protruding type, the operator can grasp the presence or absence of the tumor and the type of tumor.

ステップS02からステップS08までの処理とステップS09の処理とは、順番が逆であっても良い。すなわち、ステップS09の処理は、ステップS02の処理より前に実行されていても良いし、ステップS02からステップS08までの処理の途中で実行されていても良い。   The order of the process from step S02 to step S08 and the process of step S09 may be reversed. That is, the process of step S09 may be executed before the process of step S02, or may be executed in the middle of the process from step S02 to step S08.

上述した実施形態及び変形例では、X線CT装置を用いたCTコロノグラフィーを例にして説明している。別の例として、MRI装置を用いたMRコロノグラフィーを用いても良い。   In the above-described embodiments and modifications, CT colonography using an X-ray CT apparatus is described as an example. As another example, MR colonography using an MRI apparatus may be used.

1 医用画像処理装置
2 画像記憶部
3 画像処理部
4 画像生成部
5 表示制御部
6 ユーザインターフェース(UI)
7 条件記憶部
31 観察対象抽出部
32 輪郭抽出部
33 病変部抽出部
34 推定部
35 隆起レベル算出部
36 変換部
DESCRIPTION OF SYMBOLS 1 Medical image processing apparatus 2 Image storage part 3 Image processing part 4 Image generation part 5 Display control part 6 User interface (UI)
7 Condition Storage Unit 31 Observation Object Extraction Unit 32 Contour Extraction Unit 33 Lesion Part Extraction Unit 34 Estimation Unit 35 Uplift Level Calculation Unit 36 Conversion Unit

Claims (7)

管腔体を表すボリュームデータを受けて、前記ボリュームデータに基づいて前記管腔体の内壁の第1の輪郭を求める輪郭抽出手段と、
前記第1の輪郭を基準にして前記内壁よりも外側の領域における画素の画素値に基づいて、病変部の位置を求める病変部抽出手段と、
前記病変部の位置と前記第1の輪郭とに基づいて、前記病変部が存在しない場合における前記内壁の第2の輪郭を推定する推定手段と、
前記第1の輪郭と前記第2の輪郭とに基づいて、前記病変部の凹凸の程度を求める隆起レベル算出手段と、
前記ボリュームデータに基づいて前記管腔体を表す画像データを生成する画像生成手段と、
前記凹凸の程度を示す情報と前記画像データに基づく画像とを表示手段に表示させる表示制御手段とを備え、
前記病変部抽出手段は、前記内壁の位置から前記外側の領域に向けて所定距離、前記第1の輪郭を平行移動させ、前記平行移動後の前記第1の輪郭上の画素の画素値に基づいて、前記病変部が存在する箇所を求める医用画像処理装置。
Contour extracting means for receiving volume data representing a luminal body and obtaining a first contour of the inner wall of the luminal body based on the volume data;
A lesion portion extraction means for obtaining a position of a lesion portion based on a pixel value of a pixel in a region outside the inner wall with respect to the first contour;
Estimating means for estimating a second contour of the inner wall when the lesion does not exist based on the position of the lesion and the first contour;
Based on the first contour and the second contour, a bulge level calculating means for determining the degree of unevenness of the lesioned part,
Image generating means for generating image data representing the lumen body based on the volume data;
Display control means for causing the display means to display information indicating the degree of unevenness and an image based on the image data ;
The lesion portion extraction means translates the first contour from the position of the inner wall toward the outer region by a predetermined distance, and is based on pixel values of pixels on the first contour after the translation. A medical image processing apparatus for obtaining a location where the lesion is present .
前記推定手段は、前記平行移動後の前記第1の輪郭から前記病変部が存在する箇所を除き、前記病変部の箇所が除かれた前記第1の輪郭を繋げ、前記繋がれた前記第1の輪郭を、前記平行移動前の位置に戻すことで前記第2の輪郭を求める請求項に記載の医用画像処理装置。 The estimation means connects the first contours from which the lesioned part has been removed except for the part where the lesioned part exists from the first contour after the parallel movement, and connects the first contours. contour, medical image processing apparatus according to claim 1 for obtaining a second contour by returning to the position before the translation. 前記隆起レベル算出手段は、前記第1の輪郭と前記第2の輪郭との差がある箇所を求め、前記差を前記病変部の凹凸の程度として求める請求項1または請求項2に記載の医用画像処理装置。 Said raised level calculating means, the difference between seeking a place where there is the first contour and the second contour, medical according to claim 1 or claim 2 obtains the difference as the degree of unevenness of the lesion Image processing device. 前記隆起レベル算出手段は、前記第1の輪郭と前記第2の輪郭との間の距離を求め、前記第2の輪郭を基準にして前記第1の輪郭が存在する方向を求め、前記距離と前記方向とを前記病変部の凹凸の程度とする請求項に記載の医用画像処理装置。 The ridge level calculating means obtains a distance between the first contour and the second contour, obtains a direction in which the first contour exists with reference to the second contour, The medical image processing apparatus according to claim 3 , wherein the direction is a degree of unevenness of the lesioned part. 前記凹凸の程度を色に変換する変換手段を更に有し、
前記表示制御手段は、前記変換された色を前記凹凸の程度を示す情報として、前記画像に重ねて前記表示手段に表示させる請求項1から請求項のいずれかに記載の医用画像処理装置。
Further comprising conversion means for converting the degree of unevenness into a color;
Wherein the display control unit, the converted color as the information indicating the degree of the unevenness, the medical image processing apparatus according to any one of claims 1 to 4 to be displayed on the display unit superposed on the image.
前記距離と前記方向とに基づいて、前記凹凸の程度を、前記病変部の形状の種類である隆起型、平面型、又は陥凹型のいずれかに対応した色に変換する変換手段を更に有し、
前記表示制御手段は、前記変換された色を前記凹凸の程度を示す情報として、前記画像に重ねて前記表示手段に表示させる請求項に記載の医用画像処理装置。
Based on the distance and the direction, the image processing apparatus further includes conversion means for converting the degree of the unevenness into a color corresponding to any one of a raised type, a planar type, and a recessed type that is a type of the shape of the lesioned part. ,
The medical image processing apparatus according to claim 4 , wherein the display control unit causes the display unit to display the converted color as information indicating the degree of unevenness on the display unit.
コンピュータに、
管腔体を表すボリュームデータを受けて、前記ボリュームデータに基づいて前記管腔体の内壁の第1の輪郭を求める輪郭抽出機能と、
前記第1の輪郭を基準にして前記内壁よりも外側の領域における画素の画素値に基づいて、病変部の位置を求める病変部抽出機能と、
前記病変部の位置と前記第1の輪郭とに基づいて、前記病変部が存在しない場合における前記内壁の第2の輪郭を推定する推定機能と、
前記第1の輪郭と前記第2の輪郭とに基づいて、前記病変部の凹凸の程度を求める隆起レベル算出機能と、
前記ボリュームデータに基づいて前記管腔体を表す画像データを生成する画像生成機能と、
前記凹凸の程度を示す情報と前記画像データに基づく画像とを表示装置に表示させる表示制御機能と、
を実行させ
前記内壁の位置から前記外側の領域に向けて所定距離、前記第1の輪郭を平行移動させ、前記平行移動後の前記第1の輪郭上の画素の画素値に基づいて、前記病変部が存在する箇所を求めることを特徴とする医用画像処理プログラム。
On the computer,
A contour extraction function that receives volume data representing a lumen body and obtains a first contour of the inner wall of the lumen body based on the volume data;
A lesion extraction function for determining a position of a lesion based on a pixel value of a pixel in a region outside the inner wall with respect to the first contour;
Based on the position of the lesioned part and the first contour, an estimation function for estimating the second contour of the inner wall when the lesioned part does not exist;
Based on the first contour and the second contour, a raised level calculation function for determining the degree of unevenness of the lesion,
An image generation function for generating image data representing the lumen body based on the volume data;
A display control function for causing the display device to display information indicating the degree of unevenness and an image based on the image data;
Was executed,
The first contour is translated by a predetermined distance from the position of the inner wall toward the outer region, and the lesioned part is present based on the pixel value of the pixel on the first contour after the translation A medical image processing program characterized by obtaining a location to be performed .
JP2010031971A 2010-02-17 2010-02-17 Medical image processing apparatus and medical image processing program Expired - Fee Related JP5595750B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010031971A JP5595750B2 (en) 2010-02-17 2010-02-17 Medical image processing apparatus and medical image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010031971A JP5595750B2 (en) 2010-02-17 2010-02-17 Medical image processing apparatus and medical image processing program

Publications (2)

Publication Number Publication Date
JP2011167263A JP2011167263A (en) 2011-09-01
JP5595750B2 true JP5595750B2 (en) 2014-09-24

Family

ID=44682017

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010031971A Expired - Fee Related JP5595750B2 (en) 2010-02-17 2010-02-17 Medical image processing apparatus and medical image processing program

Country Status (1)

Country Link
JP (1) JP5595750B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106909770B (en) * 2015-12-21 2020-11-03 佳能株式会社 Medical image processing apparatus, control method thereof, and storage medium
WO2021081836A1 (en) * 2019-10-30 2021-05-06 未艾医疗技术(深圳)有限公司 Gastric tumor recognition method based on vrds 4d medical image, and related product

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006346177A (en) * 2005-06-16 2006-12-28 Toshiba Corp Image diagnostic apparatus, image processor, and three-dimensional image data display method
JP4686279B2 (en) * 2005-07-06 2011-05-25 株式会社東芝 Medical diagnostic apparatus and diagnostic support apparatus
NL1032602C2 (en) * 2006-09-29 2008-04-01 Koninkl Philips Electronics Nv Methods, system and computer program product for detecting protrusion.
JP5001248B2 (en) * 2008-11-21 2012-08-15 株式会社日立メディコ Diagnostic imaging support device

Also Published As

Publication number Publication date
JP2011167263A (en) 2011-09-01

Similar Documents

Publication Publication Date Title
JP4676021B2 (en) Diagnosis support apparatus, diagnosis support program, and diagnosis support method
JP5918548B2 (en) Endoscopic image diagnosis support apparatus, operation method thereof, and endoscopic image diagnosis support program
US9449387B2 (en) Medical image diagnosis apparatus, medical image display apparatus, medical image processing apparatus, and medical image processing program
JP5675227B2 (en) Endoscopic image processing apparatus, operation method, and program
JP5430203B2 (en) Image processing apparatus and image processing method
JP5486432B2 (en) Image processing apparatus, operating method thereof, and program
JP5369078B2 (en) Medical image processing apparatus and method, and program
US20160228075A1 (en) Image processing device, method and recording medium
US9619938B2 (en) Virtual endoscopic image display apparatus, method and program
JP5631453B2 (en) Image processing apparatus and image processing method
JP2007260144A (en) Medical image treatment device and medical image treatment method
US9808145B2 (en) Virtual endoscopic image generation device, method, and medium containing program
JP2011139797A (en) Medical image processor and medical image processing program
JPWO2014038428A1 (en) Image processing apparatus and image processing method
JP5457764B2 (en) Medical image processing device
JP5670145B2 (en) Medical image processing apparatus and control program
JP5624336B2 (en) Medical image processing apparatus and medical image processing program
JP5595750B2 (en) Medical image processing apparatus and medical image processing program
WO2019087969A1 (en) Endoscope system, reporting method, and program
JP5554028B2 (en) Medical image processing apparatus, medical image processing program, and X-ray CT apparatus
JP4981335B2 (en) Medical image processing apparatus and medical image processing method
KR101014562B1 (en) Method of forming virtual endoscope image of uterus
US9542772B2 (en) Virtual endoscope image-generating device, method, and program
JP2011152323A (en) Medical image processing device, and medical image processing program
JP6357049B2 (en) Image processing apparatus, medical image diagnostic system, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140708

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140806

R150 Certificate of patent or registration of utility model

Ref document number: 5595750

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees