JP5683831B2 - Medical image processing apparatus and medical image processing program - Google Patents

Medical image processing apparatus and medical image processing program Download PDF

Info

Publication number
JP5683831B2
JP5683831B2 JP2010093063A JP2010093063A JP5683831B2 JP 5683831 B2 JP5683831 B2 JP 5683831B2 JP 2010093063 A JP2010093063 A JP 2010093063A JP 2010093063 A JP2010093063 A JP 2010093063A JP 5683831 B2 JP5683831 B2 JP 5683831B2
Authority
JP
Japan
Prior art keywords
virtual
unit
deployment
medical image
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010093063A
Other languages
Japanese (ja)
Other versions
JP2011218082A (en
Inventor
将俊 関
将俊 関
賢人 若山
賢人 若山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Toshiba Medical Systems Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp, Toshiba Medical Systems Engineering Co Ltd filed Critical Toshiba Corp
Priority to JP2010093063A priority Critical patent/JP5683831B2/en
Publication of JP2011218082A publication Critical patent/JP2011218082A/en
Application granted granted Critical
Publication of JP5683831B2 publication Critical patent/JP5683831B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)

Description

この発明は、管腔体を表す医用画像データを生成する医用画像処理装置、及び医用画像処理プログラムに関する。   The present invention relates to a medical image processing apparatus that generates medical image data representing a luminal body, and a medical image processing program.

X線CT装置やMRI装置などの医用画像撮影装置を用いて被検体を撮影し、その撮影で得られた医用画像データを用いた診断が行われている。大腸や血管などの管腔体を診断するための医用画像としては、例えば仮想内視鏡画像や展開画像などが用いられる(例えば特許文献1)。   A subject is imaged using a medical image imaging apparatus such as an X-ray CT apparatus or an MRI apparatus, and diagnosis using medical image data obtained by the imaging is performed. As a medical image for diagnosing a luminal body such as a large intestine or a blood vessel, for example, a virtual endoscopic image or a developed image is used (for example, Patent Document 1).

仮想内視鏡画像は、大腸や血管などの管腔体の内部の表面(以下、「内壁」と称する場合がある)を3次元的に表す仮想的な内視鏡画像である。仮想内視鏡画像を用いた画像の表示方法は、フライスルーと称されている。フライスルーは、大腸や血管などの管腔体の内壁を、内視鏡と同じ視線で観察する技術である。仮想内視鏡画像を用いることにより、内視鏡検査を模擬的に行うことができる。しかしながら、仮想内視鏡画像は一度に表示できる領域が狭いため、診断を行うためには多数の仮想内視鏡画像を用いる必要がある。   The virtual endoscopic image is a virtual endoscopic image that three-dimensionally represents a surface inside a luminal body such as a large intestine or a blood vessel (hereinafter sometimes referred to as “inner wall”). A method for displaying an image using a virtual endoscopic image is called fly-through. Fly-through is a technique for observing the inner wall of a luminal body such as the large intestine or blood vessel with the same line of sight as an endoscope. By using a virtual endoscopic image, endoscopy can be simulated. However, since a virtual endoscopic image has a narrow area that can be displayed at a time, it is necessary to use a large number of virtual endoscopic images in order to make a diagnosis.

一方、展開画像によると、管腔体の内壁を一覧することができる。展開画像は、管腔体が切り開かれた状態を表す画像である。すなわち、展開画像は、管腔体の内壁が展開された状態を表す画像であり、管腔体の内壁を平面状に表す画像である。展開画像の具体例を図7に示す。図7(a)は、大腸を模式的に示す図である。図7(b)は、展開画像を示す図である。図7(a)に示すように、大腸200の中心線201上に視点202を設定する。視点202から中心線201に直交する方向を視線方向203とする。視点202から視線方向203に仮想光線を放射する(レイトレーシング処理)。視点202の位置を中心線201上で変えて、各位置の視点202から視線方向203に仮想光線を放射することにより、大腸200の内壁を表す画像を生成する。生成された画像を中心線201に平行に切り開くことにより、図7(b)に示す、大腸の内壁を平面状に表す展開画像210を生成する。   On the other hand, according to the developed image, the inner walls of the luminal body can be listed. The developed image is an image representing a state where the lumen body is cut open. That is, the developed image is an image representing a state in which the inner wall of the lumen body is deployed, and is an image representing the inner wall of the lumen body in a planar shape. A specific example of the developed image is shown in FIG. FIG. 7A schematically shows the large intestine. FIG. 7B shows a developed image. As shown in FIG. 7A, the viewpoint 202 is set on the center line 201 of the large intestine 200. A direction perpendicular to the center line 201 from the viewpoint 202 is a line-of-sight direction 203. A virtual ray is emitted from the viewpoint 202 in the line-of-sight direction 203 (ray tracing process). An image representing the inner wall of the large intestine 200 is generated by changing the position of the viewpoint 202 on the center line 201 and radiating virtual rays from the viewpoint 202 at each position in the line-of-sight direction 203. By cutting out the generated image parallel to the center line 201, a developed image 210 that represents the inner wall of the large intestine in a planar shape as shown in FIG. 7B is generated.

図8を参照して、観察対象の管腔体が屈曲している場合について説明する。図8は、屈曲した管腔体を模式的に示す図である。図8に示すように、観察対象の大腸220が屈曲している場合に、大腸220に沿って屈曲した中心線221を設定し、中心線221に直交する方向を視線方向222とする。そしてレイトレーシング処理を実行することにより、大腸220の内壁を表す画像を生成する。すなわち、中心線221上に設定された各視点から視線方向222に仮想光線を放射することにより、大腸220の内壁を表す画像を生成する。屈曲している実際の臓器に沿って中心線221を設定することにより、屈曲している臓器の内壁を平面状に表す展開画像が得られる。   With reference to FIG. 8, the case where the luminal body to be observed is bent will be described. FIG. 8 is a diagram schematically showing a bent lumen body. As shown in FIG. 8, when the large intestine 220 to be observed is bent, a center line 221 that is bent along the large intestine 220 is set, and a direction perpendicular to the center line 221 is set as a line-of-sight direction 222. Then, an image representing the inner wall of the large intestine 220 is generated by executing the ray tracing process. In other words, an image representing the inner wall of the large intestine 220 is generated by emitting virtual rays in the line-of-sight direction 222 from each viewpoint set on the center line 221. By setting the center line 221 along the actual bent organ, a developed image representing the inner wall of the bent organ in a planar shape can be obtained.

特許第4130428号Japanese Patent No. 4130428

展開画像によると管腔体の内壁を一覧することができるため、管腔体の広い領域を短時間で見渡すことができる。しかしながら、従来技術に係る展開画像の生成方法では、管腔体の曲がり方や内壁の形状によっては観察しにくい箇所が発生する場合がある。例えば図8に示すように、大腸220のひだの裏側の領域223は、視線方向222から見て大腸220のひだの陰に隠れてしまう。そのため、ひだの裏側の領域223には仮想光線が照射されない。その結果、ひだの裏側の領域223は展開画像に表されないことになる。このように従来技術に係る方法では、ひだ等の突起物の裏側の領域が観察しにくい。   According to the developed image, the inner wall of the luminal body can be listed, so that a wide area of the luminal body can be looked over in a short time. However, in the developed image generation method according to the related art, a portion that is difficult to observe may occur depending on the bending method of the lumen body and the shape of the inner wall. For example, as shown in FIG. 8, the region 223 on the back side of the fold of the large intestine 220 is hidden behind the fold of the large intestine 220 when viewed from the line-of-sight direction 222. For this reason, the region 223 on the back side of the fold is not irradiated with a virtual ray. As a result, the area 223 on the back side of the fold is not represented in the developed image. Thus, in the method according to the prior art, it is difficult to observe the region on the back side of the protrusion such as a fold.

展開画像では観察しにくい箇所を観察するために、仮想内視鏡画像を併用することがある。しかしながら、仮想内視鏡画像の表示には一般的に時間がかかってしまい、管腔体の広い領域を短時間で観察することは困難である。   In order to observe a portion that is difficult to observe in the developed image, a virtual endoscopic image may be used together. However, it generally takes time to display a virtual endoscopic image, and it is difficult to observe a wide region of the lumen body in a short time.

この発明は上記の問題を解決するものであり、管腔体の内面の陰になっている箇所を表す展開画像を生成することが可能な医用画像処理装置、及び医用画像処理プログラムを提供することを目的とする。   The present invention solves the above-described problem, and provides a medical image processing apparatus and a medical image processing program capable of generating a developed image representing a location that is behind the inner surface of a lumen body. With the goal.

請求項1に記載の発明は、医用画像撮影装置によって生成されて管腔体を表すボリュームデータを受けて、前記ボリュームデータに表された前記管腔体が展開された平面状の仮想展開体を生成する展開手段と、前記仮想展開体を複数の単位展開体に分割し、所定の軸を回転軸として前記複数の単位展開体の向きを傾ける傾斜手段と、前記管腔体の内部に仮想視点を設定し、傾けられた状態の前記複数の単位展開体に対して前記仮想視点から仮想光線を照射してレイトレーシング処理を行うことにより、前記管腔体の内部の表面を表す展開画像データを生成する画像生成手段と、を有する医用画像処理装置である。
請求項に記載の発明は、コンピュータに、医用画像撮影装置によって生成されて管腔体を表すボリュームデータを受けて、前記ボリュームデータに表された前記管腔体が展開された平面状の仮想展開体を生成する展開機能と、前記仮想展開体を複数の単位展開体に分割し、所定の軸を回転軸として前記複数の単位展開体の向きを傾ける傾斜機能と、前記管腔体の内部に仮想視点を設定し、傾けられた状態の前記複数の単位展開体に対して前記仮想視点から仮想光線を照射してレイトレーシング処理を行うことにより、前記管腔体の内部の表面を表す展開画像データを生成する画像生成機能と、を実行させる医用画像処理プログラムである。
According to the first aspect of the present invention, a planar virtual deployment body in which the lumen body represented by the volume data is received by receiving volume data generated by the medical imaging apparatus and representing the lumen body is obtained. A deploying means for generating, an inclining means for dividing the virtual deployable body into a plurality of unit deployable bodies and tilting the directions of the plurality of unit deployable bodies around a predetermined axis as a rotation axis ; and a virtual viewpoint inside the lumen body By developing ray tracing processing by irradiating a virtual ray from the virtual viewpoint to the plurality of unit development bodies in an inclined state, development image data representing the inner surface of the lumen body is obtained. And a medical image processing apparatus.
According to an eighth aspect of the present invention, the computer receives volume data generated by a medical imaging apparatus and representing a luminal body, and is a planar virtual image in which the luminal body represented by the volume data is developed. A deployment function for generating a deployment body, a tilt function for dividing the virtual deployment body into a plurality of unit deployment bodies, and tilting the directions of the plurality of unit deployment bodies around a predetermined axis as a rotation axis, and an interior of the lumen body A virtual viewpoint is set to the plurality of unit developed bodies in a tilted state, and a virtual ray is irradiated from the virtual viewpoint to perform ray tracing processing, thereby developing the inner surface of the lumen body. And a medical image processing program for executing an image generation function for generating image data.

この発明によると、管腔体が切り開かれた状態の仮想展開体を複数の単位展開体に分割し、複数の単位展開体の向きを傾けてレイトレーシング処理を行うことにより、仮想展開体に対して斜めの方向から仮想光線を照射することができる。そのことにより、管腔体の内面の陰になっている箇所に仮想光線を照射することが可能となる。その結果、内面の陰になっている箇所を表す展開画像データを生成することが可能となる。   According to the present invention, the virtual deployment body in a state where the lumen body is cut open is divided into a plurality of unit deployment bodies, and the ray tracing process is performed by tilting the directions of the plurality of unit deployment bodies. Thus, it is possible to irradiate a virtual ray from an oblique direction. As a result, it is possible to irradiate a virtual ray to a location that is behind the inner surface of the lumen body. As a result, it is possible to generate developed image data that represents a portion that is behind the inner surface.

この発明の実施形態に係る医用画像処理装置を示すブロック図である。1 is a block diagram illustrating a medical image processing apparatus according to an embodiment of the present invention. 管腔体の一部を模式的に示す斜視図である。It is a perspective view which shows a part of lumen body typically. 仮想展開体を模式的に示す斜視図である。It is a perspective view which shows a virtual expansion body typically. 仮想展開体を模式的に示す図である。It is a figure which shows a virtual expansion body typically. 変形例に係る仮想展開体を模式的に示す斜視図である。It is a perspective view which shows typically the virtual expansion body which concerns on a modification. 変形例に係る仮想展開体を模式的に示す図である。It is a figure which shows typically the virtual expansion | deployment body which concerns on a modification. 図7(a)は大腸を模式的に示す図であり、図7(b)は展開画像を示す図である。FIG. 7A is a diagram schematically showing the large intestine, and FIG. 7B is a diagram showing a developed image. 屈曲した管腔体を模式的に示す図である。It is a figure which shows the bent lumen body typically.

図1を参照して、この発明の実施形態に係る医用画像処理装置について説明する。この実施形態に係る医用画像処理装置1には、例えば医用画像撮影装置90が接続されている。   A medical image processing apparatus according to an embodiment of the present invention will be described with reference to FIG. For example, a medical image photographing apparatus 90 is connected to the medical image processing apparatus 1 according to this embodiment.

(医用画像撮影装置90)
医用画像撮影装置90には、X線CT装置やMRI装置などの撮影装置が用いられる。医用画像撮影装置90は、観察対象を含む撮影領域を撮影することにより医用画像データを生成する。例えば医用画像撮影装置90は、3次元の撮影領域を撮影することによりボリュームデータを生成する。観察対象の一例は管腔体である。管腔体は、管状の組織と袋状の組織とを含む。管状の組織の一例は、大腸や血管や気管支である。袋状の組織の一例は、胃である。例えば管状組織を観察対象とした場合、医用画像撮影装置90は、管状組織を含む撮影領域を撮影することにより、管状組織を含む撮影領域を表すボリュームデータを生成する。
(Medical image capturing device 90)
As the medical image capturing apparatus 90, an image capturing apparatus such as an X-ray CT apparatus or an MRI apparatus is used. The medical image photographing device 90 generates medical image data by photographing a photographing region including an observation target. For example, the medical image photographing apparatus 90 generates volume data by photographing a three-dimensional photographing region. An example of an observation object is a luminal body. The lumen body includes a tubular tissue and a bag-shaped tissue. An example of the tubular tissue is the large intestine, blood vessels, and bronchi. An example of a bag-like tissue is the stomach. For example, when the tubular tissue is an observation target, the medical image capturing apparatus 90 generates volume data representing the imaging region including the tubular tissue by capturing the imaging region including the tubular tissue.

例えば医用画像撮影装置90としてのX線CT装置は、3次元の撮影領域を撮影することにより、位置がそれぞれ異なる複数の断面におけるCT画像データを生成する。X線CT装置は、複数のCT画像データを用いてボリュームデータを生成する。管状組織の一例として大腸を観察対象とした場合、X線CT装置は、大腸を含む3次元の撮影領域を撮影することにより大腸を含む撮影領域を表すボリュームデータを生成する。医用画像撮影装置90はボリュームデータを医用画像処理装置1に出力する。以下では、大腸を観察対象の一例として説明する。   For example, an X-ray CT apparatus as the medical image capturing apparatus 90 generates CT image data in a plurality of cross sections having different positions by capturing a three-dimensional capturing region. The X-ray CT apparatus generates volume data using a plurality of CT image data. When the large intestine is an observation target as an example of the tubular tissue, the X-ray CT apparatus generates volume data representing an imaging region including the large intestine by imaging a three-dimensional imaging region including the large intestine. The medical image photographing device 90 outputs the volume data to the medical image processing device 1. Hereinafter, the large intestine will be described as an example of an observation target.

(医用画像処理装置1)
医用画像処理装置1は、画像記憶部2と、特定部3と、芯線算出部4と、展開部5と、傾斜部6と、画像生成部7と、表示制御部8と、ユーザインターフェース(UI)9とを備えている。
(Medical image processing apparatus 1)
The medical image processing apparatus 1 includes an image storage unit 2, a specifying unit 3, a core line calculating unit 4, a developing unit 5, a tilting unit 6, an image generating unit 7, a display control unit 8, a user interface (UI). 9).

(画像記憶部2)
画像記憶部2は、医用画像撮影装置90から出力された医用画像データを記憶する。例えば、画像記憶部2は、大腸を含む撮影領域を表すボリュームデータを記憶する。
(Image storage unit 2)
The image storage unit 2 stores medical image data output from the medical image photographing device 90. For example, the image storage unit 2 stores volume data representing an imaging region including the large intestine.

医用画像撮影装置90がボリュームデータを生成せずに、医用画像処理装置1がボリュームデータを生成してもよい。この場合、医用画像撮影装置90は、複数の医用画像データ(例えばCT画像データ)を医用画像処理装置1に出力する。医用画像処理装置1は、医用画像撮影装置90によって生成された複数の医用画像データを受ける。画像記憶部2は、複数の医用画像データを記憶する。画像生成部7は、複数の医用画像データを画像記憶部2から読み込み、複数の医用画像データに基づいてボリュームデータを生成する。画像記憶部2は、画像生成部7によって生成されたボリュームデータを記憶する。   The medical image processing apparatus 1 may generate volume data without the medical image capturing apparatus 90 generating volume data. In this case, the medical image photographing apparatus 90 outputs a plurality of medical image data (for example, CT image data) to the medical image processing apparatus 1. The medical image processing apparatus 1 receives a plurality of medical image data generated by the medical image photographing apparatus 90. The image storage unit 2 stores a plurality of medical image data. The image generation unit 7 reads a plurality of medical image data from the image storage unit 2 and generates volume data based on the plurality of medical image data. The image storage unit 2 stores the volume data generated by the image generation unit 7.

(特定部3)
特定部3は、ボリュームデータを画像記憶部2から読み込み、CT値などの画素値に基づいてボリュームデータから管腔体を特定する。特定部3によって特定された管腔体を、図2に示す。図2は、管腔体の一部を模式的に示す斜視図である。大腸を観察対象とする場合、図2に示すように、特定部3は、管腔体としての大腸100をボリュームデータから特定する。
(Specific part 3)
The specifying unit 3 reads volume data from the image storage unit 2 and specifies a lumen body from the volume data based on a pixel value such as a CT value. The lumen body specified by the specifying unit 3 is shown in FIG. FIG. 2 is a perspective view schematically showing a part of the lumen body. When the large intestine is to be observed, as illustrated in FIG. 2, the specifying unit 3 specifies the large intestine 100 as a luminal body from the volume data.

(芯線算出部4)
芯線算出部4は、管腔体の芯線の位置を求める。大腸を観察対象とする場合、芯線算出部4は、大腸100の長手方向に沿って大腸100の中心を通る線を芯線として求める。
(Core wire calculation unit 4)
The core wire calculation unit 4 obtains the position of the core wire of the lumen body. When the large intestine is an observation target, the core wire calculation unit 4 obtains a line passing through the center of the large intestine 100 along the longitudinal direction of the large intestine 100 as the core.

(展開部5)
展開部5は、芯線に沿って管腔体を切り開くことにより、管腔体の内部の表面(内壁)が展開された平面状の仮想展開体を生成する。大腸を観察対象とする場合、図2に示すように、展開部5は大腸100を切り開くことにより、大腸100の内部の表面(内壁111)が展開された平面状の仮想展開体110を生成する。図2に示す例では、展開部5は、大腸100の一部の領域を切り開くことにより平面状の仮想展開体110を生成する。展開部5は、大腸100の全体の領域を切り開くことにより、全体の領域の仮想展開体を生成してもよいし、大腸100の一部の領域を切り開くことにより、一部の領域の仮想展開体を生成してもよい。例えば操作者が、操作部11を用いて領域を指定してもよい。操作者によって領域が指定されると、領域の位置を示す座標情報がユーザインターフェース(UI)9から展開部5に出力される。展開部5は、操作者によって指定された領域を切り開くことにより、仮想展開体を生成する。
(Development part 5)
The deployment unit 5 generates a planar virtual deployment body in which the inner surface (inner wall) of the lumen body is developed by cutting the lumen body along the core line. When the large intestine is an observation target, as illustrated in FIG. 2, the development unit 5 cuts the large intestine 100 to generate a planar virtual development body 110 in which the inner surface (inner wall 111) of the large intestine 100 is developed. . In the example illustrated in FIG. 2, the developing unit 5 generates a planar virtual deployable body 110 by opening a part of the large intestine 100. The expansion unit 5 may generate a virtual expanded body of the entire region by cutting out the entire region of the large intestine 100, or by virtually expanding a partial region of the large intestine 100 by cutting out a partial region of the large intestine 100. You may generate a body. For example, the operator may specify an area using the operation unit 11. When an area is designated by the operator, coordinate information indicating the position of the area is output from the user interface (UI) 9 to the developing unit 5. The expansion unit 5 generates a virtual expansion body by opening an area specified by the operator.

一例として、仮想展開体は、管腔体の壁厚と同じ厚さを有する。例えば仮想展開体110は、大腸100の内壁111と外壁との間の厚さ(壁厚)と、同じ厚さを有する。   As an example, the virtual deployment body has the same thickness as the wall thickness of the lumen body. For example, the virtual deployment body 110 has the same thickness as the thickness (wall thickness) between the inner wall 111 and the outer wall of the large intestine 100.

(傾斜部6)
傾斜部6は、仮想展開体を複数の単位展開体に分割し、複数の単位展開体の向きを芯線に対して傾ける。例えば傾斜部6を、管腔体の芯線に略直交する分割面に沿って仮想展開体を複数の単位展開体に分割し、複数の単位展開体の向きを芯線に対して傾ける。
(Inclined part 6)
The inclination part 6 divides | segments a virtual expansion body into a some unit expansion body, and inclines the direction of a some unit expansion body with respect to a core wire. For example, the inclined portion 6 divides the virtual deployment body into a plurality of unit deployment bodies along a division plane substantially orthogonal to the core line of the lumen body, and tilts the directions of the plurality of unit deployment bodies with respect to the core line.

図3及び図4を参照して、傾斜部6の処理について説明する。図3は、仮想展開体を模式的に示す斜視図である。図4は、仮想展開体を模式的に示す図であり、芯線に沿った方向と壁厚の方向とに直交する方向から見た図である。図4(a)は、単位展開体を傾ける前の状態を示す図である。図4(b)は、単位展開体を傾けた後の状態を示す図である。   With reference to FIG.3 and FIG.4, the process of the inclination part 6 is demonstrated. FIG. 3 is a perspective view schematically showing the virtual deployment body. FIG. 4 is a diagram schematically illustrating the virtual deployment body, as viewed from a direction orthogonal to the direction along the core line and the direction of the wall thickness. Fig.4 (a) is a figure which shows the state before inclining a unit expansion body. FIG.4 (b) is a figure which shows the state after inclining a unit expansion body.

図3及び図4に示す仮想展開体110は、展開部5によって生成された仮想展開体を模式的に示すものである。一例として、3次元の直交座標系によって座標を規定する。この直交座標系は、X方向の軸(X軸)、Y方向の軸(Y軸)、及びZ方向の軸(Z軸)を備える。大腸100の芯線101に沿った方向をY方向とし、仮想展開体110の厚さ(壁厚)方向をX方向とする。例えば図3及び図4(a)に示すように、傾斜部6は、大腸100の芯線の方向(Y方向)に略直交する分割面に沿って、所定間隔の距離をおいて仮想展開体110を分割することにより、複数の単位展開体120を得る。   The virtual deployment body 110 illustrated in FIGS. 3 and 4 schematically illustrates the virtual deployment body generated by the deployment unit 5. As an example, coordinates are defined by a three-dimensional orthogonal coordinate system. This orthogonal coordinate system includes an X-direction axis (X-axis), a Y-direction axis (Y-axis), and a Z-direction axis (Z-axis). The direction along the core line 101 of the large intestine 100 is defined as the Y direction, and the thickness (wall thickness) direction of the virtual deployment body 110 is defined as the X direction. For example, as shown in FIG. 3 and FIG. 4A, the inclined portion 6 has a virtual deployable body 110 at a predetermined interval along a dividing plane substantially orthogonal to the direction of the core of the large intestine 100 (Y direction). Is divided into a plurality of unit expansion bodies 120.

所定間隔の距離の値は、図示しない記憶部に予め記憶されている。例えば操作者が、所定間隔の距離を操作部11によって入力してもよい。操作部11から入力された所定間隔の距離の値は、図示しない記憶部に記憶される。傾斜部6は、記憶部に記憶されている所定間隔の距離に従って、仮想展開体110を複数の単位展開体120に分割する。   The distance value at the predetermined interval is stored in advance in a storage unit (not shown). For example, the operator may input a distance at a predetermined interval through the operation unit 11. The distance value at a predetermined interval input from the operation unit 11 is stored in a storage unit (not shown). The inclined unit 6 divides the virtual deployment body 110 into a plurality of unit deployment bodies 120 according to a distance of a predetermined interval stored in the storage unit.

なお、傾斜部6は、芯線101の方向(Y方向)に直交する面に対して傾斜する分割面に沿って、仮想展開体110を複数の単位展開体120に分割してもよい。例えば操作者が、操作部11を用いて分割面の角度を入力する。傾斜部6は、操作部11から入力された角度に従って分割面を設定し、仮想展開体110を複数の単位展開体120に分割する。   Note that the inclined portion 6 may divide the virtual deployment body 110 into a plurality of unit deployment bodies 120 along a division plane that is inclined with respect to a plane orthogonal to the direction of the core wire 101 (Y direction). For example, the operator inputs the angle of the division plane using the operation unit 11. The inclined unit 6 sets a division plane according to the angle input from the operation unit 11 and divides the virtual deployment body 110 into a plurality of unit deployment bodies 120.

傾斜部6は、複数の単位展開体120の向きを芯線101に対して傾ける。例えば図4(b)に示すように、傾斜部6は、芯線101に沿った方向(Y方向)と壁厚方向(X方向)とに直交するZ方向を回転軸とし、予め設定された傾斜方向に向けて予め設定された傾斜角度の位置に、複数の単位展開体120を傾ける。これにより、複数の単位展開体120は、傾けられる前の仮想展開体110の壁厚方向(X方向)に対して、傾いた状態となる。   The inclined portion 6 inclines the directions of the plurality of unit deployment bodies 120 with respect to the core wire 101. For example, as shown in FIG. 4B, the inclined portion 6 has a preset inclination with the Z direction orthogonal to the direction along the core wire 101 (Y direction) and the wall thickness direction (X direction) as the rotation axis. The plurality of unit deploying bodies 120 are tilted to the position of the tilt angle set in advance in the direction. As a result, the plurality of unit deployment bodies 120 are inclined with respect to the wall thickness direction (X direction) of the virtual deployment body 110 before being tilted.

傾斜方向を示す情報と傾斜角度の値とは、図示しない記憶部に予め記憶されている。例えば操作者が、傾斜方向を示す情報と傾斜角度の値とを操作部11を用いて入力してもよい。操作者によって入力された傾斜方向を示す情報と傾斜角度の値とは、図示しない記憶部に記憶される。傾斜部6は、記憶部に記憶されている傾斜方向を示す情報と傾斜角度の値とに従って、複数の単位展開体120を傾ける。   Information indicating the inclination direction and the value of the inclination angle are stored in advance in a storage unit (not shown). For example, the operator may input information indicating the tilt direction and the value of the tilt angle using the operation unit 11. Information indicating the tilt direction and the value of the tilt angle input by the operator are stored in a storage unit (not shown). The inclination part 6 inclines the several unit expansion body 120 according to the information which shows the inclination direction memorize | stored in the memory | storage part, and the value of an inclination angle.

(画像生成部7)
画像生成部7は、画像記憶部2からボリュームデータを読み込み、管腔体の内部の表面(内壁)を平面状に表す展開画像データをボリュームデータに基づいて生成する。例えば画像生成部7は、管腔体の内部に仮想視点を設定する。画像生成部7は、仮想視点から仮想光線を照射してレイトレーシング処理を行う。画像生成部7はレイトレーシング処理を行うことにより、管腔体の内壁を平面状に表す展開画像データを生成する。画像生成部7は、展開画像データを表示制御部8に出力する。
(Image generation unit 7)
The image generation unit 7 reads volume data from the image storage unit 2 and generates developed image data that represents the inner surface (inner wall) of the lumen body in a planar shape based on the volume data. For example, the image generation unit 7 sets a virtual viewpoint inside the lumen body. The image generation unit 7 performs ray tracing processing by irradiating a virtual ray from a virtual viewpoint. The image generation unit 7 generates developed image data representing the inner wall of the lumen body in a planar shape by performing ray tracing processing. The image generation unit 7 outputs the developed image data to the display control unit 8.

例えば画像生成部7は、芯線101上に仮想視点を設定する。図4(b)に示すように、画像生成部7は、複数の単位展開体120に対して仮想視点から平行な仮想光線102(平行光線)を照射してレイトレーシング処理を行う。画像生成部7はレイトレーシング処理を行うことにより、大腸100の内壁111を平面状に表す展開画像データを生成する。図4(b)に示す例では、画像生成部7は、仮想展開体110の壁厚方向(X方向)に平行な仮想光線102(平行光線)を、複数の単位展開体120に照射してレイトレーシング処理を行う。複数の単位展開体120は壁厚方向(X方向)に傾いている。そのため、壁厚方向(X方向)に対して平行に照射された仮想光線102(平行光線)は、複数の単位展開体120に対して斜めの方向から照射される。すなわち、仮想光線102は、大腸100(仮想展開体110)の内壁111に対して斜めに照射される。その結果、内壁111を斜めの方向から見た展開画像データが生成される。   For example, the image generation unit 7 sets a virtual viewpoint on the core wire 101. As illustrated in FIG. 4B, the image generation unit 7 performs ray tracing processing by irradiating a plurality of unit development bodies 120 with parallel virtual rays 102 (parallel rays) from a virtual viewpoint. The image generation unit 7 generates developed image data representing the inner wall 111 of the large intestine 100 in a planar shape by performing ray tracing processing. In the example illustrated in FIG. 4B, the image generation unit 7 irradiates a plurality of unit development bodies 120 with virtual light rays 102 (parallel light rays) parallel to the wall thickness direction (X direction) of the virtual development body 110. Perform ray tracing. The plurality of unit development bodies 120 are inclined in the wall thickness direction (X direction). Therefore, the virtual light beam 102 (parallel light beam) irradiated in parallel to the wall thickness direction (X direction) is irradiated to the plurality of unit development bodies 120 from an oblique direction. That is, the virtual light beam 102 is obliquely applied to the inner wall 111 of the large intestine 100 (virtual deployment body 110). As a result, developed image data in which the inner wall 111 is viewed from an oblique direction is generated.

画像生成部7は、ボリュームデータにボリュームレンダリングを施すことにより、管腔体の内壁を3次元的に表す仮想内視鏡画像データを生成してもよい。また、画像生成部7は、ボリュームデータにMPR(Multi Planar Reconstruction)処理を施すことにより、任意の断面におけるMPR画像データを生成してもよい。   The image generation unit 7 may generate virtual endoscopic image data that three-dimensionally represents the inner wall of the lumen body by performing volume rendering on the volume data. Further, the image generation unit 7 may generate MPR image data in an arbitrary cross section by performing MPR (Multi Planar Reconstruction) processing on the volume data.

(表示制御部8)
表示制御部8は展開画像データを画像生成部7から受けて、展開画像データに基づく展開画像を表示部10に表示させる。
(Display control unit 8)
The display control unit 8 receives the developed image data from the image generation unit 7 and causes the display unit 10 to display a developed image based on the developed image data.

(ユーザインターフェース(UI)9)
ユーザインターフェース(UI)9は、表示部10と操作部11とを備えている。表示部10は、CRTや液晶ディスプレイなどのモニタで構成されている。操作部11は、キーボードやマウスなどの入力装置で構成されている。
(User interface (UI) 9)
The user interface (UI) 9 includes a display unit 10 and an operation unit 11. The display unit 10 includes a monitor such as a CRT or a liquid crystal display. The operation unit 11 includes an input device such as a keyboard and a mouse.

以上の構成を有する医用画像処理装置1によると、傾いた状態の複数の単位展開体120に対してレイトレーシング処理を行うことにより、大腸100(仮想展開体110)の内壁111に対して斜めの方向から仮想光線102(平行光線)を照射することができる。そのことにより、大腸100の内壁111の陰になっている箇所に仮想光線102を照射することが可能となる。その結果、内壁111の陰になっている箇所を表す展開画像データを生成することが可能となる。すなわち、この実施形態に係る医用画像処理装置1によると、大腸100の内壁111を斜めの方向から見た状態の展開画像データを生成することが可能となる。複数の単位展開体120は仮想光線102に対して斜めに傾いているため、例えば、大腸100のひだの陰になっている箇所に仮想光線102を照射することができる。そのことにより、ひだの陰になっている箇所を表す展開画像データを生成することが可能となる。その結果、操作者は、ひだ等の突起物の陰になっている箇所を観察することが可能となる。   According to the medical image processing apparatus 1 having the above configuration, a ray tracing process is performed on a plurality of unit deployment bodies 120 in an inclined state, thereby obliquely forming the inner wall 111 of the large intestine 100 (virtual deployment body 110). Virtual rays 102 (parallel rays) can be irradiated from the direction. As a result, it is possible to irradiate the virtual light beam 102 to a location behind the inner wall 111 of the large intestine 100. As a result, it is possible to generate developed image data that represents a location that is behind the inner wall 111. That is, according to the medical image processing apparatus 1 according to this embodiment, it is possible to generate developed image data in a state where the inner wall 111 of the large intestine 100 is viewed from an oblique direction. Since the plurality of unit deployment bodies 120 are inclined obliquely with respect to the virtual light beam 102, for example, the virtual light beam 102 can be irradiated to a location behind the fold of the large intestine 100. As a result, it is possible to generate developed image data that represents the location behind the folds. As a result, the operator can observe a portion that is behind a protrusion such as a fold.

従来においては、内壁111に直交する方向から見た状態の展開画像データを生成していた。そのため、内壁111の陰になっている箇所には仮想光線(平行光線)が照射されず、陰になっている箇所を表す展開画像データを生成することができなかった。その結果、操作者は、陰になっている箇所を観察することが困難であった。これに対して、この実施形態に係る医用画像処理装置1によると、大腸100の内壁111の陰になっている箇所に仮想光線102を照射することができるので、操作者は、陰になっている箇所を観察することが可能となる。   Conventionally, developed image data in a state viewed from a direction orthogonal to the inner wall 111 has been generated. For this reason, a virtual ray (parallel ray) is not irradiated on the shaded portion of the inner wall 111, and the developed image data representing the shaded location cannot be generated. As a result, it is difficult for the operator to observe the shadowed portion. On the other hand, according to the medical image processing apparatus 1 according to this embodiment, since the virtual light beam 102 can be irradiated to a portion that is behind the inner wall 111 of the large intestine 100, the operator is in the shadow. It is possible to observe the location.

(変形例)
図5及び図6を参照して、医用画像処理装置1の変形例について説明する。図5は、変形例に係る仮想展開体を模式的に示す斜視図である。図6は、変形例に係る仮想展開体を模式的に示す図であり、芯線に沿った方向から見た図である。図6(a)は、単位展開体を傾ける前の状態を示す図である。図6(b)は、単位展開体を傾けた後の状態を示す図である。
(Modification)
A modification of the medical image processing apparatus 1 will be described with reference to FIGS. 5 and 6. FIG. 5 is a perspective view schematically showing a virtual deployment body according to a modification. FIG. 6 is a diagram schematically illustrating a virtual deployment body according to a modification, and is a diagram seen from a direction along the core line. Fig.6 (a) is a figure which shows the state before inclining a unit expansion body. FIG.6 (b) is a figure which shows the state after inclining a unit expansion body.

(展開部5)
展開部5は、上述したように大腸100を切り開くことにより、大腸100の内部の表面(内壁111)が展開された平面状の仮想展開体を生成する。
(Development part 5)
As described above, the deployment unit 5 cuts the large intestine 100 to generate a planar virtual deployment body in which the inner surface (inner wall 111) of the large intestine 100 is developed.

図5及び図6に示す仮想展開体130は、展開部5によって生成された仮想展開体を模式的に示すものである。大腸の芯線101に沿った方向をY方向とし、仮想展開体130の厚さ(壁厚)方向をX方向とする。   A virtual deployment body 130 illustrated in FIGS. 5 and 6 schematically illustrates a virtual deployment body generated by the deployment unit 5. The direction along the colon 101 of the large intestine is the Y direction, and the thickness (wall thickness) direction of the virtual deployment body 130 is the X direction.

(傾斜部6)
例えば図5及び図6(a)に示すように、傾斜部6は、大腸100の芯線の方向(Y方向)に略平行な分割面に沿って、所定間隔の距離をおいて仮想展開体130を分割することにより、複数の単位展開体140を得る。一例として、傾斜部6は、芯線の方向(Y方向)に略平行で、壁厚方向(X方向)にも略平行な分割面に沿って、仮想展開体130を複数の単位展開体140に分割する。なお、傾斜部6は、芯線の方向(Y方向)に略平行で、壁厚方向(X方向)に対して傾斜する分割面に沿って、仮想展開体130を複数の単位展開体1440に分割してもよい。
(Inclined part 6)
For example, as shown in FIG. 5 and FIG. 6A, the inclined portion 6 has a virtual deployable body 130 at a predetermined interval along a divided surface substantially parallel to the direction of the core line (Y direction) of the large intestine 100. Is divided into a plurality of unit expansion bodies 140. As an example, the inclined portion 6 is configured so that the virtual deployable body 130 is formed into a plurality of unit deployable bodies 140 along a split surface that is substantially parallel to the direction of the core wire (Y direction) and substantially parallel to the wall thickness direction (X direction). To divide. The inclined portion 6 divides the virtual deployment body 130 into a plurality of unit deployment bodies 1440 along a division plane that is substantially parallel to the direction of the core wire (Y direction) and is inclined with respect to the wall thickness direction (X direction). May be.

なお、傾斜部6は、芯線101の方向(Y方向)に平行な面に対して傾斜する分割面に沿って、仮想展開体130を複数の単位展開体140に分割してもよい。例えば操作者が、操作部11を用いて分割面の角度を入力する。傾斜部6は、操作部11から入力された角度に従って分割面を設定し、仮想展開体130を複数の単位展開体140に分割する。   The inclined portion 6 may divide the virtual deployment body 130 into a plurality of unit deployment bodies 140 along a split surface that is inclined with respect to a plane parallel to the direction of the core wire 101 (Y direction). For example, the operator inputs the angle of the division plane using the operation unit 11. The inclined unit 6 sets a division plane according to the angle input from the operation unit 11, and divides the virtual deployment body 130 into a plurality of unit deployment bodies 140.

そして、傾斜部6は、複数の単位展開体140の向きを芯線101に対して傾ける。例えば図6(b)に示すように、傾斜部6は、芯線101に沿った方向(Y方向)を回転軸とし、予め設定された傾斜方向に向けて予め設定された傾斜角度の位置に、複数の単位展開体140を傾ける。これにより、複数の単位展開体140は、傾けられる前の仮想展開体130の壁厚方向(X方向)に対して、傾いた状態となる。   The inclined portion 6 inclines the directions of the plurality of unit deployment bodies 140 with respect to the core wire 101. For example, as shown in FIG. 6B, the inclined portion 6 has a direction along the core wire 101 (Y direction) as a rotation axis, and is set at a position of an inclination angle set in advance toward a preset inclination direction. The plurality of unit expansion bodies 140 are tilted. As a result, the plurality of unit development bodies 140 are inclined with respect to the wall thickness direction (X direction) of the virtual development body 130 before being inclined.

傾斜方向を示す情報と傾斜角度の値とは、図示しない記憶部に予め記憶されている。例えば操作者が、傾斜方向を示す情報と傾斜角度の値とを操作部11を用いて入力してもよい。操作者によって入力された傾斜方向を示す情報と傾斜角度の値とは、図示しない記憶部に記憶される。傾斜部6は、記憶部に記憶されている傾斜方向を示す情報と傾斜角度の値とに従って、複数の単位展開体140を傾ける。   Information indicating the inclination direction and the value of the inclination angle are stored in advance in a storage unit (not shown). For example, the operator may input information indicating the tilt direction and the value of the tilt angle using the operation unit 11. Information indicating the tilt direction and the value of the tilt angle input by the operator are stored in a storage unit (not shown). The inclination part 6 inclines the some unit expansion body 140 according to the information which shows the inclination direction memorize | stored in the memory | storage part, and the value of an inclination angle.

(画像生成部7)
例えば画像生成部7は、芯線101上に仮想視点を設定する。図6(b)に示すように、画像生成部7は、複数の単位展開体140に対して仮想視点から平行な仮想光線102(平行光線)を照射してレイトレーシング処理を行う。画像生成部7はレイトレーシング処理を行うことにより、大腸100の内壁111を平面状に表す展開画像データを生成する。図6(b)に示す例では、画像生成部7は、仮想展開体130の壁厚方向(X方向)に平行な仮想光線102(平行光線)を、複数の単位展開体140に照射してレイトレーシング処理を行う。複数の単位展開体140は壁厚方向(X方向)に傾いている。そのため、壁厚方向(X方向)に対して平行に照射された仮想光線102は、複数の単位展開体140に対して斜めの方向から照射される。すなわち、仮想光線102は、大腸100(仮想展開体130)の内壁111に対して斜めに照射される。その結果、内壁111を斜めの方向から見た展開画像データが生成される。
(Image generation unit 7)
For example, the image generation unit 7 sets a virtual viewpoint on the core wire 101. As illustrated in FIG. 6B, the image generation unit 7 performs ray tracing processing by irradiating a plurality of unit development bodies 140 with parallel virtual rays 102 (parallel rays) from a virtual viewpoint. The image generation unit 7 generates developed image data representing the inner wall 111 of the large intestine 100 in a planar shape by performing ray tracing processing. In the example illustrated in FIG. 6B, the image generation unit 7 irradiates a plurality of unit development bodies 140 with virtual light rays 102 (parallel light rays) parallel to the wall thickness direction (X direction) of the virtual development body 130. Perform ray tracing. The plurality of unit developed bodies 140 are inclined in the wall thickness direction (X direction). Therefore, the virtual ray 102 irradiated in parallel to the wall thickness direction (X direction) is irradiated to the plurality of unit development bodies 140 from an oblique direction. That is, the virtual light beam 102 is obliquely applied to the inner wall 111 of the large intestine 100 (virtual deployment body 130). As a result, developed image data in which the inner wall 111 is viewed from an oblique direction is generated.

画像生成部7は、展開画像データを表示制御部8に出力する。表示制御部8は、展開画像データに基づく展開画像を表示部10に表示させる。   The image generation unit 7 outputs the developed image data to the display control unit 8. The display control unit 8 causes the display unit 10 to display a developed image based on the developed image data.

以上のように、医用画像処理装置1の変形例によっても、傾いた状態の複数の単位展開体140に対してレイトレーシング処理を行うことにより、大腸100(仮想展開体130)の内壁111に対して斜めの方向から仮想光線102(平行光線)を照射することができる。そのことにより、大腸100の内壁111の陰になっている箇所に仮想光線102を照射することが可能となる。その結果、内壁111の陰になっている箇所を表す展開画像データを生成することが可能となる。   As described above, according to the modified example of the medical image processing apparatus 1, the ray tracing process is performed on the plurality of unit deployment bodies 140 in an inclined state, whereby the inner wall 111 of the large intestine 100 (virtual deployment body 130) is applied. The virtual light beam 102 (parallel light beam) can be irradiated from an oblique direction. As a result, it is possible to irradiate the virtual light beam 102 to a location behind the inner wall 111 of the large intestine 100. As a result, it is possible to generate developed image data that represents a location that is behind the inner wall 111.

特定部3と、芯線算出部4と、展開部5と、傾斜部6と、画像生成部7と、表示制御部8とはそれぞれ、CPU、GPU、又はASICなどの図示しない処理装置と、ROM、RAM、又はHDDなどの図示しない記憶装置とによって構成されていてもよい。記憶装置には、特定部3の機能を実行するための特定プログラムが記憶されている。また記憶装置には、芯線算出部4の機能を実行するための芯線算出プログラムが記憶されている。また記憶装置には、展開部5の機能を実行するための展開プログラムが記憶されている。また記憶装置には、傾斜部6の機能を実行するための傾斜プログラムが記憶されている。また記憶装置には、画像生成部7の機能を実行するための画像生成プログラムが記憶されている。また記憶装置には、表示制御部8の機能を実行するための表示制御プログラムが記憶されている。CPUなどの処理装置が、記憶装置に記憶されている各プログラムを実行することにより、各部の機能が実行される。   The specifying unit 3, the core wire calculating unit 4, the developing unit 5, the tilting unit 6, the image generating unit 7, and the display control unit 8 are each a processing device (not shown) such as a CPU, GPU, or ASIC, and a ROM , A RAM, or a storage device (not shown) such as an HDD. The storage device stores a specific program for executing the function of the specifying unit 3. The storage device stores a core wire calculation program for executing the function of the core wire calculation unit 4. The storage device stores a development program for executing the functions of the development unit 5. The storage device stores an inclination program for executing the function of the inclination portion 6. The storage device stores an image generation program for executing the function of the image generation unit 7. The storage device stores a display control program for executing the functions of the display control unit 8. A processing device such as a CPU executes each program stored in the storage device, so that the function of each unit is executed.

なお、医用画像撮影装置90が医用画像処理装置1の機能を備えていてもよい。この場合、医用画像撮影装置90は管腔体を撮影することによりボリュームデータを生成し、医用画像処理装置1の機能を更に実行する。これにより、医用画像撮影装置90は、管腔体を平面状に展開した展開画像データを生成する。このように医用画像撮影装置90が医用画像処理装置1の機能を実行しても、医用画像処理装置1と同じ効果を奏することが可能である。   The medical image photographing device 90 may have the function of the medical image processing device 1. In this case, the medical image photographing device 90 generates volume data by photographing the lumen body, and further executes the function of the medical image processing device 1. Thereby, the medical image photographing device 90 generates developed image data in which the lumen body is developed in a planar shape. As described above, even when the medical image capturing apparatus 90 executes the function of the medical image processing apparatus 1, the same effect as the medical image processing apparatus 1 can be obtained.

1 医用画像処理装置
2 画像記憶部
3 特定部
4 芯線算出部
5 展開部
6 傾斜部
7 画像生成部
8 表示制御部
9 ユーザインターフェース(UI)
10 表示部
11 操作部
90 医用画像撮影装置
100 大腸
101 芯線
110、130 仮想展開体
111 内壁
120、140 単位展開体
DESCRIPTION OF SYMBOLS 1 Medical image processing apparatus 2 Image memory | storage part 3 Specification part 4 Core wire calculation part 5 Expansion | deployment part 6 Inclination part 7 Image generation part 8 Display control part 9 User interface (UI)
DESCRIPTION OF SYMBOLS 10 Display part 11 Operation part 90 Medical imaging device 100 Large intestine 101 Core wire 110,130 Virtual expansion body 111 Inner wall 120,140 Unit expansion body

Claims (8)

医用画像撮影装置によって生成されて管腔体を表すボリュームデータを受けて、前記ボリュームデータに表された前記管腔体が展開された平面状の仮想展開体を生成する展開手段と、
前記仮想展開体を複数の単位展開体に分割し、所定の軸を回転軸として前記複数の単位展開体の向きを傾ける傾斜手段と、
前記管腔体の内部に仮想視点を設定し、傾けられた状態の前記複数の単位展開体に対して前記仮想視点から仮想光線を照射してレイトレーシング処理を行うことにより、前記管腔体の内部の表面を表す展開画像データを生成する画像生成手段と、
を有する医用画像処理装置。
Deployment means for receiving volume data representing a luminal body generated by the medical imaging apparatus and generating a planar virtual deployment body in which the luminal body represented in the volume data is deployed ;
Inclining means for dividing the virtual deployment body into a plurality of unit deployment bodies and tilting the plurality of unit deployment bodies around a predetermined axis as a rotation axis ;
A virtual viewpoint is set inside the lumen body, and ray tracing processing is performed by irradiating a virtual ray from the virtual viewpoint to the plurality of unit deployment bodies in an inclined state, thereby performing a ray tracing process on the lumen body. Image generating means for generating developed image data representing the internal surface;
A medical image processing apparatus.
前記単位展開体は、平面状であることを特徴とする請求項1に記載の医用画像処理装置。The medical image processing apparatus according to claim 1, wherein the unit development body is planar. 前記管腔体の芯線を求める芯線算出手段を更に有し、
前記展開手段は、前記芯線に沿って前記管腔体を切り開くことにより前記仮想展開体を生成し
記画像生成手段は、前記芯線上に前記仮想視点を設定し、傾けられた状態の前記複数の単位展開体に対して前記仮想視点から平行な前記仮想光線を照射して前記レイトレーシング処理を行うことにより、前記展開画像データを生成する請求項1又は2に記載の医用画像処理装置。
A core wire calculating means for obtaining a core wire of the lumen body;
The deployment means generates the virtual deployment body by cutting the lumen body along the core line ,
Before Symbol image generating unit sets the virtual viewpoint onto the core wire, the ray tracing processing by irradiating said parallel virtual ray from the virtual viewpoint with respect to the plurality of units deployable body of tilted state by performing medical image processing apparatus according to claim 1 or 2 to generate the expanded image data.
前記傾斜手段は、前記芯線に略直交する面に沿って前記仮想展開体を前記複数の単位展開体に分割し、前記複数の単位展開体の向きを前記芯線に対して傾ける請求項に記載の医用画像処理装置。 The tilt means, according to claim 3, the virtual deployable body divided into a plurality of units deployable body along a plane substantially orthogonal to the core wire, tilting the orientation of the plurality of units deployable body relative to the core wire Medical image processing apparatus. 前記傾斜手段は、前記芯線に略平行な面に沿って前記仮想展開体を前記複数の単位展開体に分割し、前記複数の単位展開体の向きを前記芯線に対して傾ける請求項に記載の医用画像処理装置。 The tilt means, according to claim 3, the virtual deployable body divided into a plurality of units deployable body along a plane substantially parallel to the core wire, tilting the orientation of the plurality of units deployable body relative to the core wire Medical image processing apparatus. 前記展開画像データに基づく展開画像を表示する表示手段を更に有することを特徴とする請求項1〜5のいずれか1つに記載の医用画像処理装置。The medical image processing apparatus according to claim 1, further comprising display means for displaying a developed image based on the developed image data. 所定間隔の距離及び傾斜角度を入力するための操作手段を更に有し、It further has an operation means for inputting a distance and an inclination angle of a predetermined interval,
前記傾斜手段は、The tilting means is
前記操作手段から入力された前記所定間隔の距離に従って、前記仮想展開体を前記複数の単位展開体に分割し、Dividing the virtual deployment body into the plurality of unit deployment bodies according to the distance of the predetermined interval input from the operation means;
前記操作手段を用いて入力された前記傾斜角度に従って、前記複数の単位展開体を傾けるThe plurality of unit deployment bodies are tilted according to the tilt angle input using the operation means.
ことを特徴とする請求項1〜6のいずれか1つに記載の医用画像処理装置。The medical image processing apparatus according to any one of claims 1 to 6.
コンピュータに、
医用画像撮影装置によって生成されて管腔体を表すボリュームデータを受けて、前記ボリュームデータに表された前記管腔体が展開された平面状の仮想展開体を生成する展開機能と、
前記仮想展開体を複数の単位展開体に分割し、所定の軸を回転軸として前記複数の単位展開体の向きを傾ける傾斜機能と、
前記管腔体の内部に仮想視点を設定し、傾けられた状態の前記複数の単位展開体に対して前記仮想視点から仮想光線を照射してレイトレーシング処理を行うことにより、前記管腔体の内部の表面を表す展開画像データを生成する画像生成機能と、
を実行させる医用画像処理プログラム。
On the computer,
A deployment function that receives volume data generated by a medical imaging apparatus and represents a luminal body, and generates a planar virtual deployment body in which the luminal body represented in the volume data is deployed ;
An inclination function that divides the virtual deployment body into a plurality of unit deployment bodies and tilts the plurality of unit deployment bodies around a predetermined axis as a rotation axis ;
A virtual viewpoint is set inside the lumen body, and ray tracing processing is performed by irradiating a virtual ray from the virtual viewpoint to the plurality of unit deployment bodies in an inclined state, thereby performing a ray tracing process on the lumen body. An image generation function for generating developed image data representing the internal surface;
A medical image processing program for executing
JP2010093063A 2010-04-14 2010-04-14 Medical image processing apparatus and medical image processing program Active JP5683831B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010093063A JP5683831B2 (en) 2010-04-14 2010-04-14 Medical image processing apparatus and medical image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010093063A JP5683831B2 (en) 2010-04-14 2010-04-14 Medical image processing apparatus and medical image processing program

Publications (2)

Publication Number Publication Date
JP2011218082A JP2011218082A (en) 2011-11-04
JP5683831B2 true JP5683831B2 (en) 2015-03-11

Family

ID=45035799

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010093063A Active JP5683831B2 (en) 2010-04-14 2010-04-14 Medical image processing apparatus and medical image processing program

Country Status (1)

Country Link
JP (1) JP5683831B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101660370B1 (en) * 2013-12-12 2016-09-27 삼성메디슨 주식회사 Apparatus and method for displaying ultrasound image
JP6554335B2 (en) * 2015-06-11 2019-07-31 株式会社日立製作所 Medical image processing apparatus and medical image guidance apparatus using the same

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5891030A (en) * 1997-01-24 1999-04-06 Mayo Foundation For Medical Education And Research System for two dimensional and three dimensional imaging of tubular structures in the human body
JP2004529715A (en) * 2001-05-15 2004-09-30 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Analyzing multidimensional data sets
EP1493128A1 (en) * 2002-03-29 2005-01-05 Koninklijke Philips Electronics N.V. Method, system and computer program for stereoscopic viewing of 3d medical images
JP4130428B2 (en) * 2004-09-02 2008-08-06 ザイオソフト株式会社 Image processing method and image processing program
JP2006346022A (en) * 2005-06-14 2006-12-28 Ziosoft Inc Image display method and image display program
JP4685826B2 (en) * 2007-04-12 2011-05-18 富士フイルム株式会社 Projection image generation apparatus, method, and program
JP4563421B2 (en) * 2007-05-28 2010-10-13 ザイオソフト株式会社 Image processing method and image processing program

Also Published As

Publication number Publication date
JP2011218082A (en) 2011-11-04

Similar Documents

Publication Publication Date Title
JP4676021B2 (en) Diagnosis support apparatus, diagnosis support program, and diagnosis support method
JP4450786B2 (en) Image processing method and image processing program
JP5377153B2 (en) Image processing apparatus, image processing program, and medical diagnostic system
JP4130428B2 (en) Image processing method and image processing program
JP4200546B2 (en) Image display device
JP5675227B2 (en) Endoscopic image processing apparatus, operation method, and program
JP5384473B2 (en) Image display device and image display method
JP4786307B2 (en) Image processing device
JP5785120B2 (en) Medical image diagnosis support apparatus and method, and program
JP2006346022A (en) Image display method and image display program
JP5114121B2 (en) Medical image processing device
US20100007663A1 (en) Medical image display control device and method for operating medical image display control device
JP4350226B2 (en) 3D image processing device
JP5443238B2 (en) Virtual endoscopic image processing apparatus, method, and program
JP4685826B2 (en) Projection image generation apparatus, method, and program
JP2008100107A (en) Method of projecting developed image, program of projecting developed image, and projector for developed image
JP2006051154A (en) Image display method and image display program
JP5624336B2 (en) Medical image processing apparatus and medical image processing program
JP5683831B2 (en) Medical image processing apparatus and medical image processing program
JP4515615B2 (en) Image display device
JP2010284405A (en) Medical image processor, medical image diagnostic device and medical image processing program
JP5631584B2 (en) Medical image processing apparatus, medical image processing program, and medical image diagnostic apparatus
JP7172086B2 (en) Surgery simulation device and surgery simulation program
JP2008017906A (en) Image processing method and image processing program
JP4318799B2 (en) Image display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130321

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140527

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140710

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150114

R150 Certificate of patent or registration of utility model

Ref document number: 5683831

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350