JP4909792B2 - Image interpretation support apparatus, method, and program - Google Patents

Image interpretation support apparatus, method, and program Download PDF

Info

Publication number
JP4909792B2
JP4909792B2 JP2007105358A JP2007105358A JP4909792B2 JP 4909792 B2 JP4909792 B2 JP 4909792B2 JP 2007105358 A JP2007105358 A JP 2007105358A JP 2007105358 A JP2007105358 A JP 2007105358A JP 4909792 B2 JP4909792 B2 JP 4909792B2
Authority
JP
Japan
Prior art keywords
projection
line
image
sight vector
sight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007105358A
Other languages
Japanese (ja)
Other versions
JP2008259712A (en
Inventor
潤 桝本
仁樹 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2007105358A priority Critical patent/JP4909792B2/en
Publication of JP2008259712A publication Critical patent/JP2008259712A/en
Application granted granted Critical
Publication of JP4909792B2 publication Critical patent/JP4909792B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、3次元画像中の屈曲した管腔上構造物の読影を支援する装置、方法、および、この方法をコンピュータに実行させるプログラムに関するものである。   The present invention relates to an apparatus and method for supporting interpretation of a bent luminal structure in a three-dimensional image, and a program for causing a computer to execute the method.

3次元医用画像処理の分野において、屈曲した管腔臓器の管芯線上の視点から中心投影を行うことによって内視鏡的画像を生成する手法が知られている(例えば、特許文献1,2,4)。また、管腔臓器を直線状に伸長させ、さらに管を切り開いて内壁側を展開したような伸長展開画像を生成する手法(例えば、特許文献4)や、管腔臓器を直線状に伸長させ、管を縦切りにしたような伸長断面画像を生成する手法(例えば特許文献1)が知られている。   In the field of three-dimensional medical image processing, a technique for generating an endoscopic image by performing central projection from a viewpoint on a tube core line of a bent luminal organ is known (for example, Patent Documents 1, 2, and 3). 4). In addition, a method of generating a stretched and unfolded image in which a luminal organ is linearly expanded and further the tube is opened to expand the inner wall side (for example, Patent Document 4), the luminal organ is linearly expanded, A technique (for example, Patent Document 1) that generates an elongated cross-sectional image that is obtained by cutting a pipe vertically is known.

これらの画像の具体的な表示手法としては、CRTモニタに血管の縦切りの断面像(伸長断面画像)と中心投影法において構成される血管の管芯線方向を投影の中心とする内視鏡的画像を同時に表示するとともに、内視鏡的画像の視点位置を縦切りの断面像に矢印で重畳表示し、さらに、この矢印をマウスによって他の視点に移動させることにより、内視鏡的画像を切り替えて表示する手法が提案されている(例えば、特許文献1)。   As a specific display method for these images, an endoscopic image in which a longitudinal section image (expanded section image) of a blood vessel and a tube core line direction formed by the central projection method are centered on a CRT monitor is projected. The image is displayed at the same time, and the viewpoint position of the endoscopic image is superimposed on the longitudinal cross-sectional image with an arrow, and the arrow is moved to another viewpoint with the mouse, so that the endoscopic image is displayed. A method of switching and displaying has been proposed (for example, Patent Document 1).

また、真っ直ぐにされた結腸画像(伸長断面画像)と、上記真っ直ぐにされた結腸画像に沿って選択された位置における、管芯線方向を投影の中心とする結腸の管腔内3D画像(内視鏡ビュー)とを表示する手法が提案されている(例えば、特許文献2)。   In addition, a straightened colon image (elongated cross-sectional image) and a 3D image (internal view) of the colon centered on the tube core direction at a position selected along the straightened colon image. A method for displaying (mirror view) is proposed (for example, Patent Document 2).

さらに、血管のストレートビュー(伸長断面画像)、その血管の管芯線に垂直な断面によるPerpendicularビュー、および、ストレートビューやPerpendicularビューで指定された位置における、Perpendicularビューと同じ断面または管芯線の接線方向に平行な断面による任意断面像を作成して表示する手法が提案されている(例えば、特許文献3)。   In addition, a straight view of the blood vessel (elongated cross-sectional image), a Perpendicular view with a cross section perpendicular to the tube core line of the blood vessel, and the tangent direction of the same cross section or tube core line as the Perpendicular view at the position specified in the straight view or Perpendicular view There has been proposed a method of creating and displaying an arbitrary cross-sectional image with a cross-section parallel to (for example, Patent Document 3).

さらにまた、管状組織を屈曲円筒投影法によって投影した展開画像(伸長展開画像)と、管状組織の中心投影画像に、両画像の位置・方向の対応関係を表す面情報を重畳して表示する手法が提案されている(例えば、特許文献4)。
特開平11−318884号公報 特表2001−511031号公報 特開2004−283373号公報 特開2006−65397号公報
Furthermore, a developed image (elongated developed image) obtained by projecting a tubular tissue by a bent cylindrical projection method and a method of superimposing and displaying surface information representing a correspondence relationship between positions and directions of both images on a central projected image of the tubular tissue. Has been proposed (for example, Patent Document 4).
Japanese Patent Laid-Open No. 11-318884 JP-T-2001-511031 JP 2004-283373 A JP 2006-65397 A

上記の内視鏡的画像は、管腔臓器の内部の局所領域の詳細を把握するのには適しているが、管腔臓器の内部の広い範囲を表すことができないので、管腔臓器の内部の全体像を把握するのには適していない。一方、上記の伸長展開画像や伸長断面画像は、管腔臓器の内部の全体像を把握するのには適しているが、屈曲した管腔臓器を直線状に伸長させていることから、管腔臓器の形状は保存されておらず、管腔臓器の内部の注目部分を詳細に観察するのには適していない。   The above endoscopic image is suitable for grasping the details of the local area inside the luminal organ, but cannot represent a wide area inside the luminal organ. It is not suitable for grasping the whole picture. On the other hand, the above-described expanded development image and expanded cross-sectional image are suitable for grasping the entire inside of the luminal organ, but since the bent luminal organ is linearly expanded, The shape of the organ is not preserved, and it is not suitable for observing in detail the part of interest inside the hollow organ.

したがって、管腔臓器の構造的特徴、ならびに、内視鏡的画像や伸長展開画像、伸長断面画像の特性に鑑みると、管腔臓器の内部を表す画像の観察の際には、まず伸長展開画像、伸長断面画像で全体的な観察を行い、そこで注目すべき部分を発見したら、内視鏡的画像でその部分の詳細を観察するというワークフローとすることが好ましいと考えられる。   Therefore, in view of the structural characteristics of the luminal organ and the characteristics of the endoscopic image, the expanded expanded image, and the expanded cross-sectional image, when observing the image representing the inside of the luminal organ, first, the expanded expanded image It is considered that it is preferable that the workflow is such that when an overall observation is performed with an expanded cross-sectional image and a portion to be noticed is found, the details of the portion are observed with an endoscopic image.

これに対して、上記の特許文献1,2記載の手法では、伸長断面画像中の指定位置から中心投影画像の視点位置を決定するものの、生成される中心投影画像は、管芯線の方向を投影の中心とするものであり、中心投影画像中に伸長断面画像中の指定位置に対応する部分が含まれるとは限らない。   In contrast, in the methods described in Patent Documents 1 and 2 described above, the viewpoint position of the central projection image is determined from the specified position in the expanded cross-sectional image, but the generated central projection image projects the direction of the tube core line. The center projection image does not necessarily include a portion corresponding to the designated position in the expanded cross-sectional image.

同様に、上記特許文献3記載の手法においても、伸長断面画像中の指定位置から任意断面像の断面位置を決定するものの、その位置におけるPerpendicularビューと同じ断面または管芯線の接線方向の断面による任意断面像中に指定位置に対応する部分が含まれるとは限らず、また、含まれていたとしても、その任意断面像の中央部の観察に適した位置に表示されるとは限らない。   Similarly, in the method described in Patent Document 3, the cross-sectional position of the arbitrary cross-sectional image is determined from the designated position in the expanded cross-sectional image, but the same cross-section as the Perpendicular view at that position or the cross-section in the tangential direction of the tube core line. A section corresponding to the designated position is not necessarily included in the cross-sectional image, and even if it is included, it is not always displayed at a position suitable for observing the central portion of the arbitrary cross-sectional image.

また、特許文献4記載の手法は、展開図、断面図の相互の位置関係をそれぞれの画像に重畳表示するための手法であり、伸長展開画像中の指定された位置に応じて中心投影画像を生成するというワークフローを示唆するものではない。   The method described in Patent Document 4 is a method for superimposing and displaying the mutual positional relationship between the development view and the cross-sectional view on each image, and the center projection image is displayed according to the designated position in the expanded development image. It does not suggest a workflow to generate.

本発明は上記事情に鑑みてなされたものであり、屈曲した管腔上構造物を伸長した状態を表す伸長展開画像または伸長断面画像で全体的な観察を行い、その画像中で発見された注目位置の投影画像で詳細な観察を行うというワークフローをより効率的に実現する画像読影支援装置、方法、およびプログラムを提供することを目的とするものである。   The present invention has been made in view of the above circumstances, and an overall observation is performed with an expanded development image or an expanded cross-sectional image representing a state in which a bent luminal structure is expanded, and attentions found in the image are found. An object of the present invention is to provide an image interpretation support apparatus, method, and program for more efficiently realizing a workflow of performing detailed observation with a projected image of a position.

本発明の第1の画像読影支援装置は、図1および図2に処理対象および処理結果の画像の一例を模式的に表したように、屈曲した管腔状構造物(TO)が表された3次元画像(V)中の該構造物(TO)の中心部を通る芯線(CL)上の複数の視点(VPm;m=1,2,・・・)の各々において、該視点(VPm)を始点とする前記芯線(CL)の周辺方向に向かう複数の視線ベクトル(R1mn;m=1,2,・・・, n=1,2,・・・)毎に、該視線ベクトル(R1mn)上および/または該視線ベクトル(R1mn)の近傍の画像情報を用いて、該視線ベクトル(R1mn)上の前記構造物が投影された投影画素(PPmn)の画素値を決定し、前記各視点(VPm)の並び順および前記各視点(VPm)における前記複数の視線ベクトル(R1mn)の並び順が保持されるように、該投影画素(PPmn)の各々を投影平面に配置した伸長展開画像(DV)を生成する伸長展開画像生成手段と、前記伸長展開画像(DV)中の前記各投影画素の位置(PPmn)と前記3次元画像(V)中の前記各視線ベクトル(VPm)との対応関係を特定しうる対応情報を記憶する対応情報記憶手段と、前記伸長展開画像(DV)中の注目位置(例えばPPuv)の指定を受け付ける位置指定受付手段と、前記対応情報記憶手段に記憶された対応情報に基づいて、該位置指定受付手段によって受け付けられた注目位置(PPuv)に対応する前記視線ベクトル(R1uv)を特定し、該特定された視線ベクトル(R1uv)の始点(VPu)を視点とし、該視線ベクトル(R1uv)の向きを投影の向きのほぼ中心とする中心投影、または、該特定された視線ベクトルの始点(VPu)の位置を視点のほぼ中心とし、該視線ベクトルの向き(R1uv)を投影の向きとする平行投影により、前記注目位置(PPuv)に対応する前記3次元画像中の位置(R1uv上の任意の位置)がほぼ中心に投影された投影画像を生成する投影画像生成手段とを設けたことを特徴とする。 In the first image interpretation support apparatus of the present invention, a bent luminal structure (TO) is represented as schematically shown in FIG. 1 and FIG. In each of a plurality of viewpoints (VP m ; m = 1, 2,...) On the core line (CL) passing through the center of the structure (TO) in the three-dimensional image (V), the viewpoint (VP m ), the line-of-sight vector for each of a plurality of line-of-sight vectors (R1 mn ; m = 1, 2,..., n = 1, 2,...) starting from the center line (CL). (R1 mn) using image information of the vicinity of the upper and / or visual axis vector (R1 mn), the pixel value of the visual axis vector (R1 mn) the structure is projected projected pixels on (PP mn) Each of the projection pixels (PP mn ) is determined so that the arrangement order of the viewpoints (VP m ) and the arrangement order of the plurality of line-of-sight vectors (R1 mn ) at the viewpoints (VP m ) are maintained. Expansion expanded image generating means for generating an expanded expanded image (DV) arranged on the projection plane, the position (PP mn ) of each projection pixel in the expanded expanded image (DV), and the three-dimensional image (V) Corresponding information storage means for storing correspondence information that can specify the correspondence relationship with each of the line-of-sight vectors (VP m ), and position designation that accepts designation of the position of interest (for example, PP uv ) in the decompressed expanded image (DV) Based on the correspondence information stored in the correspondence means and the correspondence information storage means, the line-of-sight vector (R1 uv ) corresponding to the target position (PP uv ) accepted by the position designation acceptance means is identified, and the identification is set to the viewpoint the starting point (VP u) of the line-of-sight vector (R1 uv), approximately in the center to center projection, or the start point of the specified viewing vector direction of projecting the direction of the visual axis vector (R1 uv) ( The position of VP u ) Then, by parallel projection with the direction of the line-of-sight vector (R1 uv ) as the projection direction, the position in the three-dimensional image corresponding to the target position (PP uv ) (arbitrary position on R1 uv ) is approximately centered Projection image generation means for generating a projection image projected on the screen is provided.

本発明の第1の画像読影支援方法は、コンピュータが、屈曲した管腔状構造物が表された3次元画像中の該構造物の中心部を通る芯線上の複数の視点の各々において、該視点を始点とする前記芯線の周辺方向に向かう複数の視線ベクトル毎に、該視線ベクトル上および/または該視線ベクトルの近傍の画像情報を用いて、該視線ベクトル上の前記構造物が投影された投影画素の画素値を決定し、前記各視点の並び順および前記各視点における前記複数の視線ベクトルの並び順が保持されるように、該投影画素の各々を投影平面に配置した伸長展開画像を生成する処理と、前記伸長展開画像中の前記各投影画素の位置と前記3次元画像中の前記各視線ベクトルとの対応関係を特定しうる対応情報を記憶する処理と、前記伸長展開画像中の注目位置の指定を受け付ける処理と、記憶された前記対応情報に基づいて、受け付けられた前記注目位置に対応する前記視線ベクトルを特定し、該特定された視線ベクトルの始点を視点とし、該視線ベクトルの向きを投影の向きのほぼ中心とする中心投影、または、該特定された視線ベクトルの始点の位置を視点のほぼ中心とし、該視線ベクトルの向きを投影の向きとする平行投影により、前記注目位置に対応する前記3次元画像中の位置がほぼ中心に投影された投影画像を生成する処理とを行うことを特徴とする。   According to the first image interpretation support method of the present invention, the computer is configured such that at each of a plurality of viewpoints on a core line passing through the center of the structure in a three-dimensional image in which a bent tubular structure is represented, The structure on the line-of-sight vector is projected using image information on the line-of-sight vector and / or in the vicinity of the line-of-sight vector for each of a plurality of line-of-sight vectors starting from the viewpoint toward the peripheral direction of the core line A decompressed expanded image in which each of the projection pixels is arranged on a projection plane is determined so that a pixel value of the projection pixel is determined and the arrangement order of the viewpoints and the arrangement order of the plurality of line-of-sight vectors at the viewpoints are maintained. A process of generating, a process of storing correspondence information that can identify a correspondence relationship between the position of each projection pixel in the decompressed expanded image and each line-of-sight vector in the three-dimensional image, Attention And specifying the line-of-sight vector corresponding to the received position of interest based on the stored correspondence information, using the start point of the specified line-of-sight vector as a viewpoint, and the direction of the line-of-sight vector To the target position by central projection with the center of the projection direction or parallel projection with the position of the start point of the identified line-of-sight vector as the center of the viewpoint and the direction of the line-of-sight vector as the projection direction. And a process of generating a projection image in which the corresponding position in the three-dimensional image is projected substantially at the center.

本発明の第1の画像読影支援プログラムは、コンピュータに上記第1の画像読影支援方法を実行させることを特徴とするものである。   A first image interpretation support program according to the present invention causes a computer to execute the first image interpretation support method.

以下、本発明の第1の画像読影支援装置・方法・プログラムの詳細について説明する。   Details of the first image interpretation support apparatus, method, and program of the present invention will be described below.

「屈曲した管腔状構造物」の具体例としては、大腸等の生体の管腔臓器が挙げられる。   Specific examples of the “bent luminal structure” include a luminal organ of a living body such as a large intestine.

「該視点を始点とする前記芯線の周辺方向に向かう複数の視線ベクトル」は、視点を中心として放射状に存在し、その放射方向の範囲(中心角)は、120度、180度、360度等、任意である。   “A plurality of line-of-sight vectors from the viewpoint to the peripheral direction of the core line” exist radially from the viewpoint, and the range (center angle) of the radial direction is 120 degrees, 180 degrees, 360 degrees, etc. Is optional.

「画像情報」の具体例としては、その3次元画像の撮影・取得時に得られた信号強度(CT値等)、濃度値、輝度値、色信号値(R,G,B等)や、ボリュームレンダリング処理で利用される不透明度等が挙げられる。   Specific examples of “image information” include signal intensity (CT value, etc.), density value, luminance value, color signal value (R, G, B, etc.) obtained at the time of photographing / acquisition of the three-dimensional image, volume Examples include opacity used in rendering processing.

「投影画素の画素値を決定」する処理、および、「(中心投影/平行投影により)前記注目位置に対応する前記3次元画像中の位置がほぼ中心に投影された投影画像を生成する」処理の具体例としては、視線に沿って複数の探索点を設定し、設定された複数の探索点および/またはその近傍の画像情報に基づいて投影画素の画素値を求める処理が挙げられ、このような処理としては、例えば、探索点の画素値の平均値を求める処理、探索点の画素値の最大値を抽出して投影するMIP(Maximum Intensity Projection;最大値投影)処理や最小値を抽出して投影するMinIP(Minimum Intensity Projection;最小値投影)処理、視線に沿った各探索点における不透明度(Opacity)と輝度値を積算していくことによって投影画素の画素値を求めるレイキャスティング法によるボリュームレンダリング処理等が挙げられる。   A process of “determining a pixel value of a projection pixel” and a process of “generating a projection image in which a position in the three-dimensional image corresponding to the target position is projected to substantially the center (by central projection / parallel projection)” As a specific example of this, there is a process of setting a plurality of search points along the line of sight and obtaining a pixel value of a projection pixel based on the set plurality of search points and / or image information in the vicinity thereof. For example, the average value of the pixel values of the search points, the MIP (Maximum Intensity Projection) process that extracts and projects the maximum value of the pixel values of the search points, and the minimum value are extracted. Ray casting to obtain the pixel value of the projection pixel by integrating Minpac (Minimum Intensity Projection) processing and projecting opacity (Opacity) and luminance values at each search point along the line of sight Volume rendering processing and the like by grayed method.

「各視点の並び順および各視点における複数の視線ベクトルの並び順が保持されるように、投影画素の各々を投影平面に配置した伸長展開画像を生成する」処理の具体例としては、各視点における視線ベクトル毎の投影画素を座標変換により1本のラインとして投影平面に射影し、各視点でのラインを視点の並び順に投影平面に配置する手法や、各視点における前記接線を軸とする短い円柱投影面の座標系に、その視点における視線ベクトル毎の投影画素を配置(投影)し、その円柱投影面を視点の並び順に接続し、接続された円柱投影面を座標変換によってさらに投影平面に展開する手法(例えば特開平8-249492号公報参照)等が挙げられる。   As a specific example of the processing of “generating an expanded and developed image in which each projection pixel is arranged on the projection plane so that the arrangement order of each viewpoint and the arrangement order of a plurality of line-of-sight vectors at each viewpoint are maintained” A projection pixel for each line-of-sight vector in FIG. 3 is projected onto the projection plane as a single line by coordinate transformation, and a method of arranging the lines at each viewpoint on the projection plane in the order of viewpoints, or a short with the tangent at each viewpoint as an axis. Projection pixels for each line-of-sight vector at the viewpoint are arranged (projected) in the coordinate system of the cylindrical projection plane, the cylindrical projection planes are connected in the order of viewpoints, and the connected cylindrical projection plane is further converted into a projection plane by coordinate transformation. An expanding method (for example, see JP-A-8-249492) and the like can be mentioned.

「前記伸長展開画像中の各位置と前記3次元画像中の前記各視線ベクトルとの対応関係を特定しうる対応情報」は、前記伸長展開画像中の1以上の投影画素の位置とそれらの投影画素に対応する視線ベクトルを関連づけたものと、前記伸長展開画像の上下方向および/または左右方向の位置関係と前記視点および視線ベクトルの位置関係とを関連づける情報とを適宜組み合わせたものとすればよい。ここで、後者の具体例としては、芯線上の先頭の視点から最後尾の視点までの距離、各視点の間隔、視線ベクトルの放射方向の範囲(中心角)、隣接する視線ベクトル間がなす角の角度等が挙げられる。   “Correspondence information that can specify the correspondence between each position in the expanded expanded image and each line-of-sight vector in the three-dimensional image” is the position of one or more projection pixels in the expanded expanded image and their projections. What is necessary is just to combine suitably the thing which linked | related the visual line vector corresponding to a pixel, and the information which linked | related the positional relationship of the up-down direction and / or left-right direction of the said expansion | deployment expansion image, and the positional relationship of the said viewpoint and a visual line vector. . Here, as a specific example of the latter, the distance from the first viewpoint to the last viewpoint on the core line, the distance between the viewpoints, the range of the radial direction of the line-of-sight vector (center angle), and the angle formed between adjacent line-of-sight vectors The angle etc. are mentioned.

「対応情報に基づき、注目位置に対応する前記視線ベクトルを特定」する処理は、上記の対応情報とともに、伸長展開画像の上下・左右方向の画素数や画像サイズ、画素間隔等を適宜用いて比例計算等を行うことによって実現することができる。   The process of “identifying the line-of-sight vector corresponding to the position of interest based on the correspondence information” is proportional to the above correspondence information, using the number of pixels in the vertical and horizontal directions, the image size, the pixel interval, etc. of the expanded expanded image as appropriate. This can be realized by performing calculation or the like.

なお、対応情報を、前記伸長展開画像中のすべての投影画素の位置と各投影画素に対応する視線ベクトルとを関連づけたものとし、これを参照することによって、注目位置に対応する前記視線ベクトルを特定するようにしてもよい。   Note that the correspondence information is obtained by associating the positions of all the projection pixels in the decompressed expanded image with the line-of-sight vector corresponding to each projection pixel, and by referring to this, the line-of-sight vector corresponding to the target position is obtained. It may be specified.

本発明の第2の画像読影支援装置は、図1および図2に処理対象および処理結果の画像の一例を模式的に表したように、屈曲した管腔状構造物(TO)が表された3次元画像(V)中の該構造物(TO)の中心部を通る芯線(CL)上の複数の視点(VPm;m=1,2,・・・)の各々において、該視点(VPm)を始点とする前記芯線(CL)の周辺方向に向かう複数の視線ベクトル(R1mn;m=1,2,・・・, n=1,2,・・・)毎に、該視線ベクトル(R1mn)上および/または該視線ベクトル(R1mn)の近傍の画像情報を用いて、該視線ベクトル(R1mn)上の前記構造物が投影された投影画素(PPmn)の画素値を決定し、前記各視点(VPm)の並び順および前記各視点(VPm)における前記複数の視線ベクトル(R1mn)の並び順が保持されるように、該投影画素(PPmn)の各々を投影平面に配置した伸長展開画像(DV)を生成する伸長展開画像生成手段と、前記伸長展開画像(DV)中の前記各投影画素の位置(PPmn)と前記3次元画像(V)中の前記各視線ベクトル(VPm)との対応関係を特定しうる対応情報を記憶する対応情報記憶手段と、前記伸長展開画像(DV)中の注目位置(例えばPPuv)の指定を受け付ける位置指定受付手段と、前記対応情報記憶手段に記憶された対応情報に基づいて、該位置指定受付手段によって受け付けられた注目位置(PPuv)に対応する前記視線ベクトル(R1uv)を特定し、該視線ベクトル(R1uv)上において、該視線ベクトル(R1uv)に対応する投影画素(PPuv)の画素値の決定に対する寄与の度合が所定の基準を満たす程度に高い主投影位置(例えばPuv)を決定し、中心投影または平行投影により、該主投影位置(Puv)がほぼ中心に投影されるように投影画像を生成する投影画像生成手段とを設けたことを特徴とする。 In the second image interpretation support apparatus of the present invention, a bent luminal structure (TO) is represented as schematically shown in FIG. 1 and FIG. 2 as an example of the processing target and processing result images. In each of a plurality of viewpoints (VP m ; m = 1, 2,...) On the core line (CL) passing through the center of the structure (TO) in the three-dimensional image (V), the viewpoint (VP m ), the line-of-sight vector for each of a plurality of line-of-sight vectors (R1 mn ; m = 1, 2,..., n = 1, 2,...) starting from the center line (CL). (R1 mn) using image information of the vicinity of the upper and / or visual axis vector (R1 mn), the pixel value of the visual axis vector (R1 mn) the structure is projected projected pixels on (PP mn) Each of the projection pixels (PP mn ) is determined so that the arrangement order of the viewpoints (VP m ) and the arrangement order of the plurality of line-of-sight vectors (R1 mn ) at the viewpoints (VP m ) are maintained. Expansion expanded image generating means for generating an expanded expanded image (DV) arranged on the projection plane, the position (PP mn ) of each projection pixel in the expanded expanded image (DV), and the three-dimensional image (V) Corresponding information storage means for storing correspondence information that can specify the correspondence relationship with each of the line-of-sight vectors (VP m ), and position designation that accepts designation of the position of interest (for example, PP uv ) in the decompressed expanded image (DV) Based on the correspondence information stored in the correspondence means and the correspondence information storage means, the line-of-sight vector (R1 uv ) corresponding to the target position (PP uv ) received by the position designation reception means is specified, and the line-of-sight On the vector (R1 uv ), the main projection position (for example, P uv ) is high enough that the degree of contribution to the determination of the pixel value of the projection pixel (PP uv ) corresponding to the line-of-sight vector (R1 uv ) satisfies a predetermined criterion Determine the central projection or The line projection, characterized in that the main projection position (P uv) is provided a projection image generating means for generating a projection image to be projected approximately in the center.

本発明の第2の画像読影支援方法は、コンピュータが、屈曲した管腔状構造物が表された3次元画像中の該構造物の中心部を通る芯線上の複数の視点の各々において、該視点を始点とする前記芯線の周辺方向に向かう複数の視線ベクトル毎に、該視線ベクトル上および/または該視線ベクトルの近傍の画像情報を用いて、該視線ベクトル上の前記構造物が投影された投影画素の画素値を決定し、前記各視点の並び順および前記各視点における前記複数の視線ベクトルの並び順が保持されるように、該投影画素の各々を投影平面に配置した伸長展開画像を生成する処理と、前記伸長展開画像中の前記各投影画素の位置と前記3次元画像中の前記各視線ベクトルとの対応関係を特定しうる対応情報を記憶する処理と、前記伸長展開画像中の注目位置の指定を受け付ける処理と、記憶された前記対応情報に基づいて、受け付けられた前記注目位置に対応する前記視線ベクトルを特定し、該視線ベクトル上において、該視線ベクトルに対応する投影画素の画素値の決定に対する寄与の度合が所定の基準を満たす程度に高い主投影位置を決定し、中心投影または平行投影により、該主投影位置がほぼ中心に投影されるように投影画像を生成する処理とを行うことを特徴とする。   In the second image interpretation support method of the present invention, the computer is configured such that at each of a plurality of viewpoints on a core line passing through the center of the structure in a three-dimensional image in which a bent tubular structure is represented, The structure on the line-of-sight vector is projected using image information on the line-of-sight vector and / or in the vicinity of the line-of-sight vector for each of a plurality of line-of-sight vectors starting from the viewpoint toward the peripheral direction of the core line A decompressed expanded image in which each of the projection pixels is arranged on a projection plane is determined so that a pixel value of the projection pixel is determined and the arrangement order of the viewpoints and the arrangement order of the plurality of line-of-sight vectors at the viewpoints are maintained. A process of generating, a process of storing correspondence information that can identify a correspondence relationship between the position of each projection pixel in the decompressed expanded image and each line-of-sight vector in the three-dimensional image, Attention Based on the received correspondence information and the stored correspondence information, the line-of-sight vector corresponding to the received position of interest is specified, and the pixel value of the projection pixel corresponding to the line-of-sight vector on the line-of-sight vector Determining a main projection position that is high enough to satisfy a predetermined criterion, and generating a projection image so that the main projection position is projected almost at the center by central projection or parallel projection. It is characterized by performing.

本発明の第2の画像読影支援プログラムは、コンピュータに上記第2の画像読影支援方法を実行させることを特徴とするものである。   A second image interpretation support program according to the present invention causes a computer to execute the second image interpretation support method.

以下、本発明の第2の画像読影支援装置・方法・プログラムの詳細について、上記の第1の画像読影支援装置・方法・プログラムと相違する点を中心に説明する。   The details of the second image interpretation support apparatus / method / program of the present invention will be described below, focusing on the differences from the first image interpretation support apparatus / method / program.

「該視線ベクトル上において、該視線ベクトルに対応する投影画素の画素値の決定に対する寄与の度合が所定の基準を満たす程度に高い主投影位置を決定」する方法は、投影画素の画素値を決定する処理によって異なる。例えば、視線ベクトル上の探索点の画素値の平均値を求める処理やMIP処理の場合には、画素値が最大となる探索点の位置、MinIP処理の場合には、画素値が最小となる探索点の位置、ボリュームレンダリング処理の場合には、不透明度が最大となる探索点の位置を主投影位置とすることができる。   The method of “determining a main projection position on the line-of-sight vector that is high enough to satisfy a predetermined criterion for determining the pixel value of the projection pixel corresponding to the line-of-sight vector” determines the pixel value of the projection pixel It depends on the processing. For example, in the case of processing for obtaining the average value of pixel values of search points on the line-of-sight vector or MIP processing, the position of the search point at which the pixel value is maximum, and in MinIP processing, the search at which the pixel value is minimum. In the case of point position and volume rendering processing, the position of the search point with the maximum opacity can be set as the main projection position.

「中心投影または平行投影により、該主投影位置がほぼ中心に投影されるように投影画像を生成する」方法において、主投影位置がほぼ中心に投影されるのであれば、投影時の視点や視線方向は任意である。   In the method of “generating a projection image so that the main projection position is projected at approximately the center by central projection or parallel projection”, if the main projection position is projected at approximately the center, the viewpoint and line of sight at the time of projection The direction is arbitrary.

本発明の第3の画像読影支援装置は、図3および図2に処理対象および処理結果の画像の一例を模式的に表したように、屈曲した管腔状構造物(TO)が表された3次元画像(V)中の該構造物(TO)の内部の複数の視点(VPmn;m=1,2,・・・、n=1,2,・・・)の各々を始点とする、前記各視点(VPmn)を通る曲面(CS)の一方の側の周辺方向に向かう複数の視線ベクトル(R2mn)毎に、該視線ベクトル(R2mn)上および/または該視線ベクトル(R2mn)の近傍の画像情報を用いて、該視線ベクトル(R2mn)上の前記構造物(TO)が投影された投影画素(PPmn)の画素値を決定し、前記各視点(VPmn)の並び順が保持されるように、該投影画素(PPmn)の各々を投影平面に配置した伸長断面画像(SV)を生成する伸長断面画像生成手段と、前記伸長断面画像(SV)中の前記各投影画素の位置(PPmn)と前記3次元画像(V)中の前記各視線ベクトル(R2mn)との対応関係を特定しうる対応情報を記憶する対応情報記憶手段と、前記伸長断面画像(V)中の注目位置(例えばPPuv)の指定を受け付ける位置指定受付手段と、前記対応情報記憶手段に記憶された対応情報に基づいて、該位置指定受付手段によって受け付けられた注目位置(PPuv)に対応する前記視線ベクトル(R2uv)を特定し、該視線ベクトル(R2uv)上において、該視線ベクトル(R2uv)に対応する投影画素(PPuv)の画素値の決定に対する寄与の度合が所定の基準を満たす程度に高い主投影位置(例えばPuv)を決定し、中心投影または平行投影により、該主投影位置(Puv)がほぼ中心に投影されるように投影画像を生成する投影画像生成手段とを設けたことを特徴とする。 In the third image interpretation support device of the present invention, a bent luminal structure (TO) is represented as schematically shown in FIG. 3 and FIG. Each of a plurality of viewpoints (VP mn ; m = 1, 2,..., N = 1, 2,...) Inside the structure (TO) in the three-dimensional image (V) is a starting point. , each viewpoint (VP mn) each curved surface a plurality of line-of-sight vector directed in the circumferential direction of the one side of the (CS) (R2 mn) through a visual axis vector (R2 mn) above and / or visual axis vector (R2 mn ) is used to determine the pixel value of the projection pixel (PP mn ) on which the structure (TO) is projected on the line-of-sight vector (R2 mn ), and the respective viewpoints (VP mn ) as sorted is held in the extended cross-sectional image generation means for generating an extended cross-sectional image obtained by placing each of the projection pixels (PP mn) on the projection plane (SV), wherein said extension section Correspondence information storage for storing a correspondence information which can identify the correspondence between the image the position of each projection pixel in (SV) (PP mn) and the sight line vector of the 3-dimensional image (V) (R2 mn) Based on the correspondence information stored in the correspondence information storage means, the position designation acceptance means for accepting designation of the position of interest (for example, PP uv ) in the expanded cross-sectional image (V) accepted target position (PP uv) to identify the line-of-sight vector corresponding (R2 uv), on the visual axis vector (R2 uv), projected pixel corresponding to the visual axis vector (R2 uv) of (PP uv) the degree of contribution to the determination of the pixel value determines the main projection position high enough to meet the predetermined criteria (e.g., P uv), the central projection or parallel projection, the main projection position (P uv) is projected approximately in the center Projection to generate projection images Characterized by providing the image generating means.

本発明の第3の画像読影支援方法は、コンピュータが、屈曲した管腔状構造物が表された3次元画像中の該構造物の内部の複数の視点の各々を始点とする、前記各視点を通る曲面の一方の側の周辺方向に向かう複数の視線ベクトル毎に、該視線ベクトル上および/または該視線ベクトルの近傍の画像情報を用いて、該視線ベクトル上の前記構造物が投影された投影画素の画素値を決定し、前記各視点の並び順が保持されるように、該投影画素の各々を投影平面に配置した伸長断面画像を生成する処理と、前記伸長断面画像中の前記各投影画素の位置と前記3次元画像中の前記各視線ベクトルとの対応関係を特定しうる対応情報を記憶する処理と、前記伸長断面画像中の注目位置の指定を受け付ける処理と、記憶された前記対応情報に基づいて、受け付けられた前記注目位置に対応する前記視線ベクトルを特定し、該視線ベクトル上において、該視線ベクトルに対応する投影画素の画素値の決定に対する寄与の度合が所定の基準を満たす程度に高い主投影位置を決定し、中心投影または平行投影により、該主投影位置がほぼ中心に投影されるように投影画像を生成する処理とを行うことを特徴とする。   According to a third image interpretation support method of the present invention, each of the viewpoints has a computer starting from each of a plurality of viewpoints inside the structure in the three-dimensional image in which the bent tubular structure is represented. The structure on the line-of-sight vector is projected using image information on the line-of-sight vector and / or in the vicinity of the line-of-sight vector for each of a plurality of line-of-sight vectors toward the peripheral direction on one side of the curved surface passing through Determining a pixel value of the projection pixel and generating an expanded cross-sectional image in which each of the projection pixels is arranged on a projection plane so that the arrangement order of the viewpoints is maintained; A process for storing correspondence information that can specify a correspondence relationship between a position of a projection pixel and each line-of-sight vector in the three-dimensional image; a process for receiving designation of a position of interest in the expanded cross-sectional image; Based on correspondence information A main projection that identifies the line-of-sight vector corresponding to the received position of interest and that has a high degree of contribution to the determination of the pixel value of the projection pixel corresponding to the line-of-sight vector on the line-of-sight vector satisfies a predetermined criterion A position is determined, and a projection image is generated by center projection or parallel projection so that the main projection position is projected almost at the center.

本発明の第3の画像読影支援プログラムは、コンピュータに上記第3の画像読影支援方法を実行させることを特徴とするものである。   A third image interpretation support program of the present invention causes a computer to execute the third image interpretation support method.

以下、本発明の第3の画像読影支援装置・方法・プログラムの詳細について、上記の第1、第2の画像読影支援装置・方法・プログラムと相違する点を中心に説明する。   The details of the third image interpretation support apparatus / method / program of the present invention will be described below, focusing on the differences from the first and second image interpretation support apparatuses / methods / programs.

「前記各視点を通る曲面」の具体例としては、前記管腔状構造物の中心部を通る芯線を通る曲面が考えられる。   As a specific example of the “curved surface passing through each viewpoint”, a curved surface passing through a core line passing through the central portion of the tubular structure can be considered.

「前記各視点の並び順が保持されるように、該投影画素の各々を投影平面に配置した伸長断面画像を生成する」処理の具体例としては、前記曲面が前記芯線を通るものであり、前記曲面上で前記芯線に垂直な方向の複数のライン上に複数の視点が設定された場合、各ラインについて、前記曲面上の1本のライン上の各視点における視線ベクトルに対応する投影画素を、座標変換により、投影平面上に1本のラインとして射影し、その際、前記曲面上での各ラインの並び順が保たれるように投影平面に射影する手法や、前記特許文献1から3記載の手法等が挙げられる。   As a specific example of the process of “generating an expanded cross-sectional image in which each of the projection pixels is arranged on a projection plane so that the arrangement order of the viewpoints is maintained”, the curved surface passes through the core line, When a plurality of viewpoints are set on a plurality of lines in a direction perpendicular to the core line on the curved surface, projection pixels corresponding to line-of-sight vectors at each viewpoint on one line on the curved surface are set for each line. , A method of projecting as a single line on the projection plane by coordinate transformation, and projecting onto the projection plane so that the order of the lines on the curved surface is maintained. Examples of the method are described.

「前記伸長断面画像中の各位置と前記3次元画像中の前記各視線ベクトルとの対応関係を特定しうる対応情報」は、前記伸長断面画像中の1以上の投影画素の位置とそれらの投影画素に対応する視線ベクトルを関連づけたものと、前記伸長断面画像の上下方向および/または左右方向の位置関係と前記視線ベクトルの視点(始点)の位置関係とを関連づける情報とを適宜組み合わせたものとすればよい。ここで、後者の具体例としては、管腔上構造物の両端に位置する視点間の距離、各視点の間隔等が挙げられる。   “Correspondence information that can specify the correspondence between each position in the expanded cross-sectional image and each line-of-sight vector in the three-dimensional image” is the position of one or more projection pixels in the expanded cross-sectional image and their projections. A combination of a line-of-sight vector corresponding to a pixel, and information that associates a positional relationship in the vertical and / or horizontal direction of the elongated cross-sectional image with a positional relationship of the viewpoint (start point) of the line-of-sight vector, as appropriate do it. Here, specific examples of the latter include the distance between the viewpoints located at both ends of the on-luminal structure, the interval between the viewpoints, and the like.

「対応情報に基づき、注目位置に対応する前記視線ベクトルを特定」する処理は、上記の対応情報とともに、伸長断面画像の上下・左右方向の画素数や画像サイズ、画素間隔等を適宜用いて比例計算等を行うことによって実現することができる。   The process of “identifying the line-of-sight vector corresponding to the position of interest based on the correspondence information” is proportional using the above correspondence information and the number of pixels in the vertical and horizontal directions of the expanded cross-sectional image, the image size, the pixel interval, and the like as appropriate. This can be realized by performing calculation or the like.

なお、対応情報を、前記伸長断面画像中のすべての投影画素の位置と各投影画素に対応する視線ベクトルとを関連づけたものとし、これを参照することによって、注目位置に対応する前記視線ベクトルを特定するようにしてもよい。   The correspondence information is obtained by associating the positions of all the projection pixels in the expanded cross-sectional image with the line-of-sight vector corresponding to each projection pixel, and by referring to this, the line-of-sight vector corresponding to the target position is obtained. It may be specified.

「中心投影または平行投影により、該主投影位置がほぼ中心に投影されるように投影画像を生成する」方法において、主投影位置がほぼ中心に投影されるのであれば、投影時の視点や視線方向は任意である。例えば図4に模式的に示したように、主投影位置(Puv)から最も近い、前記構造物(TO)の中心部を通る芯線(CL)上の点(Q)を視点とし、該視点(Q)から前記主投影位置(Puv)に向かう向きを投影の向きのほぼ中心とする中心投影によって投影画像を生成する方法や、この点(Q)を視点のほぼ中心とし、該視点(Q)から前記主投影位置(Puv)に向かう向きを投影の向きとする平行投影によって投影画像を生成する方法が考えられる。 In the method of “generating a projection image so that the main projection position is projected at approximately the center by central projection or parallel projection”, if the main projection position is projected at approximately the center, the viewpoint and line of sight at the time of projection The direction is arbitrary. For example, as schematically shown in FIG. 4, a point (Q) on the core line (CL) passing through the center of the structure (TO) closest to the main projection position (P uv ) is used as a viewpoint, and the viewpoint A method of generating a projection image by central projection with the direction from (Q) toward the main projection position (P uv ) as the approximate center of the projection direction, or with this point (Q) as the approximate center of the viewpoint, A method is conceivable in which a projection image is generated by parallel projection with the direction from Q) toward the main projection position (P uv ) as the projection direction.

本発明によれば、屈曲した管腔状構造物を直線状に伸長させた伸長展開画像や伸長断面画像中の各投影画素の位置と、それらの画像を生成する際の3次元画像中の各視線ベクトルとの対応関係を特定しうる対応情報を記憶しておくことによって、この対応情報に基づいて、指定された注目位置に対応する視線ベクトルを特定し、特定された視線ベクトルに基づいて、注目位置が投影の中心となる中心投影や平行投影による投影画像を生成したり、特定された視線ベクトルに基づいて、その視線ベクトルにおける投影画素の決定への寄与が大きい主投影位置を決定し、決定された主投影位置が投影の中心となる中心投影や平行投影による投影画像を生成したりすることができる。したがって、伸長展開画像または伸長断面画像で全体的な観察を行った後、その画像中で発見された注目位置を指定すれば、その注目位置の3次元画像中での位置等をさらに指定することなく、自動的にその注目位置や主投影位置が投影の中心となる投影画像が生成され、これを観察することができるので、屈曲した管腔状構造物を表す画像の観察における全体から部分・詳細へというワークフローがより効率的なものとなる。   According to the present invention, the position of each projection pixel in an expanded development image or an expanded cross-sectional image obtained by linearly extending a bent tubular structure, and each of the three-dimensional images in generating those images. By storing correspondence information that can identify the correspondence relationship with the line-of-sight vector, based on this correspondence information, the line-of-sight vector corresponding to the specified attention position is specified, and on the basis of the identified line-of-sight vector, Generate a projection image by central projection or parallel projection where the target position is the center of projection, or based on the identified line-of-sight vector, determine the main projection position that greatly contributes to the determination of the projection pixel in the line-of-sight vector, It is possible to generate a projection image by central projection or parallel projection in which the determined main projection position is the center of projection. Therefore, if the position of interest found in the image is specified after performing the overall observation with the expanded development image or the expanded cross-sectional image, the position of the position of interest in the three-dimensional image can be further specified. Instead, a projected image whose center of projection is the focus position or main projection position is automatically generated and can be observed. The workflow of details becomes more efficient.

以下、図面を参照しつつ、本発明の実施の形態となる画像読影支援装置が実装された3次元医用画像処理システムについて説明する。   Hereinafter, a three-dimensional medical image processing system in which an image interpretation support apparatus according to an embodiment of the present invention is mounted will be described with reference to the drawings.

図5は、3次元医用画像処理システムの概要を示すハードウェア構成図である。図に示すように、このシステムでは、モダリティ1と、画像保管サーバ2と、画像処理ワークステーション3とが、ネットワーク9を経由して通信可能な状態で接続されている。   FIG. 5 is a hardware configuration diagram showing an overview of a three-dimensional medical image processing system. As shown in the figure, in this system, a modality 1, an image storage server 2, and an image processing workstation 3 are connected via a network 9 in a communicable state.

モダリティ1は、被検体を表す3次元医用画像(ボクセルデータ)Vを取得するものであり、具体的には、CT装置やMRI装置、超音波診断装置等である。   The modality 1 acquires a three-dimensional medical image (voxel data) V representing the subject, and specifically includes a CT apparatus, an MRI apparatus, an ultrasonic diagnostic apparatus, and the like.

画像保管サーバ2は、モダリティ1で取得された3次元医用画像Vや画像処理ワークステーション3での画像処理によって生成された医用画像を画像データベースに保存・管理するコンピュータであり、大容量外部記憶装置やデータベース管理用ソフトウェア(たとえば、ORDB(Object Relational Database)管理ソフトウェア)を備えている。   The image storage server 2 is a computer that stores and manages a three-dimensional medical image V acquired by the modality 1 and a medical image generated by image processing at the image processing workstation 3 in an image database. And database management software (for example, ORDB (Object Relational Database) management software).

画像処理ワークステーション3は、読影者からの要求に応じて、モダリティ1や画像保管サーバ2から取得した3次元医用画像Vに対して画像処理を行い、生成された画像を表示するコンピュータであり、特に、読影者からの要求を入力するキーボードやマウス等の入力装置と、取得した3次元医用画像Vを格納可能な容量の主記憶装置と、生成された画像を表示するディスプレイとを備えている。本発明の画像読影支援装置は、この画像処理ワークステーション3に実装されており、この装置における処理は、CD−ROM等の記録媒体からインストールされたプログラムを実行することによって実現される。また、プログラムは、インターネット等のネットワーク経由で接続されたサーバからダウンロードされた後にインストールされたものであってもよい。   The image processing workstation 3 is a computer that performs image processing on the three-dimensional medical image V acquired from the modality 1 or the image storage server 2 in response to a request from the interpreter and displays the generated image. In particular, it includes an input device such as a keyboard and a mouse for inputting a request from a radiogram interpreter, a main memory having a capacity capable of storing the acquired three-dimensional medical image V, and a display for displaying the generated image. . The image interpretation support device of the present invention is mounted on the image processing workstation 3, and the processing in this device is realized by executing a program installed from a recording medium such as a CD-ROM. The program may be installed after being downloaded from a server connected via a network such as the Internet.

画像データの格納形式やネットワーク9経由での各装置間の通信は、DICOM(Digital Imaging and Communications in Medicine)等のプロトコルに基づいている。   The storage format of image data and communication between devices via the network 9 are based on a protocol such as DICOM (Digital Imaging and Communications in Medicine).

図6は、画像処理ワークステーション3の本発明の第1の実施形態となる画像読影支援装置の機能を示すブロック図である。図に示すように、この装置は、大腸抽出部11、芯線抽出部12、伸長展開画像生成部13、対応情報記憶部14、視点設定受付部15、位置指定受付部16、投影画像生成部17から構成され、大腸抽出部11が、入力された3次元画像Vから大腸の領域を表す画像VLIを抽出し、芯線抽出部12が、大腸のVLIの管の中心部を通る芯線CLを抽出し、伸長展開画像生成部13は、大腸の領域を表す画像VLI、初期の視点位置または視点設定受付部15で受け付けられた視点情報VP、および芯線CLに基づいて伸長展開画像DVを生成するとともに、対応情報PR(後述)を対応情報記憶部14に記憶させ、位置指定受付部15が、伸長展開画像DV中の注目位置POIの指定を受け付け、投影画像生成部17は、伸長展開画像DV、対応情報PR、注目位置POIに基づき、注目位置POIを投影の中心とする投影画像PVを生成する。以下、各処理部等の詳細について説明する。 FIG. 6 is a block diagram showing the functions of the image interpretation support apparatus according to the first embodiment of the present invention of the image processing workstation 3. As shown in the figure, this apparatus includes a large intestine extraction unit 11, a core line extraction unit 12, an expanded and developed image generation unit 13, a correspondence information storage unit 14, a viewpoint setting reception unit 15, a position designation reception unit 16, and a projection image generation unit 17. The large intestine extraction unit 11 extracts the image V LI representing the large intestine region from the inputted three-dimensional image V, and the core line extraction unit 12 extracts the core line CL passing through the central part of the V LI tube of the large intestine. The expanded expanded image generation unit 13 extracts and generates an expanded expanded image DV based on the image V LI representing the large intestine region, the viewpoint information VP received by the initial viewpoint position or the viewpoint setting reception unit 15, and the core line CL. In addition, the correspondence information PR (described later) is stored in the correspondence information storage unit 14, the position designation receiving unit 15 receives the designation of the position of interest POI in the decompressed expanded image DV, and the projection image generating unit 17 performs the expanded expanded image. Based on DV, correspondence information PR, attention position POI , To generate a projection image PV to the target position POI and the center of the projection. Details of each processing unit and the like will be described below.

本実施形態では、3次元画像Vは、人体の腹部のCTによる撮影で得られたものとする。   In the present embodiment, it is assumed that the three-dimensional image V is obtained by imaging by CT of the human abdomen.

大腸抽出部11は、まず、3次元画像Vから得られる、人体の腹部が含まれる、体軸に垂直な断面(軸位断;axial)による軸位断画像の各々について、公知の手法により、体表を基準に体外と体内領域を分離する処理を行う。具体例としては、入力された軸位断面像に対して二値化処理を施し、輪郭抽出処理により輪郭を抽出し、その抽出した輪郭内部を体内(人体)領域として抽出する方法等が挙げられる。次に、体内領域を対象に閾値による2値化処理を行い、各軸位断画像における大腸の領域の候補を抽出する。具体的には、大腸の管内には空気が入っているため、空気領域を抽出するような閾値を設定して2値化を行い、各軸位断画像の体内の空気領域を抽出する。最後に、図7(a)に模式的に示したように、軸位断画像間で、空気領域がつながる部分のみを大腸領域を表す画像VLIとして抽出する。図7(b)は、抽出された大腸領域に対してボリュームレンダリング処理を行うことによって生成された画像の例である。 First, the large intestine extraction unit 11 uses a known method for each of the axially disconnected images obtained from the three-dimensional image V and including the abdomen of the human body and including a section perpendicular to the body axis (axial). A process for separating the body from the body surface based on the body surface is performed. As a specific example, there is a method of performing binarization processing on the input axial sectional image, extracting a contour by contour extraction processing, and extracting the inside of the extracted contour as a body (human body) region, etc. . Next, a binarization process using a threshold is performed on the in-vivo region, and a candidate for a large intestine region in each axial dislocation image is extracted. Specifically, since air is contained in the large intestine, binarization is performed by setting a threshold value for extracting the air region, and the air region in the body of each axial position image is extracted. Finally, as schematically shown in FIG. 7A, only a portion where the air region is connected between the axial dislocation images is extracted as an image V LI representing the large intestine region. FIG. 7B is an example of an image generated by performing volume rendering processing on the extracted large intestine region.

芯線抽出部12は、公知の手法により、抽出された大腸領域VLIから大腸の管の中心部を通る芯線CLを抽出する。具体例としては、大腸抽出部11の最後の処理で得られる、空気領域がつながる部分のみを抽出した2値化画像、すなわち大腸領域を表す2値化画像に対して3次元の細線化処理を行う方法(上記特許文献3参照)等が挙げられる。 The core line extraction unit 12 extracts the core line CL passing through the central part of the colon tube from the extracted large intestine region VLI by a known method. As a specific example, a three-dimensional thinning process is performed on a binarized image obtained by extracting only a portion to which an air region is connected, that is, a binarized image representing a large intestine region, which is obtained in the last processing of the large intestine extraction unit 11. The method (refer the said patent document 3) etc. which are performed etc. are mentioned.

なお、大腸抽出部11や芯線抽出部12の処理結果を手作業で修正するためのユーザインターフェースをさらに提供してもよい。具体例としては、3次元画像Vから得られる軸位断画像毎に、抽出された大腸の領域VLIや芯線CLを強調して軸位断画像に重畳して表示し、ユーザが、軸位断画像毎に抽出結果が誤っている領域や芯線(画像上では点)を、画像処理ワークステーション3のマウス等を操作して修正を行うインターフェースが挙げられる。 Note that a user interface for manually correcting the processing results of the large intestine extraction unit 11 and the core line extraction unit 12 may be provided. As a specific example, for each axial cut image obtained from the three-dimensional image V, the extracted large intestine region V LI and core line CL are highlighted and displayed on the axial cut image, and the user can An interface that corrects a region or core line (a point on the image) in which the extraction result is incorrect for each cut image by operating the mouse of the image processing workstation 3 or the like can be given.

図8は、伸長展開画像生成部13が行う処理の詳細を模式的に表したものである。   FIG. 8 schematically shows details of processing performed by the decompressed and expanded image generation unit 13.

まず、複数の視点VPm(m=1,2,・・・,M)の位置を特定しうる視点情報VPおよび視点VPmを設定すべき曲線、すなわち大腸の芯線CLの情報を入力として、伸長展開画像DVの生成のための複数の視点VPmの位置を決定する(#21)。ここで、入力される視点情報VPとは、例えば、最初に生成される伸長展開画像DVの初期位置(例えば抽出された大腸の芯線の終端点)の情報である。伸長展開画像生成部13は、この初期位置から、入力された芯線CLに沿って、所定の間隔で、所定数Mの視点VP1, VP2,・・・,VPMを設定する。なお、視点の間隔は、例えば、伸長展開画像生成部13のプログラムの起動パラメータとして与えることができる。または、現在表示されている伸長展開画像DVに対する曲線(芯線CL)方向の移動量を表す情報も視点情報VPの一例となりうる。この場合、現在表示されている伸長展開画像DVに対応する各VPm視点を、芯線CLに沿って、入力された移動量だけ移動させた点が、次に生成すべき伸長展開画像DVの視点VPmの位置となる。 First, the viewpoint information VP that can specify the positions of a plurality of viewpoints VP m (m = 1, 2,..., M) and a curve in which the viewpoint VP m should be set, that is, information on the colon core CL, are input. The positions of a plurality of viewpoints VP m for generating the decompressed expanded image DV are determined (# 21). Here, the input viewpoint information VP is, for example, information on the initial position (for example, the end point of the extracted large intestine core line) of the decompressed expanded image DV generated first. Extension expansion image generation unit 13, from the initial position along the input core CL, at predetermined intervals, the viewpoint VP 1, VP 2 of a predetermined number M, · · ·, set the VP M. Note that the viewpoint interval can be given, for example, as an activation parameter of the program of the decompressed expanded image generation unit 13. Alternatively, information indicating the amount of movement in the direction of the curve (core line CL) with respect to the currently displayed expanded expanded image DV can also be an example of the viewpoint information VP. In this case, the point at which each VP m viewpoint corresponding to the currently displayed decompressed expanded image DV is moved by the input movement amount along the core line CL is the viewpoint of the expanded expanded image DV to be generated next. VP m position.

次に、各視点VPmを始点とする視線ベクトルR1mn(n=1,2,・・・,N)と各視点VPmにおける曲線(芯線)CLの接線ベクトルTVmとのなす角の角度θmnを決定する(#22)。本実施形態では、すべての視線ベクトルR1mnについて、共通の角度90度とする。なお、接線ベクトルTVmは、図1に示したように、各視点VPmにおける曲線(芯線)CLの接線方向のベクトルであって、曲線(芯線)CLに沿って、複数の視点VPmのうちの最後尾の視点VPMから先頭の視点VP1に向かう向きのものである。 Next, the angle between the line-of-sight vector R1 mn (n = 1, 2,..., N) starting from each viewpoint VP m and the tangent vector TV m of the curve (core line) CL at each viewpoint VP m . θ mn is determined (# 22). In the present embodiment, a common angle of 90 degrees is used for all line-of-sight vectors R1 mn . Note that the tangent vector TV m is a vector in the tangential direction of the curve (core line) CL at each viewpoint VP m as shown in FIG. 1, and a plurality of viewpoints VP m along the curve (core line) CL. of which is from the end of the point of view VP M of direction towards the top of the viewpoint VP 1 of.

上記のように、各視線ベクトルにおける角度θmの決定後、伸長展開画像生成部13は、各視点VPmにおけるN個の視線ベクトルR1mnを決定する(#23)。この処理は、視点VPm毎に並列処理として行うことができる。図9は、伸長展開画像生成部13が設定する視線ベクトルR1mnを、視点VPmの接線方向から見たものであり、図に示したように、視線ベクトルR1mnは、視点VPmを視点として放射状に設定される。このときの中心角は、予め起動パラメータ等で与えられた値、あるいは、ユーザによって入力された値とすることができる。図9(a)は中心角が120度、(b)は180度、(c)は360度の例であり、中心角が360度の場合、図9(c)に示したように、視線ベクトルR1m1とRmNを一致させてもよい。 As described above, after determining the angle θ m in each line-of-sight vector, the decompressed expanded image generation unit 13 determines N line-of-sight vectors R1 mn at each viewpoint VP m (# 23). This processing can be performed as parallel processing for each viewpoint VP m . Figure 9 is a line-of-sight vector R1 mn of extension expansion image generation unit 13 sets, which is viewed from the tangential direction of the viewpoint VP m, as shown in FIG., Line vectors R1 mn are perspective viewpoint VP m Is set as radial. The central angle at this time can be a value given in advance by an activation parameter or the like, or a value input by the user. FIG. 9A shows an example in which the central angle is 120 degrees, (b) is 180 degrees, and (c) is 360 degrees. When the central angle is 360 degrees, as shown in FIG. The vectors R1 m1 and R mN may be matched.

次に、伸長展開画像生成部13は、視線ベクトルR1mn毎に、視線ベクトルR1mn上および/または視線ベクトルR1mnの近傍の画像情報を用いて、視線ベクトルR1mn上の3次元画像Vに表された構造物が投影された投影画素PPmnの画素値を決定する(#24)。この処理も、視線ベクトルR1mn毎に並列処理として行うことができる。本実施形態では、投影画素PPmnの画素値の決定方法の一例として、レイキャスティング法を用いたボリュームレンダリング処理を用いる。具体的には、以下のようにして求める。 Next, extension expansion image generation unit 13, for each line vectors R1 mn, using the image information in the vicinity of the line-of-sight vector R1 mn on and / or line-of-sight vector R1 mn, the three-dimensional image V on the line vectors R1 mn The pixel value of the projection pixel PP mn onto which the represented structure is projected is determined (# 24). This processing can also be performed as parallel processing for each line-of-sight vector R1 mn . In this embodiment, volume rendering processing using a ray casting method is used as an example of a method for determining the pixel value of the projection pixel PP mn . Specifically, it is obtained as follows.

予めCT値等に基づいて被検体の組織毎に不透明度αおよび色情報cを定義しておき、これに基づいて、3次元医用画像Vの各ボクセルでの不透明度αおよび色情報cをボクセルデータとして保持しておく。まず、視線ベクトルR1mnに沿って3次元医用画像Vを所定の間隔でサンプリングした複数の探査点Pi(i=1、2、・・・、I)を設定する。次に、各探査点Piにおける輝度値b(Pi)を次式(1)により算出する。
The opacity α and the color information c are defined in advance for each tissue of the subject based on the CT value and the like, and based on this, the opacity α and the color information c in each voxel of the three-dimensional medical image V are voxeled. Keep it as data. First, a plurality of search points P i (i = 1, 2,..., I) obtained by sampling the three-dimensional medical image V at a predetermined interval are set along the line-of-sight vector R1 mn . Next, the luminance value b (P i ) at each search point P i is calculated by the following equation (1).

ここで、hは、拡散反射によるシェーディング係数である。なお、本実施形態では、環境光や鏡面反射光については考慮していない。また、N(Pi)はその探査点PiにおけるCT値の勾配により規定される面の法線ベクトル、Lは、探査点Piから予め与えられた光源Sへの単位方向ベクトル、「・」はベクトルの内積、c(Pi)は探査点Piにおける色情報であり、必要に応じて、近傍のボクセルの色情報を用いた補間計算により求める。 Here, h is a shading coefficient by diffuse reflection. In this embodiment, environmental light and specular reflection light are not considered. Further, N (P i) is the normal vector of the plane defined by the gradient of the CT value at the search point P i, L is a unit direction vector of the light source S given in advance from the search point P i, "- "Is an inner product of vectors, and c (P i ) is color information at the search point P i , and is obtained by interpolation calculation using color information of neighboring voxels as necessary.

また、各探査点Piにおける不透明度α(Pi)は、必要に応じて、近傍のボクセルの不透明度を用いた補間計算により求める。 Further, the opacity α (P i ) at each exploration point P i is obtained by interpolation calculation using the opacity of neighboring voxels as necessary.

そして、次式(2)に示すように、各探査点Piにおける輝度値b(Pi)と不透明度α(Pi)の積を加算していき、不透明度αの累積値が所定の閾値となるか、または視線ベクトルR1mnが対象としている3次元医用画像Vから抜け出たとき、その視線ベクトルR1mnに対する処理を終了し、加算結果をその視線ベクトルR1mnにおける投影画素PPmnの画素値Cとして決定する。
Then, as shown in the following equation (2), the product of the luminance value b (P i ) and the opacity α (P i ) at each exploration point P i is added, and the accumulated value of the opacity α is a predetermined value. When the threshold value is reached or the line-of-sight vector R1 mn exits from the target three-dimensional medical image V, the processing for the line-of-sight vector R1 mn is terminated, and the addition result is the pixel of the projection pixel PP mn in the line-of-sight vector R1 mn . Determine as value C.

上記の処理により、各視点VPmにおける視線ベクトルR1mn毎に投影画素PPmnの画素値を算出した後、伸長展開画像生成部13は、視点VPm毎に、各視線ベクトルR1mnにおける投影画素PPmnを、視線ベクトルR1mnの並び順に、すなわちn=1,2,・・・,Nの順に、1ラインとして投影平面に射影することにより、伸長展開画像DVを生成する(#25)。ここで、投影平面上での各ラインの並び順は、視点VPmの並び順、すなわち、m=1,2,・・・,Mの順である。図2は、投影平面(伸長展開画像DV)における、各投影画素PPmnの射影位置を模式的に表したものである。なお、図10は、視点VPmを原点とする座標空間における視線ベクトルR1mnの向きと伸長展開画像DVの座標平面における視線ベクトルR1mnによる投影画素PPmnの位置関係を表したものである。図10(a)のように、視点VPmを原点、接線ベクトルTLmの方向をz軸、視線ベクトルR1m1の方向をx軸とした座標空間において、視線ベクトルR1m1の向きを基準とし、視線ベクトルR1m1とR1mnのなす角の角度をβ、視点VPmにおける視線ベクトルR1m1からR1mNまでの放射角(中心角)をβ0とする。一方、図10(b)のように、伸長展開画像DVの左右方向(曲線(芯線CL)に垂直な上記ライン方向)の幅をw、視線ベクトルR1m1における投影画素PPm1の左右方向の射影位置を0、視線ベクトルR1mnにおける投影画素PPmnの左右方向の射影位置をxとする。ここで、図10(a)のz軸周りにβ度回転させる回転行列をRotZ(β)とすると、次式(3)が成り立つ。
After calculating the pixel value of the projection pixel PP mn for each line-of-sight vector R1 mn at each viewpoint VP m by the above processing, the decompressed expanded image generation unit 13 projects the projection pixel at each line-of-sight vector R1 mn for each viewpoint VP m. Projecting PP mn onto the projection plane as one line in the order in which the line-of-sight vectors R1 mn are arranged, that is, in the order of n = 1, 2,..., N, generates an expanded and developed image DV (# 25). Here, the arrangement order of the lines on the projection plane is the arrangement order of the viewpoints VP m , that is, the order of m = 1, 2,. FIG. 2 schematically shows the projection position of each projection pixel PP mn in the projection plane (expanded developed image DV). Incidentally, FIG. 10 illustrates a positional relationship between the projection pixel PP mn by line-of-sight vectors R1 mn in orientation and coordinate plane of extension developed view DV viewpoint VP m gaze vector R1 mn in the coordinate space with the origin. As shown in FIG. 10A, in the coordinate space where the viewpoint VP m is the origin, the direction of the tangent vector TL m is the z axis, and the direction of the line of sight vector R1 m1 is the x axis, the direction of the line of sight vector R1 m1 is used as a reference. The angle between the line-of-sight vectors R1 m1 and R1 mn is β, and the radiation angle (center angle) from the line-of-sight vectors R1 m1 to R1 mN at the viewpoint VP m is β 0 . On the other hand, as shown in FIG. 10B, the left-right projection of the projection pixel PP m1 in the line-of-sight vector R1 m1 is w and the width in the left-right direction (the above-described line direction perpendicular to the curve (core line CL)) of the expanded unfolded image DV. The position is 0, and the projected position in the left-right direction of the projection pixel PP mn at the line-of-sight vector R1 mn is x. Here, when a rotation matrix that rotates β degrees around the z axis in FIG. 10A is RotZ (β), the following equation (3) is established.

したがって、この式(3)に基づいて、すなわち、各視点VPmにおける視線ベクトルR1mnと基準となる視線ベクトル(例えばR1m1)とがなす角βの視線ベクトルR1m1からR1mNまでの放射角β0に対する比率が、展開画像DVにおけるその視線ベクトルR1mnに対応する投影画素PPmnの左右方向(ライン方向)の位置の展開画像DVの左右方向(ライン方向)の幅に対する比率と一致するように、各投影画素PPmnの展開画像DV上における左右方向(ライン方向)の位置を決定することができる。 Therefore, based on this equation (3), that is, the radiation angle from the line-of-sight vector R1 m1 to R1 mN of the angle β formed by the line-of-sight vector R1 mn at each viewpoint VP m and the reference line-of-sight vector (for example, R1 m1 ). The ratio to β 0 matches the ratio of the position in the left-right direction (line direction) of the projection pixel PP mn corresponding to the line-of-sight vector R1 mn in the developed image DV to the width in the left-right direction (line direction) of the developed image DV. In addition, the position of each projection pixel PP mn in the left-right direction (line direction) on the developed image DV can be determined.

一方、伸長展開画像DVの上下方向(芯線CL方向)に対応する方向、すなわち視点VPmが並ぶ方向)の射影位置については、例えば、視点VP1における上記ラインを伸長展開画像DVの最上部、視点VPNにおける上記ラインを伸長展開画像DVの最下部とし、その間の視点VP2, VP3,・・・VPM-1における上記ラインは、3次元医用画像Vの座標空間における視点VPmの間隔に応じて配置すればよい。 On the other hand, for the projection position in the direction corresponding to the up-down direction (core line CL direction) of the expanded expanded image DV, that is, the direction in which the viewpoint VP m is arranged, for example, the above line at the viewpoint VP 1 is the top of the expanded expanded image DV, the line and the bottom of the extension developed view DV in the viewpoint VP N, during which the viewpoint VP 2, VP 3, the line in ··· VP M-1, the viewpoint VP m in the coordinate space of the three-dimensional medical image V What is necessary is just to arrange | position according to a space | interval.

図13(a)の画像は、伸長展開画像生成部13による以上の処理で生成される伸長展開画像DVの一例である。   The image in FIG. 13A is an example of the decompressed expanded image DV generated by the above-described processing by the expanded expanded image generation unit 13.

対応情報記憶部14は、画像処理ワークステーション3の主記憶装置の所定の領域であり、本実施形態では、伸長展開画像DVの先頭の視点VP1の3次元画像Vの座標系における位置を対応情報PRとして記憶しているものとする。 The correspondence information storage unit 14 is a predetermined area of the main storage device of the image processing workstation 3. In this embodiment, the correspondence information storage unit 14 corresponds to the position in the coordinate system of the three-dimensional image V of the first viewpoint VP 1 of the decompressed expanded image DV. Assume that it is stored as information PR.

視点設定受付部15は、現在表示されている伸長展開画像DVに対する曲線(芯線CL)方向の移動量の入力を受け付けるユーザインターフェースを提供する。具体例としては、画像処理ワークステーション3のディスプレイに表示されている伸長展開画像DVに対するマウスのクリック操作等によって、伸長展開画像DVを選択した後、マウスのホイール部を回転させたり、キーボードの上下矢印キーを押下したりすることによって、その回転量や押下回数(押下時間)を、伸長展開画像DVに対する曲線(芯線CL)方向の移動量の入力として受け付けるユーザインターフェースが挙げられる。なお、上記回転量や押下回数(押下時間)から上記移動量への換算は、予め計算式を用意しておけばよい。また、体の外側からみた大腸の画像(図7(b)参照)やそれに芯線CLを重畳した画像をディスプレイに表示し、その画像に対して、新たな視点の位置を設定可能にするユーザインターフェースであってもよい。   The viewpoint setting accepting unit 15 provides a user interface that accepts an input of a movement amount in a curve (core line CL) direction with respect to the currently displayed expanded development image DV. As a specific example, after selecting the expanded / unfolded image DV by clicking the expanded / unfolded image DV displayed on the display of the image processing workstation 3, the mouse wheel is rotated, the keyboard is A user interface that accepts the amount of rotation and the number of times of pressing (pressing time) as an input of the amount of movement in the direction of the curve (core line CL) with respect to the expanded expanded image DV by pressing an arrow key can be mentioned. Note that the conversion from the rotation amount and the number of times of pressing (pressing time) to the moving amount may be prepared in advance. In addition, a user interface that displays an image of the large intestine viewed from the outside of the body (see FIG. 7B) and an image in which the core line CL is superimposed on the display, and allows setting of a new viewpoint position for the image. It may be.

位置指定受付部16は、現在表示されている伸長展開画像DV中の位置の指定を受け付けるユーザインターフェースを提供する。例えば、図13(a)に例示された伸長展開画像DV中の注目位置POIをマウスでクリックすることにより、位置指定受付部16は、伸長展開画像DVの座標系におけるクリックされた位置POI(例えば図2のPPuv)の座標を取得する。 The position designation receiving unit 16 provides a user interface that accepts designation of a position in the currently displayed decompressed expanded image DV. For example, by clicking on the position of interest POI in the expanded expanded image DV illustrated in FIG. 13A with the mouse, the position designation receiving unit 16 causes the clicked position POI in the coordinate system of the expanded expanded image DV (for example, The coordinates of PP uv ) in FIG. 2 are acquired.

投影画像生成部17は、対応情報記憶部14に記憶された対応情報PRに基づいて、位置指定受付部16によって受け付けられた注目位置POI(PPuv)に対応する視線ベクトルR1uvを特定し、特定された視線ベクトルR1uvの始点VPuを視点とし、視線ベクトルR1uvの向きを投影の向きの中心とする中心投影により、注目位置PPuvに対応する3次元画像V中の位置(R1uv上の任意の位置)が中心に投影された投影画像PVを生成する。以下、詳細について説明する。 The projection image generation unit 17 specifies the line-of-sight vector R1 uv corresponding to the target position POI (PP uv ) received by the position designation reception unit 16 based on the correspondence information PR stored in the correspondence information storage unit 14. A position (R1 uv) in the three-dimensional image V corresponding to the target position PP uv is obtained by central projection with the start point VP u of the identified line-of-sight vector R1 uv as the viewpoint and the direction of the line-of-sight vector R1 uv as the center of the projection direction. A projection image PV is generated in which an arbitrary position above is projected at the center. Details will be described below.

[1] 注目位置に対応する視点の3次元画像の座標系における位置の特定
投影画像生成部17は、まず、位置指定受付部16によって受け付けられた注目位置POI(PPuv)の伸長展開画像DVの座標系における座標から、注目位置POI(PPuv)が伸長展開画像DVの上下方向(芯線CLの方向)における何番目の画素であるかを特定する。ここではu番目の画素である。次に、対応情報記憶部14に記憶された対応情報PR、すなわち、伸長展開画像DVの先頭の視点VP1の3次元画像Vの座標系における位置と、本実施形態では伸長展開画像生成部13のプログラムの起動パラメータとして与えられた視点間隔とに基づき、u番目の視点、すなわち、芯線CL上における投影画素PPuvに対応する視点VPuの3次元画像Vの座標系における位置を特定する。
[1] Specification of the position of the viewpoint corresponding to the target position in the coordinate system of the three-dimensional image The projection image generation unit 17 first expands and expands the image DV of the target position POI (PP uv ) received by the position designation reception unit 16. from the coordinates in the coordinate system, the target position POI (PP uv) to identify what number of pixels in the vertical direction of extension developed view DV (direction of the core wire CL). Here, it is the u-th pixel. Next, the correspondence information PR stored in the correspondence information storage unit 14, that is, the position in the coordinate system of the three-dimensional image V of the first viewpoint VP1 of the expanded expanded image DV, and the expanded expanded image generation unit 13 in the present embodiment. The position of the u-th viewpoint, that is, the viewpoint VP u corresponding to the projection pixel PP uv on the core line CL, in the coordinate system is specified based on the viewpoint interval given as the program start parameter.

[2] 注目位置に対応する視線ベクトルの3次元画像の座標系における向きの特定
一方、投影画像生成部17は、位置指定受付部16によって受け付けられた注目位置POI(PPuv)の伸長展開画像DVの座標系における座標から、注目位置POI(PPuv)が伸長展開画像DVの左右方向(ライン方向)における何番目の画素であるかを特定する。ここではv番目の画素である。次に、伸長展開画像DVの左右方向(ライン方向)における1番目の画素からv番目までの間の幅xを求め、この幅xと伸長展開画像DVの画像幅w、ならびに、予め決められた、基準となる視線ベクトルR1u1の向きと視線ベクトルR1u1からR1uNまでの放射角(中心角)β0とに基づくと、視線ベクトルR1u1とR1uvのなす角の角度βは、β0×x/wとなるから、上式(3)により、注目位置PPuvに対応する視線ベクトルR1uvの図10(a)の座標系(以下、投影計算平面の座標系という)における向きが求められる。
[2] Identification of the direction of the line-of-sight vector corresponding to the target position in the coordinate system of the three-dimensional image On the other hand, the projection image generation unit 17 expands and expands the target position POI (PP uv ) received by the position designation receiving unit 16 From the coordinates in the DV coordinate system, the pixel number in the left-right direction (line direction) of the expanded expanded image DV is specified from the position of interest POI (PP uv ). Here, it is the vth pixel. Next, a width x from the first pixel to the vth in the left-right direction (line direction) of the expanded expanded image DV is obtained, and this width x and the image width w of the expanded expanded image DV are determined in advance. Based on the direction of the reference line-of-sight vector R1 u1 and the radiation angle (center angle) β 0 from the line-of-sight vectors R1 u1 to R1 uN , the angle β between the line-of-sight vectors R1 u1 and R1 uv is β 0 Since x / w, the direction in the coordinate system of FIG. 10A (hereinafter referred to as the coordinate system of the projection calculation plane) of the line-of-sight vector R1 uv corresponding to the target position PP uv is obtained by the above equation (3). It is done.

さらに、投影画像生成部17は、視線ベクトルR1uvの3次元画像Vの座標系における向きを求める。図11は、投影計算平面の座標系C1と3次元画像Vの座標系C0の関係を模式的に表したものである。図に示したように、3次元画像Vの座標系C0から見た投影計算平面の座標系C1の傾きを表す行列をTとし、視線ベクトルR1uvの投影計算平面の座標系における向きをC1(R1uv)とすると、視線ベクトルR1uvの3次元画像Vの座標系における向きC0(R1uv)は、次式(4)により求められる。 Further, the projection image generation unit 17 obtains the orientation of the line-of-sight vector R1 uv in the coordinate system of the three-dimensional image V. FIG. 11 schematically shows the relationship between the coordinate system C 1 of the projection calculation plane and the coordinate system C 0 of the three-dimensional image V. As shown in the figure, T is a matrix representing the inclination of the coordinate system C 1 of the projection calculation plane viewed from the coordinate system C 0 of the three-dimensional image V, and the direction of the line-of-sight vector R1 uv in the coordinate system of the projection calculation plane is Assuming that C 1 (R1 uv ), the direction C 0 (R1 uv ) of the line-of-sight vector R1 uv in the coordinate system of the three-dimensional image V is obtained by the following equation (4).

0(R1uv)=T*C1(R1uv) (4)
ここで、「*」は行列の積を表す。
C 0 (R1 uv ) = T * C 1 (R1 uv ) (4)
Here, “*” represents a matrix product.

[3] 投影画像の生成
投影画像生成部17は、以上の処理によって求められた3次元画像Vの座標系における視点VPuの位置C0(VPu)、視線ベクトルR1uvの向きC0(R1uv)を用いて、図12(a)に模式的に表したように、視線ベクトルR1uvの始点VPuを視点とし、視線ベクトルR1uvの向きを投影の向きの中心とする中心投影により、投影画像PVを生成する。中心投影法の具体的内容は、本実施形態ではボリュームレンダリング法とする。この中心投影における視線ベクトル毎の投影画素の算出方法は、上式(1)(2)と同様である。図13(b)の画像は、上記の処理によって作成された中心投影画像PVの一例であり、注目位置(PPuv)に対応する3次元画像V中の位置(R1uv上の任意の位置)が画像の中心に投影されている。
[3] Position C 0 (VP u) of the viewpoint VP u in the coordinate system of the three-dimensional image V obtained by the generated projection image generation unit 17, the above processing of the projected image, line-of-sight vector R1 uv orientation C 0 ( with R1 uv), as schematically illustrated in FIG. 12 (a), the view point the starting point VP u of the line-of-sight vector R1 uv, the central projection of the center of the direction of projecting the direction of the sight line vector R1 uv The projection image PV is generated. The specific content of the central projection method is a volume rendering method in this embodiment. The calculation method of the projection pixel for each line-of-sight vector in this central projection is the same as the above formulas (1) and (2). The image in FIG. 13B is an example of the center projection image PV created by the above processing, and the position in the three-dimensional image V corresponding to the target position (PP uv ) (arbitrary position on R1 uv ). Is projected at the center of the image.

なお、投影画像生成部17は、図12(b)に模式的に表したように視線ベクトルR1uvの始点(VPu)の位置を視点の中心とし、視線ベクトルR1uvの向きを投影の向きとする平行投影により、平行投影画像PVを生成するようにしてもよい。 The projection image generation unit 17, the center position of the viewpoint shown in FIG. 12 (b) to schematically represent the line of sight vector R1 uv starting point as (VP u), the projection of the direction of the sight line vector R1 uv orientation The parallel projection image PV may be generated by parallel projection.

次に、図14のフローチャート、図6のブロック図等を用いて、本発明の画像読影支援装置によって実現されるワークフローについて説明する。   Next, the workflow realized by the image interpretation support apparatus of the present invention will be described using the flowchart of FIG. 14, the block diagram of FIG.

まず、画像診断医等のユーザは、画像処理ワークステーション3に表示される診断対象の画像リストから所望の3次元画像Vを選択する操作を行うと(#1)、その3次元画像Vの軸位断による断面画像がディスプレイに表示される。   First, when a user such as an image diagnostician performs an operation of selecting a desired three-dimensional image V from an image list to be diagnosed displayed on the image processing workstation 3 (# 1), the axis of the three-dimensional image V is selected. A cross-sectional image by the dislocation is displayed on the display.

次に、ユーザが、その3次元画像Vに基づく診断を行うために、画像処理ワークステーション3のディスプレイに表示されているメニュー画面から「大腸解析」を選択すると(#2)、大腸抽出部11が、入力された3次元画像Vから大腸の領域を表す画像VLIを抽出し(#3)、芯線抽出部12が、大腸のVLIの管の中心部を通る芯線CLを抽出する(#4)。ここで、ユーザは、抽出結果を画面で確認し、必要に応じて、抽出結果の手修正を行う。 Next, when the user selects “colon analysis” from the menu screen displayed on the display of the image processing workstation 3 in order to make a diagnosis based on the three-dimensional image V (# 2), the colon extracting unit 11 However, the image V LI representing the large intestine region is extracted from the inputted three-dimensional image V (# 3), and the core line extraction unit 12 extracts the core line CL passing through the central part of the V LI tube of the large intestine (# Four). Here, the user confirms the extraction result on the screen, and manually corrects the extraction result as necessary.

芯線が確定した後、ユーザが上記メニュー画面から「伸長展開画像の生成」を選択すると、伸長展開画像生成部13は、このプログラムの起動パラメータに基づいて、芯線CLの下端(大腸の終端部)を伸長展開画像DVの初期展開位置(視点)に決定し、その位置に基づいて、M個の視点VPm(m=1,2,・・・,M)を芯線CL上に設定し、設定された各視点VPmにおける視線ベクトルR1mn(n=1,2,・・・,N)とその視点VPmにおける接線ベクトルTVmのなす角の角度θmを決定する。次に、視点VPm毎の並列処理により、各視点VPmにおける視線ベクトルR1mnの向きを決定し、さらに、視線ベクトルR1mn毎の並列処理により、視線ベクトルR1mn上および/または視線ベクトルR1mnの近傍の画像情報を用いて、視線ベクトルR1mn上の3次元画像Vに表された構造物が投影された投影画素PPmnの画素値を決定する。そして、視点VPm毎に、各視線ベクトルR1mnにおける投影画素PPmnを、視線ベクトルR1mnの並び順に、すなわちn=1,2,・・・,Nの順に、1ラインとして、各視点VPmの並び順、すなわち、m=1,2,・・・,Mの並び順が保持されるように投影平面に射影することにより、伸長展開画像DVを生成する(#6)。なお、このとき、先頭の視点VP1の3次元画像Vの座標系における座標が対応情報PRとして対応情報記憶部14に記憶されている。 After the core line is confirmed, when the user selects “Generate expanded expanded image” from the menu screen, the expanded expanded image generation unit 13 determines the lower end of the core line CL (the end portion of the large intestine) based on the activation parameter of the program. Is determined as the initial development position (viewpoint) of the decompressed expanded image DV, and M viewpoints VP m (m = 1, 2,..., M) are set on the core line CL based on the positions. line vectors R1 mn at each of the viewpoints VP m which is (n = 1,2, ···, n ) and to determine the angle theta m of the angle between the tangent vector TV m at the viewpoint VP m. Next, the viewpoint VP by the parallel processing for each m, and determines the direction of the sight line vector R1 mn at each viewpoint VP m, further, by the parallel processing for each line vectors R1 mn, line vectors R1 mn on and / or line-of-sight vector R1 using the image information of the vicinity of the mn, structure represented in the three-dimensional image V on the line vectors R1 mn determines the pixel values of projection pixels PP mn projected. Then, for each viewpoint VP m, the projection pixel PP mn in each line vectors R1 mn, the arrangement order of the line-of-sight vector R1 mn, i.e. n = 1, 2, · · ·, in the order of N, as one line, each of the viewpoints VP order of m, i.e., m = 1, 2, · · ·, by projecting the projection plane as order of M is retained, to generate an extended deployment image DV (# 6). At this time, the coordinates in the coordinate system of the three-dimensional image V of the first viewpoint VP 1 are stored in the correspondence information storage unit 14 as correspondence information PR.

生成された伸長展開画像DVは画像処理ワークステーション3のディスプレイに表示される。ユーザが、例えば図13(a)のような伸長展開画像DVを観察し、さらに芯線CLに沿った先の画像を観察したいと考えた場合、伸長展開画像DVをクリックした後にマウスのホイールを前進回転させると、視点設定受付部15は、その回転量を取得し、伸長展開画像DVに対する曲線(芯線CL)方向の移動量の入力として受け付け、伸長展開画像生成部13に、その移動量を視点情報VPとして引き渡す(#7; YES)。   The generated expanded development image DV is displayed on the display of the image processing workstation 3. For example, when the user wants to observe an expanded development image DV as shown in FIG. 13 (a) and wants to observe a previous image along the core line CL, the user advances the mouse wheel after clicking the expanded development image DV. When rotated, the viewpoint setting accepting unit 15 acquires the amount of rotation, accepts it as an input of the amount of movement in the direction of the curve (core line CL) with respect to the expanded expanded image DV, and the expanded expanded image generation unit 13 determines the amount of movement as a viewpoint. Deliver it as information VP (# 7; YES).

伸長展開画像生成部13は視点設定受付部15が取得した視点の移動量の情報VPに基づいて次に生成する伸長展開画像DVの視点VPmを設定し、以下、上記と同様の処理により新たな伸長展開画像DVを生成する(#6)。画像処理ワークステーション3は伸長展開画像DVの表示を新たに生成された画像に更新し、ユーザは更新された伸長展開画像を観察する。なお、このとき、対応情報記憶部14に記憶されている先頭の視点VP1の3次元画像Vの座標系における座標も更新されている。 The decompressed expanded image generation unit 13 sets the viewpoint VP m of the expanded expanded image DV to be generated next on the basis of the viewpoint movement amount information VP acquired by the viewpoint setting reception unit 15, and thereafter, a new process is performed through the same process as described above. A simple decompressed expanded image DV is generated (# 6). The image processing workstation 3 updates the display of the decompressed expanded image DV to the newly generated image, and the user observes the updated expanded expanded image. At this time, the coordinates in the coordinate system of the three-dimensional image V of the first viewpoint VP 1 stored in the correspondence information storage unit 14 are also updated.

次に、ユーザが、例えば図13(a)に示したような伸長展開画像DVの注目すべき位置POIをクリックして指定すると、位置指定受付部16が、クリックされた位置POI(例えば図2のPPuv)の伸長展開画像DVの座標系における座標を取得する(#8; YES)。 Next, when the user clicks and designates a position POI to be noted of the decompressed and expanded image DV as shown in FIG. 13A, for example, the position designation receiving unit 16 clicks on the clicked position POI (for example, FIG. 2). To obtain the coordinates in the coordinate system of the decompressed expanded image DV of (PP uv ) of (# 8; YES).

投影画像生成部17は、対応情報PRと、クリックされた位置POI(PPuv)の伸長展開画像DVの座標系における座標に基づき、その位置PPuvに対応する視点VPuの3次元画像Vの座標系における位置を特定するとともに、投影計算平面の座標系における、その位置PPuvに対応する視線ベクトルRuvの向きを求め、さらに、投影計算平面の座標系における視線ベクトルRuvの向きを3次元画像Vの座標系における向きに変換する。そして、3次元画像Vの座標系における視点VPuと視線ベクトルRuvの向きに基づいて中心投影または平行投影による投影画像PVを生成する(#9)。生成された投影画像PVは画像処理ワークステーション3のディスプレイに表示される。 Based on the correspondence information PR and the coordinates of the clicked position POI (PP uv ) in the coordinate system of the expanded and expanded image DV, the projection image generation unit 17 generates the 3D image V of the viewpoint VP u corresponding to the position PP uv . The position in the coordinate system is specified, the direction of the line-of-sight vector R uv corresponding to the position PP uv in the coordinate system of the projection calculation plane is obtained, and the direction of the line-of-sight vector R uv in the coordinate system of the projection calculation plane is further determined by 3 The direction of the dimension image V in the coordinate system is converted. Then, based on the viewpoint VP u and the direction of the line-of-sight vector R uv in the coordinate system of the three-dimensional image V, a projection image PV by central projection or parallel projection is generated (# 9). The generated projection image PV is displayed on the display of the image processing workstation 3.

このように、本発明の第1の実施の形態となる画像読影装置が実装された3次元医用画像処理システムでは、伸長展開画像生成部13は、大腸の領域を表す画像VLI、初期の視点位置または視点設定受付部15で受け付けられた視点情報VP、および芯線CLに基づいて伸長展開画像DVを生成するとともに、対応情報PRを対応情報記憶部14に記憶させ、位置指定受付部15が伸長展開画像DV中の注目位置POIの指定を受け付けると、投影画像生成部17は、伸長展開画像DV、対応情報PR、注目位置POIに基づき、注目位置POIを投影の中心とする投影画像PVを生成する。したがって、伸長展開画像DVで全体的な観察を行った後、その画像DV中で発見された注目位置POIを指定すれば、その注目位置POIの3次元画像V中での位置等をさらに指定することなく、自動的にその注目位置POIを投影の中心となる投影画像DVが生成され、これを観察することができるので、屈曲した管腔状構造物を表す画像の観察における全体から部分・詳細へというワークフローがより効率的なものとなる。 As described above, in the three-dimensional medical image processing system in which the image interpretation apparatus according to the first embodiment of the present invention is mounted, the decompressed and expanded image generation unit 13 includes the image V LI representing the large intestine region, the initial viewpoint The decompressed expanded image DV is generated based on the viewpoint information VP and the core line CL received by the position or viewpoint setting receiving unit 15, and the correspondence information PR is stored in the correspondence information storage unit 14, and the position designation receiving unit 15 decompresses. Upon receiving the designation of the target position POI in the developed image DV, the projection image generating unit 17 generates a projection image PV having the target position POI as the center of projection based on the decompressed developed image DV, the correspondence information PR, and the target position POI. To do. Therefore, if the attention position POI found in the image DV is specified after performing the overall observation with the decompressed and expanded image DV, the position of the attention position POI in the three-dimensional image V is further specified. Therefore, a projection image DV centered on the target position POI is automatically generated and can be observed, so part and detail of the entire image representing the bent tubular structure can be observed. The workflow is more efficient.

次に、本発明の第2の実施形態として、伸長展開画像DVの代わりに伸長断面画像SVを生成する場合について説明する。図15は、本発明の第2の実施形態となる画像読影支援装置の機能を示すブロック図である。図に示すように、伸長展開画像生成部13が伸長断面生成部18に置換された構成となっている。また、対応情報PRの内容や投影画像生成部17の処理の内容も上記実施形態とは異なっている。以下、これらの相違点を中心に説明する。   Next, as a second embodiment of the present invention, a case where an expanded cross-sectional image SV is generated instead of the expanded expanded image DV will be described. FIG. 15 is a block diagram showing functions of an image interpretation support apparatus according to the second embodiment of the present invention. As shown in the figure, the expanded expanded image generation unit 13 is replaced with an expanded cross-section generation unit 18. Further, the contents of the correspondence information PR and the contents of the processing of the projection image generation unit 17 are also different from the above embodiment. Hereinafter, these differences will be mainly described.

伸長断面画像生成部18は、大腸VLIの芯線CLを通る曲面CS上の複数の視点VPmn(m=1,2,・・・,M、n=1,2,・・・,N)を始点とする視線ベクトルR2mn毎に、視線ベクトルR2mn上および/または視線ベクトルR2mnの近傍の画像情報を用いて、視線ベクトルR2mn上の大腸VLIが投影された投影画素PPmnの画素値を決定し、各視点VPmnの並び順が保持されるように、投影画素PPmnの各々を投影平面に配置した伸長断面画像SVを生成するものである。 The expanded cross-sectional image generation unit 18 has a plurality of viewpoints VP mn (m = 1, 2,..., M, n = 1, 2,..., N) on the curved surface CS passing through the core line CL of the large intestine V LI. the per line vectors R2 mn to start, using the image information in the vicinity of the line-of-sight vector R2 mn on and / or line-of-sight vector R2 mn, the projection pixel PP mn of colon V LI is projected on the eye vector R2 mn A pixel value is determined, and an expanded cross-sectional image SV in which each of the projection pixels PP mn is arranged on the projection plane is generated so that the arrangement order of the viewpoints VP mn is maintained.

図16は、伸長断面画像生成部18が行う処理の詳細を模式的に表している。また、図17は、この処理によって視点や視線ベクトルが設定される様子を模式的に表したものである。   FIG. 16 schematically shows details of processing performed by the elongated cross-sectional image generation unit 18. FIG. 17 schematically shows how the viewpoint and the line-of-sight vector are set by this processing.

まず、上記第1の実施形態と同様に、大腸VLIの芯線CL上に複数の視点(VPmCとする)を設定する(#31)。 First, as in the first embodiment, (a VP mC) a plurality of viewpoints on the core line CL of the large intestine V LI sets a (# 31).

次に、芯線CL上に複数の視点VPmCを始点とする視線ベクトルR2mC(n=1,2,・・・,N)と各視点VPmCにおける曲線(芯線)CLの接線ベクトルTVmとのなす角の角度θmCを決定する(#32)。本実施形態では、すべての視線ベクトルR2mCについて、角度θmCは90度とし、伸長断面画像生成部18のプログラムの起動パラメータとして与えられたものとする。なお、接線ベクトルTVmは、各視点VPmCにおける芯線CLの接線方向のベクトルであって、芯線CLに沿って、複数の視点VPmCのうちの最後尾の視点VPMCから先頭の視点VP1Cに向かう向きのものである。なお、視点ベクトルR2mCを大腸VLIのどちら側に向かうベクトルとするかについても上記のパラメータとして与えられるものとする。詳細については後述する(図19参照)。 Next, a line-of-sight vector R2 mC (n = 1, 2,..., N) starting from a plurality of viewpoints VP mC on the core line CL and a tangent vector TV m of the curve (core line) CL at each viewpoint VP mC Is determined (# 32). In the present embodiment, it is assumed that the angle θ mC is 90 degrees for all the line-of-sight vectors R2 mC , and is given as a program start parameter of the elongated cross-sectional image generation unit 18. Note that the tangent vector TV m is a tangential vector of the core line CL in each viewpoint VP mC, along the core line CL, the top of the viewpoint VP 1C from the end of the viewpoint VP MC of the plurality of viewpoints VP mC The direction is toward. It should be noted that which side of the large intestine V LI is the viewpoint vector R2 mC is given as the above parameter. Details will be described later (see FIG. 19).

次に、視点VPmC(m=1,2,・・・,M)毎に、接線ベクトルTVmおよび視線ベクトルR2mCに垂直なライン上に、視点VPmn(n=1,2,・・・,N)を設定し、各視点VPmnを始点とする視線ベクトルR2mCに平行な視線ベクトルR2mnを決定する(#33)。この処理は、視点VPmC毎に並列処理として行うことができる。なお、図17の曲面CSは各視点VPmnのすべてを通る曲面を表している。 Next, for each viewpoint VP mC (m = 1, 2,..., M), on the line perpendicular to the tangent vector TV m and the line of sight vector R2 mC , the viewpoint VP mn (n = 1, 2,... ·, set N), the determined parallel line vectors R2 mn gaze vector R2 mC that starting from the viewpoints VP mn (# 33). This processing can be performed as parallel processing for each viewpoint VP mC . Note that the curved surface CS in FIG. 17 represents a curved surface passing through all the viewpoints VP mn .

伸長断面画像生成部18は、上記第1の実施形態と同様にして、視線ベクトルR2mn毎の並列処理により、視線ベクトルR2mn上の3次元画像Vに表された構造物が投影された投影画素PPmnの画素値を決定する(#34)。 Extension sectional image generation unit 18, in the same manner as in the first embodiment, the parallel processing of each line vectors R2 mn, structures represented in the three-dimensional image V on the line vectors R2 mn is projected projection The pixel value of the pixel PP mn is determined (# 34).

最後に、上記ライン毎、すなわち、視点VPmnのmの値が同じ視点毎に、各視線ベクトルR2mnにおける投影画素PPmnを、視線ベクトルR2mnの並び順に、すなわちn=1,2,・・・,Nの順に1ラインとして投影平面に射影することにより、伸長断面画像SVを生成する(#35)。ここで、投影平面上での各ラインの並び順は、視点VPmの並び順、すなわち、m=1,2,・・・,Mの順である。図2は、投影平面(伸長断面画像SV)における、各投影画素PPmnの射影位置を模式的に表したものである。 Finally, the line for each, i.e., for each value the same perspective m viewpoint VP mn, the projection pixel PP mn in each line vectors R2 mn, the arrangement order of the line-of-sight vector R2 mn, i.e. n = 1, 2, · .., N are projected onto the projection plane as one line in the order of N to generate an expanded cross-sectional image SV (# 35). Here, the arrangement order of the lines on the projection plane is the arrangement order of the viewpoints VP m , that is, the order of m = 1, 2,. FIG. 2 schematically shows the projection position of each projection pixel PP mn in the projection plane (elongated sectional image SV).

ここで、本実施形態では、ライン上の視線ベクトルR2mn(n=1,2,・・・,N)は平行であるから、ライン方向の視線VPmn(n=1,2,・・・,N)の間隔は、そのまま、伸長断面画像SVにおける投影画素PPmn(n=1,2,・・・,N)の画素間隔となる(図20参照)。 Here, in this embodiment, the line-of-sight vectors R2 mn (n = 1, 2,..., N) are parallel, and therefore the line-of-sight lines VP mn (n = 1, 2,... , N) is the pixel interval of the projection pixel PP mn (n = 1, 2,..., N) in the expanded cross-sectional image SV as it is (see FIG. 20).

一方、伸長断面画像SVの上下方向(芯線CL方向)に対応する方向、すなわち視点VPmC(m=1,2,・・・,Mが並ぶ方向)の射影位置については、例えば、視点VP1Cにおける上記ラインを伸長断面画像SVの最上部、視点VPNCにおける上記ラインを伸長断面画像SVの最下部とし、その間の視点VP2C, VP3C,・・・VP(M-1)Cにおける上記ラインは、3次元医用画像Vの座標空間における視点VPmCの間隔に応じて配置すればよい。 On the other hand, for the projection position in the direction corresponding to the vertical direction (the core line CL direction) of the expanded cross-sectional image SV, that is, the viewpoint VP mC (the direction in which m = 1, 2,..., M is arranged), for example, the viewpoint VP 1C The above line at the top of the expanded cross-sectional image SV and the above line at the viewpoint VP NC as the bottom of the expanded cross-sectional image SV, and the above lines at the viewpoints VP 2C , VP 3C ,... VP (M-1) C May be arranged according to the interval of the viewpoints VP mC in the coordinate space of the three-dimensional medical image V.

図18は、伸長断面画像生成部18による以上の処理で生成される伸長断面画像SVの一例である。図に示したように、伸長断面画像SVは、曲面CSによる大腸VLIの断面となるため、大腸VLIの管を切り開いた様子を表す伸長展開画像DVよりも芯線CLに垂直な方向の表示範囲が狭くなる。 FIG. 18 is an example of an expanded slice image SV generated by the above processing by the expanded slice image generation unit 18. As shown in the figure, since the expanded cross-sectional image SV is a cross section of the large intestine V LI by the curved surface CS, the display in a direction perpendicular to the core line CL rather than the expanded expanded image DV showing the state where the tube of the large intestine V LI is cut open The range becomes narrower.

そこで、複数の伸長断面画像SVを組み合わせて、大腸VLIの全周方向が確認できるようにしてもよい。図19は、その一例を模式的に表したものである。図は、大腸VLIを芯線CLに垂直な方向でスライスした断面を表している。図に示したように、中心角が180度の3つの伸長断面画像SV1,SV2,SV3を、両端を60度ずつ重複させて生成する。曲面CS1、CS2、CS3は、各々、伸長断面画像SV1,SV2,SV3の生成の際の視点が含まれる曲面である。このように、伸長断面画像の左右の端部を重複させて複数の伸長断面画像SV1,SV2,SV3を生成すれば、注目領域が複数の画像にまたがって見づらくなることも回避できる。 Therefore, a plurality of elongated sectional images SV may be combined so that the entire circumference direction of the large intestine VLI can be confirmed. FIG. 19 schematically shows an example thereof. The figure shows a cross section obtained by slicing the large intestine VLI in a direction perpendicular to the core line CL. As shown, the central angle a of the three 180-degree extension sectional images SV 1, SV 2, SV 3, generates with overlapping ends by 60 degrees. Curved CS1, CS2, CS3, respectively, is a curved surface that contains the point of view of time of generation of the extended cross-sectional image SV 1, SV 2, SV 3 is. Thus, with overlapping right and left end portions of the elongated cross-sectional image by generating a plurality of elongated cross-sectional image SV 1, SV 2, SV 3 , can be avoided that the region of interest is hard to see over a plurality of images.

対応情報記憶部14は、本実施形態では、芯線CLを通る視点VPmCのうち伸長断面画像SVの先頭の視点VP1Cの3次元画像Vの座標系における位置を対応情報PRとして記憶しているものとする。 In the present embodiment, the correspondence information storage unit 14 stores, as correspondence information PR, the position in the coordinate system of the three-dimensional image V of the first viewpoint VP 1C of the expanded slice image SV among the viewpoints VP mC passing through the core line CL. Shall.

投影画像生成部17は、対応情報記憶部14に記憶された対応情報PRに基づいて、位置指定受付部16によって受け付けられた注目位置POI(例えばPPuv)に対応する視線ベクトルR2uvを特定し、視線ベクトルR2uv上において、視線ベクトルR2uvに対応する投影画素PPuvの画素値の決定に対する寄与の度合が所定の基準を満たす程度に高い主投影位置(例えばPuv)を決定し、中心投影または平行投影により、主投影位置Puvが中心に投影されるように投影画像を生成する。以下、詳細について説明する。 The projection image generation unit 17 specifies the line-of-sight vector R2 uv corresponding to the attention position POI (for example, PP uv ) received by the position designation reception unit 16 based on the correspondence information PR stored in the correspondence information storage unit 14. On the line-of-sight vector R2 uv , a main projection position (for example, P uv ) is determined so that the degree of contribution to the determination of the pixel value of the projection pixel PP uv corresponding to the line-of-sight vector R2 uv satisfies a predetermined criterion. A projection image is generated so that the main projection position P uv is projected at the center by projection or parallel projection. Details will be described below.

[1] 注目位置に対応するライン上かつ芯線上の視点の3次元画像の座標系における位置の特定
投影画像生成部17は、まず、位置指定受付部16によって受け付けられた注目位置POI(PPuv)の伸長断面画像SVの座標系における座標から、注目位置POI(PPuv)が伸長断面画像SVの上下方向(芯線CLの方向)における何番目の画素であるかを特定する。ここではu番目の画素である。次に、対応情報記憶部14に記憶された対応情報PR、すなわち、伸長断面画像SVの先頭の視点VP1Cの3次元画像Vの座標系における位置と、本実施形態では伸長断面画像生成部18のプログラムの起動パラメータとして与えられた視点間隔とに基づき、u番目の視点、すなわち、芯線CL上における投影画素PPuCに対応する視点VPuCの3次元画像Vの座標系における位置を特定する。
[1] Specifying the position in the coordinate system of the three-dimensional image of the viewpoint on the line corresponding to the target position and on the core line First, the projected image generation unit 17 receives the target position POI (PP uv received by the position designation receiving unit 16 ) In the coordinate system of the expanded cross-sectional image SV, the number of pixels in the vertical direction (direction of the core line CL) of the target position POI (PP uv ) is specified. Here, it is the u-th pixel. Next, the correspondence information PR stored in the correspondence information storage unit 14, that is, the position in the coordinate system of the three-dimensional image V of the first viewpoint VP 1C of the expanded slice image SV, and the expanded slice image generation unit 18 in the present embodiment. The position of the u-th viewpoint, that is, the viewpoint VP uC corresponding to the projection pixel PP uC on the core line CL in the coordinate system of the u-th viewpoint is specified based on the viewpoint interval given as the program start parameter.

[2] 注目位置に対応する視点・視線ベクトルの投影計算平面の座標系における位置と向きの特定
投影画像生成部17は、次に、図20(a)のように各ラインにおける座標系(投影計算平面における座標系)における視点VPuvの位置および視線ベクトルR2uvの向きを求める。
[2] Specifying the position and orientation of the viewpoint / line-of-sight vector corresponding to the target position in the coordinate system of the projection calculation plane The projection image generation unit 17 then moves the coordinate system (projection) in each line as shown in FIG. The position of the viewpoint VP uv and the direction of the line-of-sight vector R2 uv in the coordinate system on the calculation plane) are obtained.

図20(a)は、視点VPuCを原点とする投影計算平面の座標系における視点VPuvの位置と視点視線ベクトルR2uvの向きを表したものであり、図20(b)は、伸長断面画像SVの座標平面における視線ベクトルR2uvによる投影画素PPuvの位置を表したものである。 20A shows the position of the viewpoint VP uv and the direction of the viewpoint line-of-sight vector R2 uv in the coordinate system of the projection calculation plane with the viewpoint VP uC as the origin, and FIG. 20B shows an expanded cross section. This represents the position of the projection pixel PP uv by the line-of-sight vector R2 uv in the coordinate plane of the image SV.

図20(a)のように、芯線CL上の視点VPuC、すなわち視点VPu1,VPu2,・・,VPuNの並ぶラインの中点を原点、接線ベクトルTLuの方向をz軸、視点VPun(n=1,2,・・・,N)の並ぶラインの方向をx軸とすると、視線ベクトルR2uvの方向はy軸方向となる。 As shown in FIG. 20A, the viewpoint VP uC on the core line CL, that is, the midpoint of the line where the viewpoints VP u1 , VP u2 ,..., VP uN are arranged is the origin, the direction of the tangent vector TL u is the z axis, and the viewpoint If the direction of the line where VP un (n = 1, 2,..., N) is arranged is the x axis, the direction of the line-of-sight vector R2 uv is the y axis direction.

次に視点VP uvの投影計算平面の座標系における位置を特定する。投影画像生成部17は、位置指定受付部16によって受け付けられた注目位置POI(PPuv)の伸長展開画像DVの座標系における座標から、注目位置POI(PPuv)が伸長断面画像SVの左右方向(ライン方向)における何番目の画素であるかを特定する。ここではv番目の画素である。次に、図20(b)に示したように、伸長断面画像SVの左右方向(ライン方向)における中点O、すなわち、C番目の画素(芯線を通る投影画素PPuC)からv番目までの間の幅xを求める。ここで、各視線ベクトルR2un(n=1,2,・・・,N)は互いに平行であるから、図20(b)の中点Oから投影画素PPuNまで幅w/2、C番目の画素(芯線を通る投影画素PPuC)からv番目までの間の幅xは、そのまま、各々、図20(a)における視点VPuCから視点VPuNまでの幅、視点VPuCから視点VPuvまでの幅となる。図20(a)において、視点VPun(n=1,2,・・・,N)の並ぶラインの方向を表すベクトルをVLとし、ライン方向における視点VPuvの位置を表すベクトルをPxとすると、次式(5)が成り立つ。
Next, the position of the viewpoint VP uv in the coordinate system of the projection calculation plane is specified. From the coordinates in the coordinate system of the expanded expanded image DV of the target position POI (PP uv ) received by the position designation receiving unit 16, the projection image generation unit 17 determines that the target position POI (PP uv ) is in the horizontal direction of the expanded cross-sectional image SV. The pixel number in the (line direction) is specified. Here, it is the vth pixel. Next, as shown in FIG. 20B, from the middle point O in the left-right direction (line direction) of the expanded sectional image SV, that is, from the Cth pixel (projection pixel PP uC passing through the core line) to the vth . Find the width x between them. Here, since the line-of-sight vectors R2un (n = 1, 2,..., N) are parallel to each other, the width w / 2 from the midpoint O to the projection pixel PPuN in FIG. , The width x from the pixel (projection pixel PP uC passing through the core line) to the v-th is the width from the viewpoint VP uC to the viewpoint VP uN and the viewpoint VP uC to the viewpoint VP uv in FIG. It becomes the width to. In FIG. 20A, a vector representing the direction of the line where the viewpoints VP un (n = 1, 2,..., N) are arranged is VL, and a vector representing the position of the viewpoint VP uv in the line direction is P x . Then, the following expression (5) is established.

このPxが、投影計算平面における視点VPuvの位置を表すベクトルとなる。 The P x is the vector representing the position of the viewpoint VP uv in the projection calculation plane.

[3] 注目位置に対応する視線ベクトル上の主投影位置の決定
次に、投影画像生成部17は、図20(a)に示したように、視線ベクトルR2uv上で、視線ベクトルR2uvに対応する投影画素PPuvの画素値の決定に対する寄与の度合が所定の基準を満たす程度に高い主投影位置Puvを決定する。本実施形態では、投影画素PPmnの画素値を算出する際にボリュームレンダリング処理を行っているので、視線ベクトルR2uv上の探索点のうち、不透明度が最大となる点を主投影位置Puvと決定する。ここで、主投影位置Puvは投影計算平面の座標系における位置として求まるので、次のようにして3次元画像Vの座標系における位置に変換する。
[3] Determination of main projection position on line-of-sight vector corresponding to target position Next, as shown in FIG. 20A, the projection image generation unit 17 changes the line-of-sight vector R2 uv to the line-of-sight vector R2 uv . The main projection position P uv is determined so high that the degree of contribution to the determination of the pixel value of the corresponding projection pixel PP uv satisfies a predetermined criterion. In the present embodiment, since volume rendering processing is performed when calculating the pixel value of the projection pixel PP mn , the point having the maximum opacity among the search points on the line-of-sight vector R2 uv is determined as the main projection position P uv. And decide. Here, since the main projection position P uv is obtained as a position in the coordinate system of the projection calculation plane, it is converted into a position in the coordinate system of the three-dimensional image V as follows.

図21は、投影計算平面の座標系C1と3次元画像Vの座標系C0の関係を模式的に表したものである。第1の実施形態における図11と同様に、3次元画像Vの座標系C0から見た投影計算平面の座標系C1の傾きを表す行列をTとし、先に求めておいた芯線CL上の視点VPuCの3次元画像Vの座標系C0における位置をC0(VPuC)とすると、主投影位置Puvの3次元画像Vの座標系における位置C0(Puv)は、次式(6)により求められる。 FIG. 21 schematically shows the relationship between the coordinate system C 1 of the projection calculation plane and the coordinate system C 0 of the three-dimensional image V. As in FIG. 11 in the first embodiment, T represents a matrix representing the inclination of the coordinate system C 1 of the projection calculation plane viewed from the coordinate system C 0 of the three-dimensional image V, and the core CL is obtained in advance. If the position of the viewpoint VP uC in the coordinate system C 0 of the three-dimensional image V is C 0 (VP uC ), the position C 0 (P uv ) of the main projection position P uv in the coordinate system of the three-dimensional image V is It is obtained by equation (6).

0(Puv)=T*C1(Puv)+C0(VPuC) (6)
ここで、「*」は行列の積を表す。
C 0 (P uv ) = T * C 1 (P uv ) + C 0 (VP uC ) (6)
Here, “*” represents a matrix product.

[4] 投影画像の生成
投影画像生成部17は、以上の処理によって求められた3次元画像Vの座標系における視点VPuCの位置C0(VPuC)および主投影位置C0(Puv)を用いて、視点VPuCの位置C0(VPuC)を視点とし、視点VPuCの位置C0(VPuC)から主投影位置C0(Puv)に向かう向きを投影の向きの中心とする中心投影により、投影画像PVを生成する。
[4] Projection Image Generation The projection image generation unit 17 obtains the position C 0 (VP uC ) and the main projection position C 0 (P uv ) of the viewpoint VP uC in the coordinate system of the three-dimensional image V obtained by the above processing. using viewpoint VP uC position C 0 to (VP uC) and viewpoint, and the center position C 0 (VP uC) from the projection such that a direction in the main projection position C 0 (P uv) orientation of the viewpoint VP uC A projection image PV is generated by central projection.

なお、投影画像生成部17は、視点VPuCの位置C0(VPuC)を視点の中心とし、視点VPuCの位置C0(VPuC)から主投影位置C0(Puv)に向かう向きを投影の向きとする平行投影により、投影画像PVを生成するようにしてもよい。 The projection image generation unit 17, the position C 0 of the viewpoint VP uC the (VP uC) centered perspective, directed from the viewpoint VP uC position C 0 (VP uC) in the main projection position C 0 (P uv) orientation The projection image PV may be generated by parallel projection with the projection direction as.

また、上記[3]で主投影位置Puvの3次元画像Vの座標系における位置C0(Puv)が求まるので、3次元画像Vの座標系における任意の位置を視点として、そこから主投影位置C0(Puv)に向かう向きを投影の向きの中心とする中心投影を行うようにしてもよいし、前記任意の位置から主投影位置C0(Puv)に向かうベクトルによる投影画素を投影画像中の中心となるようにし、かつ、そのベクトルの向きを投影の向きとする平行投影を行うようにしてもよい。 Further, since the position C 0 (P uv ) in the coordinate system of the three-dimensional image V of the main projection position P uv is obtained in [3] above, an arbitrary position in the coordinate system of the three-dimensional image V is taken as a viewpoint, and the main position is derived therefrom. A central projection may be performed with the direction toward the projection position C 0 (P uv ) as the center of the projection direction, or a projection pixel by a vector from the arbitrary position toward the main projection position C 0 (P uv ). May be the center of the projected image, and parallel projection may be performed with the direction of the vector as the projection direction.

以上のように、本発明の第2の実施形態では、伸長断面画像生成部18によって生成された伸長断面画像SV中に注目位置を指定するようにしたが、この場合でも、本発明の第1の実施形態における伸長展開画像DVの場合と同様に、ユーザがその注目位置の3次元画像V中での位置等をさらに指定することなく、投影画像PVが得られる。   As described above, in the second embodiment of the present invention, the position of interest is specified in the expanded slice image SV generated by the expanded slice image generation unit 18. As in the case of the decompressed and expanded image DV in the embodiment, the projection image PV is obtained without further specifying the position or the like of the target position in the three-dimensional image V by the user.

なお、上記の実施形態におけるシステム構成、処理フロー、ユーザインターフェース等に対して、本発明の趣旨から逸脱しない範囲で様々な改変を行ったものも、本発明の技術的範囲に含まれる。また、上記の実施形態はあくまでも例示であり、上記のすべての説明が本発明の技術的範囲を限定的に解釈するために利用されるべきものではない。   In addition, what changed variously in the range which does not deviate from the meaning of this invention with respect to the system configuration | structure in the said embodiment, a processing flow, a user interface, etc. is also contained in the technical scope of this invention. Moreover, said embodiment is an illustration to the last and all the above description should not be utilized in order to interpret the technical scope of this invention restrictively.

例えば、大腸抽出部11、芯線抽出部12、伸長展開画像生成部13の処理の一部または全部を画像処理ワークステーション3で行わずに、別途画像処理サーバ(図示なし)をネットワーク9に接続しておき、画像処理ワークステーション3からの当該処理の要求に応じて、画像処理サーバが行うようにしてもよい。   For example, an image processing server (not shown) is separately connected to the network 9 without performing part or all of the processes of the large intestine extraction unit 11, the core line extraction unit 12, and the decompressed expanded image generation unit 13 on the image processing workstation 3. The image processing server may perform the processing in response to the processing request from the image processing workstation 3.

また、本発明の第1の実施形態の注目位置PPuvに対応する視線ベクトルR1uv上において、視線ベクトルR1uvに対応する投影画素PPuvの画素値の決定に対する寄与の度合が所定の基準を満たす程度に高い主投影位置(例えばPuv)を決定し、任意の点からの中心投影または平行投影により、主投影位置Puvがほぼ中心に投影されるように投影画像を生成するようにしてもよい。 In addition, on the line-of-sight vector R1 uv corresponding to the target position PP uv of the first embodiment of the present invention, the degree of contribution to the determination of the pixel value of the projection pixel PP uv corresponding to the line-of-sight vector R1 uv is a predetermined reference. A main projection position (e.g., P uv ) that is high enough to be satisfied is determined, and a projection image is generated so that the main projection position P uv is projected almost at the center by central projection or parallel projection from an arbitrary point. Also good.

さらに、上記の実施形態では、対応情報PRとして、必要最低限の情報のみを記憶しておくようにしていたが、伸長展開画像DVや伸長断面画像SVの各画素と、その画素に対応する視点の位置や視線ベクトルの向きとを関連づけて記憶するようにしてもよい。このとき、投影計算平面、3次元画像の各座標系でのこれらの情報を記憶しておいてもよい。さらに、各視線ベクトル上での主投影位置も記憶しておいてもよい。   Furthermore, in the above embodiment, only the minimum necessary information is stored as the correspondence information PR. However, each pixel of the decompressed expanded image DV or the decompressed cross-sectional image SV and the viewpoint corresponding to the pixel are displayed. The position and the direction of the line-of-sight vector may be stored in association with each other. At this time, these pieces of information in each coordinate system of the projection calculation plane and the three-dimensional image may be stored. Further, the main projection position on each line-of-sight vector may be stored.

本発明の第1の態様における視線ベクトルの設定方法を模式的に表した図The figure which represented typically the setting method of the gaze vector in the 1st aspect of this invention. 伸長展開画像および伸長断面画像における投影画素の位置関係を模式的に表した図A diagram that schematically shows the positional relationship of the projected pixels in the expanded developed image and the expanded cross-sectional image. 本発明の第2の態様における視線ベクトルの設定方法を模式的に表した図The figure which represented typically the setting method of the gaze vector in the 2nd aspect of this invention. 本発明の第2の態様における投影画像の生成方法を模式的に表した図The figure which represented typically the production | generation method of the projection image in the 2nd aspect of this invention 本発明の実施形態における伸長展開画像生成装置が実装された3次元医用画像処理システムの概略構成図1 is a schematic configuration diagram of a three-dimensional medical image processing system in which an expansion / development image generation apparatus according to an embodiment of the present invention is mounted. 本発明の第1の実施形態における画像読影支援装置の構成を模式的に示したブロック図The block diagram which showed typically the structure of the image interpretation assistance apparatus in the 1st Embodiment of this invention. 大腸抽出処理を説明するための図Diagram for explaining large intestine extraction processing 伸長展開画像生成処理の流れを模式的に表した図A diagram that schematically shows the flow of the decompressed expanded image generation process 視線ベクトルの放射角度を説明するための図Illustration for explaining the radiation angle of the line-of-sight vector 視線ベクトルの向きと伸長展開画像中の投影画素の位置的対応関係を模式的に表した図A diagram that schematically shows the positional correspondence between the direction of the line-of-sight vector and the projected pixel in the expanded expanded image 本発明の第1の実施形態における投影計算平面の座標系と3次元画像の座標系の関係を模式的に表した図The figure which represented typically the relationship between the coordinate system of the projection calculation plane in the 1st Embodiment of this invention, and the coordinate system of a three-dimensional image. (a)中心投影と(b)平行投影を模式的に表した図(A) A diagram schematically showing central projection and (b) parallel projection (a)伸長展開画像と(b)中心投影画像の一例を表した図(A) A diagram showing an example of an expanded image and (b) a central projection image 本発明の実施形態における画像読影ワークフローの一例を示したフローチャートThe flowchart which showed an example of the image interpretation workflow in embodiment of this invention 本発明の第2の実施形態における画像読影支援装置の構成を模式的に示したブロック図The block diagram which showed typically the structure of the image interpretation assistance apparatus in the 2nd Embodiment of this invention. 伸長断面画像生成処理の流れを模式的に表した図Diagram that schematically shows the flow of the expanded cross-sectional image generation process 本発明の第2の実施形態における視線ベクトルの設定方法を模式的に表した図The figure which represented typically the setting method of the gaze vector in the 2nd Embodiment of this invention. 伸長断面画像の一例を表した図A diagram showing an example of an expanded cross-sectional image 複数の伸長断面画像を生成する場合の各画像の表示範囲の一例を表した図The figure showing an example of the display range of each image at the time of generating a plurality of expansion section images 視線ベクトルの向きと伸長断面画像中の投影画素の位置的対応関係を模式的に表した図A diagram schematically showing the positional correspondence between the direction of the line-of-sight vector and the projected pixel in the expanded cross-sectional image 本発明の第2の実施形態における投影計算平面の座標系と3次元画像の座標系の関係を模式的に表した図The figure which represented typically the relationship between the coordinate system of the projection calculation plane in the 2nd Embodiment of this invention, and the coordinate system of a three-dimensional image.

符号の説明Explanation of symbols

1 モダリティ
2 画像保管サーバ
3 画像処理ワークステーション
11 大腸抽出部
12 芯線抽出部
13 伸長展開画像生成部
14 対応情報記憶部
15 視点設定受付部
16 位置指定受付部
17 投影画像生成部
18 伸長断面画像生成部
DESCRIPTION OF SYMBOLS 1 Modality 2 Image storage server 3 Image processing workstation 11 Large intestine extraction part 12 Core line extraction part 13 Expansion expansion image generation part 14 Corresponding information storage part 15 Viewpoint setting reception part 16 Position designation reception part 17 Projection image generation part 18 Expansion cross-section image generation Part

Claims (9)

屈曲した管腔状構造物が表された3次元画像中の該構造物の中心部を通る芯線上の複数の視点の各々において、該視点を始点とする前記芯線の周辺方向に向かう複数の視線ベクトル毎に、該視線ベクトル上および/または該視線ベクトルの近傍の画像情報を用いて、該視線ベクトル上の前記構造物が投影された投影画素の画素値を決定し、前記各視点の並び順および前記各視点における前記複数の視線ベクトルの並び順が保持されるように、該投影画素の各々を投影平面に配置した伸長展開画像を生成する伸長展開画像生成手段と、
前記伸長展開画像中の前記各投影画素の位置と前記3次元画像中の前記各視線ベクトルとの対応関係を特定しうる対応情報を記憶する対応情報記憶手段と、
前記伸長展開画像中の注目位置の指定を受け付ける位置指定受付手段と、
前記対応情報記憶手段に記憶された対応情報に基づいて、該位置指定受付手段によって受け付けられた注目位置に対応する前記視線ベクトルを特定し、該特定された視線ベクトルの始点を視点とし、該視線ベクトルの向きを投影の向きのほぼ中心とする中心投影、または、該特定された視線ベクトルの始点の位置を視点のほぼ中心とし、該視線ベクトルの向きを投影の向きとする平行投影により、前記注目位置に対応する前記3次元画像中の位置がほぼ中心に投影された投影画像を生成する投影画像生成手段とを備えたことを特徴とする画像読影支援装置。
In each of a plurality of viewpoints on the core line passing through the central portion of the structure in the three-dimensional image representing the bent tubular structure, a plurality of lines of sight toward the peripheral direction of the core line starting from the viewpoint For each vector, using the image information on and / or in the vicinity of the line-of-sight vector, a pixel value of a projection pixel on which the structure on the line-of-sight vector is projected is determined, and the order of arrangement of the viewpoints And an expanded expanded image generating means for generating an expanded expanded image in which each of the projection pixels is arranged on a projection plane so that the arrangement order of the plurality of line-of-sight vectors at each viewpoint is maintained.
Correspondence information storage means for storing correspondence information capable of specifying a correspondence relationship between the position of each projection pixel in the expanded development image and each line-of-sight vector in the three-dimensional image;
Position designation accepting means for accepting designation of a position of interest in the decompressed expanded image;
Based on the correspondence information stored in the correspondence information storage means, the line-of-sight vector corresponding to the position of interest received by the position designation reception means is specified, the start point of the specified line-of-sight vector is used as a viewpoint, and the line-of-sight The central projection with the vector direction as the approximate center of the projection direction, or the parallel projection with the position of the start point of the identified line-of-sight vector as the approximate center of the viewpoint and the direction of the line-of-sight vector as the projection direction, An image interpretation support apparatus, comprising: a projection image generation unit configured to generate a projection image in which a position in the three-dimensional image corresponding to a position of interest is projected substantially at the center.
屈曲した管腔状構造物が表された3次元画像中の該構造物の中心部を通る芯線上の複数の視点の各々において、該視点を始点とする前記芯線の周辺方向に向かう複数の視線ベクトル毎に、該視線ベクトル上および/または該視線ベクトルの近傍の画像情報を用いて、該視線ベクトル上の前記構造物が投影された投影画素の画素値を決定し、前記各視点の並び順および前記各視点における前記複数の視線ベクトルの並び順が保持されるように、該投影画素の各々を投影平面に配置した伸長展開画像を生成する伸長展開画像生成手段と、
前記伸長展開画像中の前記各投影画素の位置と前記3次元画像中の前記各視線ベクトルとの対応関係を特定しうる対応情報を記憶する対応情報記憶手段と、
前記伸長展開画像中の注目位置の指定を受け付ける位置指定受付手段と、
前記対応情報記憶手段に記憶された対応情報に基づいて、該位置指定受付手段によって受け付けられた注目位置に対応する前記視線ベクトルを特定し、該視線ベクトル上において、該視線ベクトルに対応する投影画素の画素値の決定に対する寄与の度合が所定の基準を満たす程度に高い主投影位置を決定し、中心投影または平行投影により、該主投影位置がほぼ中心に投影されるように投影画像を生成する投影画像生成手段とを備えたことを特徴とする画像読影支援装置。
In each of a plurality of viewpoints on the core line passing through the central portion of the structure in the three-dimensional image representing the bent tubular structure, a plurality of lines of sight toward the peripheral direction of the core line starting from the viewpoint For each vector, using the image information on and / or in the vicinity of the line-of-sight vector, a pixel value of a projection pixel on which the structure on the line-of-sight vector is projected is determined, and the order of arrangement of the viewpoints And an expanded expanded image generating means for generating an expanded expanded image in which each of the projection pixels is arranged on a projection plane so that the arrangement order of the plurality of line-of-sight vectors at each viewpoint is maintained.
Correspondence information storage means for storing correspondence information capable of specifying a correspondence relationship between the position of each projection pixel in the expanded development image and each line-of-sight vector in the three-dimensional image;
Position designation accepting means for accepting designation of a position of interest in the decompressed expanded image;
Based on the correspondence information stored in the correspondence information storage unit, the line-of-sight vector corresponding to the target position received by the position designation reception unit is specified, and the projection pixel corresponding to the line-of-sight vector on the line-of-sight vector A main projection position whose degree of contribution to the determination of the pixel value is high enough to satisfy a predetermined criterion is determined, and a projection image is generated by central projection or parallel projection so that the main projection position is projected almost at the center. An image interpretation support apparatus comprising a projection image generation unit.
屈曲した管腔状構造物が表された3次元画像中の該構造物の内部の複数の視点の各々を始点とする、前記各視点を通る曲面の一方の側の周辺方向に向かう複数の視線ベクトル毎に、該視線ベクトル上および/または該視線ベクトルの近傍の画像情報を用いて、該視線ベクトル上の前記構造物が投影された投影画素の画素値を決定し、前記各視点の並び順が保持されるように、該投影画素の各々を投影平面に配置した伸長断面画像を生成する伸長断面画像生成手段と、
前記伸長断面画像中の前記各投影画素の位置と前記3次元画像中の前記各視線ベクトルとの対応関係を特定しうる対応情報を記憶する対応情報記憶手段と、
前記伸長断面画像中の注目位置の指定を受け付ける位置指定受付手段と、
前記対応情報記憶手段に記憶された対応情報に基づいて、該位置指定受付手段によって受け付けられた注目位置に対応する前記視線ベクトルを特定し、該視線ベクトル上において、該視線ベクトルに対応する投影画素の画素値の決定に対する寄与の度合が所定の基準を満たす程度に高い主投影位置を決定し、中心投影または平行投影により、該主投影位置がほぼ中心に投影されるように投影画像を生成する投影画像生成手段とを備えたことを特徴とする画像読影支援装置。
A plurality of lines of sight toward a peripheral direction on one side of a curved surface passing through each viewpoint, starting from each of a plurality of viewpoints inside the structure in the three-dimensional image representing the bent tubular structure For each vector, using the image information on and / or in the vicinity of the line-of-sight vector, a pixel value of a projection pixel on which the structure on the line-of-sight vector is projected is determined, and the order of arrangement of the viewpoints An expanded cross-sectional image generating means for generating an extended cross-sectional image in which each of the projection pixels is arranged on the projection plane,
Correspondence information storage means for storing correspondence information that can specify the correspondence between the position of each projection pixel in the elongated cross-sectional image and each line-of-sight vector in the three-dimensional image;
Position designation accepting means for accepting designation of a position of interest in the elongated cross-sectional image;
Based on the correspondence information stored in the correspondence information storage unit, the line-of-sight vector corresponding to the target position received by the position designation reception unit is specified, and the projection pixel corresponding to the line-of-sight vector on the line-of-sight vector A main projection position whose degree of contribution to the determination of the pixel value is high enough to satisfy a predetermined criterion is determined, and a projection image is generated by central projection or parallel projection so that the main projection position is projected almost at the center. An image interpretation support apparatus comprising a projection image generation unit.
コンピュータが、
屈曲した管腔状構造物が表された3次元画像中の該構造物の中心部を通る芯線上の複数の視点の各々において、該視点を始点とする前記芯線の周辺方向に向かう複数の視線ベクトル毎に、該視線ベクトル上および/または該視線ベクトルの近傍の画像情報を用いて、該視線ベクトル上の前記構造物が投影された投影画素の画素値を決定し、前記各視点の並び順および前記各視点における前記複数の視線ベクトルの並び順が保持されるように、該投影画素の各々を投影平面に配置した伸長展開画像を生成する処理と、
前記伸長展開画像中の前記各投影画素の位置と前記3次元画像中の前記各視線ベクトルとの対応関係を特定しうる対応情報を記憶する処理と、
前記伸長展開画像中の注目位置の指定を受け付ける処理と、
記憶された前記対応情報に基づいて、受け付けられた前記注目位置に対応する前記視線ベクトルを特定し、該特定された視線ベクトルの始点を視点とし、該視線ベクトルの向きを投影の向きのほぼ中心とする中心投影、または、該特定された視線ベクトルの始点の位置を視点のほぼ中心とし、該視線ベクトルの向きを投影の向きとする平行投影により、前記注目位置に対応する前記3次元画像中の位置がほぼ中心に投影された投影画像を生成する処理とを行うことを特徴とするコンピュータによる画像読影支援方法。
Computer
In each of a plurality of viewpoints on the core line passing through the central portion of the structure in the three-dimensional image representing the bent tubular structure, a plurality of lines of sight toward the peripheral direction of the core line starting from the viewpoint For each vector, using the image information on and / or in the vicinity of the line-of-sight vector, a pixel value of a projection pixel on which the structure on the line-of-sight vector is projected is determined, and the order of arrangement of the viewpoints And a process of generating an expanded and developed image in which each of the projection pixels is arranged on a projection plane so that the arrangement order of the plurality of line-of-sight vectors at each viewpoint is maintained.
A process of storing correspondence information that can specify a correspondence relationship between the position of each projection pixel in the decompressed expanded image and each line-of-sight vector in the three-dimensional image;
Processing for accepting designation of a position of interest in the decompressed expanded image;
Based on the stored correspondence information, the line-of-sight vector corresponding to the received position of interest is identified, the starting point of the identified line-of-sight vector is used as a viewpoint, and the direction of the line-of-sight vector is approximately the center of the projection direction. In the three-dimensional image corresponding to the target position by the center projection or parallel projection with the position of the start point of the identified line-of-sight vector as the center of the viewpoint and the direction of the line-of-sight vector as the projection direction. A computer-aided image interpretation support method, comprising: generating a projection image in which the position of the image is projected substantially at the center.
コンピュータが、
屈曲した管腔状構造物が表された3次元画像中の該構造物の中心部を通る芯線上の複数の視点の各々において、該視点を始点とする前記芯線の周辺方向に向かう複数の視線ベクトル毎に、該視線ベクトル上および/または該視線ベクトルの近傍の画像情報を用いて、該視線ベクトル上の前記構造物が投影された投影画素の画素値を決定し、前記各視点の並び順および前記各視点における前記複数の視線ベクトルの並び順が保持されるように、該投影画素の各々を投影平面に配置した伸長展開画像を生成する処理と、
前記伸長展開画像中の前記各投影画素の位置と前記3次元画像中の前記各視線ベクトルとの対応関係を特定しうる対応情報を記憶する処理と、
前記伸長展開画像中の注目位置の指定を受け付ける処理と、
記憶された前記対応情報に基づいて、受け付けられた前記注目位置に対応する前記視線ベクトルを特定し、該視線ベクトル上において、該視線ベクトルに対応する投影画素の画素値の決定に対する寄与の度合が所定の基準を満たす程度に高い主投影位置を決定し、中心投影または平行投影により、該主投影位置がほぼ中心に投影されるように投影画像を生成する処理とを行うことを特徴とするコンピュータによる画像読影支援方法。
Computer
In each of a plurality of viewpoints on the core line passing through the central portion of the structure in the three-dimensional image representing the bent tubular structure, a plurality of lines of sight toward the peripheral direction of the core line starting from the viewpoint For each vector, using the image information on and / or in the vicinity of the line-of-sight vector, a pixel value of a projection pixel on which the structure on the line-of-sight vector is projected is determined, and the order of arrangement of the viewpoints And a process of generating an expanded and developed image in which each of the projection pixels is arranged on a projection plane so that the arrangement order of the plurality of line-of-sight vectors at each viewpoint is maintained.
A process of storing correspondence information that can specify a correspondence relationship between the position of each projection pixel in the decompressed expanded image and each line-of-sight vector in the three-dimensional image;
Processing for accepting designation of a position of interest in the decompressed expanded image;
Based on the stored correspondence information, the line-of-sight vector corresponding to the received position of interest is identified, and the degree of contribution to the determination of the pixel value of the projection pixel corresponding to the line-of-sight vector is determined on the line-of-sight vector. A computer that determines a main projection position that is high enough to satisfy a predetermined standard, and generates a projection image so that the main projection position is projected substantially at the center by central projection or parallel projection. Image interpretation support method using
コンピュータが、
屈曲した管腔状構造物が表された3次元画像中の該構造物の内部の複数の視点の各々を始点とする、前記各視点を通る曲面の一方の側の周辺方向に向かう複数の視線ベクトル毎に、該視線ベクトル上および/または該視線ベクトルの近傍の画像情報を用いて、該視線ベクトル上の前記構造物が投影された投影画素の画素値を決定し、前記各視点の並び順が保持されるように、該投影画素の各々を投影平面に配置した伸長断面画像を生成する処理と、
前記伸長断面画像中の前記各投影画素の位置と前記3次元画像中の前記各視線ベクトルとの対応関係を特定しうる対応情報を記憶する処理と、
前記伸長断面画像中の注目位置の指定を受け付ける処理と、
記憶された前記対応情報に基づいて、受け付けられた前記注目位置に対応する前記視線ベクトルを特定し、該視線ベクトル上において、該視線ベクトルに対応する投影画素の画素値の決定に対する寄与の度合が所定の基準を満たす程度に高い主投影位置を決定し、中心投影または平行投影により、該主投影位置がほぼ中心に投影されるように投影画像を生成する処理とを行うことを特徴とするコンピュータによる画像読影支援方法。
Computer
A plurality of lines of sight toward a peripheral direction on one side of a curved surface passing through each viewpoint, starting from each of a plurality of viewpoints inside the structure in the three-dimensional image representing the bent tubular structure For each vector, using the image information on and / or in the vicinity of the line-of-sight vector, a pixel value of a projection pixel on which the structure on the line-of-sight vector is projected is determined, and the order of arrangement of the viewpoints To generate an expanded cross-sectional image in which each of the projection pixels is arranged in the projection plane so that
A process of storing correspondence information that can identify a correspondence relationship between the position of each projection pixel in the elongated cross-sectional image and each line-of-sight vector in the three-dimensional image;
Processing for accepting designation of a position of interest in the elongated cross-sectional image;
Based on the stored correspondence information, the line-of-sight vector corresponding to the received position of interest is identified, and the degree of contribution to the determination of the pixel value of the projection pixel corresponding to the line-of-sight vector is determined on the line-of-sight vector. A computer that determines a main projection position that is high enough to satisfy a predetermined standard, and generates a projection image so that the main projection position is projected substantially at the center by central projection or parallel projection. Image interpretation support method using
コンピュータに、
屈曲した管腔状構造物が表された3次元画像中の該構造物の中心部を通る芯線上の複数の視点の各々において、該視点を始点とする前記芯線の周辺方向に向かう複数の視線ベクトル毎に、該視線ベクトル上および/または該視線ベクトルの近傍の画像情報を用いて、該視線ベクトル上の前記構造物が投影された投影画素の画素値を決定し、前記各視点の並び順および前記各視点における前記複数の視線ベクトルの並び順が保持されるように、該投影画素の各々を投影平面に配置した伸長展開画像を生成する処理と、
前記伸長展開画像中の前記各投影画素の位置と前記3次元画像中の前記各視線ベクトルとの対応関係を特定しうる対応情報を記憶手段に記憶させる処理と、
前記伸長展開画像中の注目位置の指定を受け付ける処理と、
記憶された前記対応情報に基づいて、受け付けられた前記注目位置に対応する前記視線ベクトルを特定し、該特定された視線ベクトルの始点を視点とし、該視線ベクトルの向きを投影の向きのほぼ中心とする中心投影、または、該特定された視線ベクトルの始点の位置を視点のほぼ中心とし、該視線ベクトルの向きを投影の向きとする平行投影により、前記注目位置に対応する前記3次元画像中の位置がほぼ中心に投影された投影画像を生成する処理とを実行させることを特徴とする画像読影支援プログラム。
On the computer,
In each of a plurality of viewpoints on the core line passing through the central portion of the structure in the three-dimensional image representing the bent tubular structure, a plurality of lines of sight toward the peripheral direction of the core line starting from the viewpoint For each vector, using the image information on and / or in the vicinity of the line-of-sight vector, a pixel value of a projection pixel on which the structure on the line-of-sight vector is projected is determined, and the order of arrangement of the viewpoints And a process of generating an expanded and developed image in which each of the projection pixels is arranged on a projection plane so that the arrangement order of the plurality of line-of-sight vectors at each viewpoint is maintained.
Processing for storing in the storage means correspondence information that can specify the correspondence between the position of each projection pixel in the decompressed expanded image and each line-of-sight vector in the three-dimensional image;
Processing for accepting designation of a position of interest in the decompressed expanded image;
Based on the stored correspondence information, the line-of-sight vector corresponding to the received position of interest is identified, the starting point of the identified line-of-sight vector is used as a viewpoint, and the direction of the line-of-sight vector is approximately the center of the projection direction. In the three-dimensional image corresponding to the target position by the center projection or parallel projection with the position of the start point of the identified line-of-sight vector as the center of the viewpoint and the direction of the line-of-sight vector as the projection direction. And a process of generating a projection image in which the position of the image is projected at substantially the center.
コンピュータに、
屈曲した管腔状構造物が表された3次元画像中の該構造物の中心部を通る芯線上の複数の視点の各々において、該視点を始点とする前記芯線の周辺方向に向かう複数の視線ベクトル毎に、該視線ベクトル上および/または該視線ベクトルの近傍の画像情報を用いて、該視線ベクトル上の前記構造物が投影された投影画素の画素値を決定し、前記各視点の並び順および前記各視点における前記複数の視線ベクトルの並び順が保持されるように、該投影画素の各々を投影平面に配置した伸長展開画像を生成する処理と、
前記伸長展開画像中の前記各投影画素の位置と前記3次元画像中の前記各視線ベクトルとの対応関係を特定しうる対応情報を記憶手段に記憶させる処理と、
前記伸長展開画像中の注目位置の指定を受け付ける処理と、
前記記憶手段に記憶された前記対応情報に基づいて、受け付けられた前記注目位置に対応する前記視線ベクトルを特定し、該視線ベクトル上において、該視線ベクトルに対応する投影画素の画素値の決定に対する寄与の度合が所定の基準を満たす程度に高い主投影位置を決定し、中心投影または平行投影により、該主投影位置がほぼ中心に投影されるように投影画像を生成する処理とを実行させることを特徴とする画像読影支援プログラム。
On the computer,
In each of a plurality of viewpoints on the core line passing through the central portion of the structure in the three-dimensional image representing the bent tubular structure, a plurality of lines of sight toward the peripheral direction of the core line starting from the viewpoint For each vector, using the image information on and / or in the vicinity of the line-of-sight vector, a pixel value of a projection pixel on which the structure on the line-of-sight vector is projected is determined, and the order of arrangement of the viewpoints And a process of generating an expanded and developed image in which each of the projection pixels is arranged on a projection plane so that the arrangement order of the plurality of line-of-sight vectors at each viewpoint is maintained.
Processing for storing in the storage means correspondence information that can specify the correspondence between the position of each projection pixel in the decompressed expanded image and each line-of-sight vector in the three-dimensional image;
Processing for accepting designation of a position of interest in the decompressed expanded image;
Based on the correspondence information stored in the storage unit, the line-of-sight vector corresponding to the received position of interest is specified, and on the line-of-sight vector, the pixel value of the projection pixel corresponding to the line-of-sight vector is determined. Determining a main projection position whose degree of contribution is high enough to satisfy a predetermined criterion, and executing a process of generating a projection image so that the main projection position is projected substantially at the center by central projection or parallel projection An image interpretation support program characterized by
コンピュータに、
屈曲した管腔状構造物が表された3次元画像中の該構造物の内部の複数の視点の各々を始点とする、前記各視点を通る曲面の一方の側の周辺方向に向かう複数の視線ベクトル毎に、該視線ベクトル上および/または該視線ベクトルの近傍の画像情報を用いて、該視線ベクトル上の前記構造物が投影された投影画素の画素値を決定し、前記各視点の並び順が保持されるように、該投影画素の各々を投影平面に配置した伸長断面画像を生成する処理と、
前記伸長断面画像中の前記各投影画素の位置と前記3次元画像中の前記各視線ベクトルとの対応関係を特定しうる対応情報を記憶手段に記憶させる処理と、
前記伸長断面画像中の注目位置の指定を受け付ける処理と、
前記記憶手段に記憶された前記対応情報に基づいて、受け付けられた前記注目位置に対応する前記視線ベクトルを特定し、該視線ベクトル上において、該視線ベクトルに対応する投影画素の画素値の決定に対する寄与の度合が所定の基準を満たす程度に高い主投影位置を決定し、中心投影または平行投影により、該主投影位置がほぼ中心に投影されるように投影画像を生成する処理とを実行させることを特徴とする画像読影支援プログラム。
On the computer,
A plurality of lines of sight toward a peripheral direction on one side of a curved surface passing through each viewpoint, starting from each of a plurality of viewpoints inside the structure in the three-dimensional image representing the bent tubular structure For each vector, using the image information on and / or in the vicinity of the line-of-sight vector, a pixel value of a projection pixel on which the structure on the line-of-sight vector is projected is determined, and the order of arrangement of the viewpoints To generate an expanded cross-sectional image in which each of the projection pixels is arranged in the projection plane so that
Processing for storing in the storage means correspondence information that can specify the correspondence between the position of each projection pixel in the elongated cross-sectional image and each line-of-sight vector in the three-dimensional image;
Processing for accepting designation of a position of interest in the elongated cross-sectional image;
Based on the correspondence information stored in the storage unit, the line-of-sight vector corresponding to the received position of interest is specified, and on the line-of-sight vector, the pixel value of the projection pixel corresponding to the line-of-sight vector is determined. Determining a main projection position whose degree of contribution is high enough to satisfy a predetermined criterion, and executing a process of generating a projection image so that the main projection position is projected substantially at the center by central projection or parallel projection An image interpretation support program characterized by
JP2007105358A 2007-04-12 2007-04-12 Image interpretation support apparatus, method, and program Active JP4909792B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007105358A JP4909792B2 (en) 2007-04-12 2007-04-12 Image interpretation support apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007105358A JP4909792B2 (en) 2007-04-12 2007-04-12 Image interpretation support apparatus, method, and program

Publications (2)

Publication Number Publication Date
JP2008259712A JP2008259712A (en) 2008-10-30
JP4909792B2 true JP4909792B2 (en) 2012-04-04

Family

ID=39982670

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007105358A Active JP4909792B2 (en) 2007-04-12 2007-04-12 Image interpretation support apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP4909792B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4676021B2 (en) * 2009-04-16 2011-04-27 富士フイルム株式会社 Diagnosis support apparatus, diagnosis support program, and diagnosis support method
JP5366713B2 (en) * 2009-08-25 2013-12-11 株式会社東芝 Gastrointestinal tract image display device and control program for displaying GI tract image data
JP5523784B2 (en) * 2009-09-30 2014-06-18 株式会社東芝 Image processing apparatus and medical image diagnostic apparatus
JP5624336B2 (en) * 2010-02-24 2014-11-12 株式会社東芝 Medical image processing apparatus and medical image processing program
US9147280B2 (en) * 2012-08-03 2015-09-29 Kabushiki Kaisha Toshiba Preparation and display of derived series of medical images
JP6026932B2 (en) 2013-03-22 2016-11-16 富士フイルム株式会社 MEDICAL IMAGE DISPLAY CONTROL DEVICE AND METHOD, AND PROGRAM

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3627066B2 (en) * 1995-03-08 2005-03-09 株式会社日立メディコ Panorama projection method and panorama projection apparatus
JP4334037B2 (en) * 1998-08-13 2009-09-16 株式会社東芝 Medical image processing device
EP1487333B1 (en) * 2002-03-14 2020-07-01 Netkisr Inc. System and method for analyzing and displaying computed tomography data
US7839402B2 (en) * 2004-06-23 2010-11-23 Koninklijke Philips Electronics N.V. Virtual endoscopy
JP4130428B2 (en) * 2004-09-02 2008-08-06 ザイオソフト株式会社 Image processing method and image processing program
JP2006346022A (en) * 2005-06-14 2006-12-28 Ziosoft Inc Image display method and image display program
JP2007044121A (en) * 2005-08-08 2007-02-22 Hitachi Medical Corp Medical image display method and apparatus

Also Published As

Publication number Publication date
JP2008259712A (en) 2008-10-30

Similar Documents

Publication Publication Date Title
US11508340B2 (en) System and method for generating a 2D image using mammography and/or tomosynthesis image data
US20220005277A1 (en) System and method for navigating a tomosynthesis stack using synthesized image data
JP7065436B2 (en) Control method and program
JP5675227B2 (en) Endoscopic image processing apparatus, operation method, and program
JP4676021B2 (en) Diagnosis support apparatus, diagnosis support program, and diagnosis support method
JP4088348B2 (en) System for 2D and 3D imaging of tubular structures in the human body
JP5384473B2 (en) Image display device and image display method
US8170328B2 (en) Image display method, apparatus, and program
JP5309109B2 (en) Medical image processing apparatus and method, and program
JP4909792B2 (en) Image interpretation support apparatus, method, and program
WO2011122035A1 (en) Projection image generation device, projection image generation programme, and projection image generation method
JP5369078B2 (en) Medical image processing apparatus and method, and program
JP4685826B2 (en) Projection image generation apparatus, method, and program
JP5274894B2 (en) Image display device
JP2010042065A (en) Medical image processor, processing method
JP2013192741A (en) Medical image diagnosis support device and method and program
JP4515615B2 (en) Image display device
WO2013132820A1 (en) Medical image processing device, method, and program
US20070225598A1 (en) Image Segmentation in a Volume Data Set
JP2006178772A (en) Image processing method, system, and program
CN115018972A (en) Method for directly operating and displaying internal structure of three-dimensional pipeline without distortion

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100224

RD15 Notification of revocation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7435

Effective date: 20110309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120104

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120116

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150120

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4909792

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250