JP2004313736A - Apparatus, method and program for medical image processing - Google Patents

Apparatus, method and program for medical image processing Download PDF

Info

Publication number
JP2004313736A
JP2004313736A JP2003270923A JP2003270923A JP2004313736A JP 2004313736 A JP2004313736 A JP 2004313736A JP 2003270923 A JP2003270923 A JP 2003270923A JP 2003270923 A JP2003270923 A JP 2003270923A JP 2004313736 A JP2004313736 A JP 2004313736A
Authority
JP
Japan
Prior art keywords
cross
image
dimensional
tubular tissue
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003270923A
Other languages
Japanese (ja)
Other versions
JP3984202B2 (en
Inventor
Kazuhiko Matsumoto
和彦 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ziosoft Inc
Original Assignee
Ziosoft Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ziosoft Inc filed Critical Ziosoft Inc
Priority to JP2003270923A priority Critical patent/JP3984202B2/en
Priority to US10/816,978 priority patent/US7639855B2/en
Publication of JP2004313736A publication Critical patent/JP2004313736A/en
Application granted granted Critical
Publication of JP3984202B2 publication Critical patent/JP3984202B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an apparatus, a method and a program for medical image processing capable of extracting a tubular tissue such as a blood vessel exactly from a medical image. <P>SOLUTION: An image processing apparatus 300 acquires three-dimensional data from a modality 100 and designates the starting point and the end point of a blood vessel to be extracted. The image processing apparatus 300 designates cross sectional regions of the blood vessel sequentially from the starting point. The image processing apparatus 300 sequentially acquires, at each of the designated cross sectional regions of the blood vessel, the areas of images that appear in response to the change of the threshold values. The image processing apparatus 300 images a cross section of the blood vessel at each of the cross sectional regions on the basis of acquired rate of change of the image areas. The image processing apparatus 300 finds the center of the each imaged cross section of the blood vessel and acquires a three-dimensional path that designates the longitudinal center line of the subject blood vessel. The image processing apparatus 300 generates various kinds of images that show the subject blood vessel on the basis of the acquired three-dimensional path and displays the list of the images on a display apparatus. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、画像診断等に用いる3次元医用画像を生成する医用画像処理装置、医用画像処理方法、および、プログラムに関し、特に、血管などの管状組織を表示するのに好適な医用画像処理装置、医用画像処理方法、および、プログラムに関する。   The present invention relates to a medical image processing apparatus, a medical image processing method, and a program for generating a three-dimensional medical image used for image diagnosis and the like, and particularly to a medical image processing apparatus suitable for displaying a tubular tissue such as a blood vessel, The present invention relates to a medical image processing method and a program.

従来より、例えば、CTスキャナやMRI装置などのモダリティ(撮像装置)で人体内部の断層(スライス)画像を撮像して疾病等の診断を行う画像診断が行われている。また、撮像された断層画像から、所定の臓器や器官などの3次元画像を生成して診断を行う手法なども確立しており、精緻かつ正確な診断に寄与している。特に、心臓周辺の冠状血管の3次元画像による診断は、心臓疾患の早期発見などに有用である。   2. Description of the Related Art Conventionally, for example, image diagnosis in which a tomographic (slice) image of a human body is captured by a modality (imaging apparatus) such as a CT scanner or an MRI apparatus to diagnose a disease or the like has been performed. In addition, a method of generating a three-dimensional image of a predetermined organ or organ from a captured tomographic image and performing a diagnosis has been established, which contributes to precise and accurate diagnosis. In particular, a diagnosis using a three-dimensional image of a coronary blood vessel around the heart is useful for early detection of a heart disease and the like.

このような3次元画像診断においては、観察対象部位を抽出して診断することが多く行われるが、この場合、いわゆる「セグメント分割」と呼ばれる手法により所定部位が抽出されることが一般的である。しかしながら、例えば、血管(特に心臓周辺の冠状血管)などの管状組織をセグメント分割する場合、対象とする血管のみを抽出することは困難であった。   In such three-dimensional image diagnosis, diagnosis is often performed by extracting an observation target region. In this case, a predetermined region is generally extracted by a method called “segment division”. . However, for example, when segmenting a tubular tissue such as a blood vessel (particularly a coronary blood vessel around the heart), it has been difficult to extract only a target blood vessel.

血管組織をセグメント分割する手法が、例えば特許文献1に記載されている。ここでは、関心領域(すなわち、対象となる血管組織)を示す画素値と、関心領域外を示す画素値とからなる「二値マスク」を形成して、血管組織と他の組織とを峻別している。   A technique for segmenting a vascular tissue is described in, for example, Patent Document 1. Here, a “binary mask” composed of a pixel value indicating a region of interest (ie, a target vascular tissue) and a pixel value indicating a region outside the region of interest is formed to distinguish vascular tissue from other tissues. ing.

上記のような二値マスクを用いる手法においては、対象組織を示す画素値を決定すると、その値か否かで判別することになる。この場合、判別領域において対象とする血管のみが存在していれば問題なく抽出されるが、通常、他組織等(血管や器官、臓器、など)が近接している場合が多い。特に心臓周辺の冠状血管を対象とする場合、心臓や他の多くの血管が近接する。これらの近接物の構成物質は、対象血管とほぼ同一であるため、これらを示す画素値も類似したものになる。このように類似した画素値が近接している場合、二値マスクによる手法では、これらの値が一の値として処理されてしまうことがあり、対象としている血管を正確に抽出することができなかった。   In the method using a binary mask as described above, once the pixel value indicating the target tissue is determined, it is determined based on the value. In this case, if there is only the target blood vessel in the discrimination area, the extraction is performed without any problem. However, usually, other tissues (blood vessels, organs, organs, and the like) are often close to each other. Particularly when targeting coronary vessels around the heart, the heart and many other vessels are in close proximity. Since the constituents of these nearby objects are almost the same as the target blood vessel, the pixel values indicating them are also similar. When such similar pixel values are close to each other, the binary mask method may process these values as one value, and the target blood vessel cannot be accurately extracted. Was.

また、心臓から発生する冠状血管を、CTスキャナなどの撮像装置で取得されるCT値に基づいて画像化させる場合、通常、血管の発生地点から延伸するにしたがって、画像の明るさが次第に減少する。すなわち、血管の発生地点からの距離に応じて、画素値が略線形に遷移する近似が成り立つものといえる。この特性にしたがい、血管の発生部から抽出終端にわたって、画素値を線形に遷移させて適用する「多値マスク」を用いて対象血管を抽出する手法も考えられている。しかしながら、当該対象血管に心臓や他の血管が近接している場合や当該血管上に異常部位がある場合などでは、当該対象血管を示す画素値は単純に線形遷移しない。したがって、単に画素値を線形に遷移させて画像化しても、対象血管と近接物とが結合したり、対象血管が寸断されている画像となってしまうことがあり、正確な診断に寄与できる画像を得ることは困難であった。   Also, when coronary blood vessels generated from the heart are imaged based on CT values acquired by an imaging device such as a CT scanner, generally, the brightness of the image gradually decreases as the blood vessels extend from the blood vessel generation point. . In other words, it can be said that the approximation that the pixel value transitions substantially linearly according to the distance from the blood vessel occurrence point is established. According to this characteristic, a method of extracting a target blood vessel using a “multi-value mask” that linearly transitions and applies pixel values from a blood vessel generation portion to the extraction end has been considered. However, when the heart or another blood vessel is close to the target blood vessel or when there is an abnormal site on the blood vessel, the pixel value indicating the target blood vessel does not simply transition linearly. Therefore, even if an image is formed simply by linearly transitioning pixel values, an image in which the target blood vessel and a nearby object are combined or the target blood vessel is cut may be an image that can contribute to accurate diagnosis. It was difficult to get.

その他、例えば、特許文献2においては、注目点付近の平均濃度を検出することで、血管部位を検出する手法が開示されているが、対象血管に心臓や他の血管が近接している場合においては、有用な濃度値を得ることができないため、このような手法によっても血管部位を正確に抽出することは困難である。
特開2002−282235号公報(第4〜5頁) 特開平8−89501号公報(第6頁)
In addition, for example, Patent Literature 2 discloses a method of detecting a blood vessel part by detecting an average density near a point of interest, but in a case where a heart or another blood vessel is close to a target blood vessel. However, it is difficult to accurately extract a blood vessel part even by such a method because a useful concentration value cannot be obtained.
JP-A-2002-282235 (pages 4 to 5) JP-A-8-89501 (page 6)

本発明は上記実状に鑑みてなされたもので、血管などの管状組織を正確に抽出できる医用画像処理装置、医用画像処理方法、および、プログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and has as its object to provide a medical image processing apparatus, a medical image processing method, and a program capable of accurately extracting a tubular tissue such as a blood vessel.

上記目的を達成するため、本発明の第1の観点にかかる医用画像処理装置は、
生体内部を示す3次元ボリュームデータを用いて医用画像を生成する医用画像処理装置であって、
前記3次元ボリュームデータで示される所定の管状組織の断面を含む領域を複数指定する断面領域指定部と、
前記断面領域指定部が指定した各断面領域に含まれる前記3次元ボリュームデータを用いて、当該断面領域に含まれる前記管状組織の断面を画像化する画像化部と、
前記管状組織の断面を示す画像の中心位置を示す3次元ボリュームデータを特定する中心特定部と、
前記中心特定部が特定した各断面領域における管断面の中心位置を示す3次元ボリュームデータに基づいて、前記管状組織の長尺方向中心線を示す前記3次元ボリュームデータを特定する中心線特定部と、
を備えることを特徴とする。
In order to achieve the above object, a medical image processing apparatus according to a first aspect of the present invention includes:
A medical image processing apparatus that generates a medical image using three-dimensional volume data indicating the inside of a living body,
A cross-sectional area specifying unit that specifies a plurality of areas including a cross section of a predetermined tubular tissue indicated by the three-dimensional volume data;
Using the three-dimensional volume data included in each cross-sectional area specified by the cross-sectional area specifying unit, an imaging unit that images a cross-section of the tubular tissue included in the cross-sectional area,
A center specifying unit that specifies three-dimensional volume data indicating a center position of an image indicating a cross section of the tubular tissue;
A center line specifying unit that specifies the three-dimensional volume data indicating the longitudinal center line of the tubular tissue based on the three-dimensional volume data indicating the center position of the tube cross section in each cross-sectional area specified by the center specifying unit; ,
It is characterized by having.

上記目的を達成するため、本発明の第2の観点にかかる医用画像処理装置は、
生体内部を示す3次元ボリュームデータを用いて医用画像を生成する医用画像処理装置であって、
前記3次元ボリュームデータで示される所定の管状組織上の複数位置で、各位置における当該管状組織の長尺方向に直交し、当該位置における該管状組織の断面を含む領域を指定する直交断面領域指定部と、
前記直交断面領域指定部が指定した各直交断面領域に含まれる前記3次元ボリュームデータを用いて、当該直交断面領域に含まれる前記管状組織の断面を画像化する画像化部と、
前記管状組織の断面を示す画像の中心位置を示す3次元ボリュームデータを特定する中心特定部と、
前記中心特定部が特定した各直交断面領域における管断面の中心位置を示す3次元ボリュームデータに基づいて、前記管状組織の長尺方向中心線を示す前記3次元ボリュームデータを特定する中心線特定部と、
を備えることを特徴とする。
In order to achieve the above object, a medical image processing apparatus according to a second aspect of the present invention includes:
A medical image processing apparatus that generates a medical image using three-dimensional volume data indicating the inside of a living body,
At a plurality of positions on a predetermined tubular tissue indicated by the three-dimensional volume data, an orthogonal cross-sectional area designation that is orthogonal to the longitudinal direction of the tubular tissue at each position and specifies a region including a cross section of the tubular tissue at the position Department and
Using the three-dimensional volume data included in each orthogonal cross-sectional area specified by the orthogonal cross-sectional area specifying unit, an imaging unit that images a cross section of the tubular tissue included in the orthogonal cross-sectional area,
A center specifying unit that specifies three-dimensional volume data indicating a center position of an image indicating a cross section of the tubular tissue;
A center line specifying unit that specifies the three-dimensional volume data indicating the longitudinal center line of the tubular tissue based on the three-dimensional volume data indicating the center position of the tube cross section in each orthogonal cross section area specified by the center specifying unit. When,
It is characterized by having.

上記目的を達成するため、本発明の第3の観点にかかる医用画像処理装置は、
生体内部を示す3次元ボリュームデータを用いて医用画像を生成する医用画像処理装置であって、
前記3次元ボリュームデータで示される所定の管状組織上の複数位置で所定の3次元領域を指定する3次元領域指定部と、
前記3次元領域指定部が指定した各3次元領域に含まれる前記3次元ボリュームデータを用いて、当該3次元領域に含まれる前記管状組織の断面を画像化する画像化部と、
前記管状組織の断面を示す画像の中心位置を示す3次元ボリュームデータを特定する中心特定部と、
前記中心特定部が特定した管断面の中心位置を示す3次元ボリュームデータに基づいて、前記管状組織の長尺方向中心線を示す前記3次元ボリュームデータを特定する中心線特定部と、
を備えることを特徴とする。
In order to achieve the above object, a medical image processing device according to a third aspect of the present invention includes:
A medical image processing apparatus that generates a medical image using three-dimensional volume data indicating the inside of a living body,
A three-dimensional region specifying unit that specifies a predetermined three-dimensional region at a plurality of positions on a predetermined tubular tissue indicated by the three-dimensional volume data;
An imaging unit configured to image a cross section of the tubular tissue included in the three-dimensional region, using the three-dimensional volume data included in each of the three-dimensional regions specified by the three-dimensional region specification unit;
A center specifying unit that specifies three-dimensional volume data indicating a center position of an image indicating a cross section of the tubular tissue;
A center line specifying unit that specifies the three-dimensional volume data indicating the longitudinal center line of the tubular tissue based on the three-dimensional volume data indicating the center position of the tube cross section specified by the center specifying unit;
It is characterized by having.

上記医用画像処理装置において、
前記3次元ボリュームデータは、少なくとも、3次元座標情報と、該3次元座標情報が示す各座標における所定の特性を示す特性情報とを含むものとすることができ、この場合、
前記画像化部は、所定の条件に該当する前記特性情報を用いて画像化することで、前記管状組織の断面を画像上で顕在化させることが望ましい。
In the medical image processing apparatus,
The three-dimensional volume data may include at least three-dimensional coordinate information and characteristic information indicating a predetermined characteristic at each coordinate indicated by the three-dimensional coordinate information. In this case,
It is preferable that the imaging unit visualizes a cross section of the tubular tissue on an image by imaging using the characteristic information corresponding to a predetermined condition.

前記画像化部は、
前記所定の条件を変化させる条件変化部と、
該条件変化に応じて変化する画像属性を検出する画像属性検出部と、
該検出された画像属性の変化に基づいて、前記管状組織の断面が画像上で顕在化されたか否かを判別する顕在化判別部と、をさらに備えていることが望ましく、
この場合、
前記画像属性は、画像の面積を示すものとすることができ、
前記画像属性検出部は、
該条件変化に応じて変化する画像面積を検出し、該検出された面積に基づいて、前記条件変化に応じた画像面積の変化を検出し、
前記顕在化判別部は、該検出された面積変化に基づいて、前記管状組織の断面が画像上で顕在化されたか否かを判別することが望ましい。
The imaging unit,
A condition changing unit that changes the predetermined condition;
An image attribute detection unit that detects an image attribute that changes according to the condition change,
Based on the detected change of the image attribute, it is preferable that the apparatus further comprises an manifestation determining unit that determines whether or not the cross section of the tubular tissue has been manifested on the image.
in this case,
The image attribute may indicate an area of the image,
The image attribute detection unit,
Detecting an image area that changes in accordance with the condition change, and detecting a change in the image area in accordance with the condition change, based on the detected area;
It is preferable that the manifestation determination unit determines whether or not a cross section of the tubular tissue has been manifested on an image based on the detected area change.

前記顕在化判別部は、前記断面領域の中心に現れている画像が、当該断面領域内に収まり、かつ、前記面積変化が最大となったときに、前記管状組織の断面が画像上で顕在化されたと判別することが望ましい。   The manifestation determination unit is configured such that when the image appearing at the center of the cross-sectional area falls within the cross-sectional area, and when the area change is maximized, the cross-section of the tubular tissue is visualized on the image. It is desirable to determine that it has been done.

前記直交断面領域指定部は、
次の直交断面領域を指定するための進行方向を暫定決定する暫定方向決定部と、
直前に指定した直交断面領域で特定された前記管状組織の中心位置と、前記暫定方向決定部が決定した暫定方向とに基づいて、当該直交断面領域における前記管状組織の長手方向に平行し、該管状組織の長手方向断面を含む1または複数の領域を指定する平行断面領域指定部と、
該指定された平行断面領域に含まれる前記長手方向断面の中心位置を検出し、該検出した中心位置に基づいて、次の直交断面領域を指定するための進行方向を決定する進行方向決定部と、をさらに備えていることが望ましく、この場合、
前記進行方向決定部が決定した進行方向に直交する領域を前記次の直交断面領域として指定することができる。
The orthogonal cross-sectional area designating section,
A provisional direction determination unit that provisionally determines the traveling direction for specifying the next orthogonal cross-sectional area,
Based on the center position of the tubular tissue specified in the orthogonal cross-sectional area specified immediately before, based on the provisional direction determined by the provisional direction determination unit, parallel to the longitudinal direction of the tubular tissue in the orthogonal cross-sectional area, A parallel section area designating section for designating one or more areas including a longitudinal section of the tubular tissue;
A traveling direction determining unit that detects a center position of the longitudinal section included in the designated parallel sectional region, and determines a traveling direction for designating a next orthogonal sectional region based on the detected center position; , Is preferably further provided, in this case,
A region orthogonal to the traveling direction determined by the traveling direction determination unit can be designated as the next orthogonal cross-sectional region.

また、前記3次元領域指定部は、前記中心線特定部が特定した前記管状組織の中心線をを示す3次元ボリュームデータに基づいて、次に指定する3次元領域の位置を決定することができる。   Further, the three-dimensional region specifying unit can determine the position of the next three-dimensional region to be specified based on the three-dimensional volume data indicating the center line of the tubular tissue specified by the center line specifying unit. .

前記中心線特定部は、前記管状組織の中心線を3次元パスデータとして特定することが望ましく、この場合、
前記中心線特定部が特定した3次元パスデータに基づいて、前記管状組織を示す画像を作成する画像作成部をさらに備えていることが望ましい。
It is desirable that the center line specifying unit specifies the center line of the tubular tissue as three-dimensional path data. In this case,
It is preferable that the image processing apparatus further includes an image creating unit that creates an image indicating the tubular tissue based on the three-dimensional path data specified by the center line specifying unit.

この場合、
前記画像作成部は、
前記管状組織を示す複数種類の画像を作成し、各画像間の相対的位置関係を演算する画像演算部と、
作成された複数種類の画像を所定の表示装置に一覧表示させるとともに、前記画像演算部が演算した各画像間の相対的位置関係に基づいて、各表示画像上の位置関係を相互に対応付けて表示させる表示制御部と、をさらに備えていることが望ましい。
in this case,
The image creation unit,
Create a plurality of types of images showing the tubular tissue, an image calculation unit that calculates the relative positional relationship between each image,
A plurality of created images are displayed in a list on a predetermined display device, and the positional relationships on each display image are associated with each other based on the relative positional relationship between the images calculated by the image calculation unit. And a display control unit for displaying.

上記目的を達成するため、本発明の第4の観点にかかるプログラムは、
コンピュータを、上記医用画像処理装置として機能させることを特徴とする。
In order to achieve the above object, a program according to a fourth aspect of the present invention includes:
A computer is caused to function as the medical image processing apparatus.

このような装置によれば、画像診断などにおいて3次元医用画像を生成する際に、血管などの管状組織の中心線(例えば、3次元パスデータ)を抽出することで、当該管状組織の正確な画像を生成することができる。また、中心線の座標情報を特定することができるので、対象とする管状組織を示す複数種類の画像(例えば、3次元画像、2次元パスデータ、2次元画像(MPR画像やCPR画像)など)を対応付けて表示装置上に一覧表示させることができる。   According to such an apparatus, when generating a three-dimensional medical image in image diagnosis or the like, by extracting the center line (for example, three-dimensional path data) of a tubular tissue such as a blood vessel, the accurate shape of the tubular tissue can be obtained. Images can be generated. In addition, since the coordinate information of the center line can be specified, a plurality of types of images (for example, three-dimensional images, two-dimensional path data, two-dimensional images (MPR images and CPR images), etc.) showing the target tubular tissue can be specified. Can be displayed in a list on the display device in association with each other.

上記目的を達成するため、本発明の第5の観点にかかる医用画像処理方法は、
コンピュータを用いて、生体内部の管状組織を示す画像を生成するための医用画像処理方法であって、
生体内部を示す3次元ボリュームデータを取得するステップと、
前記3次元ボリュームデータで示される管状組織上で指定された任意点に基づき、前記管状組織の断面を含んだ断面領域を前記管状組織に沿って順次指定するステップと、
指定された各断面領域における前記管状組織の中心位置を検出するステップと、
検出された中心位置に基づいて、前記管状組織の中心線を示す3次元パスデータを取得するステップと、
該取得された3次元パスデータに基づいて、前記管状組織を示す画像を生成して表示するステップと、
を備えることを特徴とする。
In order to achieve the above object, a medical image processing method according to a fifth aspect of the present invention includes:
Using a computer, a medical image processing method for generating an image showing a tubular tissue inside the living body,
Obtaining three-dimensional volume data indicating the inside of the living body;
Based on an arbitrary point specified on the tubular tissue indicated by the three-dimensional volume data, sequentially specifying a cross-sectional area including a cross section of the tubular tissue along the tubular tissue;
Detecting a center position of the tubular tissue in each of the designated cross-sectional areas,
Acquiring three-dimensional path data indicating a center line of the tubular tissue based on the detected center position;
Generating and displaying an image indicating the tubular tissue based on the acquired three-dimensional path data;
It is characterized by having.

上記医用画像処理方法において、
前記断面領域を指定するステップは、
前記指定された任意点に基づき、前記管状組織の長尺方向に直交する領域を前記管状組織に沿って順次指定することで前記断面領域を指定するものとすることができ、
あるいは、
前記指定された任意点に基づく所定の3次元領域を前記管状組織に沿って順次指定することで前記断面領域を指定するものとすることができる。
In the medical image processing method,
The step of designating the cross-sectional area includes:
Based on the designated arbitrary point, it is possible to specify the cross-sectional area by sequentially specifying a region orthogonal to the longitudinal direction of the tubular tissue along the tubular tissue,
Or
The sectional area can be designated by sequentially designating a predetermined three-dimensional area based on the designated arbitrary point along the tubular tissue.

上記医用画像処理方法において、
前記中心位置を検出するステップは、
前記3次元ボリュームデータに含まれる所定の特性情報についての閾値を設定するステップと、
設定された閾値に対応する特性情報を用いて各断面領域を画像化するステップと、
前記閾値を変化させることで、当該管状組織の管断面を画像上で顕在化させるステップと、をさらに備えることが望ましく、この場合、
該顕在化された管断面を示す画像の中心位置を検出することで、当該管断面の中心位置を検出するものとすることができる。
In the medical image processing method,
The step of detecting the center position includes:
Setting a threshold value for predetermined characteristic information included in the three-dimensional volume data;
Imaging each cross-sectional area using characteristic information corresponding to the set threshold,
By changing the threshold, it is desirable to further comprise the step of making a tube cross section of the tubular tissue appear on an image, and in this case,
By detecting the center position of the image showing the revealed tube section, the center position of the tube section can be detected.

この場合、
前記中心位置を検出するステップは、前記閾値の変化に応じて変化する画像面積の変化に基づいて、前記管状組織の断面が当該画像上で顕在化したか否かを判別することが望ましく、
さらに、
当該断面領域の中心に現れている画像が、当該断面領域内に収まっており、かつ、前記閾値の変化に応じた面積変化が最大となったときに、前記管状組織の断面が顕在化したと判別することが望ましい。
in this case,
The step of detecting the center position is based on a change in an image area that changes in accordance with the change in the threshold value, and it is preferable to determine whether or not a cross section of the tubular tissue has been exposed on the image,
further,
The image appearing at the center of the cross-sectional area is within the cross-sectional area, and, when the change in area according to the change in the threshold is maximized, the cross-section of the tubular tissue has become apparent. It is desirable to determine.

上記医用画像処理方法において、
前記管状組織を示す画像を生成して表示するステップは、前記3次元パスデータに基づいて当該管状組織についての複数種類の画像を生成し、生成された画像のすべて又はいずれかを、所定の表示装置に一覧表示する、ことが望ましく、この場合、
前記管状組織を示す画像を生成して表示するステップは、前記一覧表示される各画像上の位置関係を相互に対応付け、表示画像上で動的にリンクさせることができる。
In the medical image processing method,
The step of generating and displaying an image indicating the tubular tissue includes generating a plurality of types of images of the tubular tissue based on the three-dimensional path data, and displaying all or any of the generated images in a predetermined manner. It is desirable to list on the device, in this case,
In the step of generating and displaying the image indicating the tubular tissue, the positional relationship on each of the images displayed in the list can be associated with each other and dynamically linked on the display image.

この場合、前記管状組織を示す画像を生成して表示するステップは、前記複数種類の画像として、少なくとも当該管状組織についての3次元画像と2次元画像とを作成することができる。   In this case, in the step of generating and displaying the image indicating the tubular tissue, at least a three-dimensional image and a two-dimensional image of the tubular tissue can be created as the plurality of types of images.

ここで、2次元画像として、例えば、CPR(Curved Planer Reconstruction)画像が作成されてもよく、この場合、少なくとも、作成された3次元画像とCPR画像の位置関係を相互に対応付けて表示することが望ましい。   Here, for example, a CPR (Curved Planer Reconstruction) image may be created as the two-dimensional image. In this case, at least the positional relationship between the created three-dimensional image and the created CPR image is displayed in association with each other. Is desirable.

また、
前記管状組織を示す画像を生成して表示するステップは、
前記3次元パスデータを2次元パスデータに変換するステップと、
前記3次元パスデータと、該変換された2次元パスデータとを関連付けるステップと、をさらに備えていることが望ましく、この場合、
少なくとも、当該3次元パスデータに基づく画像と、変換された2次元パスデータに基づく画像とを一覧表示させることが望ましい。
Also,
Generating and displaying an image showing the tubular tissue,
Converting the three-dimensional path data into two-dimensional path data;
Preferably, the method further comprises associating the three-dimensional path data with the converted two-dimensional path data.
It is desirable to display at least a list of images based on the three-dimensional path data and images based on the converted two-dimensional path data.

さらに、所定の付帯情報を取得し、前記生成された各画像とともに一覧表示させてもよい。   Further, predetermined supplementary information may be acquired and displayed as a list together with the generated images.

このような方法によれば、画像診断などにおいて3次元医用画像を生成する際に、血管などの管状組織の中心線(例えば、3次元パスデータ)を抽出することで、当該管状組織の正確な画像を生成することができる。また、中心線の座標情報を特定することができるので、対象とする管状組織を示す複数種類の画像(例えば、3次元画像、2次元パスデータ、2次元画像(MPR画像やCPR画像)、など)を対応付けて表示装置上に一覧表示させることができる。   According to such a method, when generating a three-dimensional medical image in image diagnosis or the like, by extracting the center line (for example, three-dimensional path data) of a tubular tissue such as a blood vessel, an accurate shape of the tubular tissue is extracted. Images can be generated. In addition, since the coordinate information of the center line can be specified, a plurality of types of images (for example, three-dimensional images, two-dimensional path data, two-dimensional images (MPR images and CPR images), etc.) showing the target tubular tissue can be used. ) Can be displayed in a list on the display device in association with each other.

上記目的を達成するため、本発明の第6の観点にかかるプログラムは、
コンピュータに、上記医用画像処理方法の各ステップを実行させることを特徴とする。
In order to achieve the above object, a program according to a sixth aspect of the present invention includes:
The present invention is characterized by causing a computer to execute each step of the medical image processing method.

本発明によれば、医用画像の生成において、血管などの管状組織を正確に抽出することができるとともに、当該管状組織を示す複数種類の画像を相互に関連付けて一覧表示させることができる。   According to the present invention, in generating a medical image, a tubular tissue such as a blood vessel can be accurately extracted, and a plurality of types of images representing the tubular tissue can be displayed as a list in association with each other.

以下、図面を参照して本発明にかかる実施の形態を説明する。以下の実施の形態においては、所定の医療施設(以下、「医療施設H」とする)における3次元画像診断に本発明が適用される場合を例に説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following embodiment, a case where the present invention is applied to three-dimensional image diagnosis in a predetermined medical facility (hereinafter, referred to as “medical facility H”) will be described as an example.

図1は、本発明の実施の形態にかかる画像診断システムの構成を示す図である。図示するように、本実施の形態にかかる画像診断システム1は、通信ネットワーク10と、モダリティ100と、制御端末200と、画像処理装置300、から構成される。   FIG. 1 is a diagram illustrating a configuration of an image diagnostic system according to an embodiment of the present invention. As illustrated, the diagnostic imaging system 1 according to the present embodiment includes a communication network 10, a modality 100, a control terminal 200, and an image processing device 300.

通信ネットワーク10は、医療施設H内で、制御端末200や画像処理装置300を相互接続し、これらの間の情報伝達を媒介する通信ネットワークであり、例えば、DICOM(Digital Imaging and COmmunications in Medicine)などの所定の通信プロトコルに基づいた情報伝達を媒介する。   The communication network 10 is a communication network that interconnects the control terminal 200 and the image processing apparatus 300 in the medical facility H and mediates information transmission between them, such as DICOM (Digital Imaging and Communications in Medicine). Mediating information transmission based on a predetermined communication protocol.

次にモダリティ100について説明する。モダリティ100は、人体内部を撮像する撮像装置であり、例えば、CTスキャナ(コンピュータ断層撮影装置)、ヘリカルCT、MRI(磁気共鳴画像装置)、PET(ポジトロン断層撮影装置)などである。本実施の形態では、X線を用いて人体内部の断層画像を撮像するCTスキャナをモダリティ100として採用するものとする。   Next, the modality 100 will be described. The modality 100 is an imaging device that images the inside of a human body, and is, for example, a CT scanner (computer tomography device), helical CT, MRI (magnetic resonance imaging device), PET (positron tomography device), or the like. In the present embodiment, a CT scanner that captures a tomographic image of the inside of a human body using X-rays is adopted as the modality 100.

本実施の形態では、モダリティ100(CTスキャナ)は、後述する制御端末200により制御され、患者や受診者など(以下、「受診者等」とする)の内部(生体内部)についての断層画像(スライス)を撮像するものである。ここで、本実施の形態では、モダリティ100としてCTスキャナを採用しているので、断層画像を示す情報には、X線吸収係数であるCT値などが含まれる。モダリティ100と制御端末200とは、例えば、DICOM(Digital Imaging and COmmunications in Medicine)などの所定の医用画像通信規格に基づいて接続されている。   In the present embodiment, the modality 100 (CT scanner) is controlled by a control terminal 200 to be described later, and a tomographic image (inside a living body) of a patient, a patient, or the like (hereinafter, referred to as a “patient”). (Slice). Here, in the present embodiment, since a CT scanner is employed as the modality 100, information indicating a tomographic image includes a CT value, which is an X-ray absorption coefficient, and the like. The modality 100 and the control terminal 200 are connected based on a predetermined medical image communication standard such as DICOM (Digital Imaging and Communications in Medicine).

次に制御端末200について説明する。制御端末200は、ワークステーションなどの所定の情報処理装置から構成され、接続されているモダリティ100の動作を制御するとともに、モダリティ100による撮像により取得される撮像画像データ(元データ)を取得する。図2を参照して制御端末200の構成を説明する。   Next, the control terminal 200 will be described. The control terminal 200 includes a predetermined information processing device such as a workstation, controls the operation of the connected modality 100, and obtains captured image data (original data) obtained by imaging by the modality 100. The configuration of the control terminal 200 will be described with reference to FIG.

図2は、制御端末200の構成を示すブロック図である。図示するように、制御端末200は、制御部210と、通信制御部220と、入力制御部230と、出力制御部240と、プログラム格納部250と、記憶部260と、から構成される。   FIG. 2 is a block diagram showing a configuration of the control terminal 200. As shown, the control terminal 200 includes a control unit 210, a communication control unit 220, an input control unit 230, an output control unit 240, a program storage unit 250, and a storage unit 260.

制御部210は、例えば、CPU(Central Processing Unit:中央演算処理装置)やワークエリアとなる所定の記憶装置(RAM(Random Access Memory)など)から構成され、制御端末200の各部を制御するとともに、プログラム格納部250に格納されている所定の動作プログラムに基づいて後述する各処理を実行する。   The control unit 210 includes, for example, a CPU (Central Processing Unit) and a predetermined storage device (RAM (Random Access Memory)) serving as a work area, and controls each unit of the control terminal 200. Each process described below is executed based on a predetermined operation program stored in the program storage unit 250.

通信制御部220は、例えば、所定のNIC(Network Interface Card)などの所定の通信装置から構成され、制御端末200とモダリティ100および通信ネットワーク10とを接続し、モダリティ100や画像処理装置300との通信を行う。   The communication control unit 220 includes, for example, a predetermined communication device such as a predetermined NIC (Network Interface Card), connects the control terminal 200 to the modality 100 and the communication network 10, and connects the modality 100 and the image processing device 300 to each other. Perform communication.

入力制御部230は、例えば、キーボードやポインティング・デバイスなどの所定の入力装置23を接続し、入力装置23から入力された、制御部210への指示などを受け付けて制御部210に伝達する。   The input control unit 230 is connected to a predetermined input device 23 such as a keyboard or a pointing device, receives an instruction to the control unit 210 input from the input device 23, and transmits the instruction to the control unit 210.

出力制御部240は、例えば、ディスプレイ装置やプリンタなどの所定の出力装置24を接続し、制御部210の処理結果などを必要に応じて出力装置24に出力する。   The output control unit 240 is connected to a predetermined output device 24 such as a display device or a printer, and outputs the processing result of the control unit 210 to the output device 24 as needed.

プログラム格納部250は、例えば、ハードディスク装置やROM(Read Only Memory)などの所定の記憶装置から構成され、制御部210が実行する種々の動作プログラムが格納されている。プログラム格納部250に格納される動作プログラムは、制御端末200の基本動作を司る任意のOS(Operating System:基本ソフトウェア)の他に、OSと協働して後述する各処理を実現するための、以下の(1),(2)に示すような動作プログラムが格納されているものとする。後述する制御端末200による処理は、制御部210がこれらの動作プログラムを実行することで実現される。
(1)「モダリティ制御プログラム」:モダリティ100の制御を行うプログラム
(2)「通信プログラム」:通信制御部220を制御し、モダリティ100との通信や、通信ネットワーク10を介した通信を行うプログラム
The program storage unit 250 includes a predetermined storage device such as a hard disk device or a ROM (Read Only Memory), and stores various operation programs executed by the control unit 210. The operation program stored in the program storage unit 250 includes, in addition to an arbitrary OS (Operating System: basic software) that controls the basic operation of the control terminal 200, a program for realizing each process described later in cooperation with the OS. It is assumed that the following operation programs (1) and (2) are stored. Processing by the control terminal 200 described later is realized by the control unit 210 executing these operation programs.
(1) “Modality control program”: a program for controlling the modality 100 (2) “Communication program”: a program for controlling the communication control unit 220 to perform communication with the modality 100 and communication via the communication network 10

記憶部260は、例えば、RAM(Random Access Memory)やハードディスク装置などの記憶装置などから構成され、モダリティ100から取得した撮像画像データなどを格納する。   The storage unit 260 includes, for example, a storage device such as a RAM (Random Access Memory) and a hard disk device, and stores captured image data acquired from the modality 100.

ここで、モダリティ100から得られる「撮像画像データ」(元データ)は、撮像領域の「3次元ボリュームデータ」を示すものである。この3次元ボリュームデータは、当該領域における座標系情報、および、各座標における特性情報などから構成される。「特性情報」は、画像生成に用いられる際に、当該画像を構成する画素(ピクセル、ボクセル)の特性(例えば、明度、彩度、色調、など)を示すこととなる情報である。本実施の形態では、モダリティ100として「CTスキャナ」を採用しているので、特性情報として「CT値」が用いられるものとする。ここで「CT値」は、X線吸収係数を示す値であり、このCT値を画素値として画像を生成すると、CT値の違いが画像上の明るさの違いとなって現れる。したがって、モダリティ100から取得した「撮像画像データ」を用いることで、例えば、図3に示すような断層画像(スライス画像)を得ることができる。   Here, the “captured image data” (original data) obtained from the modality 100 indicates “three-dimensional volume data” of the captured area. The three-dimensional volume data includes coordinate system information in the area and characteristic information in each coordinate. “Characteristic information” is information that, when used for image generation, indicates characteristics (for example, lightness, saturation, color tone, etc.) of pixels (pixels, voxels) constituting the image. In the present embodiment, since a “CT scanner” is used as the modality 100, “CT value” is used as the characteristic information. Here, the “CT value” is a value indicating the X-ray absorption coefficient. When an image is generated using the CT value as a pixel value, a difference in CT value appears as a difference in brightness on the image. Accordingly, by using the “captured image data” acquired from the modality 100, for example, a tomographic image (slice image) as shown in FIG. 3 can be obtained.

このような断層画像は、図示するような平行した2次元画像が複数積層されたものとして捉えることができるとともに、これらが一体となった一つの3次元領域として捉えることもできる。すなわち、積層2次元画像のそれぞれを抽出できることはもとより、全体の3次元領域から任意の領域を指定することもできる。ここで、任意の平面を指定する方法として、例えば、MPR(Multi Planer Reconstruction)といった手法が知られている。すなわち、図4(a)に示すように、3次元ボリュームデータ内の任意平面を指定することができる。また、任意の曲面を指定する方法として、例えば、CPR(Curved Planer Reconstruction)といった手法が知られている。すなわち、図4(b)に示すように、3次元ボリュームデータ内の任意曲面を指定することができる。   Such a tomographic image can be captured as a stack of a plurality of parallel two-dimensional images as illustrated, and can also be captured as one three-dimensional area in which these are integrated. That is, not only can each of the stacked two-dimensional images be extracted, but also an arbitrary region can be designated from the entire three-dimensional region. Here, as a method of designating an arbitrary plane, for example, a technique such as MPR (Multi Planer Reconstruction) is known. That is, as shown in FIG. 4A, an arbitrary plane in the three-dimensional volume data can be designated. As a method of specifying an arbitrary curved surface, for example, a method such as CPR (Curved Planer Reconstruction) is known. That is, as shown in FIG. 4B, an arbitrary curved surface in the three-dimensional volume data can be designated.

次に、画像処理装置300について説明する。画像処理装置300は、例えば、ワークステーションなどの所定の情報処理装置から構成され、制御端末200から取得する撮像画像データ(3次元ボリュームデータ)を用いて、3次元診断画像(医用画像)を生成するものである。画像処理装置300の構成を図5を参照して以下説明する。   Next, the image processing apparatus 300 will be described. The image processing device 300 includes, for example, a predetermined information processing device such as a workstation, and generates a three-dimensional diagnostic image (medical image) using captured image data (three-dimensional volume data) acquired from the control terminal 200. Is what you do. The configuration of the image processing device 300 will be described below with reference to FIG.

図5は、画像処理装置300の構成を示すブロック図である。図示するように、画像処理装置300は、制御部310と、通信制御部320と、入力制御部330と、出力制御部340と、プログラム格納部350と、画像記憶部360と、から構成される。   FIG. 5 is a block diagram illustrating a configuration of the image processing apparatus 300. As illustrated, the image processing device 300 includes a control unit 310, a communication control unit 320, an input control unit 330, an output control unit 340, a program storage unit 350, and an image storage unit 360. .

制御部310は、例えば、CPU(Central Processing Unit:中央演算処理装置)やワークエリアとなる所定の記憶装置(RAM(Random Access Memory)など)から構成され、画像処理装置300の各部を制御するとともに、プログラム格納部350に格納されている所定の動作プログラムに基づいて後述する各処理を実行する。   The control unit 310 includes, for example, a CPU (Central Processing Unit) and a predetermined storage device (RAM (Random Access Memory) or the like) serving as a work area, and controls each unit of the image processing device 300. , Based on a predetermined operation program stored in the program storage unit 350.

通信制御部320は、例えば、所定のNIC(Network Interface Card)などの所定の通信装置から構成され、画像処理装置300と通信ネットワーク10とを接続し、制御端末200などとの通信を行う。   The communication control unit 320 includes a predetermined communication device such as a predetermined NIC (Network Interface Card), connects the image processing device 300 to the communication network 10, and performs communication with the control terminal 200 and the like.

入力制御部330は、例えば、キーボードやポインティング・デバイスなどの所定の入力装置33を接続し、入力装置33から入力された、制御部310への指示や各データベースに記録される情報などを受け付けて制御部310に伝達する。   The input control unit 330 is connected to a predetermined input device 33 such as a keyboard or a pointing device, and receives an instruction to the control unit 310, information recorded in each database, and the like input from the input device 33. The information is transmitted to the control unit 310.

出力制御部340は、例えば、ディスプレイ装置やプリンタなどの所定の出力装置34を接続し、制御部310の処理結果などを必要に応じて出力装置34に出力する。   The output control unit 340 is connected to a predetermined output device 34 such as a display device or a printer, and outputs a processing result of the control unit 310 to the output device 34 as needed.

プログラム格納部350は、例えば、ハードディスク装置やROM(Read Only Memory)などの所定の記憶装置から構成され、制御部310が実行する種々の動作プログラムが格納されている。プログラム格納部350に格納される動作プログラムには、画像処理装置300の基本動作を司る任意のOS(Operating System:基本ソフトウェア)の他に、OSと協働して後述する各処理を実現するための、以下の(1)〜(3)に示すような動作プログラムが含まれているものとする。後述する画像処理装置300による処理は、制御部310がこれらの動作プログラムを実行することで実現される。
(1)「通信プログラム」:通信制御部320を制御し、通信ネットワーク10を介して制御端末200などと通信を行うプログラム
(2)「DB制御プログラム」:画像記憶部360を制御するプログラム
(3)「画像処理プログラム」:制御端末200から取得した撮像画像データに画像処理を行うプログラム
The program storage unit 350 is configured from a predetermined storage device such as a hard disk device or a ROM (Read Only Memory), and stores various operation programs executed by the control unit 310. The operation program stored in the program storage unit 350 includes, in addition to an arbitrary OS (Operating System: basic software) that controls the basic operation of the image processing apparatus 300, various processes described later in cooperation with the OS. It is assumed that the following operation programs (1) to (3) are included. The processing by the image processing device 300 described later is realized by the control unit 310 executing these operation programs.
(1) “Communication program”: a program that controls the communication control unit 320 and communicates with the control terminal 200 and the like via the communication network 10 (2) “DB control program”: a program (3) that controls the image storage unit 360 ) “Image processing program”: a program for performing image processing on captured image data acquired from the control terminal 200

画像記憶部360は、例えば、半導体記憶装置やハードディスク装置などの書き換え可能な記憶装置などから構成され、後述する各処理により取得されるデータや生成される3次元診断画像などを格納する。   The image storage unit 360 includes, for example, a rewritable storage device such as a semiconductor storage device or a hard disk device, and stores data acquired by each process described later, a generated three-dimensional diagnostic image, and the like.

以下、本実施の形態における各処理を図面を参照して説明する。なお、本実施の形態では、本発明を適用した画像診断システム1により、モダリティ100が取得した3次元ボリュームデータから、所望の血管の中心線を抽出して、当該血管を示す画像を生成するものとする。   Hereinafter, each process in the present embodiment will be described with reference to the drawings. In the present embodiment, the center line of a desired blood vessel is extracted from the three-dimensional volume data acquired by the modality 100 by the diagnostic imaging system 1 to which the present invention is applied, and an image indicating the blood vessel is generated. And

図6は、本発明を適用した画像診断システム1で血管画像を生成する「血管画像生成処理」を説明するためのフローチャートである。図示するように、画像診断システム1で血管画像を生成するにあたり、「撮像処理」(ステップS100)、「血管抽出処理」(ステップS300)、「医用画像生成・表示処理」(ステップS500)が順次実行される。以下、これら各処理の詳細を以下図面を参照して説明する。   FIG. 6 is a flowchart for explaining “blood vessel image generation processing” for generating a blood vessel image in the image diagnostic system 1 to which the present invention is applied. As shown in the figure, in generating a blood vessel image in the image diagnostic system 1, “imaging processing” (step S100), “blood vessel extraction processing” (step S300), and “medical image generation / display processing” (step S500) are sequentially performed. Be executed. Hereinafter, the details of each of these processes will be described with reference to the drawings.

まず、本実施の形態にかかる「撮像処理」を図7に示すフローチャートを参照して説明する。本処理は、モダリティ100と制御端末200との協働により、受診者等の人体内部断層画像(スライス)を取得するためものであり、主に制御端末200の動作を中心に以下説明する。   First, the “imaging processing” according to the present embodiment will be described with reference to the flowchart shown in FIG. This processing is for acquiring a tomographic image (slice) inside the human body of the examinee or the like in cooperation with the modality 100 and the control terminal 200. The operation will be mainly described below mainly on the operation of the control terminal 200.

撮像動作を実行するにあたり、まず、制御端末200において所定の撮像条件情報が設定される(ステップS101)。ここでは、撮像対象領域の指定や造影剤使用の有無などといった撮像諸条件が設定される。   In executing the imaging operation, first, predetermined imaging condition information is set in the control terminal 200 (step S101). Here, various imaging conditions such as designation of an imaging target area and the use of a contrast agent are set.

制御端末200は、ステップS101で設定された撮像条件に従い、モダリティ100を制御する(ステップS102)。すなわち、モダリティ100は、制御端末200の制御により、上記撮像条件に基づいた撮像動作を行う。この結果、モダリティ100は、設定された撮像領域における、撮像画像データ(3次元ボリュームデータ)を取得する。   The control terminal 200 controls the modality 100 according to the imaging conditions set in step S101 (step S102). That is, the modality 100 performs an imaging operation based on the imaging conditions under the control of the control terminal 200. As a result, the modality 100 acquires captured image data (three-dimensional volume data) in the set imaging region.

モダリティ100の撮像動作が終了すると、制御端末200は、モダリティ100から撮像した撮像画像データを取得し(ステップS103)、記憶部260に格納して(ステップS104)処理を終了する。   When the imaging operation of the modality 100 ends, the control terminal 200 acquires captured image data from the modality 100 (step S103), stores the data in the storage unit 260 (step S104), and ends the process.

次に、本実施の形態にかかる「血管抽出処理」を、図8に示すフローチャートを参照して説明する。本処理では、画像処理装置300により、「撮像処理」で取得した撮像画像データを用いて所望の血管の中心線を3次元パスデータとして抽出する。なお、本実施の形態では、心臓付近の冠状血管を抽出対象とした場合を例に以下説明する。   Next, “blood vessel extraction processing” according to the present embodiment will be described with reference to the flowchart shown in FIG. In this processing, the center line of a desired blood vessel is extracted as three-dimensional path data using the image data acquired in the “imaging processing” by the image processing apparatus 300. In the present embodiment, an example in which a coronary blood vessel near the heart is to be extracted will be described below.

まず、画像処理装置300は、通信ネットワーク10を介して、制御端末200から対象となる撮像画像データ(3次元ボリュームデータ)を取得する(ステップS301)。   First, the image processing apparatus 300 acquires target captured image data (three-dimensional volume data) from the control terminal 200 via the communication network 10 (step S301).

次に、制御部310は、ステップS301で取得した撮像画像(3次元ボリュームデータ)に基づく2次元画像を出力装置34(ディスプレイ装置)に表示し、抽出対象としている血管(以下、「対象血管Vt」とする)の抽出始点および抽出終了点の指定を受け付ける(ステップS302)。ここでは、医師などのオペレータが、入力装置33を操作して、表示されている2次元画像上で抽出始点および抽出終了点を指定する。   Next, the control unit 310 displays a two-dimensional image based on the captured image (three-dimensional volume data) acquired in step S301 on the output device 34 (display device), and extracts a blood vessel to be extracted (hereinafter, “target blood vessel Vt”). ") Is specified (step S302). Here, an operator such as a doctor operates the input device 33 to specify an extraction start point and an extraction end point on the displayed two-dimensional image.

図9(a)に、ここで表示される2次元画像の例を示す。ここでは、上記MPRなどで得られる、撮像領域内の任意の2次元平面を示す画像が出力装置34に表示される。すなわち、3次元ボリュームデータに含まれるCT値の違いに基づく明暗を表示することで、当該領域を画像化する。ここで、画像処理装置300は、オペレータによる入力装置33の操作により指定される位置や方向に対応する3次元ボリュームデータを画像化することで、表示位置や角度を随時変化させて表示する。なお、血管を撮像対象としている場合、通常、血液のCT値を上げるために造影剤が用いられており、これにより、図9(a)に示すように、血管部が比較的明るく表示される。オペレータは入力装置33を操作し、対象血管Vtの抽出始点における血管断面が表示されるよう表示画面を変化させる。オペレータは、表示された断面の中心(以下、「始点SP」とする)を入力装置33を用いて指定する。また、同様に、抽出終了点における断面中心(以下、「終点EP」とする)を指定する。   FIG. 9A shows an example of the two-dimensional image displayed here. Here, an image showing an arbitrary two-dimensional plane in the imaging region obtained by the MPR or the like is displayed on the output device 34. That is, by displaying light and shade based on the difference in CT values included in the three-dimensional volume data, the region is imaged. Here, the image processing apparatus 300 changes the display position and the angle as needed by displaying the three-dimensional volume data corresponding to the position and the direction specified by the operation of the input device 33 by the operator. When a blood vessel is to be imaged, a contrast agent is usually used to increase the CT value of blood, and as a result, the blood vessel portion is displayed relatively bright as shown in FIG. . The operator operates the input device 33 to change the display screen so that the blood vessel cross section at the extraction start point of the target blood vessel Vt is displayed. The operator uses the input device 33 to specify the center of the displayed cross section (hereinafter, referred to as “start point SP”). Similarly, the center of the cross section at the extraction end point (hereinafter, referred to as “end point EP”) is designated.

画像処理装置300の制御部310は、ステップS302で始点SPが指定されると、その3次元座標を特定する。そして、特定された座標値に基づいて、始点SPの断面が中央に位置するような領域であって、当該位置における対象血管Vtの長尺方向に直交する領域(以下、「直交断面領域SR」とする)を指定する(ステップS303)。   When the start point SP is specified in step S302, the control unit 310 of the image processing apparatus 300 specifies the three-dimensional coordinates. Then, based on the specified coordinate values, a region in which the cross section of the starting point SP is located at the center, and a region perpendicular to the longitudinal direction of the target blood vessel Vt at that position (hereinafter, referred to as an “orthogonal cross-sectional region SR”) Is specified (step S303).

ここで、図9(b)および図9(c)に、ステップS302で指定される各点と対象血管VtおよびステップS303で指定される直交断面領域SRとの位置関係の例を示す。図9(b)は、対象血管Vtと、指定される始点SPおよび終点EP、および、始点SPで指定される直交断面領域SR0の位置関係を模式的に示す図であり、図9(c)は、直交断面領域SR0における対象血管Vtの位置を示す模式図である。対象血管Vt上で始点SP・終点EPが指定されると(図9(b))、始点SPが中心に位置するような直交断面領域SR0が指定される(図9(c))。 Here, FIGS. 9B and 9C show examples of the positional relationship between each point specified in step S302, the target blood vessel Vt, and the orthogonal cross-sectional area SR specified in step S303. FIG. 9B is a diagram schematically showing the positional relationship between the target blood vessel Vt, the designated start point SP and end point EP, and the orthogonal cross-sectional area SR 0 designated by the start point SP. ) is a schematic view showing the position of the target vessel Vt in the cross section perpendicular region SR 0. When the start point SP · end point EP on the target vessel Vt is specified (FIG. 9 (b)), the cross section perpendicular to region SR 0 as the start point SP is located at the center is designated (FIG. 9 (c)).

なお、本実施の形態では、後述する処理により、直交断面領域SRが、始点SP〜終点EPまで順次指定される。したがって、始点SP位置で指定される直交断面領域を「直交断面領域SR0」とし、終点EPで指定される直交断面領域を「直交断面領域SR」と以下表記する。すなわち、後述する処理により、直交断面領域SR0〜SRが順次指定される。 In the present embodiment, the orthogonal cross-sectional area SR is sequentially designated from the start point SP to the end point EP by the processing described later. Therefore, the orthogonal cross-sectional area specified by the start point SP position is referred to as “orthogonal cross-sectional area SR 0 ”, and the orthogonal cross-sectional area specified by the end point EP is referred to as “orthogonal cross-sectional area SR n ”. That is, the orthogonal cross-sectional areas SR 0 to SR n are sequentially designated by the processing described later.

制御部310は、ステップS302で指定された始点SPおよび終点EPの座標値をワークエリアなどの所定の記憶領域に保持した後、始点SP・終点EPの各位置に基づき、いずれの方向に向かって対象血管Vtを抽出していくのかを判別する。そして、判別した方向(進行方向)に基づいて、直交断面領域SR0のいずれの面が進行方向側の面(以下、「主面」とする)であるかを決定する。制御部310は、決定した主面に垂直な方向を「暫定進行方向」として決定する(ステップS304)。なお、暫定進行方向は、以下の処理により、直交断面領域SR0〜SRのそれぞれで決定される。したがって、以下の説明では、直交断面領域SR0〜SRのそれぞれに対応する暫定進行方向を「暫定方向DirA0〜DirAn」と表記する。 After holding the coordinate values of the start point SP and the end point EP specified in step S302 in a predetermined storage area such as a work area, the control unit 310 moves in any direction based on the positions of the start point SP and the end point EP. It is determined whether to extract the target blood vessel Vt. Then, based on the discriminated direction (traveling direction), either surface traveling direction side of the cross section perpendicular to region SR 0 (hereinafter referred to as "main surface") to determine whether it is. The control unit 310 determines a direction perpendicular to the determined main surface as a “provisional traveling direction” (step S304). The provisional traveling direction is determined in each of the orthogonal cross-sectional areas SR 0 to SR n by the following processing. Therefore, in the following description, the provisional traveling directions corresponding to the respective orthogonal cross-sectional areas SR 0 to SR n are described as “provisional directions DirA 0 to DirA n ”.

すなわち、ステップS304により、図9(b)に示すような暫定方向DirA0が決定される。 That is, in step S304, the provisional direction DirA 0 as shown in FIG. 9B is determined.

暫定方向が決定されると、制御部310は、決定された暫定方向に基づいて、次に指定する直交断面領域SR(ここでは、直交断面領域SR0の次領域である直交断面領域SR1)の指定位置を決定するための「進行方向決定処理」(ステップS320)をおこなう。この「進行方向決定処理」を図10に示すフローを参照して説明する。 When the provisional direction is determined, the control unit 310, based on the determined provisional direction, determines the next specified orthogonal cross-sectional area SR (here, the orthogonal cross-sectional area SR 1 that is the area following the orthogonal cross-sectional area SR 0 ). Is performed (step S320) to determine the designated position. The “traveling direction determination process” will be described with reference to the flow shown in FIG.

制御部310は、ステップS302で指定された始点SPを起点とし、暫定方向(ここでは、暫定方向DirA0)に平行し、当該位置における対象血管Vtの長手方向断面を含む2つの領域(以下、一方を「平行断面領域PR1」、他方を「平行断面領域PR2」とする)を指定する(ステップS321)。なお、本実施の形態では、以下の処理により、直交断面領域SRが順次指定される毎に、平行断面領域PR1,PR2も指定される。したがって、以下、直交断面領域SR0〜SRに対応する各平行断面領域をそれぞれ「平行断面領域PR10〜PR1」、「平行断面領域PR20〜PR2」と表記する。図11に平行断面領域PR10,PR20の位置関係を模式的に示す。 The control unit 310 starts from the start point SP specified in step S302, and is parallel to the provisional direction (here, the provisional direction DirA 0 ), and includes two regions (hereinafter, referred to as “intersections”) including the longitudinal section of the target blood vessel Vt at the position. One is referred to as “parallel cross-sectional area PR1” and the other is referred to as “parallel cross-sectional area PR2” (step S321). In this embodiment, each time the orthogonal cross-sectional area SR is sequentially specified, the parallel cross-sectional areas PR1 and PR2 are also specified by the following processing. Therefore, hereinafter, the orthogonal cross-sectional area SR 0 to SR n each parallel sectional areas corresponding to the respective "parallel sectional area PR1 0 ~PR1 n", referred to as "parallel sectional area PR2 0 ~PR2 n". Schematically shows the positional relationship between the parallel sectional area PR1 0, PR2 0 in FIG. 11.

図11(a)は、平行断面領域PR10と、直交断面領域SR0および始点SPとの位置関係を模式的に示し、図11(b)は、平行断面領域PR20と、直交断面領域SR0および始点SPとの位置関係を模式的に示し、図11(c)は、直交断面領域SR0と、平行断面領域PR10,PR20との位置関係を模式的に示したものである。 11 (a) is a parallel sectional area PR1 0, the positional relationship between the cross section perpendicular to region SR 0 and the starting point SP schematically shown, FIG. 11 (b), the parallel sectional area PR2 0, orthogonal cross-sectional area SR 0 and a positional relationship between the start point SP shown schematically, FIG. 11 (c), the cross section perpendicular region SR 0, in which the positional relationship between the parallel sectional area PR1 0, PR2 0 shown schematically.

暫定方向DirA0を直交断面領域SR0の主面に垂直な方向としているため、図11(a)〜(c)に示すように、平行断面領域PR10およびPR20も、直交断面領域SR0の主面に垂直となる。また、制御部310は、これらの平行断面領域PR10およびPR20が互いに直交するよう領域指定する。ここで、平行断面領域PR10およびPR20は、直交断面領域SR0の主面に接し、その接している辺部が始点SP上にあるものとする。これにより、各平行断面領域PR10およびPR20は、対象血管Vtの長手方向断面をその領域内に含むこととなる。 Due to the perpendicular direction to provisional direction DirA 0 on the main surface of the orthogonal cross-section area SR 0, as shown in FIG. 11 (a) ~ (c) , parallel sectional area PR1 0 and PR2 0 also, the cross section perpendicular region SR 0 Perpendicular to the main surface of The control unit 310, a region specifies that these parallel sectional area PR1 0 and PR2 0 are orthogonal to each other. Here, parallel sectional area PR1 0 and PR2 0 is in contact with the main surface of the cross section perpendicular to regions SR 0, the side portions are in contact is intended to be on the starting point SP. Thus, the parallel sectional areas PR1 0 and PR2 0 becomes comprise a longitudinal section of the target vessel Vt in the region.

ここで、制御部310は、このように指定された平行断面領域PR10およびPR20内のボリュームデータを用いて画像化する(ステップS322)。すなわち、図12(a),(b)に示すような、対象血管Vtの長手方向断面を示す画像(以下、「長手方向画像」とする)を取得する。 Here, the control unit 310 imaged using volume data thus designated parallel sectional area PR1 0 and PR2 in 0 (step S322). That is, an image showing the longitudinal section of the target blood vessel Vt as shown in FIGS. 12A and 12B (hereinafter, referred to as “longitudinal image”) is acquired.

仮に対象血管Vtが直線的に延伸するのであれば、直交断面領域SRの主面に垂直な暫定進行方向DirAに沿って処理することで血管抽出を行うことができるが、血管は3次元的に方向を変えながら延伸するので、図12(a)に示すように、取得される長手方向画像は、必ずしも暫定進行方向DirA0に平行とはならない。そこで、暫定進行方向DirA0を、取得された長手方向画像に基づいて、実際の延伸方向に修正する。 If the target blood vessel Vt extends linearly, blood vessel extraction can be performed by processing along the tentative traveling direction DirA perpendicular to the main surface of the orthogonal cross-sectional region SR. Since the image is stretched while changing the direction, the acquired longitudinal image is not always parallel to the temporary traveling direction DirA 0 as shown in FIG. Therefore, the provisional traveling direction DirA 0 is corrected to the actual stretching direction based on the acquired longitudinal image.

まず、制御部310が、ステップS322で取得された長手方向画像のそれぞれの中心位置を求める(ステップS323)。すなわち、図12(a),(b)に示す、中心C10・C20の位置を算出する。ここでは、例えば、「フラッド・フィル(Flood Fill)」などの手法を用いて、各平行断面領域PR10・PR20内の長手方向画像を認識し、それぞれの中心C10・C20を求める。なお、以下の処理により、平行断面領域PR10〜PR1および平行断面領域PR20〜PR2のそれぞれで中心位置を求めるので、以下、「平行断面領域PR10〜PR1」、「平行断面領域PR20〜PR2」に対応する中心をそれぞれ「中心C10〜C1」、「C20〜C2」と表記する。 First, the control unit 310 obtains the center position of each of the longitudinal images acquired in step S322 (step S323). That is, FIG. 12 (a), (b) , and calculates the position of the center C1 0 · C2 0. Here, for example, by using a technique such as "flood-fill (Flood Fill)", it recognizes a longitudinal image in the parallel sectional area PR1 0-PR2 0, determine the centers C1 0-C2 0. Note that the following processing, since obtaining the center position in each of the parallel sectional area PR1 0 ~PR1 n and parallel sectional area PR2 0 ~PR2 n, hereinafter, "parallel sectional area PR1 0 ~PR1 n", "parallel sectional area PR2 0 ~PR2 n "respective centers corresponding to" center C1 0 to C1 n ", referred to as" C2 0 -C2 n ".

次に制御部310は、ステップS323で求めた各中心位置を用いて、実際の延伸方向ベクトルを求める(ステップS324)。ここでは、例えば、図13に示す数式を演算することにより、対象血管Vtの直交断面領域SR0からの延伸方向ベクトルを求めることができる。 Next, the control unit 310 obtains an actual stretching direction vector using each center position obtained in step S323 (step S324). Here, for example, by calculating a formula shown in FIG. 13, it is possible to obtain a stretching direction vector from the orthogonal sectional area SR 0 of the target vessel Vt.

このようなベクトル演算により、図14(a)に示すような実際の延伸方向である方向DirB0を求めることができる。すなわち、暫定進行方向DirA0が進行方向DirB0に修正される。以下、このように求められた方向を「決定進行方向DirB」と表記する。また、決定進行方向DirBは、以下の処理により、直交断面領域SR0〜SRのそれぞれにおいて求められるので、対応する決定進行方向DirBを「決定進行方向DirB0〜DirBn」と表記する。 By such a vector operation, the direction DirB 0 which is the actual stretching direction as shown in FIG. 14A can be obtained. That is, the provisional traveling direction DirA 0 is corrected to the traveling direction DirB 0 . Hereinafter, the direction determined in this way is referred to as “determined traveling direction DirB”. Also, determine the traveling direction DirB is the following process, since it is determined in each of the orthogonal cross-sectional area SR 0 to SR n, the corresponding determined traveling direction DirB described as "determined traveling direction DirB 0 ~DirB n".

制御部310は、このように求められた決定進行方向DirB0を直交断面領域SR0から次に指定する断面領域(すなわち、直交断面領域SR1)の位置を決定するための進行方向とするとともに、次回の進行方向決定時、すなわち、直交断面領域SR1から次の直交断面領域SRまでの延伸方向を決定する処理における暫定進行方向としてワークエリアなどに記憶し(ステップS325)、直交断面領域SR0における「進行方向決定処理」を終了する。 The control section 310 sets the determined traveling direction DirB 0 thus determined as the traveling direction for determining the position of the next designated cross-sectional area (ie, the orthogonal cross-sectional area SR 1 ) from the orthogonal cross-sectional area SR 0. , the next time the traveling direction setting, i.e., a work area to store as an interim traveling direction in the process of determining the direction of extension of the cross section perpendicular to regions SR 1 until the next cross section perpendicular region SR 2 (step S325), the cross section perpendicular to region The “traveling direction determination process” in SR 0 ends.

図8の「血管抽出処理」フローに戻ると、制御部310は、ステップS325で求めた決定進行方向DirB0に直交する次の直交断面領域SR(この場合、直交断面領域SR1)を、ステップS303と同様の処理により指定する(ステップS305)。すなわち、図14(b)に示すような直交断面領域SR1が指定される。ここで、先に指定された断面領域から次の断面領域までの距離は、例えば、画像処理装置300の処理能力や所望する精度などによって任意に設定されるものとする。 Returning to the “blood vessel extraction processing” flow in FIG. 8, the control unit 310 determines the next orthogonal cross-sectional area SR (in this case, the orthogonal cross-sectional area SR 1 ) orthogonal to the determined traveling direction DirB 0 obtained in step S325, It is designated by the same processing as S303 (step S305). That is, the cross section perpendicular to regions SR 1 as shown in FIG. 14 (b) is specified. Here, the distance from the previously specified cross-sectional area to the next cross-sectional area is arbitrarily set according to, for example, the processing capability of the image processing apparatus 300 and desired accuracy.

ステップS305において指定される直交断面領域SR1は、直前の直交断面領域SR0の中心である始点SPからの決定進行方向DirB0に直交する方向であるので、新たに指定される直交断面領域SR1も、SR0と同様に対象血管Vtの断面方向の領域となり、その略中央に断面の中心が位置するものとなる。 Orthogonal sectional area SR 1 designated in step S305 is because it is the direction perpendicular to the determined direction of travel DirB 0 from the starting point SP is the center of the cross section perpendicular region SR 0 immediately before, the orthogonal cross-sectional area SR, which is newly specified 1 also becomes a cross-sectional direction of the region of likewise target vessel Vt and SR 0, the center of the cross section in the substantially central is to be located.

ここで、例えば、図9(c)に示すように、当該直交断面領域SR内に血管断面のみ存在するような場合は、その血管断面およびその中心の抽出は容易であるが、図15(a)に示すように、指定した直交断面領域SRにおける対象血管Vtが心臓HTに近接していたり、対象血管Vt以外の血管Vxなどに近接していることが多い。例えば、対象血管Vtが心臓HTに近接しているところでの直交断面領域SR(図中「直交断面領域SRex1」)では、図15(b)に示すように、対象血管Vtの断面の他に心臓HTの一部が含まれることになる。また、対象血管Vtに他の血管Vxが近接しているところでの直交断面領域SR(図中「直交断面領域SRex2」)では、図15(c)に示すように、対象血管Vtの断面の他に血管Vxの断面が含まれることになる。 Here, for example, as shown in FIG. 9C, when only a blood vessel cross section exists in the orthogonal cross section region SR, the blood vessel cross section and its center can be easily extracted, but FIG. As shown in (), the target blood vessel Vt in the designated orthogonal cross-sectional area SR is often close to the heart HT or close to a blood vessel Vx other than the target blood vessel Vt. For example, in the orthogonal cross-sectional area SR where the target blood vessel Vt is close to the heart HT (“orthogonal cross-sectional area SR ex1 ” in the figure), as shown in FIG. A portion of the heart HT will be included. Further, in the orthogonal cross-sectional area SR where the other blood vessel Vx is close to the target blood vessel Vt (“orthogonal cross-sectional area SR ex2 ” in the figure), as shown in FIG. In addition, the cross section of the blood vessel Vx is included.

このような場合において、対象血管Vtの断面およびその中心を決定するために、当該断面領域を画像化することが考えられる。すなわち、当該断面領域におけるCT値に基づいて画像化し、対象血管Vtの断面を画像として抽出すればよい。ここで、CT値はモダリティ100(CTスキャナ)が取得したX線吸収量係数であり、例えば、「水:0」、「空気:−1000」というように、物質によってその値が予め定まっている。したがって、対象血管Vtの断面を画像化する場合、血管の構成物質(血液、血管壁、造影剤、など)に対応するCT値に対応する画素(ピクセル)を画像化することで、当該血管のみが画像化されて抽出可能となる。しかしながら、対象血管に心臓や他の血管が近接する場合、これらを構成する物質も、対象血管Vtのそれとほぼ同一であるため、CT値の差異は極めて小さい。したがって、このような断面領域を画像化しても、図16(a),(b)に示すように、対象血管Vtの断面と、近接する心臓HTや他の血管Vxの断面とが一体化されてしまい、対象血管Vtの断面およびその中心を認識することができない。   In such a case, in order to determine the cross section of the target blood vessel Vt and its center, it is conceivable to image the cross sectional area. That is, an image may be formed based on the CT value in the cross-sectional area, and the cross-section of the target blood vessel Vt may be extracted as an image. Here, the CT value is an X-ray absorption coefficient acquired by the modality 100 (CT scanner), and the value is predetermined depending on the substance, for example, “water: 0”, “air: −1000”. . Therefore, when imaging the cross section of the target blood vessel Vt, only the blood vessel is imaged by imaging the pixel (pixel) corresponding to the CT value corresponding to the constituent material of the blood vessel (blood, blood vessel wall, contrast agent, etc.). Is imaged and can be extracted. However, when the heart and other blood vessels are close to the target blood vessel, the substances constituting them are almost the same as those of the target blood vessel Vt, so that the difference in CT value is extremely small. Therefore, even if such a cross-sectional area is imaged, the cross-section of the target blood vessel Vt is integrated with the cross-sections of the adjacent heart HT and other blood vessels Vx as shown in FIGS. As a result, the cross section and the center of the target blood vessel Vt cannot be recognized.

そこで、制御部310は、このようなCT値のわずかな違いを峻別し、対象としている血管の断面を識別可能に顕在化させてその中心を検出するため「血管中心検出処理」(ステップS340)を実行する。この血管中心検出処理を、図17に示すフローチャートを参照して説明する。ここでは、対象領域を画像化する際に用いるCT値のレンジ(範囲)(以下、「対象CT値レンジ」とする)を変化させ、対象血管Vtの断面を示す画像を顕在化させることで断面中心を検出する。   Therefore, the control unit 310 distinguishes such a slight difference in the CT value, makes the cross-section of the target blood vessel identifiable, reveals the cross-section, and detects the center thereof (step S340). Execute This blood vessel center detection processing will be described with reference to the flowchart shown in FIG. Here, the range (range) of CT values (hereinafter, referred to as “target CT value range”) used when imaging the target region is changed, and an image showing a cross section of the target blood vessel Vt is made to be apparent. Find the center.

まず制御部310は、対象CT値レンジを変化させるために用いる「閾値」のレンジ(範囲)(以下、「閾値レンジ」とする)を設定する(ステップS341)。すなわち、本実施の形態では、以下の処理において、「対象CT値レンジ」の下限値を示す閾値を変化させることで対象CT値レンジを変化させるため、この閾値の変化範囲(最小閾値thmin〜最大閾値thmax)をまず規定するものである。 First, the control unit 310 sets a range (range) of “threshold” used to change the target CT value range (hereinafter, referred to as “threshold range”) (step S341). That is, in this embodiment, in the following processing, for changing the target CT value range by changing the threshold value indicating the lower limit of the "target CT value range", the variation range of the threshold value (minimum threshold th min ~ First, the maximum threshold th max ) is defined.

ここで「対象CT値レンジ」とは、対象としている生体(人体)内部の画像化する際に対象となるCT値の範囲を示すものである。上述したように、物質によってCT値が予め定まっている。本実施の形態のように、人体内部を画像化対象としている場合は、臓器、器官、血液(造影剤)、骨、などが画像化対象となるので、これらに対応したCT値の範囲が対象CT値レンジとして予め定まる。そして、このように定まる対象CT値レンジ内で閾値を変化させるので、閾値レンジも対象CT値レンジと同一の範囲となる。   Here, the "target CT value range" indicates a range of CT values to be targeted when imaging the inside of a target living body (human body). As described above, the CT value is predetermined according to the substance. When the inside of the human body is to be imaged as in the present embodiment, the organs, organs, blood (contrast agent), bones, and the like are to be imaged. It is predetermined as a CT value range. Then, since the threshold is changed within the target CT value range determined in this way, the threshold range is also the same as the target CT value range.

また、上述したように、本実施の形態における「閾値」は、対象CT値レンジの下限値を示すものである。すなわち、ある閾値が指定された場合、当該閾値に対応するCT値以上のすべてのCT値が対象となる。したがって、当該領域を構成する3次元ボリュームデータのうち、「対象CT値レンジ」に含まれるCT値が特性情報となる座標が画像化対象となる。例えば、閾値レンジ(対象CT値レンジ)が「0〜1000」である場合に、閾値「100」が設定されると、「100〜1000」の範囲に含まれるCT値を特性情報としている座標が画像化される。   Further, as described above, the “threshold” in the present embodiment indicates the lower limit of the target CT value range. That is, when a certain threshold is specified, all CT values equal to or higher than the CT value corresponding to the threshold are targeted. Therefore, among the three-dimensional volume data constituting the area, coordinates where the CT values included in the “target CT value range” are the characteristic information are to be imaged. For example, when the threshold range (target CT value range) is “0 to 1000” and a threshold “100” is set, the coordinates using the CT values included in the range of “100 to 1000” as the characteristic information are It is imaged.

また、X線吸収量係数であるCT値を用いて画像化した場合、CT値の違いが明るさの違いとなって現れる。このとき、例えば、画像化対象となっているCT値を特性情報として持つピクセルを「1」、それ以外のCT値を特性情報として持つピクセルを「0」とした二値データで画像化する。なお、本実施の形態では、撮像の際に造影剤を使用して血液のCT値を上昇させているものとする。また、「画像化」とは、上述のような二値データで画像化することを指すものとする。以下、対象血管Vtに他の血管Vxが近接している直交断面領域SRex2(図15)における処理を例に説明する。 When an image is formed using a CT value, which is an X-ray absorption coefficient, a difference in CT value appears as a difference in brightness. At this time, for example, an image is formed by binary data in which a pixel having a CT value to be imaged as characteristic information is “1” and a pixel having other CT values as characteristic information is “0”. In the present embodiment, it is assumed that the CT value of blood is increased by using a contrast agent during imaging. Also, “imaging” refers to imaging with binary data as described above. Hereinafter, processing in the orthogonal cross-sectional area SR ex2 (FIG. 15) in which another blood vessel Vx is close to the target blood vessel Vt will be described as an example.

まず制御部310は、ステップS341で設定された最小閾値thminを閾値thとし(ステップS342)、当該閾値thを下限値としたCT値を特性情報として持っている直交断面領域SRex2内のピクセルを画像化する(ステップS343)。閾値thが最小閾値thminである場合、適用されるCT値は、閾値レンジ(最小閾値thmin〜最大閾値thmax)に対応するすべてのCT値が該当することになる。ここで、ステップS341において、生体内を画像化できるCT値の幅を閾値レンジとしているので、閾値thが最小閾値thminの場合、図18(a)に示すように、対象血管Vtの断面および近接する血管Vxの断面のみならず、その周辺の他の組織等をも含んだ部分も画像化される。 First, the control unit 310 sets the minimum threshold th min set in step S341 as the threshold th (step S342), and sets a pixel in the orthogonal cross-sectional area SR ex2 having a CT value with the threshold th as a lower limit as characteristic information. Is imaged (step S343). When the threshold value th is the minimum threshold value th min , the applied CT values correspond to all the CT values corresponding to the threshold range (the minimum threshold value th min to the maximum threshold value th max ). Here, in step S341, since the width of the CT values can be imaged through the living body is a threshold value range, when the threshold value th is a minimum threshold value th min, as shown in FIG. 18 (a), of the target vessel Vt sectional and Not only a cross section of the adjacent blood vessel Vx, but also a portion including other tissues and the like around the cross section is imaged.

また、図18(a)の画像上において、領域の中心を通るX方向の一次元領域(図中の「X-X'」における「X0〜X1」の領域)において、設定された閾値に対応するCT値を有するピクセルの分布は、図18(b)に示すグラフG1のように表すことができる。ここで、横軸は直交断面領域SRex2内の一次元領域座標(X0-X1)を示し、縦軸はCT値を示す。造影剤の使用により対象血管Vtおよび近接する他の血管VxのCT値が比較的高くなっているため、グラフG1のグラフ曲線には2つのピークが現れている。すなわち、これらのピークそれぞれが対象血管Vtと近接血管Vxの断面を示している。また、グラフ曲線内の斜線部は、閾値th(この場合、最小閾値thmin)に対応するCT値を有するピクセルの分布を示すものである。以後、後述する処理により変化する閾値と、その時に対象となるピクセルとの関係を説明する際に、グラフG1を適宜参照するものとする。 Also, in the image of FIG. 18A, in the one-dimensional area in the X direction passing through the center of the area (the area of “X0 to X1” in “X-X ′” in the figure), it corresponds to the set threshold. The distribution of pixels having the following CT values can be expressed as a graph G1 shown in FIG. Here, the horizontal axis indicates one-dimensional area coordinates (X0-X1) in the orthogonal cross-sectional area SR ex2 , and the vertical axis indicates CT values. Since the CT value of the target blood vessel Vt and the adjacent blood vessel Vx is relatively high due to the use of the contrast agent, two peaks appear in the graph curve of the graph G1. That is, each of these peaks indicates a cross section of the target blood vessel Vt and the adjacent blood vessel Vx. The hatched portion in the graph curve indicates a distribution of pixels having a CT value corresponding to the threshold value th (in this case, the minimum threshold value th min ). Hereinafter, the graph G1 will be referred to as needed when describing the relationship between the threshold value that changes by the processing described later and the target pixel at that time.

次に制御部310は、ステップS343で得た画像において、直交断面領域SRex2の中心位置に現れている画像の範囲を特定する(ステップS344)。上述のように、本実施の形態では、二値データによる画像化としているため、図18(a)に示すように、閾値に対応したCT値を持つピクセル領域が顕在的に現れる(図中の斜線部)。 Next, the control unit 310 specifies the range of the image appearing at the center position of the orthogonal cross-sectional area SR ex2 in the image obtained in step S343 (step S344). As described above, in the present embodiment, since the image is formed by using the binary data, a pixel region having a CT value corresponding to the threshold value appears clearly as shown in FIG. Shaded area).

このとき、対象としている断面領域によっては、例えば、図19(a)に示すように、閾値に対応するCT値を持つピクセル領域が複数存在する場合もある。本実施の形態では、輪郭を同じくするピクセル領域を、例えば、「フラッド・フィル(Flood Fill)」などの手法により認識して一つの単位として扱うこととする(以下、「単位画像」と表記する)。すなわち、図19(a)の例では、2つの単位画像「単位画像1」と「単位画像2」が現れていることとなる。   At this time, depending on the target cross-sectional area, for example, as shown in FIG. 19A, a plurality of pixel areas having a CT value corresponding to the threshold value may exist. In the present embodiment, pixel regions having the same contour are recognized and treated as one unit by a method such as “Flood Fill” (hereinafter, referred to as “unit image”). ). That is, in the example of FIG. 19A, two unit images “unit image 1” and “unit image 2” appear.

したがって、ステップS344においては、制御部310は、直交断面領域SRex2の中心位置に現れている単位画像の範囲を特定する。ここで「範囲」とは、当該単位画像の輪郭に該当するものである。すなわち、図19(b)に示すように、領域の中心(図中「+」)上にかかっている単位画像(以下、「中心単位画像」とする)についてその輪郭を特定する。すなわち、図19(b)においては、太線で示される線分が当該中心単位画像の範囲(輪郭)として特定される。 Therefore, in step S344, control unit 310 specifies the range of the unit image appearing at the center position of orthogonal cross-sectional area SR ex2 . Here, the “range” corresponds to the outline of the unit image. That is, as shown in FIG. 19B, the outline of a unit image (hereinafter, referred to as “center unit image”) over the center (“+” in the figure) of the region is specified. That is, in FIG. 19B, the line segment indicated by the thick line is specified as the range (contour) of the center unit image.

制御部310は、ステップS344で特定した中心単位画像の範囲が、当該直交断面領域SRex2内に収まっているか否かを判別する(ステップS345)。換言すれば、当該中心単位画像の範囲が直交断面領域SRex2の領域外にまで広がっているものであるか否かを判別する。ここでは、例えば、ステップS344で特定した輪郭が、直交断面領域SRex2のいずれかの辺部に接しているか否かを判別することにより、当該中心単位画像が領域内に収まっているか否かを判別する。図19(b)の場合、中心単位画像の輪郭の一部が、直交断面領域SRex2の上辺と右辺とに接しているので、当該中心単位画像が領域内に収まっていないと判別される。すなわち、当該中心単位画像は、直交断面領域SRex2の外にまで広がっているものであり、その一部が直交断面領域SRex2内に現れていることを示している。 The control unit 310 determines whether or not the range of the center unit image specified in step S344 falls within the orthogonal cross-sectional area SR ex2 (step S345). In other words, it is determined whether or not the range of the center unit image extends outside the area of the orthogonal cross-sectional area SRex2 . Here, for example, by determining whether or not the contour identified in step S344 is in contact with any side of the orthogonal cross-sectional area SR ex2 , it is determined whether or not the center unit image is within the area. Determine. In the case of FIG. 19B, since a part of the outline of the center unit image is in contact with the upper side and the right side of the orthogonal cross-sectional area SR ex2 , it is determined that the center unit image is not included in the area. In other words, the center unit image are those which extend to the outside of the orthogonal cross-sectional area SR ex2, it indicates that a portion of which appears in the cross section perpendicular region SR ex2.

また制御部310は、判別結果をそのときの閾値と対応付け、「閾値属性情報」として所定の記憶部(例えば、ワークエリアや画像記憶部360など)に記録する(ステップS345)。   The control unit 310 associates the determination result with the threshold value at that time, and records it as “threshold attribute information” in a predetermined storage unit (for example, a work area or an image storage unit 360) (step S345).

次に制御部310は、ステップS344で特定した中心単位画像の面積を求め、その値をそのときの閾値と対応付け、「閾値属性情報」として所定の記憶部に記録する(ステップS346)。   Next, the control unit 310 obtains the area of the center unit image specified in step S344, associates the value with the threshold value at that time, and records the value in a predetermined storage unit as “threshold attribute information” (step S346).

以後、制御部310は、閾値thを最大閾値thmaxとなるまで順次変化させ、各閾値においてステップS343〜S346の処理を行う(ステップS347:No、S348)。すなわち、閾値thを最小閾値thminから最大閾値thmaxまで順次増分し、各閾値毎に(1)画像化、(2)中心単位画像の特定、(3)中心単位画像の範囲の判別と記録、(4)中心単位画像の面積算出と記録、を行う。これにより、上記所定の記憶部には、ステップS345およびS346で記録された閾値属性情報が、例えば、図20に示すような「閾値属性テーブル」として記録される。なお、閾値th(すなわち、対象CT値レンジの下限値)の増分率は任意であり、例えば、画像処理装置300の処理能力や所望する精度によって任意に設定されるものとする。なお、本実施の形態においては、説明を容易にするために、閾値thは「+1」ずつ増分されるものとする。 Thereafter, the control unit 310, a threshold value th is sequentially changed until the maximum threshold value th max, the process of step S343~S346 at each threshold (Step S347: No, S348). That is, the threshold value th is sequentially increased from the minimum threshold value th min to the maximum threshold value th max , and for each threshold value, (1) imaging, (2) identification of the center unit image, and (3) determination and recording of the range of the center unit image , (4) calculate and record the area of the center unit image. Thus, the threshold attribute information recorded in steps S345 and S346 is recorded in the predetermined storage unit, for example, as a “threshold attribute table” as shown in FIG. The increment rate of the threshold value th (that is, the lower limit value of the target CT value range) is arbitrary, and is arbitrarily set according to, for example, the processing capability of the image processing apparatus 300 and desired accuracy. In the present embodiment, the threshold th is incremented by “+1” for ease of explanation.

制御部310は、上記「閾値属性情報」を用いて、当該直交断面領域SRex2における対象血管Vtの中心を検出するために、面積変化(画像属性)に基づいて、対象血管Vtの断面を画像上で顕在化させる「血管断面顕在化処理」(ステップS360)を実行する。この「血管断面顕在化処理」を、図21に示すフローチャートを参照して説明する。 The control unit 310 images the cross section of the target blood vessel Vt based on the area change (image attribute) in order to detect the center of the target blood vessel Vt in the orthogonal cross-sectional area SR ex2 using the “threshold attribute information”. The “vascular cross-section clarification process” (step S360) to be clarified above is executed. This “vascular cross section revealing process” will be described with reference to the flowchart shown in FIG.

まず、制御部310は、図20に示す閾値属性テーブルから「面積値」を取得して、上記閾値レンジにおける中心単位画像の面積分布を求める(ステップS361)。ここでは、例えば、各面積値をプロットすることで、図22に示すような、面積分布を示すグラフG2を得ることができる。グラフG2においては、横軸が閾値th(最小閾値thmin〜最大閾値thmax)を示し、縦軸が中心単位画像の面積を示す。図示するように、閾値thが最小閾値thmin〜最大閾値thmaxに遷移するにしたがって中心単位画像の面積値は減少する。これは、閾値の遷移に応じて、対象CT値レンジが狭まるため、画像化される領域面積も減少するためである。 First, the control unit 310 obtains the “area value” from the threshold attribute table shown in FIG. 20, and obtains the area distribution of the center unit image in the threshold range (step S361). Here, for example, by plotting each area value, a graph G2 showing the area distribution as shown in FIG. 22 can be obtained. In the graph G2, the horizontal axis indicates the threshold th (the minimum threshold th min to the maximum threshold th max ), and the vertical axis indicates the area of the center unit image. As shown in the figure, the area value of the center unit image decreases as the threshold value th transitions from the minimum threshold value th min to the maximum threshold value th max . This is because the target CT value range is narrowed in accordance with the transition of the threshold, so that the area of the region to be imaged is also reduced.

制御部310は、中心単位画像の面積変化率を求める(ステップS362)。ここでは、例えば、ステップS361で求めた面積分布を区分連続関数で定義し、この区分連続関数を微分することで面積変化率を求めることができる。   The control unit 310 obtains the area change rate of the center unit image (step S362). Here, for example, the area distribution obtained in step S361 is defined by a piecewise continuous function, and the area change rate can be obtained by differentiating the piecewise continuous function.

次に制御部310は、閾値属性テーブルを参照し、中心単位画像が領域内に収まらなかった時の閾値を対象除外とする(ステップS363)。これは、対象としている血管断面は略円形の形状であり、かつ、直交断面領域の中心に位置しているため、その輪郭が明確となった画像(顕在化された画像)が領域外にまで及ぶことはあり得ないためである。   Next, the control unit 310 refers to the threshold attribute table and excludes the threshold when the central unit image does not fall within the area (step S363). This is because the target blood vessel cross-section has a substantially circular shape and is located at the center of the orthogonal cross-sectional area, so that an image whose contour is clear (a visualized image) extends outside the area. Because it cannot be reached.

また、図22のグラフG2に示すように、閾値thを増分させる(すなわち、対象CT値レンジを狭める)過程で、中心単位画像の面積が急激に減少することがある。グラフG2の例では、閾値がtha〜tha+1に遷移した時と、thb〜thb+1に遷移した時に面積が急減している。ここで、「tha〜tha+1」への遷移時は、それまで領域範囲外にまで及んでいた中心単位画像が、面積減少に伴い領域内に収まるようになった時である。また、「thb〜thb+1」への遷移時は、中心単位画像が対象血管Vtの断面を示すものとして顕在化された時である。前者の場合の例として図23・図24を、後者の例として図25・図26をそれぞれ参照して説明する。 Further, as shown in the graph G2 of FIG. 22, in the process of increasing the threshold value th (that is, narrowing the target CT value range), the area of the center unit image may decrease rapidly. In the example of the graph G2, the area sharply decreases when the threshold value changes from th a to th a + 1 and when the threshold value changes from th b to th b + 1 . Here, the transition from “th a to th a + 1 ” is when the center unit image that has been extended to the outside of the area range has fallen into the area due to the decrease in the area. The transition from “th b to th b + 1 ” is the time when the central unit image is revealed as showing the cross section of the target blood vessel Vt. 23 and 24 as examples of the former case, and FIGS. 25 and 26 as examples of the latter case.

図23(a)は、閾値thaのときに得られる画像の例を示し、図23(b)は、閾値thaのときの一次元領域(X0-X1)におけるピクセル分布を表したグラフG1を示すものである。また、図24(a)は、閾値tha+1のときに得られる画像を示し、図24(b)は、閾値tha+1のときの一次元領域(X0-X1)におけるピクセル分布を表したグラフG1を示すものである。 FIG. 23A shows an example of an image obtained at the threshold th a , and FIG. 23B shows a graph G1 representing a pixel distribution in a one-dimensional area (X0-X1) at the threshold th a. It is shown. FIG. 24A shows an image obtained at the threshold th a + 1 , and FIG. 24B shows a pixel distribution in the one-dimensional area (X0-X1) at the threshold th a + 1. 6 is a graph G1 shown in FIG.

図23(a)に示すように、閾値thaの時点では、中心単位画像の輪郭が直交断面領域の辺部に接している。また、図23(b)に示すように、閾値thaのときのピクセル分布(斜線部)は、一次元領域の端部であるX1上にかかっている。そして、図24(b)に示すように、閾値をthaからtha+1まで遷移させると、ピクセル分布は一次元領域端部のX1から離れる。すなわち、図24(a)に示すように、それまで直交断面領域の辺部に接していた中心単位画像が、領域内に収まるようになる。このときに、中心単位画像の輪郭部と直交断面領域の辺部との間に間隙が生じるため、中心単位画像の面積が大幅に減少し、グラフG2(図22)に示すような変化となって現れる。 As shown in FIG. 23A, at the time of the threshold th a , the contour of the central unit image is in contact with the side of the orthogonal cross-sectional area. Further, as shown in FIG. 23B, the pixel distribution (hatched portion) at the threshold value th a is over X1, which is the end of the one-dimensional area. Then, as shown in FIG. 24 (b), when the threshold value is changed from th a to th a + 1 , the pixel distribution moves away from X1 at the end of the one-dimensional area. That is, as shown in FIG. 24A, the central unit image that has been in contact with the side of the orthogonal cross-sectional area until now fits in the area. At this time, since a gap is generated between the contour of the center unit image and the side of the orthogonal cross-sectional area, the area of the center unit image is significantly reduced, and the change as shown in the graph G2 (FIG. 22) occurs. Appear.

一方、図25(a)は、閾値thbのときに得られる画像を示し、図25(b)は、閾値thbのときの一次元領域(X0-X1)におけるピクセル分布を表したグラフG1を示すものである。また、図26(a)は、閾値thb+1のときに得られる画像を示し、図26(b)は、thb+1のときの一次元領域(X0-X1)におけるピクセル分布を表したグラフG1を示すものである。 On the other hand, FIG. 25 (a) shows an image obtained when the threshold value th b, FIG. 25 (b) is a graph showing the pixel distribution in the one-dimensional area (X0-X1) when the threshold value th b G1 It is shown. Table Moreover, FIG. 26 (a) shows an image obtained when the threshold value th b + 1, FIG. 26 (b) shows a pixel distribution in a one-dimensional area (X0-X1) when the th b + 1 13 shows a graph G1 obtained.

図25(a)に示すように、閾値thbの時点では、中心単位画像は、対象血管Vtと近接する血管Vxの双方の断面が一体となった画像である。また、図25(b)に示すように、閾値thbはグラフ曲線に現れている2つのピーク間の谷に該当し、すなわち、両ピーク双方を含んだピクセル分布を示している。そして、図26(b)に示すように、閾値をthbからthb+1まで遷移させると、ピクセル分布は、2つのピークそれぞれに分断される。すなわち、図26(a)に示すように、それまで対象血管Vtと近接する血管Vxの双方の断面を一体的に示していた中心単位画像が2つに分断され、一方が対象血管Vtの断面を示す中心単位画像となり、他方が血管Vxの断面を示す単位画像となる。すなわち、対象血管Vtの断面が顕在化される。ここで、本処理では中心単位画像の面積変化を検出しているので、血管Vxを示す単位画像の面積が中心単位画像の面積から減ぜられることとなり、大幅な面積減少としてグラフG2(図22)に現れる。 As shown in FIG. 25 (a), at the time of the threshold th b, the center unit image is both cross-section of the vessel Vx proximate the target vessel Vt is an image that integrates. Further, as shown in FIG. 25 (b), the threshold th b may correspond to a valley between two peaks appearing in the graph curve, that is, the pixel distribution containing both peaks both. Then, as shown in FIG. 26 (b), when the transition threshold from th b to th b + 1, pixel distribution is divided into each of the two peaks. In other words, as shown in FIG. 26A, the central unit image that previously shows both the cross section of both the target blood vessel Vt and the adjacent blood vessel Vx is divided into two, and one is a cross section of the target blood vessel Vt. And the other is a unit image showing the cross section of the blood vessel Vx. That is, the cross section of the target blood vessel Vt is made obvious. Here, since the area change of the central unit image is detected in this processing, the area of the unit image indicating the blood vessel Vx is reduced from the area of the central unit image, and the graph G2 (FIG. ).

本処理では、対象血管Vtの断面が画像上で顕在化されたことを識別するものであるから、上記のような面積の急減を検出することで、顕在化されたか否かを判別することができる。しかし、断面領域の場所や中心単位画像の形状などといった諸条件の違いによっては、血管断面が顕在化したときの面積変化よりも、中心単位画像が領域内に収まるようになったときの面積変化の方が大きい場合もある。したがって、閾値レンジ内で面積変化率が最大となる箇所を検出しても、必ずしも、血管断面の顕在化を検出することができない。そこで制御部310は、ステップS363において「閾値属性テーブル」を参照し、中心単位画像の輪郭が断面領域外まで及んでいるときの閾値を除外し、除外後の閾値のうちで面積変化が最大となる閾値を特定する(ステップS364)。   In this processing, since it is to identify that the cross section of the target blood vessel Vt has been exposed on the image, it is possible to determine whether or not the cross section of the target blood vessel Vt has been exposed by detecting the sudden decrease in the area as described above. it can. However, depending on differences in various conditions such as the location of the cross-sectional area and the shape of the central unit image, the area change when the central unit image fits within the area rather than the area change when the blood vessel cross section becomes apparent May be larger. Therefore, even if a location where the area change rate is maximized within the threshold range is detected, it is not always possible to detect the appearance of the blood vessel cross section. Therefore, the control unit 310 refers to the “threshold attribute table” in step S363, excludes the threshold when the contour of the central unit image extends outside the cross-sectional area, and determines that the area change is the largest among the excluded thresholds. The threshold value is determined (step S364).

図22のグラフG2の例では、除外対象となった閾値レンジを対象外領域(NG領域)として示している。ここで、閾値thaからtha+1への遷移時に大きな面積変化が生じているが、閾値thaがNG領域に該当する閾値であるので、検出対象から除外される。したがって、閾値tha+1からthmaxのうちで面積変化が最大となる閾値、すなわち、閾値thb+1が検出される。ここで、面積変化率を上記「区分連続関数の微分」により求めた場合には、最小微分値が得られたときの閾値を「面積変化を最大とする閾値」とすることができる。 In the example of the graph G2 in FIG. 22, the threshold range that has been excluded is shown as a non-target area (NG area). Here, a large area change occurs during the transition from the threshold th a to th a + 1 , but since the threshold th a is a threshold corresponding to an NG area, it is excluded from detection targets. Therefore, the threshold value at which the change in the area is maximum among the threshold values th a + 1 to th max , that is, the threshold value th b + 1 is detected. Here, when the area change rate is obtained by the above “differentiation of the piecewise continuous function”, the threshold when the minimum differential value is obtained can be set as the “threshold that maximizes the area change”.

制御部310は、ステップS364で特定した閾値を下限値とし、閾値thmaxを上限値としたCT値レンジに該当するピクセルを画像化することで、図26(a)に示すような、対象血管Vtの断面が顕在化した画像を取得し(ステップS365)、図17に示す「血管中心検出処理」のフローに戻る。 The control unit 310 sets the threshold specified in step S364 as the lower limit, and images the pixels corresponding to the CT value range with the threshold th max as the upper limit, thereby forming the target blood vessel as illustrated in FIG. An image in which the cross section of Vt has become apparent is acquired (step S365), and the flow returns to the “vessel center detection processing” shown in FIG.

制御部310は、ステップS365で顕在化された対象血管Vtの断面を示す中心単位画像が得られると、例えば、フラッド・フィル(Flood Fill)などの手法により当該中心単位画像の形状等を認識して、その正確な中心位置を決定する(ステップS349)。すなわち、ステップS305で対象血管Vtの断面がほぼその中央に位置するよう各直交断面領域SRが指定されるが、画像化された対象血管Vtの断面からその中心を求めることにより、対象血管Vtの中心を正確に求めることができる。ここで、直交断面領域SRは3次元ボリュームデータの一部を領域指定したものであるから、その中の特定の位置が決定されれば、3次元ボリュームデータの座標系情報としてその位置を指定することができる。すなわち、当該断面領域における血管の中心位置を、座標系情報(x, y, z)として取得することができる。制御部310は、当該断面領域での血管断面中心を決定すると、図8に示す「血管抽出処理」のフローに戻る。   When the central unit image indicating the cross section of the target blood vessel Vt that has been revealed in step S365 is obtained, the control unit 310 recognizes the shape of the central unit image by a technique such as flood fill, for example. Then, the correct center position is determined (step S349). That is, in step S305, each of the orthogonal cross-sectional regions SR is specified such that the cross section of the target blood vessel Vt is located substantially at the center thereof. However, the center of the target blood vessel Vt is obtained from the imaged cross section of the target blood vessel Vt. The center can be determined accurately. Here, since the orthogonal cross-sectional area SR is an area specified for a part of the three-dimensional volume data, if a specific position is determined, the position is specified as coordinate system information of the three-dimensional volume data. be able to. That is, the center position of the blood vessel in the cross-sectional area can be obtained as coordinate system information (x, y, z). After determining the blood vessel cross-sectional center in the cross-sectional area, the control unit 310 returns to the flow of the “blood vessel extraction process” illustrated in FIG.

制御部310は、上記の各処理を直交断面領域SR0〜SRnのそれぞれで実行する(ステップS306:No)。すなわち、上記進行方向決定処理で決定された進行方向に基づいて順次指定される各直交断面領域SRにおける血管中心位置の座標系情報を取得する。なお、上記進行方向決定処理の説明においては、初回処理を例としたため、直交断面領域SR0の中心を基準に進行方向を修正・決定するものとしたが、上記血管抽出処理において血管中心位置が決定された場合は、決定された血管中心位置を基準に進行方向を決定するものとする。 Control unit 310 performs the processes described above in each of the orthogonal cross-sectional area SR 0 to SR n (Step S306: No). That is, the coordinate system information of the blood vessel center position in each of the orthogonal cross-sectional regions SR sequentially specified based on the traveling direction determined in the traveling direction determination processing is acquired. In the description of the moving direction determination process, because of the initial process as an example, it is assumed to correct and decide the traveling direction relative to the center of the cross section perpendicular to regions SR 0, vascular central position in the blood vessel extraction process If determined, the traveling direction is determined based on the determined blood vessel center position.

制御部310は、上記各処理を順次行った結果、ステップS302で指定された終点EPにおける直交断面領域SRnでの血管中心が決定されると(ステップS306:Yes)、制御部310は、各断面領域で取得した血管中心の座標系情報に基づいて、対象血管Vtの長尺方向中心線を示す3次元パスを取得する(ステップS307)。すなわち、各断面中心位置を座標系情報として取得しているので、各中心を結んだパスとして対象血管Vtの中心線を特定することができる。したがって、図27に示すような、始点SPから終点EPまでの中心線のパス(以下、「パスPVt」とする)が取得される。画像処理装置300の制御部310は、このように取得したパスPVtを用いて、各種医用画像の生成・表示を行う(ステップS500:図6)。 When the control unit 310 determines the blood vessel center in the orthogonal cross-sectional area SR n at the end point EP specified in step S302 as a result of sequentially performing the above-described processes (step S306: Yes), the control unit 310 Based on the coordinate system information of the blood vessel center acquired in the cross-sectional area, a three-dimensional path indicating the longitudinal center line of the target blood vessel Vt is acquired (step S307). That is, since the cross-sectional center position is acquired as coordinate system information, the center line of the target blood vessel Vt can be specified as a path connecting the centers. Therefore, a path of the center line from the start point SP to the end point EP (hereinafter, referred to as “path P Vt ”) as shown in FIG. 27 is obtained. The control unit 310 of the image processing apparatus 300 generates and displays various medical images using the path P Vt acquired in this manner (step S500: FIG. 6).

上記「血管抽出処理」において、対象血管Vtの中心線のベクタ情報であるパスPVtが取得できているので、画像処理装置300の制御部310がパスPVtに沿って任意の3次元画像処理(たとえば、ボリュームレンダリングなど)を行うことにより、図28に示すような冠状血管を示す3次元画像を生成することができる。すなわち、上記「血管抽出処理」において中心線のパスデータが取得できているので、例えば、血管径が細くなっている部分であっても、寸断されることなく3次元画像化することができる。また、上述したように、上記「血管抽出処理」によれば、心臓や他の血管が近接している場合であっても、対象血管の中心を正確に検出できるため、従来は正確な3次元画像化が困難であった冠状血管であっても、図28に示すような正確な3次元画像を生成することができる。 In the “blood vessel extraction processing”, since the path P Vt which is the vector information of the center line of the target blood vessel Vt has been obtained, the control unit 310 of the image processing apparatus 300 performs arbitrary three-dimensional image processing along the path P Vt. By performing (for example, volume rendering), a three-dimensional image showing a coronary blood vessel as shown in FIG. 28 can be generated. That is, since the path data of the center line has been obtained in the "blood vessel extraction processing", for example, even in a portion where the blood vessel diameter is small, a three-dimensional image can be formed without being cut. In addition, as described above, according to the “blood vessel extraction process”, even when the heart or other blood vessels are close to each other, the center of the target blood vessel can be accurately detected. Even for a coronary blood vessel that has been difficult to image, an accurate three-dimensional image as shown in FIG. 28 can be generated.

また、上記「血管抽出処理」において取得されるパスPVtはベクタデータであるので、種々の変換・加工などを容易に行うことができる。すなわち、パスPVtは3次元の座標系データから構成される「3次元パスデータ」であるが、画像処理装置300の制御部310が所定の演算等を行うことにより「2次元パスデータ」に変換して各血管を直線的な2次元画像(ツリービュー)として表示することもできる。また、モダリティ100が取得する3次元ボリュームデータを用いて作成される他の形式の医用画像などと関連付けることもできる。すなわち、同一対象について、異なる表示形式(座標体系)の医用画像を同時に複数表示させ、これらの各画像上の位置を相互に対応付けることができる。 In addition, since the path P Vt acquired in the “blood vessel extraction processing” is vector data, various conversions and processings can be easily performed. That is, the path P Vt is “three-dimensional path data” composed of three-dimensional coordinate system data, but is converted into “two-dimensional path data” by the control unit 310 of the image processing apparatus 300 performing a predetermined calculation or the like. After conversion, each blood vessel can be displayed as a linear two-dimensional image (tree view). In addition, it can be associated with a medical image of another format created using the three-dimensional volume data acquired by the modality 100. That is, a plurality of medical images of different display formats (coordinate systems) can be simultaneously displayed for the same target, and their positions on each image can be associated with each other.

このような画像表示の例を図29に示す。この例における表示画面は、図示するように、複数の表示領域(左・中央・右)を有しており、制御部310および出力制御部340の制御によって、出力装置34(この場合、ディスプレイ装置などの表示装置)に、それぞれに異なる表示形式(座標体系)の医用画像が表示されている。例えば、左領域には、上段に心臓および冠状血管の「3次元画像」が表示され、下段に3次元パスデータから変換された「2次元パスデータ」が表示されている。ここで、3次元画像上には3次元パスを示す画像を重ねて表示できるものとする。すなわち、3次元画像として表示されている血管を、例えば、カーソルなどのポインタで当該3次元画像上で指示すると、指示された血管の3次元画像上に、当該血管の3次元パスが重ねて表示される。   FIG. 29 shows an example of such an image display. The display screen in this example has a plurality of display areas (left, center, right) as shown in the figure, and the output device 34 (in this case, the display device in this case) is controlled by the control unit 310 and the output control unit 340. Display devices) display medical images in different display formats (coordinate systems). For example, in the left area, a “three-dimensional image” of the heart and coronary vessels is displayed in the upper part, and “two-dimensional path data” converted from the three-dimensional path data is displayed in the lower part. Here, it is assumed that an image indicating a three-dimensional path can be displayed on the three-dimensional image in a superimposed manner. That is, when a blood vessel displayed as a three-dimensional image is designated on the three-dimensional image by a pointer such as a cursor, for example, the three-dimensional path of the blood vessel is displayed on the three-dimensional image of the designated blood vessel. Is done.

なお、上記2次元パスデータへの変換は、トポロジー(接続分岐関係)を維持しつつ、3次元パスデータを2次元パスデータに変換してツリービューとするものである。ここで、冠状血管などは分岐点を有する、いわゆる、非巡回グラフ的に表すことができるので、このような血管を2次元パスで表した場合も、分岐が交差することなく表現することができる。また、3次元パスデータから血管長を求めることで、3次元パス上と2次元パス上の位置関係を容易に対応付けることができる。   The conversion into the two-dimensional path data is performed by converting the three-dimensional path data into the two-dimensional path data while maintaining the topology (connection branching relation) to obtain a tree view. Here, since a coronary blood vessel or the like can be represented as a so-called acyclic graph having a branch point, even when such a blood vessel is represented by a two-dimensional path, it can be represented without crossing branches. . Further, by obtaining the blood vessel length from the three-dimensional path data, the positional relationship on the three-dimensional path and the two-dimensional path can be easily associated.

したがって、例えば、画面上段の3次元画像上で、ある血管を指示すると、当該血管の3次元パスが3次元画像上に表示されるとともに、画面下段において、当該血管を示す2次元パスが強調表示等される。すなわち、制御部310の演算により、両画像上の位置情報(ノード)が相対的に対応付けられているので、例えば、3次元画像上で表示されているポインタと、2次元パス画像上で表示されているポインタとが相互にリンクし、一方のポインタの移動に応じて他方のポインタも移動するといった表示が可能となる。   Therefore, for example, when a certain blood vessel is designated on the three-dimensional image in the upper part of the screen, the three-dimensional path of the blood vessel is displayed on the three-dimensional image, and the two-dimensional path indicating the blood vessel is highlighted in the lower part of the screen. And so on. That is, since the position information (node) on both images is relatively associated with each other by the operation of the control unit 310, for example, a pointer displayed on a three-dimensional image and a pointer displayed on a two-dimensional path image are displayed. The linked pointers are linked to each other, and it is possible to display such that the other pointer moves in response to the movement of one pointer.

ここで、モダリティ100により取得される3次元ボリュームデータには、座標系情報やCT値の他に、例えば、各種計測データなども含ませることができる。このような計測データを用いることにより、例えば、血流量や血管径などの数値情報を得ることができる。これらの情報は、上記3次元パスデータに対応付け可能であることはもとより、この3次元パスデータを変換して得られる2次元パスデータなどにも同様に対応付けることができる。したがって、制御部310が、これらの計測データをパラメータとして取得することで、血管径や血流量の違いなどを各画像上に明示的に表示させることができる。例えば、2次元パス画面上で、血管径が所定の閾値以下となっている部分の表示色を他の部分と変えて表示させたりすることが可能となる。   Here, the three-dimensional volume data acquired by the modality 100 can include, for example, various measurement data in addition to the coordinate system information and the CT value. By using such measurement data, for example, numerical information such as a blood flow rate and a blood vessel diameter can be obtained. These pieces of information can be associated not only with the three-dimensional path data, but also with two-dimensional path data obtained by converting the three-dimensional path data. Therefore, by acquiring these measurement data as parameters, the control unit 310 can explicitly display a difference in a blood vessel diameter, a blood flow rate, and the like on each image. For example, on the two-dimensional path screen, it is possible to change the display color of a part where the blood vessel diameter is equal to or smaller than a predetermined threshold value and change the display color to another part.

通常、血管径が細くなっている部分に異常が発生する蓋然性が高いといわれているが、3次元画像では血管の空間的位置関係を把握するに適している反面、血管上に発生している異常部位や径が細くなっている箇所などを見つけにくい欠点がある。したがって、上記のような表示形態とする2次元パスデータを3次元画像と同時に表示させることで、異常部位や径の細くなっている箇所が、いずれの血管のどの位置であるかを2次元パス画面で認識し、その場所を3次元画像上で実際の位置として確認することができる。   Usually, it is said that there is a high probability that an abnormality occurs in a portion where the blood vessel diameter is small, but it is suitable for grasping the spatial positional relationship of the blood vessel in a three-dimensional image, but it is generated on the blood vessel. There is a disadvantage that it is difficult to find an abnormal part or a part with a small diameter. Therefore, by displaying the two-dimensional path data having the above-described display form simultaneously with the three-dimensional image, it is possible to determine the position of the blood vessel in which the abnormal part or the thin part is located in the two-dimensional path. It can be recognized on the screen and the location can be confirmed as the actual position on the three-dimensional image.

さらに、図29に示すように、中央表示領域の上・中段には、例えば、対象血管のCPR(Curved-Planer Reconstruction)画像などが表示される。CPRとは、3次元ボリュームデータを任意の曲面で領域指定するものであり、例えば、血管に沿った曲面領域を指定することで、血管の長尺方向断面を一画面で表示できるものである。図29の例においては、上段に「CPR非直線モード」の画像が表示され、下段に「CPR直線モード」の画像が表示されている。「非直線モード」は、指定した曲面領域をそのまま画像化したものであり、「直線モード」は、指定した曲面領域を擬似的に伸張させて対象血管を直線的な画像として表示するものである。   Further, as shown in FIG. 29, for example, a CPR (Curved-Planer Reconstruction) image of the target blood vessel is displayed in the upper and middle stages of the central display area. The CPR is for designating an area of three-dimensional volume data with an arbitrary curved surface. For example, by designating a curved surface region along a blood vessel, a longitudinal cross section of the blood vessel can be displayed on one screen. In the example of FIG. 29, the image of “CPR non-linear mode” is displayed on the upper stage, and the image of “CPR linear mode” is displayed on the lower stage. In the “non-linear mode”, the designated curved surface region is directly imaged, and in the “linear mode”, the designated curved surface region is pseudo-expanded and the target blood vessel is displayed as a linear image. .

ここで表示されるCPR画像における座標情報も、制御部310の演算によって、上記3次元パスデータや2次元パスデータと相互に対応付けられる。したがって、例えば、所望の血管についての3次元画像あるいは2次元パスのいずれかを指示すると、指示された血管のCPR画像が中央領域に表示される。また、3次元画像上でポインタを移動させると、CPR画像上のポインタもこれに応じて移動する。これとは逆に、CPR画像上でポインタを移動させると、3次元画像上のポインタもこれに応じて移動する。また、上述のように、ボリュームデータには種々の情報を含ませることができるので、制御部310が、これらの情報に基づくグラフなどを作成して下段に表示する。このグラフでは、例えば、上記各画像上で指示される位置における種々の情報をグラフ表示することができる。例えば、上記CPR画像上で血管上の複数箇所を指定すると、指定された各箇所における血管径、狭窄率などの情報がグラフ化され、比較可能に表示される。   The coordinate information in the CPR image displayed here is also associated with the three-dimensional path data and the two-dimensional path data by the operation of the control unit 310. Therefore, for example, when one of a three-dimensional image and a two-dimensional path for a desired blood vessel is designated, a CPR image of the designated blood vessel is displayed in the central area. Further, when the pointer is moved on the three-dimensional image, the pointer on the CPR image also moves accordingly. Conversely, when the pointer is moved on the CPR image, the pointer on the three-dimensional image is moved accordingly. Further, as described above, since various information can be included in the volume data, the control unit 310 creates a graph or the like based on such information and displays it in the lower part. In this graph, for example, various types of information at positions indicated on the images can be displayed in a graph. For example, when a plurality of locations on a blood vessel are designated on the CPR image, information such as a blood vessel diameter and a stenosis rate at each designated location is graphed and displayed for comparison.

また、右領域には、血管断面を示すMPR画像が表示される。このMPR画像上の座標情報も、制御部310の演算により、他の画像の座標情報と相互に対応付けられている。したがって、例えば、CPR画像上で血管上の複数箇所を指定すると、指定された箇所の血管断面が表示される。   In the right region, an MPR image showing a blood vessel cross section is displayed. The coordinate information on the MPR image is also correlated with the coordinate information of another image by the operation of the control unit 310. Therefore, for example, when a plurality of locations on a blood vessel are designated on the CPR image, a cross section of the blood vessel at the designated location is displayed.

このように表示されるすべての画像上の位置情報は互いにリンクしているため、いずれかの画像上で位置指定すると、他の画像上にも対応する位置が明示的に表示されるので、表示形式(座標形式)の異なる複数の画像であっても一覧表示させて参照できるとともに、位置関係を一意的に把握することができる。したがって、例えば、診断時の異常部位発見を2次元パスデータやCPR画像を用いて行い、当該箇所を手術する際に3次元画像を参照して実際の位置を確認するなどといった活用ができ、診断・治療精度の向上に寄与することができる。   Since the position information on all images displayed in this way is linked to each other, specifying a position on any image will explicitly display the corresponding position on other images, so A plurality of images having different formats (coordinate formats) can be displayed in a list and referred to, and the positional relationship can be uniquely grasped. Therefore, for example, it is possible to use the two-dimensional path data and the CPR image to find an abnormal part at the time of diagnosis, and to confirm the actual position by referring to the three-dimensional image when performing an operation on the part. -It can contribute to improvement of treatment accuracy.

以上説明したように、本発明の実施の形態にかかる画像診断システム1によれば、血管などの管状組織の画像を生成する際に、各断面領域で閾値を変化させることで血管断面を顕在化させているので、例えば、血管径の変化や異常部位により管の途中でCT値が変化している場合であっても中心線を正確に抽出することができる。したがって、寸断等されることのない良好な画像を得ることができる。また、各断面領域で血管断面を顕在化させて断面中心を検出しているので、CT値が類似する他の器官等が近接している場合であっても、対象血管の中心線を正確に抽出することができる。また、対象血管の中心線をパスデータとして取得できるので、表示形式の異なる複数種類の医用画像と相互にリンクさせることができ、これらの医用画像を同時に表示させることができる。したがって、特に、心臓付近の冠状血管を対象とした診断・治療に極めて有用な医用画像表示を実現できる。   As described above, according to the image diagnostic system 1 according to the embodiment of the present invention, when an image of a tubular tissue such as a blood vessel is generated, the cross section of the blood vessel is visualized by changing the threshold value in each cross sectional area. Therefore, the center line can be accurately extracted even when the CT value changes in the middle of the tube due to a change in the blood vessel diameter or an abnormal site, for example. Therefore, it is possible to obtain a good image without being shredded. In addition, since the center of the cross section is detected by visualizing the cross section of the blood vessel in each cross-sectional area, the center line of the target blood vessel can be accurately determined even when other organs or the like having similar CT values are close to each other. Can be extracted. In addition, since the center line of the target blood vessel can be acquired as path data, it can be mutually linked with a plurality of types of medical images having different display formats, and these medical images can be displayed simultaneously. Therefore, particularly useful medical image display can be realized for diagnosis and treatment of coronary vessels near the heart.

なお、上記実施の形態における「血管抽出処理」においては、図15に示す直交断面領域SRex2(対象血管Vtに他の血管Vxが近接している場合)を例に説明したが、同図に示す直交断面領域SRex1(すなわち、対象血管Vtに心臓HTが近接している場合)であっても、同様に対象血管Vtの断面を正確に抽出することができる。これは、本発明は、取得した断面領域のそれぞれにおいて対象CT値レンジを変化させ、それにより血管断面が顕在化したときの血管中心を検出しているため、類似したCT値であっても正確に峻別することができるためである。したがって、例示した直交断面領域SRex1やSRex2に限られず、対象血管Vtの断面を含んだ領域であれば、他の器官や組織が近接していても正確に対象血管Vtの断面中心を検出することができる。 In the “blood vessel extraction processing” in the above embodiment, the orthogonal cross-sectional area SR ex2 shown in FIG. 15 (when another blood vessel Vx is close to the target blood vessel Vt) has been described as an example. Even in the illustrated orthogonal cross-sectional area SR ex1 (that is, when the heart HT is close to the target blood vessel Vt), a cross section of the target blood vessel Vt can be accurately extracted similarly. This is because the present invention changes the target CT value range in each of the acquired cross-sectional areas, thereby detecting the center of the blood vessel when the blood vessel cross-section becomes apparent. This is because they can be distinguished sharply. Therefore, the cross-sectional center of the target blood vessel Vt is accurately detected even if other organs or tissues are close to each other as long as the area includes the cross-section of the target blood vessel Vt, without being limited to the illustrated orthogonal cross-sectional areas SR ex1 and SR ex2. can do.

この場合、対象血管Vtの断面を含む領域を指定する方法は任意であり、例えば、所定の3次元領域(空間領域)を指定することで、対象血管Vtの断面領域を指定してもよい。この場合、例えば図30(a)に示すように、対象血管Vt上の任意点AP(例えば、「血管抽出処理」(図8)のステップS302で指定される「始点SP」など)を指定し、この任意点APの3次元座標を特定するとともに、任意点APを重心CPとする立方体形状の3次元領域(以下、「立方体領域CR」とする)を指定する。対象血管Vtは管状であるので、立方体領域CRの面上の2カ所で接することになる(以下、進行方向の上流側での接点を「接点EG1」とし、下流側での接点を「接点EG2」とする)。そして、立方体領域CRを構成する面のうち、接点EG1を含む面を「断面領域SRa」とし、接点EG2を含む面を「断面領域SRb」として、これらの断面領域における管断面の抽出と断面中心の特定を行う。すなわち、断面領域SRaおよびSRbを対象として上記「血管中心検出処理」(図17)を実行することで、接点EG1とEG2における対象血管Vtの断面中心を示す3次元座標を特定することができる。   In this case, the method of designating the region including the cross section of the target blood vessel Vt is arbitrary. For example, the cross sectional region of the target blood vessel Vt may be specified by specifying a predetermined three-dimensional region (space region). In this case, for example, as shown in FIG. 30A, an arbitrary point AP on the target blood vessel Vt (for example, “start point SP” specified in step S302 of “blood vessel extraction processing” (FIG. 8)) is specified. The three-dimensional coordinates of the arbitrary point AP are specified, and a cubic three-dimensional area having the arbitrary point AP as the center of gravity CP (hereinafter, referred to as “cube area CR”) is specified. Since the target blood vessel Vt is tubular, it comes into contact at two places on the surface of the cubic region CR (hereinafter, the contact on the upstream side in the traveling direction is referred to as “contact EG1”, and the contact on the downstream side is referred to as “contact EG2”. "). Then, among the surfaces constituting the cubic region CR, the surface including the contact point EG1 is referred to as a “cross-sectional region SRa”, and the surface including the contact point EG2 is referred to as a “cross-sectional region SRb”. The identification of. That is, by executing the above-described “blood vessel center detection processing” (FIG. 17) on the cross-sectional areas SRa and SRb, three-dimensional coordinates indicating the cross-sectional center of the target blood vessel Vt at the contact points EG1 and EG2 can be specified.

重心CP、接点EG1およびEG2の3次元座標が特定されるので、例えば、図30(b)に示すような、重心CPと接点EG2とを結んだ、当該立方体領域CRにおける単位3次元パスデータ(以下、「単位パスUP」とする)を得ることができる。すなわち、当該立方体領域CR内に含まれている対象血管Vtについての3次元パスデータを得ることができる。ここで、単位パスUPは、例えば、接点EG1と接点EG2の2点を結んだものであってもよく、あるいは、接点EG1、重心CP、および、接点EG2の3点を結んだものであってもよい。   Since the three-dimensional coordinates of the center of gravity CP and the contact points EG1 and EG2 are specified, for example, as shown in FIG. 30 (b), the unit three-dimensional path data in the cubic region CR connecting the center of gravity CP and the contact point EG2 ( Hereinafter, “unit path UP” can be obtained. That is, it is possible to obtain three-dimensional path data for the target blood vessel Vt included in the cubic region CR. Here, the unit path UP may be, for example, one connecting two points of the contact point EG1 and the contact point EG2, or connecting three points of the contact point EG1, the center of gravity CP, and the contact point EG2. Is also good.

そして、このように得られた「単位パスUP」に基づいて、次の3次元領域を指定することができる。例えば、図31(a)に示すように、前に指定された立方体領域CR1の単位パスUP1の終端UP1eを重心CP2として、次の立方体領域CR2を指定してもよい。あるいは、図31(b)に示すように、前に指定された立方体領域CR1の重心CP1と、単位パスUP1の終端UP1eの中点UP1mを重心CP2として、次の立方体領域CR2を指定してもよい。このようにして立方体領域CRを順次指定することで、複数の単位パスUPを得ることができ、このような複数の単位パスUPに基づいて、始点SPから終点EPまでの中心線のパスPVtを得ることができる。 Then, the next three-dimensional area can be designated based on the “unit path UP” obtained in this manner. For example, as shown in FIG. 31A, the next cubic region CR2 may be designated by using the terminal point UP1e of the unit path UP1 of the previously designated cubic region CR1 as the center of gravity CP2. Alternatively, as shown in FIG. 31 (b), the next cubic region CR2 is designated by setting the center of gravity CP1 of the previously designated cubic region CR1 and the midpoint UP1m of the terminal UP1e of the unit path UP1 as the center of gravity CP2. Good. A plurality of unit paths UP can be obtained by sequentially designating the cubic region CR in this manner. Based on such a plurality of unit paths UP, the path P Vt of the center line from the start point SP to the end point EP is obtained. Can be obtained.

なお、任意点APを立方体領域CRの重心ではなく、例えば、図32(a)に示すように、立方体領域CRの一面の中心(以下、「中心CP」とする)として立方体領域CRを指定してもよい。この場合、図32(b)に示すように、立方体領域CRを構成する面のうち、対象血管Vtが接する面を断面領域SRa、SRbとし、管断面とその中心を特定することができる。この場合の接点EG1は任意点AP(重心CP)と同一であるので、接点EG2についての「管断面の抽出」と「断面中心の特定」を行えばよい。そして、重心CPと接点EG2とを結ぶ3次元パスを「単位パスUP」とすることができる。   Note that the arbitrary point AP is not the center of gravity of the cubic region CR, but, for example, as shown in FIG. 32A, the cubic region CR is designated as the center of one surface of the cubic region CR (hereinafter, referred to as “center CP”). You may. In this case, as shown in FIG. 32 (b), among the surfaces constituting the cubic region CR, the surfaces in contact with the target blood vessel Vt are set as the cross-sectional regions SRa and SRb, and the tube cross-section and the center thereof can be specified. Since the contact point EG1 in this case is the same as the arbitrary point AP (the center of gravity CP), "extraction of the pipe section" and "identification of the section center" may be performed for the contact point EG2. Then, a three-dimensional path connecting the center of gravity CP and the contact point EG2 can be referred to as a “unit path UP”.

なお、指定する3次元領域(空間領域)の形状は、上記のような立方体に限られず、任意の形状とすることができる。例えば、図33(a)に示すような直方体形状や、図33(b)に示すような三角錐形状、あるいは、図34(a)に示すような球体形状や、図34(b)に示すような円柱形状などを用いることができるほか、例えば、楕球形状、樽型形状、トーラス(輪管面)といった形状であってもよい。   The shape of the designated three-dimensional area (space area) is not limited to the cube as described above, and may be any shape. For example, a rectangular parallelepiped shape as shown in FIG. 33 (a), a triangular pyramid shape as shown in FIG. 33 (b), a spherical shape as shown in FIG. 34 (a), or a spherical shape as shown in FIG. 34 (b) In addition to such a cylindrical shape, for example, the shape may be an elliptical shape, a barrel shape, or a torus (annular tube surface).

さらに、このような「3次元領域」の指定と、上記実施の形態で例示した「直交断面領域」の指定とを組み合わせてもよい。例えば、始点SPおよび終点EPでは「直交断面領域」を用い、始点SPから終点EPまでの間では「3次元領域」を用いるようにしてもよい。   Further, the designation of such a “three-dimensional region” may be combined with the designation of the “orthogonal cross-sectional region” exemplified in the above embodiment. For example, the “orthogonal cross-sectional area” may be used for the start point SP and the end point EP, and the “three-dimensional area” may be used between the start point SP and the end point EP.

上記実施の形態では、始点SPおよび終点EP(任意点)を、オペレータが入力装置33を操作し、血管断面を示す2次元画像上で指定するものとしたが、任意点を指定する方法はこれに限られない。例えば、上記「医用画像生成・表示処理」において生成されるような各種画像(すなわち、3次元画像やCPR画像など)上で指定してもよい。あるいは、オペレータの操作によらず、例えば、画像処理装置300が実行するプログラムや画像処理装置300に接続されている他の装置などからの指示等により任意点が指定されてもよい。また、上記実施の形態では、始点SPと終点EPの双方を指定するものとしたが、始点SPまたは終点EPのいずれか一方を指定するものとしてもよい。この場合、「進行方向」がオペレータやプログラムの指示などによって指定されてもよい。さらに、上記実施の形態では、終点EPにおける直交断面領域SRが指定されたことにより抽出を終了したが、これに限られず、例えば、血管径についての閾値を設定し、所定値以下の血管径となったときに抽出を終了するようにしてもよい。   In the above-described embodiment, the start point SP and the end point EP (arbitrary points) are specified on the two-dimensional image showing the cross section of the blood vessel by the operator operating the input device 33. Not limited to For example, it may be specified on various images (that is, a three-dimensional image, a CPR image, or the like) generated in the “medical image generation / display processing”. Alternatively, the arbitrary point may be specified by a program executed by the image processing apparatus 300 or an instruction from another apparatus connected to the image processing apparatus 300, etc., without depending on the operation of the operator. Further, in the above embodiment, both the start point SP and the end point EP are specified, but one of the start point SP and the end point EP may be specified. In this case, the “traveling direction” may be specified by an instruction from an operator or a program. Further, in the above-described embodiment, the extraction is terminated by designating the orthogonal cross-sectional area SR at the end point EP. However, the present invention is not limited to this. For example, a threshold value for a blood vessel diameter is set, and the blood vessel diameter is set to a predetermined value or less. The extraction may be terminated when it becomes.

また、上記実施の形態の「血管断面顕在化処理」においては、予めNG値を除外した閾値レンジで面積変化が最大となる閾値を検出したが、血管断面が顕在化する閾値を検出する方法はこれに限られない。例えば、大きな面積変化が複数回あった場合、それぞれで取得される中心単位画像の真円度を求め、最も真円度が高い画像が得られたときの閾値を「血管断面を顕在化させる閾値」として特定してもよい。   Further, in the “vascular cross section revealing process” of the above-described embodiment, the threshold at which the area change is maximum in the threshold range excluding the NG value is detected in advance, but the method of detecting the threshold at which the blood vessel cross section becomes visible is It is not limited to this. For example, when there is a large area change a plurality of times, the roundness of the center unit image obtained in each case is obtained, and the threshold when the image with the highest roundness is obtained is set as the “threshold for making the blood vessel cross section visible. ".

上記実施の形態では、面積変化に注目して血管断面の顕在化を判別したが、注目対象事項はこれに限られず、例えば、真円度、重心や外周長などの変化に基づいて判別してもよい。   In the above embodiment, the appearance of the blood vessel cross section is determined by focusing on the area change. However, the attention target item is not limited to this. For example, the roundness, the center of gravity, and the outer peripheral length are determined based on the change. Is also good.

上記実施の形態では、「対象CT値レンジ」の下限値を示す閾値を変化させるものとしたが、閾値の設定は任意である。例えば、「対象CT値レンジ」の上限値を示すものであってもよい。また、上記実施の形態では、閾値を最小閾値thminから最大閾値thmaxまで変化させたが、変化のさせ方は任意であり、例えば、最大閾値thmaxから最小閾値thminに変化させてもよい。また、上記実施の形態では、閾値を変化させることで、「対象CT値レンジ」を徐々に狭めるようにしたが、これに限られず、例えば、「対象CT値レンジ」を徐々に拡大させることで顕在化を判別してもよい。 In the above embodiment, the threshold value indicating the lower limit value of the “target CT value range” is changed, but the setting of the threshold value is arbitrary. For example, it may indicate the upper limit of the “target CT value range”. Further, in the above embodiment, changing the threshold from the minimum threshold value th min up to the threshold th max, is not how the change is optional, for example, be varied from a maximum threshold th max to the minimum threshold value th min Good. Further, in the above embodiment, the “target CT value range” is gradually narrowed by changing the threshold. However, the present invention is not limited to this. For example, the “target CT value range” is gradually expanded. The manifestation may be determined.

上記実施の形態における「進行方向決定処理」においては、各直交断面領域において2つの平行断面領域を指定することにより進行方向を決定したが、進行方向を決定する方法はこれに限られない。すなわち、進行すべき方向を適切に決定できる方法であれば、任意の方法を用いることができる。また、上記実施の形態で例示した方法を用いる場合にあっては、指定する平行断面領域の数は「2」に限られず任意である。すなわち、1つの平行断面領域内の長手方向画像に基づいて進行方向を修正・決定してもよく、あるいは、3つ以上の平行断面領域内の長手方向画像に基づいて進行方向を修正・決定してもよい。また、長手方向画像を得る際にも、上記「血管断面顕在化処理」で用いられた対象顕在化手法を用いることができる。すなわち、対象血管Vtに他の組織が近接している場合には、平行断面領域にもそれらが含まれることになるが、上記血管断面の顕在化と同様に長手方向断面を顕在化させることでその中心位置を正確に検出することができる。   In the “traveling direction determination process” in the above embodiment, the traveling direction is determined by designating two parallel cross-sectional areas in each orthogonal cross-sectional area, but the method of determining the traveling direction is not limited to this. That is, any method can be used as long as it can appropriately determine the direction in which the vehicle should proceed. In the case where the method exemplified in the above embodiment is used, the number of designated parallel cross-sectional areas is not limited to “2” and is arbitrary. That is, the traveling direction may be corrected and determined based on the longitudinal images in one parallel cross-sectional area, or the traveling direction may be corrected and determined based on the longitudinal images in three or more parallel cross-sectional areas. You may. Also, when obtaining the longitudinal direction image, the target revealing method used in the above-mentioned "vascular cross section revealing process" can be used. That is, when other tissues are close to the target blood vessel Vt, they are also included in the parallel cross-sectional area, but by making the longitudinal cross-section similar to the above-described blood vessel cross-section, The center position can be accurately detected.

上記実施の形態では、モダリティ100としてCTスキャナを採用し、よって、CT画像を用いた場合を例に説明したが、上述したように、採用できるモダリティ100は任意であり、したがって、採用されるモダリティ装置に応じた画像(例えば、MR画像や超音波画像など)を用いてもよい。   In the above embodiment, a case where a CT scanner is used as the modality 100 and, therefore, a case where a CT image is used has been described as an example. However, as described above, the modality 100 that can be used is arbitrary, and accordingly, the modality that is used is used. An image (for example, an MR image or an ultrasonic image) corresponding to the device may be used.

上記実施の形態では、特に冠状血管などの血管を抽出対象としたが、管状組織(管状臓器、管腔臓器)であれば抽出対象とすることができ、例えば、気管、腸、神経、などを抽出対象とすることができる。   In the above embodiment, blood vessels such as coronary blood vessels are particularly extracted. However, any tubular tissue (tubular organ, luminal organ) can be extracted. For example, trachea, intestine, nerve, etc. Can be extracted.

上記実施の形態では、「医用画像生成・表示処理」において、3次元画像、2次元パス、CPR画像、グラフ、MPR画像を同一画面上に表示する場合を例に説明したが、生成・表示する画像の種類や一度に表示する画像数などは任意である。また、上記実施の形態にかかる画像処理装置300は、例えば、管状組織の中心線パスを取得する機能のみを有するものであってもよい。この場合、画像処理装置300は、取得した3次元パスデータを他の画像生成装置に提供するなどし、そこで各種画像を生成するようにしてもよい。また、上記実施の形態の画像処理装置300が持つ上記各処理にかかる機能の一部またはすべてを、例えば、モダリティ100や制御端末200などが有していてもよい。すなわち、上記画像処理装置300が有する各機能は、単一の装置により実現されてもよく、あるいは、複数の装置の協働により実現されるものであってもよい。   In the above-described embodiment, in the “medical image generation / display processing”, an example has been described in which a three-dimensional image, a two-dimensional path, a CPR image, a graph, and an MPR image are displayed on the same screen. The type of image and the number of images to be displayed at one time are arbitrary. Further, the image processing apparatus 300 according to the above embodiment may have only a function of acquiring a centerline path of a tubular tissue, for example. In this case, the image processing device 300 may provide the obtained three-dimensional path data to another image generation device, and generate various images there. Further, for example, the modality 100, the control terminal 200, or the like may have some or all of the functions of the image processing apparatus 300 according to the above-described embodiment relating to the above-described processing. That is, each function of the image processing device 300 may be realized by a single device, or may be realized by cooperation of a plurality of devices.

上記実施の形態における画像処理装置300は、専用装置で構成可能であることはもとより、例えば、パーソナルコンピュータなどの汎用コンピュータ装置などで構成することもできる。この場合、上記各処理を実現するためのプログラムの一部または全部を汎用コンピュータ装置にインストールし、OSなどの制御下で実行することにより、画像処理装置300を構成することができる。この場合のプログラム配布形態は任意である。例えば、CD−ROMなどの記録媒体に格納して配布可能であることはもとより、搬送波に重畳させることで通信媒体(インターネットなど)を介して配布することができる。   The image processing apparatus 300 according to the above-described embodiment can be constituted not only by a dedicated device but also by a general-purpose computer device such as a personal computer. In this case, the image processing apparatus 300 can be configured by installing a part or all of the program for realizing each of the above processes in a general-purpose computer device and executing the program under control of an OS or the like. In this case, the program distribution form is arbitrary. For example, it can be distributed via a communication medium (such as the Internet) by being superimposed on a carrier wave as well as being stored and distributed on a recording medium such as a CD-ROM.

以上説明したように、本発明によれば、医用画像の生成において、血管などの管状組織を正確に抽出することができ、当該管状組織を示す複数種類の画像を相互に関連付けて一覧表示させることができる。   As described above, according to the present invention, in generating a medical image, a tubular tissue such as a blood vessel can be accurately extracted, and a plurality of types of images showing the tubular tissue are displayed in a list in association with each other. Can be.

本発明の実施の形態にかかる「画像診断システム」の構成を模式的に示す図である。FIG. 1 is a diagram schematically illustrating a configuration of an “image diagnostic system” according to an embodiment of the present invention. 図1に示す「制御端末」の構成を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration of a “control terminal” illustrated in FIG. 1. 図2に示す制御端末が取得する断層画像(スライス画像)を説明するための図である。FIG. 3 is a diagram for explaining a tomographic image (slice image) acquired by the control terminal shown in FIG. 2. 3次元ボリュームデータの任意領域を指定する手法を説明するための図であり、(a)は「MPR」の例を示し、(b)は「CPR」の例を示す。FIGS. 7A and 7B are diagrams for explaining a method of designating an arbitrary area of three-dimensional volume data, wherein FIG. 9A shows an example of “MPR” and FIG. 9B shows an example of “CPR”. 図1に示す「画像処理装置」の構成を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration of an “image processing device” illustrated in FIG. 1. 本発明の実施の形態にかかる「血管画像生成処理」を説明するためのフローチャートである。It is a flowchart for demonstrating the "blood vessel image generation process" concerning embodiment of this invention. 図6に示す「撮像処理」を説明するためのフローチャートである。7 is a flowchart for explaining “imaging processing” shown in FIG. 6. 図6に示す「血管抽出処理」を説明するためのフローチャートである。FIG. 7 is a flowchart for explaining “blood vessel extraction processing” shown in FIG. 6. 図8に示す血管抽出処理により取得される断面領域を説明するための図であり、(a)は始点指定のために表示される断面画像の例を示し、(b)は取得される断面領域と対象血管などとの位置関係を模式的に例示し、(c)は取得された断面領域と血管断面との位置関係を模式的に例示する。9A and 9B are views for explaining a cross-sectional area obtained by the blood vessel extraction processing shown in FIG. 8, wherein FIG. 9A shows an example of a cross-sectional image displayed for specifying a start point, and FIG. And (c) schematically illustrates the positional relationship between the acquired cross-sectional area and the blood vessel cross-section. 図8に示す血管抽出処理における「進行方向決定処理」を説明するためのフローチャートである。FIG. 9 is a flowchart for describing “traveling direction determination processing” in the blood vessel extraction processing shown in FIG. 8. 図10に示す進行方向決定処理において指定される平行断面領域を説明するための図であり、(a)は指定される平行断面領域の一方についての位置関係を模式的に例示し、(b)は指定される平行断面領域の他方についての位置関係を模式的に例示し、(c)は指定される平行断面領域の双方と直交断面領域との位置関係を模式的に例示する。11A is a diagram for explaining a parallel cross-sectional area specified in the traveling direction determination processing shown in FIG. 10, where FIG. 11A schematically illustrates a positional relationship of one of the specified parallel cross-sectional areas, and FIG. FIG. 4 schematically illustrates the positional relationship of the other of the designated parallel cross-sectional regions, and FIG. 4C schematically illustrates the positional relationship between both of the designated parallel cross-sectional regions and the orthogonal cross-sectional region. 図10に示す進行方向決定処理において取得される長手方向画像の例を示す図であり、(a)は一方の平行断面領域で取得される長手方向画像の例を示し、(b)は他方の平行断面領域で取得される長手方向画像の例を示す。It is a figure which shows the example of the longitudinal direction image acquired in the traveling direction determination process shown in FIG. 10, (a) shows the example of the longitudinal direction image acquired in one parallel cross section area, (b) is the other. 5 shows an example of a longitudinal image acquired in a parallel cross-sectional area. 図10に示す進行方向決定処理におけるベクトル算出に用いられる計算式の例を示す図である。FIG. 11 is a diagram illustrating an example of a calculation formula used for vector calculation in the traveling direction determination process illustrated in FIG. 10. 図10に示す進行方向決定処理における処理を説明するための図であり、(a)は暫定進行方向と決定進行方向との関係を模式的に示し、(b)は決定進行方向に基づいて指定される直交断面領域を模式的に示す。11A and 11B are diagrams for explaining processing in the traveling direction determination processing shown in FIG. 10, where FIG. 11A schematically illustrates a relationship between a provisional traveling direction and a determined traveling direction, and FIG. 2 schematically shows an orthogonal cross-sectional area to be formed. 対象血管についての位置関係を模式的に例示する図であり、(a)は対象血管について指定される直交断面領域と対象血管に近接する心臓および他の血管との位置関係を模式的に例示し、(b)は(a)に例示された一方の直交断面領域における対象血管と心臓との位置関係を模式的に例示し、(c)は(a)に例示された他方の直交断面領域における対象血管と他の血管との位置関係を模式的に例示する。It is a figure which illustrates typically the positional relationship about a target blood vessel, (a) typically illustrates the positional relationship between the orthogonal cross-sectional area designated about a target blood vessel, and the heart and other blood vessels which are close to the target blood vessel. , (B) schematically illustrates the positional relationship between the target blood vessel and the heart in one orthogonal cross-sectional area illustrated in (a), and (c) illustrates the positional relation in the other orthogonal cross-sectional area illustrated in (a). The positional relationship between a target blood vessel and other blood vessels is schematically illustrated. 図15に例示される直交断面領域を画像化した場合の画像の例を模式的に示す図であり、(a)は図15(b)に例示された領域の画像の例を示し、(b)は図15(c)に例示された領域の画像の例を示す。FIG. 16 is a diagram schematically illustrating an example of an image when an orthogonal cross-sectional area illustrated in FIG. 15 is imaged, wherein FIG. 15A illustrates an example of an image of the area illustrated in FIG. ) Shows an example of an image of the area illustrated in FIG. 本発明の実施の形態にかかる「血管中心抽出処理」を説明するためのフローチャートである。It is a flowchart for demonstrating "the blood vessel center extraction process" concerning embodiment of this invention. 図17に示す血管中心抽出処理を説明するための図であり、(a)は最小閾値が設定されたときの画像の例を示し、(b)は最小閾値が設定されたときの所定の一次元領域におけるピクセル分布を示すグラフを示す。18A and 18B are diagrams for explaining the blood vessel center extraction process illustrated in FIG. 17, wherein FIG. 17A illustrates an example of an image when a minimum threshold is set, and FIG. 3 shows a graph illustrating a pixel distribution in an original area. 図17に示す血管中心抽出処理を説明するための図であり、(a)は用語「単位画像」を説明するための図であり、(b)は用語「中心単位画像」および「単位画像の範囲」を説明するための図である。It is a figure for demonstrating the blood-vessel center extraction process shown in FIG. 17, (a) is a figure for demonstrating a term "unit image", (b) is a term "center unit image" and "a unit image. It is a figure for explaining "range." 図17に示す血管中心抽出処理において作成される「閾値属性テーブル」の例を示す図である。FIG. 18 is a diagram illustrating an example of a “threshold attribute table” created in the blood vessel center extraction process illustrated in FIG. 17. 本発明の実施の形態にかかる「血管断面顕在化処理」を説明するためのフローチャートである。It is a flowchart for demonstrating "the blood-vessel cross-section visualization process" concerning embodiment of this invention. 図21に示す血管断面顕在化処理において検出される、中心単位画像の面積変化を示すグラフである。22 is a graph showing a change in the area of a central unit image detected in the blood vessel cross-section clarification processing shown in FIG. 21. 図21に示す血管断面顕在化処理における画像の変化を説明するための図であり、(a)、は中心単位画像が直交断面領域外まで及んでいる場合の例を示し、(b)は、そのときの閾値とピクセル分布との関係を示すグラフである。22A and 22B are diagrams for explaining a change in an image in the blood vessel cross-section revealing process illustrated in FIG. 21, where FIG. 21A illustrates an example in which a central unit image extends outside an orthogonal cross-sectional area, and FIG. It is a graph which shows the relationship between the threshold value and the pixel distribution at that time. 図21に示す血管断面顕在化処理における画像の変化を説明するための図であり、(a)は、中心単位画像が直交断面領域内に収まった場合の例を示し、(b)は、そのときの閾値とピクセル分布との関係を示すグラフである。22A and 22B are diagrams for explaining a change in an image in the blood vessel cross-section revealing process illustrated in FIG. 21, where FIG. 21A illustrates an example in which a central unit image falls within an orthogonal cross-sectional area, and FIG. 6 is a graph showing a relationship between a threshold value and a pixel distribution at the time. 図21に示す血管断面顕在化処理における画像の変化を説明するための図であり、(a)は、中心単位画像が対象血管と他の血管双方の断面を含んでいる場合の例を示し、(b)は、そのときの閾値とピクセル分布との関係を示すグラフである。22A and 22B are diagrams for explaining a change in an image in the blood vessel cross-section clarification processing illustrated in FIG. 21, wherein FIG. (B) is a graph showing the relationship between the threshold value and the pixel distribution at that time. 図21に示す血管断面顕在化処理における画像の変化を説明するための図であり、(a)は、対象血管の断面が顕在化されたときの中心単位画像の例を示し、(b)は、そのときの閾値とピクセル分布との関係を示すグラフである。22A and 22B are diagrams for explaining a change in an image in the blood vessel cross-section visualization processing illustrated in FIG. 21, where FIG. 22A illustrates an example of a center unit image when a cross-section of a target blood vessel is realized, and FIG. 7 is a graph showing the relationship between the threshold value and the pixel distribution at that time. 図21に示す血管断面顕在化処理において取得される3次元パスを模式的に示す図である。FIG. 22 is a diagram schematically illustrating a three-dimensional path acquired in the blood vessel cross-section visualization processing illustrated in FIG. 21. 図6に示す「医用画像生成・表示処理」で生成される3次元画像の例を示す図である。FIG. 7 is a diagram illustrating an example of a three-dimensional image generated by “medical image generation / display processing” illustrated in FIG. 6. 図6に示す「医用画像生成・表示処理」で生成される画像の表示例を示す図である。FIG. 7 is a diagram illustrating a display example of an image generated by “medical image generation / display processing” illustrated in FIG. 6. 本発明の実施の形態における断面領域指定に「3次元領域」を用いる場合を説明するための図であり、(a)は対象血管上の任意点と指定される立方体領域との位置関係の例を示し、(b)は指定された立方体領域における断面領域および取得される単位パスの例を示す。It is a figure for explaining the case where a “3D area” is used for section area designation in an embodiment of the present invention, and (a) is an example of a positional relationship between an arbitrary point on a target blood vessel and a specified cubic area. (B) shows an example of a cross-sectional area in a designated cubic area and an obtained unit path. 図30に示す立方体領域を順次指定する方法を説明するための図であり、(a)は単位パスの終端を次の立方体領域の重心とした例を模式的に示し、(b)は単位パスの中点を次の立方体領域の重心とした例を模式的に示す。FIG. 31A is a diagram for explaining a method of sequentially designating the cubic regions shown in FIG. 30, wherein FIG. An example in which the middle point is set as the center of gravity of the next cubic region is schematically shown. 図30に示す立方体領域を指定する他の方法を説明するための図であり、(a)は対象血管上の任意点と指定される立方体領域との位置関係の例を示し、(b)は指定された立方体領域における断面領域および取得される単位パスの例を示す。FIG. 31 is a diagram for explaining another method of designating the cubic region shown in FIG. 30, where (a) shows an example of the positional relationship between an arbitrary point on the target blood vessel and the designated cubic region, and (b) shows 5 shows an example of a cross-sectional area in a specified cubic area and an obtained unit path. 図30に示す3次元領域の他の例を示す図であり、(a)は直方体形状の空間領域を示し、(b)は三角錐形状の空間領域を示す。FIG. 31 is a diagram illustrating another example of the three-dimensional region illustrated in FIG. 30, where (a) illustrates a rectangular parallelepiped spatial region and (b) illustrates a triangular pyramid spatial region. 図30に示す3次元領域の他の例を示す図であり、(a)は球体形状の空間領域を示し、(b)は円柱形状の空間領域を示す。FIG. 31 is a diagram illustrating another example of the three-dimensional region illustrated in FIG. 30, where (a) illustrates a spherical space region and (b) illustrates a columnar space region.

符号の説明Explanation of reference numerals

1 画像診断システム
10 通信ネットワーク
100 モダリティ
200 制御端末
300 画像処理装置
DESCRIPTION OF SYMBOLS 1 Image diagnostic system 10 Communication network 100 Modality 200 Control terminal 300 Image processing device

Claims (25)

生体内部を示す3次元ボリュームデータを用いて医用画像を生成する医用画像処理装置であって、
前記3次元ボリュームデータで示される所定の管状組織の断面を含む領域を複数指定する断面領域指定部と、
前記断面領域指定部が指定した各断面領域に含まれる前記3次元ボリュームデータを用いて、当該断面領域に含まれる前記管状組織の断面を画像化する画像化部と、
前記管状組織の断面を示す画像の中心位置を示す3次元ボリュームデータを特定する中心特定部と、
前記中心特定部が特定した各断面領域における管断面の中心位置を示す3次元ボリュームデータに基づいて、前記管状組織の長尺方向中心線を示す前記3次元ボリュームデータを特定する中心線特定部と、
を備えることを特徴とする医用画像処理装置。
A medical image processing apparatus that generates a medical image using three-dimensional volume data indicating the inside of a living body,
A cross-sectional area specifying unit that specifies a plurality of areas including a cross section of a predetermined tubular tissue indicated by the three-dimensional volume data;
Using the three-dimensional volume data included in each cross-sectional area specified by the cross-sectional area specifying unit, an imaging unit that images a cross-section of the tubular tissue included in the cross-sectional area,
A center specifying unit that specifies three-dimensional volume data indicating a center position of an image indicating a cross section of the tubular tissue;
A center line specifying unit that specifies the three-dimensional volume data indicating the longitudinal center line of the tubular tissue based on the three-dimensional volume data indicating the center position of the tube cross section in each cross-sectional area specified by the center specifying unit; ,
A medical image processing apparatus comprising:
生体内部を示す3次元ボリュームデータを用いて医用画像を生成する医用画像処理装置であって、
前記3次元ボリュームデータで示される所定の管状組織上の複数位置で、各位置における当該管状組織の長尺方向に直交し、当該位置における該管状組織の断面を含む領域を指定する直交断面領域指定部と、
前記直交断面領域指定部が指定した各直交断面領域に含まれる前記3次元ボリュームデータを用いて、当該直交断面領域に含まれる前記管状組織の断面を画像化する画像化部と、
前記管状組織の断面を示す画像の中心位置を示す3次元ボリュームデータを特定する中心特定部と、
前記中心特定部が特定した各直交断面領域における管断面の中心位置を示す3次元ボリュームデータに基づいて、前記管状組織の長尺方向中心線を示す前記3次元ボリュームデータを特定する中心線特定部と、
を備えることを特徴とする医用画像処理装置。
A medical image processing apparatus that generates a medical image using three-dimensional volume data indicating the inside of a living body,
At a plurality of positions on a predetermined tubular tissue indicated by the three-dimensional volume data, an orthogonal cross-sectional area designation that is orthogonal to the longitudinal direction of the tubular tissue at each position and specifies a region including a cross section of the tubular tissue at the position Department and
Using the three-dimensional volume data included in each orthogonal cross-sectional area specified by the orthogonal cross-sectional area specifying unit, an imaging unit that images a cross section of the tubular tissue included in the orthogonal cross-sectional area,
A center specifying unit that specifies three-dimensional volume data indicating a center position of an image indicating a cross section of the tubular tissue;
A center line specifying unit that specifies the three-dimensional volume data indicating the longitudinal center line of the tubular tissue based on the three-dimensional volume data indicating the center position of the tube cross section in each orthogonal cross section area specified by the center specifying unit. When,
A medical image processing apparatus comprising:
生体内部を示す3次元ボリュームデータを用いて医用画像を生成する医用画像処理装置であって、
前記3次元ボリュームデータで示される所定の管状組織上の複数位置で所定の3次元領域を指定する3次元領域指定部と、
前記3次元領域指定部が指定した各3次元領域に含まれる前記3次元ボリュームデータを用いて、当該3次元領域に含まれる前記管状組織の断面を画像化する画像化部と、
前記管状組織の断面を示す画像の中心位置を示す3次元ボリュームデータを特定する中心特定部と、
前記中心特定部が特定した管断面の中心位置を示す3次元ボリュームデータに基づいて、前記管状組織の長尺方向中心線を示す前記3次元ボリュームデータを特定する中心線特定部と、
を備えることを特徴とする医用画像処理装置。
A medical image processing apparatus that generates a medical image using three-dimensional volume data indicating the inside of a living body,
A three-dimensional region specifying unit that specifies a predetermined three-dimensional region at a plurality of positions on a predetermined tubular tissue indicated by the three-dimensional volume data;
An imaging unit configured to image a cross section of the tubular tissue included in the three-dimensional region, using the three-dimensional volume data included in each of the three-dimensional regions specified by the three-dimensional region specification unit;
A center specifying unit that specifies three-dimensional volume data indicating a center position of an image indicating a cross section of the tubular tissue;
A center line specifying unit that specifies the three-dimensional volume data indicating a longitudinal center line of the tubular tissue based on the three-dimensional volume data indicating the center position of the tube section specified by the center specifying unit;
A medical image processing apparatus comprising:
前記3次元ボリュームデータは、少なくとも、3次元座標情報と、該3次元座標情報が示す各座標における所定の特性を示す特性情報とを含み、
前記画像化部は、所定の条件に該当する前記特性情報を用いて画像化することで、前記管状組織の断面を画像上で顕在化させる、
ことを特徴とする請求項1乃至3のいずれか1項に記載の医用画像処理装置。
The three-dimensional volume data includes at least three-dimensional coordinate information and characteristic information indicating a predetermined characteristic at each coordinate indicated by the three-dimensional coordinate information,
The imaging unit, by imaging using the characteristic information corresponding to a predetermined condition, to make a cross section of the tubular tissue visible on an image,
The medical image processing apparatus according to claim 1, wherein:
前記画像化部は、
前記所定の条件を変化させる条件変化部と、
該条件変化に応じて変化する画像属性を検出する画像属性検出部と、
該検出された画像属性の変化に基づいて、前記管状組織の断面が画像上で顕在化されたか否かを判別する顕在化判別部と、をさらに備える、
ことを特徴とする請求項4に記載の医用画像処理装置。
The imaging unit,
A condition changing unit that changes the predetermined condition;
An image attribute detection unit that detects an image attribute that changes according to the condition change,
Based on the detected change of the image attribute, further comprising: a visualization determination unit that determines whether or not the cross section of the tubular tissue has been visualized on an image.
The medical image processing apparatus according to claim 4, wherein:
前記画像属性は、画像の面積を示すものであり、
前記画像属性検出部は、
該条件変化に応じて変化する画像面積を検出し、該検出された面積に基づいて、前記条件変化に応じた画像面積の変化を検出し、
前記顕在化判別部は、該検出された面積変化に基づいて、前記管状組織の断面が画像上で顕在化されたか否かを判別する、
ことを特徴とする請求項5に記載の医用画像処理装置。
The image attribute indicates an area of the image,
The image attribute detection unit,
Detecting an image area that changes in accordance with the condition change, and detecting a change in the image area in accordance with the condition change, based on the detected area;
The manifestation determination unit determines, based on the detected area change, whether or not the cross section of the tubular tissue has been manifested on an image.
The medical image processing apparatus according to claim 5, wherein:
前記顕在化判別部は、前記断面領域の中心に現れている画像が、当該断面領域内に収まり、かつ、前記面積変化が最大となったときに、前記管状組織の断面が画像上で顕在化されたと判別する、
ことを特徴とする請求項6に記載の医用画像処理装置。
The manifestation determination unit is configured such that when the image appearing at the center of the cross-sectional area falls within the cross-sectional area, and when the area change is maximized, the cross-section of the tubular tissue is visualized on the image. Determine that
The medical image processing apparatus according to claim 6, wherein:
前記直交断面領域指定部は、
次の直交断面領域を指定するための進行方向を暫定決定する暫定方向決定部と、
直前に指定した直交断面領域で特定された前記管状組織の中心位置と、前記暫定方向決定部が決定した暫定方向とに基づいて、当該直交断面領域における前記管状組織の長手方向に平行し、該管状組織の長手方向断面を含む1または複数の領域を指定する平行断面領域指定部と、
該指定された平行断面領域に含まれる前記長手方向断面の中心位置を検出し、該検出した中心位置に基づいて、次の直交断面領域を指定するための進行方向を決定する進行方向決定部と、をさらに備え、
前記進行方向決定部が決定した進行方向に直交する領域を前記次の直交断面領域として指定する、
ことを特徴とする請求項2に記載の医用画像処理装置。
The orthogonal cross-sectional area designating section,
A provisional direction determination unit that provisionally determines the traveling direction for specifying the next orthogonal cross-sectional area,
Based on the center position of the tubular tissue specified in the orthogonal cross-sectional area specified immediately before, based on the provisional direction determined by the provisional direction determination unit, parallel to the longitudinal direction of the tubular tissue in the orthogonal cross-sectional area, A parallel section area designating section for designating one or more areas including a longitudinal section of the tubular tissue;
A traveling direction determining unit that detects a center position of the longitudinal section included in the designated parallel sectional region, and determines a traveling direction for designating a next orthogonal sectional region based on the detected center position; And further comprising
Designate a region orthogonal to the traveling direction determined by the traveling direction determination unit as the next orthogonal cross-sectional region,
The medical image processing apparatus according to claim 2, wherein:
前記3次元領域指定部は、前記中心線特定部が特定した前記管状組織の中心線をを示す3次元ボリュームデータに基づいて、次に指定する3次元領域の位置を決定する、
ことを特徴とする請求項3乃至8のいずれか1項に記載の医用画像処理装置。
The three-dimensional region specifying unit determines a position of a three-dimensional region to be specified next based on three-dimensional volume data indicating a center line of the tubular tissue specified by the center line specifying unit.
The medical image processing apparatus according to claim 3, wherein:
前記中心線特定部は、前記管状組織の中心線を3次元パスデータとして特定することを特徴とし、
前記医用画像処理装置は、前記中心線特定部が特定した3次元パスデータに基づいて、前記管状組織を示す画像を作成する画像作成部をさらに備える、
ことを特徴とする請求項1乃至9のいずれか1項に記載の医用画像処理装置。
The center line specifying unit specifies a center line of the tubular tissue as three-dimensional path data,
The medical image processing apparatus further includes an image creating unit that creates an image indicating the tubular tissue based on the three-dimensional path data identified by the center line identifying unit.
The medical image processing apparatus according to claim 1, wherein:
前記画像作成部は、
前記管状組織を示す複数種類の画像を作成し、各画像間の相対的位置関係を演算する画像演算部と、
作成された複数種類の画像を所定の表示装置に一覧表示させるとともに、前記画像演算部が演算した各画像間の相対的位置関係に基づいて、各表示画像上の位置関係を相互に対応付けて表示させる表示制御部と、をさらに備える、
ことを特徴とする請求項10に記載の医用画像処理装置。
The image creation unit,
Create a plurality of types of images showing the tubular tissue, an image calculation unit that calculates the relative positional relationship between each image,
A plurality of created images are displayed in a list on a predetermined display device, and the positional relationships on each display image are associated with each other based on the relative positional relationship between the images calculated by the image calculation unit. And a display control unit for displaying.
The medical image processing apparatus according to claim 10, wherein:
コンピュータを、請求項1乃至11のいずれか1項に記載の医用画像処理装置として機能させることを特徴とするプログラム。   A non-transitory computer-readable storage medium storing a program for causing a computer to function as the medical image processing apparatus according to claim 1. コンピュータを用いて、生体内部の管状組織を示す画像を生成するための医用画像処理方法であって、
生体内部を示す3次元ボリュームデータを取得するステップと、
前記3次元ボリュームデータで示される管状組織上で指定された任意点に基づき、前記管状組織の断面を含んだ断面領域を前記管状組織に沿って順次指定するステップと、
指定された各断面領域における前記管状組織の中心位置を検出するステップと、
検出された中心位置に基づいて、前記管状組織の中心線を示す3次元パスデータを取得するステップと、
該取得された3次元パスデータに基づいて、前記管状組織を示す画像を生成して表示するステップと、
を備えることを特徴とする医用画像処理方法。
Using a computer, a medical image processing method for generating an image showing a tubular tissue inside the living body,
Obtaining three-dimensional volume data indicating the inside of the living body;
Based on an arbitrary point specified on the tubular tissue indicated by the three-dimensional volume data, sequentially specifying a cross-sectional area including a cross section of the tubular tissue along the tubular tissue;
Detecting a center position of the tubular tissue in each of the designated cross-sectional areas,
Acquiring three-dimensional path data indicating a center line of the tubular tissue based on the detected center position;
Generating and displaying an image indicating the tubular tissue based on the acquired three-dimensional path data;
A medical image processing method comprising:
前記断面領域を指定するステップは、
前記指定された任意点に基づき、前記管状組織の長尺方向に直交する領域を前記管状組織に沿って順次指定することで前記断面領域を指定する、
ことを特徴とする請求項13に記載の医用画像処理方法。
The step of designating the cross-sectional area includes:
Based on the specified arbitrary point, to specify the cross-sectional area by sequentially specifying a region orthogonal to the longitudinal direction of the tubular tissue along the tubular tissue,
14. The medical image processing method according to claim 13, wherein:
前記断面領域を指定するステップは、
前記指定された任意点に基づく所定の3次元領域を前記管状組織に沿って順次指定することで前記断面領域を指定する、
ことを特徴とする請求項13または14に記載の医用画像処理方法。
The step of designating the cross-sectional area includes:
Specifying the cross-sectional area by sequentially specifying a predetermined three-dimensional area based on the specified arbitrary point along the tubular tissue;
15. The medical image processing method according to claim 13, wherein:
前記中心位置を検出するステップは、
前記3次元ボリュームデータに含まれる所定の特性情報についての閾値を設定するステップと、
設定された閾値に対応する特性情報を用いて各断面領域を画像化するステップと、
前記閾値を変化させることで、当該管状組織の管断面を画像上で顕在化させるステップと、をさらに備え、
該顕在化された管断面を示す画像の中心位置を検出することで、当該管断面の中心位置を検出する、
ことを特徴とする請求項13乃至15のいずれか1項に記載の医用画像処理方法。
The step of detecting the center position includes:
Setting a threshold value for predetermined characteristic information included in the three-dimensional volume data;
Imaging each cross-sectional area using characteristic information corresponding to the set threshold,
By changing the threshold value, the step of visualizing a tube cross section of the tubular tissue on an image, further comprising:
By detecting the center position of the image showing the revealed tube section, the center position of the tube section is detected,
The medical image processing method according to any one of claims 13 to 15, wherein:
前記中心位置を検出するステップは、前記閾値の変化に応じて変化する画像面積の変化に基づいて、前記管状組織の断面が当該画像上で顕在化したか否かを判別する、
ことを特徴とする請求項16に記載の医用画像処理方法。
The step of detecting the center position is based on a change in an image area that changes in accordance with the change in the threshold value, and determines whether or not a cross section of the tubular tissue has been exposed on the image.
17. The medical image processing method according to claim 16, wherein:
前記中心位置を検出するステップは、当該断面領域の中心に現れている画像が、当該断面領域内に収まっており、かつ、前記閾値の変化に応じた面積変化が最大となったときに、前記管状組織の断面が顕在化したと判別する、
ことを特徴とする請求項17に記載の医用画像処理方法。
The step of detecting the center position, the image appearing at the center of the cross-sectional area, is contained in the cross-sectional area, and, when the change in area according to the change of the threshold value is the maximum, Determine that the cross section of the tubular tissue has become apparent,
The medical image processing method according to claim 17, wherein:
前記管状組織を示す画像を生成して表示するステップは、前記3次元パスデータに基づいて当該管状組織についての複数種類の画像を生成し、生成された画像のすべて又はいずれかを、所定の表示装置に一覧表示する、
ことを特徴とする請求項13乃至18のいずれか1項に記載の医用画像処理方法。
The step of generating and displaying an image indicating the tubular tissue includes generating a plurality of types of images of the tubular tissue based on the three-dimensional path data, and displaying all or any of the generated images in a predetermined manner. List on the device,
The medical image processing method according to any one of claims 13 to 18, wherein:
前記管状組織を示す画像を生成して表示するステップは、前記一覧表示される各画像上の位置関係を相互に対応付け、表示画像上で動的にリンクさせる、
ことを特徴とする請求項19に記載の医用画像処理方法。
The step of generating and displaying an image indicating the tubular tissue is associated with the positional relationship on each image displayed in the list, and dynamically linked on the display image,
20. The medical image processing method according to claim 19, wherein:
前記管状組織を示す画像を生成して表示するステップは、前記複数種類の画像として、少なくとも当該管状組織についての3次元画像と2次元画像とを作成する、
ことを特徴とする請求項19または20に記載の医用画像処理方法。
The step of generating and displaying an image indicating the tubular tissue includes creating, as the plurality of types of images, at least a three-dimensional image and a two-dimensional image of the tubular tissue.
21. The medical image processing method according to claim 19, wherein:
前記管状組織を示す画像を生成して表示するステップは、2次元画像としてCPR(Curved Planer Reconstruction)画像を作成し、少なくとも、作成された3次元画像とCPR画像の位置関係を相互に対応付けて表示する、
ことを特徴とする請求項21に記載の医用画像処理方法。
In the step of generating and displaying the image indicating the tubular tissue, a CPR (Curved Planer Reconstruction) image is created as a two-dimensional image, and at least the positional relationship between the created three-dimensional image and the CPR image is associated with each other. indicate,
22. The medical image processing method according to claim 21, wherein:
前記管状組織を示す画像を生成して表示するステップは、
前記3次元パスデータを2次元パスデータに変換するステップと、
前記3次元パスデータと、該変換された2次元パスデータとを関連付けるステップと、をさらに備え、
少なくとも、当該3次元パスデータに基づく画像と、変換された2次元パスデータに基づく画像とを一覧表示させる、
ことを特徴とする請求項19乃至22のいずれか1項に記載の医用画像処理方法。
Generating and displaying an image showing the tubular tissue,
Converting the three-dimensional path data into two-dimensional path data;
Associating the three-dimensional path data with the converted two-dimensional path data.
At least displaying a list of images based on the three-dimensional path data and images based on the converted two-dimensional path data,
The medical image processing method according to any one of claims 19 to 22, wherein:
前記管状組織を示す画像を生成して表示するステップは、所定の付帯情報を取得し、前記生成された各画像とともに一覧表示させる、
ことを特徴とする請求項19乃至23のいずれか1項に記載の医用画像処理方法。
The step of generating and displaying an image indicating the tubular tissue acquires predetermined supplementary information and causes a list to be displayed together with the generated images.
The medical image processing method according to any one of claims 19 to 23, wherein:
コンピュータに、請求項13乃至24のいずれか1項に記載の医用画像処理方法の各ステップを実行させることを特徴とするプログラム。
A program causing a computer to execute each step of the medical image processing method according to claim 13.
JP2003270923A 2003-04-02 2003-07-04 MEDICAL IMAGE PROCESSING DEVICE, MEDICAL IMAGE PROCESSING METHOD, AND PROGRAM Expired - Fee Related JP3984202B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003270923A JP3984202B2 (en) 2003-04-02 2003-07-04 MEDICAL IMAGE PROCESSING DEVICE, MEDICAL IMAGE PROCESSING METHOD, AND PROGRAM
US10/816,978 US7639855B2 (en) 2003-04-02 2004-04-02 Medical image processing apparatus, and medical image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003099649 2003-04-02
JP2003270923A JP3984202B2 (en) 2003-04-02 2003-07-04 MEDICAL IMAGE PROCESSING DEVICE, MEDICAL IMAGE PROCESSING METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2004313736A true JP2004313736A (en) 2004-11-11
JP3984202B2 JP3984202B2 (en) 2007-10-03

Family

ID=33478838

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003270923A Expired - Fee Related JP3984202B2 (en) 2003-04-02 2003-07-04 MEDICAL IMAGE PROCESSING DEVICE, MEDICAL IMAGE PROCESSING METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP3984202B2 (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006246941A (en) * 2005-03-08 2006-09-21 Toshiba Corp Image processing apparatus and vessel tracking method
JP2007097634A (en) * 2005-09-30 2007-04-19 Gifu Univ Image analysis system and image analysis program
WO2007129616A1 (en) * 2006-05-02 2007-11-15 National University Corporation Nagoya University Insertion assist system of endoscope and insertion assist method of endoscope
JP2008000270A (en) * 2006-06-21 2008-01-10 Aze Ltd Biotissue identification image creation method, device and program
JP2008168016A (en) * 2007-01-15 2008-07-24 Fujifilm Corp Ultrasonic diagnostic apparatus, imt measurement method, and imt measurement program
JP2010051730A (en) * 2008-08-29 2010-03-11 Toshiba Corp Image processor
WO2010055817A1 (en) * 2008-11-13 2010-05-20 株式会社 日立メディコ Image processing device and image processing method
JP2011053210A (en) * 2009-08-31 2011-03-17 General Electric Co <Ge> Motion correction in tomographic image
EP2413285A2 (en) 2010-07-28 2012-02-01 Fujifilm Corporation Diagnosis assisting apparatus, diagnosis assisting program, and diagnosis assisting method
EP2423877A1 (en) 2010-08-31 2012-02-29 Fujifilm Corporation Endoscopic image processing device, method and program
JP2013169433A (en) * 2012-02-23 2013-09-02 Aze Ltd Medical image generation processing device and program
CN107180408A (en) * 2016-03-11 2017-09-19 日本医事物理股份有限公司 Image processing system
JP2017176381A (en) * 2016-03-29 2017-10-05 ザイオソフト株式会社 Apparatus, method, and program for processing medical image
DE102019101629A1 (en) 2018-01-30 2019-08-01 Fujifilm Corporation DEVICE FOR GENERATING DEVELOPED IMAGES OF RIBS, METHOD AND PROGRAM
CN112102327A (en) * 2019-06-18 2020-12-18 中国科学院深圳先进技术研究院 Image processing method and device and computer readable storage medium
CN113096091A (en) * 2021-04-07 2021-07-09 推想医疗科技股份有限公司 Image processing method and device, electronic device and storage medium
CN114010216A (en) * 2021-12-20 2022-02-08 重庆医科大学附属第一医院 Airway morphological parameter quantitative acquisition method and device and airway stent design method

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006246941A (en) * 2005-03-08 2006-09-21 Toshiba Corp Image processing apparatus and vessel tracking method
JP2007097634A (en) * 2005-09-30 2007-04-19 Gifu Univ Image analysis system and image analysis program
WO2007129616A1 (en) * 2006-05-02 2007-11-15 National University Corporation Nagoya University Insertion assist system of endoscope and insertion assist method of endoscope
US8509877B2 (en) 2006-05-02 2013-08-13 Olympus Medical Systems Corp. Endoscope insertion support system and endoscope insertion support method
JP4822142B2 (en) * 2006-05-02 2011-11-24 国立大学法人名古屋大学 Endoscope insertion support system and endoscope insertion support method
JP2008000270A (en) * 2006-06-21 2008-01-10 Aze Ltd Biotissue identification image creation method, device and program
JP2008168016A (en) * 2007-01-15 2008-07-24 Fujifilm Corp Ultrasonic diagnostic apparatus, imt measurement method, and imt measurement program
JP2010051730A (en) * 2008-08-29 2010-03-11 Toshiba Corp Image processor
US8478006B2 (en) 2008-08-29 2013-07-02 Kabushiki Kaisha Toshiba Image processing apparatus and image processing method
WO2010055817A1 (en) * 2008-11-13 2010-05-20 株式会社 日立メディコ Image processing device and image processing method
US8693759B2 (en) 2008-11-13 2014-04-08 Hitachi Medical Corporation Image processing device and image processing method
JP2011053210A (en) * 2009-08-31 2011-03-17 General Electric Co <Ge> Motion correction in tomographic image
US8994720B2 (en) 2010-07-28 2015-03-31 Fujifilm Corporation Diagnosis assisting apparatus, diagnosis assisting program, and diagnosis assisting method
EP2413285A2 (en) 2010-07-28 2012-02-01 Fujifilm Corporation Diagnosis assisting apparatus, diagnosis assisting program, and diagnosis assisting method
EP2573735A1 (en) 2010-08-31 2013-03-27 Fujifilm Corporation Endoscopic image processing device, method and program
JP2012050606A (en) * 2010-08-31 2012-03-15 Fujifilm Corp Endoscopic image processing device, method and program
EP2423877A1 (en) 2010-08-31 2012-02-29 Fujifilm Corporation Endoscopic image processing device, method and program
JP2013169433A (en) * 2012-02-23 2013-09-02 Aze Ltd Medical image generation processing device and program
CN107180408A (en) * 2016-03-11 2017-09-19 日本医事物理股份有限公司 Image processing system
JP2017176381A (en) * 2016-03-29 2017-10-05 ザイオソフト株式会社 Apparatus, method, and program for processing medical image
DE102019101629A1 (en) 2018-01-30 2019-08-01 Fujifilm Corporation DEVICE FOR GENERATING DEVELOPED IMAGES OF RIBS, METHOD AND PROGRAM
CN112102327A (en) * 2019-06-18 2020-12-18 中国科学院深圳先进技术研究院 Image processing method and device and computer readable storage medium
CN112102327B (en) * 2019-06-18 2024-02-27 中国科学院深圳先进技术研究院 Image processing method, device and computer readable storage medium
CN113096091A (en) * 2021-04-07 2021-07-09 推想医疗科技股份有限公司 Image processing method and device, electronic device and storage medium
CN113096091B (en) * 2021-04-07 2022-02-08 推想医疗科技股份有限公司 Image processing method and device, electronic device and storage medium
CN114010216A (en) * 2021-12-20 2022-02-08 重庆医科大学附属第一医院 Airway morphological parameter quantitative acquisition method and device and airway stent design method

Also Published As

Publication number Publication date
JP3984202B2 (en) 2007-10-03

Similar Documents

Publication Publication Date Title
US7639855B2 (en) Medical image processing apparatus, and medical image processing method
US7379062B2 (en) Method for determining a path along a biological object with a lumen
JP3984202B2 (en) MEDICAL IMAGE PROCESSING DEVICE, MEDICAL IMAGE PROCESSING METHOD, AND PROGRAM
JP4931027B2 (en) Medical image diagnosis support apparatus and method, and program
EP2157905B1 (en) A method for tracking 3d anatomical and pathological changes in tubular-shaped anatomical structures
JP5591440B2 (en) Medical image display device
US8107701B2 (en) Medical image display system and medical image display program
EP2442278A1 (en) Medical image processing apparatus, method, and program
JP2008510499A (en) Anatomical visualization / measurement system
JP2006246941A (en) Image processing apparatus and vessel tracking method
JP2007144177A (en) Method and apparatus for semi-automatic segmentation technique for low-contrast tubular shaped objects
JPWO2006118100A1 (en) Image display apparatus and program
US10524823B2 (en) Surgery assistance apparatus, method and program
JP5194138B2 (en) Image diagnosis support apparatus, operation method thereof, and image diagnosis support program
US20080031405A1 (en) Image processing method and computer readable medium for image processing
WO2013094205A1 (en) Ultrasound diagnostic apparatus and contour extraction method
CN106952264B (en) Method and device for cutting three-dimensional medical target
JP2009112531A (en) Image display
JP6066197B2 (en) Surgery support apparatus, method and program
JP5486616B2 (en) MEDICAL IMAGE DIAGNOSIS SUPPORT DEVICE, ITS OPERATION METHOD, AND PROGRAM
JP7382059B2 (en) Image processing device, image processing method, and program
KR101540402B1 (en) Method for generating insertion trajectory of surgical needle
JP5992853B2 (en) Surgery support apparatus, method and program
JP3896349B2 (en) Medical image processing apparatus and program
JP5159195B2 (en) Medical image processing device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070626

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070705

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100713

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 3984202

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110713

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110713

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120713

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120713

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130713

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees