JP2006149498A - Image processing program and image processing method - Google Patents

Image processing program and image processing method Download PDF

Info

Publication number
JP2006149498A
JP2006149498A JP2004341518A JP2004341518A JP2006149498A JP 2006149498 A JP2006149498 A JP 2006149498A JP 2004341518 A JP2004341518 A JP 2004341518A JP 2004341518 A JP2004341518 A JP 2004341518A JP 2006149498 A JP2006149498 A JP 2006149498A
Authority
JP
Japan
Prior art keywords
image data
dimensional image
extraction target
dimensional
pixel value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004341518A
Other languages
Japanese (ja)
Other versions
JP4572294B2 (en
Inventor
Masahiko Suzuki
鈴木  昌彦
Hideaki Haishi
秀昭 羽石
Takahiro Kono
高廣 河野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chiba University NUC
Original Assignee
Chiba University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chiba University NUC filed Critical Chiba University NUC
Priority to JP2004341518A priority Critical patent/JP4572294B2/en
Publication of JP2006149498A publication Critical patent/JP2006149498A/en
Application granted granted Critical
Publication of JP4572294B2 publication Critical patent/JP4572294B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing program capable of processing three-dimensional image data and performing the dynamic analysis of an object, and an image processing method. <P>SOLUTION: The image processing program comprises: the step of dividing an extraction object area in each of two or more pieces of three-dimensional image data obtained in a time sequential manner; and the step of obtaining the displacement amount of the plurality of divided extraction object areas. Also, the step of dividing the extraction object area comprises: the step of obtaining a maximum pixel value in the three-dimensional image data; the step of setting a prescribed pixel value smaller than the maximum pixel value; and the step of dividing the three-dimensional image data into two or more pieces of two-dimensional image data, selecting one of them, performing successive scanning from either one side of the selected two-dimensional image data, determining a pixel turned to the prescribed pixel value or larger as a start point, and in the case of judging that the pixel value in the pixel adjacent to the pixel to be the start point is the prescribed pixel value or larger, repeating judgement similarly for the pixel value of the pixel adjacent to the pixel further. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、3次元CT装置や3次元MRI装置等の断層撮像装置を用いて得られた画像データの処理プログラム及び画像の処理方法に関する。   The present invention relates to an image data processing program and an image processing method obtained using a tomographic imaging apparatus such as a three-dimensional CT apparatus or a three-dimensional MRI apparatus.

人体の断層像を取得する断層撮像装置としてはX線CT装置、MRI装置が広く普及しており、特に近年では人体の断層像を複数重ね合わせ3次元画像データを得ることのできる3次元X線CT装置、3次元MRI装置が実現している(例えば下記非特許文献1、2参照)。しかし、従来の3次元CT装置、3次元MRI装置では撮像対象領域が狭く、しかもその撮影に数秒以上の時間を要しており、動きのある被写体の撮影は困難であった。   X-ray CT apparatuses and MRI apparatuses are widely used as tomographic imaging apparatuses for acquiring a tomographic image of a human body. In particular, in recent years, a three-dimensional X-ray capable of obtaining three-dimensional image data by superimposing a plurality of human tomographic images. A CT apparatus and a three-dimensional MRI apparatus are realized (for example, see Non-Patent Documents 1 and 2 below). However, in the conventional three-dimensional CT apparatus and three-dimensional MRI apparatus, the imaging target area is narrow, and it takes a time of several seconds or more for the imaging, and it is difficult to image a moving subject.

これに対し最近になって、広い範囲の撮像が可能でかつ高速連続撮影可能な3次元CT装置の研究開発が行われ、試作機が登場してきた。この装置によって、人体を動かしながら撮影を行い、対象領域の3次元画像データを刻々と取得できるようになった。なお、本明細書では時系列的に得られる3次元画像データを4次元画像データといい、この画像を得ることができる断層撮像装置を4次元断層撮像装置という。特にCT装置の場合は4次元CT装置、MRI装置の場合は4次元MRI装置のように呼ぶこととする。
飯沼武,舘野 之男編著 「X線イメージング」コロナ社 2001年 レイ・H.ハシェミ他著 「MRIの基本パワーテキスト」メディカルサイエンスインターナショナル社 1999年
On the other hand, recently, research and development of a three-dimensional CT apparatus capable of imaging in a wide range and capable of high-speed continuous imaging has been performed, and a prototype has appeared. With this device, it is possible to take a picture while moving the human body and to acquire 3D image data of the target area every moment. In this specification, three-dimensional image data obtained in time series is referred to as four-dimensional image data, and a tomographic apparatus capable of obtaining this image is referred to as a four-dimensional tomographic apparatus. In particular, a CT apparatus is called a four-dimensional CT apparatus, and an MRI apparatus is called a four-dimensional MRI apparatus.
Takeshi Iinuma and Norio Ogino, “X-ray Imaging” Corona, Inc. 2001 Ray H. Hashemi et al. "Basic Power Text of MRI" Medical Science International 1999

これら装置により得られた画像から被写体の構成要素の動態解析を行うことで、従来困難であった医学的知見が得られる可能性がある。このためには、各構成要素を抽出する技術およびそれら時間変化する構成要素を対応付ける技術が必要であるが、新規に登場した4次元断層撮像装置に対してそれらの技術開発は全くなされていない。   By performing dynamic analysis of the constituent elements of the subject from the images obtained by these devices, there is a possibility that medical knowledge that has been difficult in the past can be obtained. For this purpose, a technique for extracting each constituent element and a technique for associating these time-varying constituent elements are necessary, but those techniques have not been developed at all for the newly appeared four-dimensional tomographic imaging apparatus.

そこで、本発明は上記課題を解決し、複数の3次元画像データの処理を行い被写体の動態解析を行うことが可能となる画像処理プログラム、画像処理方法を提供することを目的とする。 Accordingly, an object of the present invention is to provide an image processing program and an image processing method capable of solving the above-described problems and performing a dynamic analysis of a subject by processing a plurality of three-dimensional image data.

上記目的を達成するために、本発明は具体的には以下の手段を採用する。
まず、コンピュータに、時系列的に得られた複数の3次元画像データのそれぞれにおいて抽出対象領域を分割するステップ、分割された複数の前記抽出対象領域の変位量を求めるステップと、を実行させるための画像処理プログラム、とする。
In order to achieve the above object, the present invention specifically adopts the following means.
First, to cause a computer to execute a step of dividing an extraction target region in each of a plurality of three-dimensional image data obtained in time series and a step of obtaining a displacement amount of the plurality of divided extraction target regions. Image processing program.

なお、本手段において、時系列的に得られた複数の3次元画像データのそれぞれにおいて抽出対象領域を分割するステップは、3次元画像データにおける最大の画素値を求めるステップ、求めた最大の画素値よりも小さい所定の画素値を設定するステップ、3次元画像データを複数の2次元画像データに分割してそのいずれかを選択し、選択された2次元画像データのいずれか一側辺から順次走査して所定の画素値以上となった画素を開始点と定め、開始点となる画素と隣接する画素における画素値が上述の所定の画素値以上であると判断した場合、更に画素に隣接する画素の画素値に対し同様に判断を繰返すステップ、を有することも望ましい。   In this means, the step of dividing the extraction target region in each of the plurality of three-dimensional image data obtained in time series includes the step of obtaining the maximum pixel value in the three-dimensional image data, the maximum pixel value obtained A step of setting a predetermined smaller pixel value, dividing three-dimensional image data into a plurality of two-dimensional image data, selecting one of them, and sequentially scanning from one side of the selected two-dimensional image data If the pixel value that is equal to or greater than the predetermined pixel value is determined as the start point, and the pixel value in the pixel adjacent to the pixel that is the start point is determined to be equal to or greater than the predetermined pixel value, the pixel that is further adjacent to the pixel It is also desirable to have a step of repeating the determination in the same manner for the pixel values.

また、本手段において、変位量は、回転及び平行移動の量に基づいて求められること、変位量は、非線形変形のパラメータにも基づいて求められることも望ましい。   In the present means, it is also desirable that the displacement amount is obtained based on the amount of rotation and translation, and the displacement amount is also obtained based on the parameter of nonlinear deformation.

また、本手段において、分割された前記抽出対象領域の変位量を求めるステップは、時系列的に得られた複数の3次元画像データそれぞれに対し、分割された抽出対象領域をスライスする2次元画像データを複数選択し、そのそれぞれの2次元画像データにおける抽出対象領域の重心点を求め、求めた複数の重心点から抽出対象領域の軸を定め、軸の変位量を求めるステップ、を有することも望ましい。 Further, in the present means, the step of obtaining the displacement amount of the divided extraction target region is a two-dimensional image that slices the divided extraction target region for each of a plurality of three-dimensional image data obtained in time series. Selecting a plurality of data, obtaining a centroid point of the extraction target region in each of the two-dimensional image data, determining an axis of the extraction target region from the obtained plurality of centroid points, and obtaining a displacement amount of the axis. desirable.

また抽出対象領域は3次元画像データのそれぞれにおいて複数抽出されることも望ましく、その際に、分割された複数の抽出対象領域の変位量を求めるステップは、時系列的に得られた複数の3次元画像データそれぞれに対し、分割された抽出対象領域をスライスする2次元画像データを複数選択し、そのそれぞれの2次元画像データにおける抽出対象領域の重心点を求め、求めた複数の重心点から抽出対象領域の軸を定め、軸の変位量を求めるステップ、を有すること、分割された複数の前記抽出対象領域の時系列的な変位量を求めるステップは、更に、時系列的に得られた複数の3次元画像データにおいて分割された抽出対象領域同士の最短距離を求めるステップ、を有することも望ましい。   It is also desirable that a plurality of extraction target regions be extracted in each of the three-dimensional image data. At this time, the step of obtaining the displacement amounts of the plurality of divided extraction target regions is a plurality of time-series obtained three. For each of the two-dimensional image data, a plurality of two-dimensional image data for slicing the divided extraction target area is selected, the center of gravity of the extraction target area in each of the two-dimensional image data is obtained, and extracted from the obtained plurality of center of gravity points Determining the axis of the target region and determining the amount of displacement of the axis, and determining the time-series displacement amount of the plurality of divided extraction target regions further includes a plurality of time-series obtained It is also desirable to have a step of obtaining the shortest distance between the extraction target areas divided in the three-dimensional image data.

以上により本発明は、複数の3次元画像データの処理を行い被写体の動態解析を行うことが可能となる画像処理プログラム、画像処理方法を提供することができる。 As described above, the present invention can provide an image processing program and an image processing method that can perform a dynamic analysis of a subject by processing a plurality of three-dimensional image data.

以下、本発明の実施の形態の一例について、図面を用いて説明する。
本実施形態に係る画像処理プログラムは、時系列的に得られる3次元画像データ(4次元画像データ)に対し、各時刻における3次元画像データ内の構成要素を抽出し、それらの形状の時間変化を追うことで構成要素の形状変化を取得できるものである。この方法の適用先としては、特に最近研究開発がなされ試作機が作られている4次元CT装置が好適であり、本実施形態では4次元CT装置に適用した例を具体的に説明する。
Hereinafter, an example of an embodiment of the present invention will be described with reference to the drawings.
The image processing program according to the present embodiment extracts the constituent elements in the 3D image data at each time from the 3D image data (4D image data) obtained in time series, and changes their shapes over time. The shape change of the component can be acquired by following the above. As an application destination of this method, a four-dimensional CT apparatus that has been recently researched and developed and for which a prototype has been made is preferable. In this embodiment, an example applied to a four-dimensional CT apparatus will be specifically described.

まず4次元CT装置の基本原理と試作機での性能を説明する。
図1は4次元CT装置の原理を示すための図である。図1(a)で示すように、本実施形態に係る4次元CT装置は、面状にX線を放射するX線源1と、このX線源が放射するX線を検出する2次元の検出器2と、を有して構成されており、X線源1と2次元検出器2とは測定対象となる被写体3を間に挟んで回転する(このように2次元検出器とX線管を被写体の周りに回転させる方式を採用するCT装置は一般にコーンビームCT装置とも呼ばれている)。より具体的に説明すると、図1(b)で示すように、本実施形態に係る4次元CT装置はX線源1と2次元検出装置2とがリング4に固定されており、リング4を回転させてもそれらの位置関係を一定に保つことができる。そして一回の回転中複数の2次元のX線強度データを取得し、それらに対し画像再構成処理を行うことで3次元CT画像データを得ることができる。被写体3は測定中においてリング4の回転中心近傍で運動を行うが、運動は時間分解されそれぞれの時間における3次元画像データとして複数取得され、4次元画像データとなる。なお、2次元のX線強度データ、3次元画像データ、4次元画像データなどの各種画像データ、更にはこれら各種画像データを処理するためのプログラムは断層撮像装置内の記録媒体若しくは断層撮像装置に電気的に接続されるパーソナルコンピュータの記録媒体に格納され、必要に応じて加工又は実行され、各種画像データ、プログラム以外の部分については周知の構成を採用することができる。
First, the basic principle of the four-dimensional CT apparatus and the performance of the prototype will be described.
FIG. 1 is a diagram for illustrating the principle of a four-dimensional CT apparatus. As shown in FIG. 1A, the four-dimensional CT apparatus according to the present embodiment includes an X-ray source 1 that emits X-rays in a plane and a two-dimensional detector that detects X-rays emitted from the X-ray source. The X-ray source 1 and the two-dimensional detector 2 rotate with the subject 3 to be measured interposed therebetween (in this way, the two-dimensional detector and the X-ray A CT apparatus that employs a method of rotating a tube around a subject is generally called a cone beam CT apparatus). More specifically, as shown in FIG. 1B, in the four-dimensional CT apparatus according to the present embodiment, the X-ray source 1 and the two-dimensional detection apparatus 2 are fixed to the ring 4. Even if they are rotated, their positional relationship can be kept constant. Then, a plurality of two-dimensional X-ray intensity data is acquired during one rotation, and three-dimensional CT image data can be obtained by performing image reconstruction processing on the two-dimensional X-ray intensity data. The subject 3 moves in the vicinity of the center of rotation of the ring 4 during measurement, but the movement is time-resolved, and a plurality of pieces are acquired as three-dimensional image data at each time to become four-dimensional image data. Various image data such as two-dimensional X-ray intensity data, three-dimensional image data, and four-dimensional image data, and a program for processing these various image data are stored in a recording medium in the tomographic imaging apparatus or the tomographic imaging apparatus. It is stored in a recording medium of an electrically connected personal computer, processed or executed as necessary, and a well-known configuration can be adopted for portions other than various image data and programs.

なおここで、図2に各3次元CT画像データ構成について図を用いて説明する。図2で示すように、本実施形態に係る3次元CT画像データは複数の2次元CT画像データの積み重ねとして表現されたものとなっている。なお2次元画像データとは2次元的に配列した複数の画素からなる画像データであり、3次元画像データとは3次元的に配列した複数の画素からなる画像データである。なお図2は人間の膝関節における3次元CT画像データ構成の模式図である。   Here, the configuration of each three-dimensional CT image data will be described with reference to FIG. As shown in FIG. 2, the 3D CT image data according to the present embodiment is expressed as a stack of a plurality of 2D CT image data. The two-dimensional image data is image data composed of a plurality of pixels arranged two-dimensionally, and the three-dimensional image data is image data composed of a plurality of pixels arranged three-dimensionally. FIG. 2 is a schematic diagram of a three-dimensional CT image data configuration in a human knee joint.

本実施例に係る4次元CT装置では、ドラムの回転を高速にしかも複数回回転させ、それぞれの回転における3次元画像を取得し、時系列に並んだ3次元CT画像データ即ち4次元CT画像データを得ることができるため、これらが更に所定の時間に相当する分だけ取得されることとなる。本実施形態に係る4次元CT装置では、幅23cm、(ドラム円周方向の)長さ90cmの2次元検出器を回転数2回/秒回転させ、サイズが回転面内で約240mm×240mm(512×512画素)、回転軸方向に128mm(256スライス)、空間分解能等方的に約0.5mm、時間分解能0.5秒の4次元CT画像データを得ることができている。なおドラムの直径や検出器のサイズ等といった諸条件については4次元CT画像データをとることができる限りにおいて特段制限がされるわけではなく、適宜調整が可能である。   In the four-dimensional CT apparatus according to the present embodiment, the drum is rotated at a high speed and a plurality of times, a three-dimensional image at each rotation is acquired, and three-dimensional CT image data arranged in time series, that is, four-dimensional CT image data. Therefore, these are acquired for an amount corresponding to a predetermined time. In the four-dimensional CT apparatus according to the present embodiment, a two-dimensional detector having a width of 23 cm and a length of 90 cm (in the drum circumferential direction) is rotated at a rotation speed of 2 times / second, and the size is about 240 mm × 240 mm in the rotation plane ( 512 × 512 pixels), 128 mm (256 slices) in the direction of the rotation axis, spatial resolution isotropic about 0.5 mm, and time resolution of 0.5 seconds can be obtained. Various conditions such as the diameter of the drum and the size of the detector are not particularly limited as long as the four-dimensional CT image data can be obtained, and can be appropriately adjusted.

以上、被写体が動いている場合(例えば膝関節が運動している場合)であっても撮影することが可能となり、その時系列に並んだ3次元CT画像データ(4次元CT画像データ)データが得られる。   As described above, even when the subject is moving (for example, when the knee joint is moving), it is possible to take an image, and three-dimensional CT image data (four-dimensional CT image data) data arranged in time series is obtained. It is done.

次に、この4次元CT画像データを処理する本実施形態に係る画像処理プログラム(以下「本プログラム」ともいう。)の実行による処理について具体的に説明する。   Next, processing by executing an image processing program (hereinafter also referred to as “this program”) according to the present embodiment for processing the four-dimensional CT image data will be specifically described.

本プログラムの処理は、大きく2つのステップを有して構成される。第1のステップは各フレーム(各時点)における3次元画像データから分析対象となる構成要素を抽出するステップであり、第2のステップは抽出結果を用いて種々の解析を行うステップである。なお図3に本プログラムのステップに関するフローチャートの概要を示し、詳細について以下説明する。本プログラムはこのように構成要素を抽出し、骨や血液等、着目したい構成要件のみについて時系列データを取得し、詳細に検討することを可能とする。   The processing of this program is mainly composed of two steps. The first step is a step of extracting components to be analyzed from the three-dimensional image data in each frame (each time point), and the second step is a step of performing various analyzes using the extraction results. FIG. 3 shows an outline of a flowchart regarding the steps of this program, and details will be described below. In this way, the program extracts the constituent elements, obtains time-series data only for the constituent requirements to be focused on, such as bone and blood, and makes it possible to examine in detail.

まず、各構成要素を抽出する第1のステップについて述べる。本ステップは、対象とする構成要素が有する画素値の範囲と、空間位置の特徴に注目し、この要素を簡便に抽出できるよう工夫している。ここで対象とする構成要素としては例えば膝関節等の骨、血管、神経等人体の様々な部位が該当し、これらは3次元画像データとして把握されたとき、3次元的に連結された領域として表される。なお、ここで画素値とは、X線の吸収係数に対応した値をいい、X線の吸収係数が大きいほど大きな値として把握されるものである。   First, the first step of extracting each component will be described. In this step, attention is paid to the range of pixel values of the target component and the feature of the spatial position, and it is devised so that this element can be easily extracted. Here, for example, various components of the human body such as bones such as knee joints, blood vessels, and nerves, and the like are considered as three-dimensionally connected regions when grasped as three-dimensional image data. expressed. Here, the pixel value refers to a value corresponding to the X-ray absorption coefficient, and is understood as a larger value as the X-ray absorption coefficient is larger.

上記3次元的に連結された領域の抽出法としては、一般的な領域拡張法を基礎として利用することができる。まず、一般的な領域拡張法について図4を用いて説明する。   As a method for extracting the three-dimensionally connected regions, a general region expansion method can be used as a basis. First, a general region expansion method will be described with reference to FIG.

この方法では、まず適当な開始点を抽出したい構成要素の領域(以下「抽出対象領域」という。)の一点として選択し、その次に開始点と隣接している画素に着目し、その隣接する画素の値が所定の画素値の範囲にある場合は抽出対象領域として、範囲にない場合は非抽出対象領域とする。そして対象領域として抽出された場合は更にその隣接する画素の値について先ほどと同様に所定の画素値の範囲か否かを判断することを繰返し、対象領域を拡張させていく。これにより、抽出対象領域を特定する。   In this method, first, an appropriate starting point is selected as one point of a component region (hereinafter referred to as “extraction target region”) to be extracted, and then attention is paid to a pixel adjacent to the starting point, and the adjacent starting point is selected. When the pixel value is within the range of the predetermined pixel value, it is set as an extraction target region. If the pixel is extracted as the target region, it is further repeated whether the value of the adjacent pixel is within a predetermined pixel value range as before, and the target region is expanded. Thereby, the extraction target area is specified.

より具体的に説明する。図4で示すように、ある位置(x、y、z)を開始点5とし、その点における画素値f(x、y、z)が下記式(1)を満たす場合、当該位置が抽出対象領域内の一点であると判断する。
This will be described more specifically. As shown in FIG. 4, when a certain position (x, y, z) is set as the start point 5 and the pixel value f (x, y, z) at the point satisfies the following expression (1), the position is an extraction target. Judged as one point in the area.

そして、上記式(1)を満たしていると判断された場合、L(x、y、z)のラベルを付す。L(x、y、z)は、この点が抽出対象領域であることを意味するラベルである。そして、このラベルが付された座標に隣接する画素それぞれに対し、下記式(2)で示される判断処理を行いこれを繰り返すことにより、抽出対象領域を定めていくことができるのである。
And when it is judged that the said Formula (1) is satisfy | filled, the label of L (x, y, z) is attached | subjected. L (x, y, z) is a label indicating that this point is an extraction target region. Then, the extraction target area can be determined by performing the determination process represented by the following formula (2) for each pixel adjacent to the coordinate with the label and repeating this.

この方法では回始点の設定を手動で行うのが通常である。しかしながら、本実施形態に係る4次元CT画像データは、3次元CT画像データが更に時系列で多数並べられたものであるため、時々刻々対象領域が変化する各3次元CT画像データ各々に対し手動で開始点を定めていくことは極めて困難である。そこで本実施形態では、以下の方法により自動化を可能とした。図5に本実施形態にかかる開始点探索のアルゴリズムを説明するための模式図を示す。   In this method, the starting point is usually set manually. However, since the four-dimensional CT image data according to the present embodiment is obtained by further arranging a large number of three-dimensional CT image data in time series, each of the three-dimensional CT image data whose target region changes every moment is manually applied. It is extremely difficult to determine the starting point. Therefore, in the present embodiment, automation is possible by the following method. FIG. 5 is a schematic diagram for explaining an algorithm for starting point search according to the present embodiment.

本プログラムの第1のステップでは、まず4次元CT画像データのうちのいずれかの3次元CT画像をひとつ選択し、その3次元画像データのうち最も大きな画素値を探す。そしてこの画素値を求め、この画素値に1以下の適切な範囲の値を設定し、抽出対象領域における画素値の範囲を定める。これにより上記式(1)及び(2)の判断の範囲を定めることができる。   In the first step of this program, first, one of the three-dimensional CT images is selected from the four-dimensional CT image data, and the largest pixel value is searched for in the three-dimensional image data. Then, this pixel value is obtained, a value in an appropriate range of 1 or less is set to this pixel value, and the range of pixel values in the extraction target region is determined. Thereby, the range of judgment of said Formula (1) and (2) can be defined.

次に、上記画素値の範囲を定めた後、開始点の探索を開始する。本ステップでは3次元CT画像データを構成する複数の2次元CT画像データひとつを選択し、更にその2CT次元画像データの一辺の画素列又は行から順次開始点の捜査を行う。具体的に図5のイメージ図で説明すると、まず3CT次元画像データを構成する複数の2次元画像データのうちいずれかの一側面に相当する2次CT元画像データ6を選択する。そしてその2次CT元画像データ6のうち、適当な一辺の行7を選択し、その行7において所望の画素値の条件を満たす開始点を順次探索し(図中(1)の方向)、条件を満たす点が無い場合は次の行へと移動し(図中(2)の方向)、開始点を繰り返し探索していく。なお、それでも2次元CT画像データ6において予め定めた開始点の条件を満たした点が見つからない場合は、隣の2次元CT画像データに移り(図中(3)の方向)、開始点を探索し、見つかるまでこれを繰り返す。これにより、高い精度で抽出対象領域を定めることができる。   Next, after the range of the pixel value is determined, the search for the start point is started. In this step, one of a plurality of two-dimensional CT image data constituting the three-dimensional CT image data is selected, and the start point is sequentially searched from a pixel column or row on one side of the two-CT image data. Specifically, referring to the image diagram of FIG. 5, first, the secondary CT original image data 6 corresponding to any one of the two-dimensional image data constituting the 3CT-dimensional image data is selected. Then, an appropriate side row 7 is selected from the secondary CT original image data 6, and a start point that satisfies a desired pixel value condition is sequentially searched in the row 7 (direction (1) in the figure). If there is no point that satisfies the condition, the process moves to the next line (direction (2) in the figure), and the start point is repeatedly searched. If a point satisfying the predetermined start point condition is not found in the two-dimensional CT image data 6, the process moves to the next two-dimensional CT image data (direction (3) in the figure) and searches for the start point. And repeat this until it is found. Thereby, the extraction target area can be determined with high accuracy.

3次元CT画像データを構成する2次元CT画像データのいずれを選択するか、2次元CT画像データのうちのどの一辺の画素列又は行を選択するかについては、抽出対象領域としたい構成要素が3次元CT画像データのどの位置にあるか3次元画像データを視覚化し予め定めておくことが有用である。なお図5の例は、大腿骨と脛骨とが描出されている膝関節近傍の3次元CT画像データであって(但し大腿骨については見えない)、符号6で示される2次元CT画像は脛骨を下側から見た場合の2次元CT画像データである。   Which one of the two-dimensional CT image data constituting the three-dimensional CT image data is to be selected and which one side of the two-dimensional CT image data is to be selected is selected as a component to be extracted. It is useful to visualize the three-dimensional image data in advance to determine the position of the three-dimensional CT image data. The example in FIG. 5 is 3D CT image data in the vicinity of the knee joint where the femur and tibia are depicted (however, the femur cannot be seen), and the 2D CT image indicated by reference numeral 6 is the tibia. Is two-dimensional CT image data when viewed from below.

即ち本プログラムはこのような処理を行うことで開始点が容易に探索可能となり、更に3次元の領域拡張法を適用することで非常に煩雑な手動による開始点の指定の繰り返しを必要とすることなく簡便に脛骨の抽出を行うことができる。なお、大体骨や膝蓋骨など他の骨についても同様の考え方に基づき、適切な2次元CT画像データ、およびその一辺を選択し、そこからスキャンを開始し、高い精度で大体骨における開始点を見つけることができる。   In other words, this program makes it possible to easily search for the starting point by performing such processing, and further, it is necessary to repeatedly specify the starting point manually by applying a three-dimensional region expansion method. And the tibia can be extracted easily. For other bones such as the main bone and patella, based on the same concept, select appropriate 2D CT image data and one side, start scanning from there, and find the start point of the main bone with high accuracy. be able to.

なお上述のように本実施形態では予め3次元画像データを視覚化し、開始点探索を行う2次元CT画像データの一辺を定めておくことが有用であるが、一つの抽出対象領域に該当する骨に対して探索を開始する2次元CT画像データの一辺を選択させ、一つの抽出対象領域を決定した後、この抽出対象領域を抽出対象から外し、更に同じ一辺から開始点の探索を行うようにすることが可能であり、このようにすれば一度選択した抽出対象領域を再度抽出対象領域として選んでしまうことを防ぎ、これ以外の他の骨を抽出対象領域として選定することが非常に容易にできるようになる。特に所望の範囲に含まれる画素値を示す構成要素を抽出対象領域としたい場合であれば、2次元CT画像データの一側辺を選択する作業さえも省略可能となる。なお図6に膝関節における抽出対象領域を分割した結果について示す。図6は大腿骨および脛骨についての分割を環状断(coronal)面から見た場合、矢状断(sagittal)面から見た場合の両方を示している。また図7にこの領域分割の結果から得られる表面画像を示す。なお、本プログラムは各時刻における表画像を時系列的に表示させていくことにより、動画像として表示させることができる。   As described above, in this embodiment, it is useful to visualize the three-dimensional image data in advance and determine one side of the two-dimensional CT image data for starting point search, but the bone corresponding to one extraction target region After selecting one side of the two-dimensional CT image data for starting the search and determining one extraction target region, this extraction target region is excluded from the extraction target, and the search for the starting point is further performed from the same side. In this way, it is possible to prevent selecting the extraction target area once selected as the extraction target area, and it is very easy to select other bones as the extraction target area. become able to. In particular, when it is desired to use a component indicating a pixel value included in a desired range as an extraction target region, even the operation of selecting one side of the two-dimensional CT image data can be omitted. FIG. 6 shows the result of dividing the extraction target region in the knee joint. FIG. 6 shows both divisions of the femur and tibia when viewed from the coronal plane and from the sagittal plane. FIG. 7 shows a surface image obtained from the result of the region division. In addition, this program can be displayed as a moving image by displaying the table image at each time in time series.

なお本ステップは高いX線の吸収を示す骨について行うことで画像データの取得に特段の処理を行うことなく開始点を定めることができたが、X線の吸収のあまり高くない部位に対しても同様に行いたい場合、例えば血液や関節軟骨等に対しても行いたい場合は、造影剤等の投与を行うことにより血液や関節軟骨の画素値を高めることができ、本ステップを適用させることができる。   In addition, although this step was performed on a bone exhibiting high X-ray absorption, the starting point could be determined without performing special processing for acquisition of image data. If you want to do the same, for example for blood or articular cartilage, you can increase the pixel value of blood or articular cartilage by administering a contrast medium etc. Can do.

次に第2のステップについて説明する。本ステップでは多様な解析が可能であるが,まず基本になるのがフレーム間で対応する領域ごとに位置合わせを行い、分割された抽出対象領域の時間的な変位量(以下単に「変位量」ともいう。)を算出することである。まずここでは運動の前後において局所的な変形がないとみなせる骨を対象とし、剛体としての回転及び平行移動で変位量を算出する。   Next, the second step will be described. Although various analyzes are possible in this step, the basic one is to perform alignment for each corresponding region between frames, and to calculate the temporal displacement amount of the divided extraction target region (hereinafter simply referred to as “displacement amount”). Is also calculated). First, here, a bone that can be regarded as having no local deformation before and after the motion is targeted, and the amount of displacement is calculated by rotation and translation as a rigid body.

ここで図8を用いて変位量の算出について説明する。図8は変位量の算出の原理を示す概念図である。まず移動量算出にあたり、移動前の画像と移動後の画像とを、それぞれ、f1(p1)、f2(p2)と表す。ここでp1、p2は画素位置を表す列ベクトルであり、xyzを用いて表すと、p1=[x1、y1、z1]p2=[ x2、y2、z2]t、と表すことができる。ただし、[ ]tは行列、ベクトルの転置を表す。 Here, the calculation of the displacement amount will be described with reference to FIG. FIG. 8 is a conceptual diagram showing the principle of calculating the displacement amount. First, in calculating the movement amount, an image before movement and an image after movement are represented as f 1 (p 1 ) and f 2 (p 2 ), respectively. Here, p 1 and p 2 are column vectors representing pixel positions, and when expressed using xyz, p 1 = [x 1 , y 1 , z 1 ] t p2 = [x 2 , y 2 , z 2 ] t . However, [] t represents transposition of a matrix and a vector.

上記の表現の下、剛体変換は次式で与えられる。
Under the above expression, the rigid transformation is given by

なおRは回転を表す3×3の行列であって、z軸、x軸、y軸のまわりの回転をそれぞれθ、α、βとして次のような式で表される。
Note that R is a 3 × 3 matrix representing rotation, and the rotations around the z-axis, x-axis, and y-axis are represented by the following equations, where θ, α, and β are respectively represented.

また,tは移動を表すベクトルであり,x軸、y軸、z軸各方向の移動量を用いて次のような式で表される。
Further, t is a vector representing movement, and is expressed by the following equation using movement amounts in the x-axis, y-axis, and z-axis directions.

以上、上記の剛体変形によって移動前の画像が変換され、移動後の画像に一致したとすれば、その場合それら画素毎の画素値の差の二乗和、即ち
が0となるはずである。しかし実際には、上記の評価関数を最小とするように、回転と平行移動のパラメータθ、α、β、t、t、tの6つを適当な最適化のアルゴリズムを用いて決定する。なお、上記の評価関数を最小とするかわりに、2枚の画像の相互相関を最大にするようにパラメータを求めてもよい。以上の処理により、2つの物体間の変位量が得られる。
As described above, if the image before the movement is converted by the rigid body deformation and matches the image after the movement, in that case, the sum of squares of the difference between the pixel values for each pixel, that is,
Should be zero. However, in practice, so as to minimize the evaluation function of the parameters of the rotation and translation θ, α, β, t x , t y, using an algorithm of the six suitable optimization t z determined To do. Instead of minimizing the above evaluation function, parameters may be obtained so as to maximize the cross-correlation between the two images. With the above processing, the displacement amount between the two objects is obtained.

以上の基本処理が終わった後には、医学的に有用な種々の解析が可能になる。   After the above basic processing is completed, various medically useful analyzes are possible.

本実施形態では、抽出対象領域として剛体と考えることができる骨を用いている。即ち骨の場合は回転と平行移動のみで変位量を容易に求めることができる。しかし一方、血管や軟骨などの軟体の場合は局所的な変形が入ってくるため、回転と平行移動だけでは正確な変位量を求めることは難しいが、上記に加え、非線形変換のパラメータを更に加えることで変位量を得ることができる。具体的には、対象領域上の各点に対して変位量を求めることで実現できる。以下に説明する。   In this embodiment, a bone that can be considered as a rigid body is used as the extraction target region. That is, in the case of bone, the amount of displacement can be easily obtained only by rotation and translation. On the other hand, in the case of soft bodies such as blood vessels and cartilage, local deformation is included, so it is difficult to obtain an accurate displacement amount only by rotation and translation, but in addition to the above, parameters for nonlinear transformation are further added. Thus, the displacement amount can be obtained. Specifically, it can be realized by obtaining a displacement amount for each point on the target region. This will be described below.

まずこの場合、位置p1における変形量のx、y、z成分を
と書くことにすると、剛体変換の際の変換式p2=Rp1+tに対応する式は
と書ける。また,剛体変換の際の評価関数は
と書き直すことができる。ここで、求めるべきパラメータはΔp(p1)となる(図9参照)。これにより剛体だけでなく軟体に対しても変位量を求めることができるようになる。
First, in this case, the x, y and z components of the deformation amount at the position p 1 are
The expression corresponding to the transformation formula p 2 = Rp 1 + t for rigid transformation is
Can be written. The evaluation function for rigid body transformation is
Can be rewritten. Here, the parameter to be obtained is Δp (p 1 ) (see FIG. 9). As a result, the displacement amount can be obtained not only for the rigid body but also for the soft body.

なお、この方法で局所的な変形の情報が得られた場合、予め軟骨等がもつ弾性係数等の力学的諸係数を別途計測し、これら諸係数の分布と構成要素の各点に加わる力の分布を与えることで変形量の分布を微分方程式にしたがって決定することができ、逆に、上記方法で得られた変形量の分布から微分方程式を解くことによって構成要素の各点に加わっている力のベクトル分布を推定することが可能となる(図10参照)。   In addition, when local deformation information is obtained by this method, mechanical factors such as elastic modulus of cartilage etc. are separately measured in advance, and the distribution of these factors and the force applied to each point of the component By providing the distribution, the deformation distribution can be determined according to the differential equation. Conversely, the force applied to each point of the component by solving the differential equation from the deformation distribution obtained by the above method. It is possible to estimate the vector distribution (see FIG. 10).

次に、膝の屈曲角に対する大腿骨−脛骨間の最近接点間距離および最近接点位置の推移をグラフ化する方法について図11を用いて説明する。 Next, a method of graphing the transition between the nearest contact distance between the femur and the tibia and the nearest contact position with respect to the knee flexion angle will be described with reference to FIG.

膝の屈曲角を得るためには、まず、大腿骨と脛骨の骨軸を取得する必要がある。骨軸抽出は以下のような方法で行う。まず、抽出対象領域である骨領域をスライスする任意の枚数(N枚)の2次元CT画像データより、骨領域の重心点を数学的に算出し、求めた複数の重心点の3次元的なばらつきに対して主成分分析を行い、結果として得られた第一主成分の軸を骨軸とする(図11(a))。この軸は大腿骨と脛骨、関係を調べたい複数の骨に対して行う。そして上記の方法を骨軸に対して同様に用いて得られた変位量を用いてこの骨軸を剛体変換し例えば膝の屈曲角θを得ることができる。これにより屈曲角による膝の解析が可能となる(図11(b))。 In order to obtain the knee flexion angle, it is first necessary to obtain the femoral and tibia bone axes. The bone axis is extracted by the following method. First, a centroid point of a bone region is mathematically calculated from an arbitrary number (N) of two-dimensional CT image data for slicing a bone region as an extraction target region, and a three-dimensional representation of the obtained plurality of centroid points is performed. Principal component analysis is performed on the variation, and the axis of the first principal component obtained as a result is used as the bone axis (FIG. 11A). This axis is applied to the femur and tibia, and multiple bones whose relationship is to be examined. Then, the bone axis can be converted into a rigid body by using the amount of displacement obtained by using the above method in the same manner with respect to the bone axis, for example, to obtain the knee flexion angle θ. As a result, the knee can be analyzed based on the bending angle (FIG. 11B).

また次に、大腿骨-脛骨間の最短距離を外側顆、内側顆で求める方法について図12を用いて説明する。大腿骨-脛骨間の最短距離は外側顆、内側顆それぞれにおいて、骨として抽出された全画素について大腿骨-脛骨間の距離が最小になる点の組合せを全数探索により求める(図12(a)参照)。ただし、このようにして求めた最短距離Dminの点は量子化による変動を強く受けるため、得られた最短距離から多少の余裕δをみた距離
の範囲に入る組み合わせをすべて用い、それらに距離に応じた重み付けをした上で重心を算出し、最近接点とする(図12(b))。
Next, a method for obtaining the shortest distance between the femur and the tibia using the lateral condyle and the medial condyle will be described with reference to FIG. The shortest distance between the femur and the tibia is obtained by exhaustive search for the point where the distance between the femur and the tibia is minimized for all pixels extracted as bones in the lateral condyle and the medial condyle (FIG. 12A). reference). However, since the point of the shortest distance Dmin obtained in this way is strongly subject to fluctuations due to quantization, the distance obtained with a slight margin δ from the obtained shortest distance.
All combinations that fall within the range are used, weighted according to the distance, and the center of gravity is calculated as the closest point (FIG. 12B).

以上の処理を、各時系列的に並べられた3次元CT画像データそれぞれに行なうことにより、最接近点の時間推移を追うことが可能になる(図12(c))。さらに、上で述べた屈曲角を横軸にとり、最接近点間の距離を縦軸にとったグラフを描くことできる。なお、この場合、最接近点の座標も同時に取得できているため、この点の推移を時系列的に表示して動画像として表示するといったことも可能である。 By performing the above processing on each of the three-dimensional CT image data arranged in time series, it is possible to follow the time transition of the closest point (FIG. 12C). Further, it is possible to draw a graph with the bending angle described above on the horizontal axis and the distance between the closest points on the vertical axis. In this case, since the coordinates of the closest point can be acquired at the same time, the transition of this point can be displayed in time series and displayed as a moving image.

以上、4次元CT装置等の4次元撮像装置で得られた骨や軟骨と神経、血管などの軟部組織の3次元連続画像(動態画像)を各要素画像に細分化し、それらの各画像間で同一部分である構成要素をマッチングさせることで構成要素の変位を解析できる。骨などの硬組織では、位置情報の変化(動きの変化)を解析でき、軟部組織ではどのように形状が変化していくかを解析できることで、病気の診断、治療方法の決定、治療効果の判定に使用することができる。   As described above, a three-dimensional continuous image (dynamic image) of soft tissues such as bones, cartilage, nerves, and blood vessels obtained by a four-dimensional imaging device such as a four-dimensional CT device is subdivided into element images, and between those images. The displacement of the component can be analyzed by matching the component that is the same part. In hard tissues such as bones, it is possible to analyze changes in position information (changes in movement), and in soft tissues, it is possible to analyze how the shape changes, thereby diagnosing diseases, determining treatment methods, Can be used for judgment.

なお、本実施形態では4次元CT装置を用いた例を説明したが、上述のとおり、同様の手法により画像を解析することができる限りにおいて4次元MRI装置など他の撮像装置により得られた4次元画像データに対しても同様に適用が可能である。   In the present embodiment, an example using a four-dimensional CT apparatus has been described. However, as described above, as long as an image can be analyzed by the same method, 4 obtained by another imaging apparatus such as a four-dimensional MRI apparatus is used. The same can be applied to the dimensional image data.

4次元CT装置の原理を示すための図。The figure for showing the principle of a four-dimensional CT apparatus. 人間の膝関節における3次元CT画像データの模式図。The schematic diagram of the three-dimensional CT image data in a human knee joint. プログラムの処理を示すフローチャート図Flowchart diagram showing program processing 3次元CT画像データ構成について説明する図。The figure explaining a 3-dimensional CT image data structure. 開始点探索のアルゴリズムを説明するための模式図。The schematic diagram for demonstrating the algorithm of a starting point search. 膝関節における抽出対象領域を分割した結果について示す図。The figure shown about the result of having divided | segmented the extraction object area | region in a knee joint. 領域分割の結果から得られる表面画を示す図。The figure which shows the surface image obtained from the result of an area | region division. 変位量の算出の原理を示す概念図。The conceptual diagram which shows the principle of calculation of displacement amount. 軟体に対し非線形変換のパラメータを更に加えることで変位量を得る場合の概念図。The conceptual diagram in the case of obtaining the amount of displacement by further adding the parameter of nonlinear transformation to a soft body. 局所的な変形の情報と荷重との関係についての概念図。The conceptual diagram about the relationship between the information of local deformation | transformation, and a load. 膝の屈曲角に対する大腿骨−脛骨間の最近接点間距離および最近接点位置の推移をグラフ化する方法について説明する図。The figure explaining the method of graphing transition of the distance between the nearest contacts between the femur and the tibia and the transition of the nearest contact position with respect to the knee flexion angle. 大腿骨-脛骨間の最短距離を外側顆、内側顆で求める方法について説明する図。The figure explaining the method of calculating | requiring the shortest distance between a femur-tibia by a lateral condyle and a medial condyle.

符号の説明Explanation of symbols

1…X線源、2…2次元検出器、3…被写体、4…リング、5…開始点
DESCRIPTION OF SYMBOLS 1 ... X-ray source, 2 ... Two-dimensional detector, 3 ... Subject, 4 ... Ring, 5 ... Starting point

Claims (8)

コンピュータに、時系列的に得られた複数の3次元画像データのそれぞれに対して抽出対象領域を分割するステップ、前記分割された複数の前記抽出対象領域における変位量を求めるステップと、を実行させるための画像処理プログラム。   Causing a computer to execute a step of dividing an extraction target region for each of a plurality of three-dimensional image data obtained in time series, and a step of obtaining a displacement amount in the plurality of divided extraction target regions. Image processing program. 前記時系列的に得られた複数の3次元画像データのそれぞれにおいて抽出対象領域を分割するステップは、前記3次元画像データにおける最大の画素値を求めるステップ、前記求めた最大の画素値よりも小さい所定の画素値を設定するステップ、前記3次元画像データを複数の2次元画像データに分割してそのいずれかを選択し、該選択された2次元画像データのいずれか一側辺から順次走査して前記所定の画素値以上となった画素を開始点と定め、当該開始点となる画素と隣接する画素における画素値が前記所定の画素値以上であると判断した場合、更に当該画素に隣接する画素の画素値に対し同様に判断を繰返すステップ、を有することを特徴とする請求項1記載の画像処理プログラム。   The step of dividing the extraction target region in each of the plurality of three-dimensional image data obtained in time series is a step of obtaining a maximum pixel value in the three-dimensional image data, and is smaller than the obtained maximum pixel value. A step of setting a predetermined pixel value; dividing the three-dimensional image data into a plurality of two-dimensional image data, selecting one of them, and sequentially scanning from one side of the selected two-dimensional image data If the pixel value that is equal to or greater than the predetermined pixel value is determined as the start point, and it is determined that the pixel value in the pixel adjacent to the pixel that is the start point is equal to or greater than the predetermined pixel value, the pixel is further adjacent to the pixel. The image processing program according to claim 1, further comprising the step of repeating the determination for the pixel value of the pixel. 前記変位量は、回転及び平行移動の量に基づいて求められることを特徴とする請求項1記載の画像処理プログラム。   The image processing program according to claim 1, wherein the amount of displacement is obtained based on an amount of rotation and translation. 前記変位量は、非線形変形のパラメータにも基づいて求められることを特徴とする請求項3記載の画像処理プログラム。   The image processing program according to claim 3, wherein the displacement is obtained based on a parameter of nonlinear deformation. 前記分割された前記抽出対象領域の変位量を求めるステップは、前記時系列的に得られた複数の3次元画像データそれぞれに対し、分割された前記抽出対象領域をスライスする2次元画像データを複数選択し、そのそれぞれの2次元画像データにおける前記抽出対象領域の重心点を求め、求めた前記複数の重心点から前記抽出対象領域の軸を定め、当該軸の変位量を求めるステップ、を有することを特徴とする請求項4記載の画像処理プログラム。 The step of obtaining a displacement amount of the divided extraction target area includes a plurality of pieces of two-dimensional image data slicing the divided extraction target area for each of the plurality of three-dimensional image data obtained in time series. Selecting a center of gravity point of the extraction target area in each of the two-dimensional image data, determining an axis of the extraction target area from the plurality of determined center of gravity points, and determining a displacement amount of the axis. The image processing program according to claim 4. 前記抽出対象領域は3次元画像データのそれぞれにおいて複数抽出されることを特徴とする請求項1記載の画像処理プログラム。   The image processing program according to claim 1, wherein a plurality of the extraction target areas are extracted in each of the three-dimensional image data. 前記分割された複数の前記抽出対象領域の変位量を求めるステップは、前記時系列的に得られた複数の3次元画像データそれぞれに対し、分割された前記抽出対象領域をスライスする2次元画像データを複数選択し、そのそれぞれの2次元画像データにおける前記抽出対象領域の重心点を求め、求めた前記複数の重心点から前記抽出対象領域の軸を定め、当該軸の変位量を求めるステップ、を有することを特徴とする請求項6記載の画像処理プログラム。 The step of obtaining the displacement amounts of the plurality of divided extraction target areas includes two-dimensional image data for slicing the divided extraction target areas with respect to each of the plurality of three-dimensional image data obtained in time series. Determining a center of gravity of the extraction target region in each of the two-dimensional image data, determining an axis of the extraction target region from the plurality of determined center of gravity, and determining a displacement amount of the axis. The image processing program according to claim 6, further comprising: 前記分割された複数の前記抽出対象領域の時系列的な変位量を求めるステップは、更に、前記時系列的に得られた複数の3次元画像データにおいて分割された前記抽出対象領域同士の最短距離を求めるステップ、を有することを特徴とする請求項6記載の画像処理プログラム。
The step of obtaining a time-series displacement amount of the plurality of divided extraction target areas further includes a shortest distance between the extraction target areas divided in the plurality of three-dimensional image data obtained in time series. The image processing program according to claim 6, further comprising the step of:
JP2004341518A 2004-11-26 2004-11-26 Image processing program and image processing method Active JP4572294B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004341518A JP4572294B2 (en) 2004-11-26 2004-11-26 Image processing program and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004341518A JP4572294B2 (en) 2004-11-26 2004-11-26 Image processing program and image processing method

Publications (2)

Publication Number Publication Date
JP2006149498A true JP2006149498A (en) 2006-06-15
JP4572294B2 JP4572294B2 (en) 2010-11-04

Family

ID=36628478

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004341518A Active JP4572294B2 (en) 2004-11-26 2004-11-26 Image processing program and image processing method

Country Status (1)

Country Link
JP (1) JP4572294B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013517837A (en) * 2010-01-21 2013-05-20 ケアストリーム ヘルス インク Method for acquiring a three-dimensional image
JP2013172818A (en) * 2012-02-24 2013-09-05 Toshiba Corp X-ray ct apparatus
JP2016042876A (en) * 2014-08-19 2016-04-04 株式会社東芝 Medical image processing device and medical image processing method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0628474A (en) * 1992-07-09 1994-02-04 Fujitsu Ltd Motion detecting system
JP2003265462A (en) * 2002-03-19 2003-09-24 Hitachi Ltd Region of interest extracting method and image processing server
JP2004313513A (en) * 2003-04-17 2004-11-11 Hitachi Medical Corp X-ray ct apparatus
JP2006502777A (en) * 2002-10-16 2006-01-26 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Hierarchical image segmentation
JP2006102353A (en) * 2004-10-08 2006-04-20 Toshiba Corp Apparatus, method and program for analyzing joint motion
JP2006512938A (en) * 2002-09-16 2006-04-20 イメージング セラピューティクス,インコーポレーテッド Imaging markers for musculoskeletal diseases

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0628474A (en) * 1992-07-09 1994-02-04 Fujitsu Ltd Motion detecting system
JP2003265462A (en) * 2002-03-19 2003-09-24 Hitachi Ltd Region of interest extracting method and image processing server
JP2006512938A (en) * 2002-09-16 2006-04-20 イメージング セラピューティクス,インコーポレーテッド Imaging markers for musculoskeletal diseases
JP2006502777A (en) * 2002-10-16 2006-01-26 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Hierarchical image segmentation
JP2004313513A (en) * 2003-04-17 2004-11-11 Hitachi Medical Corp X-ray ct apparatus
JP2006102353A (en) * 2004-10-08 2006-04-20 Toshiba Corp Apparatus, method and program for analyzing joint motion

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013517837A (en) * 2010-01-21 2013-05-20 ケアストリーム ヘルス インク Method for acquiring a three-dimensional image
JP2013172818A (en) * 2012-02-24 2013-09-05 Toshiba Corp X-ray ct apparatus
JP2016042876A (en) * 2014-08-19 2016-04-04 株式会社東芝 Medical image processing device and medical image processing method

Also Published As

Publication number Publication date
JP4572294B2 (en) 2010-11-04

Similar Documents

Publication Publication Date Title
Benameur et al. 3D/2D registration and segmentation of scoliotic vertebrae using statistical models
Bey et al. Validation of a new model-based tracking technique for measuring three-dimensional, in vivo glenohumeral joint kinematics
Kauffmann et al. Computer-aided method for quantification of cartilage thickness and volume changes using MRI: validation study using a synthetic model
Li et al. Feasibility of using orthogonal fluoroscopic images to measure in vivo joint kinematics
Zhu et al. Construction of 3D human distal femoral surface models using a 3D statistical deformable model
Miranda et al. Static and dynamic error of a biplanar videoradiography system using marker-based and markerless tracking techniques
Bingham et al. An optimized image matching method for determining in-vivo TKA kinematics with a dual-orthogonal fluoroscopic imaging system
Quijano et al. Three-dimensional reconstruction of the lower limb from biplanar calibrated radiographs
US20200058098A1 (en) Image processing apparatus, image processing method, and image processing program
US20130173240A1 (en) Method and device for dynamically determining the position and orientation of the bone elements of the spine
Betsch et al. Evaluation of a novel spine and surface topography system for dynamic spinal curvature analysis during gait
Rhoad et al. A new in vivo technique for three-dimensional shoulder kinematics analysis
JP2004537357A (en) System and method for quantitatively assessing joint disease and temporal changes in joint disease
JP2014530348A (en) Radiation imaging system and method for updating an original radiation image
De Bruin et al. Image-based RSA: Roentgen stereophotogrammetric analysis based on 2D–3D image registration
Ohnishi et al. Three-dimensional motion study of femur, tibia, and patella at the knee joint from bi-plane fluoroscopy and CT images
Li et al. Prediction of in vivo knee joint kinematics using a combined dual fluoroscopy imaging and statistical shape modeling technique
Maerz et al. Surface roughness and thickness analysis of contrast-enhanced articular cartilage using mesh parameterization
JP4512824B2 (en) Image processing apparatus and program used therefor
US20160180520A1 (en) Quantitative method for 3-d joint characterization
Ackland et al. Future trends in the use of X-ray fluoroscopy for the measurement and modelling of joint motion
Hu et al. Multi-rigid image segmentation and registration for the analysis of joint motion from three-dimensional magnetic resonance imaging
Lerner et al. The use of sequential MR image sets for determining tibiofemoral motion: reliability of coordinate systems and accuracy of motion tracking algorithm
Barrance et al. A method for measurement of joint kinematics in vivo by registration of 3-D geometric models with cine phase contrast magnetic resonance imaging data
Zhang et al. Investigation of 3D glenohumeral displacements from 3D reconstruction using biplane X-ray images: accuracy and reproducibility of the technique and preliminary analysis in rotator cuff tear patients

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20041217

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100720

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150