JP2010200925A - Image processing device, method, and program - Google Patents

Image processing device, method, and program Download PDF

Info

Publication number
JP2010200925A
JP2010200925A JP2009048679A JP2009048679A JP2010200925A JP 2010200925 A JP2010200925 A JP 2010200925A JP 2009048679 A JP2009048679 A JP 2009048679A JP 2009048679 A JP2009048679 A JP 2009048679A JP 2010200925 A JP2010200925 A JP 2010200925A
Authority
JP
Japan
Prior art keywords
tissue
target candidate
target
normal direction
axis direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009048679A
Other languages
Japanese (ja)
Other versions
JP4709290B2 (en
Inventor
Yoshiro Kitamura
嘉郎 北村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2009048679A priority Critical patent/JP4709290B2/en
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to AU2010220015A priority patent/AU2010220015A1/en
Priority to EP10748460.2A priority patent/EP2404553B1/en
Priority to US12/737,623 priority patent/US8526690B2/en
Priority to CN2010800022477A priority patent/CN102112056A/en
Priority to BRPI1004212A priority patent/BRPI1004212A2/en
Priority to PCT/JP2010/001191 priority patent/WO2010100858A1/en
Priority to CA2732647A priority patent/CA2732647C/en
Publication of JP2010200925A publication Critical patent/JP2010200925A/en
Application granted granted Critical
Publication of JP4709290B2 publication Critical patent/JP4709290B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve performance in detecting object tissues comprising linear structure on a three-dimensional image. <P>SOLUTION: The main axis direction of a candidate object tissue comprising linear structure or the normal direction of a tissue comprising surface structure in a detection range is determined. Based on the main axis direction or the normal direction, a normalization process is performed to a candidate object range including the candidate object tissue. Feature quantities of the candidate object range after the normalization process is performed are computed. Whether or not the object tissue is included in the candidate object range is determined using the computed feature quantities. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は三次元画像の検出処理に関し、特に三次元画像における線状構造または面状構造からなる対象組織の自動検出に適した、画像処理装置および方法並びにそのためのプログラムに関するものである。   The present invention relates to three-dimensional image detection processing, and more particularly to an image processing apparatus and method suitable for automatic detection of a target tissue having a linear structure or a planar structure in a three-dimensional image, and a program therefor.

従来、医療分野においては、複数の二次元画像に対して、所定の検出処理(例えば、マシンラーニングによる検出手法等)を施すことにより対象組織を検出し、三次元的な画像の構築を可能とする画像投影法(Intensity Projection法)やボリュームレンダリング法を計算機に実行させることにより、対象組織を表す疑似三次元画像を生成することが行われている。これにより、読影者は、対象組織の状況を容易に確認することができる。   Conventionally, in the medical field, it is possible to construct a three-dimensional image by detecting a target tissue by applying a predetermined detection process (for example, a detection method using machine learning) to a plurality of two-dimensional images. A pseudo three-dimensional image representing a target tissue is generated by causing a computer to execute an image projection method (Intensity Projection method) or a volume rendering method. Thereby, the radiogram interpreter can easily check the status of the target organization.

しかしながら、三次元画像は、情報量が多いため、三次元画像自体から抽出される特徴量が増加し、例えば、マシンラーニングによる検出手法の計算処理が増大し問題である。   However, since a three-dimensional image has a large amount of information, a feature amount extracted from the three-dimensional image itself increases, and for example, calculation processing of a detection method by machine learning increases, which is a problem.

そこで、三次元画像から互いに直交する三つの断面画像を生成し、三つの断面画像から抽出した特徴量に基づいて対象組織の検出処理を行う手法が、特許文献1に提案されている。   Therefore, Patent Document 1 proposes a method of generating three cross-sectional images orthogonal to each other from a three-dimensional image and performing a target tissue detection process based on feature amounts extracted from the three cross-sectional images.

また、二次元画像から対象組織をマシンラーニングによる検出する手法が、特許文献2に提案されている。   Further, Patent Document 2 proposes a method of detecting a target tissue from a two-dimensional image by machine learning.

米国特許第7346209号明細書U.S. Pat. No. 7,346,209 特開2007−307358号公報JP 2007-307358 A

特許文献1に記載される発明は、対象組織から互いに直交する三つの断面画像を検出対象の画像として設定するものであり、例えば線状構造に対して本手法を適用した場合、図3(a)(b)のような三つの断面画像が得られる。特許文献1に記載される発明によると、三つの直交する軸をランダムに変更することで断面画像を設定し、複数回の検出処理を施すことにより、計算に用いる全体の情報量を低下させながら、対象組織を検出する。   The invention described in Patent Document 1 sets three cross-sectional images orthogonal to each other from a target tissue as detection target images. For example, when this method is applied to a linear structure, FIG. ) Three cross-sectional images as shown in (b) are obtained. According to the invention described in Patent Document 1, a cross-sectional image is set by randomly changing three orthogonal axes, and a plurality of detection processes are performed, thereby reducing the total amount of information used for calculation. Detect target tissue.

しかしながら、図3(b)に示すような湾曲形状の線状組織であれば、断面画像に対象組織の情報が大きく欠如してしまうという問題があった。   However, in the case of a curved linear tissue as shown in FIG. 3B, there is a problem that information on the target tissue is largely lacking in the cross-sectional image.

また、線状構造・面状構造を抽出する方法にヘッセ行列を利用する方法があり、血管等の抽出に利用されているが、ヘッセ行列の固有値を解析するだけでは、理想的な直線構造からなる血管は判別できても、血管が湾曲、分岐形状であったりまたは病変を伴っていた場合に正しく判別することが難しかった。同様に、人体中の面状構造も理想的な平面をなしているとは限らないため正しく判別することが難しかった。   In addition, there is a method of using a Hessian matrix as a method for extracting a linear structure / planar structure, which is used for extraction of blood vessels and the like. Even if the blood vessel can be discriminated, it is difficult to correctly discriminate when the blood vessel is curved, branched or accompanied by a lesion. Similarly, since the planar structure in the human body does not always form an ideal plane, it has been difficult to determine correctly.

そこで、本発明は、上記事情に鑑み、線状組織または面状組織が湾曲、分岐形状であったり、または病変を伴っていたりしていても検出性能を向上させることが可能な画像処理装置および方法並びにそのためのプログラムを提供することを目的とするものである。  Therefore, in view of the above circumstances, the present invention provides an image processing apparatus capable of improving detection performance even when a linear tissue or a planar tissue is curved, branched, or accompanied by a lesion, and It is an object to provide a method and a program therefor.

本発明の画像処理装置は、被写体を撮像して得られた三次元画像中の検出領域を設定する検出領域設定部と、検出領域における線状構造からなる対象候補組織の主軸方向または面状構造からなる組織の法線方向を算出する主軸・法線方向算出部と、主軸方向または法線方向に基づいて、対象候補組織を含む対象候補領域に対して正規化処理を施す正規化処理部と、正規化処理を施された対象候補領域の特徴量を算出し、算出された特徴量を用いて対象候補領域に対象組織が含まれるか否かを判別する判別部とを備えたことを特徴とする。「画像処理装置」は、三次元画像を生成する撮像装置を含むものであってもよい。   An image processing apparatus according to the present invention includes a detection region setting unit that sets a detection region in a three-dimensional image obtained by capturing an image of a subject, and a main axis direction or planar structure of a target candidate tissue including a linear structure in the detection region. A main axis / normal direction calculating unit that calculates a normal direction of the tissue, and a normalization processing unit that performs normalization processing on the target candidate region including the target candidate tissue based on the main axis direction or the normal direction. And a determination unit that calculates a feature amount of the target candidate region that has been subjected to normalization processing, and determines whether the target candidate region includes the target tissue using the calculated feature amount. And The “image processing device” may include an imaging device that generates a three-dimensional image.

「主軸・法線方向算出部」は、線状構造からなる対象候補組織の主軸方向または面状構造からなる組織の法線方向を算出するものである。例えば、検出領域に対してヘッセ行列を算出し、算出されたヘッセ行列の固有値を解析することにより、対象候補組織の主軸方向または法線方向を算出するものであってもよい。   The “main axis / normal direction calculation unit” calculates a main axis direction of a target candidate tissue having a linear structure or a normal direction of a tissue having a planar structure. For example, the main axis direction or the normal direction of the target candidate tissue may be calculated by calculating a Hessian matrix for the detection region and analyzing the eigenvalue of the calculated Hessian matrix.

更に、「主軸・法線方向算出部」は、算出された固有値が所定の閾値条件を満たすものであるか否かにより、前記対象候補組織が、線状構造または面状構造であるか否かを判定するものであってもよい。   Furthermore, the “spindle / normal direction calculation unit” determines whether the target candidate tissue has a linear structure or a planar structure, depending on whether the calculated eigenvalue satisfies a predetermined threshold condition. May be determined.

「三次元画像」は、ボクセルデータから構成される画像である。例えば、複数の二次元画像により構成される三次元的な画像である。二次元画像として、例えば、放射線画像、CT画像、MRI画像、RI画像、PET画像等が挙げられる。   A “three-dimensional image” is an image composed of voxel data. For example, it is a three-dimensional image composed of a plurality of two-dimensional images. Examples of the two-dimensional image include a radiation image, a CT image, an MRI image, an RI image, and a PET image.

「対象組織」は、三次元画像に表される被写体の所定の部位からなる線状構造や面状構造からなる組織をいい、例えば、冠動脈、脳血管、肝臓血管、気管支、肺血管等、その他の線状構造からなる組織であってもよい。また皮膚、腰間胸膜、皮質骨等の面状構造であってもよい。   “Target tissue” refers to a tissue composed of a linear structure or a planar structure composed of a predetermined part of a subject represented in a three-dimensional image. For example, coronary artery, cerebral blood vessel, liver blood vessel, bronchus, pulmonary blood vessel, etc. The structure | tissue which consists of these linear structures may be sufficient. It may also be a planar structure such as skin, lumbar pleura, cortical bone or the like.

「検出領域」は、被写体を撮像して得られた三次元画像中にある対象領域を含む所定の領域をいい、例えば冠動脈を対象組織として抽出する場合は、心臓領域を含む領域若しくはその領域の一部の領域等であってもよい。   “Detection region” refers to a predetermined region including a target region in a three-dimensional image obtained by imaging a subject. For example, when a coronary artery is extracted as a target tissue, a region including a heart region or a region of the region is included. It may be a partial area or the like.

本発明の画像処理装置において、判別部は、対象組織と同種の対象組織を含む予め用意された三次元画像に対して、同種の対象組織の主軸方向または法線方向に基づいて正規化処理を施されたデータを教師データとして備えるものであって、教師データを用いて、マシンラーニング手法を利用して算出された特徴量の解析を行うことにより、対象候補領域に対象組織が含まれるか否かを判別するものであってもよい。   In the image processing apparatus of the present invention, the determination unit performs a normalization process on a three-dimensional image prepared in advance including a target tissue of the same type as the target tissue based on the main axis direction or the normal direction of the same type of target tissue. Whether or not the target tissue is included in the target candidate region by analyzing the feature amount calculated using the machine learning method using the teacher data. It may be a thing which discriminates.

冠動脈を判別する判別器の学習においては、正の教師データとして冠動脈の直線部の他、湾曲部、分岐部、狭窄、石灰化またステント留置部などの病変部を表すデータを含めることができる。これらを教師データに含めて学習することで、冠動脈のバリエーションに対応し、病変部等も血管として高精度に判別することが可能となる。負の教師データには冠動脈以外の部位をランダムに用意することができる。   In learning of a discriminator for discriminating a coronary artery, positive teacher data can include data representing a lesioned part such as a curved part, a branched part, a stenosis, a calcification, or a stent placement part in addition to a straight part of the coronary artery. By learning by including these in the teacher data, it is possible to cope with variations of the coronary arteries and to determine a lesioned part or the like as a blood vessel with high accuracy. A portion other than the coronary artery can be randomly prepared for the negative teacher data.

本発明の画像処理方法は、被写体を撮像して得られた三次元画像中の検出領域を設定し、検出領域における線状構造からなる対象候補組織の主軸方向または面状構造からなる組織の法線方向を算出し、主軸方向または法線方向に基づいて、対象候補組織を含む対象候補領域に対して正規化処理を施し、正規化処理を施された対象候補領域の特徴量を算出し、算出された特徴量を用いて対象候補領域に対象組織が含まれるか否かを判別することを特徴とする。   The image processing method of the present invention sets a detection region in a three-dimensional image obtained by capturing an image of a subject, and is a method of a tissue having a main axis direction or a planar structure of a target candidate tissue having a linear structure in the detection region. Calculate the line direction, perform a normalization process on the target candidate area including the target candidate tissue based on the main axis direction or the normal direction, calculate the feature amount of the target candidate area subjected to the normalization process, It is characterized by determining whether a target tissue is included in a target candidate area | region using the calculated feature-value.

本発明のプログラムは、被写体を撮像して得られた三次元画像中の検出領域を設定する機能と、検出領域における線状構造または面状構造からなる組織の法線方向からなる対象候補組織の主軸方向を算出する機能と、主軸方向または法線方向に基づいて、対象候補組織を含む対象候補領域に対して正規化処理を施す機能と、正規化処理を施された対象候補領域の特徴量を算出し、算出された特徴量を用いて対象候補領域に対象組織が含まれるか否かを判別する機能をコンピュータに実行させることを特徴とする。   The program of the present invention has a function of setting a detection region in a three-dimensional image obtained by imaging a subject, and a target candidate tissue composed of a normal direction of a tissue composed of a linear structure or a planar structure in the detection region. A function for calculating the main axis direction, a function for performing normalization processing on the target candidate area including the target candidate organization based on the main axis direction or the normal direction, and a feature amount of the target candidate area subjected to the normalization process And the computer is caused to execute a function of determining whether or not the target tissue is included in the target candidate region using the calculated feature amount.

本発明の画像処理装置および方法並びにプログラムによれば、検出領域における線状構造または面状構造からなる対象候補組織の主軸方向または面状構造からなる組織の法線方向を算出し、主軸方向または法線方向に基づいて、対象候補組織を含む対象候補領域に対して正規化処理を施し、正規化処理を施された対象候補領域の特徴量を算出し、算出された特徴量を用いて対象候補領域に対象組織が含まれるか否かを判別することで、湾曲、分岐または病変による外観の変化を伴った線状構造からなる対象組織であっても安定的に検出することができる。   According to the image processing apparatus, method, and program of the present invention, the main axis direction of the target candidate tissue composed of a linear structure or a planar structure in the detection region or the normal direction of the tissue composed of the planar structure is calculated, and the main axis direction or Based on the normal direction, normalization processing is performed on the target candidate region including the target candidate organization, the feature amount of the target candidate region subjected to the normalization processing is calculated, and the target is calculated using the calculated feature amount. By determining whether or not the target tissue is included in the candidate region, even a target tissue having a linear structure accompanied by a change in appearance due to curvature, branching, or lesion can be detected stably.

画像処理装置における機能ブロック図Functional block diagram of image processing apparatus 本発明の実施形態における一連のフローチャートA series of flowcharts in the embodiment of the present invention 従来技術の説明を行うための概念図Conceptual diagram for explaining the prior art ガウシアンピラミッド構造を説明するための概念図Conceptual diagram for explaining the Gaussian pyramid structure 線状構造からなる対象候補組織の主軸方向を算出することを説明するための概念図Conceptual diagram for explaining the calculation of the principal axis direction of a target candidate tissue having a linear structure 正規化処理前と処理後の一例を示す概念図Conceptual diagram showing an example before and after normalization

以下、図面を参照して本発明の画像処理装置1の一実施形態について説明する。   Hereinafter, an embodiment of an image processing apparatus 1 according to the present invention will be described with reference to the drawings.

図1は本発明の画像処理装置1の好ましい実施の形態を示すブロック図である。   FIG. 1 is a block diagram showing a preferred embodiment of an image processing apparatus 1 according to the present invention.

なお、図1のような画像処理装置1の構成は、補助記憶装置(不図示)に読み込まれたプログラムをコンピュータ(たとえばパーソナルコンピュータ等)上で実行することにより実現される。また、このプログラムは、CD−ROM等の情報記憶媒体に記憶され、もしくはインターネット等のネットワークを介して配布され、コンピュータにインストールされることになる。   The configuration of the image processing apparatus 1 as shown in FIG. 1 is realized by executing a program read into an auxiliary storage device (not shown) on a computer (for example, a personal computer). In addition, this program is stored in an information storage medium such as a CD-ROM or distributed via a network such as the Internet and installed in a computer.

画像処理装置1は、たとえばX線CT装置10により撮像された複数の二次元画像を用いて、三次元画像に表される対象組織を自動的に算出するものであって、検出領域設定部30、主軸・法線方向算出部40、正規化処理部50、判別部60等を有している。   The image processing apparatus 1 automatically calculates a target tissue represented in a three-dimensional image using a plurality of two-dimensional images captured by, for example, the X-ray CT apparatus 10, and includes a detection region setting unit 30. , A main axis / normal direction calculation unit 40, a normalization processing unit 50, a discrimination unit 60, and the like.

画像処理装置1には、画像取得部20と、入力部70と、表示部80等が接続されている。   The image processing apparatus 1 is connected to an image acquisition unit 20, an input unit 70, a display unit 80, and the like.

画像取得部20は、たとえば図1に示すような撮像装置、例えばX線CT装置10により撮像されたCT画像(二次元画像)を取得するものである。なお、画像取得手段1は、たとえばCT画像のみならず、いわゆるMRI画像、RI画像、PET画像、X線画像等の二次元画像を取得するものであってもよい。また、画像取得部20は、このような複数の二次元画像により構成される三次元画像を取得するものである。   The image acquisition unit 20 acquires a CT image (two-dimensional image) captured by, for example, an imaging apparatus as shown in FIG. 1, for example, the X-ray CT apparatus 10. Note that the image acquisition unit 1 may acquire not only a CT image but also a two-dimensional image such as a so-called MRI image, RI image, PET image, X-ray image, and the like. Moreover, the image acquisition part 20 acquires the three-dimensional image comprised by such a some two-dimensional image.

検出領域設定部30は、画像取得部20により取得された三次元画像中の検出領域を設定するものである。検出領域設定部30は、検出アルゴリズムを実行させることにより、検出領域を設定するものであって、例えば、閾値処理、セグメント分割処理を用いた検出アルゴリズムを実行するものである。   The detection area setting unit 30 sets a detection area in the three-dimensional image acquired by the image acquisition unit 20. The detection area setting unit 30 sets a detection area by executing a detection algorithm, and executes a detection algorithm using, for example, threshold processing and segment division processing.

また、検出領域設定部30は、入力部80により入力された領域を検出領域として設定してもよい。   The detection area setting unit 30 may set the area input by the input unit 80 as a detection area.

なお、入力部80は、キーボード、マウス等である。   The input unit 80 is a keyboard, a mouse, or the like.

主軸・法線方向算出部40は、検出領域における線状構造からなる対象候補組織の主軸方向を算出するものである。例えば、検出領域設定部30により設定された検出領域内において、線状構造からなる対象候補組織の主軸方向また面状構造からなる対象候補組織の法線方向を算出するものであって、検出領域に対してヘッセ行列を算出し、算出されたヘッセ行列の固有値を解析することにより、対象候補組織の主軸方向または法線方向を算出するものであって、更に算出された固有値が所定の閾値条件を満たすものであるか否かにより、対象候補組織が、線状構造または面状構造であるか否かを判定する。これにより、線状構造・面状構造であるかを粗く判定することを可能とする。判別部60において線状構造・面状構造であるか否かをより精度よく判定する構成としてもよい。   The main axis / normal direction calculation unit 40 calculates the main axis direction of the target candidate tissue having a linear structure in the detection region. For example, in the detection region set by the detection region setting unit 30, the main axis direction of the target candidate tissue having a linear structure or the normal direction of the target candidate tissue having a planar structure is calculated. Calculating the Hessian matrix and analyzing the eigenvalue of the calculated Hessian matrix to calculate the principal axis direction or the normal direction of the target candidate tissue, and the calculated eigenvalue further satisfies a predetermined threshold condition It is determined whether or not the target candidate tissue has a linear structure or a planar structure depending on whether or not the condition is satisfied. This makes it possible to roughly determine whether the structure is a linear structure or a planar structure. The determination unit 60 may be configured to more accurately determine whether the structure is a linear structure or a planar structure.

正規化処理部50は、主軸・法線方向算出部40により算出された主軸方向・法線方向に基づいて、対象候補組織を含む対象候補領域に対して正規化処理を施すものである。   The normalization processing unit 50 performs normalization processing on the target candidate region including the target candidate organization based on the main axis direction / normal direction calculated by the main axis / normal direction calculation unit 40.

判別部60は、正規化処理部50により正規化処理を施された対象候補領域の特徴量を算出し、算出された特徴量を用いて対象候補領域に対象組織が含まれるか否かを判別するものである。   The determination unit 60 calculates the feature amount of the target candidate region that has been subjected to the normalization process by the normalization processing unit 50, and determines whether the target candidate region includes the target tissue using the calculated feature amount. To do.

また、判別部60は、対象組織と同種の対象組織を含む予め用意された三次元画像に対して、同種の対象組織の主軸方向または法線方向に基づいて正規化処理を施されたデータを教師データとして備えるものであって、教師データを用いて、マシンラーニング手法を利用して算出された特徴量の解析を行うことにより、対象候補領域に対象組織が含まれるか否かを判別するものであってもよい。冠動脈を判別する判別器の学習においては、正の教師データとして冠動脈の直線部の他、湾曲部、分岐部、狭窄、石灰化またステント留置部などの病変部を表すデータを含めることができる。これらを教師データに含めて学習することで、冠動脈のバリエーションに対応し、病変部等も血管として高精度に判別することが可能となる。負の教師データには冠動脈以外の部位をランダムに用意することができる。   In addition, the determination unit 60 performs normalization processing on a three-dimensional image prepared in advance including a target tissue of the same type as the target tissue based on the main axis direction or normal direction of the same type of target tissue. It is provided as teacher data, and it is determined whether or not the target tissue is included in the target candidate region by analyzing the feature amount calculated using the machine learning method using the teacher data. It may be. In learning of a discriminator for discriminating a coronary artery, positive teacher data can include data representing a lesioned part such as a curved part, a branched part, a stenosis, a calcification, or a stent placement part in addition to a straight part of the coronary artery. By learning by including these in the teacher data, it is possible to cope with variations of the coronary arteries and to determine a lesioned part or the like as a blood vessel with high accuracy. A portion other than the coronary artery can be randomly prepared for the negative teacher data.

具体的には、対象組織の検出方法として、統合学習機械をつくる手法であるAdaboostに基づいたマシンラーニング手法を利用するものであることが考えられる。判別部60は、上記の対象組織の検出手法に用いることができる。対象組織は、特徴点検出等の公知の手法や学習データに対してリサンプリングの際に重みを逐次的に更新し、できた機械を最後に学習機械に対する重みをつけることで、統合学習機械をつくる手法であるAdaboostに基づいたマシンラーニング手法を用いる。学習サンプル画像において、対象組織の中心座標とその主軸方向また線状構造の場合はその半径を指定し、中心座標を基準としてその主軸方向に回転させた立方体を関心領域とする。立方体のスケールは半径で規格化する。冠動脈を判別する際の正の学習サンプルには、直線的な血管の湾曲部、血管の分岐部、また狭窄や石灰化、ステント留置部などの病変部を表すデータを含める。負の教師データには冠動脈以外の部位をランダムに用意する。   Specifically, it is conceivable that a machine learning method based on Adaboost, which is a method of creating an integrated learning machine, is used as a target tissue detection method. The determination unit 60 can be used in the above-described target tissue detection method. The target organization sequentially updates the weights when re-sampling known methods such as feature point detection and learning data, and finally assigns the weights to the learning machines to the integrated learning machine. A machine learning method based on Adaboost is used. In the learning sample image, the center coordinate of the target tissue and its principal axis direction or the radius in the case of a linear structure are designated, and a cube rotated in the principal axis direction with respect to the center coordinate is set as a region of interest. The cube scale is normalized by the radius. The positive learning sample for discriminating the coronary artery includes data representing a curved portion of a straight blood vessel, a branch portion of the blood vessel, and a lesion such as stenosis, calcification, and stent placement portion. A portion other than the coronary artery is randomly prepared for negative teacher data.

次に、正と負の学習サンプル画像に対して、ランダムに選択されたn組の画素ペアの値の組み合わせを特徴量とし、Adaboostに基づいたマシンラーニング手法により、正と負のパターンを見分ける判別器を作成する。対象組織を検出する際、3次元画像を走査し、注目画素を中心とした様々なサイズの立方体領域を切り出し、特徴量を算出する。それを学習段階で得られた判別器に入力し、判別値を求め、判別値が所定の閾値を超えた場合、対象組織であると判別する。   Next, for positive and negative learning sample images, a combination of the values of n pixel pairs selected at random is used as a feature value, and a positive and negative pattern is discriminated by a machine learning method based on Adaboost. Create a bowl. When a target tissue is detected, a three-dimensional image is scanned, and cubic regions of various sizes with the pixel of interest at the center are cut out to calculate feature amounts. This is input to the discriminator obtained in the learning stage, and a discriminant value is obtained.

判別のための特徴量はCT画像におけるCT値のX,Y,Z方向それぞれの1次微分値とする。その他、CT値の絶対値、CT値のヒストグラム、2次微分値などを用いてもよい。   The feature amount for discrimination is a first-order differential value of each CT value in the X, Y and Z directions in the CT image. In addition, an absolute value of CT value, a histogram of CT value, a secondary differential value, etc. may be used.

また、対象組織を検出する手法として、他の様々な統計解析法や機械学習法、例えば線形判別法やニューラルネットワーク、サポートベクターマシン等を用いることができる。   Further, various other statistical analysis methods and machine learning methods such as a linear discrimination method, a neural network, and a support vector machine can be used as a method for detecting the target tissue.

判別部60は、上述した手法により、三次元画像から対象組織の位置を複数検出する。表示部70は、二次元画像または三次元画像等を表示するモニタ、CRT画面等である。対象組織として判別された領域をボリュームレンダリング表示することで、線状構造や面状構造の全体を概観し、その連続性を可視化することができる。   The discriminating unit 60 detects a plurality of positions of the target tissue from the three-dimensional image by the method described above. The display unit 70 is a monitor that displays a two-dimensional image or a three-dimensional image, a CRT screen, or the like. By displaying the area determined as the target tissue by volume rendering, it is possible to overview the entire linear structure or planar structure and visualize its continuity.

次に、以上の構成の画像処理装置1において行われる実施態様における処理について説明する。   Next, processing in the embodiment performed in the image processing apparatus 1 having the above configuration will be described.

図2は、画像処理装置1が三次元画像における線状構造または面状構造からなる対象組織を判別するまでの一連の処理フローチャートである。   FIG. 2 is a series of processing flowcharts until the image processing apparatus 1 determines a target tissue having a linear structure or a planar structure in a three-dimensional image.

まず、図2に示す如く、X線CT装置10により撮像された三次元画像を画像取得部20に入力する(ステップS1)。   First, as shown in FIG. 2, a three-dimensional image captured by the X-ray CT apparatus 10 is input to the image acquisition unit 20 (step S1).

次に、検出領域設定部30は、上述した検出アルゴリズムを実行することにより、心臓領域を検出する。検出領域設定部30は、検出された心臓領域内から、検出領域を設定する(ステップS2)。この検出領域は、被写体を撮像して得られた三次元画像中にある対象領域を含む所定の領域をいい、例えば、心臓領域を含む領域若しくはその領域の一部の領域等であってもよい。   Next, the detection region setting unit 30 detects the heart region by executing the detection algorithm described above. The detection region setting unit 30 sets a detection region from the detected heart region (step S2). This detection area refers to a predetermined area including a target area in a three-dimensional image obtained by imaging a subject, and may be, for example, an area including a heart area or a partial area thereof. .

検出領域設定部30は、検出領域における線状構造からなる対象候補組織を検出すべく、予め三次元画像を多重解像度変換することにより、ガウシアンピラミッドを生成する。   The detection region setting unit 30 generates a Gaussian pyramid by performing multi-resolution conversion on a three-dimensional image in advance in order to detect a target candidate tissue having a linear structure in the detection region.

その後、検出領域設定部30は、図4に示すように、生成したガウシアンピラミッドごとに検出アルゴリズムを走査することで異なるサイズの線状構造からなる対象候補組織(例えば、冠動脈等)を検出する。   Thereafter, as illustrated in FIG. 4, the detection region setting unit 30 scans a detection algorithm for each generated Gaussian pyramid to detect a target candidate tissue (for example, a coronary artery) having a linear structure with a different size.

検出領域設定部30は、ガウシアンピラミッド構造である図4(a)の検出領域に対してスキャンニングを行い、順次、図4(b)の検出領域、図(c)の検出領域をスキャンして検出処理を実行する座標を設定する。   The detection area setting unit 30 scans the detection area of FIG. 4A having a Gaussian pyramid structure, and sequentially scans the detection area of FIG. 4B and the detection area of FIG. Set the coordinates to execute the detection process.

多重解像度画像を順次走査することで、異なるサイズの対象候補組織(例えば、冠動脈)を検出することができる。   By sequentially scanning the multi-resolution image, target candidate tissues (for example, coronary arteries) of different sizes can be detected.

次に、主軸・法線方向算出部40は、検出座標を中心とする局所領域において線状構造からなる対象候補組織(例えば、冠動脈)の主軸方向を算出する(ステップS3)。   Next, the main axis / normal direction calculating unit 40 calculates the main axis direction of the target candidate tissue (for example, coronary artery) having a linear structure in the local region centered on the detected coordinates (step S3).

主軸・法線方向算出部40は、対象候補組織を含む領域内にて、ヘッセ行列の固有値解析を行い、主軸方向を算出する。ヘッセ行列は、2階の偏微分係数を要素とする行列であり、三次元画像に対しては、式(1)のように3×3行列となる。

Figure 2010200925
Figure 2010200925
The main axis / normal direction calculation unit 40 performs eigenvalue analysis of the Hessian matrix in the region including the target candidate tissue, and calculates the main axis direction. The Hessian matrix is a matrix having a second-order partial differential coefficient as an element, and for a three-dimensional image, the Hessian matrix is a 3 × 3 matrix as shown in Expression (1).
Figure 2010200925
Figure 2010200925

ガウシアンカーネル(f)関数を用いた場合、ヘッセ行列を得るためのフィルタ係数は式(2)によって、求められる。σは検出したいサイズの線状構造に対応させる。   When the Gaussian kernel (f) function is used, the filter coefficient for obtaining the Hessian matrix is obtained by Expression (2). σ corresponds to a linear structure having a size to be detected.

このヘッセ行列を固有値分解して固有値と固有ベクトルを得たとき、0に最も近い固有値に対応する固有ベクトルが主軸方向である。   When the Hessian matrix is subjected to eigenvalue decomposition to obtain eigenvalues and eigenvectors, the eigenvector corresponding to the eigenvalue closest to 0 is the principal axis direction.

線状構造は、図5に示すように、3つのうち2つの固有値の値が大きく、1つが0に近い特徴を持つことが知られている。そこで固有値から線状構造らしさを判定し、残った候補についてより詳細な判定を行うようにすると効果的である。また、面状構造の場合は、3つの固有値のうち1つの絶対値が大きな値となり、2つが0に近い特徴を持つものを面状構造らしいものとして判定する。   As shown in FIG. 5, the linear structure is known to have a characteristic that two of the three eigenvalues are large and one is close to zero. Therefore, it is effective to determine the likelihood of a linear structure from the eigenvalues and make a more detailed determination on the remaining candidates. Further, in the case of a planar structure, one of the three eigenvalues has a large absolute value, and two having features close to 0 are determined to be likely to be a planar structure.

式(1)の固有値は、例えば線状構造からなる対象候補組織に対して、式(3)のような関係を持つ。

Figure 2010200925
The eigenvalue of the formula (1) has a relationship like the formula (3) with respect to the target candidate tissue having a linear structure, for example.
Figure 2010200925

正規化処理部50は、主軸・法線方向算出部40により算出された主軸方向に基づいて、対象候補組織を含む対象候補領域に対して正規化処理を施す(ステップS4)。正規化処理部50は、図6(a)に示すように、算出された主軸方向に沿って正規化した画像を切り出す。図6(b)に示すように、正規化処理後の対象候補組織の三次元画像は、回転不変な特徴を持ったものとなる。但し、画像処理装置1は、正規化処理を必ずしも行う必要はなく、判別部60が、正規化した場合と同じ条件で判別のための特徴量を取得してマシンラーニング手法を利用してもよい。   The normalization processing unit 50 performs normalization processing on the target candidate region including the target candidate tissue based on the main axis direction calculated by the main axis / normal direction calculation unit 40 (step S4). As shown in FIG. 6A, the normalization processing unit 50 cuts out a normalized image along the calculated principal axis direction. As shown in FIG. 6B, the three-dimensional image of the target candidate tissue after the normalization process has a rotation-invariant feature. However, the image processing apparatus 1 does not necessarily need to perform normalization processing, and the determination unit 60 may use a machine learning method by acquiring feature amounts for determination under the same conditions as when normalized. .

次に、判別部60は、正規化処理部50により正規化処理を施された対象候補領域の特徴量を算出し、算出された特徴量を用いて対象候補領域に対象組織が含まれるか否かを判別する(ステップS5)。判別部60は、正規化処理部50により正規化処理を施した対象候補領域から上述のマシンラーニング手法等により、特徴量を取り出し、判別を行う。   Next, the determination unit 60 calculates the feature amount of the target candidate region that has been subjected to the normalization process by the normalization processing unit 50, and uses the calculated feature amount to determine whether the target candidate region includes the target tissue. Is determined (step S5). The determination unit 60 extracts the feature amount from the target candidate region that has been subjected to the normalization process by the normalization processing unit 50 by the above-described machine learning method and performs the determination.

なお、本発明の実施形態は、対象組織として、冠動脈の判別を例に挙げたが、脳血管、肝臓血管、肺血管、気管支など、他の線状構造の抽出に利用することができる。また皮膚、葉間胸膜、皮質骨等の面状構造の抽出にも利用することができる。   In the embodiment of the present invention, the coronary artery is identified as an example of the target tissue. However, it can be used to extract other linear structures such as cerebral blood vessels, liver blood vessels, pulmonary blood vessels, and bronchi. It can also be used to extract planar structures such as skin, interlobar pleura, and cortical bone.

このように、画像処理装置1は、検出領域における線状構造からなる対象候補組織の主軸方向または面状構造からなる組織の法線方向を算出し、主軸方向または法線方向に基づいて、対象候補組織を含む対象候補領域に対して正規化処理を施し、正規化処理を施された対象候補領域の特徴量を算出し、算出された特徴量を用いて対象候補領域に対象組織が含まれるか否かを判別することで、湾曲、分岐または病変による外観の変化を伴った線状構造からなる対象組織であっても安定的に検出することができる。   As described above, the image processing apparatus 1 calculates the principal axis direction of the target candidate tissue composed of a linear structure in the detection region or the normal direction of the tissue composed of a planar structure, and based on the principal axis direction or the normal direction, The target candidate region including the candidate organization is normalized, the feature amount of the target candidate region subjected to the normalization processing is calculated, and the target tissue is included in the target candidate region using the calculated feature amount It is possible to stably detect even a target tissue having a linear structure accompanied by a change in appearance due to curvature, branching, or lesion.

1 画像処理装置
10 X線CT装置
20 画像取得部
30 検出領域設定部
40 主軸・法線方向算出部
50 正規化処理部
60 判別部
70 表示部
1 Image processing device
DESCRIPTION OF SYMBOLS 10 X-ray CT apparatus 20 Image acquisition part 30 Detection area setting part 40 Main axis and normal direction calculation part 50 Normalization process part 60 Discriminating part 70 Display part

Claims (8)

被写体を撮像して得られた三次元画像中の検出領域を設定する検出領域設定部と、
前記検出領域における線状構造からなる対象候補組織の主軸方向または面状構造からなる組織の法線方向を算出する主軸・法線方向算出部と、
前記主軸方向または前記法線方向に基づいて、前記対象候補組織を含む対象候補領域に対して正規化処理を施す正規化処理部と、
前記正規化処理を施された対象候補領域の特徴量を算出し、該算出された特徴量を用いて前記対象候補領域に対象組織が含まれるか否かを判別する判別部とを備えたことを特徴とする画像処理装置。
A detection area setting unit for setting a detection area in a three-dimensional image obtained by imaging a subject;
A main axis / normal direction calculation unit for calculating a main axis direction of a target candidate tissue composed of a linear structure in the detection region or a normal direction of a tissue composed of a planar structure;
A normalization processing unit that performs a normalization process on the target candidate region including the target candidate tissue based on the main axis direction or the normal direction;
A determination unit that calculates a feature amount of the target candidate region that has been subjected to the normalization process, and determines whether the target candidate region includes a target tissue using the calculated feature amount; An image processing apparatus.
前記主軸・法線方向算出部は、前記検出領域に対してヘッセ行列を算出し、該算出されたヘッセ行列の固有値を解析することにより、前記対象候補組織の主軸方向または法線方向を算出するものであることを特徴とする請求項1記載の画像処理装置。   The principal axis / normal direction calculation unit calculates a Hessian matrix for the detection region, and calculates a principal axis direction or a normal direction of the target candidate tissue by analyzing an eigenvalue of the calculated Hessian matrix. The image processing apparatus according to claim 1, wherein the image processing apparatus is one. 前記主軸・法線方向算出部は、前記算出された固有値が所定の閾値条件を満たすものであるか否かにより、前記対象候補組織が、線状構造または面状構造であるか否かを判別するものであることを特徴とする請求項2記載の画像処理装置。   The main axis / normal direction calculation unit determines whether the target candidate tissue has a linear structure or a planar structure depending on whether the calculated eigenvalue satisfies a predetermined threshold condition. The image processing apparatus according to claim 2, wherein: 前記判別部は、前記対象組織と同種の対象組織を含む予め用意された三次元画像に対して、前記同種の対象組織の主軸方向または法線方向に基づいて正規化処理を施されたデータを教師データとして備えるものであって、
前記教師データを用いて、マシンラーニング手法を利用して前記算出された特徴量の解析を行うことにより、前記対象候補領域に対象組織が含まれるか否かを判別するものであることを特徴とする請求項1から3いずれか1項記載の画像処理装置。
The discriminating unit performs normalization processing on a three-dimensional image prepared in advance including a target tissue of the same type as the target tissue based on a main axis direction or a normal direction of the target tissue of the same type. It is prepared as teacher data,
Using the teacher data to determine whether the target candidate region includes a target tissue by analyzing the calculated feature value using a machine learning method. The image processing apparatus according to any one of claims 1 to 3.
前記対象組織は、冠動脈であることを特徴とする請求項1から4いずれか1項記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the target tissue is a coronary artery. 前記検出領域は、前記被写体の心臓領域を含む領域であることを特徴とする請求項1から5いずれか1項記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the detection area is an area including a heart area of the subject. 被写体を撮像して得られた三次元画像中の検出領域を設定し、
前記検出領域における線状構造からなる対象候補組織の主軸方向または面状構造からなる組織の法線方向を算出し、
前記主軸方向または前記法線方向に基づいて、前記対象候補組織を含む対象候補領域に対して正規化処理を施し、
前記正規化処理を施された対象候補領域の特徴量を算出し、該算出された特徴量を用いて前記対象候補領域に対象組織が含まれるか否かを判別することを特徴とする画像処理装置。
Set the detection area in the 3D image obtained by imaging the subject,
Calculating the principal axis direction of the target candidate tissue consisting of a linear structure in the detection region or the normal direction of the tissue consisting of a planar structure;
Based on the main axis direction or the normal direction, the target candidate region including the target candidate tissue is subjected to normalization processing,
Image processing characterized in that a feature amount of the target candidate region subjected to the normalization process is calculated, and whether or not a target tissue is included in the target candidate region using the calculated feature amount apparatus.
被写体を撮像して得られた三次元画像中の検出領域を設定する機能と、
前記検出領域における線状構造からなる対象候補組織の主軸方向または面状構造からなる組織の法線方向を算出する機能と、
前記主軸方向または前記法線方向に基づいて、前記対象候補組織を含む対象候補領域に対して正規化処理を施す機能と、
前記正規化処理を施された対象候補領域の特徴量を算出し、該算出された特徴量を用いて前記対象候補領域に対象組織が含まれるか否かを判別する機能とをコンピュータに実現させることを特徴とするプログラム。
A function for setting a detection region in a three-dimensional image obtained by imaging a subject;
A function of calculating a principal axis direction of a target candidate tissue composed of a linear structure in the detection region or a normal direction of a tissue composed of a planar structure;
Based on the main axis direction or the normal direction, a function of performing a normalization process on the target candidate region including the target candidate tissue;
A feature amount of the target candidate region subjected to the normalization process is calculated, and a function of determining whether the target candidate region includes a target tissue using the calculated feature amount is realized by a computer. A program characterized by that.
JP2009048679A 2009-03-03 2009-03-03 Image processing apparatus and method, and program Active JP4709290B2 (en)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2009048679A JP4709290B2 (en) 2009-03-03 2009-03-03 Image processing apparatus and method, and program
EP10748460.2A EP2404553B1 (en) 2009-03-03 2010-02-23 Image processing device and method, and program
US12/737,623 US8526690B2 (en) 2009-03-03 2010-02-23 Automatic detection of target tissues formed by linear structures from within three dimensional images
CN2010800022477A CN102112056A (en) 2009-03-03 2010-02-23 Image processing device and method, and program
AU2010220015A AU2010220015A1 (en) 2009-03-03 2010-02-23 Image processing device and method, and program
BRPI1004212A BRPI1004212A2 (en) 2009-03-03 2010-02-23 image processing apparatus, image processing method, and image processing program
PCT/JP2010/001191 WO2010100858A1 (en) 2009-03-03 2010-02-23 Image processing device and method, and program
CA2732647A CA2732647C (en) 2009-03-03 2010-02-23 Image processing apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009048679A JP4709290B2 (en) 2009-03-03 2009-03-03 Image processing apparatus and method, and program

Publications (2)

Publication Number Publication Date
JP2010200925A true JP2010200925A (en) 2010-09-16
JP4709290B2 JP4709290B2 (en) 2011-06-22

Family

ID=42963043

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009048679A Active JP4709290B2 (en) 2009-03-03 2009-03-03 Image processing apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP4709290B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013002839A (en) * 2011-06-13 2013-01-07 Taisei Corp Crack detection method
JPWO2020217758A1 (en) * 2019-04-25 2020-10-29
JP2023502280A (en) * 2019-11-26 2023-01-23 ホウメディカ・オステオニクス・コーポレイション Preoperative planning and intraoperative guidance for orthopedic surgery in cases of bone fragmentation

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5879291B2 (en) 2013-03-27 2016-03-08 富士フイルム株式会社 Image processing apparatus, image processing program, and method of operating image processing apparatus

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004230086A (en) * 2003-01-31 2004-08-19 Toshiba Corp Image processor, image data processing method, and program
JP2006346094A (en) * 2005-06-15 2006-12-28 Konica Minolta Medical & Graphic Inc Method for outputting detected information and medical image processing system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004230086A (en) * 2003-01-31 2004-08-19 Toshiba Corp Image processor, image data processing method, and program
JP2006346094A (en) * 2005-06-15 2006-12-28 Konica Minolta Medical & Graphic Inc Method for outputting detected information and medical image processing system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6011003805, 四方秀則,外1名, "びまん性肺疾患画像からの肺血管抽出アルゴリズムの検討", 電子情報通信学会技術研究報告, 20050115, Vol.104, No.580, p.31−36 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013002839A (en) * 2011-06-13 2013-01-07 Taisei Corp Crack detection method
JPWO2020217758A1 (en) * 2019-04-25 2020-10-29
JP7170850B2 (en) 2019-04-25 2022-11-14 富士フイルム株式会社 Pseudo-angio image generator, method and program
JP2023502280A (en) * 2019-11-26 2023-01-23 ホウメディカ・オステオニクス・コーポレイション Preoperative planning and intraoperative guidance for orthopedic surgery in cases of bone fragmentation
JP7463510B2 (en) 2019-11-26 2024-04-08 ホウメディカ・オステオニクス・コーポレイション Preoperative planning and intraoperative guidance for orthopedic surgery in cases of bone fragmentation

Also Published As

Publication number Publication date
JP4709290B2 (en) 2011-06-22

Similar Documents

Publication Publication Date Title
JP4717935B2 (en) Image processing apparatus and method, and program
WO2010100858A1 (en) Image processing device and method, and program
EP2916738B1 (en) Lung, lobe, and fissure imaging systems and methods
US8411927B2 (en) Marker detection in X-ray images
CN108960322B (en) Coronary artery calcified plaque automatic detection method based on cardiac CT image
JP5486197B2 (en) Vertebral center detecting device, method and program
JP6570145B2 (en) Method, program, and method and apparatus for constructing alternative projections for processing images
JP5011426B2 (en) Image diagnosis support apparatus, method and program
US20110028843A1 (en) Providing a 2-dimensional ct image corresponding to a 2-dimensional ultrasound image
JP2015528372A (en) System and method for automatically detecting pulmonary nodules in medical images
JP6273291B2 (en) Image processing apparatus and method
JP2010279439A (en) Image processor, method for controlling the same and computer program
JP5631339B2 (en) Image processing apparatus, image processing method, ophthalmic apparatus, ophthalmic system, and computer program
JP6458166B2 (en) MEDICAL IMAGE PROCESSING METHOD, DEVICE, SYSTEM, AND PROGRAM
CN112862833A (en) Blood vessel segmentation method, electronic device and storage medium
US9305356B2 (en) Image processing method and apparatus
US20190392552A1 (en) Spine image registration method
JP4709290B2 (en) Image processing apparatus and method, and program
JP2013191007A (en) Image processing apparatus, method and program
JP5364009B2 (en) Image generating apparatus, image generating method, and program thereof
JP2007029514A (en) Image analyzer, image analysis method and its program
WO2015111308A1 (en) Three-dimensional medical image display control device, operation method thereof, and three-dimensional medical image display control program
WO2014106747A1 (en) Methods and apparatus for image processing
Dehmeshki et al. Computer Aided Detection and measurement of peripheral artery disease
Dias et al. Automatic sternum segmentation in thoracic MRI

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101126

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20101126

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20101227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110317

R150 Certificate of patent or registration of utility model

Ref document number: 4709290

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250