JP2005230456A - Method and apparatus for supporting diagnosis of cerebropathy - Google Patents

Method and apparatus for supporting diagnosis of cerebropathy Download PDF

Info

Publication number
JP2005230456A
JP2005230456A JP2004046724A JP2004046724A JP2005230456A JP 2005230456 A JP2005230456 A JP 2005230456A JP 2004046724 A JP2004046724 A JP 2004046724A JP 2004046724 A JP2004046724 A JP 2004046724A JP 2005230456 A JP2005230456 A JP 2005230456A
Authority
JP
Japan
Prior art keywords
image
brain
diagnosis support
brain image
mri
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004046724A
Other languages
Japanese (ja)
Other versions
JP2005230456A5 (en
JP4022587B2 (en
Inventor
Hiroshi Matsuda
博史 松田
Tetsutaro Ono
徹太郎 小野
Yasuhisa Matsuba
靖寿 松葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KOKURITSU SEISHIN SHINKEI CENTER
KOKURITSU SEISHIN SHINKEI CT
Dai Nippon Printing Co Ltd
Eisai Co Ltd
Original Assignee
KOKURITSU SEISHIN SHINKEI CENTER
KOKURITSU SEISHIN SHINKEI CT
Dai Nippon Printing Co Ltd
Eisai Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KOKURITSU SEISHIN SHINKEI CENTER, KOKURITSU SEISHIN SHINKEI CT, Dai Nippon Printing Co Ltd, Eisai Co Ltd filed Critical KOKURITSU SEISHIN SHINKEI CENTER
Priority to JP2004046724A priority Critical patent/JP4022587B2/en
Publication of JP2005230456A publication Critical patent/JP2005230456A/en
Publication of JP2005230456A5 publication Critical patent/JP2005230456A5/ja
Application granted granted Critical
Publication of JP4022587B2 publication Critical patent/JP4022587B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To objectively and automatically determine an input image specification or the like, and to automate diagnosis by image treatment. <P>SOLUTION: A positioning is performed to correct a spatial deviation to an inputted MRI brain image (Step 1), a gray matter tissue is extracted from the image (Step 2), the first image smoothing is performed (Step 3), an anatomical normalization is performed to the image (Step 4), the second smoothing is performed (Step 5), a correction of the concentration value is performed (Step 6), and the brain image after the correction and an MRI brain image of a normal person are statistically compared (Step 7) to provide a diagnostic result. Then, a check of the inputted images such as resolution and the like (Step 0), a check of the gray matter tissue extract result (Step 21), and a check (Step 41) of the anatomical normalized result are automatically performed about the above brain image to automate the diagnostic support. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、脳疾患の診断支援方法及び装置に係り、特にMRI(Magnetic Resonance Imaging)等により脳画像を入力し、画像処理することにより疾患別の診断支援を行なう際に適用して好適な脳疾患の診断支援方法及び装置に関する。   The present invention relates to a brain disease diagnosis support method and apparatus, and more particularly to a brain suitable for application to diagnosis support by disease by inputting a brain image by MRI (Magnetic Resonance Imaging) or the like and processing the image. The present invention relates to a disease diagnosis support method and apparatus.

高齢化社会の到来により、痴呆性疾患の患者が年々増加している。痴呆性疾患には様々な種類があり、診断においてはそれらを区別して、疾患に応じた適切な処置を施すことが必要である。   With the arrival of an aging society, the number of patients with dementia is increasing year by year. There are various types of dementia diseases, and in diagnosis, it is necessary to distinguish between them and perform appropriate treatment according to the disease.

一方、このような要請に応えるべく、近年、SPECT(Single Photon Emission Computed Tomography)やPET(Positron Emission Tomography)等の核医学検査や、CT(Computerized Tomography)やMRIによって脳の状態に関する情報が取得可能になってきている(例えば、特許文献1参照)。   On the other hand, in order to meet such demands, in recent years, information on the state of the brain can be acquired by nuclear medicine examinations such as SPECT (Single Photon Emission Computed Tomography) and PET (Positron Emission Tomography), CT (Computererized Tomography) and MRI. (For example, see Patent Document 1).

その結果、脳の特定部位の血流が低下したり、組織が萎縮したりする現象が、疾患によって異なることが明らかになってきており、これらに対する定量的な評価方法が求められている。   As a result, it has been clarified that the phenomenon that blood flow in a specific part of the brain decreases or the tissue atrophy varies depending on the disease, and a quantitative evaluation method for these is required.

例えば、脳の局所的な部位の血流低下は、SPECTやPETの画像によって比較することにより検定することができる。   For example, a decrease in blood flow in a local region of the brain can be tested by comparing with SPECT or PET images.

又、組織の萎縮に関しては、MRI画像によって特定部位の容積を求め、その相対的な大きさを比較して異常の有無を判別できる。   As for tissue atrophy, the volume of a specific part can be obtained from an MRI image, and the relative size can be compared to determine the presence or absence of an abnormality.

例えば、MRI画像については、VBM(Voxel−Based Morphometry)法に基づいて、患者画像と健常者画像とを、各種画像処理によって標準化してから統計的に比較し、脳組織の局所的な萎縮部位を抽出する方法がある。この方法を用いる場合、医師は萎縮部位の分布と萎縮の程度から、診断を行なうことが可能である。   For example, for MRI images, based on the VBM (Voxel-Based Morphometry) method, patient images and healthy subject images are standardized by various image processing and then statistically compared to determine local atrophy sites of brain tissue. There is a way to extract. When this method is used, a doctor can make a diagnosis from the distribution of atrophy sites and the degree of atrophy.

診断のための処理結果は、生命にかかわる重要な情報となるので、それ相応の信頼性が求められる。特に、MRI画像を対象としたVBM法等の精度の高い手法は、複雑な画像の処理工程が必要であり、入力画像の解像度や濃度値のダイナミックレンジ、画像方向等のスペックが、使用するシステムが想定しているものに合致しているか、あるいは処理フロー全体の各工程において良好な処理結果が得られているかを十分に吟味する必要があった。   The processing result for diagnosis becomes important information for life, and accordingly, the corresponding reliability is required. In particular, high-accuracy techniques such as the VBM method for MRI images require complex image processing steps, and the system uses specifications such as the resolution of the input image, the dynamic range of the density value, and the image direction. Therefore, it is necessary to thoroughly examine whether or not a good processing result is obtained in each step of the entire processing flow.

特開2003−107161号公報JP 2003-107161 A

しかしながら、前記入力画像のスペックの確認や画像の処理結果の判断は、従来目視によって行なうことが一般的であり、このような判断方法だと、判断結果に主観的要素が入ってしまう、あるいは、処理の誤りを見逃してしまうといった作業上のミスが発生する可能性があった。又、データベース構築等のために、大量の患者データを一括処理したい場合があるが、そのような場合にも処理結果の吟味に多くの人手がかかるという問題があった。   However, the confirmation of the specifications of the input image and the determination of the processing result of the image are generally performed by visual observation in the past, and with such a determination method, a subjective factor is included in the determination result, or There is a possibility that an operational error such as missing a processing error may occur. In addition, there is a case where a large amount of patient data is desired to be collectively processed for the construction of a database or the like. However, in such a case, there is a problem that a lot of manpower is required to examine the processing result.

本発明は、前記従来の問題点を解決すべくなされたもので、従来、目視によってなされてきた、少なくとも入力画像スペックの確認を客観的に実施できるようにし、画像処理全体の信頼性を向上させ、ひいては画像処理による診断の自動化を実現することができる脳疾患の診断支援方法及び装置を提供することを課題とする。   The present invention has been made in order to solve the above-described conventional problems, and at the same time, at least the input image specification that has been made by visual observation can be objectively confirmed, thereby improving the reliability of the entire image processing. Therefore, an object of the present invention is to provide a diagnosis support method and apparatus for brain diseases that can realize automation of diagnosis by image processing.

本発明は、被検者の脳画像を入力し、画像処理して診断結果を提示することにより診断の支援を行なう脳疾患の診断支援方法であって、入力された被検者の脳画像について、解像度、ダイナミックレンジ及び画像方向の少なくとも1つを自動チェックすることにより、前記課題を解決したものである。   The present invention relates to a brain disease diagnosis support method for supporting diagnosis by inputting a brain image of a subject, processing the image, and presenting a diagnosis result. This problem is solved by automatically checking at least one of resolution, dynamic range, and image direction.

本発明は、又、被検者の脳画像を入力し、画像処理して診断結果を出力することにより診断の支援を行なう脳疾患の診断支援装置であって、入力された被検者の脳画像について、解像度、ダイナミックレンジ及び画像方向の少なくとも1つを自動チェックする自動評価手段を備えたことにより、同様に前記課題を解決したものである。   The present invention is also a brain disease diagnosis support apparatus that supports diagnosis by inputting a brain image of a subject, processing the image, and outputting a diagnosis result, the brain of the subject being input By providing an automatic evaluation means for automatically checking at least one of resolution, dynamic range, and image direction for an image, the above-mentioned problems are similarly solved.

本発明においては、前記画像方向のチェックを、次の仮定、(仮定1)軸の対称性は大きい順に、側方向→矢状方向→軸(上下)方向である、(仮定2)眼球は左右対称であり、頭部前方にある、(仮定3)頭部画像の下端まで組織が存在するが、上端には組織はない、の下で行なうようにしてもよい。   In the present invention, the image direction is checked in the following assumption, (Assumption 1) in the order of the symmetry of the axis, in the order of lateral direction → sagittal direction → axis (vertical) direction. (Assumption 2) Symmetry is in front of the head (Assumption 3) The tissue exists up to the lower end of the head image, but there is no tissue at the upper end.

又、前記被検者の脳画像をスライス画像として入力する場合、全スライス画像の連続性を自動チェックするようにしてもよい。   Further, when the brain image of the subject is input as a slice image, the continuity of all slice images may be automatically checked.

又、前記画像処理に、脳組織抽出処理と解剖学的標準化処理が含まれ、少なくとも一方の処理結果を自動チェックするようにしてもよい。   The image processing may include brain tissue extraction processing and anatomical standardization processing, and at least one processing result may be automatically checked.

又、その際に、前記処理結果としての脳画像を、予め作成してある対応するリファレンス画像と比較して、前記自動チェックを行なうようにしてもよい。   At that time, the automatic check may be performed by comparing the brain image as the processing result with a corresponding reference image created in advance.

又、本発明においては、前記脳画像が、MRI脳画像であってもよい。この場合は、被検者のMRI脳画像を入力した後、該MRI脳画像から灰白質組織を抽出して灰白質脳画像を作成し、該灰白質脳画像に解剖学的標準化を施した後、予め用意されている健常者の対応する脳画像と統計的比較を行なうようにしてもよく、又、被検者のMRI脳画像を入力した後、該MRI脳画像に、解剖学的標準化を施し、該標準化後のMRI脳画像から灰白質組織を抽出して灰白質脳画像を作成した後、予め用意されている健常者の対応する脳画像と統計的比較を行なうようにしてもよい。   In the present invention, the brain image may be an MRI brain image. In this case, after inputting the MRI brain image of the subject, the gray matter tissue is extracted from the MRI brain image to create a gray matter brain image, and the gray matter brain image is subjected to anatomical standardization In addition, statistical comparison with a brain image corresponding to a healthy person prepared in advance may be performed, and after inputting an MRI brain image of a subject, anatomical standardization is performed on the MRI brain image. Then, after the gray matter tissue is extracted from the standardized MRI brain image to create a gray matter brain image, statistical comparison may be performed with a brain image corresponding to a healthy person prepared in advance.

本発明は、又、前記の脳疾患の診断支援方法をコンピュータで実施するためのコンピュータ読取可能なプログラムとしたものである。   The present invention also provides a computer-readable program for executing the above-described brain disease diagnosis support method on a computer.

本発明は、又、前記の脳疾患の診断支援装置をコンピュータで実現するためのコンピュータ読取可能なプログラムとしたものである。   The present invention also provides a computer-readable program for realizing the above-mentioned brain disease diagnosis support apparatus by a computer.

本発明は、更に、上記いずれかのコンピュータ読取可能なプログラムが格納された記録媒体としたものである。   The present invention further provides a recording medium storing any one of the above computer-readable programs.

本発明によれば、従来、目視によってなされてきた、少なくとも入力画像スペックの確認を客観的にできるようになり、画像処理全体の信頼性を向上させ、ひいては画像処理による診断支援の自動化を実現することができるようになる。   According to the present invention, it has become possible to objectively confirm at least the input image specification that has been done visually, and thus the reliability of the entire image processing is improved, and thus automating diagnosis support by image processing is realized. Will be able to.

又、必要に応じて、各処理工程において良好な処理結果が得られているかどうかの判断を、定量的且つ客観的な評価に基づいてできるようにすることによって、処理フロー全体の信頼性を向上させ、画像処理や統計学の専門的知見を持たない医師に対しても、MRI画像等による疾患別の診断支援を行なうことが可能となる。   In addition, the reliability of the entire processing flow can be improved by making it possible to determine whether good processing results have been obtained in each processing step based on quantitative and objective evaluation as necessary. In addition, it is possible to provide diagnosis support for each disease using MRI images or the like for doctors who do not have specialized knowledge of image processing or statistics.

又、診断支援のために画像処理を自動化することにより、大量の患者等の被検者の脳画像データを迅速に処理することが可能となる。   Further, by automating image processing for diagnosis support, it becomes possible to rapidly process brain image data of a large number of subjects such as patients.

以下、図面を参照して、本発明の実施の形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明に係る一実施形態である脳疾患の診断支援システム(装置)を示すブロック図である。   FIG. 1 is a block diagram showing a diagnosis support system (device) for brain disease, which is an embodiment according to the present invention.

本実施形態の診断支援システムは、ユーザインタフェース10、画像・統計処理部20及びデータベース部30を備えている。ユーザインタフェース10は入力画像としてMRI画像を入力する画像入力機能12と、処理部20で処理された結果を表示する結果表示機能14とを有し、処理部20はユーザインタフェース10等との間で入出力される画像を評価する入出力評価機能(自動評価手段)22と、入力されたMRI画像を処理する画像処理機能24と、各種統計演算等を行なう統計処理機能26とを有している。又、データベース部30には、処理部20による後述する処理に使用する標準脳画像テンプレート32、灰白質脳画像テンプレート34及び健常者画像データベース36等が保存されている。   The diagnosis support system of this embodiment includes a user interface 10, an image / statistic processing unit 20, and a database unit 30. The user interface 10 has an image input function 12 for inputting an MRI image as an input image, and a result display function 14 for displaying a result processed by the processing unit 20, and the processing unit 20 is connected to the user interface 10 and the like. It has an input / output evaluation function (automatic evaluation means) 22 for evaluating an input / output image, an image processing function 24 for processing an input MRI image, and a statistical processing function 26 for performing various statistical calculations. . The database unit 30 stores a standard brain image template 32, a gray matter brain image template 34, a healthy person image database 36, and the like that are used for processing to be described later by the processing unit 20.

本実施形態において、被検者のMRI脳画像を基に診断結果を出力して診断を支援するまでの基本的な処理フローを図2(A)に示す。   In this embodiment, FIG. 2A shows a basic processing flow from outputting a diagnosis result based on the MRI brain image of the subject to supporting the diagnosis.

詳細については後述するが、まず、予め所定の前処理を施した被検者のMRI脳画像(図では“脳”を省略)を入力し、該脳画像に対して空間的なズレを補正する位置合わせを行なう(ステップ1)。次いで、位置合わせ後の脳画像から、痴呆性疾患の診断に必要な組織を抽出する(ステップ2)と共に、抽出後の脳画像に対する第1の画像平滑化の処理を行なう(ステップ3)。   As will be described in detail later, first, an MRI brain image of a subject that has been subjected to predetermined pre-processing (in the figure, “brain” is omitted) is input, and spatial deviation is corrected with respect to the brain image. Alignment is performed (step 1). Next, a tissue necessary for diagnosis of dementia disease is extracted from the brain image after alignment (step 2), and a first image smoothing process is performed on the extracted brain image (step 3).

次いで、第1の平滑化脳画像に対して解剖学的標準化を行なう(ステップ4)と共に、該標準化された脳画像に対して第2の画像平滑化を行なう(ステップ5)。次いで、第2の平滑化画像に対して濃度値の補正を行ない(ステップ6)、補正後の脳画像と健常者のMRI脳画像との統計的比較を行ない(ステップ7)、比較結果を診断結果として出力し、診断の支援に供する。   Next, anatomical standardization is performed on the first smoothed brain image (step 4), and second image smoothing is performed on the standardized brain image (step 5). Next, the density value is corrected for the second smoothed image (step 6), the corrected brain image is statistically compared with the MRI brain image of the healthy person (step 7), and the comparison result is diagnosed. The result is output and used for diagnosis support.

本実施形態では、MRI脳画像を画像統計処理し、健常者の画像と統計的比較を行なって脳の異常部位を抽出する上記ステップ1〜7の処理過程において、入出力データの妥当性を評価するために、更に入力画像のチェック(ステップ0)、組織抽出結果のチェック(ステップ21)、解剖学的標準化結果のチェック(ステップ41)を行なう。   In this embodiment, the MRI brain image is statistically processed, and the validity of the input / output data is evaluated in the process of steps 1 to 7 described above in which statistical comparison with the image of a healthy person is performed to extract an abnormal region of the brain. For this purpose, an input image check (step 0), a tissue extraction result check (step 21), and an anatomical standardization result check (step 41) are further performed.

具体的な評価項目としては、(A)入力画像のチェックには、(a)解像度、(b)ダイナミックレンジ、(c)画像方向の自動確認、(d)全スライス画像の連続性のチェックがあり、又、各処理結果を評価するために行なう(B)脳組織抽出結果のチェックと、(C)解剖学的標準化結果のチェックには、それぞれリファレンス画像との比較がある。   As specific evaluation items, (A) input image check includes (a) resolution, (b) dynamic range, (c) automatic confirmation of image direction, and (d) continuity check of all slice images. In addition, each of (B) brain tissue extraction result check and (C) anatomical standardization result check performed to evaluate each processing result has a comparison with a reference image.

本実施形態においては、上記ステップ1〜7の各基本処理及びステップ0、21、42の各チェック処理はいずれも、コンピュータからなる前記処理部20においてプログラムにより実施可能になっている。   In the present embodiment, each of the basic processes in steps 1 to 7 and the check processes in steps 0, 21, and 42 can be performed by a program in the processing unit 20 formed of a computer.

以下には、上記基本的処理フローについて詳細に説明する。但し、便宜上、図2(B)に示すように、前記ステップ2で抽出する組織が、アルツハイマー型痴呆性疾患等の診断に必要な灰白質組織である場合を具体例とする。   Hereinafter, the basic processing flow will be described in detail. However, for convenience, as shown in FIG. 2B, a specific example is a case where the tissue extracted in Step 2 is a gray matter tissue necessary for diagnosis of Alzheimer-type dementia disease or the like.

まず、MRI脳画像を入力するに当たり、予め被検者から取得したMRI脳画像の前処理を行なっておく。具体的には、図3に脳全体とその一部を切り出したスライス画像のイメージを示すように、被検者の脳全体を含むように所定厚さのスライス状に撮像した、例えば100〜200枚のT1強調MRI画像を入力とする。又、各スライス画像におけるボクセル(voxel)の各辺の長さを予め等しくなるようにスライス画像のリサンプリングを行なっておく。ここでボクセルは、「厚さ」を持つ画像の座標単位であり、2次元画像におけるピクセルに相当する。   First, when inputting an MRI brain image, preprocessing of an MRI brain image acquired in advance from a subject is performed. Specifically, as shown in FIG. 3, an image of a slice image obtained by cutting out the entire brain and a part of the brain, the slice is captured in a predetermined thickness so as to include the entire brain of the subject, for example, 100 to 200 A T1-weighted MRI image is input. In addition, the resampling of the slice image is performed so that the length of each side of the voxel in each slice image becomes equal in advance. Here, a voxel is a coordinate unit of an image having “thickness” and corresponds to a pixel in a two-dimensional image.

このような前処理を行なったMRI脳画像を入力した後、そのスライス画像の撮像方向や解像度が、予めシステムに設定されている条件に適合しているか否かをチェックする。撮像方向には、図3のaxial(transverse):横断面の他に、sagittal:矢状断面(側面からの縦切り)やcoronal:冠状断面(正面からの縦切り)がある。   After inputting the pre-processed MRI brain image, it is checked whether or not the imaging direction and resolution of the slice image meet the conditions set in the system in advance. In the imaging direction, there are sagittal: sagittal section (vertical cut from the side) and coronal: coronal section (vertical cut from the front) in addition to the axial (transverse): transverse section of FIG.

以上のように、MRI脳画像が、設定条件に適合して入力されていることが確認された場合には、前記ステップ1の位置合わせ処理を行なう。   As described above, when it is confirmed that the MRI brain image is input in conformity with the set condition, the alignment process of step 1 is performed.

これは、入力された脳画像を、後述する処理において、標準的な脳画像テンプレートと比較する際の精度を上げるために、線形変換(アフィン変換)によって図4にイメージを示すような変換を行い、空間的位置と角度の補正を行なっていることに相当する。   In order to improve the accuracy when comparing the input brain image with a standard brain image template in the processing described later, a transformation as shown in FIG. 4 is performed by linear transformation (affine transformation). This corresponds to correction of the spatial position and angle.

具体的には、入力脳画像と、データベース部30から読み出された標準脳画像テンプレート32との誤差の平方和が最小となるような、x,y,z方向それぞれについて図示した4種類、計12の変換パラメータを求める。次いで、求められたパラメータを用い、入力脳画像をアフィン変換することにより、入力脳画像を、位置や大きさ等が予め設定されている標準脳画像に対して、空間的な位置合わせを実現することができる。   More specifically, the four types shown in the x, y, and z directions shown in each of the x, y, and z directions that minimize the sum of squares of errors between the input brain image and the standard brain image template 32 read from the database unit 30 are shown in total. Twelve conversion parameters are obtained. Next, the input brain image is affine-transformed using the obtained parameters, and the input brain image is spatially aligned with a standard brain image whose position, size, etc. are preset. be able to.

以上の位置合わせが終了した後、前記ステップ2の灰白質抽出処理を行なう。   After the above alignment is completed, the gray matter extraction process in step 2 is performed.

入力されたT1強調MRI脳画像では、神経細胞に対応する灰色の灰白質、それより明るい神経繊維に対応する白質、黒に近い脳脊髄液の3種類の組織が含まれている。そこで、痴呆性疾患の診断では灰白質組織に着目して、該組織を抽出する処理を行なう。   The input T1-weighted MRI brain image includes three types of tissues: gray gray matter corresponding to nerve cells, white matter corresponding to brighter nerve fibers, and cerebrospinal fluid close to black. Therefore, in the diagnosis of dementia, attention is paid to the gray matter tissue and processing for extracting the tissue is performed.

この抽出処理では、これら組織を分離するために、図5に示すように、画像処理によりこれらの3つのクラスタへのクラスタリングを行なうことになる。   In this extraction processing, in order to separate these tissues, clustering into these three clusters is performed by image processing as shown in FIG.

このクラスタリング処理のために、次の2種類のモデルを仮定する。   For this clustering process, the following two types of models are assumed.

1つは濃度値のモデルである。   One is a model of density values.

これは、各組織によってボクセルの濃度値の分布が異なることをモデル化したものである。各組織を濃度値が高い(白に近い)順に並べると、白質、灰白質、脳脊髄液の順になる。なお、ここでは、それぞれを分離した後の濃度値ヒストグラムは、正規分布になると仮定する。   This is a model that the distribution of voxel density values differs for each tissue. When the tissues are arranged in order of increasing concentration value (close to white), the order is white matter, gray matter, and cerebrospinal fluid. In this case, it is assumed that the density value histogram after the separation is a normal distribution.

2つめは、空間的な位置に対する3組織の存在確率のモデルである。   The second is a model of the existence probability of three organizations with respect to a spatial position.

人間の脳では、空間的な位置に対する組織分布は、個人差はあるがおおよそ似通っている。そこで、多くの人の脳画像を集めて調べてみると、空間的な座標に対応するボクセルが、どの組織である確率が高いかということが分かる。例えば、あるスライス画像のボクセルを単位とした画像サイズを、X=256、Y=256としたときのある座標(x,y)=(5,10)における存在確率は、(白質、灰白質、脳脊髄液)=(20%,70%,10%)であるという具合である。即ち、個人差による空間的分布の違いを確率で表現したモデルと言える。   In the human brain, the tissue distribution with respect to the spatial position is roughly similar, although there are individual differences. Therefore, when many brain images of many people are collected and examined, it can be seen which tissue has a high probability that the voxel corresponding to the spatial coordinates is. For example, the existence probability at a certain coordinate (x, y) = (5, 10) when the image size in units of voxels of a slice image is X = 256, Y = 256 is (white matter, gray matter, Cerebrospinal fluid) = (20%, 70%, 10%). That is, it can be said that the model expresses the difference in spatial distribution due to individual differences by probability.

ここでは、各ボクセルはいずれかの組織に属することと、空間的な位置に応じて各組織の存在確率が事前に分かっていることを仮定する。   Here, it is assumed that each voxel belongs to one of the organizations and the existence probability of each organization is known in advance according to the spatial position.

以上の2つの仮定が共に成立するような最適な組織分布を推定する。具体的には次式を最大とするように、各ボクセル値をそれぞれの組織に振り分ける。   An optimal tissue distribution is estimated so that both of the above two assumptions hold. Specifically, each voxel value is distributed to each organization so as to maximize the following equation.

Figure 2005230456
ここで、rijk:クラスタkのボクセル(i,j)がfijである尤度関数
ijk:ボクセル(i,j)がクラスタkに属する事前確率
ij:ボクセル(i,j)の濃度値
ijk:ボクセル(i,j)組織kに属する確率
k:クラスタkに属するボクセル数
k:各クラスタのボクセルの分散
k:各クラスタのボクセルの平均値
Figure 2005230456
Where r ijk : the likelihood function with voxel (i, j) of cluster k being f ij
s ijk : Prior probability that voxel (i, j) belongs to cluster k
f ij : concentration value of voxel (i, j)
b ijk : Probability of belonging to voxel (i, j) organization k
h k : number of voxels belonging to cluster k
c k : Voxel distribution of each cluster
v k : average value of voxels in each cluster

なお、上記の2つのモデルに加えて、MRI特有の不均一性雑音モデルも導入した、組織抽出方法の詳細が、Ashburner J,Friston KJ:Voxel-Based Morphometry…The Methods.Neuroimage 11(6Ptl):pp.805-821,2000に説明されている。   In addition to the above two models, the details of the tissue extraction method, in which a non-uniform noise model peculiar to MRI is also introduced, is described in Ashburner J, Friston KJ: Voxel-Based Morphometry ... The Methods. Neuroimage 11 (6Ptl): pp. 805-821, 2000.

このように、予め多くの健常者の脳画像から、灰白質、白質、脳脊髄液のそれぞれの組織についてボクセル毎に算出した存在確率をテンプレートとして用いることにより、灰白質組織が3次元的に抽出された脳画像(以下、灰白質脳画像ともいう)が得られる。   As described above, the gray matter tissue is extracted three-dimensionally from the brain images of many healthy subjects by using the existence probability calculated for each voxel for each of the gray matter, white matter, and cerebrospinal fluid tissues as a template. The obtained brain image (hereinafter also referred to as gray matter brain image) is obtained.

以上のように灰白質組織が抽出された脳画像に対して、前記ステップ3の画像平滑化の処理を行なう。   As described above, the image smoothing process in step 3 is performed on the brain image from which the gray matter tissue has been extracted.

ここでは、画像のS/N比を向上させることと、次の解剖学的標準化に用いるテンプレート画像とsmoothnessが等しくなるようにすることを目的として、3次元ガウシアンカーネルによって画像の平滑化を行なう。この平滑化に使用するフィルタのFWHM(半値幅)は8mm程度とする。   Here, for the purpose of improving the S / N ratio of the image and making the smoothness equal to the template image used for the next anatomical standardization, the image is smoothed by a three-dimensional Gaussian kernel. The FWHM (half width) of the filter used for smoothing is about 8 mm.

具体的な処理としては、3次元的脳画像と、3次元ガウシアン関数の3次元的な畳み込み(コンボリューション)を行なう。これは、x,y,z各方向における1次元の畳み込みを逐次的に行なうことで可能である。   As a specific process, a three-dimensional brain image and a three-dimensional convolution of a three-dimensional Gaussian function are performed. This is possible by sequentially performing a one-dimensional convolution in the x, y, and z directions.

以下に、1次元のガウシアンカーネルの畳み込みを行なう方法を、図6に示す平滑化の概念図を参照して説明する。   Hereinafter, a method of performing convolution of a one-dimensional Gaussian kernel will be described with reference to a conceptual diagram of smoothing shown in FIG.

1次元の離散ガウシアン関数をgとすると下記式(2)で表わされる。この式で、jはガウシアンカーネルの中心をj=0としたときのボクセルに対応する位置である。1次元の画像信号(ボクセル値)をfとすると、fと1次元ガウシアンカーネルgとのコンボリューションhは、式(2)のような積和演算によって表わされる。ここで、dは畳み込み演算を行なうガウシアンカーネルの長さであり、実装により決定する。例えばdをFWHMの6倍程度とする実装であれば、FWHM=8mm、ボクセルの大きさ2×2×2mmの場合は、d=8×6/2=24[voxel]となる。   When the one-dimensional discrete Gaussian function is g, it is expressed by the following equation (2). In this equation, j is a position corresponding to a voxel when the center of the Gaussian kernel is set to j = 0. If the one-dimensional image signal (voxel value) is f, the convolution h between f and the one-dimensional Gaussian kernel g is expressed by a product-sum operation as shown in Equation (2). Here, d is the length of the Gaussian kernel that performs the convolution operation, and is determined by the implementation. For example, in the case of an implementation in which d is about 6 times FWHM, when FWHM = 8 mm and voxel size is 2 × 2 × 2 mm, d = 8 × 6/2 = 24 [voxel].

Figure 2005230456
Figure 2005230456

以上が1次元での畳み込みであるが、同様の処理を図7の概念図に示すように、3次元的な脳画像についてこれをx軸方向、y軸方向、z軸方向のそれぞれについて逐次的に実行することで、3次元的な畳み込みを実現することができる。   The above is one-dimensional convolution, but as shown in the conceptual diagram of FIG. 7, the same processing is performed sequentially for each of the x-axis direction, the y-axis direction, and the z-axis direction for a three-dimensional brain image. By executing the above, three-dimensional convolution can be realized.

以上のように灰白質脳画像のsmoothnessを調整した後、前記ステップ4の解剖学的標準化と呼ばれる処理を行なう。これは、個人の間に存在する脳画像の解剖学的な違いを吸収するために、脳全体の大きさに対する大局的な補正と、部分的な大きさに対する局所的な補正を行なうものである。   After adjusting the smoothness of the gray matter brain image as described above, a process called anatomical standardization in Step 4 is performed. In order to absorb the anatomical differences in the brain images that exist between individuals, this is a global correction for the whole brain size and a local correction for a partial size. .

具体的には、図8に処理の特徴を概念的に示すように、線形変換と非線形変換を用いて、前記データベース部30から読み出した標準的な灰白質脳画像テンプレート34との誤差の平方和が最小になるように画像処理を行なう。ここで用いる灰白質脳画像テンプレート34は、多くの健常者から灰白質組織を抽出した脳画像から得られている平均画像である。この解剖学的標準化処理では、初めに線形変換による位置や大きさ、角度の大局的な補正を行ない、次に非線形変換によって局所的な凹凸等の形状の補正を行なう。   Specifically, as conceptually shown in FIG. 8, the square sum of errors from the standard gray matter brain image template 34 read from the database unit 30 using linear transformation and nonlinear transformation. Image processing is performed so that is minimized. The gray matter brain image template 34 used here is an average image obtained from brain images obtained by extracting gray matter tissue from many healthy subjects. In this anatomical standardization process, first, global correction of the position, size, and angle by linear transformation is performed, and then the shape of local irregularities and the like is corrected by nonlinear transformation.

ここで行なう線形変換は、前記ステップ1の位置合わせと同様のアフィン変換である。又、非線形変換は、図9に処理のイメージを示すように、x方向、y方向それぞれについてDCT(離散的コサイン変換)の低周波成分によって構成される変形場を推定し、この変形場によって元画像の変換を行なうものである。   The linear transformation performed here is an affine transformation similar to the alignment in step 1 described above. In addition, as shown in FIG. 9, the non-linear transformation estimates a deformation field composed of low-frequency components of DCT (discrete cosine transform) in each of the x direction and the y direction. The image is converted.

以上のように解剖学的標準化を施した灰白質脳画像(以下、標準化脳画像ともいう)に対して、前記ステップ5の第2の画像平滑化の処理を行なう。   The second image smoothing process of step 5 is performed on the gray matter brain image (hereinafter also referred to as a standardized brain image) subjected to anatomical standardization as described above.

これは、上記標準化脳画像のS/N比を向上させると共に、後に比較を行なう際に標準として使用する健常者の画像群と画像のsmoothnessを等しくするための処理であり、3次元ガウシアンカーネルを使用してFWHMを12〜15mm程度として行なう。   This is a process for improving the S / N ratio of the above-mentioned standardized brain image and making the smoothness of the image equal to the image group of the healthy person used as a standard when performing comparison later. The FWHM is set to about 12 to 15 mm.

具体的には、FWHMの値が異なる以外は、前記ステップ3の画像平滑化処理の場合と同様の処理を行なうので実現できる。このように第2の画像平滑化を行なうことにより、解剖学的標準化処理で完全に一致しない個体差を低減させることができる。   Specifically, it can be realized by performing the same process as the image smoothing process in step 3 except that the value of FWHM is different. By performing the second image smoothing in this way, individual differences that do not completely match in the anatomical standardization processing can be reduced.

以上のように第2の画像平滑化を行なった標準化脳画像に対して、前記ステップ6の濃度値補正を行なう。ここでは、ボクセルを単位とした画素値に相当するボクセル濃度値の補正を行なう。   The density value correction in step 6 is performed on the standardized brain image subjected to the second image smoothing as described above. Here, the correction of the voxel density value corresponding to the pixel value in units of voxels is performed.

これは、後に比較を行なう際に標準として使用する健常者の画像群におけるボクセル値の分布に合わせる処理であり、脳全体のボクセル値を補正する。具体的には、図10に濃度値補正の特徴を示すように、全ボクセルについて以下の変換式により濃度値の補正を行なう。   This is a process to match the distribution of voxel values in the image group of healthy subjects used as a standard when performing comparison later, and corrects the voxel values of the entire brain. Specifically, as shown in FIG. 10, the density value correction is performed for all voxels by the following conversion formula, as shown in FIG.

x’=(MEANnormal/MEANsubject)・x …(4)
但し、x:補正前の濃度値
x’:補正後の濃度値
MEANnormal:健常者画像群の全ボクセル濃度値の平均
MEANsubject:処理対象画像の全ボクセル濃度値の平均
x ′ = (MEANnormal / MEANsubject) · x (4)
Where x: density value before correction x ′: density value after correction MEANnormal: average of all voxel density values of healthy subject image group MEANsubject: average of all voxel density values of the image to be processed

このように入力画像(標準化脳画像)のボクセル濃度値を健常者画像群のそれに合わせる補正を行なった後、アーチファクトを取り除く処理を行なう。このアーチファクトは、図11(A)にイメージを示すように、前記ステップ5で行なった半値幅の大きい画像平滑化(2)によって、本来は脳組織が存在しないボクセル位置に生じているエラー領域である。   In this way, after correcting the voxel density value of the input image (standardized brain image) to that of the healthy subject image group, a process of removing artifacts is performed. As shown in the image of FIG. 11A, this artifact is an error region generated at the voxel position where the brain tissue does not originally exist by the image smoothing (2) having a large half-value width performed in the step 5. is there.

具体的には、同図(B)に示すように、前記ステップ4の解剖学的標準化で用いた灰白質組織の標準脳画像テンプレートを2値化したものをマスクとして、該マスクを標準化脳画像の各ボクセル値に乗算することにより、これらのアーチファクトを除去する。   Specifically, as shown in FIG. 4B, the standardized brain image template of the gray matter tissue used in the anatomical standardization in the step 4 is used as a mask, and the mask is used as a standardized brain image. These artifacts are removed by multiplying each voxel value of.

以上のようにボクセル濃度値の補正を行なった後、前記ステップ7の統計処理を行なう。ここでは、以上のステップ1〜6の各処理を通して全体的な標準化を行なった被検者のMRI脳画像と、予め収集して前記データベース部30に健常者画像データベース36として保存してある健常者のMRI脳画像群との比較検定を行なう。使用する健常者画像群は、被検者の年齢に近いもので構成されていることが望ましい。   After correcting the voxel density value as described above, the statistical processing in step 7 is performed. Here, the MRI brain image of the subject who has undergone overall standardization through each of the above steps 1 to 6, and the healthy person previously collected and stored as the healthy person image database 36 in the database unit 30 A comparison test with the MRI brain image group is performed. It is desirable that the group of healthy subject images to be used is composed of a subject close to the age of the subject.

具体的には、図12にイメージを示すように、このような健常者画像群とボクセル単位で1:N(Nは健常者画像の総数)の比較検定を行ない、統計的に有意な差が見られる(異常と推定される)ボクセルを検出する。   Specifically, as shown in the image of FIG. 12, a comparison test of 1: N (N is the total number of healthy subject images) is performed for such healthy subject image groups and voxel units, and there is a statistically significant difference. Detect voxels that are seen (presumed to be abnormal).

まず、全てのボクセルについて、それぞれ次式で表わされるZスコアを算出する。   First, for all voxels, Z scores expressed by the following equations are calculated.

Figure 2005230456
Figure 2005230456

このように、Zスコアは、被検者画像のボクセル値と、健常者画像群の対応するボクセルのボクセル値平均との差を、標準偏差でスケーリングした値であり、これは灰白質容積の相対的低下の度合を示すものである。   Thus, the Z score is a value obtained by scaling the difference between the voxel value of the subject image and the average voxel value of the corresponding voxel of the healthy subject image group by the standard deviation, and this is a relative value of the gray matter volume. This indicates the degree of the decline.

次に、適当な臨界値Z’を定め、Zスコアが
Z’<Z …(6)
となるようなボクセルを求め、統計的に有意な差が見られるボクセルとする。臨界値には、約95%以上の確率で異常と推定できるZ’=2を用いる。これにより、異常部位の存在を認識し、抽出することができる。
Next, an appropriate critical value Z ′ is determined, and the Z score is Z ′ <Z (6)
The voxels that satisfy the above are obtained, and the voxels exhibiting a statistically significant difference are obtained. As the critical value, Z ′ = 2 that can be estimated to be abnormal with a probability of about 95% or more is used. Thereby, the presence of an abnormal part can be recognized and extracted.

なお、ステップ7で使用した健常者画像データベース36は、予め別途収集した健常者の画像群のそれぞれに対して、前記ステップ1〜6の位置合わせ→灰白質組織抽出→画像平滑化(1)→解剖学的標準化→画像平滑化(2)→濃度補正を順次行なって同様に作成し、保存してあるものである。   In addition, the healthy person image database 36 used at step 7 is the alignment of the steps 1 to 6 with respect to each of the healthy person image groups separately collected in advance → gray matter tissue extraction → image smoothing (1) → Anatomic standardization-> image smoothing (2)-> density correction is performed in order and created and stored in the same manner.

又、この診断支援システムにおいては、収集したこれらの健常者画像を、例えば5歳毎又は10歳毎というように年代別に分類し、それぞれの群について算出した平均値と標準偏差を記憶装置に保存しておくことにより、Zスコアによる検定を行なうことができる。   Also, in this diagnosis support system, these collected healthy person images are classified by age, for example, every 5 years or every 10 years, and the average value and standard deviation calculated for each group are stored in a storage device. By doing so, the test based on the Z score can be performed.

又、その際には、被検者の年齢を中心とした一定の年齢幅に区切って、例えば被検者の年齢が76歳の場合であれば、それを中心とした74〜78歳(幅を5歳とした)の範囲の健常者画像を収集し、比較するようにしてもよい。   In that case, if the subject's age is 76 years, for example, if the subject's age is 76 years old, it is 74 to 78 years old (width) May be collected and compared.

なお、このようにZスコアを使用する場合には、ボクセル毎に上記平均値と標準偏差のデータだけを持っていればよいので、データ作成後は画像データ自体を保存しておく必要がないという利点もある。   When using the Z score in this way, it is only necessary to have the above average value and standard deviation data for each voxel, so there is no need to store the image data itself after data creation. There are also advantages.

本実施形態においては、以上詳述したステップ1〜7の基本的処理フローによる診断支援を自動化するために、前記ステップ0の入力画像のチェック、ステップ21の組織抽出結果のチェック、ステップ41の解剖学的標準化結果の自動チェックを併せて行なう。以下に、これら各チェック内容について詳細に説明する。   In the present embodiment, in order to automate the diagnosis support based on the basic processing flow in steps 1 to 7 described in detail above, the input image check in step 0, the tissue extraction result check in step 21 and the anatomy in step 41 are performed. In addition, an automatic check of scientific standardization results is performed. The details of each check will be described below.

(A)入力画像のチェック:
入力画像のスペックの妥当性を評価する。妥当性を評価する必要性があるのは次のような理由による。一つは、MRI脳画像は磁場強度の違いなどによって画質に差が生じるが、解像度やダイナミックレンジが基準を満たしている必要があるからである。これらのスペックは、最終的な処理結果の信頼性に大きく影響する。
(A) Input image check:
Evaluate the validity of the input image specifications. It is necessary to evaluate the relevance for the following reasons. One is that the MRI brain image has a difference in image quality due to a difference in magnetic field intensity, but the resolution and dynamic range need to satisfy the standard. These specifications greatly affect the reliability of the final processing result.

又、もう一つは、脳画像のデータの保持方法には多様な形態があり得るからである。MRI画像を3次元情報として保持する方法は、x、y平面の画像をスライスの枚数分(これがz方向に相当する)保持するのが一般的であるが、ここでx、y平面として、transverse,sagittal,coronalのそれぞれの方向の画像をとることができる。又、それぞれについて左右、上下を反転したり、z方向の向きを入れ替えたりすることも可能である。更に、画像の処理や保管のために画像フォーマット変換を行なうこともあるが、必ずしも1方向のみの画像スライスから構成されているとは限らない。例えば、transverse画像の連続的なスライス100枚に、個人を見分け易くするために中心付近のsagittal画像1枚を追加した101スライスの画像としておくこともある。   Another reason is that there can be various forms of brain image data holding methods. As a method for holding MRI images as three-dimensional information, it is common to hold images on the x and y planes as many as the number of slices (this corresponds to the z direction). , Sagittal, coronal images can be taken. Also, it is possible to invert the left and right and up and down for each, and to change the direction in the z direction. Furthermore, image format conversion may be performed for image processing and storage, but the image slice is not necessarily composed of only one direction of image slice. For example, the image may be a 101-slice image in which one sagittal image near the center is added to 100 consecutive slices of a transverse image in order to easily identify an individual.

このような事情から、ユーザは、入力する画像はシステムが想定する(予め設定されている)スペックを満たしているのか注意深く視覚で確認する必要があったため、ユーザには大きな作業負荷がかかっていた。   For this reason, the user has to check visually whether the image to be input satisfies the specs (preset) assumed by the system, and thus the user has a heavy workload. .

そこで、本実施形態では、解像度、ダイナミックレンジ、画像方向の自動確認、全スライス画像の連続性のチェック(隣接フレーム間差分による)の項目について、総合的に自動評価(チェック)を行なう機能が前記処理部20の入出力評価機能(ソフトウェア)22により実現されている。以下、これらの各項目について記述する。   Therefore, in the present embodiment, the function of comprehensively evaluating automatically (checking) the items of resolution, dynamic range, automatic confirmation of the image direction, and checking the continuity of all slice images (by the difference between adjacent frames) is described above. This is realized by an input / output evaluation function (software) 22 of the processing unit 20. Each of these items will be described below.

(a)画像の解像度:
前述したように、頭部MRI画像は3次元情報であり、その最小単位は2次元画像でいうピクセルに厚みを加えたボクセルと呼ばれる3次元的な単位である。x、y、z軸それぞれのボクセル数X、Y、Zを解像度とする。
(A) Image resolution:
As described above, the head MRI image is three-dimensional information, and the minimum unit is a three-dimensional unit called a voxel obtained by adding a thickness to a pixel in the two-dimensional image. The number of voxels X, Y, and Z on the x, y, and z axes is taken as the resolution.

入力画像の解像度は、画像ファイルのヘッダ部(記録領域)より取得する。これを、医用画像においてよく用いられるDICOMフォーマットとANALYZEフォーマットを使用する場合について説明する。   The resolution of the input image is acquired from the header portion (recording area) of the image file. This will be described for the case of using the DICOM format and ANALYZE format that are often used in medical images.

DICOMフォーマットの場合は、図13にイメージを示すように、1ファイルに1スライス画像分のデータが格納されており、3次元データはスライス数のファイルから構成される。DICOMの形式は図示されているように、Tagと値とを持つレコードの集合であり、Tagが解像度に対応するレコードの値から解像度X、Yを取得する。又、スライス数はファイル数に対応するので、解像度Zはファイル数から取得する。   In the case of the DICOM format, as shown in the image of FIG. 13, data for one slice image is stored in one file, and the three-dimensional data is composed of files of the number of slices. As shown in the figure, the DICOM format is a set of records having a tag and a value, and the tag acquires resolutions X and Y from the value of the record corresponding to the resolution. Since the number of slices corresponds to the number of files, the resolution Z is obtained from the number of files.

ANALYZEフォーマットの場合は、図14に示すように、ヘッダファイルとデータファイルが1つずつある構成である。ヘッダファイルのバイト列の構成は、header key,image dimension,data historyの3部分からなり、それぞれの長さや要素は固定となっている。この中で画像解像度X、Y、Zはimage dimension部分のdim[1]−dim[3]という配列に格納されているので、これを取得する。 In the case of the ANALYZE format, as shown in FIG. 14, there is one header file and one data file. The structure of the header file byte sequence is header key, image dimension, data It consists of three parts of history, and each length and element are fixed. Among these, image resolution X, Y, Z is image Since it is stored in the array of dimension part dim [1] -dim [3], this is acquired.

(b)ダイナミックレンジdB:
ダイナミックレンジは、一般に信号の最小値と最大値の比率をdB単位で表現したものであり、次式で表わされる。
(B) Dynamic range dB:
The dynamic range is generally a ratio between the minimum value and the maximum value of a signal expressed in dB, and is expressed by the following equation.

dB=20log(A/B)
ここで、Aはボクセル値の最大値
Bはボクセル値の最小値
dB = 20log (A / B)
Where A is the maximum voxel value
B is the minimum voxel value

なお、画像中のボクセル値の最大値と最小値を求めるときには、図15に脳画像を構成するボクセルに関する濃度値分布のイメージを示すように、異常な濃度値をノイズ成分として取り除くために、ヒストグラム上の外れ値を除去する。具体的には、前記Zスコアの場合に式(6)により異常と判定した方法と同様の方法により、平均値から大きく外れた値をノイズとして除去する。   When obtaining the maximum value and the minimum value of the voxel values in the image, a histogram is used to remove abnormal density values as noise components, as shown in FIG. Remove outliers above. Specifically, in the case of the Z score, a value greatly deviating from the average value is removed as noise by a method similar to the method determined to be abnormal by Expression (6).

以上の(a)、(b)の各値について、予め設定されているシステムが前提としている値と比較を行ない、システムが想定している条件と異なっている場合には警告を発する。   Each of the above values (a) and (b) is compared with a value assumed by a preset system, and a warning is issued if the value is different from the condition assumed by the system.

(c)画像方向の評価:
入力画像はスライス画像の集合によって構成されるが、前述したように、通常、そのスライス画像の断面軸方向にはtransverse(横断面),sagittal(矢状断面),coronal(冠状断面)の3方向があり、更にそれぞれの断面について上下反転及び左右反転が考えられる。
(C) Image orientation evaluation:
The input image is composed of a set of slice images. As described above, the slice image usually has three directions: transverse (cross section), sagittal (sagittal section), and coronal (coronal section). Further, upside down and left side upside down can be considered for each cross section.

この画像方向間評価(チェック)は、入力画像について断面軸方向とその上下反転の同定を行ない、入力画像の方向がシステムの想定するものと合致していることを確認することにより、図16に例示するような誤入力が起こることを防止するものである。   This inter-image direction evaluation (check) is performed by identifying the cross-sectional axis direction and its upside-down inversion for the input image, and confirming that the direction of the input image matches that assumed by the system. This is to prevent the erroneous input as exemplified.

ここでは、画像方向を自動的に同定するために、頭部MRI画像について以下の仮定を行なう。   Here, the following assumptions are made for the head MRI image in order to automatically identify the image direction.

(仮定1)軸の対称性は大きい順に、側方向→矢状方向→軸(上下)方向である。   (Assumption 1) The symmetry of the axis is, in descending order, side direction → sagittal direction → axis (vertical) direction.

(仮定2)眼球は左右対称であり、頭部前方にある。   (Assumption 2) The eyeball is symmetric and is in front of the head.

(仮定3)頭部画像の下端まで組織が存在するが、上端には組織はない。   (Assumption 3) The tissue exists up to the lower end of the head image, but there is no tissue at the upper end.

仮定1の根拠は、次のとおりである。頭部3次元画像における対称性のイメージを表わした図17に示されるように、人の頭部は概ね左右対称なので、側方向については対称の度合いが大きい。他の矢状方向、軸方向は基本的には非対称であるが、同図のtransverse画像を見ると分かるように、頭頂から大脳部分までは矢状方向でもやや対称性が見られる。故に、対称性の度合いを矢印の太さで表わしたように、高い順に並べると、側方向、矢状方向、軸方向となる。   The basis of Assumption 1 is as follows. As shown in FIG. 17 showing the symmetry image in the head three-dimensional image, the human head is generally bilaterally symmetric, and therefore the degree of symmetry is large in the lateral direction. The other sagittal and axial directions are basically asymmetric, but as can be seen from the transverse image in the figure, there is some symmetry in the sagittal direction from the top of the head to the cerebrum. Therefore, when the degree of symmetry is represented by the thickness of the arrow, the side direction, the sagittal direction, and the axial direction are arranged in descending order.

仮定2は眼球の位置に関する特徴であり、図18に各断面方向におけるイメージを示す。   Assumption 2 is a characteristic regarding the position of the eyeball, and FIG. 18 shows images in the respective cross-sectional directions.

仮定3は、頭部の下部には首があるため、画像の端まで組織が存在するのに対し、上方には頭皮の外側に連続する組織はないことから、得られる画像上の特徴である。   Assumption 3 is a feature on the obtained image because there is a neck at the bottom of the head, and there is tissue to the edge of the image, but there is no continuous tissue outside the scalp above. .

以上の仮定を前提にして、図19に示すフローチャートに従って画像方向の自動チェックを実現する。   Based on the above assumptions, automatic image direction checking is realized according to the flowchart shown in FIG.

まず初めに、入力された3次元画像の各軸に対する対象性を評価するために非対称度を、以下のようにして算出する(ステップ11)。   First, in order to evaluate the objectivity with respect to each axis of the inputted three-dimensional image, the asymmetry is calculated as follows (step 11).

(1)総有効ボクセル数Kを算出する。ここで有効ボクセル数とは、3次元画像上で人間の組織が存在する部分に対応するボクセルの数とする。Kは、画像全体のボクセル数から頭部外側のボクセル数を除いたものとして計算する。   (1) The total number of effective voxels K is calculated. Here, the number of effective voxels is the number of voxels corresponding to a portion where a human tissue exists on a three-dimensional image. K is calculated as the number of voxels in the entire image minus the number of voxels outside the head.

具体的には、入力画像について2値化処理を行なったものについて、各スライス画像の各走査線の左右両側から、頭部外側のボクセルに対応する画素値0をカウントすることで行なう。この概念について、ある断面のある走査線に着目して模式的に示したのが図20であり、両方向からボクセル値が0で連続する長さを求め、これを走査線全体のボクセル数から減ずることにより、その走査線上の有効ボクセル数を得る。これを画像全体について行ない、各走査線の有効ボクセル数を積分することにより総数Kを求める。   Specifically, for the input image that has been binarized, the pixel value 0 corresponding to the voxel outside the head is counted from the left and right sides of each scanning line of each slice image. FIG. 20 schematically shows this concept by paying attention to a scanning line having a certain cross section. The length in which the voxel value is continuous at 0 is obtained from both directions, and this is subtracted from the number of voxels in the entire scanning line. Thus, the number of effective voxels on the scanning line is obtained. This is performed for the entire image, and the total number K is obtained by integrating the number of effective voxels of each scanning line.

なお、総有効ボクセルKを算出する際には、ノイズの影響を受けないようにするために、例えば、3×3×3のマスクによるメディアンフィルタをかけて、予め孤立点ノイズを除去しておくことも効果的である。   When calculating the total effective voxel K, for example, a median filter using a 3 × 3 × 3 mask is applied to remove isolated point noise in advance so as not to be affected by noise. It is also effective.

(2)図21に模式的に示すように、x、y、z各軸に対して垂直な面で、且つその面によって有効ボクセルを分けたときに一方がK/2に最も近くなる面:Ax(x=mx)、Ay(y=my)、Az(z=mz)を、仮対称面として求める。   (2) As schematically shown in FIG. 21, a plane that is perpendicular to the x, y, and z axes, and one of which is closest to K / 2 when the effective voxels are divided by the plane: Ax (x = mx), Ay (y = my), and Az (z = mz) are obtained as temporary symmetry planes.

仮対称面の求め方の概念を、x軸について図22に例示する。仮対称面(x=x’)によって二分される有効ボクセル数をそれぞれa(x’)、b(x’)とし、それらの差の絶対値|a(x)−b(x)|が最小となるx’を仮対称面の位置mxとする。   The concept of how to obtain the provisional symmetry plane is illustrated in FIG. 22 with respect to the x axis. The number of effective voxels divided by the temporary symmetry plane (x = x ′) is a (x ′) and b (x ′), respectively, and the absolute value | a (x) −b (x) | Is set as the position mx of the provisional symmetry plane.

(3)仮対称面Ax、Ay、Azそれぞれについて、対称性からのずれの程度を表わす非対称度ASYNx、ASYNy、ASYNzを求める。   (3) For each of the provisional symmetry planes Ax, Ay, Az, asymmetry degrees ASYNx, ASYNy, ASYNz representing the degree of deviation from symmetry are obtained.

これらは次式のように、それぞれ仮対称面Ax、Ay、Azに関して面対称となる位置のボクセル値の残差(差分)の平方和として定義する。   These are defined as the sum of squares of residuals (differences) of voxel values at positions that are plane-symmetrical with respect to the provisional symmetry planes Ax, Ay, and Az, as in the following equations.

Figure 2005230456
Figure 2005230456

なお、図23に示されるように、座標(x,y,z)の面x=mxに関して面対称な座標は(2mx−x,y,z)であり、y軸、z軸に関しても同様である。   Note that, as shown in FIG. 23, the coordinate symmetric about the plane x = mx of the coordinate (x, y, z) is (2mx−x, y, z), and the same applies to the y axis and the z axis. is there.

次に、今求めた非対称度を用いて軸の決定を行なう(ステップ12)。前記仮定1より、各軸の非対称度ASYNx、ASYNy、ASYNzの低い順、即ち対称性の高い順に、それぞれの軸を、側方向、矢状方向、軸(上下)方向に割り当てる。   Next, the axis is determined using the asymmetry obtained now (step 12). From Assumption 1, the respective axes are assigned to the lateral direction, the sagittal direction, and the axial (vertical) direction in ascending order of asymmetry ASYNx, ASYNy, ASYNz of each axis, that is, in descending order of symmetry.

次に、眼球の位置を抽出し(ステップ13)、その情報等によって画像の上下を決定する(ステップ14)。眼球位置の抽出は以下の手順で行なう。   Next, the position of the eyeball is extracted (step 13), and the top and bottom of the image are determined based on the information and the like (step 14). The eye position is extracted by the following procedure.

(1)フィルタ処理
3次元的な頭部画像上で眼球抽出フィルタをかけ、眼球候補を探索する。眼球抽出用フィルタは球状のフィルタであり、殻の部分で値が1に近くなり、中心部分及び殻の外側部分では値が0であるもので、中心からの半径をrとすると次式で表わされる。
(1) Filter processing An eyeball extraction filter is applied to a three-dimensional head image to search for eyeball candidates. The filter for eyeball extraction is a spherical filter, and the value is close to 1 in the shell part, and the value is 0 in the center part and the outer part of the shell. When the radius from the center is r, it is expressed by the following equation. It is.

Figure 2005230456
Figure 2005230456

ここで、R1、R2、R3、Raは定数であり、経験的に定めるものとする。これを2次元的に表わしたものを図24に示す。このようなフィルタを用いるのは、MRI画像において、眼球の中心部分は黒く(値が0に近く)そのすぐ外側は周囲と比較しても白い(値が大きい)という特徴を利用しているからである。   Here, R1, R2, R3, and Ra are constants and are determined empirically. A two-dimensional representation of this is shown in FIG. The reason why such a filter is used is that, in the MRI image, the central part of the eyeball is black (value is close to 0), and the outer side is white even when compared with the surrounding area (value is large). It is.

このフィルタによって画像全体に畳み込み演算を行なったものについて、演算値の大きい順にN点の座標を選択し、これらを眼球中心の候補点とする。ここでNは経験的に定まる定数とする。   For the convolution calculation performed on the entire image by this filter, the coordinates of N points are selected in descending order of the calculation value, and these are set as candidate points at the center of the eyeball. Here, N is a constant determined empirically.

なお、上記R1、R2、R3、Raの値は、与えられた入力画像における頭の大きさから適応的に決定するようにしてもよい。   Note that the values of R1, R2, R3, and Ra may be determined adaptively from the size of the head in a given input image.

(2)眼球対応点の抽出
左右の眼球は、前記図17における対称面に関して対称であると仮定する。前述した対称性の算出においてAx、Ay、Azのうち、最も対称性の高い面をAとし、この面と最も対称性が高い眼球候補点の組合せを、真の眼球とする。
(2) Extraction of Eyeball Corresponding Points It is assumed that the left and right eyeballs are symmetric with respect to the symmetry plane in FIG. In the above-described calculation of symmetry, among Ax, Ay, and Az, the most symmetric surface is A, and the combination of this surface and the most symmetric eyeball candidate point is the true eyeball.

具体的には、候補N点についてペアを作ることを考えると、N(N−1)/2ペアとなるが、これら全てのペアについて面Aとの対称性を算出する。ここで対称性は以下の3要素を考える。   Specifically, considering that a pair is formed for the candidate N points, N (N−1) / 2 pairs are obtained, but symmetry with respect to the plane A is calculated for all these pairs. Here, the following three elements are considered for symmetry.

i)角度:候補点のペア同士を結ぶベクトルと、面Aの法線ベクトルのなす角θが0に近い。   i) Angle: The angle θ formed by the vector connecting the pair of candidate points and the normal vector of the surface A is close to zero.

ii)距離:面Aから2つの候補点までの距離w、wが等しい。 ii) Distance: The distances w 1 and w 2 from the surface A to the two candidate points are equal.

iii)大きさ:2つの候補点の演算値(眼球抽出フィルタによる値)n、nが大きい。 iii) Size: The calculation values (values obtained by the eyeball extraction filter) n 1 and n 2 of the two candidate points are large.

以上3要素について考慮した次式でペアの対称性を定義するものとする。   The symmetry of the pair is defined by the following equation considering the above three elements.

SYNeye=ncosθ/(|w−w|+1) SYNeye = n 1 n 2 cos θ / (| w 1 −w 2 | +1)

このSYNeyeが最も大きい候補点のペアを真の眼球とみなす。   A pair of candidate points having the largest SYNeye is regarded as a true eyeball.

(3)前後向きの決定
前述した軸の決定処理において、矢状方向の軸は決定しているが、前後及び上下の向きはまだ決まっていない。そこで、(2)で求まった左右の眼球を結ぶ線分との距離が最も近い面を、coronal前面として、前後の向きを決定する。
(3) Determination of front-rear direction In the above-described axis determination process, the sagittal axis is determined, but the front-rear and vertical directions are not yet determined. Therefore, the front-rear direction is determined with the surface closest to the line segment connecting the left and right eyeballs obtained in (2) as the coronal front surface.

(4)上下向きの決定
更に、上下の向きを決定する。図25に示すように、sagittal断面の有効ボクセル数を軸方向に対してプロットすると、下部に比べ上部では有効ボクセル数が急激に減っていき最後に0になることが分かる。そこで、入力画像の軸は既に決定しているので、上下方向についてスライス毎の有効ボクセル数のプロットを行ない、以下の条件で、上下を決定する。
(4) Determination of vertical direction Further, the vertical direction is determined. As shown in FIG. 25, when the number of effective voxels in the sagittal cross section is plotted with respect to the axial direction, it can be seen that the number of effective voxels decreases sharply at the upper part compared to the lower part and finally becomes zero. Therefore, since the axis of the input image has already been determined, the number of effective voxels for each slice is plotted in the vertical direction, and the vertical direction is determined under the following conditions.

i)端が0になる場合はそちらが上部
ii)どちらの端も0にならない場合は、直前3スライス分の有効ボクセル数の和が小さい方が上部
i) If the end is 0, that is the top
ii) If neither end is 0, the lower sum of the number of valid voxels for the previous three slices is

以上によって、入力画像についての3軸と、矢状方向と軸(上下)方向の向きを推定することができる。   By the above, it is possible to estimate the three axes, the sagittal direction, and the direction of the axis (vertical) direction for the input image.

次いで、以上のように推定したものと、システムで想定している(条件として設定されている)軸と方向が合致するか否かの判定を行ない、入力画像の方向の妥当性の評価を行ない(ステップ15)、合致していない場合は注意を促す(警告を発する)。   Next, it is determined whether or not the direction estimated with the above and the axis assumed by the system (set as a condition) match the direction, and the validity of the direction of the input image is evaluated. (Step 15), if they do not match, call attention (issue a warning).

(d)全スライス画像の連続性のチェック
1人分の脳画像をスライス画像の集合として管理する場合、図26に示すように、通常は画像シーケンス1のように一定方向(この場合はtransverse)の連続したスライス画像のシーケンスとして表わすことが多い。しかし、画像シーケンス2のように、一定の方向の画像が続いた後、その全体像を示すために、別の方向の画像(この場合はsagittal画像)を1枚付けておく場合も考えられる。
(D) Checking the continuity of all slice images When managing brain images for one person as a set of slice images, as shown in FIG. 26, usually a fixed direction (in this case, transverse) as in image sequence 1 Often represented as a sequence of consecutive slice images. However, as shown in the image sequence 2, after an image in a certain direction continues, an image in another direction (in this case, a sagittal image) may be attached to show the entire image.

従って、画像シーケンス1を想定している場合に、このような画像シーケンス2が入力されると、あとの結果に大きな誤差が生じることになる。そこで、スライス間における連続性の度合いを次式のようにスライス間差分によって定義し、不連続の画像が入り込むことを防止する。   Accordingly, when the image sequence 1 is assumed, if such an image sequence 2 is input, a large error occurs in the subsequent result. Therefore, the degree of continuity between slices is defined by the inter-slice difference as in the following equation to prevent discontinuous images from entering.

Figure 2005230456
但し、iはスライス番号であり、f(x,y,z)は座標(x,y,z)における画像のボクセル値を表わす。
Figure 2005230456
Here, i is a slice number, and f (x, y, z) represents a voxel value of an image at coordinates (x, y, z).

このような連続性の度合Diを全スライスにわたって計算し、その中に予め設定した閾値を超えるものがある場合には、前後に不連続なスライスがあるとして注意を促す。   Such a degree of continuity Di is calculated over all slices, and if any of them exceeds a preset threshold value, attention is urged that there are discontinuous slices before and after.

(B)組織抽出結果のチェック:
MRI脳画像による診断支援では異常部位抽出を行なうために、前記図5に一例を示したように、脳を構成する組織成分に分ける処理を行なう場合が多い。これには、前記ステップ2で灰白質組織を抽出する場合について説明したように、組織成分毎の分布の事前確率によるアルゴリズム等が用いられ、その分離処理の出力結果として、抽出された各組織成分が得られる。ここで、得られた画像の妥当性について、図27にイメージを示すように、リファレンス画像との相関係数を評価関数として計算する。前記ステップ21では、ステップ2で抽出された灰白質脳画像について、灰白質のリファレンス画像との相関を算出する。具体的には次式の計算を行なう。
(B) Checking tissue extraction results:
In diagnosis support based on an MRI brain image, in order to extract an abnormal part, as shown in the example in FIG. 5, there are many cases where processing is divided into tissue components constituting the brain. For this, as described in the case where the gray matter tissue is extracted in step 2, an algorithm based on the prior probability of distribution for each tissue component is used, and each extracted tissue component is obtained as an output result of the separation process. Is obtained. Here, as to the validity of the obtained image, as shown in the image of FIG. 27, the correlation coefficient with the reference image is calculated as an evaluation function. In step 21, the correlation between the gray matter brain image extracted in step 2 and the gray matter reference image is calculated. Specifically, the following equation is calculated.

Figure 2005230456
ここで、f(x,y,z)は出力された抽出画像、g(x,y,z)はリファレンス画像の各ボクセル値を、X、Y、Zは画像のx軸、y軸、z軸方向の大きさ(位置)を表わし、
Figure 2005230456
はそれぞれ出力画像、リファレンス画像の平均値を、σf,σgはそれぞれ出力画像、リファレンス画像の標準偏差を表わす。なお、このリファレンス画像には、例えば、多くの被検者の対応する脳画像から得られた平均画像等を用いる。
Figure 2005230456
Here, f (x, y, z) is the output extracted image, g (x, y, z) is the voxel value of the reference image, X, Y, Z are the x-axis, y-axis, z of the image Represents the size (position) in the axial direction,
Figure 2005230456
Are the average values of the output image and the reference image, respectively, and σ f and σ g are the standard deviations of the output image and the reference image, respectively. For example, an average image obtained from brain images corresponding to many subjects is used as the reference image.

もし、求めた相関係数ρが閾値ρs以下であれば、組織抽出処理に問題があったと見なし、注意を促す。この閾値ρsは経験的に定める一定値である。 If the obtained correlation coefficient ρ is equal to or less than the threshold ρ s , it is considered that there is a problem in the tissue extraction process, and attention is urged. This threshold value ρ s is a constant value determined empirically.

(C)解剖学的標準化結果のチェック:
MRI脳画像の解析を行なう場合は、前記ステップ4で説明したように、他の平均的な脳画像との間の解剖学的な標準化を行なって、空間的な位置を一致させるようにする場合が多い。これには、前述したように、線形変換や非線形変換、及びそれらを組み合わせたアルゴリズム等が用いられ、その出力結果として対応する標準化画像が得られる。ここで、得られた画像の妥当性については、図28に示すように、前述した組織抽出結果のチェックと同様に、リファレンス画像との相関係数を評価関数として計算する。前記ステップ41では、ステップ4で標準化された灰白質脳画像について、リファレンス画像との相関を算出している。具体的には、便宜上同一の記号を使った次式の計算を行なう。
(C) Check anatomical standardization results:
When analyzing an MRI brain image, as described in step 4, the anatomical standardization with other average brain images is performed so that the spatial position is matched. There are many. For this purpose, as described above, linear transformation, nonlinear transformation, an algorithm combining them, or the like is used, and a corresponding standardized image is obtained as an output result. Here, as to the validity of the obtained image, as shown in FIG. 28, the correlation coefficient with the reference image is calculated as an evaluation function, as in the above-described check of the tissue extraction result. In step 41, the correlation between the gray matter brain image standardized in step 4 and the reference image is calculated. Specifically, the following formula using the same symbol is calculated for convenience.

Figure 2005230456
ここで、f(x,y,z)は出力された標準化画像、g(x,y,z)はリファレンス画像の各ボクセル値を、X、Y、Zは画像のx軸、y軸、z軸方向の大きさを表わし、
Figure 2005230456
はそれぞれ出力画像、リファレンス画像の平均値を、σf、σgはそれぞれ出力画像、リファレンス画像の標準偏差を表わす。リファレンス画像には、例えば、多くの被検者の対応する脳画像から得られた平均画像等を用いる。
Figure 2005230456
Here, f (x, y, z) is the output standardized image, g (x, y, z) is the voxel value of the reference image, X, Y, Z are the x-axis, y-axis, z of the image Represents the size in the axial direction,
Figure 2005230456
Are the average values of the output image and the reference image, respectively, and σ f and σ g are the standard deviations of the output image and the reference image, respectively. As the reference image, for example, an average image obtained from brain images corresponding to many subjects is used.

もし、求めた相関係数ρが閾値ρN以下であれば、組織抽出処理に問題があったと見なし、注意を促す。このρNは経験的に定める一定値である。 If the calculated correlation coefficient ρ is equal to or less than the threshold value ρ N , it is considered that there is a problem in the tissue extraction process, and attention is urged. This ρ N is a constant value determined empirically.

以上詳述した如く、本実施形態によれば、被検者のMRI脳画像について、灰白質組織の抽出、解剖学的標準化、画像平滑化等の各処理を行なった後、標準化してある健常者群のMRI脳画像とZスコアにより統計的に比較し、診断結果を出力して診断支援を行なう際、入力画像のスペック、灰白質組織抽出結果及び解剖学的標準化結果を、それぞれ自動チェックできるようにしたので、診断支援までの一連の処理を自動化することが可能となる。   As described in detail above, according to the present embodiment, the MRI brain image of the subject is subjected to various processes such as extraction of gray matter tissue, anatomical standardization, image smoothing, and the like, and then is normalized. When comparing the MRI brain image of a group of people with a Z score and outputting diagnosis results for diagnosis support, the input image specifications, gray matter tissue extraction results, and anatomical standardization results can be automatically checked. As a result, a series of processes up to diagnosis support can be automated.

以上、本発明について具体的に説明したが、本発明は、前記実施形態に示したものに限られるものでなく、その要旨を逸脱しない範囲で種々変更可能である。   Although the present invention has been specifically described above, the present invention is not limited to that shown in the above embodiment, and various modifications can be made without departing from the scope of the invention.

例えば、前記基本処理フローにおけるステップ3の第1の画像平滑化は、入力画像のノイズを低減し、滑らかさ(smoothness)を解剖学的標準化で用いる灰白質テンプレート画像と等しくする意味があるが、元々それらが近い場合はこの平滑化処理を省略することも可能である。この場合、平滑化による情報の損失がないという利点がある。   For example, the first image smoothing in step 3 in the basic processing flow has the meaning of reducing the noise of the input image and making the smoothness equal to the gray matter template image used in anatomical standardization. If they are close to each other, this smoothing process can be omitted. In this case, there is an advantage that there is no loss of information due to smoothing.

又、灰白質組織抽出と解剖学的標準化の処理の順番を逆にしてもよい。この場合は、解剖学的標準化で使用する標準脳画像テンプレートは灰白質に関するものではなく、抽出前の全体脳に関するものである。この標準全体脳画像テンプレートは、多くの健常者画像の平均画像、又は、多くの健常者画像と多くの患者画像の平均画像から作成する。   The order of the gray matter tissue extraction and anatomical standardization processing may be reversed. In this case, the standard brain image template used in anatomical standardization is not related to gray matter, but is related to the whole brain before extraction. The standard whole brain image template is created from an average image of many healthy person images or an average image of many healthy person images and many patient images.

前記基本処理フローでは、入力脳画像が灰白質テンプレート画像に対して、例えばそのサイズに大きな差がある場合等には、灰白質抽出が正しく行なわれない可能性がある。ところが、上記のように解剖学的標準化を先に行なう場合には、灰白質テンプレートとの空間的な対応が良くなるという利点がある。   In the basic processing flow, when there is a large difference in size between the input brain image and the gray matter template image, for example, gray matter extraction may not be performed correctly. However, when the anatomical standardization is performed first as described above, there is an advantage that the spatial correspondence with the gray matter template is improved.

又、前記実施形態では、統計的比較の評価値としてZスコアを使用する検定方法を示したが、これに限定されず、前述した他の一般的な検定方法である2標本t検定等を用いてもよい。   In the above embodiment, the test method using the Z score as the evaluation value of the statistical comparison is shown. However, the present invention is not limited to this, and the above-described other general test method such as the two-sample t test is used. May be.

以上説明したとおり、本発明によれば、従来、目視によってなされてきた、少なくとも入力画像スペックの確認を客観的にできるようになり、画像処理全体の信頼性を向上させ、ひいては画像処理による診断支援の自動化を実現することができるようになる。   As described above, according to the present invention, it has become possible to objectively confirm at least the input image specifications, which has been done by visual observation in the past, thereby improving the reliability of the entire image processing, and thus diagnosis support by image processing. Can be automated.

又、必要に応じて、各処理工程において良好な処理結果が得られているかどうかの判断を、定量的且つ客観的に評価できるようにすることによって、ユーザによるチェックポイントを明確化することができる。従って、処理フロー全体の信頼性を向上させることが可能となり、画像処理や統計学の専門的知見を持たない医師に対しても、MRI画像等による疾患別の診断支援を行なうことが可能となる。   In addition, if necessary, it is possible to clarify the checkpoint by the user by making it possible to quantitatively and objectively evaluate whether or not a good processing result has been obtained in each processing step. . Therefore, it becomes possible to improve the reliability of the entire processing flow, and it becomes possible to provide diagnosis support for each disease by MRI images or the like for doctors who do not have specialized knowledge of image processing and statistics. .

又、複雑なアルゴリズムにおいても処理フローを自動化することにより、途中処理における人為的なミスを無くし、信頼性の高い処理結果が得られるようにすることができる。   Further, by automating the processing flow even in a complicated algorithm, it is possible to eliminate a human error during the intermediate processing and obtain a highly reliable processing result.

又、MRI脳画像を入力画像として用いる場合には、MRIの撮像にはSPECT等のようにラジオアイソトープを含む造影剤等を投与する必要がなく、それ故に被爆することもないので、肉体的負担が少ない利点もある。又、これによって比較のための患者データ、健常者データも収集し易い。又、MRIで得られる画像はSPECT画像と比較して分解能が高いという利点もある。更に、処理の全工程で機械的に処理可能であり、定量的且つ客観的な結果が得られる。   In addition, when an MRI brain image is used as an input image, it is not necessary to administer a contrast medium containing a radioisotope, such as SPECT, for MRI imaging, and therefore, there is no exposure to the physical burden. There is also an advantage of less. This also makes it easy to collect patient data and healthy person data for comparison. In addition, an image obtained by MRI has an advantage that resolution is higher than that of a SPECT image. Furthermore, it can be mechanically processed in all the processing steps, and quantitative and objective results can be obtained.

本発明に係る一実施形態の診断支援システムの概要を示すブロック図The block diagram which shows the outline | summary of the diagnostic assistance system of one Embodiment which concerns on this invention 本実施形態による診断支援の処理フローを示すフローチャートThe flowchart which shows the processing flow of the diagnostic assistance by this embodiment 灰白質組織を抽出する場合の診断支援の処理フローを示すフローチャートFlow chart showing the processing flow of diagnosis support when extracting gray matter tissue 脳のスライス画像とボクセルの特徴を模式的に示す概念図Conceptual diagram showing brain slice images and voxel characteristics 画像の位置合わせに用いるアフィン変換の特徴を模式的に示す概念図Conceptual diagram schematically showing the characteristics of affine transformation used for image alignment 入力した脳画像から灰白質を抽出する処理の特徴を模式的に示す概念図Conceptual diagram schematically showing features of processing to extract gray matter from input brain images 1次元の画像平滑化処理の特徴を模式的に示す概念図Conceptual diagram schematically showing the characteristics of one-dimensional image smoothing processing 3次元の平滑化処理の特徴を模式的に示す概念図Conceptual diagram schematically showing the characteristics of three-dimensional smoothing processing 解剖学的標準化の特徴を模式的に示す概念図Conceptual diagram schematically showing features of anatomical standardization 非線形変換の特徴を示す概念図Conceptual diagram showing the characteristics of nonlinear transformation ボクセル濃度値の補正処理の特徴を示す概念図Conceptual diagram showing the characteristics of voxel density correction processing 画像平滑化により生じるアーチファクトとその除去方法を示す概念図Conceptual diagram showing artifacts caused by image smoothing and how to remove them 対応するボクセル毎の比較検定の特徴を示す概念図Conceptual diagram showing the characteristics of the comparison test for each corresponding voxel DICOMフォーマットのデータ構造の特徴を示す概念図Conceptual diagram showing the characteristics of the data structure of DICOM format ANALYZEフォーマットのデータ構造の特徴を示す概念図Conceptual diagram showing the characteristics of the data structure of the ANALYZE format ノイズ除去の概念を説明するための線図Diagram for explaining the concept of noise removal 入力画像の誤入力例を示す概念図Conceptual diagram showing an example of an incorrect input image 頭部3次元画像における対称性の特徴を示す概念図Conceptual diagram showing the characteristics of symmetry in the head 3D image 異なる方向の脳画像断面における眼球の位置の特徴を示す概念図Conceptual diagram showing the characteristics of the position of the eyeball in brain image sections in different directions 入力画像の画像方向を同定する処理手順を示すフローチャートThe flowchart which shows the process sequence which identifies the image direction of an input image 有効ボクセル数のカウントの仕方を説明する概念図Conceptual diagram explaining how to count the number of effective voxels 脳画像上の各軸における仮対称面の特徴を示す概念図Conceptual diagram showing the features of the provisional symmetry plane for each axis on the brain image 脳画像上の対称面を決定するための探索例を示す概念図Conceptual diagram showing a search example for determining a symmetry plane on a brain image 面対称な座標の関係を説明するための線図Diagram for explaining the relationship of plane-symmetric coordinates 脳画像から眼球位置を抽出するフィルタの特徴を2次元で示す概念図Conceptual diagram showing the characteristics of the filter that extracts the eyeball position from the brain image in two dimensions 有効ボクセル数の軸方向における変化の一例を示す概念図Conceptual diagram showing an example of the change in the axial direction of the number of effective voxels 全スライス画像の連続性のチェック方法の特徴を示す概念図Conceptual diagram showing the characteristics of the continuity check method for all slice images 組織抽出処理結果の評価方法の特徴を示す概念図Conceptual diagram showing the characteristics of the evaluation method of the tissue extraction process result 解剖学的標準化処理結果の評価方法の特徴を示す概念図Conceptual diagram showing the characteristics of the anatomical standardization processing result evaluation method

符号の説明Explanation of symbols

10…ユーザインタフェース
20…処理部
22…入出力評価機能
30…データベース部
32…標準脳画像テンプレート
34…灰白質脳画像テンプレート
36…健常者画像データベース
DESCRIPTION OF SYMBOLS 10 ... User interface 20 ... Processing part 22 ... Input / output evaluation function 30 ... Database part 32 ... Standard brain image template 34 ... Gray matter brain image template 36 ... Healthy person image database

Claims (19)

被検者の脳画像を入力し、画像処理して診断結果を提示することにより診断の支援を行なう脳疾患の診断支援方法であって、
入力された被検者の脳画像について、解像度、ダイナミックレンジ及び画像方向の少なくとも1つを自動チェックすることを特徴とする脳疾患の診断支援方法。
A brain disease diagnosis support method for supporting diagnosis by inputting a brain image of a subject, performing image processing and presenting a diagnosis result,
A diagnosis support method for a brain disease, comprising: automatically checking at least one of resolution, dynamic range, and image direction for an input brain image of a subject.
前記画像方向のチェックを、次の仮定
(仮定1)軸の対称性は大きい順に、側方向→矢状方向→軸(上下)方向である、
(仮定2)眼球は左右対称であり、頭部前方にある、
(仮定3)頭部画像の下端まで組織が存在するが、上端には組織はない、
の下で行なうことを特徴とする請求項1に記載の脳疾患の診断支援方法。
Checking the image direction is as follows. (Assumption 1) The symmetry of the axis is in the descending order: side direction → sagittal direction → axis (vertical) direction.
(Assumption 2) The eyeball is symmetric and is in front of the head.
(Assumption 3) There is a tissue up to the lower end of the head image, but there is no tissue at the upper end.
The diagnosis support method for brain disease according to claim 1, wherein the diagnosis support method is performed under the following conditions.
前記被検者の脳画像をスライス画像として入力する場合、全スライス画像の連続性を自動チェックすることを特徴とする請求項1又は2に記載の脳疾患の診断支援方法。   The brain disease diagnosis support method according to claim 1 or 2, wherein when the brain image of the subject is input as a slice image, the continuity of all slice images is automatically checked. 前記画像処理に、脳組織抽出処理と解剖学的標準化処理が含まれ、少なくとも一方の処理結果を自動チェックすることを特徴とする請求項1、2又は3に記載の脳疾患の診断支援方法。   4. The brain disease diagnosis support method according to claim 1, wherein the image processing includes brain tissue extraction processing and anatomical standardization processing, and at least one processing result is automatically checked. 前記処理結果としての脳画像を、予め作成してある対応するリファレンス画像と比較して、前記自動チェックを行なうことを特徴とする請求項4に記載の脳疾患の診断支援方法。   5. The brain disease diagnosis support method according to claim 4, wherein the automatic check is performed by comparing the brain image as the processing result with a corresponding reference image created in advance. 前記脳画像が、MRI脳画像であることを特徴とする請求項1乃至5のいずれかに記載の脳疾患の診断支援方法。   6. The brain disease diagnosis support method according to claim 1, wherein the brain image is an MRI brain image. 被検者のMRI脳画像を入力した後、
該MRI脳画像から灰白質組織を抽出して灰白質脳画像を作成し、
該灰白質脳画像に解剖学的標準化を施した後、予め用意されている健常者の対応する脳画像と統計的比較を行なうことを特徴とする請求項6に記載の脳疾患の診断支援方法。
After inputting the MRI brain image of the subject,
Extracting gray matter tissue from the MRI brain image to create a gray matter brain image;
7. The brain disease diagnosis support method according to claim 6, wherein the gray matter brain image is subjected to anatomical standardization and then statistically compared with a brain image corresponding to a healthy person prepared in advance. .
被検者のMRI脳画像を入力した後、
該MRI脳画像に、解剖学的標準化を施し、
該標準化後のMRI脳画像から灰白質組織を抽出して灰白質脳画像を作成した後、予め用意されている健常者の対応する脳画像と統計的比較を行なうことを特徴とする請求項6に記載の脳疾患の診断支援方法。
After inputting the MRI brain image of the subject,
Anatomic standardization is applied to the MRI brain image,
The gray matter tissue is extracted from the standardized MRI brain image to create a gray matter brain image, and then statistically compared with a brain image corresponding to a healthy person prepared in advance. The method for assisting diagnosis of brain disease according to claim 1.
被検者の脳画像を入力し、画像処理して診断結果を出力することにより診断の支援を行なう脳疾患の診断支援装置であって、
入力された被検者の脳画像について、解像度、ダイナミックレンジ及び画像方向の少なくとも1つを自動チェックする自動評価手段を備えたことを特徴とする脳疾患の診断支援装置。
A brain disease diagnosis support apparatus that supports diagnosis by inputting a brain image of a subject, processing the image, and outputting a diagnosis result,
A brain disease diagnosis support apparatus, comprising: an automatic evaluation unit that automatically checks at least one of resolution, dynamic range, and image direction for an input brain image of a subject.
前記自動評価手段が、前記画像方向のチェックを、次の仮定
(仮定1)軸の対称性は大きい順に、側方向→矢状方向→軸(上下)方向である、
(仮定2)眼球は左右対称であり、頭部前方にある、
(仮定3)頭部画像の下端まで組織が存在するが、上端には組織はない、
の下で行なう機能を有していることを特徴とする請求項9に記載の脳疾患の診断支援装置。
The automatic evaluation means checks the image direction as follows: Assumption (Assumption 1) The order of symmetry of the axis is as follows: side direction → sagittal direction → axis (vertical) direction.
(Assumption 2) The eyeball is symmetric and is in front of the head.
(Assumption 3) There is a tissue up to the lower end of the head image, but there is no tissue at the upper end.
The brain disease diagnosis support apparatus according to claim 9, wherein the brain disease diagnosis support apparatus has a function of
前記被検者の脳画像をスライス画像として入力する場合、前記自動評価手段が、全スライス画像の連続性を自動チェックする機能を有していることを特徴とする請求項9又は10に記載の脳疾患の診断支援装置。   The automatic evaluation unit has a function of automatically checking the continuity of all slice images when the brain image of the subject is input as a slice image. Diagnosis support device for brain diseases. 前記画像処理に、脳組織抽出処理と解剖学的標準化処理が含まれ、前記自動評価手段が、少なくとも一方の処理結果を自動チェックする機能を有していることを特徴とする請求項9、10又は11に記載の脳疾患の診断支援装置。   The image processing includes brain tissue extraction processing and anatomical standardization processing, and the automatic evaluation means has a function of automatically checking at least one processing result. Or a diagnosis support apparatus for brain disease according to 11; 前記自動評価手段が、前記処理結果としての脳画像を、予め作成してある対応するリファレンス画像と比較して、前記自動チェックを行なう機能を有していることを特徴とする請求項12に記載の脳疾患の診断支援装置。   13. The automatic evaluation unit has a function of comparing the brain image as the processing result with a corresponding reference image created in advance and performing the automatic check. Diagnosis support device for brain diseases. 前記脳画像が、MRI脳画像であることを特徴とする請求項9乃至13のいずれかに記載の脳疾患の診断支援装置。   14. The brain disease diagnosis support apparatus according to claim 9, wherein the brain image is an MRI brain image. 被検者のMRI脳画像を入力した後、
該MRI脳画像から灰白質組織を抽出して灰白質脳画像を作成し、
該灰白質脳画像に解剖学的標準化を施した後、予め用意されている健常者の対応する脳画像と統計的比較を行なうことを特徴とする請求項14に記載の脳疾患の診断支援装置。
After inputting the MRI brain image of the subject,
Extracting gray matter tissue from the MRI brain image to create a gray matter brain image;
15. The brain disease diagnosis support apparatus according to claim 14, wherein the gray matter brain image is subjected to anatomical standardization and then statistically compared with a brain image corresponding to a healthy person prepared in advance. .
被検者のMRI脳画像を入力した後、
該MRI脳画像に、解剖学的標準化を施し、
該標準化後のMRI脳画像から灰白質組織を抽出して灰白質脳画像を作成した後、予め用意されている健常者の対応する脳画像と統計的比較を行なうことを特徴とする請求項14に記載の脳疾患の診断支援装置。
After inputting the MRI brain image of the subject,
Anatomic standardization is applied to the MRI brain image,
15. A gray matter tissue is extracted from the standardized MRI brain image to create a gray matter brain image, and then statistically compared with a brain image corresponding to a healthy person prepared in advance. The diagnosis support apparatus for brain diseases according to 1.
請求項1乃至8に記載の脳疾患の診断支援方法をコンピュータで実施するためのコンピュータ読取可能なプログラム。   A computer-readable program for executing the brain disease diagnosis support method according to claim 1 on a computer. 請求項9乃至16に記載の脳疾患の診断支援装置をコンピュータで実現するためのコンピュータ読取可能なプログラム。   A computer-readable program for realizing the brain disease diagnosis support apparatus according to claim 9 by a computer. 請求項17又は18に記載のプログラムが格納された記録媒体。   A recording medium in which the program according to claim 17 or 18 is stored.
JP2004046724A 2004-02-23 2004-02-23 Diagnosis support method and apparatus for brain disease Expired - Lifetime JP4022587B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004046724A JP4022587B2 (en) 2004-02-23 2004-02-23 Diagnosis support method and apparatus for brain disease

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004046724A JP4022587B2 (en) 2004-02-23 2004-02-23 Diagnosis support method and apparatus for brain disease

Publications (3)

Publication Number Publication Date
JP2005230456A true JP2005230456A (en) 2005-09-02
JP2005230456A5 JP2005230456A5 (en) 2007-03-22
JP4022587B2 JP4022587B2 (en) 2007-12-19

Family

ID=35013991

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004046724A Expired - Lifetime JP4022587B2 (en) 2004-02-23 2004-02-23 Diagnosis support method and apparatus for brain disease

Country Status (1)

Country Link
JP (1) JP4022587B2 (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007023522A1 (en) * 2005-08-22 2007-03-01 National Center Of Neurology And Psychiatry Brain disease diagnosing supporting method and device
JP2007272403A (en) * 2006-03-30 2007-10-18 Toshiba Corp Cad device and cad method
JP2008237747A (en) * 2007-03-28 2008-10-09 Dainippon Printing Co Ltd Device for region of interest determination
JP2010054356A (en) * 2008-08-28 2010-03-11 Anritsu Sanki System Co Ltd Image processor and x-ray foreign matter detector having the same, and image processing method
JP2011030911A (en) * 2009-08-05 2011-02-17 Dainippon Printing Co Ltd Cnr measuring device, method, and computer program
WO2011065414A1 (en) * 2009-11-30 2011-06-03 株式会社日立メディコ Image processing method, image processing apparatus and program
JP2012502669A (en) * 2008-09-22 2012-02-02 ワシントン大学 Alternative normal brain database generator
WO2012161149A1 (en) * 2011-05-24 2012-11-29 株式会社日立製作所 Image processing apparatus and method
JP2013066632A (en) * 2011-09-26 2013-04-18 Dainippon Printing Co Ltd Medical image processing device, medical image processing method, and program
JP2014042684A (en) * 2012-08-28 2014-03-13 Dainippon Printing Co Ltd Medical image processing device, and program
WO2015064665A1 (en) 2013-10-31 2015-05-07 株式会社アラヤ・ブレイン・イメージング Individual-characteristic prediction system, individual-characteristic prediction method, and recording medium
JP2015091308A (en) * 2013-09-30 2015-05-14 富士フイルムRiファーマ株式会社 Information processor and computer program
JP2016168166A (en) * 2015-03-12 2016-09-23 富士フイルム株式会社 Medical image processor, method and program
JP2018509216A (en) * 2015-03-31 2018-04-05 ソニー株式会社 Automatic 3D segmentation and cortical surface reconstruction from T1 MRI
WO2019172181A1 (en) * 2018-03-09 2019-09-12 日本メジフィジックス株式会社 Diagnosis support device, program, learned model, and learning device
JP2019154744A (en) * 2018-03-13 2019-09-19 キヤノンメディカルシステムズ株式会社 Medical image processing device, medical image diagnostic device, and medical image processing program

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007023522A1 (en) * 2005-08-22 2007-03-01 National Center Of Neurology And Psychiatry Brain disease diagnosing supporting method and device
US8218835B2 (en) 2005-08-22 2012-07-10 Dai Nippon Printing Co., Ltd. Method for assisting in diagnosis of cerebral diseases and apparatus thereof
JP2007272403A (en) * 2006-03-30 2007-10-18 Toshiba Corp Cad device and cad method
JP2008237747A (en) * 2007-03-28 2008-10-09 Dainippon Printing Co Ltd Device for region of interest determination
JP2010054356A (en) * 2008-08-28 2010-03-11 Anritsu Sanki System Co Ltd Image processor and x-ray foreign matter detector having the same, and image processing method
JP2012502669A (en) * 2008-09-22 2012-02-02 ワシントン大学 Alternative normal brain database generator
JP2011030911A (en) * 2009-08-05 2011-02-17 Dainippon Printing Co Ltd Cnr measuring device, method, and computer program
WO2011065414A1 (en) * 2009-11-30 2011-06-03 株式会社日立メディコ Image processing method, image processing apparatus and program
JP2011110357A (en) * 2009-11-30 2011-06-09 Hitachi Medical Corp Image processing method, image processing apparatus and program
US8774483B2 (en) 2009-11-30 2014-07-08 Hitachi Medical Corporation Image processing method, image processing apparatus and program
JP2012239836A (en) * 2011-05-24 2012-12-10 Hitachi Ltd Image processing apparatus and method
WO2012161149A1 (en) * 2011-05-24 2012-11-29 株式会社日立製作所 Image processing apparatus and method
JP2013066632A (en) * 2011-09-26 2013-04-18 Dainippon Printing Co Ltd Medical image processing device, medical image processing method, and program
JP2014042684A (en) * 2012-08-28 2014-03-13 Dainippon Printing Co Ltd Medical image processing device, and program
JP2015091308A (en) * 2013-09-30 2015-05-14 富士フイルムRiファーマ株式会社 Information processor and computer program
WO2015064665A1 (en) 2013-10-31 2015-05-07 株式会社アラヤ・ブレイン・イメージング Individual-characteristic prediction system, individual-characteristic prediction method, and recording medium
US9576358B2 (en) 2013-10-31 2017-02-21 Araya Brain Imaging Inc. Individual-characteristic prediction system, individual-characteristic prediction method, and recording medium
JP2016168166A (en) * 2015-03-12 2016-09-23 富士フイルム株式会社 Medical image processor, method and program
JP2018509216A (en) * 2015-03-31 2018-04-05 ソニー株式会社 Automatic 3D segmentation and cortical surface reconstruction from T1 MRI
WO2019172181A1 (en) * 2018-03-09 2019-09-12 日本メジフィジックス株式会社 Diagnosis support device, program, learned model, and learning device
JPWO2019172181A1 (en) * 2018-03-09 2021-03-25 日本メジフィジックス株式会社 Diagnostic support devices, programs, trained models, and learning devices
JP7382306B2 (en) 2018-03-09 2023-11-16 日本メジフィジックス株式会社 Diagnostic support devices, programs, trained models, and learning devices
JP2019154744A (en) * 2018-03-13 2019-09-19 キヤノンメディカルシステムズ株式会社 Medical image processing device, medical image diagnostic device, and medical image processing program

Also Published As

Publication number Publication date
JP4022587B2 (en) 2007-12-19

Similar Documents

Publication Publication Date Title
JP4025823B2 (en) Diagnosis support method and apparatus for brain disease
US8218835B2 (en) Method for assisting in diagnosis of cerebral diseases and apparatus thereof
JP5699936B2 (en) Method, apparatus and program for operating medical image processing apparatus
JP5601378B2 (en) Medical image processing device
US8280482B2 (en) Method and apparatus for evaluating regional changes in three-dimensional tomographic images
CN106659424B (en) Medical image display processing method, medical image display processing device, and program
JP4022587B2 (en) Diagnosis support method and apparatus for brain disease
WO2013047278A1 (en) Medical image processing device, medical image processing method, program
JP5098393B2 (en) Region of interest determination device
JP6036009B2 (en) Medical image processing apparatus and program
US8050734B2 (en) Method and system for performing patient specific analysis of disease relevant changes of a disease in an anatomical structure
KR20130136519A (en) Diagnosis assitance system utilizing panoramic radiographs, and diagnosis assistance program utilizing panoramic radiographs
EP2747658B1 (en) Method to compute and present brain amyloid in gray matter
WO2012093353A1 (en) Automatic quantification of asymmetry
US11257227B2 (en) Brain image normalization apparatus, brain image normalization method, and brain image normalization program
US8331635B2 (en) Cartesian human morpho-informatic system
Rusak et al. Quantifiable brain atrophy synthesis for benchmarking of cortical thickness estimation methods
Paniagua et al. 3D of brain shape and volume after cranial vault remodeling surgery for craniosynostosis correction in infants
JP6705528B2 (en) Medical image display processing method, medical image display processing apparatus and program
JP2006158791A (en) Analysis program of cranial capacity and local brain structure, recording medium and analysis method of cranial capacity and local brain structure
EP3624058A1 (en) Method and system of analyzing symmetry from image data
Wang et al. Semi-automatic segmentation of the fetal brain from magnetic resonance imaging
Winzeck Methods for Data Management in Multi-Centre MRI Studies and Applications to Traumatic Brain Injury
CN117838089A (en) Brain hippocampus analysis method and system based on magnetic resonance imaging and electronic equipment
KR20210024853A (en) Diagnosis Method and System of Idiopathic Normal Pressure Hydrocephalus Using Imaging Diagnostic Equipment

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20050812

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051114

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20060116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070205

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070205

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20070205

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20070223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070731

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070823

R150 Certificate of patent or registration of utility model

Ref document number: 4022587

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101012

Year of fee payment: 3

R154 Certificate of patent or utility model (reissue)

Free format text: JAPANESE INTERMEDIATE CODE: R154

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101012

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101012

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111012

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121012

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121012

Year of fee payment: 5

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121012

Year of fee payment: 5

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121012

Year of fee payment: 5

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121012

Year of fee payment: 5

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121012

Year of fee payment: 5

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131012

Year of fee payment: 6