JP2019025296A - Image processing device, image processing method, and program - Google Patents
Image processing device, image processing method, and program Download PDFInfo
- Publication number
- JP2019025296A JP2019025296A JP2018010523A JP2018010523A JP2019025296A JP 2019025296 A JP2019025296 A JP 2019025296A JP 2018010523 A JP2018010523 A JP 2018010523A JP 2018010523 A JP2018010523 A JP 2018010523A JP 2019025296 A JP2019025296 A JP 2019025296A
- Authority
- JP
- Japan
- Prior art keywords
- section
- image
- slice
- information
- cross
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 118
- 238000003672 processing method Methods 0.000 title claims abstract description 5
- 238000004364 calculation method Methods 0.000 claims description 35
- 210000003484 anatomy Anatomy 0.000 claims description 33
- 238000003384 imaging method Methods 0.000 claims description 10
- 238000000034 method Methods 0.000 description 118
- 230000001419 dependent effect Effects 0.000 description 39
- 210000000988 bone and bone Anatomy 0.000 description 26
- 210000004072 lung Anatomy 0.000 description 24
- 230000006870 function Effects 0.000 description 18
- 230000000694 effects Effects 0.000 description 11
- 238000010606 normalization Methods 0.000 description 10
- 238000003860 storage Methods 0.000 description 9
- 238000012986 modification Methods 0.000 description 8
- 230000004048 modification Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 238000002591 computed tomography Methods 0.000 description 6
- 238000003745 diagnosis Methods 0.000 description 6
- 210000000056 organ Anatomy 0.000 description 5
- 210000000115 thoracic cavity Anatomy 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 208000008765 Sciatica Diseases 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000004705 lumbosacral region Anatomy 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
- G06T7/0014—Biomedical image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/38—Registration of image sequences
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/46—Arrangements for interfacing with the operator or the patient
- A61B6/461—Displaying means of special interest
- A61B6/463—Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/46—Arrangements for interfacing with the operator or the patient
- A61B6/461—Displaying means of special interest
- A61B6/466—Displaying means of special interest adapted to display 3D data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5223—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
- G06T7/0014—Biomedical image inspection using an image reference approach
- G06T7/0016—Biomedical image inspection using an image reference approach involving temporal comparison
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/032—Transmission computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/50—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
- A61B6/505—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of bone
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/56—Details of data transmission or power supply, e.g. use of slip rings
- A61B6/563—Details of data transmission or power supply, e.g. use of slip rings involving image data transmission via a network
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30008—Bone
- G06T2207/30012—Spine; Backbone
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Physics & Mathematics (AREA)
- Radiology & Medical Imaging (AREA)
- General Health & Medical Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Animal Behavior & Ethology (AREA)
- Optics & Photonics (AREA)
- High Energy & Nuclear Physics (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Quality & Reliability (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理方法、及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program.
医用の分野では、コンピュータ断層撮影装置(以下、CT(Computed Tomography)装置と呼ぶ)などの種々の画像撮像装置(モダリティ)によって取得される3次元画像を用いた診断が行われている。特に、被検体の経時的な状態変化を捉える際には、異なる時点で撮像された画像を比較することが行われている。このとき、一方の画像のあるスライス(3次元画像をある1つの断面で切り出した画像)を表示した際に、他方の画像において該スライスと略同一の解剖構造を含むスライス(以下、対応スライスと呼ぶ)を並べて表示できれば、画像の比較を容易に行うことができる。そのためには、比較する画像の各スライスについて、異なる時点で撮像された画像間における対応スライスを予め対応付けておく必要がある。ここで、本稿における「位置合わせ」とは、3次元画像を構成する各スライスに関して、複数の3次元画像間で略同一の解剖構造を含むスライス(すなわち、対応スライス)を対応付けることを指すものとする。 In the medical field, diagnosis using three-dimensional images acquired by various imaging devices (modalities) such as a computed tomography apparatus (hereinafter referred to as a CT (Computed Tomography) apparatus) is performed. In particular, when capturing changes in the state of a subject over time, images taken at different times are compared. At this time, when a certain slice of one image (an image obtained by cutting out a three-dimensional image with a certain cross section) is displayed, a slice (hereinafter referred to as a corresponding slice) including substantially the same anatomical structure as that slice in the other image is displayed. Image) can be easily compared. For this purpose, for each slice of the images to be compared, it is necessary to associate corresponding slices between images taken at different times in advance. Here, “alignment” in this article refers to associating slices including substantially the same anatomical structure (that is, corresponding slices) between a plurality of three-dimensional images with respect to each slice constituting the three-dimensional image. To do.
しかしながら、診断対象となる複数の画像のスライス枚数は、夫々で数百枚以上に及ぶことが多くあるため、この位置合わせを人手で行うことは、作業者に多大な負担を強いるという課題があった。 However, since the number of slices of a plurality of images to be diagnosed often reaches several hundreds or more, performing this alignment manually has the problem of imposing a heavy burden on the operator. It was.
上記課題に鑑みて、特許文献1には、複数の時点で撮像された画像間の位置合わせを行う際に、解剖学的な位置に関連付けられた基準の座標系を利用することで、比較対象の画像が3つ以上の場合でも、それらを容易に位置合わせできる方法が開示されている。しかしながら、位置合わせ対象の画像間で前記解剖学的な位置の間に存在する解剖構造の大きさのバランスが異なる場合、前記基準の座標系で同じ座標値を示すスライスは、それらの画像間で対応する位置にならない可能性がある。この課題を解決するための1つの方法として、特許文献1にはさらに、次の方法が開示されている。その方法とは、前記基準の座標系に関して、解剖構造の大きさ(骨格、年齢、身長、男女等)に応じて複数の座標系を準備し、処理対象の画像毎に適切な座標系を選択することで、より精度の高い位置合わせを実現する方法である。
In view of the above problems,
上述の通り、特許文献1に記載の技術では、ある1つの基準の座標系のみを用いた場合では、異なる画像間で被検体の解剖構造の大きさのバランスが異なる場合には、画像間でスライスの位置合わせが適切にできない可能性がある。また、その課題を改善し、より精度の高い位置合わせを行うためには、前記複数の座標系の中からどの座標系を用いるかを選択する必要がある。
As described above, in the technique described in
本発明は上記課題に鑑みてなされたものであり、解剖学的な位置に関連付けられた基準の座標系に関して、より高い精度の位置合わせができる画像処理装置、画像処理方法、及びプログラムを提供することを目的とする。 The present invention has been made in view of the above problems, and provides an image processing apparatus, an image processing method, and a program that can perform alignment with higher accuracy with respect to a reference coordinate system associated with an anatomical position. For the purpose.
なお、前記目的に限らず、後述する発明を実施するための形態に示す各構成により導かれる作用効果であって、従来の技術によっては得られない作用効果を奏することも本明細書の開示の他の目的の1つとして位置付けることができる。 It is to be noted that the present invention is not limited to the above-described object, and is an operational effect derived from each configuration shown in an embodiment for carrying out the invention described later, and also has an operational effect that cannot be obtained by conventional techniques. It can be positioned as one of other purposes.
上記課題を解決するため、本発明に係る画像処理装置は、人体を体軸方向に沿って区分した複数の区間を定義する区間定義情報を取得する情報取得手段と、被検体の断面を示す複数のスライス画像を含む3次元の画像を取得する画像取得手段と、前記区間定義情報に基づいて、前記画像に含まれる少なくとも1つの前記スライス画像に対応する前記断面が属する前記区間を特定する区間特定手段と、前記区間ごとに座標値が定義された基準座標系と前記特定された区間とに基づいて、前記スライス画像の座標値を算出する座標値算出手段と、を備えることを特徴とする。 In order to solve the above problems, an image processing apparatus according to the present invention includes information acquisition means for acquiring section definition information for defining a plurality of sections obtained by dividing a human body along the body axis direction, and a plurality of sections showing a cross section of a subject. And an image acquisition means for acquiring a three-dimensional image including the slice image, and a section specification for specifying the section to which the cross section corresponding to at least one slice image included in the image belongs based on the section definition information And a coordinate value calculating means for calculating the coordinate value of the slice image based on a reference coordinate system in which coordinate values are defined for each section and the specified section.
本発明によれば、解剖学的な位置に関連付けられた基準の座標系に関して、より高い精度の位置合わせができる。 According to the present invention, it is possible to perform alignment with higher accuracy with respect to a reference coordinate system associated with an anatomical position.
以下、図面を参照して、本発明の実施形態を例示的に詳しく説明する。ただし、この実施形態に記載されている構成要素はあくまで例示であり、本発明の技術的範囲は、特許請求の範囲によって確定されるのであって、以下の個別の実施形態によって限定されるわけではない。 Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. However, the components described in this embodiment are merely examples, and the technical scope of the present invention is determined by the scope of the claims, and is not limited by the following individual embodiments. Absent.
<第1の実施形態>
第1の実施形態に関わる画像処理装置は、複数の3次元画像の表示を行う装置である。本装置は、異なる3次元画像間の対応スライスを位置合わせして表示するために、入力画像の各スライスについて、解剖学的な特徴を持つ位置に基づいて定義した座標系(基準座標系)における座標値を計算する機能を有している。本装置は、前記基準座標系での各スライスの座標値を求める過程において、人体の解剖構造を体軸方向に複数の区間に分割し、夫々の区間で当該区間の情報を用いて、前記座標値を計算することを特徴とする。
<First Embodiment>
The image processing apparatus according to the first embodiment is an apparatus that displays a plurality of three-dimensional images. This apparatus uses a coordinate system (reference coordinate system) defined based on positions having anatomical features for each slice of the input image in order to display corresponding slices between different three-dimensional images. It has a function to calculate coordinate values. In the process of obtaining the coordinate value of each slice in the reference coordinate system, the apparatus divides the human anatomical structure into a plurality of sections in the body axis direction, and uses the information of the sections in each section to calculate the coordinates. It is characterized by calculating a value.
この技術によれば、人体の解剖構造の位置を体軸方向に部位ごとに正規化することで、複数の解剖構造の大きさのバランスの違い(個体差)を吸収できるため、異なる画像間の位置合わせ処理において、より精度の高い位置合わせ結果をユーザに提供できる。 According to this technique, by normalizing the position of the anatomical structure of the human body for each part in the body axis direction, it is possible to absorb the difference in the balance of the sizes of the plurality of anatomical structures (individual differences). In the alignment process, a more accurate alignment result can be provided to the user.
以下、図1を用いて本実施形態の画像処理装置の構成及び処理を説明する。図1は、本実施形態の画像処理装置を含む画像処理システム(医用画像処理システムともいう)の構成例を示すブロック図である。画像処理システムは、その機能的な構成として、画像処理装置10、ネットワーク21、及びデータベース22を備える。画像処理装置10は、ネットワーク21を介してデータベース22に通信可能に接続されている。ネットワーク21は、例えば、LAN(Local Area Network)やWAN(Wide Area Network)を含む。
Hereinafter, the configuration and processing of the image processing apparatus of this embodiment will be described with reference to FIG. FIG. 1 is a block diagram illustrating a configuration example of an image processing system (also referred to as a medical image processing system) including an image processing apparatus according to the present embodiment. The image processing system includes an
データベース22は、被検体の画像や該画像に関連付けられた情報を保持し、管理する。画像処理装置10は、ネットワーク21を介してデータベース22で保持されている画像を取得することが可能である。画像処理装置10は、通信IF(Interface)31(通信部)、ROM(Read Only Memory)32、RAM(Random Access Memory)33、記憶部34、操作部35、表示部36、及び制御部37を備える。
The
通信IF31(通信部)は、LANカードなどにより構成され、外部装置(例えば、データベース22など)と画像処理装置10との通信を実現する。ROM32は、不揮発性のメモリなどにより構成され、各種プログラムを記憶する。RAM33は、揮発性のメモリなどにより構成され、各種情報をデータとして一時的に記憶する。記憶部34は、HDD(Hard Disk Drive)などにより構成され、各種情報をデータとして記憶する。操作部35は、キーボードやマウス、タッチパネルなどにより構成され、ユーザ(例えば、医師)からの指示を各種装置に入力する。
The communication IF 31 (communication unit) is configured by a LAN card or the like, and realizes communication between an external device (for example, the
表示部36は、ディスプレイなどにより構成され、各種情報をユーザに表示する。制御部37は、CPU(Central Processing Unit)などにより構成され、画像処理装置10における処理を統括制御する。制御部37は、その機能的な構成として、区間定義情報取得部50、画像取得部51、区間同定部52、座標算出部53、位置合わせ部54、及び表示処理部55を備える。
The display unit 36 is configured by a display or the like, and displays various information to the user. The
区間定義情報取得部50は、データベース22から区間定義情報を取得する。区間定義情報とは、人体の所定の解剖学的特徴を含む解剖学的特徴断面に基づいて、人体の体軸方向を複数の区間に分割する情報である。すなわち、区間定義情報取得部50は、人体を体軸方向に沿って区分した複数の区間を定義する区間定義情報を取得する情報取得手段の一例に相当する。ここで、本稿における「解剖学的特徴断面」とは、例えば、人体の体軸方向に解剖構造を見たときに、一まとまりの解剖構造(例えば部位)の境界位置に現れる解剖学的特徴が描出された断面のことを指す。つまり、この解剖学的特徴断面によって全体の解剖構造が、体軸方向に複数の種類の部位(上記区間に相当する)に区切られる。この解剖学的特徴断面の場所、および、数、すなわち、複数の区間の分割数については、事前にデータベース22に保存したものを読み込めばよい。あるいは、操作部35を介してユーザによって入力された情報を用いることもできる。
The section definition
画像取得部51は、位置合わせ対象となる2つ以上の画像(画像I1、I2、…、IN(Nは画像の総数))をデータベース22から取得する。すなわち、画像取得部51は、被検体の断面を示す複数のスライス画像を含む3次元の画像を取得する画像取得手段の一例に相当する。これらの画像は、各種モダリティにより取得された被検体の3次元の画像である。本実施形態では、この画像がCT画像である例を説明するが、他の種類の画像であってもよい。本発明は、3次元の画像であれば画像の種類に依らず適用可能である。なお、複数の画像は、比較を行う対象の画像であればいずれの画像であってもよい。すなわち、同一被検体を撮像したものであってもよいし、他人同士の画像、例えば、健常者と患者の画像などであってもよい。
The
区間同定部52は、画像I1からINまでの夫々の画像に関して、当該画像を構成する少なくとも1つのスライスについて、前記複数の区間の中で当該スライスがどの区間に従属するかを同定する。すなわち、区間同定部52は、区間定義情報に基づいて、画像に含まれる少なくとも1つのスライス画像に対応する断面が属する区間(以下、従属区間と呼ぶ)を特定する区間特定手段の一例に相当する。この従属区間の同定は、前記区間定義情報取得部50で取得した情報と、当該スライスを構成する画素値の情報、および特徴量の情報を用いた推定処理などで実現できる。
The
座標算出部53は、前記区間同定部52で同定した従属区間の情報に基づいて、当該従属区間に対応する基準座標系における前記スライス画像の座標値を算出する。すなわち、座標算出部53は、区間ごとに座標値が定義された基準座標系と特定された区間とに基づいて、スライス画像の座標値を算出する座標値算出手段の一例に相当する。
The coordinate
位置合わせ部54は、前記座標算出部53で算出した座標値に基づいて、画像I1からINで対応するスライスの位置を算出する。すなわち、画像I1からINの位置合わせを行う。すなわち、位置合わせ部54は、取得された複数の画像に含まれる、基準座標系で略同一の座標値を持つ夫々のスライス画像を対応付ける対応付け手段の一例に相当する。
The
表示処理部55は、位置合わせ部54により算出した結果に基づいて、入力された画像I1からINまでの画像のうちの少なくとも2つ以上の画像を、対応スライスの比較を容易に行えるような表示形態で、表示部36の画像表示領域内に表示させる。
Based on the result calculated by the
上記の画像処理装置10の各構成要素は、コンピュータプログラムに従って機能する。例えば、制御部37(CPU)がRAM33をワーク領域としてROM32又は記憶部34などに記憶されたコンピュータプログラムを読み込み、実行することで、各構成要素の機能が実現される。なお、画像処理装置10の構成要素の一部又は全ての機能が専用の回路を用いることで実現されてもよい。また、制御部37の構成要素の一部の機能が、クラウドコンピュータを用いることで実現されてもよい。
Each component of the
例えば、画像処理装置10とは異なる場所にある演算装置がネットワーク21を介して画像処理装置10に通信可能に接続され、画像処理装置10と演算装置がデータの送受信を行うことで、画像処理装置10又は制御部37の構成要素の機能が実現されてもよい。
For example, an arithmetic device at a location different from the
次に、図2乃至図7を用いて、図1の画像処理装置10の処理の例について説明する。
Next, an example of processing of the
図2は、画像処理装置10の処理手順の例を示すフローチャートである。本実施形態では骨の解剖学的特徴に基づいた例を説明するが、本実施形態はその他の注目部位を設定する場合にも適用可能である。
FIG. 2 is a flowchart illustrating an example of a processing procedure of the
(ステップS101:人体の体軸方向を複数の区間に分割する区間定義情報の取得)
ステップS101において、ユーザが操作部35を介して画像処理の開始を指示すると、区間定義情報取得部50は、人体の解剖構造を体軸方向に複数の区間に分割する区間定義情報をデータベース22から取得し、RAM33に格納する。
(Step S101: Acquisition of section definition information for dividing the body axis direction of the human body into a plurality of sections)
In step S <b> 101, when the user instructs the start of image processing via the
ここで、区間定義情報とは、複数の解剖学的特徴断面の位置の情報と、それらの断面で区切られた区間の情報を併せたものであり、例えば、図3に示すような情報を指す。図3では、人体の骨の構造の情報(頸椎、胸椎、腰椎が含まれる断面の中で最も上にある断面など)に基づいて、頭頂部から足底部を区間1から区間7までの7つの区間に分割した例を示している。より具体的には、区間1は、頭頂部から頸椎の最上スライスの位置までの間を表しており、区間2は、頸椎の最上スライスの位置から胸椎の最上スライスの位置までの間を表している。以下、大腿骨の底面から足底部までの間を示す区間7まで同様に、解剖学的な特徴を示す断面に基づいて、人体の体軸方向をある区間に分割している。なお、この区間分割を行うための解剖学的特徴断面は、この例に限られるものではなく、その他の臓器の位置に基づく断面を用いてもよい。
Here, the section definition information is a combination of information on the positions of a plurality of anatomical feature sections and information on sections sectioned by these sections, and refers to information as shown in FIG. 3, for example. . In FIG. 3, based on information on the structure of the bones of the human body (the top section of the section including the cervical vertebra, the thoracic vertebra, and the lumbar vertebra), The example divided | segmented into the area is shown. More specifically,
(ステップS102:画像の取得・表示)
ステップS101において、ユーザが操作部35を介して画像(I1からIN)の取得を指示すると、画像取得部51は、ユーザが指定した前記画像I1から画像INをデータベース22から取得し、RAM33に格納する。また、図4に示すように、表示処理部55は、データベース22から取得された画像を表示部36の画像表示領域400内に表示させる。以下では、画像I1から画像INが略同一の画像範囲(頸椎の頂点から坐骨の最下点)を持つことを想定した例について記載する。ただし、この画像の範囲は画像I1からINについて同一である必要はなく、画像範囲も異なるものであっても構わない。なお、データベースから取得された画像を表示処理部55によって表示部36に表示する処理は実行せずともよい。また、ステップS101において、画像取得部51が複数の画像を取得しなかった場合(すなわち、画像を1つしか取得しなかった場合)には、ステップS103以下の処理を実行しない形態であってもよい。つまり、画像取得部51が複数の画像を取得した場合には、ステップS103以下の処理を実行する形態であってもよい。すなわち、この処理は、複数の画像を取得した場合に、スライス画像に対応する断面が属する区間を特定する区間特定手段の一例に相当する。
(Step S102: Image acquisition / display)
In step S101, when the user instructs acquisition of an image (I1 to IN) via the
(ステップS103:各画像の各スライスについて従属区間の同定)
ステップS103において、区間同定部52は、画像I1からINまでの夫々の画像に関して、当該画像を構成する各スライス単位で、前記区間定義情報に含まれる複数の区間のうち、当該スライスがどの区間に従属するかを同定し、RAM33に格納する。
(Step S103: Identification of dependent section for each slice of each image)
In step S103, for each image from the images I1 to IN, the
ここでは、図5に示すように、画像I1が頸椎の頂点から坐骨の最下点までを表す181枚のスライスで構成されている例について考える。図5の例では、画像I1の最上位置を原点とした座標系Zを定義し、画像I1で最も上に位置するスライスがz=0、次のスライスがz=1、画像I1で最も下に位置するスライスがz=180となる座標系を示している。以下、本稿では、ある座標系(軸)を表す場合には大文字(Z)を用いて表記するものとし、ある座標系の座標値を表す場合には小文字(z)を用いて表記するものとする。なお、前記Zで表す座標系は、画像を構成する最も上のスライスを原点として、スライス単位で座標値(z)が増加するため、撮像範囲や被検体の体(骨)の大きさによってZ軸での座標値が変わり得る座標系である。すなわち、この座標系では、異なる3次元画像におけるz=0が示すスライス画像の位置は、解剖学的に略同一の位置になるとは限らない。図5の例では、画像I1における頸椎の頂点、胸椎の頂点、腰椎の頂点、仙骨の頂点、坐骨の最下点の位置は、夫々、z=0、23、96、140、180の位置にあるものとする。これらの解剖学的特徴断面の位置を取得する処理は、区間の境界を示す被検体の解剖学的特徴断面の位置を示す位置情報を取得する位置取得手段の一例に相当する。 Here, as shown in FIG. 5, consider an example in which an image I1 is composed of 181 slices representing the vertebral apex to the lowest point of the sciatica. In the example of FIG. 5, a coordinate system Z is defined with the top position of the image I1 as the origin, the topmost slice in the image I1 is z = 0, the next slice is z = 1, and the bottom is the lowest in the image I1. A coordinate system in which the slice located is z = 180 is shown. Hereinafter, in this paper, when a certain coordinate system (axis) is expressed, it is expressed using a capital letter (Z), and when expressing a coordinate value of a certain coordinate system, it is expressed using a small letter (z). To do. In the coordinate system represented by Z, since the coordinate value (z) increases in units of slices with the top slice constituting the image as the origin, Z depends on the imaging range and the size of the body (bone) of the subject. It is a coordinate system in which coordinate values on the axis can change. That is, in this coordinate system, the positions of the slice images indicated by z = 0 in different three-dimensional images are not necessarily anatomically substantially the same position. In the example of FIG. 5, the positions of the vertex of the cervical vertebra, the vertex of the thoracic vertebra, the vertex of the lumbar vertebra, the vertex of the sacrum, and the lowest point of the sciatus in the image I1 are z = 0, 23, 96, 140, and 180, respectively. It shall be. The process of acquiring the positions of these anatomical feature sections corresponds to an example of a position acquisition unit that acquires position information indicating the position of the anatomical feature section of the subject indicating the boundary of the section.
画像I1の各スライスで、当該スライスの従属区間を同定する処理とは、z=0からz=180までの全てのスライスについて、ある既定の区間を割り当てる操作のことを指す。図5の例においては、z=[0,23]の範囲にあるスライスには「区間2」を割り当てることが理想的である。同様に、z=(23,96]では「区間3」、z=(96,140]では「区間4」、z=(140,180]では「区間5」を割り当てることが望ましい。 In each slice of the image I1, the process of identifying the dependent section of the slice refers to an operation of assigning a predetermined section to all slices from z = 0 to z = 180. In the example of FIG. 5, it is ideal to assign “section 2” to slices in the range of z = [0, 23]. Similarly, it is desirable to assign “section 3” when z = (23, 96], “section 4” when z = (96, 140], and “section 5” when z = (140, 180].
上記、従属区間の同定処理を自動で好適に行うための方法には、各スライス単位で既存の画像特徴量に基づくマッチング処理を利用する方法が考えられる。この方法を取る場合は、前記同定処理を行う前に、あるスライスから計算できる画像特徴量の情報と、当該スライスに対応する既定の区間の情報とを紐づけたデータを1つのデータセットとして、それらを集めたデータベースを準備しておく必要がある。また、前記画像特徴量の情報には、当該スライスを構成する画素値の情報や、当該スライスに関して適用できる各種画像フィルタの出力値の情報を用いることができる。より具体的な例では、CT画像に写る骨の特徴を捉える場合、骨の領域は画素値が高いことを利用して、ある閾値(例えば150[H.U.])以上の画素値の体積を特徴量として用いることができる。あるいは、画像に含まれる画素値のヒストグラムを特徴量として用いることもできる。 As a method for automatically and suitably performing the identification processing of the dependent section, a method using a matching process based on an existing image feature amount for each slice may be considered. When this method is taken, before performing the identification process, the data of the image feature quantity that can be calculated from a certain slice and the data that associates the information of the predetermined section corresponding to the slice as one data set, It is necessary to prepare a database that collects them. In addition, the information on the image feature amount can be information on pixel values constituting the slice and information on output values of various image filters applicable to the slice. In a more specific example, when capturing a feature of a bone shown in a CT image, the volume of a pixel value equal to or greater than a certain threshold (for example, 150 [HU]) is utilized using the fact that the bone region has a high pixel value. Can be used as a feature amount. Or the histogram of the pixel value contained in an image can also be used as a feature-value.
以下では、未知の3次元画像が入力された場合に、データベースに含まれるデータセットとの特徴量のマッチングを利用して、各スライスで従属区間の同定処理を行う方法の例を記載する。このマッチングの実現方法は次の通りである。まず、入力画像のあるスライスから計算できる特徴量の情報と、データベースに予め保存されている特徴量の情報との間で類似度を計算する。そして、計算した結果の中で最も類似度の高いデータセットを全データセットの中から選定することで、入力画像とデータベースの画像とのマッチングを実現できる。現在の処理対象のスライスの従属区間の同定は、前記マッチングにより得られた最も類似度の高いデータセットに紐付いている既定の区間の情報を当該スライスの従属区間の情報として割り当てることで実現できる。そして、3次元画像を構成する全てのスライスについて同様の処理を行うことで、各スライスが従属する区間を自動的に同定できる。なお、最も類似度の高いデータセットだけではなく、類似度の高い方から所定の数のデータセットを選定し、多数決などの方法で前記従属区間の情報を統合した結果から区間の割り当てを行ってもよい。 In the following, an example of a method for performing identification processing of dependent sections in each slice using matching of feature quantities with a data set included in a database when an unknown three-dimensional image is input will be described. A method for realizing this matching is as follows. First, a similarity is calculated between feature quantity information that can be calculated from a slice of an input image and feature quantity information that is stored in advance in a database. Then, by selecting the data set having the highest similarity among the calculated results from all the data sets, matching between the input image and the database image can be realized. The identification of the dependent section of the current processing target slice can be realized by assigning information on a predetermined section linked to the data set having the highest similarity obtained by the matching as information on the dependent section of the slice. Then, by performing the same process for all slices constituting the three-dimensional image, it is possible to automatically identify the section in which each slice is dependent. Note that not only the data set with the highest similarity but also a predetermined number of data sets are selected from the one with the highest similarity, and the section assignment is performed based on the result of integrating the information of the dependent sections by a method such as majority vote. Also good.
また、上記の従属区間の情報を割り当てる処理について、人体の解剖構造の特徴に基づいた制約を与えてもよい。例えば、図3に示した区間定義情報を用いた場合には、事前知識として、区間1と区間2の間にそれ以外の区間が入ることは無いはずである(例えば、頭頂部と胸椎の間に腰椎が存在することはない)。このことを利用して、入力の3次元画像の上(または下)のスライスから順番に従属区間の情報を割り当てる場合には、処理対象のスライスの上(または下)に位置するスライスの従属区間情報に基づいて、マッチングに用いるデータセットの数を制限してもよい。すなわち、推定結果として適切でない情報が紐付いているデータセットをデータベースから排除することで、不適切な割り当てを防ぐことができる。また、マッチングを行うデータセットの数を制限することで、計算時間を短縮する効果もある。
Moreover, you may give the restriction | limiting based on the characteristic of the anatomical structure of a human body about the process which allocates the information of said dependent area. For example, when the section definition information shown in FIG. 3 is used, no other section should enter between the
なお、ここではスライス単位で計算する特徴量に基づいて、スライス単位で従属区間の同定を行う例を示したが、処理対象を複数のスライスで構成する3次元画像としてもよい。この場合においても、複数のスライスから計算できる特徴量の情報を用いて、入力画像とデータセットの画像の類似度を計算すればよい。また、従属区間の同定については、前記3次元画像に含まれるある1つのスライス(例えば3次元画像の中央のスライス)のみに対して割り当てを行うものでもよく、当該3次元画像の全てのスライスに対して割り当てを行ってもよい。 Although an example in which the dependent section is identified in units of slices based on the feature amount calculated in units of slices is shown here, the processing target may be a three-dimensional image configured with a plurality of slices. Even in this case, the similarity between the input image and the image of the data set may be calculated using information on the feature amount that can be calculated from a plurality of slices. The identification of the dependent section may be performed only for one slice (for example, the central slice of the three-dimensional image) included in the three-dimensional image, and all the slices of the three-dimensional image may be assigned. An assignment may be made to the assignment.
また、上述のスライス単位で従属区間の同定方法は1つの例を示したものであり、別の代替手段を用いて同等の処理を行ってもよい。例えば、前記従属区間の境界に対応する解剖学的特徴断面の位置を同様のマッチング処理によって推定し、複数の解剖学的特徴断面の間について、対応する区間を割り当てることで、従属区間の同定をしてもよい。この処理は、解剖構造の境界が描出された解剖学的特徴断面の画像における位置を示す位置情報を取得する位置取得手段の一例に相当する。また、この処理は、取得された解剖学的特徴断面の位置情報に基づいて、スライス画像に対応する断面が属する区間を特定する区間特定手段の一例に相当する。 Moreover, the identification method of a dependent section in the above-mentioned slice unit shows one example, and an equivalent process may be performed using another alternative means. For example, the position of the anatomical feature cross section corresponding to the boundary of the dependent section is estimated by the same matching process, and the corresponding section is assigned between a plurality of anatomical feature cross sections to identify the dependent section. May be. This process corresponds to an example of a position acquisition unit that acquires position information indicating a position in an image of an anatomical feature section in which the boundary of the anatomical structure is depicted. Further, this process corresponds to an example of a section specifying unit that specifies a section to which a cross section corresponding to a slice image belongs based on the acquired position information of the anatomical feature cross section.
最後に、区間同定部52は、画像I1からINまでの夫々の画像に関して、前記同定した従属区間の情報に基づいて、従属区間毎に当該区間の境界に当たるスライスを探索し、その結果をRAM33に格納する。
Finally, for each image from the images I1 to IN, the
(ステップS104:各画像の各スライスの従属区間に対応する基準座標系における座標値の算出)
ステップS104において、座標算出部53は、ステップS103で同定した各スライスにおける従属区間の情報に基づいて、当該従属区間に対応する基準座標系における当該スライスの座標値を算出して、RAM33に格納する。この計算は、I1からINまでの夫々の画像に関して行うものとする。
(Step S104: Calculation of coordinate values in the reference coordinate system corresponding to the dependent section of each slice of each image)
In step S104, the coordinate
ここで、図3に示した区間定義情報について、各区間に対して基準座標系Z’を定義した一例を図6に示す。ここでは、ある区間nでの基準座標系Z’の最小値をz’n_min、最大値をz’n_maxと表記する。図6に示した基準座標系Z’では、頭頂部に対応するスライスの座標値をz’=0、頸椎の頂点に対応するスライスの座標値をz’=100と定義している。つまり、区間1の場合では、最小値z’1_min=0であり、z’1_max=100となる。なお、ここで区間2の最小値z’2_min=z’1_maxと設定することで、区間1と区間2の境界における座標値を連続的にできる。また、頸椎の頂点よりも下の解剖学的特徴断面についても、特徴断面が1つ下の断面になる毎に当該断面の位置の座標値が100増加する座標系になっており、最後の足底部に対応するスライスの座標値をz’=700としている。ここで、図5に示した例を基に、画像I1の最上位置を原点とした座標系Zと、前記基準座標系Z’を対応付けた場合の例を図7に示す。図7では、z=0の位置はz’=100、z=23の位置はz’=200に対応している。
Here, FIG. 6 shows an example in which the reference coordinate system Z ′ is defined for each section with respect to the section definition information shown in FIG. 3. Here, the minimum value of the reference coordinate system Z ′ in a certain section n is expressed as z′n_min, and the maximum value is expressed as z′n_max. In the reference coordinate system Z ′ shown in FIG. 6, the coordinate value of the slice corresponding to the top of the head is defined as z ′ = 0, and the coordinate value of the slice corresponding to the vertex of the cervical vertebra is defined as z ′ = 100. That is, in the case of
図7に示す座標系Z、および、基準座標系Z’間の位置の対応付けは、以下のような処理で実現できる。すなわち、まず座標算出部53は、前記従属区間毎に、当該区間の境界に当たるスライスの位置と基準座標系における当該区間の境界の位置を対応付ける。次に、境界以外の位置の対応付けを行う。ここでは、座標系Zと基準座標系Z’の間に関して、同じ従属区間であれば、その区間に含まれる解剖構造は、スケールの違いこそあれ略同一の大きさのバランスで配置されているとみなす。そこで、従属区間ごとに座標を線形的に対応付ける。具体的には、区間1に対応する座標z=[0,23]の範囲に含まれるスライスは線型的に座標値が増加するものと考えて、基準座標系Z’での座標値を例えば下式で計算すればよい。下記のf(z)は、スライスの座標値zに対応する基準座標系Z’の座標値を表すものとする。
f(z)=z’n_min+(z−zn_min)/(zn_max−zn_min)×(z’n_max−z’n_min)・・・式(1)
The association of the position between the coordinate system Z and the reference coordinate system Z ′ shown in FIG. 7 can be realized by the following processing. That is, first, the coordinate
f (z) = z′n_min + (z−zn_min) / (zn_max−zn_min) × (z′n_max−z′n_min) (1)
式(1)におけるzn_minは、区間nにおけるスライスの座標値zの最小値であり、zn_maxは最大値である。具体例として、図7におけるz=10の位置に「区間2」が割り当てられている前提でf(z)を計算する場合を考えると、夫々のパラメータは、z2_min=0、z2_max=23、z’2_min=100、z’2_max=200となる。また、その他の従属区間に関しても、同様に各従属区間のスライスの最小値・最大値を夫々のパラメータに代入することで、この式(1)の計算によって、従属区間毎に、正規化された座標系における座標値を計算できる。なお、境界以外の位置の対応付け方法は、これに限られるものではなく、非線形的に対応付けてもよい。 In Expression (1), zn_min is the minimum value of the coordinate value z of the slice in the section n, and zn_max is the maximum value. As a specific example, when f (z) is calculated on the assumption that “section 2” is assigned to the position of z = 10 in FIG. 7, the respective parameters are z2_min = 0, z2_max = 23, z '2_min = 100, z'2_max = 200. In addition, with respect to the other dependent sections, similarly, by substituting the minimum and maximum values of the slices of each dependent section into the respective parameters, the calculation is performed for each dependent section by the calculation of Equation (1). Coordinate values in the coordinate system can be calculated. Note that the method of associating positions other than the boundaries is not limited to this, and may be associated non-linearly.
ここで、基準座標系Z’を設けることの効果について述べる。基準座標系Z’を設定することの効果は、異なる3次元画像であっても、区間定義情報で定義されている解剖学的特徴断面については、解剖学的に略同一の場所が基準座標系Z’で同じ座標値を持つ点にある。この正規化された空間の情報を利用することで、後段の異なる3次元画像の位置を合わせて表示する処理が容易になるという効果がある。 Here, the effect of providing the reference coordinate system Z ′ will be described. The effect of setting the reference coordinate system Z ′ is that even if different three-dimensional images are used, the anatomically characteristic cross-section defined by the section definition information has a substantially identical anatomical location as the reference coordinate system. Z ′ is at a point having the same coordinate value. By using the normalized space information, there is an effect that the process of displaying the positions of different three-dimensional images in the subsequent stage together becomes easy.
また、空間的な正規化をより強めたい場合には、人体の解剖構造をより細かい区間に区切るように区間定義情報を定義することで、より細かい単位での正規化が実現できる。例えば、区間定義情報に含まれる解剖学的特徴断面が頭頂部と足底部の2つだけの場合を考える。このとき、位置合わせ対象の画像では基準座標系Z’において、頭頂部が最小値、足底部が最大値となるように空間が正規化される。しかし、それらの解剖学的特徴断面の間について考えると、それらの解剖学的特徴断面から離れてしまうほど、正規化の効果は弱くなる。なぜならば、人体の解剖構造の大きさには個人差があり、それらの解剖学的特徴断面(頭頂部と足底部)の間に存在する解剖構造の大きさのバランスは、人それぞれ異なるためである。つまり、画像に含まれる解剖構造の大きさのバランスが位置合わせ対象の画像間で異なる場合、基準座標系で同じ座標値が与えられているスライスであっても、解剖学的に対応する位置にはならない可能性がある。このバランスの違いは、大まかには年齢などの違いによって起こり得るものであるが、個人のばらつきによっても僅かながらに起こり得る。区間定義情報に含まれる解剖学的特徴断面の数を増やすことは、体軸方向で解剖学的に意味のある位置で複数の区間に分割し、区間毎に設けた基準座標系(正規化空間)で画像を正規化することに相当する。空間を小分けにして正規化を行うことで、解剖構造の大きさのバランスの違いをより細かい単位で吸収するような、正規化をかける効果があると考えられる。 Further, when it is desired to further strengthen the spatial normalization, normalization in finer units can be realized by defining the section definition information so that the anatomical structure of the human body is divided into smaller sections. For example, let us consider a case where there are only two anatomical feature cross sections included in the section definition information: the top of the head and the bottom of the foot. At this time, in the image to be aligned, in the reference coordinate system Z ′, the space is normalized so that the top of the head has the minimum value and the bottom of the foot has the maximum value. However, when considering between the anatomical feature sections, the further away from those anatomical feature sections, the weaker the normalization effect. This is because there are individual differences in the size of the anatomical structure of the human body, and the balance of the size of the anatomical structure existing between the cross sections of the anatomical features (the top of the head and the bottom of the foot) is different for each person. is there. In other words, if the balance of the size of the anatomical structure included in the images differs between the images to be aligned, even slices that have the same coordinate value in the reference coordinate system will be placed in positions corresponding to the anatomies. It may not be possible. This difference in balance can be roughly caused by a difference in age or the like, but can be slightly caused by individual variation. Increasing the number of anatomical feature cross sections included in the section definition information is divided into a plurality of sections at anatomically meaningful positions in the body axis direction, and a reference coordinate system (normalized space provided for each section). ) Is equivalent to normalizing the image. It is considered that normalizing by subdividing the space has the effect of applying normalization that absorbs the difference in the balance of the size of the anatomical structure in finer units.
(ステップS105:基準座標系における座標値に基づいた画像表示)
ステップS105において、位置合わせ部54は、ステップS104で算出した座標値に基づいて、画像I1からINまでの画像について、基準座標系Z’で同一または略同一の座標値を持つスライスを同定する。そして、表示処理部55は、それらの同定したスライスの画像を表示部36の画像表示領域400内に表示させる。すなわち、表示処理部55は、対応付けられた夫々のスライス画像を対比可能な形態で表示手段に表示させる表示制御手段の一例に相当する。なお、対応するスライス画像の表示は、並列、重畳、時分割など、周知のいずれの方法を用いて行ってもよい。
(Step S105: Image display based on coordinate values in the reference coordinate system)
In step S105, the
例えばユーザが表示部36の画像表示領域内で画像I1を操作する場合を考える。このとき、ユーザが画像I1のあるスライス(以下、注目スライス)の表示を指示すると、位置合わせ部54は、前記ステップS104で計算した結果から、基準座標系Z’における該注目スライスの座標値(ZI1’)を取得する。そして、画像I2から画像INまでの夫々の画像について、基準座標系Z’における各スライスの座標値を参照して、ZI1’に最も近い座標値を持つスライスを、注目スライスの対応スライスとして同定する。その後、表示処理部55は、前記同定したスライスを表示部36の画像表示領域内に表示させる。この処理によれば、ユーザ操作によって表示された画像I1のある1つの注目スライスと、画像I2から画像INの中で当該注目スライスと略同一の解剖構造を含むスライス(対応スライス)をユーザに提示できる。
For example, consider a case where the user operates the image I1 within the image display area of the display unit 36. At this time, when the user instructs display of a certain slice of the image I1 (hereinafter referred to as the target slice), the
なお、上記の対応付いた位置のスライスを表示する処理は、画像I1からINの全ての画像で行う必要はなく、操作部35を介してユーザが選択した画像についてのみ処理を行ってもよい。
Note that the processing for displaying the slice at the corresponding position does not need to be performed for all the images I1 to IN, and may be performed only for the image selected by the user via the
また、前述した通り、解剖学的特徴断面の間に存在する断面を示すスライス画像は、解剖学的特徴断面から離れてしまうほど、前述した正規化の効果が弱くなる。そのため、表示処理部55は、表示するスライス画像が示す断面と解剖学的特徴断面と間の距離に応じて、スライス画像の表示態様を変更してもよい。例えば、表示処理部55は、表示するスライス画像が示す断面と最も近い解剖学的特徴断面と間の距離が所定の距離よりも離れている場合には、スライス画像の縁の色を赤に設定する。また、表示処理部55は、表示するスライス画像が示す断面と最も近い解剖学的特徴断面と間の距離が所定の距離よりも離れていない場合には、スライス画像の縁の色を青に設定する。このように、表示するスライス画像が示す断面と最も近い解剖学的特徴断面と間の距離が所定の距離よりも離れているか否かに応じて、スライス画像の表示態様を変更することで、前述した正規化の信頼度をユーザが把握することができる。なお、表示態様の変更は色だけでなく、文字や記号の表示態様を変更することも含まれる。また、所定の距離による閾値処理を介さずに、最も近い解剖学的特徴断面からの距離の情報を直接表示するようにしてもよい。このとき距離は、スライス数、物理的距離(何mm)、あるいは、基準座標系Z’における距離であってもよい。また、距離に応じて割り当てた疑似カラーをスライス画像の縁の色として設定するようにしてもよい。
Further, as described above, the effect of normalization described above becomes weaker as the slice image indicating the cross section existing between the anatomical characteristic cross sections becomes farther from the anatomical characteristic cross section. Therefore, the
本実施形態によれば、人体の解剖構造の位置を体軸方向に部位ごとに正規化することで解剖構造の大きさのバランスの違いを吸収できるため、異なる画像間の位置合わせ処理において、より精度の高い位置合わせ結果をユーザに提供できる効果がある。 According to this embodiment, since the difference in the balance of the size of the anatomical structure can be absorbed by normalizing the position of the anatomical structure of the human body for each part in the body axis direction, in the alignment process between different images, There is an effect that a highly accurate alignment result can be provided to the user.
(変形例1)
上記の実施形態では、ユーザが複数の3次元画像を表示して観察(診断)する際に、夫々の画像について基準座標系Z’における各スライスの座標値を計算する処理を行う例を示した。しかし、該基準座標値を計算する処理を実施する手順は必ずしもこれに限らない。例えば、画像処理装置10がステップS101からS104までの処理を行い、画像I1から画像INの各画像の各スライスについて、基準座標系Z’における座標値を計算する。そして、その計算した結果を当該スライスの付帯情報として夫々の画像に付帯させてデータベース22に保存するようにしてもよい。このとき、ステップS102の処理では画像の表示を行わなくてもよい。また、比較する複数の画像を同時に処理する必要はなく、夫々の画像に対して個別に処理を行ってもよい。この場合、本処理は、夫々の画像を撮像した直後等のタイミングで、医師による画像の観察(診断)に先がけて実行しておくことができる。すなわち、この手順は、ステップS103からステップS104の処理を各画像について事前に実行することに相当する。
(Modification 1)
In the above-described embodiment, when the user displays and observes (diagnosis) a plurality of three-dimensional images, an example in which the process of calculating the coordinate value of each slice in the reference coordinate system Z ′ is performed for each image is shown. . However, the procedure for performing the process of calculating the reference coordinate value is not necessarily limited to this. For example, the
そして、ユーザが画像の観察(診断)を行う際は、画像処理装置10がステップS102、及びステップS105の処理を行う構成とすることができる。この手順を取る場合には、ステップS102で画像取得部51が画像を取得する際に、当該画像の付帯情報として保存されている各スライスの基準座標値を読み込む処理を追加すれば、第1の実施形態と同等の処理が実現できる。
And when a user observes (diagnosis) of an image, it can be set as the structure which the
この変形例1の処理により、第1の実施形態で必要であった画像を表示する際の基準座標系Z’における座標値の計算を省くことができるため、ユーザが画像の観察(診断)を行う際の待ち時間を短縮できる。 By the processing of the first modification, it is possible to omit the calculation of the coordinate value in the reference coordinate system Z ′ when displaying the image necessary in the first embodiment, so that the user can observe (diagnose) the image. The waiting time when performing can be shortened.
なお、取得した画像が付帯情報として各スライスの基準座標値を保持しているか否かを判定し、該付帯情報を有していない場合にのみ当該画像に対してステップS103およびステップS104の処理を実行するようにしてもよい。これによると、基準座標値の算出が処理済の画像と未処理の画像が混在する場合の待ち時間を最小限に留めることができる。 Note that it is determined whether or not the acquired image holds the reference coordinate value of each slice as supplementary information, and the processing of step S103 and step S104 is performed on the image only when the supplementary information is not included. You may make it perform. According to this, it is possible to minimize the waiting time in the case where the processed image and the unprocessed image are mixed in the calculation of the reference coordinate value.
(変形例2)
第1の実施形態において、位置合わせ部54は、ステップS105でユーザが3次元画像中のある注目スライスを指定したことをトリガーとして、当該注目スライスの対応スライスを同定する計算を行っていた。しかし、この手順は必ずしもこの方法に限らない。例えば、ステップS105の処理において、位置合わせ部54が、画像I1から画像INの全ての画像の各スライス間の対応関係を、基準座標系Z’を介して予め同定しておく構成であってもよい。これにより、各画像の夫々のスライスに、他の画像における対応スライスの識別子(スライス番号)を付帯情報として保持させておくことができる。表示処理部55は、ユーザが注目スライスを指定した際に、該注目スライスが保持している対応スライスの識別子を読み込んで、当該対応スライスの画像を注目スライスの画像と共に表示するようにしてもよい。これにより、第1の実施形態、および、変形例1で必要であった画像を表示する際の対応スライスの同定の計算を省くことができるため、ユーザがある画像のスライスの表示を指示した際、即座に他の画像の対応するスライスを表示できる。
(Modification 2)
In the first embodiment, the
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
<第2の実施形態>
第1の実施形態では、ステップS103において、区間同定部52は、画像I1からINを構成する各スライスについて、区間定義情報に含まれる複数の区間のうち当該スライスがどの区間に従属するかを同定している。その後、ステップS104において、座標算出部53は、各従属区間で区間の境界となる位置を探索し、区間定義情報に対応する基準座標系の境界の位置と対応付けることで、空間的な正規化を実現していた。しかし、上記の空間的な正規化を実現する方法は、別の方法であってもよい。
<Second Embodiment>
In the first embodiment, in step S103, the
第2の実施形態では、画像取得部51で取得した3次元画像を対象として、前記区間定義情報に含まれる解剖学的特徴断面の位置を直接的に推定し、前記断面の位置取得を行った結果を用いて空間的な正規化を行う方法の例を説明する。本実施形態においては、3次元画像全体の情報に基づいた処理ができるため、第1の実施形態に記載したスライス単位のマッチング処理よりも高精度な対応付けができるという効果がある。
In the second embodiment, for the 3D image acquired by the
第2の実施形態に関わる画像処理装置の構成は第1の実施形態と同様であるが、区間同定部52に次の機能が追加されている。
The configuration of the image processing apparatus according to the second embodiment is the same as that of the first embodiment, but the following function is added to the
第2の実施形態において、区間同定部52は、位置合わせ対象の画像I1からINについて、断面の位置推定処理を用いて、当該画像の範囲の中から区間定義情報に含まれる解剖学的特徴断面の位置を取得する。
In the second embodiment, the
ここで図8を用いて、画像処理装置10の処理の流れの第2の例について説明する。
Here, a second example of the processing flow of the
図8は、画像処理装置10における区間定義情報の取得処理から始まり、ある基準の座標系で位置を合わせた複数の画像を表示する処理の一例を示すフローチャートである。このフローチャートで示したステップにおいて、ステップS101〜S102及びステップS104〜S105は、図2に示した第1実施形態におけるステップS101〜S102及びステップS104〜S105と同様の処理を行う。すなわち、第1実施形態と異なる処理は、ステップS203である。以下、追加された処理と第1実施形態との相違部分についてのみ説明する。
FIG. 8 is a flowchart illustrating an example of a process for displaying a plurality of images whose positions are aligned in a certain reference coordinate system, starting from the section definition information acquisition process in the
(ステップS203:解剖学的特徴断面の位置の取得)
ステップS203において、区間同定部52は、画像取得部51で取得した3次元画像(画像I1から画像IN)を対象として、画像から前記区間定義情報に含まれる解剖学的特徴断面の位置を推定して、RAM33に格納する。
(Step S203: Acquisition of the position of the anatomical feature cross section)
In step S203, the
上記の実現方法としては、3次元画像を対象とする既存の位置合わせ技術を利用する方法が考えられる。この位置合わせ技術を利用して解剖学的特徴断面の位置を推定する場合においても、あるデータベースの準備が必要であることは第1の実施形態と同じである。第2の実施形態においては、データセットとして、3次元画像(参照画像)と、既定の解剖学的特徴断面の位置情報とを紐づけたデータがあるものとする。なお、位置合わせ処理によって解剖学的特徴断面の位置を画像から推定する場合には、データベースの参照画像の範囲は、入力の3次元画像よりも広い範囲を持っていることが望ましい。なぜならば、データベースの画像の範囲の方が狭い場合には、入力の3次元画像に本来含まれる解剖学的特徴断面と対応する断面が当該画像に存在しない場合があり得ることから、解剖学的特徴断面の推定に失敗する可能性があるためである。 As a method for realizing the above, a method using an existing alignment technique for a three-dimensional image can be considered. Even when the position of the anatomical feature cross section is estimated using this alignment technique, the preparation of a certain database is necessary as in the first embodiment. In the second embodiment, it is assumed that there is data associating a three-dimensional image (reference image) and position information of a predetermined anatomical feature section as a data set. When the position of the anatomical feature cross section is estimated from the image by the alignment process, it is desirable that the range of the reference image in the database is wider than the input three-dimensional image. This is because if the range of the image in the database is narrower, a cross section corresponding to the anatomical feature cross section originally included in the input three-dimensional image may not exist in the image. This is because the estimation of the feature cross section may fail.
上記の位置合わせ技術を利用する方法では、区間同定部52は、入力された3次元画像データ(画像I1から画像IN)の各画像と、データベースに含まれるデータセットの画像(参照画像)との3次元画像位置合わせを行う。すなわち、この処理は、取得された画像と、区間に関する情報が対応付けられたスライス画像を含む3次元の参照画像との位置合わせを行う位置合わせ手段の一例に相当する。但し、ここでの位置合わせは、解剖学的特徴断面が定義される軸についてのみ、画像I1から画像INの各画像と参照画像の位置合わせ処理が実施できれば十分である。この1つの軸方向の位置合わせ処理は、例えば、処理対象の軸について、位置合わせ対象の画像間の類似度を最大化するような最適化処理によって実現できる。なお、画像間の類似度については、画像の濃度値や特徴量の差の絶対値の和や二乗和を用いることができるが、その他の指標であっても構わない。
In the method using the above alignment technique, the
ある画像I1に対して、前記データベースを用いて解剖学的特徴断面の位置の推定を行う方法は次の通りである。区間同定部52は、まず画像I1と全てのデータセットの画像について、上記の位置合わせ処理を行う。この位置合わせ処理を行うことで、画像I1と全てのデータセットの画像の組合せについて、画像間のずれ量と画像間の類似度が計算できる。ここで、画像間のずれ量(Δz)とは、入力画像とデータセットの画像で対応する断面位置の座標値を夫々zTest、zRefとしたときのそれらの差を表すものである(Δz=zTest−zRef)。なお、これらの座標値は、夫々の画像データの最も上のスライスの位置を原点として考えた場合の座標値である。
A method for estimating the position of an anatomical feature cross section for a certain image I1 using the database is as follows. The
続いて、区間同定部52は、全てのデータセットで計算した画像間の類似度の最大値に基づいて、それらの中から入力画像と最も類似したデータセットを選定する。
Subsequently, the
最後に、区間同定部52は、選定したデータセットの画像(参照画像)に紐付けられた既定の解剖学的特徴断面の位置情報に基づいて、入力画像における解剖学的特徴断面の位置情報を推定する。すなわち、この処理は、位置合わせされた参照画像に含まれるスライス画像に対応付けられた区間に関する情報に基づいて、画像に含まれるスライス画像に対応する断面が属する区間を推定する区間特定手段の一例に相当する。
Finally, the
解剖学的特徴断面の位置情報の推定処理については、ここまでの処理で入力画像と前記選定した参照画像の画像間のずれ量(Δz)が計算できているため、その情報を用いればよい。具体的には、選定した参照画像に紐付けられた既定の解剖学的特徴断面の位置の情報とずれ量(Δz)の和を計算することで、入力画像に含まれる解剖学的特徴断面の位置を推定できる。 Regarding the estimation processing of the position information of the anatomical feature cross section, since the shift amount (Δz) between the input image and the selected reference image can be calculated by the processing so far, this information may be used. Specifically, by calculating the sum of the position information of the predetermined anatomical feature cross section linked to the selected reference image and the amount of deviation (Δz), the anatomical feature cross section included in the input image is calculated. The position can be estimated.
なお、上記の例では最も類似度の高いデータだけを用いた例を示したが、推定の方法はこれに限らない。例えば、類似度の高い順に所定の数のデータを複数選定した結果に基づいて、それらの平均値などで位置の推定を行ってもよい。 In the above example, only the data having the highest similarity is used. However, the estimation method is not limited to this. For example, based on the result of selecting a predetermined number of data in descending order of similarity, the position may be estimated using an average value thereof.
なお、入力画像に含まれる複数の解剖学的特徴断面の間に存在するスライスについては、区間定義情報で定義した従属区間を割り当ててもよい。ただし、本実施形態のように解剖学的特徴断面の位置が推定できる場合には、第1の実施形態に記載されている各スライスで従属区間を推定する処理は不要である。その理由は、ステップS104における座標算出部53の計算は、入力画像に含まれる解剖学的特徴断面の位置の情報と、区間定義情報に含まれる各区間に対応する基準座標系が定義されていれば実施できるためである。
Note that a dependent section defined by the section definition information may be assigned to a slice existing between a plurality of anatomical feature cross sections included in the input image. However, when the position of the anatomical feature cross section can be estimated as in the present embodiment, the process of estimating the dependent section in each slice described in the first embodiment is unnecessary. The reason is that the calculation by the coordinate
本実施形態によれば、3次元画像全体の情報に基づいた処理ができるため、第1の実施形態に記載したスライス単位のマッチング処理よりも高精度な対応付けができる。 According to the present embodiment, since processing based on the information of the entire three-dimensional image can be performed, the matching can be performed with higher accuracy than the matching processing in units of slices described in the first embodiment.
<第3の実施形態>
第2の実施形態では、ステップS203において、区間同定部52は、画像取得部51で取得した3次元画像(画像I1から画像IN)を対象として、データベースに含まれる画像との位置合わせを行うことで解剖学的特徴断面の位置を推定している。そして、続くステップS104では、前記推定した解剖学的特徴断面の位置に基づいて、基準座標系Z’における座標値を計算している。
<Third Embodiment>
In the second embodiment, in step S203, the
第3の実施形態に関わる画像処理装置の構成は、第2の実施形態と同様であるが、区間同定部52に次の機能が追加されている。
The configuration of the image processing apparatus according to the third embodiment is the same as that of the second embodiment, but the following function is added to the
第3の実施形態において、区間同定部52は、位置合わせ対象の画像I1からINについて、断面の位置推定処理を用いて、当該画像の範囲の中から区間定義情報に含まれる解剖学的特徴断面の位置を取得する。基本的な機能は第2の実施形態と同様であるが、第2の実施形態との違いは次の通りである。第3の実施形態では、入力された画像の範囲内だけではなく、範囲外における解剖学的特徴断面の位置も推定し、その推定結果に基づいて基準座標系Z’における座標値を計算する機能が追加されている。この機能は、画像に含まれる被検体の撮像範囲外における解剖学的特徴断面の位置を推定することにより、該撮像範囲外における解剖学的特徴断面の位置を示す位置情報を取得する位置取得手段の一例に相当する。これにより、画像の体軸方向の上下端で途切れている部位に関して画像範囲外に存在する解剖学的特徴断面の位置を推定することができる。つまり、画像の範囲内で解剖学的特徴断面に挟まれていないスライスがある場合であっても、当該スライスに対して、より高精度な基準座標系の座標との対応付けが可能となる。以下、追加された処理と第2実施形態との相違部分についてのみ説明する。
In the third embodiment, the
第1の実施形態、および、第2の実施形態の方法によれば、推定した複数の解剖学的特徴断面の間に存在するスライスについて、基準座標系Z’における座標値が計算できる。つまり、図9に示す画像A1のように、前記複数の解剖学的特徴断面の位置が入力画像(画像A1)の画像端の位置と対応する場合には、画像A1を構成する全てのスライスについて、基準座標系Z’における座標値を計算できる。しかし、入力画像の画像範囲が図9に示す画像A2、画像A3、および、画像A4であるような場合を考えると、入力画像を構成する一部または全てのスライスについて、基準座標系Z’における座標値を計算できない。その理由は、これらの状況で画像の範囲内に含まれる複数の解剖学的特徴断面のみを用いるとすると、画像A2、画像A3、および、画像A4を構成するスライスは、一部または全てのスライスが前記解剖学的特徴断面の間には存在しないためである。すなわち、ステップS104における座標算出部53の計算(式(1))で用いるパラメータ、zn_max、およびまたは、zn_minが取得できないため、当該スライスに関しては、基準座標系Z’における座標値を計算することができない。
According to the method of the first embodiment and the second embodiment, the coordinate values in the reference coordinate system Z ′ can be calculated for slices existing between the estimated plurality of anatomical feature cross sections. That is, when the positions of the plurality of anatomical feature cross sections correspond to the positions of the image edges of the input image (image A1) as in the image A1 shown in FIG. 9, all slices constituting the image A1 are used. The coordinate value in the reference coordinate system Z ′ can be calculated. However, when considering a case where the image range of the input image is the image A2, the image A3, and the image A4 shown in FIG. 9, with respect to some or all of the slices constituting the input image, the reference coordinate system Z ′ The coordinate value cannot be calculated. The reason is that if only a plurality of anatomical feature sections included in the range of the image are used in these situations, the slices constituting the image A2, the image A3, and the image A4 are partially or all slices. Is not present between the anatomical feature sections. That is, since the parameters, zn_max and / or zn_min used in the calculation (equation (1)) of the coordinate
この課題を解決するため、本実施形態の区間同定部52は、ステップS203において、第2の実施形態と同様に入力された画像の範囲内における解剖学的特徴断面の位置を推定するとともに、さらに、該画像の範囲外における解剖学的特徴断面の位置を推定する。この入力画像の範囲外で解剖学的特徴断面を推定する場合においても、ステップS104における座標算出部53は、第2の実施形態に記載の計算方法を用いることで、入力画像を構成する各スライスについて基準座標系における座標値を計算できる。なお、入力された画像に含まれる断面が区間定義情報において端の断面(図3における頭頂部や足底部)に当たる場合には、それらの断面よりも外側の断面を推定する必要は無い。
In order to solve this problem, in step S203, the
入力された画像の範囲外における解剖学的特徴断面の推定方法としては、第2の実施形態に記載した位置合わせ技術に基づく方法と同様の方法を用いることができる。ただし、データセットの画像に紐付いている解剖学的特徴断面の位置を利用して、入力画像における解剖学的特徴断面の位置を計算する際に、その計算範囲を拡張する必要がある。すなわち、入力画像の撮像範囲のみで解剖学的特徴断面の位置を計算するのではなく、入力画像の撮像範囲外となる座標についても、当該断面の位置を計算する必要がある。また、この断面の位置の計算を実現するに当たっては、データベースからデータセットを選定する際に、ある条件を満たすデータセットのみを処理に利用するような制約を設ける必要がある。 As a method for estimating the anatomical feature cross section outside the range of the input image, a method similar to the method based on the alignment technique described in the second embodiment can be used. However, when calculating the position of the anatomical feature cross section in the input image using the position of the anatomical feature cross section associated with the image of the data set, it is necessary to extend the calculation range. That is, instead of calculating the position of the anatomical feature cross section only from the imaging range of the input image, it is necessary to calculate the position of the cross section for coordinates outside the imaging range of the input image. In order to realize the calculation of the position of the cross section, it is necessary to provide a constraint that only a data set satisfying a certain condition is used for processing when selecting a data set from the database.
前記の条件とは、入力画像との位置合わせを実施した後の状態で、入力画像とデータセットの画像の一部が共通しており、入力画像の範囲の外側の解剖学的特徴断面が当該データセットに紐付いていることを指す。 The above condition is the state after the alignment with the input image, the input image and a part of the image of the data set are common, and the anatomical feature cross section outside the range of the input image Refers to being linked to a data set.
ここで、前記条件を満たすデータセットには、次の2つのパターンが考えられる。まず1つ目のパターンは、当該データセットに紐付いている複数の解剖学的特徴断面が入力画像の範囲を含んでいる(挟むように存在している)場合である(パターン1)。続く2つ目のパターンは、入力画像の範囲の外側の解剖学的特徴断面に関して、上側か下側の断面のどちらか一方がデータセットに紐付いている場合である(パターン2)。 Here, the following two patterns are conceivable for the data set that satisfies the above conditions. The first pattern is a case where a plurality of anatomical feature sections linked to the data set include the range of the input image (exist so as to be sandwiched) (pattern 1). The following second pattern is a case where either the upper or lower cross section is associated with the data set with respect to the anatomical feature cross section outside the range of the input image (pattern 2).
以下では、入力された画像の範囲外における解剖学的特徴断面の推定方法の具体的な流れの例として、前記2つのパターンのデータセットを用いた場合の推定方法の例を示す。 Hereinafter, as an example of a specific flow of the estimation method of the anatomical feature cross section outside the range of the input image, an example of the estimation method when using the data patterns of the two patterns will be described.
(パターン1のデータセット(群)を利用する場合の推定方法)
まず、入力画像とデータベース上の画像の位置合わせ処理までは、第2の実施形態に記載した流れと同様に処理を行う。そして、位置合わせ処理の後に画像間の類似度で最大値を示すデータセットを選定する際に、前記パターン1となるデータセットのみから選定を行う。最後に、選定したデータセットの画像に紐付いている全ての解剖学的特徴断面の位置について、入力画像の範囲外を含めて、入力画像の座標系Zにおける断面の位置を推定する。ここでデータセットの選定については、類似度の最大値に限らず、類似度の高い順に所定の数を選定してもよい。なお、複数のデータセットを選定する場合においては、夫々のデータセットに紐付いている解剖学的特徴断面について、同一断面の座標値の平均(または最大・最小など)を計算することで、入力画像の座標系Zにおける断面の位置を推定してもよい。
(Estimation method when
First, the processing is performed in the same manner as the flow described in the second embodiment until the registration processing of the input image and the image on the database. Then, when selecting a data set that shows the maximum value of similarity between images after the alignment process, the selection is made only from the data set that becomes the
ここで、あるデータセットが前記パターン1の場合となるかは、次の方法で判定できる。まず、データセットに含まれる複数の解剖学的特徴断面の中で、最も上に位置する断面と、最も下に位置する断面の位置を同定する。そして、それらの断面の間の範囲に入力画像の画像範囲が収まっているかどうかを見ることで、前記のパターン1の場合となるかを判定できる。具体例として、図9に示す画像A3が入力データであり、画像A1、および画像A2がデータベースに含まれるデータセットの画像であるような状況を考える。ここでは、同図において、画像A1、A2、A3の位置合わせは完了していることを前提とする。
Here, whether or not a certain data set is the
まず入力画像A3とデータベースに含まれる画像A1について考えると、画像A1に含まれる解剖学的特徴断面は断面3、断面4、断面5、断面6である。さらに、これらの断面の中で最も上に位置する断面は断面3であり、最も下に位置する断面は断面6である。ここで、画像A3の範囲を見ると、断面3と断面6の間の範囲に、画像A3の範囲が含まれていることが分かる。すなわち、データベースに含まれる画像A1は入力画像A3の範囲外における解剖学的特徴断面の位置を推定するための条件を満たしており、かつ、前記パターン1の場合に合致すると判定できる。
First, considering the input image A3 and the image A1 included in the database, the anatomical feature cross sections included in the image A1 are the cross section 3, the cross section 4, the cross section 5, and the cross section 6. Further, among these cross sections, the uppermost cross section is the cross section 3, and the lowest cross section is the cross section 6. Here, when the range of the image A3 is seen, it can be seen that the range of the image A3 is included in the range between the cross section 3 and the cross section 6. That is, it can be determined that the image A1 included in the database satisfies the condition for estimating the position of the anatomical feature cross section outside the range of the input image A3, and matches the case of the
続いて、入力画像A3とデータベースに含まれる画像A2について考える。画像A2に含まれる解剖学的特徴断面は、断面4、断面5、断面6である。そして、これらの断面の中で最も上に位置する断面は断面4であり、最も下に位置する断面は断面6である。上記と同様にして画像A3の範囲を見ると、画像A3の範囲の一部は断面4と断面6の間の範囲に含まれていないことが分かる。つまり、データベースに含まれる画像A2は入力画像A3の範囲外における解剖学的特徴断面の位置を推定するための条件を満たしているが、前記パターン1の場合には合致しない(パターン2である)と判定できる。 Next, consider the input image A3 and the image A2 included in the database. The anatomical feature cross sections included in the image A2 are the cross section 4, the cross section 5, and the cross section 6. Among these cross sections, the uppermost cross section is the cross section 4, and the lowest cross section is the cross section 6. When the range of the image A3 is viewed in the same manner as described above, it can be seen that a part of the range of the image A3 is not included in the range between the cross section 4 and the cross section 6. That is, the image A2 included in the database satisfies the condition for estimating the position of the anatomical feature cross section outside the range of the input image A3, but does not match in the case of the pattern 1 (the pattern 2). Can be determined.
最後に、データベース上の画像に紐付いている解剖学的特徴断面の位置に基づいて、入力画像の範囲外を含めて、入力画像の座標系Zにおける断面の位置を推定する方法について、図10を用いて補足する。図10に示す例では、画像A3が入力データであり、画像A1がデータベース上の画像であるものとし、画像A1、A3の位置合わせは完了しているものとする。図10では、画像A1の最上位置を原点とした座標系ZRefと画像A3の最上位置を原点とした座標系ZTestが定義されている。今、画像A1と画像A3の位置合わせにより、これらの座標系で対応する位置を算出するためのずれ量Δz(=zTest−zRef)は―17である。さらにデータベース上の画像A1には、zRef=5、46、70の位置に断面3、断面4、断面5の特徴断面の情報が夫々紐付いている。ここで、断面3の位置(zRef=5)を座標系ZTestで考えると、zTest=zRef+Δzにより、zTest=5+(−17)=−12となる。断面4についても同様の計算が可能であり、断面4の位置は、zTest=29となる。今、画像A3の画像の範囲はzTest=[0,26]であることから、画像A3の範囲外における解剖学的特徴断面の位置が推定できていることが分かる。 Finally, FIG. 10 shows a method for estimating the position of the cross section in the coordinate system Z of the input image, including outside the range of the input image, based on the position of the anatomical feature cross section associated with the image on the database. Use to supplement. In the example shown in FIG. 10, it is assumed that the image A3 is input data, the image A1 is an image on the database, and the alignment of the images A1 and A3 is completed. In FIG. 10, a coordinate system ZRef whose origin is the highest position of the image A1 and a coordinate system ZTest whose origin is the highest position of the image A3 are defined. Now, by aligning the images A1 and A3, the shift amount Δz (= zTest−zRef) for calculating the corresponding positions in these coordinate systems is −17. Further, in the image A1 on the database, information on the characteristic cross sections of the cross section 3, the cross section 4, and the cross section 5 is associated with zRef = 5, 46, and 70, respectively. Here, when the position of the cross section 3 (zRef = 5) is considered in the coordinate system ZTest, zTest = 5 + (− 17) = − 12 by zTest = zRef + Δz. The same calculation is possible for the cross section 4, and the position of the cross section 4 is zTest = 29. Now, since the image range of the image A3 is zTest = [0, 26], it can be seen that the position of the anatomical feature cross section outside the range of the image A3 can be estimated.
なお、上記の推定方法はある1つの例を示したものであり、別の方法によって画像の範囲外における解剖学的特徴断面の位置の推定を行っても構わない。例えば、入力された画像の範囲外における解剖学的特徴断面の推定方法の別の方法として、下記に示すような、データベース上のある2つ以上のデータセットを組合わせて推定処理を行う方法も考えられる。 Note that the above estimation method shows one example, and the position of the anatomical feature cross section outside the image range may be estimated by another method. For example, as another method of estimating an anatomical feature cross section outside the range of an input image, there is a method of performing estimation processing by combining two or more data sets on a database as shown below. Conceivable.
(パターン2のデータセット群を利用する場合の推定方法)
前記パターン1を満たすデータセットを利用した推定方法では、入力画像の範囲の外側の解剖学的特徴断面について、上側と下側の両方の断面を持つデータセットを利用する場合の例を示した。しかし、2つ以上のデータセットを組合わせて利用する場合には、前記パターン2となる複数のデータセットを含むデータベースを利用すれば、入力画像の範囲外における解剖学的特徴断面の位置を推定できる。
(Estimation method when pattern 2 data set group is used)
In the estimation method using the data set satisfying the
前記パターン2となるデータセット群を利用した推定方法においても、入力画像とデータベース上の画像の位置合わせ処理までは第2の実施形態に記載した流れと同様に処理を行う。しかし、位置合わせ処理の後に画像間の類似度に基づいてデータセットを選定する際に、前記パターン2となるデータセット群の中から、複数のデータセットを選定する点に相違点がある。パターン2のデータセット群を利用した推定では、この複数のデータセットの選定は、入力画像の範囲の外側の解剖学的特徴断面に関して、当該範囲の上側と下側の夫々について、少なくとも1つのデータセットが含まれるように選定を行う。最後に、選定した複数のデータセットの画像に紐付いている全ての解剖学的特徴断面の位置に基づいて、入力画像の範囲外を含めて、入力画像の座標系Zにおける断面の位置を推定する。 Also in the estimation method using the data set group to be the pattern 2, the processing is performed in the same manner as the flow described in the second embodiment until the registration processing of the input image and the image on the database. However, there is a difference in selecting a plurality of data sets from the data set group to be the pattern 2 when selecting a data set based on the similarity between images after the alignment process. In the estimation using the data set group of pattern 2, the selection of the plurality of data sets is performed with respect to the anatomical feature cross section outside the range of the input image, at least one data for each of the upper side and the lower side of the range. Select so that the set is included. Finally, based on the positions of all the anatomical feature cross sections associated with the selected images of the plurality of data sets, the position of the cross section in the coordinate system Z of the input image is estimated including outside the range of the input image. .
なお、入力画像の範囲外での解剖学的特徴断面の位置を計算する際に、上側または下側の計算では、夫々複数のデータセットを用いてもよい。具体的には、複数のデータセットに紐付いている解剖学的特徴断面を用いて推定処理を行う際に、データセット間で同一断面の座標値の平均(または最大・最小など)を用いることで、入力画像の座標系Zにおける断面の位置を複数のデータセットから推定できる。 When calculating the position of the anatomical feature cross section outside the range of the input image, a plurality of data sets may be used in the upper or lower calculation. Specifically, when performing an estimation process using anatomical feature sections associated with multiple data sets, the average (or maximum / minimum, etc.) of the coordinate values of the same section between the data sets is used. The position of the cross section in the coordinate system Z of the input image can be estimated from a plurality of data sets.
具体例として、図9に示す画像A3が入力データであり、画像A2、および、画像A4がデータベースに含まれるデータセットの画像であるような状況を考える。ここでは、同図において、画像A2、A3、A4の位置合わせは完了していることを前提とする。 As a specific example, consider a situation in which an image A3 shown in FIG. 9 is input data, and an image A2 and an image A4 are images of a data set included in a database. Here, in the figure, it is assumed that the alignment of the images A2, A3, and A4 has been completed.
入力画像A3と画像A2について考えると、画像A2に含まれる解剖学的特徴断面は断面4、断面5、断面6である。ここで画像A3の範囲を見ると、断面4は、画像A3の範囲の外側であり、かつ、下側の解剖学的特徴断面であることが分かる。同様に、入力画像A3と画像A4について考えると、画像A4に含まれる解剖学的特徴断面は断面2と断面3である。そして、断面3は画像A3の範囲の外側であり、かつ、上側の解剖学的特徴断面である。すなわち、画像A2と画像A4は画像A3の範囲外における解剖学的特徴断面の位置を推定するための条件を満たしており、かつ、前記パターン2の場合に合致する。そして、前述のようにこれらのデータセット(画像A2と画像A4)を組合わせて推定処理を行うことによって、入力画像の範囲の外側の解剖学的特徴断面に関して、上側と下側の両方の断面位置を推定できる。すなわち、画像A3の範囲外の上側については、画像A4の解剖学的特徴断面の情報(断面3、断面2)を用いることで、当該解剖学的特徴断面の位置が推定できる。さらに、画像A3の範囲外の下側については、画像A2の解剖学的特徴断面の情報(断面4、断面5、断面6)を用いることで、当該解剖学的特徴断面の位置が推定できる。 Considering the input image A3 and the image A2, the anatomical feature cross sections included in the image A2 are the cross section 4, the cross section 5, and the cross section 6. Looking at the range of the image A3, it can be seen that the cross section 4 is outside the range of the image A3 and is a lower anatomical feature cross section. Similarly, considering the input image A3 and the image A4, the anatomical feature cross sections included in the image A4 are the cross section 2 and the cross section 3. The section 3 is outside the range of the image A3 and is an upper anatomical feature section. That is, the image A2 and the image A4 satisfy the condition for estimating the position of the anatomical feature cross section outside the range of the image A3, and match the case of the pattern 2. Then, by performing estimation processing by combining these data sets (image A2 and image A4) as described above, both the upper and lower cross sections with respect to the anatomical feature cross section outside the range of the input image. The position can be estimated. That is, for the upper side outside the range of the image A3, the position of the anatomical feature cross section can be estimated by using information on the anatomical feature cross section (the cross section 3 and the cross section 2) of the image A4. Further, for the lower side outside the range of the image A3, the position of the anatomical feature cross section can be estimated by using the information of the anatomical feature cross section (the cross section 4, the cross section 5, and the cross section 6) of the image A2.
以上の処理によって、基準座標系Z’における座標値を計算するために必要な入力画像の範囲外における解剖学的特徴断面の情報を取得できる。 Through the above processing, information on the anatomical feature cross section outside the range of the input image necessary for calculating the coordinate value in the reference coordinate system Z ′ can be acquired.
ここまでに示した推定方法によって画像の範囲外における解剖学的特徴断面の位置を得た場合においても、座標算出部53は、ステップS104において第2の実施形態に記載の方法で、基準座標系Z’における座標値を計算できる。したがって、本実施形態の方法によれば、入力画像を構成する全てのスライスについて、基準座標系Z’における座標値を計算できる。
Even when the position of the anatomical feature cross section outside the range of the image is obtained by the estimation method shown so far, the coordinate
本実施形態によれば、画像の体軸方向の上下端で途切れている部位に関して画像範囲外に存在する解剖学的特徴断面の位置を推定することができる。すなわち、画像の範囲内で解剖学的特徴断面に挟まれていないスライスがあるような場合であっても、より高精度な基準座標系の座標との対応付けが可能となる。 According to the present embodiment, it is possible to estimate the position of the anatomical feature cross section that exists outside the image range with respect to the part that is interrupted at the upper and lower ends in the body axis direction of the image. That is, even when there is a slice that is not sandwiched between anatomical feature sections within the range of the image, it is possible to associate with the coordinates of the reference coordinate system with higher accuracy.
<第4の実施形態>
第1の実施形態に示した複数の3次元画像間のスライスの対応付け方法は、各画像のスライス単位で基準座標系における座標値を計算し、それらのスライスを対応付ける方法である。この方法では、1つのスライスに対して、1つの座標値しか計算できないため、同じスライスであるにも関わらず、複数の座標の割り当てが必要になる場合には適切な対応付けが行えないという課題がある。この課題の具体的な例としては、滑りの関係にある骨と肺などの解剖構造が挙げられる。ここでまず、区間定義情報の解剖学的特徴断面に肺の上端と下端が含まれている場合を考える。第1の実施形態に記載の技術によれば、それらの解剖情報を表す断面(スライス)に関しては、異なる3次元画像であっても基準座標系で略同一の座標値が与えられることが期待できる。しかし、肺下端の上下運動について考えると、椎体は肺の動きに完全には追従しない(滑りが生じる)ため、ある椎体の位置から相対的な位置関係を見ると、肺の下端のスライスの相対位置は撮像時の患者の呼吸量によってばらついてしまうことがある。したがって、肺の上端と下端で正規化された空間において同じ座標値を示すスライスは、肺という解剖構造の観点では略同一の解剖学的な位置になるが、骨の観点からは、異なる位置になる可能性がある。すなわち、例えばユーザが骨に注目しているにも関わらず、前記区間定義情報の解剖学的特徴断面が肺に関する解剖情報にのみ基づいている場合、異なる画像間のスライスの対応付けが不適切になる可能性が高い。
<Fourth Embodiment>
The method of associating slices between a plurality of three-dimensional images shown in the first embodiment is a method of calculating coordinate values in the reference coordinate system for each slice of each image and associating those slices. In this method, since only one coordinate value can be calculated for one slice, it is not possible to perform an appropriate association when it is necessary to assign a plurality of coordinates despite the same slice. There is. Specific examples of this problem include anatomical structures such as bones and lungs that are in a sliding relationship. First, consider a case where the upper and lower ends of the lung are included in the anatomical feature section of the section definition information. According to the technique described in the first embodiment, with respect to a cross section (slice) representing the anatomical information, it can be expected that substantially the same coordinate value is given in the reference coordinate system even for different three-dimensional images. . However, considering the vertical movement of the lower end of the lung, the vertebral body does not completely follow the movement of the lung (slip occurs), so when looking at the relative position from the position of a certain vertebral body, the slice at the lower end of the lung The relative position of may vary depending on the patient's respiration rate at the time of imaging. Therefore, slices that show the same coordinate value in the space normalized at the upper and lower ends of the lungs have approximately the same anatomical position in terms of the anatomical structure of the lungs, but in different positions from the bone perspective. There is a possibility. That is, for example, when the anatomical feature cross section of the section definition information is based only on the anatomical information about the lung even though the user is paying attention to the bone, the association of slices between different images is inappropriate. Is likely to be.
第4の実施形態では、異なる部位に対応した複数の区間定義情報を予め用意し、ユーザが注目している部位に適した区間定義情報を選択的に利用して、空間的な正規化、および、スライスの対応付けを行う方法の例を説明する。本実施形態によれば、1つのスライスに対して複数の対応スライスを計算し、ユーザが注目する部位に応じて前記対応スライスを切り替えることができるため、より高度な対応付けができるという効果がある。 In the fourth embodiment, a plurality of section definition information corresponding to different parts is prepared in advance, the section definition information suitable for the part that the user is paying attention to is selectively used, spatial normalization, and An example of a method for associating slices will be described. According to the present embodiment, a plurality of corresponding slices can be calculated for one slice, and the corresponding slices can be switched according to the part that the user pays attention to, so that there is an effect that higher-level association can be performed. .
第4の実施形態に関わる画像処理装置の構成は、第1の実施形態と同様であるが、区間定義情報取得部50と、位置合わせ部54に次の機能が追加されている。
The configuration of the image processing apparatus according to the fourth embodiment is the same as that of the first embodiment, but the following functions are added to the section definition
第4の実施形態において、区間定義情報取得部50は、予め定義された複数の区間定義情報を読み込む。さらに、位置合わせ部54は、ユーザが注目している部位に基づいて、選択的に、対応スライスを切り替える機能を備える。前記複数の区間定義情報は、滑りの関係にある骨と肺などの解剖構造に基づいた情報であることが望ましい。以下の例では、骨に関する解剖構造に基づいた区間定義情報(骨に関する区間定義情報)と、肺に関する解剖構造に基づいた区間定義情報(肺に関する区間定義情報)とを用いる場合を例として説明を行う。
In the fourth embodiment, the section definition
第4の実施形態における画像処理装置10の処理手順は、図2に示した第1実施形態における画像処理装置10の処理手順と同様である。ただし、複数の区間定義情報を考慮することに関わる処理が夫々のステップにおいて追加・変更されている。以下、追加された処理と第1実施形態との相違部分についてのみ説明する。
The processing procedure of the
(ステップS101)
ステップS101において、ユーザが操作部35を介して画像処理の開始を指示すると、区間定義情報取得部50は、予め定義された2つ以上の区間定義情報をデータベース22から取得し、RAM33に格納する。例えば、本実施形態の例においては、骨に関する区間定義情報と、肺に関する区間定義情報を夫々取得する。すなわち、夫々が異なる解剖構造に基づく複数の区間定義情報を取得する。
(Step S101)
In step S <b> 101, when the user instructs the start of image processing via the
続くステップS102〜S104についても、第1の実施形態と同様の処理を行う。ただし、ステップS103とS104については、上記のステップS101で取得した複数の区間定義情報の夫々について処理を行う。 For the subsequent steps S102 to S104, the same processing as in the first embodiment is performed. However, for steps S103 and S104, processing is performed for each of the plurality of section definition information acquired in step S101.
(ステップS103)
ステップS103において、区間同定部52は、各画像の各スライスについて、夫々の区間定義情報に基づく従属区間を同定する。例えば、本実施形態の例においては、骨に関する区間定義情報に基づいて骨に関する従属区間を同定し、さらに、肺に関する区間定義情報に基づいて肺に関する従属区間を同定する。区間定義情報が複数あることを除けば、本処理の内容は、第1の実施形態と同様である。
(Step S103)
In step S103, the
(ステップS104)
ステップS104において、座標算出部53は、ステップS103で同定した各スライスの複数の従属区間の情報に基づいて、夫々、基準座標系Z’での座標値を計算する。例えば、本実施形態の例においては、骨に着目した基準座標系Z1’の座標と、肺に着目した基準座標系Z2’の座標とを、各画像の各スライスについて算出する。区間定義情報が複数あることを除けば、本処理の内容は、第1の実施形態と同様である。
(Step S104)
In step S104, the coordinate
(ステップS105)
ステップS105において、位置合わせ部54は、ある画像の注目スライスに関して、注目部位ごとに定義される他の画像の対応スライス(注目部位別対応スライス)を同定する。例えば、ひとつの注目スライスに対して、肺に注目した対応スライスと、骨に注目した対応スライスの夫々を同定する。これは、複数の区間定義情報の夫々について、複数の画像で略同一の位置を表す夫々のスライス画像を対応付ける対応付け手段の一例に相当する。そして、表示処理部55は、対応スライスを表示する処理を行う際に、ユーザが注目している部位の情報に基づいて、選択的に、表示する対応スライスを切り替える。すなわち、ユーザが肺に注目しているという情報を有している場合は、注目スライスを表示すると共に、肺に注目した対応スライスを対比可能な形態で表示する。一方、骨に注目しているという情報を有している場合は、注目スライスを表示すると共に、骨に注目した対応スライスを対比可能な形態で表示する。これは、選択された区間定義情報に関する情報に基づいて、対応付けられた夫々のスライス画像を対比可能な形態で表示手段に表示させる表示制御手段の一例に相当する。
(Step S105)
In step S105, the
この注目部位の選択は、操作部35を介してユーザが注目部位を指定する方法で実現できる。また、表示部36に表示されている画像の表示条件などに基づいて自動的に選択してもよい。すなわち、画像の表示パラメータが骨条件(骨の観察に適したパラメータ)ならばユーザが骨に注目していると判定し、表示パラメータが肺野条件(肺の観察に適したパラメータ)ならば肺に注目していると判定するようにできる。具体的には、ステップS102において表示部36に表示された画像(画像I1)の表示条件、例えば、濃度値変換のためのウィンドウパラメータ(例えば、ウィンドウレベル(WL)とウィンドウ幅(WW))などの設定値に基づいて、注目部位を推定する。これにより、自動的に注目部位を選択ができる。これは、ユーザが注目する領域に応じて、複数の区間定義情報に関する情報の中から1つの前記情報を選択する選択手段の一例に相当する。
This attention site selection can be realized by a method in which the user designates the attention region via the
医師がCT画像の画像診断を行う際には、医師は注目する被検体の部位によってウィンドウレベル(WL)やウィンドウ幅(WW)を変更することで、医師が注目する被検体の部位に応じた画像の表示条件を設定変更(表示画像の濃度値を変換)している。より具体的には、例えば、医師が、骨の画像診断を行う際には、ウィンドウレベル(WL)は350〜500[H.U.]位の値に設定され、また、ウィンドウ幅(WW)は1500〜2500[H.U.]位の値に設定される。被検体の部位に応じて画像の表示条件を設定変更することにより、医師が注目している被検体の部位(例えば、骨)が見やすい濃度分布を持った表示画像として表示される。したがって、位置合わせ処理の対象となる画像(画像I1から画像IN)が表示されている表示部36の画像の表示条件(例えば、ウィンドウレベル(WL)とウィンドウ幅(WW))の設定値から、ユーザである医師が注目する部位(臓器)を推定できる。なお、表示パラメータのプリセット値が設定されていてユーザがそれを選択するUIが提供されている場合は、プリセット値毎に予め注目部位を割り当てておくことができる。また、ユーザが任意の表示パラメータを設定可能なUIが提供されている場合も考えられる。この場合は、例えば、夫々の部位の観察に適切な表示パラメータと、ユーザが設定した表示パラメータとの一致度に基づいて、いずれの部位に最も適した表示パラメータであるかを判定するようにできる。例えば、夫々の部位の観察に適切なウィンドウのレンジと、ユーザが設定したウィンドウのレンジとの間のオーバーラップ率を夫々で求め、その比較によって判定を行う。あるいは、夫々の部位の観察に適切であると予め定めたウィンドウレベルと、ユーザが設定したウィンドウレベルとの間の距離に基づいて判定するようにしてもよい。位置合わせ部54は、この推定結果に基づいて、予め用意された複数の区間定義情報から、ユーザが注目している部位に関する解剖学的特徴断面を含む区間定義情報を選択し、複数の画像間で対応するスライスを切り替えることができる。
When a doctor performs an image diagnosis of a CT image, the doctor changes the window level (WL) and window width (WW) according to the part of the subject to which attention is paid, so that the doctor responds to the part of the subject to which the doctor pays attention. The display condition of the image is changed (the density value of the display image is converted). More specifically, for example, when a doctor performs a bone image diagnosis, the window level (WL) is 350 to 500 [H. U. ] And the window width (WW) is 1500-2500 [H. U. ] Value is set. By changing the display condition of the image according to the part of the subject, the part of the subject (for example, bone) that the doctor is paying attention to is displayed as a display image having a density distribution that is easy to see. Therefore, from the set values of the display conditions (for example, the window level (WL) and the window width (WW)) of the display unit 36 on which the image (image I1 to image IN) to be subjected to the alignment process is displayed, It is possible to estimate a part (organ) that is noticed by a doctor who is a user. Note that when a preset value of a display parameter is set and a UI for the user to select it is provided, a site of interest can be assigned in advance for each preset value. In addition, there may be a case where a UI that allows the user to set arbitrary display parameters is provided. In this case, for example, based on the degree of coincidence between the display parameter appropriate for observation of each part and the display parameter set by the user, it is possible to determine which part is the most suitable display parameter. . For example, the overlap ratio between the window range suitable for observing each part and the window range set by the user is obtained, and the determination is made by comparison. Or you may make it determine based on the distance between the window level predetermined as suitable for observation of each site | part, and the window level which the user set. Based on the estimation result, the
なお、第1の実施形態の変形例1、および、変形例2に示したように、あるスライスにおける基準座標系での座標値や対応スライスの情報は、事前に計算しておいた結果を当該スライスの付帯情報として保存し、その情報を読み込む手順にしてもよい。つまり、ステップS103〜S105の処理の一部を予め実施しておくことによって、画像を表示する際の対応スライスの同定の計算を省くことができるため、対応スライスの表示処理の高速化が期待できる。
As shown in
さらに、上記の例では、2つ以上の区間定義情報の全てについて、夫々の基準座標系での座標値と、対応スライスを計算する方法を示したが、予め設定した情報についてのみ、前記の計算を行ってもよい。例えば、プリセットとしては3つ以上の区間定義情報を準備しておいた場合でも、そのうちの使用頻度の高い情報のみ(肺野条件や縦隔条件など)を計算しておく手順でもよい。 Furthermore, in the above example, the coordinate value in each reference coordinate system and the method of calculating the corresponding slice are shown for all of the two or more section definition information. However, the above calculation is performed only for preset information. May be performed. For example, even when three or more section definition information is prepared as a preset, only the frequently used information (lung field condition, mediastinal condition, etc.) may be calculated.
なお、注目部位の選択・判定処理を行わずに、全ての対応スライスを並べて表示するようにしてもよい。例えば、本実施形態の例においては、ある画像の注目スライスに対して、骨に注目した対応スライスと肺に注目した対応スライスの両方を並べて表示するようにしてもよい。このとき、複数の対応スライスが略同一である(対応スライス間のz方向の距離が所定位置以内である)場合には、いずれか一方の対応スライスのみを表示するようにしてもよい。また、3つ以上の注目部位に関する区間定義情報がある場合に、複数の注目部位を選択して夫々の対応スライスを表示するようにしてもよい。例えば、表示パラメータのプリセット値毎に予め複数の注目部位を割り当てておくことができる。あるいは、表示パラメータの一致度が上位の部位から所定の個数を注目部位として選ぶようにできる。あるいは、所定の条件(例えば、表示パラメータの一致度が閾値以上等)を満たす全ての部位を選ぶようにしてもよい。 It should be noted that all the corresponding slices may be displayed side by side without performing selection / determination processing of the region of interest. For example, in the example of the present embodiment, the corresponding slice focused on the bone and the corresponding slice focused on the lung may be displayed side by side with respect to the focused slice of an image. At this time, if a plurality of corresponding slices are substantially the same (the distance in the z direction between the corresponding slices is within a predetermined position), only one of the corresponding slices may be displayed. In addition, when there is section definition information regarding three or more attention parts, a plurality of attention parts may be selected and the corresponding slices may be displayed. For example, a plurality of regions of interest can be assigned in advance for each display parameter preset value. Alternatively, a predetermined number can be selected as a site of interest from sites having higher matching degrees of display parameters. Or you may make it select all the site | parts which satisfy | fill predetermined conditions (For example, the matching degree of a display parameter is more than a threshold value etc.).
また、夫々の注目部位に応じた対応スライスに基づいて、注目部位が同定されていない時の対応スライス(デフォルト対応スライス)を算出し、注目部位が同定されなかった場合はこれを表示するようにしてもよい。例えば、夫々の注目部位に応じた対応スライスの中間位置にあるスライスを、デフォルト対応スライスとして表示してもよい。あるいは、いずれかの部位をデフォルトの部位と予め定義しておいて、当該部位に応じた対応スライスを表示するようにしてもよい。また、注目部位が同定されていない場合は、全ての対応スライスを表示するようしてもよい。 In addition, based on the corresponding slice corresponding to each target region, a corresponding slice when the target region is not identified (default corresponding slice) is calculated, and this is displayed when the target region is not identified. May be. For example, a slice at an intermediate position of the corresponding slice corresponding to each target site may be displayed as a default corresponding slice. Alternatively, any part may be defined as a default part in advance, and a corresponding slice corresponding to the part may be displayed. Moreover, when the site of interest has not been identified, all corresponding slices may be displayed.
本実施形態によれば、ユーザが注目する部位に応じて、複数の画像間で対応するスライスを切り替えて表示できるため、より高度な対応付けができるという効果がある。 According to the present embodiment, it is possible to switch and display corresponding slices between a plurality of images in accordance with a part to which a user pays attention.
(変形例)
第4の実施形態では、複数の注目部位に対応する区間定義情報の夫々に対して、各スライスの従属区間を求め、それによって定義される基準座標を介して画像間の対応スライスを同定していた。しかし、注目部位に応じて異なるスライスを対応づける対応スライスの同定方法は、第1の実施例に記載の方法に限定されるものではなく、その他の代替手段によって計算してもよい。例えば、複数の3次元画像間の変形位置合わせ(画像間の変位場の推定)を行い、その結果に基づいて、注目部位に応じて異なる対応スライスを設定する構成であってもよい。例えば、ある臓器(例えば骨や肺)に注目した場合に、注目スライスの当該臓器領域における変位場に基づいて、当該変位場を最も近似するスライスを、当該臓器に注目した対応スライスとして定義して同定する方法を用いてもよい。これによっても、注目部位ごとに異なる対応スライスを求めることができる。
(Modification)
In the fourth embodiment, a dependent section of each slice is obtained for each piece of section definition information corresponding to a plurality of regions of interest, and corresponding slices between images are identified through reference coordinates defined thereby. It was. However, the corresponding slice identification method for associating different slices according to the region of interest is not limited to the method described in the first embodiment, and may be calculated by other alternative means. For example, a configuration may be used in which deformation position alignment between a plurality of three-dimensional images (estimation of a displacement field between images) is performed, and different corresponding slices are set depending on the region of interest based on the result. For example, when attention is paid to a certain organ (for example, bone or lung), a slice that most closely approximates the displacement field is defined as a corresponding slice that focuses on the organ based on the displacement field in the organ region of the attention slice. An identifying method may be used. This also makes it possible to obtain different corresponding slices for each region of interest.
<その他の実施形態>
上述した複数の変形例のうち少なくとも二つを組み合わせることも可能である。
<Other embodiments>
It is also possible to combine at least two of the plurality of modifications described above.
また、開示の技術は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インターフェイス機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、1つの機器からなる装置に適用しても良い。 Further, the disclosed technology can take an embodiment as a system, apparatus, method, program, recording medium (storage medium), or the like. Specifically, the present invention may be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, an imaging device, a web application, etc.), or may be applied to a device composed of one device. good.
また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。すなわち、前述した実施形態の機能を実現するソフトウェアのプログラムコード(コンピュータプログラム)を記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。 Needless to say, the object of the present invention can be achieved as follows. That is, a recording medium (or storage medium) that records a program code (computer program) of software that implements the functions of the above-described embodiments is supplied to the system or apparatus. Needless to say, such a storage medium is a computer-readable storage medium. Then, the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.
10 画像処理装置
21 ネットワーク
22 データベース
31 通信IF
32 ROM
33 RAM
34 記憶部
35 操作部
36 表示部
37 制御部
50 区間定義情報取得部
51 画像取得部
52 区間同定部
53 座標算出部
54 位置合わせ部
55 表示処理部
10
32 ROM
33 RAM
34
Claims (15)
被検体の断面を示す複数のスライス画像を含む3次元の画像を取得する画像取得手段と、
前記区間定義情報に基づいて、前記画像に含まれる少なくとも1つの前記スライス画像に対応する前記断面が属する前記区間を特定する区間特定手段と、
前記区間ごとに座標値が定義された基準座標系と前記特定された区間とに基づいて、前記スライス画像の座標値を算出する座標値算出手段と、
を備えることを特徴とする画像処理装置。 Information acquisition means for acquiring section definition information defining a plurality of sections obtained by dividing the human body along the body axis direction;
Image acquisition means for acquiring a three-dimensional image including a plurality of slice images showing a cross section of the subject;
Based on the section definition information, section specifying means for specifying the section to which the section corresponding to at least one slice image included in the image belongs;
Coordinate value calculation means for calculating a coordinate value of the slice image based on a reference coordinate system in which coordinate values are defined for each section and the specified section;
An image processing apparatus comprising:
前記区間特定手段は、前記取得された前記解剖学的特徴断面の前記位置情報に基づいて、前記スライス画像に対応する前記断面が属する前記区間を特定することを特徴とする請求項1に記載の画像処理装置。 Further comprising position acquisition means for acquiring position information indicating a position in the image of the anatomical feature section in which the boundary of the anatomical structure is depicted;
2. The section according to claim 1, wherein the section specifying unit specifies the section to which the section corresponding to the slice image belongs, based on the position information of the acquired anatomical feature section. Image processing device.
前記座標値算出手段は、前記取得された位置情報に基づいて前記座標値を算出することを特徴とする請求項1に記載の画像処理装置。 Further comprising position acquisition means for acquiring position information indicating the position of the anatomical feature cross section of the subject indicating the boundary of the section;
The image processing apparatus according to claim 1, wherein the coordinate value calculation unit calculates the coordinate value based on the acquired position information.
前記区間特定手段は、前記位置合わせされた前記参照画像に含まれる前記スライス画像に対応付けられた前記区間に関する情報に基づいて、前記画像に含まれる前記スライス画像に対応する前記断面が属する前記区間を特定することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。 A positioning unit that performs positioning between the acquired image and a three-dimensional reference image including a slice image in which information on the section is associated;
The section specifying means includes the section to which the cross section corresponding to the slice image included in the image belongs based on information on the section associated with the slice image included in the aligned reference image. The image processing apparatus according to claim 1, wherein the image processing apparatus is specified.
前記取得された複数の画像に含まれる、前記基準座標系で略同一の前記座標値を持つ夫々の前記スライス画像を対応付ける対応付け手段を更に備えることを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。 The image acquisition means acquires a plurality of the images,
7. The image processing apparatus according to claim 1, further comprising an association unit that associates each of the slice images having the substantially same coordinate value in the reference coordinate system included in the acquired plurality of images. The image processing apparatus according to item 1.
前記画像取得手段は、複数の前記画像を取得し、
前記画像処理装置は更に、
前記複数の区間定義情報の夫々について、前記取得された複数の画像で略同一の位置を表す夫々のスライス画像を対応付ける対応付け手段と、
ユーザが注目する領域に応じて、前記複数の区間定義情報に関する情報の中から1つの前記情報を選択する選択手段と、
前記選択手段によって選択された前記情報に基づいて、前記対応付けられた夫々の前記スライス画像を対比可能な形態で表示手段に表示させる表示制御手段と、
を備えることを特徴とする請求項1に記載の画像処理装置。 The information acquisition means acquires a plurality of the section definition information,
The image acquisition means acquires a plurality of the images,
The image processing apparatus further includes:
Corresponding means for associating each slice image representing substantially the same position in the plurality of acquired images for each of the plurality of section definition information;
A selection means for selecting one piece of information from information related to the plurality of section definition information in accordance with an area to which the user pays attention;
Display control means for causing the display means to display each of the associated slice images based on the information selected by the selection means;
The image processing apparatus according to claim 1, further comprising:
被検体の断面を示す複数のスライス画像を含む3次元の画像を取得する画像取得ステップと、
前記区間定義情報に基づいて、前記画像に含まれる少なくとも1つの前記スライス画像に対応する前記断面が属する前記区間を特定する区間特定ステップと、
前記区間ごとに座標値が定義された基準座標系と前記特定された区間とに基づいて、前記スライス画像の座標値を算出する座標値算出ステップと、
を備えることを特徴とする画像処理方法。 An information acquisition step for acquiring section definition information defining a plurality of sections obtained by dividing the human body along the body axis direction;
An image acquisition step of acquiring a three-dimensional image including a plurality of slice images showing a cross section of the subject;
A section specifying step for specifying the section to which the cross section corresponding to at least one slice image included in the image belongs based on the section definition information;
A coordinate value calculating step for calculating a coordinate value of the slice image based on a reference coordinate system in which a coordinate value is defined for each section and the specified section;
An image processing method comprising:
人体を体軸方向に沿って区分した複数の区間を定義する区間定義情報を取得する情報取得手段と、
被検体の断面を示す複数のスライス画像を含む3次元の画像を取得する画像取得手段と、
前記区間定義情報に基づいて、前記画像に含まれる少なくとも1つの前記スライス画像に対応する前記断面が属する前記区間を特定する区間特定手段と、
前記区間ごとに座標値が定義された基準座標系と前記特定された区間とに基づいて、前記スライス画像の座標値を算出する座標値算出手段、
として機能させることを特徴とするプログラム。 The image processing device
Information acquisition means for acquiring section definition information defining a plurality of sections obtained by dividing the human body along the body axis direction;
Image acquisition means for acquiring a three-dimensional image including a plurality of slice images showing a cross section of the subject;
Based on the section definition information, section specifying means for specifying the section to which the section corresponding to at least one slice image included in the image belongs;
Coordinate value calculation means for calculating the coordinate value of the slice image based on a reference coordinate system in which coordinate values are defined for each section and the specified section.
A program characterized by functioning as
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2018/026693 WO2019021882A1 (en) | 2017-07-25 | 2018-07-17 | Image processing device, image processing method, and program |
US16/743,972 US11263763B2 (en) | 2017-07-25 | 2020-01-15 | Image processing apparatus, image processing mehod, and storage medium |
JP2022042497A JP7342176B2 (en) | 2017-07-25 | 2022-03-17 | Image processing device, image processing method, and program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017143687 | 2017-07-25 | ||
JP2017143687 | 2017-07-25 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022042497A Division JP7342176B2 (en) | 2017-07-25 | 2022-03-17 | Image processing device, image processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019025296A true JP2019025296A (en) | 2019-02-21 |
Family
ID=65477251
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018010523A Pending JP2019025296A (en) | 2017-07-25 | 2018-01-25 | Image processing device, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019025296A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022079526A (en) * | 2017-07-25 | 2022-05-26 | キヤノン株式会社 | Image processing device, image processing method, and program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007312838A (en) * | 2006-05-23 | 2007-12-06 | Konica Minolta Medical & Graphic Inc | Modeling apparatus, modeling method and program |
JP2008006188A (en) * | 2006-06-30 | 2008-01-17 | Fujifilm Corp | Medical image display processing apparatus and medical image display processing program |
JP2008043524A (en) * | 2006-08-16 | 2008-02-28 | Fujifilm Corp | Medical image processing apparatus and medical image processing program |
JP2015171456A (en) * | 2014-03-12 | 2015-10-01 | 株式会社東芝 | Medical image display device, medical image display system, and medical image display program |
-
2018
- 2018-01-25 JP JP2018010523A patent/JP2019025296A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007312838A (en) * | 2006-05-23 | 2007-12-06 | Konica Minolta Medical & Graphic Inc | Modeling apparatus, modeling method and program |
JP2008006188A (en) * | 2006-06-30 | 2008-01-17 | Fujifilm Corp | Medical image display processing apparatus and medical image display processing program |
JP2008043524A (en) * | 2006-08-16 | 2008-02-28 | Fujifilm Corp | Medical image processing apparatus and medical image processing program |
JP2015171456A (en) * | 2014-03-12 | 2015-10-01 | 株式会社東芝 | Medical image display device, medical image display system, and medical image display program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022079526A (en) * | 2017-07-25 | 2022-05-26 | キヤノン株式会社 | Image processing device, image processing method, and program |
JP7342176B2 (en) | 2017-07-25 | 2023-09-11 | キヤノン株式会社 | Image processing device, image processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6932810B2 (en) | Diagnostic support device, diagnostic support system, information processing method, and program | |
US10332267B2 (en) | Registration of fluoroscopic images of the chest and corresponding 3D image data based on the ribs and spine | |
JP6598452B2 (en) | Medical image processing apparatus and medical image processing method | |
CN107106043B (en) | Vertebral body feature identification | |
US8334878B2 (en) | Medical image processing apparatus and medical image processing program | |
US8588496B2 (en) | Medical image display apparatus, medical image display method and program | |
WO2018070285A1 (en) | Image processing device and image processing method | |
US11176671B2 (en) | Medical image processing apparatus, and method | |
JP6426608B2 (en) | Analytical Morphomics: A Fast Medical Image Analysis Method | |
EP3047455B1 (en) | Method and system for spine position detection | |
WO2020110774A1 (en) | Image processing device, image processing method, and program | |
JP7342176B2 (en) | Image processing device, image processing method, and program | |
JP2019025296A (en) | Image processing device, image processing method, and program | |
JP6995535B2 (en) | Image processing equipment, image processing methods and programs | |
US10307124B2 (en) | Image display device, method, and program for determining common regions in images | |
US11769253B2 (en) | Method and system for selecting a region of interest in an image | |
JP6745633B2 (en) | Image processing apparatus, image processing method, and program | |
JP6501569B2 (en) | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM | |
JP6491466B2 (en) | Image processing apparatus, image processing apparatus control method, and program | |
CN114650772A (en) | Bone age estimation method and device | |
JP6748762B2 (en) | Medical image processing apparatus and medical image processing method | |
JP7394959B2 (en) | Medical image processing device, medical image processing method and program, medical image display system | |
JP2018175412A (en) | Information processing apparatus, information processing system, information processing method, and program | |
Tho et al. | Computer-Aided Management in Scoliosis Surgery |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210629 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210823 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20211221 |