JP2019025296A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2019025296A
JP2019025296A JP2018010523A JP2018010523A JP2019025296A JP 2019025296 A JP2019025296 A JP 2019025296A JP 2018010523 A JP2018010523 A JP 2018010523A JP 2018010523 A JP2018010523 A JP 2018010523A JP 2019025296 A JP2019025296 A JP 2019025296A
Authority
JP
Japan
Prior art keywords
section
image
slice
information
cross
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018010523A
Other languages
Japanese (ja)
Inventor
啓太 中込
Keita Nakagome
啓太 中込
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to PCT/JP2018/026693 priority Critical patent/WO2019021882A1/en
Publication of JP2019025296A publication Critical patent/JP2019025296A/en
Priority to US16/743,972 priority patent/US11263763B2/en
Priority to JP2022042497A priority patent/JP7342176B2/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/38Registration of image sequences
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/505Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of bone
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/56Details of data transmission or power supply, e.g. use of slip rings
    • A61B6/563Details of data transmission or power supply, e.g. use of slip rings involving image data transmission via a network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • G06T2207/30012Spine; Backbone

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

To provide an image processing system, an image processing method, and a program capable of more precise positioning with respect to a coordinate system of a reference associated with an anatomical position.SOLUTION: A device acquires section definition information which defines a plurality of sections of a human body segmented along the body axis, and acquires three-dimensional images including a plurality of slice images showing a cross section of the subject. On the basis of the section definition information, a section for the cross section corresponding to at least one slice image included in the three-dimensional images is specified. A coordinate value of the slice image is calculated on the basis of the specified section and a reference coordinate system in which a coordinate value is defined for each of the sections.SELECTED DRAWING: Figure 7

Description

本発明は、画像処理装置、画像処理方法、及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

医用の分野では、コンピュータ断層撮影装置(以下、CT(Computed Tomography)装置と呼ぶ)などの種々の画像撮像装置(モダリティ)によって取得される3次元画像を用いた診断が行われている。特に、被検体の経時的な状態変化を捉える際には、異なる時点で撮像された画像を比較することが行われている。このとき、一方の画像のあるスライス(3次元画像をある1つの断面で切り出した画像)を表示した際に、他方の画像において該スライスと略同一の解剖構造を含むスライス(以下、対応スライスと呼ぶ)を並べて表示できれば、画像の比較を容易に行うことができる。そのためには、比較する画像の各スライスについて、異なる時点で撮像された画像間における対応スライスを予め対応付けておく必要がある。ここで、本稿における「位置合わせ」とは、3次元画像を構成する各スライスに関して、複数の3次元画像間で略同一の解剖構造を含むスライス(すなわち、対応スライス)を対応付けることを指すものとする。   In the medical field, diagnosis using three-dimensional images acquired by various imaging devices (modalities) such as a computed tomography apparatus (hereinafter referred to as a CT (Computed Tomography) apparatus) is performed. In particular, when capturing changes in the state of a subject over time, images taken at different times are compared. At this time, when a certain slice of one image (an image obtained by cutting out a three-dimensional image with a certain cross section) is displayed, a slice (hereinafter referred to as a corresponding slice) including substantially the same anatomical structure as that slice in the other image is displayed. Image) can be easily compared. For this purpose, for each slice of the images to be compared, it is necessary to associate corresponding slices between images taken at different times in advance. Here, “alignment” in this article refers to associating slices including substantially the same anatomical structure (that is, corresponding slices) between a plurality of three-dimensional images with respect to each slice constituting the three-dimensional image. To do.

しかしながら、診断対象となる複数の画像のスライス枚数は、夫々で数百枚以上に及ぶことが多くあるため、この位置合わせを人手で行うことは、作業者に多大な負担を強いるという課題があった。   However, since the number of slices of a plurality of images to be diagnosed often reaches several hundreds or more, performing this alignment manually has the problem of imposing a heavy burden on the operator. It was.

上記課題に鑑みて、特許文献1には、複数の時点で撮像された画像間の位置合わせを行う際に、解剖学的な位置に関連付けられた基準の座標系を利用することで、比較対象の画像が3つ以上の場合でも、それらを容易に位置合わせできる方法が開示されている。しかしながら、位置合わせ対象の画像間で前記解剖学的な位置の間に存在する解剖構造の大きさのバランスが異なる場合、前記基準の座標系で同じ座標値を示すスライスは、それらの画像間で対応する位置にならない可能性がある。この課題を解決するための1つの方法として、特許文献1にはさらに、次の方法が開示されている。その方法とは、前記基準の座標系に関して、解剖構造の大きさ(骨格、年齢、身長、男女等)に応じて複数の座標系を準備し、処理対象の画像毎に適切な座標系を選択することで、より精度の高い位置合わせを実現する方法である。   In view of the above problems, Patent Document 1 discloses a comparison object by using a reference coordinate system associated with an anatomical position when performing alignment between images captured at a plurality of time points. Even when there are three or more images, a method is disclosed in which they can be easily aligned. However, if the balance of the size of the anatomical structure existing between the anatomical positions is different between the images to be aligned, slices that show the same coordinate value in the reference coordinate system are between the images. There is a possibility that the corresponding position is not reached. As one method for solving this problem, Patent Document 1 further discloses the following method. The method is to prepare a plurality of coordinate systems according to the size of the anatomical structure (skeleton, age, height, gender, etc.) and select an appropriate coordinate system for each image to be processed. By doing so, this is a method for realizing a more accurate alignment.

特許第4818846号Japanese Patent No. 4818846

上述の通り、特許文献1に記載の技術では、ある1つの基準の座標系のみを用いた場合では、異なる画像間で被検体の解剖構造の大きさのバランスが異なる場合には、画像間でスライスの位置合わせが適切にできない可能性がある。また、その課題を改善し、より精度の高い位置合わせを行うためには、前記複数の座標系の中からどの座標系を用いるかを選択する必要がある。   As described above, in the technique described in Patent Document 1, when only one reference coordinate system is used, if the balance of the size of the anatomical structure of the subject is different between different images, Slice alignment may not be possible. Further, in order to improve the problem and perform alignment with higher accuracy, it is necessary to select which coordinate system to use from the plurality of coordinate systems.

本発明は上記課題に鑑みてなされたものであり、解剖学的な位置に関連付けられた基準の座標系に関して、より高い精度の位置合わせができる画像処理装置、画像処理方法、及びプログラムを提供することを目的とする。   The present invention has been made in view of the above problems, and provides an image processing apparatus, an image processing method, and a program that can perform alignment with higher accuracy with respect to a reference coordinate system associated with an anatomical position. For the purpose.

なお、前記目的に限らず、後述する発明を実施するための形態に示す各構成により導かれる作用効果であって、従来の技術によっては得られない作用効果を奏することも本明細書の開示の他の目的の1つとして位置付けることができる。   It is to be noted that the present invention is not limited to the above-described object, and is an operational effect derived from each configuration shown in an embodiment for carrying out the invention described later, and also has an operational effect that cannot be obtained by conventional techniques. It can be positioned as one of other purposes.

上記課題を解決するため、本発明に係る画像処理装置は、人体を体軸方向に沿って区分した複数の区間を定義する区間定義情報を取得する情報取得手段と、被検体の断面を示す複数のスライス画像を含む3次元の画像を取得する画像取得手段と、前記区間定義情報に基づいて、前記画像に含まれる少なくとも1つの前記スライス画像に対応する前記断面が属する前記区間を特定する区間特定手段と、前記区間ごとに座標値が定義された基準座標系と前記特定された区間とに基づいて、前記スライス画像の座標値を算出する座標値算出手段と、を備えることを特徴とする。   In order to solve the above problems, an image processing apparatus according to the present invention includes information acquisition means for acquiring section definition information for defining a plurality of sections obtained by dividing a human body along the body axis direction, and a plurality of sections showing a cross section of a subject. And an image acquisition means for acquiring a three-dimensional image including the slice image, and a section specification for specifying the section to which the cross section corresponding to at least one slice image included in the image belongs based on the section definition information And a coordinate value calculating means for calculating the coordinate value of the slice image based on a reference coordinate system in which coordinate values are defined for each section and the specified section.

本発明によれば、解剖学的な位置に関連付けられた基準の座標系に関して、より高い精度の位置合わせができる。   According to the present invention, it is possible to perform alignment with higher accuracy with respect to a reference coordinate system associated with an anatomical position.

第1の実施形態に係る画像処理装置の機能の構成を示す図である。It is a figure which shows the structure of the function of the image processing apparatus which concerns on 1st Embodiment. 画像処理装置の処理手順の例を示すフローチャートである。It is a flowchart which shows the example of the process sequence of an image processing apparatus. 区間定義情報取得部によって取得された区間定義情報の例を示す図である。It is a figure which shows the example of the section definition information acquired by the section definition information acquisition part. 画像取得部により取得された画像を表示部に表示した例を示す図である。It is a figure which shows the example which displayed the image acquired by the image acquisition part on the display part. ある画像I1が頸椎の頂点から坐骨の最下点までを表すスライスで構成されている例を示す図である。It is a figure which shows the example with which a certain image I1 is comprised by the slice showing from the vertex of a cervical vertebra to the lowest point of a sciatica. 各区間に対して基準座標系Z’を定義した例を示す図である。It is a figure which shows the example which defined the reference coordinate system Z 'with respect to each area. 図5に示した例において画像I1の最上位置を原点とした座標系zと基準座標系Z’を考えた場合の例を示す図である。FIG. 6 is a diagram illustrating an example of a case where a coordinate system z and a reference coordinate system Z ′ with the uppermost position of the image I1 as the origin in the example illustrated in FIG. 5 are considered. 画像処理装置の処理手順の第2の例を示すフローチャートである。It is a flowchart which shows the 2nd example of the process sequence of an image processing apparatus. ある画像の範囲と解剖学的特徴断面の位置の推定結果の関係の例を示す図である。It is a figure which shows the example of the relationship between the range of a certain image, and the estimation result of the position of an anatomical feature cross section. 入力画像の範囲外における解剖学的特徴断面の位置を推定した結果と、入力画像の最上位置(スライス)を原点とした座標系における座標値の関係の例を示す図である。It is a figure which shows the example of the result of estimating the position of the anatomical feature cross section out of the range of an input image, and the coordinate value in the coordinate system which made the highest position (slice) of the input image the origin.

以下、図面を参照して、本発明の実施形態を例示的に詳しく説明する。ただし、この実施形態に記載されている構成要素はあくまで例示であり、本発明の技術的範囲は、特許請求の範囲によって確定されるのであって、以下の個別の実施形態によって限定されるわけではない。   Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. However, the components described in this embodiment are merely examples, and the technical scope of the present invention is determined by the scope of the claims, and is not limited by the following individual embodiments. Absent.

<第1の実施形態>
第1の実施形態に関わる画像処理装置は、複数の3次元画像の表示を行う装置である。本装置は、異なる3次元画像間の対応スライスを位置合わせして表示するために、入力画像の各スライスについて、解剖学的な特徴を持つ位置に基づいて定義した座標系(基準座標系)における座標値を計算する機能を有している。本装置は、前記基準座標系での各スライスの座標値を求める過程において、人体の解剖構造を体軸方向に複数の区間に分割し、夫々の区間で当該区間の情報を用いて、前記座標値を計算することを特徴とする。
<First Embodiment>
The image processing apparatus according to the first embodiment is an apparatus that displays a plurality of three-dimensional images. This apparatus uses a coordinate system (reference coordinate system) defined based on positions having anatomical features for each slice of the input image in order to display corresponding slices between different three-dimensional images. It has a function to calculate coordinate values. In the process of obtaining the coordinate value of each slice in the reference coordinate system, the apparatus divides the human anatomical structure into a plurality of sections in the body axis direction, and uses the information of the sections in each section to calculate the coordinates. It is characterized by calculating a value.

この技術によれば、人体の解剖構造の位置を体軸方向に部位ごとに正規化することで、複数の解剖構造の大きさのバランスの違い(個体差)を吸収できるため、異なる画像間の位置合わせ処理において、より精度の高い位置合わせ結果をユーザに提供できる。   According to this technique, by normalizing the position of the anatomical structure of the human body for each part in the body axis direction, it is possible to absorb the difference in the balance of the sizes of the plurality of anatomical structures (individual differences). In the alignment process, a more accurate alignment result can be provided to the user.

以下、図1を用いて本実施形態の画像処理装置の構成及び処理を説明する。図1は、本実施形態の画像処理装置を含む画像処理システム(医用画像処理システムともいう)の構成例を示すブロック図である。画像処理システムは、その機能的な構成として、画像処理装置10、ネットワーク21、及びデータベース22を備える。画像処理装置10は、ネットワーク21を介してデータベース22に通信可能に接続されている。ネットワーク21は、例えば、LAN(Local Area Network)やWAN(Wide Area Network)を含む。   Hereinafter, the configuration and processing of the image processing apparatus of this embodiment will be described with reference to FIG. FIG. 1 is a block diagram illustrating a configuration example of an image processing system (also referred to as a medical image processing system) including an image processing apparatus according to the present embodiment. The image processing system includes an image processing apparatus 10, a network 21, and a database 22 as functional configurations. The image processing apparatus 10 is communicably connected to the database 22 via the network 21. The network 21 includes, for example, a LAN (Local Area Network) and a WAN (Wide Area Network).

データベース22は、被検体の画像や該画像に関連付けられた情報を保持し、管理する。画像処理装置10は、ネットワーク21を介してデータベース22で保持されている画像を取得することが可能である。画像処理装置10は、通信IF(Interface)31(通信部)、ROM(Read Only Memory)32、RAM(Random Access Memory)33、記憶部34、操作部35、表示部36、及び制御部37を備える。   The database 22 holds and manages the image of the subject and information associated with the image. The image processing apparatus 10 can acquire images held in the database 22 via the network 21. The image processing apparatus 10 includes a communication IF (Interface) 31 (communication unit), a ROM (Read Only Memory) 32, a RAM (Random Access Memory) 33, a storage unit 34, an operation unit 35, a display unit 36, and a control unit 37. Prepare.

通信IF31(通信部)は、LANカードなどにより構成され、外部装置(例えば、データベース22など)と画像処理装置10との通信を実現する。ROM32は、不揮発性のメモリなどにより構成され、各種プログラムを記憶する。RAM33は、揮発性のメモリなどにより構成され、各種情報をデータとして一時的に記憶する。記憶部34は、HDD(Hard Disk Drive)などにより構成され、各種情報をデータとして記憶する。操作部35は、キーボードやマウス、タッチパネルなどにより構成され、ユーザ(例えば、医師)からの指示を各種装置に入力する。   The communication IF 31 (communication unit) is configured by a LAN card or the like, and realizes communication between an external device (for example, the database 22 and the like) and the image processing apparatus 10. The ROM 32 is configured by a nonvolatile memory or the like, and stores various programs. The RAM 33 is configured by a volatile memory or the like, and temporarily stores various information as data. The storage unit 34 includes an HDD (Hard Disk Drive) or the like, and stores various types of information as data. The operation unit 35 includes a keyboard, a mouse, a touch panel, and the like, and inputs instructions from a user (for example, a doctor) to various devices.

表示部36は、ディスプレイなどにより構成され、各種情報をユーザに表示する。制御部37は、CPU(Central Processing Unit)などにより構成され、画像処理装置10における処理を統括制御する。制御部37は、その機能的な構成として、区間定義情報取得部50、画像取得部51、区間同定部52、座標算出部53、位置合わせ部54、及び表示処理部55を備える。   The display unit 36 is configured by a display or the like, and displays various information to the user. The control unit 37 is configured by a CPU (Central Processing Unit) and the like, and comprehensively controls processing in the image processing apparatus 10. The control unit 37 includes a section definition information acquisition unit 50, an image acquisition unit 51, a section identification unit 52, a coordinate calculation unit 53, a positioning unit 54, and a display processing unit 55 as functional configurations.

区間定義情報取得部50は、データベース22から区間定義情報を取得する。区間定義情報とは、人体の所定の解剖学的特徴を含む解剖学的特徴断面に基づいて、人体の体軸方向を複数の区間に分割する情報である。すなわち、区間定義情報取得部50は、人体を体軸方向に沿って区分した複数の区間を定義する区間定義情報を取得する情報取得手段の一例に相当する。ここで、本稿における「解剖学的特徴断面」とは、例えば、人体の体軸方向に解剖構造を見たときに、一まとまりの解剖構造(例えば部位)の境界位置に現れる解剖学的特徴が描出された断面のことを指す。つまり、この解剖学的特徴断面によって全体の解剖構造が、体軸方向に複数の種類の部位(上記区間に相当する)に区切られる。この解剖学的特徴断面の場所、および、数、すなわち、複数の区間の分割数については、事前にデータベース22に保存したものを読み込めばよい。あるいは、操作部35を介してユーザによって入力された情報を用いることもできる。   The section definition information acquisition unit 50 acquires section definition information from the database 22. The section definition information is information for dividing the body axis direction of the human body into a plurality of sections based on an anatomical feature cross section including a predetermined anatomical feature of the human body. That is, the section definition information acquisition unit 50 corresponds to an example of an information acquisition unit that acquires section definition information that defines a plurality of sections obtained by dividing a human body along the body axis direction. Here, the “anatomical feature cross section” in this paper is, for example, an anatomical feature that appears at the boundary position of a group of anatomical structures (for example, parts) when the anatomical structure is viewed in the body axis direction of the human body. Refers to the drawn cross section. That is, the entire anatomical structure is divided into a plurality of types of parts (corresponding to the sections) in the body axis direction by the anatomical feature cross section. The location and number of the anatomical feature cross sections, that is, the number of divisions of a plurality of sections may be read in advance in the database 22. Alternatively, information input by the user via the operation unit 35 can be used.

画像取得部51は、位置合わせ対象となる2つ以上の画像(画像I1、I2、…、IN(Nは画像の総数))をデータベース22から取得する。すなわち、画像取得部51は、被検体の断面を示す複数のスライス画像を含む3次元の画像を取得する画像取得手段の一例に相当する。これらの画像は、各種モダリティにより取得された被検体の3次元の画像である。本実施形態では、この画像がCT画像である例を説明するが、他の種類の画像であってもよい。本発明は、3次元の画像であれば画像の種類に依らず適用可能である。なお、複数の画像は、比較を行う対象の画像であればいずれの画像であってもよい。すなわち、同一被検体を撮像したものであってもよいし、他人同士の画像、例えば、健常者と患者の画像などであってもよい。   The image acquisition unit 51 acquires two or more images (images I 1, I 2,..., IN (N is the total number of images)) to be aligned from the database 22. That is, the image acquisition unit 51 corresponds to an example of an image acquisition unit that acquires a three-dimensional image including a plurality of slice images showing a cross section of a subject. These images are three-dimensional images of the subject acquired by various modalities. In the present embodiment, an example in which this image is a CT image will be described, but other types of images may be used. The present invention can be applied to any three-dimensional image regardless of the type of image. The plurality of images may be any images as long as they are images to be compared. That is, it may be an image of the same subject, or may be an image of another person, for example, an image of a healthy person and a patient.

区間同定部52は、画像I1からINまでの夫々の画像に関して、当該画像を構成する少なくとも1つのスライスについて、前記複数の区間の中で当該スライスがどの区間に従属するかを同定する。すなわち、区間同定部52は、区間定義情報に基づいて、画像に含まれる少なくとも1つのスライス画像に対応する断面が属する区間(以下、従属区間と呼ぶ)を特定する区間特定手段の一例に相当する。この従属区間の同定は、前記区間定義情報取得部50で取得した情報と、当該スライスを構成する画素値の情報、および特徴量の情報を用いた推定処理などで実現できる。   The section identifying unit 52 identifies, for each image from the images I1 to IN, which section the slice belongs to among the plurality of sections for at least one slice constituting the image. That is, the section identification unit 52 corresponds to an example of a section specifying unit that specifies a section to which a cross section corresponding to at least one slice image included in the image belongs (hereinafter referred to as a dependent section) based on the section definition information. . The identification of the dependent section can be realized by an estimation process using information acquired by the section definition information acquisition unit 50, information on pixel values constituting the slice, and information on feature amounts.

座標算出部53は、前記区間同定部52で同定した従属区間の情報に基づいて、当該従属区間に対応する基準座標系における前記スライス画像の座標値を算出する。すなわち、座標算出部53は、区間ごとに座標値が定義された基準座標系と特定された区間とに基づいて、スライス画像の座標値を算出する座標値算出手段の一例に相当する。   The coordinate calculation unit 53 calculates the coordinate value of the slice image in the reference coordinate system corresponding to the dependent section based on the information of the dependent section identified by the section identifying unit 52. That is, the coordinate calculation unit 53 corresponds to an example of a coordinate value calculation unit that calculates the coordinate value of the slice image based on the reference coordinate system in which the coordinate value is defined for each section and the specified section.

位置合わせ部54は、前記座標算出部53で算出した座標値に基づいて、画像I1からINで対応するスライスの位置を算出する。すなわち、画像I1からINの位置合わせを行う。すなわち、位置合わせ部54は、取得された複数の画像に含まれる、基準座標系で略同一の座標値を持つ夫々のスライス画像を対応付ける対応付け手段の一例に相当する。   The alignment unit 54 calculates the position of the corresponding slice in the images I1 to IN based on the coordinate value calculated by the coordinate calculation unit 53. That is, the images I1 to IN are aligned. That is, the alignment unit 54 corresponds to an example of an association unit that associates each slice image having substantially the same coordinate value in the reference coordinate system included in the plurality of acquired images.

表示処理部55は、位置合わせ部54により算出した結果に基づいて、入力された画像I1からINまでの画像のうちの少なくとも2つ以上の画像を、対応スライスの比較を容易に行えるような表示形態で、表示部36の画像表示領域内に表示させる。   Based on the result calculated by the alignment unit 54, the display processing unit 55 displays at least two of the input images I1 to IN so that the corresponding slices can be easily compared. In the form, it is displayed in the image display area of the display unit 36.

上記の画像処理装置10の各構成要素は、コンピュータプログラムに従って機能する。例えば、制御部37(CPU)がRAM33をワーク領域としてROM32又は記憶部34などに記憶されたコンピュータプログラムを読み込み、実行することで、各構成要素の機能が実現される。なお、画像処理装置10の構成要素の一部又は全ての機能が専用の回路を用いることで実現されてもよい。また、制御部37の構成要素の一部の機能が、クラウドコンピュータを用いることで実現されてもよい。   Each component of the image processing apparatus 10 functions according to a computer program. For example, the function of each component is realized by the control unit 37 (CPU) reading and executing a computer program stored in the ROM 32 or the storage unit 34 using the RAM 33 as a work area. Note that some or all of the functions of the components of the image processing apparatus 10 may be realized by using a dedicated circuit. Further, some functions of the components of the control unit 37 may be realized by using a cloud computer.

例えば、画像処理装置10とは異なる場所にある演算装置がネットワーク21を介して画像処理装置10に通信可能に接続され、画像処理装置10と演算装置がデータの送受信を行うことで、画像処理装置10又は制御部37の構成要素の機能が実現されてもよい。   For example, an arithmetic device at a location different from the image processing device 10 is communicably connected to the image processing device 10 via the network 21, and the image processing device 10 and the arithmetic device transmit and receive data, whereby the image processing device 10 or functions of the components of the control unit 37 may be realized.

次に、図2乃至図7を用いて、図1の画像処理装置10の処理の例について説明する。   Next, an example of processing of the image processing apparatus 10 in FIG. 1 will be described with reference to FIGS.

図2は、画像処理装置10の処理手順の例を示すフローチャートである。本実施形態では骨の解剖学的特徴に基づいた例を説明するが、本実施形態はその他の注目部位を設定する場合にも適用可能である。   FIG. 2 is a flowchart illustrating an example of a processing procedure of the image processing apparatus 10. In the present embodiment, an example based on the anatomical features of bones will be described. However, the present embodiment can also be applied when other attention sites are set.

(ステップS101:人体の体軸方向を複数の区間に分割する区間定義情報の取得)
ステップS101において、ユーザが操作部35を介して画像処理の開始を指示すると、区間定義情報取得部50は、人体の解剖構造を体軸方向に複数の区間に分割する区間定義情報をデータベース22から取得し、RAM33に格納する。
(Step S101: Acquisition of section definition information for dividing the body axis direction of the human body into a plurality of sections)
In step S <b> 101, when the user instructs the start of image processing via the operation unit 35, the section definition information acquisition unit 50 reads section definition information for dividing the human anatomy into a plurality of sections in the body axis direction from the database 22. Obtained and stored in the RAM 33.

ここで、区間定義情報とは、複数の解剖学的特徴断面の位置の情報と、それらの断面で区切られた区間の情報を併せたものであり、例えば、図3に示すような情報を指す。図3では、人体の骨の構造の情報(頸椎、胸椎、腰椎が含まれる断面の中で最も上にある断面など)に基づいて、頭頂部から足底部を区間1から区間7までの7つの区間に分割した例を示している。より具体的には、区間1は、頭頂部から頸椎の最上スライスの位置までの間を表しており、区間2は、頸椎の最上スライスの位置から胸椎の最上スライスの位置までの間を表している。以下、大腿骨の底面から足底部までの間を示す区間7まで同様に、解剖学的な特徴を示す断面に基づいて、人体の体軸方向をある区間に分割している。なお、この区間分割を行うための解剖学的特徴断面は、この例に限られるものではなく、その他の臓器の位置に基づく断面を用いてもよい。   Here, the section definition information is a combination of information on the positions of a plurality of anatomical feature sections and information on sections sectioned by these sections, and refers to information as shown in FIG. 3, for example. . In FIG. 3, based on information on the structure of the bones of the human body (the top section of the section including the cervical vertebra, the thoracic vertebra, and the lumbar vertebra), The example divided | segmented into the area is shown. More specifically, section 1 represents the interval from the top of the head to the position of the highest slice of the cervical spine, and section 2 represents the interval from the position of the highest slice of the cervical spine to the position of the highest slice of the thoracic vertebra. Yes. Hereinafter, similarly to the section 7 indicating the distance from the bottom surface of the femur to the sole of the foot, the body axis direction of the human body is divided into certain sections based on the cross section indicating the anatomical features. In addition, the anatomical feature cross section for performing the section division is not limited to this example, and a cross section based on the position of another organ may be used.

(ステップS102:画像の取得・表示)
ステップS101において、ユーザが操作部35を介して画像(I1からIN)の取得を指示すると、画像取得部51は、ユーザが指定した前記画像I1から画像INをデータベース22から取得し、RAM33に格納する。また、図4に示すように、表示処理部55は、データベース22から取得された画像を表示部36の画像表示領域400内に表示させる。以下では、画像I1から画像INが略同一の画像範囲(頸椎の頂点から坐骨の最下点)を持つことを想定した例について記載する。ただし、この画像の範囲は画像I1からINについて同一である必要はなく、画像範囲も異なるものであっても構わない。なお、データベースから取得された画像を表示処理部55によって表示部36に表示する処理は実行せずともよい。また、ステップS101において、画像取得部51が複数の画像を取得しなかった場合(すなわち、画像を1つしか取得しなかった場合)には、ステップS103以下の処理を実行しない形態であってもよい。つまり、画像取得部51が複数の画像を取得した場合には、ステップS103以下の処理を実行する形態であってもよい。すなわち、この処理は、複数の画像を取得した場合に、スライス画像に対応する断面が属する区間を特定する区間特定手段の一例に相当する。
(Step S102: Image acquisition / display)
In step S101, when the user instructs acquisition of an image (I1 to IN) via the operation unit 35, the image acquisition unit 51 acquires the image IN from the image I1 specified by the user from the database 22 and stores it in the RAM 33. To do. As shown in FIG. 4, the display processing unit 55 displays an image acquired from the database 22 in the image display area 400 of the display unit 36. In the following, an example in which it is assumed that the image I1 to the image IN have substantially the same image range (from the top of the cervical vertebra to the lowest point of the sciatic bone) will be described. However, the range of this image does not need to be the same for the images I1 to IN, and the image range may be different. Note that the process of displaying the image acquired from the database on the display unit 36 by the display processing unit 55 may not be executed. In step S101, when the image acquisition unit 51 does not acquire a plurality of images (that is, when only one image is acquired), the processing after step S103 is not executed. Good. That is, when the image acquisition unit 51 acquires a plurality of images, the processing after step S103 may be executed. That is, this process corresponds to an example of a section specifying unit that specifies a section to which a cross section corresponding to a slice image belongs when a plurality of images are acquired.

(ステップS103:各画像の各スライスについて従属区間の同定)
ステップS103において、区間同定部52は、画像I1からINまでの夫々の画像に関して、当該画像を構成する各スライス単位で、前記区間定義情報に含まれる複数の区間のうち、当該スライスがどの区間に従属するかを同定し、RAM33に格納する。
(Step S103: Identification of dependent section for each slice of each image)
In step S103, for each image from the images I1 to IN, the section identification unit 52 determines in which section the slice is included among the plurality of sections included in the section definition information for each slice constituting the image. Whether it is subordinate or not is identified and stored in the RAM 33.

ここでは、図5に示すように、画像I1が頸椎の頂点から坐骨の最下点までを表す181枚のスライスで構成されている例について考える。図5の例では、画像I1の最上位置を原点とした座標系Zを定義し、画像I1で最も上に位置するスライスがz=0、次のスライスがz=1、画像I1で最も下に位置するスライスがz=180となる座標系を示している。以下、本稿では、ある座標系(軸)を表す場合には大文字(Z)を用いて表記するものとし、ある座標系の座標値を表す場合には小文字(z)を用いて表記するものとする。なお、前記Zで表す座標系は、画像を構成する最も上のスライスを原点として、スライス単位で座標値(z)が増加するため、撮像範囲や被検体の体(骨)の大きさによってZ軸での座標値が変わり得る座標系である。すなわち、この座標系では、異なる3次元画像におけるz=0が示すスライス画像の位置は、解剖学的に略同一の位置になるとは限らない。図5の例では、画像I1における頸椎の頂点、胸椎の頂点、腰椎の頂点、仙骨の頂点、坐骨の最下点の位置は、夫々、z=0、23、96、140、180の位置にあるものとする。これらの解剖学的特徴断面の位置を取得する処理は、区間の境界を示す被検体の解剖学的特徴断面の位置を示す位置情報を取得する位置取得手段の一例に相当する。   Here, as shown in FIG. 5, consider an example in which an image I1 is composed of 181 slices representing the vertebral apex to the lowest point of the sciatica. In the example of FIG. 5, a coordinate system Z is defined with the top position of the image I1 as the origin, the topmost slice in the image I1 is z = 0, the next slice is z = 1, and the bottom is the lowest in the image I1. A coordinate system in which the slice located is z = 180 is shown. Hereinafter, in this paper, when a certain coordinate system (axis) is expressed, it is expressed using a capital letter (Z), and when expressing a coordinate value of a certain coordinate system, it is expressed using a small letter (z). To do. In the coordinate system represented by Z, since the coordinate value (z) increases in units of slices with the top slice constituting the image as the origin, Z depends on the imaging range and the size of the body (bone) of the subject. It is a coordinate system in which coordinate values on the axis can change. That is, in this coordinate system, the positions of the slice images indicated by z = 0 in different three-dimensional images are not necessarily anatomically substantially the same position. In the example of FIG. 5, the positions of the vertex of the cervical vertebra, the vertex of the thoracic vertebra, the vertex of the lumbar vertebra, the vertex of the sacrum, and the lowest point of the sciatus in the image I1 are z = 0, 23, 96, 140, and 180, respectively. It shall be. The process of acquiring the positions of these anatomical feature sections corresponds to an example of a position acquisition unit that acquires position information indicating the position of the anatomical feature section of the subject indicating the boundary of the section.

画像I1の各スライスで、当該スライスの従属区間を同定する処理とは、z=0からz=180までの全てのスライスについて、ある既定の区間を割り当てる操作のことを指す。図5の例においては、z=[0,23]の範囲にあるスライスには「区間2」を割り当てることが理想的である。同様に、z=(23,96]では「区間3」、z=(96,140]では「区間4」、z=(140,180]では「区間5」を割り当てることが望ましい。   In each slice of the image I1, the process of identifying the dependent section of the slice refers to an operation of assigning a predetermined section to all slices from z = 0 to z = 180. In the example of FIG. 5, it is ideal to assign “section 2” to slices in the range of z = [0, 23]. Similarly, it is desirable to assign “section 3” when z = (23, 96], “section 4” when z = (96, 140], and “section 5” when z = (140, 180].

上記、従属区間の同定処理を自動で好適に行うための方法には、各スライス単位で既存の画像特徴量に基づくマッチング処理を利用する方法が考えられる。この方法を取る場合は、前記同定処理を行う前に、あるスライスから計算できる画像特徴量の情報と、当該スライスに対応する既定の区間の情報とを紐づけたデータを1つのデータセットとして、それらを集めたデータベースを準備しておく必要がある。また、前記画像特徴量の情報には、当該スライスを構成する画素値の情報や、当該スライスに関して適用できる各種画像フィルタの出力値の情報を用いることができる。より具体的な例では、CT画像に写る骨の特徴を捉える場合、骨の領域は画素値が高いことを利用して、ある閾値(例えば150[H.U.])以上の画素値の体積を特徴量として用いることができる。あるいは、画像に含まれる画素値のヒストグラムを特徴量として用いることもできる。   As a method for automatically and suitably performing the identification processing of the dependent section, a method using a matching process based on an existing image feature amount for each slice may be considered. When this method is taken, before performing the identification process, the data of the image feature quantity that can be calculated from a certain slice and the data that associates the information of the predetermined section corresponding to the slice as one data set, It is necessary to prepare a database that collects them. In addition, the information on the image feature amount can be information on pixel values constituting the slice and information on output values of various image filters applicable to the slice. In a more specific example, when capturing a feature of a bone shown in a CT image, the volume of a pixel value equal to or greater than a certain threshold (for example, 150 [HU]) is utilized using the fact that the bone region has a high pixel value. Can be used as a feature amount. Or the histogram of the pixel value contained in an image can also be used as a feature-value.

以下では、未知の3次元画像が入力された場合に、データベースに含まれるデータセットとの特徴量のマッチングを利用して、各スライスで従属区間の同定処理を行う方法の例を記載する。このマッチングの実現方法は次の通りである。まず、入力画像のあるスライスから計算できる特徴量の情報と、データベースに予め保存されている特徴量の情報との間で類似度を計算する。そして、計算した結果の中で最も類似度の高いデータセットを全データセットの中から選定することで、入力画像とデータベースの画像とのマッチングを実現できる。現在の処理対象のスライスの従属区間の同定は、前記マッチングにより得られた最も類似度の高いデータセットに紐付いている既定の区間の情報を当該スライスの従属区間の情報として割り当てることで実現できる。そして、3次元画像を構成する全てのスライスについて同様の処理を行うことで、各スライスが従属する区間を自動的に同定できる。なお、最も類似度の高いデータセットだけではなく、類似度の高い方から所定の数のデータセットを選定し、多数決などの方法で前記従属区間の情報を統合した結果から区間の割り当てを行ってもよい。   In the following, an example of a method for performing identification processing of dependent sections in each slice using matching of feature quantities with a data set included in a database when an unknown three-dimensional image is input will be described. A method for realizing this matching is as follows. First, a similarity is calculated between feature quantity information that can be calculated from a slice of an input image and feature quantity information that is stored in advance in a database. Then, by selecting the data set having the highest similarity among the calculated results from all the data sets, matching between the input image and the database image can be realized. The identification of the dependent section of the current processing target slice can be realized by assigning information on a predetermined section linked to the data set having the highest similarity obtained by the matching as information on the dependent section of the slice. Then, by performing the same process for all slices constituting the three-dimensional image, it is possible to automatically identify the section in which each slice is dependent. Note that not only the data set with the highest similarity but also a predetermined number of data sets are selected from the one with the highest similarity, and the section assignment is performed based on the result of integrating the information of the dependent sections by a method such as majority vote. Also good.

また、上記の従属区間の情報を割り当てる処理について、人体の解剖構造の特徴に基づいた制約を与えてもよい。例えば、図3に示した区間定義情報を用いた場合には、事前知識として、区間1と区間2の間にそれ以外の区間が入ることは無いはずである(例えば、頭頂部と胸椎の間に腰椎が存在することはない)。このことを利用して、入力の3次元画像の上(または下)のスライスから順番に従属区間の情報を割り当てる場合には、処理対象のスライスの上(または下)に位置するスライスの従属区間情報に基づいて、マッチングに用いるデータセットの数を制限してもよい。すなわち、推定結果として適切でない情報が紐付いているデータセットをデータベースから排除することで、不適切な割り当てを防ぐことができる。また、マッチングを行うデータセットの数を制限することで、計算時間を短縮する効果もある。   Moreover, you may give the restriction | limiting based on the characteristic of the anatomical structure of a human body about the process which allocates the information of said dependent area. For example, when the section definition information shown in FIG. 3 is used, no other section should enter between the section 1 and the section 2 as prior knowledge (for example, between the top of the head and the thoracic vertebrae). There is no lumbar spine). Using this fact, when allocating dependent section information in order from the upper (or lower) slice of the input three-dimensional image, the dependent section of the slice located above (or below) the slice to be processed Based on the information, the number of data sets used for matching may be limited. That is, it is possible to prevent inappropriate assignment by excluding from the database a data set associated with information that is not appropriate as an estimation result. In addition, the calculation time can be shortened by limiting the number of data sets to be matched.

なお、ここではスライス単位で計算する特徴量に基づいて、スライス単位で従属区間の同定を行う例を示したが、処理対象を複数のスライスで構成する3次元画像としてもよい。この場合においても、複数のスライスから計算できる特徴量の情報を用いて、入力画像とデータセットの画像の類似度を計算すればよい。また、従属区間の同定については、前記3次元画像に含まれるある1つのスライス(例えば3次元画像の中央のスライス)のみに対して割り当てを行うものでもよく、当該3次元画像の全てのスライスに対して割り当てを行ってもよい。   Although an example in which the dependent section is identified in units of slices based on the feature amount calculated in units of slices is shown here, the processing target may be a three-dimensional image configured with a plurality of slices. Even in this case, the similarity between the input image and the image of the data set may be calculated using information on the feature amount that can be calculated from a plurality of slices. The identification of the dependent section may be performed only for one slice (for example, the central slice of the three-dimensional image) included in the three-dimensional image, and all the slices of the three-dimensional image may be assigned. An assignment may be made to the assignment.

また、上述のスライス単位で従属区間の同定方法は1つの例を示したものであり、別の代替手段を用いて同等の処理を行ってもよい。例えば、前記従属区間の境界に対応する解剖学的特徴断面の位置を同様のマッチング処理によって推定し、複数の解剖学的特徴断面の間について、対応する区間を割り当てることで、従属区間の同定をしてもよい。この処理は、解剖構造の境界が描出された解剖学的特徴断面の画像における位置を示す位置情報を取得する位置取得手段の一例に相当する。また、この処理は、取得された解剖学的特徴断面の位置情報に基づいて、スライス画像に対応する断面が属する区間を特定する区間特定手段の一例に相当する。   Moreover, the identification method of a dependent section in the above-mentioned slice unit shows one example, and an equivalent process may be performed using another alternative means. For example, the position of the anatomical feature cross section corresponding to the boundary of the dependent section is estimated by the same matching process, and the corresponding section is assigned between a plurality of anatomical feature cross sections to identify the dependent section. May be. This process corresponds to an example of a position acquisition unit that acquires position information indicating a position in an image of an anatomical feature section in which the boundary of the anatomical structure is depicted. Further, this process corresponds to an example of a section specifying unit that specifies a section to which a cross section corresponding to a slice image belongs based on the acquired position information of the anatomical feature cross section.

最後に、区間同定部52は、画像I1からINまでの夫々の画像に関して、前記同定した従属区間の情報に基づいて、従属区間毎に当該区間の境界に当たるスライスを探索し、その結果をRAM33に格納する。   Finally, for each image from the images I1 to IN, the section identification unit 52 searches for a slice corresponding to the boundary of the section for each dependent section based on the identified dependent section information, and stores the result in the RAM 33. Store.

(ステップS104:各画像の各スライスの従属区間に対応する基準座標系における座標値の算出)
ステップS104において、座標算出部53は、ステップS103で同定した各スライスにおける従属区間の情報に基づいて、当該従属区間に対応する基準座標系における当該スライスの座標値を算出して、RAM33に格納する。この計算は、I1からINまでの夫々の画像に関して行うものとする。
(Step S104: Calculation of coordinate values in the reference coordinate system corresponding to the dependent section of each slice of each image)
In step S104, the coordinate calculation unit 53 calculates the coordinate value of the slice in the reference coordinate system corresponding to the dependent section, based on the information of the dependent section in each slice identified in step S103, and stores it in the RAM 33. . This calculation is performed for each image from I1 to IN.

ここで、図3に示した区間定義情報について、各区間に対して基準座標系Z’を定義した一例を図6に示す。ここでは、ある区間nでの基準座標系Z’の最小値をz’n_min、最大値をz’n_maxと表記する。図6に示した基準座標系Z’では、頭頂部に対応するスライスの座標値をz’=0、頸椎の頂点に対応するスライスの座標値をz’=100と定義している。つまり、区間1の場合では、最小値z’1_min=0であり、z’1_max=100となる。なお、ここで区間2の最小値z’2_min=z’1_maxと設定することで、区間1と区間2の境界における座標値を連続的にできる。また、頸椎の頂点よりも下の解剖学的特徴断面についても、特徴断面が1つ下の断面になる毎に当該断面の位置の座標値が100増加する座標系になっており、最後の足底部に対応するスライスの座標値をz’=700としている。ここで、図5に示した例を基に、画像I1の最上位置を原点とした座標系Zと、前記基準座標系Z’を対応付けた場合の例を図7に示す。図7では、z=0の位置はz’=100、z=23の位置はz’=200に対応している。   Here, FIG. 6 shows an example in which the reference coordinate system Z ′ is defined for each section with respect to the section definition information shown in FIG. 3. Here, the minimum value of the reference coordinate system Z ′ in a certain section n is expressed as z′n_min, and the maximum value is expressed as z′n_max. In the reference coordinate system Z ′ shown in FIG. 6, the coordinate value of the slice corresponding to the top of the head is defined as z ′ = 0, and the coordinate value of the slice corresponding to the vertex of the cervical vertebra is defined as z ′ = 100. That is, in the case of section 1, the minimum value z′1_min = 0 and z′1_max = 100. Here, by setting the minimum value z′2_min = z′1_max in the section 2, the coordinate value at the boundary between the section 1 and the section 2 can be continuously obtained. In addition, the anatomical feature cross section below the apex of the cervical vertebra has a coordinate system in which the coordinate value of the position of the cross section increases by 100 each time the feature cross section becomes one lower cross section. The coordinate value of the slice corresponding to the bottom is set to z ′ = 700. Here, based on the example shown in FIG. 5, FIG. 7 shows an example in which the coordinate system Z having the top position of the image I1 as the origin is associated with the reference coordinate system Z ′. In FIG. 7, the position of z = 0 corresponds to z ′ = 100, and the position of z = 23 corresponds to z ′ = 200.

図7に示す座標系Z、および、基準座標系Z’間の位置の対応付けは、以下のような処理で実現できる。すなわち、まず座標算出部53は、前記従属区間毎に、当該区間の境界に当たるスライスの位置と基準座標系における当該区間の境界の位置を対応付ける。次に、境界以外の位置の対応付けを行う。ここでは、座標系Zと基準座標系Z’の間に関して、同じ従属区間であれば、その区間に含まれる解剖構造は、スケールの違いこそあれ略同一の大きさのバランスで配置されているとみなす。そこで、従属区間ごとに座標を線形的に対応付ける。具体的には、区間1に対応する座標z=[0,23]の範囲に含まれるスライスは線型的に座標値が増加するものと考えて、基準座標系Z’での座標値を例えば下式で計算すればよい。下記のf(z)は、スライスの座標値zに対応する基準座標系Z’の座標値を表すものとする。
f(z)=z’n_min+(z−zn_min)/(zn_max−zn_min)×(z’n_max−z’n_min)・・・式(1)
The association of the position between the coordinate system Z and the reference coordinate system Z ′ shown in FIG. 7 can be realized by the following processing. That is, first, the coordinate calculation unit 53 associates, for each dependent section, the position of a slice that hits the boundary of the section and the position of the boundary of the section in the reference coordinate system. Next, positions other than the boundaries are associated. Here, regarding the coordinate system Z and the reference coordinate system Z ′, if the same dependent section, the anatomical structures included in the section are arranged with a balance of substantially the same size regardless of the scale. I reckon. Therefore, the coordinates are linearly associated with each dependent section. Specifically, it is considered that the slice included in the range of the coordinate z = [0, 23] corresponding to the section 1 linearly increases in coordinate value, and the coordinate value in the reference coordinate system Z ′ is set to be lower, for example. What is necessary is just to calculate with a formula. The following f (z) represents the coordinate value of the reference coordinate system Z ′ corresponding to the coordinate value z of the slice.
f (z) = z′n_min + (z−zn_min) / (zn_max−zn_min) × (z′n_max−z′n_min) (1)

式(1)におけるzn_minは、区間nにおけるスライスの座標値zの最小値であり、zn_maxは最大値である。具体例として、図7におけるz=10の位置に「区間2」が割り当てられている前提でf(z)を計算する場合を考えると、夫々のパラメータは、z2_min=0、z2_max=23、z’2_min=100、z’2_max=200となる。また、その他の従属区間に関しても、同様に各従属区間のスライスの最小値・最大値を夫々のパラメータに代入することで、この式(1)の計算によって、従属区間毎に、正規化された座標系における座標値を計算できる。なお、境界以外の位置の対応付け方法は、これに限られるものではなく、非線形的に対応付けてもよい。   In Expression (1), zn_min is the minimum value of the coordinate value z of the slice in the section n, and zn_max is the maximum value. As a specific example, when f (z) is calculated on the assumption that “section 2” is assigned to the position of z = 10 in FIG. 7, the respective parameters are z2_min = 0, z2_max = 23, z '2_min = 100, z'2_max = 200. In addition, with respect to the other dependent sections, similarly, by substituting the minimum and maximum values of the slices of each dependent section into the respective parameters, the calculation is performed for each dependent section by the calculation of Equation (1). Coordinate values in the coordinate system can be calculated. Note that the method of associating positions other than the boundaries is not limited to this, and may be associated non-linearly.

ここで、基準座標系Z’を設けることの効果について述べる。基準座標系Z’を設定することの効果は、異なる3次元画像であっても、区間定義情報で定義されている解剖学的特徴断面については、解剖学的に略同一の場所が基準座標系Z’で同じ座標値を持つ点にある。この正規化された空間の情報を利用することで、後段の異なる3次元画像の位置を合わせて表示する処理が容易になるという効果がある。   Here, the effect of providing the reference coordinate system Z ′ will be described. The effect of setting the reference coordinate system Z ′ is that even if different three-dimensional images are used, the anatomically characteristic cross-section defined by the section definition information has a substantially identical anatomical location as the reference coordinate system. Z ′ is at a point having the same coordinate value. By using the normalized space information, there is an effect that the process of displaying the positions of different three-dimensional images in the subsequent stage together becomes easy.

また、空間的な正規化をより強めたい場合には、人体の解剖構造をより細かい区間に区切るように区間定義情報を定義することで、より細かい単位での正規化が実現できる。例えば、区間定義情報に含まれる解剖学的特徴断面が頭頂部と足底部の2つだけの場合を考える。このとき、位置合わせ対象の画像では基準座標系Z’において、頭頂部が最小値、足底部が最大値となるように空間が正規化される。しかし、それらの解剖学的特徴断面の間について考えると、それらの解剖学的特徴断面から離れてしまうほど、正規化の効果は弱くなる。なぜならば、人体の解剖構造の大きさには個人差があり、それらの解剖学的特徴断面(頭頂部と足底部)の間に存在する解剖構造の大きさのバランスは、人それぞれ異なるためである。つまり、画像に含まれる解剖構造の大きさのバランスが位置合わせ対象の画像間で異なる場合、基準座標系で同じ座標値が与えられているスライスであっても、解剖学的に対応する位置にはならない可能性がある。このバランスの違いは、大まかには年齢などの違いによって起こり得るものであるが、個人のばらつきによっても僅かながらに起こり得る。区間定義情報に含まれる解剖学的特徴断面の数を増やすことは、体軸方向で解剖学的に意味のある位置で複数の区間に分割し、区間毎に設けた基準座標系(正規化空間)で画像を正規化することに相当する。空間を小分けにして正規化を行うことで、解剖構造の大きさのバランスの違いをより細かい単位で吸収するような、正規化をかける効果があると考えられる。   Further, when it is desired to further strengthen the spatial normalization, normalization in finer units can be realized by defining the section definition information so that the anatomical structure of the human body is divided into smaller sections. For example, let us consider a case where there are only two anatomical feature cross sections included in the section definition information: the top of the head and the bottom of the foot. At this time, in the image to be aligned, in the reference coordinate system Z ′, the space is normalized so that the top of the head has the minimum value and the bottom of the foot has the maximum value. However, when considering between the anatomical feature sections, the further away from those anatomical feature sections, the weaker the normalization effect. This is because there are individual differences in the size of the anatomical structure of the human body, and the balance of the size of the anatomical structure existing between the cross sections of the anatomical features (the top of the head and the bottom of the foot) is different for each person. is there. In other words, if the balance of the size of the anatomical structure included in the images differs between the images to be aligned, even slices that have the same coordinate value in the reference coordinate system will be placed in positions corresponding to the anatomies. It may not be possible. This difference in balance can be roughly caused by a difference in age or the like, but can be slightly caused by individual variation. Increasing the number of anatomical feature cross sections included in the section definition information is divided into a plurality of sections at anatomically meaningful positions in the body axis direction, and a reference coordinate system (normalized space provided for each section). ) Is equivalent to normalizing the image. It is considered that normalizing by subdividing the space has the effect of applying normalization that absorbs the difference in the balance of the size of the anatomical structure in finer units.

(ステップS105:基準座標系における座標値に基づいた画像表示)
ステップS105において、位置合わせ部54は、ステップS104で算出した座標値に基づいて、画像I1からINまでの画像について、基準座標系Z’で同一または略同一の座標値を持つスライスを同定する。そして、表示処理部55は、それらの同定したスライスの画像を表示部36の画像表示領域400内に表示させる。すなわち、表示処理部55は、対応付けられた夫々のスライス画像を対比可能な形態で表示手段に表示させる表示制御手段の一例に相当する。なお、対応するスライス画像の表示は、並列、重畳、時分割など、周知のいずれの方法を用いて行ってもよい。
(Step S105: Image display based on coordinate values in the reference coordinate system)
In step S105, the alignment unit 54 identifies slices having the same or substantially the same coordinate value in the reference coordinate system Z ′ for the images from the images I1 to IN based on the coordinate values calculated in step S104. Then, the display processing unit 55 displays the images of the identified slices in the image display area 400 of the display unit 36. In other words, the display processing unit 55 corresponds to an example of a display control unit that causes the display unit to display each of the associated slice images in a comparable form. Note that the corresponding slice image may be displayed using any known method such as parallel, superimposition, or time division.

例えばユーザが表示部36の画像表示領域内で画像I1を操作する場合を考える。このとき、ユーザが画像I1のあるスライス(以下、注目スライス)の表示を指示すると、位置合わせ部54は、前記ステップS104で計算した結果から、基準座標系Z’における該注目スライスの座標値(ZI1’)を取得する。そして、画像I2から画像INまでの夫々の画像について、基準座標系Z’における各スライスの座標値を参照して、ZI1’に最も近い座標値を持つスライスを、注目スライスの対応スライスとして同定する。その後、表示処理部55は、前記同定したスライスを表示部36の画像表示領域内に表示させる。この処理によれば、ユーザ操作によって表示された画像I1のある1つの注目スライスと、画像I2から画像INの中で当該注目スライスと略同一の解剖構造を含むスライス(対応スライス)をユーザに提示できる。   For example, consider a case where the user operates the image I1 within the image display area of the display unit 36. At this time, when the user instructs display of a certain slice of the image I1 (hereinafter referred to as the target slice), the alignment unit 54 determines the coordinate value (in the reference coordinate system Z ′) of the target slice from the result calculated in step S104. ZI1 ′) is acquired. Then, for each image from the image I2 to the image IN, the coordinate value of each slice in the reference coordinate system Z ′ is referred to, and the slice having the coordinate value closest to ZI1 ′ is identified as the corresponding slice of the target slice. . Thereafter, the display processing unit 55 displays the identified slice in the image display area of the display unit 36. According to this processing, one noticeable slice of the image I1 displayed by the user operation and a slice (corresponding slice) including substantially the same anatomical structure as the noticeable slice in the image I2 to the image IN are presented to the user. it can.

なお、上記の対応付いた位置のスライスを表示する処理は、画像I1からINの全ての画像で行う必要はなく、操作部35を介してユーザが選択した画像についてのみ処理を行ってもよい。   Note that the processing for displaying the slice at the corresponding position does not need to be performed for all the images I1 to IN, and may be performed only for the image selected by the user via the operation unit 35.

また、前述した通り、解剖学的特徴断面の間に存在する断面を示すスライス画像は、解剖学的特徴断面から離れてしまうほど、前述した正規化の効果が弱くなる。そのため、表示処理部55は、表示するスライス画像が示す断面と解剖学的特徴断面と間の距離に応じて、スライス画像の表示態様を変更してもよい。例えば、表示処理部55は、表示するスライス画像が示す断面と最も近い解剖学的特徴断面と間の距離が所定の距離よりも離れている場合には、スライス画像の縁の色を赤に設定する。また、表示処理部55は、表示するスライス画像が示す断面と最も近い解剖学的特徴断面と間の距離が所定の距離よりも離れていない場合には、スライス画像の縁の色を青に設定する。このように、表示するスライス画像が示す断面と最も近い解剖学的特徴断面と間の距離が所定の距離よりも離れているか否かに応じて、スライス画像の表示態様を変更することで、前述した正規化の信頼度をユーザが把握することができる。なお、表示態様の変更は色だけでなく、文字や記号の表示態様を変更することも含まれる。また、所定の距離による閾値処理を介さずに、最も近い解剖学的特徴断面からの距離の情報を直接表示するようにしてもよい。このとき距離は、スライス数、物理的距離(何mm)、あるいは、基準座標系Z’における距離であってもよい。また、距離に応じて割り当てた疑似カラーをスライス画像の縁の色として設定するようにしてもよい。   Further, as described above, the effect of normalization described above becomes weaker as the slice image indicating the cross section existing between the anatomical characteristic cross sections becomes farther from the anatomical characteristic cross section. Therefore, the display processing unit 55 may change the display mode of the slice image according to the distance between the cross section indicated by the slice image to be displayed and the anatomical feature cross section. For example, the display processing unit 55 sets the color of the edge of the slice image to red when the distance between the cross section indicated by the slice image to be displayed and the closest anatomical feature cross section is larger than a predetermined distance. To do. The display processing unit 55 sets the color of the edge of the slice image to blue when the distance between the cross section indicated by the slice image to be displayed and the closest anatomical feature cross section is not more than a predetermined distance. To do. Thus, by changing the display mode of the slice image according to whether or not the distance between the cross section indicated by the slice image to be displayed and the closest anatomical feature cross section is larger than a predetermined distance, The user can grasp the reliability of normalization. Note that changing the display mode includes not only changing the color but also changing the display mode of characters and symbols. Further, information on the distance from the nearest anatomical feature cross section may be directly displayed without going through threshold processing based on a predetermined distance. At this time, the distance may be the number of slices, a physical distance (how many mm), or a distance in the reference coordinate system Z ′. Further, the pseudo color assigned according to the distance may be set as the edge color of the slice image.

本実施形態によれば、人体の解剖構造の位置を体軸方向に部位ごとに正規化することで解剖構造の大きさのバランスの違いを吸収できるため、異なる画像間の位置合わせ処理において、より精度の高い位置合わせ結果をユーザに提供できる効果がある。   According to this embodiment, since the difference in the balance of the size of the anatomical structure can be absorbed by normalizing the position of the anatomical structure of the human body for each part in the body axis direction, in the alignment process between different images, There is an effect that a highly accurate alignment result can be provided to the user.

(変形例1)
上記の実施形態では、ユーザが複数の3次元画像を表示して観察(診断)する際に、夫々の画像について基準座標系Z’における各スライスの座標値を計算する処理を行う例を示した。しかし、該基準座標値を計算する処理を実施する手順は必ずしもこれに限らない。例えば、画像処理装置10がステップS101からS104までの処理を行い、画像I1から画像INの各画像の各スライスについて、基準座標系Z’における座標値を計算する。そして、その計算した結果を当該スライスの付帯情報として夫々の画像に付帯させてデータベース22に保存するようにしてもよい。このとき、ステップS102の処理では画像の表示を行わなくてもよい。また、比較する複数の画像を同時に処理する必要はなく、夫々の画像に対して個別に処理を行ってもよい。この場合、本処理は、夫々の画像を撮像した直後等のタイミングで、医師による画像の観察(診断)に先がけて実行しておくことができる。すなわち、この手順は、ステップS103からステップS104の処理を各画像について事前に実行することに相当する。
(Modification 1)
In the above-described embodiment, when the user displays and observes (diagnosis) a plurality of three-dimensional images, an example in which the process of calculating the coordinate value of each slice in the reference coordinate system Z ′ is performed for each image is shown. . However, the procedure for performing the process of calculating the reference coordinate value is not necessarily limited to this. For example, the image processing apparatus 10 performs the processing from step S101 to S104, and calculates the coordinate value in the reference coordinate system Z ′ for each slice of the images I1 to IN. Then, the calculated result may be attached to each image as auxiliary information of the slice and stored in the database 22. At this time, it is not necessary to display an image in the process of step S102. Further, it is not necessary to simultaneously process a plurality of images to be compared, and each image may be processed individually. In this case, this process can be executed prior to the observation (diagnosis) of the image by the doctor, for example, immediately after each image is captured. That is, this procedure corresponds to executing the processing from step S103 to step S104 in advance for each image.

そして、ユーザが画像の観察(診断)を行う際は、画像処理装置10がステップS102、及びステップS105の処理を行う構成とすることができる。この手順を取る場合には、ステップS102で画像取得部51が画像を取得する際に、当該画像の付帯情報として保存されている各スライスの基準座標値を読み込む処理を追加すれば、第1の実施形態と同等の処理が実現できる。   And when a user observes (diagnosis) of an image, it can be set as the structure which the image processing apparatus 10 performs the process of step S102 and step S105. In the case of taking this procedure, when the image acquisition unit 51 acquires an image in step S102, a process for reading the reference coordinate value of each slice stored as incidental information of the image is added. Processing equivalent to the embodiment can be realized.

この変形例1の処理により、第1の実施形態で必要であった画像を表示する際の基準座標系Z’における座標値の計算を省くことができるため、ユーザが画像の観察(診断)を行う際の待ち時間を短縮できる。   By the processing of the first modification, it is possible to omit the calculation of the coordinate value in the reference coordinate system Z ′ when displaying the image necessary in the first embodiment, so that the user can observe (diagnose) the image. The waiting time when performing can be shortened.

なお、取得した画像が付帯情報として各スライスの基準座標値を保持しているか否かを判定し、該付帯情報を有していない場合にのみ当該画像に対してステップS103およびステップS104の処理を実行するようにしてもよい。これによると、基準座標値の算出が処理済の画像と未処理の画像が混在する場合の待ち時間を最小限に留めることができる。   Note that it is determined whether or not the acquired image holds the reference coordinate value of each slice as supplementary information, and the processing of step S103 and step S104 is performed on the image only when the supplementary information is not included. You may make it perform. According to this, it is possible to minimize the waiting time in the case where the processed image and the unprocessed image are mixed in the calculation of the reference coordinate value.

(変形例2)
第1の実施形態において、位置合わせ部54は、ステップS105でユーザが3次元画像中のある注目スライスを指定したことをトリガーとして、当該注目スライスの対応スライスを同定する計算を行っていた。しかし、この手順は必ずしもこの方法に限らない。例えば、ステップS105の処理において、位置合わせ部54が、画像I1から画像INの全ての画像の各スライス間の対応関係を、基準座標系Z’を介して予め同定しておく構成であってもよい。これにより、各画像の夫々のスライスに、他の画像における対応スライスの識別子(スライス番号)を付帯情報として保持させておくことができる。表示処理部55は、ユーザが注目スライスを指定した際に、該注目スライスが保持している対応スライスの識別子を読み込んで、当該対応スライスの画像を注目スライスの画像と共に表示するようにしてもよい。これにより、第1の実施形態、および、変形例1で必要であった画像を表示する際の対応スライスの同定の計算を省くことができるため、ユーザがある画像のスライスの表示を指示した際、即座に他の画像の対応するスライスを表示できる。
(Modification 2)
In the first embodiment, the alignment unit 54 performs calculation for identifying a corresponding slice of the target slice, triggered by the user specifying a target slice in the three-dimensional image in step S105. However, this procedure is not necessarily limited to this method. For example, in the process of step S105, the alignment unit 54 may identify the correspondence between the slices of all the images I1 to IN through the reference coordinate system Z ′ in advance. Good. Thereby, the identifier (slice number) of the corresponding slice in another image can be held as supplementary information in each slice of each image. When the user designates a target slice, the display processing unit 55 may read the identifier of the corresponding slice held by the target slice and display the image of the corresponding slice together with the image of the target slice. . Thereby, since the calculation of identification of the corresponding slice when displaying the image required in the first embodiment and the modification 1 can be omitted, when the user instructs display of a slice of an image , Instantly display corresponding slices of other images.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

<第2の実施形態>
第1の実施形態では、ステップS103において、区間同定部52は、画像I1からINを構成する各スライスについて、区間定義情報に含まれる複数の区間のうち当該スライスがどの区間に従属するかを同定している。その後、ステップS104において、座標算出部53は、各従属区間で区間の境界となる位置を探索し、区間定義情報に対応する基準座標系の境界の位置と対応付けることで、空間的な正規化を実現していた。しかし、上記の空間的な正規化を実現する方法は、別の方法であってもよい。
<Second Embodiment>
In the first embodiment, in step S103, the section identifying unit 52 identifies, for each slice constituting the images I1 to IN, which section the slice belongs to among the plurality of sections included in the section definition information. doing. Thereafter, in step S104, the coordinate calculation unit 53 searches for the position that becomes the boundary of the section in each dependent section, and associates it with the position of the boundary of the reference coordinate system corresponding to the section definition information, thereby performing spatial normalization. It was realized. However, another method may be used for realizing the above spatial normalization.

第2の実施形態では、画像取得部51で取得した3次元画像を対象として、前記区間定義情報に含まれる解剖学的特徴断面の位置を直接的に推定し、前記断面の位置取得を行った結果を用いて空間的な正規化を行う方法の例を説明する。本実施形態においては、3次元画像全体の情報に基づいた処理ができるため、第1の実施形態に記載したスライス単位のマッチング処理よりも高精度な対応付けができるという効果がある。   In the second embodiment, for the 3D image acquired by the image acquisition unit 51, the position of the anatomical feature cross section included in the section definition information is directly estimated, and the position of the cross section is acquired. An example of a method for performing spatial normalization using the result will be described. In this embodiment, since processing based on the information of the entire three-dimensional image can be performed, there is an effect that matching can be performed with higher accuracy than the matching processing in units of slices described in the first embodiment.

第2の実施形態に関わる画像処理装置の構成は第1の実施形態と同様であるが、区間同定部52に次の機能が追加されている。   The configuration of the image processing apparatus according to the second embodiment is the same as that of the first embodiment, but the following function is added to the section identification unit 52.

第2の実施形態において、区間同定部52は、位置合わせ対象の画像I1からINについて、断面の位置推定処理を用いて、当該画像の範囲の中から区間定義情報に含まれる解剖学的特徴断面の位置を取得する。   In the second embodiment, the section identifying unit 52 uses the cross-section position estimation process for the images I1 to IN to be aligned, and uses the cross-section position estimation process to determine the anatomical feature cross section included in the section definition information. Get the position of.

ここで図8を用いて、画像処理装置10の処理の流れの第2の例について説明する。   Here, a second example of the processing flow of the image processing apparatus 10 will be described with reference to FIG.

図8は、画像処理装置10における区間定義情報の取得処理から始まり、ある基準の座標系で位置を合わせた複数の画像を表示する処理の一例を示すフローチャートである。このフローチャートで示したステップにおいて、ステップS101〜S102及びステップS104〜S105は、図2に示した第1実施形態におけるステップS101〜S102及びステップS104〜S105と同様の処理を行う。すなわち、第1実施形態と異なる処理は、ステップS203である。以下、追加された処理と第1実施形態との相違部分についてのみ説明する。   FIG. 8 is a flowchart illustrating an example of a process for displaying a plurality of images whose positions are aligned in a certain reference coordinate system, starting from the section definition information acquisition process in the image processing apparatus 10. In the steps shown in this flowchart, steps S101 to S102 and steps S104 to S105 perform the same processes as steps S101 to S102 and steps S104 to S105 in the first embodiment shown in FIG. That is, the process different from the first embodiment is step S203. Only the difference between the added process and the first embodiment will be described below.

(ステップS203:解剖学的特徴断面の位置の取得)
ステップS203において、区間同定部52は、画像取得部51で取得した3次元画像(画像I1から画像IN)を対象として、画像から前記区間定義情報に含まれる解剖学的特徴断面の位置を推定して、RAM33に格納する。
(Step S203: Acquisition of the position of the anatomical feature cross section)
In step S203, the section identification unit 52 estimates the position of the anatomical feature cross section included in the section definition information from the image for the three-dimensional image (image I1 to image IN) acquired by the image acquisition unit 51. And stored in the RAM 33.

上記の実現方法としては、3次元画像を対象とする既存の位置合わせ技術を利用する方法が考えられる。この位置合わせ技術を利用して解剖学的特徴断面の位置を推定する場合においても、あるデータベースの準備が必要であることは第1の実施形態と同じである。第2の実施形態においては、データセットとして、3次元画像(参照画像)と、既定の解剖学的特徴断面の位置情報とを紐づけたデータがあるものとする。なお、位置合わせ処理によって解剖学的特徴断面の位置を画像から推定する場合には、データベースの参照画像の範囲は、入力の3次元画像よりも広い範囲を持っていることが望ましい。なぜならば、データベースの画像の範囲の方が狭い場合には、入力の3次元画像に本来含まれる解剖学的特徴断面と対応する断面が当該画像に存在しない場合があり得ることから、解剖学的特徴断面の推定に失敗する可能性があるためである。   As a method for realizing the above, a method using an existing alignment technique for a three-dimensional image can be considered. Even when the position of the anatomical feature cross section is estimated using this alignment technique, the preparation of a certain database is necessary as in the first embodiment. In the second embodiment, it is assumed that there is data associating a three-dimensional image (reference image) and position information of a predetermined anatomical feature section as a data set. When the position of the anatomical feature cross section is estimated from the image by the alignment process, it is desirable that the range of the reference image in the database is wider than the input three-dimensional image. This is because if the range of the image in the database is narrower, a cross section corresponding to the anatomical feature cross section originally included in the input three-dimensional image may not exist in the image. This is because the estimation of the feature cross section may fail.

上記の位置合わせ技術を利用する方法では、区間同定部52は、入力された3次元画像データ(画像I1から画像IN)の各画像と、データベースに含まれるデータセットの画像(参照画像)との3次元画像位置合わせを行う。すなわち、この処理は、取得された画像と、区間に関する情報が対応付けられたスライス画像を含む3次元の参照画像との位置合わせを行う位置合わせ手段の一例に相当する。但し、ここでの位置合わせは、解剖学的特徴断面が定義される軸についてのみ、画像I1から画像INの各画像と参照画像の位置合わせ処理が実施できれば十分である。この1つの軸方向の位置合わせ処理は、例えば、処理対象の軸について、位置合わせ対象の画像間の類似度を最大化するような最適化処理によって実現できる。なお、画像間の類似度については、画像の濃度値や特徴量の差の絶対値の和や二乗和を用いることができるが、その他の指標であっても構わない。   In the method using the above alignment technique, the section identification unit 52 performs a process of inputting each image of the input three-dimensional image data (image I1 to image IN) and an image (reference image) of a data set included in the database. Perform 3D image alignment. That is, this process corresponds to an example of an alignment unit that performs alignment between the acquired image and a three-dimensional reference image including a slice image associated with information on the section. However, it is sufficient for the alignment here to be able to perform alignment processing of each image from the image I1 to the image IN and the reference image only for the axis in which the anatomical feature section is defined. This alignment processing in one axial direction can be realized by, for example, optimization processing that maximizes the degree of similarity between the alignment target images for the processing target axis. For the similarity between images, the sum of the absolute values or sums of squares of the differences between the image density values and the feature amounts can be used, but other indices may be used.

ある画像I1に対して、前記データベースを用いて解剖学的特徴断面の位置の推定を行う方法は次の通りである。区間同定部52は、まず画像I1と全てのデータセットの画像について、上記の位置合わせ処理を行う。この位置合わせ処理を行うことで、画像I1と全てのデータセットの画像の組合せについて、画像間のずれ量と画像間の類似度が計算できる。ここで、画像間のずれ量(Δz)とは、入力画像とデータセットの画像で対応する断面位置の座標値を夫々zTest、zRefとしたときのそれらの差を表すものである(Δz=zTest−zRef)。なお、これらの座標値は、夫々の画像データの最も上のスライスの位置を原点として考えた場合の座標値である。   A method for estimating the position of an anatomical feature cross section for a certain image I1 using the database is as follows. The section identification unit 52 first performs the above alignment process on the image I1 and the images of all data sets. By performing this alignment processing, the shift amount between images and the similarity between images can be calculated for the combination of the image I1 and the images of all the data sets. Here, the shift amount between images (Δz) represents the difference between the input image and the image of the data set when the coordinate values of the corresponding cross-sectional positions are zTest and zRef, respectively (Δz = zTest). -ZRef). These coordinate values are coordinate values when the position of the top slice of each image data is considered as the origin.

続いて、区間同定部52は、全てのデータセットで計算した画像間の類似度の最大値に基づいて、それらの中から入力画像と最も類似したデータセットを選定する。   Subsequently, the section identification unit 52 selects a data set most similar to the input image from among the maximum similarity values between images calculated for all data sets.

最後に、区間同定部52は、選定したデータセットの画像(参照画像)に紐付けられた既定の解剖学的特徴断面の位置情報に基づいて、入力画像における解剖学的特徴断面の位置情報を推定する。すなわち、この処理は、位置合わせされた参照画像に含まれるスライス画像に対応付けられた区間に関する情報に基づいて、画像に含まれるスライス画像に対応する断面が属する区間を推定する区間特定手段の一例に相当する。   Finally, the section identification unit 52 obtains the position information of the anatomical feature slice in the input image based on the position information of the predetermined anatomical feature slice linked to the image (reference image) of the selected data set. presume. That is, this process is an example of a section specifying unit that estimates a section to which a cross section corresponding to a slice image included in the image belongs based on information regarding a section associated with the slice image included in the aligned reference image. It corresponds to.

解剖学的特徴断面の位置情報の推定処理については、ここまでの処理で入力画像と前記選定した参照画像の画像間のずれ量(Δz)が計算できているため、その情報を用いればよい。具体的には、選定した参照画像に紐付けられた既定の解剖学的特徴断面の位置の情報とずれ量(Δz)の和を計算することで、入力画像に含まれる解剖学的特徴断面の位置を推定できる。   Regarding the estimation processing of the position information of the anatomical feature cross section, since the shift amount (Δz) between the input image and the selected reference image can be calculated by the processing so far, this information may be used. Specifically, by calculating the sum of the position information of the predetermined anatomical feature cross section linked to the selected reference image and the amount of deviation (Δz), the anatomical feature cross section included in the input image is calculated. The position can be estimated.

なお、上記の例では最も類似度の高いデータだけを用いた例を示したが、推定の方法はこれに限らない。例えば、類似度の高い順に所定の数のデータを複数選定した結果に基づいて、それらの平均値などで位置の推定を行ってもよい。   In the above example, only the data having the highest similarity is used. However, the estimation method is not limited to this. For example, based on the result of selecting a predetermined number of data in descending order of similarity, the position may be estimated using an average value thereof.

なお、入力画像に含まれる複数の解剖学的特徴断面の間に存在するスライスについては、区間定義情報で定義した従属区間を割り当ててもよい。ただし、本実施形態のように解剖学的特徴断面の位置が推定できる場合には、第1の実施形態に記載されている各スライスで従属区間を推定する処理は不要である。その理由は、ステップS104における座標算出部53の計算は、入力画像に含まれる解剖学的特徴断面の位置の情報と、区間定義情報に含まれる各区間に対応する基準座標系が定義されていれば実施できるためである。   Note that a dependent section defined by the section definition information may be assigned to a slice existing between a plurality of anatomical feature cross sections included in the input image. However, when the position of the anatomical feature cross section can be estimated as in the present embodiment, the process of estimating the dependent section in each slice described in the first embodiment is unnecessary. The reason is that the calculation by the coordinate calculation unit 53 in step S104 is that the anatomical feature cross-section position information included in the input image and the reference coordinate system corresponding to each section included in the section definition information are defined. This is because it can be implemented.

本実施形態によれば、3次元画像全体の情報に基づいた処理ができるため、第1の実施形態に記載したスライス単位のマッチング処理よりも高精度な対応付けができる。   According to the present embodiment, since processing based on the information of the entire three-dimensional image can be performed, the matching can be performed with higher accuracy than the matching processing in units of slices described in the first embodiment.

<第3の実施形態>
第2の実施形態では、ステップS203において、区間同定部52は、画像取得部51で取得した3次元画像(画像I1から画像IN)を対象として、データベースに含まれる画像との位置合わせを行うことで解剖学的特徴断面の位置を推定している。そして、続くステップS104では、前記推定した解剖学的特徴断面の位置に基づいて、基準座標系Z’における座標値を計算している。
<Third Embodiment>
In the second embodiment, in step S203, the section identification unit 52 performs alignment with the images included in the database for the three-dimensional image (image I1 to image IN) acquired by the image acquisition unit 51. To estimate the position of the anatomical feature cross section. In the subsequent step S104, the coordinate value in the reference coordinate system Z ′ is calculated based on the estimated position of the anatomical feature cross section.

第3の実施形態に関わる画像処理装置の構成は、第2の実施形態と同様であるが、区間同定部52に次の機能が追加されている。   The configuration of the image processing apparatus according to the third embodiment is the same as that of the second embodiment, but the following function is added to the section identification unit 52.

第3の実施形態において、区間同定部52は、位置合わせ対象の画像I1からINについて、断面の位置推定処理を用いて、当該画像の範囲の中から区間定義情報に含まれる解剖学的特徴断面の位置を取得する。基本的な機能は第2の実施形態と同様であるが、第2の実施形態との違いは次の通りである。第3の実施形態では、入力された画像の範囲内だけではなく、範囲外における解剖学的特徴断面の位置も推定し、その推定結果に基づいて基準座標系Z’における座標値を計算する機能が追加されている。この機能は、画像に含まれる被検体の撮像範囲外における解剖学的特徴断面の位置を推定することにより、該撮像範囲外における解剖学的特徴断面の位置を示す位置情報を取得する位置取得手段の一例に相当する。これにより、画像の体軸方向の上下端で途切れている部位に関して画像範囲外に存在する解剖学的特徴断面の位置を推定することができる。つまり、画像の範囲内で解剖学的特徴断面に挟まれていないスライスがある場合であっても、当該スライスに対して、より高精度な基準座標系の座標との対応付けが可能となる。以下、追加された処理と第2実施形態との相違部分についてのみ説明する。   In the third embodiment, the section identifying unit 52 uses the cross-section position estimation process for the images I1 to IN to be aligned, and uses the cross-section position estimation process to determine the anatomical feature cross-section included in the section definition information. Get the position of. The basic functions are the same as in the second embodiment, but the differences from the second embodiment are as follows. In the third embodiment, the function of estimating not only the range of the input image but also the position of the anatomical feature cross section outside the range and calculating the coordinate value in the reference coordinate system Z ′ based on the estimation result Has been added. This function is a position acquisition unit that acquires position information indicating the position of an anatomical feature cross section outside the imaging range by estimating the position of the anatomical feature cross section outside the imaging range of the subject included in the image. It corresponds to an example. Thereby, it is possible to estimate the position of the anatomical feature cross section that exists outside the image range with respect to the part that is interrupted at the upper and lower ends in the body axis direction of the image. That is, even if there is a slice that is not sandwiched between anatomical feature sections within the range of the image, it is possible to associate the slice with coordinates of a reference coordinate system with higher accuracy. Only the difference between the added process and the second embodiment will be described below.

第1の実施形態、および、第2の実施形態の方法によれば、推定した複数の解剖学的特徴断面の間に存在するスライスについて、基準座標系Z’における座標値が計算できる。つまり、図9に示す画像A1のように、前記複数の解剖学的特徴断面の位置が入力画像(画像A1)の画像端の位置と対応する場合には、画像A1を構成する全てのスライスについて、基準座標系Z’における座標値を計算できる。しかし、入力画像の画像範囲が図9に示す画像A2、画像A3、および、画像A4であるような場合を考えると、入力画像を構成する一部または全てのスライスについて、基準座標系Z’における座標値を計算できない。その理由は、これらの状況で画像の範囲内に含まれる複数の解剖学的特徴断面のみを用いるとすると、画像A2、画像A3、および、画像A4を構成するスライスは、一部または全てのスライスが前記解剖学的特徴断面の間には存在しないためである。すなわち、ステップS104における座標算出部53の計算(式(1))で用いるパラメータ、zn_max、およびまたは、zn_minが取得できないため、当該スライスに関しては、基準座標系Z’における座標値を計算することができない。   According to the method of the first embodiment and the second embodiment, the coordinate values in the reference coordinate system Z ′ can be calculated for slices existing between the estimated plurality of anatomical feature cross sections. That is, when the positions of the plurality of anatomical feature cross sections correspond to the positions of the image edges of the input image (image A1) as in the image A1 shown in FIG. 9, all slices constituting the image A1 are used. The coordinate value in the reference coordinate system Z ′ can be calculated. However, when considering a case where the image range of the input image is the image A2, the image A3, and the image A4 shown in FIG. 9, with respect to some or all of the slices constituting the input image, the reference coordinate system Z ′ The coordinate value cannot be calculated. The reason is that if only a plurality of anatomical feature sections included in the range of the image are used in these situations, the slices constituting the image A2, the image A3, and the image A4 are partially or all slices. Is not present between the anatomical feature sections. That is, since the parameters, zn_max and / or zn_min used in the calculation (equation (1)) of the coordinate calculation unit 53 in step S104 cannot be acquired, the coordinate value in the reference coordinate system Z ′ can be calculated for the slice. Can not.

この課題を解決するため、本実施形態の区間同定部52は、ステップS203において、第2の実施形態と同様に入力された画像の範囲内における解剖学的特徴断面の位置を推定するとともに、さらに、該画像の範囲外における解剖学的特徴断面の位置を推定する。この入力画像の範囲外で解剖学的特徴断面を推定する場合においても、ステップS104における座標算出部53は、第2の実施形態に記載の計算方法を用いることで、入力画像を構成する各スライスについて基準座標系における座標値を計算できる。なお、入力された画像に含まれる断面が区間定義情報において端の断面(図3における頭頂部や足底部)に当たる場合には、それらの断面よりも外側の断面を推定する必要は無い。   In order to solve this problem, in step S203, the section identification unit 52 of the present embodiment estimates the position of the anatomical feature cross section within the range of the input image as in the second embodiment, and further The position of the anatomical feature cross section outside the range of the image is estimated. Even when the anatomical feature cross section is estimated outside the range of the input image, the coordinate calculation unit 53 in step S104 uses the calculation method described in the second embodiment, so that each slice constituting the input image The coordinate value in the reference coordinate system can be calculated. In addition, when the section included in the input image corresponds to the end section (the top of the head or the bottom of the foot in FIG. 3) in the section definition information, it is not necessary to estimate a section outside the sections.

入力された画像の範囲外における解剖学的特徴断面の推定方法としては、第2の実施形態に記載した位置合わせ技術に基づく方法と同様の方法を用いることができる。ただし、データセットの画像に紐付いている解剖学的特徴断面の位置を利用して、入力画像における解剖学的特徴断面の位置を計算する際に、その計算範囲を拡張する必要がある。すなわち、入力画像の撮像範囲のみで解剖学的特徴断面の位置を計算するのではなく、入力画像の撮像範囲外となる座標についても、当該断面の位置を計算する必要がある。また、この断面の位置の計算を実現するに当たっては、データベースからデータセットを選定する際に、ある条件を満たすデータセットのみを処理に利用するような制約を設ける必要がある。   As a method for estimating the anatomical feature cross section outside the range of the input image, a method similar to the method based on the alignment technique described in the second embodiment can be used. However, when calculating the position of the anatomical feature cross section in the input image using the position of the anatomical feature cross section associated with the image of the data set, it is necessary to extend the calculation range. That is, instead of calculating the position of the anatomical feature cross section only from the imaging range of the input image, it is necessary to calculate the position of the cross section for coordinates outside the imaging range of the input image. In order to realize the calculation of the position of the cross section, it is necessary to provide a constraint that only a data set satisfying a certain condition is used for processing when selecting a data set from the database.

前記の条件とは、入力画像との位置合わせを実施した後の状態で、入力画像とデータセットの画像の一部が共通しており、入力画像の範囲の外側の解剖学的特徴断面が当該データセットに紐付いていることを指す。   The above condition is the state after the alignment with the input image, the input image and a part of the image of the data set are common, and the anatomical feature cross section outside the range of the input image Refers to being linked to a data set.

ここで、前記条件を満たすデータセットには、次の2つのパターンが考えられる。まず1つ目のパターンは、当該データセットに紐付いている複数の解剖学的特徴断面が入力画像の範囲を含んでいる(挟むように存在している)場合である(パターン1)。続く2つ目のパターンは、入力画像の範囲の外側の解剖学的特徴断面に関して、上側か下側の断面のどちらか一方がデータセットに紐付いている場合である(パターン2)。   Here, the following two patterns are conceivable for the data set that satisfies the above conditions. The first pattern is a case where a plurality of anatomical feature sections linked to the data set include the range of the input image (exist so as to be sandwiched) (pattern 1). The following second pattern is a case where either the upper or lower cross section is associated with the data set with respect to the anatomical feature cross section outside the range of the input image (pattern 2).

以下では、入力された画像の範囲外における解剖学的特徴断面の推定方法の具体的な流れの例として、前記2つのパターンのデータセットを用いた場合の推定方法の例を示す。   Hereinafter, as an example of a specific flow of the estimation method of the anatomical feature cross section outside the range of the input image, an example of the estimation method when using the data patterns of the two patterns will be described.

(パターン1のデータセット(群)を利用する場合の推定方法)
まず、入力画像とデータベース上の画像の位置合わせ処理までは、第2の実施形態に記載した流れと同様に処理を行う。そして、位置合わせ処理の後に画像間の類似度で最大値を示すデータセットを選定する際に、前記パターン1となるデータセットのみから選定を行う。最後に、選定したデータセットの画像に紐付いている全ての解剖学的特徴断面の位置について、入力画像の範囲外を含めて、入力画像の座標系Zにおける断面の位置を推定する。ここでデータセットの選定については、類似度の最大値に限らず、類似度の高い順に所定の数を選定してもよい。なお、複数のデータセットを選定する場合においては、夫々のデータセットに紐付いている解剖学的特徴断面について、同一断面の座標値の平均(または最大・最小など)を計算することで、入力画像の座標系Zにおける断面の位置を推定してもよい。
(Estimation method when pattern 1 data set (group) is used)
First, the processing is performed in the same manner as the flow described in the second embodiment until the registration processing of the input image and the image on the database. Then, when selecting a data set that shows the maximum value of similarity between images after the alignment process, the selection is made only from the data set that becomes the pattern 1. Finally, the positions of the cross sections in the coordinate system Z of the input image are estimated for all the positions of the anatomical feature cross sections associated with the image of the selected data set, including those outside the range of the input image. Here, the selection of the data set is not limited to the maximum value of similarity, and a predetermined number may be selected in descending order of similarity. When multiple data sets are selected, the input image can be calculated by calculating the average (or maximum / minimum, etc.) of the coordinate values of the same section for the anatomical feature sections linked to each data set. The position of the cross section in the coordinate system Z may be estimated.

ここで、あるデータセットが前記パターン1の場合となるかは、次の方法で判定できる。まず、データセットに含まれる複数の解剖学的特徴断面の中で、最も上に位置する断面と、最も下に位置する断面の位置を同定する。そして、それらの断面の間の範囲に入力画像の画像範囲が収まっているかどうかを見ることで、前記のパターン1の場合となるかを判定できる。具体例として、図9に示す画像A3が入力データであり、画像A1、および画像A2がデータベースに含まれるデータセットの画像であるような状況を考える。ここでは、同図において、画像A1、A2、A3の位置合わせは完了していることを前提とする。   Here, whether or not a certain data set is the pattern 1 can be determined by the following method. First, among the plurality of anatomical feature cross sections included in the data set, the position of the uppermost cross section and the position of the lowermost cross section are identified. Then, whether or not the pattern 1 is the case can be determined by checking whether the image range of the input image is within the range between the cross sections. As a specific example, consider a situation in which an image A3 shown in FIG. 9 is input data, and images A1 and A2 are images of a data set included in a database. Here, in the figure, it is assumed that the alignment of the images A1, A2, and A3 has been completed.

まず入力画像A3とデータベースに含まれる画像A1について考えると、画像A1に含まれる解剖学的特徴断面は断面3、断面4、断面5、断面6である。さらに、これらの断面の中で最も上に位置する断面は断面3であり、最も下に位置する断面は断面6である。ここで、画像A3の範囲を見ると、断面3と断面6の間の範囲に、画像A3の範囲が含まれていることが分かる。すなわち、データベースに含まれる画像A1は入力画像A3の範囲外における解剖学的特徴断面の位置を推定するための条件を満たしており、かつ、前記パターン1の場合に合致すると判定できる。   First, considering the input image A3 and the image A1 included in the database, the anatomical feature cross sections included in the image A1 are the cross section 3, the cross section 4, the cross section 5, and the cross section 6. Further, among these cross sections, the uppermost cross section is the cross section 3, and the lowest cross section is the cross section 6. Here, when the range of the image A3 is seen, it can be seen that the range of the image A3 is included in the range between the cross section 3 and the cross section 6. That is, it can be determined that the image A1 included in the database satisfies the condition for estimating the position of the anatomical feature cross section outside the range of the input image A3, and matches the case of the pattern 1.

続いて、入力画像A3とデータベースに含まれる画像A2について考える。画像A2に含まれる解剖学的特徴断面は、断面4、断面5、断面6である。そして、これらの断面の中で最も上に位置する断面は断面4であり、最も下に位置する断面は断面6である。上記と同様にして画像A3の範囲を見ると、画像A3の範囲の一部は断面4と断面6の間の範囲に含まれていないことが分かる。つまり、データベースに含まれる画像A2は入力画像A3の範囲外における解剖学的特徴断面の位置を推定するための条件を満たしているが、前記パターン1の場合には合致しない(パターン2である)と判定できる。   Next, consider the input image A3 and the image A2 included in the database. The anatomical feature cross sections included in the image A2 are the cross section 4, the cross section 5, and the cross section 6. Among these cross sections, the uppermost cross section is the cross section 4, and the lowest cross section is the cross section 6. When the range of the image A3 is viewed in the same manner as described above, it can be seen that a part of the range of the image A3 is not included in the range between the cross section 4 and the cross section 6. That is, the image A2 included in the database satisfies the condition for estimating the position of the anatomical feature cross section outside the range of the input image A3, but does not match in the case of the pattern 1 (the pattern 2). Can be determined.

最後に、データベース上の画像に紐付いている解剖学的特徴断面の位置に基づいて、入力画像の範囲外を含めて、入力画像の座標系Zにおける断面の位置を推定する方法について、図10を用いて補足する。図10に示す例では、画像A3が入力データであり、画像A1がデータベース上の画像であるものとし、画像A1、A3の位置合わせは完了しているものとする。図10では、画像A1の最上位置を原点とした座標系ZRefと画像A3の最上位置を原点とした座標系ZTestが定義されている。今、画像A1と画像A3の位置合わせにより、これらの座標系で対応する位置を算出するためのずれ量Δz(=zTest−zRef)は―17である。さらにデータベース上の画像A1には、zRef=5、46、70の位置に断面3、断面4、断面5の特徴断面の情報が夫々紐付いている。ここで、断面3の位置(zRef=5)を座標系ZTestで考えると、zTest=zRef+Δzにより、zTest=5+(−17)=−12となる。断面4についても同様の計算が可能であり、断面4の位置は、zTest=29となる。今、画像A3の画像の範囲はzTest=[0,26]であることから、画像A3の範囲外における解剖学的特徴断面の位置が推定できていることが分かる。   Finally, FIG. 10 shows a method for estimating the position of the cross section in the coordinate system Z of the input image, including outside the range of the input image, based on the position of the anatomical feature cross section associated with the image on the database. Use to supplement. In the example shown in FIG. 10, it is assumed that the image A3 is input data, the image A1 is an image on the database, and the alignment of the images A1 and A3 is completed. In FIG. 10, a coordinate system ZRef whose origin is the highest position of the image A1 and a coordinate system ZTest whose origin is the highest position of the image A3 are defined. Now, by aligning the images A1 and A3, the shift amount Δz (= zTest−zRef) for calculating the corresponding positions in these coordinate systems is −17. Further, in the image A1 on the database, information on the characteristic cross sections of the cross section 3, the cross section 4, and the cross section 5 is associated with zRef = 5, 46, and 70, respectively. Here, when the position of the cross section 3 (zRef = 5) is considered in the coordinate system ZTest, zTest = 5 + (− 17) = − 12 by zTest = zRef + Δz. The same calculation is possible for the cross section 4, and the position of the cross section 4 is zTest = 29. Now, since the image range of the image A3 is zTest = [0, 26], it can be seen that the position of the anatomical feature cross section outside the range of the image A3 can be estimated.

なお、上記の推定方法はある1つの例を示したものであり、別の方法によって画像の範囲外における解剖学的特徴断面の位置の推定を行っても構わない。例えば、入力された画像の範囲外における解剖学的特徴断面の推定方法の別の方法として、下記に示すような、データベース上のある2つ以上のデータセットを組合わせて推定処理を行う方法も考えられる。   Note that the above estimation method shows one example, and the position of the anatomical feature cross section outside the image range may be estimated by another method. For example, as another method of estimating an anatomical feature cross section outside the range of an input image, there is a method of performing estimation processing by combining two or more data sets on a database as shown below. Conceivable.

(パターン2のデータセット群を利用する場合の推定方法)
前記パターン1を満たすデータセットを利用した推定方法では、入力画像の範囲の外側の解剖学的特徴断面について、上側と下側の両方の断面を持つデータセットを利用する場合の例を示した。しかし、2つ以上のデータセットを組合わせて利用する場合には、前記パターン2となる複数のデータセットを含むデータベースを利用すれば、入力画像の範囲外における解剖学的特徴断面の位置を推定できる。
(Estimation method when pattern 2 data set group is used)
In the estimation method using the data set satisfying the pattern 1, an example in which a data set having both upper and lower cross sections is used for the anatomical feature cross section outside the range of the input image is shown. However, when two or more data sets are used in combination, the position of the anatomical feature cross-section outside the range of the input image can be estimated by using a database including a plurality of data sets to be the pattern 2. it can.

前記パターン2となるデータセット群を利用した推定方法においても、入力画像とデータベース上の画像の位置合わせ処理までは第2の実施形態に記載した流れと同様に処理を行う。しかし、位置合わせ処理の後に画像間の類似度に基づいてデータセットを選定する際に、前記パターン2となるデータセット群の中から、複数のデータセットを選定する点に相違点がある。パターン2のデータセット群を利用した推定では、この複数のデータセットの選定は、入力画像の範囲の外側の解剖学的特徴断面に関して、当該範囲の上側と下側の夫々について、少なくとも1つのデータセットが含まれるように選定を行う。最後に、選定した複数のデータセットの画像に紐付いている全ての解剖学的特徴断面の位置に基づいて、入力画像の範囲外を含めて、入力画像の座標系Zにおける断面の位置を推定する。   Also in the estimation method using the data set group to be the pattern 2, the processing is performed in the same manner as the flow described in the second embodiment until the registration processing of the input image and the image on the database. However, there is a difference in selecting a plurality of data sets from the data set group to be the pattern 2 when selecting a data set based on the similarity between images after the alignment process. In the estimation using the data set group of pattern 2, the selection of the plurality of data sets is performed with respect to the anatomical feature cross section outside the range of the input image, at least one data for each of the upper side and the lower side of the range. Select so that the set is included. Finally, based on the positions of all the anatomical feature cross sections associated with the selected images of the plurality of data sets, the position of the cross section in the coordinate system Z of the input image is estimated including outside the range of the input image. .

なお、入力画像の範囲外での解剖学的特徴断面の位置を計算する際に、上側または下側の計算では、夫々複数のデータセットを用いてもよい。具体的には、複数のデータセットに紐付いている解剖学的特徴断面を用いて推定処理を行う際に、データセット間で同一断面の座標値の平均(または最大・最小など)を用いることで、入力画像の座標系Zにおける断面の位置を複数のデータセットから推定できる。   When calculating the position of the anatomical feature cross section outside the range of the input image, a plurality of data sets may be used in the upper or lower calculation. Specifically, when performing an estimation process using anatomical feature sections associated with multiple data sets, the average (or maximum / minimum, etc.) of the coordinate values of the same section between the data sets is used. The position of the cross section in the coordinate system Z of the input image can be estimated from a plurality of data sets.

具体例として、図9に示す画像A3が入力データであり、画像A2、および、画像A4がデータベースに含まれるデータセットの画像であるような状況を考える。ここでは、同図において、画像A2、A3、A4の位置合わせは完了していることを前提とする。   As a specific example, consider a situation in which an image A3 shown in FIG. 9 is input data, and an image A2 and an image A4 are images of a data set included in a database. Here, in the figure, it is assumed that the alignment of the images A2, A3, and A4 has been completed.

入力画像A3と画像A2について考えると、画像A2に含まれる解剖学的特徴断面は断面4、断面5、断面6である。ここで画像A3の範囲を見ると、断面4は、画像A3の範囲の外側であり、かつ、下側の解剖学的特徴断面であることが分かる。同様に、入力画像A3と画像A4について考えると、画像A4に含まれる解剖学的特徴断面は断面2と断面3である。そして、断面3は画像A3の範囲の外側であり、かつ、上側の解剖学的特徴断面である。すなわち、画像A2と画像A4は画像A3の範囲外における解剖学的特徴断面の位置を推定するための条件を満たしており、かつ、前記パターン2の場合に合致する。そして、前述のようにこれらのデータセット(画像A2と画像A4)を組合わせて推定処理を行うことによって、入力画像の範囲の外側の解剖学的特徴断面に関して、上側と下側の両方の断面位置を推定できる。すなわち、画像A3の範囲外の上側については、画像A4の解剖学的特徴断面の情報(断面3、断面2)を用いることで、当該解剖学的特徴断面の位置が推定できる。さらに、画像A3の範囲外の下側については、画像A2の解剖学的特徴断面の情報(断面4、断面5、断面6)を用いることで、当該解剖学的特徴断面の位置が推定できる。   Considering the input image A3 and the image A2, the anatomical feature cross sections included in the image A2 are the cross section 4, the cross section 5, and the cross section 6. Looking at the range of the image A3, it can be seen that the cross section 4 is outside the range of the image A3 and is a lower anatomical feature cross section. Similarly, considering the input image A3 and the image A4, the anatomical feature cross sections included in the image A4 are the cross section 2 and the cross section 3. The section 3 is outside the range of the image A3 and is an upper anatomical feature section. That is, the image A2 and the image A4 satisfy the condition for estimating the position of the anatomical feature cross section outside the range of the image A3, and match the case of the pattern 2. Then, by performing estimation processing by combining these data sets (image A2 and image A4) as described above, both the upper and lower cross sections with respect to the anatomical feature cross section outside the range of the input image. The position can be estimated. That is, for the upper side outside the range of the image A3, the position of the anatomical feature cross section can be estimated by using information on the anatomical feature cross section (the cross section 3 and the cross section 2) of the image A4. Further, for the lower side outside the range of the image A3, the position of the anatomical feature cross section can be estimated by using the information of the anatomical feature cross section (the cross section 4, the cross section 5, and the cross section 6) of the image A2.

以上の処理によって、基準座標系Z’における座標値を計算するために必要な入力画像の範囲外における解剖学的特徴断面の情報を取得できる。   Through the above processing, information on the anatomical feature cross section outside the range of the input image necessary for calculating the coordinate value in the reference coordinate system Z ′ can be acquired.

ここまでに示した推定方法によって画像の範囲外における解剖学的特徴断面の位置を得た場合においても、座標算出部53は、ステップS104において第2の実施形態に記載の方法で、基準座標系Z’における座標値を計算できる。したがって、本実施形態の方法によれば、入力画像を構成する全てのスライスについて、基準座標系Z’における座標値を計算できる。   Even when the position of the anatomical feature cross section outside the range of the image is obtained by the estimation method shown so far, the coordinate calculation unit 53 uses the reference coordinate system in the method described in the second embodiment in step S104. A coordinate value in Z ′ can be calculated. Therefore, according to the method of the present embodiment, the coordinate values in the reference coordinate system Z ′ can be calculated for all slices constituting the input image.

本実施形態によれば、画像の体軸方向の上下端で途切れている部位に関して画像範囲外に存在する解剖学的特徴断面の位置を推定することができる。すなわち、画像の範囲内で解剖学的特徴断面に挟まれていないスライスがあるような場合であっても、より高精度な基準座標系の座標との対応付けが可能となる。   According to the present embodiment, it is possible to estimate the position of the anatomical feature cross section that exists outside the image range with respect to the part that is interrupted at the upper and lower ends in the body axis direction of the image. That is, even when there is a slice that is not sandwiched between anatomical feature sections within the range of the image, it is possible to associate with the coordinates of the reference coordinate system with higher accuracy.

<第4の実施形態>
第1の実施形態に示した複数の3次元画像間のスライスの対応付け方法は、各画像のスライス単位で基準座標系における座標値を計算し、それらのスライスを対応付ける方法である。この方法では、1つのスライスに対して、1つの座標値しか計算できないため、同じスライスであるにも関わらず、複数の座標の割り当てが必要になる場合には適切な対応付けが行えないという課題がある。この課題の具体的な例としては、滑りの関係にある骨と肺などの解剖構造が挙げられる。ここでまず、区間定義情報の解剖学的特徴断面に肺の上端と下端が含まれている場合を考える。第1の実施形態に記載の技術によれば、それらの解剖情報を表す断面(スライス)に関しては、異なる3次元画像であっても基準座標系で略同一の座標値が与えられることが期待できる。しかし、肺下端の上下運動について考えると、椎体は肺の動きに完全には追従しない(滑りが生じる)ため、ある椎体の位置から相対的な位置関係を見ると、肺の下端のスライスの相対位置は撮像時の患者の呼吸量によってばらついてしまうことがある。したがって、肺の上端と下端で正規化された空間において同じ座標値を示すスライスは、肺という解剖構造の観点では略同一の解剖学的な位置になるが、骨の観点からは、異なる位置になる可能性がある。すなわち、例えばユーザが骨に注目しているにも関わらず、前記区間定義情報の解剖学的特徴断面が肺に関する解剖情報にのみ基づいている場合、異なる画像間のスライスの対応付けが不適切になる可能性が高い。
<Fourth Embodiment>
The method of associating slices between a plurality of three-dimensional images shown in the first embodiment is a method of calculating coordinate values in the reference coordinate system for each slice of each image and associating those slices. In this method, since only one coordinate value can be calculated for one slice, it is not possible to perform an appropriate association when it is necessary to assign a plurality of coordinates despite the same slice. There is. Specific examples of this problem include anatomical structures such as bones and lungs that are in a sliding relationship. First, consider a case where the upper and lower ends of the lung are included in the anatomical feature section of the section definition information. According to the technique described in the first embodiment, with respect to a cross section (slice) representing the anatomical information, it can be expected that substantially the same coordinate value is given in the reference coordinate system even for different three-dimensional images. . However, considering the vertical movement of the lower end of the lung, the vertebral body does not completely follow the movement of the lung (slip occurs), so when looking at the relative position from the position of a certain vertebral body, the slice at the lower end of the lung The relative position of may vary depending on the patient's respiration rate at the time of imaging. Therefore, slices that show the same coordinate value in the space normalized at the upper and lower ends of the lungs have approximately the same anatomical position in terms of the anatomical structure of the lungs, but in different positions from the bone perspective. There is a possibility. That is, for example, when the anatomical feature cross section of the section definition information is based only on the anatomical information about the lung even though the user is paying attention to the bone, the association of slices between different images is inappropriate. Is likely to be.

第4の実施形態では、異なる部位に対応した複数の区間定義情報を予め用意し、ユーザが注目している部位に適した区間定義情報を選択的に利用して、空間的な正規化、および、スライスの対応付けを行う方法の例を説明する。本実施形態によれば、1つのスライスに対して複数の対応スライスを計算し、ユーザが注目する部位に応じて前記対応スライスを切り替えることができるため、より高度な対応付けができるという効果がある。   In the fourth embodiment, a plurality of section definition information corresponding to different parts is prepared in advance, the section definition information suitable for the part that the user is paying attention to is selectively used, spatial normalization, and An example of a method for associating slices will be described. According to the present embodiment, a plurality of corresponding slices can be calculated for one slice, and the corresponding slices can be switched according to the part that the user pays attention to, so that there is an effect that higher-level association can be performed. .

第4の実施形態に関わる画像処理装置の構成は、第1の実施形態と同様であるが、区間定義情報取得部50と、位置合わせ部54に次の機能が追加されている。   The configuration of the image processing apparatus according to the fourth embodiment is the same as that of the first embodiment, but the following functions are added to the section definition information acquisition unit 50 and the alignment unit 54.

第4の実施形態において、区間定義情報取得部50は、予め定義された複数の区間定義情報を読み込む。さらに、位置合わせ部54は、ユーザが注目している部位に基づいて、選択的に、対応スライスを切り替える機能を備える。前記複数の区間定義情報は、滑りの関係にある骨と肺などの解剖構造に基づいた情報であることが望ましい。以下の例では、骨に関する解剖構造に基づいた区間定義情報(骨に関する区間定義情報)と、肺に関する解剖構造に基づいた区間定義情報(肺に関する区間定義情報)とを用いる場合を例として説明を行う。   In the fourth embodiment, the section definition information acquisition unit 50 reads a plurality of predefined section definition information. Further, the alignment unit 54 has a function of selectively switching the corresponding slices based on the part that the user is paying attention to. The plurality of section definition information is preferably information based on anatomical structures such as bones and lungs in a slipping relationship. In the following example, an example is described in which section definition information based on an anatomical structure related to bone (section definition information related to a bone) and section definition information based on an anatomical structure related to a lung (section definition information related to a lung) are used. Do.

第4の実施形態における画像処理装置10の処理手順は、図2に示した第1実施形態における画像処理装置10の処理手順と同様である。ただし、複数の区間定義情報を考慮することに関わる処理が夫々のステップにおいて追加・変更されている。以下、追加された処理と第1実施形態との相違部分についてのみ説明する。   The processing procedure of the image processing apparatus 10 in the fourth embodiment is the same as the processing procedure of the image processing apparatus 10 in the first embodiment shown in FIG. However, processing related to considering a plurality of section definition information is added / changed in each step. Only the difference between the added process and the first embodiment will be described below.

(ステップS101)
ステップS101において、ユーザが操作部35を介して画像処理の開始を指示すると、区間定義情報取得部50は、予め定義された2つ以上の区間定義情報をデータベース22から取得し、RAM33に格納する。例えば、本実施形態の例においては、骨に関する区間定義情報と、肺に関する区間定義情報を夫々取得する。すなわち、夫々が異なる解剖構造に基づく複数の区間定義情報を取得する。
(Step S101)
In step S <b> 101, when the user instructs the start of image processing via the operation unit 35, the section definition information acquisition unit 50 acquires two or more predefined section definition information from the database 22 and stores them in the RAM 33. . For example, in the example of the present embodiment, section definition information about bones and section definition information about lungs are acquired. That is, a plurality of section definition information based on different anatomical structures is acquired.

続くステップS102〜S104についても、第1の実施形態と同様の処理を行う。ただし、ステップS103とS104については、上記のステップS101で取得した複数の区間定義情報の夫々について処理を行う。   For the subsequent steps S102 to S104, the same processing as in the first embodiment is performed. However, for steps S103 and S104, processing is performed for each of the plurality of section definition information acquired in step S101.

(ステップS103)
ステップS103において、区間同定部52は、各画像の各スライスについて、夫々の区間定義情報に基づく従属区間を同定する。例えば、本実施形態の例においては、骨に関する区間定義情報に基づいて骨に関する従属区間を同定し、さらに、肺に関する区間定義情報に基づいて肺に関する従属区間を同定する。区間定義情報が複数あることを除けば、本処理の内容は、第1の実施形態と同様である。
(Step S103)
In step S103, the section identifying unit 52 identifies the dependent section based on the respective section definition information for each slice of each image. For example, in the example of the present embodiment, the dependent section related to the bone is identified based on the section definition information related to the bone, and the dependent section related to the lung is further identified based on the section definition information related to the lung. The content of this process is the same as that of the first embodiment except that there are a plurality of section definition information.

(ステップS104)
ステップS104において、座標算出部53は、ステップS103で同定した各スライスの複数の従属区間の情報に基づいて、夫々、基準座標系Z’での座標値を計算する。例えば、本実施形態の例においては、骨に着目した基準座標系Z1’の座標と、肺に着目した基準座標系Z2’の座標とを、各画像の各スライスについて算出する。区間定義情報が複数あることを除けば、本処理の内容は、第1の実施形態と同様である。
(Step S104)
In step S104, the coordinate calculation unit 53 calculates coordinate values in the reference coordinate system Z ′ based on the information on the plurality of dependent sections of each slice identified in step S103. For example, in the example of the present embodiment, the coordinates of the reference coordinate system Z1 ′ focused on the bone and the coordinates of the reference coordinate system Z2 ′ focused on the lung are calculated for each slice of each image. The content of this process is the same as that of the first embodiment except that there are a plurality of section definition information.

(ステップS105)
ステップS105において、位置合わせ部54は、ある画像の注目スライスに関して、注目部位ごとに定義される他の画像の対応スライス(注目部位別対応スライス)を同定する。例えば、ひとつの注目スライスに対して、肺に注目した対応スライスと、骨に注目した対応スライスの夫々を同定する。これは、複数の区間定義情報の夫々について、複数の画像で略同一の位置を表す夫々のスライス画像を対応付ける対応付け手段の一例に相当する。そして、表示処理部55は、対応スライスを表示する処理を行う際に、ユーザが注目している部位の情報に基づいて、選択的に、表示する対応スライスを切り替える。すなわち、ユーザが肺に注目しているという情報を有している場合は、注目スライスを表示すると共に、肺に注目した対応スライスを対比可能な形態で表示する。一方、骨に注目しているという情報を有している場合は、注目スライスを表示すると共に、骨に注目した対応スライスを対比可能な形態で表示する。これは、選択された区間定義情報に関する情報に基づいて、対応付けられた夫々のスライス画像を対比可能な形態で表示手段に表示させる表示制御手段の一例に相当する。
(Step S105)
In step S105, the alignment unit 54 identifies a corresponding slice (corresponding slice for each target region) of another image defined for each target region with respect to the target slice of a certain image. For example, for each target slice, a corresponding slice focused on the lung and a corresponding slice focused on the bone are identified. This corresponds to an example of an association unit that associates each slice image representing a substantially same position in a plurality of images with respect to each of the plurality of section definition information. Then, when performing the process of displaying the corresponding slice, the display processing unit 55 selectively switches the corresponding slice to be displayed based on the information of the part that the user is paying attention to. That is, when there is information that the user is paying attention to the lung, the attention slice is displayed and the corresponding slice paying attention to the lung is displayed in a form that can be compared. On the other hand, when information indicating that attention is paid to the bone is included, the attention slice is displayed and the corresponding slice attention focused on the bone is displayed in a comparable form. This corresponds to an example of a display control unit that displays the associated slice images on the display unit in a form that can be compared based on information about the selected section definition information.

この注目部位の選択は、操作部35を介してユーザが注目部位を指定する方法で実現できる。また、表示部36に表示されている画像の表示条件などに基づいて自動的に選択してもよい。すなわち、画像の表示パラメータが骨条件(骨の観察に適したパラメータ)ならばユーザが骨に注目していると判定し、表示パラメータが肺野条件(肺の観察に適したパラメータ)ならば肺に注目していると判定するようにできる。具体的には、ステップS102において表示部36に表示された画像(画像I1)の表示条件、例えば、濃度値変換のためのウィンドウパラメータ(例えば、ウィンドウレベル(WL)とウィンドウ幅(WW))などの設定値に基づいて、注目部位を推定する。これにより、自動的に注目部位を選択ができる。これは、ユーザが注目する領域に応じて、複数の区間定義情報に関する情報の中から1つの前記情報を選択する選択手段の一例に相当する。   This attention site selection can be realized by a method in which the user designates the attention region via the operation unit 35. Alternatively, the selection may be made automatically based on the display conditions of the image displayed on the display unit 36. That is, if the image display parameter is a bone condition (a parameter suitable for bone observation), it is determined that the user is paying attention to the bone. If the display parameter is a lung field condition (a parameter suitable for lung observation), the lung You can determine that you are paying attention to. Specifically, display conditions of the image (image I1) displayed on the display unit 36 in step S102, for example, window parameters for density value conversion (for example, window level (WL) and window width (WW)), etc. Based on the set value, the site of interest is estimated. Thereby, an attention site can be selected automatically. This corresponds to an example of a selection unit that selects one piece of information from a plurality of pieces of information related to the section definition information in accordance with a region that the user pays attention to.

医師がCT画像の画像診断を行う際には、医師は注目する被検体の部位によってウィンドウレベル(WL)やウィンドウ幅(WW)を変更することで、医師が注目する被検体の部位に応じた画像の表示条件を設定変更(表示画像の濃度値を変換)している。より具体的には、例えば、医師が、骨の画像診断を行う際には、ウィンドウレベル(WL)は350〜500[H.U.]位の値に設定され、また、ウィンドウ幅(WW)は1500〜2500[H.U.]位の値に設定される。被検体の部位に応じて画像の表示条件を設定変更することにより、医師が注目している被検体の部位(例えば、骨)が見やすい濃度分布を持った表示画像として表示される。したがって、位置合わせ処理の対象となる画像(画像I1から画像IN)が表示されている表示部36の画像の表示条件(例えば、ウィンドウレベル(WL)とウィンドウ幅(WW))の設定値から、ユーザである医師が注目する部位(臓器)を推定できる。なお、表示パラメータのプリセット値が設定されていてユーザがそれを選択するUIが提供されている場合は、プリセット値毎に予め注目部位を割り当てておくことができる。また、ユーザが任意の表示パラメータを設定可能なUIが提供されている場合も考えられる。この場合は、例えば、夫々の部位の観察に適切な表示パラメータと、ユーザが設定した表示パラメータとの一致度に基づいて、いずれの部位に最も適した表示パラメータであるかを判定するようにできる。例えば、夫々の部位の観察に適切なウィンドウのレンジと、ユーザが設定したウィンドウのレンジとの間のオーバーラップ率を夫々で求め、その比較によって判定を行う。あるいは、夫々の部位の観察に適切であると予め定めたウィンドウレベルと、ユーザが設定したウィンドウレベルとの間の距離に基づいて判定するようにしてもよい。位置合わせ部54は、この推定結果に基づいて、予め用意された複数の区間定義情報から、ユーザが注目している部位に関する解剖学的特徴断面を含む区間定義情報を選択し、複数の画像間で対応するスライスを切り替えることができる。   When a doctor performs an image diagnosis of a CT image, the doctor changes the window level (WL) and window width (WW) according to the part of the subject to which attention is paid, so that the doctor responds to the part of the subject to which the doctor pays attention. The display condition of the image is changed (the density value of the display image is converted). More specifically, for example, when a doctor performs a bone image diagnosis, the window level (WL) is 350 to 500 [H. U. ] And the window width (WW) is 1500-2500 [H. U. ] Value is set. By changing the display condition of the image according to the part of the subject, the part of the subject (for example, bone) that the doctor is paying attention to is displayed as a display image having a density distribution that is easy to see. Therefore, from the set values of the display conditions (for example, the window level (WL) and the window width (WW)) of the display unit 36 on which the image (image I1 to image IN) to be subjected to the alignment process is displayed, It is possible to estimate a part (organ) that is noticed by a doctor who is a user. Note that when a preset value of a display parameter is set and a UI for the user to select it is provided, a site of interest can be assigned in advance for each preset value. In addition, there may be a case where a UI that allows the user to set arbitrary display parameters is provided. In this case, for example, based on the degree of coincidence between the display parameter appropriate for observation of each part and the display parameter set by the user, it is possible to determine which part is the most suitable display parameter. . For example, the overlap ratio between the window range suitable for observing each part and the window range set by the user is obtained, and the determination is made by comparison. Or you may make it determine based on the distance between the window level predetermined as suitable for observation of each site | part, and the window level which the user set. Based on the estimation result, the alignment unit 54 selects segment definition information including an anatomical feature cross section related to the region that the user is paying attention from among a plurality of segment definition information prepared in advance. To switch the corresponding slice.

なお、第1の実施形態の変形例1、および、変形例2に示したように、あるスライスにおける基準座標系での座標値や対応スライスの情報は、事前に計算しておいた結果を当該スライスの付帯情報として保存し、その情報を読み込む手順にしてもよい。つまり、ステップS103〜S105の処理の一部を予め実施しておくことによって、画像を表示する際の対応スライスの同定の計算を省くことができるため、対応スライスの表示処理の高速化が期待できる。   As shown in Modification 1 and Modification 2 of the first embodiment, the coordinate values in the reference coordinate system and the information of the corresponding slice in a certain slice are the results calculated in advance. The procedure may be such that the information is stored as supplementary information of the slice and the information is read. In other words, by performing in advance a part of the processing of steps S103 to S105, it is possible to omit the calculation of identification of the corresponding slice when displaying the image, so that it is possible to speed up the display processing of the corresponding slice. .

さらに、上記の例では、2つ以上の区間定義情報の全てについて、夫々の基準座標系での座標値と、対応スライスを計算する方法を示したが、予め設定した情報についてのみ、前記の計算を行ってもよい。例えば、プリセットとしては3つ以上の区間定義情報を準備しておいた場合でも、そのうちの使用頻度の高い情報のみ(肺野条件や縦隔条件など)を計算しておく手順でもよい。   Furthermore, in the above example, the coordinate value in each reference coordinate system and the method of calculating the corresponding slice are shown for all of the two or more section definition information. However, the above calculation is performed only for preset information. May be performed. For example, even when three or more section definition information is prepared as a preset, only the frequently used information (lung field condition, mediastinal condition, etc.) may be calculated.

なお、注目部位の選択・判定処理を行わずに、全ての対応スライスを並べて表示するようにしてもよい。例えば、本実施形態の例においては、ある画像の注目スライスに対して、骨に注目した対応スライスと肺に注目した対応スライスの両方を並べて表示するようにしてもよい。このとき、複数の対応スライスが略同一である(対応スライス間のz方向の距離が所定位置以内である)場合には、いずれか一方の対応スライスのみを表示するようにしてもよい。また、3つ以上の注目部位に関する区間定義情報がある場合に、複数の注目部位を選択して夫々の対応スライスを表示するようにしてもよい。例えば、表示パラメータのプリセット値毎に予め複数の注目部位を割り当てておくことができる。あるいは、表示パラメータの一致度が上位の部位から所定の個数を注目部位として選ぶようにできる。あるいは、所定の条件(例えば、表示パラメータの一致度が閾値以上等)を満たす全ての部位を選ぶようにしてもよい。   It should be noted that all the corresponding slices may be displayed side by side without performing selection / determination processing of the region of interest. For example, in the example of the present embodiment, the corresponding slice focused on the bone and the corresponding slice focused on the lung may be displayed side by side with respect to the focused slice of an image. At this time, if a plurality of corresponding slices are substantially the same (the distance in the z direction between the corresponding slices is within a predetermined position), only one of the corresponding slices may be displayed. In addition, when there is section definition information regarding three or more attention parts, a plurality of attention parts may be selected and the corresponding slices may be displayed. For example, a plurality of regions of interest can be assigned in advance for each display parameter preset value. Alternatively, a predetermined number can be selected as a site of interest from sites having higher matching degrees of display parameters. Or you may make it select all the site | parts which satisfy | fill predetermined conditions (For example, the matching degree of a display parameter is more than a threshold value etc.).

また、夫々の注目部位に応じた対応スライスに基づいて、注目部位が同定されていない時の対応スライス(デフォルト対応スライス)を算出し、注目部位が同定されなかった場合はこれを表示するようにしてもよい。例えば、夫々の注目部位に応じた対応スライスの中間位置にあるスライスを、デフォルト対応スライスとして表示してもよい。あるいは、いずれかの部位をデフォルトの部位と予め定義しておいて、当該部位に応じた対応スライスを表示するようにしてもよい。また、注目部位が同定されていない場合は、全ての対応スライスを表示するようしてもよい。   In addition, based on the corresponding slice corresponding to each target region, a corresponding slice when the target region is not identified (default corresponding slice) is calculated, and this is displayed when the target region is not identified. May be. For example, a slice at an intermediate position of the corresponding slice corresponding to each target site may be displayed as a default corresponding slice. Alternatively, any part may be defined as a default part in advance, and a corresponding slice corresponding to the part may be displayed. Moreover, when the site of interest has not been identified, all corresponding slices may be displayed.

本実施形態によれば、ユーザが注目する部位に応じて、複数の画像間で対応するスライスを切り替えて表示できるため、より高度な対応付けができるという効果がある。   According to the present embodiment, it is possible to switch and display corresponding slices between a plurality of images in accordance with a part to which a user pays attention.

(変形例)
第4の実施形態では、複数の注目部位に対応する区間定義情報の夫々に対して、各スライスの従属区間を求め、それによって定義される基準座標を介して画像間の対応スライスを同定していた。しかし、注目部位に応じて異なるスライスを対応づける対応スライスの同定方法は、第1の実施例に記載の方法に限定されるものではなく、その他の代替手段によって計算してもよい。例えば、複数の3次元画像間の変形位置合わせ(画像間の変位場の推定)を行い、その結果に基づいて、注目部位に応じて異なる対応スライスを設定する構成であってもよい。例えば、ある臓器(例えば骨や肺)に注目した場合に、注目スライスの当該臓器領域における変位場に基づいて、当該変位場を最も近似するスライスを、当該臓器に注目した対応スライスとして定義して同定する方法を用いてもよい。これによっても、注目部位ごとに異なる対応スライスを求めることができる。
(Modification)
In the fourth embodiment, a dependent section of each slice is obtained for each piece of section definition information corresponding to a plurality of regions of interest, and corresponding slices between images are identified through reference coordinates defined thereby. It was. However, the corresponding slice identification method for associating different slices according to the region of interest is not limited to the method described in the first embodiment, and may be calculated by other alternative means. For example, a configuration may be used in which deformation position alignment between a plurality of three-dimensional images (estimation of a displacement field between images) is performed, and different corresponding slices are set depending on the region of interest based on the result. For example, when attention is paid to a certain organ (for example, bone or lung), a slice that most closely approximates the displacement field is defined as a corresponding slice that focuses on the organ based on the displacement field in the organ region of the attention slice. An identifying method may be used. This also makes it possible to obtain different corresponding slices for each region of interest.

<その他の実施形態>
上述した複数の変形例のうち少なくとも二つを組み合わせることも可能である。
<Other embodiments>
It is also possible to combine at least two of the plurality of modifications described above.

また、開示の技術は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インターフェイス機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、1つの機器からなる装置に適用しても良い。   Further, the disclosed technology can take an embodiment as a system, apparatus, method, program, recording medium (storage medium), or the like. Specifically, the present invention may be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, an imaging device, a web application, etc.), or may be applied to a device composed of one device. good.

また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。すなわち、前述した実施形態の機能を実現するソフトウェアのプログラムコード(コンピュータプログラム)を記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。   Needless to say, the object of the present invention can be achieved as follows. That is, a recording medium (or storage medium) that records a program code (computer program) of software that implements the functions of the above-described embodiments is supplied to the system or apparatus. Needless to say, such a storage medium is a computer-readable storage medium. Then, the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.

10 画像処理装置
21 ネットワーク
22 データベース
31 通信IF
32 ROM
33 RAM
34 記憶部
35 操作部
36 表示部
37 制御部
50 区間定義情報取得部
51 画像取得部
52 区間同定部
53 座標算出部
54 位置合わせ部
55 表示処理部
10 Image processing device 21 Network 22 Database 31 Communication IF
32 ROM
33 RAM
34 storage unit 35 operation unit 36 display unit 37 control unit 50 section definition information acquisition unit 51 image acquisition unit 52 section identification unit 53 coordinate calculation unit 54 alignment unit 55 display processing unit

Claims (15)

人体を体軸方向に沿って区分した複数の区間を定義する区間定義情報を取得する情報取得手段と、
被検体の断面を示す複数のスライス画像を含む3次元の画像を取得する画像取得手段と、
前記区間定義情報に基づいて、前記画像に含まれる少なくとも1つの前記スライス画像に対応する前記断面が属する前記区間を特定する区間特定手段と、
前記区間ごとに座標値が定義された基準座標系と前記特定された区間とに基づいて、前記スライス画像の座標値を算出する座標値算出手段と、
を備えることを特徴とする画像処理装置。
Information acquisition means for acquiring section definition information defining a plurality of sections obtained by dividing the human body along the body axis direction;
Image acquisition means for acquiring a three-dimensional image including a plurality of slice images showing a cross section of the subject;
Based on the section definition information, section specifying means for specifying the section to which the section corresponding to at least one slice image included in the image belongs;
Coordinate value calculation means for calculating a coordinate value of the slice image based on a reference coordinate system in which coordinate values are defined for each section and the specified section;
An image processing apparatus comprising:
解剖構造の境界が描出された解剖学的特徴断面の前記画像における位置を示す位置情報を取得する位置取得手段を更に備え、
前記区間特定手段は、前記取得された前記解剖学的特徴断面の前記位置情報に基づいて、前記スライス画像に対応する前記断面が属する前記区間を特定することを特徴とする請求項1に記載の画像処理装置。
Further comprising position acquisition means for acquiring position information indicating a position in the image of the anatomical feature section in which the boundary of the anatomical structure is depicted;
2. The section according to claim 1, wherein the section specifying unit specifies the section to which the section corresponding to the slice image belongs, based on the position information of the acquired anatomical feature section. Image processing device.
前記解剖学的特徴断面は、前記解剖構造の境界における解剖学的特徴が描出された断面であることを特徴とする請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the anatomical feature section is a section in which an anatomical feature is depicted at a boundary of the anatomical structure. 前記区間の境界を示す前記被検体の解剖学的特徴断面の位置を示す位置情報を取得する位置取得手段を更に備え、
前記座標値算出手段は、前記取得された位置情報に基づいて前記座標値を算出することを特徴とする請求項1に記載の画像処理装置。
Further comprising position acquisition means for acquiring position information indicating the position of the anatomical feature cross section of the subject indicating the boundary of the section;
The image processing apparatus according to claim 1, wherein the coordinate value calculation unit calculates the coordinate value based on the acquired position information.
前記位置取得手段は、前記画像に含まれる前記被検体の撮像範囲外における前記解剖学的特徴断面の位置を推定することにより、該撮像範囲外における前記解剖学的特徴断面の位置を示す前記位置情報を取得することを特徴とする請求項4に記載の画像処理装置。   The position acquisition means estimates the position of the anatomical feature cross section outside the imaging range of the subject included in the image, thereby indicating the position of the anatomical feature cross section outside the imaging range The image processing apparatus according to claim 4, wherein information is acquired. 前記取得された画像と、前記区間に関する情報が対応付けられたスライス画像を含む3次元の参照画像との位置合わせを行う位置合わせ手段を更に備え、
前記区間特定手段は、前記位置合わせされた前記参照画像に含まれる前記スライス画像に対応付けられた前記区間に関する情報に基づいて、前記画像に含まれる前記スライス画像に対応する前記断面が属する前記区間を特定することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
A positioning unit that performs positioning between the acquired image and a three-dimensional reference image including a slice image in which information on the section is associated;
The section specifying means includes the section to which the cross section corresponding to the slice image included in the image belongs based on information on the section associated with the slice image included in the aligned reference image. The image processing apparatus according to claim 1, wherein the image processing apparatus is specified.
前記画像取得手段は、複数の前記画像を取得し、
前記取得された複数の画像に含まれる、前記基準座標系で略同一の前記座標値を持つ夫々の前記スライス画像を対応付ける対応付け手段を更に備えることを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
The image acquisition means acquires a plurality of the images,
7. The image processing apparatus according to claim 1, further comprising an association unit that associates each of the slice images having the substantially same coordinate value in the reference coordinate system included in the acquired plurality of images. The image processing apparatus according to item 1.
前記対応付けられた夫々の前記スライス画像を対比可能な形態で表示手段に表示させる表示制御手段を更に備えることを特徴とする請求項7に記載の画像処理装置。   The image processing apparatus according to claim 7, further comprising display control means for causing the display means to display the associated slice images in a form that can be compared. 前記区間特定手段は、前記複数の画像を取得した場合に、前記スライス画像に対応する前記断面が属する前記区間を特定することを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。   The image according to any one of claims 1 to 8, wherein the section specifying unit specifies the section to which the cross section corresponding to the slice image belongs when the plurality of images are acquired. Processing equipment. 前記情報取得手段は、複数の前記区間定義情報を取得し、
前記画像取得手段は、複数の前記画像を取得し、
前記画像処理装置は更に、
前記複数の区間定義情報の夫々について、前記取得された複数の画像で略同一の位置を表す夫々のスライス画像を対応付ける対応付け手段と、
ユーザが注目する領域に応じて、前記複数の区間定義情報に関する情報の中から1つの前記情報を選択する選択手段と、
前記選択手段によって選択された前記情報に基づいて、前記対応付けられた夫々の前記スライス画像を対比可能な形態で表示手段に表示させる表示制御手段と、
を備えることを特徴とする請求項1に記載の画像処理装置。
The information acquisition means acquires a plurality of the section definition information,
The image acquisition means acquires a plurality of the images,
The image processing apparatus further includes:
Corresponding means for associating each slice image representing substantially the same position in the plurality of acquired images for each of the plurality of section definition information;
A selection means for selecting one piece of information from information related to the plurality of section definition information in accordance with an area to which the user pays attention;
Display control means for causing the display means to display each of the associated slice images based on the information selected by the selection means;
The image processing apparatus according to claim 1, further comprising:
前記選択手段は、前記表示手段における前記画像の表示条件に基づいて、前記情報を選択することを特徴とする請求項10に記載の画像処理装置。   The image processing apparatus according to claim 10, wherein the selection unit selects the information based on a display condition of the image on the display unit. 前記表示条件は、少なくとも前記画像の濃度値に関する表示パラメータを含むことを特徴とする請求項11に記載の画像処理装置。   The image processing apparatus according to claim 11, wherein the display condition includes at least a display parameter related to a density value of the image. 前記複数の区間定義情報の夫々は、異なる解剖構造に基づく区間定義情報であることを特徴とする請求項10乃至12のいずれか1項に記載の画像処理装置。   13. The image processing apparatus according to claim 10, wherein each of the plurality of section definition information is section definition information based on different anatomical structures. 人体を体軸方向に沿って区分した複数の区間を定義する区間定義情報を取得する情報取得ステップと、
被検体の断面を示す複数のスライス画像を含む3次元の画像を取得する画像取得ステップと、
前記区間定義情報に基づいて、前記画像に含まれる少なくとも1つの前記スライス画像に対応する前記断面が属する前記区間を特定する区間特定ステップと、
前記区間ごとに座標値が定義された基準座標系と前記特定された区間とに基づいて、前記スライス画像の座標値を算出する座標値算出ステップと、
を備えることを特徴とする画像処理方法。
An information acquisition step for acquiring section definition information defining a plurality of sections obtained by dividing the human body along the body axis direction;
An image acquisition step of acquiring a three-dimensional image including a plurality of slice images showing a cross section of the subject;
A section specifying step for specifying the section to which the cross section corresponding to at least one slice image included in the image belongs based on the section definition information;
A coordinate value calculating step for calculating a coordinate value of the slice image based on a reference coordinate system in which a coordinate value is defined for each section and the specified section;
An image processing method comprising:
画像処理装置を、
人体を体軸方向に沿って区分した複数の区間を定義する区間定義情報を取得する情報取得手段と、
被検体の断面を示す複数のスライス画像を含む3次元の画像を取得する画像取得手段と、
前記区間定義情報に基づいて、前記画像に含まれる少なくとも1つの前記スライス画像に対応する前記断面が属する前記区間を特定する区間特定手段と、
前記区間ごとに座標値が定義された基準座標系と前記特定された区間とに基づいて、前記スライス画像の座標値を算出する座標値算出手段、
として機能させることを特徴とするプログラム。
The image processing device
Information acquisition means for acquiring section definition information defining a plurality of sections obtained by dividing the human body along the body axis direction;
Image acquisition means for acquiring a three-dimensional image including a plurality of slice images showing a cross section of the subject;
Based on the section definition information, section specifying means for specifying the section to which the section corresponding to at least one slice image included in the image belongs;
Coordinate value calculation means for calculating the coordinate value of the slice image based on a reference coordinate system in which coordinate values are defined for each section and the specified section.
A program characterized by functioning as
JP2018010523A 2017-07-25 2018-01-25 Image processing device, image processing method, and program Pending JP2019025296A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2018/026693 WO2019021882A1 (en) 2017-07-25 2018-07-17 Image processing device, image processing method, and program
US16/743,972 US11263763B2 (en) 2017-07-25 2020-01-15 Image processing apparatus, image processing mehod, and storage medium
JP2022042497A JP7342176B2 (en) 2017-07-25 2022-03-17 Image processing device, image processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017143687 2017-07-25
JP2017143687 2017-07-25

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022042497A Division JP7342176B2 (en) 2017-07-25 2022-03-17 Image processing device, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2019025296A true JP2019025296A (en) 2019-02-21

Family

ID=65477251

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018010523A Pending JP2019025296A (en) 2017-07-25 2018-01-25 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2019025296A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022079526A (en) * 2017-07-25 2022-05-26 キヤノン株式会社 Image processing device, image processing method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007312838A (en) * 2006-05-23 2007-12-06 Konica Minolta Medical & Graphic Inc Modeling apparatus, modeling method and program
JP2008006188A (en) * 2006-06-30 2008-01-17 Fujifilm Corp Medical image display processing apparatus and medical image display processing program
JP2008043524A (en) * 2006-08-16 2008-02-28 Fujifilm Corp Medical image processing apparatus and medical image processing program
JP2015171456A (en) * 2014-03-12 2015-10-01 株式会社東芝 Medical image display device, medical image display system, and medical image display program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007312838A (en) * 2006-05-23 2007-12-06 Konica Minolta Medical & Graphic Inc Modeling apparatus, modeling method and program
JP2008006188A (en) * 2006-06-30 2008-01-17 Fujifilm Corp Medical image display processing apparatus and medical image display processing program
JP2008043524A (en) * 2006-08-16 2008-02-28 Fujifilm Corp Medical image processing apparatus and medical image processing program
JP2015171456A (en) * 2014-03-12 2015-10-01 株式会社東芝 Medical image display device, medical image display system, and medical image display program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022079526A (en) * 2017-07-25 2022-05-26 キヤノン株式会社 Image processing device, image processing method, and program
JP7342176B2 (en) 2017-07-25 2023-09-11 キヤノン株式会社 Image processing device, image processing method, and program

Similar Documents

Publication Publication Date Title
JP6932810B2 (en) Diagnostic support device, diagnostic support system, information processing method, and program
US10332267B2 (en) Registration of fluoroscopic images of the chest and corresponding 3D image data based on the ribs and spine
JP6598452B2 (en) Medical image processing apparatus and medical image processing method
CN107106043B (en) Vertebral body feature identification
US8334878B2 (en) Medical image processing apparatus and medical image processing program
US8588496B2 (en) Medical image display apparatus, medical image display method and program
WO2018070285A1 (en) Image processing device and image processing method
US11176671B2 (en) Medical image processing apparatus, and method
JP6426608B2 (en) Analytical Morphomics: A Fast Medical Image Analysis Method
EP3047455B1 (en) Method and system for spine position detection
WO2020110774A1 (en) Image processing device, image processing method, and program
JP7342176B2 (en) Image processing device, image processing method, and program
JP2019025296A (en) Image processing device, image processing method, and program
JP6995535B2 (en) Image processing equipment, image processing methods and programs
US10307124B2 (en) Image display device, method, and program for determining common regions in images
US11769253B2 (en) Method and system for selecting a region of interest in an image
JP6745633B2 (en) Image processing apparatus, image processing method, and program
JP6501569B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM
JP6491466B2 (en) Image processing apparatus, image processing apparatus control method, and program
CN114650772A (en) Bone age estimation method and device
JP6748762B2 (en) Medical image processing apparatus and medical image processing method
JP7394959B2 (en) Medical image processing device, medical image processing method and program, medical image display system
JP2018175412A (en) Information processing apparatus, information processing system, information processing method, and program
Tho et al. Computer-Aided Management in Scoliosis Surgery

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210823

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211221