JP7277131B2 - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP7277131B2
JP7277131B2 JP2018243767A JP2018243767A JP7277131B2 JP 7277131 B2 JP7277131 B2 JP 7277131B2 JP 2018243767 A JP2018243767 A JP 2018243767A JP 2018243767 A JP2018243767 A JP 2018243767A JP 7277131 B2 JP7277131 B2 JP 7277131B2
Authority
JP
Japan
Prior art keywords
image
distance
resolution
region
deformation information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018243767A
Other languages
Japanese (ja)
Other versions
JP2020103464A (en
Inventor
啓太 中込
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018243767A priority Critical patent/JP7277131B2/en
Priority to PCT/JP2019/049333 priority patent/WO2020137677A1/en
Publication of JP2020103464A publication Critical patent/JP2020103464A/en
Priority to US17/344,748 priority patent/US11880987B2/en
Application granted granted Critical
Publication of JP7277131B2 publication Critical patent/JP7277131B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20041Distance transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30056Liver; Hepatic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/033Recognition of patterns in medical or anatomical images of skeletal patterns

Description

本明細書の開示は、画像処理装置、画像処理方法、及びプログラムに関する。 The disclosure of the present specification relates to an image processing device, an image processing method, and a program.

医用分野において、互いに異なる時刻に撮像された2つの原画像(以下、参照画像と比較画像)を比較する際に用いられる技術として、画像間の経時変化を差分で表す画像(以下、差分画像)を取得するサブトラクション技術が知られている。 In the medical field, as a technique used when comparing two original images (hereinafter referred to as a reference image and a comparison image) captured at different times, an image that expresses the temporal change between the images as a difference (hereinafter referred to as a difference image). Subtraction techniques are known to obtain .

サブトラクション技術において、撮像対象の経時変化を適切に捉える差分画像を生成するためには、その前処理として参照画像と比較画像の各画素を適切に対応付ける位置合わせ処理を正確に行う必要がある。 In subtraction technology, in order to generate a difference image that appropriately captures the temporal change of the imaging target, it is necessary to accurately perform registration processing that appropriately matches each pixel of the reference image and the comparison image as preprocessing.

非特許文献1には、原画像と、画像中のある特定の領域の抽出処理を行った結果とを併せて位置合わせ処理に利用することで、処理精度を高める方法が開示されている。この技術では、前記抽出領域の輪郭からの距離を表す画像(以下、距離画像)を計算し、位置合わせ処理の中で原画像と距離画像の両方を同時に用いることで、位置合わせ精度を高めている。 Non-Patent Document 1 discloses a method of improving processing accuracy by using both an original image and a result of performing extraction processing of a specific region in the image for alignment processing. In this technique, an image representing the distance from the contour of the extraction region (hereinafter referred to as a distance image) is calculated, and both the original image and the distance image are used simultaneously in the registration process, thereby increasing the registration accuracy. there is

Min Chen,et.al.“Distance Transforms in Multi Channel MR Image Registration” Proc SPIE Int Soc Opt Eng. 2011 Mar 11:2011(7962):79621D.Min Chen, et. al. "Distance Transforms in Multi Channel MR Image Registration" Proc SPIE Int Soc Opt Eng. 2011 Mar 11:2011(7962):79621D.

しかしながら、非特許文献1に記載の技術では、位置合わせ処理の中で原画像と所定の部位を抽出した結果に基づく距離画像の2種類の画像を同時に用いているため、処理に係る計算コストが高くなってしまうという課題があった。 However, in the technique described in Non-Patent Document 1, two types of images, an original image and a distance image based on the result of extracting a predetermined part, are used simultaneously in the alignment process, so the calculation cost associated with the process is high. There was a problem of getting taller.

本明細書の開示は、異なる時点で撮像された2つの画像をより高い精度、且つより低い計算コストで位置合わせすることを目的とする。 The present disclosure aims at registering two images taken at different times with higher accuracy and lower computational cost.

なお、前記目的に限らず、後述する発明を実施するための形態に示す各構成により導かれる作用効果であって、従来の技術によっては得られない作用効果を奏することも本明細書の開示の他の目的の1つとして位置付けることができる。 It should be noted that it is not limited to the above object, but it is a function and effect derived from each configuration shown in the mode for carrying out the invention described later, and it is also disclosed in the present specification that there is a function and effect that cannot be obtained by the conventional technology. It can be positioned as one of the other purposes.

本明細書に開示の画像処理装置は、被検体を互いに異なる時刻に撮像した第1の画像と第2の画像を取得する取得部と、前記第1の画像において抽出される被検体の所定の部位を示す領域の輪郭からの距離に基づいた画素値を有し、且つ前記第1の画像より解像度が低い第1の距離画像を生成し、前記第2の画像において抽出される前記所定の部位を示す領域の輪郭からの距離に基づいた画素値を有し、且つ前記第2の画像より解像度が低い第2の距離画像を生成する生成部と、前記第1の距離画像と前記第2の距離画像を位置合わせすることにより第1の変形情報を算出する第1の算出部と、前記第1の変形情報に基づいて前記第1の画像と前記第2の画像を位置合わせすることにより第2の変形情報を算出する第2の算出部と、を備えることを特徴とする。 An image processing apparatus disclosed in the present specification includes an acquisition unit that acquires a first image and a second image of a subject captured at different times, and a predetermined image of the subject that is extracted from the first image. generating a first distance image having pixel values based on the distance from the contour of the area indicating the part and having a resolution lower than that of the first image; and extracting the predetermined part from the second image. A generation unit that generates a second distance image having pixel values based on the distance from the contour of the area showing and having a resolution lower than that of the second image, and the first distance image and the second distance image a first calculation unit that calculates first deformation information by aligning distance images; and a first calculation unit that aligns the first image and the second image based on the first deformation information. and a second calculation unit that calculates the second deformation information.

本明細書の開示によれば、異なる時点で撮像された2つの画像をより高い精度、且つより低い計算コストで位置合わせができる。 According to the disclosure herein, two images taken at different times can be registered with higher accuracy and lower computational cost.

第1の実施形態に係る画像処理装置の機能の構成を示す図である。2 is a diagram showing the configuration of functions of the image processing apparatus according to the first embodiment; FIG. 画像処理装置の処理手順の例を示すフローチャートである。4 is a flow chart showing an example of a processing procedure of an image processing apparatus; 画像処理装置により生成される画像の一例を示す図である。It is a figure which shows an example of the image produced|generated by an image processing apparatus.

以下、図面を参照して、本明細書に開示の画像処理装置の実施形態を例示的に詳しく説明する。ただし、この実施形態に記載されている構成要素はあくまで例示であり、本明細書に開示の画像処理装置の技術的範囲は、特許請求の範囲によって確定されるのであって、以下の個別の実施形態によって限定されるわけではない。 Hereinafter, exemplary embodiments of the image processing apparatus disclosed in this specification will be described in detail with reference to the drawings. However, the components described in this embodiment are merely examples, and the technical scope of the image processing apparatus disclosed in this specification is determined by the claims. It is not limited by form.

<第1の実施形態>
第1の実施形態に係る画像処理装置は、コンピュータ断層撮影装置(以下、CT(Computed Tomography)装置と呼ぶ)などの種々の画像撮像装置(モダリティ)によって取得される複数の3次元画像の表示を行う装置である。本実施形態に係る画像処理装置は、異なる時点で撮像された2つの3次元画像間で対応する2次元断層画像や、2つの2次元断層画像から生成される差分画像を表示するために、画像間の対応位置を計算する位置合わせ機能を有している。さらに、本実施形態に係る画像処理装置は、対応位置を求める過程において、原画像と併せて、所定の解剖学的領域を抽出した結果から計算する距離画像を多重解像度位置合わせ処理の中で利用することを特徴とする。
<First embodiment>
An image processing apparatus according to the first embodiment displays a plurality of three-dimensional images acquired by various imaging apparatuses (modalities) such as a computed tomography apparatus (hereinafter referred to as a CT (Computed Tomography) apparatus). It is a device that performs The image processing apparatus according to the present embodiment displays a two-dimensional tomographic image corresponding to two three-dimensional images captured at different points in time, and a difference image generated from the two two-dimensional tomographic images. It has an alignment function that computes corresponding positions between Furthermore, in the process of obtaining corresponding positions, the image processing apparatus according to the present embodiment utilizes the distance image calculated from the result of extracting the predetermined anatomical region together with the original image in the multi-resolution registration process. characterized by

本実施形態においては、CT装置で撮像された画像に含まれる骨部の位置合わせ処理を行う例について記載する。なお、その他のモダリティによって得られた画像、またはその他の解剖学的構造の位置合わせを行う場合にも、同様の処理を行うことで、本実施形態の効果を得られる。 In the present embodiment, an example of alignment processing of bones included in an image captured by a CT apparatus will be described. It should be noted that the effect of the present embodiment can be obtained by performing similar processing even when aligning images obtained by other modalities or other anatomical structures.

以下、図1を用いて本実施形態の画像処理装置の構成及び処理を説明する。 The configuration and processing of the image processing apparatus of this embodiment will be described below with reference to FIG.

図1は、本実施形態の画像処理装置を含む画像処理システム(医用画像処理システムともいう)の構成例を示すブロック図である。画像処理システムは、その機能的な構成として、画像処理装置10、ネットワーク21、及びデータベース22を備える。画像処理装置10は、ネットワーク21を介してデータベース22に通信可能に接続されている。ネットワーク21は、例えば、LAN(Local Area Network)やWAN(Wide Area Network)を含む。 FIG. 1 is a block diagram showing a configuration example of an image processing system (also referred to as a medical image processing system) including the image processing apparatus of this embodiment. The image processing system includes an image processing device 10, a network 21, and a database 22 as its functional configuration. The image processing apparatus 10 is communicably connected to a database 22 via a network 21 . The network 21 includes, for example, a LAN (Local Area Network) and a WAN (Wide Area Network).

データベース22は、被検体の画像や該画像に関連付けられた情報を保持し、管理する。画像処理装置10は、ネットワーク21を介してデータベース22で保持されている画像を取得することが可能である。画像処理装置10は、通信IF(Interface)31(通信部)、ROM(Read Only Memory)32、RAM(Random Access Memory)33、記憶部34、操作部35、表示部36、及び制御部37を備える。 The database 22 holds and manages images of the subject and information associated with the images. The image processing apparatus 10 can acquire images held in the database 22 via the network 21 . The image processing apparatus 10 includes a communication IF (Interface) 31 (communication section), a ROM (Read Only Memory) 32, a RAM (Random Access Memory) 33, a storage section 34, an operation section 35, a display section 36, and a control section 37. Prepare.

通信IF31(通信部)は、LANカードなどにより構成され、外部装置(例えば、データベース22など)と画像処理装置10との通信を実現する。ROM32は、不揮発性のメモリなどにより構成され、各種プログラムを記憶する。RAM33は、揮発性のメモリなどにより構成され、各種情報をデータとして一時的に記憶する。記憶部34は、HDD(Hard Disk Drive)などにより構成され、各種情報をデータとして記憶する。操作部35は、キーボードやマウス、タッチパネルなどにより構成され、ユーザ(例えば、医師)からの指示を各種装置に入力する。 The communication IF 31 (communication section) is configured by a LAN card or the like, and realizes communication between an external device (for example, the database 22 or the like) and the image processing apparatus 10 . The ROM 32 is composed of a non-volatile memory or the like, and stores various programs. The RAM 33 is composed of a volatile memory or the like, and temporarily stores various kinds of information as data. The storage unit 34 is configured by an HDD (Hard Disk Drive) or the like, and stores various kinds of information as data. The operation unit 35 includes a keyboard, a mouse, a touch panel, and the like, and inputs instructions from a user (for example, a doctor) to various devices.

表示部36は、ディスプレイなどにより構成され、各種情報をユーザに表示する。制御部37は、CPU(Central Processing Unit)などにより構成され、画像処理装置10における処理を制御する。制御部37は、その機能的な構成として、取得部51、抽出部52、生成部53、変更部54、第1の算出部55、第2の算出部56、及び表示制御部57を備える。 The display unit 36 is configured by a display or the like, and displays various information to the user. The control unit 37 is configured by a CPU (Central Processing Unit) or the like, and controls processing in the image processing apparatus 10 . The control unit 37 includes an acquisition unit 51, an extraction unit 52, a generation unit 53, a change unit 54, a first calculation unit 55, a second calculation unit 56, and a display control unit 57 as its functional configuration.

取得部51は、位置合わせ処理対象となる参照画像と比較画像をデータベース22から取得する。すなわち、取得部51は、被検体を互いに異なる時刻に撮像した第1の画像と第2の画像を取得する取得部の一例に相当する。なお、本実施形態では、参照画像に比べて過去に撮像した画像を比較画像とする。これらの画像は、各種モダリティにより取得された被検体の3次元の画像である。本実施形態では、この画像がCT画像である例を説明するが、他の種類の画像であってもよい。すなわち、参照画像と比較画像の2つの画像は、3次元の画像あるいは2次元の画像であれば画像の種類に依らず適用可能であって、比較を行う対象の画像であればいずれの画像であってもよい。すなわち、同一被検体を撮像したものであってもよいし、他人同士の画像、例えば、健常者と患者の画像などであってもよい。また、異なるモダリティの画像であってもよい。 The acquisition unit 51 acquires from the database 22 a reference image and a comparison image to be subjected to alignment processing. In other words, the acquisition unit 51 corresponds to an example of an acquisition unit that acquires a first image and a second image of the subject captured at different times. Note that, in the present embodiment, an image captured in the past compared to the reference image is used as the comparison image. These images are three-dimensional images of the subject acquired by various modalities. In this embodiment, an example in which this image is a CT image will be described, but it may be another type of image. That is, the two images, the reference image and the comparison image, can be applied regardless of the type of image as long as they are three-dimensional images or two-dimensional images, and any image can be used as long as it is an image to be compared. There may be. That is, the images may be images of the same subject, or may be images of different people, such as images of a healthy person and a patient. Also, images of different modalities may be used.

抽出部52は、取得部51で取得した参照画像と比較画像の夫々に関して、当該画像から被検体の所定の部位を示す領域を抽出する。 The extraction unit 52 extracts a region indicating a predetermined site of the subject from each of the reference image and the comparison image acquired by the acquisition unit 51 .

生成部53は、参照画像と比較画像に関する抽出部52で抽出した被検体の所定の部位を示す領域の夫々について、抽出領域に基づく距離値を算出し、第1の距離画像と第2の距離画像を生成する。より具体的には、抽出部52で抽出した領域の情報を利用して、例えば抽出領域の輪郭からの距離値に基づいた画素値を2つの画像中の各画素において算出し、第1の距離画像と第2の距離画像を生成する。すなわち、生成部53は、第1の画像において抽出された領域の輪郭からの距離に基づいた画素値を有する第1の距離画像を第1の画像から生成する。また、第2の画像において抽出された領域の輪郭からの距離に基づいた画素値を有する第2の距離画像を第2の画像から生成する。 The generation unit 53 calculates a distance value based on the extraction region for each of the regions indicating the predetermined part of the subject extracted by the extraction unit 52 regarding the reference image and the comparison image, and generates a first distance image and a second distance image. Generate an image. More specifically, using the information of the region extracted by the extraction unit 52, for example, a pixel value based on the distance value from the contour of the extraction region is calculated for each pixel in the two images, and the first distance Generate an image and a second range image. That is, the generation unit 53 generates from the first image a first distance image having pixel values based on the distance from the contour of the region extracted in the first image. Also, a second distance image having pixel values based on the distance from the contour of the region extracted in the second image is generated from the second image.

変更部54は、入力された画像を予め設定された解像度に変更する。本実施形態では、第1の距離画像と第2の距離画像に対して解像度を低下させる処理を行う。 The changing unit 54 changes the input image to a preset resolution. In this embodiment, a process of reducing the resolution is performed on the first range image and the second range image.

第1の算出部55は、生成部53により生成された第1の距離画像と第2の距離画像、または変更部54により生成された画像に基づいて、参照画像と比較画像で対応する位置を示す情報として第1の画像変形情報を算出する。すなわち、第1の距離画像と第2の距離画像を位置合わせすることにより第1の変形情報を算出する。 The first calculation unit 55 calculates corresponding positions in the reference image and the comparison image based on the first distance image and the second distance image generated by the generation unit 53 or the image generated by the change unit 54. First image deformation information is calculated as the information to be displayed. That is, the first deformation information is calculated by aligning the first distance image and the second distance image.

第2の算出部56は、取得部51で取得した参照画像と比較画像と、第1の算出部55で算出した第1の画像変形情報に基づいて、参照画像と比較画像で対応する位置を示す情報として第2の画像変形情報を算出する。すなわち、第2の算出部56は、第1の変形情報に基づいて、第1の画像と第2の画像を位置合わせすることにより第2の変形情報を算出する。 The second calculation unit 56 calculates corresponding positions between the reference image and the comparison image based on the reference image and the comparison image acquired by the acquisition unit 51 and the first image deformation information calculated by the first calculation unit 55. Second image deformation information is calculated as the information to be displayed. That is, the second calculator 56 calculates the second deformation information by aligning the first image and the second image based on the first deformation information.

すなわち、本実施形態における位置合わせ処理は、低解像度化された距離画像と原画像(参照画像と比較画像)に基づいて、多段階(多重解像度)で行う。本実施形態における位置合わせ処理の基本的な考え方は、Coarse-to-Fineと呼ばれる考え方に基づくものである。この考え方では、まず大まかな位置合わせ処理を行った後に、その結果を次の位置合わせ処理に利用し、詳細な位置合わせを行う。つまり、段階的に複数の位置合わせ処理を繋げる形を取ることによって、高精度な位置合わせを行う。 That is, the alignment process in this embodiment is performed in multiple steps (multiple resolutions) based on the range image and the original image (reference image and comparison image) whose resolution has been reduced. The basic concept of alignment processing in this embodiment is based on the concept called Coarse-to-Fine. In this way of thinking, after rough alignment processing is performed first, the results are used in the next alignment processing to perform detailed alignment. In other words, high-precision alignment is performed by connecting a plurality of alignment processes step by step.

後述の図2のフローチャートに示すステップS105では、まず全体の大まかな位置合わせを行うために、低解像度の距離画像を用いて、1段階目の画像変形情報として第1の画像変形情報を計算する。そして、ステップS106では、2段階目の位置合わせ処理としてより詳細な位置合わせを行うために、1段階目の処理で用いた距離画像よりも高い解像度の参照画像と比較画像を用いて位置合わせ処理を行い、第2の画像変形情報を計算する。 In step S105 shown in the flowchart of FIG. 2, which will be described later, first, in order to roughly align the entire image, low-resolution range images are used to calculate first image deformation information as first-stage image deformation information. . Then, in step S106, in order to perform more detailed alignment as the second-stage alignment process, the alignment process is performed using a reference image and a comparison image having resolutions higher than those of the distance image used in the first-stage process. to calculate the second image deformation information.

表示制御部57は、第2の算出部56により算出した結果に基づいて、入力された画像のうち少なくとも2つ以上の画像を、対応位置の比較を容易に行えるような表示形態で、表示部36の画像表示領域内に表示させる。例えば、参照画像と比較画像に加え、第1の変形情報もしくは第2の変形情報に基づいて比較画像を変形させた変形画像と、参照画像と変形画像との差分を示す差分画像との少なくとも一方を表示部に表示させる。 Based on the result calculated by the second calculation unit 56, the display control unit 57 displays at least two or more of the input images in a display form that allows easy comparison of corresponding positions. 36 is displayed in the image display area. For example, in addition to the reference image and the comparative image, at least one of a deformed image obtained by deforming the comparative image based on the first deformation information or the second deformation information, and a difference image indicating the difference between the reference image and the deformed image. is displayed on the display.

上記の画像処理装置10の各構成要素は、コンピュータプログラムに従って機能する。例えば、制御部37(CPU)がRAM33をワーク領域としてROM32又は記憶部34などに記憶されたコンピュータプログラムを読み込み、実行することで、各構成要素の機能が実現される。なお、画像処理装置10の構成要素の一部又は全ての機能が専用の回路を用いることで実現されてもよい。また、制御部37の構成要素の一部の機能が、クラウドコンピュータを用いることで実現されてもよい。 Each component of the image processing apparatus 10 described above functions according to a computer program. For example, the control unit 37 (CPU) reads and executes a computer program stored in the ROM 32 or the storage unit 34 using the RAM 33 as a work area, thereby realizing the functions of each component. Note that some or all of the functions of the components of the image processing apparatus 10 may be realized by using a dedicated circuit. Moreover, some functions of the components of the control unit 37 may be realized by using a cloud computer.

例えば、画像処理装置10とは異なる場所にある演算装置がネットワーク21を介して画像処理装置10に通信可能に接続され、画像処理装置10と演算装置がデータの送受信を行うことで、画像処理装置10又は制御部37の構成要素の機能が実現されてもよい。 For example, an arithmetic device located at a different location from the image processing device 10 is communicably connected to the image processing device 10 via the network 21, and data is transmitted and received between the image processing device 10 and the arithmetic device. 10 or the functions of the components of the controller 37 may be realized.

次に、図2を用いて、図1の画像処理装置10の処理の例について説明する。 Next, an example of processing of the image processing apparatus 10 of FIG. 1 will be described using FIG.

図2は、画像処理装置10の処理手順の例を示すフローチャートである。本実施形態では骨部の解剖学的特徴に基づいて位置合わせする例を説明するが、本実施形態はその他の部位を設定する場合にも適用可能である。 FIG. 2 is a flow chart showing an example of the processing procedure of the image processing apparatus 10. As shown in FIG. In this embodiment, an example of alignment based on the anatomical features of bones will be described, but this embodiment can also be applied when setting other parts.

(ステップS101:画像の取得/表示)
ステップS101において、ユーザが操作部35を介して画像の取得を指示すると、取得部51は、ユーザが指定した参照画像と比較画像をデータベース22から取得し、RAM33に格納する。すなわち、ステップS101は、被検体を異なる時刻に撮像した第1の画像と第2の画像を取得する画像取得工程の一例に相当する。またこのとき、表示制御部57は、データベース22から取得された画像を表示部36の画像表示領域内に表示させてもよい。
(Step S101: Image Acquisition/Display)
In step S<b>101 , when the user instructs image acquisition via the operation unit 35 , the acquisition unit 51 acquires the reference image and the comparison image specified by the user from the database 22 and stores them in the RAM 33 . In other words, step S101 corresponds to an example of an image acquisition step of acquiring a first image and a second image of the subject captured at different times. At this time, the display control section 57 may display the image acquired from the database 22 within the image display area of the display section 36 .

(ステップS102:各画像の解剖学的構造(骨部)領域の抽出)
ステップS102において、抽出部52は、取得部51で取得した参照画像と比較画像の夫々について、被検体の所定の部位を示す領域(解剖学的構造領域)を抽出する。本実施形態において、被検体の所定の部位を示す領域とは、位置合わせの対象である骨部の領域を表す。なお、骨部の領域は例えば、肋骨、胸骨または骨盤のように細分化して抽出してもよい。この場合、例えば特開2017-192691に記載の、画素値の連続性を表す特徴量を取得する方法を用いることで骨領域をさらに細分化して抽出することができる。また、被検体の所定の部位を示す領域は上記に限定されず、例えば肝臓、肺野または脳などの臓器でもよい。この領域抽出には、例えば、閾値処理やグラフカット等を利用した各種臓器領域抽出手法など、既知の手法を用いればよい。
(Step S102: Extraction of anatomical structure (bone) region of each image)
In step S<b>102 , the extraction unit 52 extracts regions (anatomical structure regions) indicating predetermined parts of the subject from each of the reference image and the comparison image acquired by the acquisition unit 51 . In the present embodiment, the region indicating the predetermined site of the subject represents the bone region that is the alignment target. It should be noted that the bone region may be segmented and extracted, such as ribs, sternum, or pelvis. In this case, the bone region can be further subdivided and extracted by using the method of acquiring a feature amount representing the continuity of pixel values, which is described in, for example, Japanese Patent Laid-Open No. 2017-192691. Also, the region indicating the predetermined site of the subject is not limited to the above, and may be an organ such as the liver, lung field, or brain. For this region extraction, for example, known methods such as various organ region extraction methods using threshold processing, graph cutting, and the like may be used.

例えば、CT画像から骨部の領域を抽出する場合には、非造影の検査画像であれば、画像上で骨領域の画素値がその他の領域の画素値よりも高いことを利用して、ある閾値(例えば150[H.U.])以上の画素値を抽出することで大まかに抽出できる。すなわち、所定の閾値以上の画素値を抽出することにより被検体の所定の部位を示す領域を抽出する。 For example, when extracting a bone region from a CT image, in the case of a non-contrast-enhanced inspection image, a certain It can be roughly extracted by extracting pixel values equal to or greater than a threshold value (for example, 150 [HU]). That is, by extracting pixel values equal to or greater than a predetermined threshold value, a region indicating a predetermined portion of the subject is extracted.

その後、抽出領域の抜けを埋めるために、穴埋め処理やクロージング処理などのモルフォロジー演算を用いて図形整形を行っても良い。また、この抽出処理には、原画像の画素値のみならず、原画像から計算できる既知の特徴量の値を用いても良い。なお、位置合わせの対象となる領域データが予め用意されている場合には、ここで当該画像の読み込みを行ってもよい。また、上記の領域抽出後の処理は行われなくてもよい。 After that, in order to fill the gaps in the extraction region, shape shaping may be performed using morphological operations such as filling processing and closing processing. Also, in this extraction process, not only the pixel values of the original image but also known feature values that can be calculated from the original image may be used. If area data to be aligned is prepared in advance, the image may be read here. Also, the processing after the area extraction described above may not be performed.

また、本実施形態において、抽出した領域に対応する画素(前景画素/図形画素)には画素値=255などの既定の画素値が格納されるものとし、抽出されなかった領域に対応する画素(背景画素)にも画素値=0などの規定の画素値が格納されるものとする。 In the present embodiment, pixels (foreground pixels/graphic pixels) corresponding to extracted regions are assumed to store predetermined pixel values such as pixel value = 255, and pixels corresponding to non-extracted regions ( A prescribed pixel value such as pixel value=0 is also stored in the background pixel).

つまり、本ステップS102で抽出したある被検体の所定の部位を示す領域を表す画像では、抽出領域内部、および、外部には、夫々一定の値が格納されるため、夫々の領域の画素値の分布は一様のものとなる。すなわち、抽出した領域内の画素と抽出した領域外の画素とに互いに異なる2値の画素値を格納することにより被検体の所定の部位を示す領域を抽出する。なお、抽出された領域内部と領域外部とで格納する所定の画素値は上記に限定されず、さらに、抽出された領域内部と領域外部の一部において所定の画素値とは異なる画素値が格納されてもよい。 In other words, in the image representing the region indicating the predetermined part of the subject extracted in step S102, constant values are stored inside and outside the extraction region, respectively. The distribution becomes uniform. That is, by storing different binary pixel values in pixels within the extracted region and pixels outside the extracted region, a region indicating a predetermined site of the subject is extracted. Note that the predetermined pixel values stored inside and outside the extracted region are not limited to those described above, and pixel values different from the predetermined pixel values are stored inside and part of the extracted region. may be

領域抽出に関する画像処理が終わった後、抽出部52は、参照画像と比較画像の夫々の画像について、被検体の所定の部位を示す領域を抽出した結果と、図3(a)に示すような領域抽出の結果を反映させた画像をRAM33に格納する。 After the image processing related to region extraction is completed, the extracting unit 52 extracts a region indicating a predetermined site of the subject from each of the reference image and the comparative image, and extracts the region as shown in FIG. 3(a). An image reflecting the result of region extraction is stored in the RAM 33 .

(ステップS103:距離画像の生成)
ステップS103において、生成部53は、参照画像と比較画像においてステップS102で抽出した領域の情報に基づいて、各画素で当該領域の輪郭からの距離値を計算する。そして算出された距離値に基づいて第1の距離画像と第2の距離画像を生成して、RAM33に格納する。すなわち、第1の画像において抽出された領域の輪郭からの距離に基づいた画素値を有する第1の距離画像を第1の画像から生成する。また、第2の画像において抽出された領域の輪郭からの距離に基づいた画素値を有する第2の距離画像を第2の画像から生成する。この計算は、参照画像と比較画像の夫々に対して抽出結果を反映させた画像に関して行うものとし、抽出領域に対する距離変換処理などの既知の手法を用いればよい。図3を用いて説明すると、図3(a)のように2値で領域抽出を行った画像に対して距離変換処理などを行い図3(b)のような距離画像を生成する。
(Step S103: Generation of distance image)
In step S103, the generation unit 53 calculates the distance value from the contour of the region for each pixel based on the information of the region extracted in step S102 in the reference image and the comparison image. Based on the calculated distance values, a first distance image and a second distance image are generated and stored in the RAM 33 . That is, a first distance image having pixel values based on the distance from the contour of the region extracted in the first image is generated from the first image. Also, a second distance image having pixel values based on the distance from the contour of the region extracted in the second image is generated from the second image. This calculation shall be performed on images in which the extraction results are reflected for each of the reference image and the comparison image, and a known method such as distance conversion processing for the extraction region may be used. Referring to FIG. 3, a range image such as that shown in FIG. 3B is generated by subjecting an image that has undergone binary area extraction as shown in FIG. 3A to distance conversion processing.

なお、本実施形態では、抽出領域の輪郭からのユークリッド距離を画像の各画素で計算するものとするが、マンハッタン距離など、その他の距離指標を用いてもよい。また、図形画素の輪郭付近の値が高くなるように、輪郭からの距離値の逆数や、シグモイド変換などの既知の値変換を行ってもよい。さらに、距離値に対して正負の符号を与えて、抽出領域の内側(前景/図形、画素値=255の領域)と外側(背景、画素値=0の領域)を区別する符号付き距離を計算してもよく、符号なしの距離を用いても構わない。 In this embodiment, the Euclidean distance from the contour of the extraction region is calculated for each pixel of the image, but other distance indices such as Manhattan distance may be used. In addition, known value transformation such as reciprocal of the distance value from the contour or sigmoid transformation may be performed so that the value near the contour of the figure pixel becomes high. In addition, a positive or negative sign is given to the distance value to calculate a signed distance that distinguishes between the inside (foreground/figure, pixel value = 255 area) and the outside (background, pixel value = 0 area) of the extraction area. or an unsigned distance may be used.

上記のような処理を行うことにより生成される距離画像(図3(b))は、ステップS102で生成される領域抽出の結果を反映させた画像(図3(a))と比較して、抽出領域の内側(前景)と外側(背景)について、異なる濃度値を持つ特徴がある。 The distance image (FIG. 3(b)) generated by performing the above processing is compared with the image (FIG. 3(a)) reflecting the result of region extraction generated in step S102. There are features with different density values inside (foreground) and outside (background) of the extraction region.

具体的には、図3(a)が2値画像であるのに対して、図3(b)は多値画像となる。例えば、図3(b)に示す距離画像は、抽出された領域内の画素において、抽出された領域の輪郭からのユークリッド距離が長くなるにつれて大きい画素値を有する。このとき、抽出された領域内の画素についてシグモイド変換などの既知の値変換を行うことにより、抽出された領域の輪郭からのユークリッド距離が所定値以上の画素がほぼ一律に同じ画素値になるように変換してもよい。 Specifically, while FIG. 3A is a binary image, FIG. 3B is a multivalued image. For example, in the distance image shown in FIG. 3B, pixels in the extracted region have larger pixel values as the Euclidean distance from the contour of the extracted region increases. At this time, by performing a known value transformation such as sigmoid transformation on the pixels in the extracted region, the pixels whose Euclidean distance from the outline of the extracted region is equal to or greater than a predetermined value will almost uniformly have the same pixel value. can be converted to

あるいは、距離画像は、抽出された領域内の画素において、抽出された領域の輪郭からのユークリッド距離の長さが第1の範囲に含まれる画素には第1の画素値を格納し、第1の範囲に含まれる画素よりもユークリッド距離が長い、第2の範囲に含まれる画素には前記第1の画素値よりも大きい第2の画素値を格納してもよい。 Alternatively, the distance image stores the first pixel value in the pixels in the extracted region whose Euclidean distance from the contour of the extracted region is included in the first range, and stores the first pixel value in the first range. A second pixel value larger than the first pixel value may be stored in a pixel included in the second range having a longer Euclidean distance than the pixel included in the range.

また、距離画像は、抽出された領域外の画素において、抽出された領域の輪郭からのユークリッド距離が長くなるにつれて小さい画素値を有する。このとき、抽出された領域外の画素についてシグモイド変換などの既知の値変換を行うことにより抽出された領域の輪郭からのユークリッド距離が所定値以上の画素がほぼ一律に同じ画素値になるように変換してもよい。 Also, in the distance image, pixels outside the extracted region have smaller pixel values as the Euclidean distance from the contour of the extracted region increases. At this time, pixels outside the extracted region are subjected to a known value conversion such as sigmoid conversion so that pixels whose Euclidean distance from the contour of the extracted region is equal to or greater than a predetermined value almost uniformly have the same pixel value. may be converted.

あるいは、抽出された領域外の少なくとも一部の画素において、抽出された領域の輪郭からのユークリッド距離の長さが第1の範囲に含まれる画素には第1の画素値を格納し、第1の範囲に含まれる画素よりもユークリッド距離が長い、第2の範囲に含まれる画素には第1の画素値よりも小さい第2の画素値を格納してもよい。なお、上記の濃度値の変換方法等は一例であってこれに限定されない。 Alternatively, among at least some pixels outside the extracted region, the first pixel value is stored in the pixels whose Euclidean distance from the contour of the extracted region is included in the first range, and the first A second pixel value smaller than the first pixel value may be stored in a pixel included in the second range having a longer Euclidean distance than the pixel included in the range of . Note that the above density value conversion method and the like are merely an example, and the present invention is not limited to this.

上記に示すような濃淡表現によって、位置合わせ処理における位置ずれに対するキャプチャレンジが広がるという効果がある。すなわち、距離画像を位置合わせ処理に用いることで、より大きな位置ずれに対応できるため、初期の位置ずれが大きい場合にも位置合わせ精度の向上が期待できる。 The gradation expression as described above has the effect of widening the capture range against positional deviation in alignment processing. That is, by using the distance image for alignment processing, it is possible to cope with a larger positional deviation, and therefore, an improvement in the alignment accuracy can be expected even when the initial positional deviation is large.

なお、本実施形態においては、ステップS102で抽出した領域の輪郭からの距離値に基づいた距離画像を用いているが、当該領域の重心からの距離に基づいた画像など、その他の場所を基準として計算できる距離を用いても良い。あるいは、SIFT(Scale-invariant feature transform)などの既知の特徴量を用いて、画像から特徴点を抽出する既知の手法により特定した1つ以上の特徴点に基づいて、距離画像を生成してもよい。このとき、特徴点を計算する際に用いる画像は、抽出部52で領域抽出した結果を反映させた画像であってもよく、取得部51で取得した原画像(参照画像と比較画像)であってもよい。なお、取得部51で取得した原画像から特徴点を直接計算する場合には、前記ステップS102の領域抽出処理を省略してもよい。 In this embodiment, the distance image based on the distance value from the contour of the area extracted in step S102 is used. A calculable distance may be used. Alternatively, a distance image may be generated based on one or more feature points identified by a known method of extracting feature points from an image using a known feature amount such as SIFT (Scale-invariant feature transform). good. At this time, the image used when calculating the feature points may be an image reflecting the result of region extraction by the extraction unit 52, or may be the original image (reference image and comparison image) acquired by the acquisition unit 51. may Note that when the feature points are directly calculated from the original image acquired by the acquisition unit 51, the region extraction processing in step S102 may be omitted.

(ステップS104:画像の低解像度化)
ステップS104において、変更部54は、生成部53で生成した第1の距離画像と第2の距離画像に対して解像度を低下させる処理を行い、画像の大きさを入力画像よりも小さくした画像を生成し、RAM33に格納する。
(Step S104: Image resolution reduction)
In step S104, the changing unit 54 performs a process of lowering the resolution of the first distance image and the second distance image generated by the generating unit 53, and generates an image whose image size is smaller than that of the input image. It is generated and stored in the RAM 33 .

本実施形態では、低解像度化処理は、参照画像と比較画像の夫々の距離画像に関して行うものとするが、この処理は、ステップS101や、ステップS102の後に行っても良く、夫々の処理に合わせて段階的に複数回行っても良い。すなわち、参照画像と比較画像の解像度を低減し、その解像度が低減された画像から被検体の所定の部位を抽出するようなフローでもよい。 In this embodiment, the resolution reduction process is performed for each distance image of the reference image and the comparison image, but this process may be performed after step S101 or step S102. You can do it multiple times step by step. That is, the flow may be such that the resolutions of the reference image and the comparison image are reduced, and a predetermined portion of the subject is extracted from the images with the reduced resolution.

つまり、ステップS102からS104の順序は上記に限定されず、第1の画像において抽出される被検体の所定の部位を示す領域の輪郭からの距離に基づいた画素値を有し、且つ第1の画像より解像度が低い第1の距離画像が生成されればよい。また、第2の画像において抽出される前記領域の輪郭からの距離に基づいた画素値を有し、且つ第2の画像より解像度が低い第2の距離画像が生成されればよい。 That is, the order of steps S102 to S104 is not limited to the above. A first distance image having a resolution lower than that of the image should be generated. Also, a second distance image having pixel values based on the distance from the contour of the region extracted in the second image and having a resolution lower than that of the second image may be generated.

なお、領域抽出を行うステップと画像の低解像度化のステップの順番は、位置合わせ対象となる解剖構造の領域抽出処理の精度との兼ね合いを考慮して、適応的に決定することが望ましい。 It is desirable that the order of the step of extracting the region and the step of lowering the resolution of the image be adaptively determined in consideration of the accuracy of the region extraction processing of the anatomical structure to be registered.

例えば肋骨や胸骨など、細かい構造物を抽出したい場合には、領域抽出処理の前に解像度を下げ過ぎてしまうと抽出処理が困難になる可能性があるため距離画像に対して解像度変更を行うフローが望ましい。 For example, if you want to extract detailed structures such as ribs and sternum, if the resolution is lowered too much before the area extraction process, the extraction process may become difficult. is desirable.

一方で、肺野や肝臓、または骨盤などの比較的大きい構造物を抽出したい場合には、低い解像度の画像でも比較的容易に領域を抽出できるため、抽出処理の前に画像の解像度を下げてもよい。このようにすることによって、細かいノイズを除去することができる。また、後段の領域抽出処理や距離計算処理の計算コストを下げることができるため、処理の高速化が期待できる。 On the other hand, if you want to extract a relatively large structure such as the lung field, liver, or pelvis, you can extract the region relatively easily even with a low-resolution image, so lower the image resolution before the extraction process. good too. By doing so, fine noise can be removed. In addition, since the calculation cost of the area extraction processing and the distance calculation processing in the latter stage can be reduced, speeding up of the processing can be expected.

あるいは、ステップS102において、所定の情報(例えば、位置合わせ対象の臓器名などの部位情報)を入力情報として受付け、所定の情報毎に予め決定したステップの順番で処理をしてもよい。例えば、位置合わせ対象臓器として骨盤が指定された場合は低解像度化の後に解剖学的構造領域の抽出と距離画像生成を行う。また、位置合わせ対象臓器として肋骨が指定された場合には解剖学的構造領域の抽出と距離画像生成の後に低解像度化の処理を行う。すなわち、ステップS102は、被検体の所定の部位の情報を取得する部位情報取得工程の一例に相当する。このようにすることで、入力として与えられる所定の情報に基づいて、適切な処理手順に自動で切替えることができる。 Alternatively, in step S102, predetermined information (for example, part information such as the name of an organ to be aligned) may be received as input information, and processing may be performed in a predetermined order of steps for each piece of predetermined information. For example, when the pelvis is specified as an organ to be aligned, extraction of an anatomical structure region and generation of a range image are performed after resolution reduction. Further, when ribs are specified as an organ to be aligned, resolution reduction processing is performed after extraction of an anatomical structure region and generation of a range image. That is, step S102 corresponds to an example of a region information obtaining step of obtaining information on a predetermined region of the subject. By doing so, it is possible to automatically switch to an appropriate processing procedure based on predetermined information given as an input.

(ステップS105:距離画像を用いた位置合わせ)
ステップS105において、第1の算出部55は、ステップS104で生成した低解像度の第1の距離画像および第2の距離画像に基づいて、参照画像と比較画像の位置合わせ処理を行う。すなわち、第1の画像変形情報として、低解像度の第1の距離画像の各画素について、低解像度の第2の距離画像で対応する位置を計算する。ここで、第1の画像変形情報は、例えば、低解像度の第1の距離画像と同じ解像度の情報であり、低解像度の第1の距離画像の各画素における(低解像度の第2の距離画像の対応画素への)変位ベクトルを保持する変位場画像として生成できる。なお、ステップS104の画像の低解像度化の処理がステップS103の距離画像生成処理よりも前に行われている場合には、ステップS103の出力画像が低解像度の距離画像であるため、その出力画像を用いればよい。
(Step S105: Alignment using distance image)
In step S105, the first calculation unit 55 performs registration processing of the reference image and the comparison image based on the low-resolution first range image and the second range image generated in step S104. That is, as the first image deformation information, for each pixel of the low-resolution first range image, the corresponding position in the low-resolution second range image is calculated. Here, the first image deformation information is, for example, information having the same resolution as that of the low-resolution first distance image, and (low-resolution second distance image ) can be generated as a displacement field image that holds displacement vectors. Note that if the image resolution reduction process in step S104 is performed before the distance image generation process in step S103, the output image in step S103 is a low-resolution distance image. should be used.

そして、第1の算出部55は、第1の画像変形情報と、第1の画像変形情報に基づいて比較画像を参照画像に合わせるように画像変形を行うことで生成した画像(第1の変形画像)をRAM33に格納する。なお、この第1の変形画像は必ずしも生成する必要はなく、第1の画像変形情報を出力、保存するだけでもよい。あるいは、第1の画像変形情報を入力として用いた処理を実行し、その結果を第2の算出部56に出力するだけでもよい。 Then, the first calculation unit 55 generates an image (first deformation image) is stored in the RAM 33 . It should be noted that it is not always necessary to generate this first modified image, and it is also possible to simply output and store the first image modification information. Alternatively, it is also possible to simply execute processing using the first image transformation information as input and output the result to the second calculator 56 .

さて、本実施形態で行われる多段階の位置合わせのうち、ステップS105で行う1段階目の位置合わせ処理に低解像度の距離画像を用いるのには次の理由がある。この1段階目の位置合わせ処理は、上述の通り、大まかな位置合わせを目的としているため、詳細な情報を持つ高解像度の画像は処理に適していない。 The reason why the low-resolution distance image is used for the first-stage alignment processing performed in step S105 among the multiple-stage alignments performed in this embodiment is as follows. As described above, this first-stage alignment process is intended for rough alignment, so high-resolution images with detailed information are not suitable for processing.

この理由は、位置合わせ前の初期の段階においては、2つの画像の位置は大きくずれていることも多く、そのような場合において、高解像度の画像の各画素単位の値の一致/不一致の情報は、位置合わせ処理におけるノイズとなってしまうためである。すなわち、位置合わせ処理における局所解に陥るリスクが高くなってしまう。解像度の低い画像を用いることには、大まかな画像情報を重点的に利用するという効果があるため、位置合わせ処理の初期段階に低解像度の画像を用いることにはメリットがある。 The reason for this is that in the initial stage before alignment, the positions of the two images are often largely misaligned, and in such cases, the matching/mismatching information for each pixel unit value of the high-resolution image is used. This is because it becomes noise in the alignment process. That is, the risk of falling into a local optimum in alignment processing increases. Using a low-resolution image has the effect of using rough image information intensively, so there is an advantage in using a low-resolution image in the initial stage of alignment processing.

さらに、解像度を下げた画像を使うことによって、処理対象の画素数が削減されるため、計算コストの削減も期待できる。これらのメリットは、画像ピラミッドなどを用いた一般的な多重解像度の位置合わせと同じである。 Furthermore, since the number of pixels to be processed is reduced by using an image with reduced resolution, a reduction in calculation cost can be expected. These advantages are the same as general multi-resolution registration using image pyramids and the like.

次に、本実施形態では、初期の状態で位置合わせ誤差が大きい場合にも対応するために、低い解像度での位置合わせ処理を行う際に、参照画像や比較画像などの原画像の代わりに距離画像を用いることとする。被検体の所定の部位を示す領域を抽出した結果から計算できる距離画像を用いることにより、大まかな対応位置を計算する際に、被検体の所定の部位を示す領域に特化した処理が実現できる。 Next, in this embodiment, in order to cope with the case where the alignment error is large in the initial state, when performing the alignment process at a low resolution, instead of the original image such as the reference image or the comparison image, the distance Images will be used. By using a distance image that can be calculated from the result of extracting a region indicating a predetermined part of the subject, it is possible to perform processing specialized for the region indicating the predetermined part of the subject when calculating a rough corresponding position. .

例えば、骨部の位置合わせを行う場合には、骨以外の臓器が写っている原画像を用いるのではなく、骨領域を抽出した結果の距離画像を利用することで、より重点的に骨領域の位置合わせ処理ができる。ここで抽出結果の画像を直接使うのではなく、距離画像を用いるのは、距離画像の方が、より大きな初期の位置合わせ誤差に対応できるためである。 For example, when aligning bones, the depth image obtained by extracting the bone region is used instead of the original image showing organs other than the bones. can be aligned. The reason why the distance image is used instead of the extracted image directly is that the distance image can cope with a larger initial alignment error.

なお、この2つの距離画像(参照画像の距離画像と比較画像の距離画像)間の位置合わせ処理は、アフィン変換のような線形的な位置合わせ手法や、FFD(Free Form Deformation)、LDDMM(Large Deformation Diffeomorphic Metric Mapping)などの非線形的な位置合わせ手法により実行されてもよく、これらの組合せで実行されてもよい。 The alignment process between these two distance images (the distance image of the reference image and the distance image of the comparison image) can be performed by a linear alignment method such as affine transformation, FFD (Free Form Deformation), LDDMM (Large Deformation Diffeomorphic Metric Mapping) or a combination thereof.

さらには、それらの位置合わせ処理や位置合わせ処理の組み合わせを複数回繰り返して行ってもよい。また、本ステップS105の距離画像を用いた位置合わせ処理自体も多重解像度の枠組みで処理をしてもよい。 Furthermore, these alignment processes and combinations of alignment processes may be repeated multiple times. Further, the positioning process itself using the distance image in step S105 may be processed within the framework of multi-resolution.

(ステップS106:原画像を用いた位置合わせ)
ステップS106において、第1の画像変形情報に基づいて、参照画像と比較画像を位置合わせすることにより第2の画像変形情報を算出する。具体的には、第1の画像変形情報を算出した後、第2の算出部56は、第1の画像変形情報を初期値として、1段階目の処理で用いた画像よりも高い解像度の原画像を用いて、位置合わせ処理を行い、より詳細な変形情報である第2の画像変形情報を得る。すなわち、第2の画像変形情報として、参照画像の各画素について、比較画像で対応する位置を計算する。ここで、第2の画像変形情報は、例えば、参照画像と同じ解像度の情報であり、参照画像の各画素における(比較画像の対応画素への)変位ベクトルを保持する変位場画像として生成できる。なお、この詳細な位置合わせ処理に関しても、上述の既知の位置合わせ手法を用いればよく、第1の画像変形情報を計算した方法と異なる方法であっても構わない。参照画像と比較画像を原画像のまま比較する方法以外に、ノイズ除去やエッジ強調などの前処理を夫々の画像に施した後の画像を用いて位置合わせしてもよい。また、参照画像と比較画像が異なるモダリティで得られた画像の場合には、例えば相互情報量を用いた異モダリティ間位置合わせの各種手法を用いてもよい。第1の画像変形情報は低い解像度の画像で計算されているものであるため、2段階目の位置合わせ処理で用いる位置合わせ手法の必要に応じて、変形情報の解像度を2段階目の処理で用いる画像の解像度と合わせてもよい。
(Step S106: Alignment using original image)
In step S106, the second image deformation information is calculated by aligning the reference image and the comparison image based on the first image deformation information. Specifically, after calculating the first image deformation information, the second calculation unit 56 uses the first image deformation information as an initial value to generate an original image with a resolution higher than that of the image used in the first stage of processing. Using the image, alignment processing is performed to obtain second image deformation information, which is more detailed deformation information. That is, as the second image deformation information, for each pixel of the reference image, the corresponding position in the comparative image is calculated. Here, the second image deformation information is, for example, information having the same resolution as that of the reference image, and can be generated as a displacement field image holding a displacement vector (to the corresponding pixel of the comparison image) in each pixel of the reference image. Note that the above-described known alignment method may be used for this detailed alignment process as well, and a method different from the method for calculating the first image deformation information may be used. In addition to the method of comparing the reference image and the comparison image as they are in the original image, alignment may be performed using images after performing preprocessing such as noise removal and edge enhancement on the respective images. Also, in the case where the reference image and the comparison image are images obtained by different modalities, for example, various methods of registration between different modalities using mutual information may be used. Since the first image deformation information is calculated using a low-resolution image, the resolution of the deformation information may be changed in the second-stage processing according to the necessity of the registration method used in the second-stage registration processing. You may match with the resolution of the image to be used.

ここで、ステップS106の位置合わせに高い解像度の距離画像を用いないのには、距離画像には次のデメリットが考えられるためである。距離画像や被検体の所定の部位を示す領域の抽出結果に基づいた位置合わせは、その性質上、位置合わせ処理の精度が領域抽出処理の精度に強く依存してしまうという点がある。これは、領域抽出処理の精度が十分に高く、処理がロバストである場合には問題にならないが、領域抽出処理の結果に見落としや拾い過ぎがある場合には、詳細な位置合わせ処理において問題になる可能性がある。 Here, the reason why a high-resolution range image is not used for alignment in step S106 is that range images have the following disadvantages. Alignment based on a range image or an extraction result of a region indicating a predetermined part of the subject has a point that the accuracy of the alignment process strongly depends on the accuracy of the region extraction process due to its nature. This is not a problem if the region extraction process is accurate enough and the process is robust, but it can be a problem in the detailed registration process if there are oversights or oversights in the results of the region extraction process. may become.

例えば、領域抽出処理において、ある解剖学的構造の細かい構造を表す領域を見落としている場合、当該領域は位置合わせ処理の対象として扱われないため、抽出処理で見落とした領域の位置合わせができなくなってしまうという問題が生じる。一般に、ある解剖構造を抽出する問題を考えると、細かい構造を自動抽出することは困難であることが想像できる。 For example, if an area that represents a detailed structure of an anatomical structure is overlooked in the area extraction process, the area is not treated as a target for registration processing, so the overlooked area cannot be registered in the extraction process. There is a problem that the In general, considering the problem of extracting a certain anatomical structure, it can be imagined that automatic extraction of fine structures is difficult.

したがって、位置合わせ処理に求められる精度に対して領域抽出処理の精度が足りない場合には、詳細な位置合わせを行う段階では、より情報量の多い原画像などを用いる方が好ましいと考えられる。これらのことから、大まかな位置合わせを行う処理と詳細な位置合わせを行う処理を組み合わせる場合には、夫々の段階で最適な画像を選択することで、全体の処理性能を高められることが分かる。本実施形態においては、大まかな位置合わせを行うために、骨部の輪郭からの距離画像を用いて、詳細な位置合わせを行う際には、より情報量の多い原画像を用いることで、精度の高い位置合わせ処理を実現している。 Therefore, if the accuracy of the area extraction process is insufficient for the accuracy required for the alignment process, it is considered preferable to use an original image with a larger amount of information at the stage of detailed alignment. From these facts, it can be seen that when combining the processing of rough alignment and the processing of detailed alignment, the overall processing performance can be improved by selecting the optimum image at each stage. In the present embodiment, a distance image from the contour of the bone is used for rough alignment, and an original image with a larger amount of information is used for detailed alignment. It realizes a high degree of alignment processing.

なお、本ステップの位置合わせ処理は、原画像のみを用いるのではなく、非特許文献1の方法を用いても構わない。この場合においても、ステップS105の処理によって、位置合わせ対象の位置ずれが小さくなっているため、最終的な位置合わせ結果を得るまでの計算コストを下げられる効果は保たれる。 Note that the alignment process in this step may use the method of Non-Patent Document 1 instead of using only the original image. Even in this case, the processing in step S105 reduces the positional deviation of the alignment target, so the effect of reducing the calculation cost until obtaining the final alignment result is maintained.

最後に、第2の算出部56は、第2の画像変形情報と、第2の画像変形情報に基づいて比較画像を参照画像に合わせるように画像変形を行うことで生成した画像(変形画像)をRAM33に格納する。なお、この変形画像は必ずしも生成する必要はなく、前記第2の画像変形情報を出力、保存するだけでもよい。あるいは、第2の画像変形情報を入力として用いた処理を実行し、その結果を出力するだけでもよい。一例では、参照画像と変形画像の差分を計算した結果を出力してもよい。また、前記第2の変形情報に基づいて、比較画像上のROI(Region of Interest)に対応する参照画像上のROIの導出を行ってもよい。あるいは、前記第2の変形情報に基づいて、第1の画像の各スライスに略対応する第2の画像のスライスを同定し、その対応情報を出力する構成であってもよい。 Finally, the second calculation unit 56 generates an image (deformed image) by performing image deformation so as to match the comparison image with the reference image based on the second image deformation information and the second image deformation information. is stored in the RAM 33. It should be noted that it is not always necessary to generate this deformed image, and it is sufficient to simply output and store the second image deformation information. Alternatively, it is also possible to simply execute processing using the second image transformation information as input and output the result. In one example, the result of calculating the difference between the reference image and the deformed image may be output. Also, an ROI (Region of Interest) on the reference image corresponding to the ROI (Region of Interest) on the comparison image may be derived based on the second deformation information. Alternatively, the slices of the second image that substantially correspond to the slices of the first image may be identified based on the second deformation information, and the correspondence information thereof may be output.

(ステップS107:位置合わせ結果に基づいた画像表示)
ステップS107において、表示制御部57は、入力画像である参照画像と比較画像に併せて、変形画像を画像表示領域内に表示させる。このとき、2つの画像間の差を表す画像、すなわち差分画像(例えば、参照画像から変形画像を引いたもの)を計算し、画像表示領域内に表示させてもよい。
(Step S107: Image display based on alignment result)
In step S107, the display control unit 57 causes the deformed image to be displayed in the image display area together with the reference image and the comparison image, which are the input images. At this time, an image representing the difference between the two images, that is, a difference image (for example, an image obtained by subtracting the deformed image from the reference image) may be calculated and displayed within the image display area.

本実施形態によれば、多重解像度の位置合わせ処理に低解像度の距離画像と高解像度の原画像の両方を段階的に利用することで、異なる時点で撮像された2つの画像をより低い計算コストで、より高い精度の位置合わせ結果をユーザに提供できる効果がある。 According to the present embodiment, both the low-resolution range image and the high-resolution original image are used step-by-step for the multi-resolution registration process, so that two images taken at different times can be combined at a lower computational cost. , there is an effect that the user can be provided with a result of alignment with higher accuracy.

本実施形態によれば、多重解像度の位置合わせ処理の枠組みの中で、原画像よりも大まかな位置合わせに適している距離画像と、原画像とを組み合わせて利用することで、より低い計算コストで、精度の高い位置合わせ結果をユーザに提供できる。 According to this embodiment, within the framework of multi-resolution registration processing, by using a range image that is more suitable for rough registration than the original image in combination with the original image, the calculation cost can be reduced. , it is possible to provide the user with highly accurate alignment results.

(変形例)
上記の実施形態では、ステップS105の処理において第1の算出部55が第1の変形情報を算出する処理を行う前に、原画像よりも解像度の低い距離画像を生成し、当該位置合わせ処理に用いる例を示した。しかし、低い計算コストで大まかな位置合わせを行うための該変形情報を計算するまでの手順は必ずしもこれに限らない。例えば、解像度の変更を位置合わせ処理の前に行うのではなく、ステップS105の位置合わせ処理の中で同等の効果が得られる方法を用いながら変形情報を計算してもよい。より具体的には、ステップS105における位置合わせ処理の中で、処理対象の第1の距離画像と第2の距離画像の比較を行う際に、少なくとも一方の画像(例えば、第1の距離画像)をサンプリングして参照することで処理対象の画素を削減する方法を用いてもよい。例えば、第1の変形情報の計算を行う際に、第1の距離画像を原画像の解像度よりも低くなるようにサンプリングして参照し、サンプリングした位置(画素)において第1の距離画像と第2の距離画像の対応位置の計算を行ってもよい。このとき、前記第1の変形情報の解像度は、第1の距離画像と同じになる。すなわち、前記第2の変形情報の解像度よりも低くなることから、第1の実施形態と同様に、より低い計算コストで精度の高い位置合わせ結果をユーザに提供できる効果を保てる。
(Modification)
In the above-described embodiment, before the first calculator 55 performs the process of calculating the first deformation information in the process of step S105, a distance image having a resolution lower than that of the original image is generated and used for the alignment process. An example to use is shown. However, the procedure up to calculation of the deformation information for performing rough alignment at low calculation cost is not necessarily limited to this. For example, instead of changing the resolution before the alignment process, the deformation information may be calculated using a method that achieves the same effect during the alignment process in step S105. More specifically, in the alignment process in step S105, when comparing the first range image to be processed and the second range image, at least one image (for example, the first range image) may be used to reduce the number of pixels to be processed by sampling and referring to . For example, when calculating the first deformation information, the first distance image is sampled so as to have a resolution lower than that of the original image and referred to, and the first distance image and the first distance image are referenced at the sampled positions (pixels). Calculation of the corresponding positions of the two distance images may be performed. At this time, the resolution of the first deformation information is the same as that of the first distance image. That is, since the resolution is lower than that of the second deformation information, it is possible to maintain the effect of providing the user with highly accurate alignment results at a lower calculation cost, as in the first embodiment.

<その他の実施形態>
また、開示の技術は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インターフェイス機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、1つの機器からなる装置に適用しても良い。
<Other embodiments>
In addition, the technology disclosed herein can be embodied as, for example, a system, device, method, program, recording medium (storage medium), or the like. Specifically, it may be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, an imaging device, a web application, etc.), or may be applied to a device composed of a single device. good.

また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。すなわち、前述した実施形態の機能を実現するソフトウェアのプログラムコード(コンピュータプログラム)を記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。 Moreover, it goes without saying that the object of the present invention is achieved by the following. That is, a recording medium (or storage medium) recording software program code (computer program) for realizing the functions of the above-described embodiments is supplied to the system or device. Such a storage medium is, of course, a computer-readable storage medium. Then, the computer (or CPU or MPU) of the system or device reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium implements the functions of the above-described embodiments, and the recording medium recording the program code constitutes the present invention.

10 画像処理装置
21 ネットワーク
22 データベース
31 通信IF
32 ROM
33 RAM
34 記憶部
35 操作部
36 表示部
37 制御部
51 取得部
52 抽出部
53 生成部
54 変更部
55 第1の算出部
56 第2の算出部
57 表示制御部
10 image processing device 21 network 22 database 31 communication IF
32 ROMs
33 RAM
34 storage unit 35 operation unit 36 display unit 37 control unit 51 acquisition unit 52 extraction unit 53 generation unit 54 change unit 55 first calculation unit 56 second calculation unit 57 display control unit

Claims (19)

被検体を互いに異なる時刻に撮像した第1の画像と第2の画像を取得する取得部と、
前記第1の画像において抽出される被検体の所定の部位を示す領域の輪郭からの距離に基づいた画素値を有し、且つ前記第1の画像より解像度が低い第1の距離画像を生成し、前記第2の画像において抽出される前記所定の部位を示す領域の輪郭からの距離に基づいた画素値を有し、且つ前記第2の画像より解像度が低い第2の距離画像を生成する生成部と、
前記第1の距離画像と前記第2の距離画像を位置合わせすることにより第1の変形情報を算出する第1の算出部と、
前記第1の変形情報に基づいて前記第1の画像と前記第2の画像を位置合わせすることにより第2の変形情報を算出する第2の算出部と、
を備えることを特徴とする画像処理装置。
an acquisition unit that acquires a first image and a second image obtained by imaging a subject at different times;
generating a first distance image having pixel values based on a distance from a contour of a region indicating a predetermined part of the subject extracted in the first image and having a resolution lower than that of the first image; generating a second distance image having pixel values based on the distance from the contour of the region representing the predetermined part extracted in the second image and having a resolution lower than that of the second image; Department and
a first calculation unit that calculates first deformation information by aligning the first distance image and the second distance image;
a second calculation unit that calculates second deformation information by aligning the first image and the second image based on the first deformation information;
An image processing device comprising:
被検体を互いに異なる時刻に撮像した第1の画像と第2の画像を取得する取得部と、
前記第1の画像において抽出される被検体の所定の部位を示す領域の輪郭からの距離に基づいた画素値を有する第1の距離画像と、前記第2の画像において抽出される前記所定の部位を示す領域の輪郭からの距離に基づいた画素値を有する第2の距離画像を生成する生成部と、
前記第1の距離画像と前記第2の距離画像を位置合わせすることにより第1の変形情報を算出する第1の算出部と、
前記第1の変形情報に基づいて前記第1の画像と前記第2の画像を位置合わせすることにより第2の変形情報を算出する第2の算出部と、
を備え、
前記第1の変形情報の解像度が前記第2の変形情報の解像度より低いことを特徴とする画像処理装置。
an acquisition unit that acquires a first image and a second image obtained by imaging a subject at different times;
A first distance image having pixel values based on a distance from a contour of a region indicating a predetermined site of a subject extracted in the first image, and the predetermined site extracted in the second image. a generation unit that generates a second distance image having pixel values based on the distance from the contour of the area showing
a first calculation unit that calculates first deformation information by aligning the first distance image and the second distance image;
a second calculation unit that calculates second deformation information by aligning the first image and the second image based on the first deformation information;
with
An image processing apparatus, wherein the resolution of the first deformation information is lower than the resolution of the second deformation information.
前記第1の算出部と前記第2の算出部は、前記第1の画像と前記第2の画像のうち、一方の画像に比べて過去に撮像された方の画像を前記一方の画像に対して変形することにより前記第1の変形情報と前記第2の変形情報を算出することを特徴とする請求項1または2に記載の画像処理装置。 The first calculation unit and the second calculation unit are configured to calculate, of the first image and the second image, the image that was captured earlier than the one image, with respect to the one image. 3. The image processing apparatus according to claim 1, wherein the first deformation information and the second deformation information are calculated by deforming the image. 前記生成部は、所定の閾値以上の画素値を抽出することにより前記所定の部位を示す領域を抽出することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。 4. The image processing apparatus according to any one of claims 1 to 3, wherein the generation unit extracts a region indicating the predetermined site by extracting pixel values equal to or greater than a predetermined threshold. 前記生成部は、前記所定の部位を示す領域の輪郭からのユークリッド距離に基づいた画素値を有する前記距離画像を生成することを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。 5. The image according to any one of claims 1 to 4 , wherein the generating unit generates the distance image having pixel values based on a Euclidean distance from a contour of the region indicating the predetermined part. processing equipment. 前記生成部は、前記所定の部位を示す領域内の少なくとも一部の画素の画素値は、前記ユークリッド距離が長くなるにつれて大きくなるように前記距離画像を生成することを特徴とする請求項に記載の画像処理装置。 6. The distance image according to claim 5 , wherein the generation unit generates the distance image such that the pixel values of at least some of the pixels in the region indicating the predetermined part increase as the Euclidean distance increases. The described image processing device. 前記生成部は、前記所定の部位を示す領域内の前記ユークリッド距離が所定値以上の画素は一律に同じ画素値を有する前記距離画像を生成することを特徴とする請求項またはに記載の画像処理装置。 7. The generating unit according to claim 5 , wherein the generating unit generates the distance image in which the pixels having the Euclidean distance equal to or greater than a predetermined value in the region indicating the predetermined portion uniformly have the same pixel value. Image processing device. 前記生成部は、前記所定の部位を示す領域外の少なくとも一部の画素の画素値は、前記ユークリッド距離が長くなるにつれて小さくなるように前記距離画像を生成することを特徴とする請求項乃至のいずれか1項に記載の画像処理装置。 5. The generating unit generates the distance image such that the pixel values of at least some pixels outside the region indicating the predetermined part become smaller as the Euclidean distance becomes longer. 8. The image processing device according to any one of 7 . 前記生成部は、前記所定の部位を示す領域外の前記ユークリッド距離が所定値以上の画素は一律に同じ画素値を有する前記距離画像を生成することを特徴とする請求項に記載の画像処理装置。 9. The image processing according to claim 8 , wherein the generation unit generates the distance image in which pixels having the Euclidean distance equal to or greater than a predetermined value outside the region indicating the predetermined portion uniformly have the same pixel value. Device. 前記第2の算出部は、前記第1の変形情報を初期値として前記第2の変形情報を算出することを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。 10. The image processing apparatus according to claim 1, wherein the second calculator calculates the second deformation information using the first deformation information as an initial value. 前記第1の変形情報もしくは前記第2の変形情報に基づいて前記第2の画像を変形させた変形画像と、前記第1の画像と前記変形画像との差分を示す差分画像との少なくとも一方を表示部に表示させる表示制御部をさらに備えることを特徴とする請求項1乃至1のいずれか1項に記載の画像処理装置。 At least one of a deformed image obtained by deforming the second image based on the first deformation information or the second deformation information, and a difference image indicating a difference between the first image and the deformed image. 11. The image processing apparatus according to any one of claims 1 to 10 , further comprising a display control section that causes the display section to display. 前記所定の部位は、骨部、肝臓、肺野または脳のうち少なくとも1つであることを特徴とする請求項1乃至1のいずれか1項に記載の画像処理装置。 12. The image processing apparatus according to any one of claims 1 to 11 , wherein the predetermined site is at least one of a bone, liver, lung field, and brain. 被検体を互いに異なる時刻に撮像した第1の画像と第2の画像を取得する画像取得工程と、
前記第1の画像において抽出される被検体の所定の部位を示す領域の輪郭からの距離に基づいた画素値を有し、且つ前記第1の画像より解像度が低い第1の距離画像を生成し、前記第2の画像において抽出される前記領域の輪郭からの距離に基づいた画素値を有し、且つ前記第2の画像より解像度が低い第2の距離画像を生成する生成工程と、
前記第1の距離画像と前記第2の距離画像を位置合わせすることにより第1の変形情報を算出する第1の算出工程と、
前記第1の変形情報に基づいて、前記第1の画像と前記第2の画像を位置合わせすることにより第2の変形情報を算出する第2の算出工程と、
を備えることを特徴とする画像処理方法。
an image acquisition step of acquiring a first image and a second image of the subject captured at different times;
generating a first distance image having pixel values based on a distance from a contour of a region indicating a predetermined part of the subject extracted in the first image and having a resolution lower than that of the first image; a generating step of generating a second distance image having pixel values based on distances from the contour of the region extracted in the second image and having a resolution lower than that of the second image;
a first calculation step of calculating first deformation information by aligning the first distance image and the second distance image;
a second calculation step of calculating second deformation information by aligning the first image and the second image based on the first deformation information;
An image processing method comprising:
前記生成工程は、前記第1の画像において、前記領域の輪郭からの距離に基づいた画素値を有する画像を生成した後に解像度を低減することにより前記第1の距離画像を生成し、且つ前記第2の画像において、前記領域の輪郭からの距離に基づいた画素値を有する画像を生成した後に解像度を低減することにより前記第2の距離画像を生成することを特徴とする請求項1に記載の画像処理方法。 The generating step generates the first distance image by reducing the resolution after generating an image having pixel values based on the distance from the contour of the region in the first image, and 2. The second distance image is generated by reducing the resolution after generating an image having pixel values based on the distance from the contour of the area. image processing method. 前記生成工程は、前記第1の画像において、前記第1の画像の解像度を低減した後に前記領域を抽出し、前記領域の輪郭からの距離に基づいた画素値を有する前記第1の距離画像を生成し、且つ前記第2の画像において、前記第2の画像の解像度を低減した後に前記領域を抽出し、前記領域の輪郭からの距離に基づいた画素値を有する前記第2の距離画像を生成することを特徴とする請求項1に記載の画像処理方法。 The generating step extracts the region in the first image after reducing the resolution of the first image, and generates the first distance image having pixel values based on the distance from the contour of the region. and extracting the region in the second image after reducing the resolution of the second image to generate the second range image having pixel values based on the distance from the contour of the region. 14. The image processing method according to claim 13 , wherein: 前記被検体の所定の部位の情報を取得する部位情報取得工程をさらに備え、
前記生成工程は、前記取得した前記被検体の部位が、肋骨または胸骨である場合には、前記第1の画像において、前記領域の輪郭からの距離に基づいた画素値を有する画像を生成した後に解像度を低減することにより前記第1の距離画像を生成し、且つ前記第2の画像において、前記領域の輪郭からの距離に基づいた画素値を有する画像を生成した後に解像度を低減することにより前記第2の距離画像を生成することを特徴とする請求項1乃至1のいずれか1項に記載の画像処理方法。
further comprising a site information acquiring step of acquiring information on a predetermined site of the subject;
In the generating step, when the acquired part of the subject is a rib or a sternum, after generating an image having pixel values based on the distance from the contour of the region in the first image, generating the first distance image by reducing the resolution, and reducing the resolution after generating an image in the second image having pixel values based on the distance from the contour of the region; The image processing method according to any one of claims 13 to 15 , wherein a second distance image is generated.
前記生成工程は、前記取得した前記被検体の部位が、肺野、肝臓または骨盤である場合には、前記第1の画像において、前記領域の輪郭からの距離に基づいた画素値を有する画像を生成した後に解像度を低減することにより前記第1の距離画像を生成し、且つ前記第2の画像において、前記領域の輪郭からの距離に基づいた画素値を有する画像を生成した後に解像度を低減することにより前記第2の距離画像を生成することを特徴とする請求項1に記載の画像処理方法。 In the generating step, when the acquired part of the subject is the lung field, the liver, or the pelvis, the first image includes an image having pixel values based on the distance from the contour of the area. generating the first distance image by reducing the resolution after generation, and reducing the resolution after generating an image in the second image having pixel values based on distance from the contour of the region; 17. The image processing method according to claim 16 , wherein the second distance image is generated by 被検体を撮像した第1の画像と第2の画像を位置合わせする方法であって、
前記第1の画像から生成された、前記被検体の所定の部位を示す領域の輪郭からの距離に基づいた画素値を有する第1の距離画像と、前記第2の画像から生成された、前記被検体の所定の部位を示す領域の輪郭からの距離に基づいた画素値を有する第2の距離画像と、を位置合わせすることにより前記第1の画像及び前記第2の画像の解像度よりも低い解像度の第1の変形情報を算出する第1の位置合わせ工程と、
前記第1の位置合わせ工程により取得される前記第1の変形情報を用いて、前記第1の画像と、前記第2の画像を位置合わせすることにより前記第1の変形情報よりも高い解像度を有する第2の変形情報を算出する第2の位置合わせ工程と、
を備えることを特徴とする画像処理方法。
A method of aligning first and second images of a subject, comprising:
A first distance image generated from the first image and having pixel values based on a distance from a contour of a region indicating a predetermined portion of the subject; and the second image generated from the second image. and a second range image having pixel values based on distances from the contour of the region indicating the predetermined portion of the subject, and a lower resolution than the first and second images. a first alignment step of calculating first deformation information of resolution;
A resolution higher than that of the first deformation information by registering the first image and the second image using the first deformation information acquired by the first registration step a second alignment step of calculating second deformation information having
An image processing method comprising:
請求項1乃至1のいずれか1項に記載の画像処理装置の各手段をコンピュータに実行させることを特徴とするプログラム。 A program causing a computer to execute each means of the image processing apparatus according to any one of claims 1 to 12 .
JP2018243767A 2018-12-26 2018-12-26 Image processing device, image processing method, and program Active JP7277131B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018243767A JP7277131B2 (en) 2018-12-26 2018-12-26 Image processing device, image processing method, and program
PCT/JP2019/049333 WO2020137677A1 (en) 2018-12-26 2019-12-17 Image processing device, image processing method, and program
US17/344,748 US11880987B2 (en) 2018-12-26 2021-06-10 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018243767A JP7277131B2 (en) 2018-12-26 2018-12-26 Image processing device, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2020103464A JP2020103464A (en) 2020-07-09
JP7277131B2 true JP7277131B2 (en) 2023-05-18

Family

ID=71129769

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018243767A Active JP7277131B2 (en) 2018-12-26 2018-12-26 Image processing device, image processing method, and program

Country Status (3)

Country Link
US (1) US11880987B2 (en)
JP (1) JP7277131B2 (en)
WO (1) WO2020137677A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11580832B2 (en) * 2020-10-23 2023-02-14 Himax Technologies Limited Motion detection system and method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006508746A (en) 2002-12-04 2006-03-16 コンフォーミス・インコーポレイテッド Fusion of multiple imaging planes for isotropic imaging in MRI and quantitative image analysis using isotropic or approximate isotropic imaging
JP2007064617A (en) 2005-08-26 2007-03-15 Linde Ag Method of manufacturing krypton and/or xenon by cryogenic air separation
US20110069063A1 (en) 2009-07-29 2011-03-24 Siemens Corporation Catheter rf ablation using segmentation-based 2d-3d registration
JP2014054476A (en) 2012-09-14 2014-03-27 Fujifilm Corp Bone mineral density measuring device and method
CN103914814A (en) 2012-12-28 2014-07-09 北京思创贯宇科技开发有限公司 Image fusion method and system for CT coronary image and XA angiography image
JP2015096196A (en) 2013-11-11 2015-05-21 株式会社東芝 Medical image processor and medical image processing method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08103439A (en) * 1994-10-04 1996-04-23 Konica Corp Alignment processor for image and inter-image processor
US20070049817A1 (en) * 2005-08-30 2007-03-01 Assaf Preiss Segmentation and registration of multimodal images using physiological data
DE102012204977B4 (en) * 2012-03-28 2017-05-18 Siemens Healthcare Gmbh Method for iterative image reconstruction for bi-modal CT data and corresponding computation unit, computed tomography system, computer program and data carrier
US20190000318A1 (en) * 2015-12-28 2019-01-03 Metritrack, Inc. System and method for the coregistration of medical image data
EP3508127A4 (en) * 2016-08-31 2020-04-08 C/o Canon Kabushiki Kaisha Image processing device, image processing method and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006508746A (en) 2002-12-04 2006-03-16 コンフォーミス・インコーポレイテッド Fusion of multiple imaging planes for isotropic imaging in MRI and quantitative image analysis using isotropic or approximate isotropic imaging
JP2007064617A (en) 2005-08-26 2007-03-15 Linde Ag Method of manufacturing krypton and/or xenon by cryogenic air separation
US20110069063A1 (en) 2009-07-29 2011-03-24 Siemens Corporation Catheter rf ablation using segmentation-based 2d-3d registration
JP2014054476A (en) 2012-09-14 2014-03-27 Fujifilm Corp Bone mineral density measuring device and method
CN103914814A (en) 2012-12-28 2014-07-09 北京思创贯宇科技开发有限公司 Image fusion method and system for CT coronary image and XA angiography image
JP2015096196A (en) 2013-11-11 2015-05-21 株式会社東芝 Medical image processor and medical image processing method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
BORGEFORS, Gunilla,Hierarchical Chamfer Matching: A Parametric Edge Matching Algorithm,IEEE transactions on pattern analysis and machine intelligence,IEEE,1988年,vol.10, No.6,pp.849-865

Also Published As

Publication number Publication date
WO2020137677A1 (en) 2020-07-02
US11880987B2 (en) 2024-01-23
US20210304425A1 (en) 2021-09-30
JP2020103464A (en) 2020-07-09

Similar Documents

Publication Publication Date Title
US10304158B2 (en) Image processing apparatus, image processing method and non-transitory computer-readable medium with calculation of information representing direction of target tissue and with estimating of depicting appearance of target tissue
EP2916738B1 (en) Lung, lobe, and fissure imaging systems and methods
US7907768B2 (en) Method and apparatus for probabilistic atlas based on shape modeling technique
JP5749735B2 (en) Bone suppression in X-ray radiographs
EP3611699A1 (en) Image segmentation using deep learning techniques
CN112967236B (en) Image registration method, device, computer equipment and storage medium
KR20200092489A (en) Apparatus and method for generating 3-dimensional full body skeleton model using deep learning
Schumann et al. An integrated system for 3D hip joint reconstruction from 2D X-rays: a preliminary validation study
JP2005169077A (en) Method for finding transformation relating data point of first data set to data point of second data set, and computer program for performing the method
JP2016189946A (en) Medical image alignment device, method, and program
CN110782428A (en) Method and system for constructing clinical brain CT image ROI template
JP7277131B2 (en) Image processing device, image processing method, and program
US9286688B2 (en) Automatic segmentation of articulated structures
JP2004188202A (en) Automatic analysis method of digital radiograph of chest part
JP4571378B2 (en) Image processing method, apparatus, and program
Kumar et al. Semiautomatic method for segmenting pedicles in vertebral radiographs
US11138736B2 (en) Information processing apparatus and information processing method
Zhong et al. Action learning for 3D point cloud based organ segmentation
Starzynski et al. Morphing algorithm for building individualized 3D skeleton model from CT data
JP2005305048A (en) Apparatus and method for positioning patient
JP2022052210A (en) Information processing device, information processing method, and program
CN117495893B (en) Skull peeling method based on active contour model
JP7346027B2 (en) Image processing device, image processing method, and program
Jarc et al. A multistage registration method using texture features
Song et al. Multi-modality liver image registration based on multilevel B-splines free-form deformation and L-BFGS optimal algorithm

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230508

R151 Written notification of patent or utility model registration

Ref document number: 7277131

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151