JP2022023564A - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP2022023564A
JP2022023564A JP2020126579A JP2020126579A JP2022023564A JP 2022023564 A JP2022023564 A JP 2022023564A JP 2020126579 A JP2020126579 A JP 2020126579A JP 2020126579 A JP2020126579 A JP 2020126579A JP 2022023564 A JP2022023564 A JP 2022023564A
Authority
JP
Japan
Prior art keywords
image
region
information processing
pixel value
correspondence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020126579A
Other languages
Japanese (ja)
Other versions
JP2022023564A5 (en
Inventor
亮 石川
Ryo Ishikawa
亨 田中
Toru Tanaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Canon Medical Systems Corp
Original Assignee
Canon Inc
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc, Canon Medical Systems Corp filed Critical Canon Inc
Priority to JP2020126579A priority Critical patent/JP2022023564A/en
Publication of JP2022023564A publication Critical patent/JP2022023564A/en
Publication of JP2022023564A5 publication Critical patent/JP2022023564A5/ja
Pending legal-status Critical Current

Links

Images

Abstract

To provide a technology to accurately associate pixels among images taken of a moving object.SOLUTION: An information processing device includes an image acquisition part for acquiring a first image and a second image by imaging a moving object at different timings, and an image processing part for executing positioning processing for the first image and the second image. The image processing part converts pixel values of the first image and/or the second image so that a difference between statistics of pixel values in the region of the object in the first image and statistics of pixel values in the region of the object in the second image becomes small, and on the basis of the converted pixel values, acquires the correspondence of the pixel values in the region of the object between the first image and the second image.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、情報処理方法、及びプログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, and a program.

医療現場では、X線CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置、PET(Positron Emission Tomography)装置などの医用画像撮影装置により、患者が撮像されている。そして撮像された医用画像を詳細に観察することで、患者の体内における様々な種類の臓器の解剖学的構造やその機能情報を得て、その情報を診断や治療に活用している。 In the medical field, a patient is imaged by a medical imaging device such as an X-ray CT (Computed Tomography) device, an MRI (Magnetic Resonance Imaging) device, and a PET (Positron Emission Tomography) device. By observing the captured medical images in detail, information on the anatomical structures and functions of various types of organs in the patient's body is obtained, and the information is used for diagnosis and treatment.

人体を構成する様々な種類の臓器の中には、周囲の組織に対して相対的に動く臓器がある。例えば、肺は呼吸運動によって動くし、心臓は血液を体内に循環させるために動く。そして、同じ臓器であってもその構造や病変の有無等により、臓器内または表面上の位置(以下、臓器内位置と称する)によって、周囲の組織に対する相対的な動き(移動の方向や移動の量)が異なることが知られている。ここで、医用画像から、対象とする臓器の臓器内位置による移動の方向や移動の量(以下、移動情報と称する)の違いを可視化(すなわち移動の方向や量の分布を可視化)したいというユーザ(医師等)の要望がある。異常な動きを有する臓器内位置を認識し、疾患や病変の発見に役立てるためである。例えば、肺の表面の各位置における肺の呼吸運動による移動情報を可視化することで、肺の表面における胸膜との癒着位置を医用画像から特定したいという要望がある。 Among the various types of organs that make up the human body, there are organs that move relative to the surrounding tissues. For example, the lungs move by breathing movements, and the heart moves to circulate blood in the body. Then, even if the organ is the same, the relative movement (direction of movement or movement) with respect to the surrounding tissue depends on the position in the organ or on the surface (hereinafter referred to as the position in the organ) depending on the structure, the presence or absence of a lesion, and the like. It is known that the amount) is different. Here, a user who wants to visualize the difference in the direction of movement and the amount of movement (hereinafter referred to as movement information) depending on the position of the target organ in the organ from the medical image (that is, visualize the distribution of the direction and amount of movement). There is a request from (doctors, etc.). This is to recognize the position in an organ with abnormal movement and to help detect diseases and lesions. For example, there is a desire to identify the position of adhesion with the pleura on the surface of the lung from a medical image by visualizing the movement information due to the respiratory movement of the lung at each position on the surface of the lung.

特許文献1では、肺を撮像した時系列の3次元画像(ボリュームデータ)に対して画像間の位置合わせを行い、肺の表面における胸膜の癒着と関連の深い、呼吸運動による表面位置の滑り量を算出する技術が開示されている。 In Patent Document 1, the time-series three-dimensional images (volume data) of the lungs are aligned with each other, and the amount of slippage of the surface position due to respiratory movement, which is closely related to the adhesion of the pleura on the surface of the lungs. The technique for calculating the above is disclosed.

特開2016-67832号公報Japanese Unexamined Patent Publication No. 2016-67832

動きのある臓器を異なるタイミングで撮影した医用画像においては、画像ごとに臓器の濃度値(画素値)が変動する可能性がある。臓器の状態によって組織内に含まれる空気や血液の量が変化したり、時間的な経過によって造影条件(例えば、造影剤の有無や造影剤の血中濃度の違いなど)が変化したりするからである。そのような濃度値の変動(相違)は、画像間の位置合わせ(すなわち画素同士の対応付け)の失敗や精度低下の原因となり得るため、問題である。特に、画素の濃度値の類似度に基づいて画像間の画素の対応付けを行うアルゴリズムの場合は、その問題が顕著となる。 In medical images of moving organs taken at different timings, the density value (pixel value) of the organ may fluctuate for each image. The amount of air and blood contained in the tissue changes depending on the condition of the organ, and the contrast conditions (for example, the presence or absence of contrast medium and the difference in blood concentration of contrast medium) change over time. Is. Such fluctuations (differences) in density values are problematic because they can cause failure in alignment between images (that is, correspondence between pixels) and deterioration in accuracy. In particular, in the case of an algorithm that associates pixels between images based on the similarity of pixel density values, the problem becomes remarkable.

本発明は、上記実情に鑑みなされたものであって、動きのある対象物を撮影した画像間で画素の対応付けを高精度に行うための技術を提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a technique for accurately associating pixels between images obtained by photographing a moving object.

本開示は、動きのある対象物を異なるタイミングで撮影することにより第1の画像および第2の画像を取得する画像取得部と、前記第1の画像と前記第2の画像との位置合わせ処理を行う画像処理部と、を有し、前記画像処理部は、前記第1の画像における前記対象
物の領域の画素値の統計量と前記第2の画像における前記対象物の領域の画素値の統計量との差が小さくなるように、前記第1の画像および/または前記第2の画像の画素値を変換し、変換された画素値に基づいて、前記第1の画像と前記第2の画像の間での前記対象物の領域内の画素の対応関係を取得することを特徴とする情報処理装置を含む。
In the present disclosure, an image acquisition unit that acquires a first image and a second image by photographing a moving object at different timings, and an alignment process between the first image and the second image. The image processing unit has an image processing unit for performing the above, and the image processing unit has a statistic of the pixel value of the region of the object in the first image and a pixel value of the region of the object in the second image. The pixel values of the first image and / or the second image are converted so that the difference from the statistics becomes small, and the first image and the second image are based on the converted pixel values. It includes an information processing apparatus characterized by acquiring the correspondence of pixels in the region of the object between images.

本開示は、動きのある対象物を異なるタイミングで撮影することにより第1の画像および第2の画像を取得するステップと、前記第1の画像と前記第2の画像との位置合わせ処理を行うステップと、を有し、前記位置合わせ処理において、前記第1の画像における前記対象物の領域の画素値の統計量と前記第2の画像における前記対象物の領域の画素値の統計量との差が小さくなるように、前記第1の画像および/または前記第2の画像の画素値を変換し、変換された画素値に基づいて、前記第1の画像と前記第2の画像の間での前記対象物の領域内の画素の対応関係を取得することを特徴とする情報処理方法を含む。 In the present disclosure, a step of acquiring a first image and a second image by photographing a moving object at different timings, and an alignment process of the first image and the second image are performed. And, in the alignment process, the statistic of the pixel value of the area of the object in the first image and the statistic of the pixel value of the area of the object in the second image. The pixel values of the first image and / or the second image are converted so that the difference is small, and based on the converted pixel values, between the first image and the second image. Includes an information processing method characterized by acquiring the correspondence of pixels in the region of the object.

本開示は、上記情報処理方法の各ステップをコンピュータに実行させるためのプログラムを含む。 The present disclosure includes a program for causing a computer to execute each step of the above information processing method.

本発明によれば、動きのある対象物を撮影した画像間で画素の対応付けを高精度に行うことができる。 According to the present invention, pixels can be associated with each other with high accuracy between images of moving objects.

第一実施形態に係る情報処理システムの機器構成を示す図である。It is a figure which shows the equipment structure of the information processing system which concerns on 1st Embodiment. 第一実施形態における全体の処理手順を示すフロー図である。It is a flow chart which shows the whole processing procedure in 1st Embodiment. 被検体の3DCTデータを説明する図である。It is a figure explaining 3DCT data of a subject. 第二実施形態における全体の処理手順を示すフロー図である。It is a flow chart which shows the whole processing procedure in 2nd Embodiment. 図4のステップS2040の処理手順を示すフロー図である。It is a flow chart which shows the processing procedure of step S2040 of FIG. 第三実施形態における全体の処理手順を示すフロー図である。It is a flow chart which shows the whole processing procedure in 3rd Embodiment.

以下、添付図面に従って本明細書に開示の情報処理装置の好ましい実施形態について詳説する。ただし、この実施形態に記載されている構成要素はあくまで例示であり、本明細書に開示の情報処理装置の技術的範囲は、特許請求の範囲によって確定されるのであって、以下の個別の実施形態によって限定されるわけではない。また、本明細書の開示は下記実施形態に限定されるものではなく、本明細書の開示の趣旨に基づき種々の変形が可能であり、それらを本明細書の開示の範囲から除外するものではない。即ち、後述する実施例及びその変形例を組み合わせた構成も全て本明細書に開示の実施形態に含まれるものである。 Hereinafter, preferred embodiments of the information processing apparatus disclosed in the present specification will be described in detail with reference to the accompanying drawings. However, the components described in this embodiment are merely examples, and the technical scope of the information processing apparatus disclosed in the present specification is determined by the scope of claims, and the following individual embodiments are made. It is not limited by the form. Further, the disclosure of the present specification is not limited to the following embodiments, and various modifications can be made based on the purpose of the disclosure of the present specification, and these may be excluded from the scope of the disclosure of the present specification. do not have. That is, all the configurations in which the examples described later and the modifications thereof are combined are included in the embodiments disclosed in the present specification.

本明細書では、「画像」の語を「2次元画像」と「3次元画像(ボリュームデータとも呼ばれる)」の両方を包含する概念として用いる。また、撮影時刻が異なる複数の画像で構成された時系列データ(複数の2次元画像の組または複数の3次元画像の組)を「画像」と呼ぶ場合もある。また、「画素」の語を、2次元画像を構成する最小要素と、3次元画像を構成する最小要素(ボクセルとも呼ばれる)の両方を包含する概念として用いる。 In the present specification, the word "image" is used as a concept including both "two-dimensional image" and "three-dimensional image (also referred to as volume data)". Further, time-series data (a set of a plurality of two-dimensional images or a set of a plurality of three-dimensional images) composed of a plurality of images having different shooting times may be referred to as an "image". Further, the word "pixel" is used as a concept including both a minimum element constituting a two-dimensional image and a minimum element (also referred to as a voxel) constituting a three-dimensional image.

[第一実施形態]
本発明の第一実施形態に係る情報処理システムは、医療機関における医師や技師などのユーザに対して、検査対象である被検体の胸膜の癒着状態の把握、診断を支援する機能を提供する。具体的には、肺の移動情報として、被検体の肺の運動に関する特徴量の一種である胸膜の滑り状態を容易に視認できる観察画像を生成する機能を提供する。より具体的には、呼吸により運動する被検体の肺を撮影した時系列の3DCTデータ(4DCTデー
タ、4次元CT画像)から、該被検体の肺の胸膜部分(肺輪郭部分)の動きを計測し、該部分の滑り状態を滑り量マップとして視覚化する。なお、「滑り」とは、動きのある対象物(肺など)とその周囲領域との相対的な移動であり、「滑り量マップ」は、対象物の領域と周囲領域の間(境界)の滑り量の分布を表す情報である。
[First Embodiment]
The information processing system according to the first embodiment of the present invention provides a user such as a doctor or a technician in a medical institution with a function of supporting grasping and diagnosing the adhesion state of the pleura of a subject to be examined. Specifically, it provides a function of generating an observation image in which the slipping state of the pleura, which is a kind of feature amount related to the movement of the lung of the subject, can be easily visually recognized as the movement information of the lung. More specifically, the movement of the pleural portion (lung contour portion) of the lung of the subject is measured from the time-series 3DCT data (4DCT data, 4-dimensional CT image) of the lung of the subject exercising by breathing. Then, the slip state of the portion is visualized as a slip amount map. Note that "slip" is the relative movement between a moving object (lung, etc.) and its surrounding area, and the "slip amount map" is between the object area and the surrounding area (boundary). It is information showing the distribution of the amount of slip.

ところで、肺のように動きのある対象物を異なるタイミングで撮影して得た時系列データにおいては、対象物の濃度値(輝度値、画素値)が画像間で変動し得る。例えば、肺の場合であれば、被検体の呼吸状態(主に換気量)に依存して、肺野内の濃度値に違いがでる。濃度値の違いは画像間の位置合わせ処理の失敗や精度低下を招く可能性があるため、本実施形態では、画像間の対象物の濃度値の違いを補正したうえで位置合わせ処理を行う。具体的には、2つの画像の間での対象物領域の画素値の統計量の差が小さくなるように、一方または両方の画像の画素値を変換(補正)し、変換された画素値に基づいて2つの画像の間での対象物領域内の画素の対応関係を取得する、という処理を行う。これにより、動きのある対象物を撮影した画像間で画素の対応付けを高精度に行うことができる。 By the way, in time-series data obtained by photographing a moving object such as a lung at different timings, the density value (luminance value, pixel value) of the object may fluctuate between images. For example, in the case of the lungs, the concentration value in the lung field differs depending on the respiratory condition (mainly the ventilation volume) of the subject. Since the difference in the density value may lead to the failure of the alignment process between the images and the deterioration of the accuracy, in the present embodiment, the alignment process is performed after correcting the difference in the density value of the object between the images. Specifically, the pixel values of one or both images are converted (corrected) so that the difference in the statistic of the pixel values of the object region between the two images is small, and the converted pixel values are obtained. Based on this, the process of acquiring the correspondence between the pixels in the object region between the two images is performed. As a result, pixels can be associated with each other with high accuracy between images of moving objects.

図1は、本発明の一実施の形態に係わる情報処理システムの全体構成を示す図である。情報処理システムは、情報処理装置10、検査画像データベース30、検査画像撮影装置40を含み、これらの装置は、通信手段を介して互いに通信可能に接続されている。本実施形態においては、通信手段はLAN(Local Area Network)50で構成されるが、WAN(Wide Area Network)であってもよい。また、通信手段の接続方法は有線接続であってもよいし、無線接続であってもよい。 FIG. 1 is a diagram showing an overall configuration of an information processing system according to an embodiment of the present invention. The information processing system includes an information processing device 10, an inspection image database 30, and an inspection image capturing device 40, and these devices are communicably connected to each other via a communication means. In the present embodiment, the communication means is configured by LAN (Local Area Network) 50, but may be WAN (Wide Area Network). Further, the connection method of the communication means may be a wired connection or a wireless connection.

検査画像データベース30は、複数の患者に関する複数の検査画像とその付帯情報を保持する。検査画像とは、例えばCTやMRI等の画像診断装置で撮影した医用画像であり、2次元画像や3次元画像、または3次元画像の動画像である4次元画像などが対象となりうる。また、各画像はモノクロームやカラーなどの様々な様態の画像が対象となりうる。本実施形態における検査画像データベース30は、被検体の肺を撮影した4DCTデータを保持する。検査画像データベース30は、検査画像の付帯情報として、患者名(患者ID)や検査日情報(検査画像を撮影した日付)、検査画像の撮影モダリティ名などを保持する。また、各々の検査画像およびその付帯情報には、他との識別を可能にするために、固有の番号(検査画像ID)が付され、それに基づいて情報処理装置10による情報の読み出しが行える。 The examination image database 30 holds a plurality of examination images related to a plurality of patients and their incidental information. The inspection image is, for example, a medical image taken by an image diagnostic device such as CT or MRI, and may be a two-dimensional image, a three-dimensional image, or a four-dimensional image which is a moving image of a three-dimensional image. In addition, each image can be an image of various modes such as monochrome and color. The examination image database 30 in the present embodiment holds 4DCT data obtained by photographing the lungs of a subject. The inspection image database 30 holds the patient name (patient ID), the inspection date information (date when the inspection image was taken), the shooting modality name of the inspection image, and the like as incidental information of the inspection image. Further, each inspection image and its incidental information are assigned a unique number (inspection image ID) so as to be able to be distinguished from the others, and the information processing device 10 can read out the information based on the unique number (inspection image ID).

情報処理装置10は、検査画像データベース30が保持する情報を、LAN50を介して取得する。検査画像取得部100は、検査画像撮影装置40が撮影し、検査画像データベース30が保持している被検体の検査画像を取得する。領域抽出部110は、検査画像取得部100が取得する検査画像を解析し、被検体の肺領域を抽出する。平均濃度値算出部120は、検査画像取得部100が取得する検査画像と、領域抽出部110が抽出する被検体の肺領域に基づいて、被検体の肺領域における検査画像の濃度値(画素値)の統計量として平均値を算出する。濃度値補正部130は、平均濃度値算出部120が算出する被検体の肺領域の濃度値の平均値に基づいて、検査画像取得部100が取得する検査画像の濃度値を補正した補正画像を算出する。変位場算出部140は、検査画像取得部100が取得する検査画像および、濃度値補正部130が算出する補正画像に基づいて、被検体の呼吸による変位場を算出する。マップ生成部150は、領域抽出部110が算出する被検体の肺領域および変位場算出部140が算出する被検体の変位場に基づいて、被検体の呼吸による肺輪郭の滑り量のマップを生成する。表示制御部160は、マップ生成部150が算出する滑り量マップを表示装置60に表示するための制御を行う。本実施形態では、検査画像取得部100によって、対象物の画像を取得する画像取得部が構成されている。また、領域抽出部110、平均濃度値算出部120、濃度値補正部130、変位場算出部140、マップ生成部150によって、画像の位置合わせ処理等を行う画像処理部が構
成されている。
The information processing apparatus 10 acquires the information held by the inspection image database 30 via the LAN 50. The inspection image acquisition unit 100 acquires an inspection image of a subject taken by the inspection image photographing apparatus 40 and held by the inspection image database 30. The region extraction unit 110 analyzes the inspection image acquired by the inspection image acquisition unit 100 and extracts the lung region of the subject. The mean density value calculation unit 120 is based on the inspection image acquired by the inspection image acquisition unit 100 and the lung region of the subject extracted by the region extraction unit 110, and the density value (pixel value) of the inspection image in the lung region of the subject. ) Is calculated as a statistic. The density value correction unit 130 corrects the density value of the inspection image acquired by the inspection image acquisition unit 100 based on the average value of the density values of the lung region of the subject calculated by the average density value calculation unit 120. calculate. The displacement field calculation unit 140 calculates the displacement field due to the respiration of the subject based on the inspection image acquired by the inspection image acquisition unit 100 and the correction image calculated by the density value correction unit 130. The map generation unit 150 generates a map of the amount of slippage of the lung contour due to the respiration of the subject based on the lung region of the subject calculated by the region extraction unit 110 and the displacement field of the subject calculated by the displacement field calculation unit 140. do. The display control unit 160 controls the display device 60 to display the slip amount map calculated by the map generation unit 150. In the present embodiment, the inspection image acquisition unit 100 constitutes an image acquisition unit that acquires an image of an object. Further, the area extraction unit 110, the average density value calculation unit 120, the density value correction unit 130, the displacement field calculation unit 140, and the map generation unit 150 constitute an image processing unit that performs image alignment processing and the like.

情報処理装置10は、プロセッサ(CPU、GPUなど)、メモリ(RAM、ROMなど)、ストレージ(HDD、SSDなど)、通信IF、入出力IFなどを備えるコンピュータにより構成することができる。その場合、図1に示される各部の機能は、ストレージに格納されたプログラムをプロセッサが読み込み、実行することによって、実現される。なお、図1に示す情報処理システムの構成はあくまで一例である。例えば、情報処理装置10が不図示の記憶部を有し、検査画像データベース30の機能を具備しても良い。また、情報処理装置10は、汎用のコンピュータ(パーソナルコンピュータ、サーバコンピュータなど)で構成してもよいし、専用のコンピュータで構成してもよい。また、CT装置やMRI装置などのイメージングシステムが具備するコンピュータ(コンソールとも呼ばれる)に必要な機能を実装することによって、図1の情報処理システムを実現してもよい。 The information processing device 10 can be configured by a computer including a processor (CPU, GPU, etc.), a memory (RAM, ROM, etc.), a storage (HDD, SSD, etc.), a communication IF, an input / output IF, and the like. In that case, the functions of each part shown in FIG. 1 are realized by the processor reading and executing the program stored in the storage. The configuration of the information processing system shown in FIG. 1 is merely an example. For example, the information processing apparatus 10 may have a storage unit (not shown) and may have the function of the inspection image database 30. Further, the information processing apparatus 10 may be configured by a general-purpose computer (personal computer, server computer, etc.) or a dedicated computer. Further, the information processing system of FIG. 1 may be realized by implementing a function required for a computer (also referred to as a console) provided in an imaging system such as a CT device or an MRI device.

次に図2を用いて、本実施形態における情報処理装置10による全体の処理手順を詳細に説明する。また、以下では、例として、検査画像として時系列の3DCTデータ(4DCTデータ、4次元CT画像)を用いる場合を例として説明するが、本発明の実施はこれに限定されるものではない。動きのある対象物を異なるタイミングで撮影することにより得られた複数の画像であればよい。例えば、異なる呼吸時相で被検体の肺を撮影した複数の3次元画像(ボリュームデータ)であれば、一回の検査で撮像した時系列画像(動画像)でなくてもよい。また、CT画像ではなく、MRI画像であってもよいし、超音波画像であってもよい。 Next, with reference to FIG. 2, the entire processing procedure by the information processing apparatus 10 in the present embodiment will be described in detail. Further, in the following, as an example, a case where time-series 3DCT data (4DCT data, 4-dimensional CT image) is used as an inspection image will be described as an example, but the implementation of the present invention is not limited to this. It may be a plurality of images obtained by shooting moving objects at different timings. For example, a plurality of three-dimensional images (volume data) in which the lungs of a subject are photographed in different respiratory phases do not have to be time-series images (moving images) captured in one examination. Further, the image may be an MRI image or an ultrasonic image instead of the CT image.

(ステップS1000):4DCTデータの取得
ステップS1000において、検査画像取得部100は、検査画像データベース30から被検体の肺を撮影した4DCTデータを取得する。本実施形態における4DCTデータとは、時系列の3次元ボリュームデータであり、被検体の呼吸による動態を撮影したデータである。より具体的には被検体の吸気位(例えば最大吸気位)と呼気位(例えば最大呼気位)を含む2時相以上の複数の3DCTデータで構成される4DCTデータを取得する。本実施形態では具体例として、3時相の3DCTデータを取得する場合を例として説明する。ここでは各時相の3DCTデータをI_t(1≦t≦3)と表す。また、本実施形態の説明では、各3DCTデータをI_t(x,y,z)と画像内の位置を引数とし、当該位置の画素値を返す関数としても表記する。また、本実施形態では、吸気位の3DCTデータがI_1、呼気位の3DCTデータがI_3、その中間の時相の3DCTデータがI_2である場合を例として説明する。
(Step S1000): Acquisition of 4DCT data In step S1000, the inspection image acquisition unit 100 acquires 4DCT data obtained by photographing the lungs of the subject from the inspection image database 30. The 4DCT data in the present embodiment is time-series three-dimensional volume data, and is data obtained by photographing the dynamics of the subject due to respiration. More specifically, 4DCT data composed of a plurality of 3DCT data having two or more phase phases including the inspiratory position (for example, the maximum inspiratory position) and the expiratory position (for example, the maximum expiratory position) of the subject is acquired. In this embodiment, as a specific example, a case of acquiring 3DCT data of 3 time phase will be described as an example. Here, the 3DCT data of each time phase is expressed as I_t (1 ≦ t ≦ 3). Further, in the description of the present embodiment, each 3DCT data is described as a function that takes I_t (x, y, z) and a position in the image as arguments and returns the pixel value at the position. Further, in the present embodiment, the case where the 3DCT data of the inspiratory position is I_1, the 3DCT data of the expiratory position is I_3, and the 3DCT data of the intermediate time phase is I_2 will be described as an example.

図3A~図3Cは、本実施形態において検査画像取得部100が取得する3時相の3DCTデータを概念的に示す図である。図3Aの画像200は3DCTデータI_1のコロナル断面の画像であり、対象部位である肺野202の輪郭204が描出されている。図3Bの画像210は3DCTデータI_2のコロナル断面の画像、図3Cの画像220は3DCTデータI_3のコロナル断面の画像である。各画像の肺野202、212、222は、夫々の画像を撮影した時点での被検体の呼吸状態の違いにより画像の濃度値が異なる。なお図3A~図3Cは、白に近いほど高い濃度値を示すものとする。すなわち、吸気位の3DCTデータI_1の肺野202に比べて、呼気位の3DCTデータI_3の肺野222は濃度値が高くなっている。またその間の呼吸状態である3DCTデータI_2の肺野212は、肺野202と肺野222の濃度値の間の値となっている。 3A to 3C are diagrams conceptually showing 3DCT data of the three-time phase acquired by the inspection image acquisition unit 100 in the present embodiment. The image 200 of FIG. 3A is an image of the coronal cross section of the 3DCT data I_1, and the contour 204 of the lung field 202, which is the target site, is drawn. Image 210 in FIG. 3B is an image of the coronal cross section of 3DCT data I_2, and image 220 in FIG. 3C is an image of the coronal cross section of 3DCT data I_3. In the lung fields 202, 212, and 222 of each image, the density value of the image differs depending on the difference in the respiratory state of the subject at the time when each image is taken. In FIGS. 3A to 3C, it is assumed that the closer to white, the higher the density value. That is, the concentration value of the lung field 222 of the expiratory position 3DCT data I_3 is higher than that of the lung field 202 of the inspiratory position 3DCT data I_1. Further, the lung field 212 of the 3DCT data I_2, which is the respiratory state during that period, is a value between the concentration values of the lung field 202 and the lung field 222.

なお、本実施形態では、上述のように吸気位と呼気位の2時相を含む3時相の3DCTデータを使用する場合を例として説明するが、本発明の実施はこれに限らない。被検体の呼吸による肺野の運動が捉えられるのであれば、他の呼吸状態の時相の3DCTデータを
使用しても良い。ここで、呼吸周期よりも十分に早い周期で撮影を行い、得られた複数の画像の中から所望の呼吸時相の画像を処理対象画像として抽出してもよい。また、ユーザによる操作を受け付け、それにより処理対象画像を選択してもよい。あるいは、患者の呼吸と同期させて、所望の呼吸時相のタイミングで撮影を行ってもよい。またMRIや超音波画像などの他のモダリティで撮影した時系列画像を取得する場合も、本発明の一実施形態となりうる。
In the present embodiment, the case of using the 3D CT data of the 3rd phase including the 2nd phase of the inspiratory position and the expiratory position as described above will be described as an example, but the embodiment of the present invention is not limited to this. If the movement of the lung field due to the respiration of the subject is captured, 3DCT data of the time phase of other respiration states may be used. Here, the image may be taken at a cycle sufficiently earlier than the respiratory cycle, and an image of a desired respiratory phase may be extracted as a processing target image from the obtained plurality of images. Further, the operation by the user may be accepted and the image to be processed may be selected accordingly. Alternatively, imaging may be performed at the timing of the desired respiratory phase in synchronization with the patient's respiration. Further, when acquiring a time-series image taken by another modality such as an MRI or an ultrasonic image, it can be an embodiment of the present invention.

(ステップS1010):肺野領域抽出
ステップS1010において領域抽出部110は、ステップS1000で取得した複数の3DCTデータの夫々について、肺野領域を抽出する処理を実行する。3DCTデータから肺野の領域を抽出する処理は公知の画像処理手法を用いて実現できる。例えば、画素値に任意の閾値処理を施す手法でもよいし、グラフカット法をはじめとする既知のセグメンテーション手法を用いてもよい。また、Deep Learningなどのニューラルネットワークを利用したセグメンテーション(セマンティック・セグメンテーション)手法を用いてもよい。また、不図示の図形描画ソフトを用いて、ユーザが手動で肺の領域を抽出してもよいし、公知の画像処理手法で抽出した肺の領域をユーザが手動で修正した領域でもよい。本実施形態では、画素値に任意の閾値処理を施す手法を用いて、ステップS1000で取得した全ての時相の3DCTデータについて肺野領域を抽出する。具体的には、画素値が所定の閾値範囲内にあるか否かで3DCTデータ内の全画素を二値化した後、孤立点除去や平滑化などの後処理を行い、肺野領域を抽出する。そして、各時相の肺野領域の抽出結果を、マスク画像M_t(1≦t≦3)として算出する。マスク画像M_tは、3DCTデータのI_t(1≦t≦3)の夫々に関する肺野領域を表す情報であり、3DCTデータの対応する位置が肺野である場合には画素値が1、それ以外の場合には画素値が0となるデータである。なお、本実施形態の説明では、マスク画像M_tをM_t(x,y,z)と画像内の画素位置を引数とし、当該位置の画素値、すなわち当該位置が肺野の領域であるか否かの値を返す関数としても表記する。本実施形態では、M_tは3DCTデータI_tと同程度に離散化されたボリュームデータとして保持する。
(Step S1010): Extraction of lung field region In step S1010, the region extraction unit 110 executes a process of extracting the lung field region for each of the plurality of 3DCT data acquired in step S1000. The process of extracting the region of the lung field from the 3DCT data can be realized by using a known image processing method. For example, a method of applying arbitrary threshold processing to the pixel value may be used, or a known segmentation method such as a graph cut method may be used. Further, a segmentation (semantic segmentation) method using a neural network such as Deep Learning may be used. Further, the lung region may be manually extracted by the user using drawing software (not shown), or the lung region extracted by a known image processing method may be manually modified by the user. In the present embodiment, the lung field region is extracted from the 3DCT data of all the time phases acquired in step S1000 by using a method of applying arbitrary threshold processing to the pixel values. Specifically, after binarizing all the pixels in the 3DCT data depending on whether the pixel value is within the predetermined threshold range, post-processing such as isolated point removal and smoothing is performed to extract the lung field region. do. Then, the extraction result of the lung field region of each time phase is calculated as a mask image M_t (1 ≦ t ≦ 3). The mask image M_t is information representing the lung field region with respect to each of I_t (1 ≦ t ≦ 3) of the 3DCT data, and the pixel value is 1 when the corresponding position of the 3DCT data is the lung field, and other than that. In this case, the pixel value is 0. In the description of the present embodiment, the mask image M_t has M_t (x, y, z) and the pixel position in the image as arguments, and the pixel value at the position, that is, whether or not the position is the region of the lung field. It is also expressed as a function that returns the value of. In the present embodiment, M_t is retained as volume data that is discretized to the same extent as 3DCT data I_t.

なお、上記の説明では、3DCTデータの肺野領域の抽出結果としてマスク画像を算出する場合を例として説明したが、本発明の実施はこれに限らない。例えば、肺野内の画素の集合を算出しても良いし、それらを囲む輪郭位置の座標値を算出するようにしても良い。 In the above description, the case where the mask image is calculated as the extraction result of the lung field region of the 3DCT data has been described as an example, but the implementation of the present invention is not limited to this. For example, a set of pixels in the lung field may be calculated, or the coordinate values of the contour positions surrounding them may be calculated.

(ステップS1020):平均濃度値算出
ステップS1020において平均濃度値算出部120は、ステップS1000で取得した複数の3DCTデータの夫々について、ステップS1010で抽出した肺野内の領域における平均濃度値を算出する処理を実行する。具体的には、式(1)に示す演算を複数の3DCTデータの夫々について実行する。式(1)において、Ωは、3DCTデータの画像全体(全画素)を表す。C_ave_tは、3DCTデータI_tの平均濃度値である。

Figure 2022023564000002
(Step S1020): Average concentration value calculation In step S1020, the average concentration value calculation unit 120 calculates the average concentration value in the region in the lung field extracted in step S1010 for each of the plurality of 3DCT data acquired in step S1000. To execute. Specifically, the operation shown in the equation (1) is executed for each of the plurality of 3DCT data. In the formula (1), Ω represents the entire image (all pixels) of the 3DCT data. C_ave_t is an average concentration value of 3DCT data I_t.
Figure 2022023564000002

以上の処理では、各時相の3DCTデータの肺野内の画素の統計量として、平均濃度値を算出する場合を例として説明したが、統計量は平均濃度値に限らず、肺野内の画素群の画素値から取得ないし計算される代表値であれば何を用いてもよい。例えば、各時相の3DCTデータの肺野内の画素の最頻値や中央値や最大値や最小値などを算出するようにし
ても良い。また、これらの値を肺野内の領域だけから算出する場合に限らず、各時相の3DCTデータ全体の平均濃度値を算出するようにしても良い。逆に、肺野内の全画素の統計量ではなく、一部の画素の統計量を算出してもよい。
In the above processing, the case where the average concentration value is calculated as the statistic of the pixels in the lung field of the 3DCT data of each time phase has been described as an example, but the statistic is not limited to the average density value and the pixel group in the lung field. Any representative value obtained or calculated from the pixel value of the above may be used. For example, the mode, median, maximum value, minimum value, etc. of the pixels in the lung field of the 3DCT data of each time phase may be calculated. Further, not only when these values are calculated only from the region in the lung field, the average concentration value of the entire 3DCT data of each time phase may be calculated. Conversely, the statistic of some pixels may be calculated instead of the statistic of all pixels in the lung field.

(ステップS1030):濃度値補正
ステップS1030において濃度値補正部130は、ステップS1000で取得した複数の3DCTデータの夫々について、ステップS1020で取得した各3DCTデータにおける肺野内の平均濃度値に基づいて濃度値を補正(変換)する処理を実行する。より具体的には、全ての3DCTデータの肺野内の平均濃度値が、基準とする時相(例えば、吸気位)の3DCTデータの肺野内の平均濃度値と同一となるように、各時相の3DCTデータ全体の濃度値に対して式(2)に示す補正処理を行う。式(2)において、C_ave_1は基準時相(例えば、吸気位)の平均濃度値であり、C_ave_tは補正前の3DCTデータI_tの平均濃度値であり、I’_tは補正後の3DCTデータである。

Figure 2022023564000003
(Step S1030): Concentration value correction In step S1030, the concentration value correction unit 130 concentrates each of the plurality of 3DCT data acquired in step S1000 based on the average concentration value in the lung field in each 3DCT data acquired in step S1020. Executes the process of correcting (converting) the value. More specifically, each time phase so that the average concentration value in the lung field of all 3DCT data is the same as the average concentration value in the lung field of the 3DCT data of the reference time phase (for example, the inspiratory position). The correction process shown in the equation (2) is performed on the density value of the entire 3DCT data of. In the formula (2), C_ave_1 is the average concentration value of the reference time phase (for example, the inspiratory position), C_ave_t is the average concentration value of the 3DCT data I_t before correction, and I'_t is the 3DCT data after correction. ..
Figure 2022023564000003

式(2)の処理によって、I_t(第1の画像)における肺野領域(第1対象物領域)とI_1(第2の画像)における肺野領域(第2対象物領域)との間の画素値の統計量の差が小さくなるように、I_tの画素値が変換される。この変換された画像I’_tが、画像間の肺野領域の画素の位置合わせ(画素の対応関係の取得)に利用される。 By the processing of the formula (2), the pixel between the lung field region (first object region) in I_t (first image) and the lung field region (second object region) in I_1 (second image). The pixel values of I_t are converted so that the difference in the value statistics is small. This converted image I'_t is used for alignment of pixels in the lung field region between images (acquisition of pixel correspondence).

なお、基準とした時相(吸気位)の3DCTデータは式(2)の処理は行わずにI’_1=I_1とすることができる。また、上記では、各時相の3DCTデータ全体の濃度値を補正する場合を例として説明したが、本発明の実施はこれに限らない。例えば、前記各時相の3DCTデータの肺野内の画素だけを上記同様の方法で補正するようにしても良い。また、基準とする時相は吸気位でなくてもよい。 The 3DCT data of the time phase (intake position) as a reference can be set to I'_1 = I_1 without processing the equation (2). Further, in the above description, the case of correcting the density value of the entire 3DCT data of each time phase has been described as an example, but the implementation of the present invention is not limited to this. For example, only the pixels in the lung field of the 3DCT data of each time phase may be corrected by the same method as described above. Further, the reference time phase does not have to be the intake position.

上記の説明では、基準とする時相を設けて、各時相の3DCTデータの肺野内の平均濃度値が、基準とする時相の3DCTデータの肺野内の平均濃度値と同一となるように補正を行う場合を例として説明したが、本発明の実施はこれに限らない。例えば、基準とする時相を設けず、各時相の3DCTデータの肺野内の平均濃度値があらかじめ設定した所定の基準濃度値Crefに揃うように、全ての時相の3DCTデータを補正しても良い。その場合、式(2)のC_ave_1には、基準濃度値Crefを代入すればよい。 In the above description, a reference time phase is provided so that the average concentration value in the lung field of the 3DCT data of each time phase is the same as the average concentration value in the lung field of the 3DCT data of the reference time phase. Although the case of performing correction has been described as an example, the implementation of the present invention is not limited to this. For example, without setting a reference time phase, the 3DCT data of all time phases are corrected so that the average concentration value in the lung field of the 3DCT data of each time phase is aligned with the predetermined reference concentration value Cref set in advance. Is also good. In that case, the reference concentration value Cref may be substituted for C_ave_1 in the equation (2).

(ステップS1040):肺野内の画像間位置合わせ
ステップS1040において、変位場算出部140は、濃度値補正後の複数の3DCTデータI’_t(1≦t≦3)に基づいて、吸気位の3DCTデータI_1と呼気位の3DCTデータI_3との間の肺野内の位置合わせ処理を実行する。本実施形態ではI’_1とI’_2の間の位置合わせとI’_2とI’_3の間の位置合わせを夫々実行し、それらの結果を統合することで、I’_1とI’_3の間の位置合わせ結果を得る。このように、吸気位の画像と呼気位の画像の間の位置合わせを直接計算するのではなく、中間の状態(時相)の画像を用いて間接的に計算することは、位置合わせの精度向上に有利である。すなわち、吸気位と呼気位の間では肺の移動量(位置の違い)が大きいため、画素同士の対応関係を把握することが困難であったり、対応画素の探索に失敗する可能性が高まる。その点、中間状態の画像を間に挟むことにより、移動量(位置の違い)が比較的小さい画像同士の位置合わせ処理になるため、位置合わせの容易化並びに精度向上を図ることができる。なお、中間状態の画像の数を増やすほど位置合わせは容易になるが、逆に処理時間の増大を招くため、精度と処理時間のバランスを考慮して、中間状態の画像の数を決定するとよい。
(Step S1040): Alignment between images in the lung field In step S1040, the displacement field calculation unit 140 determines the 3DCT of the inspiratory position based on the plurality of 3DCT data I'_t (1 ≦ t ≦ 3) after the concentration value correction. Alignment processing in the lung field between data I_1 and 3DCT data I_3 of the expiratory position is performed. In the present embodiment, the alignment between I'_1 and I'_2 and the alignment between I'_2 and I'_3 are performed respectively, and the results are integrated to form I'_1 and I'_3. Get the alignment result between. In this way, instead of directly calculating the alignment between the image of the inspiratory position and the image of the expiratory position, the indirect calculation using the image of the intermediate state (time phase) is the accuracy of the alignment. It is advantageous for improvement. That is, since the amount of movement (difference in position) of the lungs is large between the inspiratory position and the expiratory position, it is difficult to grasp the correspondence relationship between the pixels, and the possibility that the search for the corresponding pixel fails increases. In that respect, by sandwiching the images in the intermediate state between the images, the alignment process is performed between the images having a relatively small movement amount (difference in position), so that the alignment can be facilitated and the accuracy can be improved. Although the alignment becomes easier as the number of images in the intermediate state is increased, the processing time is conversely increased. Therefore, it is advisable to determine the number of images in the intermediate state in consideration of the balance between accuracy and processing time. ..

位置合わせ処理の結果として、変位場算出部140は、変位場D_inner(x,y,z)を取得する。複数の変位場を統合する方法は公知のいずれの方法を用いても良い。D_inner(x,y,z)は、吸気位の3DCTデータI_1における肺野内の任意の三次元位置(x,y,z)を、それに対応する呼気位の3DCTデータI_3における三次元位置(x’,y’,z’)に変換するための変位量を算出する関数である。すなわち、変位場D_inner(x,y,z)は、2つの画像の間での対象物領域(肺野領域)内の画素の対応関係を表すものである。 As a result of the alignment process, the displacement field calculation unit 140 acquires the displacement field D_inner (x, y, z). Any known method may be used as a method for integrating a plurality of displacement fields. D_inner (x, y, z) is an arbitrary three-dimensional position (x, y, z) in the lung field in the 3DCT data I_1 of the inspiratory position, and a three-dimensional position (x') in the corresponding 3DCT data I_3 of the expiratory position. , Y', z') is a function to calculate the amount of displacement for conversion. That is, the displacement field D_inner (x, y, z) represents the correspondence between the pixels in the object region (lung field region) between the two images.

なお、上記のI’_1とI’_2との間の位置合わせ、およびI’_2とI’_3との間の位置合わせは、公知のいずれの画像間位置合わせ方法を用いて実行しても良い。2つの画像の間の位置合わせ方法には、例えば、画素値(濃度値)の類似度に基づいて画素の対応付けを行う方法、エッジやテクスチャに基づいて領域の対応付けを行う方法など、様々な方法がある。本実施形態では、画素値(濃度値)の類似度に基づいて画素の対応付けを行う方法を採用する。高速な処理が可能だからである。例えば、第1の画像と第2の画像の位置合わせを行う場合であれば、第1の画像の肺野領域に変形を加え、第2の画像と変形後の第1の画像の間の画素値(濃度値)の類似度を評価する、という処理を繰り返し、最も類似度が高くなる最適解を見つければよい。この方法において、3次元領域の変形は例えばFFD(Free Form Deformation)を用いて表現することができ、画素値(濃度値)の類似度はSSD(Sum of Square Difference)などで評価すればよい。 It should be noted that the above-mentioned alignment between I'_1 and I'_2 and the alignment between I'_2 and I'_3 can be performed by using any known image-to-image alignment method. good. There are various alignment methods between two images, such as a method of associating pixels based on the similarity of pixel values (density values), and a method of associating areas based on edges and textures. There is a method. In the present embodiment, a method of associating pixels based on the similarity of pixel values (density values) is adopted. This is because high-speed processing is possible. For example, when aligning the first image and the second image, the lung field region of the first image is deformed, and the pixels between the second image and the first image after the deformation are deformed. The process of evaluating the similarity of the values (concentration values) may be repeated to find the optimum solution having the highest similarity. In this method, the deformation of the three-dimensional region can be expressed by using, for example, FFD (Free Form Deformation), and the similarity of the pixel values (density values) may be evaluated by SSD (Sum of Square Difference) or the like.

なお、この位置合わせを行う際には、描出される肺野内の画像特徴を強調する画像処理を各画像に施し、その結果を用いて位置合わせするのが望ましい。例えば、肺野に含まれる空気や実質組織の濃度値の違い、すなわち肺野内の画像特徴を強調されるようにウィンドウ変換を行うようにしても良い。ウィンドウ変換とは、元画像のレンジの一部分のみを抽出し所定の濃度分解能に変換する処理である。抽出する範囲(ウィンドウと呼ばれる)の中心(ウィンドウレベル)と広さ(ウィンドウ幅)を変えることで、元画像中の所望の画像特徴を強調することができる。医用画像のように幅広いレンジの画像(例えば10~16ビットの画像)から表示用の画像(例えば8ビットの画像)を生成する場面などに利用される。 When performing this alignment, it is desirable to apply image processing to each image to emphasize the image features in the lung field to be visualized, and to perform alignment using the result. For example, the window conversion may be performed so as to emphasize the difference in the concentration values of air and parenchyma contained in the lung field, that is, the image features in the lung field. The window conversion is a process of extracting only a part of the range of the original image and converting it into a predetermined density resolution. By changing the center (window level) and width (window width) of the range to be extracted (called a window), a desired image feature in the original image can be emphasized. It is used in a scene where an image for display (for example, an 8-bit image) is generated from a wide range of images (for example, a 10 to 16-bit image) such as a medical image.

例えば、空気を-1000、水を0とする一般的なCTデータの場合、ウィンドウ中心の濃度値を-700、ウィンドウ幅を1000などに設定することで肺野内の画像特徴を強調することができる。本実施形態では、このようなウィンドウ変換を行うことで肺野内の画像特徴を強調した画像を生成し、その画像に対して位置合わせ処理を行う。これにより、肺野内の位置合わせの精度向上を図ることができる。 For example, in the case of general CT data in which air is -1000 and water is 0, the image features in the lung field can be emphasized by setting the density value at the center of the window to -700 and the window width to 1000. .. In the present embodiment, by performing such window conversion, an image in which the image features in the lung field are emphasized is generated, and the alignment process is performed on the image. This makes it possible to improve the accuracy of alignment in the lung field.

なお、前記のウィンドウ変換の設定は、予め所定の設定を情報処理装置10が保持するようにしても良いし、ユーザによる操作によって設定が行えるようにしても良い。また、ステップS1000で取得した3DCTデータや、検査画像データベース30が保持する付帯情報に基づいて設定するようにしても良い。 The window conversion setting may be set by the information processing apparatus 10 in advance, or may be set by an operation by the user. Further, the setting may be made based on the 3DCT data acquired in step S1000 and the incidental information held by the inspection image database 30.

なお、上記の説明では、ステップS1030で各3DCTデータの濃度値の補正処理を行い、ステップS1040でウィンドウ変換を行う場合を例として説明したが、これらの処理を統合した処理をステップS1040で実行するようにしても良い。すなわち、ステップS1030の処理を省略し、ステップS1040で実行するウィンドウ変換のウィンドウ中心を、各3DCTデータの夫々に関して変更して設定するようにできる。具体的には、C_ave_t(1≦t≦3)に基づき、各3DCTデータの肺野内の濃度値が同一となるようにウィンドウ中心を設定するようにできる。 In the above description, a case where the density value of each 3DCT data is corrected in step S1030 and the window conversion is performed in step S1040 has been described as an example, but a process in which these processes are integrated is executed in step S1040. You may do so. That is, the process of step S1030 can be omitted, and the window center of the window conversion executed in step S1040 can be changed and set for each of the 3DCT data. Specifically, based on C_ave_t (1 ≦ t ≦ 3), the window center can be set so that the concentration values in the lung field of each 3DCT data are the same.

(ステップS1050):肺野外の画像間位置合わせ
ステップS1050において、変位場算出部140は、ステップS1000で取得した複数の3DCTデータI_t(1≦t≦3)に基づいて、吸気位の3DCTデータI_1と呼気位の3DCTデータI_3との間の肺野外の位置合わせ処理を実行する。肺野外とは、肺野(対象物領域)の周囲の領域である。本実施形態では、I_1とI_2の間の位置合わせとI_2とI_3の間の位置合わせを夫々実行し、それらの結果を統合することで、I_1とI_3の間の位置合わせ結果を得る。具体的な処理方法はステップS1040で説明した方法と同様であるため、ここでは詳細な説明は省略する。なお、肺野外の画素は呼吸による濃度値の変化が小さいため、画素値を変換する前の3DCTデータを用いるとよい。
(Step S1050): Alignment between images outside the lung field In step S1050, the displacement field calculation unit 140 is based on the plurality of 3DCT data I_t (1 ≦ t ≦ 3) acquired in step S1000, and the 3DCT data I_1 of the inspiratory position. And the 3DCT data I_3 of the expiratory position, the alignment process outside the lung field is performed. The outside of the lung is the area around the lung field (object area). In the present embodiment, the alignment between I_1 and I_2 and the alignment between I_1 and I_3 are performed respectively, and the results are integrated to obtain the alignment result between I_1 and I_3. Since the specific processing method is the same as the method described in step S1040, detailed description thereof will be omitted here. Since the change in the concentration value due to respiration is small for the pixels outside the lung field, it is preferable to use the 3DCT data before converting the pixel value.

以上の処理により、変位場算出部140は、変位場D_outer(x,y,z)を取得する。D_outer(x,y,z)は、吸気位の3DCTデータI_1における被検体の肺野外の任意の三次元位置(x,y,z)を、それに対応する呼気位の3DCTデータI_3における三次元位置(x’,y’,z’)に変換する変位量を算出する関数である。すなわち、変位場D_outer(x,y,z)は、2つの画像の間での周囲領域内の画素の対応関係を表すものである。 Through the above processing, the displacement field calculation unit 140 acquires the displacement field D_outer (x, y, z). D_outer (x, y, z) is an arbitrary three-dimensional position (x, y, z) outside the lung field of the subject in 3DCT data I_1 of the inspiratory position, and a three-dimensional position in 3DCT data I_3 of the corresponding expiratory position. It is a function to calculate the displacement amount to be converted into (x', y', z'). That is, the displacement field D_outer (x, y, z) represents the correspondence between the pixels in the peripheral region between the two images.

なお、上記のI_1とI_2との間の位置合わせ、およびI_2とI_3との間の位置合わせは公知のいずれの画像間位置合わせ方法を用いて実行しても良い。肺野領域の位置合わせ処理で例示したものと同じ方法を用いてもよい。なお、この位置合わせを行う際に、各画像に描出される肺野外の画像特徴を強調する画像処理を施し、その結果を用いて位置合わせするのが望ましい。例えば、肺野周辺の組織の濃度値の違い、すなわち肺野外の画像特徴が強調されるようにウィンドウ変換を行うようにしても良い。ウィンドウ中心の濃度値を0、ウィンドウ幅を400などに設定することで肺野外の軟部組織の画像特徴を強調することができる。これ以外にもウィンドウ中心の濃度値を200、ウィンドウ幅を2000などに設定することで肺野外の骨の画像特徴を強調することができる。本実施形態では、上記に例示したウィンドウ変換を行うことで肺野外の画像特徴を強調した画像を生成し、その画像に対して位置合わせ処理を行う。 The above-mentioned alignment between I_1 and I_2 and the alignment between I_1 and I_3 may be performed by any known image-to-image alignment method. The same method as exemplified in the alignment process of the lung field region may be used. When performing this alignment, it is desirable to perform image processing that emphasizes the image features of the lung field depicted in each image, and to perform alignment using the result. For example, the window conversion may be performed so that the difference in the density value of the tissue around the lung field, that is, the image feature outside the lung field is emphasized. By setting the density value at the center of the window to 0 and the window width to 400 or the like, the image features of the soft tissue outside the lung field can be emphasized. In addition to this, by setting the density value at the center of the window to 200, the window width to 2000, and the like, the image features of the bone outside the lung field can be emphasized. In the present embodiment, an image in which the image features outside the lung field are emphasized is generated by performing the window conversion exemplified above, and the alignment process is performed on the image.

なお、前記のウィンドウ変換の設定は予め所定の設定を情報処理装置10が保持するようにしても良いし、ユーザによる操作によって設定が行えるようにしても良い。また、ステップS1000で取得した3DCTデータや、検査画像データベース30が保持する付帯情報に基づいて設定するようにしても良い。 The window conversion setting may be set by the information processing apparatus 10 in advance, or may be set by an operation by the user. Further, the setting may be made based on the 3DCT data acquired in step S1000 and the incidental information held by the inspection image database 30.

なお、以上の説明では、3DCTデータI_t(1≦t≦3)に基づき、肺野外の画像特徴を強調した画像を生成して、変位場D_outer(x,y,z)を算出する場合を例として説明したが、本発明の実施はこれに限らない。例えば、ステップS1040と同様に濃度値変換後の3DCTデータI’_t(1≦t≦3)に基づき、肺野外の画像特徴を強調した画像を生成して、変位場D_outer(x,y,z)を算出するようにしても良い。 In the above description, an example is used in which an image emphasizing the image features outside the lung field is generated based on the 3DCT data I_t (1 ≦ t ≦ 3) and the displacement field D_outer (x, y, z) is calculated. However, the implementation of the present invention is not limited to this. For example, as in step S1040, based on the 3DCT data I'_t (1 ≦ t ≦ 3) after the concentration value conversion, an image emphasizing the image features of the lung field is generated, and the displacement field D_outer (x, y, z) is generated. ) May be calculated.

(ステップS1060):滑り量マップの算出
ステップS1060において、マップ生成部150は、被検体の肺表面(肺輪郭)上での呼吸による滑り量のマップを生成する処理を実行する。この処理は、ステップS1010で算出した吸気位の肺野マスク画像M_1、ステップS1040で算出した変位場D_inner(x,y,z)、および、ステップS1050で算出した変位場D_outer(x,y,z)に基づいて実行する。より具体的には、特許文献1に記載の方法により実施することができる。すなわち、肺野マスク画像M_1の輪郭部分におけるD_out
er(x,y,z)とD_inner(x,y,z)の二つの変位場の違いを算出し、それを3次元のマップである滑り量マップS(x,y,z)として生成する。本実施形態では、滑り量マップS(x,y,z)は吸気位の3DCTデータの画像座標系での位置を引数として、当該位置における滑り量を返す関数である。より具体的には3DCTデータと同程度に離散化されたボリュームデータとして保持する。マップ生成部150は、必要に応じて、生成した滑り量マップS(x,y,z)を、不図示の記憶部、あるいは、検査画像データベース30に、被検体の検査画像と対応付けて保存する処理を行う。
(Step S1060): Calculation of slip amount map In step S1060, the map generation unit 150 executes a process of generating a map of the slip amount due to breathing on the lung surface (lung contour) of the subject. In this process, the lung field mask image M_1 of the inspiratory position calculated in step S1010, the displacement field D_inner (x, y, z) calculated in step S1040, and the displacement field D_outer (x, y, z) calculated in step S1050 are performed. ) Is executed. More specifically, it can be carried out by the method described in Patent Document 1. That is, D_out in the contour portion of the lung field mask image M_1
The difference between the two displacement fields of er (x, y, z) and D_inner (x, y, z) is calculated, and it is generated as a slip amount map S (x, y, z) which is a three-dimensional map. .. In the present embodiment, the slip amount map S (x, y, z) is a function that returns the slip amount at the position of the intake position 3DCT data in the image coordinate system as an argument. More specifically, it is retained as volume data that is discretized to the same extent as 3DCT data. The map generation unit 150 stores the generated slip amount map S (x, y, z) in a storage unit (not shown) or an inspection image database 30 in association with the inspection image of the subject, if necessary. Perform the processing.

(ステップS1070):滑り量マップの表示
ステップS1070において、表示制御部160は、ステップS1060で算出した滑り量マップS(x,y,z)を表示装置60に表示させるための制御を行う。具体的には滑り量マップを観察するための画像(観察画像)を生成し、その画像を表示装置60に表示させるように制御を行う。観察画像は、例えば、被検体の3次元の肺野輪郭形状上に、滑り量マップをグレースケールやカラーマップなどで階調変換したサーフェースレンダリング画像として生成するようにできる。なお、上述の方法は本発明の一例に過ぎず、如何なる方法で滑り量マップを表示しても、または表示自体を行わなくても、本発明の一実施形態となりうる。
(Step S1070): Display of the slip amount map In step S1070, the display control unit 160 controls the display device 60 to display the slip amount map S (x, y, z) calculated in step S1060. Specifically, an image (observation image) for observing the slip amount map is generated, and control is performed so that the image is displayed on the display device 60. The observation image can be generated, for example, as a surface-rendered image in which the slip amount map is gradation-converted by a gray scale, a color map, or the like on the three-dimensional lung field contour shape of the subject. The above method is only an example of the present invention, and can be an embodiment of the present invention regardless of how the slip amount map is displayed or the display itself is not performed.

以上に説明した方法により、本実施形態おける情報処理装置10の処理が実行される。これによれば、呼吸状態の異なる3DCTデータ間の位置合わせを高い精度で実行できるため、被検体の胸膜の癒着状態の把握、診断の支援に有効な滑り量マップをユーザに提供できる。 By the method described above, the processing of the information processing apparatus 10 in the present embodiment is executed. According to this, since the alignment between 3DCT data having different respiratory states can be performed with high accuracy, it is possible to provide the user with an effective slip amount map for grasping the adhesion state of the pleura of the subject and supporting the diagnosis.

(変形例1-1):体積変化による濃度値補正をさらに加えた変形例
第一実施形態のステップS1040の説明では、画素値変換後の画像I’_tを用いて肺野内の位置合わせを実行する具体的な一例について説明したが、本発明の実施はこれに限らない。例えば、第一実施形態で説明したS1040の処理を実行した後に、その処理結果である変位場D_inner(x,y,z)をさらに修正する処理を実行するようにできる。例えば、前記処理により算出した変位場D_inner(x,y,z)に基づいて、肺野内の局所的な体積変化を算出し、それに基づいて肺野内の各位置の画素値をさらに補正する。具体的には局所的に体積が膨張する部分の濃度値を低くし、逆に局所的に体積が収縮する部分の濃度値を高くするようにできる。そして、その補正した画像に基づいて、さらに位置合わせ処理を実行することで変位場D_inner(x,y,z)を修正するようにしても良い。また、この処理により修正された変位場に基づいて、さらに上記同様の処理を繰り返して変位場を修正するようにしても良い。これによれば、第一実施形態で説明した肺野内の位置合わせに加え、さらに被検体の肺野領域の局所的な体積変化を推定し、それに基づいた濃度値補正を行うことができるため、より高精度な位置合わせが行える効果がある。
(Deformation Example 1-1): Deformation Example in which the density value correction due to the volume change is further added In the description of step S1040 of the first embodiment, the alignment in the lung field is executed using the image I'_t after the pixel value conversion. Although a specific example of the above has been described, the implementation of the present invention is not limited to this. For example, after executing the process of S1040 described in the first embodiment, it is possible to execute a process of further modifying the displacement field D_inner (x, y, z) which is the process result. For example, the local volume change in the lung field is calculated based on the displacement field D_inner (x, y, z) calculated by the above processing, and the pixel value of each position in the lung field is further corrected based on the calculation. Specifically, the concentration value of the portion where the volume expands locally can be lowered, and conversely, the concentration value of the portion where the volume contracts locally can be increased. Then, the displacement field D_inner (x, y, z) may be corrected by further performing the alignment process based on the corrected image. Further, based on the displacement field corrected by this process, the same process as described above may be repeated to correct the displacement field. According to this, in addition to the alignment in the lung field described in the first embodiment, it is possible to estimate the local volume change in the lung field region of the subject and correct the concentration value based on the estimation. It has the effect of enabling more accurate alignment.

(変形例1-2):画素値補正方法のバリエーション
本発明の第一実施形態では、ステップS1020で複数の3DCTデータの夫々の肺野の平均濃度値を算出し、ステップS1030では、その差異を吸収するように、各画像の濃度値をシフトさせる補正を行う場合を例として説明した。しかし、本発明の実施はこれに限らない。例えば、ステップS1020では、各3DCTデータについて、肺野の平均濃度値C_ave_tに加えて濃度値の分散C_div_tも算出するようにできる。この場合、ステップS1030では全ての3DCTデータの肺野の平均濃度値と濃度値の分散が、吸気位のそれらと同一になるように、濃度値を線形変換(シフトおよびスケーリング)により補正する処理を実行するようにしても良い。なお、平均値と分散値を所望の値に一致させるための線形変換は公知の方法により実施できる。以上の方法によれば、各時相の3DCTデータについて、平均濃度値だけでなく、濃度値の分散についても吸気位の
3DCTデータと一致させることができるため、より吸気位の3DCTデータに近似した画像に補正することができる。これにより、肺野内の位置合わせをより正確に実行できる効果がある。
(Variation Example 1-2): Variation of Pixel Value Correction Method In the first embodiment of the present invention, the average concentration value of each lung field of a plurality of 3DCT data is calculated in step S1020, and the difference is calculated in step S1030. The case where the correction for shifting the density value of each image is performed so as to absorb the image has been described as an example. However, the implementation of the present invention is not limited to this. For example, in step S1020, for each 3DCT data, the variance C_div_t of the concentration value can be calculated in addition to the average concentration value C_ave_t of the lung field. In this case, in step S1030, the concentration values are corrected by linear conversion (shift and scaling) so that the average concentration values and the variances of the concentration values in the lung field of all 3DCT data are the same as those in the inspiratory position. You may try to do it. A linear conversion for matching the mean value and the dispersion value with the desired values can be performed by a known method. According to the above method, not only the average concentration value but also the variance of the concentration value can be matched with the 3DCT data of the intake position for the 3DCT data of each time phase, so that the 3DCT data of each time phase is closer to the 3DCT data of the intake position. It can be corrected to an image. This has the effect of more accurately performing alignment within the lung field.

また濃度値の補正の方法は上記の方法に限らない。例えば、各3DCTデータについて、肺野内の平均濃度値を吸気位の3DCTデータの肺野内の平均濃度値と一致させつつ、空気領域を表す濃度値(一般的なCTデータの場合は-1000)を変化させないように、濃度値を線形変換するようにしても良い。 Further, the method of correcting the density value is not limited to the above method. For example, for each 3DCT data, the concentration value representing the air region (-1000 in the case of general CT data) is set while matching the average concentration value in the lung field with the average concentration value in the lung field of the 3DCT data at the inspiratory position. The density value may be linearly converted so as not to change.

本発明の実施は、上記のように補正対象の領域に対して一様な線形変換によって濃度値の補正を行う場合に限らない。例えば、肺野内の各画素の濃度値に基づいて当該画素の空気・組織実質の混合比率を推定し、空気の含有比率に応じて濃度値の補正の大きさを変えるようにしても良い。これにより、実際の被検体の肺における呼吸に伴う局所的な換気量の変化を反映した補正が行える効果がある。 The implementation of the present invention is not limited to the case where the density value is corrected by a uniform linear transformation for the region to be corrected as described above. For example, the mixing ratio of the air / tissue parenchyma of the pixel may be estimated based on the concentration value of each pixel in the lung field, and the magnitude of the correction of the concentration value may be changed according to the air content ratio. This has the effect of making corrections that reflect changes in local ventilation volume associated with respiration in the lungs of the actual subject.

また、上記の方法以外にも、ステップS1010で算出した各3DCTデータの肺野領域の体積の違いに基づいて濃度値の補正を行うようにしても良い。例えば、吸気位の3DCTデータにおける肺野の体積と、補正対象とする3DCTデータの肺野の体積との差異が大きいほど、濃度値の補正量を大きくするようにできる。この方法によれば、呼吸による被検体の肺野の空気の排出によって体積が減少するに従い、肺野内での実質組織の含有比率が高くなるという現象を反映した、より高精度な濃度値の補正が行える効果がある。また濃度値の補正方法は上記の方法に限らない。例えば、肺野をさらに複数の部分領域に分割し、分割した部分領域毎に異なる補正を行うようにしても良い。例えば、肺を構成する複数の肺葉の夫々を部分領域として分割し、それぞれの肺葉毎に濃度値の平均を算出し、その平均値に基づいて統合肺野の濃度値を補正するようにしても良い。あるいは、左右の肺の夫々を部分領域として分割して前記同様の補正を行うようにしても良い。これによれば、肺葉毎や左右肺毎の換気量の違いを考慮した精度の高い補正が行える効果がある。 In addition to the above method, the concentration value may be corrected based on the difference in the volume of the lung field region of each 3DCT data calculated in step S1010. For example, the larger the difference between the volume of the lung field in the 3DCT data of the inspiratory position and the volume of the lung field of the 3DCT data to be corrected, the larger the correction amount of the concentration value can be made. According to this method, more accurate concentration value correction reflects the phenomenon that the content ratio of parenchymal tissue in the lung field increases as the volume decreases due to the exhaustion of air from the lung field of the subject by respiration. Has the effect of being able to do. Further, the method for correcting the density value is not limited to the above method. For example, the lung field may be further divided into a plurality of partial regions, and different corrections may be made for each of the divided partial regions. For example, even if each of the plurality of lung lobes constituting the lung is divided into partial regions, the average concentration value is calculated for each lobe, and the concentration value of the integrated lung field is corrected based on the average value. good. Alternatively, each of the left and right lungs may be divided into partial regions to perform the same correction as described above. According to this, there is an effect that highly accurate correction can be performed in consideration of the difference in the ventilation volume for each lung lobe and each left and right lungs.

(変形例1-3):2時相の場合、または4時相以上の場合
本発明の第一実施形態では、ステップS1000で3時相の3DCTデータを取得する場合を例として説明したが、本発明の実施はこれに限らない。例えば、ステップS1000では吸気位と呼気位の2時相の3DCTデータだけを取得するようにしても良い。この場合、ステップS1030の処理では、吸気位と呼気位の3DCTデータの濃度値を補正する。そして、ステップS1040では、それらの画像間の位置合わせにより、吸気位と呼気位の間の肺野内の変位場を算出する。また、ステップS1050では、ステップ1000で取得した2時相の3DCTデータ間の位置合わせにより肺野外の変位場を算出する。以上に説明した方法により2時相の3DCTデータを入力とした場合の処理が実施される。
(Variation Example 1-3): In the case of 2 phase phase or in the case of 4 phase phase or more In the first embodiment of the present invention, the case of acquiring 3 DCT data of 3 phase phase in step S1000 has been described as an example. The implementation of the present invention is not limited to this. For example, in step S1000, only the 3DCT data of the two time phases of the inspiratory position and the expiratory position may be acquired. In this case, in the process of step S1030, the concentration values of the 3DCT data of the inspiratory position and the expiratory position are corrected. Then, in step S1040, the displacement field in the lung field between the inspiratory position and the expiratory position is calculated by aligning the images. Further, in step S1050, the displacement field outside the lung field is calculated by the alignment between the 2 time phase 3DCT data acquired in step 1000. By the method described above, the process when the 2nd phase 3DCT data is input is carried out.

また、本発明の実施は上記の方法に限らず、ステップS1000で4時相以上の3DCTデータを取得するようにしても良い。この場合でも第一実施形態と同様の処理で被検体の滑り量マップを算出することができる。 Further, the implementation of the present invention is not limited to the above method, and 3DCT data of 4 o'clock phase or higher may be acquired in step S1000. Even in this case, the slip amount map of the subject can be calculated by the same processing as in the first embodiment.

[第二実施形態]
本発明の第二実施形態について説明する。第一実施形態では、濃度値を補正した画像を生成し、その画像を用いて肺野内の位置合わせ処理を実行する場合を例として説明した。しかし、本発明の実施はこれに限らない。第二実施形態では、濃度値を補正した画像を生成するのではなく、肺野内の位置合わせ処理の中で画素単位での濃度値補正を行う場合を例として説明する。
[Second Embodiment]
A second embodiment of the present invention will be described. In the first embodiment, a case where an image in which the density value is corrected is generated and the alignment process in the lung field is executed using the image has been described as an example. However, the implementation of the present invention is not limited to this. In the second embodiment, a case where the density value is corrected in pixel units in the alignment process in the lung field is described as an example, instead of generating the image in which the density value is corrected.

本発明の第二実施形態に係る情報処理システムの全体構成は第一実施形態の情報処理システムの全体構成の説明として示した図1と同様である。ここでは詳細な説明は省略する。 The overall configuration of the information processing system according to the second embodiment of the present invention is the same as that shown in FIG. 1 as an explanation of the overall configuration of the information processing system of the first embodiment. A detailed description will be omitted here.

図4を用いて、本実施形態における情報処理装置10による全体の処理手順を詳細に説明する。 The entire processing procedure by the information processing apparatus 10 in the present embodiment will be described in detail with reference to FIG.

(ステップS2000)から(ステップS2020)
ステップS2000からステップS2020は、第一実施形態のステップS1000からステップS1020と同様の処理を行う。ここでは詳細な説明は省略する。
From (Step S2000) to (Step S2020)
Steps S2000 to S2020 perform the same processing as steps S1000 to S1020 of the first embodiment. A detailed description will be omitted here.

(ステップS2040)
ステップS2040において、変位場算出部140は、ステップS2000で取得した複数の3DCTデータI_t(1≦t≦3)に基づいて、吸気位の3DCTデータI_1と呼気位の3DCTデータI_3との間の肺野内の位置合わせ処理を実行する。本実施形態ではI_1とI_2の間の位置合わせとI_2とI_3の間の位置合わせを夫々実行し、それらの結果を統合することで、I_1とI_3の間の位置合わせ結果を得る。上記の処理結果として変位場算出部140は、変位場D_inner(x,y,z)を取得する。複数の変位場を統合する方法は公知のいずれの方法を用いても良い。ここで、D_inner(x,y,z)は、吸気位の3DCTデータI_1における被検体の肺野内の任意の三次元位置(x,y,z)を、それに対応する呼気位の3DCTデータI_3における三次元位置(x’,y’,z’)に変換する座標変換関数である。
(Step S2040)
In step S2040, the displacement field calculation unit 140 is a lung between the inspiratory 3DCT data I_1 and the expiratory 3DCT data I_3 based on the plurality of 3DCT data I_t (1 ≦ t ≦ 3) acquired in step S2000. Executes Nouchi's alignment process. In the present embodiment, the alignment between I_1 and I_1 and the alignment between I_1 and I_3 are performed respectively, and the results are integrated to obtain the alignment result between I_1 and I_3. As a result of the above processing, the displacement field calculation unit 140 acquires the displacement field D_inner (x, y, z). Any known method may be used as a method for integrating a plurality of displacement fields. Here, D_inner (x, y, z) sets an arbitrary three-dimensional position (x, y, z) in the lung field of the subject in the 3DCT data I_1 of the inspiratory position in the corresponding 3DCT data I_3 of the expiratory position. It is a coordinate conversion function that converts to a three-dimensional position (x', y', z').

本実施形態では上記のI_1とI_2との間の位置合わせ、およびI_2とI_3との間の位置合わせ処理をFFD(Free Form Deformation)法を用いて行う場合を例として説明する。ただし、本発明の実施はこれに限らず、例えばLDDMM(large deformation diffeomorphic metric
mapping)法など他の変形位置合わせ手法を用いても良い。
In this embodiment, a case where the above-mentioned alignment process between I_1 and I_1 and the alignment process between I_1 and I_3 are performed by using the FFD (Free Form Deformation) method will be described as an example. However, the implementation of the present invention is not limited to this, for example, LDDMM (lage deformation diffusion metric matrix).
Other deformation alignment methods such as the mapping) method may be used.

本処理について、図5の処理フローに沿って詳しく説明する。なお、以下の説明ではI_1とI_2の間の位置合わせ結果として変位場D_inner12(x,y,z)を算出する例について説明する。なお、ステップS2040が実行するI_2とI_3との間の位置合わせ処理も、以下に詳述する処理と同様にして実行できる。 This process will be described in detail along with the process flow of FIG. In the following description, an example of calculating the displacement field D_inner12 (x, y, z) as the alignment result between I_1 and I_1 will be described. The alignment process between I_2 and I_3 executed in step S2040 can also be executed in the same manner as the process described in detail below.

(ステップS20400):初期化
ステップS20400において、変位場算出部140は、変位場D_inner12(x,y,z)を初期化する処理を実行する。具体的にはFFDの全ての制御点の制御量をゼロベクトルに初期化する。なお、本実施例では、FFDの制御点の数をN個とし、それぞれの制御点に3次元の制御量パラメータを設定する場合を例として説明する。すなわち、全体で3N個の制御量パラメータにより変位場を表現する場合を例として説明する。本実施形態では制御量パラメータをVと表記する。ここで、VはFFDの制御量を格納する3N次元のベクトル形式のデータである。また本ステップにおいて変位場算出部140は、I_1とI_2の間の画像類似度を算出する処理を実行する。画像類似度の算出方法は公知のいずれの方法を用いても良いが、本実施形態では一例として式(3)に示すSSD(Sum of Square Difference)により画像類似度E_orgを算出するものとする。

Figure 2022023564000004
(Step S20400): Initialization In step S20400, the displacement field calculation unit 140 executes a process of initializing the displacement field D_inner12 (x, y, z). Specifically, the control quantities of all control points of the FFD are initialized to zero vectors. In this embodiment, a case where the number of control points of the FFD is N and a three-dimensional control amount parameter is set for each control point will be described as an example. That is, a case where the displacement field is expressed by 3N control quantity parameters as a whole will be described as an example. In this embodiment, the control amount parameter is expressed as V. Here, V is 3N-dimensional vector format data that stores the control amount of FFD. Further, in this step, the displacement field calculation unit 140 executes a process of calculating the image similarity between I_1 and I_2. Any known method may be used for calculating the image similarity, but in the present embodiment, the image similarity E_org is calculated by the SSD (Sum of Square Difference) represented by the formula (3) as an example.
Figure 2022023564000004

式(3)において、「+C_ave_1-C_ave_2」の部分が、3DCTデータI_1とI_2の間の濃度値を揃えるための濃度値補正項である。このように本実施形態の位置合わせ処理では、画像間の類似度を算出する計算の中で、画素ごとの濃度値補正を同時に行う。なお、Wは、画像のウィンドウ変換の関数である。本実施形態では、肺野内の画像特徴を強調して画像類似度を算出するために、肺野に含まれる空気や実質組織の濃度値の違い、すなわち肺野内の画像特徴を強調されるウィンドウ変換を行う。一例としてウィンドウ中心の濃度値を-700、ウィンドウ幅を1000とした場合の変換を行う。 In the formula (3), the portion of "+ C_ave_1-C_ave_2" is a concentration value correction term for aligning the concentration values between the 3DCT data I_1 and I_2. As described above, in the alignment process of the present embodiment, the density value correction for each pixel is performed at the same time in the calculation for calculating the similarity between the images. W is a function of image window conversion. In the present embodiment, in order to emphasize the image features in the lung field and calculate the image similarity, the difference in the concentration values of air and parenchymal tissue contained in the lung field, that is, the window transformation in which the image features in the lung field are emphasized. I do. As an example, conversion is performed when the density value at the center of the window is -700 and the window width is 1000.

以下ステップS20401からステップS20405までの処理を繰り返して実行する。 Hereinafter, the processes from step S20401 to step S20405 are repeatedly executed.

(ステップS20401):制御点インデックスiの初期化
ステップS20401において変位場算出部140は、ステップS20403からステップS20404までの処理の対象とする制御点のインデックス値iを1に初期化する。
(Step S20401): Initialization of control point index i In step S20401, the displacement field calculation unit 140 initializes the index value i of the control point to be processed from step S20403 to step S20404 to 1.

(ステップS20403):制御量変動後の類似度の算出
ステップS20403において変位場算出部140はインデックスiの制御点の制御量を微小に変動させた場合の変位場を算出する。そして算出した変位場に基づいてI_1とI_2との間の画像類似度を算出する。
(Step S20403): Calculation of similarity after change in control amount In step S20403, the displacement field calculation unit 140 calculates a displacement field when the control amount of the control point of the index i is slightly changed. Then, the image similarity between I_1 and I_2 is calculated based on the calculated displacement field.

具体的には、まず、制御量パラメータVのi番目の次元の要素値を微小に変動させた変動後の制御量パラメータV’_iを生成する。ここでは、δだけパラメータ値を増加させる変動を与える。 Specifically, first, the controlled variable parameter V'_i after the fluctuation is generated by slightly varying the element value of the i-th dimension of the controlled variable parameter V. Here, a variation that increases the parameter value by δ is given.

次に変位場算出部140は、前記変動を与えた制御量パラメータV’_iに基づいて変位場D_inner12_i(x,y,z)を算出する。この処理はFFD法を用いた公知の方法と同様であるため、詳細な説明は省略する。 Next, the displacement field calculation unit 140 calculates the displacement field D_inner12_i (x, y, z) based on the controlled variable parameter V'_i that gives the variation. Since this process is the same as the known method using the FFD method, detailed description thereof will be omitted.

さらに変位場算出部140は、前述の方法で算出した変位場D_inner12_i(x,y,z)に基づいて3DCTデータI_2を変形させた場合のI_1との間の類似度を算出する。具体的には、式(4)の処理により画像類似度E_iを算出する。

Figure 2022023564000005
Further, the displacement field calculation unit 140 calculates the degree of similarity with I_1 when the 3DCT data I_2 is deformed based on the displacement field D_inner12_i (x, y, z) calculated by the above method. Specifically, the image similarity E_i is calculated by the process of the equation (4).
Figure 2022023564000005

なお、dx_iは、D_inner12_i(x,y,z)のx軸方向の変位量を表す。同様にdy_iはy軸方向の変位量、dz_iはz軸方向の変位量を表す。濃度値補正項およびウィンドウ変換の効果については、式(3)で述べたものと同様である。 Note that dx_i represents the amount of displacement of D_inner12_i (x, y, z) in the x-axis direction. Similarly, dy_i represents the amount of displacement in the y-axis direction, and dz_i represents the amount of displacement in the z-axis direction. The effect of the density value correction term and the window conversion is the same as that described in the equation (3).

以上の処理により、i番目の制御量パラメータを変動させた場合の画像類似度E_iが算出される。 By the above processing, the image similarity E_i when the i-th control amount parameter is changed is calculated.

(ステップS20404):インデックスのインクリメント
ステップS20404において変位場算出部140は、制御量パラメータのインデックス値iをインクリメントする処理を実行する。
(Step S20404): Index Increment In step S20404, the displacement field calculation unit 140 executes a process of incrementing the index value i of the control amount parameter.

(ステップS20405):判定(i>3N)
ステップS20405において変位場算出部140は、制御量パラメータのインデックス値iが制御量パラメータの総数3Nを超えたか否かを判定する。もし超えた場合には処理をステップS20406に進め、そうでない場合には処理をステップS20403に戻す。
(Step S20405): Judgment (i> 3N)
In step S20405, the displacement field calculation unit 140 determines whether or not the index value i of the control quantity parameter exceeds the total number of control quantity parameters 3N. If it exceeds, the process proceeds to step S20406, and if not, the process returns to step S20403.

以上に説明したステップS20403からステップS20405までの処理により、制御量パラメータVの全ての次元の要素値を変動させた場合の画像類似度E_i(1≦i≦3N)が求められる。 By the processing from step S2403 to step S20405 described above, the image similarity E_i (1 ≦ i ≦ 3N) when the element values of all the dimensions of the control amount parameter V are changed can be obtained.

(ステップS20406):変位場の更新
ステップS20406において変位場算出部140は、画像類似度E_orgおよびE_i(1≦i≦3N)に基づいて変位場D_inner12(x,y,z)を更新する処理を実行する。具体的には、画像類似度E_orgおよびE_i(1≦i≦3N)に基づいて制御量パラメータVを更新し、それに基づいて変位場D_inner12(x,y,z)を更新する処理を実行する。
(Step S20406): Displacement field update In step S20406, the displacement field calculation unit 140 performs a process of updating the displacement field D_inner12 (x, y, z) based on the image similarity E_org and E_i (1 ≦ i ≦ 3N). Execute. Specifically, a process of updating the controlled variable parameter V based on the image similarity E_org and E_i (1 ≦ i ≦ 3N) and updating the displacement field D_inner12 (x, y, z) is executed.

画像類似度E_orgおよびE_i(1≦i≦3N)に基づく制御量パラメータVの更新は、例えば最急降下法により行うことができる。すなわち、制御量パラメータVを構成する3N個の各要素の値の変動に対する画像類似度の変動量E_i-E_orgを求め、その大きさに比例して制御量パラメータVの各要素の値を補正する。そして、補正後の制御量パラメータVに基づいてD_inner12(x,y,z)を更新する。 The update of the control amount parameter V based on the image similarity E_org and E_i (1 ≦ i ≦ 3N) can be performed by, for example, the steepest descent method. That is, the fluctuation amount E_i-E_org of the image similarity with respect to the fluctuation of the value of each of the 3N elements constituting the control quantity parameter V is obtained, and the value of each element of the control quantity parameter V is corrected in proportion to the magnitude thereof. .. Then, D_inner12 (x, y, z) is updated based on the corrected controlled variable parameter V.

(ステップS20407):変位場更新後の類似度算出
ステップS20407において変位場算出部140は、ステップS20406で修正された変位場D_inner12(x,y,z)に基づいて、I_1とI_2との間の画像類似度を算出し、E_orgを更新する処理を実行する。画像類似度の算出方法は式(3)に示す計算方法と同様であり、詳細な説明は省略する。
(Step S20407): Displacement field update similarity calculation In step S20407, the displacement field calculation unit 140 between I_1 and I_1 based on the displacement field D_inner12 (x, y, z) modified in step S20406. The image similarity is calculated and the process of updating E_org is executed. The calculation method of the image similarity is the same as the calculation method shown in the equation (3), and detailed description thereof will be omitted.

(ステップS20408):収束判定
ステップS20408において変位場算出部140は、ステップS20407で算出した類似度に基づいて、ステップS2040の処理を終了するか否かの判定を行う。具体的には、画像類似度E_orgが所定の閾値よりも大きい場合にはステップS2040の処理を終了し、そうでない場合には処理をステップS20401に戻す。
(Step S20408): Convergence determination In step S20408, the displacement field calculation unit 140 determines whether or not to end the process of step S2040 based on the similarity calculated in step S20407. Specifically, if the image similarity E_org is larger than a predetermined threshold value, the process of step S2040 is terminated, and if not, the process is returned to step S20401.

以上に説明したステップS20400からステップS20408の処理により、ステップS2040の処理が実行される。 The process of step S2040 is executed by the process of steps S20408 to S20408 described above.

次に情報処理装置10はステップS2050からステップS2070の処理として、第一実施形態のステップS1050からステップS1070と同様の処理を実行する。詳細な説明は省略する。 Next, the information processing apparatus 10 executes the same processing as in steps S1050 to S1070 of the first embodiment as the processing from step S2050 to step S2070. Detailed explanation will be omitted.

以上の処理により、本発明の第二実施形態における処理が実行される。この方法によれば、第一実施形態と比べて濃度値補正後の画像I’_tを生成して不図示のメモリに保持する必要がないため、より効率的に位置合わせ処理を実施できる効果がある。 By the above processing, the processing according to the second embodiment of the present invention is executed. According to this method, it is not necessary to generate the image I'_t after the density value correction and hold it in a memory (not shown) as compared with the first embodiment, so that there is an effect that the alignment process can be performed more efficiently. be.

(変形例2-1)
本実施形態の説明では、ステップS20400において画像類似度E_orgの算出方法の一例として、式(3)に示すように、I_1の画素値と濃度値補正後のI_2の画素値とを同一のウィンドウ変換関数Wで変換する場合を例として説明した。しかし、本発明の実施はこれに限らない。例えば、式(5)に示すようにI_1の画素値とI_2の画素値とを、異なるウィンドウ変換関数を用いて変換するようにしても良い。例えば、I_1用のウィンドウ変換関数W_1のウィンドウ中心をC_ave_1とし、I_2用のウィンドウ変換関数W_2のウィンドウ中心をC_ave_2に夫々設定しても良い。また、W_1のウィンドウ幅をI_1の肺野内部の濃度値の分散に基づいて設定し、W_2のウィンドウ幅をI_2の肺野内部の濃度値の分散に基づいて設定するようにしても良い。

Figure 2022023564000006
(Modification 2-1)
In the description of the present embodiment, as an example of the method of calculating the image similarity E_org in step S20400, as shown in the equation (3), the pixel value of I_1 and the pixel value of I_2 after the density value correction are converted into the same window. The case of converting with the function W has been described as an example. However, the implementation of the present invention is not limited to this. For example, as shown in the equation (5), the pixel value of I_1 and the pixel value of I_2 may be converted by using different window conversion functions. For example, the window center of the window conversion function W_1 for I_1 may be set to C_ave_1, and the window center of the window conversion function W_1 for I_1 may be set to C_ave_1, respectively. Further, the window width of W_1 may be set based on the dispersion of the concentration value inside the lung field of I_1, and the window width of W_1 may be set based on the dispersion of the concentration value inside the lung field of I_1.
Figure 2022023564000006

また、ステップS20403において画像類似度E_iの算出方法の一例として式(4)に示す計算を行う場合を例として説明したが、式(5)と同様に、ウィンドウ変換関数W_1およびW_2を用いる式(6)の計算によりE_iを算出してもよい。

Figure 2022023564000007
Further, in step S20403, the case where the calculation shown in the equation (4) is performed as an example of the calculation method of the image similarity E_i has been described as an example, but the equation using the window conversion functions W_1 and W_2 (as in the equation (5)) E_i may be calculated by the calculation of 6).
Figure 2022023564000007

以上に説明した方法によれば、I_1およびI_2の夫々に肺野の内部の濃度値の分布の違いに応じたウィンドウ変換が行われるため、ステップS2040の処理として、より精度の高い位置合わせが行える効果がある。 According to the method described above, since the window conversion is performed for each of I_1 and I_2 according to the difference in the distribution of the concentration values inside the lung field, more accurate alignment can be performed as the process of step S2040. effective.

[第三実施形態]
本発明の第三実施形態について説明する。本実施形態は、肺の移動情報として、被検体の肺の滑り量マップを生成する第一実施形態とは異なり、肺の移動情報として、被検体の肺の動き量マップを生成する。
[Third Embodiment]
A third embodiment of the present invention will be described. This embodiment is different from the first embodiment in which the lung slip amount map of the subject is generated as the lung movement information, and the lung movement amount map of the subject is generated as the lung movement information.

本実施形態に係る情報処理システムの全体構成は第一実施形態の情報処理システムの全体構成の説明として示した図1と同様である。ここでは詳細な説明は省略する。 The overall configuration of the information processing system according to the present embodiment is the same as that shown in FIG. 1 as an explanation of the overall configuration of the information processing system of the first embodiment. A detailed description will be omitted here.

図6を用いて、本実施形態における情報処理装置10による全体の処理手順を詳細に説明する。 The entire processing procedure by the information processing apparatus 10 in the present embodiment will be described in detail with reference to FIG.

(ステップS3000)から(ステップS3040)
ステップS3000からステップS3040において情報処理装置10は、第一実施形態の情報処理装置が実行するステップS1000からステップS1040と同様の処理を実行する。ここでは詳細な説明は省略する。
From (Step S3000) to (Step S3040)
In steps S3000 to S3040, the information processing apparatus 10 executes the same processing as in steps S1000 to S1040 executed by the information processing apparatus of the first embodiment. A detailed description will be omitted here.

(ステップS3060)
ステップS3060において、マップ生成部150は、被検体の肺表面(肺輪郭)上での呼吸による動き量のマップを生成する処理を実行する。この処理は、ステップS3010で算出した吸気位の肺野マスク画像M_1、ステップS3040で算出した変位場D_inner(x,y,z)に基づいて実行する。より具体的には、肺野マスク画像M_1の輪郭部分における変位場D_inner(x,y,z)の変位量を算出し、それを3次元のマップである動き量マップS(x,y,z)として生成する。本実施形態では、動き量マップS(x,y,z)は吸気位の3DCTデータの画像座標系での位置を引数として、当該位置における動き量を返す関数である。より具体的には、3DCTデータと同程度に離散化されたボリュームデータとして保持する。この動き量マップS(x,y,z)は、2つの時相(状態)の間での肺の動き量の分布を表すものである。マップ生成部150は、必要に応じて、生成した動き量マップS(x,y,z)を、不図示の記憶部、あるいは、検査画像データベース30に、被検体の検査画像と対応付けて保存する処理を行う。
(Step S3060)
In step S3060, the map generation unit 150 executes a process of generating a map of the amount of movement due to breathing on the lung surface (lung contour) of the subject. This process is executed based on the lung field mask image M_1 of the inspiratory position calculated in step S3010 and the displacement field D_inner (x, y, z) calculated in step S3040. More specifically, the displacement amount of the displacement field D_inner (x, y, z) in the contour portion of the lung field mask image M_1 is calculated, and the displacement amount map S (x, y, z) which is a three-dimensional map is calculated. ). In the present embodiment, the motion amount map S (x, y, z) is a function that returns the motion amount at the position of the intake position 3DCT data in the image coordinate system as an argument. More specifically, it is retained as volume data that is discretized to the same extent as 3DCT data. This movement amount map S (x, y, z) represents the distribution of lung movement amount between two time phases (states). The map generation unit 150 stores the generated motion amount map S (x, y, z) in a storage unit (not shown) or an inspection image database 30 in association with the inspection image of the subject, if necessary. Perform the processing.

(ステップS3070)
ステップS3070において表示制御部160は、ステップS3060で算出した動き量マップS(x,y,z)を表示装置60に表示させるための制御を行う。具体的な制御方法は、第一実施形態のステップS1070で説明した滑り量マップの表示制御と同様にして行うことができる。詳細な説明は省略する。
(Step S3070)
In step S3070, the display control unit 160 controls the display device 60 to display the motion amount map S (x, y, z) calculated in step S3060. The specific control method can be performed in the same manner as the display control of the slip amount map described in step S1070 of the first embodiment. Detailed explanation will be omitted.

以上に説明した方法により、本実施形態の情報処理装置10の処理が実行される。これによれば、呼吸状態の異なる3DCTデータ間の位置合わせを高い精度で実行できるため、被検体の胸膜の癒着状態の把握、診断の支援に有効な動き量マップをユーザに提供できる。 The processing of the information processing apparatus 10 of the present embodiment is executed by the method described above. According to this, since the alignment between 3DCT data having different respiratory states can be performed with high accuracy, it is possible to provide the user with a movement amount map effective for grasping the adhesion state of the pleura of the subject and supporting the diagnosis.

(変形例3-1)
本実施形態の説明では、ステップS3060において動き量マップを生成する場合を例として説明したが、本発明の実施はこれに限らない。例えば、ステップS3060の処理として肺の換気量マップを算出するようにしても良い。この場合、ステップS3040で算出した肺野内の変位場D_inner(x,y,z)に基づいて肺野内の各位置での体積の変化量の大小を可視化するようにしても良い。例えば、吸気位から呼気位への変位を表す変位場D_inner(x,y,z)を算出する本実施では、正常な肺機能を有する被検体であれば、肺野内における変位量は体積が大きく収縮する変位となる。これに対し、局所的な体積の収縮が小さい場合などには、当該箇所の肺の換気機能の障害が疑われる。本発明の実施の一例としては、そのような個所の存在をユーザが視認できるように、肺野内の変位場から局所的な体積の変化の状態を可視化する画像を生成してもよい。
(Modification 3-1)
In the description of the present embodiment, the case where the motion amount map is generated in step S3060 has been described as an example, but the embodiment of the present invention is not limited to this. For example, the ventilation volume map of the lung may be calculated as the process of step S3060. In this case, the magnitude of the change in volume at each position in the lung field may be visualized based on the displacement field D_inner (x, y, z) in the lung field calculated in step S3040. For example, in this implementation of calculating the displacement field D_inner (x, y, z) representing the displacement from the inspiratory position to the expiratory position, the displacement amount in the lung field is large for a subject having normal lung function. It becomes a displacement that contracts. On the other hand, when the local volume contraction is small, it is suspected that the ventilation function of the lungs at the site is impaired. As an example of the practice of the present invention, an image that visualizes the state of local volume change may be generated from the displacement field in the lung field so that the existence of such a portion can be visually recognized by the user.

また、異なる呼吸時相で撮像した肺の3次元画像間の位置合わせを行ういずれの目的に対しても、ステップS3000からステップS3040までの処理を実施することができる。これによると、呼吸時相の違いによる肺野内の濃度値の変化に起因する位置合わせの誤差を軽減した、正確な位置合わせを行うことができる。 In addition, the processes from step S3000 to step S3040 can be performed for any purpose of aligning the three-dimensional images of the lungs imaged in different respiratory phases. According to this, accurate alignment can be performed by reducing the alignment error caused by the change in the concentration value in the lung field due to the difference in the respiratory phase.

[その他の実施形態]
上述した実施形態は本発明の一例にすぎず、本発明の構成および範囲は上述した実施形態に限定されるものではない。複数の実施形態の処理を組み合せてもよいし、複数の変形例の処理を組み合わせてもよい。
[Other embodiments]
The above-described embodiment is merely an example of the present invention, and the configuration and scope of the present invention are not limited to the above-mentioned embodiment. The processes of a plurality of embodiments may be combined, or the processes of a plurality of modifications may be combined.

上述した実施形態では、肺野の画像の位置合わせに本発明を適用した場合の処理例を説明したが、本発明の適用対象は肺野の画像に限られず、動きがあり且つ画像の濃度値が変動し得る対象物であれば、本発明の位置合わせ処理を好ましく適用できる。例えば、造影条件の異なる心臓の画像の位置合わせに本発明を適用することができる。具体的には、造
影をした状態(造影剤を導入した状態)の心臓を撮影した画像と、同部位を非造影で(造影剤を導入しない状態で)撮影した画像との間の位置合わせに関して、本発明を適用してもよい。また、造影剤の血中濃度が所定値より高い状態の心臓を撮影した画像と、造影剤の血中濃度が所定値より低い状態の心臓を撮影した画像との位置合わせに関して、本発明を適用してもよい。また、肺や心臓以外の臓器の画像に対して本発明を適用してもよい。
In the above-described embodiment, a processing example in which the present invention is applied to the alignment of the image of the lung field has been described, but the application target of the present invention is not limited to the image of the lung field, and there is movement and the density value of the image. If the object is variable, the alignment process of the present invention can be preferably applied. For example, the present invention can be applied to the alignment of images of hearts having different contrast conditions. Specifically, regarding the alignment between the image of the heart taken with contrast medium (with contrast medium introduced) and the image of the same site taken without contrast medium (without contrast medium introduced). , The present invention may be applied. Further, the present invention is applied with respect to the alignment between the image of the heart in which the blood concentration of the contrast medium is higher than the predetermined value and the image of the heart in which the blood concentration of the contrast medium is lower than the predetermined value. You may. Further, the present invention may be applied to images of organs other than lungs and heart.

また、開示の技術は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インターフェイス機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、1つの機器からなる装置に適用しても良い。 Further, the disclosed technology can take an embodiment as a system, an apparatus, a method, a program, a recording medium (storage medium), or the like. Specifically, it may be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, an image pickup device, a web application, etc.), or may be applied to a device consisting of one device. good.

また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。すなわち、前述した実施形態の機能を実現するソフトウェアのプログラムコード(コンピュータプログラム)を記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。 Needless to say, the object of the present invention is achieved by doing the following. That is, a recording medium (or storage medium) in which a program code (computer program) of software that realizes the functions of the above-described embodiment is recorded is supplied to the system or device. Needless to say, the storage medium is a computer-readable storage medium. Then, the computer (or CPU or MPU) of the system or device reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the function of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.

10:情報処理装置
100:検査画像取得部
110:領域抽出部
120:平均濃度値算出部
130:濃度値補正部
140:変位場算出部
150:マップ生成部
10: Information processing device 100: Inspection image acquisition unit 110: Area extraction unit 120: Average concentration value calculation unit 130: Concentration value correction unit 140: Displacement field calculation unit 150: Map generation unit

Claims (15)

動きのある対象物を異なるタイミングで撮影することにより第1の画像および第2の画像を取得する画像取得部と、
前記第1の画像と前記第2の画像との位置合わせ処理を行う画像処理部と、を有し、
前記画像処理部は、
前記第1の画像における前記対象物の領域の画素値の統計量と前記第2の画像における前記対象物の領域の画素値の統計量との差が小さくなるように、前記第1の画像および/または前記第2の画像の画素値を変換し、
変換された画素値に基づいて、前記第1の画像と前記第2の画像の間での前記対象物の領域内の画素の対応関係を取得する
ことを特徴とする情報処理装置。
An image acquisition unit that acquires a first image and a second image by photographing moving objects at different timings, and an image acquisition unit.
It has an image processing unit that performs alignment processing between the first image and the second image.
The image processing unit
The first image and the first image so that the difference between the statistic of the pixel value of the region of the object in the first image and the statistic of the pixel value of the region of the object in the second image is small. / Or convert the pixel value of the second image,
An information processing apparatus for acquiring a correspondence between a first image and a pixel in a region of the object between the first image and the second image based on the converted pixel value.
前記画像処理部は、さらに、
前記対象物の周囲の領域である周囲領域について、前記第1の画像と前記第2の画像の間での前記周囲領域内の画素の対応関係を取得し、
前記対象物の領域内の画素の対応関係と前記周囲領域内の画素の対応関係とに基づいて、前記対象物の領域と前記周囲領域の間の滑り量の分布を取得する
ことを特徴とする請求項1に記載の情報処理装置。
The image processing unit further
With respect to the peripheral region which is the peripheral region of the object, the correspondence relationship of the pixels in the peripheral region between the first image and the second image is acquired.
It is characterized in that the distribution of the amount of slip between the region of the object and the peripheral region is acquired based on the correspondence of the pixels in the region of the object and the correspondence of the pixels in the peripheral region. The information processing apparatus according to claim 1.
前記画像処理部は、画素値を変換する前の前記第1の画像および前記第2の画像を用いて、前記第1の画像と前記第2の画像の間での前記周囲領域内の画素の対応関係を取得する
ことを特徴とする請求項2に記載の情報処理装置。
The image processing unit uses the first image and the second image before converting the pixel value to obtain pixels in the peripheral region between the first image and the second image. The information processing apparatus according to claim 2, wherein a correspondence relationship is acquired.
前記画像処理部は、さらに、
前記第1の画像と前記第2の画像の間での前記対象物の領域内の画素の対応関係に基づいて、前記第1の画像の状態と前記第2の画像の状態の間での前記対象物の動き量の分布を取得する
ことを特徴とする請求項1~3のうちいずれか1項に記載の情報処理装置。
The image processing unit further
The said between the state of the first image and the state of the second image, based on the correspondence of the pixels in the region of the object between the first image and the second image. The information processing apparatus according to any one of claims 1 to 3, wherein the distribution of the amount of movement of the object is acquired.
前記画像処理部は、前記第1の画像における前記対象物の領域の画素値の統計量と前記第2の画像における前記対象物の領域の画素値の統計量との差が小さくなり、かつ、前記対象物の領域内の画像特徴が強調されるように、前記第1の画像および/または前記第2の画像の画素値を変換する
ことを特徴とする請求項1~4のうちいずれか1項に記載の情報処理装置。
In the image processing unit, the difference between the statistic of the pixel value of the area of the object in the first image and the statistic of the pixel value of the area of the object in the second image becomes small, and One of claims 1 to 4, characterized in that the pixel values of the first image and / or the second image are converted so that the image features within the region of the object are emphasized. The information processing device described in the section.
前記画像処理部は、
前記第1の画像における前記対象物の領域の画素値の統計量と前記第2の画像における前記対象物の領域の画素値の統計量との差が小さくなるように、前記第1の画像および/または前記第2の画像の画素値を変換し、さらに、
変換後の前記第1の画像および/または前記第2の画像に対し、所定のウィンドウを用いたウィンドウ変換を行う
ことを特徴とする請求項5に記載の情報処理装置。
The image processing unit
The first image and the first image so that the difference between the statistic of the pixel value of the region of the object in the first image and the statistic of the pixel value of the region of the object in the second image is small. / Or the pixel value of the second image is converted, and further
The information processing apparatus according to claim 5, wherein window conversion using a predetermined window is performed on the converted first image and / or the second image.
前記画像処理部は、
前記第1の画像における前記対象物の領域の画素値の統計量に基づいて設定した第1のウィンドウを用いて、前記第1の画像に対するウィンドウ変換を行うと共に、
前記第2の画像における前記対象物の領域の画素値の統計量に基づいて設定した第2のウィンドウを用いて、前記第2の画像に対するウィンドウ変換を行う
ことを特徴とする請求項5に記載の情報処理装置。
The image processing unit
Using the first window set based on the statistic of the pixel value of the area of the object in the first image, the window conversion for the first image is performed and the window is converted.
5. The fifth aspect of the present invention, wherein the window conversion for the second image is performed using the second window set based on the statistic of the pixel value of the region of the object in the second image. Information processing equipment.
前記画像取得部は、前記第1の画像と前記第2の画像の間の状態で撮影された中間状態の画像を取得し、
前記画像処理部は、
前記中間状態の画像、前記第1の画像、および前記第2の画像の間での前記対象物の領域の画素値の統計量の差が小さくなるように、前記中間状態の画像、前記第1の画像、および前記第2の画像のうち少なくとも2つの画像の画素値を変換し、
変換された画素値に基づいて、前記第1の画像と前記中間状態の画像の間での前記対象物の領域内の画素の対応関係である第1の対応関係と、前記中間状態の画像と前記第2の画像の間での前記対象物の領域内の画素の対応関係である第2の対応関係とを取得し、
前記第1の対応関係と前記第2の対応関係を統合することにより、前記第1の画像と前記第2の画像の間での前記対象物の領域内の画素の対応関係を生成する
ことを特徴とする請求項1~7のうちいずれか1項に記載の情報処理装置。
The image acquisition unit acquires an image in an intermediate state taken between the first image and the second image.
The image processing unit
The image of the intermediate state, the first image, so that the difference in the statistic of the pixel value of the region of the object between the image of the intermediate state, the first image, and the second image is small. And the pixel values of at least two of the second images are converted.
Based on the converted pixel values, the first correspondence relationship, which is the correspondence relationship of the pixels in the region of the object between the first image and the image in the intermediate state, and the image in the intermediate state. The second correspondence, which is the correspondence between the pixels in the region of the object between the second images, is acquired.
By integrating the first correspondence and the second correspondence, it is possible to generate a correspondence of pixels in the region of the object between the first image and the second image. The information processing apparatus according to any one of claims 1 to 7.
前記画像処理部は、
前記第1の画像と前記第2の画像の間での前記対象物の領域内の画素の対応関係を取得した後、
前記対応関係に基づいて、前記第1の画像と前記第2の画像の間での前記対象物の体積変化を算出し、
前記対象物の体積変化に基づいて、前記第1の画像および/または前記第2の画像の変換後の画素値を補正し、
補正された画素値に基づいて、前記第1の画像と前記第2の画像の間での前記対象物の領域内の画素の対応関係を修正する
ことを特徴とする請求項1~8のうちいずれか1項に記載の情報処理装置。
The image processing unit
After acquiring the correspondence of the pixels in the region of the object between the first image and the second image,
Based on the correspondence, the volume change of the object between the first image and the second image is calculated.
Based on the volume change of the object, the converted pixel value of the first image and / or the second image is corrected.
Of claims 1 to 8, wherein the correspondence between the first image and the second image of the pixels in the region of the object is modified based on the corrected pixel value. The information processing apparatus according to any one of the following items.
前記画像処理部は、画素値の類似度に基づいて前記第1の画像と前記第2の画像の間の画素の対応付けを行う
ことを特徴とする請求項1~9のうちいずれか1項に記載の情報処理装置。
One of claims 1 to 9, wherein the image processing unit associates pixels between the first image and the second image based on the similarity of pixel values. The information processing device described in.
前記対象物は肺であり、前記第1の画像および前記第2の画像は異なる呼吸時相で撮影された画像である
ことを特徴とする請求項1~10のうちいずれか1項に記載の情報処理装置。
The object according to any one of claims 1 to 10, wherein the object is a lung, and the first image and the second image are images taken in different respiratory phases. Information processing device.
前記第1の画像および前記第2の画像は異なる造影条件で撮影された画像である
ことを特徴とする請求項1~10のうちいずれか1項に記載の情報処理装置。
The information processing apparatus according to any one of claims 1 to 10, wherein the first image and the second image are images taken under different contrast conditions.
前記第1の画像および前記第2の画像はCTデータである
ことを特徴とする請求項1~12のうちいずれか1項に記載の情報処理装置。
The information processing apparatus according to any one of claims 1 to 12, wherein the first image and the second image are CT data.
動きのある対象物を異なるタイミングで撮影することにより第1の画像および第2の画像を取得するステップと、
前記第1の画像と前記第2の画像との位置合わせ処理を行うステップと、を有し、
前記位置合わせ処理において、
前記第1の画像における前記対象物の領域の画素値の統計量と前記第2の画像における前記対象物の領域の画素値の統計量との差が小さくなるように、前記第1の画像および/または前記第2の画像の画素値を変換し、
変換された画素値に基づいて、前記第1の画像と前記第2の画像の間での前記対象物の領域内の画素の対応関係を取得する
ことを特徴とする情報処理方法。
A step of acquiring a first image and a second image by shooting a moving object at different timings, and
It has a step of performing an alignment process between the first image and the second image.
In the alignment process,
The first image and the first image so that the difference between the statistic of the pixel value of the region of the object in the first image and the statistic of the pixel value of the region of the object in the second image is small. / Or convert the pixel value of the second image,
An information processing method comprising acquiring a correspondence relationship between a first image and a pixel in a region of the object between the first image and the second image based on the converted pixel value.
請求項14に記載の情報処理方法の各ステップをコンピュータに実行させるためのプログラム。 A program for causing a computer to execute each step of the information processing method according to claim 14.
JP2020126579A 2020-07-27 2020-07-27 Information processing device, information processing method, and program Pending JP2022023564A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020126579A JP2022023564A (en) 2020-07-27 2020-07-27 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020126579A JP2022023564A (en) 2020-07-27 2020-07-27 Information processing device, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2022023564A true JP2022023564A (en) 2022-02-08
JP2022023564A5 JP2022023564A5 (en) 2023-08-01

Family

ID=80226259

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020126579A Pending JP2022023564A (en) 2020-07-27 2020-07-27 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2022023564A (en)

Similar Documents

Publication Publication Date Title
US10699410B2 (en) Automatic change detection in medical images
US9117287B2 (en) Image analysis apparatus, method, and program
JP4787171B2 (en) Elastic image alignment
US8867808B2 (en) Information processing apparatus, information processing method, program, and storage medium
US8908944B2 (en) Information processing apparatus, information processing method, and program
JP5580030B2 (en) Image processing apparatus and image alignment method
CN106952285B (en) Lung motion estimation method based on prior statistical motion model and adaptive registration
JP2007526033A (en) Apparatus and method for registering an image of a structured object
Alam et al. Medical image registration: Classification, applications and issues
JP6995535B2 (en) Image processing equipment, image processing methods and programs
JP7071037B2 (en) Inference devices, medical systems, and programs
KR20190074226A (en) Ent bone distance color coded face maps
WO2020235461A1 (en) Abnormality detection method, abnormality detection program, abnormality detection device, server device, and information processing method
JP7409624B2 (en) Information processing device, information processing method, and program
JP6967983B2 (en) Image processing equipment, image processing methods, and programs
JP2022023564A (en) Information processing device, information processing method, and program
US20220175457A1 (en) Endoscopic image registration system for robotic surgery
JP2022052210A (en) Information processing device, information processing method, and program
EP3910597A1 (en) Body representations
JP7270453B2 (en) Image processing device, image processing method and program
US20220084206A1 (en) Information processing apparatus, information processing method, and non-transitory storage medium
JP2022109778A (en) Information processing device, information processing method and program
JP7015351B2 (en) Medical image processing device, medical image processing method
WO2020240995A1 (en) Matching device, method, and program
JP6748762B2 (en) Medical image processing apparatus and medical image processing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230724

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230724

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240415