JP2023172310A - Image processing device, method, and program - Google Patents

Image processing device, method, and program Download PDF

Info

Publication number
JP2023172310A
JP2023172310A JP2022084013A JP2022084013A JP2023172310A JP 2023172310 A JP2023172310 A JP 2023172310A JP 2022084013 A JP2022084013 A JP 2022084013A JP 2022084013 A JP2022084013 A JP 2022084013A JP 2023172310 A JP2023172310 A JP 2023172310A
Authority
JP
Japan
Prior art keywords
image
dimensional image
dimensional
image processing
error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022084013A
Other languages
Japanese (ja)
Inventor
啓介 萩原
Keisuke Hagiwara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2022084013A priority Critical patent/JP2023172310A/en
Publication of JP2023172310A publication Critical patent/JP2023172310A/en
Pending legal-status Critical Current

Links

Abstract

To provide an image processing device, method, and program capable of speedily and accurately positioning a three-dimensional image and a radiation image.SOLUTION: A processor acquires a three-dimensional image and a radiation image about an identical subject, performs rigid body positioning of the three-dimensional image and the radiation image, derives an error of a respiratory phase between the three-dimensional image and the radiation image subjected to the rigid body positioning, determines whether or not the error is less than a predetermined threshold, and when the determination is negative, performs non-rigid body positioning of the three-dimensional image and the radiation image.SELECTED DRAWING: Figure 3

Description

本開示は、画像処理装置、方法およびプログラムに関する。 The present disclosure relates to an image processing device, method, and program.

内視鏡観察部および超音波観察部を先端に有する超音波内視鏡を被検体の消化器官あるいは気管支内等の管腔に挿入し、管腔内の内視鏡画像および管腔壁の外側にある病変等の部位の超音波画像を撮像することが行われている。また、管腔壁の外側にある病変の組織を鉗子等の処置具により採取する生検も行われている。 An ultrasound endoscope with an endoscopic observation section and an ultrasound observation section at the tip is inserted into a lumen such as the digestive tract or bronchus of a subject, and endoscopic images of the inside of the lumen and the outside of the lumen wall are obtained. Ultrasonic images of lesions and other parts of the body are being taken. Biopsies are also performed in which tissue of a lesion located outside the lumen wall is collected using a treatment instrument such as forceps.

このような超音波内視鏡を用いた処置を行う際には、超音波内視鏡を被検体内の目標位置に正確に到達させることが重要である。このため、処置中に放射線を放射線源から被検体に連続的に照射し、これにより取得される透視画像をリアルタイムで表示する透視撮影を行うことにより、超音波内視鏡と人体構造との位置関係を把握することが行われている。 When performing a treatment using such an ultrasound endoscope, it is important to accurately reach the target position within the subject's body with the ultrasound endoscope. For this reason, by performing fluoroscopic imaging, in which radiation is continuously irradiated from a radiation source to the subject during the procedure and the resulting fluoroscopic images are displayed in real time, the position of the ultrasound endoscope and the human body structure can be adjusted. The relationship is being understood.

ここで、透視画像は被検体内の臓器、血管および骨等の解剖構造が重なり合った状態で含まれるため、管腔および病変の認識が容易ではない。このため、CT(Computed Tomography)装置およびMRI(Magnetic Resonance Imaging)装置等により、被検体の3次元画像を処置前に予め取得し、3次元画像において病変位置を特定し、3次元画像と透視画像との位置合わせを行うことにより、透視画像において病変位置を特定することが行われている(例えば特許文献1参照)。また、3次元画像と透視画像とを剛体位置合わせあるいは非剛体位置合わせする各種手法も提案されている(例えば特許文献2,3参照)。 Here, since the fluoroscopic image includes overlapping anatomical structures such as organs, blood vessels, and bones within the subject, it is not easy to recognize lumens and lesions. For this reason, a three-dimensional image of the subject is acquired before the treatment using a CT (Computed Tomography) device, an MRI (Magnetic Resonance Imaging) device, etc., the lesion position is identified in the three-dimensional image, and the three-dimensional image and fluoroscopic image are The position of a lesion is specified in a fluoroscopic image by performing position alignment with the fluoroscopic image (see, for example, Patent Document 1). Furthermore, various methods have been proposed for performing rigid body positioning or non-rigid body positioning of a three-dimensional image and a perspective image (see, for example, Patent Documents 2 and 3).

特開2020-137796号公報JP2020-137796A 特開2008-093443号公報Japanese Patent Application Publication No. 2008-093443 特開2014-135974号公報Japanese Patent Application Publication No. 2014-135974

剛体位置合わせは演算量が少ないため比較的高速に位置合わせを行うことができるが、位置合わせの精度はそれほど高くない。一方、非剛体位置合わせは位置合わせの精度は高いが演算量が多いため、処理に時間を要する。 Rigid body positioning requires a small amount of calculation, so positioning can be performed relatively quickly, but the accuracy of positioning is not so high. On the other hand, non-rigid positioning has high positioning accuracy, but requires a large amount of calculation, so it takes time to process.

本発明は上記事情に鑑みなされたものであり、高速かつ精度よく3次元画像と2次元の放射線画像とを位置合わせできるようにすることを目的とする。 The present invention has been made in view of the above circumstances, and it is an object of the present invention to enable alignment of a three-dimensional image and a two-dimensional radiation image at high speed and with high precision.

本開示の第1の態様に係る画像処理装置は、少なくとも1つのプロセッサを備え、プロセッサは、同一被検体についての3次元画像および放射線画像を取得し、
3次元画像と放射線画像とを剛体位置合わせし、
剛体位置合わせされた3次元画像と放射線画像との呼吸相の誤差を導出し、
誤差が予め定められたしきい値未満であるか否かを判定し、
判定が否定されると、3次元画像と放射線画像との非剛体位置合わせを行う。
An image processing device according to a first aspect of the present disclosure includes at least one processor, the processor acquires a three-dimensional image and a radiation image of the same subject,
Rigid alignment of the 3D image and radiographic image,
Derive the error in the respiratory phase between the rigidly aligned three-dimensional image and the radiographic image,
determining whether the error is less than a predetermined threshold;
If the determination is negative, non-rigid alignment between the three-dimensional image and the radiographic image is performed.

本開示の第2の態様に係る画像処理装置は、第1の態様に係る画像処理装置において、3次元画像および放射線画像は、被検体の肺野領域を含むものであってもよい。 An image processing apparatus according to a second aspect of the present disclosure may be the image processing apparatus according to the first aspect, in which the three-dimensional image and the radiation image include a lung field region of the subject.

本開示の第3の態様に係る画像処理装置は、第2の態様に係る画像処理装置において、プロセッサは、3次元画像および放射線画像のそれぞれから肺野領域を抽出し、
抽出した肺野領域に基づいて3次元画像と放射線画像との非剛体位置合わせを行うものであってもよい。
An image processing device according to a third aspect of the present disclosure is the image processing device according to the second aspect, wherein the processor extracts a lung field region from each of the three-dimensional image and the radiation image;
Non-rigid alignment between the three-dimensional image and the radiation image may be performed based on the extracted lung field region.

本開示の第4の態様に係る画像処理装置は、第3の態様に係る画像処理装置において、プロセッサは、判定が否定された場合に、3次元画像および放射線画像のそれぞれから肺野領域を抽出するものであってもよい。 In the image processing apparatus according to a fourth aspect of the present disclosure, in the image processing apparatus according to the third aspect, when the determination is negative, the processor extracts a lung field region from each of the three-dimensional image and the radiation image. It may be something that does.

本開示の第5の態様に係る画像処理装置は、第3の態様に係る画像処理装置において、プロセッサは、判定を行う前に、3次元画像および放射線画像のそれぞれから肺野領域を抽出するものであってもよい。 An image processing device according to a fifth aspect of the present disclosure is an image processing device according to the third aspect, in which the processor extracts a lung field region from each of the three-dimensional image and the radiation image before making the determination. It may be.

本開示の第6の態様に係る画像処理装置は、第2から第5の態様のいずれか1つの態様に係る画像処理装置において、プロセッサは、3次元画像に含まれる横隔膜の被検体の体軸方向における位置と、放射線画像に含まれる横隔膜の被検体の体軸方向における位置との相違に基づいて呼吸相の誤差を導出するものであってもよい。 An image processing apparatus according to a sixth aspect of the present disclosure is an image processing apparatus according to any one of the second to fifth aspects, in which the processor includes a body axis of the subject of the diaphragm included in the three-dimensional image. The error in the respiratory phase may be derived based on the difference between the position in the direction and the position of the diaphragm included in the radiographic image in the body axis direction of the subject.

本開示の第7の態様に係る画像処理装置は、第6の態様に係る画像処理装置において、プロセッサは、学習済みモデルを用いて、3次元画像に含まれる横隔膜の被検体の体軸方向における位置と、放射線画像に含まれる横隔膜の被検体の体軸方向における位置とを導出するものであってもよい。 In the image processing apparatus according to a seventh aspect of the present disclosure, in the image processing apparatus according to the sixth aspect, the processor uses the learned model to detect the diaphragm in the body axis direction of the subject included in the three-dimensional image. The position and the position of the diaphragm included in the radiographic image in the body axis direction of the subject may be derived.

本開示の第8の態様に係る画像処理装置は、第2から第5の態様のいずれか1つの態様に係る画像処理装置において、プロセッサは、3次元画像を放射線画像の撮影方向に投影した投影画像に含まれる肺野領域の面積と、放射線画像に含まれる肺野領域の面積との相違に基づいて呼吸相の誤差を導出するものであってもよい。 An image processing apparatus according to an eighth aspect of the present disclosure is an image processing apparatus according to any one of the second to fifth aspects, in which the processor is configured to project a three-dimensional image in a radiographic imaging direction. The error in the respiratory phase may be derived based on the difference between the area of the lung field region included in the image and the area of the lung field region included in the radiographic image.

本開示の第9の態様に係る画像処理装置は、第1から第8の態様のいずれか1つの態様に係る画像処理装置において、プロセッサは、判定が否定されると、非剛体位置合わせされた3次元画像と放射線画像とを重畳表示し、判定が肯定されると剛体位置合わせされた3次元画像と放射線画像とを重畳表示するものであってもよい。 In the image processing device according to a ninth aspect of the present disclosure, in the image processing device according to any one of the first to eighth aspects, when the determination is negative, the processor performs non-rigid alignment. The three-dimensional image and the radiographic image may be displayed in a superimposed manner, and if the determination is affirmative, the three-dimensional image and the radiographic image, which have been rigidly aligned, may be displayed in a superimposed manner.

本開示の画像処理方法は、同一被検体についての3次元画像および放射線画像を取得し、
3次元画像と放射線画像とを剛体位置合わせし、
剛体位置合わせされた3次元画像と放射線画像との呼吸相の誤差を導出し、
誤差が予め定められたしきい値未満であるか否かを判定し、
判定が否定されると、3次元画像と放射線画像との非剛体位置合わせを行う。
The image processing method of the present disclosure acquires a three-dimensional image and a radiation image of the same subject,
Rigid alignment of the 3D image and radiographic image,
Derive the error in the respiratory phase between the rigidly aligned three-dimensional image and the radiographic image,
determining whether the error is less than a predetermined threshold;
If the determination is negative, non-rigid alignment between the three-dimensional image and the radiographic image is performed.

本開示の画像処理プログラムは、同一被検体についての3次元画像および放射線画像を取得する手順と、
3次元画像と放射線画像とを剛体位置合わせする手順と、
剛体位置合わせされた3次元画像と放射線画像との呼吸相の誤差を導出する手順と、
誤差が予め定められたしきい値未満であるか否かを判定する手順と、
判定が否定されると、3次元画像と放射線画像との非剛体位置合わせを行う手順とをコンピュータに実行させる。
The image processing program of the present disclosure includes a procedure for acquiring a three-dimensional image and a radiation image of the same subject;
A procedure for rigid body alignment of a three-dimensional image and a radiographic image;
A procedure for deriving a respiratory phase error between a rigidly aligned three-dimensional image and a radiographic image;
a step of determining whether the error is less than a predetermined threshold;
If the determination is negative, the computer is caused to execute a procedure for performing non-rigid position alignment between the three-dimensional image and the radiographic image.

本開示によれば、高速かつ精度よく3次元画像と放射線画像とを位置合わせできる。 According to the present disclosure, a three-dimensional image and a radiation image can be aligned at high speed and with high precision.

本開示の第1の実施形態による画像処理装置を適用した医療情報システムの概略構成を示す図A diagram showing a schematic configuration of a medical information system to which an image processing device according to a first embodiment of the present disclosure is applied. 第1の実施形態による画像処理装置の概略構成を示す図A diagram showing a schematic configuration of an image processing device according to the first embodiment 第1の実施形態による画像処理装置の機能構成図Functional configuration diagram of the image processing device according to the first embodiment 第1の実施形態による画像処理装置が行う処理を模式的に示す図A diagram schematically showing processing performed by the image processing device according to the first embodiment 横隔膜の位置の相違の検出を説明するための図Diagram to explain detection of differences in diaphragm position 表示画面を示す図Diagram showing the display screen 第1の実施形態において行われる処理を示すフローチャートFlowchart showing processing performed in the first embodiment 第2の実施形態において行われる処理を示すフローチャートFlowchart showing processing performed in the second embodiment

以下、図面を参照して本開示の実施形態について説明する。まず、第1の実施形態による画像処理装置を適用した医療情報システムの構成について説明する。図1は、医療情報システムの概略構成を示す図である。図1に示す医療情報システムは、第1の実施形態による画像処理装置を内包するコンピュータ1、3次元画像撮影装置2、透視画像撮影装置3および画像保管サーバ4が、ネットワーク5を経由して通信可能な状態で接続されている。 Embodiments of the present disclosure will be described below with reference to the drawings. First, the configuration of a medical information system to which the image processing apparatus according to the first embodiment is applied will be described. FIG. 1 is a diagram showing a schematic configuration of a medical information system. In the medical information system shown in FIG. 1, a computer 1 including an image processing device according to the first embodiment, a three-dimensional image capturing device 2, a fluoroscopic image capturing device 3, and an image storage server 4 communicate with each other via a network 5. Connected as possible.

コンピュータ1は、第1の実施形態による画像処理装置を内包するものであり、第1の実施形態の画像処理プログラムがインストールされている。コンピュータ1は、後述するように被検体Hに対して処置を行う処置室に設置される。コンピュータ1は、処置を行う医療従事者が直接操作するワークステーションあるいはパーソナルコンピュータでもよいし、それらとネットワークを介して接続されたサーバコンピュータでもよい。画像処理プログラムは、ネットワークに接続されたサーバコンピュータの記憶装置、あるいはネットワークストレージに、外部からアクセス可能な状態で記憶され、要求に応じて医師が使用するコンピュータ1にダウンロードされ、インストールされる。または、DVD(Digital Versatile Disc)あるいはCD-ROM(Compact Disc Read Only Memory)等の記録媒体に記録されて配布され、その記録媒体からコンピュータ1にインストールされる。 The computer 1 includes the image processing apparatus according to the first embodiment, and has the image processing program according to the first embodiment installed therein. The computer 1 is installed in a treatment room where a treatment is performed on a subject H, as will be described later. The computer 1 may be a workstation or personal computer directly operated by a medical professional who performs treatment, or may be a server computer connected thereto via a network. The image processing program is stored in a storage device of a server computer connected to a network or in a network storage in a state that can be accessed from the outside, and is downloaded and installed in the computer 1 used by the doctor according to a request. Alternatively, it is recorded and distributed on a recording medium such as a DVD (Digital Versatile Disc) or a CD-ROM (Compact Disc Read Only Memory), and installed on the computer 1 from the recording medium.

3次元画像撮影装置2は、被検体Hの診断対象となる部位を撮影することにより、その部位を表す3次元画像を生成する装置であり、具体的には、CT装置、MRI装置、およびPET(Positron Emission Tomography)装置等である。3次元画像撮影装置2により生成された、複数の断層画像からなる3次元画像は画像保管サーバ4に送信され、保存される。なお、本実施形態においては、被検体Hの処置対象部位は肺であり、3次元画像撮影装置2はCT装置であり、後述するように被検体Hに対する処置の前に、被検体Hの胸部を撮影することにより、被検体Hの胸部を含むCT画像を3次元画像として予め取得し、画像保管サーバ4に保存しておく。 The three-dimensional image capturing device 2 is a device that generates a three-dimensional image representing the region to be diagnosed by photographing the region of the subject H. Specifically, the three-dimensional imaging device 2 is a device that generates a three-dimensional image representing the region to be diagnosed. (Positron Emission Tomography) equipment, etc. A three-dimensional image composed of a plurality of tomographic images generated by the three-dimensional image capturing device 2 is transmitted to the image storage server 4 and stored. In this embodiment, the treatment target region of the subject H is the lungs, the three-dimensional image capturing device 2 is a CT device, and as will be described later, the chest of the subject H is By photographing, a CT image including the chest of the subject H is obtained in advance as a three-dimensional image and stored in the image storage server 4.

透視画像撮影装置3は、Cアーム3A、X線源3BおよびX線検出器3Cを有する。X線源3BおよびX線検出器3CはCアーム3Aの両端部にそれぞれ取り付けられている。透視画像撮影装置3においては、被検体Hを任意の方向から撮影可能なようにCアーム3Aが回転および移動可能に構成されている。そして、透視画像撮影装置3は、後述するように被検体Hに対する処置中に、予め定められたフレームレートによりX線を被検体Hに連続的に照射し、被検体Hを透過したX線をX線検出器3Cにより順次検出する透視撮影を行うことにより、被検体HのX線画像を順次取得する。以降の説明においては、順次取得されるX線画像を透視画像と称する。透視画像が本開示による放射線画像の一例である。 The fluoroscopic image capturing device 3 includes a C-arm 3A, an X-ray source 3B, and an X-ray detector 3C. The X-ray source 3B and the X-ray detector 3C are respectively attached to both ends of the C-arm 3A. In the fluoroscopic image photographing device 3, the C-arm 3A is configured to be rotatable and movable so that the subject H can be photographed from any direction. Then, the fluoroscopic image capturing device 3 continuously irradiates the subject H with X-rays at a predetermined frame rate during the treatment of the subject H, as will be described later. X-ray images of the subject H are sequentially acquired by sequentially performing fluoroscopic imaging using the X-ray detector 3C. In the following description, the sequentially acquired X-ray images will be referred to as fluoroscopic images. A fluoroscopic image is an example of a radiographic image according to the present disclosure.

画像保管サーバ4は、各種データを保存して管理するコンピュータであり、大容量外部記憶装置およびデータベース管理用ソフトウェアを備えている。画像保管サーバ4は、有線あるいは無線のネットワーク5を介して他の装置と通信を行い、画像データ等を送受信する。具体的には3次元画像撮影装置2で取得された3次元画像、および透視画像撮影装置3で取得された透視画像の画像データを含む各種データをネットワーク経由で取得し、大容量外部記憶装置等の記録媒体に保存して管理する。なお、画像データの格納形式およびネットワーク5経由での各装置間の通信は、DICOM(Digital Imaging and Communication in Medicine)等のプロトコルに基づいている。 The image storage server 4 is a computer that stores and manages various data, and includes a large-capacity external storage device and database management software. The image storage server 4 communicates with other devices via a wired or wireless network 5 and sends and receives image data and the like. Specifically, various data including the three-dimensional image acquired by the three-dimensional image capturing device 2 and the image data of the fluoroscopic image acquired by the fluoroscopic image capturing device 3 are acquired via a network, and are stored in a large-capacity external storage device, etc. Save and manage the information on a recording medium. Note that the storage format of image data and the communication between each device via the network 5 are based on a protocol such as DICOM (Digital Imaging and Communication in Medicine).

なお、本実施形態においては、被検体Hの透視撮影を行いつつ、3次元画像V0を用いてあらかじめ検出された被検体Hの肺に存在する肺結節等の病変の一部を採取して、病気の存在を詳しく調べる生検の処置を行うものとする。このため、透視画像撮影装置3は処置を行うための処置室に配置されている。また、処置室には、超音波内視鏡装置6が設置されている。超音波内視鏡装置6は、先端に超音波プローブおよび鉗子等の処置具が取り付けられた内視鏡6Aを備える。本実施形態においては、病変の生検を行うべく、操作者は内視鏡6Aを被検体Hの気管支に挿入し、透視画像撮影装置3により被検体Hの透視画像を撮影し、撮影した透視画像および内視鏡6Aにより撮影した内視鏡画像をリアルタイムで表示しつつ、透視画像において被検体H内における内視鏡6Aの先端位置を確認し、目標となる病変の位置まで内視鏡6Aの先端を移動させる。 In this embodiment, while performing fluoroscopic imaging of the subject H, a part of a lesion such as a pulmonary nodule existing in the lungs of the subject H, which has been detected in advance using the three-dimensional image V0, is sampled. A biopsy procedure will be performed to determine the presence of disease. For this reason, the fluoroscopic image capturing device 3 is placed in a treatment room for performing treatment. Further, an ultrasonic endoscope device 6 is installed in the treatment room. The ultrasonic endoscope device 6 includes an endoscope 6A having an ultrasonic probe and a treatment tool such as forceps attached to its tip. In this embodiment, in order to perform a biopsy of a lesion, the operator inserts the endoscope 6A into the bronchus of the subject H, photographs a fluoroscopic image of the subject H using the fluoroscopic image capturing device 3, and While displaying the image and the endoscopic image taken by the endoscope 6A in real time, confirm the tip position of the endoscope 6A within the subject H in the fluoroscopic image, and move the endoscope 6A to the target lesion position. move the tip of the

ここで、肺結節等の肺の病変は気管支の内側ではなく気管支の外側に発生する。このため、操作者は内視鏡6Aの先端を目標位置まで移動させた後、超音波プローブにより気管支の外側の超音波画像を撮影して超音波画像を表示し、超音波画像において病変位置を確認しながら鉗子等の処置具を用いて病変の一部を採取する処置を行う。 Here, lung lesions such as pulmonary nodules occur outside the bronchi rather than inside the bronchi. Therefore, after moving the tip of the endoscope 6A to the target position, the operator takes an ultrasound image of the outside of the bronchi with an ultrasound probe, displays the ultrasound image, and identifies the location of the lesion in the ultrasound image. While checking, perform a procedure to collect a part of the lesion using a treatment tool such as forceps.

次いで、第1の実施形態による画像処理装置について説明する。図2は、第1の実施形態による画像処理装置のハードウェア構成を示す図である。図2に示すように、画像処理装置10は、CPU(Central Processing Unit)11、不揮発性のストレージ13、および一時記憶領域としてのメモリ16を含む。また、画像処理装置10は、液晶ディスプレイ等のディスプレイ14、キーボードとマウス等の入力デバイス15、およびネットワーク5に接続されるネットワークI/F(InterFace)17を含む。CPU11、ストレージ13、ディスプレイ14、入力デバイス15、メモリ16およびネットワークI/F17は、バス18に接続される。なお、CPU11は、本開示におけるプロセッサの一例である。 Next, an image processing apparatus according to the first embodiment will be described. FIG. 2 is a diagram showing the hardware configuration of the image processing apparatus according to the first embodiment. As shown in FIG. 2, the image processing device 10 includes a CPU (Central Processing Unit) 11, a nonvolatile storage 13, and a memory 16 as a temporary storage area. The image processing device 10 also includes a display 14 such as a liquid crystal display, an input device 15 such as a keyboard and a mouse, and a network I/F (InterFace) 17 connected to the network 5. The CPU 11, storage 13, display 14, input device 15, memory 16, and network I/F 17 are connected to the bus 18. Note that the CPU 11 is an example of a processor in the present disclosure.

ストレージ13は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、およびフラッシュメモリ等によって実現される。記憶媒体としてのストレージ13には、画像処理プログラム12が記憶される。CPU11は、ストレージ13から画像処理プログラム12を読み出してメモリ16に展開し、展開した画像処理プログラム12を実行する。 The storage 13 is realized by an HDD (Hard Disk Drive), an SSD (Solid State Drive), a flash memory, or the like. An image processing program 12 is stored in a storage 13 as a storage medium. The CPU 11 reads the image processing program 12 from the storage 13, loads it into the memory 16, and executes the loaded image processing program 12.

次いで、第1の実施形態による画像処理装置の機能的な構成を説明する。図3は、第1の実施形態による画像処理装置の機能的な構成を示す図である。図4は、第1の実施形態による画像処理装置が行う処理を模式的に示す図である。図3に示すように画像処理装置10は、画像取得部21、第1位置合わせ部22、誤差導出部23、判定部24、抽出部25、第2位置合わせ部26および表示制御部27を備える。そして、CPU11が画像処理プログラム12を実行することにより、CPU11は、画像取得部21、第1位置合わせ部22、誤差導出部23、判定部24、抽出部25、第2位置合わせ部26および表示制御部27として機能する。 Next, the functional configuration of the image processing device according to the first embodiment will be explained. FIG. 3 is a diagram showing the functional configuration of the image processing device according to the first embodiment. FIG. 4 is a diagram schematically showing processing performed by the image processing apparatus according to the first embodiment. As shown in FIG. 3, the image processing device 10 includes an image acquisition section 21, a first alignment section 22, an error derivation section 23, a determination section 24, an extraction section 25, a second alignment section 26, and a display control section 27. . Then, when the CPU 11 executes the image processing program 12, the CPU 11 executes the image acquisition section 21, the first alignment section 22, the error derivation section 23, the determination section 24, the extraction section 25, the second alignment section 26, and the display. It functions as a control section 27.

画像取得部21は、操作者による入力デバイス15からの指示により、画像保管サーバ4から被検体Hの3次元画像V0を取得する。また、画像取得部21は、被検体Hの処置中に透視画像撮影装置3により取得される透視画像T0を順次取得する。 The image acquisition unit 21 acquires a three-dimensional image V0 of the subject H from the image storage server 4 according to instructions from the input device 15 by the operator. Further, the image acquisition unit 21 sequentially acquires fluoroscopic images T0 acquired by the fluoroscopic image capturing device 3 during treatment of the subject H.

第1位置合わせ部22は、順次取得される透視画像T0と3次元画像V0との位置合わせを行う。ここで、透視画像T0は2次元の放射線画像である。このため、第1位置合わせ部22は、2次元画像と3次元画像との位置合わせを行う。本実施形態において、第1位置合わせ部22は、まず、透視画像T0の撮影方向と同一の方向に3次元画像V0を投影して2次元の疑似透視画像VT0を導出する。そして第1位置合わせ部22は、2次元の疑似透視画像VT0を透視画像T0に剛体位置合わせする。剛体位置合わせの手法としては、例えばアフィン変換等、任意の手法を用いることができる。例えば、アフィン変換を用いた場合、第1位置合わせ部22は、疑似透視画像VT0および透視画像T0に含まれる肋骨の交点等の特徴点を一致させるための、疑似透視画像VT0の透視画像T0に対する平行移動量および回転量を剛体位置合わせ情報として導出する。そして、第1位置合わせ部22は、剛体位置合わせ情報を用いて3次元画像V0を変形することにより、変形3次元画像V1を導出する。 The first alignment unit 22 aligns the sequentially acquired perspective images T0 and three-dimensional images V0. Here, the fluoroscopic image T0 is a two-dimensional radiation image. Therefore, the first alignment unit 22 aligns the two-dimensional image and the three-dimensional image. In this embodiment, the first positioning unit 22 first projects the three-dimensional image V0 in the same direction as the photographing direction of the fluoroscopic image T0 to derive a two-dimensional pseudo fluoroscopic image VT0. Then, the first alignment unit 22 rigidly aligns the two-dimensional pseudo perspective image VT0 with the perspective image T0. Any method such as affine transformation can be used as a method for rigid body alignment. For example, when affine transformation is used, the first alignment unit 22 applies The amount of parallel movement and the amount of rotation are derived as rigid body alignment information. The first alignment unit 22 then derives a modified three-dimensional image V1 by transforming the three-dimensional image V0 using the rigid body alignment information.

誤差導出部23は、剛体位置合わせされた3次元画像V0すなわち変形3次元画像V1と透視画像T0との呼吸相の誤差D0を導出する。このために、誤差導出部23は、第1位置合わせ部22が導出した変形3次元画像V1に含まれる横隔膜の被検体Hの体軸方向における位置と、透視画像T0に含まれる横隔膜の被検体Hの体軸方向における位置との相違を導出する。 The error deriving unit 23 derives a respiratory phase error D0 between the rigidly aligned three-dimensional image V0, that is, the deformed three-dimensional image V1, and the perspective image T0. For this purpose, the error deriving unit 23 calculates the position of the diaphragm in the body axis direction of the subject H included in the deformed three-dimensional image V1 derived by the first alignment unit 22, and the position of the diaphragm in the body axis direction of the subject H included in the fluoroscopic image T0. The difference from the position of H in the body axis direction is derived.

具体的には、図5に示すように、誤差導出部23は、変形3次元画像V1を透視画像T0の撮影方向と同一の方向に投影して2次元の疑似変形透視画像VT1を導出する。そして、誤差導出部23は、疑似変形透視画像VT1と透視画像T0とにおける骨部を位置合わせし、位置合わせ後の横隔膜の位置の相違を導出する。横隔膜の位置の相違とは、疑似変形透視画像VT1の横隔膜31の位置と透視画像T0の横隔膜32の位置の差の代表値を用いることができる.代表値としては、最大値、最小値、平均値および中間値等が挙げられる。 Specifically, as shown in FIG. 5, the error derivation unit 23 projects the deformed three-dimensional image V1 in the same direction as the photographing direction of the fluoroscopic image T0 to derive a two-dimensional pseudo-deformed fluoroscopic image VT1. Then, the error deriving unit 23 aligns the bone portions in the pseudo-deformed fluoroscopic image VT1 and the fluoroscopic image T0, and derives the difference in the position of the diaphragm after the alignment. As the difference in the position of the diaphragm, a representative value of the difference between the position of the diaphragm 31 in the pseudo-deformed fluoroscopic image VT1 and the position of the diaphragm 32 in the fluoroscopic image T0 can be used. Representative values include maximum values, minimum values, average values, intermediate values, and the like.

なお、誤差導出部23は、変形3次元画像V1に含まれる横隔膜の被検体Hの体軸方向における位置と、透視画像T0に含まれる横隔膜の被検体Hの体軸方向における位置との相違を導出する学習済みモデルを用いて、横隔膜の位置の相違を導出するようにしてもよい。このような学習済みモデルは、体軸方向における横隔膜の位置の相違が既知の3次元画像と透視画像とを教師データを用いてニューラルネットワークを学習することにより構築される。 The error deriving unit 23 calculates the difference between the position of the diaphragm in the body axis direction of the subject H included in the deformed three-dimensional image V1 and the position of the diaphragm in the body axis direction of the subject H included in the fluoroscopic image T0. The learned model to be derived may be used to derive the difference in the position of the diaphragm. Such a trained model is constructed by learning a neural network using training data of a three-dimensional image and a perspective image in which the difference in the position of the diaphragm in the body axis direction is known.

判定部24は、誤差導出部23が導出した誤差D0が予め定められたしきい値Th1未満であるか否かを判定する。 The determining unit 24 determines whether the error D0 derived by the error deriving unit 23 is less than a predetermined threshold Th1.

抽出部25は、判定部24による判定が否定された場合、3次元画像V0および透視画像T0から肺野領域を抽出する。肺野領域とは3次元画像V0および透視画像T0に含まれる肺の軟部組織である。本実施形態において、抽出部25は、公知のコンピュータ支援画像診断(CAD: Computer Aided Diagnosis、以下CADと称する)のアルゴリズムを用いて、3次元画像V0および透視画像T0から肺野領域を抽出する。 If the determination by the determination unit 24 is negative, the extraction unit 25 extracts the lung field region from the three-dimensional image V0 and the fluoroscopic image T0. The lung field region is the soft tissue of the lungs included in the three-dimensional image V0 and the fluoroscopic image T0. In the present embodiment, the extraction unit 25 extracts a lung field region from the three-dimensional image V0 and the fluoroscopic image T0 using a well-known computer aided image diagnosis (CAD) algorithm.

第2位置合わせ部26は、判定部24による判定が否定された場合、3次元画像V0と透視画像T0との非剛体位置合わせを行う。具体的には、3次元画像V0から抽出された肺野領域が透視画像T0から抽出された肺野領域と一致するように、3次元画像V0を変形することにより、3次元画像V0と透視画像T0との非剛体位置合わせを行い、3次元画像V0の透視画像T0に対する変形量を表す非剛体位置合わせ情報を導出する。そして第2位置合わせ部26は、非剛体位置合わせ情報により3次元画像V0を変形して変形3次元画像V2を導出する。 If the determination by the determination unit 24 is negative, the second alignment unit 26 performs non-rigid alignment between the three-dimensional image V0 and the perspective image T0. Specifically, the 3D image V0 and the fluoroscopic image are transformed by transforming the 3D image V0 so that the lung field region extracted from the 3D image V0 matches the lung field region extracted from the fluoroscopic image T0. Non-rigid alignment is performed with T0, and non-rigid alignment information representing the amount of deformation of the three-dimensional image V0 with respect to the perspective image T0 is derived. The second alignment unit 26 then deforms the three-dimensional image V0 using the non-rigid alignment information to derive a modified three-dimensional image V2.

なお、非剛体位置合わせとしては、例えばBスプラインおよびシンプレートスプライン等の関数を用いて、変形3次元画像V1についての疑似変形透視画像VT1における肺野領域と透視画像T0における肺野領域との対応点を非線形に変換することによる手法を用いることができるが、これに限定されるものではない。学習済みモデルを用いて、非剛体位置合わせを行う手法等の任意の手法を用いることができる。 Note that non-rigid positioning is performed by using, for example, functions such as B-splines and thin plate splines to determine the correspondence between the lung field region in the pseudo-deformed fluoroscopic image VT1 and the lung field region in the fluoroscopic image T0 for the deformed three-dimensional image V1. A method based on nonlinear transformation of points can be used, but is not limited thereto. Any method can be used, such as a method that performs non-rigid registration using a trained model.

表示制御部27は、判定部24による判定が否定された場合、変形3次元画像V2を透視画像T0に重畳表示し、重畳表示された重畳画像をディスプレイ14に表示する。一方、判定部24による判定が肯定された場合、すなわち誤差D0がしきい値Th1未満である場合、表示制御部27は変形3次元画像V1を透視画像T0に重畳表示し、重畳表示された重畳画像をディスプレイ14に表示する。この場合、表示制御部27は、透視画像T0の撮影方向と同一の方向に変形3次元画像V1,V2を投影して2次元の疑似変形透視画像VT1,VT2を導出し、透視画像T0に疑似変形透視画像VT1,VT2を重畳表示する。なお、図4には、誤差D0がしきい値Th1未満であるか否かの判定が肯定された場合に、変形3次元画像V1に破線の矢印を向けることにより、変形3次元画像V1と透視画像T0に重畳表示することを示している。 If the determination by the determination unit 24 is negative, the display control unit 27 displays the modified three-dimensional image V2 in a superimposed manner on the perspective image T0, and displays the superimposed image on the display 14. On the other hand, if the determination by the determination unit 24 is affirmative, that is, if the error D0 is less than the threshold value Th1, the display control unit 27 displays the deformed three-dimensional image V1 in a superimposed manner on the perspective image T0, and The image is displayed on the display 14. In this case, the display control unit 27 projects the deformed three-dimensional images V1 and V2 in the same direction as the photographing direction of the fluoroscopic image T0 to derive two-dimensional pseudo-deformed fluoroscopic images VT1 and VT2, and The modified perspective images VT1 and VT2 are displayed in a superimposed manner. In addition, in FIG. 4, when the determination as to whether the error D0 is less than the threshold value Th1 is affirmative, by pointing the broken line arrow toward the modified 3-dimensional image V1, the modified 3-dimensional image V1 and the perspective This indicates that the image is displayed superimposed on the image T0.

図6は重畳画像の表示画面を示す図である。図6に示すように、表示画面40には透視画像T0に変形3次元画像V1または変形3次元画像V2を重畳した重畳画像41が表示されている。 FIG. 6 is a diagram showing a display screen of superimposed images. As shown in FIG. 6, a superimposed image 41 in which a modified three-dimensional image V1 or a modified three-dimensional image V2 is superimposed on a perspective image T0 is displayed on the display screen 40.

次いで、第1の実施形態において行われる処理について説明する。図7は第1の実施形態において行われる処理を示すフローチャートである。まず、画像取得部21が画像保管サーバ4から3次元画像V0を取得し(ステップST1)、次いで、画像取得部21が透視画像T0を取得する(ステップST2)。そして、第1位置合わせ部22が、3次元画像V0と透視画像T0とを剛体位置合わせする(ステップST3)。続いて、誤差導出部23が、剛体位置合わせされた3次元画像、すなわち変形3次元画像V1と透視画像T0との呼吸相の誤差D0を導出し(ステップST4)、判定部24が、誤差D0が予め定められたしきい値Th1未満であるか否かを判定する(ステップST5)。 Next, the processing performed in the first embodiment will be explained. FIG. 7 is a flowchart showing the processing performed in the first embodiment. First, the image acquisition unit 21 acquires the three-dimensional image V0 from the image storage server 4 (step ST1), and then the image acquisition unit 21 acquires the perspective image T0 (step ST2). Then, the first alignment unit 22 rigidly aligns the three-dimensional image V0 and the perspective image T0 (step ST3). Subsequently, the error deriving unit 23 derives an error D0 in the respiratory phase between the rigidly aligned three-dimensional image, that is, the deformed three-dimensional image V1 and the fluoroscopic image T0 (step ST4), and the determining unit 24 calculates the error D0. It is determined whether or not is less than a predetermined threshold Th1 (step ST5).

ステップST5が否定されると、抽出部25が3次元画像V0および透視画像T0から肺野領域を抽出し(ステップST6)、第2位置合わせ部26が、肺野領域に基づいて3次元画像V0と透視画像T0との非剛体位置合わせを行う(ステップST7)。そして、表示制御部27が、非剛体位置合わせされた3次元画像、すなわち変形3次元画像V2と透視画像T0とを重畳表示し(ステップST8)、ステップST2にリターンする。 If step ST5 is negative, the extraction unit 25 extracts the lung field region from the three-dimensional image V0 and the fluoroscopic image T0 (step ST6), and the second positioning unit 26 extracts the three-dimensional image V0 based on the lung field region. Non-rigid positioning is performed between the image T0 and the perspective image T0 (step ST7). Then, the display control unit 27 displays the non-rigidly aligned three-dimensional image, that is, the deformed three-dimensional image V2 and the perspective image T0 in a superimposed manner (step ST8), and returns to step ST2.

一方、ステップST5が肯定されると、表示制御部27が、剛体位置合わせされた3次元画像、すなわち変形3次元画像V1と透視画像T0とを重畳表示し(ステップST9)、ステップST2にリターンする。 On the other hand, if step ST5 is affirmed, the display control unit 27 displays the rigidly aligned three-dimensional image, that is, the deformed three-dimensional image V1 and the perspective image T0 in a superimposed manner (step ST9), and returns to step ST2. .

このように、本実施形態においては、比較的演算量が少ない剛体位置合わせにより3次元画像V0と透視画像T0との位置合わせを行い、呼吸相の誤差D0がしきい値Th1以上の場合にのみ、比較的演算量が多い非剛体位置合わせにより3次元画像V0と透視画像T0との位置合わせを行うようにした。このため、剛体位置合わせのみを行う場合と比較して、3次元画像V0と透視画像T0との位置合わせを精度よく行うことができる。また、非剛体位置合わせのみを行う場合と比較して、演算量を低減して3次元画像V0と透視画像T0との位置合わせを高速に行うことができる。したがって、高速かつ精度よく3次元画像V0と2次元の透視画像T0とを位置合わせできる。 In this way, in this embodiment, the three-dimensional image V0 and the fluoroscopic image T0 are aligned by rigid body alignment, which requires a relatively small amount of calculation, and only when the respiratory phase error D0 is equal to or greater than the threshold Th1. , the three-dimensional image V0 and the perspective image T0 are aligned using non-rigid body alignment which requires a relatively large amount of calculation. Therefore, the three-dimensional image V0 and the perspective image T0 can be aligned with high accuracy compared to the case where only rigid body alignment is performed. Furthermore, compared to the case where only non-rigid alignment is performed, the amount of calculation can be reduced and alignment between the three-dimensional image V0 and the perspective image T0 can be performed at high speed. Therefore, the three-dimensional image V0 and the two-dimensional perspective image T0 can be aligned at high speed and with high accuracy.

次いで、本開示の第2の実施形態について説明する。なお、第2の実施形態による画像処理装置の機能的な構成は図3に示す第1の実施形態による画像処理装置の機能的な構成と同一であるため、ここでは詳細な説明は省略する。上記第1の実施形態においては、判定部24による判定が否定された場合に、3次元画像V0および透視画像T0から肺野領域を抽出して非剛体位置合わせを行っている。第2の実施形態においては、判定部24による判定の前に3次元画像V0および透視画像T0から肺野領域を抽出するようにした点が第1の実施形態と異なる。 Next, a second embodiment of the present disclosure will be described. Note that the functional configuration of the image processing apparatus according to the second embodiment is the same as the functional configuration of the image processing apparatus according to the first embodiment shown in FIG. 3, so a detailed explanation will be omitted here. In the first embodiment, when the determination by the determination unit 24 is negative, the lung field region is extracted from the three-dimensional image V0 and the fluoroscopic image T0, and non-rigid positioning is performed. The second embodiment differs from the first embodiment in that the lung field region is extracted from the three-dimensional image V0 and the fluoroscopic image T0 before the determination by the determination unit 24.

次いで、第2の実施形態において行われる処理について説明する。図8は第2の実施形態において行われる処理を示すフローチャートである。まず、画像取得部21が画像保管サーバ4から3次元画像V0を取得し(ステップST11)、次いで、画像取得部21が透視画像T0を取得する(ステップST12)。続いて、抽出部25が3次元画像V0および透視画像T0から肺野領域を抽出する(ステップST13)。そして、第1位置合わせ部22が、3次元画像V0と透視画像T0とを剛体位置合わせする(ステップST14)。続いて、誤差導出部23が、剛体位置合わせされた3次元画像、すなわち変形3次元画像V1と透視画像T0との呼吸相の誤差D0を導出し(ステップST15)、判定部24が、誤差D0が予め定められたしきい値Th1未満であるか否かを判定する(ステップST16)。なお、ステップST13の処理は、ステップST14の処理の後、ステップST16の処理の前に行ってもよい。また、ステップST14,ST15の処理と並列に行ってもよい。 Next, the processing performed in the second embodiment will be explained. FIG. 8 is a flowchart showing the processing performed in the second embodiment. First, the image acquisition unit 21 acquires the three-dimensional image V0 from the image storage server 4 (step ST11), and then the image acquisition unit 21 acquires the perspective image T0 (step ST12). Subsequently, the extraction unit 25 extracts a lung field region from the three-dimensional image V0 and the fluoroscopic image T0 (step ST13). Then, the first alignment unit 22 rigidly aligns the three-dimensional image V0 and the perspective image T0 (step ST14). Subsequently, the error deriving unit 23 derives the error D0 of the respiratory phase between the rigidly aligned three-dimensional image, that is, the deformed three-dimensional image V1, and the fluoroscopic image T0 (step ST15), and the determining unit 24 derives the error D0 It is determined whether or not is less than a predetermined threshold Th1 (step ST16). Note that the process in step ST13 may be performed after the process in step ST14 and before the process in step ST16. Further, the processing may be performed in parallel with the processing in steps ST14 and ST15.

ステップST16が否定されると、第2位置合わせ部26が、肺野領域に基づいて3次元画像V0と透視画像T0との非剛体位置合わせを行う(ステップST17)。そして、表示制御部27が、非剛体位置合わせされた3次元画像、すなわち変形3次元画像V2と透視画像T0とを重畳表示し(ステップST18)、ステップST12にリターンする。 If step ST16 is negative, the second alignment unit 26 performs non-rigid alignment between the three-dimensional image V0 and the fluoroscopic image T0 based on the lung field region (step ST17). Then, the display control unit 27 displays the non-rigidly aligned three-dimensional image, that is, the deformed three-dimensional image V2 and the perspective image T0 in a superimposed manner (step ST18), and returns to step ST12.

一方、ステップST16が肯定されると、表示制御部27が、剛体位置合わせされた3次元画像、すなわち変形3次元画像V1と透視画像T0とを重畳表示し(ステップST19)、ステップST12にリターンする。 On the other hand, if step ST16 is affirmed, the display control unit 27 displays the rigidly aligned three-dimensional image, that is, the deformed three-dimensional image V1 and the perspective image T0 in a superimposed manner (step ST19), and returns to step ST12. .

このように、第2の実施形態においては、判定部24による判定の前に3次元画像V0および透視画像T0から肺野領域を抽出しているため、判定部24による判定が否定された場合、直ちに非剛体位置合わせを行うことができる。 As described above, in the second embodiment, since the lung field region is extracted from the three-dimensional image V0 and the fluoroscopic image T0 before the determination by the determination unit 24, if the determination by the determination unit 24 is negative, Non-rigid alignment can be performed immediately.

なお、上記各実施形態においては、誤差導出部23において変形3次元画像V1と透視画像T0との横隔膜の位置の相違を誤差D0として導出しているがこれに限定されるものではない。ここで、呼気相と吸気相とでは肺野領域の面積が異なる。このため、誤差導出部23は、変形3次元画像V1および透視画像T0のそれぞれから肺野領域を抽出し、抽出した肺野領域の面積の相違を誤差D0として導出するものであってもよい。 In each of the above embodiments, the error deriving unit 23 derives the difference in the position of the diaphragm between the modified three-dimensional image V1 and the fluoroscopic image T0 as the error D0, but the present invention is not limited to this. Here, the area of the lung field region is different between the exhalation phase and the inhalation phase. For this reason, the error deriving unit 23 may extract lung field regions from each of the modified three-dimensional image V1 and the fluoroscopic image T0, and derive the difference in area of the extracted lung field regions as the error D0.

また、上記各実施形態においては、気管支に挿入する気管支内視鏡を用いて肺の病変の採取を行う場合の処理について説明しているが、これに限定されるものではない。例えば、超音波内視鏡を胃等の消化器官に挿入して膵臓あるいは肝臓等の組織の生検を行う場合にも、本実施形態による画像処理装置を適用することができる。 Further, in each of the embodiments described above, a process is described in which a lung lesion is collected using a bronchoscope inserted into a bronchus, but the present invention is not limited to this. For example, the image processing apparatus according to this embodiment can be applied to the case where an ultrasonic endoscope is inserted into a digestive organ such as the stomach to perform a biopsy of a tissue such as the pancreas or liver.

また、上記各実施形態において、例えば、画像取得部21、第1位置合わせ部22、誤差導出部23、判定部24、抽出部25、第2位置合わせ部26および表示制御部27といった各種の処理を実行する処理部(Processing Unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(Processor)を用いることができる。上記各種のプロセッサには、上述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device :PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。 Furthermore, in each of the above embodiments, various processes such as the image acquisition section 21, the first alignment section 22, the error derivation section 23, the determination section 24, the extraction section 25, the second alignment section 26, and the display control section 27 are performed. As the hardware structure of the processing unit that executes, the following various processors can be used. As mentioned above, the various processors mentioned above include the CPU, which is a general-purpose processor that executes software (programs) and functions as various processing units, as well as circuits such as FPGA (Field Programmable Gate Array) after manufacturing. A programmable logic device (PLD), which is a processor whose configuration can be changed, and a dedicated electrical device, which is a processor with a circuit configuration specifically designed to execute a specific process, such as an ASIC (Application Specific Integrated Circuit) Includes circuits, etc.

1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせまたはCPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。 One processing unit may be composed of one of these various types of processors, or a combination of two or more processors of the same type or different types (for example, a combination of multiple FPGAs or a combination of a CPU and an FPGA). ). Further, the plurality of processing units may be configured with one processor.

複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアとの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。 As an example of configuring a plurality of processing units with one processor, firstly, as typified by computers such as a client and a server, one processor is configured with a combination of one or more CPUs and software, There is a form in which this processor functions as a plurality of processing units. Second, there are processors that use a single IC (Integrated Circuit) chip to implement the functions of an entire system including multiple processing units, as typified by System On Chip (SoC). be. In this way, various processing units are configured using one or more of the various processors described above as a hardware structure.

さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(Circuitry)を用いることができる。 Furthermore, as the hardware structure of these various processors, more specifically, an electric circuit (Circuitry) that is a combination of circuit elements such as semiconductor elements can be used.

1 コンピュータ
2 3次元画像撮影装置
3 透視画像撮影装置
3A アーム
3B X線源
3C X線検出器
4 画像保管サーバ
5 ネットワーク
6 超音波内視鏡装置
6A 内視鏡
10 画像処理装置
11 CPU
12 画像処理プログラム
13 ストレージ
14 ディスプレイ
15 入力デバイス
16 メモリ
21 画像取得部
22 第1位置合わせ部
23 誤差導出部
24 判定部
25 抽出部
26 第2位置合わせ部
27 表示制御部
31,32 横隔膜
40 表示画面
41 重畳画像
T0 透視画像
V0 3次元画像
V1,V2 変形3次元画像
VT0 疑似透視画像
VT1 疑似変形透視画像
1 Computer 2 Three-dimensional image capturing device 3 Fluoroscopic image capturing device 3A Arm 3B X-ray source 3C X-ray detector 4 Image storage server 5 Network 6 Ultrasonic endoscope device 6A Endoscope 10 Image processing device 11 CPU
12 Image processing program 13 Storage 14 Display 15 Input device 16 Memory 21 Image acquisition unit 22 First alignment unit 23 Error derivation unit 24 Judgment unit 25 Extraction unit 26 Second alignment unit 27 Display control unit 31, 32 Diaphragm 40 Display screen 41 Superimposed image T0 Perspective image V0 Three-dimensional image V1, V2 Deformed three-dimensional image VT0 Pseudo-transparent image VT1 Pseudo-deformed transparent image

Claims (11)

少なくとも1つのプロセッサを備え、
前記プロセッサは、
同一被検体についての3次元画像および放射線画像を取得し、
前記3次元画像と前記放射線画像とを剛体位置合わせし、
前記剛体位置合わせされた前記3次元画像と前記放射線画像との呼吸相の誤差を導出し、
前記誤差が予め定められたしきい値未満であるか否かを判定し、
前記判定が否定されると、前記3次元画像と前記放射線画像との非剛体位置合わせを行う画像処理装置。
comprising at least one processor;
The processor includes:
Acquire three-dimensional images and radiographic images of the same subject,
rigid body alignment of the three-dimensional image and the radiation image;
Deriving a respiratory phase error between the rigidly aligned three-dimensional image and the radiographic image,
determining whether the error is less than a predetermined threshold;
If the determination is negative, the image processing device performs non-rigid alignment of the three-dimensional image and the radiation image.
前記3次元画像および前記放射線画像は、前記被検体の肺野領域を含む請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the three-dimensional image and the radiation image include a lung field region of the subject. 前記プロセッサは、前記3次元画像および前記放射線画像のそれぞれから前記肺野領域を抽出し、
抽出した前記肺野領域に基づいて前記3次元画像と前記放射線画像との非剛体位置合わせを行う請求項2に記載の画像処理装置。
The processor extracts the lung field region from each of the three-dimensional image and the radiation image,
The image processing device according to claim 2 , wherein non-rigid positioning of the three-dimensional image and the radiation image is performed based on the extracted lung field region.
前記プロセッサは、前記判定が否定された場合に、前記3次元画像および前記放射線画像のそれぞれから肺野領域を抽出する請求項3に記載の画像処理装置。 The image processing apparatus according to claim 3, wherein the processor extracts a lung field region from each of the three-dimensional image and the radiation image when the determination is negative. 前記プロセッサは、前記判定を行う前に、前記3次元画像および前記放射線画像のそれぞれから肺野領域を抽出する請求項3に記載の画像処理装置。 The image processing device according to claim 3, wherein the processor extracts a lung field region from each of the three-dimensional image and the radiation image before making the determination. 前記プロセッサは、前記3次元画像に含まれる横隔膜の前記被検体の体軸方向における位置と、前記放射線画像に含まれる横隔膜の前記被検体の体軸方向における位置との相違に基づいて前記呼吸相の誤差を導出する請求項2から5のいずれか1項に記載の画像処理装置。 The processor determines the respiratory phase based on a difference between a position of the diaphragm included in the three-dimensional image in the body axis direction of the subject and a position of the diaphragm included in the radiographic image in the body axis direction of the subject. The image processing apparatus according to any one of claims 2 to 5, which derives an error of. 前記プロセッサは、学習済みモデルを用いて、前記3次元画像に含まれる横隔膜の前記被検体の体軸方向における位置と、前記放射線画像に含まれる横隔膜の前記被検体の体軸方向における位置とを導出する請求項6に記載の画像処理装置。 The processor uses the trained model to determine the position of the diaphragm included in the three-dimensional image in the body axis direction of the subject, and the position of the diaphragm included in the radiographic image in the body axis direction of the subject. The image processing device according to claim 6, wherein the image processing device is derived. 前記プロセッサは、前記3次元画像を前記放射線画像の撮影方向に投影した投影画像に含まれる肺野領域の面積と、前記放射線画像に含まれる肺野領域の面積との相違に基づいて前記呼吸相の誤差を導出する請求項2から5のいずれか1項に記載の画像処理装置。 The processor determines the respiratory phase based on a difference between an area of a lung field region included in a projection image obtained by projecting the three-dimensional image in the imaging direction of the radiographic image and an area of a lung field region included in the radiographic image. The image processing apparatus according to any one of claims 2 to 5, which derives an error of. 前記プロセッサは、前記判定が否定されると、非剛体位置合わせされた前記3次元画像と前記放射線画像とを重畳表示し、前記判定が肯定されると剛体位置合わせされた前記3次元画像と前記放射線画像とを重畳表示する請求項1に記載の画像処理装置。 When the determination is negative, the processor superimposes and displays the non-rigidly aligned three-dimensional image and the radiation image, and when the determination is affirmative, the processor displays the rigidly aligned three-dimensional image and the radiation image. The image processing device according to claim 1, wherein the image processing device displays a radiation image in a superimposed manner. 同一被検体についての3次元画像および放射線画像を取得し、
前記3次元画像と前記放射線画像とを剛体位置合わせし、
前記剛体位置合わせされた前記3次元画像と前記放射線画像との呼吸相の誤差を導出し、
前記誤差が予め定められたしきい値未満であるか否かを判定し、
前記判定が否定されると、前記3次元画像と前記放射線画像との非剛体位置合わせを行う画像処理方法。
Acquire three-dimensional images and radiographic images of the same subject,
rigid body alignment of the three-dimensional image and the radiation image;
Deriving a respiratory phase error between the rigidly aligned three-dimensional image and the radiographic image,
determining whether the error is less than a predetermined threshold;
If the determination is negative, the image processing method performs non-rigid alignment of the three-dimensional image and the radiation image.
同一被検体についての3次元画像および放射線画像を取得する手順と、
前記3次元画像と前記放射線画像とを剛体位置合わせする手順と、
前記剛体位置合わせされた前記3次元画像と前記放射線画像との呼吸相の誤差を導出する手順と、
前記誤差が予め定められたしきい値未満であるか否かを判定する手順と、
前記判定が否定されると、前記3次元画像と前記放射線画像との非剛体位置合わせを行う手順とをコンピュータに実行させる画像処理プログラム。
A procedure for obtaining a three-dimensional image and a radiographic image of the same subject;
a step of rigidly aligning the three-dimensional image and the radiation image;
a step of deriving a respiratory phase error between the rigidly aligned three-dimensional image and the radiographic image;
a step of determining whether the error is less than a predetermined threshold;
If the determination is negative, the image processing program causes a computer to execute a procedure for non-rigid positioning of the three-dimensional image and the radiation image.
JP2022084013A 2022-05-23 2022-05-23 Image processing device, method, and program Pending JP2023172310A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022084013A JP2023172310A (en) 2022-05-23 2022-05-23 Image processing device, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022084013A JP2023172310A (en) 2022-05-23 2022-05-23 Image processing device, method, and program

Publications (1)

Publication Number Publication Date
JP2023172310A true JP2023172310A (en) 2023-12-06

Family

ID=89029412

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022084013A Pending JP2023172310A (en) 2022-05-23 2022-05-23 Image processing device, method, and program

Country Status (1)

Country Link
JP (1) JP2023172310A (en)

Similar Documents

Publication Publication Date Title
US7467007B2 (en) Respiratory gated image fusion of computed tomography 3D images and live fluoroscopy images
JP2022517581A (en) Methods and systems for providing a dynamic roadmap of coronary arteries
US8897514B2 (en) Imaging method for motion analysis
JP5244319B2 (en) Apparatus and method for multimodal registration of images
US9406134B2 (en) Image system for supporting the navigation of interventional tools
US20050027193A1 (en) Method for automatically merging a 2D fluoroscopic C-arm image with a preoperative 3D image with one-time use of navigation markers
US20050004449A1 (en) Method for marker-less navigation in preoperative 3D images using an intraoperatively acquired 3D C-arm image
JP6620252B2 (en) Correction of probe induced deformation in ultrasonic fusion imaging system
JP2011524772A (en) Method and system for performing a biopsy
CN110248603A (en) 3D ultrasound and computer tomography are combined for guiding intervention medical protocol
CN111415404B (en) Positioning method and device for intraoperative preset area, storage medium and electronic equipment
JP6349278B2 (en) Radiation imaging apparatus, image processing method, and program
CN110301883B (en) Image-based guidance for navigating tubular networks
JP6637781B2 (en) Radiation imaging apparatus and image processing program
CN112294436A (en) Cone beam and 3D fluoroscopic lung navigation
CN111093505B (en) Radiographic apparatus and image processing method
Li et al. Augmenting intraoperative ultrasound with preoperative magnetic resonance planning models for percutaneous renal access
WO2020064924A1 (en) Guidance in lung intervention procedures
JP2023172310A (en) Image processing device, method, and program
Pyciński et al. Image navigation in minimally invasive surgery
JP2023173813A (en) Image processing device, method, and program
US20230316550A1 (en) Image processing device, method, and program
JP6703470B2 (en) Data processing device and data processing method
US20240016365A1 (en) Image processing device, method, and program
US20240005495A1 (en) Image processing device, method, and program