JP2024034220A - X-ray computed tomography apparatus and estimation method - Google Patents

X-ray computed tomography apparatus and estimation method Download PDF

Info

Publication number
JP2024034220A
JP2024034220A JP2022138321A JP2022138321A JP2024034220A JP 2024034220 A JP2024034220 A JP 2024034220A JP 2022138321 A JP2022138321 A JP 2022138321A JP 2022138321 A JP2022138321 A JP 2022138321A JP 2024034220 A JP2024034220 A JP 2024034220A
Authority
JP
Japan
Prior art keywords
image
subject
position information
axis direction
bed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022138321A
Other languages
Japanese (ja)
Inventor
潤 小田切
Jun Odagiri
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2022138321A priority Critical patent/JP2024034220A/en
Publication of JP2024034220A publication Critical patent/JP2024034220A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)

Abstract

To more accurately position a subject.SOLUTION: An X-ray computed tomography apparatus according to the embodiment includes an image acquisition section, a position acquisition section, and a position estimation section. The image acquisition section acquires a first image in which a subject is captured from a first direction and a second image in which the subject is captured from a second direction that is different from the first direction. The position acquisition section acquires first position information corresponding to the positions of the plurality of different parts of the subject on the basis of the first image, and acquires second position information corresponding to the positions of the plurality of different parts of the subject on the basis of the second image. The position estimation section estimates the position of the subject on a bed on which the subject is placed, on the basis of the first position information and the second position information.SELECTED DRAWING: Figure 1

Description

本明細書及び図面に開示の実施形態は、X線コンピュータ断層撮影装置及び推定方法に関する。 Embodiments disclosed in this specification and the drawings relate to an X-ray computed tomography apparatus and an estimation method.

従来、医療の分野において、医師は、様々な医用画像診断装置(モダリティとも呼ばれる)によって撮影された医用画像を用いて診断を行っている。ここで、医用画像診断装置としては、例えば、X線コンピュータ断層撮影装置(以下、X線CT(Computed Tomography)装置と呼ぶ)、光音響撮影装置(以下、PAT(PhotoAcoustic Tomography)装置と呼ぶ)、磁気共鳴イメージング装置(以下、MRI(Magnetic Resonance Imaging)装置と呼ぶ)等が挙げられる。 2. Description of the Related Art Conventionally, in the medical field, doctors make diagnoses using medical images taken by various medical image diagnostic devices (also called modalities). Here, examples of the medical image diagnostic apparatus include an X-ray computed tomography apparatus (hereinafter referred to as an X-ray CT (Computed Tomography) apparatus), a photoacoustic imaging apparatus (hereinafter referred to as a PAT (PhotoAcoustic Tomography) apparatus), Examples include a magnetic resonance imaging device (hereinafter referred to as an MRI (Magnetic Resonance Imaging) device).

例えば、X線CT装置等の医用画像診断装置に関して、2つのカメラにより被検体を撮像して得られた画像から被検体の部位を認識することによって、寝台を制御して被検体を目標位置に位置合わせする技術が知られている。 For example, with regard to medical image diagnostic equipment such as an X-ray CT device, by recognizing the body part of the subject from images obtained by imaging the subject with two cameras, the bed is controlled and the subject is moved to the target position. Techniques for alignment are known.

しかしながら、人体等の被検体は凹凸形状であり、カメラと部位との間の距離は部位ごとに異なるため、それぞれのカメラで撮像した画像から得られる部位の情報を用いて個別に位置合わせを実施しても、正確な位置合わせができない場合がある。 However, the object to be examined, such as the human body, has an uneven shape, and the distance between the camera and the region varies depending on the region, so positioning is performed individually using information about the region obtained from images captured by each camera. However, accurate positioning may not be possible.

特許第4484462号公報Patent No. 4484462 特開2006-187422号公報Japanese Patent Application Publication No. 2006-187422

本明細書及び図面に開示の実施形態が解決しようとする課題の一つは、被検体の位置合わせをより正確に行うことである。ただし、本明細書及び図面に開示の実施形態により解決しようとする課題は上記課題に限られない。後述する実施形態に示す各構成による各効果に対応する課題を他の課題として位置付けることもできる。 One of the problems to be solved by the embodiments disclosed in this specification and the drawings is to perform more accurate positioning of a subject. However, the problems to be solved by the embodiments disclosed in this specification and the drawings are not limited to the above problems. Problems corresponding to each effect of each configuration shown in the embodiments described later can also be positioned as other problems.

実施形態に係るX線CT装置は、画像取得部と、位置取得部と、位置推定部とを備える。画像取得部は、被検体を第1の方向から撮像した第1の画像と、前記被検体を前記第1の方向と異なる方向である第2の方向から撮像した第2の画像とを取得する。位置取得部は、前記第1の画像に基づいて、前記被検体の複数の異なる部位の位置に対応する第1の位置情報を取得し、前記第2の画像に基づいて、前記複数の異なる部位の位置に対応する第2の位置情報を取得する。位置推定部は、前記第1の位置情報及び前記第2の位置情報に基づいて、前記被検体が載置された寝台における前記被検体の位置を推定する。 The X-ray CT apparatus according to the embodiment includes an image acquisition section, a position acquisition section, and a position estimation section. The image acquisition unit acquires a first image of the subject taken from a first direction, and a second image taken of the subject from a second direction that is different from the first direction. . The position acquisition unit acquires first position information corresponding to the positions of the plurality of different parts of the subject based on the first image, and acquires first position information corresponding to the positions of the plurality of different parts based on the second image. second position information corresponding to the position of is acquired. The position estimation unit estimates the position of the subject on the bed on which the subject is placed, based on the first position information and the second position information.

図1は、第1の実施形態に係るX線CT装置の構成例を示す図である。FIG. 1 is a diagram showing an example of the configuration of an X-ray CT apparatus according to the first embodiment. 図2は、第1の実施形態に係るX線CT装置によって行われる被検体の位置合わせ処理の流れを示すフローチャートである。FIG. 2 is a flowchart showing the flow of object alignment processing performed by the X-ray CT apparatus according to the first embodiment. 図3は、図2に示すステップS103の自動位置合わせ処理の流れを示すフローチャートである。FIG. 3 is a flowchart showing the flow of automatic alignment processing in step S103 shown in FIG. 図4は、第1の実施形態に係る画像取得部によって取得される第1の画像の一例を示す図である。FIG. 4 is a diagram illustrating an example of a first image acquired by the image acquisition unit according to the first embodiment. 図5は、図3に示すステップS201の第1の位置情報取得処理の流れを示すフローチャートである。FIG. 5 is a flowchart showing the flow of the first location information acquisition process in step S201 shown in FIG. 図6は、第1の実施形態に係る位置取得部によって行われる第1の位置情報の取得の一例を示す図である。FIG. 6 is a diagram illustrating an example of acquisition of first position information performed by the position acquisition unit according to the first embodiment. 図7は、第1の実施形態に係る画像取得部によって取得される第2の画像の一例を示す図である。FIG. 7 is a diagram illustrating an example of a second image acquired by the image acquisition unit according to the first embodiment. 図8は、図3に示すステップ203の第2の位置情報取得処理の流れを示すフローチャートである。FIG. 8 is a flowchart showing the flow of the second location information acquisition process in step 203 shown in FIG. 図9は、第1の実施形態に係る位置取得部によって行われる第2の位置情報の取得の一例を示す図である。FIG. 9 is a diagram illustrating an example of acquisition of second position information performed by the position acquisition unit according to the first embodiment. 図10は、第1の実施形態に係る位置推定部によって行われる被検体のY軸方向の位置の推定の一例を示す図である。FIG. 10 is a diagram illustrating an example of estimating the position of the subject in the Y-axis direction performed by the position estimation unit according to the first embodiment. 図11は、第1の実施形態に係る位置推定部によって行われる被検体のX軸方向及びZ軸方向の位置の推定の一例を示す図である。FIG. 11 is a diagram illustrating an example of estimating the position of the subject in the X-axis direction and the Z-axis direction, which is performed by the position estimation unit according to the first embodiment. 図12は、第2の実施形態に係る自動位置合わせ処理の流れを示すフローチャートである。FIG. 12 is a flowchart showing the flow of automatic alignment processing according to the second embodiment.

以下、図面を参照しながら、X線CT装置及び推定方法の実施形態について詳細に説明する。 Hereinafter, embodiments of an X-ray CT apparatus and an estimation method will be described in detail with reference to the drawings.

(第1の実施形態)
図1は、第1の実施形態に係るX線CT装置1の構成例を示す図である。
(First embodiment)
FIG. 1 is a diagram showing an example of the configuration of an X-ray CT apparatus 1 according to the first embodiment.

図1に示すように、X線CT装置1は、架台装置10と、寝台装置30と、コンソール装置40とを有する。以降、寝台装置30の天板32の長手方向をZ軸方向、短手方向をX軸方向、床面に垂直な方向をY軸方向と定義する。 As shown in FIG. 1, the X-ray CT apparatus 1 includes a gantry device 10, a bed device 30, and a console device 40. Hereinafter, the longitudinal direction of the top plate 32 of the bed device 30 will be defined as the Z-axis direction, the lateral direction will be defined as the X-axis direction, and the direction perpendicular to the floor surface will be defined as the Y-axis direction.

架台装置10は、不図示の回転部15と、不図示の回転駆動部16と、架台・寝台制御部17と、カメラ20と、カメラ21と、カメラ制御部22とを有する。 The gantry device 10 includes a rotation section 15 (not shown), a rotation drive section 16 (not shown), a gantry/bed control section 17, a camera 20, a camera 21, and a camera control section 22.

回転部15は、X線管11と、X線管制御部12と、X線検出器13と、データ収集部14とを有する。回転部15は、円環状の形状となっており、円環の中心を回転中心として回転する。回転部15内には、X線管11とX線検出器13が対向するように配置されている。回転駆動部16は、回転部15を回転駆動する。 The rotating section 15 includes an X-ray tube 11 , an X-ray tube control section 12 , an X-ray detector 13 , and a data acquisition section 14 . The rotating portion 15 has an annular shape and rotates around the center of the annular ring. Inside the rotating section 15, an X-ray tube 11 and an X-ray detector 13 are arranged to face each other. The rotation drive section 16 rotationally drives the rotation section 15 .

X線管11は、X線焦点からX線を発し、載置された被検体60に向けてX線を発射する。X線管制御部12は、高電圧発生回路を含み、X線管11に高電圧の電力を供給してX線を発射させる。高電圧発生回路を制御することにより、X線管11から発射するX線の線質や線量を制御することができる。 The X-ray tube 11 emits X-rays from an X-ray focal point, and emits the X-rays toward the subject 60 placed thereon. The X-ray tube control section 12 includes a high voltage generation circuit, and supplies high voltage power to the X-ray tube 11 to cause it to emit X-rays. By controlling the high voltage generation circuit, the quality and dose of X-rays emitted from the X-ray tube 11 can be controlled.

X線検出器13は、X線管11が発して被検体60を通過したX線を電気的に検出し、X線の強度に応じた電気信号をデータ収集部14へ出力する。 The X-ray detector 13 electrically detects the X-rays emitted by the X-ray tube 11 and passed through the subject 60, and outputs an electrical signal corresponding to the intensity of the X-rays to the data acquisition unit 14.

データ収集部14は、X線検出器13から出力される電気信号をデジタルデータとして収集する。データ収集部14は、コンソール装置40の制御バス41と接続されており、収集したデジタルデータはコンソール装置40に伝送される。 The data collection unit 14 collects electrical signals output from the X-ray detector 13 as digital data. The data collection unit 14 is connected to the control bus 41 of the console device 40, and the collected digital data is transmitted to the console device 40.

架台・寝台制御部17は、コンソール装置40の制御バス41と接続されており、スキャン制御部50からの指示により、X線管制御部12、回転駆動部16及び寝台駆動部33を制御して、被検体60のスキャンを可能にする。なお、架台・寝台制御部17は、架台装置10が有してもよいし、コンソール装置40が有してもよい。 The gantry/bed control unit 17 is connected to the control bus 41 of the console device 40, and controls the X-ray tube control unit 12, rotation drive unit 16, and bed drive unit 33 according to instructions from the scan control unit 50. , enables scanning of the subject 60. Note that the gantry/bed control section 17 may be included in the gantry device 10 or the console device 40.

カメラ20及びカメラ21は、撮像光学系、撮像素子、CPU(Central Processing Unit)、画像処理回路、ROM(Read Only Memory)、RAM(Random Access Memory)、少なくとも一つの通信I/F(Interface)等、一般的なカメラとしての構成を備える。被写体からの光束がレンズ等の光学素子からなる撮像光学系によってCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)センサ等からなる撮像素子に結像されることで、撮像が行われる。撮像光学系はレンズ群を備えており、各カメラは、レンズ群を光軸方向に駆動させることによってズーム、フォーカスを制御するレンズ駆動制御部も備える。撮像素子から出力された電気信号は、A/D(Analog to Digital)変換器によってデジタル画像データに変換された後に、画像処理回路によって各種の画像処理が施されて、外部装置に出力される。なお、画像処理回路によって行われる画像処理は、通信I/Fを介してデジタル画像データが外部装置に出力された後に、外部装置の処理部によって行われてもよい。 The camera 20 and the camera 21 include an imaging optical system, an image sensor, a CPU (Central Processing Unit), an image processing circuit, a ROM (Read Only Memory), a RAM (Random Access Memory), at least one communication I/F (Interface), etc. , has a configuration as a general camera. An image is captured by focusing a light beam from a subject onto an image pickup element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) sensor by an imaging optical system including an optical element such as a lens. The imaging optical system includes a lens group, and each camera also includes a lens drive control section that controls zoom and focus by driving the lens group in the optical axis direction. The electrical signal output from the image sensor is converted into digital image data by an A/D (Analog to Digital) converter, subjected to various image processing by an image processing circuit, and then output to an external device. Note that the image processing performed by the image processing circuit may be performed by a processing section of the external device after the digital image data is output to the external device via the communication I/F.

本実施形態では、カメラ20及びカメラ21は、主に可視光領域の光を受光して撮像する撮像素子を用いるものとする。なお、カメラ20及びカメラ21の例はこれに限られず、赤外光領域の光を受光して撮像するカメラであってもよいし、可視光、赤外光等の複数の波長領域の光を受光して撮像するカメラを備えていてもよい。以下では、カメラ20及びカメラ21によって撮像された画像を光学画像と呼ぶ。ここで、カメラ20及びカメラ21は、架台装置10以外の場所に設置されてもよく、被検体60を撮影できる位置に設置されていればよい。例えば、図1に示すように、本実施形態では、カメラ20は、被検体60を斜め上方向から撮像するように、架台装置10の上方に設置される。また、カメラ21は、被検体60を横方向から撮像するように、架台装置10の内向き側方に設置される。 In this embodiment, the cameras 20 and 21 use image sensors that mainly receive light in the visible light range and take images. Note that the examples of the cameras 20 and 21 are not limited to this, and may be cameras that receive light in the infrared region to take images, or cameras that receive light in multiple wavelength regions such as visible light and infrared light. It may also include a camera that receives light and takes an image. Hereinafter, the images captured by the cameras 20 and 21 will be referred to as optical images. Here, the camera 20 and the camera 21 may be installed at a location other than the gantry device 10, and only need to be installed at a position where the subject 60 can be photographed. For example, as shown in FIG. 1, in this embodiment, the camera 20 is installed above the gantry device 10 so as to image the subject 60 from diagonally above. Further, the camera 21 is installed on the inward side of the gantry device 10 so as to image the subject 60 from the side.

カメラ制御部22は、コンソール装置40の制御バス41と接続されており、画像取得部52からの指示により、カメラ20及びカメラ21を制御する。カメラ制御部22は、カメラ20及びカメラ21に電力を供給する、制御信号を送受信する、画像信号を送受信する等のために、少なくとも一つの通信I/Fを備える。なお、カメラ20及びカメラ21が架台装置10からの電力供給を受けずに、単体で駆動するための電源を備えていてもよい。また、カメラ制御部22は、通信I/Fを介してカメラ20及びカメラ21に制御信号を送信することで、カメラ20及びカメラ21のズーム、フォーカス、絞り値等の各種撮像パラメータを制御することができる。なお、カメラ20及びカメラ21が自動でパンチルト可能な雲台を備え、パンチルト制御信号も受信して、パンチルト駆動による位置姿勢制御が可能な構成となっていてもよい。この他、カメラ20及びカメラ21が位置姿勢を電動で制御するための駆動部及び駆動制御部を備え、カメラ制御部22からの制御信号に基づき、カメラ20及びカメラ21の位置姿勢を制御してもよい。なお、カメラ制御部22は、架台装置10が有してもよいし、コンソール装置40が有してもよい。 The camera control unit 22 is connected to the control bus 41 of the console device 40 and controls the cameras 20 and 21 according to instructions from the image acquisition unit 52. The camera control unit 22 includes at least one communication I/F for supplying power to the cameras 20 and 21, transmitting and receiving control signals, transmitting and receiving image signals, and the like. Note that the camera 20 and the camera 21 may be provided with a power source for driving them alone without receiving power supply from the gantry device 10. The camera control unit 22 also controls various imaging parameters such as zoom, focus, and aperture value of the cameras 20 and 21 by transmitting control signals to the cameras 20 and 21 via the communication I/F. Can be done. Note that the camera 20 and the camera 21 may be provided with a pan head that can automatically pan and tilt, and also receive a pan and tilt control signal, so that the position and orientation can be controlled by pan and tilt driving. In addition, the camera 20 and the camera 21 are provided with a drive unit and a drive control unit for electrically controlling the position and orientation of the camera 20 and the camera 21, and the position and orientation of the camera 20 and the camera 21 are controlled based on a control signal from the camera control unit 22. Good too. Note that the camera control unit 22 may be included in the gantry device 10 or the console device 40.

寝台装置30は、基台31と、天板32と、寝台駆動部33とを有する。寝台装置30は、寝台駆動部33によって、基台31をY軸方向に上下移動させ、天板32をZ軸方向に前後移動させ、X軸方向に左右移動させることで、天板32上に載置された被検体60を架台装置10内に挿入できる。ここで、寝台装置30、基台31及び天板32は、寝台の一例である。 The bed device 30 includes a base 31, a top plate 32, and a bed drive section 33. The bed device 30 moves the base 31 up and down in the Y-axis direction, moves the top plate 32 back and forth in the Z-axis direction, and moves it left and right in the X-axis direction by the bed drive unit 33. The mounted subject 60 can be inserted into the gantry device 10. Here, the bed device 30, the base 31, and the top plate 32 are examples of a bed.

コンソール装置40は、制御バス41と、処理回路42と、メモリ43と、不揮発性メモリ44と、通信I/F45と、入力I/F46と、ディスプレイ47とを有する。処理回路42、メモリ43、不揮発性メモリ44、通信I/F45、入力I/F46及びディスプレイ47は、制御バス41に接続されており、制御バス41を介して互いにデータのやり取りを行うことができるように構成されている。 The console device 40 includes a control bus 41 , a processing circuit 42 , a memory 43 , a nonvolatile memory 44 , a communication I/F 45 , an input I/F 46 , and a display 47 . The processing circuit 42, memory 43, nonvolatile memory 44, communication I/F 45, input I/F 46, and display 47 are connected to the control bus 41 and can exchange data with each other via the control bus 41. It is configured as follows.

処理回路42は、コンソール装置40の各部を制御する。例えば、処理回路42は、不揮発性メモリ44に格納されるプログラムに従い、メモリ43をワークメモリとして用いて、コンソール装置40の各部を制御する。 The processing circuit 42 controls each part of the console device 40. For example, the processing circuit 42 controls each part of the console device 40 according to a program stored in the nonvolatile memory 44, using the memory 43 as a work memory.

メモリ43は、コンソール装置40の各部によって行われる処理に必要な各種情報を記憶する。例えば、メモリ43は、RAM等(半導体素子を利用した揮発性のメモリ等)により構成される。 The memory 43 stores various information necessary for processing performed by each part of the console device 40. For example, the memory 43 is configured with a RAM or the like (volatile memory using a semiconductor element or the like).

不揮発性メモリ44は、架台装置10のデータ収集部14から伝送された投影データから得られた断層画像や、カメラ20及びカメラ21から伝送された光学画像、処理回路42が動作するための各種プログラム等を記憶する。不揮発性メモリ44は、例えば、HDD(Hard Disk Drive)やROM等により構成される。ここで、不揮発性メモリ44は、記憶回路の一例である。 The nonvolatile memory 44 stores tomographic images obtained from projection data transmitted from the data collection unit 14 of the gantry device 10, optical images transmitted from the cameras 20 and 21, and various programs for operating the processing circuit 42. etc. to be memorized. The nonvolatile memory 44 is composed of, for example, an HDD (Hard Disk Drive), a ROM, or the like. Here, the nonvolatile memory 44 is an example of a storage circuit.

通信I/F45は、コンソール装置40と他の装置又はシステムとの間で行われる通信を制御する。例えば、通信I/F45は、ネットワークカード、無線モジュール等により構成される。 Communication I/F 45 controls communication between console device 40 and other devices or systems. For example, the communication I/F 45 includes a network card, a wireless module, and the like.

入力I/F46は、X線CT装置1を操作する検査者から各種の入力操作を受け付ける。例えば、入力I/F46は、キーボード、マウス、タッチパネル、スイッチ、ボタン等により構成される。検査者は、入力I/F46によって、コンソール装置40だけではなく、架台装置10及び寝台装置30を含むX線CT装置1全体を操作することができる。なお、入力I/F46は、コンソール装置40に限らず、架台装置10が有していてもよい。例えば、検査者は、架台装置10のボタンによって、基台31及び天板32の位置を手動で制御して移動してもよい。 The input I/F 46 receives various input operations from the examiner who operates the X-ray CT apparatus 1 . For example, the input I/F 46 includes a keyboard, a mouse, a touch panel, switches, buttons, and the like. The examiner can operate not only the console device 40 but also the entire X-ray CT apparatus 1 including the gantry device 10 and the bed device 30 using the input I/F 46. Note that the input I/F 46 is not limited to the console device 40 but may be included in the gantry device 10. For example, the inspector may manually control and move the positions of the base 31 and the top plate 32 using buttons on the gantry device 10.

ディスプレイ47は、LCD(Liquid Crystal Display)等の表示デバイスを含み、メニュー画面、グラフィカルユーザーインターフェース(Graphical User Interface:GUI)、投影画像や光学画像といったデータ等を表示デバイスに表示する。なお、ディスプレイ47は、コンソール装置40に限らず、架台装置10が有していてもよい。例えば、検査者は、架台装置10のディスプレイによって、基台31及び天板32の現在位置を知ることができる。 The display 47 includes a display device such as an LCD (Liquid Crystal Display), and displays data such as a menu screen, a graphical user interface (GUI), a projected image, and an optical image on the display device. Note that the display 47 is not limited to the console device 40 but may be included in the gantry device 10. For example, the inspector can know the current positions of the base 31 and the top plate 32 from the display of the gantry device 10.

再構成部51は、データ収集部14から伝送された投影データに基づいて、断層画像を再構成する。具体的には、再構成部51は、投影データに対してフィルタ補正逆投影法や逐次近似再構成法等を用いた再構成処理を行うことで、断層画像を再構成する。 The reconstruction unit 51 reconstructs a tomographic image based on the projection data transmitted from the data acquisition unit 14. Specifically, the reconstruction unit 51 reconstructs the tomographic image by performing reconstruction processing on the projection data using a filtered back projection method, a successive approximation reconstruction method, or the like.

スキャン制御部50は、架台・寝台制御部17を介して、回転駆動部16及び寝台駆動部33を制御することで、被検体60のスキャンを実行する。 The scan control section 50 executes a scan of the subject 60 by controlling the rotation drive section 16 and the bed drive section 33 via the gantry/bed control section 17 .

このような構成のもと、本実施形態では、スキャン制御部50は、被検体60のスキャンを実行する前に、画像取得部52、位置取得部53、位置推定部54及び移動量算出部55を制御することで、被検体60の位置合わせを実施する。 With such a configuration, in the present embodiment, the scan control unit 50 performs the image acquisition unit 52, the position acquisition unit 53, the position estimation unit 54, and the movement amount calculation unit 55 before scanning the subject 60. The positioning of the subject 60 is performed by controlling.

ここで、本実施形態では、スキャン制御部50は、被検体60の検査部位に関連する位置を撮影条件に応じた目標位置に位置合わせすることによって、被検体60の位置合わせを行う。なお、本実施形態では、検査部位に関連する位置を位置合わせする目標位置が、回転部15の回転中心である場合の例を説明する。 Here, in the present embodiment, the scan control unit 50 aligns the subject 60 by aligning a position related to the examination region of the subject 60 to a target position according to the imaging conditions. In addition, in this embodiment, an example will be described in which the target position for aligning the position related to the inspection site is the rotation center of the rotating part 15.

また、本実施形態では、X線CT装置1における物理的な位置を示す座標系を物理座標系と呼び、カメラ20及びカメラ21によって撮像される光学画像における画像内の位置を示す座標系を画像座標系と呼ぶ。 Furthermore, in this embodiment, a coordinate system indicating a physical position in the X-ray CT apparatus 1 is referred to as a physical coordinate system, and a coordinate system indicating a position within an optical image captured by the camera 20 and the camera 21 is referred to as an image. It is called a coordinate system.

具体的には、まず、スキャン制御部50は、画像取得部52及びカメラ制御部22を介してカメラ20及びカメラ21を制御することによって、被検体60の光学画像を取得する。次に、スキャン制御部50は、画像取得部52によって取得された光学画像を位置取得部53に入力することによって、被検体60の複数の異なる部位の位置に対応する位置情報を取得する。次に、スキャン制御部50は、位置取得部53によって取得された位置情報を位置推定部54に入力することによって、被検体60が載置された寝台装置30における被検体60の位置を推定する。さらに、スキャン制御部50は、位置推定部54によって推定された被検体60の位置を移動量算出部55に入力することによって、寝台装置30の基台31及び天板32の移動量を算出する。そして、スキャン制御部50は、移動量算出部55によって算出された移動量に基づいて基台31及び天板32を移動させることによって、被検体60の位置合わせを実施する。 Specifically, first, the scan control unit 50 acquires an optical image of the subject 60 by controlling the camera 20 and the camera 21 via the image acquisition unit 52 and the camera control unit 22. Next, the scan control unit 50 acquires position information corresponding to the positions of a plurality of different parts of the subject 60 by inputting the optical image acquired by the image acquisition unit 52 to the position acquisition unit 53. Next, the scan control unit 50 estimates the position of the subject 60 on the bed device 30 on which the subject 60 is placed by inputting the position information acquired by the position acquisition unit 53 into the position estimation unit 54. . Furthermore, the scan control unit 50 calculates the amount of movement of the base 31 and top plate 32 of the bed device 30 by inputting the position of the subject 60 estimated by the position estimation unit 54 to the movement amount calculation unit 55. . Then, the scan control unit 50 aligns the subject 60 by moving the base 31 and the top plate 32 based on the movement amount calculated by the movement amount calculation unit 55.

以下、スキャン制御部50、画像取得部52、位置取得部53、位置推定部54及び移動量算出部55が有する処理機能について、詳細に説明する。 The processing functions of the scan control section 50, image acquisition section 52, position acquisition section 53, position estimation section 54, and movement amount calculation section 55 will be described in detail below.

画像取得部52は、被検体60を第1の方向から撮像した第1の画像と、被検体60を第1の方向と異なる方向である第2の方向から撮像した第2の画像とを取得する。 The image acquisition unit 52 acquires a first image of the subject 60 taken from a first direction, and a second image taken of the subject 60 from a second direction that is different from the first direction. do.

具体的には、画像取得部52は、カメラ制御部22を介して、第1の画像として、被検体60を斜め上方向から撮像した光学画像をカメラ20から取得し、第2の画像として、被検体60を横方向から撮像した光学画像をカメラ21から取得する。 Specifically, the image acquisition unit 52 acquires from the camera 20, as a first image, an optical image of the subject 60 taken from diagonally above, and as a second image, An optical image of the subject 60 taken from the lateral direction is obtained from the camera 21.

位置取得部53は、画像取得部52によって取得された第1の画像に基づいて、被検体60の複数の異なる部位の位置に対応する第1の位置情報を取得し、画像取得部52によって取得された第2の画像に基づいて、当該複数の異なる部位の位置に対応する第2の位置情報を取得する。 The position acquisition unit 53 acquires first position information corresponding to the positions of a plurality of different parts of the subject 60 based on the first image acquired by the image acquisition unit 52, and the first position information is acquired by the image acquisition unit 52. Based on the second image, second position information corresponding to the positions of the plurality of different parts is acquired.

本実施形態では、位置取得部53は、第1の位置情報及び第2の位置情報として、被検体60の関節を含む複数の特徴的な部位点及び当該特徴的な部位それぞれの位置座標を含む骨格情報を取得する。ここで、関節を含む複数の特徴的な部位とは、例えば、鼻、首、右肩、右肘、右手首、左肩、左肘、左手首、中央尻、右尻、右膝、右踝、左尻、左膝、左踝、右目、左目、右耳、左耳、左親指、左小指、左踵、右親指、右小指、右踵等である。 In the present embodiment, the position acquisition unit 53 includes, as the first position information and the second position information, a plurality of characteristic part points including the joints of the subject 60 and the position coordinates of each of the characteristic parts. Obtain skeletal information. Here, the plurality of characteristic parts including joints include, for example, the nose, neck, right shoulder, right elbow, right wrist, left shoulder, left elbow, left wrist, central buttock, right buttock, right knee, right ankle, These include the left buttock, left knee, left ankle, right eye, left eye, right ear, left ear, left thumb, left little finger, left heel, right thumb, right little finger, right heel, etc.

ここで、位置取得部53は、被検体を含む複数の画像を学習用データとして予め学習された学習モデルを用いて、当該学習モデルに第1の画像を入力することで、第1の位置情報を取得する。また、位置取得部53は、当該学習モデルに第2の画像を入力することで、第2の位置情報を取得する。 Here, the position acquisition unit 53 uses a learning model learned in advance using a plurality of images including the subject as learning data, and inputs the first image to the learning model to obtain the first position information. get. Further, the position acquisition unit 53 acquires second position information by inputting the second image to the learning model.

このとき、位置取得部53は、例えば、機械学習(ディープラーニング等)の方法を用いて学習された学習モデル(学習器)を用いる。例えば、被検体として人体が含まれる複数の学習用画像と各学習用画像における骨格情報(関節等の確率分布)の正解情報とのデータセットで予め学習された学習モデルを用いる。このような学習モデルとして、例えば、カーネギーメロン大学のOpenpose(登録商標)等が知られている。 At this time, the position acquisition unit 53 uses, for example, a learning model (learning device) learned using a method of machine learning (deep learning, etc.). For example, a learning model trained in advance with a data set of a plurality of learning images including a human body as a subject and correct information of skeletal information (probability distribution of joints, etc.) in each learning image is used. As such a learning model, for example, Openpose (registered trademark) of Carnegie Mellon University is known.

そして、位置取得部53は、学習モデルを用いて取得された第1の位置情報及び第2の位置情報(骨格情報)を配列又はリスト等の形式でメモリ43に保持する。例えば、上述したような関節等の複数の部位について、各部位が画像内で存在する確率の分布を示す情報が学習モデルから位置情報として出力されて、メモリ43に保持される。 Then, the position acquisition unit 53 stores the first position information and second position information (skeletal information) acquired using the learning model in the memory 43 in a format such as an array or a list. For example, with respect to a plurality of parts such as the above-mentioned joints, information indicating the distribution of the probability that each part exists in the image is output from the learning model as position information and is held in the memory 43.

この場合に、例えば、部位n(nは整数)が画像内で存在する信頼度の分布(確率の分布)をRn(x,y)とすると、骨格情報としての出力Rは、R={Rn(x,y)|n=1,2,‥‥,N,Nは整数}で表される。ここで、Rn(x,y)は、画像内の全領域の信頼度の分布でなくてもよく、閾値より大きい信頼度を有する領域だけの信頼度の分布であってもよい。また、Rn(x,y)として、信頼度のピーク値だけがその位置座標と関連付けて保持されてもよい(例えば、部位3:右肩、信頼度:0.5、位置座標:(x,y)=(122,76)等)。例えば、出力されたRにおいて、各部位の信頼度のピーク値の位置(すなわち、各部位が存在する確率が最も高く検出された位置)を抽出し、抽出した位置に基づいて骨格情報を可視化したものの一例が、図6(c)のような画像である。 In this case, for example, if the reliability distribution (probability distribution) that part n (n is an integer) exists in the image is Rn(x,y), the output R as skeleton information is R={Rn (x, y) | n=1, 2, . . . , N, N is an integer}. Here, Rn(x,y) does not have to be the reliability distribution of all regions in the image, but may be the reliability distribution of only the regions having reliability greater than a threshold value. Further, as Rn(x, y), only the peak value of reliability may be stored in association with its position coordinates (for example, part 3: right shoulder, reliability: 0.5, position coordinates: (x, y) = (122, 76) etc.). For example, in the output R, the position of the peak reliability of each part (i.e., the position where each part was detected with the highest probability of existence) was extracted, and the skeletal information was visualized based on the extracted position. An example of this is an image as shown in FIG. 6(c).

また、本実施形態では、位置取得部53は、学習モデルを用いて第1の位置情報及び第2の位置情報(骨格情報)を取得するための前処理として、学習モデルに入力される画像に対して、ノイズ除去や歪み補正、色変換、輝度、色の諧調補正等の画質の補正、画像の回転やフリップ等の補正処理を施す。ここで、補正処理を行うための補正パラメータは、光学画像を撮像するカメラ20及びカメラ20の機種や撮像時の撮像条件等に応じてテーブル化されて、不揮発性メモリ44に記憶されているものとする。当該補正パラメータを用いて補正処理を施すことで、学習モデルに入力される画像を学習で用いられたデータセットの画像に近づけることによって、学習モデルによる骨格情報の推定(以下、骨格推定と呼ぶ)をより精度よく行えるようになる。 In the present embodiment, the position acquisition unit 53 performs preprocessing on images input to the learning model as preprocessing for acquiring first position information and second position information (skeletal information) using the learning model. On the other hand, image quality correction such as noise removal, distortion correction, color conversion, brightness, and color gradation correction, and correction processing such as image rotation and flipping are performed. Here, the correction parameters for performing the correction process are tabled and stored in the nonvolatile memory 44 according to the camera 20 that captures the optical image, the model of the camera 20, the imaging conditions at the time of imaging, etc. shall be. By performing correction processing using the correction parameters, the images input to the learning model are brought closer to the images of the dataset used for learning, thereby estimating skeletal information by the learning model (hereinafter referred to as skeletal estimation). can be done more accurately.

例えば、暗い室内で撮像された画像は、画像を明るく補正が行われる際に高感度ノイズが生じることで、学習で用いたデータセットと傾向が異なる場合が考えられる。そのような場合には、入力される画像に対して高感度ノイズを除去する処理を掛けるのが好ましい。同様に、カメラ20及びカメラ20のレンズが広角で周辺の歪が大きい場合には、入力される画像に対して歪補正を行うのが好ましい。また、データセットとして用意した画像中の被検体の姿勢として、頭部が画像の上方、足部が画像の下方であるような姿勢が多い場合には、それに適合するように画像を回転又はフリップして、学習モデルに入力することが好ましい。また、画像を何かしらの処理によって変換した画像を用いて学習させている場合には、入力画像も同様に変換させてから学習モデルに入力するのが好ましい。 For example, an image captured in a dark room may have a tendency different from the data set used for learning due to high-sensitivity noise occurring when the image is corrected to brighten it. In such a case, it is preferable to apply processing to remove high-sensitivity noise to the input image. Similarly, if the camera 20 and the lens of the camera 20 have a wide angle and the peripheral distortion is large, it is preferable to perform distortion correction on the input image. In addition, if there are many postures of the subject in the images prepared as a data set, with the head at the top of the image and the feet at the bottom of the image, the image may be rotated or flipped to match the posture. It is preferable to input the information into the learning model. Furthermore, when learning is performed using an image that has been converted by some kind of processing, it is preferable that the input image is also similarly converted before being input to the learning model.

また、位置取得部53は、上述した前処理に含めて、第1の画像及び第2の画像に対して射影変換を実施し、射影変換後の第1の画像及び第2の画像に基づいて、第1の位置情報及び第2の位置情報を取得する。 In addition, the position acquisition unit 53 performs projective transformation on the first image and the second image, including in the preprocessing described above, and performs projective transformation on the first image and the second image after the projective transformation. , obtain first location information and second location information.

位置推定部54は、位置取得部53によって取得された第1の位置情報及び第2の位置情報に基づいて、被検体60が載置された寝台装置30における被検体60の位置を推定する。 The position estimation unit 54 estimates the position of the subject 60 on the bed device 30 on which the subject 60 is placed, based on the first position information and second position information acquired by the position acquisition unit 53.

具体的には、本実施形態では、位置推定部54は、第1の位置情報及び第2の位置情報に基づいて、寝台装置30における被検体60の検査部位に関連する位置を推定する。 Specifically, in the present embodiment, the position estimating unit 54 estimates the position related to the examination site of the subject 60 on the bed apparatus 30 based on the first position information and the second position information.

ここで、寝台装置30の基台31及び天板32を移動させて被検体60の位置合わせを実施するためには、画素を単位とした画像座標系で位置座標を保持している第1の情報及び第2の情報(骨格情報)に対して、物理座標系で基台31及び天板32の移動量を算出する必要がある。そのため、位置推定部54は、予め不揮発性メモリ44に保存されている画素分解能を用いて、位置取得部53によって取得された第1の情報及び第2の情報(骨格情報)に含まれる画像座標系の位置座標を物理座標系の位置座標に変換することで、寝台装置30における被検体60の位置を推定する。 Here, in order to align the subject 60 by moving the base 31 and top plate 32 of the bed device 30, it is necessary to move the first It is necessary to calculate the amount of movement of the base 31 and the top plate 32 in the physical coordinate system with respect to the information and the second information (skeletal information). Therefore, the position estimating unit 54 uses the pixel resolution stored in the non-volatile memory 44 in advance to determine the image coordinates included in the first information and second information (skeletal information) acquired by the position acquiring unit 53. The position of the subject 60 on the bed apparatus 30 is estimated by converting the position coordinates of the system into the position coordinates of the physical coordinate system.

ここで用いられる画素分解能は、例えば、次の手順で求めることができる。まず、予め物理的な大きさが既知である物体、例えば、一般的にカメラ校正に用いられる板状の校正プレートを、天板32上に天板32と平行になるように予め設計した所定の位置に載置してカメラ20で撮像する。次に、撮像された画像内の校正プレートの大きさと、物理的な校正プレートの大きさとに基づいて、画像座標系の位置座標と物理座標系の位置座標との対応関係を求め、求めた対応関係を第1の画素分解能として不揮発性メモリ44に保存しておく。同様に、校正プレートを、天板32上に天板32に垂直になるように予め設計した所定の位置に載置してカメラ21で撮像し、撮像された画像内の校正プレートの大きさと、物理的な校正プレートの大きさとに基づいて、画像座標系の位置座標と物理座標系の位置座標との対応関係を求め、求めた対応関係を第2の画素分解能として不揮発性メモリ44に保存しておく。なお、第1の画素分解能は、既知であるカメラ20と各装置との間の空間的な配置及びカメラ20の仕様から求められてもよい。同様に、第2の画素分解能は、既知であるカメラ21と各装置との間の空間的な配置及びカメラ21の仕様から求められてもよい。 The pixel resolution used here can be determined, for example, by the following procedure. First, an object whose physical size is known in advance, such as a plate-shaped calibration plate generally used for camera calibration, is placed on the top plate 32 at a predetermined position that is designed in advance to be parallel to the top plate 32. The camera 20 takes an image of the camera 20 . Next, based on the size of the calibration plate in the captured image and the size of the physical calibration plate, the correspondence relationship between the position coordinates in the image coordinate system and the position coordinates in the physical coordinate system is determined, and the determined correspondence is determined. The relationship is stored in the nonvolatile memory 44 as the first pixel resolution. Similarly, the calibration plate is placed on the top plate 32 at a predetermined position designed in advance to be perpendicular to the top plate 32, and an image is taken by the camera 21, and the size of the calibration plate in the taken image is Based on the size of the physical calibration plate, the correspondence between the position coordinates of the image coordinate system and the position coordinates of the physical coordinate system is determined, and the determined correspondence is stored in the nonvolatile memory 44 as the second pixel resolution. I'll keep it. Note that the first pixel resolution may be determined from the known spatial arrangement between the camera 20 and each device and the specifications of the camera 20. Similarly, the second pixel resolution may be determined from the known spatial arrangement between the camera 21 and each device and the specifications of the camera 21.

移動量算出部55は、位置推定部54によって推定された被検体60の位置に基づいて、寝台装置30の基台31及び天板32の移動量を算出する。ここで、移動量算出部55によって算出された移動量は、スキャン制御部50が、架台・寝台制御部17を介して、基台31及び天板32を移動させて被検体60を位置合わせするために用いられる。 The movement amount calculation unit 55 calculates the movement amount of the base 31 and the top plate 32 of the bed device 30 based on the position of the subject 60 estimated by the position estimation unit 54. Here, the movement amount calculated by the movement amount calculation section 55 is used by the scan control section 50 to move the base 31 and the top plate 32 via the gantry/bed control section 17 to align the subject 60. used for

具体的には、移動量算出部55は、位置推定部54によって推定された検査部位に関連する位置を撮影条件に応じた目標位置に位置合わせするための基台31及び天板32の移動量を算出する。 Specifically, the movement amount calculation unit 55 calculates the movement amount of the base 31 and the top plate 32 in order to align the position related to the examination region estimated by the position estimation unit 54 to the target position according to the imaging conditions. Calculate.

以下、第1の実施形態に係るX線CT装置1によって行われる被検体60の位置合わせ処理の流れについて説明する。 The flow of positioning processing for the subject 60 performed by the X-ray CT apparatus 1 according to the first embodiment will be described below.

図2は、第1の実施形態に係るX線CT装置1によって行われる被検体60の位置合わせ処理の流れを示すフローチャートである。 FIG. 2 is a flowchart showing the flow of positioning processing for the subject 60 performed by the X-ray CT apparatus 1 according to the first embodiment.

まず、ステップS100において、スキャン制御部50は、撮影条件として、予め設定された検査計画情報や被検体情報を取得する。ここで、検査計画情報とは、例えば、被検体60の身体の向き(ヘッドファースト、フットファースト)や、被検体60の身体の体位(仰臥位、伏臥位、側臥位等)、被検体60の検査部位(頭部、胸部、腹部等)等である。また、被検体情報とは、例えば、被検体ID、氏名、性別、生年月日、年齢、身長、体重、入院か外来か、等である。これらの情報は、通信I/F45を介して、RIS(Radiology Information System)やHIS(Hospital Information System)等から取得することができる。 First, in step S100, the scan control unit 50 acquires preset examination plan information and subject information as imaging conditions. Here, the examination plan information includes, for example, the body orientation of the subject 60 (head first, foot first), the body position of the subject 60 (supine position, prone position, lateral position, etc.), and the subject 60's body position (supine position, prone position, lateral position, etc.). Examination site (head, chest, abdomen, etc.). Further, the subject information includes, for example, subject ID, name, sex, date of birth, age, height, weight, whether the patient is hospitalized or outpatient, and the like. This information can be acquired from RIS (Radiology Information System), HIS (Hospital Information System), etc. via communication I/F 45.

次に、ステップS101において、スキャン制御部50は、検査者による入力I/F46の操作によるカメラ20及びカメラ21の撮像条件の設定を受け付ける。ここで、検査者は、ディスプレイ47にカメラ20とカメラ21から得られる画像を表示しながら、各カメラの撮像条件を適宜変更してもよい。 Next, in step S101, the scan control unit 50 receives setting of imaging conditions for the cameras 20 and 21 by operating the input I/F 46 by the inspector. Here, the inspector may change the imaging conditions of each camera as appropriate while displaying the images obtained from the cameras 20 and 21 on the display 47.

次に、ステップS102において、スキャン制御部50は、寝台装置30の初期化処理を実施する。ここで、初期化処理は、被検体60を予め設計された位置でカメラ20及びカメラ21で撮像できるように、基台31及び天板32を移動しておくことを含む。以下では、この移動先の基台31及び天板32の位置を初期位置と呼ぶ。この初期化処理において、例えば、回転部15の回転中心を原点(0,0,0)とし、カメラ20及びカメラ21の画像座標系に紐づく、寝台装置30における基準位置の空間的な3次元の位置座標(X0,Y0,Z0)を、不揮発性メモリ44に保存しておく。これにより、以降のステップにおいて、カメラ20及びカメラ21によって得られる第1の画像及び第2の画像に基づいて、基準位置に対する、被検体60の検査部位に関連する位置(X,Y,Z)が推定できれば、回転部15の回転中心への移動量は(-(X0+X),-(Y0+Y),-(Z0+Z))となり、当該移動量だけ基台31及び天板32を移動させることで、被検体60を目標位置に位置合わせできるようになる。 Next, in step S102, the scan control unit 50 performs initialization processing for the bed device 30. Here, the initialization process includes moving the base 31 and the top plate 32 so that the subject 60 can be imaged by the cameras 20 and 21 at a predesigned position. Hereinafter, the positions of the base 31 and the top plate 32 to which they are moved will be referred to as initial positions. In this initialization process, for example, the rotation center of the rotating unit 15 is set as the origin (0, 0, 0), and the reference position in the bed device 30 is spatially three-dimensional, which is linked to the image coordinate system of the camera 20 and the camera 21. The position coordinates (X0, Y0, Z0) of are stored in the nonvolatile memory 44. As a result, in subsequent steps, the position (X, Y, Z) related to the inspection site of the subject 60 with respect to the reference position is determined based on the first image and the second image obtained by the camera 20 and the camera 21. If can be estimated, the amount of movement of the rotating part 15 toward the rotation center will be (-(X0+X), -(Y0+Y), -(Z0+Z)), and by moving the base 31 and the top plate 32 by the amount of movement, The subject 60 can now be aligned to the target position.

次に、ステップS103において、スキャン制御部50は、カメラ20によって得られる第1の画像及びカメラ21によって得られる第2の画像に基づいて、寝台装置30における被検体60の位置を推定し、推定された被検体60の位置に基づいて、寝台装置30の基台31及び天板32の移動量を算出することによって、自動位置合わせ処理を実行する。処理の詳細については、図3を用いて後述する。 Next, in step S103, the scan control unit 50 estimates the position of the subject 60 on the bed apparatus 30 based on the first image obtained by the camera 20 and the second image obtained by the camera 21, and estimates the position of the subject 60 on the bed apparatus 30. The automatic positioning process is executed by calculating the amount of movement of the base 31 and top plate 32 of the bed device 30 based on the position of the subject 60 thus determined. Details of the process will be described later using FIG. 3.

次に、ステップS104において、スキャン制御部50は、ステップS103で実行された位置合わせに対して、検査者による入力I/F46の手動の操作による被検体60の位置の微調整を受け付けてもよい。そして、スキャン制御部50は、検査者によって、正確な位置合わせが行われたと判断された場合に、位置合わせ処理を終了する。以上、図2のフローチャートの説明を終了する。 Next, in step S104, the scan control unit 50 may accept fine adjustment of the position of the subject 60 by manual operation of the input I/F 46 by the examiner with respect to the alignment performed in step S103. . Then, when the examiner determines that accurate alignment has been performed, the scan control unit 50 ends the alignment process. This concludes the explanation of the flowchart in FIG. 2.

図3は、図2に示すステップS103の自動位置合わせ処理の流れを示すフローチャートである。 FIG. 3 is a flowchart showing the flow of automatic alignment processing in step S103 shown in FIG.

ここで説明する自動位置合わせ処理において、画像取得部52、位置取得部53及び移動量算出部55は、それぞれ、スキャン制御部50からの指示によって、各部が有する処理機能を実施する。 In the automatic alignment process described here, the image acquisition section 52, the position acquisition section 53, and the movement amount calculation section 55 each implement the processing functions of each section in response to instructions from the scan control section 50.

まず、ステップS200において、画像取得部52は、カメラ制御部22を介して、カメラ20から第1の画像を取得する。 First, in step S200, the image acquisition section 52 acquires a first image from the camera 20 via the camera control section 22.

図4は、第1の実施形態に係る画像取得部52によって取得される第1の画像の一例を示す図である。 FIG. 4 is a diagram illustrating an example of a first image acquired by the image acquisition unit 52 according to the first embodiment.

本実施形態では、カメラ20を架台装置10の上方に設置して、斜め上方向から被検体60の少なくとも一部が画像内に入るように配置する。これにより、例えば、図4に示すように、天板32上に載置された被検体60を斜め上方向から撮像した光学画像が、第1の画像として取得される。 In this embodiment, the camera 20 is installed above the gantry device 10 so that at least a portion of the subject 60 enters the image from diagonally above. As a result, for example, as shown in FIG. 4, an optical image of the subject 60 placed on the top plate 32 taken from diagonally above is acquired as the first image.

次に、ステップS201において、位置取得部53は、ステップS200で取得された第1の画像に基づいて、第1の位置情報を取得する。 Next, in step S201, the position acquisition unit 53 acquires first position information based on the first image acquired in step S200.

図5は、図3に示すステップS201の第1の位置情報取得処理の流れを示すフローチャートである。また、図6は、第1の実施形態に係る位置取得部53によって行われる第1の位置情報の取得の一例を示す図である。 FIG. 5 is a flowchart showing the flow of the first location information acquisition process in step S201 shown in FIG. Further, FIG. 6 is a diagram showing an example of acquisition of first position information performed by the position acquisition unit 53 according to the first embodiment.

まず、ステップS2011において、位置取得部53は、第1の画像に対して歪み補正を実施する。ここで、位置取得部53は、前述したように、第1の画像に対して、学習で用いられたデータセットの画像に近づけるように、ノイズ除去や色変換、輝度、色の諧調補正等の画質の補正、画像の回転やフリップ等の他の前処理をさらに行ってもよい。 First, in step S2011, the position acquisition unit 53 performs distortion correction on the first image. Here, as described above, the position acquisition unit 53 performs noise removal, color conversion, brightness, color tone correction, etc. on the first image so that it approaches the image of the dataset used for learning. Other preprocessing such as image quality correction, image rotation, and flipping may also be performed.

次に、ステップS2012において、位置取得部53は、歪み補正後の第1の画像に対して射影変換を実施する。 Next, in step S2012, the position acquisition unit 53 performs projective transformation on the first image after distortion correction.

図6の(a)は、歪み補正後の第1の画像の一例を示しており、図6の(b)は、射影変換後の第1の画像の一例を示している。図6の(b)に示すように、歪み補正後の第1の画像に対して射影変換が実施されることによって、歪み補正後の第1の画像は、被検体60を直上から撮像したような画像に変換される。 (a) of FIG. 6 shows an example of the first image after distortion correction, and (b) of FIG. 6 shows an example of the first image after projective transformation. As shown in FIG. 6B, projective transformation is performed on the first image after distortion correction, so that the first image after distortion correction appears as if the subject 60 was captured from directly above. image.

最後に、ステップS2013において、位置取得部53は、学習モデルを用いて、射影変換後の第1の画像に対して骨格推定を実施する。 Finally, in step S2013, the position acquisition unit 53 uses the learning model to perform skeleton estimation on the first image after projective transformation.

図6の(c)は、骨格推定によって取得される第1の位置情報として、各部位の信頼度のピーク値の位置をプロットした画像を示している。 (c) of FIG. 6 shows an image in which the position of the peak value of reliability of each part is plotted as the first position information obtained by skeleton estimation.

図3のフローチャートに戻り、次に、ステップS202において、画像取得部52は、カメラ制御部22を介して、カメラ21から第2の画像を取得する。 Returning to the flowchart of FIG. 3, next, in step S202, the image acquisition unit 52 acquires a second image from the camera 21 via the camera control unit 22.

図7は、第1の実施形態に係る画像取得部52によって取得される第2の画像の一例を示す図である。 FIG. 7 is a diagram illustrating an example of the second image acquired by the image acquisition unit 52 according to the first embodiment.

本実施形態では、カメラ21を架台装置10の側方に設置して、横方向から被検体60の一部が画像内に入るように配置する。これにより、例えば、図7に示すように、天板32上に載置された被検体60を横方向から撮像した光学画像が、第2の画像として取得される。ここで、図7に示すように、第2の画像では、必ずしも画像内に被検体60の全身が入らなくてもよい。また、第2の画像では、例えば、検査部位が頭部であったとしても、必ずしも頭部が画像内に入っていなくてもよい。 In this embodiment, the camera 21 is installed on the side of the gantry device 10 so that a part of the subject 60 enters the image from the side. As a result, for example, as shown in FIG. 7, an optical image captured from the lateral direction of the subject 60 placed on the top plate 32 is acquired as the second image. Here, as shown in FIG. 7, the whole body of the subject 60 does not necessarily need to be included in the second image. Furthermore, in the second image, even if the examined region is the head, the head does not necessarily need to be included in the image.

次に、ステップS203において、位置取得部53は、ステップS202で取得された第2の画像に基づいて、第2の位置情報を取得する。 Next, in step S203, the position acquisition unit 53 acquires second position information based on the second image acquired in step S202.

図8は、図3に示すステップ203の第2の位置情報取得処理の流れを示すフローチャートである。また、図9は、第1の実施形態に係る位置取得部53によって行われる第2の位置情報の取得の一例を示す図である。 FIG. 8 is a flowchart showing the flow of the second location information acquisition process in step 203 shown in FIG. Further, FIG. 9 is a diagram illustrating an example of acquisition of second position information performed by the position acquisition unit 53 according to the first embodiment.

ここで、第2の位置情報取得処理の流れは、基本的に、ステップS201の第1の位置情報取得処理と同等の流れとなる。 Here, the flow of the second location information acquisition process is basically the same as the first location information acquisition process in step S201.

まず、ステップS2031において、位置取得部53は、第2の画像に対して歪み補正を実施する。ここで、位置取得部53は、前述したように、第2の画像に対して、学習で用いられたデータセットの画像に近づけるように、ノイズ除去や色変換、輝度、色の諧調補正等の画質の補正、画像の回転やフリップ等の他の前処理がさらに行ってもよい。 First, in step S2031, the position acquisition unit 53 performs distortion correction on the second image. Here, as described above, the position acquisition unit 53 applies noise removal, color conversion, brightness, color tone correction, etc. to the second image so that it approaches the image of the dataset used for learning. Other preprocessing such as image quality correction, image rotation, and flipping may also be performed.

次に、ステップS2032において、位置取得部53は、歪み補正後の第2の画像に対して射影変換を実施する。 Next, in step S2032, the position acquisition unit 53 performs projective transformation on the second image after distortion correction.

図9の(a)は、歪み補正後の第2の画像の一例を示しており、図9の(b)は、射影変換後の第2の画像の一例を示している。図9の(b)に示すように、歪み補正後の第2の画像に対して射影変換が実施されることによって、歪み補正後の第2の画像は、被検体60を真横から撮像したような画像に変換される。 (a) of FIG. 9 shows an example of the second image after distortion correction, and (b) of FIG. 9 shows an example of the second image after projective transformation. As shown in FIG. 9B, projective transformation is performed on the second image after distortion correction, so that the second image after distortion correction appears as if the subject 60 had been imaged from the side. image.

最後に、ステップS2033において、位置取得部53は、学習モデルを用いて、射影変換後の第2の画像に対して骨格推定を実施する。 Finally, in step S2033, the position acquisition unit 53 uses the learning model to perform skeleton estimation on the second image after projective transformation.

図9の(c)は、骨格推定によって取得される第2の位置情報として、各部位の信頼度のピーク値の位置をプロットした画像を示している。 (c) of FIG. 9 shows an image in which the position of the peak value of reliability of each part is plotted as second position information obtained by skeleton estimation.

図3のフローチャートに戻り、次に、ステップS204において、位置推定部54は、ステップS201で取得された第1の位置情報及びステップS203で取得された第2の位置情報に基づいて、寝台装置30における被検体60のX軸方向、Y軸方向及びZ軸方向の位置を推定する。 Returning to the flowchart of FIG. 3, next, in step S204, the position estimating unit 54 determines whether the bed device 30 is The positions of the subject 60 in the X-axis direction, Y-axis direction, and Z-axis direction are estimated.

ここで、位置推定部54は、予め不揮発性メモリ44に保存されている第1の画素分解能及び第2の画素分解能を用いて、第1の情報及び第2の情報(骨格情報)に含まれる画像座標系の位置座標を物理座標系の位置座標に変換することで、寝台装置30における被検体60のX軸方向、Y軸方向及びZ軸方向の位置を推定する。 Here, the position estimating unit 54 uses the first pixel resolution and the second pixel resolution stored in the non-volatile memory 44 in advance to determine the information contained in the first information and the second information (skeletal information). By converting the position coordinates of the image coordinate system to the position coordinates of the physical coordinate system, the positions of the subject 60 in the X-axis direction, Y-axis direction, and Z-axis direction on the bed apparatus 30 are estimated.

このとき、位置推定部54は、前述したステップS2012及びS2032で第1の画像及び第2の画像に対して射影変換が実施されていることによって、第1の画素分解能及び第2の画素分解能を用いて、画像全体に対して一律に、画像座標系の位置座標を物理座標系の位置座標に変換することができる。 At this time, the position estimating unit 54 obtains the first pixel resolution and the second pixel resolution by projective transformation being performed on the first image and the second image in steps S2012 and S2032 described above. It is possible to uniformly transform the positional coordinates of the image coordinate system into the positional coordinates of the physical coordinate system for the entire image by using

具体的には、位置推定部54は、互いに直交するX軸方向、Y軸方向及びZ軸方向に関して、第1の位置情報におけるX軸方向の位置情報、及び、第2の位置情報におけるY軸方向の位置情報に基づいて、被検体60のY軸方向の位置を推定し、第1の位置情報におけるX軸方向及びZ軸方向の位置情報、並びに、第2の位置情報におけるY軸方向の位置情報に基づいて、寝台装置30における被検体60のX軸方向及びZ軸方向の位置を推定する。 Specifically, the position estimating unit 54 calculates the X-axis position information in the first position information and the Y-axis position information in the second position information with respect to the X-axis direction, Y-axis direction, and Z-axis direction that are orthogonal to each other. The position of the subject 60 in the Y-axis direction is estimated based on the position information in the direction, and the position information in the X-axis direction and the Z-axis direction in the first position information and the position information in the Y-axis direction in the second position information are estimated. Based on the position information, the position of the subject 60 on the bed apparatus 30 in the X-axis direction and the Z-axis direction is estimated.

以下、検査部位が頭部である場合を例に挙げて、位置推定部54についてより詳細に説明する。検査部位が頭部である場合、基本的には、頭部に関連する位置として、第1の位置情報及び第2の位置情報において、頭部に関連する部位である鼻、右目、左目、右耳、左耳といった部位の位置情報を用いることが考えられる。 Hereinafter, the position estimating unit 54 will be explained in more detail, taking as an example the case where the examined region is the head. When the test site is the head, the first position information and the second position information basically include the nose, right eye, left eye, and right eye as positions related to the head. It is conceivable to use positional information of parts such as the ear and the left ear.

図10は、第1の実施形態に係る位置推定部54によって行われる被検体60のY軸方向の位置の推定の一例を示す図である。また、図11は、第1の実施形態に係る位置推定部54によって行われる被検体60のX軸方向及びZ軸方向の位置の推定の一例を示す図である。 FIG. 10 is a diagram illustrating an example of estimating the position of the subject 60 in the Y-axis direction performed by the position estimation unit 54 according to the first embodiment. Further, FIG. 11 is a diagram illustrating an example of estimating the position of the subject 60 in the X-axis direction and the Z-axis direction, which is performed by the position estimation unit 54 according to the first embodiment.

まず、Y軸方向に関して、目標位置に位置合わせする検査部位に関連する位置が、被検体60のY軸方向の位置情報を有する第2の位置情報における右耳の位置であるとする。この場合、第2の位置情報における右耳のY軸方向の位置座標を画像座標系から物理座標系に変換するためには、予め不揮発性メモリ44に保存されている第2の画素分解能を用いる必要がある。 First, with respect to the Y-axis direction, it is assumed that the position related to the test region to be aligned with the target position is the position of the right ear in the second position information having the position information of the subject 60 in the Y-axis direction. In this case, in order to convert the position coordinate of the right ear in the Y-axis direction in the second position information from the image coordinate system to the physical coordinate system, the second pixel resolution stored in advance in the non-volatile memory 44 is used. There is a need.

しかしながら、例えば、図10に示すように、第2の画素分解能が面P0において取得されたものであった場合には、右耳の位置を通る面P1における画素分解能は、カメラ21と面P0との間の距離をL0、面P0と面P1との間の距離をL1とすると、(L0-L1)/L0*(第2の画素分解能)とするのが適切である。ここで、L0及びL1は、図10で概略図に第1の位置情報を重畳して示すように、第1の位置情報における右耳のX軸方向の位置から算出することができる。 However, as shown in FIG. 10, for example, if the second pixel resolution is acquired on the plane P0, the pixel resolution on the plane P1 passing through the right ear position is the same as that between the camera 21 and the plane P0. Assuming that the distance between the planes P0 and P1 is L0, and the distance between the planes P0 and P1 is L1, it is appropriate to set it to (L0-L1)/L0*(second pixel resolution). Here, L0 and L1 can be calculated from the position of the right ear in the X-axis direction according to the first position information, as shown in FIG. 10 in which the first position information is superimposed on the schematic diagram.

そこで、位置推定部54は、第1の位置情報におけるX軸方向の位置情報に基づいた画素分解能を用いて第2の位置情報におけるY軸方向の位置情報を変換することによって、寝台装置30における被検体60のY軸方向の位置を推定する。 Therefore, the position estimation unit 54 converts the position information in the Y-axis direction in the second position information using the pixel resolution based on the position information in the X-axis direction in the first position information. The position of the subject 60 in the Y-axis direction is estimated.

具体的には、位置推定部54は、上述したように、第1の位置情報における右耳のX軸方向の位置からL0及びL1を算出し、当該L0及びL1を用いて、面P0において取得された第2の分解能から面P1における画素分解能を算出する。そして、位置推定部54は、算出された面P1における画素分解能を用いて、第2の位置情報における右耳のY軸方向の位置座標を画像座標系から物理座標系に変換することによって、寝台装置30における被検体60の右耳のY軸方向の位置を推定する。 Specifically, as described above, the position estimating unit 54 calculates L0 and L1 from the position of the right ear in the X-axis direction in the first position information, and uses the L0 and L1 to perform the acquisition on the plane P0. The pixel resolution on the plane P1 is calculated from the second resolution obtained. Then, the position estimating unit 54 uses the calculated pixel resolution in the plane P1 to convert the position coordinate of the right ear in the Y-axis direction in the second position information from the image coordinate system to the physical coordinate system. The position of the right ear of the subject 60 in the device 30 in the Y-axis direction is estimated.

このように、第1の位置情報及び第2の位置情報の両方を用いて、被検体60のY軸方向の位置を推定することによって、Y軸方向に関して、被検体60の位置合わせをより正確に行うことができるようになる。 In this way, by estimating the position of the subject 60 in the Y-axis direction using both the first position information and the second position information, the position of the subject 60 can be more accurately aligned in the Y-axis direction. You will be able to do this.

なお、ここでは、第1の位置情報における右耳の位置を用いてL1を算出することとしたが、L1を算出する方法はこれに限られない。例えば、第1の位置情報における右目のX軸方向の位置と面P0との間の距離の2倍の距離をL1として算出してもよい。すなわち、L1は、第1の位置情報における検査部位に関連する位置に基づいて算出された距離であればよい。 Although L1 is calculated here using the position of the right ear in the first position information, the method for calculating L1 is not limited to this. For example, a distance twice the distance between the position of the right eye in the X-axis direction and the plane P0 in the first position information may be calculated as L1. That is, L1 may be a distance calculated based on a position related to the inspection site in the first position information.

また、ここでは、頭部に関連する位置として、鼻、右目、左目、右耳、左耳といった部位の位置情報を用いることとしたが、検査部位が頭部である場合に用いられる位置情報は、必ずしも、頭部に関連する部位の位置情報に限られない。例えば、首及び腰の位置情報から頭部の位置を推定することによって得られる位置情報が用いられてもよい。 In addition, here, we used the positional information of parts such as the nose, right eye, left eye, right ear, and left ear as positions related to the head, but the positional information used when the test part is the head is , is not necessarily limited to positional information of parts related to the head. For example, position information obtained by estimating the position of the head from position information of the neck and waist may be used.

次に、X軸方向及びZ軸方向に関して、目標位置に位置合わせする検査部位に関連する位置が、被検体60のX軸方向及びZ軸方向の位置情報を有する第1の位置情報における鼻、右目、左目、右耳、左耳といった部位の位置座標の重心であるとする。 Next, with respect to the X-axis direction and the Z-axis direction, the position related to the test region to be aligned to the target position is the nose in the first position information having the position information of the subject 60 in the X-axis direction and the Z-axis direction; It is assumed that this is the center of gravity of the positional coordinates of parts such as the right eye, left eye, right ear, and left ear.

ここで、第1の位置情報における各部位の位置座標は、前述したステップS2012で第1の画像に対して射影変換が実施されることよって、単一の平面、つまり、第1の画素分解能を取得した平面に投影された画像から算出されたものとなっている。したがって、第1の位置情報における各部位の位置座標には、投影面である天板32からのY軸方向の高さに応じた歪みが含まれている。 Here, the position coordinates of each part in the first position information are determined by projective transformation on the first image in step S2012 described above, so that the position coordinates of each part in the first position information are determined on a single plane, that is, at the first pixel resolution. It is calculated from the image projected onto the acquired plane. Therefore, the positional coordinates of each part in the first positional information include distortion according to the height in the Y-axis direction from the top plate 32, which is the projection plane.

例えば、図11に示すように、被検体60を横方向から見た場合に、カメラ20の位置を(0,H0)、上記重心の位置を(Z,H1)、上記重心の位置の画素が投影面P2に投影される位置を(Z+Ez,0)とすると、求めるべき位置Zからの誤差Ezは、Ez=Z*H1/(H0-H1)となる。これは、X軸方向に対しても同様に考えることができるため、求めるべき位置Xからの誤差Exは、Ex=X*H1/(H0-H1)となる。ここで、H0及びH1は、第2の位置情報における上記重心のY軸方向の位置から算出することができる。 For example, as shown in FIG. 11, when the subject 60 is viewed from the side, the position of the camera 20 is (0, H0), the position of the center of gravity is (Z, H1), and the pixel at the center of gravity is If the position projected onto the projection plane P2 is (Z+Ez, 0), the error Ez from the position Z to be determined is Ez=Z*H1/(H0-H1). This can be considered similarly for the X-axis direction, so the error Ex from the position X to be determined is Ex=X*H1/(H0-H1). Here, H0 and H1 can be calculated from the position of the center of gravity in the Y-axis direction in the second position information.

そこで、位置推定部54は、第1の位置情報におけるX軸方向及びZ軸方向の位置情報と、第2の位置情報におけるY軸方向の位置情報に基づいた天板32からの高さとに基づいて、寝台装置30における被検体60のX軸方向及びZ軸方向の位置を推定する。 Therefore, the position estimation unit 54 calculates the height from the top plate 32 based on the position information in the X-axis direction and the Z-axis direction in the first position information and the position information in the Y-axis direction in the second position information. Then, the position of the subject 60 in the X-axis direction and the Z-axis direction on the bed apparatus 30 is estimated.

具体的には、位置推定部54は、上述したように、第2の位置情報における上記重心のY軸方向の位置からH0及びH1を算出し、当該H0及びH1を用いて、Z軸方向の誤差Ez及びX軸方向の誤差Exを算出する。また、位置推定部54は、第1の位置情報における上記重心のZ軸方向及びX軸方向の位置座標から誤差Ez及び誤差Exをそれぞれ減算することで、歪みを含まないZ軸方向及びX軸方向の位置座標を算出する。そして、位置推定部54は、第1の画素分解能を用いて、算出したZ軸方向及びX軸方向の位置座標を画像座標系から物理座標系に変換することによって、寝台装置30における上記重心のX軸方向の位置を推定する。 Specifically, as described above, the position estimation unit 54 calculates H0 and H1 from the position of the center of gravity in the Y-axis direction in the second position information, and uses the H0 and H1 to calculate the position of the center of gravity in the Z-axis direction. An error Ez and an error Ex in the X-axis direction are calculated. In addition, the position estimating unit 54 subtracts the error Ez and the error Ex from the position coordinates of the center of gravity in the Z-axis direction and the X-axis direction in the first position information, respectively, thereby calculating the Z-axis direction and the Calculate the position coordinates of the direction. Then, the position estimation unit 54 converts the calculated position coordinates in the Z-axis direction and the X-axis direction from the image coordinate system to the physical coordinate system using the first pixel resolution, thereby determining the center of gravity of the bed device 30. Estimate the position in the X-axis direction.

このように、第1の位置情報及び第2の位置情報の両方を用いてX軸方向及びZ軸方向の位置を推定することによって、X軸方向及びZ軸方向に関して、被検体60の位置合わせをより正確に行うことができるようになる。 In this way, by estimating the position in the X-axis direction and the Z-axis direction using both the first position information and the second position information, the position of the subject 60 can be adjusted in the X-axis direction and the Z-axis direction. can be done more accurately.

なお、ここでは、頭部に関連する位置として、鼻、右目、左目、右耳、左耳といった部位の位置座標の重心を用いることとしたが、ここで用いられる重心は、必ずしも、これらの全ての部位の位置座標を用いて算出されなくてもよい。例えば、信頼度のピーク値に基づいて部位を取捨選択した上で、重心が算出されてもよい。または、信頼度のピーク値に基づいた係数を位置座標に乗算した上で、重心が算出してもよい。または、部位ごとに位置座標に重み付けを行った上で、重心が算出されてもよい。 In addition, here, we used the center of gravity of the positional coordinates of the nose, right eye, left eye, right ear, and left ear as positions related to the head, but the center of gravity used here does not necessarily include all of these points. It does not have to be calculated using the position coordinates of the part. For example, the center of gravity may be calculated after selecting parts based on the peak value of reliability. Alternatively, the center of gravity may be calculated by multiplying the position coordinates by a coefficient based on the peak value of reliability. Alternatively, the center of gravity may be calculated after weighting the position coordinates for each part.

図3のフローチャートに戻り、次に、ステップS205において、移動量算出部55は、ステップS204で推定された被検体60のX軸方向、Y軸方向及びZ軸方向の位置に基づいて、寝台装置30の基台31及び天板32のX軸方向、Y軸方向及びZ軸方向の移動量を算出する。 Returning to the flowchart in FIG. 3, in step S205, the movement amount calculation unit 55 moves the couch device based on the positions of the subject 60 in the X-axis direction, Y-axis direction, and Z-axis direction estimated in step S204. The amount of movement of the base 31 and top plate 32 of No. 30 in the X-axis direction, Y-axis direction, and Z-axis direction is calculated.

例えば、図10に示す例では、移動量算出部55は、位置推定部54によって推定された右耳のY軸方向の位置に基づいて、被検体60の右耳を目標位置である回転部15の回転中心へ位置合わせするための基台31のY軸方向の移動量を算出する。 For example, in the example shown in FIG. 10, the movement amount calculation unit 55 moves the right ear of the subject 60 to the rotation unit 15, which is the target position, based on the position of the right ear in the Y-axis direction estimated by the position estimation unit 54. The amount of movement of the base 31 in the Y-axis direction for alignment with the center of rotation is calculated.

また、例えば、図11に示す例では、移動量算出部55は、位置推定部54によって推定された上記重心のX軸方向及びZ軸方向の位置に基づいて、被検体60の右耳を目標位置である回転部15の回転中心へ位置合わせするための天板32のX軸方向及びZ軸方向の移動量を算出する。 For example, in the example shown in FIG. 11, the movement amount calculation unit 55 targets the right ear of the subject 60 based on the position of the center of gravity in the X-axis direction and the Z-axis direction estimated by the position estimation unit 54. The amount of movement of the top plate 32 in the X-axis direction and the Z-axis direction for alignment with the rotation center of the rotating unit 15 is calculated.

次に、ステップS206において、スキャン制御部50は、ステップS205で算出されたX軸方向、Y軸方向及びZ軸方向の移動量に基づいて、架台・寝台制御部17を制御して寝台装置30の基台31及び天板32を移動させることによって、被検体60のX軸方向、Y軸方向及びZ軸方向の位置合わせを実施する。 Next, in step S206, the scan control unit 50 controls the gantry/bed control unit 17 to move the bed device 30 based on the movement amounts in the X-axis direction, Y-axis direction, and Z-axis direction calculated in step S205. By moving the base 31 and top plate 32, the subject 60 is aligned in the X-axis direction, Y-axis direction, and Z-axis direction.

なお、図3のフローチャートでは、ステップS200~S201において、第1の画像及び第1の位置情報を取得した後に、ステップS202~S203において、第2の画像及び第2の位置情報を取得することとしたが、実施形態はこれに限られない。例えば、ステップS200~S201の処理と、ステップS202~S203の処理とは、実行される順序が入れ替わってもよいし、並行に実行されてもよい。 Note that in the flowchart of FIG. 3, after acquiring the first image and first position information in steps S200 to S201, the second image and second position information are acquired in steps S202 to S203. However, the embodiment is not limited to this. For example, the processing in steps S200 to S201 and the processing in steps S202 to S203 may be performed in a reverse order, or may be performed in parallel.

以上、スキャン制御部50、画像取得部52、位置取得部53、位置推定部54及び移動量算出部55が有する処理機能について説明したが、上述した各部の処理機能は、例えば、処理回路42によって実行、又は、処理回路42の指示によって各部で実行される。 The processing functions of the scan control section 50, image acquisition section 52, position acquisition section 53, position estimation section 54, and movement amount calculation section 55 have been described above. It is executed in each section according to the execution or instructions from the processing circuit 42.

ここで、各部の処理機能が処理回路42によって実行される場合、例えば、処理回路24は、プロセッサによって実現される。また、各部の処理機能が処理回路42の指示によって各部で実行される場合、例えば、スキャン制御部50、画像取得部52、位置取得部53、位置推定部54及び移動量算出部55は、それぞれプロセッサによって実現される。これらの場合に、スキャン制御部50、画像取得部52、位置取得部53、位置推定部54及び移動量算出部55が有する処理機能は、コンピュータによって実行可能なプログラムの形態で不揮発性メモリ44に記憶される。そして、処理回路24、又は、スキャン制御部50、画像取得部52、位置取得部53、位置推定部54及び移動量算出部55は、不揮発性メモリ44から各プログラムを読み出して実行することで、各プログラムに対応する処理機能を実現する。換言すると、コンソール装置40は、処理回路24又は各部が各プログラムを読み出した状態で、図1に示される構成を有することとなる。 Here, when the processing functions of each part are executed by the processing circuit 42, for example, the processing circuit 24 is realized by a processor. Further, when the processing functions of each section are executed by each section according to instructions from the processing circuit 42, for example, the scan control section 50, the image acquisition section 52, the position acquisition section 53, the position estimation section 54, and the movement amount calculation section 55 are each Realized by a processor. In these cases, the processing functions of the scan control section 50, image acquisition section 52, position acquisition section 53, position estimation section 54, and movement amount calculation section 55 are stored in the nonvolatile memory 44 in the form of a computer-executable program. be remembered. Then, the processing circuit 24 or the scan control section 50, image acquisition section 52, position acquisition section 53, position estimation section 54, and movement amount calculation section 55 read each program from the nonvolatile memory 44 and execute it. Realize processing functions corresponding to each program. In other words, the console device 40 has the configuration shown in FIG. 1 in a state where the processing circuit 24 or each section has read each program.

上述したように、第1の実施形態によれば、第1の方向から撮像した第1の画像に基づいて取得された第1の位置情報、及び、第1の方向と異なる方向である第2の方向から撮像した第2の画像に基づいて取得された第2の位置情報の両方を用いて、寝台装置30における被検体60の位置を推定することによって、被検体の位置合わせをより正確に行うことができる。 As described above, according to the first embodiment, the first position information acquired based on the first image taken from the first direction, and the second position information that is in a direction different from the first direction. By estimating the position of the subject 60 on the couch device 30 using both the second position information acquired based on the second image taken from the direction, the position of the subject can be more accurately aligned. It can be carried out.

(第2の実施形態)
なお、上述した第1の実施形態では、被検体60のX軸方向、Y軸方向及びZ軸方向の位置合わせを同時に行う場合の例を説明したが、実施形態はこれに限られない。例えば、被検体60のX軸方向及びZ軸方向の位置合わせと、被検体60のY軸方向の位置合わせとを分けて行ってもよい。以下、このような場合の例を第2の実施形態として説明する。なお、以下の説明では、第1の実施形態と異なる点を中心に説明することとし、第1の実施形態と共通する内容については、詳細な説明を省略する。
(Second embodiment)
Note that in the first embodiment described above, an example has been described in which alignment of the subject 60 in the X-axis direction, Y-axis direction, and Z-axis direction is performed simultaneously, but the embodiment is not limited to this. For example, positioning of the subject 60 in the X-axis direction and Z-axis direction and positioning of the subject 60 in the Y-axis direction may be performed separately. An example of such a case will be described below as a second embodiment. Note that, in the following description, points that are different from the first embodiment will be mainly explained, and detailed descriptions of contents common to the first embodiment will be omitted.

図12は、第2の実施形態に係る自動位置合わせ処理の流れを示すフローチャートである。 FIG. 12 is a flowchart showing the flow of automatic alignment processing according to the second embodiment.

ここで、図12に示すフローチャートは、第1の実施形態で図2に示したステップS103の自動位置合わせ処理に対応するものであり、図3に示したフローチャートとは別の実施形態である。 Here, the flowchart shown in FIG. 12 corresponds to the automatic positioning process of step S103 shown in FIG. 2 in the first embodiment, and is a different embodiment from the flowchart shown in FIG. 3.

まず、ステップS300において、画像取得部52は、図3に示したステップS200の処理と同様に、カメラ制御部22を介して、カメラ20から第1の画像を取得する。 First, in step S300, the image acquisition unit 52 acquires a first image from the camera 20 via the camera control unit 22, similar to the process in step S200 shown in FIG.

次に、ステップS301において、位置取得部53は、図3に示したステップS201の処理と同様に、ステップS300で取得された第1の画像に基づいて、第1の位置情報を取得する。 Next, in step S301, the position acquisition unit 53 acquires first position information based on the first image acquired in step S300, similar to the process in step S201 shown in FIG.

次に、本実施形態では、ステップS302において、位置推定部54は、ステップS301で取得された第1の位置情報に基づいて、寝台装置30における被検体60のX軸方向及びZ軸方向の位置を推定する。 Next, in this embodiment, in step S302, the position estimating unit 54 estimates the position of the subject 60 in the X-axis direction and the Z-axis direction on the bed apparatus 30 based on the first position information acquired in step S301. Estimate.

ここで、位置推定部54は、予め不揮発性メモリ44に保存されている第1の画素分解能を用いて、位置取得部53によって取得された第1の情報及び第2の情報(骨格情報)に含まれる画像座標系の位置座標を物理座標系の位置座標に変換することで、寝台装置30における被検体60のX軸方向及びZ軸方向の位置を推定する。 Here, the position estimation unit 54 uses the first pixel resolution stored in the nonvolatile memory 44 in advance to calculate the first information and the second information (skeletal information) acquired by the position acquisition unit 53. By converting the position coordinates of the included image coordinate system into the position coordinates of the physical coordinate system, the position of the subject 60 in the X-axis direction and the Z-axis direction on the bed device 30 is estimated.

このとき、第1の実施形態で説明したように、第1の位置情報における各部位の位置座標には、投影面である天板32からのY軸方向の高さに応じた歪みが含まれているが、ここでは、歪みが含まれた状態で、被検体60のX軸方向及びZ軸方向の位置を推定する。そして、本実施形態では、後述するステップS308おいて、再度、X軸方向及びZ軸方向の位置を推定することで、被検体60のX軸方向及びZ軸方向の位置を補正する。 At this time, as explained in the first embodiment, the position coordinates of each part in the first position information include distortion according to the height in the Y-axis direction from the top plate 32, which is the projection plane. However, here, the position of the subject 60 in the X-axis direction and the Z-axis direction is estimated with distortion included. In this embodiment, in step S308, which will be described later, the positions of the subject 60 in the X-axis direction and the Z-axis direction are corrected by estimating the positions in the X-axis direction and the Z-axis direction again.

次に、ステップS303において、移動量算出部55は、ステップS302で推定された被検体60のX軸方向及びZ軸方向の位置に基づいて、寝台装置30の基台31及び天板32のX軸方向、Y軸方向及びZ軸方向の移動量を算出する。 Next, in step S303, the movement amount calculation unit 55 calculates the The amount of movement in the axial direction, Y-axis direction, and Z-axis direction is calculated.

次に、ステップS304において、スキャン制御部50は、ステップS303で算出されたX軸方向及びZ軸方向の移動量に基づいて、架台・寝台制御部17を制御して天板32を移動させることによって、被検体60のX軸方向及びZ軸方向の位置合わせを実施する。 Next, in step S304, the scan control unit 50 controls the gantry/bed control unit 17 to move the top plate 32 based on the amount of movement in the X-axis direction and the Z-axis direction calculated in step S303. Accordingly, the subject 60 is aligned in the X-axis direction and the Z-axis direction.

次に、ステップS305において、画像取得部52は、図3に示したステップS202の処理と同様に、カメラ制御部22を介して、カメラ21から第2の画像を取得する。 Next, in step S305, the image acquisition unit 52 acquires a second image from the camera 21 via the camera control unit 22, similar to the process in step S202 shown in FIG.

次に、ステップS306において、位置取得部53は、図3に示したステップS203の処理と同様に、ステップS305で取得された第2の画像に基づいて、第2の位置情報を取得する。 Next, in step S306, the position acquisition unit 53 acquires second position information based on the second image acquired in step S305, similar to the process in step S203 shown in FIG.

次に、ステップS307において、位置推定部54は、ステップS301で取得された第1の位置情報及びステップS307で取得された第2の位置情報に基づいて、寝台装置30における被検体60のX軸方向、Y軸方向及びZ軸方向の位置を推定する。 Next, in step S307, the position estimating unit 54 determines the X-axis of the subject 60 on the couch device 30 based on the first position information acquired in step S301 and the second position information acquired in step S307. The direction, the position in the Y-axis direction, and the Z-axis direction are estimated.

ここで、ステップS307の処理は、図3に示したステップS204の処理とほぼ同じであるが、本実施形態では、既にステップS304において、ステップS303で算出された移動量に基づいて、X軸方向及びZ軸方向に天板32を移動させている。そのため、ここでは、位置推定部54は、X軸方向及びZ軸方向の位置については、前述した天板32からのY軸方向の高さに応じた歪みによる誤差Ex及びEzの分だけを推定すればよい。なお、位置推定部54は、Y軸方向の位置については、図3に示したステップS204の処理と同様に推定する。 Here, the process in step S307 is almost the same as the process in step S204 shown in FIG. 3, but in this embodiment, in step S304, based on the movement amount calculated in step S303, The top plate 32 is also moved in the Z-axis direction. Therefore, here, the position estimating unit 54 estimates only the errors Ex and Ez due to the distortion according to the height in the Y-axis direction from the top plate 32 as described above for the positions in the X-axis direction and the Z-axis direction. do it. Note that the position estimating unit 54 estimates the position in the Y-axis direction in the same manner as in the process of step S204 shown in FIG. 3.

次に、ステップS308において、移動量算出部55は、ステップS307で推定された被検体60のX軸方向、Y軸方向及びZ軸方向の位置に基づいて、寝台装置30の基台31及び天板32のX軸方向、Y軸方向及びZ軸方向の移動量を算出する。 Next, in step S308, the movement amount calculation unit 55 moves the base 31 and the top of the bed device 30 based on the positions of the subject 60 in the X-axis direction, Y-axis direction, and Z-axis direction estimated in step S307. The amount of movement of the plate 32 in the X-axis direction, Y-axis direction, and Z-axis direction is calculated.

次に、ステップS309において、スキャン制御部50は、図3に示したステップS206と同様に、ステップS208で算出されたX軸方向、Y軸方向及びZ軸方向の移動量に基づいて、架台・寝台制御部17を制御して寝台装置30の基台31及び天板32を移動させることによって、被検体60のX軸方向、Y軸方向及びZ軸方向の位置合わせを実施する。 Next, in step S309, similarly to step S206 shown in FIG. 3, the scan control unit 50 moves the gantry and By controlling the bed control unit 17 to move the base 31 and top plate 32 of the bed device 30, the subject 60 is aligned in the X-axis direction, Y-axis direction, and Z-axis direction.

上述したように、第2の実施形態によれば、被検体60のX軸方向及びZ軸方向の位置合わせと、被検体60のY軸方向の位置合わせとを分けて行うことによって、例えば、カメラ20とカメラ21とで撮像可能な空間が共通していない場合でも、被検体60の位置合わせを実施することができる。 As described above, according to the second embodiment, by separately performing the alignment of the subject 60 in the X-axis direction and the Z-axis direction and the alignment of the subject 60 in the Y-axis direction, for example, Even when the space that can be imaged by the cameras 20 and 21 is not common, positioning of the subject 60 can be performed.

(変形例)
なお、上述した実施形態では、図5に示したように、位置取得部53が、歪み補正後の画像に対して射影変換を実施した後に、学習モデルを用いて、射影変換後の画像に対して骨格推定を実施することとしたが、実施形態はこれに限られない。例えば、カメラ20及びカメラ21の解像度が高い場合や、学習モデルの精度が高い場合のように、射影変換を実施する前の画像からでも骨格推定を行うことが可能な場合には、位置取得部53は、学習モデルを用いて、歪み補正後の画像に対して骨格推定を実施した後に、歪み補正後の画像に対して射影変換を実施するように構成されてもよい。
(Modified example)
In the above-described embodiment, as shown in FIG. 5, the position acquisition unit 53 performs projective transformation on the image after distortion correction, and then uses the learning model to However, the embodiment is not limited to this. For example, when the resolution of the cameras 20 and 21 is high, or when the accuracy of the learning model is high, when it is possible to perform skeleton estimation even from images before projective transformation, the position acquisition unit 53 may be configured to perform skeletal estimation on the distortion-corrected image using the learning model, and then perform projective transformation on the distortion-corrected image.

また、上述した実施形態では、位置推定部54が、第1の画像に基づいて取得された第1の位置情報及び第2の画像に基づいて取得された第2の位置情報に基づいて、寝台装置30における被検体60の検査部位に関連する位置を推定することとしたが、必ずしも、第1の画像及び第2の画像の両方に当該検査部位に関連する位置が含まれていなくてもよい。例えば、第1の画像及び第2の画像のうちの一方の画像に当該検査部位に関連する位置が含まれていない場合には、位置推定部54は、他方の画像に基づいて取得された位置情報における他の部位の位置情報に基づいて、当該検査部位に関連する位置を推定してもよい。 Further, in the embodiment described above, the position estimating unit 54 determines whether or not the bed Although the position related to the test site of the subject 60 in the apparatus 30 is estimated, the position related to the test site does not necessarily have to be included in both the first image and the second image. . For example, if one of the first image and the second image does not include a position related to the examination site, the position estimation unit 54 calculates the position obtained based on the other image. The position related to the test site may be estimated based on the position information of other sites in the information.

また、上述した実施形態では、被検体60を位置合わせするために検査部位に関連する位置を位置合わせする目標位置が、回転部15の回転中心である場合の例を説明したが、実施形態はこれに限られない。 In addition, in the embodiment described above, an example has been described in which the target position for aligning the position related to the examination region in order to align the subject 60 is the rotation center of the rotating unit 15. It is not limited to this.

例えば、上述した実施形態の方法で被検体60の位置合わせが実施された後に実行されるスキャンは、本スキャンの前に2D又は3Dのスキャノ画像を撮影するための準備スキャンであってもよいし、診断用の画像を撮影するための本スキャンであってもよい。ここで、いずれのスキャンが行われる場合でも、検査部位に関連する位置を位置合わせする目標位置は、スキャンで用いられる撮影条件に応じて決定される。 For example, the scan performed after positioning of the subject 60 is performed using the method of the embodiment described above may be a preparatory scan for capturing a 2D or 3D scanogram before the main scan. , or may be a main scan for photographing images for diagnosis. Here, regardless of which scan is performed, the target position for aligning the position related to the inspection site is determined according to the imaging conditions used in the scan.

例えば、3Dボリュームスキャンや、本スキャンの開始タイミングを決定するために行われる一断面のみの繰り返しスキャン、CT透視画像を撮影するために行われる数断面のみの繰り返しスキャン等のように、寝台装置30の天板32の位置を固定して行われるスキャンの場合には、目標位置は、上述した実施形態のように、回転部15の回転中心とされる。 For example, the bed device 3 In the case of scanning performed with the top plate 32 fixed in position, the target position is the center of rotation of the rotating unit 15, as in the embodiment described above.

また、例えば、2Dヘリカルスキャンや3Dヘリカルスキャン等のように、寝台装置30の天板32を移動しながら行われるスキャンの場合には、通常、天板32を加速させて等速運動するようにしてからスキャンを開始するため、天板32が移動を開始してから等速運動をするまでの助走区間が必要になる。そのため、このようなスキャンが行われる場合には、例えば、目標位置は、助走区間を考慮し、架台装置10における撮影範囲の端部から助走区間の距離だけ離れた位置とされる。なお、上述した実施形態の方法で被検体60の位置合わせのために基台31及び天板32を移動させながらそのまま寝台装置30を停止させずにヘリカルスキャン(3Dランドマークスキャン)を行うことによって、助走区間が不要となる場合には、目標位置は、回転部15の回転中心とされてもよい。また、例えば、複数の検査部位(例えば、頭部と腹部)の位置を推定して各検査部位を連続してスキャンする場合には、一つ目の検査部位(例えば、頭部)については、目標位置は助走区間を考慮した位置とされ、二つ目の検査部位(例えば、腹部)については、既に一つ目の検査部位のスキャンのために天板32が等速移動しており助走区間が不要であるため、目標位置は回転部15の回転中心とされる。 Furthermore, in the case of a scan performed while moving the top plate 32 of the bed device 30, such as a 2D helical scan or a 3D helical scan, the top plate 32 is usually accelerated to move at a constant speed. Since scanning is started after the top plate 32 starts moving, a run-up section is required from when the top plate 32 starts moving until it moves at a constant velocity. Therefore, when such a scan is performed, the target position is set, for example, in consideration of the run-up section, and is set at a position that is the distance of the run-up section from the end of the photographing range in the gantry device 10. Note that by performing a helical scan (3D landmark scan) without stopping the bed device 30 while moving the base 31 and the top plate 32 for positioning the subject 60 in the method of the above-described embodiment, If the run-up section is not required, the target position may be the center of rotation of the rotating section 15. Also, for example, when estimating the positions of multiple examination parts (e.g., head and abdomen) and scanning each examination part sequentially, for the first examination part (e.g., head), The target position is set in consideration of the run-up section, and for the second inspection area (for example, the abdomen), the top plate 32 has already moved at a constant speed to scan the first inspection area, and the run-up section is set as the target position. Since this is not necessary, the target position is the center of rotation of the rotating section 15.

また、上述した実施形態では、スキャン制御部50が、カメラ20によって撮像された第1の画像及びカメラ21によって撮像された第2の画像に基づいて、寝台装置30の基板31及び天板32を移動させる場合の例を説明したが、実施形態はこれに限られない。例えば、X線CT装置1が、架台装置10を傾斜(チルト)させて撮影を行えるように構成されている場合には、スキャン制御部50は、カメラ20によって撮像された第1の画像及びカメラ21によって撮像された第2の画像に基づいて、架台装置10を傾斜させてもよい。 Further, in the embodiment described above, the scan control unit 50 controls the substrate 31 and the top plate 32 of the bed device 30 based on the first image captured by the camera 20 and the second image captured by the camera 21. Although an example of moving has been described, the embodiment is not limited to this. For example, if the X-ray CT apparatus 1 is configured to perform imaging by tilting the gantry device 10, the scan control unit 50 controls the first image captured by the camera 20 and the camera The gantry device 10 may be tilted based on the second image captured by the gantry 21.

例えば、検査部位が頭部である場合に、撮影断面が耳孔と外眼角とを結ぶ線であるOM(OrbitoMeatal)ライン(眼窩外耳孔線)を通るように、架台装置10を傾斜させて撮影を行うことがある。そのような場合に、例えば、位置推定部54が、位置取得部53によって取得された第1の位置情報及び第2の位置情報に基づいて、寝台装置30における被検体60のOMラインの位置を推定する。この場合に、OMラインの位置は、検査部位に関連する位置の一例である。また、移動量算出部55が、位置推定部54によって推定されたOMラインの位置に基づいて、撮影断面がOMラインを通るように架台装置10を傾斜させるための傾斜角度を算出する。この場合に、撮影断面の位置は、目標位置の一例である。そして、スキャン制御部50が、移動量算出部55によって算出された傾斜角度だけ、架台装置10を傾斜させる。 For example, when the examination site is the head, the gantry device 10 is tilted so that the photographed cross section passes through the OM (OrbitoMetal) line, which is the line connecting the ear canal and the external canthus. There is something to do. In such a case, for example, the position estimating unit 54 determines the position of the OM line of the subject 60 on the bed apparatus 30 based on the first position information and the second position information acquired by the position acquiring unit 53. presume. In this case, the position of the OM line is an example of a position related to the examination site. Furthermore, based on the position of the OM line estimated by the position estimating unit 54, the movement amount calculating unit 55 calculates an inclination angle for inclining the gantry device 10 so that the photographed cross section passes through the OM line. In this case, the position of the photographed cross section is an example of a target position. Then, the scan control unit 50 tilts the gantry device 10 by the tilt angle calculated by the movement amount calculation unit 55.

一般的に、このような撮影が行われる場合には、本スキャンの前にスキャノ画像を撮影し、当該スキャノ画像を用いて決定されたOMラインに基づいて、架台装置10を傾斜させることが行われる。これに対し、上記構成によれば、カメラ20によって撮像された第1の画像及びカメラ21によって撮像された第2の画像に基づいて、架台装置10を傾斜させることができるようになり、スキャノ画像の撮影を行わずに、架台装置10を傾斜させた撮影を行えるようになる。 Generally, when such imaging is performed, a scano image is taken before the main scan, and the gantry device 10 is tilted based on the OM line determined using the scano image. be exposed. On the other hand, according to the above configuration, the gantry device 10 can be tilted based on the first image captured by the camera 20 and the second image captured by the camera 21, and the scano image It is now possible to take pictures with the gantry device 10 tilted without having to take pictures.

また、上述した実施形態では、移動量算出部55は、位置推定部54によって推定された被検体60の位置に基づいて、寝台装置30の基台31及び天板32の移動量を算出し、スキャン制御部50は、移動量算出部55によって算出された移動量に基づいて、基台31及び天板32を移動させることとしたが、実施形態はこれに限られない。例えば、移動量算出部55は、位置推定部54によって推定された被検体60の位置に基づいて、寝台装置30の基台31及び天板32を移動させる位置を決定するように構成され、スキャン制御部50は、移動量算出部55によって決定された位置に、基台31及び天板32を移動させるように構成されてもよい。 Further, in the embodiment described above, the movement amount calculation unit 55 calculates the movement amount of the base 31 and the top plate 32 of the bed device 30 based on the position of the subject 60 estimated by the position estimation unit 54, Although the scan control unit 50 moves the base 31 and the top plate 32 based on the movement amount calculated by the movement amount calculation unit 55, the embodiment is not limited to this. For example, the movement amount calculation unit 55 is configured to determine the position to which the base 31 and the top plate 32 of the bed apparatus 30 are to be moved based on the position of the subject 60 estimated by the position estimation unit 54, and The control unit 50 may be configured to move the base 31 and the top plate 32 to the positions determined by the movement amount calculation unit 55.

また、上述した実施形態では、図1において、寝台装置30において、架台装置10側に頭部が置かれるヘッドファーストで被検体60が配置されている場合の例を示しているが、実施形態はこれに限られない。例えば、上述した実施形態は、架台装置10側に脚部が置かれるフットファーストで被検体60が配置される場合でも、同様に適用することが可能である。 In addition, in the embodiment described above, an example is shown in which the subject 60 is placed head-first in the bed device 30 in which the head is placed on the side of the gantry device 10 in FIG. It is not limited to this. For example, the embodiment described above can be similarly applied even when the subject 60 is placed foot first with the legs placed on the gantry device 10 side.

(他の実施形態)
なお、上述した実施形態では、本明細書における画像取得部、位置取得部、位置推定部及び移動量算出部の処理機能をプログラムによって実現する場合の例を説明したが、実施形態はこれに限られない。例えば、本明細書における画像取得部、位置取得部、位置推定部及び移動量算出部は、ハードウェアのみ、ソフトウェアのみ、又は、ハードウェアとソフトウェアとの混合によって各処理機能を実現するものであっても構わない。
(Other embodiments)
Note that in the embodiment described above, an example was described in which the processing functions of the image acquisition unit, position acquisition unit, position estimation unit, and movement amount calculation unit in this specification are realized by a program, but the embodiment is not limited to this. I can't do it. For example, the image acquisition unit, position acquisition unit, position estimation unit, and movement amount calculation unit in this specification may realize each processing function using only hardware, only software, or a mixture of hardware and software. I don't mind.

また、上述した実施形態では、スキャン制御部50、画像取得部52、位置取得部53、位置推定部54及び移動量算出部55が、単一のプロセッサによって実現されることとしたが、実施形態はこれに限られない。例えば、スキャン制御部50、画像取得部52、位置取得部53、位置推定部54及び移動量算出部55は、複数の独立したプロセッサを組み合わせて構成され、各プロセッサがプログラムを実行することによって各処理機能を実現するものであってもよい。また、スキャン制御部50、画像取得部52、位置取得部53、位置推定部54及び移動量算出部55が有する各処理機能は、単一又は複数の処理部に適宜に分散又は統合されて実現されてもよい。また、上述した実施形態では、各処理機能に対応するプログラムが単一の不揮発性メモリ44に記憶されることとしたが、実施形態はこれに限られない。例えば、各処理機能に対応するプログラムが複数の記憶回路に分散して記憶され、各記憶回路から読み出されて実行される構成としても構わない。 Further, in the embodiment described above, the scan control unit 50, the image acquisition unit 52, the position acquisition unit 53, the position estimation unit 54, and the movement amount calculation unit 55 are realized by a single processor, but in the embodiment is not limited to this. For example, the scan control unit 50, image acquisition unit 52, position acquisition unit 53, position estimation unit 54, and movement amount calculation unit 55 are configured by combining a plurality of independent processors, and each processor executes a program to It may also be something that realizes a processing function. In addition, each processing function of the scan control unit 50, image acquisition unit 52, position acquisition unit 53, position estimation unit 54, and movement amount calculation unit 55 is realized by being distributed or integrated into a single or multiple processing units as appropriate. may be done. Further, in the embodiment described above, programs corresponding to each processing function are stored in a single nonvolatile memory 44, but the embodiment is not limited to this. For example, a configuration may be adopted in which programs corresponding to each processing function are stored in a distributed manner in a plurality of storage circuits, and are read out from each storage circuit and executed.

また、上述した実施形態の説明で用いた「プロセッサ」という文言は、例えば、CPU、GPU(Graphics Processing Unit)、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサが例えばCPUである場合、プロセッサは記憶回路に保存されたプログラムを読み出して実行することで処理機能を実現する。一方、プロセッサがASICである場合、記憶回路にプログラムを保存する代わりに、当該処理機能がプロセッサの回路内に論理回路として直接組み込まれる。なお、本実施形態の各プロセッサは、プロセッサごとに単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて一つのプロセッサとして構成し、その機能を実現するようにしてもよい。さらに、図1における複数の構成要素を一つのプロセッサへ統合してその機能を実現するようにしてもよい。 Furthermore, the term "processor" used in the description of the embodiments described above refers to, for example, a CPU, a GPU (Graphics Processing Unit), an application specific integrated circuit (ASIC), a programmable logic device (for example, a simple Refers to circuits such as a programmable logic device (SPLD), a complex programmable logic device (CPLD), and a field programmable gate array (FPGA). When the processor is, for example, a CPU, the processor realizes processing functions by reading and executing a program stored in a storage circuit. On the other hand, when the processor is an ASIC, instead of storing the program in a storage circuit, the processing function is directly incorporated into the processor's circuitry as a logic circuit. Note that each processor in this embodiment is not limited to being configured as a single circuit for each processor, but may also be configured as a single processor by combining multiple independent circuits to realize its functions. good. Furthermore, a plurality of components shown in FIG. 1 may be integrated into one processor to realize its functions.

ここで、プロセッサによって実行されるプログラムは、例えば、HDDやROM等の記憶回路に予め組み込まれて提供される。なお、このプログラムは、これらの記憶回路にインストール可能な形式又は実行可能な形式のファイルでCD(Compact Disk)-ROM、FD(Flexible Disk)、CD-R(Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な非一時的な記憶媒体に記録されて提供されてもよい。また、このプログラムは、インターネット等のネットワークに接続されたコンピュータ上に格納され、ネットワーク経由でダウンロードされることによって提供又は配布されてもよい。例えば、このプログラムは、上述した各処理機能を含むモジュールで構成される。実際のハードウェアとしては、CPUが、ROM等の記憶媒体からプログラムを読み出して実行することにより、各モジュールが主記憶装置上にロードされて、主記憶装置上に生成される。 Here, the program executed by the processor is provided by being pre-installed in a storage circuit such as an HDD or ROM, for example. This program is a file in a format that can be installed on these storage circuits or an executable format, such as a CD (Compact Disk)-ROM, FD (Flexible Disk), CD-R (Recordable), or DVD (Digital Versatile Disk). It may be recorded and provided on a computer-readable non-transitory storage medium such as. Further, this program may be stored on a computer connected to a network such as the Internet, and may be provided or distributed by being downloaded via the network. For example, this program is composed of modules including each of the processing functions described above. In actual hardware, a CPU reads a program from a storage medium such as a ROM and executes it, so that each module is loaded onto the main storage device and generated on the main storage device.

また、上述した実施形態において、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散又は統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散又は統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、或いは、ワイヤードロジックによるハードウェアとして実現され得る。 Furthermore, in the embodiments described above, each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distributing or integrating each device is not limited to what is shown in the diagram, and all or part of the devices may be functionally or physically distributed or integrated in arbitrary units depending on various loads and usage conditions. Can be integrated and configured. Further, each processing function performed by each device may be realized in whole or in part by a CPU and a program that is analyzed and executed by the CPU, or may be realized as hardware using wired logic.

また、上述した実施形態で説明した各処理のうち、自動的に行なわれるものとして説明した処理の全部又は一部を手動的に行なうこともでき、或いは、手動的に行なわれるものとして説明した処理の全部又は一部を公知の方法で自動的に行なうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。 Furthermore, among the processes described in the above-described embodiments, all or part of the processes described as being performed automatically can be performed manually, or the processes described as being performed manually can be performed manually. All or part of this can also be performed automatically using known methods. In addition, information including processing procedures, control procedures, specific names, and various data and parameters shown in the above documents and drawings may be changed arbitrarily, unless otherwise specified.

以上説明した少なくとも一つの実施形態によれば、被検体の位置合わせをより正確に行うことができる。 According to at least one embodiment described above, it is possible to align the subject more accurately.

いくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although several embodiments have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, substitutions, and changes can be made without departing from the gist of the invention. These embodiments and their modifications are included within the scope and gist of the invention as well as within the scope of the invention described in the claims and its equivalents.

1 X線CT装置
52 画像取得部
53 位置取得部
54 位置推定部
55 移動量算出部
1 X-ray CT device 52 Image acquisition unit 53 Position acquisition unit 54 Position estimation unit 55 Movement amount calculation unit

Claims (10)

被検体を第1の方向から撮像した第1の画像と、前記被検体を前記第1の方向と異なる方向である第2の方向から撮像した第2の画像とを取得する画像取得部と、
前記第1の画像に基づいて、前記被検体の複数の異なる部位の位置に対応する第1の位置情報を取得し、前記第2の画像に基づいて、前記複数の異なる部位の位置に対応する第2の位置情報を取得する位置取得部と、
前記第1の位置情報及び前記第2の位置情報に基づいて、前記被検体が載置された寝台における前記被検体の位置を推定する位置推定部と
を備える、X線コンピュータ断層撮影装置。
an image acquisition unit that acquires a first image of the subject taken from a first direction and a second image of the subject taken from a second direction that is different from the first direction;
First position information corresponding to the positions of the plurality of different parts of the subject is acquired based on the first image, and first position information corresponding to the positions of the plurality of different parts is obtained based on the second image. a position acquisition unit that acquires second position information;
An X-ray computed tomography apparatus, comprising: a position estimation unit that estimates the position of the subject on a bed on which the subject is placed, based on the first position information and the second position information.
前記被検体の位置に基づいて、前記寝台の移動量を算出する移動量算出部をさらに備える、
請求項1に記載のX線コンピュータ断層撮影装置。
further comprising a movement amount calculation unit that calculates a movement amount of the bed based on the position of the subject;
The X-ray computed tomography apparatus according to claim 1.
前記位置取得部は、被検体を含む複数の画像を学習用データとして予め学習された学習モデルを用いて、当該学習モデルに前記第1の画像を入力することで、前記第1の位置情報を取得し、当該学習モデルに前記第2の画像を入力することで、前記第2の位置情報を取得する、
請求項1又は2に記載のX線コンピュータ断層撮影装置。
The position acquisition unit obtains the first position information by inputting the first image into the learning model using a learning model trained in advance using a plurality of images including the subject as learning data. acquiring the second position information by inputting the second image into the learning model;
The X-ray computed tomography apparatus according to claim 1 or 2.
前記位置取得部は、前記第1の位置情報及び前記第2の位置情報として、前記被検体の関節を含む複数の特徴的な部位点及び当該特徴的な部位それぞれの位置座標を含む骨格情報を取得する、
請求項1又は2に記載のX線コンピュータ断層撮影装置。
The position acquisition unit obtains, as the first position information and the second position information, skeletal information including a plurality of characteristic part points including joints of the subject and position coordinates of each of the characteristic parts. get,
The X-ray computed tomography apparatus according to claim 1 or 2.
前記位置推定部は、互いに直交するX軸方向、Y軸方向及びZ軸方向に関して、前記第1の位置情報における前記X軸方向の位置情報、及び、前記第2の位置情報における前記Y軸方向の位置情報に基づいて、前記被検体の前記Y軸方向の位置を推定し、前記第1の位置情報における前記X軸方向及び前記Z軸方向の位置情報、並びに、前記第2の位置情報における前記Y軸方向の位置情報に基づいて、前記寝台における前記被検体の前記X軸方向及び前記Z軸方向の位置を推定する、
請求項1又は2に記載のX線コンピュータ断層撮影装置。
The position estimation unit is configured to calculate the position information in the X-axis direction in the first position information and the Y-axis direction in the second position information with respect to the X-axis direction, Y-axis direction, and Z-axis direction that are orthogonal to each other. The position of the subject in the Y-axis direction is estimated based on the position information in the X-axis direction and the Z-axis direction in the first position information, and in the second position information. estimating the position of the subject on the bed in the X-axis direction and the Z-axis direction based on the position information in the Y-axis direction;
The X-ray computed tomography apparatus according to claim 1 or 2.
前記位置推定部は、前記第1の位置情報における前記X軸方向の位置情報に基づいた画素分解能を用いて前記第2の位置情報における前記Y軸方向の位置情報を変換することによって、前記寝台における前記被検体の前記Y軸方向の位置を推定する、
請求項5に記載のX線コンピュータ断層撮影装置。
The position estimating unit converts the position information in the Y-axis direction in the second position information using pixel resolution based on the position information in the X-axis direction in the first position information. estimating the position of the subject in the Y-axis direction;
The X-ray computed tomography apparatus according to claim 5.
前記位置推定部は、前記第1の位置情報における前記X軸方向及び前記Z軸方向の位置情報と、前記第2の位置情報における前記Y軸方向の位置情報に基づいた前記寝台からの高さとに基づいて、前記寝台における前記被検体の前記X軸方向及び前記Z軸方向の位置を推定する、
請求項5に記載のX線コンピュータ断層撮影装置。
The position estimating unit calculates the height from the bed based on the position information in the X-axis direction and the Z-axis direction in the first position information, and the position information in the Y-axis direction in the second position information. estimating the position of the subject on the bed in the X-axis direction and the Z-axis direction based on
The X-ray computed tomography apparatus according to claim 5.
前記位置取得部は、前記第1の画像及び前記第2の画像に対して射影変換を実施し、射影変換後の第1の画像及び第2の画像に基づいて、前記第1の位置情報及び前記第2の位置情報を取得する、
請求項1又は2に記載のX線コンピュータ断層撮影装置。
The position acquisition unit performs projective transformation on the first image and the second image, and acquires the first position information and the second image based on the first image and second image after the projective transformation. acquiring the second location information;
The X-ray computed tomography apparatus according to claim 1 or 2.
前記位置推定部は、前記第1の位置情報及び前記第2の位置情報に基づいて、前記寝台における前記被検体の検査部位に関連する位置を推定し、
前記移動量算出部は、前記検査部位に関連する位置を撮影条件に応じた目標位置に位置合わせするための前記寝台の移動量を算出する、
請求項2に記載のX線コンピュータ断層撮影装置。
The position estimating unit estimates a position related to the test site of the subject on the bed based on the first position information and the second position information,
The movement amount calculation unit calculates a movement amount of the bed for aligning a position related to the examination region to a target position according to imaging conditions.
The X-ray computed tomography apparatus according to claim 2.
X線コンピュータ断層撮影装置の寝台における被検体の位置を推定する推定方法であって、
被検体を第1の方向から撮像した第1の画像と、前記被検体を前記第1の方向と異なる方向である第2の方向から撮像した第2の画像とを取得するステップと、
前記第1の画像に基づいて、前記被検体の複数の異なる部位の位置に対応する第1の位置情報を取得し、前記第2の画像に基づいて、前記複数の異なる部位の位置に対応する第2の位置情報を取得するステップと、
前記第1の位置情報及び前記第2の位置情報に基づいて、前記被検体が載置された前記寝台における前記被検体の位置を推定するステップと
を含む、推定方法。
An estimation method for estimating the position of a subject on a bed of an X-ray computed tomography apparatus, comprising:
acquiring a first image of the subject taken from a first direction and a second image of the subject taken from a second direction that is different from the first direction;
First position information corresponding to the positions of the plurality of different parts of the subject is acquired based on the first image, and first position information corresponding to the positions of the plurality of different parts is obtained based on the second image. obtaining second location information;
and estimating the position of the subject on the bed on which the subject is placed, based on the first position information and the second position information.
JP2022138321A 2022-08-31 2022-08-31 X-ray computed tomography apparatus and estimation method Pending JP2024034220A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022138321A JP2024034220A (en) 2022-08-31 2022-08-31 X-ray computed tomography apparatus and estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022138321A JP2024034220A (en) 2022-08-31 2022-08-31 X-ray computed tomography apparatus and estimation method

Publications (1)

Publication Number Publication Date
JP2024034220A true JP2024034220A (en) 2024-03-13

Family

ID=90193825

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022138321A Pending JP2024034220A (en) 2022-08-31 2022-08-31 X-ray computed tomography apparatus and estimation method

Country Status (1)

Country Link
JP (1) JP2024034220A (en)

Similar Documents

Publication Publication Date Title
CN110139607B (en) Method and system for patient scan settings
US10470733B2 (en) X-ray CT device and medical information management device
JP4484462B2 (en) Method and apparatus for positioning a patient in a medical diagnostic or therapeutic device
US10918346B2 (en) Virtual positioning image for use in imaging
WO2017195797A1 (en) Medical image diagnostic device
US10531850B2 (en) Mobile X-ray imaging with detector docking within a spatially registered compartment
JP6345468B2 (en) Medical diagnostic imaging equipment
US11730438B2 (en) Positional information acquisition device, positional information acquisition method, positional information acquisition program, and radiography apparatus
JP6548713B2 (en) Medical diagnostic imaging system
KR100349338B1 (en) Clinical diagnosis system for orthopedic pathological disease using three-dimensional human motion measurement
CN110459298A (en) For finding out the method and apparatus, diagnostic terminal and imaging system of end value
CN113940691A (en) System and method for patient positioning for image acquisition
JP2019030478A (en) Medical image diagnostic device and image processing method
JP6956514B2 (en) X-ray CT device and medical information management device
JP2024034220A (en) X-ray computed tomography apparatus and estimation method
JP6824641B2 (en) X-ray CT device
WO2021020112A1 (en) Medical photography system and medical photography processing device
KR102301422B1 (en) Dental panoramic x-ray photographing apparatus and method
WO2012157406A1 (en) Image analysis device, program, and image-capturing device
Rashed et al. An interactive augmented reality imaging system for minimally invasive orthopedic surgery
US11801019B2 (en) Positional information display device, positional information display method, positional information display program, and radiography apparatus
US20220156928A1 (en) Systems and methods for generating virtual images
US12004893B2 (en) Systems and methods for artifact detection for images
US20240127450A1 (en) Medical image processing apparatus and non-transitory computer readable medium
JP7392478B2 (en) Magnification calculation device, long-length photographing system, program, and magnification calculation method