JP2022172850A - Medical image diagnostic device, method for determining medical imaging condition, and program - Google Patents

Medical image diagnostic device, method for determining medical imaging condition, and program Download PDF

Info

Publication number
JP2022172850A
JP2022172850A JP2021079131A JP2021079131A JP2022172850A JP 2022172850 A JP2022172850 A JP 2022172850A JP 2021079131 A JP2021079131 A JP 2021079131A JP 2021079131 A JP2021079131 A JP 2021079131A JP 2022172850 A JP2022172850 A JP 2022172850A
Authority
JP
Japan
Prior art keywords
medical image
map
subject
imaging
contribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021079131A
Other languages
Japanese (ja)
Inventor
卓弥 坂口
Takuya Sakaguchi
優大 山▲崎▼
Yuta Yamazaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2021079131A priority Critical patent/JP2022172850A/en
Publication of JP2022172850A publication Critical patent/JP2022172850A/en
Pending legal-status Critical Current

Links

Images

Abstract

To acquire a medical image that enables highly accurate diagnosis to be executed while causing imaging and analyzing to influence each other.SOLUTION: A medical image diagnostic device includes an acquisition unit and a determination unit. The acquisition unit acquires a medical image of a subject. When the medical image is input, the determination unit determines an imaging condition for the medical image of the subject on the basis of a model learned to output an examination result of a person included in the input medical image, and a map in which a degree of contribution to the examination result is associated with each position on the input medical image, and the medical image of the subject acquired by the acquisition unit.SELECTED DRAWING: Figure 2

Description

本明細書及び図面に開示の実施形態は、医用画像診断装置、医用イメージング条件の決定方法、及びプログラムに関する。 The embodiments disclosed in the specification and drawings relate to a medical image diagnostic apparatus, a method for determining medical imaging conditions, and a program.

現在の臨床現場では、撮影スタッフは最高品質の医用画像が得られるよう撮影プロトコルを最適化させている。解析スタッフは、与えられた医用画像から診療情報を得ようとしている。すなわち、医用画像の撮影と解析は互いに独立して行われる傾向にある。このため、将来的に医用画像を解析するAI(Artificial Intelligence)が顕著な発展を遂げたとしても、撮影側には影響を及ぼしにくいことが想定される。 In today's clinical practice, imaging staff optimize imaging protocols to obtain the highest quality medical images. The analysis staff is trying to obtain medical information from given medical images. That is, the acquisition and analysis of medical images tend to be performed independently of each other. For this reason, even if AI (Artificial Intelligence) for analyzing medical images achieves remarkable development in the future, it is expected that it will hardly affect the imaging side.

一方で、医用画像を入力すると診断情報を出力するような画像解析AIの研究開発及び臨床応用が進んでいる。これに関連して、入力画像のどのあたりの情報が最終的な出力結果に高く寄与しているのかを推定する技術が知られている On the other hand, research and development and clinical application of image analysis AI, which outputs diagnostic information when a medical image is input, are progressing. In relation to this, there is known a technique for estimating which part of the information in the input image contributes greatly to the final output result.

Fei Wang, Mengqing Jiang, Chen Qian, Shuo Yang, Cheng Li, Honggang Zhang, Xiaogang Wang, Xiaoou Tang “Residual Attention Network for Image Classification”, 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 21-26 July 2017, DOI 10.1109/CVPR.2017.683Fei Wang, Mengqing Jiang, Chen Qian, Shuo Yang, Cheng Li, Honggang Zhang, Xiaogang Wang, Xiaoou Tang “Residual Attention Network for Image Classification”, 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 21-26 July 2017 , DOI 10.1109/CVPR.2017.683 Grzegorz Jacenkow, Alison Q. O'Neil, Brian Mohr, Sotirios A. Tsaftaris “Steering Spatial Attention with Non-Imaging Information in CNNs”, Medical Image Computing and Computer Assisted Intervention - MICCAI 2020, 23rd International Conference, Lima, Peru, October 4-8, 2020, Proceedings, Part IV (pp.385-395), DOI 10.1007/978-3-030-59719-1_38Grzegorz Jacenkow, Alison Q. O'Neil, Brian Mohr, Sotirios A. Tsaftaris “Steering Spatial Attention with Non-Imaging Information in CNNs”, Medical Image Computing and Computer Assisted Intervention - MICCAI 2020, 23rd International Conference, Lima, Peru, October 4-8, 2020, Proceedings, Part IV (pp.385-395), DOI 10.1007/978-3-030-59719-1_38

本明細書及び図面に開示の実施形態が解決しようとする課題は、撮影及び解析を相互に影響させ合いながら、高精度な診断が可能な医用画像を得ることである。ただし、本明細書及び図面に開示の実施形態により解決しようとする課題は上記課題に限られない。後述する実施形態に示す各構成による各効果に対応する課題を他の課題として位置づけることもできる。 The problem to be solved by the embodiments disclosed in this specification and drawings is to obtain a medical image that enables highly accurate diagnosis while mutually affecting imaging and analysis. However, the problems to be solved by the embodiments disclosed in this specification and drawings are not limited to the above problems. A problem corresponding to each effect of each configuration shown in the embodiments described later can be positioned as another problem.

実施形態の医用画像診断装置は、取得部と決定部とを持つ。取得部は、被検体の医用画像を取得する。決定部は、医用画像が入力されると、前記入力された医用画像に含まれる人物の診療結果、及び前記入力された医用画像上の各位置に前記診療結果への寄与度が対応付けられたマップを出力するように学習されたモデルと、前記取得部によって取得された前記被検体の医用画像とに基づいて、前記被検体の医用画像のイメージング条件を決定する。 A medical image diagnostic apparatus according to an embodiment has an acquisition unit and a determination unit. The acquisition unit acquires a medical image of the subject. When a medical image is input, the determining unit associates a medical result of a person included in the input medical image and a degree of contribution to the medical result with each position on the input medical image. Imaging conditions for the medical image of the subject are determined based on the model trained to output the map and the medical image of the subject acquired by the acquisition unit.

実施形態における医用画像診断システム1の構成例を表す図。1 is a diagram showing a configuration example of a medical image diagnostic system 1 according to an embodiment; FIG. 実施形態におけるX線CT装置100の構成例を表す図。1 is a diagram showing a configuration example of an X-ray CT apparatus 100 according to an embodiment; FIG. 実施形態における学習装置200の構成例を表す図。1 is a diagram showing a configuration example of a learning device 200 according to an embodiment; FIG. 実施形態における医用画像診断システム1によるトレーニング時の一連の処理の流れを表すフローチャート。4 is a flow chart showing a series of processing during training by the medical image diagnostic system 1 according to the embodiment. トレーニング時における寄与度マップの取得方法を説明するための図。FIG. 4 is a diagram for explaining a method of obtaining a contribution map during training; 実施形態における医用画像診断システム1によるランタイムの一連の処理の流れを表すフローチャート。4 is a flow chart showing the flow of a series of runtime processes by the medical image diagnostic system 1 according to the embodiment. 寄与度マップを用いたイメージング条件の決定方法を模式的に表す図。FIG. 4 is a diagram schematically showing a method of determining imaging conditions using a contribution map; 寄与度マップを用いたイメージング条件の決定方法を模式的に表す図。FIG. 4 is a diagram schematically showing a method of determining imaging conditions using a contribution map; 寄与度マップを用いたイメージング条件の決定方法を模式的に表す図。FIG. 4 is a diagram schematically showing a method of determining imaging conditions using a contribution map; 寄与度マップの位置合わせの方法を説明するための図。FIG. 4 is a diagram for explaining a method of aligning contribution maps; 寄与度マップの位置合わせの方法を説明するための図。FIG. 4 is a diagram for explaining a method of aligning contribution maps; 寄与度マップの位置合わせの方法を説明するための図。FIG. 4 is a diagram for explaining a method of aligning contribution maps; 寄与度マップの位置合わせの方法を説明するための図。FIG. 4 is a diagram for explaining a method of aligning contribution maps; イメージング条件の決定方法を説明するための図。FIG. 4 is a diagram for explaining a method of determining imaging conditions; イメージング条件の決定方法を説明するための図。FIG. 4 is a diagram for explaining a method of determining imaging conditions; イメージング条件の決定方法を説明するための図。FIG. 4 is a diagram for explaining a method of determining imaging conditions; イメージング条件の決定方法を説明するための図。FIG. 4 is a diagram for explaining a method of determining imaging conditions; イメージング条件の決定方法を説明するための図。FIG. 4 is a diagram for explaining a method of determining imaging conditions; イメージング条件の決定方法を説明するための図。FIG. 4 is a diagram for explaining a method of determining imaging conditions; イメージング条件の決定方法を説明するための図。FIG. 4 is a diagram for explaining a method of determining imaging conditions; イメージング条件の決定方法を説明するための図。FIG. 4 is a diagram for explaining a method of determining imaging conditions; イメージング条件の決定方法を説明するための図。FIG. 4 is a diagram for explaining a method of determining imaging conditions; イメージング条件の決定方法を説明するための図。FIG. 4 is a diagram for explaining a method of determining imaging conditions; イメージング条件の決定方法を説明するための図。FIG. 4 is a diagram for explaining a method of determining imaging conditions; イメージング条件の決定方法を説明するための図。FIG. 4 is a diagram for explaining a method of determining imaging conditions; イメージング条件の決定方法を説明するための図。FIG. 4 is a diagram for explaining a method of determining imaging conditions; イメージング条件の決定方法を説明するための図。FIG. 4 is a diagram for explaining a method of determining imaging conditions; イメージング条件の決定方法を説明するための図。FIG. 4 is a diagram for explaining a method of determining imaging conditions;

以下、図面を参照しながら、実施形態の医用画像診断装置、医用イメージング条件の決定方法、及びプログラムについて説明する。 A medical image diagnostic apparatus, a method for determining medical imaging conditions, and a program according to embodiments will be described below with reference to the drawings.

[医用画像診断システムの構成]
図1は、実施形態における医用画像診断システム1の構成例を表す図である。医用画像診断システム1は、例えば、一つ又は複数の医用画像撮像装置100と、学習装置200とを備える。医用画像撮像装置100及び学習装置200は、通信ネットワークNWを介して通信可能に接続される。
[Configuration of medical image diagnostic system]
FIG. 1 is a diagram showing a configuration example of a medical image diagnostic system 1 according to an embodiment. The medical image diagnostic system 1 includes, for example, one or more medical imaging devices 100 and a learning device 200 . The medical imaging apparatus 100 and the learning apparatus 200 are communicably connected via a communication network NW.

通信ネットワークNWは、電気通信技術を利用した情報通信網全般を意味する。通信ネットワークNWは、病院基幹LAN(Local Area Network)等の無線/有線LANやインターネット網のほか、電話通信回線網、光ファイバ通信ネットワーク、ケーブル通信ネットワークおよび衛星通信ネットワーク等を含む。 The communication network NW means all information communication networks using telecommunication technology. The communication network NW includes a wireless/wired LAN such as a hospital backbone LAN (Local Area Network), an Internet network, a telephone communication network, an optical fiber communication network, a cable communication network, a satellite communication network, and the like.

医用画像撮像装置100は、被検体Pをスキャンすることで医用画像を生成する装置である。被検体Pは、例えば、人間の患者であるがこれに限られず、その他動物や無機物であってもよい。医用画像撮像装置100は、例えば、X線CT(Computed Tomography)装置であってよく、そのほかに、MRI(Magnetic Resonance Imaging)装置や、超音波画像診断装置、核医学診断装置などであってもよい。医用画像撮像装置100は、いわゆるモダリティである。以下、一例として、医用画像撮像装置100がX線CT装置であるものとして説明する。 The medical imaging apparatus 100 is an apparatus that scans a subject P to generate a medical image. The subject P is, for example, a human patient, but is not limited to this, and may be an animal or an inorganic substance. The medical imaging apparatus 100 may be, for example, an X-ray CT (Computed Tomography) apparatus, an MRI (Magnetic Resonance Imaging) apparatus, an ultrasonic diagnostic imaging apparatus, a nuclear medicine diagnostic apparatus, or the like. . The medical imaging apparatus 100 is a so-called modality. As an example, the medical imaging apparatus 100 will be described below as an X-ray CT apparatus.

学習装置200は、X線CT装置(医用画像撮像装置)100から医用画像を収集し、その収集した医用画像を用いて機械学習のモデルを学習したり、その学習したモデルを利用して医用画像を解析したりする。モデルの詳細については後述する。学習装置200は、モダリティであるX線CT装置100に接続されたワークステーションやクラウドサーバであってよい。 The learning device 200 acquires medical images from an X-ray CT apparatus (medical imaging apparatus) 100, uses the acquired medical images to learn a machine learning model, and uses the learned model to acquire medical images. to analyze. Details of the model will be described later. The learning device 200 may be a workstation or cloud server connected to the modality, the X-ray CT apparatus 100 .

[X線CT装置の構成]
図2は、実施形態におけるX線CT装置100の構成例を表す図である。X線CT装置100は、例えば、架台装置110と、寝台装置130と、コンソール装置140とを備える。図2では、説明の都合上、架台装置110をZ軸方向から見た図とX軸方向から見た図の双方を掲載しているが、実際には、架台装置110は一つである。実施形態では、非チルト状態での回転フレーム117の回転軸または寝台装置130の天板133の長手方向をZ軸方向とし、Z軸方向に直交し、かつ床面に対して水平である軸をX軸方向とし、Z軸方向に直交し、かつ床面に対して垂直である方向をY軸方向とそれぞれ定義する。
[Configuration of X-ray CT apparatus]
FIG. 2 is a diagram showing a configuration example of the X-ray CT apparatus 100 according to the embodiment. The X-ray CT apparatus 100 includes, for example, a gantry device 110, a bed device 130, and a console device 140. For convenience of explanation, FIG. 2 shows both a view of the gantry device 110 viewed from the Z-axis direction and a view of the gantry device 110 viewed from the X-axis direction. In the embodiment, the rotation axis of the rotating frame 117 in the non-tilt state or the longitudinal direction of the top plate 133 of the bed device 130 is defined as the Z-axis direction, and the axis perpendicular to the Z-axis direction and horizontal to the floor surface is defined as the Z-axis direction. The X-axis direction and the direction perpendicular to the Z-axis direction and perpendicular to the floor surface are defined as the Y-axis direction.

架台装置110は、例えば、X線管111と、ウェッジ112と、コリメータ113と、X線高電圧装置114と、X線検出器115と、データ収集システム(以下、DAS:Data Acquisition System)116と、回転フレーム117と、制御装置118とを有する。 The gantry device 110 includes, for example, an X-ray tube 111, a wedge 112, a collimator 113, an X-ray high voltage device 114, an X-ray detector 115, and a data acquisition system (DAS: Data Acquisition System) 116. , a rotating frame 117 and a controller 118 .

X線管111は、X線高電圧装置114からの高電圧の印加により、陰極(フィラメント)から陽極(ターゲット)に向けて熱電子を照射することでX線を発生させる。X線管111は、真空管を含む。例えば、X線管111は、回転する陽極に熱電子を照射することでX線を発生させる回転陽極型のX線管である。 The X-ray tube 111 generates X-rays by applying a high voltage from the X-ray high voltage device 114 and irradiating thermal electrons from a cathode (filament) toward an anode (target). X-ray tube 111 includes a vacuum tube. For example, the X-ray tube 111 is a rotating anode type X-ray tube that generates X-rays by irradiating a rotating anode with thermal electrons.

ウェッジ112は、X線管111から被検体Pに照射されるX線量を調節するためのフィルタである。ウェッジ112は、X線管111から被検体Pに照射されるX線量の分布が予め定められた分布になるように、自身を透過するX線を減衰させる。ウェッジ112は、ウェッジフィルタ(wedge filter)、ボウタイフィルタ(bow-tie filter)とも呼ばれる。ウェッジ112は、例えば、所定のターゲット角度や所定の厚みとなるようにアルミニウムを加工したものである。 The wedge 112 is a filter for adjusting the dose of X-rays irradiated from the X-ray tube 111 to the subject P. FIG. The wedge 112 attenuates the X-rays passing through itself so that the X-ray dose distribution irradiated from the X-ray tube 111 to the subject P becomes a predetermined distribution. Wedge 112 is also called a wedge filter or a bow-tie filter. The wedge 112 is, for example, processed aluminum so as to have a predetermined target angle and a predetermined thickness.

コリメータ113は、ウェッジ112を透過したX線の照射範囲を絞り込むための機構である。コリメータ113は、例えば、複数の鉛板の組み合わせによってスリットを形成することで、X線の照射範囲を絞り込む。コリメータ113は、X線絞りと呼ばれる場合もある。 The collimator 113 is a mechanism for narrowing down the irradiation range of X-rays transmitted through the wedge 112 . The collimator 113 narrows down the X-ray irradiation range by, for example, forming a slit by combining a plurality of lead plates. Collimator 113 is sometimes called an X-ray diaphragm.

X線高電圧装置114は、例えば、高電圧発生装置と、X線制御装置とを有する。高電圧発生装置は、変圧器(トランス)および整流器などを含む電気回路を有し、X線管111に印加する高電圧を発生させる。X線制御装置は、X線管111に発生させるべきX線量に応じて高電圧発生装置の出力電圧を制御する。高電圧発生装置は、上述した変圧器によって昇圧を行うものであってもよいし、インバータによって昇圧を行うものであってもよい。X線高電圧装置114は、回転フレーム117に設けられてもよいし、架台装置110の固定フレーム(不図示)の側に設けられてもよい。 The X-ray high voltage device 114 has, for example, a high voltage generator and an X-ray controller. The high voltage generator has an electric circuit including a transformer, a rectifier, etc., and generates a high voltage to be applied to the X-ray tube 111 . The X-ray controller controls the output voltage of the high voltage generator in accordance with the amount of X-rays to be generated by the X-ray tube 111 . The high voltage generator may be one that boosts the voltage with the transformer described above, or one that boosts the voltage with an inverter. The X-ray high-voltage device 114 may be provided on the rotating frame 117 or may be provided on the fixed frame (not shown) side of the gantry device 110 .

X線検出器115は、X線管111が発生させ、被検体Pを通過して入射したX線の強度を検出する。X線検出器115は、検出したX線の強度に応じた電気信号(光信号などでもよい)をDAS116に出力する。X線検出器115は、例えば、複数のX線検出素子列を有する。複数のX線検出素子列のそれぞれは、X線管111の焦点を中心とした円弧に沿ってチャネル方向に複数のX線検出素子が配列されたものである。複数のX線検出素子列は、スライス方向(列方向、row方向)に配列される。 The X-ray detector 115 detects the intensity of X-rays generated by the X-ray tube 111 and incident through the subject P. FIG. The X-ray detector 115 outputs to the DAS 116 an electrical signal (which may be an optical signal or the like) corresponding to the intensity of the detected X-rays. The X-ray detector 115 has, for example, multiple X-ray detection element arrays. Each of the multiple X-ray detection element arrays has multiple X-ray detection elements arranged in the channel direction along an arc centered on the focal point of the X-ray tube 111 . A plurality of X-ray detection element arrays are arranged in a slice direction (column direction, row direction).

X線検出器115は、例えば、グリッドと、シンチレータアレイと、光センサアレイとを有する間接型の検出器である。シンチレータアレイは、複数のシンチレータを有する。それぞれのシンチレータは、シンチレータ結晶を有する。シンチレータ結晶は、入射するX線の強度に応じた光量の光を発する。グリッドは、シンチレータアレイのX線が入射する面に配置され、散乱X線を吸収する機能を有するX線遮蔽板を有する。なお、グリッドは、コリメータ(一次元コリメータまたは二次元コリメータ)と呼ばれる場合もある。光センサアレイは、例えば、光電子増倍管(フォトマルチプライヤー:PMT)等の光センサを有する。光センサアレイは、シンチレータにより発せられる光の光量に応じた電気信号を出力する。X線検出器115は、入射したX線を電気信号に変換する半導体素子を有する直接変換型の検出器であってもかまわない。 X-ray detector 115 is, for example, an indirect detector having a grid, a scintillator array, and a photosensor array. The scintillator array has a plurality of scintillators. Each scintillator has a scintillator crystal. The scintillator crystal emits an amount of light corresponding to the intensity of incident X-rays. The grid has an X-ray shielding plate arranged on the surface of the scintillator array on which X-rays are incident and having a function of absorbing scattered X-rays. Note that the grid may also be called a collimator (one-dimensional collimator or two-dimensional collimator). The photosensor array has photosensors such as, for example, photomultiplier tubes (photomultipliers: PMTs). The photosensor array outputs an electrical signal corresponding to the amount of light emitted by the scintillator. The X-ray detector 115 may be a direct conversion detector having a semiconductor element that converts incident X-rays into electrical signals.

DAS116は、例えば、増幅器と、積分器と、A/D変換器とを有する。増幅器は、X線検出器115の各X線検出素子により出力される電気信号に対して増幅処理を行う。積分器は、増幅処理が行われた電気信号をビュー期間(後述)に亘って積分する。A/D変換器は、積分結果を示す電気信号をデジタル信号に変換する。DAS116は、デジタル信号に基づく検出データをコンソール装置140に出力する。検出データは、生成元のX線検出素子のチャンネル番号、列番号、及び収集されたビューを示すビュー番号により識別されたX線強度のデジタル値である。ビュー番号は、回転フレーム117の回転に応じて変化する番号であり、例えば、回転フレーム117の回転に応じてインクリメントされる番号である。従って、ビュー番号は、X線管111の回転角度を示す情報である。ビュー期間とは、あるビュー番号に対応する回転角度から、次のビュー番号に対応する回転角度に到達するまでの間に収まる期間である。DAS116は、ビューの切り替わりを、制御装置118から入力されるタイミング信号によって検知してもよいし、内部のタイマーによって検知してもよいし、図示しないセンサから取得される信号によって検知してもよい。フルスキャンを行う場合においてX線管111によりX線が連続曝射されている場合、DAS116は、全周囲分(360度分)の検出データ群を収集する。ハーフスキャンを行う場合においてX線管111によりX線が連続曝射されている場合、DAS116は、半周囲分(180度分)の検出データを収集する。 DAS 116 includes, for example, amplifiers, integrators, and A/D converters. The amplifier amplifies the electrical signal output from each X-ray detection element of the X-ray detector 115 . The integrator integrates the amplified electrical signal over a view period (described later). The A/D converter converts an electrical signal representing the result of integration into a digital signal. The DAS 116 outputs detection data based on digital signals to the console device 140 . Detected data is a digital value of x-ray intensity identified by the channel number of the x-ray detector element from which it was generated, the row number, and the view number indicating the acquired view. The view number is a number that changes according to the rotation of the rotating frame 117, and is a number that is incremented according to the rotation of the rotating frame 117, for example. Therefore, the view number is information indicating the rotation angle of the X-ray tube 111 . A view period is a period that falls between the rotation angle corresponding to a certain view number and the rotation angle corresponding to the next view number. The DAS 116 may detect view switching by a timing signal input from the control device 118, by an internal timer, or by a signal obtained from a sensor (not shown). . When X-rays are continuously emitted from the X-ray tube 111 when performing a full scan, the DAS 116 collects detection data groups for the entire circumference (360 degrees). When X-rays are continuously emitted from the X-ray tube 111 when half scanning is performed, the DAS 116 collects detection data for a half circumference (180 degrees).

回転フレーム117は、X線管111、ウェッジ112、およびコリメータ113と、X線検出器115とを対向保持した状態で回転させる円環状の回転部材である。回転フレーム117は、固定フレームによって、内部に導入された被検体Pを中心として回転自在に支持される。回転フレーム117は、更にDAS116を支持する。DAS116が出力する検出データは、回転フレーム117に設けられた発光ダイオード(LED)を有する送信機から、光通信によって、架台装置110の非回転部分(例えば固定フレーム)に設けられたフォトダイオードを有する受信機に送信され、受信機によってコンソール装置140に転送される。なお、回転フレーム117から非回転部分への検出データの送信方法として、前述の光通信を用いた方法に限らず、非接触型の任意の送信方法を採用してよい。回転フレーム117は、X線管111などを支持して回転させることができるものであれば、円環状の部材に限らず、アームのような部材であってもよい。 The rotating frame 117 is an annular rotating member that rotates the X-ray tube 111, the wedge 112, the collimator 113, and the X-ray detector 115 while holding them facing each other. The rotating frame 117 is supported by a fixed frame so as to be rotatable around the subject P introduced therein. Rotating frame 117 also supports DAS 116 . The detected data output by DAS 116 is transmitted by optical communication from a transmitter having a light emitting diode (LED) mounted on rotating frame 117 to a photodiode mounted on a non-rotating portion (e.g., fixed frame) of mounting assembly 110. It is sent to the receiver and transferred to the console device 140 by the receiver. The method of transmitting the detection data from the rotating frame 117 to the non-rotating portion is not limited to the above-described method using optical communication, and any non-contact transmission method may be employed. The rotating frame 117 is not limited to an annular member, and may be a member such as an arm as long as it can support and rotate the X-ray tube 111 or the like.

制御装置118は、例えば、CPU(Central Processing Unit)などのプロセッサを有する処理回路と、モータやアクチュエータなどを含む駆動機構とを有する。制御装置118は、コンソール装置140または架台装置110に取り付けられた入力インタフェース143からの入力信号を受け付けて、架台装置110および寝台装置130の動作を制御する。 The control device 118 has, for example, a processing circuit having a processor such as a CPU (Central Processing Unit), and a driving mechanism including a motor, an actuator, and the like. The control device 118 receives input signals from the console device 140 or the input interface 143 attached to the gantry device 110 and controls the operations of the gantry device 110 and the bed device 130 .

制御装置118は、例えば、回転フレーム117を回転させたり、架台装置110をチルトさせたり、寝台装置130の天板133を移動させたりする。架台装置110をチルトさせる場合、制御装置118は、入力インタフェース143に入力された傾斜角度(チルト角度)に基づいて、Z軸方向に平行な軸を中心に回転フレーム117を回転させる。制御装置118は、図示しないセンサの出力等によって回転フレーム117の回転角度を把握している。また、制御装置118は、回転フレーム117の回転角度を随時、処理回路150に提供する。制御装置118は、架台装置110に設けられてもよいし、コンソール装置140に設けられてもよい。 The control device 118 rotates the rotating frame 117, tilts the gantry device 110, and moves the top plate 133 of the bed device 130, for example. When tilting the gantry device 110 , the control device 118 rotates the rotating frame 117 about an axis parallel to the Z-axis direction based on the tilt angle (tilt angle) input to the input interface 143 . The control device 118 grasps the rotation angle of the rotating frame 117 from the output of a sensor (not shown) or the like. Controller 118 also provides the rotation angle of rotating frame 117 to processing circuit 150 at any time. The control device 118 may be provided in the gantry device 110 or may be provided in the console device 140 .

制御装置118は、架台装置110を移動レールに沿って自走させ、本スキャン撮影を行ったり、本スキャン撮影の実行前に行う位置決め撮影であるスキャノ撮影を行う。 The control device 118 causes the gantry device 110 to move along the moving rails to perform main scan photography, or to perform scanography, which is positioning photography performed before execution of main scan photography.

寝台装置130は、スキャン対象の被検体Pを載置して、架台装置110の回転フレーム117の内部に導入する装置である。寝台装置130は、例えば、基台131と、寝台駆動装置132と、天板133と、支持フレーム134とを有する。基台131は、支持フレーム134を鉛直方向(Y軸方向)に移動可能に支持する筐体を含む。寝台駆動装置132は、モータやアクチュエータを含む。寝台駆動装置132は、被検体Pが載置された天板133を、支持フレーム134に沿って、天板133の長手方向(Z軸方向)に移動させる。天板133は、被検体Pが載置される板状の部材である。 The bed device 130 is a device on which the subject P to be scanned is placed and introduced into the rotating frame 117 of the gantry device 110 . The bed device 130 has, for example, a base 131 , a bed driving device 132 , a top board 133 and a support frame 134 . The base 131 includes a housing that supports the support frame 134 so as to be movable in the vertical direction (Y-axis direction). The bed driving device 132 includes motors and actuators. The bed driving device 132 moves the tabletop 133 on which the subject P is placed in the longitudinal direction (Z-axis direction) of the tabletop 133 along the support frame 134 . The top plate 133 is a plate-like member on which the subject P is placed.

コンソール装置140は、例えば、メモリ141と、ディスプレイ142と、入力インタフェース143と、通信インタフェース144と、処理回路150とを有する。本実施形態では、コンソール装置140は架台装置110とは別体として説明するが、架台装置110にコンソール装置140の各構成要素の一部または全部が含まれてもよい。コンソール装置140は、「医用画像診断装置」の一例である。 Console device 140 has, for example, memory 141 , display 142 , input interface 143 , communication interface 144 , and processing circuitry 150 . In this embodiment, the console device 140 is described as being separate from the gantry device 110 , but the gantry device 110 may include part or all of each component of the console device 140 . The console device 140 is an example of a “medical image diagnostic device”.

メモリ141は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスク等により実現される。また、メモリ141には、ROM(Read Only Memory)やレジスタ等の記憶媒体が含まれてもよい。また、メモリ208には、ROM(Read Only Memory)やレジスタ等の記憶媒体が含まれてもよい。 The memory 141 is implemented by, for example, a RAM (Random Access Memory), a semiconductor memory device such as a flash memory, a hard disk, an optical disk, or the like. The memory 141 may also include a storage medium such as a ROM (Read Only Memory) and a register. The memory 208 may also include a storage medium such as a ROM (Read Only Memory) and a register.

メモリ141は、例えば、検出データや投影データ、再構成画像等を記憶する。これらのデータは、メモリ141ではなく(或いはメモリ141に加えて)、X線CT装置100が通信可能な外部メモリ(例えばNAS(Network Attached Storage)等)に記憶されてもよい。 The memory 141 stores, for example, detection data, projection data, reconstructed images, and the like. These data may be stored not in the memory 141 (or in addition to the memory 141) but in an external memory (for example, NAS (Network Attached Storage) or the like) with which the X-ray CT apparatus 100 can communicate.

更に、メモリ141はモデル情報を記憶する。モデル情報とは、学習済みモデルMDLを定義した情報(プログラムまたはデータ構造)である。学習済みモデルMDLは、典型的には、ある被検体Pの医用画像が入力されると、その被検体Pの診療結果と、寄与度マップとを出力するように学習されたモデルである。 In addition, memory 141 stores model information. Model information is information (program or data structure) that defines a trained model MDL. The learned model MDL is typically a model that has been learned so that when a medical image of a certain subject P is input, the medical results of the subject P and a contribution map are output.

診療結果とは、例えば、被検体Pが特定の疾患にあるのか、そうでないのかということを表していてもよいし、その特定の疾患である蓋然性(特定の疾患であることの尤もらしさ)を表していてもよい。例えば、撮影部位が心臓である場合、特定の疾患は心臓弁の疾患などであってよい。 The medical result may indicate, for example, whether the subject P has a specific disease or not, or the probability of having the specific disease (likelihood of having a specific disease). may be represented. For example, if the imaging region is the heart, the specific disease may be heart valve disease.

また、診療結果は上記に限定されず、例えば、がんの成長率やリハビリの成果率といった測定値を表していてもよいし、医用画像と他検査との非一致度といった比較値を表していてもよいし、予後予測や治療副作用予測といった予測結果を表していてもよいし、それらの派生解析結果を表していてもよい。つまり、本実施形態に係る診療結果には、学習済みモデルMDLが出力可能なあらゆる事象が含まれてよい。 Moreover, the diagnostic results are not limited to the above, and may represent, for example, measured values such as cancer growth rate and rehabilitation success rate, or represent comparative values such as the degree of non-matching between medical images and other examinations. Alternatively, it may represent a prediction result such as prognosis prediction or treatment side effect prediction, or may represent a derived analysis result thereof. In other words, the medical care results according to this embodiment may include all events that can be output by the learned model MDL.

寄与度マップとは、学習済みモデルMDLに入力された医用画像上の各位置に対して、診療結果への寄与度が対応付けられた二次元以上のデータである。例えば、医用画像上において、寄与度が大きい位置(領域)ほど、診療結果に大きな影響を及ぼしていることを意味している。つまり、学習済みモデルMDLから見れば、寄与度が大きい位置(領域)ほど、診療結果を判断するにあたって、より注目していることを意味している。 The contribution map is two-dimensional or more data in which the degree of contribution to the medical result is associated with each position on the medical image input to the trained model MDL. For example, on a medical image, it means that a position (area) with a higher degree of contribution has a greater influence on the medical result. In other words, from the point of view of the learned model MDL, it means that a position (area) with a higher degree of contribution is paid more attention to when judging the medical treatment result.

学習済みモデルMDLは、例えば、CNN(Convolutional Neural Network)などのDNN(Deep Neural Network(s))によって実装されてよい。このようなDNNには、上述した寄与度マップを得るためのアテンション機構が含まれる。 The trained model MDL may be implemented by, for example, a DNN (Deep Neural Network(s)) such as a CNN (Convolutional Neural Network). Such a DNN includes an attention mechanism for obtaining the contribution map described above.

アテンション機構とは、例えば、医用画像上において、各画素が画像全体のどこに位置しているのかということに応じて、その画素に対する注意のかけ方を変更するニューラルネットワークである。例えば、アテンション機構は、CNNの畳み込み層から出力された特徴マップ上の各画素に対して、互いに異なる重みを乗算することで、各画素に対する注意の度合い(つまりアテンション)を、画素ごとに決定する。 An attention mechanism is, for example, a neural network that changes how to pay attention to each pixel in a medical image according to where the pixel is located in the entire image. For example, the attention mechanism multiplies each pixel on the feature map output from the convolutional layer of the CNN by different weights to determine the degree of attention (that is, attention) for each pixel. .

また、学習済みモデルMDLは、アテンション機構を含むようなDNNに限られず、サポートベクターマシンや決定木、単純ベイズ分類器、ランダムフォレストといった他のモデルやアルゴリズムによって実装されてよい。 Also, the trained model MDL is not limited to a DNN that includes an attention mechanism, and may be implemented by other models and algorithms such as support vector machines, decision trees, naive Bayes classifiers, and random forests.

学習済みモデルMDLがDNNによって実装される場合、モデル情報には、例えば、当該DNNを構成する入力層、一以上の隠れ層(中間層)、出力層の其々に含まれるユニット(ユニットあるいはノード)が互いにどのように結合されるのかという結合情報や、結合されたユニット間で入出力されるデータに付与される結合係数がいくつであるのかという重み情報などが含まれる。結合情報は、例えば、各層に含まれるユニット数や、各ユニットの結合先のユニットの種類を指定する情報、各ユニットを実現する活性化関数、隠れ層のユニット間に設けられたゲートなどの情報を含む。ユニットを実現する活性化関数は、例えば、ReLU(Rectified Linear Unit)関数やELU(Exponential Linear Units)関数、クリッピング関数、シグモイド関数、ステップ関数、ハイパポリックタンジェント関数、恒等関数などであってよい。ゲートは、例えば、活性化関数によって返される値(例えば1または0)に応じて、ユニット間で伝達されるデータを選択的に通過させたり、重み付けたりする。結合係数は、例えば、ニューラルネットワークの隠れ層において、ある層のユニットから、より深い層のユニットにデータが出力される際に、出力データに対して付与される重みを含む。また、結合係数は、各層の固有のバイアス成分などを含んでもよい。 When the learned model MDL is implemented by a DNN, the model information includes, for example, the input layer, one or more hidden layers (intermediate layers), and the units (units or nodes ) are combined with each other, and weighting information such as how many coupling coefficients are given to data input/output between the combined units. The connection information includes, for example, the number of units included in each layer, information specifying the type of unit to which each unit is connected, an activation function that realizes each unit, information such as a gate provided between units in the hidden layer. including. The activation function that realizes the unit may be, for example, a ReLU (Rectified Linear Unit) function, an ELU (Exponential Linear Units) function, a clipping function, a sigmoid function, a step function, a hyperpolic tangent function, an identity function, or the like. . A gate selectively passes or weights data communicated between units, for example, depending on the value (eg, 1 or 0) returned by an activation function. A coupling coefficient includes, for example, a weight given to output data when data is output from a unit in a certain layer to a unit in a deeper layer in a hidden layer of a neural network. The coupling coefficients may also include bias components unique to each layer, and the like.

ディスプレイ142は、各種の情報を表示する。例えば、ディスプレイ142は、処理回路150によって生成されたCT画像や、操作者(例えば医者等)による各種操作を受け付けるGUI(Graphical User Interface)等を表示する。ディスプレイ142は、例えば、LCD(Liquid Crystal Display)や、CRT(Cathode Ray Tube)ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等である。ディスプレイ142は、架台装置110に設けられてもよい。ディスプレイ142は、デスクトップ型でもよいし、コンソール装置140の本体部と無線通信可能な表示装置(例えばタブレット端末)であってもよい。 The display 142 displays various information. For example, the display 142 displays a CT image generated by the processing circuit 150, a GUI (Graphical User Interface) for receiving various operations by an operator (for example, a doctor), and the like. The display 142 is, for example, an LCD (Liquid Crystal Display), a CRT (Cathode Ray Tube) display, an organic EL (Electro Luminescence) display, or the like. The display 142 may be provided on the gantry device 110 . The display 142 may be of a desktop type, or may be a display device capable of wireless communication with the main body of the console device 140 (for example, a tablet terminal).

入力インタフェース143は、操作者(例えば医者等)による各種の入力操作を受け付け、受け付けた入力操作の内容を示す電気信号を処理回路150に出力する。例えば、入力インタフェース143は、被検体Pを撮影する際の撮影プロトコル、CT画像を再構成する際の再構成条件、CT画像から後処理画像を生成する際の画像処理条件などの入力操作を受け付ける。例えば、入力インタフェース143は、マウスやキーボード、タッチパネル、ドラッグボール、スイッチ、ボタン、ジョイスティック、フットペダル、カメラ、赤外線センサ、マイク等により実現される。入力インタフェース143は、架台装置110に設けられてもよい。また、入力インタフェース143は、コンソール装置140の本体部と無線通信可能な表示装置(例えばタブレット端末)により実現されてもよい。なお、本明細書において入力インタフェース143はマウス、キーボードなどの物理的な操作部品を備えるものだけに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を制御回路へ出力する電気信号の処理回路も入力インタフェース143の例に含まれる。 The input interface 143 accepts various input operations by an operator (for example, a doctor) and outputs an electrical signal indicating the content of the accepted input operation to the processing circuit 150 . For example, the input interface 143 receives input operations such as an imaging protocol for imaging the subject P, reconstruction conditions for reconstructing a CT image, and image processing conditions for generating a post-processed image from a CT image. . For example, the input interface 143 is implemented by a mouse, keyboard, touch panel, drag ball, switch, button, joystick, foot pedal, camera, infrared sensor, microphone, and the like. The input interface 143 may be provided on the gantry device 110 . Also, the input interface 143 may be realized by a display device (for example, a tablet terminal) capable of wireless communication with the main body of the console device 140 . It should be noted that the input interface 143 in this specification is not limited to those having physical operation parts such as a mouse and a keyboard. For example, the input interface 143 also includes an electrical signal processing circuit that receives an electrical signal corresponding to an input operation from an external input device provided separately from the device and outputs the electrical signal to the control circuit.

通信インタフェース144は、例えば、NIC(Network Interface Card)や無線通信モジュールなどを含む。通信インタフェース144は、通信ネットワークNWを介して、学習装置200やその他の外部装置と通信する。 The communication interface 144 includes, for example, a NIC (Network Interface Card), a wireless communication module, and the like. Communication interface 144 communicates with learning device 200 and other external devices via communication network NW.

処理回路150は、X線CT装置100の全体の動作を制御する。処理回路150は、例えば、システム制御機能151、イメージング条件決定機能152、前処理機能153、再構成処理機能154、画像処理機能155、出力制御機能156などを実行する。処理回路150は、例えば、ハードウェアプロセッサがメモリ141に記憶されたプログラムを実行することにより、これらの機能を実現するものである。前処理機能153及び再構成処理機能154は、「取得部」の一例である。イメージング条件決定機能152は、「決定部」の一例である。 Processing circuit 150 controls the overall operation of X-ray CT apparatus 100 . The processing circuit 150 executes, for example, a system control function 151, an imaging condition determination function 152, a preprocessing function 153, a reconstruction processing function 154, an image processing function 155, an output control function 156, and the like. The processing circuit 150 implements these functions by executing a program stored in the memory 141 by a hardware processor, for example. The preprocessing function 153 and the reconstruction processing function 154 are examples of the "acquisition unit". The imaging condition determination function 152 is an example of a "determination unit".

ハードウェアプロセッサとは、例えば、CPU、GPU(Graphics Processing Unit)、特定用途向け集積回路(Application Specific Integrated Circuit; ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device; SPLD)または複合プログラマブル論理デバイス(Complex Programmable Logic Device; CPLD)、フィールドプログラマブルゲートアレイ(Field Programmable Gate Array; FPGA))等の回路(circuitry)を意味する。 A hardware processor is, for example, a CPU, a GPU (Graphics Processing Unit), an application specific integrated circuit (ASIC), a programmable logic device (e.g., a simple programmable logic device (Simple Programmable Logic Device; SPLD) or Circuitry such as Complex Programmable Logic Device (CPLD), Field Programmable Gate Array (FPGA)).

メモリ141にプログラムを記憶させる代わりに、ハードウェアプロセッサの回路内にプログラムを直接組み込むように構成しても構わない。この場合、ハードウェアプロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。上記のプログラムは、予めメモリ141に格納されていてもよいし、DVDやCD-ROM等の非一時的記憶媒体に格納されており、非一時的記憶媒体がコンソール装置140のドライブ装置(不図示)に装着されることで非一時的記憶媒体からメモリ141にインストールされてもよい。ハードウェアプロセッサは、単一の回路として構成されるものに限らず、複数の独立した回路を組み合わせて1つのハードウェアプロセッサとして構成され、各機能を実現するようにしてもよい。また、複数の構成要素を1つのハードウェアプロセッサに統合して各機能を実現するようにしてもよい。 Instead of storing the program in the memory 141, the program may be directly embedded in the circuitry of the hardware processor. In this case, the hardware processor realizes its function by reading and executing the program embedded in the circuit. The above program may be stored in the memory 141 in advance, or may be stored in a non-temporary storage medium such as a DVD or CD-ROM. ), it may be installed in the memory 141 from a non-transitory storage medium. The hardware processor is not limited to being configured as a single circuit, and may be configured as one hardware processor by combining a plurality of independent circuits to implement each function. Also, a plurality of components may be integrated into one hardware processor to realize each function.

コンソール装置140または処理回路150が有する各構成要素は、分散化されて複数のハードウェアにより実現されてもよい。処理回路150は、コンソール装置140が有する構成ではなく、コンソール装置140と通信可能な別体の処理装置によって実現されてもよい。処理装置は、例えば、X線CT装置100と接続されたワークステーションや、処理回路150と同等の処理を一括して実行可能なクラウドサーバであってよい。 Each component of console device 140 or processing circuit 150 may be distributed and realized by a plurality of pieces of hardware. The processing circuit 150 may be realized by a separate processing device that can communicate with the console device 140 instead of the configuration that the console device 140 has. The processing device may be, for example, a workstation connected to the X-ray CT apparatus 100 or a cloud server capable of collectively executing processing equivalent to that of the processing circuit 150 .

システム制御機能151は、入力インタフェース143が受け付けた入力操作に基づいて、処理回路150の各種機能を制御する。 The system control function 151 controls various functions of the processing circuit 150 based on input operations received by the input interface 143 .

イメージング条件決定機能152は、メモリ141のモデル情報によって定義された学習済みモデルMDLを利用して、医用画像のイメージング条件を決定する。イメージング条件は、例えば、被検体Pを撮影する際の撮影プロトコル、検出データまたは投影データの前処理条件、及びCT画像を再構成する際の再構成条件のうち少なくとも一つが含まれる。 The imaging condition determination function 152 uses the learned model MDL defined by the model information in the memory 141 to determine imaging conditions for medical images. The imaging conditions include, for example, at least one of an imaging protocol for imaging the subject P, preprocessing conditions for detection data or projection data, and reconstruction conditions for reconstructing a CT image.

イメージング条件決定機能152は、入力インタフェース143に対して入力された操作に応じて、医用画像のイメージング条件を決定してもよい。 The imaging condition determination function 152 may determine imaging conditions for medical images according to an operation input to the input interface 143 .

前処理機能153は、DAS116により出力された検出データに対して対数変換処理やオフセット補正処理、チャネル間の感度補正処理、ビームハードニング補正等の前処理を行って、投影データを生成し、生成した投影データをメモリ141に記憶させる。 The preprocessing function 153 performs preprocessing such as logarithmic conversion processing, offset correction processing, inter-channel sensitivity correction processing, and beam hardening correction on the detection data output from the DAS 116 to generate projection data. The projection data thus obtained are stored in the memory 141 .

再構成処理機能154は、前処理機能153によって生成された投影データに対して、フィルタ補正逆投影法や逐次近似再構成法等による再構成処理を行って、医用画像の一つであるCT画像を生成し、生成したCT画像をメモリ141に記憶させる。 The reconstruction processing function 154 performs reconstruction processing on the projection data generated by the preprocessing function 153 using a filtered back projection method, an iterative reconstruction method, or the like, to obtain a CT image, which is one of medical images. and store the generated CT image in the memory 141 .

画像処理機能155は、入力インタフェース143が受け付けた入力操作に基づいて、CT画像を公知の方法により、三次元画像や任意断面の断面像データに変換する。三次元画像への変換は、前処理機能153によって行われてもよい。 The image processing function 155 converts the CT image into a three-dimensional image or cross-sectional image data of an arbitrary cross-section by a known method based on the input operation received by the input interface 143 . Conversion to a three-dimensional image may be performed by preprocessing function 153 .

出力制御機能156は、再構成処理機能154によって再構成処理を通じて生成されたCT画像や、画像処理機能155によって生成された画像(例えば、三次元画像や断面画像)をディスプレイ142に表示させる。また、出力制御機能156は、これら画像を、通信インタフェース144を介して学習装置200やその他外部装置に送信してもよい。 The output control function 156 causes the display 142 to display CT images generated through reconstruction processing by the reconstruction processing function 154 and images generated by the image processing function 155 (eg, three-dimensional images and cross-sectional images). Also, the output control function 156 may transmit these images to the learning device 200 or other external devices via the communication interface 144 .

また、出力制御機能156は、メモリ141のモデル情報によって定義された学習済みモデルMDLを利用して、被検体Pの診療結果をディスプレイ142に表示させる。 Also, the output control function 156 uses the learned model MDL defined by the model information in the memory 141 to display the diagnostic results of the subject P on the display 142 .

[学習装置の構成]
図3は、実施形態における学習装置200の構成例を表す図である。学習装置200は、例えば、通信インタフェース202と、入力インタフェース204と、ディスプレイ206と、メモリ208と、処理回路210とを備える。
[Configuration of learning device]
FIG. 3 is a diagram showing a configuration example of the learning device 200 according to the embodiment. Learning device 200 includes, for example, communication interface 202 , input interface 204 , display 206 , memory 208 , and processing circuitry 210 .

通信インタフェース202は、例えば、NICや無線通信モジュールなどを含む。通信インタフェース202は、通信ネットワークNWを介して、X線CT装置100やその他の外部装置と通信する。 The communication interface 202 includes, for example, a NIC and a wireless communication module. The communication interface 202 communicates with the X-ray CT apparatus 100 and other external devices via the communication network NW.

入力インタフェース204は、操作者による各種の入力操作を受け付け、受け付けた入力操作の内容を示す電気信号を処理回路210に出力する。例えば、入力インタフェース204は、マウスやキーボード、タッチパネル、ドラッグボール、スイッチ、ボタン、ジョイスティック、フットペダル、カメラ、赤外線センサ、マイク等により実現される。なお、本明細書において入力インタフェース204はマウス、キーボードなどの物理的な操作部品を備えるものだけに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を制御回路へ出力する電気信号の処理回路も入力インタフェース204の例に含まれる。 The input interface 204 accepts various input operations by the operator and outputs an electrical signal indicating the content of the accepted input operation to the processing circuit 210 . For example, the input interface 204 is implemented by a mouse, keyboard, touch panel, drag ball, switch, button, joystick, foot pedal, camera, infrared sensor, microphone, and the like. It should be noted that the input interface 204 in this specification is not limited to having physical operation components such as a mouse and keyboard. For example, the input interface 204 also includes an electrical signal processing circuit that receives an electrical signal corresponding to an input operation from an external input device provided separately from the device and outputs the electrical signal to the control circuit.

ディスプレイ206は、各種の情報を表示する。例えば、ディスプレイ206は、処理回路210の処理結果や、操作者による各種操作を受け付けるGUI等を表示する。ディスプレイ206は、例えば、LCDや有機ELディスプレイ等である。 The display 206 displays various information. For example, the display 206 displays a processing result of the processing circuit 210, a GUI for receiving various operations by the operator, and the like. The display 206 is, for example, an LCD, an organic EL display, or the like.

メモリ208は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、ハードディスク、光ディスクによって実現される。これらの記憶媒体は、NASや外部ストレージサーバ装置といった通信ネットワークNWを介して接続される他の記憶装置によって実現されてもよい。また、メモリ208には、ROMやレジスタ等の記憶媒体が含まれてもよい。 The memory 208 is implemented by, for example, a RAM, a semiconductor memory device such as a flash memory, a hard disk, or an optical disk. These storage media may be realized by other storage devices such as NAS and external storage server devices connected via the communication network NW. The memory 208 may also include storage media such as ROMs and registers.

処理回路210は、例えば、取得機能212と、学習機能214と、出力制御機能216とを備える。処理回路210は、例えば、ハードウェアプロセッサ(コンピュータ)がメモリ208に記憶されたプログラムを実行することにより、これらの機能を実現するものである。 Processing circuitry 210 includes, for example, an acquisition function 212 , a learning function 214 , and an output control function 216 . The processing circuit 210 implements these functions by executing a program stored in the memory 208 by a hardware processor (computer), for example.

ハードウェアプロセッサとは、例えば、CPU、GPU、特定用途向け集積回路、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイスまたは複合プログラマブル論理デバイス、フィールドプログラマブルゲートアレイ)等の回路(circuitry)を意味する。メモリ208にプログラムを記憶させる代わりに、ハードウェアプロセッサの回路内にプログラムを直接組み込むように構成しても構わない。この場合、ハードウェアプロセッサは、回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。上記のプログラムは、予めメモリ208に格納されていてもよいし、DVDやCD-ROM等の非一時的記憶媒体に格納されており、非一時的記憶媒体が学習装置200のドライブ装置(不図示)に装着されることで非一時的記憶媒体からメモリ208にインストールされてもよい。ハードウェアプロセッサは、単一の回路として構成されるものに限らず、複数の独立した回路を組み合わせて1つのハードウェアプロセッサとして構成され、各機能を実現するようにしてもよい。また、複数の構成要素を1つのハードウェアプロセッサに統合して各機能を実現するようにしてもよい。 Hardware processor means circuitry such as, for example, CPUs, GPUs, application specific integrated circuits, programmable logic devices (eg, simple or complex programmable logic devices, field programmable gate arrays). Instead of storing the program in memory 208, the program may be configured to be directly embedded within the circuitry of a hardware processor. In this case, the hardware processor implements its functions by reading and executing the program embedded in the circuit. The above program may be stored in the memory 208 in advance, or may be stored in a non-temporary storage medium such as a DVD or CD-ROM. ) may be installed into memory 208 from a non-transitory storage medium. The hardware processor is not limited to being configured as a single circuit, and may be configured as one hardware processor by combining a plurality of independent circuits to implement each function. Also, a plurality of components may be integrated into one hardware processor to realize each function.

取得機能212は、通信インタフェース202を介して、X線CT装置100からCT画像を取得する。このCT画像には、予め医師などが判断した診療結果(正解として扱われる診療結果)がラベルとして対応付けられているものとする。CT画像に対応付けられた診療結果はターゲットとも呼ばれる。つまり、取得機能212は、CT画像に対して正解の診療結果が対応付けられた教師データを取得する。 Acquisition function 212 acquires a CT image from X-ray CT apparatus 100 via communication interface 202 . Assume that the CT image is associated as a label with a medical result determined in advance by a doctor or the like (a medical result treated as a correct answer). A medical result associated with a CT image is also called a target. That is, the acquisition function 212 acquires teacher data in which a correct medical result is associated with a CT image.

学習機能214は、取得機能212によって取得された教師データを用いて、未学習のモデルMDLを学習する。 The learning function 214 uses the teacher data acquired by the acquisition function 212 to learn the unlearned model MDL.

出力制御機能216は、学習機能214によって学習されたモデルMDL、すなわち学習済みモデルMDLを定義したモデル情報を、通信インタフェース202を介して、X線CT装置100に送信する。 The output control function 216 transmits model information defining the model MDL learned by the learning function 214 , that is, the learned model MDL, to the X-ray CT apparatus 100 via the communication interface 202 .

[医用画像診断システムの全体フロー(トレーニング)]
以下、実施形態における医用画像診断システム1の一連の処理について説明する。図4は、実施形態における医用画像診断システム1によるトレーニング時の一連の処理の流れを表すフローチャートである。
[Overall Flow of Medical Image Diagnosis System (Training)]
A series of processes of the medical image diagnostic system 1 according to the embodiment will be described below. FIG. 4 is a flow chart showing a series of processing during training by the medical image diagnostic system 1 according to the embodiment.

まず、X線CT装置100のイメージング条件決定機能152は、被検体PのCT画像のイメージング条件を決定する(ステップS100)。 First, the imaging condition determination function 152 of the X-ray CT apparatus 100 determines imaging conditions for a CT image of the subject P (step S100).

例えば、イメージング条件決定機能152は、入力インタフェース143に対して入力された設定、つまり、撮影スタッフなどが入力インタフェース143に入力した設定に従って、被検体Pの撮影プロトコルを決定してよい。 For example, the imaging condition determination function 152 may determine the imaging protocol for the subject P according to the settings input to the input interface 143, that is, the settings input to the input interface 143 by the imaging staff or the like.

次に、X線CT装置100のシステム制御機能151は、イメージング条件決定機能152によって決定された撮影プロトコル等のイメージング条件に基づいて、処理回路150の各種機能を制御することで、被検体Pをスキャンする(ステップS102)。 Next, the system control function 151 of the X-ray CT apparatus 100 controls the various functions of the processing circuit 150 based on the imaging conditions such as the imaging protocol determined by the imaging condition determination function 152, thereby controlling the subject P. Scan (step S102).

次に、X線CT装置100の前処理機能153及び再構成処理機能154は、被検体PのCT画像を生成する(ステップS104)。例えば、前処理機能153は、DAS116により出力された検出データに基づいて、投影データを生成する。再構成処理機能154は、前処理機能153によって生成された投影データに対して再構成処理を行うことで、被検体PのCT画像を生成する。S104で生成されるCT画像は、二次元画像であってもよいし、三次元画像であってもよい。 Next, the preprocessing function 153 and the reconstruction processing function 154 of the X-ray CT apparatus 100 generate a CT image of the subject P (step S104). For example, preprocessing function 153 generates projection data based on the detected data output by DAS 116 . The reconstruction processing function 154 generates a CT image of the subject P by performing reconstruction processing on the projection data generated by the preprocessing function 153 . The CT image generated in S104 may be a two-dimensional image or a three-dimensional image.

システム制御機能151は、入力インタフェース143を介して、被検体PのCT画像に対する診療結果を取得する(ステップS106)。例えば、システム制御機能151は、被検体PのCT画像が生成されると、そのCT画像を出力するよう出力制御機能156に指示する。これを受けて出力制御機能156は、ディスプレイ142にCT画像を表示させる。例えば、医師がディスプレイ142上のCT画像を見て、被検体Pの疾患の有無などを判断し、その情報を入力インタフェース143に入力する。システム制御機能151は、入力インタフェース143に対して入力された情報を、診療結果として取得する。そして、システム制御機能151は、被検体PのCT画像と、その被検体Pの診療結果とを組み合わせたデータセットを教師データとしてメモリ141に記憶させる。 The system control function 151 acquires the diagnostic result of the CT image of the subject P via the input interface 143 (step S106). For example, when the CT image of the subject P is generated, the system control function 151 instructs the output control function 156 to output the CT image. In response to this, the output control function 156 causes the display 142 to display the CT image. For example, a doctor looks at the CT image on the display 142 to determine whether the subject P has a disease or not, and inputs the information to the input interface 143 . The system control function 151 acquires the information input to the input interface 143 as medical treatment results. Then, the system control function 151 causes the memory 141 to store a data set in which the CT image of the subject P and the medical treatment result of the subject P are combined as teacher data.

次に、学習装置200の取得機能212は、通信インタフェース202を介して、一つ又は複数のX線CT装置100の其々から、教師データを取得する(ステップS108)。 Next, the acquisition function 212 of the learning device 200 acquires teacher data from each of one or more X-ray CT apparatuses 100 via the communication interface 202 (step S108).

次に、学習装置200の学習機能214は、取得機能212によって教師データとして取得された複数のCT画像の位置合わせを行う(ステップS110)。 Next, the learning function 214 of the learning device 200 aligns the plurality of CT images acquired as teacher data by the acquisition function 212 (step S110).

次に、学習機能214は、教師データを用いて未学習のモデルMDLを学習する(ステップS112)。 Next, the learning function 214 learns an unlearned model MDL using teacher data (step S112).

例えば、学習機能214は、未学習のモデルMDLに対してCT画像を入力し、そのモデルMDLによって出力された診療結果が、正解の診療結果(ターゲットの診療結果)に近づくように、モデルMDLのパラメータ(重み係数やバイアス成分等)を調整する。診療結果は、例えば、特定の疾患の有無を示すベクトルや、その蓋然性(尤度)を示すベクトルとして表現されてよい。学習機能214は、モデルMDLによって出力された診療結果のベクトルと、ターゲットである診療結果のベクトルとの差分が小さくなるように、モデルMDLのパラメータを、SGD(Stochastic Gradient Descent)、Momentum SGD、AdaGrad、RMSprop、AdaDelta、Adam(Adaptive moment estimation)などを利用して調整する。 For example, the learning function 214 inputs a CT image to an unlearned model MDL, and adjusts the model MDL so that the medical care result output by the model MDL approaches the correct medical care result (target medical care result). Adjust parameters (weighting factors, bias components, etc.). A medical result may be represented, for example, as a vector indicating the presence or absence of a specific disease or a vector indicating its probability (likelihood). The learning function 214 sets parameters of the model MDL to SGD (Stochastic Gradient Descent), Momentum SGD, and AdaGrad so that the difference between the vector of the medical care result output by the model MDL and the vector of the target medical care result is small. , RMSprop, AdaDelta, Adam (Adaptive moment estimation), etc.

次に、学習機能214は、学習済みモデルMDLに対して位置合わせを行ったCT画像を入力し、学習済みモデルMDLから寄与度マップを取得する(ステップS114)。 Next, the learning function 214 inputs the CT image aligned with the trained model MDL, and acquires the contribution map from the trained model MDL (step S114).

例えば、CT画像が二次元画像である場合、寄与度マップは、二次元データであってよく、CT画像が三次元画像である場合、寄与度マップは、三次元データであってよい。また、寄与度マップは、CT画像上の各位置に寄与度が時系列に対応付けられた時系列データであってもよい。 For example, if the CT image is a two-dimensional image, the contribution map may be two-dimensional data, and if the CT image is a three-dimensional image, the contribution map may be three-dimensional data. Also, the contribution map may be time-series data in which contribution is associated with each position on the CT image in time series.

これを受けて出力制御機能216は、通信インタフェース202を介して、X線CT装置100に、寄与度マップと学習済みモデルMDLのモデル情報を送信する。これによって本フローチャートの処理(トレーニングの処理)が終了する。 In response, the output control function 216 transmits the contribution map and model information of the learned model MDL to the X-ray CT apparatus 100 via the communication interface 202 . This completes the processing (training processing) of this flowchart.

図5は、トレーニング時における寄与度マップの取得方法を説明するための図である。例えば、被検体P1、P2、P3の三人のCT画像が得られたとする。この場合、学習機能214は、三枚のCT画像を重ねたときに、ある特徴的な部位が一致するように位置合わせを行う。例えば、全CT画像が上半身をスキャンしたときに得られた画像であるとする。この場合、学習機能214は、肩の肩甲骨といった特徴的な部位が同位置となるように三枚のCT画像の位置を合わせてよい。 FIG. 5 is a diagram for explaining a method of obtaining a contribution map during training. For example, assume that CT images of three subjects P1, P2, and P3 are obtained. In this case, the learning function 214 aligns the three CT images so that certain characteristic regions match when the three CT images are superimposed. For example, assume that the full CT image is an image obtained when scanning the upper body. In this case, the learning function 214 may align the positions of the three CT images so that the characteristic parts such as the scapula of the shoulder are at the same position.

学習機能214は、複数のCT画像の位置合わせを行うと、それら複数のCT画像を一つに合成した画像を学習済みモデルMDLに入力したり、又は複数のCT画像の中で代表的な一枚のCT画像を学習済みモデルMDLに入力したりする。上述したように、学習済みモデルMDLは、CT画像が入力されると、寄与度マップと診療結果を出力する。この寄与度マップは、後述のランタイムにおいてイメージング条件(撮影プロトコルなど)を決定する際に利用される。図中の寄与度マップにおいて、色が濃い部分(黒に近い部分)は寄与度が高い部分を表しており、色が薄い部分(白に近い部分)は寄与度が低い部分を表している。 After aligning the plurality of CT images, the learning function 214 inputs an image obtained by synthesizing the plurality of CT images into one into a trained model MDL, or selects a representative one of the plurality of CT images. CT images are input to the trained model MDL. As described above, the learned model MDL outputs a contribution map and medical care results when a CT image is input. This contribution map is used when determining imaging conditions (imaging protocol, etc.) at runtime, which will be described later. In the contribution map in the figure, dark-colored portions (close to black) represent high-contribution portions, and light-colored portions (close to white) represent low-contribution portions.

[医用画像診断システムの全体フロー(ランタイム)]
以下、実施形態における医用画像診断システム1の一連の処理について説明する。図6は、実施形態における医用画像診断システム1によるランタイムの一連の処理の流れを表すフローチャートである。ここでいうランタイムとは、学習済みモデルMDLを利用した診療結果の推定処理を実行することを意味する。
[Overall Flow of Medical Image Diagnosis System (Runtime)]
A series of processes of the medical image diagnostic system 1 according to the embodiment will be described below. FIG. 6 is a flow chart showing the flow of a series of runtime processes by the medical image diagnostic system 1 according to the embodiment. The term "runtime" as used herein means executing the process of estimating medical care results using the learned model MDL.

まず、X線CT装置100のシステム制御機能151は、任意のイメージング条件に基づいて、処理回路150の各種機能を制御することで、これから診療する被検体P´をスキャンする(ステップS200)。ランタイムにスキャンする被検体P´は、トレーニング時にスキャンした被検体Pと同じであってもよいし、異なっていてもよい。S200のスキャンは、例えば、本スキャン撮影前に行うスキャノ撮影などであってよい。 First, the system control function 151 of the X-ray CT apparatus 100 controls various functions of the processing circuit 150 based on arbitrary imaging conditions to scan the subject P' to be diagnosed (step S200). The subject P′ scanned at runtime may be the same as or different from the subject P scanned during training. The scan in S200 may be, for example, scanography performed before main scan imaging.

次に、X線CT装置100の前処理機能153及び再構成処理機能154は、被検体P´のCT画像を生成する(ステップS202)。例えば、前処理機能153は、DAS116により出力された検出データに基づいて、投影データを生成する。再構成処理機能154は、前処理機能153によって生成された投影データに対して再構成処理を行うことで、被検体P´のCT画像を生成する。S202で生成されるCT画像は、寄与度マップとの位置合わせに利用されるためのものであり、学習済みモデルMDLに入力して診療結果を得るためのものでない。従って、学習済みモデルMDLに入力するCT画像が三次元画像であっても、S202の処理では、二次元画像(二次元投影静止画像)のCT画像が生成されてよい。 Next, the preprocessing function 153 and the reconstruction processing function 154 of the X-ray CT apparatus 100 generate a CT image of the subject P' (step S202). For example, preprocessing function 153 generates projection data based on the detected data output by DAS 116 . The reconstruction processing function 154 performs reconstruction processing on the projection data generated by the preprocessing function 153 to generate a CT image of the subject P'. The CT image generated in S202 is used for alignment with the contribution map, and is not input to the trained model MDL to obtain medical results. Therefore, even if the CT image input to the trained model MDL is a three-dimensional image, a CT image of a two-dimensional image (two-dimensional projection still image) may be generated in the processing of S202.

次に、X線CT装置100のイメージング条件決定機能152は、トレーニング時に学習装置200により送信された寄与度マップに基づいて、被検体P´のCT画像に対して寄与度マップの位置合わせを行う(ステップS204)。 Next, the imaging condition determination function 152 of the X-ray CT apparatus 100 aligns the contribution map with the CT image of the subject P' based on the contribution map transmitted by the learning device 200 during training. (Step S204).

例えば、イメージング条件決定機能152は、被検体P´のCT画像上の特徴的な部位に対して寄与度マップ上の特徴的な部位が一致するように、寄与度マップに対して拡大、縮小、回転、シフト移動といった画像処理を行う。これによって被検体P´のCT画像に対して寄与度マップの位置合わせが行われる。以下、被検体P´のCT画像に対して位置合わせを行った寄与度マップのことを「位置補正後寄与度マップ」と称して説明する。 For example, the imaging condition determination function 152 enlarges, shrinks, or scales the contribution map so that the characteristic part on the contribution map matches the characteristic part on the CT image of the subject P′. Performs image processing such as rotation and shift movement. As a result, the contribution map is aligned with the CT image of the subject P'. Hereinafter, the contribution map that is aligned with the CT image of the subject P' will be referred to as a "position-corrected contribution map".

次に、イメージング条件決定機能152は、位置補正後寄与度マップに基づいて、被検体P´のCT画像の新たなイメージング条件を決定する(ステップS206)。 Next, the imaging condition determination function 152 determines new imaging conditions for the CT image of the subject P' based on the position-corrected contribution map (step S206).

例えば、イメージング条件決定機能152は、寄与度が低い領域についてはX線の線量を低くし、寄与度が高い領域についてはX線の線量を高くするような撮影プロトコルを決定してよい。これによって、被検体P´の被ばく量を低減させながら、被検体P´のCT画像の品質(SN比)を向上させることができる。 For example, the imaging condition determination function 152 may determine an imaging protocol that lowers the dose of X-rays for regions with low contribution and increases the dose of X-rays for regions with high contribution. As a result, the quality (SN ratio) of the CT image of the subject P' can be improved while reducing the exposure dose of the subject P'.

また、例えば、イメージング条件決定機能152は、寄与度が低い領域についてはX線の照射時間を短くし、寄与度が高い領域についてはX線の照射時間を長くするような撮影プロトコルを決定してよい。照射時間は、例えば、X線の照射パルスの幅であってもよいし、積分時間であってもよい。これによって、被検体P´の被ばく量を低減させながら、被検体P´のCT画像の品質(SN比)を向上させることができる。 Further, for example, the imaging condition determination function 152 determines an imaging protocol that shortens the X-ray irradiation time for regions with low contribution and lengthens the X-ray irradiation time for regions with high contribution. good. The irradiation time may be, for example, the width of the X-ray irradiation pulse or the integration time. As a result, the quality (SN ratio) of the CT image of the subject P' can be improved while reducing the exposure dose of the subject P'.

また、例えば、イメージング条件決定機能152は、寄与度が高い領域に対して照射したX線については高精細なX線検出器115によって検出させるような撮影プロトコルを決定してよい。これによって、寄与度が高い領域の空間分解能が向上する。 Also, for example, the imaging condition determination function 152 may determine an imaging protocol such that the high-definition X-ray detector 115 detects X-rays irradiated to a region with a high degree of contribution. This improves the spatial resolution of regions with high contribution.

また、例えば、イメージング条件決定機能152は、寄与度が高い領域と低い領域との境界に空間フィルタ(例えばメディアンフィルタ等)を入れるような撮影プロトコルを決定してよい。これによって、画像ノイズを低減することができるため、被検体P´のCT画像の品質を向上させることができる。 Also, for example, the imaging condition determination function 152 may determine an imaging protocol that includes a spatial filter (for example, a median filter or the like) at the boundary between a high-contribution area and a low-contribution area. As a result, image noise can be reduced, and the quality of the CT image of the subject P' can be improved.

また、例えば、イメージング条件決定機能152は、寄与度が低い領域についてはフォトンカウンティングにおけるエネルギーBINを荒くし、寄与度が高い領域についてはエネルギーBINを細かくするような撮影プロトコルを決定してよい。これによって、エネルギー分解能を向上させることができる。 Also, for example, the imaging condition determination function 152 may determine an imaging protocol that roughens the energy BIN in photon counting for regions with a low degree of contribution and refines the energy BIN for regions with a high degree of contribution. This can improve energy resolution.

また、例えば、イメージング条件決定機能152は、寄与度が低い領域についてはX線管111の電流又は電圧を小さくし、寄与度が高い領域についてはX線管111の電流又は電圧を大きくするような撮影プロトコルを決定してよい。これによって、被検体P´のCT画像の品質(SN比)を向上させることができる。 Further, for example, the imaging condition determination function 152 reduces the current or voltage of the X-ray tube 111 for regions with low contribution and increases the current or voltage of the X-ray tube 111 for regions with high contribution. An imaging protocol may be determined. Thereby, the quality (SN ratio) of the CT image of the subject P' can be improved.

次に、システム制御機能151は、イメージング条件決定機能152によって決定されたイメージング条件に基づいて処理回路150の各種機能を制御することで、被検体P´を再度スキャンする(ステップS208)。S208のスキャンは、本スキャンであってよい。 Next, the system control function 151 scans the subject P' again by controlling various functions of the processing circuit 150 based on the imaging conditions determined by the imaging condition determination function 152 (step S208). The scan in S208 may be the main scan.

次に、前処理機能153及び再構成処理機能154は、被検体P´のCT画像を生成する(ステップS210)。 Next, the preprocessing function 153 and the reconstruction processing function 154 generate a CT image of the subject P' (step S210).

次に、出力制御機能156は、S210で生成された被検体P´のCT画像を、学習済みモデルMDLに入力する(ステップS212)。 Next, the output control function 156 inputs the CT image of the subject P' generated in S210 to the learned model MDL (step S212).

次に、出力制御機能156は、被検体P´のCT画像を入力した学習済みモデルMDLから、被検体P´の診療結果と寄与度マップを取得する(ステップS214)。 Next, the output control function 156 acquires the medical treatment result and contribution map of the subject P' from the learned model MDL to which the CT image of the subject P' is input (step S214).

次に、出力制御機能156は、撮影プロトコルなどを参照して、被検体P´のスキャンが継続されるか否かを判定し(ステップS216)、被検体P´のスキャンが継続されない場合、被検体P´の診療結果をディスプレイ142に表示させて、本フローチャートの処理(ランタイムの処理)を終了させる。 Next, the output control function 156 refers to the imaging protocol or the like to determine whether or not scanning of the subject P' is to be continued (step S216). The medical care result of the sample P' is displayed on the display 142, and the processing of this flowchart (runtime processing) is terminated.

図7から図9は、寄与度マップを用いたイメージング条件の決定方法を模式的に表す図である。例えば、イメージング条件決定機能152は、図7に表すように、トレーニング時に得られた寄与度マップを用いて、イメージング条件の一つである撮像プロトコル(撮像条件)を決定してよい。 7 to 9 are diagrams schematically showing a method of determining imaging conditions using a contribution map. For example, the imaging condition determination function 152 may determine an imaging protocol (imaging condition), which is one of the imaging conditions, using a contribution map obtained during training, as shown in FIG.

また、イメージング条件決定機能152は、図8に表すように、トレーニング時に得られた寄与度マップを用いて、イメージング条件の一つである前処理条件(対数変換処理、オフセット補正処理、チャネル間の感度補正処理、ビームハードニング補正といった各種前処理に関する条件)を決定してもよい。また、イメージング条件決定機能152は、図9に表すように、トレーニング時に得られた寄与度マップを用いて、イメージング条件の一つである再構成条件を決定してもよい。 In addition, as shown in FIG. 8, the imaging condition determination function 152 uses the contribution map obtained during training to determine preprocessing conditions (logarithmic transformation processing, offset correction processing, inter-channel conditions for various pre-processing such as sensitivity correction processing and beam hardening correction) may be determined. In addition, the imaging condition determination function 152 may determine a reconstruction condition, which is one of the imaging conditions, using a contribution map obtained during training, as shown in FIG.

[寄与度マップの位置合わせの方法;その1]
図10は、寄与度マップの位置合わせの方法を説明するための図である。例えば、P1、P2、P3、といった不特定多数の被検体Pの其々のCT画像を基に学習済みモデルMDLが作成され、その学習済みモデルMDLを利用して寄与度マップが生成されたとする。一方で、X線CT装置100の撮像系の再現性がハードウェア的に高い場合がある。このような場合、不特定多数の被検体P由来の寄与度マップの位置合わせは不要となる。つまり、寄与度マップを位置合わせするために被検体P´をスキャンする必要がなくなる。したがって、イメージング条件決定機能152は、ランタイムにおいてS204の処理を省略し、トレーニング時に学習装置200により送信された寄与度マップに基づいて、被検体P´のCT画像の新たなイメージング条件を決定してよい。
[How to align contribution maps; Part 1]
FIG. 10 is a diagram for explaining a method of aligning contribution maps. For example, assume that a learned model MDL is created based on CT images of an unspecified number of subjects P such as P1, P2, and P3, and a contribution map is generated using the learned model MDL. . On the other hand, the reproducibility of the imaging system of the X-ray CT apparatus 100 may be high in terms of hardware. In such a case, registration of contribution maps derived from an unspecified number of subjects P is unnecessary. This eliminates the need to scan the subject P' to align the contribution maps. Therefore, the imaging condition determination function 152 omits the processing of S204 at runtime, and determines new imaging conditions for the CT image of the subject P' based on the contribution map transmitted by the learning device 200 during training. good.

[寄与度マップの位置合わせの方法;その2]
図11は、寄与度マップの位置合わせの方法を説明するための図である。図10の例とは反対に、X線CT装置100の撮像系の再現性がハードウェア的に低い場合がある。撮像系とは、X線管111、ウェッジ112、コリメータ113、X線検出器115、回転フレーム117などである。このような場合、イメージング条件決定機能152は、ランタイムにおいて寄与度マップの位置合わせを行う。例えば、イメージング条件決定機能152は、スキャノ撮影で得た二次元CT画像や、三次元CT画像の1枚目などを用いて、P1、P2、P3、といった不特定多数の被検体P由来の寄与度マップの位置合わせを行ってよい。そして、イメージング条件決定機能152は、被検体P´のCT画像に対して位置合わせを行った寄与度マップ、つまり、位置補正後寄与度マップに基づいて、被検体P´のCT画像の新たなイメージング条件を決定する。
[Method of Aligning Contribution Maps; Part 2]
FIG. 11 is a diagram for explaining a method of aligning contribution maps. Contrary to the example of FIG. 10, the reproducibility of the imaging system of the X-ray CT apparatus 100 may be low in terms of hardware. The imaging system includes the X-ray tube 111, wedge 112, collimator 113, X-ray detector 115, rotating frame 117, and the like. In such cases, the imaging condition determination function 152 aligns the contribution maps at runtime. For example, the imaging condition determination function 152 uses a two-dimensional CT image obtained by scanography, the first three-dimensional CT image, or the like to determine the contribution from an unspecified number of subjects P, such as P1, P2, and P3. Alignment of the degree map may be performed. Then, the imaging condition determination function 152 creates a new CT image of the subject P′ based on the contribution map obtained by positioning the CT image of the subject P′, that is, the position-corrected contribution map. Determine imaging conditions.

[寄与度マップの位置合わせの方法;その3]
図12は、寄与度マップの位置合わせの方法を説明するための図である。図示のように、イメージング条件決定機能152は、被検体P1、P2、P3といった不特定多数の被検体P由来の寄与度マップと、被検体P´由来の寄与度マップとを組み合わせて、被検体P´のCT画像の新たなイメージング条件を決定してもよい。不特定多数の被検体P由来の寄与度マップは「第1マップ」の一例であり、被検体P´由来の寄与度マップは「第2マップ」の一例である。
[How to align contribution maps; Part 3]
FIG. 12 is a diagram for explaining a method of aligning contribution maps. As illustrated, the imaging condition determination function 152 combines contribution maps derived from an unspecified number of subjects P, such as subjects P1, P2, and P3, and contribution maps derived from the subject P′, and determines the subject A new imaging condition for the CT image of P' may be determined. The contribution map derived from the unspecified number of subjects P is an example of the "first map", and the contribution map derived from the subject P' is an example of the "second map".

図6のランタイムのフローチャートでは、S216の処理においてスキャンが継続される場合、S204に処理が戻る。この際、イメージング条件決定機能152は、不特定多数の被検体P由来の寄与度マップと、被検体P´由来の寄与度マップ(S214の処理で得られた寄与度マップ)とを合成し、その合成した寄与度マップ(「第3マップ」の一例)に基づいてイメージング条件を決定してよい。不特定多数の被検体P由来の寄与度マップと、被検体P´由来の寄与度マップとの合成比率は、例えば、1対3のように、被検体P由来の寄与度マップに比べて、被検体P´由来の寄与度マップの重みを大きくしてよい。これによって、被検体P´により適合したイメージング条件を決定することができる。 In the runtime flowchart of FIG. 6, when scanning is continued in the process of S216, the process returns to S204. At this time, the imaging condition determination function 152 synthesizes the contribution map derived from the unspecified number of subjects P and the contribution map derived from the subject P' (the contribution map obtained in the process of S214), Imaging conditions may be determined based on the combined contribution map (an example of a “third map”). The composite ratio of the contribution map derived from the unspecified number of subjects P and the contribution map derived from the subject P' is, for example, 1:3, compared to the contribution map derived from the subject P, The weight of the contribution map derived from the subject P' may be increased. This makes it possible to determine imaging conditions more suitable for the subject P'.

[寄与度マップの位置合わせの方法;その4]
図13は、寄与度マップの位置合わせの方法を説明するための図である。図示のように、イメージング条件決定機能152は、被検体P´由来の過去の寄与度マップを組み合わせて、被検体P´のCT画像の新たなイメージング条件を決定してもよい。例えば、一年前、二年前、三年前のそれぞれにおいて被検体P´由来の寄与度マップが得られていたとする。この場合、イメージング条件決定機能152は、これら三枚の被検体P´由来の寄与度マップを合成し、その合成した寄与度マップに基づいてイメージング条件を決定してよい。合成比率は、例えば、一年前:二年前:三年前=5:3:1のようにしてよい。つまり、時刻が新しい寄与度マップほど重みを大きくしてよい。これによって、現在の被検体P´により適合したイメージング条件を決定することができる。
[Method of Aligning Contribution Maps; Part 4]
FIG. 13 is a diagram for explaining a method of aligning contribution maps. As shown, the imaging condition determination function 152 may combine past contribution maps derived from the subject P' to determine new imaging conditions for CT images of the subject P'. For example, it is assumed that the contribution map derived from the subject P' was obtained one year ago, two years ago, and three years ago. In this case, the imaging condition determination function 152 may synthesize these three contribution maps derived from the subject P' and determine the imaging conditions based on the synthesized contribution maps. The synthesis ratio may be, for example, one year ago: two years ago: three years ago=5:3:1. That is, the weight may be increased for a contribution degree map with a newer time. This makes it possible to determine imaging conditions more suitable for the current subject P'.

[イメージング条件の決定方法;その1]
図14は、イメージング条件の決定方法を説明するための図である。例えば、イメージング条件決定機能152は、寄与度マップに基づいて、撮影角度を決定してよい。具体的には、イメージング条件決定機能152は、図示のように、寝台に寝ている被検体P´の正面に対して照射するX線の線量を多くし、被検体P´の側面に対して照射するX線の線量を少なくするような撮影プロトコルを決定してよい。
[Method for determining imaging conditions; Part 1]
FIG. 14 is a diagram for explaining a method of determining imaging conditions. For example, the imaging condition determination function 152 may determine the imaging angle based on the contribution map. Specifically, as shown in the figure, the imaging condition determination function 152 increases the dose of X-rays irradiated to the front of the subject P' lying on the bed, and An imaging protocol may be determined that reduces the dose of X-rays to be delivered.

[イメージング条件の決定方法;その2]
図15は、イメージング条件の決定方法を説明するための図である。例えば、寄与度マップ上において、寄与度が高い部分(濃い部分)が複数の箇所に離れて存在することもある。この場合、イメージング条件決定機能152は、図示のように、寝台に寝ている被検体P´に対して斜めから線量の高いX線を照射するような撮影プロトコルを決定してよい。
[Method for determining imaging conditions; Part 2]
FIG. 15 is a diagram for explaining a method of determining imaging conditions. For example, on the contribution map, portions with a high degree of contribution (dark portions) may be separated at multiple locations. In this case, the imaging condition determination function 152 may determine an imaging protocol such that the subject P' lying on the bed is obliquely irradiated with high-dose X-rays, as shown in the drawing.

[イメージング条件の決定方法;その3]
図16は、イメージング条件の決定方法を説明するための図である。例えば、イメージング条件決定機能152は、撮像系の回転に合わせて撮影プロトコルを変更してよい。具体的には、あるサンプリング時刻kにおいて、X線管111(k)からX線が照射され、そのX線がX線検出器115(k)により検出されたとする。この場合、処理回路150は、X線検出器115(k)により検出されたX線の検出データを基にCT画像を生成し、さらにそのCT画像を学習済みモデルMDLに入力することで、時刻kにおける寄与度マップを生成する。イメージング条件決定機能152は、時刻kにおける寄与度マップを基に、次の時刻k+1の撮影プロトコルを決定する。この結果、時刻k+1においてX線管111(k+1)から照射されるX線の線量が決定されたり、X線を照射する際のX線管111(k+1)及びX線検出器115(k+1)の位置が決定されたりする。
[Method for determining imaging conditions; Part 3]
FIG. 16 is a diagram for explaining a method of determining imaging conditions. For example, the imaging condition determination function 152 may change the imaging protocol according to the rotation of the imaging system. Specifically, at a certain sampling time k, X-rays are emitted from the X-ray tube 111(k) and the X-rays are detected by the X-ray detector 115(k). In this case, the processing circuit 150 generates a CT image based on the X-ray detection data detected by the X-ray detector 115(k), and inputs the CT image to the trained model MDL to obtain the time Generate a contribution map at k. The imaging condition determination function 152 determines the imaging protocol for the next time k+1 based on the contribution map at time k. As a result, the dose of X-rays emitted from the X-ray tube 111(k+1) at time k+1 is determined, and the dose of the X-ray tube 111(k+1) and the X-ray detector 115(k+1) when X-rays are emitted is determined. position is determined.

[イメージング条件の決定方法;その4]
図17は、イメージング条件の決定方法を説明するための図である。例えば、イメージング条件決定機能152は、撮像系が一回転する度に撮影プロトコルを変更してよい。具体的には、時刻が1、2、…k-1、kと進み、時刻kのときに撮像系が一回転する場合、処理回路150は、時刻kにおいてX線検出器115(k)により検出されたX線の検出データを基にCT画像を生成し、さらにそのCT画像を学習済みモデルMDLに入力することで、時刻kにおける寄与度マップを生成する。そして、イメージング条件決定機能152は、時刻kにおける寄与度マップを基に、撮像系が一回転する次の周期k+1~2kの撮影プロトコルを決定する。
[Method for determining imaging conditions; Part 4]
FIG. 17 is a diagram for explaining a method of determining imaging conditions. For example, the imaging condition determination function 152 may change the imaging protocol each time the imaging system rotates once. Specifically, when the time advances from 1, 2, . A CT image is generated based on the detected X-ray detection data, and the CT image is input to the learned model MDL to generate a contribution map at time k. Based on the contribution map at time k, the imaging condition determination function 152 then determines an imaging protocol for the next cycle k+1 to 2k in which the imaging system rotates once.

[イメージング条件の決定方法;その5]
図18は、イメージング条件の決定方法を説明するための図である。撮像プロトコルには、X線検出器115から検出データを読み出すプロトコル(以下、データ読み出しプロトコル)も含まれる。そのため、イメージング条件決定機能152は、寄与度マップに基づいて、データ読み出しプロトコルを決定してもよい。例えば、イメージング条件決定機能152は、寄与度マップ上において、寄与度が低い領域ほどBinding数を多くし、寄与度が高い領域ほどBindingをしないようにするようなデータ読み出しプロトコルを決定してよい。これによって、寄与度が低い領域の空間分解能を低下させてノイズを低減しつつ、寄与度が高い領域の空間分解能を向上させてCT画像の品質を高めることができる。
[Method for determining imaging conditions; Part 5]
FIG. 18 is a diagram for explaining a method of determining imaging conditions. The imaging protocol also includes a protocol for reading detection data from the X-ray detector 115 (hereinafter referred to as a data reading protocol). Therefore, the imaging condition determination function 152 may determine the data readout protocol based on the contribution map. For example, the imaging condition determination function 152 may determine a data reading protocol in which the number of bindings is increased for areas with lower contribution on the contribution map, and no binding is performed for areas with higher contribution. As a result, it is possible to improve the quality of the CT image by improving the spatial resolution of the high-contribution region while reducing the noise by lowering the spatial resolution of the low-contribution region.

[イメージング条件の決定方法;その6]
図19は、イメージング条件の決定方法を説明するための図である。イメージング条件決定機能152は、寄与度マップに基づいて、フォトンカウンティングにおけるエネルギーBINの範囲を動的に変更してもよい。例えば、X線検出器115において、BIN範囲を変更可能であったとする。更に、寄与度マップとして、低エネルギーが効く空間分布を示す寄与度マップ1、中エネルギーが効く空間分布を示す寄与度マップ2、高エネルギーが効く空間分布を示す寄与度マップ3、が得られているものとする。この場合、イメージング条件決定機能152は、寄与度マップ1、2、3に応じて、各検出領域のBINの閾値を変更する。例えば、図19の体軸方向上(Z軸方向上)の領域は、低エネルギーは良く効き、高エネルギーはあまり影響しないことから、低エネルギーのBINを細かくし、高エネルギーのBINを荒くする。これによって、寄与度が高い領域を細かくエネルギー分解することができる。
[Method for determining imaging conditions; Part 6]
FIG. 19 is a diagram for explaining a method of determining imaging conditions. Imaging condition determination function 152 may dynamically change the range of energy bins in photon counting based on the contribution map. For example, assume that the X-ray detector 115 can change the BIN range. Further, as contribution maps, a contribution map 1 indicating a spatial distribution effective for low energy, a contribution map 2 indicating a spatial distribution effective for medium energy, and a contribution map 3 indicating a spatial distribution effective for high energy are obtained. It is assumed that there is In this case, the imaging condition determination function 152 changes the BIN threshold of each detection area according to contribution maps 1, 2, and 3. FIG. For example, in the region on the body axis direction (on the Z-axis direction) in FIG. 19, low energy works well and high energy has little effect. As a result, it is possible to finely decompose the energy of a region with a high degree of contribution.

[イメージング条件の決定方法;その7]
図20は、イメージング条件の決定方法を説明するための図である。イメージング条件決定機能152は、寄与度に応じてX線を照射する際のエネルギーを動的に変更してよい。図示のように、例えば、80keVというエネルギーのX線を照射することで得られた寄与度マップと、120keVというエネルギーのX線を照射することで得られた寄与度マップとがあったとする。この場合、イメージング条件決定機能152は、80keVの寄与度マップ上において寄与度が高い領域については、エネルギーを80keVまで高め、120keVの寄与度マップ上において寄与度が高い領域については、エネルギーを120keVまで高めるような撮影プロトコルを決定してよい。
[Method for determining imaging conditions; Part 7]
FIG. 20 is a diagram for explaining a method of determining imaging conditions. The imaging condition determination function 152 may dynamically change the energy for X-ray irradiation according to the degree of contribution. As shown in the figure, for example, suppose there are a contribution map obtained by irradiating an X-ray with an energy of 80 keV and a contribution map obtained by irradiating an X-ray with an energy of 120 keV. In this case, the imaging condition determination function 152 increases the energy to 80 keV for regions with high contribution on the 80 keV contribution map, and increases the energy to 120 keV for regions with high contribution on the 120 keV contribution map. An imaging protocol that enhances may be determined.

[イメージング条件の決定方法;その7]
図21は、イメージング条件の決定方法を説明するための図である。イメージング条件決定機能152は、寄与度の時間変化に応じて、撮影プロトコルを決定してよい。上述したように、寄与度マップは、CT画像上の各位置に寄与度が時系列に対応付けられた時系列データであってもよい。
[Method for determining imaging conditions; Part 7]
FIG. 21 is a diagram for explaining a method of determining imaging conditions. The imaging condition determination function 152 may determine the imaging protocol according to the time change of the contribution. As described above, the contribution map may be time-series data in which contribution is associated with each position on the CT image in time series.

例えば、時刻t1のスキャンAは、血管に造影剤を投与する際の撮影であり、時刻t2のスキャンBと、時刻t3のスキャンCは、心筋の撮影であるものとする。処理回路150は、スキャンAで得られたCT画像を学習済みモデルMDLに入力することで、将来の時刻t2やt3の寄与度マップを生成する。イメージング条件決定機能152は、時刻t2やt3の寄与度マップを基に、次の時刻t2の撮影プロトコルや、更にその次の時刻t3の撮影プロトコルを決定する。 For example, it is assumed that scan A at time t1 is imaging when a contrast agent is administered into a blood vessel, and scan B at time t2 and scan C at time t3 are imaging of the myocardium. The processing circuit 150 inputs the CT image obtained in the scan A to the trained model MDL to generate a contribution map for future times t2 and t3. The imaging condition determination function 152 determines an imaging protocol for the next time t2 and an imaging protocol for the next time t3 based on the contribution degree maps at times t2 and t3.

更に、処理回路150は、X線CT装置100の撮像系が連続して回転するなどしてスキャンが繰り返されるたびにCT画像を学習済みモデルMDLに入力することで、寄与度マップを生成することを繰り返してよい。そして、処理回路150は、寄与度マップの寄与度が閾値(必要寄与度)を超えた場合、スキャンを終了するようにしてもよい。 Furthermore, the processing circuit 150 generates a contribution map by inputting a CT image to the learned model MDL every time the imaging system of the X-ray CT apparatus 100 rotates continuously and scans are repeated. can be repeated. Then, the processing circuit 150 may end the scan when the contribution of the contribution map exceeds the threshold (necessary contribution).

[イメージング条件の決定方法;その8]
図22及び図23は、イメージング条件の決定方法を説明するための図である。例えば、図22のように、血管造影を開始してから、着目したい血管が最も濃く染まる時刻付近において(図中の2秒前後)、寄与度も併せて上昇するように寄与度マップが生成される場合がある。この場合、図23に表すように、イメージング条件決定機能152は、血管が最も濃く染まる時刻付近において(図中の2秒前後)、X線の線量が多くなるような撮影プロトコルを決定してよい。
[Method for determining imaging conditions; Part 8]
22 and 23 are diagrams for explaining a method of determining imaging conditions. For example, as shown in FIG. 22, after angiography is started, a contribution map is generated so that the contribution also increases around the time when the blood vessel of interest is dyed the darkest (around 2 seconds in the figure). may occur. In this case, as shown in FIG. 23, the imaging condition determination function 152 may determine an imaging protocol that increases the dose of X-rays around the time when blood vessels are dyed the darkest (around 2 seconds in the figure). .

[イメージング条件の決定方法;その9]
図24及び図25は、イメージング条件の決定方法を説明するための図である。図24及び25のように、被検体P´の体軸方向(Z方向)に沿った寄与度マップも生成され得る。例えば、被検体P´の頭部から体軸方向(Z方向)に沿ってスキャンが開始されるものとする。この場合、イメージング条件決定機能152は、被検体P´の頭部から足へと徐々にスキャン位置が移り変わっていくなかで、寄与度マップ上において寄与度が閾値以下となる位置にスキャン位置が達すると、スキャンを終了するような撮影プロトコルを決定してよい。
[Method for determining imaging conditions; Part 9]
24 and 25 are diagrams for explaining a method of determining imaging conditions. As in FIGS. 24 and 25, contribution maps along the body axis direction (Z direction) of the subject P' can also be generated. For example, it is assumed that scanning is started along the body axis direction (Z direction) from the head of the subject P'. In this case, the imaging condition determination function 152 determines that the scan position reaches a position on the contribution map where the contribution is equal to or less than the threshold while the scan position is gradually changing from the head of the subject P′ to the legs. An imaging protocol may then be determined to end the scan.

図24の例では、被検体P´の頭から足まで満遍なく寄与度が高くなっている。この場合、イメージング条件決定機能152は、途中でスキャンを終了せずに、寄与度の変化に応じてX線の線量などを変えながら、被検体P´の頭から足まで全身をスキャンするような撮影プロトコルを決定する。 In the example of FIG. 24, the contribution is evenly high from the head to the feet of the subject P'. In this case, the imaging condition determination function 152 scans the whole body from the head to the feet of the subject P' while changing the dose of X-rays according to the change in the degree of contribution without ending the scan in the middle. Decide on an imaging protocol.

一方、図25の例では、被検体P´の胸部周辺のみ寄与度が高くなっている。この場合、イメージング条件決定機能152は、胸部周辺でX線の線量を増加させた後、腹部以降(図中のZ1以降)のスキャンを終了するような撮影プロトコルを決定する。 On the other hand, in the example of FIG. 25, the degree of contribution is high only around the chest of the subject P'. In this case, the imaging condition determination function 152 determines an imaging protocol such that the X-ray dose is increased around the chest and then the scan after the abdomen (from Z1 in the figure) is finished.

[イメージング条件の決定方法;その10]
図26及び図27は、イメージング条件の決定方法を説明するための図である。例えば、k、k+1、k+2、k+3のように撮像系が回転しながら被検体P´をスキャンする場合、スキャン位置ごとに寄与度マップが生成される。この場合、イメージング条件決定機能152は、各スキャン位置の寄与度マップに基づいて、各スキャン位置において被検体P´の被ばく量を低減させるための撮影プロトコルを決定してよい。具体的には、図27に表すように、寄与度マップk、k+1、k+2、k+3のそれぞれにおいて、寄与度が低い領域(寄与度が閾値以下の領域)を、X線の線量低下領域に設定する。線量低下領域には、例えば、X線を遮る鉛製のコリメートが物理的に設置されてもよいし、X線の出力を低下させる補償フィルターが設置されてもよい。
[Method for determining imaging conditions; Part 10]
26 and 27 are diagrams for explaining a method of determining imaging conditions. For example, when the subject P' is scanned while the imaging system rotates like k, k+1, k+2, and k+3, a contribution map is generated for each scanning position. In this case, the imaging condition determination function 152 may determine an imaging protocol for reducing the exposure dose of the subject P' at each scan position based on the contribution map of each scan position. Specifically, as shown in FIG. 27, in each of the contribution maps k, k+1, k+2, and k+3, a region with a low contribution (a region with a contribution less than or equal to a threshold value) is set as an X-ray dose reduction region. do. In the dose reduction region, for example, a collimator made of lead that blocks X-rays may be physically installed, or a compensating filter that reduces the output of X-rays may be installed.

[イメージング条件の決定方法;その11]
図28は、イメージング条件の決定方法を説明するための図である。図示のように、イメージング条件決定機能152は、被検体P´の体軸方向(Z方向)の寄与度に応じて、X線の線量低下領域を設定してもよい。例えば、首の寄与度マップでは、マップ中央から下部にかけて寄与度が大きい。この場合、首の線量低下領域は、マップの右端と左端に設定される。胸の寄与度マップでは、マップ全体の寄与度が大きい。この場合、胸の線量低下領域は設定されない。腹の寄与度マップでは、マップの右下の寄与度のみが大きい。この場合、腹の線量低下領域は、マップの中央から見て左側全域に設定される。
[Method for determining imaging conditions; Part 11]
FIG. 28 is a diagram for explaining a method of determining imaging conditions. As illustrated, the imaging condition determination function 152 may set the X-ray dose reduction region according to the degree of contribution in the body axis direction (Z direction) of the subject P'. For example, in the neck contribution map, the contribution is large from the center to the bottom of the map. In this case, the neck dose drop areas are set at the right and left ends of the map. In the breast contribution map, the contribution of the entire map is large. In this case, no chest dose reduction area is set. In the anti-belly contribution map, only the lower right contribution of the map is large. In this case, the dose drop region of the antinode is set to the entire left side of the map when viewed from the center.

以上説明した実施形態によれば、学習装置200は、CT画像が入力されると、入力されたCT画像に含まれる人物の診療結果及び寄与度マップを出力するようにモデルMDLを学習する。X線CT装置100は、被検体P´を撮影してCT画像を生成すると、そのCT画像と、トレーニング時に学習済みモデルMDLによって出力された寄与度マップとに基づいて、被検体P´のCT画像のイメージング条件を決定する。この結果、撮影及び解析を相互に影響させ合いながら、高精度な診断が可能な医用画像を得ることができる。 According to the embodiment described above, when a CT image is input, the learning device 200 learns the model MDL so as to output the medical treatment result and contribution map of the person included in the input CT image. When the X-ray CT apparatus 100 images the subject P' and generates a CT image, the CT image of the subject P' is generated based on the CT image and the contribution map output by the learned model MDL during training. Determine the imaging conditions for the image. As a result, it is possible to obtain a medical image that enables highly accurate diagnosis while mutually affecting imaging and analysis.

また、上述した実施形態によれば、寄与度が低い領域についてはX線の線量を低くし、寄与度が高い領域についてはX線の線量を高くするような撮影プロトコルを決定するため、被検体P´の被ばく量を低減させながら、被検体P´のCT画像の品質(SN比)を向上させることができる。 Further, according to the above-described embodiment, in order to determine an imaging protocol that lowers the dose of X-rays for regions with a low degree of contribution and increases the dose of X-rays for regions with a high degree of contribution, the subject It is possible to improve the quality (SN ratio) of the CT image of the subject P' while reducing the exposure dose of P'.

また、上述した実施形態によれば、寄与度が低い領域についてはX線の照射時間を短くし、寄与度が高い領域についてはX線の照射時間を長くするような撮影プロトコルを決定するため、被検体P´の被ばく量を低減させながら、被検体P´のCT画像の品質(SN比)を向上させることができる。 Further, according to the above-described embodiment, in order to determine an imaging protocol that shortens the X-ray irradiation time for regions with a low contribution and lengthens the X-ray irradiation time for regions with a high contribution, It is possible to improve the quality (SN ratio) of the CT image of the subject P' while reducing the exposure dose of the subject P'.

また、上述した実施形態によれば、寄与度が高い領域に対して照射したX線については高精細なX線検出器115によって検出させるような撮影プロトコルを決定するため、寄与度が高い領域の空間分解能が向上する。 Further, according to the above-described embodiment, since the imaging protocol is determined such that the high-definition X-ray detector 115 detects the X-rays irradiated to the region with the high contribution, the region with the high contribution is determined. Spatial resolution is improved.

また、上述した実施形態によれば、寄与度が高い領域と低い領域との境界に空間フィルタ(例えばメディアンフィルタ等)を入れるような撮影プロトコルを決定するため、画像ノイズを低減することができる。この結果、被検体P´のCT画像の品質を向上させることができる。 In addition, according to the above-described embodiment, image noise can be reduced because an imaging protocol is determined in which a spatial filter (for example, a median filter or the like) is placed at the boundary between a high contribution area and a low contribution area. As a result, the quality of the CT image of the subject P' can be improved.

また、上述した実施形態によれば、寄与度が低い領域についてはフォトンカウンティングのBIN数を少なくし、寄与度が高い領域についてはBIN数を多くするような撮影プロトコルを決定するため、エネルギー分解能を向上させることができる。 Further, according to the above-described embodiment, the imaging protocol is determined such that the number of BINs for photon counting is reduced for regions with low contribution and the number of BINs for photon counting is increased for regions with high contribution. can be improved.

また、上述した実施形態によれば、寄与度が低い領域についてはX線管111の電流又は電圧を小さくし、寄与度が高い領域についてはX線管111の電流又は電圧を大きくするような撮影プロトコルを決定するため、被検体P´のCT画像の品質(SN比)を向上させることができる。 Further, according to the above-described embodiment, the current or voltage of the X-ray tube 111 is decreased for regions with a low degree of contribution, and the current or voltage of the X-ray tube 111 is increased for regions with a high degree of contribution. Since the protocol is determined, the quality (SN ratio) of the CT image of the subject P' can be improved.

(その他の実施形態(変形例))
以下、上述した実施形態の変形例について説明する。上述した実施形態では、モダリティであるX線CT装置100と、ワークステーションやクラウドサーバである学習装置200とは、それぞれ別体の装置であるものとして説明したがこれに限られない。
(Other embodiments (modifications))
Modifications of the above-described embodiment will be described below. In the above-described embodiment, the X-ray CT apparatus 100, which is a modality, and the learning apparatus 200, which is a workstation or a cloud server, are separate apparatuses, but the present invention is not limited to this.

例えば、学習装置200は、X線CT装置100の一つの機能であってもよい。具体的には、X線CT装置100は、学習装置200の各種機能(取得機能212や学習機能214)を備えてよい。また、X線CT装置100は、学習装置200の一つの機能であってもよい。具体的には、学習装置200は、X線CT装置100の各種機能(イメージング条件決定機能152)を備えてよい。このように、X線CT装置100と学習装置200とは一体の装置であってもよい。これら装置を備える医用画像診断システム1は、「医用画像診断装置」の他の例である。 For example, learning device 200 may be one function of X-ray CT apparatus 100 . Specifically, the X-ray CT apparatus 100 may have various functions of the learning device 200 (acquisition function 212 and learning function 214). Also, the X-ray CT apparatus 100 may be one function of the learning apparatus 200 . Specifically, the learning device 200 may include various functions of the X-ray CT apparatus 100 (imaging condition determination function 152). Thus, the X-ray CT apparatus 100 and the learning apparatus 200 may be integrated. The medical image diagnostic system 1 including these devices is another example of the "medical image diagnostic apparatus".

また、上述した実施形態では、学習済みモデルMDLは一つであるものとして説明したがこれに限られない。例えば、診断したい特定の疾患が複数存在する場合、学習済みモデルMDLは各疾患ごとに生成されてよい。例えば、肺がん用の学習済みモデルMDL1と、胸膜炎用の学習済みモデルMDL2と、気管支ぜんそく用の学習済みモデルMDL3があったとする。この場合、三つの学習済みモデルMDL1~3の其々に同じCT画像が入力される。三つの学習済みモデルMDL1~3の其々は、寄与度マップを出力する。疾患が違えばCT画像上において注目すべき部位も異なる可能性があり、それに応じて寄与度マップも異なる可能性がある。このような場合、学習済みモデルMDLごとの寄与度マップを足し合わせたり、平均をとるなどして一つの寄与度マップに合成してよい。 Also, in the above-described embodiment, the number of trained models MDL is one, but the number is not limited to this. For example, if there are multiple specific diseases to be diagnosed, a trained model MDL may be generated for each disease. For example, assume that there is a trained model MDL1 for lung cancer, a trained model MDL2 for pleurisy, and a trained model MDL3 for bronchial asthma. In this case, the same CT image is input to each of the three trained models MDL1-3. Each of the three trained models MDL1-3 outputs a contribution map. If the disease is different, there is a possibility that the part to be noted on the CT image will be different, and the contribution map may be different accordingly. In such a case, the contribution maps for each learned model MDL may be added or averaged to synthesize one contribution map.

また、上述した実施形態では、CT画像に対して正解の診療結果がラベル(ターゲット)として対応付けられた教師データを基に、CT画像が入力されると、寄与度マップ及び診療結果を出力するようにモデルMDLを学習するものとして説明したがこれに限られない。例えば、モデルMDLは、事前に十分学習されたモデルAと、事前に十分学習されたモデルBとを組み合わせたモデルであってよい。モデルAは、CT画像が入力されると、寄与度マップを出力するように学習されたものであってよく、例えば、アテンション機構として機能するDNNであってよい。また、モデルBは、CT画像が入力されると、診療結果を出力するように学習されたものであってよく、例えば、CNNであってよい。このように、診療結果を推定する機能や、寄与度マップを生成する機能といったように、機能ごとに事前学習された複数のモデルを一つに組み合わせて、本実施形態に係る「モデルMDL」としてもよい。この場合、モデルMDLは、教師データを基に学習されなくてもよい。 Further, in the above-described embodiment, when a CT image is input based on teacher data in which correct medical results are associated with the CT images as labels (targets), a contribution map and medical results are output. Although the model MDL is learned as described above, the present invention is not limited to this. For example, the model MDL may be a combination of model A, which has been fully pre-trained, and model B, which has been fully pre-trained. Model A may be trained to output a contribution map when CT images are input, and may be, for example, a DNN that functions as an attention mechanism. Also, the model B may be trained to output medical results when a CT image is input, and may be, for example, a CNN. In this way, a plurality of pre-learned models for each function, such as the function of estimating medical treatment results and the function of generating a contribution degree map, are combined into one as a "model MDL" according to the present embodiment. good too. In this case, the model MDL does not have to be learned based on teacher data.

いくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 While several embodiments have been described, these embodiments are provided by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and their modifications are included in the scope and spirit of the invention, as well as the scope of the invention described in the claims and equivalents thereof.

1…医用画像診断システム、100…X線CT装置、110…架台装置、130…寝台装置、140…コンソール装置、141…メモリ、142…ディスプレイ、143…入力インタフェース、144…通信インタフェース、150…処理回路、151…システム制御機能、イメージング条件決定機能、153…前処理機能、154…再構成処理機能、155…画像処理機能、156…出力制御機能、200…学習装置、202…通信インタフェース、204…入力インタフェース、206…ディスプレイ、208…メモリ、210…処理回路、212…取得機能、214…学習機能、216…出力制御機能 DESCRIPTION OF SYMBOLS 1... Medical image diagnostic system 100... X-ray CT apparatus 110... Mounting apparatus 130... Bed apparatus 140... Console apparatus 141... Memory 142... Display 143... Input interface 144... Communication interface 150... Processing Circuit 151 System control function Imaging condition determination function 153 Preprocessing function 154 Reconstruction processing function 155 Image processing function 156 Output control function 200 Learning device 202 Communication interface 204 Input interface 206 Display 208 Memory 210 Processing circuit 212 Acquisition function 214 Learning function 216 Output control function

Claims (21)

被検体の医用画像を取得する取得部と、
医用画像が入力されると、前記入力された医用画像に含まれる人物の診療結果、及び前記入力された医用画像上の各位置に前記診療結果への寄与度が対応付けられたマップを出力するように学習されたモデルと、前記取得部によって取得された前記被検体の医用画像とに基づいて、前記被検体の医用画像のイメージング条件を決定する決定部と、
を備える医用画像診断装置。
an acquisition unit that acquires a medical image of a subject;
When a medical image is input, a map is output in which a medical result of a person included in the input medical image and a degree of contribution to the medical result are associated with each position on the input medical image. a determination unit that determines imaging conditions for the medical image of the subject based on the model learned as above and the medical image of the subject acquired by the acquisition unit;
A medical image diagnostic device comprising:
前記決定部は、学習時に前記モデルにより出力された前記マップと、前記取得部によって取得された前記被検体の医用画像とに基づいて、前記イメージング条件を決定する、
請求項1に記載の医用画像診断装置。
The determination unit determines the imaging conditions based on the map output by the model during learning and the medical image of the subject acquired by the acquisition unit.
The medical image diagnostic apparatus according to claim 1.
前記決定部は、
学習時に前記モデルにより出力された前記マップと、前記取得部によって取得された前記被検体の医用画像との位置合わせを行い、
前記被検体の医用画像に対して位置合わせを行った前記マップに基づいて、前記イメージング条件を決定する、
請求項2に記載の医用画像診断装置。
The decision unit
aligning the map output by the model during learning with the medical image of the subject acquired by the acquisition unit;
Determining the imaging conditions based on the map aligned with the medical image of the subject;
The medical image diagnostic apparatus according to claim 2.
前記取得部は、前記イメージング条件に基づいて撮影された前記被検体の医用画像を新たに取得し、
前記決定部は、前記取得部によって以前に取得された前記被検体の医用画像を前記モデルに対して入力し、学習時に前記モデルによって出力された前記マップである第1マップと、前記医用画像が入力された前記モデルによって出力された前記マップである第2マップと、前記取得部によって新たに取得された前記被検体の医用画像とに基づいて、前記イメージング条件を新たに決定する、
請求項2又は3に記載の医用画像診断装置。
The acquisition unit newly acquires a medical image of the subject captured based on the imaging conditions,
The determining unit inputs the medical image of the subject previously acquired by the acquiring unit to the model, and the first map, which is the map output by the model during learning, and the medical image newly determining the imaging condition based on the second map, which is the map output by the input model, and the medical image of the subject newly acquired by the acquisition unit;
The medical image diagnostic apparatus according to claim 2 or 3.
前記決定部は、
前記第1マップと前記第2マップとを重み付けて合成し、
前記合成した第3マップと、前記取得部によって新たに取得された前記被検体の医用画像との位置合わせを行い、
前記被検体の医用画像に対して位置合わせを行った前記第3マップに基づいて、前記イメージング条件を決定する、
請求項4に記載の医用画像診断装置。
The decision unit
weighting and synthesizing the first map and the second map;
aligning the synthesized third map with the medical image of the subject newly acquired by the acquiring unit;
determining the imaging conditions based on the third map aligned with the medical image of the subject;
The medical image diagnostic apparatus according to claim 4.
前記決定部は、前記第1マップに比べて前記第2マップの重みを大きくする、
請求項5に記載の医用画像診断装置。
The determination unit increases the weight of the second map compared to the first map.
The medical image diagnostic apparatus according to claim 5.
前記取得部は、前記イメージング条件が決定される度に前記被検体の医用画像を新たに取得し、
前記決定部は、前記被検体の医用画像が取得される度に、前記被検体の医用画像を前記モデルに対して入力し、前記被検体の医用画像が入力される度に前記モデルにより出力された複数の前記第2マップと、前記第1マップとを重み付けて合成する、
請求項5又は6に記載の医用画像診断装置。
The acquiring unit acquires a new medical image of the subject each time the imaging condition is determined,
The determination unit inputs the medical image of the subject to the model each time the medical image of the subject is acquired, and outputs the image from the model each time the medical image of the subject is input. weighting and synthesizing the plurality of second maps and the first map;
The medical image diagnostic apparatus according to claim 5 or 6.
前記決定部は、複数の前記第2マップのうち、前記モデルにより出力された時刻が新しい前記第2マップほど重みを大きくする、
請求項7に記載の医用画像診断装置。
wherein the determination unit increases the weight of the second map, among the plurality of second maps, for a second map output at a later time by the model;
The medical image diagnostic apparatus according to claim 7.
前記イメージング条件には、前記被検体を撮影する際の撮影プロトコル、前記被検体をスキャンすることで得られるデータの前処理条件、及び前記データから前記医用画像への再構成条件のうち少なくとも一つが含まれる、
請求項1から8のうちいずれか一項に記載の医用画像診断装置。
The imaging conditions include at least one of an imaging protocol for imaging the subject, a preprocessing condition for data obtained by scanning the subject, and a reconstruction condition for reconstructing the medical image from the data. included,
The medical image diagnostic apparatus according to any one of claims 1 to 8.
前記マップは、前記入力された医用画像上の各位置に前記寄与度が時系列に対応付けられた時系列データである、
請求項1から9のうちいずれか一項に記載の医用画像診断装置。
The map is time series data in which the contribution is associated with each position on the input medical image in a time series.
The medical image diagnostic apparatus according to any one of claims 1 to 9.
前記医用画像は、X線によって撮影された医用画像であり、
前記決定部は、前記マップ上において前記寄与度が低い領域に照射される前記X線の線量を低下させる撮影プロトコルを、前記イメージング条件として決定する、
請求項1から10のうちいずれか一項に記載の医用画像診断装置。
the medical image is a medical image taken by X-ray,
The determining unit determines, as the imaging condition, an imaging protocol that reduces the dose of the X-rays irradiated to the low-contribution region on the map.
The medical image diagnostic apparatus according to any one of claims 1 to 10.
前記医用画像は、X線によって撮影された医用画像であり、
前記決定部は、前記マップ上において前記寄与度が高い領域に照射される前記X線の線量を増加させる撮影プロトコルを、前記イメージング条件として決定する、
請求項1から11のうちいずれか一項に記載の医用画像診断装置。
the medical image is a medical image taken by X-ray,
The determination unit determines, as the imaging condition, an imaging protocol that increases the dose of the X-rays irradiated to the region with the high contribution on the map,
The medical image diagnostic apparatus according to any one of claims 1 to 11.
前記医用画像は、X線によって撮影された医用画像であり、
前記決定部は、前記マップ上において前記寄与度が低い領域に対する前記X線の照射時間を短くする撮影プロトコルを、前記イメージング条件として決定する、
請求項1から10のうちいずれか一項に記載の医用画像診断装置。
the medical image is a medical image taken by X-ray,
The determination unit determines, as the imaging condition, an imaging protocol that shortens the irradiation time of the X-rays for the low-contribution region on the map.
The medical image diagnostic apparatus according to any one of claims 1 to 10.
前記医用画像は、X線によって撮影された医用画像であり、
前記決定部は、前記マップ上において前記寄与度が高い領域に対する前記X線の照射時間を長くする撮影プロトコルを、前記イメージング条件として決定する、
請求項1から13のうちいずれか一項に記載の医用画像診断装置。
the medical image is a medical image taken by X-ray,
The determination unit determines, as the imaging condition, an imaging protocol that lengthens the irradiation time of the X-rays for the region with the high contribution on the map.
14. The medical image diagnostic apparatus according to any one of claims 1-13.
前記医用画像は、X線によって撮影された医用画像であり、
前記決定部は、前記マップ上において前記寄与度が低い領域におけるフォトンのバインディング数を少なくする撮影プロトコルを、前記イメージング条件として決定する、
請求項1から14のうちいずれか一項に記載の医用画像診断装置。
the medical image is a medical image taken by X-ray,
The determination unit determines, as the imaging condition, an imaging protocol that reduces the number of photon bindings in the low-contribution region on the map.
15. The medical image diagnostic apparatus according to any one of claims 1-14.
前記医用画像は、X線によって撮影された医用画像であり、
前記決定部は、前記マップ上において前記寄与度が高い領域におけるフォトンのバインディング数を多くする撮影プロトコルを、前記イメージング条件として決定する、
請求項1から15のうちいずれか一項に記載の医用画像診断装置。
the medical image is a medical image taken by X-ray,
The determination unit determines, as the imaging condition, an imaging protocol that increases the number of photon bindings in the high-contribution region on the map.
16. A medical imaging diagnostic apparatus according to any one of claims 1-15.
前記医用画像は、X線によって撮影された医用画像であり、
前記決定部は、前記マップ上において前記寄与度が低い領域において、前記X線を照射するX線管の電流又は電圧を小さくする撮影プロトコルを、前記イメージング条件として決定する、
請求項1から16のうちいずれか一項に記載の医用画像診断装置。
the medical image is a medical image taken by X-ray,
The determination unit determines, as the imaging condition, an imaging protocol that reduces the current or voltage of the X-ray tube that emits the X-rays in the low-contribution region on the map.
17. A medical imaging diagnostic apparatus according to any one of claims 1-16.
前記医用画像は、X線によって撮影された医用画像であり、
前記決定部は、前記マップ上において前記寄与度が高い領域において、前記X線を照射するX線管の電流又は電圧を大きくする撮影プロトコルを、前記イメージング条件として決定する、
請求項1から17のうちいずれか一項に記載の医用画像診断装置。
the medical image is a medical image taken by X-ray,
The determination unit determines, as the imaging condition, an imaging protocol that increases the current or voltage of the X-ray tube that irradiates the X-rays in the region of high contribution on the map.
18. A medical imaging diagnostic apparatus according to any one of claims 1-17.
前記決定部は、
複数の前記モデルが存在する場合、前記被検体の医用画像を複数の前記モデルの其々に入力し、複数の前記モデルの其々によって出力された前記マップを合成し、
前記合成したマップに基づいて、前記イメージング条件を決定する、
請求項1から18のうちいずれか一項に記載の医用画像診断装置。
The decision unit
when a plurality of said models exist, inputting a medical image of said subject into each of said plurality of said models, synthesizing said map output by each of said plurality of said models;
determining the imaging conditions based on the combined map;
19. A medical imaging diagnostic apparatus according to any one of claims 1-18.
コンピュータが、
被検体の医用画像を取得し、
医用画像が入力されると、前記入力された医用画像に含まれる人物の診療結果、及び前記入力された医用画像上の各位置に前記診療結果への寄与度が対応付けられたマップを出力するように学習されたモデルと、前記取得した被検体の医用画像とに基づいて、前記被検体の医用画像のイメージング条件を決定する、
医用イメージング条件の決定方法。
the computer
obtaining a medical image of a subject;
When a medical image is input, a map is output in which a medical result of a person included in the input medical image and a degree of contribution to the medical result are associated with each position on the input medical image. Determining imaging conditions for the medical image of the subject based on the learned model and the acquired medical image of the subject,
A method for determining medical imaging conditions.
コンピュータに、
被検体の医用画像を取得すること、
医用画像が入力されると、前記入力された医用画像に含まれる人物の診療結果、及び前記入力された医用画像上の各位置に前記診療結果への寄与度が対応付けられたマップを出力するように学習されたモデルと、前記取得した被検体の医用画像とに基づいて、前記被検体の医用画像のイメージング条件を決定すること、
を実行させるためのプログラム。
to the computer,
acquiring a medical image of a subject;
When a medical image is input, a map is output in which a medical result of a person included in the input medical image and a degree of contribution to the medical result are associated with each position on the input medical image. Determining imaging conditions for the medical image of the subject based on the model trained as described above and the acquired medical image of the subject;
program to run the
JP2021079131A 2021-05-07 2021-05-07 Medical image diagnostic device, method for determining medical imaging condition, and program Pending JP2022172850A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021079131A JP2022172850A (en) 2021-05-07 2021-05-07 Medical image diagnostic device, method for determining medical imaging condition, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021079131A JP2022172850A (en) 2021-05-07 2021-05-07 Medical image diagnostic device, method for determining medical imaging condition, and program

Publications (1)

Publication Number Publication Date
JP2022172850A true JP2022172850A (en) 2022-11-17

Family

ID=84045940

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021079131A Pending JP2022172850A (en) 2021-05-07 2021-05-07 Medical image diagnostic device, method for determining medical imaging condition, and program

Country Status (1)

Country Link
JP (1) JP2022172850A (en)

Similar Documents

Publication Publication Date Title
CN109938764B (en) Self-adaptive multi-part scanning imaging method and system based on deep learning
JP7353965B2 (en) Medical image diagnosis system and trained model generation method
JP7348376B2 (en) Medical processing equipment, X-ray CT system and processing program
JP7134805B2 (en) Medical information processing device and medical information processing system
JP7262933B2 (en) Medical information processing system, medical information processing device, radiological diagnostic device, ultrasonic diagnostic device, learning data production method and program
US20210279918A1 (en) Medical information processing apparatus, medical image diagnosis apparatus, and medical information processing method
US11241212B2 (en) Medical apparatus
JP7313818B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE DIAGNOSTIC APPARATUS, AND MEDICAL IMAGE PROCESSING METHOD
WO2023100926A1 (en) Medical information processing method and medical information processing device
JP2022172850A (en) Medical image diagnostic device, method for determining medical imaging condition, and program
CN110881993A (en) X-ray CT apparatus, medical image processing apparatus, and X-ray CT system
JP7433809B2 (en) Trained model generation method and medical processing device
WO2024048374A1 (en) Image processing device, photographing system, image processing method, and program
US20240032877A1 (en) Information processing method, medical image diagnostic apparatus, and information processing system for detecting a quiescent cardiac phase
JP7443591B2 (en) Medical image diagnosis device and medical image diagnosis method
JP2022180971A (en) Learning apparatus, medical image processing apparatus, learning method, and program
US20230153945A1 (en) Medical image processing apparatus, medical image processing method, and storage medium
JP7437887B2 (en) Medical information processing equipment and X-ray CT equipment
JP7320934B2 (en) MEDICAL IMAGE PROCESSING APPARATUS AND MEDICAL IMAGE PROCESSING METHOD
JP7483361B2 (en) Medical image processing device, medical image diagnostic device, and medical image processing program
JP2023055322A (en) Machine learning model evaluation device, machine learning model evaluation method, and program
JP7362259B2 (en) Medical image diagnosis device, medical image diagnosis method, and bed device
JP2022178052A (en) X-ray ct apparatus and control method of x-ray ct apparatus
JP2024043514A (en) Reconstruction device, X-ray CT device, and image processing device
JP2022172743A (en) Medical image processing device, medical image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240401