JP7433901B2 - 学習装置及び学習方法 - Google Patents

学習装置及び学習方法 Download PDF

Info

Publication number
JP7433901B2
JP7433901B2 JP2019236726A JP2019236726A JP7433901B2 JP 7433901 B2 JP7433901 B2 JP 7433901B2 JP 2019236726 A JP2019236726 A JP 2019236726A JP 2019236726 A JP2019236726 A JP 2019236726A JP 7433901 B2 JP7433901 B2 JP 7433901B2
Authority
JP
Japan
Prior art keywords
image data
processing result
analysis
processing
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019236726A
Other languages
English (en)
Other versions
JP2021104194A (ja
Inventor
昂彦 西岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2019236726A priority Critical patent/JP7433901B2/ja
Publication of JP2021104194A publication Critical patent/JP2021104194A/ja
Application granted granted Critical
Publication of JP7433901B2 publication Critical patent/JP7433901B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Description

本発明の実施形態は、学習装置及び学習方法に関する。
学習済みモデルを用いて、各種のセグメンテーション結果、各種の分類結果及び各種の検出結果を示す画像データを推定する技術がある。例えば、被検体の部位が描出された画像データが入力されることで、被検体の部位の輪郭が精度良く描出された画像データを出力する学習済みモデルがある。そして、このような学習済みモデルを用いて、被検体の部位が描出された画像データから、被検体の部位の輪郭が精度良く描出された画像データを推定する画像処理装置がある。そして、かかる画像処理装置では、推定された画像データに対して、解析処理を実行する。
米国特許出願公開第2019/0051398号明細書 米国特許出願公開第2018/0137435号明細書 米国特許第9721213号明細書
本発明が解決しようとする課題は、高い精度の解析結果を得ることが可能な学習済みモデルを得ることである。
実施形態の学習装置は、生成部と、推定部と、解析部とを備える。生成部は、第1の画像データと、前記第1の画像データに対して処理が実行されることにより得られた第1の処理結果とを対応付けて学習することにより、前記第1の画像データを受け付けて第2の処理結果を出力するとともに第2の画像データを受け付けて第3の処理結果を出力する学習済みモデルを生成する。推定部は、前記学習済みモデルを用いて、前記第2の画像データを基に、前記第3の処理結果を推定する。解析部は、前記推定部により推定された前記第3の処理結果に対して解析処理を実行することにより第1の解析処理結果を取得する。生成部は、前記第1の処理結果に対して前記解析処理を実行することにより第2の解析処理結果を取得する。生成部は、前記学習済みモデルを用いて、前記第1の画像データを基に前記第2の処理結果を推定し、推定された前記第2の処理結果に対して前記解析処理を実行することにより第3の解析処理結果を取得する。生成部は、前記第2の解析処理結果と前記第3の解析処理結果との差が小さくなるように、前記学習済みモデルを生成する。
図1は、第1の実施形態に係る医用処理システムの構成の一例を示す図である。 図2は、第1の実施形態に係るX線CT装置が送信するデータの一例を説明するための図である。 図3は、第1の実施形態に係るX線CT装置が送信するデータの一例を説明するための図である。 図4は、第1の実施形態に係る画像処理装置が実行する処理の一例を説明するための図である。 図5は、第1の実施形態に係る画像処理装置が学習時に実行する、学習済みモデルを更新(生成)する処理の一例を説明するための図である。 図6は、第1の実施形態に係る推定機能が実行する処理の一例について説明するための図である。 図7は、第1の実施形態に係る輪郭と輪郭との差の一例を説明するための図である。 図8は、第1の実施形態に係る画像処理装置が学習時に実行する処理の流れの一例を示すフローチャートである。 図9は、第1の実施形態に係る画像処理装置が運用時に実行する処理の流れの一例を示すフローチャートである。 図10は、第1の実施形態の変形例1に係る画像処理装置が実行する処理の一例について説明するための図である。 図11は、第1の実施形態の変形例1に係る病名決定用テーブルのデータ構造の一例を示す図である。 図12は、第2の実施形態に係る医用処理システムの構成の一例を示す図である。 図13は、第2の実施形態に係る学習用データセット生成機能及び学習済みモデル生成機能が実行する処理の一例を説明するための図である。 図14は、第2の実施形態に係る画像処理装置が学習時に実行する、学習済みモデルを更新(生成)する処理の一例を説明するための図である。 図15は、第2の実施形態に係る推定機能が実行する処理の一例について説明するための図である。 図16は、第2の実施形態に係る画像処理装置が学習時に実行する処理の流れの一例を示すフローチャートである。 図17は、第2の実施形態に係る画像処理装置が運用時に実行する処理の流れの一例を示すフローチャートである。
以下、図面を参照しながら、学習装置及び学習方法の実施形態を詳細に説明する。なお、本願に係る学習装置及び学習方法は、以下に示す実施形態によって限定されるものではない。
(第1の実施形態)
図1は、第1の実施形態に係る医用処理システム1の構成の一例を示す図である。図1に示すように、医用処理システム1は、X線CT装置110と、端末装置120と、画像処理装置130とを備える。ここで、X線CT装置110と、端末装置120と、画像処理装置130とは、ネットワーク200を介して通信可能に接続されている。
医用処理システム1では、学習済みモデルを生成する学習時の段階と、学習済みモデルを用いて処理を行う運用時の段階とがある。
X線CT装置110は、被検体を撮像してCT画像を示すCT画像データを生成する。例えば、X線CT装置110は、X線管、X線検出器、DAS(Data Acquisition System)及び処理回路を有する。例えば、X線管は、被検体に対して照射するX線を発生する。検出器は、被検体を通過したX線を検出し、検出したX線量に対応する電気信号をDASに出力する。DASは、検出器から出力された電気信号を増幅させ、アナログ信号である増幅された電気信号をデジタル信号に変換することにより、検出データを生成し、生成した検出データを処理回路に出力する。処理回路は、検出データに対して、対数変換処理、オフセット補正処理、チャネル間の感度補正処理及びビームハードニング補正処理等の前処理を施す。前処理が施された検出データは、生データと称される。そして、処理回路は、生データに対して、フィルタ補正逆投影法や逐次近似再構成法等を用いた再構成処理を行って3次元のCT画像データを生成する。そして、処理回路は、CT画像データに対して各種の画像処理を施す。例えば、処理回路は、入力インターフェース133を介してユーザから受け付けた入力操作等に基づいて、CT画像データを、公知の方法により任意断面のMPR(multi planar reconstruction)画像データ、3次元画像データ又はMIP(Maximum Intensity Projection)画像データに変換する。すなわち、処理回路は、CT画像データに基づいて、MPR画像データ、3次元画像データ又はMIP画像データを生成する。
例えば、処理回路は、後述する解析機能135fにより実行される流体解析処理の対象が被検体の冠動脈である場合には、3次元のCT画像データに描出された冠動脈を抽出し、抽出した冠動脈の芯線を抽出する。そして、処理回路は、冠動脈の芯線上の複数の位置のそれぞれにおいて、芯線と交差(直交)する短軸断面を示すMPR(multi planar reconstruction)画像データである短軸断面画像データを生成する。このようにして、処理回路は、冠動脈の短軸断面を示す短軸断面画像データを芯線上の複数の位置において生成する。すなわち、処理回路は、複数の短軸断面画像データを生成する。このようにして生成された複数の短軸断面画像データが、X線CT装置110から画像処理装置130へ送信される。
そして、X線CT装置110は、各種のデータを画像処理装置130に送信する。図2及び図3は、第1の実施形態に係るX線CT装置110が送信するデータの一例を説明するための図である。例えば、X線CT装置110は、画像処理装置130が学習済みモデルを生成する学習時には、図2に示すように、学習時用の複数の短軸断面画像データ11を画像処理装置130へ送信する。これにより、画像処理装置130は、複数の短軸断面画像データ11を用いて学習済みモデルを生成する。短軸断面画像データ11は、例えば、第1の画像データの一例である。
また、X線CT装置110は、画像処理装置130が学習済みモデルを用いて画像データを推定する処理を実行する運用時には、図3に示すように、運用時用の複数の短軸断面画像データ12を画像処理装置130へ送信する。これにより、画像処理装置130は、複数の短軸断面画像データ12及び学習済みモデルを用いて処理を実行する。短軸断面画像データ12は、例えば、第2の画像データの一例である。
以下の説明では、流体解析処理の対象が冠動脈である場合を例に挙げて説明するが、流体解析処理の対象は、被検体の他の部位であってもよい。この場合、X線CT装置110は、学習時及び運用時に、被検体の他の部位が描出された画像データを画像処理装置130に送信する。そして、画像処理装置130は、以下に説明する処理と同様の処理を画像データに対して行う。
なお、短軸断面画像データ11を生成する際に撮像された被検体と、短軸断面画像データ12を生成する際に撮像された被検体とは異なっていてもよいし、同一であってもよい。ただし、短軸断面画像データ11及び短軸断面画像データ12には、流体解析処理の対象である冠動脈が描出されている。画像処理装置130が実行する学習時の学習済みモデルを生成する処理、及び、運用時の学習済みモデルを用いた処理の具体例については後述する。
図1の説明に戻る。端末装置120は、病院内に勤務する医師や検査技師等のユーザに画像を閲覧させるための装置である。例えば、端末装置120は、ユーザにより操作されるパーソナルコンピュータ(PC:Personal Computer)、タブレット式PC、PDA(Personal Digital Assistant)又は携帯電話等によって実現される。例えば、端末装置120は、X線CT装置110又は画像処理装置130から送信された各種の画像データを受信する。そして、端末装置120は、受信した画像データに基づく画像を端末装置120が備えるディスプレイに表示させるとともに、端末装置120が備える入力インターフェースを介して画像に対する各種操作を受け付ける。
画像処理装置130は、X線CT装置110から各種のデータを取得し、取得したデータを用いて各種の処理を実行する。例えば、画像処理装置130は、サーバ、ワークステーション、パーソナルコンピュータ、タブレット端末等のコンピュータによって実現される。例えば、画像処理装置130は、学習装置の一例である。
画像処理装置130は、通信インターフェース131と、メモリ132と、入力インターフェース133と、ディスプレイ134と、処理回路135とを備える。
通信インターフェース131は、処理回路135に接続されており、画像処理装置130とX線CT装置110との間で行われる通信、及び、画像処理装置130と端末装置120との間で行われる通信を制御する。具体例を挙げて説明すると、通信インターフェース131は、X線CT装置110及び端末装置120から各種のデータや情報を受信し、受信したデータや情報を処理回路135に送信する。例えば、通信インターフェース131は、ネットワークカード、ネットワークアダプタ又はNIC(Network Interface Controller)等によって実現される。
メモリ132は、処理回路135に接続されており、各種のデータや情報を記憶する。例えば、メモリ132は、X線CT装置110から送信された短軸断面画像データ11及び短軸断面画像データ12を記憶する。
また、メモリ132は、処理回路135が各種機能を実現するためのプログラムを記憶する。例えば、メモリ132は、フラッシュメモリ等の半導体メモリ素子、ハードディスク又は光ディスク等によって実現される。メモリ132は、記憶部の一例である。
入力インターフェース133は、処理回路135に接続されており、ユーザからの各種の指示、要求及び情報の入力操作を受け付ける。例えば、入力インターフェース133は、ユーザから受け付けた入力操作を電気信号へ変換し、この電気信号を処理回路135に送信する。例えば、入力インターフェース133は、トラックボール、スイッチボタン、マウス、キーボード、操作面へ触れることで入力操作を行うタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力回路、及び、音声入力回路等によって実現される。なお、本明細書において、入力インターフェース133は、マウス、キーボード等の物理的な操作部品を備えるものだけに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を処理回路135へ送信する電気信号の処理回路も入力インターフェース133の例に含まれる。
ディスプレイ134は、処理回路135に接続されており、各種の情報及び画像を表示する。例えば、ディスプレイ134は、処理回路135から送信される情報及びデータを表示用の電気信号に変換して出力する。例えば、ディスプレイ134は、液晶モニタやCRT(Cathode Ray Tube)モニタ、タッチパネル等によって実現される。
処理回路135は、入力インターフェース133を介してユーザから受け付けた入力操作に応じて、画像処理装置130の動作を制御する。例えば、処理回路135は、プロセッサによって実現される。
以上、本実施形態に係る医用処理システム1の構成の一例について説明した。例えば、医用処理システム1に含まれる画像処理装置130は、病院や医院等の医療機関に設置され、医療機関に入院又は通院する患者等を被検体として、X線CT装置110によって生成される画像データ(例えば、短軸断面画像データ)を用いた各種の画像診断に利用される。本実施形態では、画像処理装置130は、高い精度の流体解析結果を得ることが可能な学習済みモデルを得ることができるように、以下に説明する各種の処理を実行する。
以下、本実施形態に係る画像処理装置130の詳細について説明する。図1に示すように、画像処理装置130の処理回路135は、制御機能135a、取得機能135b、学習用データセット生成機能135c、学習済みモデル生成機能135d、推定機能135e、解析機能135f及び出力機能135gを実行する。
ここで、例えば、処理回路135が有する各処理機能は、コンピュータによって実行可能なプログラムの形態でメモリ132に記憶される。すなわち、図1に示す処理回路135の構成要素である制御機能135a、取得機能135b、学習用データセット生成機能135c、学習済みモデル生成機能135d、推定機能135e、解析機能135f及び出力機能135gの各処理機能は、コンピュータによって実行可能なプログラムの形態でメモリ132に記憶されている。処理回路135は、各プログラムをメモリ132から読み出し、読み出された各プログラムを実行することで、各プログラムに対応する機能を実現する。換言すると、各プログラムを読み出した状態の処理回路135は、図1の処理回路135内に示された各機能を有することとなる。
制御機能135aは、入力インターフェース133を介して入力された各種指示及び各種要求に応じた処理を実行するように、画像処理装置130の通信インターフェース131、メモリ132、ディスプレイ134、及び、各機能135b~135gを制御する。例えば、制御機能135aは、通信インターフェース131を介した各種データ及び各種情報の送受信、メモリ132へのデータ及び情報の格納、ディスプレイ134に対する各種画像の表示等を制御する。
例えば、制御機能135aは、学習時にX線CT装置110から送信された短軸断面画像データ11をメモリ132に格納する。また、制御機能135aは、運用時にX線CT装置110から送信された短軸断面画像データ12をメモリ132に格納する。
取得機能135bは、各種のデータを取得する。例えば、取得機能135bは、学習時に、メモリ132に記憶された短軸断面画像データ11を取得する。また、取得機能135bは、運用時に、メモリ132に記憶された短軸断面画像データ12を取得する。
学習用データセット生成機能135cは、学習済みモデルを生成する際に用いられる学習用データのセットを学習時に生成する。以下、学習用データセット生成機能135cによる学習用データのセットを生成する方法の一例について説明する。
図4は、第1の実施形態に係る画像処理装置130が実行する処理の一例を説明するための図である。図4には、第1の実施形態の学習時における学習済みモデル30の生成方法の一例が示されている。
学習用データセット生成機能135cは、学習済みモデル30を生成する際に教師データとして用いられる輪郭画像データ14を生成する。輪郭画像データ14は、短軸断面画像データ11が示す短軸断面における冠動脈の内壁の輪郭が精度良く描出された画像データである。輪郭画像データ14は、短軸断面画像データ11に対して処理が実行されることにより得られた画像データであり、第1の処理結果の一例である。輪郭画像データ14を生成する方法の一例について説明する。
例えば、学習用データセット生成機能135cは、短軸断面画像データ11に基づく短軸断面画像をディスプレイ134に表示させる。ディスプレイ134に表示された短軸断面画像には、冠動脈の内壁の輪郭が含まれる。そして、ユーザから、表示された輪郭の正確な位置及び正確な形状を示す輪郭情報を受け付ける。具体例を挙げて説明すると、ユーザは、表示された輪郭を確認しながら、入力インターフェース133を操作して、輪郭の正確な位置及び正確な形状を示す輪郭情報を、処理回路135に入力する。
学習用データセット生成機能135cは、輪郭情報を受け付けた場合には、輪郭情報に基づいて、冠動脈の内壁の輪郭が、正確な位置に正確な形状で描出された輪郭画像データ14を生成する。
学習済みモデル生成機能135dは、学習時に、学習済みモデル30を生成する。図4に示すように、学習時には、学習済みモデル生成機能135dは、短軸断面画像データ11と輪郭画像データ14との関係を学習することによって学習済みモデル30を生成する。
このように、学習済みモデル生成機能135dは、短軸断面画像データ11と輪郭画像データ14とを対応付けて学習することによって学習済みモデル30を生成する。例えば、学習時には、学習用データセット生成機能135cは、短軸断面画像データ11と輪郭画像データ14との組を複数生成する。そして、学習済みモデル生成機能135dは、複数の組を用いて学習済みモデル30を生成する。
例えば、学習済みモデル生成機能135dは、短軸断面画像データ11を入力画像データとし、輪郭画像データ14を教師データとして機械エンジンに入力することによって、機械学習を行う。例えば、機械学習エンジンは、ディープラーニング(Deep Learning)、ニューラルネットワーク(Neural Network)、ロジスティック(Logistic)回帰分析、非線形判別分析、サポートベクターマシン(Support Vector Machine:SVM)、ランダムフォレスト(Random Forest)、ナイーブベイズ(Naive Bays)等の各種のアルゴリムを用いて、機械学習を行う。
学習済みモデル生成機能135dは、このような機械学習の結果として学習済みモデル30を生成する。学習済みモデル30は、短軸断面画像データ11に相当する画像データが入力されることで、輪郭画像データ14に相当する画像データを推定(生成)し、出力する。
ここで、学習済みモデル生成機能135dは、機械学習において、図4に示す差分情報25を学習済みモデル30にフィードバックすることで、高い精度の流体解析結果を得るための画像データを推定することが可能な学習済みモデル30を得る。図5を参照して、差分情報25の生成方法の一例、及び、フィードバックの一例について説明する。
図5は、第1の実施形態に係る画像処理装置130が学習時に実行する、学習済みモデル30を更新(生成)する処理の一例を説明するための図である。図5に示すように、学習用データセット生成機能135cは、上述したような方法で、短軸断面画像データ11から輪郭画像データ14を生成する。輪郭画像データ14には、冠動脈の内壁の輪郭14aが描出されている。
そして、学習用データセット生成機能135cは、輪郭画像データ14に対して流体解析処理を実行する。流体解析処理は、解析処理の一例である。具体例を挙げて説明すると、学習用データセット生成機能135cは、X線CT装置110から送信された複数の短軸断面画像データ11に基づく複数の輪郭画像データ14に描出された複数の輪郭14aを繋ぎ合わせることにより、冠動脈の内壁の輪郭14aの3次元形状を推定する。そして、学習用データセット生成機能135cは、推定された輪郭14aの3次元形状を用いて、輪郭14aの圧力分布や、血流速度分布、又は、FFR(Fractional Flow Reserve)値等の流体解析結果を得るための流体解析処理を実行する。これにより、学習用データセット生成機能135cは、複数の輪郭画像データ14のそれぞれが示す短軸断面毎に、圧力、血流速度又はFFR値等の流体解析結果15を得る。すなわち、学習用データセット生成機能135cは、輪郭画像データ14毎に、流体解析結果15を得る。第1の実施形態において、流体解析結果15は、例えば、第2の解析処理結果の一例である。
なお、図5において、模式的に、流体解析結果15がカラー画像データにより示されている。そして、図5において、このカラー画像データが、輪郭画像データ14の輪郭14a内の領域に重畳されている。このカラー画像データを構成する複数のピクセルのそれぞれには、RGB値が設定される。R(R値)は赤色に対応し、G(G値)は緑色に対応し、B(B値)は青色に対応する。例えば、各ピクセルに設定されるRGB値は、「(R,G,B)」で表される。ただし、各ピクセルには、R値として解析指標の値が設定され、G値及びB値として「0」が設定される。他の流体解析結果についても同様に模式的に図示される。
また、学習用データセット生成機能135cは、短軸断面画像データ11を学習済みモデル30に入力することで、学習済みモデル30に輪郭画像データ16を推定させて出力させる。すなわち、学習用データセット生成機能135cは、学習済みモデル30を使用して、短軸断面画像データ11を基に、輪郭画像データ16を推定し出力する。輪郭画像データ16は、輪郭画像データ14に相当する画像データである。輪郭画像データ16には、冠動脈の内壁の輪郭16aが描出されている。輪郭画像データ16は、第2の処理結果の一例である。
そして、学習用データセット生成機能135cは、輪郭画像データ16に対して流体解析処理を実行する。具体例を挙げて説明すると、学習用データセット生成機能135cは、X線CT装置110から送信された複数の短軸断面画像データ11に基づく複数の輪郭画像データ16に描出された複数の輪郭16aを繋ぎ合わせることにより、冠動脈の内壁の輪郭16aの3次元形状を推定する。そして、学習用データセット生成機能135cは、推定された輪郭16aの3次元形状を用いて、上述した輪郭14aの3次元形状を用いて実行した流体解析処理と同様の流体解析処理を実行する。これにより、学習用データセット生成機能135cは、複数の輪郭画像データ16のそれぞれが示す短軸断面毎に、流体解析結果17を得る。すなわち、学習用データセット生成機能135cは、輪郭画像データ16毎に、流体解析結果17を得る。第1の実施形態において、流体解析結果17は、例えば、第3の解析処理結果の一例である。
そして、学習用データセット生成機能135cは、流体解析結果15と流体解析結果17との差(差分、誤差)を示す差分情報25を生成する。例えば、学習用データセット生成機能135cは、流体解析結果15としてFFR値「A」を取得し、流体解析結果17としてFFR値「B」を取得した場合、2つのFFR値の差(B-A)を示す差分情報25を生成する。また、学習用データセット生成機能135cは、流体解析結果15,17として、FFR値以外の指標を取得した場合にも、同様の方法で差分情報25を生成する。
ここで、輪郭14aが描出された輪郭画像データ14は、ユーザが入力インターフェース133を操作することによって得られたものである。そのため、輪郭画像データ14には、輪郭14aの正確(又は略正確)な形状が、正確(又は略正確)な位置に描出される。そして、流体解析結果15は、このような輪郭画像データ14に基づく流体解析結果である。そのため、流体解析結果15の精度は、比較的高いと考えられる。そして、差分情報25が示す差が所定の閾値以下である場合には、流体解析結果17は、流体解析結果15と同様の高い精度の流体解析結果である。
そこで、学習済みモデル生成機能135dは、差分情報25を学習済みモデル30にフィードバックする。例えば、学習済みモデル生成機能135dは、機械学習において、差分情報25が示す差が小さくなるように、学習済みモデル30を更新する。
学習済みモデル生成機能135dが学習済みモデル30を更新する方法の一例について説明する。例えば、学習済みモデル生成機能135dは、まず、重み及びバイアスを所定の規則に基づいて変更するか、又は、重み及びバイアスをランダムに変更する。そして、学習済みモデル生成機能135dは、変更後の重み及び変更後のバイアスが設定された学習済みモデル30に、短軸断面画像データ11を再び入力することにより、新たな輪郭画像データ16を推定させて出力させる。そして、学習済みモデル生成機能135dは、新たな輪郭画像データ16に対して流体解析処理を実行することにより、新たな流体解析結果17を得る。そして、学習用データセット生成機能135cは、流体解析結果15と、新たな流体解析結果17との差を示す新たな差分情報25を生成する。そして、学習済みモデル生成機能135dは、新たな差分情報25が示す差が、所定の閾値以下であるか否かを判定する。
学習済みモデル生成機能135dは、新たな差分情報25が示す差が所定の閾値よりも大きい場合には、上述した処理(重み及びバイアスを変更してから新たな差分情報25が示す差が所定の閾値以下であるか否かを判定するまでの処理)を再び行う。
一方、学習済みモデル生成機能135dは、新たな差分情報25が示す差が所定の閾値以下である場合には、学習済みモデル30を更新する処理を終了する。このように、学習済みモデル生成機能135dは、差分情報25が示す差が所定の閾値以下となるように重み及びバイアスを調整することにより、学習済みモデル30を更新(生成)する。すなわち、学習済みモデル生成機能135dは、差分情報25が示す差が所定の閾値以下となるように、学習済みモデル30を更新(生成)する。学習用データセット生成機能135c及び学習済みモデル生成機能135dは、短軸断面画像データ11毎に、学習済みモデル30を更新する処理を実行する。
このようにして得られる学習済みモデル30によれば、最終的に、流体解析結果17が流体解析結果15に近づき、流体解析結果15と流体解析結果17との差が所定の閾値以下となる。したがって、第1の実施形態によれば、学習時に、高い精度の流体解析結果を得るための輪郭画像データを推定することが可能な学習済みモデル30を得ることができる。すなわち、第1の実施形態によれば、高い精度の流体解析結果を得ることが可能な学習済みモデル30を得ることができる。
そして、学習済みモデル生成機能135dは、得られた学習済みモデル30をメモリ132に記憶させる。学習用データセット生成機能135c及び学習済みモデル生成機能135dは、例えば、生成部の一例である。
推定機能135eは、学習済みモデル30を用いて、運用時に、流体解析処理の対象である冠動脈の内壁の輪郭が描出された輪郭画像データを推定し、推定した輪郭画像データを出力する。推定機能135eは、推定部の一例である。図6を参照して、推定機能135eが実行する処理の一例について説明する。図6は、第1の実施形態に係る推定機能135eが実行する処理の一例について説明するための図である。図6には、第1の実施形態の運用時における輪郭画像データ31の推定方法の一例が示されている。
推定機能135eは、運用時に取得機能135bにより取得された短軸断面画像データ12を学習済みモデル30に入力することで、学習済みモデル30に輪郭画像データ31を推定させて出力させる。すなわち、推定機能135eは、学習済みモデル30を使用して、短軸断面画像データ12を基に、輪郭画像データ31を推定し出力する。ここで、運用時に、X線CT装置110から複数の短軸断面画像データ12が送信される。そのため、推定機能135eは、学習済みモデル30を使用して、複数の短軸断面画像データ12それぞれを基に、複数の輪郭画像データ31のそれぞれを推定し出力する。第1の実施形態において、輪郭画像データ31は、第3の処理結果の一例である。
推定機能135eは、輪郭画像データ31を解析機能135fに出力する。輪郭画像データ31は、輪郭画像データ14に相当する画像データである。輪郭画像データ31には、冠動脈の内壁の輪郭が描出されている。
解析機能135fは、輪郭画像データ31に対して流体解析処理を実行することにより流体解析処理の結果を取得する。流体解析処理の結果は、例えば、第1の解析処理結果の一例である。具体例を挙げて説明すると、解析機能135fは、複数の短軸断面画像データ12に基づく複数の輪郭画像データ31に描出された複数の輪郭を繋ぎ合わせることにより、冠動脈の内壁の輪郭の3次元形状を推定する。そして、解析機能135fは、推定された輪郭の3次元形状を用いて、冠動脈の内壁の圧力分布や、血流速度分布、又は、FFR値等の流体解析結果を得るための流体解析を実行する。これにより、解析機能135fは、複数の輪郭画像データ31のそれぞれが示す短軸断面毎に、圧力、血流速度又はFFR値等の流体解析結果を得る。すなわち、解析機能135fは、輪郭画像データ31毎に、流体解析結果を得る。解析機能135fは、解析部の一例である。
ここで、輪郭画像データ31は、学習済みモデル30により推定された高い精度の流体解析結果を得るための画像データである。よって、解析機能135fは、高い精度の流体解析結果を得る。したがって、第1の実施形態によれば、運用時に、高い精度の流体解析結果を得ることができる。
出力機能135gは、各種の画像データに基づく画像や、解析機能135fにより実行された流体解析処理により得られた流体解析結果等をディスプレイ134に表示させる。
以上、第1の実施形態の画像処理装置130が実行する学習時の処理及び運用時の処理の一例について説明した。なお、差分情報25が、流体解析結果15と流体解析結果17との差を示す場合について説明したが、差分情報25は、これに限られない。例えば、差分情報25が、流体解析結果15と流体解析結果17との差、及び、輪郭14aと輪郭16aとの差を示す情報であってもよい。図7は、第1の実施形態に係る輪郭14aと輪郭16aとの差の一例を説明するための図である。例えば、図7に示すように、輪郭14aと輪郭16aとの差は、輪郭14a内の領域のうち、輪郭16a内の領域が重なっていない領域(図7において斜線で示す領域)の面積と、輪郭16a内の領域のうち、輪郭14a内の領域が重なっていない領域の面積との和である。
この場合、学習済みモデル生成機能135dは、機械学習において、差分情報25が示す流体解析結果15と流体解析結果17との差及び輪郭14aと輪郭16aとの差が小さくなるように、学習済みモデル30を更新する。例えば、学習済みモデル生成機能135dは、上述した流体解析結果15と流体解析結果17との差が小さくなるように学習済みモデル30を更新する方法と同様の方法で、流体解析結果15と流体解析結果17との差及び輪郭14aと輪郭16aとの差が小さくなるように、学習済みモデル30を更新する。
例えば、差分情報25が、流体解析結果15と流体解析結果17との差、及び、輪郭14aと輪郭16aとの差の加重平均値(重み付き平均値)を示す情報であってもよい。この場合、学習済みモデル生成機能135dは、機械学習において、差分情報25が示す加重平均値が小さくなるように、学習済みモデル30を更新する。例えば、学習済みモデル生成機能135dは、上述した流体解析結果15と流体解析結果17との差が小さくなるように学習済みモデル30を更新する方法と同様の方法で、加重平均値が小さくなるように、学習済みモデル30を更新する。
次に、画像処理装置130が実行する処理の流れの一例について説明する。図8は、第1の実施形態に係る画像処理装置130が学習時に実行する処理の流れの一例を示すフローチャートである。図8に示す処理は、例えば、ユーザが入力インターフェース133を介して学習済みモデル30を生成する処理を実行するための指示を処理回路135に入力した場合に実行される。
図8に示すように、取得機能135bは、メモリ132に記憶された短軸断面画像データ11を取得する(ステップS101)。
そして、学習用データセット生成機能135cは、短軸断面画像データ11に基づく短軸断面画像をディスプレイ134に表示させる(ステップS102)。そして、学習用データセット生成機能135cは、ユーザから、輪郭情報を受け付けたか否かを判定する(ステップS103)。学習用データセット生成機能135cは、輪郭情報を受け付けていないと判定した場合(ステップS103:No)には、再び、ステップS103の判定を行う。
学習用データセット生成機能135cは、輪郭情報を受け付けたと判定した場合(ステップS103:Yes)には、輪郭情報に基づいて、冠動脈の内壁の輪郭14aが、正確な位置に正確な形状で描出された輪郭画像データ14を生成する(ステップS104)。
そして、学習済みモデル生成機能135dは、短軸断面画像データ11と輪郭画像データ14とを対応付けて学習することによって学習済みモデル30を生成する(ステップS105)。
そして、学習用データセット生成機能135cは、輪郭画像データ14に対して流体解析処理を実行し、流体解析結果15を得る(ステップS106)。そして、学習用データセット生成機能135cは、学習済みモデル30を使用して、短軸断面画像データ11を基に、輪郭画像データ16を推定する(ステップS107)。そして、学習用データセット生成機能135cは、輪郭画像データ16に対して流体解析処理を実行し、流体解析結果17を得る(ステップS108)。
そして、学習用データセット生成機能135cは、流体解析結果15と流体解析結果17との差を示す差分情報25を生成する(ステップS109)。そして、学習済みモデル生成機能135dは、機械学習において、差分情報25が示す差が小さくなるように、学習済みモデル30を更新する(ステップS110)。そして、学習済みモデル生成機能135dは、生成した学習済みモデル30をメモリ132に記憶させ(ステップS111)、図8に示す処理を終了する。
図9は、第1の実施形態に係る画像処理装置130が運用時に実行する処理の流れの一例を示すフローチャートである。図9に示す処理は、例えば、ユーザが入力インターフェース133を介して、解析機能135fによる流体解析処理を実行するための指示を処理回路135に入力した場合に実行される。
図9に示すように、取得機能135bは、メモリ132に記憶された短軸断面画像データ12を取得する(ステップS201)。そして、推定機能135eは、学習済みモデル30を用いて、短軸断面画像データ12を基に、輪郭画像データ31を推定し出力する(ステップS202)。
そして、解析機能135fは、輪郭画像データ31に対して流体解析処理を実行し、流体解析結果を得る(ステップS203)。そして、出力機能135gは、流体解析結果をディスプレイ134に表示させ(ステップS204)、図9に示す処理を終了する。
以上、第1の実施形態について説明した。第1の実施形態によれば、上述したように、高い精度の流体解析結果を得ることが可能な学習済みモデル30を得ることができる。
(第1の実施形態の変形例1)
なお、第1の実施形態では、短軸断面画像データ12が入力されることで、輪郭画像データ31を推定する学習済みモデル30が用いられる場合について説明した。しかしながら、このような学習済みモデル30に代えて他の学習済みモデルが第1の実施形態において用いられてもよい。また、第1の実施形態では、画像処理装置130が、学習時の機械学習及び運用時において、学習済みモデル30により推定された画像データ(輪郭画像データ)に対して流体解析処理を行う場合について説明した。しかしながら、第1の実施形態において、画像処理装置130は、学習時の機械学習及び運用時において、学習済みモデルにより推定された推定結果に対して、流体解析処理に代えて、流体解析処理以外の他の解析処理を行ってもよい。
そこで、このような他の学習済みモデルが用いられるとともに、他の解析処理が実行される変形例を第1の実施形態の変形例1として説明する。以下の変形例1の説明では、第1の実施形態と異なる点を主に説明し、第1の実施形態と同様の点については説明を省略する場合がある。
例えば、変形例1では、各種の画像データを推定する学習済みモデルが用いられても良い。具体例を挙げて説明すると、生データが入力されることで、2次元又は3次元のCT画像データを推定する学習済みモデルが用いられてもよい。また、CT画像データが入力されることで、アーチファクト及びノイズの少なくとも一方が低減されたCT画像データを推定する学習済みモデルが用いられてもよい。また、ある医用画像診断装置により得られた画像データが入力されることで、他の医用画像診断装置により得られる画像データを推定する学習済みモデルが用いられても良い。例えば、磁気共鳴イメージング(Magnetic Resonance Imaging:MRI)装置により得られたMR画像データが入力されることで、CT画像データを推定する学習済みモデルが用いられてもよい。
そして、変形例1において、画像処理装置130は、学習時の機械学習及び運用時において、学習済みモデルにより推定された画像データに対して、流体解析処理以外の他の解析処理を行ってもよい。このような他の解析処理としては、画像データに含まれる解析対象の部位の輪郭を抽出する処理、画像データから病変部位を検出する処理、画像データから病変部位の輪郭を検出する処理、及び、画像データから病変部位の種別を特定する処理が挙げられる。これらの処理に用いられる画像データは、2次元又は3次元の画像データである。
また、変形例1において、2次元又は3次元のCT画像データが入力されることで、2次元又は3次元の輪郭画像データを推定する学習済みモデルが用いられてもよい。例えば、輪郭画像データは、CT画像データに描出された部位の輪郭が描出された画像データである。
そして、変形例1において、画像処理装置130は、学習時の機械学習及び運用時において、学習済みモデルにより推定された輪郭画像データに対して、流体解析処理を実行してもよいし、流体解析処理以外の他の解析処理を行ってもよい。以下、画像処理装置130が実行する他の解析処理の例について説明する。例えば、画像処理装置130は、複数の輪郭画像データに描出された複数の輪郭を繋ぎ合わせることにより、解析対象の部位の輪郭の3次元形状を推定する。そして、画像処理装置130は、推定された輪郭の3次元形状を用いて、解析対象の部位の体積を計算する解析処理を実行する。
他の例としては、画像処理装置130は、推定された輪郭画像データから病変部位を検出する処理を実行してもよい。なお、病変部位を検出する処理に用いられる輪郭画像データは、2次元の画像データであってもよいし、複数の2次元の画像データであってもよい。複数の2次元の画像データが用いられる場合には、病変部位を検出する処理に、輪郭の3次元形状が用いられる。
また、画像処理装置130は、輪郭画像データから病変部位を検出する処理を実行する場合、被検体に対する医師による病変部位の有無についての診断結果と、画像処理装置130による病変部位の検出結果とが異なる場合、医師による診断結果を正解とし、画像処理装置130による検出結果が不正解であることを示す差分情報を学習済みモデルにフィードバックする。
例えば、医師により病変部位があると診断されたにも関わらず、画像処理装置130によって輪郭画像データから病変部位が検出されない場合がある。この場合、画像処理装置130は、機械学習において、医師により、あると診断された病変部位が検出されるような輪郭画像データを推定するように学習済みモデルを更新する。
また、例えば、医師により病変部位が無いと診断されたにも関わらず、画像処理装置130によって輪郭画像データから病変部位が検出される場合がある。この場合、画像処理装置130は、機械学習において、医師により無いと診断された病変部位が検出されないような輪郭画像データを推定するように学習済みモデルを更新する。
また、学習済みモデルは、画像データを基に、被検体の状態を推定してもよい。図10は、第1の実施形態の変形例1に係る画像処理装置130が実行する処理の一例について説明するための図である。
図10に示す学習済みモデル36~38は、画像データ35が入力されることで、被検体の状態を推定し、推定した被検体の状態を示す推定結果41~43を出力する。例えば、画像データ35は、X線CT装置110から画像処理装置130へ送信されたMPR画像データである。このMPR画像データには、被検体の所定の部位が描出されている。
例えば、学習済みモデル36は、画像データ35が入力されることで、被検体の腹囲(cm)を推定し、推定した被検体の腹囲を示す推定結果41を出力する。また、学習済みモデル37は、画像データ35が入力されることで、被検体の血圧(mmHg)を推定し、推定した被検体の血圧を示す推定結果42を出力する。また、学習済みモデル38は、画像データ35が入力されることで、被検体の体脂肪率(%)を推定し、推定した被検体の体脂肪率を示す推定結果43を出力する。
したがって、画像処理装置130の推定機能135eは、学習済みモデル36を使用して、画像データ35を基に、被検体の腹囲を推定し、被検体の腹囲を示す推定結果41を出力する。また、推定機能135eは、学習済みモデル37を使用して、画像データ35を基に、被検体の血圧を推定し、被検体の血圧を示す推定結果42を出力する。また、推定機能135eは、学習済みモデル38を使用して、画像データ35を基に、被検体の体脂肪率を推定し、被検体の体脂肪率を示す推定結果43を出力する。
そして、画像処理装置130の解析機能135fは、推定結果41~43に基づいて、被検体が罹患している病気の名前(病名)を決定する病名決定処理を実行する。ここで、病名決定処理を実行する際に用いられる病名決定用テーブルについて説明する。図11は、第1の実施形態の変形例1に係る病名決定用テーブル45のデータ構造の一例を示す図である。
図11に示す病名決定用テーブル45は、メモリ132に記憶されている。病名決定用テーブル45には、複数のレコードが登録されている。各レコードは、「腹囲」の項目、「血圧」の項目、「体脂肪率」の項目及び「病名」の項目を有する。
「腹囲」の項目には、被検体の腹囲の範囲が登録されている。例えば、図11に示すように、「腹囲」の項目には、腹囲の範囲「100以上110未満(100~110)」や腹囲の範囲「110以上120未満(110~120)」が登録されている。
「血圧」の項目には、被検体の血圧の範囲が登録されている。例えば、図11に示すように、「血圧」の項目には、血圧の範囲「140以上150未満(140~150)」や血圧の範囲「150以上160未満(150~160)」が登録されている。
「体脂肪率」の項目には、被検体の体脂肪率の範囲が登録されている。例えば、図11に示すように、「体脂肪率」の項目には、体脂肪率の範囲「20以上30未満(20~30)」や体脂肪率の範囲「30以上40未満(30~40)」が登録されている。
「病名」の項目には、被検体の腹囲が「腹囲」の項目に登録された腹囲の範囲内であり、被検体の血圧が「血圧」の項目に登録された血圧の範囲内であり、被検体の体脂肪率が「体脂肪率」の項目に登録された体脂肪率の範囲内である場合に、被検体が罹患していると想定される病気の名前が登録されている。
例えば、病名決定用テーブル45の上から1番目のレコードは、被検体の腹囲が100以上110未満であり、被検体の血圧が140以上150未満であり、被検体の体脂肪率が20以上30未満である場合に、被検体が罹患していると想定される病気の名前が「AA」であることを示す。同様に、病名決定用テーブル45の上から2番目のレコードは、被検体の腹囲が110以上120未満であり、被検体の血圧が150以上160未満であり、被検体の体脂肪率が30以上40未満である場合に、被検体が罹患していると想定される病気の名前が「BB」であることを示す。
解析機能135fは、推定結果41~43に基づいて、病名決定用テーブル45を用いて病名決定処理を実行する。例えば、解析機能135fは、病名決定用テーブル45の全レコードの中から、推定結果41~43に合致するレコードを特定する。推定結果41~43に合致するレコードとは、推定結果41が示す腹囲を含む腹囲の範囲が「腹囲」の項目に登録され、推定結果42が示す血圧を含む血圧の範囲が「血圧」の項目に登録され、推定結果43が示す体脂肪率を含む体脂肪率の範囲が「体脂肪率」の項目に登録されたレコードである。
そして、解析機能135fは、特定したレコードの「病名」の項目に登録された病気の名前を特定することにより、被検体が罹患していると想定される病気の名前を推定する。
次に、画像処理装置130が、学習時の機械学習において、学習済みモデル36~38を更新(生成)する方法の一例について説明する。例えば、学習用データセット生成機能135cは、解析機能135fが被検体の腹囲、血圧及び体脂肪率を推定した方法と同様の方法で、学習時の機械学習において、被検体の腹囲、血圧及び体脂肪率を推定する。そして、学習用データセット生成機能135cは、解析機能135fが病名を決定した方法と同様の方法で、病名を決定する。
ここで、学習用データセット生成機能135cが、被検体の腹囲「105」、血圧「145」及び体脂肪率「25」を推定し、病名「AA」を決定したものの、医師によって、被検体が罹患している病気の名前が「BB」であると診断された場合について説明する。この場合、ユーザが入力インターフェース133を操作することにより、医師による診断結果を示す診断結果情報(病名が「BB」であることを示す情報)がメモリ132に記憶される。なお、学習用データセット生成機能135cにより決定された病名「AA」は、例えば、第2の解析処理結果の一例である。また、医師によって診断された病名「BB」は、例えば、第3の解析処理結果の一例である。
このような場合、画像処理装置130は、医師による診断結果と、学習用データセット生成機能135cによる解析結果(病名の決定結果)との差を示す差分情報を、誤った推定結果を出力した学習済みモデルに対してフィードバックする。
例えば、学習用データセット生成機能135cは、病名「AA」と病名「BB」とが異なるため、病名決定用テーブル45を参照し、被検体の実際の腹囲を含む腹囲の範囲、実際の血圧を含む血圧の範囲及び実際の体脂肪率を含む体脂肪率の範囲を推定する。
被検体の実際の腹囲を含む腹囲の範囲、実際の血圧を含む血圧の範囲及び実際の体脂肪率を含む体脂肪率の範囲を推定する方法の一例について説明する。例えば、学習用データセット生成機能135cは、病名決定用テーブル45の全レコードの中から、病名「BB」が「病名」の項目に登録されたレコードを特定する。そして、学習用データセット生成機能135cは、特定したレコードの「腹囲」の項目に登録された腹囲の範囲「110以上120未満」を、被検体の実際の腹囲を含む範囲として推定する。また、学習用データセット生成機能135cは、特定したレコードの「血圧」の項目に登録された血圧の範囲「150以上160未満」を、被検体の実際の血圧を含む範囲として推定する。また、学習用データセット生成機能135cは、特定したレコードの「体脂肪率」の項目に登録された体脂肪率の範囲「30以上40未満」を、被検体の実際の体脂肪率を含む範囲として推定する。
そして、学習用データセット生成機能135cは、病名決定用テーブル45の「腹囲」の項目に登録された腹囲の範囲であって、学習済みモデル36により推定された腹囲「105」を含む腹囲の範囲「100以上110未満」を特定する。同様に、学習用データセット生成機能135cは、病名決定用テーブル45の「血圧」の項目に登録された血圧の範囲であって、学習済みモデル37により推定された血圧「145」を含む血圧の範囲「140以上150未満」を特定する。また、学習用データセット生成機能135cは、病名決定用テーブル45の「体脂肪率」の項目に登録された体脂肪率の範囲であって、学習済みモデル38により推定された体脂肪率「25」を含む体脂肪率の範囲「20以上30未満」を特定する。
そして、学習用データセット生成機能135cは、学習済みモデル36により推定された腹囲「105」を含む腹囲の範囲「100以上110未満」と、被検体の実際の腹囲を含む範囲「110以上120未満」とが一致するか否かを判定する。一致しない場合には、学習用データセット生成機能135cは、病名「AA」が不正解であり病名「BB」が正解であることを示す差分情報を算出する。そして、学習済みモデル生成機能135dは、機械学習において、差分情報に基づいて学習済みモデル36を更新する。
学習用データセット生成機能135c及び学習済みモデル生成機能135dは、学習済みモデル36に対して実行した処理と同様の処理を、学習済みモデル37,38に対しても実行する。
具体的には、学習用データセット生成機能135cは、学習済みモデル37により推定された血圧「145」を含む血圧の範囲「140以上150未満」と、被検体の実際の血圧を含む範囲「150以上160未満」とが一致するか否かを判定する。一致しない場合には、学習用データセット生成機能135cは、病名「AA」が不正解であり病名「BB」が正解であることを示す差分情報を算出する。そして、学習済みモデル生成機能135dは、機械学習において、差分情報に基づいて学習済みモデル37を更新する。
また、学習用データセット生成機能135cは、学習済みモデル38により推定された体脂肪率「25」を含む体脂肪率の範囲「20以上30未満」と、被検体の実際の体脂肪率を含む範囲「30以上40未満」とが一致するか否かを判定する。一致しない場合には、学習用データセット生成機能135cは、病名「AA」が不正解であり病名「BB」が正解であることを示す差分情報を算出する。そして、学習済みモデル生成機能135dは、機械学習において、差分情報に基づいて学習済みモデル38を更新する。
第1の実施形態の変形例1について説明した。変形例1では、学習用データセット生成機能135c及び学習済みモデル生成機能135dは、複数の学習済みモデル36~38のうち、学習用データセット生成機能135cにより決定された病名と医師により診断された病名とが異なる場合に対応する学習済みモデルを、学習用データセット生成機能135cにより決定された病名と医師により診断された病名との差が小さくなるように更新することにより、学習済みモデルを生成する。したがって、変形例1によれば、第1の実施形態と同様に、高い精度の解析結果を得ることが可能な学習済みモデルを得ることができる。
(第2の実施形態)
次に、第2の実施形態に係る画像処理装置について説明する。以下の第2の実施形態の説明では、第1の実施形態と異なる点を主に説明し、第1の実施形態と同様の点については説明を省略する場合がある。また、第1の実施形態と同様の構成については、同一の符号を付し、説明を省略する場合がある。
図12は、第2の実施形態に係る医用処理システム2の構成の一例を示す図である。図12に示す医用処理システム2は、画像処理装置130に代えて画像処理装置230を備える点が、図1に示す医用処理システム1と異なる。図12に示す画像処理装置230は、処理回路135に代えて処理回路235を備える点が、図1に示す画像処理装置130と異なる。処理回路235は、例えば、プロセッサにより実現される。処理回路235は、学習用データセット生成機能135c、学習済みモデル生成機能135d及び推定機能135eに代えて、学習用データセット生成機能235c、学習済みモデル生成機能235d及び推定機能235eを備える点が、図1に示す処理回路135と異なる。また、処理回路235は、解析機能135fを備えない点が、処理回路135と異なる。
以下、学習用データセット生成機能235c、学習済みモデル生成機能235d及び推定機能235eが実行する処理のうち、学習用データセット生成機能135c、学習済みモデル生成機能135d及び推定機能135eが実行する処理と異なる点を主に説明する。図13は、第2の実施形態に係る学習用データセット生成機能235c及び学習済みモデル生成機能235dが実行する処理の一例を説明するための図である。図13には、第2の実施形態の学習時における学習済みモデル50の生成方法の一例が示されている。図13に示すように、学習時には、学習済みモデル生成機能235dは、短軸断面画像データ11と、輪郭画像データ14及び流体解析結果15の組との関係を学習することによって学習済みモデル50を生成する。第2の実施形態において、短軸断面画像データ11は、例えば、第1の画像データの一例である。また、第2の実施形態において、輪郭画像データ14は、例えば、短軸断面画像データ11に対して処理が実行されることにより得られた第1の処理結果の一例である。また、第2の実施形態において、流体解析結果15は、例えば、輪郭画像データ14に対して流体解析処理を実行することにより取得された第1の解析処理結果の一例である。
このように、学習済みモデル生成機能235dは、短軸断面画像データ11と、輪郭画像データ14及び流体解析結果15の組とを対応付けて学習することによって学習済みモデル50を生成する。例えば、学習時には、学習用データセット生成機能235cは、短軸断面画像データ11、輪郭画像データ14及び流体解析結果15の組を複数生成する。そして、学習済みモデル生成機能235dは、生成した複数の組を用いて学習済みモデル50を生成する。
例えば、学習済みモデル生成機能235dは、短軸断面画像データ11を入力データとし、輪郭画像データ14及び流体解析結果15を教師データとして機械エンジンに入力することによって、機械学習を行う。
学習済みモデル生成機能235dは、このような機械学習の結果として学習済みモデル50を生成する。学習済みモデル50は、短軸断面画像データ11に相当する画像データが入力されることで、輪郭画像データ14に相当する画像データを推定(生成)し、出力するとともに、流体解析結果15に相当する流体解析結果を推定し、出力する。
ここで、学習済みモデル生成機能235dは、機械学習において、図13に示す差分情報25,26,27を学習済みモデル50にフィードバックすることで、高い精度の流体解析結果を得ることが可能な学習済みモデル50を得る。図14を参照して、差分情報25,26,27の生成方法の一例、及び、フィードバックの一例について説明する。
図14は、第2の実施形態に係る画像処理装置230が学習時に実行する、学習済みモデル50を更新(生成)する処理の一例を説明するための図である。図14に示すように、学習用データセット生成機能235cは、第1の実施形態と同様に、短軸断面画像データ11から輪郭画像データ14を生成する。また、学習用データセット生成機能235cは、第1の実施形態と同様に、輪郭画像データ14に対して流体解析処理を実行し、流体解析結果15を得る。
また、学習用データセット生成機能235cは、短軸断面画像データ11を学習済みモデル50に入力することで、学習済みモデル50に輪郭画像データ16及び流体解析結果18を推定させて出力させる。すなわち、学習用データセット生成機能235cは、学習済みモデル50を使用して、短軸断面画像データ11を基に、輪郭画像データ16及び流体解析結果18を推定し出力する。輪郭画像データ16は、輪郭画像データ14に相当する画像データである。流体解析結果18は、流体解析結果15に相当する解析結果である。第2の実施形態において、輪郭画像データ16は、例えば、第2の処理結果の一例である。また、第2の実施形態において、流体解析結果18は、例えば、第2の解析処理結果の一例である。
そして、学習用データセット生成機能235cは、第1の実施形態と同様に、輪郭画像データ16に対して流体解析処理を実行し、流体解析結果17を得る。第2の実施形態において、流体解析結果17は、例えば、第3の解析処理結果の一例である。
そして、学習用データセット生成機能235cは、第1の実施形態と同様に、流体解析結果15と流体解析結果17との差(差分、誤差)を示す差分情報25を生成する。また、学習用データセット生成機能235cは、流体解析結果15と流体解析結果18との差を示す差分情報26を生成する。また、学習用データセット生成機能235cは、流体解析結果17と流体解析結果18との差を示す差分情報27を生成する。
ここで、第1の実施形態においても説明したが、差分情報25が示す差が所定の閾値以下である場合には、流体解析結果17は、流体解析結果15と同様の高い精度の流体解析結果である。また、差分情報26が示す差が所定の閾値以下である場合には、流体解析結果18は、流体解析結果15と同様の高い精度の流体解析結果である。
そこで、学習済みモデル生成機能235dは、差分情報25、差分情報26及び差分情報27を学習済みモデル50にフィードバックする。例えば、学習済みモデル生成機能235dは、機械学習において、差分情報25が示す差、差分情報26が示す差、及び、差分情報27が示す差が小さくなるように、学習済みモデル50を更新する。
学習済みモデル生成機能235dが学習済みモデル50を更新する方法の一例について説明する。例えば、学習済みモデル生成機能235dは、まず、重み及びバイアスを所定の規則に基づいて変更するか、又は、重み及びバイアスをランダムに変更する。そして、学習済みモデル生成機能235dは、変更後の重み及び変更後のバイアスが設定された学習済みモデル50に、短軸断面画像データ11を再び入力することにより、新たな輪郭画像データ16及び新たな流体解析結果18を推定させて出力させる。そして、学習済みモデル生成機能235dは、新たな輪郭画像データ16に対して流体解析処理を実行することにより、新たな流体解析結果17を得る。そして、学習用データセット生成機能235cは、流体解析結果15と、新たな流体解析結果17との差を示す新たな差分情報25を生成する。また、学習用データセット生成機能235cは、流体解析結果15と、新たな流体解析結果18との差を示す新たな差分情報26を生成する。また、学習用データセット生成機能235cは、新たな流体解析結果17と新たな流体解析結果18との差を示す新たな差分情報27を生成する。
そして、学習済みモデル生成機能235dは、新たな差分情報25が示す差、新たな差分情報26が示す差、及び、新たな差分情報27が示す差が、所定の閾値以下であるか否かを判定する。
学習済みモデル生成機能235dは、新たな差分情報25が示す差、新たな差分情報26が示す差、及び、新たな差分情報27が示す差のうち少なくとも1つの差が所定の閾値よりも大きい場合には、上述した処理(重み及びバイアスを変更してから、新たな差分情報25が示す差、新たな差分情報26が示す差及び新たな差分情報27が示す差が所定の閾値以下であるか否かを判定するまでの処理)を再び行う。
一方、学習済みモデル生成機能235dは、新たな差分情報25が示す差、新たな差分情報26が示す差、及び、新たな差分情報27が示す差が所定の閾値以下である場合には、学習済みモデル50を更新する処理を終了する。学習用データセット生成機能235c及び学習済みモデル生成機能235dは、短軸断面画像データ11毎に、学習済みモデル50を更新する処理を実行する。
このようにして得られる学習済みモデル50によれば、例えば、最終的に、流体解析結果18が流体解析結果15に近づき、流体解析結果15と流体解析結果18との差が所定の閾値以下となる。したがって、第2の実施形態によれば、学習時に、高い精度の流体解析結果を得ることが可能な学習済みモデル50を得ることができる。
そして、学習済みモデル生成機能235dは、得られた学習済みモデル50をメモリ132に記憶させる。
推定機能235eは、学習済みモデル50を用いて、運用時に、流体解析処理の対象である冠動脈の内壁の輪郭が描出された輪郭画像データ、及び、この輪郭画像データに対して流体解析処理を実行することにより得られる流体解析結果を推定する。そして、推定機能235eは、推定した輪郭画像データ及び流体解析結果を出力する。図15を参照して、推定機能235eが実行する処理の一例について説明する。図15は、第2の実施形態に係る推定機能235eが実行する処理の一例について説明するための図である。図15には、第2の実施形態の運用時における輪郭画像データ51及び流体解析結果52の推定方法の一例が示されている。
推定機能235eは、運用時に取得機能135bにより取得された短軸断面画像データ12を学習済みモデル50に入力することで、学習済みモデル50に輪郭画像データ51及び流体解析結果52を推定させて出力させる。すなわち、推定機能235eは、学習済みモデル50を使用して、短軸断面画像データ12を基に、輪郭画像データ51及び流体解析結果52を推定し出力する。ここで、運用時に、X線CT装置110から複数の短軸断面画像データ12が送信される。そのため、推定機能235eは、学習済みモデル50を使用して、複数の短軸断面画像データ12それぞれを基に、複数の輪郭画像データ51のそれぞれを推定し出力するとともに、複数の流体解析結果52のそれぞれを推定し出力する。輪郭画像データ51は、輪郭画像データ14に相当する画像データである。輪郭画像データ51には、冠動脈の内壁の輪郭が描出されている。第2の実施形態において、輪郭画像データ51は、例えば、第3の処理結果の一例である。また、第2の実施形態において、流体解析結果52は、例えば、第3の解析処理結果の一例である。推定機能235eは、例えば、推定部の一例である。
推定機能235eは、輪郭画像データ51及び流体解析結果52を出力機能135gに出力する。
ここで、流体解析結果52は、学習済みモデル50により推定された高い精度の流体解析結果である。したがって、第2の実施形態によれば、運用時に、高い精度の流体解析結果を得ることができる。
出力機能135gは、各種の画像データに基づく画像や、推定機能235eにより推定された流体解析結果52等をディスプレイ134に表示させる。
次に、画像処理装置230が実行する処理の流れの一例について説明する。図16は、第2の実施形態に係る画像処理装置230が学習時に実行する処理の流れの一例を示すフローチャートである。図16に示す処理は、例えば、ユーザが入力インターフェース133を介して学習済みモデル50を生成する処理を実行するための指示を処理回路235に入力した場合に実行される。
図16に示すように、取得機能135bは、メモリ132に記憶された短軸断面画像データ11を取得する(ステップS301)。
そして、学習用データセット生成機能235cは、短軸断面画像データ11に基づく短軸断面画像をディスプレイ134に表示させる(ステップS302)。そして、学習用データセット生成機能235cは、ユーザから、輪郭情報を受け付けたか否かを判定する(ステップS303)。学習用データセット生成機能235cは、輪郭情報を受け付けていないと判定した場合(ステップS303:No)には、再び、ステップS303の判定を行う。
学習用データセット生成機能235cは、輪郭情報を受け付けたと判定した場合(ステップS303:Yes)には、輪郭情報に基づいて、冠動脈の内壁の輪郭14aが、正確な位置に正確な形状で描出された輪郭画像データ14を生成する(ステップS304)。
そして、学習用データセット生成機能235cは、輪郭画像データ14に対して流体解析処理を実行し、流体解析結果15を得る(ステップS305)。
そして、学習済みモデル生成機能235dは、短軸断面画像データ11と輪郭画像データ14と流体解析結果15とを対応付けて学習することによって学習済みモデル50を生成する(ステップS306)。そして、学習用データセット生成機能235cは、学習済みモデル50を使用して、短軸断面画像データ11を基に、輪郭画像データ16及び流体解析結果18を推定する(ステップS307)。
そして、学習用データセット生成機能235cは、輪郭画像データ16に対して流体解析処理を実行し、流体解析結果17を得る(ステップS308)。
そして、学習用データセット生成機能235cは、流体解析結果15と流体解析結果17との差を示す差分情報25、流体解析結果15と流体解析結果18との差を示す差分情報26、及び、流体解析結果17と流体解析結果18との差を示す差分情報27を生成する(ステップS309)。そして、学習済みモデル生成機能235dは、機械学習において、差分情報25が示す差、差分情報26が示す差、及び、差分情報27が示す差が小さくなるように、学習済みモデル50を更新する(ステップS310)。そして、学習済みモデル生成機能235dは、生成した学習済みモデル50(更新された学習済みモデル50)をメモリ132に記憶させ(ステップS311)、図16に示す処理を終了する。
図17は、第2の実施形態に係る画像処理装置230が運用時に実行する処理の流れの一例を示すフローチャートである。図17に示す処理は、例えば、ユーザが入力インターフェース133を介して、流体解析結果18を得るための指示を処理回路235に入力した場合に実行される。
図17に示すように、取得機能135bは、メモリ132に記憶された短軸断面画像データ12を取得する(ステップS401)。そして、推定機能235eは、学習済みモデル50を用いて、短軸断面画像データ12を基に、輪郭画像データ51及び流体解析結果52を推定し出力する(ステップS402)。
そして、出力機能135gは、流体解析結果52をディスプレイ134に表示させ(ステップS403)、図17に示す処理を終了する。
以上、第2の実施形態について説明した。第2の実施形態によれば、第1の実施形態と同様に、高い精度の流体解析結果を得ることが可能な学習済みモデル50を得ることができる。
なお、第2の実施形態において、画像処理装置230は、差分情報25、差分情報26及び差分情報27のうち、少なくとも1つの差分情報を用いればよい。例えば、画像処理装置230は、差分情報25、差分情報26及び差分情報27のうち、差分情報25及び差分情報26を用いて上述した処理と同様の処理を行ってもよい。
上記説明において用いた「プロセッサ」という文言は、例えば、CPU、GPU(Graphics Processing Unit)、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、又は、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、若しくは、フィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサはメモリ132に保存されたプログラムを読み出し実行することで機能を実現する。
なお、図1及び図12においては、単一のメモリ132が各処理機能に対応する各プログラムを記憶するものとして説明した。しかしながら、複数のメモリ132を分散して配置し、処理回路135,235は、個別のメモリ132から対応するプログラムを読み出す構成としても構わない。また、メモリ132にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。
以上説明した少なくとも1つの実施形態又は変形例によれば、高い精度の解析結果を得ることが可能な学習済みモデルを得ることができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
135c,235c 学習用データセット生成機能
135d,235d 学習済みモデル生成機能
135e,235e 推定機能
135f 解析機能

Claims (6)

  1. 第1の画像データと、前記第1の画像データに対して処理が実行されることにより得られた第1の処理結果とを対応付けて機械学習エンジンに入力して機械学習することにより、前記第1の画像データを受け付けて第2の処理結果を出力するとともに第2の画像データを受け付けて第3の処理結果を出力するニューラルネットワークを生成する生成部と、
    前記ニューラルネットワークに前記第2の画像データを入力することにより、前記第3の処理結果を推定する推定部と、
    前記推定部により推定された前記第3の処理結果に対して、流体解析処理、解析対象の部位の輪郭を抽出する処理、病変部位を検出する処理、病変部位の輪郭を検出する処理、又は、病変部位の種別を特定する処理のいずれか1つの処理である解析処理を実行することにより第1の解析処理結果を取得する解析部と、
    を備え、
    前記生成部は、
    前記第1の処理結果に対して前記解析処理を実行することにより第2の解析処理結果を取得し、
    前記ニューラルネットワークを用いて、前記第1の画像データを基に前記第2の処理結果を推定し、推定された前記第2の処理結果に対して前記解析処理を実行することにより第3の解析処理結果を取得し、
    前記第2の解析処理結果と前記第3の解析処理結果との差が第1の閾値以下となり、前記第1の処理結果と前記第2の処理結果との差が第2の閾値以下となるように前記ニューラルネットワークの重み及びバイアスを調整することにより、前記ニューラルネットワークを生成する、学習装置。
  2. 前記生成部は、複数の前記ニューラルネットワークのうち、前記第2の解析処理結果と前記第3の解析処理結果とが異なる場合に対応するニューラルネットワークを、前記第2の解析処理結果と前記第3の解析処理結果との差が小さくなるように更新することにより当該ニューラルネットワークを生成する、請求項1に記載の学習装置。
  3. 前記第1の画像データ及び前記第2の画像データは、被検体の冠動脈を含む画像データであり、
    前記第1の処理結果、前記第2の処理結果及び前記第3の処理結果は、被検体の冠動脈の輪郭が描出された画像データであり、
    前記解析処理は、画像データに描出された被検体の輪郭に基づいて、流体解析結果を得る流体解析処理である、請求項1又は2に記載の学習装置。
  4. 第1の画像データと、前記第1の画像データに対して処理が実行されることにより得られた第1の処理結果と、前記第1の処理結果に対して、流体解析処理、解析対象の部位の輪郭を抽出する処理、病変部位を検出する処理、病変部位の輪郭を検出する処理、又は、病変部位の種別を特定する処理のいずれか1つの処理である解析処理を実行することにより取得された第1の解析処理結果とを対応付けて機械学習エンジンに入力して機械学習することにより、前記第1の画像データを受け付けて第2の処理結果及び第2の解析処理結果を出力するとともに第2の画像データを受け付けて第3の処理結果及び第3の解析処理結果を出力するニューラルネットワークを生成する生成部と、
    前記ニューラルネットワークに前記第2の画像データを入力することにより、前記第3の処理結果及び前記第3の解析処理結果を推定する推定部と、
    を備え、
    前記生成部は、
    前記ニューラルネットワークを用いて、前記第1の画像データを基に前記第2の処理結果及び前記第2の解析処理結果を推定し、推定された前記第2の処理結果に対して前記解析処理を実行することにより第3の解析処理結果を取得し、
    前記第1の解析処理結果と前記第2の解析処理結果との差が第1の閾値以下となり、前記第1の解析処理結果と前記第3の解析処理結果との差が第2の閾値以下となり、前記第1の処理結果と前記第2の処理結果との差が第3の閾値以下となるように前記ニューラルネットワークの重み及びバイアスを調整することにより、前記ニューラルネットワークを生成する、学習装置。
  5. 前記生成部は、更に、前記第2の解析処理結果と前記第3の解析処理結果との差が第4の閾値以下となるように前記ニューラルネットワークの重み及びバイアスを調整することにより、前記ニューラルネットワークを生成する、請求項4に記載の学習装置。
  6. コンピュータが、
    第1の画像データと、前記第1の画像データに対して処理が実行されることにより得られた第1の処理結果とを対応付けて機械学習エンジンに入力して機械学習することにより、前記第1の画像データを受け付けて第2の処理結果を出力するとともに第2の画像データを受け付けて第3の処理結果を出力するニューラルネットワークを生成する第1の処理と、
    前記ニューラルネットワークに前記第2の画像データを入力することにより、前記第3の処理結果を推定する第2の処理と、
    推定された前記第3の処理結果に対して、流体解析処理、解析対象の部位の輪郭を抽出する処理、病変部位を検出する処理、病変部位の輪郭を検出する処理、又は、病変部位の種別を特定する処理のいずれか1つの処理である解析処理を実行することにより第1の解析処理結果を取得する第3の処理と、
    を実行し、
    前記第1の処理は、
    前記第1の処理結果に対して前記解析処理を実行することにより第2の解析処理結果を取得し、
    前記ニューラルネットワークを用いて、前記第1の画像データを基に前記第2の処理結果を推定し、推定された前記第2の処理結果に対して前記解析処理を実行することにより第3の解析処理結果を取得し、
    前記第2の解析処理結果と前記第3の解析処理結果との差が第1の閾値以下となり、前記第1の処理結果と前記第2の処理結果との差が第2の閾値以下となるように前記ニューラルネットワークの重み及びバイアスを調整することにより、前記ニューラルネットワークを生成する処理を含む、学習方法。
JP2019236726A 2019-12-26 2019-12-26 学習装置及び学習方法 Active JP7433901B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019236726A JP7433901B2 (ja) 2019-12-26 2019-12-26 学習装置及び学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019236726A JP7433901B2 (ja) 2019-12-26 2019-12-26 学習装置及び学習方法

Publications (2)

Publication Number Publication Date
JP2021104194A JP2021104194A (ja) 2021-07-26
JP7433901B2 true JP7433901B2 (ja) 2024-02-20

Family

ID=76919098

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019236726A Active JP7433901B2 (ja) 2019-12-26 2019-12-26 学習装置及び学習方法

Country Status (1)

Country Link
JP (1) JP7433901B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011025005A (ja) 2009-07-03 2011-02-10 Fujifilm Corp 診断支援装置、診断支援プログラムおよび診断支援方法
JP2019122762A (ja) 2018-01-11 2019-07-25 キヤノンメディカルシステムズ株式会社 医用情報処理装置、医用情報処理システム及び医用情報処理方法
WO2019225084A1 (ja) 2018-05-23 2019-11-28 Eizo株式会社 情報処理装置、情報処理方法、コンピュータプログラム
JP2019202087A (ja) 2018-05-25 2019-11-28 キヤノンメディカルシステムズ株式会社 医用情報処理システム、医用情報処理装置、放射線診断装置、超音波診断装置、学習用データの生産方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011025005A (ja) 2009-07-03 2011-02-10 Fujifilm Corp 診断支援装置、診断支援プログラムおよび診断支援方法
JP2019122762A (ja) 2018-01-11 2019-07-25 キヤノンメディカルシステムズ株式会社 医用情報処理装置、医用情報処理システム及び医用情報処理方法
WO2019225084A1 (ja) 2018-05-23 2019-11-28 Eizo株式会社 情報処理装置、情報処理方法、コンピュータプログラム
JP2019202087A (ja) 2018-05-25 2019-11-28 キヤノンメディカルシステムズ株式会社 医用情報処理システム、医用情報処理装置、放射線診断装置、超音波診断装置、学習用データの生産方法及びプログラム

Also Published As

Publication number Publication date
JP2021104194A (ja) 2021-07-26

Similar Documents

Publication Publication Date Title
JP6930283B2 (ja) 画像処理装置、画像処理装置の作動方法、及び画像処理プログラム
CN110853111B (zh) 医学影像处理系统、模型训练方法及训练装置
US20120166211A1 (en) Method and apparatus for aiding imaging diagnosis using medical image, and image diagnosis aiding system for performing the method
JP5226974B2 (ja) 画像診断支援装置、方法及びプログラム
US20210407077A1 (en) Information processing device and model generation method
JP7525248B2 (ja) 医用情報処理装置及び医用情報処理プログラム
US11049255B2 (en) Image processing device and method thereof
Van Hamersvelt et al. Diagnostic performance of on-site coronary CT angiography–derived fractional flow reserve based on patient-specific lumped parameter models
US11488297B2 (en) Medical information processing apparatus and medical information processing system
KR20220097859A (ko) 병변 판독 방법 및 이를 위한 장치
JP2020048685A (ja) 乳がん診断支援装置、乳がん診断支援システム、および乳がん診断支援方法
KR20190094974A (ko) 초음파 진단 장치 및 초음파 진단 장치의 제어 방법
JP2022068043A (ja) 医用画像処理装置及び医用画像処理システム
JP2021104140A (ja) 医用情報処理装置、医用情報処理方法、及び医用情報処理プログラム
JP7433901B2 (ja) 学習装置及び学習方法
JP2020174861A (ja) 情報処理装置、情報処理方法およびプログラム
JP7350595B2 (ja) 画像処理装置、医用画像診断装置及び画像処理プログラム
WO2020179234A1 (ja) 画像診断支援装置および画像処理方法
KR20220143187A (ko) 딥러닝을 이용한 폐기종 자동 추출 방법 및 장치
JP7408381B2 (ja) 画像処理装置、プログラム及び方法
US20220079539A1 (en) Medical image display apparatus
US20230290486A1 (en) Medical information processing device, medical information processing method, and storage medium
US20230169653A1 (en) Medical image processing apparatus, medical image processing method, and storage medium
JP7483333B2 (ja) 医用情報処理システム、端末装置及びプログラム
EP4358022A1 (en) Medical image diagnostic system, medical image diagnostic method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230807

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231205

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20231212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240207

R150 Certificate of patent or registration of utility model

Ref document number: 7433901

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150