JP7795352B2 - 画像処理方法、画像処理装置およびプログラム - Google Patents
画像処理方法、画像処理装置およびプログラムInfo
- Publication number
- JP7795352B2 JP7795352B2 JP2021212816A JP2021212816A JP7795352B2 JP 7795352 B2 JP7795352 B2 JP 7795352B2 JP 2021212816 A JP2021212816 A JP 2021212816A JP 2021212816 A JP2021212816 A JP 2021212816A JP 7795352 B2 JP7795352 B2 JP 7795352B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- neural network
- vector field
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30056—Liver; Hepatic
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Description
第1のアプローチとして、撮影された画像内における病変領域の付近など関心領域に絞って、入力する構成にすることによって計算量を削減することが考えられる。
第2のアプローチとして、検査によって撮影された画像を保存する段階で、画像全体あるいは臓器全体の位置合わせを行い、その位置合わせの結果としての画像上の各画素間の対応関係を表す変形ベクトル場を保存しておくことが考えられる。この場合、読影の際は、その保存された結果を参照して位置ずれを補正する。
2つの画像の位置合わせは、これら2つの画像間の変形ベクトル場を求めることによって実現される。変形ベクトル場は、被変形画像上の任意の点と目標画像上の対応する点を一致させるための変形ベクトルを並べた空間である。
図1では、画像Aと画像Bとの画像間の位置合わせを行う場合を説明したが、さらに、画像Aと画像Cとの画像間の位置合わせを行う場合には、画像Bと同様に、画像Cを第1のニューラルネットワークNN1に入力し、第1のニューラルネットワークNN1から画像Cに対応する特徴マップCを出力させる。そして、特徴マップAと特徴マップCと組み合わせを第2のニューラルネットワークNN2に入力し、これら特徴マップAおよび特徴マップCの組み合わせの入力に対して第2のニューラルネットワークNN2から変形ベクトル場を出力させる。
図4は、第2実施形態に係る位置合わせモデル102のネットワーク構造図である。図2で説明した構成に代えて、図4に示すネットワーク構造を採用してもよい。図4における図面の記載ルールは、図2と同様である。図4に示す位置合わせモデル102について、図2と異なる点を説明する。
図5は、第3実施形態に係る位置合わせモデル103のネットワーク構造図である。図2で説明した構成に代えて、図5に示すネットワーク構造を採用してもよい。図5における図面の記載ルールは図2と同様である。図5に示す位置合わせモデル103について、図2および図4に示す構成と異なる点を説明する。
図6は、本開示の実施形態に係る画像処理装置220が適用される医療情報システム200の構成例を示すブロック図である。第1実施形態から第3実施形態の各実施形態として説明した位置合わせモデル101、102または103は画像処理装置220に組み込まれる。
図7は、画像処理装置220のハードウェア構成例を概略的に示すブロック図である。画像処理装置220は、1台または複数台のコンピュータを用いて構成されるコンピュータシステムによって実現することができる。ここでは、1台のコンピュータがプログラムを実行することにより、画像処理装置220の各種機能を実現する例を述べる。
図8は、画像処理装置220を用いた画像処理の適用例1の概要を示す説明図である。図8は、肝臓のダイナミック造影CT検査における関心領域(Region of Interest:ROI)の位置合わせ処理の例を示す。ここでは、第3実施形態で説明したネットワーク構造(図5参照)を持つ位置合わせモデル130を用いる例を説明する。
画像処理装置220が実施し得るさらなるオプション処理(ステップ4)として、画像処理装置220は、関心領域について複数の画像を対比することによって造影効果の性状を解析し、解析結果を基に読影レポートに記載する所見文を生成して提示する処理を実施してもよい。関心領域の性状(特徴)を表す複数の所見から所見文を生成する技術は、例えば、国際公開WO2020/209382号に記載されている技術を適用できる。
ここで、位置合わせモデル132を生成するための学習方法の例を説明する。図11および図12に、本実施形態に適用される機械学習装置400による学習方法の概要を示す。図11は、訓練用のデータを生成する処理部(以下、訓練用データ生成部という。)の構成を示しており、図12は、生成された訓練用のデータを用いて学習モデルを訓練する処理部(以下、学習処理部という。)の構成を示している。「訓練」は学習と同義である。
本開示の画像間の位置合わせ技術は、ダイナミック造影検査の複数時相の画像間の位置合わせに限らず、様々な用途に適用できる。
図17は、図16に示す経時比較に適用される位置合わせモデル132の学習フェーズを概略的に示す説明図である。図17において、図13と共通する要素には同一の符号を付し、重複する説明は省略する。位置合わせモデル132を生成する場合の学習モデル412のネットワーク構造は、図2または図4に示すネットワーク構造となる。
図18は、画像処理装置220を用いた画像処理の適用例3の概要を示す説明図である。本開示の画像間の位置合わせ技術は、異なるモダリティの画像間の比較に応用することができる。図18は、異種モダリティ間の画像比較のための位置合わせ処理の例を示す。ここでは、第1実施形態で説明した位置合わせモデル101(図2参照)と同様のネットワーク構造を持つ位置合わせモデル133を用いる例を説明するが、位置合わせモデル133は、第2実施形態で説明した位置合わせモデル102(図4参照)と同様のネットワーク構造であってもよい。図18は、図17で説明した経時比較の処理の仕組みを、異種モダリティの画像間の比較に適用したものである。
図19は、図18に示すモダリティ間の画像比較に適用される位置合わせモデル133の学習フェーズを概略的に示す説明図である。位置合わせモデル133を生成する場合の学習モデル413のネットワーク構造は、図2または図4に示すネットワーク構造である。
画像処理装置220における処理機能の一部または全部をコンピュータに実現させるプログラムを、光ディスク、磁気ディスク、もしくは、半導体メモリその他の有体物たる非一時的な情報記憶媒体であるコンピュータ可読媒体に記録し、この情報記憶媒体を通じてプログラムを提供することが可能である。
画像処理装置220における位置合わせ処理部110、特徴抽出部111、332、変形ベクトル場算出部112、334、並びに機械学習装置400におけるクロップ処理部402、データ拡張変換部404、405、およびランダム変形処理部406などの各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、例えば、次に示すような各種のプロセッサ(processor)である。
第1実施形態から第3実施形態の各実施形態および適用例1から適用例3の各適用例として説明した形態によれば、第1のニューラルネットワークNN1を用いて1画像単位で特徴マップが生成され、異なる画像の特徴マップの組み合わせを第2のニューラルネットワークNN2に入力して画像間の変形ベクトル場を算出する構成となっているため、画像間での位置合わせを行う際に必要になる計算リソース(計算量および/または記憶容量)を抑制することができる。特に、3つ以上の画像について、そのうちの1つを基準画像とし、他の画像との画像間の位置合わせを行う場合に、基準画像の特徴マップは、他の画像との組み合わせに対して共通に利用できるため、計算量の抑制効果が大きい。
上述の実施形態では、医用画像を例に説明したが、本開示の適用範囲は医用画像に限らず、用途を問わず、各種の画像に適用できる。また、上述の実施形態では、3次元画像を扱う例を説明したが、本開示の技術は2次元画像についても適用できる。扱う画像が2次元画像である場合、第1のニューラルネットワークNN1及び第2のニューラルネットワークNN2について2次元画像の処理を行うネットワーク構造を採用すればよい。
本開示は上述した実施形態に限定されるものではなく、本開示の技術的思想の趣旨を逸脱しない範囲で種々の変形が可能である。
110 位置合わせ処理部
111 特徴抽出部
112 変形ベクトル場算出部
130,132,133 位置合わせモデル
200 医療情報システム
202 電子カルテシステム
204 CT装置
206 MRI装置
210 画像保存サーバ
212 画像データベース
220 画像処理装置
222 入力装置
224 表示装置
230 ビューワ端末
232 入力装置
234 表示装置
240 通信回線
302 プロセッサ
304 コンピュータ可読媒体
306 通信インターフェース
308 入出力インターフェース
310 バス
322 メモリ
324 ストレージ
330 位置合わせ処理プログラム
332 特徴抽出部
334 変形ベクトル場算出部
340 対応点算出プログラム
350 性状解析プログラム
360 表示制御プログラム
400 機械学習装置
402 クロップ処理部
404,405 データ拡張変換部
406 ランダム変形処理部
410,412,413 学習モデル
420 オプティマイザ
NN1 第1のニューラルネットワーク
NN2 第2のニューラルネットワーク
BB1,BB2 矩形枠
ROI(A),ROI(B),ROI(C) ROI画像
FM(A),FM(B),FM(C) 特徴マップ
CP(B),CP(C) 対応点
TI 訓練画像
TI(x) クロップ画像
TIa(x) 拡張訓練画像
TId(x) 拡張変形訓練画像
TI1,TI2 画像
IM1,IM1a,IM1c 画像
IM2,IM2a,IM2c 画像
FM1,FM2 特徴マップ
DVf(B),DVf(C) 変形ベクトル場
S101~S104 関心領域の位置合わせ処理のステップ
S111~S113 ROI画像間のずれ量を算出する処理のステップ
S201~S204 画像保存時の処理のステップ
S211~S215 読影時の処理のステップ
Claims (12)
- 1つ以上のプロセッサが実行する画像処理方法であって、
前記1つ以上の前記プロセッサが、
複数の画像のそれぞれの特徴マップを取得することと、
前記画像ごとの前記特徴マップの組み合わせから変形ベクトル場を算出することと、
を含み、
前記複数の画像は、造影状態が相異なる画像であり、
前記1つ以上のプロセッサが、
前記変形ベクトル場を用いて位置を合わせた前記複数の画像を解析し、関心領域の造影効果を表す性状所見を出力することを含む、
画像処理方法。 - 前記1つ以上の前記プロセッサが、
第1のニューラルネットワークを用いて前記複数の画像のそれぞれから各画像の前記特徴マップを生成し、
前記第1のニューラルネットワークを用いて前記画像ごとに生成された前記特徴マップの組み合わせを第2のニューラルネットワークに入力することにより、前記第2のニューラルネットワークを用いて前記変形ベクトル場を算出する、
請求項1に記載の画像処理方法。 - 前記第1のニューラルネットワークは、1画像の入力を受け付け、入力された前記1画像に対する処理を行うことにより1つ以上の特徴マップを出力するネットワークであり、
前記第2のニューラルネットワークは、異なる2つの画像のそれぞれから生成された各画像の特徴マップのペアの入力を受け付け、入力された前記特徴マップの前記ペアに対する処理を行うことにより前記異なる2つの画像間の前記変形ベクトル場を出力するネットワークである、
請求項2に記載の画像処理方法。 - 前記第1のニューラルネットワークと前記第2のニューラルネットワークとは、学習画像セットを用いて予め機械学習された学習済みモデルであり、
前記機械学習の工程は、2画像をそれぞれ前記第1のニューラルネットワークに入力して得られる前記2画像のぞれぞれの特徴マップの組み合わせを前記第2のニューラルネットワークに入力して前記変形ベクトル場を出力させる構成で行われる、
請求項2または3に記載の画像処理方法。 - 前記学習画像セットは、複数の異なる画像を含み、
前記機械学習の際に前記第1のニューラルネットワークに入力する前記2画像のうちの一方は、他方の画像を変形して生成した画像である、
請求項4に記載の画像処理方法。 - 前記変形を規定する変形場は、予め定められた制約範囲内でランダムに生成され、前記変形の処理に適用した前記変形場を正解として、前記第2のニューラルネットワークの出力が前記正解に近づくように学習が行われる、
請求項5に記載の画像処理方法。 - 前記複数の画像は、3つ以上の画像であり、
前記1つ以上の前記プロセッサが、
前記複数の画像のうちの1つの基準画像と、
前記基準画像以外の画像との2画像のそれぞれの前記特徴マップの組み合わせから、前記基準画像と前記基準画像以外の画像との組み合わせごとの前記変形ベクトル場を算出する、
請求項1から6のいずれか一項に記載の画像処理方法。 - 前記1つ以上の前記プロセッサが、さらに、
前記複数の画像のうちの1つの画像内における注目点の指定を受け付け、
前記算出された前記変形ベクトル場に基づき、前記複数の画像のうちの他の画像内における前記注目点に対応する対応点を算出することと、
前記注目点と前記対応点の位置を揃えて前記画像を表示させることと、
を含む請求項1から7のいずれか一項に記載の画像処理方法。 - 1つ以上のプロセッサと、
前記1つ以上の前記プロセッサに実行させるプログラムが記憶される1つ以上のメモリと、
を備え、
前記1つ以上のプロセッサは、前記プログラムの命令を実行することにより、
複数の画像のそれぞれの特徴マップを取得し、
前記画像ごとの前記特徴マップの組み合わせから変形ベクトル場を算出する画像処理装置であって、
前記複数の画像は、造影状態が相異なる画像であり、
前記1つ以上のプロセッサは、
前記変形ベクトル場を用いて位置を合わせた前記複数の画像を解析し、関心領域の造影効果を表す性状所見を出力する、
画像処理装置。 - 前記1つ以上の前記プロセッサは、
第1のニューラルネットワークを用いて前記複数の画像のそれぞれから各画像の前記特徴マップを生成し、
前記第1のニューラルネットワークを用いて前記画像ごとに生成された前記特徴マップの組み合わせを第2のニューラルネットワークに入力することにより、前記第2のニューラルネットワークを用いて前記変形ベクトル場を算出する、
請求項9に記載の画像処理装置。 - コンピュータに、
複数の画像のそれぞれの特徴マップを取得する機能と、
前記画像ごとの前記特徴マップの組み合わせから変形ベクトル場を算出する機能と、
を実現させ、
前記複数の画像は、造影状態が相異なる画像であり、
前記コンピュータに、
前記変形ベクトル場を用いて位置を合わせた前記複数の画像を解析し、関心領域の造影効果を表す性状所見を出力する機能を実現させる、
プログラム。 - 第1のニューラルネットワークを用いて前記複数の画像のそれぞれから各画像の前記特徴マップを生成する機能と、
前記第1のニューラルネットワークを用いて前記画像ごとに生成された前記特徴マップの組み合わせを第2のニューラルネットワークに入力することにより、前記第2のニューラルネットワークを用いて前記変形ベクトル場を算出する機能と、
を前記コンピュータに実現させる、請求項11に記載のプログラム。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021212816A JP7795352B2 (ja) | 2021-12-27 | 2021-12-27 | 画像処理方法、画像処理装置およびプログラム |
| US18/064,281 US12573062B2 (en) | 2021-12-27 | 2022-12-11 | Image processing method, image processing device, program, and trained model |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021212816A JP7795352B2 (ja) | 2021-12-27 | 2021-12-27 | 画像処理方法、画像処理装置およびプログラム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2023096807A JP2023096807A (ja) | 2023-07-07 |
| JP7795352B2 true JP7795352B2 (ja) | 2026-01-07 |
Family
ID=86896906
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021212816A Active JP7795352B2 (ja) | 2021-12-27 | 2021-12-27 | 画像処理方法、画像処理装置およびプログラム |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US12573062B2 (ja) |
| JP (1) | JP7795352B2 (ja) |
Families Citing this family (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US12511848B2 (en) * | 2022-09-12 | 2025-12-30 | Snap Inc. | Deforming real-world object using image warping |
| JP2025038805A (ja) * | 2023-09-07 | 2025-03-19 | Jfeスチール株式会社 | 画像処理装置、マッピング像位置合わせ方法、及びプログラム |
| US20250106501A1 (en) * | 2023-09-22 | 2025-03-27 | Walmart Apollo, Llc | System and method for user interface guidance system for electronic devices |
| US20250157100A1 (en) * | 2023-11-15 | 2025-05-15 | Canon Medical Systems Corporation | Four-dimensional motion estimation and compensation by using feature reconstruction |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018011637A (ja) | 2016-07-19 | 2018-01-25 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
| WO2021085057A1 (ja) | 2019-10-30 | 2021-05-06 | 富士フイルム株式会社 | 物体検出装置、物体検出方法およびプログラム |
| CN113052882A (zh) | 2021-03-26 | 2021-06-29 | 上海商汤智能科技有限公司 | 图像配准方法及相关装置、电子设备、存储介质 |
Family Cites Families (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10699410B2 (en) * | 2017-08-17 | 2020-06-30 | Siemes Healthcare GmbH | Automatic change detection in medical images |
| US10664979B2 (en) * | 2018-09-14 | 2020-05-26 | Siemens Healthcare Gmbh | Method and system for deep motion model learning in medical images |
| US10803987B2 (en) * | 2018-11-16 | 2020-10-13 | Elekta, Inc. | Real-time motion monitoring using deep neural network |
| US11657497B2 (en) * | 2019-03-26 | 2023-05-23 | The Johns Hopkins University | Method and apparatus for registration of different mammography image views |
| CN110490881B (zh) * | 2019-08-19 | 2024-12-31 | 腾讯科技(深圳)有限公司 | 医学影像分割方法、装置、计算机设备及可读存储介质 |
| US11227683B2 (en) * | 2020-01-23 | 2022-01-18 | GE Precision Healthcare LLC | Methods and systems for characterizing anatomical features in medical images |
| EP4121976A4 (en) * | 2020-03-18 | 2023-08-16 | Elekta Limited | Real-time motion monitoring using deep learning |
-
2021
- 2021-12-27 JP JP2021212816A patent/JP7795352B2/ja active Active
-
2022
- 2022-12-11 US US18/064,281 patent/US12573062B2/en active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018011637A (ja) | 2016-07-19 | 2018-01-25 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
| WO2021085057A1 (ja) | 2019-10-30 | 2021-05-06 | 富士フイルム株式会社 | 物体検出装置、物体検出方法およびプログラム |
| CN113052882A (zh) | 2021-03-26 | 2021-06-29 | 上海商汤智能科技有限公司 | 图像配准方法及相关装置、电子设备、存储介质 |
| JP2023522527A (ja) | 2021-03-26 | 2023-05-31 | シャンハイ センスタイム インテリジェント テクノロジー カンパニー リミテッド | 画像レジストレーション方法、装置、電子デバイス、記憶媒体及びプログラム |
Non-Patent Citations (1)
| Title |
|---|
| Koen A. J. Eppenhof et al.,Pulmonary CT Registration Through Supervised Learning With Convolutional Neural Networks,IEEE Transactions on Medical Imaging,IEEE,2018年10月26日,Volume: 38, Issue: 5,p1097-1105,https://ieeexplore.ieee.org/document/8510836,IEL Online (IEEE Xplore) |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2023096807A (ja) | 2023-07-07 |
| US12573062B2 (en) | 2026-03-10 |
| US20230206477A1 (en) | 2023-06-29 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7795352B2 (ja) | 画像処理方法、画像処理装置およびプログラム | |
| CN111429474B (zh) | 基于混合卷积的乳腺dce-mri图像病灶分割模型建立及分割方法 | |
| EP3611699A1 (en) | Image segmentation using deep learning techniques | |
| CN111368849A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
| US12579720B2 (en) | Method of generating trained model, machine learning system, program, and medical image processing apparatus | |
| CN116368516A (zh) | 使用联合合成、分割和配准的多模态临床图像对齐方法和设备 | |
| CN111161269A (zh) | 图像分割方法、计算机设备和可读存储介质 | |
| US20240005498A1 (en) | Method of generating trained model, machine learning system, program, and medical image processing apparatus | |
| WO2019169403A1 (en) | Neural network classification of osteolysis and synovitis near metal implants | |
| Zimmer et al. | Towards whole placenta segmentation at late gestation using multi-view ultrasound images | |
| CN111918611A (zh) | 胸部x线图像的异常显示控制方法、异常显示控制程序、异常显示控制装置以及服务器装置 | |
| KR101885562B1 (ko) | 제1 의료 영상의 관심 영역을 제2 의료 영상 위에 맵핑하는 방법 및 이를 이용한 장치 | |
| KR20240086195A (ko) | 확산 모델을 이용한 비지도 학습 기반 변형 영상 정합 및 합성 영상 생성 시스템 및 그 방법 | |
| US11138736B2 (en) | Information processing apparatus and information processing method | |
| Amara et al. | Augmented reality for medical practice: a comparative study of deep learning models for ct-scan segmentation | |
| Cao et al. | MHC-Segnet: Mamba–Hadamard collaboration segmentation network for multimodal MRI brain tumor: J. Cao et al. | |
| Athreya et al. | Ultrasound image enhancement using CycleGAN and perceptual loss | |
| US20210256741A1 (en) | Region correction apparatus, region correction method, and region correction program | |
| US20230046302A1 (en) | Blood flow field estimation apparatus, learning apparatus, blood flow field estimation method, and program | |
| Brzus et al. | Leveraging high-quality research data for ischemic stroke lesion segmentation on clinical data | |
| Xing et al. | Deformable registration network based on multi-scale features and cumulative optimization for medical image alignment | |
| US12374002B2 (en) | Image processing apparatus, method and program, learning apparatus, method and program, and derivation model | |
| CN118154568A (zh) | 基于图像增强和弱监督学习的脑血肿图像分割方法 | |
| WO2023032438A1 (ja) | 回帰推定装置および方法、プログラム並びに学習済みモデルの生成方法 | |
| CN115690450A (zh) | 医学图像识别方法、医学模型训练方法、装置和设备 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240909 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20250512 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20250523 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250714 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20250821 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20251118 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20251212 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20251219 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7795352 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |