JP7561833B2 - コンピュータプログラム、情報処理方法及び情報処理装置 - Google Patents
コンピュータプログラム、情報処理方法及び情報処理装置 Download PDFInfo
- Publication number
- JP7561833B2 JP7561833B2 JP2022511729A JP2022511729A JP7561833B2 JP 7561833 B2 JP7561833 B2 JP 7561833B2 JP 2022511729 A JP2022511729 A JP 2022511729A JP 2022511729 A JP2022511729 A JP 2022511729A JP 7561833 B2 JP7561833 B2 JP 7561833B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- learning model
- medical image
- medical
- image portion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/14—Vascular patterns
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Clinical applications
- A61B8/0891—Clinical applications for diagnosis of blood vessels
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/12—Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5215—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
- A61B8/5223—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0062—Arrangements for scanning
- A61B5/0066—Optical coherence imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/13—Tomography
- A61B8/14—Echo-tomography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M25/00—Catheters; Hollow probes
- A61M25/01—Introducing, guiding, advancing, emplacing or holding catheters
- A61M25/0105—Steering means as part of the catheter or advancing means; Markers for positioning
- A61M2025/0166—Sensors, electrodes or the like for guiding the catheter to a target zone, e.g. image guided or magnetically guided
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10132—Ultrasound image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20168—Radial search
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30021—Catheter; Guide wire
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30101—Blood vessel; Artery; Vein; Vascular
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Surgery (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Vascular Medicine (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Quality & Reliability (AREA)
- Human Computer Interaction (AREA)
- Physiology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
Description
本開示は、コンピュータプログラム、情報処理方法及び情報処理装置に関する。
カテーテルを用いた血管内超音波(IVUS:Intra Vascular Ultra Sound)法によって血管の超音波断層像を含む医用画像を生成し、血管内の超音波検査を行うことが行われている。
一方で、医師の診断の補助を目的に、医用画像に画像処理や機械学習により情報を付加する技術の開発が行われている。
実臨床において有効な診断補助を提供するに当たり課題の一つは、即時的な補助情報の提供である。血管内治療ではデバイスの操作は全て血管内で行われる。血管径の制約から、処置用デバイスと診断用カテーテルを交互に挿入し、治療を進める。よって、各デバイス操作時間は並行で進むことなく、加算的に血管内治療の総手術時間の増加に繋がる。手術時間の増加は患者の身体への負担の増大は勿論のこと、執刀する医師やコメディカルへの負担等へ繋がるため、手術時間の短縮は重要な課題の一つである。即時的な情報提供を実現することで、患者やスタッフの負担を軽減することが可能となる。
血管内超音波法においては、血管内診断用カテーテルは血管の遠位から近位まで超音波センサを移動させ、血管、及びその周辺組織をスキャンする。即時的な情報提供を実現するには、スキャンと同時に取得した医用画像の解析を行う必要があり、限られた計算リソースでその解析を実現できるアルゴリズムが求められている。
本開示の目的は、管腔器官をスキャンして得た医用画像を解析し、診断補助に係るオブジェクトを即時的に認識することができるコンピュータプログラム、情報処理方法及び情報処理装置を提供することにある。
本開示に係るコンピュータプログラムは、管腔器官に挿入されたカテーテルにて検出した信号に基づき生成された医用画像を取得し、少なくとも医用画像に含まれるオブジェクトの位置を推定する第1学習モデルに、取得した医用画像を入力することによって、医用画像に含まれるオブジェクトの位置を推定し、推定したオブジェクトの位置を基準にした画像部分を医用画像から抽出し、画像部分に含まれるオブジェクトを認識する第2学習モデルに、抽出された画像部分を入力することによって、画像部分に含まれるオブジェクトを認識する処理をコンピュータに実行させる。
本開示に係る情報処理方法は、管腔器官に挿入されたカテーテルにて検出した信号に基づき生成された医用画像を取得し、少なくとも医用画像に含まれるオブジェクトの位置を推定する第1学習モデルに、取得した医用画像を入力することによって、医用画像に含まれるオブジェクトの位置を推定し、推定したオブジェクトの位置を基準にした画像部分を医用画像から抽出し、画像部分に含まれるオブジェクトを認識する第2学習モデルに、抽出された画像部分を入力することによって、画像部分に含まれるオブジェクトを認識する処理をコンピュータが実行する。
本開示に係る情報処理装置は、管腔器官に挿入されたカテーテルにて検出した信号に基づき生成された医用画像を取得する取得部と、取得した医用画像が入力された場合、少なくとも医用画像に含まれるオブジェクトの推定位置を示す情報を出力する第1学習モデルと、推定されたオブジェクトの位置を基準にした画像部分を医用画像から抽出処理部と、抽出された画像部分が入力された場合、該画像部分に含まれるオブジェクトを示す情報を出力する第2学習モデルとを備える。
本開示によれば、管腔器官をスキャンして得た医用画像を解析し、診断補助に係るオブジェクトを即時的に認識することができる。
本発明の実施形態に係るコンピュータプログラム、情報処理方法及び情報処理装置の具体例を、以下に図面を参照しつつ説明する。
(実施形態1)
図1は、画像診断装置100の構成例を示す説明図である。画像診断装置100は、血管内超音波(IVUS:Intra Vascular Ultra Sound)法によって血管(管腔器官)の超音波断層像を含む医用画像を生成し、血管内の超音波検査及び診断を行うための装置である。特に、実施形態1に係る画像診断装置100は、同一観察対象である血管の医用画像に含まれる連続性、つまり複数の医用画像におけるオブジェクトの位置が略同一である特性を利用してオブジェクトの位置を凡そ特定した上で、関心領域A1,A2(図5、図6参照)の画像部分に含まれるオブジェクトを画素単位で認識することにより、即時的にオブジェクトを認識するものである。
図1は、画像診断装置100の構成例を示す説明図である。画像診断装置100は、血管内超音波(IVUS:Intra Vascular Ultra Sound)法によって血管(管腔器官)の超音波断層像を含む医用画像を生成し、血管内の超音波検査及び診断を行うための装置である。特に、実施形態1に係る画像診断装置100は、同一観察対象である血管の医用画像に含まれる連続性、つまり複数の医用画像におけるオブジェクトの位置が略同一である特性を利用してオブジェクトの位置を凡そ特定した上で、関心領域A1,A2(図5、図6参照)の画像部分に含まれるオブジェクトを画素単位で認識することにより、即時的にオブジェクトを認識するものである。
画像診断装置100は、カテーテル1、MDU(Motor Drive Unit)2、画像処理装置(情報処理装置)3、表示装置4及び入力装置5を備える。画像診断装置100は、カテーテル1を用いたIVUS法によって血管の超音波断層像を含む医用画像を生成し、血管内の超音波検査を行う。
カテーテル1は、IVUS法によって血管の超音波断層像を得るための画像診断用カテーテルである。カテーテル1は、血管の超音波断層像を得るための超音波プローブを先端部に有する。超音波プローブは、血管内において超音波を発する超音波振動子と、血管の生体組織又は医用機器で反射された反射波(超音波エコー)を受信する超音波センサとを有する。超音波プローブは、血管の周方向に回転しながら、血管の長手方向に進退可能に構成されている。
MDU2は、カテーテル1が着脱可能に取り付けられる駆動装置であり、医療従事者の操作に応じて内蔵モータを駆動することにより、血管内に挿入されたカテーテル1の動作を制御する。MDU2は、カテーテル1の超音波プローブを先端(遠位)側から基端(近位)側へ移動させながら周方向に回転させる(図4参照)。超音波プローブは、所定の時間間隔で連続的に血管内を走査し、検出された超音波の反射波データを画像処理装置3へ出力する。
画像処理装置3は、カテーテル1の超音波プローブから出力された反射波データに基づいて、血管の断層像を含む時系列順の複数の医用画像を生成する(図4参照)。超音波プローブは、血管内を先端(遠位)側から基端(近位)側へ移動しながら血管内を走査するため、時系列順の複数の医用画像は、遠位から近位にわたる複数箇所で観測された血管の断層画像ということになる。
表示装置4は、液晶表示パネル、有機EL表示パネル等であり、画像処理装置3によって生成された医用画像を表示する。
入力装置5は、検査を行う際の各種設定値の入力、画像処理装置3の操作等を受け付けるキーボード、マウス等の入力インターフェースである。入力装置5は、表示装置4に設けられたタッチパネル、ソフトキー、ハードキー等であっても良い。
図2は、画像処理装置3の構成例を示すブロック図である。画像処理装置3はコンピュータであり、制御部31、主記憶部32、入出力I/F33、及び補助記憶部34を備える。
制御部31は、一又は複数のCPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)、GPGPU(General-purpose computing on graphics processing units)、TPU(Tensor Processing Unit)等の演算処理装置を用いて構成されている。
主記憶部32は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の一時記憶領域であり、制御部31が演算処理を実行するために必要なデータを一時的に記憶する。
入出力I/F33は、カテーテル1、表示装置4及び入力装置5が接続されるインターフェースである。制御部31は、入出力I/F33を介して、超音波プローブから出力された反射波データを取得する。また、制御部31は、入出力I/F33を介して、医用画像信号を表示装置4へ出力する。更に、制御部31は、入出力I/F33を介して、入力装置5に入力された情報を受け付ける。
補助記憶部34は、ハードディスク、EEPROM(Electrically Erasable Programmable ROM)、フラッシュメモリ等の記憶装置である。補助記憶部34は、制御部31が実行するコンピュータプログラムP、制御部31の処理に必要な各種のデータを記憶する。また、補助記憶部34は、推定学習モデル(第1学習モデル)341、第1認識学習モデル(第2学習モデル)342及び第2認識学習モデル(第2学習モデル)343を記憶する。
推定学習モデル341は、医用画像に含まれる血管壁部、ガイドワイヤ等のオブジェクトの位置及び範囲、当該オブジェクトの種類を推定するためのモデルである。血管壁部は、例えばEEM(External Elastic Membrane)である。推定学習モデル341は、Faster R-CNN、MASK R-CNN(Region CNN)等のモデルを用いた物体検出に係る画像認識技術を利用することにより、オブジェクトの種類及び位置を推定する。推定学習モデル341により、医用画像におけるオブジェクトの位置及び範囲を凡そ特定することができる。推定学習モデル341の詳細は後述する。
第1認識学習モデル342及び第2認識学習モデル343は、推定したオブジェクトの位置を基準にした画像部分に含まれる所定のオブジェクトを認識するモデルである。第1認識学習モデル342及び第2認識学習モデル343は、例えば、セマンティックセグメンテーション(Semantic Segmentation)を用いた画像認識技術を利用することにより、オブジェクトを画素単位でクラス分けすることができ、医用画像に含まれるオブジェクトを詳細に認識することができる。本実施形態1では、第1認識学習モデル342は血管壁部を認識するモデルであり、第2認識学習モデル343はガイドワイヤを認識するモデルであるものとして説明する。第1認識学習モデル342及び第2認識学習モデル343の詳細は後述する。
なお、補助記憶部34は画像処理装置3に接続された外部記憶装置であってもよい。コンピュータプログラムPは、画像処理装置3の製造段階において補助記憶部34に書き込まれてもよいし、遠隔のサーバ装置が配信するものを画像処理装置3が通信にて取得して補助記憶部34に記憶させてもよい。コンピュータプログラムPは、磁気ディスク、光ディスク、半導体メモリ等の記録媒体3aに読み出し可能に記録された態様であってもよい。
制御部31は、補助記憶部34に記憶されたコンピュータプログラムPを読み出して実行することにより、画像診断装置100で生成された医用画像を取得し、医用画像に含まれる所定のオブジェクトを検出する処理を実行する。オブジェクトは、例えば、血管内腔境界、血管壁部、ステント(血管内に存在する医用器具)、ガイドワイヤ、血管内の石灰化部分等であり、画像処理装置3は、これらのオブジェクトを認識する。具体的には、制御部31は、推定学習モデル341、第1認識学習モデル342及び第2認識学習モデル343を用いて医用画像におけるこれらのオブジェクトの種類及び当該オブジェクトが存在する画像領域を検出する。そして、画像処理装置3は、オブジェクトの認識結果を画像診断装置100に出力し、医療従事者がオブジェクトの位置及び領域が認識し易いように、オブジェクトの位置及び領域を示すガイド画像G1,G2(図8参照)を表示させる。本実施形態1では、医用画像に含まれる血管壁部及びガイドワイヤを認識する例を説明する。
図3は、情報処理方法の手順を示すフローチャートである。制御部31は、時系列順の複数の医用画像を画像診断装置100から取得する(ステップS11)。ここで取得した時系列順の複数の医用画像は、例えば血管の遠位から近位にわたって観測された断層像の画像である。
制御部31は、取得した医用画像を推定学習モデル341に入力することによって、医用画像に含まれるオブジェクトの種類及び位置を推定する(ステップS12)。
図4は、推定学習モデル341を用いたオブジェクトの位置推定処理方法を示す説明図である。推定学習モデル341は、医用画像に含まれる血管壁部、ガイドワイヤ等のオブジェクトの位置及び範囲、当該オブジェクトの種類を出力するためのモデルである。
推定学習モデル341は、例えば深層学習による学習済みの畳み込みニューラルネットワーク(CNN:Convolutional neural network)である。推定学習モデル341は、例えば、医用画像が入力される入力層341aと、画像の特徴量を抽出する中間層341bと、医用画像に含まれるオブジェクトの位置及び種類を示す情報を出力する出力層341cとを有する。以下、当該情報をオブジェクト推定結果と呼ぶ。
推定学習モデル341の入力層341aは、医用画像に含まれる各画素の画素値の入力を受け付ける複数のニューロンを有し、入力された画素値を中間層341bに受け渡す。中間層341bは、入力層341aに入力された各画素の画素値を畳み込む畳み込み層と、畳み込み層で畳み込んだ画素値をマッピングするプーリング層とが交互に連結された構成を有し、医用画像の画素情報を圧縮しながら画像の特徴量を抽出する。中間層341bは、抽出した特徴量を出力層341cに受け渡す。出力層341cは、画像中に含まれるオブジェクトの画像領域の位置及び範囲並びに種類等を示すオブジェクト推定結果を出力する一又は複数のニューロンを有する。
なお本実施形態1においては、推定モデルがCNNであるものとするが、モデルの構成はCNNに限るものではない。推定モデルは、例えばCNN以外のニューラルネットワーク、SVM(Support Vector Machine)、ベイジアンネットワーク、又は、回帰木等の構成の学習済モデルであってよい。
推定学習モデル341は、血管壁部、ガイドワイヤ等のオブジェクトを含む医用画像と、各オブジェクトの位置及び種類を示すラベルとが対応付けられた訓練データを用意し、当該訓練データを用いて未学習のニューラルネットワークを機械学習させることにより生成することができる。
このように構成された推定学習モデル341によれば、図4に示すように医用画像を推定学習モデル341に入力することによって、当該医用画像に含まれるオブジェクトの位置及び種類を示す情報を得ることができる。
具体的には、推定学習モデル341は、超音波エコーが小さい環状の領域を血管壁部の特徴であると認識し、血管壁部の位置及び範囲を推定することができる。
また、推定学習モデル341は、線状の音響陰影(Acoustic Shadow)の領域及びその先端の超音波エコーが大きい部分をガイドワイヤの特徴として、ガイドワイヤの位置及び範囲を推定することができる。音響陰影は、ガイドワイヤ等の硬いオブジェクトが血管内に存在する場合に、超音波の反射波がカテーテル1まで到達しないことにより、画像の一部が黒く抜け落ちる現象である。図4では図示の便宜上、音響陰影が生じている領域をハッチングで図示している。
なお、図4に示すオブジェクト推定結果は、推定結果の情報を概念的に示したものである。
具体的には、推定学習モデル341は、超音波エコーが小さい環状の領域を血管壁部の特徴であると認識し、血管壁部の位置及び範囲を推定することができる。
また、推定学習モデル341は、線状の音響陰影(Acoustic Shadow)の領域及びその先端の超音波エコーが大きい部分をガイドワイヤの特徴として、ガイドワイヤの位置及び範囲を推定することができる。音響陰影は、ガイドワイヤ等の硬いオブジェクトが血管内に存在する場合に、超音波の反射波がカテーテル1まで到達しないことにより、画像の一部が黒く抜け落ちる現象である。図4では図示の便宜上、音響陰影が生じている領域をハッチングで図示している。
なお、図4に示すオブジェクト推定結果は、推定結果の情報を概念的に示したものである。
ステップS12の処理を終えた制御部31は、オブジェクトの種類及び位置に応じた関心領域A1,A2を設定する(ステップS13)。
図5及び図6は関心領域A1,A2の設定方法の一例を示す説明図である。関心領域A1,A2は、図5及び図6に示すように、ステップS12の処理で推定されたオブジェクトの位置を基準にして定められる領域である。
オブジェクトが血管壁部である場合、図5に示すように、制御部31は、推定学習モデル341で推定されたオブジェクトの位置を中心とし、推定されたオブジェクト全体を含む領域を関心領域A1として設定する。関心領域A1は例えば方形であり、関心領域A1はその頂点位置と、縦横長さで設定される。具体的には、オブジェクトの中心を基準にして、オブジェクトの外側10ピクセル以上を含む方形の領域を関心領域A1とする。なお、関心領域A1のサイズは所定の値であってもよい。
オブジェクトが血管内腔に挿入されたガイドワイヤである場合、図6に示すように、制御部31は、推定学習モデル341で推定されたオブジェクトの位置を頂部又は端部とする領域を関心領域A2として設定する。例えば、制御部31は、オブジェクトの位置を頂点とし、カテーテル1中心とオブジェクト位置を含む線を対角線とする方形の関心領域A2を設定する。
以上、ステップS11~ステップS14の処理によって、制御部31は、医用画像に含まれるオブジェクトの種類と、凡その位置を推定できたため、他の複数の医用画像については関心領域A1,A2に含まれる特定のオブジェクトを検出すればよいことになる。
制御部31は、推定したオブジェクトの種類に応じて、その位置を基準にした画像部分を医用画像から抽出する(ステップS14)。制御部31は、抽出された医用画像を所定サイズの画像部分に標準化する(ステップS15)。例えば、医用画像を所定サイズの正方形の画像データに変換する。
そして、制御部31は、部分画像に含まれるオブジェクトの種類に応じて、使用する認識学習モデルを選択する(ステップS16)。つまり、部分画像に血管壁部のようなオブジェクトが含まれている場合、制御部31は第1認識学習モデル342を選択する。部分画像にガイドワイヤのようなオブジェクトが含まれている場合、制御部31は第2認識学習モデル343を選択する。そして、制御部31は、抽出された関心領域A1,A2の画像部分を第1認識学習モデル342又は第2認識学習モデル343に入力することによって、画像部分に含まれるオブジェクトを認識する(ステップS17)。
図7は、オブジェクトの認識処理方法を示す説明図である。第1認識学習モデル342は、画像部分における血管壁部の領域を画素単位で認識できるように学習されている。第2認識学習モデル343は、画像部分におけるガイドワイヤの領域を画素単位で認識できるように学習されている。第1認識学習モデル342と、第2認識学習モデル343は同様の構成であるため、第1認識学習モデル342の構成について説明する。
第1認識学習モデル342は、例えば深層学習による学習済みの畳み込みニューラルネットワーク(CNN:Convolutional neural network)である。第1認識学習モデル342は、いわゆるセマンティックセグメンテーション(Semantic Segmentation)を用いた画像認識技術により、オブジェクトを画素単位で認識する。
第1認識学習モデル342は、画像部分が入力される入力層342aと、画像の特徴量を抽出し復元する中間層342bと、画像部分に含まれるオブジェクトを画素単位で示すラベル画像を出力する出力層342cとを有する。第1認識学習モデル342は、例えばU-Netである。
第1認識学習モデル342は、画像部分が入力される入力層342aと、画像の特徴量を抽出し復元する中間層342bと、画像部分に含まれるオブジェクトを画素単位で示すラベル画像を出力する出力層342cとを有する。第1認識学習モデル342は、例えばU-Netである。
推定学習モデル341の入力層342aは、画像部分に含まれる各画素の画素値の入力を受け付ける複数のニューロンを有し、入力された画素値を中間層342bに受け渡す。中間層342bは、畳み込み層(CONV層)と、逆畳み込み層(DECONV層)とを有する。畳み込み層は、画像データを次元圧縮する層である。次元圧縮により、オブジェクトの特徴量が抽出される。逆畳み込み層は逆畳み込み処理を行い、元の次元に復元する。逆畳み込み層における復元処理により、画像内の各画素がオブジェクトであるか否かを示す二値化されたラベル画像が生成される。出力層342cは、ラベル画像を出力する一又は複数のニューロンを有する。ラベル画像は、例えば、血管壁部に対応する画素がクラス「1」、その他の画像に対応する画素がクラス「0」の画像である。
第2認識学習モデル343は、第1認識学習モデル342と同様の構成であり、画像部分に含まれるガイドワイヤを画素単位で認識し、生成されたラベル画像を出力する。ラベル画像は、例えば、ガイドワイヤに対応する画素がクラス「1」、その他の画像に対応する画素がクラス「0」の画像である。
第1認識学習モデル342は、血管壁部を含む医用画像と、医用画像における血管壁部の画素を示すラベル画像とを有する訓練データを用意し、当該訓練データを用いて未学習のニューラルネットワークを機械学習させることにより生成することができる。
第2認識学習モデル343も同様にして生成することができる。
第2認識学習モデル343も同様にして生成することができる。
このように構成された第1認識学習モデル342によれば、図7に示すように、血管壁部を含む画像部分が第1認識学習モデル342に入力することによって、画素単位で血管壁部を示すラベル画像が得られる。
同様に、第2認識学習モデル343によれば、図7に示すように、ガイドワイヤを含む画像部分が第2認識学習モデル343に入力することによって、画素単位でガイドワイヤを示すラベル画像が得られる。
同様に、第2認識学習モデル343によれば、図7に示すように、ガイドワイヤを含む画像部分が第2認識学習モデル343に入力することによって、画素単位でガイドワイヤを示すラベル画像が得られる。
なお、実施形態1では、血管壁部を認識する学習モデルと、ガイドワイヤを認識する学習モデルを別体で構成しているが、一つの学習モデルを用いて血管壁部及びガイドワイヤを認識するように構成してもよい。
ステップS17の処理を終えた制御部31は、元の医用画像における関心領域A1,A2の位置に基づいて、画像部分に含まれるオブジェクトの位置を、当該オブジェクトの元の医用画像における絶対座標位置に変換する(ステップS18)。
そして、制御部31は、入力装置5にて医用画像に重畳表示させるオブジェクトの種類の選択を受け付ける(ステップS19)。制御部31は、医用画像に含まれるオブジェクトのうち、選択されたオブジェクトの位置を示すガイド画像G1,G2を当該医用画像に重畳して表示する(ステップS20)。
図8は、ガイド画像G1,G2の表示例を示す説明図である。表示するオブジェクトとして、血管壁部が選択された場合、図8に示すように、制御部31は、血管壁部のオブジェクトに相当する画素位置を示すガイド画像G1を医用画像に重畳表示させる。表示するオブジェクトとして、ガイドワイヤが選択された場合、制御部31は、ガイドワイヤのオブジェクトに相当する画素位置を示すガイド画像G2を医用画像に重畳表示させる。また、表示するオブジェクトとして、血管壁部及びガイドワイヤの双方が選択された場合、制御部31は、血管壁部及びガイドワイヤのオブジェクトに相当する画素位置を示すガイド画像G1,G2を医用画像に重畳表示させる。
なお、オブジェクトの種類毎に異なる態様でガイド画像G1,G2を表示してもよい。例えば、線種、色が異なるガイド画像G1,G2を表示するとよい。また、医用画像にガイド画像G1,G2を重畳させた画像と共に、ガイド画像G1,G2が重畳されていない元の画像を並べて表示するように構成してもよい。更に、ガイド画像G1,G2が重畳された画像と、ガイド画像G1,G2が重畳されていない元の画像とを選択的に切り換えて表示するように構成してもよい。
次いで、制御部31は、検査が終了したか否かを判定する(ステップS21)。検査が終了していないと判定した場合(ステップS21:NO)、制御部31は処理をステップS14に戻す。検査が終了したと判定した場合(ステップS21:YES)、制御部31は一連の処理を終了する。
このように構成されたコンピュータプログラムP、画像処理装置3及び情報処理方法によれば、血管をスキャンして得た医用画像を解析し、診断補助に係るオブジェクトを即時的に認識することができる。そして、医師の診断の補助を目的に、医用画像に血管壁部、ガイドワイヤ等を示すガイド画像G1,G2を重畳して表示することができる。
具体的には、同一観察対象である血管の医用画像に含まれる連続性、つまり複数の医用画像におけるオブジェクトの位置が略同一である特性を利用してオブジェクトの位置を凡そ特定した上で、関心領域A1,A2の画像部分に含まれるオブジェクトを画素単位で認識することにより、即時的にオブジェクトを認識することができる。
なお、本実施形態1で説明した画像処理装置3、コンピュータプログラムP、情報処理方法は一例であり、実施形態1の構成に限定されるものではない。
例えば、本実施形態1では、観察ないし診断対象として血管を例示したが、血管以外の腸等の管腔器官を観察する場合にも本発明を適用することができる。
また、医用画像の一例として超音波画像を説明したが、医用画像は超音波画像に限定されない。医用画像は、例えばOCT(Optical Coherence Tomography)画像などであってもよい。
更に、認識するオブジェクトとして、血管壁部及びガイドワイヤを例示したが、血管内腔境界、ステント等の医用器具、血管内の石灰化部分等のオブジェクトの位置を推定及び認識し、各オブジェクトを示すガイド画像を表示してもよい。
更に、図5に示すように、推定されたオブジェクトの位置を中心とする方形の関心領域A1を設定する場合のオブジェクトとして血管壁部を例示したが、血管内腔境界、ステント等の非線状のオブジェクトを認識する場合も、同様にして関心領域A1を設定するとよい。
更にまた、図6に示すように、推定されたオブジェクトの位置を頂点とする方形の関心領域A2を設定する場合のオブジェクトとしてガイドワイヤを例示したが、音響陰影が生ずる血管内の石灰化部分等のオブジェクトを認識する場合も、同様にして関心領域A2を設定するとよい。
更に、ガイドワイヤのような線状のオブジェクトを含む関心領域A2を設定して画像認識処理を行う場合、血管の周方向θと、径方向rとを軸とする医用画像に変換し、変換後の医用画像から関心領域A2の画像部分を抽出するとよい。
図9は、関心領域A2の画像部分の抽出方法の変形例を示す説明図である。図9に示す医用画像は、血管の周方向θと、径方向rとを軸とする医用画像である。医用画像の中心部から外側へ伸びるオブジェクトを認識する場合、図9に示すような医用画像に変換して関心領域A2の画像部分を抽出するとよい。太線部分が関心領域A2に対応する画像部分である。このように画像部分を抽出することによって、認識対象であるオブジェクト部分を多く含む画像部分を抽出することができ、より効率的かつ正確にオブジェクトを認識することが可能になる。
(実施形態2)
図10は、画像診断システムの構成例を示す説明図である。実施形態2に係る画像診断システムは、医用画像の解析処理をサーバである情報処理装置6が実行する点が異なるため、以下では主に上記相違点を説明する。その他の構成及び作用効果は実施形態1と同様であるため、対応する箇所には同様の符号を付して詳細な説明を省略する。
図10は、画像診断システムの構成例を示す説明図である。実施形態2に係る画像診断システムは、医用画像の解析処理をサーバである情報処理装置6が実行する点が異なるため、以下では主に上記相違点を説明する。その他の構成及び作用効果は実施形態1と同様であるため、対応する箇所には同様の符号を付して詳細な説明を省略する。
実施形態2に係る画像診断システムは、情報処理装置6、画像診断装置200を備える。情報処理装置6及び画像診断装置200は、LAN(Local Area Network)、インターネット等のネットワークNを介して通信接続されている。情報処理装置6及び画像診断装置200は、LAN(Local Area Network)、インターネット等のネットワークNを介して通信接続されている。
図11は、情報処理装置6の構成例を示すブロック図である。情報処理装置6はコンピュータであり、制御部61、主記憶部62、通信部63、及び補助記憶部64を備える。通信部63は、ネットワークNを介して画像処理装置3との間でデータを送受信するための通信回路である。制御部61、主記憶部62、通信部63及び補助記憶部64のハードウェア構成は、実施形態1で説明した画像処理装置3と同様である。補助記憶部64が記憶するコンピュータプログラムP,推定学習モデル641、第1認識学習モデル642、第2認識学習モデル643、記録媒体6aも、実施形態1の各種プログラム及びモデル等と同様である。
なお、情報処理装置6は複数のコンピュータからなるマルチコンピュータであっても良く、ソフトウェアによって仮想的に構築された仮想マシンであってもよい。情報処理装置6は画像診断装置200と同じ施設(病院等)に設置されたローカルサーバであってもよく、インターネット等を介して画像診断装置200に通信接続されたクラウドサーバであってもよい。
なお、情報処理装置6は複数のコンピュータからなるマルチコンピュータであっても良く、ソフトウェアによって仮想的に構築された仮想マシンであってもよい。情報処理装置6は画像診断装置200と同じ施設(病院等)に設置されたローカルサーバであってもよく、インターネット等を介して画像診断装置200に通信接続されたクラウドサーバであってもよい。
このように構成された情報処理装置6は、ネットワークNを介して画像処理装置3から医用画像を取得し、取得した医用画像に基づいて、実施形態1の画像処理装置3と同様の処理を実行し、オブジェクトの認識結果を画像装置へ送信する。画像処理装置3は、情報処理装置6から送信されたオブジェクトの認識結果を取得し、図8に示すようにオブジェクトの位置を示すガイド画像を医用画像に重畳させて表示装置4に表示させる。
実施形態2に係る情報処理装置6、コンピュータプログラムP及び情報処理方法においても実施形態1同様、血管をスキャンして得た医用画像を解析し、診断補助に係るオブジェクトを即時的に認識することができる。
今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、請求の範囲によって示され、請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
1 カテーテル
2 MDU
3 画像処理装置
3a 記録媒体
4 表示装置
5 入出力装置
6 情報処理装置
6a 記録媒体
31 制御部
32 主記憶部
33 入出力I/F
34 補助記憶部
61 制御部
62 主記憶部
63 通信部
64 補助記憶部
100、200 画像診断装置
341 推定学習モデル
342 第1認識学習モデル
343 第2認識学習モデル
641 推定学習モデル
642 第1認識学習モデル
643 第2認識学習モデル
P コンピュータプログラム
2 MDU
3 画像処理装置
3a 記録媒体
4 表示装置
5 入出力装置
6 情報処理装置
6a 記録媒体
31 制御部
32 主記憶部
33 入出力I/F
34 補助記憶部
61 制御部
62 主記憶部
63 通信部
64 補助記憶部
100、200 画像診断装置
341 推定学習モデル
342 第1認識学習モデル
343 第2認識学習モデル
641 推定学習モデル
642 第1認識学習モデル
643 第2認識学習モデル
P コンピュータプログラム
Claims (9)
- 管腔器官に挿入されたカテーテルにて検出した信号に基づき生成された医用画像を取得し、
少なくとも医用画像に含まれるオブジェクトの位置を推定する第1学習モデルに、取得した医用画像を入力することによって、医用画像に含まれるオブジェクトの位置を推定し、
推定したオブジェクトの位置を基準にした画像部分を医用画像から抽出し、
画像部分に含まれるオブジェクトを認識する第2学習モデルに、抽出された画像部分を入力することによって、画像部分に含まれるオブジェクトを認識する
処理をコンピュータに実行させるためのコンピュータプログラム。 - 時系列順に生成される複数の医用画像を取得し、
取得した第1の医用画像を前記第1学習モデルに入力することによって、医用画像に含まれるオブジェクトの位置を推定し、
第1の医用画像に基づいて推定されたオブジェクトの位置を基準にして、第1の医用画像の後に取得される第2の医用画像から画像部分を抽出し、
第2の医用画像から抽出された画像部分を前記第2学習モデルに入力することによって、該画像部分に含まれるオブジェクトを認識する
処理をコンピュータに実行させるための請求項1に記載のコンピュータプログラム。 - 管腔器官は血管であり、前記カテーテルにて検出した信号に基づき生成された血管の医用画像を取得する
処理をコンピュータに実行させるための請求項1又は請求項2に記載のコンピュータプログラム。 - 前記第1学習モデルは、血管内腔境界、血管壁部、及び血管内に存在する医用器具の少なくとも一つの位置を推定するように学習されており、
推定されたオブジェクトの位置を中心とする画像部分を抽出する
処理をコンピュータに実行させるための請求項1から請求項3のいずれか1項に記載のコンピュータプログラム。 - 前記第1学習モデルは、血管内腔に挿入されたガイドワイヤ、又は血管内の石灰化部分の少なくとも一つの位置を推定するように学習されており、
推定されたオブジェクトの位置を頂部又は端部とする画像部分を抽出する
処理をコンピュータに実行させるための請求項1から請求項4のいずれか1項に記載のコンピュータプログラム。 - 前記第1学習モデルを用いて推定したオブジェクトの位置の情報に基づいて、前記第2学習モデルを用いて認識したオブジェクトを示す画像を医用画像に重畳させて表示する
処理をコンピュータに実行させるための請求項1から請求項5のいずれか1項に記載のコンピュータプログラム。 - 前記第2学習モデルを用いて複数種類のオブジェクトを認識し、
表示するオブジェクトの種類の選択を受け付け、
取得した医用画像に、受け付けた種類のオブジェクトを示す画像を重畳させて表示する
処理をコンピュータに実行させるための請求項6に記載のコンピュータプログラム。 - 管腔器官に挿入されたカテーテルにて検出した信号に基づき生成された医用画像を取得し、
少なくとも医用画像に含まれるオブジェクトの位置を推定する第1学習モデルに、取得した医用画像を入力することによって、医用画像に含まれるオブジェクトの位置を推定し、
推定したオブジェクトの位置を基準にした画像部分を医用画像から抽出し、
画像部分に含まれるオブジェクトを認識する第2学習モデルに、抽出された画像部分を入力することによって、画像部分に含まれるオブジェクトを認識する
処理をコンピュータが実行する情報処理方法。 - 管腔器官に挿入されたカテーテルにて検出した信号に基づき生成された医用画像を取得する取得部と、
取得した医用画像が入力された場合、少なくとも医用画像に含まれるオブジェクトの推定位置を示す情報を出力する第1学習モデルと、
推定されたオブジェクトの位置を基準にした画像部分を医用画像から抽出処理部と、
抽出された画像部分が入力された場合、該画像部分に含まれるオブジェクトを示す情報を出力する第2学習モデルと
を備える情報処理装置。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020061512 | 2020-03-30 | ||
| JP2020061512 | 2020-03-30 | ||
| PCT/JP2021/009304 WO2021199961A1 (ja) | 2020-03-30 | 2021-03-09 | コンピュータプログラム、情報処理方法及び情報処理装置 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPWO2021199961A1 JPWO2021199961A1 (ja) | 2021-10-07 |
| JP7561833B2 true JP7561833B2 (ja) | 2024-10-04 |
Family
ID=77929076
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022511729A Active JP7561833B2 (ja) | 2020-03-30 | 2021-03-09 | コンピュータプログラム、情報処理方法及び情報処理装置 |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US12530793B2 (ja) |
| JP (1) | JP7561833B2 (ja) |
| WO (1) | WO2021199961A1 (ja) |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7574279B2 (ja) * | 2020-03-30 | 2024-10-28 | テルモ株式会社 | コンピュータプログラム、情報処理方法、情報処理装置及びモデル生成方法 |
| JPWO2022209657A1 (ja) * | 2021-03-30 | 2022-10-06 | ||
| WO2025070351A1 (ja) * | 2023-09-25 | 2025-04-03 | テルモ株式会社 | 情報処理方法、プログラム、情報処理装置及びモデル生成方法 |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017503561A (ja) | 2013-12-18 | 2017-02-02 | ハートフロー, インコーポレイテッド | 患者固有の解剖学的構造の画像データから冠動脈プラークの脆弱性を予測するシステム及び方法 |
| WO2020054543A1 (ja) | 2018-09-11 | 2020-03-19 | 富士フイルム株式会社 | 医療画像処理装置及び方法、内視鏡システム、プロセッサ装置、診断支援装置並びにプログラム |
Family Cites Families (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP2965263B1 (en) | 2013-03-07 | 2022-07-20 | Bernhard Sturm | Multimodal segmentation in intravascular images |
| US10762637B2 (en) * | 2017-10-27 | 2020-09-01 | Siemens Healthcare Gmbh | Vascular segmentation using fully convolutional and recurrent neural networks |
| US11707242B2 (en) * | 2019-01-11 | 2023-07-25 | Pie Medical Imaging B.V. | Methods and systems for dynamic coronary roadmapping |
| CN113678167B (zh) * | 2019-04-02 | 2025-08-12 | 皇家飞利浦有限公司 | 超声成像中的分割和视图引导以及相关联的设备、系统和方法 |
| US11710238B2 (en) * | 2019-10-24 | 2023-07-25 | Case Western Reserve University | Plaque segmentation in intravascular optical coherence tomography (OCT) images using deep learning |
-
2021
- 2021-03-09 JP JP2022511729A patent/JP7561833B2/ja active Active
- 2021-03-09 WO PCT/JP2021/009304 patent/WO2021199961A1/ja not_active Ceased
-
2022
- 2022-09-28 US US17/955,071 patent/US12530793B2/en active Active
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017503561A (ja) | 2013-12-18 | 2017-02-02 | ハートフロー, インコーポレイテッド | 患者固有の解剖学的構造の画像データから冠動脈プラークの脆弱性を予測するシステム及び方法 |
| WO2020054543A1 (ja) | 2018-09-11 | 2020-03-19 | 富士フイルム株式会社 | 医療画像処理装置及び方法、内視鏡システム、プロセッサ装置、診断支援装置並びにプログラム |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2021199961A1 (ja) | 2021-10-07 |
| US20230017334A1 (en) | 2023-01-19 |
| JPWO2021199961A1 (ja) | 2021-10-07 |
| US12530793B2 (en) | 2026-01-20 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7574279B2 (ja) | コンピュータプログラム、情報処理方法、情報処理装置及びモデル生成方法 | |
| US12530793B2 (en) | Computer program, information processing method, and information processing device | |
| JP7489882B2 (ja) | コンピュータプログラム、画像処理方法及び画像処理装置 | |
| JP7490045B2 (ja) | プログラム、情報処理方法、情報処理装置及びモデル生成方法 | |
| CN114650778A (zh) | 诊断支援装置、诊断支援系统以及诊断支援方法 | |
| US12518382B2 (en) | Medical system, method for processing medical image, and medical image processing apparatus | |
| US20240013434A1 (en) | Program, information processing method, and information processing device | |
| WO2024071251A1 (ja) | コンピュータプログラム、情報処理方法、情報処理装置、及び学習モデル | |
| WO2021193019A1 (ja) | プログラム、情報処理方法、情報処理装置及びモデル生成方法 | |
| JP7686525B2 (ja) | コンピュータプログラム、情報処理方法、及び情報処理装置 | |
| JP7803928B2 (ja) | プログラム、画像処理方法及び画像処理装置 | |
| WO2023054467A1 (ja) | モデル生成方法、学習モデル、コンピュータプログラム、情報処理方法及び情報処理装置 | |
| JP2025100867A (ja) | コンピュータプログラム、情報処理方法、及び情報処理装置 | |
| US12283048B2 (en) | Diagnosis support device, diagnosis support system, and diagnosis support method | |
| WO2021193018A1 (ja) | プログラム、情報処理方法、情報処理装置及びモデル生成方法 | |
| US20250221625A1 (en) | Image diagnostic system, image diagnostic method, and storage medium | |
| JP7813276B2 (ja) | コンピュータプログラム、情報処理方法及び情報処理装置 | |
| JP7686523B2 (ja) | コンピュータプログラム、情報処理方法、及び情報処理装置 | |
| JP7801064B2 (ja) | コンピュータプログラム、情報処理方法及び情報処理装置 | |
| US20250248664A1 (en) | Image diagnostic system and method | |
| JP2024139509A (ja) | プログラム、画像処理方法、画像処理装置及びモデル生成方法 | |
| JP2024142137A (ja) | プログラム、画像処理方法及び画像処理装置 | |
| JP2025052747A (ja) | 情報処理方法、プログラム及び情報処理装置 | |
| JP2024140944A (ja) | プログラム、画像処理方法、画像処理装置及びモデル生成方法 | |
| JP2024050056A (ja) | コンピュータプログラム、学習モデル、情報処理方法、及び情報処理装置 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231013 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240827 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240924 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7561833 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |