JP7843748B2 - プログラム、情報処理方法及び情報処理装置 - Google Patents

プログラム、情報処理方法及び情報処理装置

Info

Publication number
JP7843748B2
JP7843748B2 JP2023508968A JP2023508968A JP7843748B2 JP 7843748 B2 JP7843748 B2 JP 7843748B2 JP 2023508968 A JP2023508968 A JP 2023508968A JP 2023508968 A JP2023508968 A JP 2023508968A JP 7843748 B2 JP7843748 B2 JP 7843748B2
Authority
JP
Japan
Prior art keywords
interest
landmark
image
ivus
medical image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023508968A
Other languages
English (en)
Other versions
JPWO2022202323A1 (ja
Inventor
耕太郎 楠
雄紀 坂口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Terumo Corp
Original Assignee
Terumo Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Terumo Corp filed Critical Terumo Corp
Publication of JPWO2022202323A1 publication Critical patent/JPWO2022202323A1/ja
Application granted granted Critical
Publication of JP7843748B2 publication Critical patent/JP7843748B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus, e.g. for MRI, optical tomography or impedance tomography apparatus; Arrangements of imaging apparatus in a room
    • A61B5/0035Features or image-related aspects of imaging apparatus, e.g. for MRI, optical tomography or impedance tomography apparatus; Arrangements of imaging apparatus in a room adapted for acquisition of images from more than one imaging mode, e.g. combining MRI and optical tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6846Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive
    • A61B5/6847Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive mounted on an invasive device
    • A61B5/6852Catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Clinical applications
    • A61B8/0883Clinical applications for diagnosis of the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Clinical applications
    • A61B8/0891Clinical applications for diagnosis of blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus, e.g. for MRI, optical tomography or impedance tomography apparatus; Arrangements of imaging apparatus in a room
    • A61B5/004Features or image-related aspects of imaging apparatus, e.g. for MRI, optical tomography or impedance tomography apparatus; Arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • A61B5/0066Optical coherence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; Determining position of diagnostic devices within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • A61B5/064Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; Determining position of diagnostic devices within or on the body of the patient
    • A61B5/065Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4887Locating particular structures in or on the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4887Locating particular structures in or on the body
    • A61B5/489Blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4417Constructional features of apparatus for radiation diagnosis related to combined acquisition of different diagnostic modalities
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/031Recognition of patterns in medical or anatomical images of internal organs

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Theoretical Computer Science (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Signal Processing (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Physiology (AREA)
  • Urology & Nephrology (AREA)
  • Cardiology (AREA)
  • Quality & Reliability (AREA)
  • Optics & Photonics (AREA)
  • Vascular Medicine (AREA)
  • Image Analysis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

本発明は、プログラム、情報処理方法及び情報処理装置に関する。
従来、超音波や光を利用して血管等の管腔器官内の医用画像を取得する画像診断用のカテーテルが知られており、このようなカテーテルを用いて生成した画像診断用の医用画像を表示する画像診断装置が開示されている(例えば、特許文献1参照)。
国際公開第2017/164071号
画像診断装置により得られる医用画像の方向は、カテーテルの屈曲状態等により変化する。医師等が診断を行う上で、医用画像の方向を正しく把握することは重要である。しかしながら医用画像の方向を把握するには、描出されている医用画像を正しく読影する能力が必要であるため、長時間のトレーニングが必要である。
本開示の目的は、医用画像の方向を容易に把握することができるプログラム等を提供することである。
本開示の一態様に係るプログラムは、カテーテルを用いて管腔器官を撮像した医用画像を取得し、取得した前記医用画像に基づき前記医用画像に対する関心部位の方向を示す関心方向を特定し、特定した前記関心方向を示す情報を前記医用画像に関連付けて表示する又は前記関心方向を示す情報に基づき画像処理された前記医用画像を表示する処理をコンピュータに実行させる。
本開示によれば、医用画像の方向を容易に把握することができる。
画像診断装置の構成例を示す説明図である。 画像処理装置の構成例を示すブロック図である。 学習モデルの概要を説明する説明図である。 画像処理装置にて実行される処理手順の一例を示すフローチャートである。 表示装置に表示される画面の一例を示す模式図である。 第2実施形態における学習モデルの概要を説明する説明図である。 第2実施形態における画像処理装置にて実行される処理手順の一例を示すフローチャートである。
本開示の実施形態に係るコンピュータプログラム、画像処理方法及び画像処理装置の具体例を、以下に図面を参照しつつ説明する。
(第1実施形態)
図1は、画像診断装置100の構成例を示す説明図である。本実施形態に係る画像診断装置100は、血管内超音波検査装置101、血管造影装置102、画像処理装置(情報処理装置)3、表示装置4及び入力装置5を備える。画像診断装置100は、被検者の管腔器官をイメージングするための装置ユニットである。本実施形態では、血管内治療である心臓カテーテル治療を一例に説明するが、カテーテル治療の対象とする管腔器官は血管に限定されず、例えば胆管、膵管、気管支、腸等の他の管腔器官であってもよい。
血管内超音波検査装置101は、例えば血管内超音波(IVUS:Intra Vascular Ultra Sound)法によって被検者の血管の横断面である超音波断層像を含むIVUS画像(医用画像)を生成し、血管内の超音波検査及び診断を行うための装置である。血管内超音波検査装置101は、カテーテル1及びMDU(Motor Drive Unit)2を備える。
カテーテル1は、IVUS法によって血管の超音波断層像を得るための画像診断用カテーテルである。超音波断層像は、カテーテル1を用いて生成されたカテーテル画像の例示である。カテーテル1は、プローブ11と、プローブ11の端部に配置されたコネクタ部12とを有する。プローブ11は、コネクタ部12を介してMDU2に接続される。プローブ11の内部に、シャフト13が挿通されている。シャフト13の先端側に、センサ部14が接続されている。
センサ部14は、超音波トランスデューサであり、血管内においてパルス信号に基づく超音波を送信すると共に、血管の生体組織又は医用機器で反射された反射波を受信する。センサ部14及びシャフト13は、プローブ11の内部で進退可能であり、また、周方向に回転することができる。センサ部14及びシャフト13は、シャフト13の中心軸を回転軸として回転する。
プローブ11の先端部には、ガイドワイヤが挿通可能なガイドワイヤ挿通部15が設けられている。ガイドワイヤ挿通部15はガイドワイヤルーメンを構成し、予め血管内に挿入されたガイドワイヤを受け入れ、ガイドワイヤによってプローブ11を患部まで導くのに使用される。ガイドワイヤルーメンにおける管部の中心線と、プローブ11の管部の中心線とは所定長離隔している。
また、カテーテル1は、血管内超音波検査装置101によって得られるIVUS画像と、血管造影装置102によって得られるアンギオ画像との位置関係を決定するため、X線を透過しないマーカ16を有する。図1の例では、プローブ11の先端部にマーカ16が設けられている。このように構成されたカテーテル1をX線で撮像すると、マーカ16の画像を含むX線透視画像であるアンギオ画像が得られる。なおマーカ16を設ける位置は一例であり、マーカ16はシャフト13に設けてもよく、プローブ11の先端部以外の箇所に設けてもよい。
MDU2は、カテーテル1が着脱可能に取り付けられる駆動装置であり、使用者の操作に応じて内蔵モータを駆動することにより、血管内に挿入されたカテーテル1の動作を制御する。MDU2は、シャフト13及びセンサ部14を一定の速度でMDU2側に向けて引っ張りながら周方向に回転させるプルバック操作を行う。センサ部14は、プルバック操作によって先端側から基端側に移動しながら回転しつつ、所定の時間間隔で連続的に血管内を走査し、検出された超音波の反射波データを画像処理装置3へ出力する。
画像処理装置3は、カテーテル1のプローブ11から出力された反射波データに基づいて、血管を撮像したIVUS画像を生成する処理装置である。画像処理装置3は、センサ部14の1回転ごとに1フレームの画像を生成する。生成される画像は、プローブ11を中心とし、プローブ11に略垂直な横断層像である。なお、センサ部14は血管内を移動しながら走査するため、移動範囲(1回のプルバック範囲)内において1回転した各位置で1フレームの画像が生成される。すなわち移動範囲内で複数フレームの画像が生成される。画像処理装置3は、生成した超音波断層像を表示装置4に表示させるほか、入力装置5を介して検査を行う際の各種設定値の入力を受け付ける。
カテーテル1は、近赤外光を用いて光断層像を生成するOCT(Optical Coherence Tomography)用またはOFDI(Optical Frequency Domain Imaging)用等の、光断層像生成用のカテーテルであってもよい。この場合、センサ部14は、近赤外光の照射と反射光の受信を行なう送受信部である。カテーテル1は、超音波トランスデューサと、OCT又はOFDI用の送受信部との両方のセンサ部14を有し、超音波断層像及び光断層像の両方を含む医用画像を生成するためのものであってもよい。
血管造影装置102は、患者の血管に造影剤を注入しながら、患者の生体外からX線を用いて血管を撮像し、当該血管の透視画像であるアンギオ画像(医用画像)を得るための撮像装置である。血管造影装置102は、X線源及びX線センサを備え、X線源から照射されたX線をX線センサが受信することにより、患者のX線透視画像をイメージングする。血管造影装置102は、撮像して得られたアンギオ画像を画像処理装置3へ出力する。
なお、本実施形態では主に2次元のアンギオ画像を撮像する血管造影装置102を例にして説明するが、生体外の異なる方向から患者の管腔器官及びカテーテル1を撮像する装置であれば、特に限定されるものではない。例えば、3次元CTアンギオグラフィ、磁気共鳴(MRI;Magnetic Resonance Imaging)画像などであってもよい。
表示装置4は、例えば液晶ディスプレイ又は有機EL(Electro Luminescence)ディスプレイ等であり、入力装置5は、例えばキーボード、マウス、トラックボール又はマイク等である。表示装置4と入力装置5とは、一体に積層されて、タッチパネルを構成していてもよい。また入力装置5と画像処理装置3とは、一体に構成されていてもよい。更に入力装置5は、ジェスチャ入力又は視線入力等を受け付けるセンサであってもよい。
図2は、画像処理装置3の構成例を示すブロック図である。画像処理装置3はコンピュータであり、制御部31、主記憶部32、入出力I/F33及び補助記憶部34を備える。
画像処理装置3は、複数のコンピュータを含んで構成されるマルチコンピュータであってよい。また、画像処理装置3は、サーバクライアントシステムや、クラウドサーバ、ソフトウェアによって仮想的に構築された仮想マシンであってもよい。以下の説明では、画像処理装置3が1台のコンピュータであるものとして説明する。
制御部31は、一又は複数のCPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)、GPGPU(General-purpose computing on graphics processing units)、TPU(Tensor Processing Unit)等の演算処理装置を用いて構成されている。制御部31は、バスを介して画像処理装置3を構成するハードウェア各部と接続されている。
主記憶部32は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の一時記憶領域であり、制御部31が演算処理を実行するために必要なデータを一時的に記憶する。
入出力I/F33は、血管内超音波検査装置101及び血管造影装置102、表示装置4及び入力装置5が接続されるインタフェースである。制御部31は、入出力I/F33を介して、IVUS画像又はアンギオ画像を取得する。また、制御部31は、入出力I/F33を介して、IVUS画像又はアンギオ画像の医用画像信号を表示装置4へ出力することによって、表示装置4に医用画像を表示する。更に、制御部31は、入出力I/F33を介して、入力装置5に入力された情報を受け付ける。
補助記憶部34は、ハードディスク、EEPROM(Electrically Erasable Programmable ROM)、フラッシュメモリ等の記憶装置である。補助記憶部34は、制御部31が実行するプログラム3P、制御部31の処理に必要な各種データを記憶する。また、補助記憶部34は、学習モデル3Mを記憶する。学習モデル3Mの詳細は後述する。
なお、補助記憶部34は画像処理装置3に接続された外部記憶装置であってもよい。プログラム3Pは、画像処理装置3の製造段階において補助記憶部34に書き込まれてもよいし、遠隔のサーバ装置が配信するものを画像処理装置3が通信にて取得して補助記憶部34に記憶させてもよい。プログラム3Pは、磁気ディスク、光ディスク、半導体メモリ等の記録媒体30に読み出し可能に記録された態様であってもよく、不図示の読取部が記録媒体30から読み出して補助記憶部34に記憶させてもよい。
制御部31は、補助記憶部34に記憶されたプログラム3Pを読み出して実行することにより、画像診断装置100で生成されたIVUS画像を取得し、IVUS画像に対する関心方向を特定し、特定した関心方向を示す情報を関連付けたIVUS画像を表示する処理を実行する。
関心方向とは、医師等が関心を有する関心部位の方向を示すものである。医師等は、IVUS画像における関心方向に基づき、被検者に対するIVUS画像の撮像方向(向き)を把握する。以下では、関心部位が心外膜であり、関心方向が心外膜の方向である例を説明する。例えば心臓カテーテル治療においては、重篤な合併症である心タンポナーデを予見するために、被検者の心外膜の方向を正しく把握することが重要である。すなわち、IVUS画像に対する心外膜の方向を正しく把握することが重要である。しかしながら、IVUS画像の向きは、血管内におけるカテーテル1の挿入状態に応じて随時変化する。IVUS画像に描出された情報から心外膜の方向を正しく把握することは熟練を要し、経験の浅い医師にとって容易ではない。また、撮像条件によって、IVUS画像に心外膜の方向を特定できる情報が描出されていないこともあり、このようなIVUS画像に対する心外膜の方向を把握することはさらに困難である。本実施形態では、画像処理装置3により心外膜の方向を特定し、特定した心外膜の方向を示す情報を関連付けたIVUS画像を提供することで、医師等が心外膜の方向を容易に認識することを可能とする。
本実施形態におけるIVUS画像の関心方向の特定方法について説明する。画像処理装置3の制御部31は、学習モデル3Mを用いてIVUS画像に含まれるメルクマールを検出し、検出結果に基づきIVUS画像の関心方向を特定する。メルクマールとは、IVUS画像の関心方向を特定するための目印となる情報である。例えば、メルクマールは、関心部位、カテーテル1が挿入されている管腔器官の形状、側枝構造、当該管腔器官に近接する心臓等の臓器、当該管腔器官の周囲にある管腔器官、病変等である。関心方向が心外膜の方向である場合、メルクマールには、例えば当該心外膜の方向を直接的に示す心外膜と、心外膜の方向を間接的に示す側枝の血管、静脈、Trance-thoracic sinus、Triangle of Brocq-Mouchet、心筋ブリッジ、石灰化病変、ガイドワイヤ等が含まれる。
図3は、学習モデル3Mの概要を説明する説明図である。学習モデル3Mは、IVUS画像を入力として、当該IVUS画像に含まれる所定のオブジェクト(メルクマール)に関する情報を出力するモデルである。具体的には、学習モデル3Mは、カテーテル1の走査に従い、血管の長手方向に沿って連続する複数フレームのIVUS画像を入力として受け付ける。学習モデル3Mは、時間軸tに沿って連続する各フレームのIVUS画像におけるメルクマールを認識する。
学習モデル3Mは、例えば深層学習による学習済みの畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)である。学習モデル3Mは、セマンティックセグメンテーション(Semantic Segmentation )を用いた画像認識技術により、入力される画像内の各画素がオブジェクト領域に対応する画素であるか否か、画素単位で認識する。学習モデル3Mは、IVUS画像が入力される入力層と、画像の特徴量を抽出し復元する中間層と、IVUS画像に含まれるオブジェクトの位置及び範囲並びに種類を示す情報を出力する出力層とを有する。学習モデル3Mは、例えばU-Netである。
学習モデル3Mの入力層は、IVUS画像に含まれる各画素の画素値の入力を受け付ける複数のノードを有し、入力された画素値を中間層に受け渡す。中間層は、畳み込み層(CONV層)と、逆畳み込み層(DECONV層)とを有する。畳み込み層は、画像データを次元圧縮する層である。次元圧縮により、オブジェクトの特徴量が抽出される。逆畳み込み層は逆畳み込み処理を行い、元の次元に復元する。逆畳み込み層における復元処理により、IVUS画像の各画素がオブジェクトであるか否かをオブジェクトの種類に応じた画素値で示すラベル画像が生成される。出力層は、ラベル画像を出力する複数のノードを有する。ラベル画像は、例えば、第1のメルクマール(心外膜)に対応する画素がクラス「1」、第2のメルクマール(側枝)に対応する画素がクラス「2」、第3のメルクマール(静脈)に対応する画素がクラス「3」、…、その他の画像に対応する画素がクラス「0」の画像である。
学習モデル3Mはさらに、IVUS画像以外の医用画像を入力要素に含むものであってもよい。他の医用画像は、例えばIVUS画像と同一時点において撮像された光断層像、アンギオ画像を含んでよい。また学習モデル3Mは、カテーテル1が挿入されている管腔器官に関する情報を入力要素に含むものであってもよい。管腔器官に関する情報は、例えば右冠動脈、左冠動脈、LAD等の血管の名称、血管を識別する番号(AHA分類)等を含んでよい。これらを入力要素として学習モデル3Mに入力することにより、IVUS画像以外の情報も考慮してメルクマールを認識することができ、認識精度を向上させることができる。
学習モデル3Mは、オブジェクト(メルクマール)を含むIVUS画像と、各オブジェクトの位置及び範囲並びに種類を示すラベル画像とが対応付けられた訓練データを用意し、当該訓練データを用いて未学習のニューラルネットワークを機械学習させることにより生成することができる。具体的には、制御部31は、訓練データに含まれる複数のIVUS画像を学習前のニューラルネットワークモデルの入力層に入力し、中間層での演算処理を経て、出力層から出力される画像を取得する。そして、制御部31は、出力層から出力された画像と、訓練データに含まれるラベル画像とを比較し、出力層から出力される画像がラベル画像に近づくように、中間層での演算処理に用いるパラメータを最適化する。当該パラメータは、例えばニューロン間の重み(結合係数)などである。パラメータの最適化の方法は特に限定されないが、例えば制御部31は誤差逆伝播法を用いて各種パラメータの最適化を行う。訓練データにおけるメルクマールの位置は、例えば専門知識を有する医師が行った判断を正解ラベルとしてよい。
このように学習された学習モデル3Mによれば、図3に示すように、IVUS画像を学習モデル3Mに入力することによって各種メルクマールを画素単位で示すラベル画像が得られる。
上記では、学習モデル3MがCNNである例を説明したが、学習モデル3Mの構成は限定されるものではなく、IVUS画像に含まれるメルクマールを認識可能であればよい。学習モデル3Mは、例えばR-CNN、Mask R-CNN、YOLO(You Only Look Once)等であってもよく、ニューラルネットワークを用いないサポートベクタマシン、回帰木等、他の学習アルゴリズムで構築されたモデルであってよい。
画像処理装置3の制御部31は、メルクマールの検出結果を用いてIVUS画像における関心方向を特定する。検出したメルクマールが心外膜である、すなわち検出したメルクマールが関心部位である場合、制御部31は、検出したメルクマールの方向を心外膜の方向として直接的に特定する。検出したメルクマールが心外膜でない、すなわち検出したメルクマールが関心部位でない場合、制御部31は、予め記憶する心外膜でない(心外膜以外である)メルクマール(以下、他のメルクマールという)と、心外膜との位置関係に基づき、他のメルクマールの方向から心外膜の方向を間接的に特定する。心外膜の方向は、例えば略円形のIVUS画像に対し、0時方向を基準(0度)とした場合の角度を用いて示される。
例えば、制御部31は、他のメルクマールと心外膜との位置関係に基づき、他のメルクマールに対する回転角度を予め記憶しておく。回転角度とは、他のメルクマールの方向から心外膜の方向を算出するために、IVUS画像におけるプローブ11の中心を基準として周方向に回転させる角度である。制御部31は、検出した他のメルクマールに基づき、他のメルクマールから所定角度回転させた方向を心外膜の方向として特定する。例えば、他のメルクマールとしてカテーテル1が挿入された血管から分岐した側枝の血管が検出された場合を説明する。制御部31は、予め記憶する側枝の血管と、当該血管及び側枝の血管の位置関係により規定される回転角度との対応関係に基づき、側枝の血管の方向を所定角度回転させることにより心外膜の方向を算出する。
制御部31は、心外膜の方向の特定にあたりIVUS画像以外の情報を用いるものであってよい。IVUS画像以外の情報は、例えばIVUS画像と同一時点において撮像された光断層像、アンギオ画像、カテーテル1が挿入されている管腔器官に関する情報等を含んでよい。管腔器官に関する情報とは、例えば右冠動脈、左冠動脈、LAD等の血管の名称、血管を識別する番号(AHA分類)等である。例えば、他のメルクマールとしてガイドワイヤが検出された場合を説明する。IVUS画像と同一時点において撮像されたアンギオ画像には、血管、カテーテル1(マーカ16)及びガイドワイヤの像が含まれている。制御部31は、IVUS画像におけるガイドワイヤの方向と、アンギオ画像における血管、カテーテル1(マーカ16)及びガイドワイヤの位置に基づき、IVUS画像とアンギオ画像との位置関係(アンギオ画像に対するIVUS画像の位置及び方向)を特定する。制御部31は、特定した位置関係と、被検者に対するアンギオ画像の撮像方向とに基づき、被検者に対するIVUS画像の方向を特定する。制御部31は、特定したIVUS画像の方向に基づき、IVUS画像に対する心外膜の方向を特定する。
このように、制御部31は、IVUS画像に含まれるメルクマールに基づき、直接的又は間接的にIVUS画像に対する心外膜の方向(関心方向)を特定する。
次いで制御部31は、特定した心外膜の方向から外れ値を除去する。具体的には、制御部31は、血管の長手方向に沿って連続する時系列順の複数のIVUS画像における心外膜の方向に基づき、大部分の心外膜の方向から乖離した心外膜の方向(外れ値)を検出し、除去する。外れ値の検出方法は限定されるものではない。一例として、制御部31は、各IVUS画像(各フレーム)における心外膜の方向(角度)と、その心外膜の方向(角度)の時系列データの移動平均との偏差を導出し、導出した偏差の絶対値が閾値以上である心外膜の方向を外れ値として検出する。制御部31は、検出した外れ値を特定結果から除去する。
さらに制御部31は、メルクマールが検出されていないIVUS画像に対する心外膜の方向を推定する。具体的には、制御部31は、上記外れ値を除去した心外膜の方向(角度)の時系列データに基づき、心外膜の方向が得られていない不連続部分を所定の補間手法(例えばスプライン補間、線形補間等)により補間する。これにより、制御部31は、メルクマールが検出されず、心外膜の方向が特定されていないIVUS画像に対する心外膜の方向を取得する。カテーテル1を用いて取得されるIVUS画像には、必ずしもメルクマールが含まないことから、前後フレームを用いて補間処理を行うことにより、全てのIVUS画像に対し心外膜の方向を付与することができる。上記補間処理は、メルクマールが検出されていないIVUS画像のみならず、外れ値として特定結果を除去したIVUS画像に対しても同様に行われるとよい。
図4は、画像処理装置3にて実行される処理手順の一例を示すフローチャートである。画像処理装置3の制御部31は、プログラム3Pに従って以下の処理を実行する。制御部31は、例えば血管内超音波検査装置101を介して医用画像が出力される都度、リアルタイムで以下の処理を行ってもよく、録画された医用画像に基づき、任意のタイミングで事後的に処理を行ってもよい。
画像処理装置3の制御部31は、血管内超音波検査装置101を介して、IVUS画像を含む医用画像を取得する(ステップS11)。詳細には、制御部31は、血管内超音波検査装置101を介して取得した超音波の反射波の信号に基づき生成したIVUS画像を取得する。制御部31は、血管を撮像した医用画像を取得する取得部として機能する。この場合において、制御部31は、IVUS画像と共に光断層像を取得してもよく、血管造影装置102を介してアンギオ画像を取得してもよい。
制御部31は、取得したIVUS画像を入力データとして学習モデル3Mに入力する(ステップS12)。制御部31は、学習モデル3Mから出力されるメルクマールの位置及び範囲並びに種類を示すラベル画像を取得する(ステップS13)。制御部31は、メルクマールが心外膜、すなわち関心部位であるか否かを判定する(ステップS14)。なお制御部31は、例えば予め関心部位の登録を受け付けることにより、関心部位を取得し記憶しているものであってよい。
メルクマールが心外膜でないと判定した場合(ステップS14:NO)、制御部31は、検出した心外膜でないメルクマール(他のメルクマール)と心外膜との位置関係に基づき、IVUS画像に対する心外膜の方向(角度)を特定し(ステップS15)、ステップS17へ処理を進める。例えば制御部31は、予め記憶する他のメルクマールの方向と心外膜の方向との対応関係を参照し、検出した他のメルクマールに基づき、他のメルクマールの方向から所定角度回転させた方向を心外膜の方向として特定する。この場合において、制御部31は、例えば光断層像、アンギオ画像又はカテーテル1が挿入されている管腔器官に関する情報等、IVUS画像以外の情報を用いて心外膜の方向を特定してもよい。
メルクマールが心外膜であると判定した場合(ステップS14:YES)、制御部31は、検出した心外膜に応じて、IVUS画像に対する心外膜の方向を特定する(ステップS16)。制御部31は、検出した心外膜の位置及び範囲に応じて、例えば検出した心外膜の周方向中心を通る角度を当該心外膜の方向と特定する。
制御部31は、取得した全てのIVUS画像に対するメルクマールの検出処理が終了したか否かを判定する(ステップS17)。全てのIVUS画像に対する検出処理が終了していないと判定した場合(ステップS17:NO)、制御部31は、ステップS12に処理を戻し、全IVUS画像の検出処理が終了するまで待機する。
全てのIVUS画像に対する検出処理が終了したと判定した場合(ステップS17:YES)、制御部31は、各検出結果に基づき、特定した心外膜の方向における外れ値を検出する(ステップS18)。具体的には、制御部31は、各IVUS画像(各フレーム)における心外膜の方向と、その心外膜の方向の時系列データの移動平均との偏差を導出する。制御部31は、算出した各偏差の絶対値と、予め設定されている閾値との大小関係を判断することにより、算出した偏差の絶対値が閾値以上である心外膜の方向(外れ値)を検出する。制御部31は、検出した外れ値を心外膜の方向に係る特定結果、すなわち心外膜の方向の時系列データから除去する(ステップS19)。
制御部31は、外れ値を除去した心外膜の方向の時系列データに基づき、心外膜の方向が得られていない不連続部分を、所定の補間方法(例えばスプライン補間)により補間する(ステップS20)。制御部31は、補間結果に応じて、心外膜の方向が得られていないIVUS画像に係る心外膜の方向を特定する(ステップS21)。心外膜の方向が得られていないIVUS画像には、メルクマールが検出されていないIVUS画像、及び外れ値として特定結果を除去したIVUS画像が含まれる。これにより、全てのIVUS画像に対する心外膜の方向が特定される。制御部31は、IVUS画像に対する心外膜の方向を特定する特定部として機能する。
制御部31は、特定した各心外膜の方向に対応するIVUS画像を表示する画面情報を生成する(ステップS22)。詳細には、制御部31は、特定した各心外膜の方向とIVUS画像とを関連付けて表示する画面情報、又は特定した各心外膜の方向に基づき画像処理されたIVUS画像を表示する画面情報を生成する。制御部31は、生成した画面情報に基づく画面40を表示装置4に表示させ(ステップS23)、一連の処理を終了する。制御部31は、心外膜の方向とIVUS画像とを関連付けて表示する又は心外膜の方向に基づき画像処理されたIVUS画像を表示する表示部として機能する。
図5は、表示装置4に表示される画面40の一例を示す模式図である。画面40には、複数フレームに対応する複数のIVUS画像を時系列順に並べて表示する全画像表示部41と、複数のIVUS画像のうち医師等により選択されたIVUS画像を表示する選択画像表示部42とが含まれている。選択画像表示部42は、いずれかのIVUS画像と、当該IVUS画像に対する心外膜の方向を示す情報とを関連付けて表示する。図5に示す例にて、選択画像表示部42は、IVUS画像上に心外膜の方向を示す図形オブジェクト(矢印)を重畳表示している。さらに選択画像表示部42は、IVUS画像から検出したメルクマールをIVUS画像上に重畳表示している。
画像処理装置3の制御部31は、1回のプルバック操作により取得した複数のIVUS画像それぞれについて、学習モデル3Mによるメルクマールの検出結果(ラベル画像)と、心外膜の方向の特定結果とを対応付けて取得する。制御部31は、各IVUS画像に対し学習モデル3Mから出力されたラベル画像を半透明マスクに加工し、元のIVUS画像に重畳して表示する。この場合において、制御部31は、マスクの表示色をメルクマールの種類に応じて変更するなど、各メルクマール領域の表示態様をメルクマールの種類に応じて異ならせるものであってよい。図5に示す例では、メルクマールに応じて異なるハッチングを用いて表示している。
また制御部31は、各IVUS画像に対する心外膜の方向(角度)に応じて、IVUS画像の中心から心外膜の方向に向けて延びる図形オブジェクトを生成し、元のIVUS画像に重畳して表示する。この場合において、制御部31は、図形オブジェクトの線種、表示色を心外膜の方向の特定内容に応じて変更するなど、各図形オブジェクトの表示態様を心外膜の方向の特定内容に応じて異ならせるものであってよい。心外膜の方向の特定内容とは、例えばメルクマールとして心外膜を用いた直接的な特定、メルクマールとして心外膜以外を用いた間接的な特定、他のフレームを用いた補間による間接的な特定である。図5に示す例では、実線、破線及び点線の3種類の線種を用いて心外膜の方向の特定内容を識別可能に表示している。図5中、実線の矢印は、メルクマールとして心外膜が検出されたIVUS画像における関心方向を示している。図5中、破線の矢印は、メルクマールとして心外膜以外が検出されたIVUS画像における関心方向を示している。図5中、点線の矢印は、補間により関心方向が特定されたIVUS画像における関心方向を示している。
制御部31は、取得した全てのIVUS画像に対し上述の処理を行い、メルクマール及び心外膜の方向を関連付けた各IVUS画像を時系列順に並べて全画像表示部41に表示する。制御部31は、例えば入力装置5を介して、全画像表示部41に表示されるIVUS画像のうちいずれかのIVUS画像の選択を受け付け、選択に応じたIVUS画像を選択画像表示部42に表示する。
このように、画像処理装置3は、各IVUS画像に対する心外膜の方向を示す画面40を表示装置4を介して医師等へ提供する。医師等は、画面40により、各IVUS画像に対する心外膜の方向を容易に把握することができる。また、メルクマール及び心外膜の方向の特定内容が識別可能に表示されるため、医師等は、IVUS画像に対するメルクマールの検出精度又は心外膜の方向の特定精度を推定し、推定結果を考慮して診断することができる。
図5に示す画面40は一例であり、表示内容は図5の例に限定されるものではないことは勿論である。画面40は、例えばOCT画像、アンギオ画像等、IVUS画像以外に取得した医用画像を表示してもよい。さらに制御部31は、光断層像、アンギオ画像又はカテーテル1が挿入されている管腔器官に関する情報等、IVUS画像以外の情報を用いた場合には、これらの情報をIVUS画像に関連付けて画面40に表示してもよい。
なお心外膜の方向の表示態様は限定されるものではない。心外膜の方向は、例えばIVUS画像の近傍に表示されてもよい。心外膜の方向は、図形オブジェクトに代えて、又は図形オブジェクトに加えてその角度を示す数値を用いて表示されてもよい。
心外膜の方向は、IVUS画像に関連付けて表示されるものに限定されず、IVUS画像に画像処理を施すことで、その方向を認識可能に示されるものであってもよい。制御部31は、例えば、各IVUS画像における心外膜の方向に基づき、各IVUS画像を回転処理させることにより心外膜の方向を提示する。制御部31は、連続する複数のIVUS画像のうちいずれか1つを基準画像とし、当該基準画像における心外膜の方向に基づき、基準画像における心外膜の方向と他のIVUS画像における心外膜の方向とが同期するよう、他のIVUS画像を回転させる画像処理を行う。例えば1フレーム目を基準画像とした場合において、1フレーム目における心外膜の方向が1時方向であり、2フレーム目における心外膜の方向が3時方向であったとき、制御部31は、2フレーム目のIVUS画像に対し、時計回りに60度回転させる画像処理を施す。この場合において、制御部31は、回転角度をIVUS画像に重畳表示する等、画像処理に関する情報をIVUS画像に関連付けて表示してもよい。なお画像処理方法は、基準画像に応じて他のIVUS画像を回転させるものに限定されない。制御部31は、例えば各IVUS画像における心外膜の方向に基づき、各IVUS画像における心外膜の方向が予め設定される基準方向(例えば0時方向)に一致するよう、各IVUS画像を回転させてもよい。
なお画像処理装置3の制御部31は、メルクマールの検出結果に対し学習モデル3Mの再学習を行ってもよい。制御部31は、メルクマールの検出結果を修正する入力を医師等から受け付け、入力された情報に基づく再学習を行う。具体的には、制御部31は、例えば図5で例示した画面40において、検出結果として表示したメルクマールの位置及び種類が正しいか否か、修正入力を受け付ける。さらに制御部31は、表示したメルクマールの位置及び種類が誤りである場合には、正しいメルクマールの位置及び種類の入力を受け付ける。修正入力を受け付けた場合、制御部31は、修正された検出結果(メルクマールの位置及び種類)をラベリングしたIVUS画像を訓練データとして再学習を行い、学習モデル3Mを更新する。同様に、制御部31は、心外膜の方向の特定結果に対しても、心外膜の方向の特定結果を修正する入力を医師等から受け付け、入力された情報に基づき特定ルールを更新してもよい。これにより、本システムの運用を通じてメルクマールの検出精度及び関心方向の特定精度を向上させることができる。
上記では、関心方向として心外膜の方向を特定する例を説明したが本実施形態は限定されるものではない。例えば、下肢血管にカテーテル1を挿入した場合、関心方向は脛又はふくらはぎ等の方向であってもよく、他の管腔器官にカテーテル1を挿入した場合、関心方向は腹部又は背部の方向であってもよい。
制御部31は、関心部位(関心方向)に応じた複数の学習モデル3M及び特定ルールを補助記憶部34に記憶するものであってもよい。この場合、制御部31は、例えば検査前に医師等からの選択登録を受け付けることにより関心部位を取得し、取得した関心部位に応じた学習モデル3M及び特定ルールを選択し、選択した学習モデル3M及び特定ルールを用いてメルクマールの検出及び関心方向の特定処理を実行する。
本実施形態によれば、学習モデル3Mを用いてIVUS画像に対する心外膜の方向を特定するためのメルクマールを精度よく推定し、推定結果に応じて心外膜の方向を効率的に特定する。心外膜の方向の特定結果は、画面40により視覚的に容易に認識可能な態様にて表示されるため、IVUS画像の読影に未熟な医師等であっても心外膜の方向を容易に把握することができ、また各IVUS画像に対する心外膜の方向を容易に同定することができる。医師等は、例えば血管内超音波検査装置101によるIVUS画像及び血管造影装置102によるアンギオ画像といったような、複数のモダリティを用いて取得される情報を3次元的に統合して直感的に把握することができ、医師等の診断を好適に支援することができる。
また本実施形態によれば、メルクマールが関心部位であるか否かに応じて、異なる手順で関心方向を特定するため、メルクマールの種類に応じて精度よく関心方向を特定することができる。関心方向の特定結果は、外れ値を除去することで精度を向上する。さらに、前後のフレーム画像を用いた補間処理により、メルクマールが検出されないIVUS画像についても好適に関心方向を特定することができる。
(第2実施形態)
第2実施形態では、学習モデルにより関心方向を直接特定する点で第1実施形態と異なる。以下では主に第1実施形態との相違点を説明し、第1実施形態と共通する構成については同一の符号を付してその詳細な説明を省略する。
画像処理装置3の制御部31は、補助記憶部34に記憶する学習モデル3Mを用いて、IVUS画像における関心方向を識別する。図6は、第2実施形態における学習モデル3Mの概要を説明する説明図である。第2実施形態における学習モデル3Mは、IVUS画像を入力として、当該IVUS画像における関心方向(例えば心外膜の方向)を示す情報を出力するモデルである。具体的には、学習モデル3Mは、カテーテル1の走査に従い、血管の長手方向に沿って連続する複数フレームのIVUS画像を入力として受け付ける。学習モデル3Mは、時間軸tに沿って連続する各フレームのIVUS画像における関心方向を識別する。
学習モデル3Mは、例えば深層学習による学習済みの畳み込みニューラルネットワークである。学習モデル3Mは、IVUS画像が入力される入力層と、画像の特徴量を抽出する中間層と、IVUS画像における関心方向を示す情報を出力する出力層とを有する。中間層は、畳み込み層、プーリング層及び全結合層等を含んでよい。
学習モデル3Mの入力層は、IVUS画像に含まれる各画素の画素値の入力を受け付ける複数のノードを有し、入力された画素値を中間層に受け渡す。中間層は、入力データの特徴量を抽出する複数のノードを有し、各種パラメータを用いて抽出された特徴量を出力する。
出力層は、設定されている関心方向の角度(例えば0度、1度、2度、…)に各々対応する複数のノードを有し、各関心方向に対する確度をスコアとして出力する。制御部31は、スコアが最も高い関心方向、あるいはスコアが閾値以上である関心方向を出力層の出力値とすることができる。なお出力層は、それぞれの関心方向の角度に対する確度を出力する複数の出力ノードを有する代わりに、最も確度の高い関心方向の角度を出力する1個の出力ノードを有してもよい。
学習モデル3Mは、IVUS画像と、各関心方向を示すラベルとが対応付けられた訓練データを用意し、当該訓練データを用いて未学習のニューラルネットワークを機械学習させることにより生成することができる。具体的には、制御部31は、訓練データに含まれる複数のIVUS画像を学習前のニューラルネットワークモデルの入力層に入力し、中間層での演算処理を経て、出力層から出力される関心方向を取得する。そして、制御部31は、出力層から出力された関心方向と、訓練データに含まれる関心方向とを比較し、出力層から出力される関心方向が訓練データに含まれる関心方向に近づくように、中間層での演算処理に用いるパラメータを最適化する。当該パラメータは、例えばニューロン間の重み(結合係数)などである。パラメータの最適化の方法は特に限定されないが、例えば制御部31は誤差逆伝播法を用いて各種パラメータの最適化を行う。訓練データにおける関心方向は、例えば専門知識を有する医師が行った判断を正解ラベルとしてよい。
学習モデル3Mはさらに、IVUS画像以外の医用画像を入力要素に含むものであってもよい。他の医用画像は、例えばIVUS画像と同一時点において撮像された光断層像、アンギオ画像を含んでよい。また学習モデル3Mは、カテーテル1が挿入されている管腔器官に関する情報を入力要素に含むものであってもよい。管腔器官に関する情報は、例えば右冠動脈、左冠動脈、LAD等の血管の名称、血管を識別する番号(AHA分類)等を含んでよい。これらを入力要素として学習モデル3Mに入力することにより、IVUS画像以外の情報も考慮して関心方向を識別することができ、識別精度を向上させることができる。
上記では、学習モデル3MがCNNである例を説明したが、学習モデル3Mの構成は限定されるものではなく、IVUS画像における関心方向を識別可能であればよい。例えば学習モデル3Mは、時系列データを取得した場合にはリカレントニューラルネットワーク(RNN:Recurrent Neural Network)であってもよく、ニューラルネットワークを用いないサポートベクタマシン、回帰木等、他の学習アルゴリズムで構築されたモデルであってよい。
図7は、第2実施形態における画像処理装置3にて実行される処理手順の一例を示すフローチャートである。画像処理装置3の制御部31はプログラム3Pに従って以下の処理を実行する。
画像処理装置3の制御部31は、血管内超音波検査装置101を介して、IVUS画像を含む医用画像を取得する(ステップS31)。この場合において、制御部31は、IVUS画像と共に光断層像を取得してもよく、血管造影装置102を介してアンギオ画像を取得してもよい。
制御部31は、取得したIVUS画像を入力データとして学習モデル3Mに入力する(ステップS32)。制御部31は、学習モデル3Mから出力される心外膜の方向を示す情報を取得することにより(ステップS33)、IVUS画像に対する心外膜の方向を特定する。以降、制御部31は、図4に示したステップS22~ステップS23の処理を実行することにより、学習モデル3Mから出力された心外膜の方向に対応するIVUS画像を表示する画面を出力する。
上述の処理において、いずれかのIVUS画像に対し学習モデル3Mによる心外膜の方向の特定結果が得られなかった場合には、制御部31は、図4に示したステップS20~ステップS21の補間処理を実行してもよい。
本実施形態によれば、学習モデル3Mを用いてIVUS画像に対する心外膜の方向を精度よく推定することができる。
上述の各フローチャートにおいて、画像処理装置3が実行する処理の一部又は全部は、画像処理装置3と通信可能に接続された不図示の外部サーバにより実行されてもよい。この場合、外部サーバの記憶部には、上述したプログラム3P及び学習モデル3Mと同様のプログラム及び学習モデルが記憶されている。外部サーバは、LAN(Local Area Network)、インターネット等のネットワークを介して画像処理装置3から医用画像を取得する。外部サーバは、取得した医用画像に基づいて、各実施形態の画像処理装置3と同様の処理を実行し、心外膜の方向の特定結果を画像処理装置3へ送信する。画像処理装置3は、外部サーバから送信された心外膜の方向の特定結果を取得し、図5に示す如く心外膜の方向を示す図形オブジェクトをIVUS画像に重畳させて表示装置4に表示させる。
上記の各実施形態に示した例は、各実施形態に示した構成の全部又は一部を組み合わせて他の実施の形態を実現することが可能である。また上記の各実施形態に示したシーケンスは限定されるものではなく、各処理手順はその順序を変更して実行されてもよく、また並行して複数の処理が実行されてもよい。
今回開示した実施の形態は、全ての点で例示であって、制限的なものではないと考えられるべきである。各実施例にて記載されている技術的特徴は互いに組み合わせることができ、本発明の範囲は、請求の範囲内での全ての変更及び請求の範囲と均等の範囲が含まれることが意図される。
100 画像診断装置
101 血管内超音波検査装置
102 血管造影装置
1 カテーテル
2 MDU
3 画像処理装置
31 制御部
32 主記憶部
33 入出力I/F
34 補助記憶部
3P プログラム
3M 学習モデル
30 記録媒体
4 表示装置
5 入力装置

Claims (6)

  1. カテーテルを用いて管腔器官を撮像した医用画像を取得し、
    取得した前記医用画像に含まれる関心部位又は関心部位以外を含むメルクマールを検出し、
    検出した前記メルクマールに基づき前記医用画像に対する関心部位の方向を示す関心方向を特定し、
    特定した前記関心方向を示す情報と前記医用画像とを関連付けて表示する又は前記関心方向を示す情報に基づき画像処理された前記医用画像を表示し、
    前記関心方向の特定において、
    検出した前記メルクマールが前記関心部位であるか否かを判定し、
    前記メルクマールが前記関心部位である場合、前記メルクマールに基づき前記関心方向を特定し、
    前記メルクマールが前記関心部位でない場合、前記メルクマールと前記関心部位との位置関係に基づき前記関心方向を特定する
    処理をコンピュータに実行させるためのプログラム。
  2. 前記メルクマールを含む第2の医用画像を取得し、
    前記医用画像に含まれる前記メルクマールと、前記第2の医用画像に含まれる前記メルクマールとに基づき前記医用画像と前記第2の医用画像との位置関係を特定し、
    特定した位置関係に基づき、前記関心方向を特定する
    請求項に記載のプログラム。
  3. 複数の前記医用画像それぞれに対する前記関心方向を特定し、
    複数の前記医用画像それぞれに対する前記関心方向に基づき特定される前記関心方向の外れ値を除去する
    請求項1又は請求項2に記載のプログラム。
  4. 複数の前記医用画像それぞれに対する前記関心方向を特定し、
    特定した複数の前記医用画像それぞれに対する前記関心方向を用いて補間することにより、前記関心方向が特定されていない医用画像に対する前記関心方向を特定する
    請求項1から請求項のいずれか1項に記載のプログラム。
  5. カテーテルを用いて管腔器官を撮像した医用画像を取得し、
    取得した前記医用画像に含まれる関心部位又は関心部位以外を含むメルクマールを検出し、
    検出した前記メルクマールに基づき前記医用画像に対する関心部位の方向を示す関心方向を特定し、
    特定した前記関心方向を示す情報を前記医用画像に関連付けて表示する又は前記関心方向を示す情報に基づき画像処理された前記医用画像を表示し、
    前記関心方向の特定において、
    検出した前記メルクマールが前記関心部位であるか否かを判定し、
    前記メルクマールが前記関心部位である場合、前記メルクマールに基づき前記関心方向を特定し、
    前記メルクマールが前記関心部位でない場合、前記メルクマールと前記関心部位との位置関係に基づき前記関心方向を特定する
    処理をコンピュータが実行する情報処理方法。
  6. カテーテルを用いて管腔器官を撮像した医用画像を取得する取得部と、
    取得した前記医用画像に含まれる関心部位又は関心部位以外を含むメルクマールを検出し、検出した前記メルクマールに基づき前記医用画像に対する関心部位の方向を示す関心方向を特定する特定部と、
    前記特定部が特定した関心方向を示す情報を前記医用画像に関連付けて表示する又は前記関心方向を示す情報に基づき画像処理された前記医用画像を表示する表示部と
    を備え、
    前記特定部は、前記関心方向の特定において、
    検出した前記メルクマールが前記関心部位であるか否かを判定し、
    前記メルクマールが前記関心部位である場合、前記メルクマールに基づき前記関心方向を特定し、
    前記メルクマールが前記関心部位でない場合、前記メルクマールと前記関心部位との位置関係に基づき前記関心方向を特定する
    情報処理装置。
JP2023508968A 2021-03-24 2022-03-09 プログラム、情報処理方法及び情報処理装置 Active JP7843748B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2021050689 2021-03-24
JP2021050689 2021-03-24
PCT/JP2022/010279 WO2022202323A1 (ja) 2021-03-24 2022-03-09 プログラム、情報処理方法及び情報処理装置

Publications (2)

Publication Number Publication Date
JPWO2022202323A1 JPWO2022202323A1 (ja) 2022-09-29
JP7843748B2 true JP7843748B2 (ja) 2026-04-10

Family

ID=83394918

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023508968A Active JP7843748B2 (ja) 2021-03-24 2022-03-09 プログラム、情報処理方法及び情報処理装置

Country Status (3)

Country Link
US (1) US20240013434A1 (ja)
JP (1) JP7843748B2 (ja)
WO (1) WO2022202323A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118072160A (zh) * 2024-01-22 2024-05-24 中国矿业大学(北京) 一种基于改进Mask R-CNN的单木尺度生物量精准估算方法及系统
DE102025102490A1 (de) * 2024-01-30 2025-07-31 Gyrus Acmi, Inc. D/B/A Olympus Surgical Technologies America Vorhersage des interesses an endoskopie-videos in der zeitleiste

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016031273A1 (ja) 2014-08-25 2016-03-03 オリンパス株式会社 超音波観測装置、超音波観測システム、超音波観測装置の作動方法
JP2016517288A (ja) 2013-03-15 2016-06-16 シナプティヴ メディカル (バルバドス) インコーポレイテッドSynaptive Medical (Barbados) Inc. 低侵襲治療のための計画、誘導およびシミュレーションシステムおよび方法(関連出願の相互参照)本出願は、参照によりその全体が本明細書に組み込まれる、2013年3月15日に提出された「planning,navigationandsimulationsystemsandmethodsforminimallyinvasivetherapy」と題する米国仮特許出願第61/800,155号の優先権を主張する。本出願はまた、参照によりその全体が本明細書に組み込まれる、2014年1月8日に提出された「planning,navigationandsimulationsystemsandmethodsforminimallyinvasivetherapy」と題する米国仮特許出願第61/924,993号の優先権をも主張する。本出願はまた、参照によりその全体が本明細書に組み込まれる、2013年7月11日に提出された「surgicaltrainingandimagingbrainphantom」と題する米国仮特許出願第61/845,256号の優先権をも主張する。本出願はまた、参照によりその全体が本明細書に組み込まれる、2013年11月5日に提出された「surgicaltrainingandimagingbrainphantom」と題する米国仮特許出願第61/900,122号の優先権をも主張する。
JP2017158892A (ja) 2016-03-10 2017-09-14 株式会社島津製作所 医用画像処理装置および医用画像処理方法
JP2017537768A (ja) 2014-12-12 2017-12-21 ライトラボ・イメージング・インコーポレーテッド 血管内の特徴を検出し且つ表示するためのシステム及び方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016517288A (ja) 2013-03-15 2016-06-16 シナプティヴ メディカル (バルバドス) インコーポレイテッドSynaptive Medical (Barbados) Inc. 低侵襲治療のための計画、誘導およびシミュレーションシステムおよび方法(関連出願の相互参照)本出願は、参照によりその全体が本明細書に組み込まれる、2013年3月15日に提出された「planning,navigationandsimulationsystemsandmethodsforminimallyinvasivetherapy」と題する米国仮特許出願第61/800,155号の優先権を主張する。本出願はまた、参照によりその全体が本明細書に組み込まれる、2014年1月8日に提出された「planning,navigationandsimulationsystemsandmethodsforminimallyinvasivetherapy」と題する米国仮特許出願第61/924,993号の優先権をも主張する。本出願はまた、参照によりその全体が本明細書に組み込まれる、2013年7月11日に提出された「surgicaltrainingandimagingbrainphantom」と題する米国仮特許出願第61/845,256号の優先権をも主張する。本出願はまた、参照によりその全体が本明細書に組み込まれる、2013年11月5日に提出された「surgicaltrainingandimagingbrainphantom」と題する米国仮特許出願第61/900,122号の優先権をも主張する。
WO2016031273A1 (ja) 2014-08-25 2016-03-03 オリンパス株式会社 超音波観測装置、超音波観測システム、超音波観測装置の作動方法
JP2017537768A (ja) 2014-12-12 2017-12-21 ライトラボ・イメージング・インコーポレーテッド 血管内の特徴を検出し且つ表示するためのシステム及び方法
JP2017158892A (ja) 2016-03-10 2017-09-14 株式会社島津製作所 医用画像処理装置および医用画像処理方法

Also Published As

Publication number Publication date
WO2022202323A1 (ja) 2022-09-29
US20240013434A1 (en) 2024-01-11
JPWO2022202323A1 (ja) 2022-09-29

Similar Documents

Publication Publication Date Title
JP7626704B2 (ja) 動脈画像領域及びそれらの特徴を分類するシステム及びその作動方法
JP7568636B2 (ja) 動脈の撮像・評価のシステム及び方法並びに関連するユーザインタフェースに基づくワークフロー
JP6739561B2 (ja) 物体の識別
CN108633312B (zh) 一种在x射线图像中的造影云检测方法
CN107787201B (zh) 血管内成像系统界面和阴影检测方法
JP6177314B2 (ja) 管腔内データと管腔外イメージングとの併用
JP7801065B2 (ja) コンピュータプログラム、情報処理方法及び情報処理装置
CN105188550A (zh) 血管数据处理和图像配准系统、方法及装置
JP7489882B2 (ja) コンピュータプログラム、画像処理方法及び画像処理装置
US20240013434A1 (en) Program, information processing method, and information processing device
US12530793B2 (en) Computer program, information processing method, and information processing device
WO2021193019A1 (ja) プログラム、情報処理方法、情報処理装置及びモデル生成方法
CN115348840A (zh) 程序、信息处理方法、信息处理装置及模型生成方法
JP2026012527A (ja) コンピュータプログラム、情報処理方法及び情報処理装置
JP2019522529A (ja) 内腔に沿った管腔内デバイスの管腔内経路の推定
WO2022209657A1 (ja) コンピュータプログラム、情報処理方法及び情報処理装置
JP7727586B2 (ja) 情報処理方法、プログラムおよび情報処理装置
JP7667134B2 (ja) プログラム、情報処理方法、情報処理装置及びモデル生成方法
EP3949866B1 (en) Diagnosis support device, diagnosis support system, and diagnosis support method
JP7801064B2 (ja) コンピュータプログラム、情報処理方法及び情報処理装置
JP7813276B2 (ja) コンピュータプログラム、情報処理方法及び情報処理装置
JP7577734B2 (ja) プログラム、情報処理方法および情報処理装置
US20250221625A1 (en) Image diagnostic system, image diagnostic method, and storage medium
WO2023100838A1 (ja) コンピュータプログラム、情報処理装置、情報処理方法及び学習モデル生成方法
WO2024202465A1 (ja) プログラム、画像処理方法及び画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20241008

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20251111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20251225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20260303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20260331

R150 Certificate of patent or registration of utility model

Ref document number: 7843748

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150