JP2024031468A - 画像処理装置及びその作動方法並びに内視鏡システム - Google Patents

画像処理装置及びその作動方法並びに内視鏡システム Download PDF

Info

Publication number
JP2024031468A
JP2024031468A JP2022135036A JP2022135036A JP2024031468A JP 2024031468 A JP2024031468 A JP 2024031468A JP 2022135036 A JP2022135036 A JP 2022135036A JP 2022135036 A JP2022135036 A JP 2022135036A JP 2024031468 A JP2024031468 A JP 2024031468A
Authority
JP
Japan
Prior art keywords
information
observation
image
algorithm
endoscope
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022135036A
Other languages
English (en)
Inventor
友一 寺村
Yuichi Teramura
洋平 大高
Yohei Otaka
斉子 柴田
Seiko Shibata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujita Health University
Fujifilm Corp
Original Assignee
Fujita Health University
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujita Health University, Fujifilm Corp filed Critical Fujita Health University
Priority to JP2022135036A priority Critical patent/JP2024031468A/ja
Priority to US18/454,781 priority patent/US20240065526A1/en
Priority to EP23193276.5A priority patent/EP4327718A1/en
Priority to CN202311077788.1A priority patent/CN117637120A/zh
Publication of JP2024031468A publication Critical patent/JP2024031468A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00055Operational features of endoscopes provided with output arrangements for alerting the user
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/227Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for ears, i.e. otoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/233Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the nose, i.e. nasoscopes, e.g. testing of patency of Eustachian tubes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/267Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the respiratory tract, e.g. laryngoscopes, bronchoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/267Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the respiratory tract, e.g. laryngoscopes, bronchoscopes
    • A61B1/2676Bronchoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/273Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the upper alimentary canal, e.g. oesophagoscopes, gastroscopes
    • A61B1/2733Oesophagoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/273Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the upper alimentary canal, e.g. oesophagoscopes, gastroscopes
    • A61B1/2736Gastroscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/31Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the rectum, e.g. proctoscopes, sigmoidoscopes, colonoscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Optics & Photonics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Otolaryngology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Evolutionary Computation (AREA)
  • Pulmonology (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Physiology (AREA)
  • Gastroenterology & Hepatology (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Geometry (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Endoscopes (AREA)

Abstract

【課題】医用画像に含まれる観察対象に応じて、観察支援のための情報を出力することができる画像処理装置及びその作動方法並びに内視鏡システムを提供する。【解決手段】画像処理装置に備えられるプロセッサが、医用画像を取得し、医用画像を観察対象識別アルゴリズムに入力することにより、観察支援対象部位又は観察支援対象外であることを示す観察対象識別情報を出力し、観察対象識別情報に基づいて複数の観察支援アルゴリズムから1つの特定観察支援アルゴリズムを選択し、特定観察支援アルゴリズムに医用画像を入力することにより、観察支援情報を出力し、観察支援情報を報知する制御を行う。【選択図】図5

Description

本発明は、観察支援を行う画像処理装置及びその作動方法並びに内視鏡システムに関する。
特許文献1では、観察ポイントのガイド表示を行う内視鏡画像処理システムについて開示されており、「出力処理モジュール24は、AI処理モジュール22により取得された領域指定データにより指定される画像領域B10が観察ポイントに相当する場合に、次のようにガイド表示を行う。即ち、出力処理モジュール24は、照準表示F1、F2及びF3を内視鏡映像に重畳表示し、所定位置に示される照準表示F2の枠内で当該画像領域B10が所定の大きさになったタイミングでその内視鏡画像を静止画像G4とし、その静止画像G4を回転及び縮小させながらフレームアウトする演出を行う。」と記載されている。
また、特許文献2では、次に実行すべき行動を操作支援情報として生成し、表示する操作支援装置について開示されており、「操作支援装置20は、内視鏡画像にインジケータを配置することによって、操作支援情報を表示することができる。」と記載されている。
特開2021-48927号公報 特開2021-61911号公報
内視鏡検査においては、観察部位によって医用画像に写る観察対象の構造が大きく異なることがある。このため、内部構造が大きく異なる複数の部位にわたって内視鏡検査を行う場合、医用画像の入力に対して、内視鏡先端部の位置情報、進むべきルート等の操作支援情報を出力する学習済みモデルが1種類であると、それぞれの観察部位に適した観察支援のための情報を出力するには不十分である場合がある。
また、内視鏡検査においては、検査のための観察に適さない医用画像が取得されるシーンがある。通常の観察において医用画像を取得するシーンだけでなく、このような観察に適さない医用画像が取得されるシーンにおいても、術者であるユーザーに報知を行うことが望ましい。
本発明は、医用画像に含まれる観察対象に応じて、観察支援のための情報を出力することができる画像処理装置及びその作動方法並びに内視鏡システムを提供することを目的とする。
本発明の画像処理装置は、プロセッサを備え、プロセッサは、医用画像を取得し、医用画像を観察対象識別アルゴリズムに入力することにより、医用画像に含まれる観察支援対象部位又は医用画像が観察支援対象外であることを示す観察対象識別情報を出力し、観察対象識別情報に基づいて複数の観察支援アルゴリズムから1つの特定観察支援アルゴリズムを選択し、特定観察支援アルゴリズムに医用画像を入力することにより、観察支援情報を出力し、観察支援情報を報知する制御を行う。
観察支援対象部位は、鼻腔、上咽頭、中咽頭、下咽頭、喉頭、気管又は食道であることが好ましい。
観察支援情報の報知は、観察支援情報を表示するガイド画像及び/又は観察支援情報を報知する音声によって行われることが好ましい。
観察支援情報は、内視鏡の位置が適切又は不適切であることを示す内視鏡位置判定情報、内視鏡の操作方法を示す内視鏡操作情報、被検者の体位の変更若しくは確認を促す被検者体位情報及び/又は観察支援を停止することを示す観察支援停止情報であることが好ましい。
内視鏡操作情報は、内視鏡の先端部の移動方向及び/又は移動量であり、移動方向は、右方向、左方向、上方向、下方向、奥方向、手前方向、右旋回又は左旋回であることが好ましい。
プロセッサは、内視鏡操作情報として、内視鏡操作支援図をガイド画像に表示する制御を行うことが好ましい。
プロセッサは、内視鏡位置判定情報に基づいて、内視鏡操作情報の表示を切り替える制御を行うことが好ましい。
特定観察支援アルゴリズムは、操作支援アルゴリズムを含み、プロセッサは、操作支援アルゴリズムに、医用画像を入力することにより、内視鏡操作情報又は観察支援停止情報を出力することが好ましい。
プロセッサは、操作支援アルゴリズムに最新の医用画像を入力することが好ましい。
操作支援アルゴリズムは、内視鏡操作情報及び/又は被検者体位情報を出力する学習済みモデルであることが好ましい。
特定観察支援アルゴリズムは、位置判定アルゴリズム及び操作支援アルゴリズムを含み、位置判定アルゴリズムは、医用画像を入力されることにより、内視鏡位置判定情報を出力する学習済みモデルであり、操作支援アルゴリズムは、医用画像を入力されることにより、内視鏡操作情報及び/又は被検者体位情報を出力する学習済みモデルであることが好ましい。
プロセッサは、位置判定アルゴリズム及び操作支援アルゴリズムに、最新の医用画像をそれぞれ入力することが好ましい。
観察対象識別アルゴリズムは、鼻腔、上咽頭、中咽頭、下咽頭、喉頭、気管又は食道が観察対象に含まれる医用画像を含む学習用画像を用いて学習された学習済みモデルであることが好ましい。
プロセッサは、観察支援情報の報知の有無を切り替える制御を行うことが好ましい。
プロセッサは、観察対象識別アルゴリズムが出力する観察支援対象部位が鼻腔である場合、操作支援アルゴリズムに医用画像を入力することにより、医用画像に含まれる、内視鏡の挿入に適した領域である上ルート挿入領域及び/又は下ルート挿入領域を示す挿入領域情報を出力し、挿入領域情報に基づいて、上ルート挿入領域及び/又は下ルート挿入領域の、面積、幅及び/又は中心位置の座標情報である挿入ルート情報を算出し、挿入ルート情報を観察支援情報としてガイド画像に表示する制御を行うことが好ましい。
プロセッサは、挿入ルート情報に基づき、上ルート挿入領域又は下ルート挿入領域の表示態様を異ならせてガイド画像に表示する制御を行うことが好ましい。
プロセッサは、観察対象識別アルゴリズムが出力する観察支援対象部位が鼻腔である場合、操作支援アルゴリズムに医用画像を入力することにより、医用画像に含まれる、内視鏡の挿入に適した領域である上ルート挿入領域及び/又は下ルート挿入領域を示す挿入領域情報を出力し、挿入領域情報に基づいて、上ルート挿入領域及び/又は下ルート挿入領域の、面積、幅及び/又は中心位置の座標情報である挿入ルート情報を算出し、挿入ルート情報を用いて内視鏡操作情報を出力することが好ましい。
プロセッサは、観察対象識別アルゴリズムが出力する観察支援対象部位が上咽頭である場合、操作支援アルゴリズムに医用画像を入力することにより、適切位置であること又は右不適切位置、左不適切位置、上不適切位置、下不適切位置、奥不適切位置若しくは手前不適切位置である不適切方向位置であることを示す上咽頭位置情報を出力し、上咽頭位置情報に基づいて内視鏡操作情報を出力することが好ましい。
操作支援アルゴリズムは、上咽頭位置情報が対応付けられた医用画像を含む学習用画像を用いて学習された学習済みモデルであることが好ましい。
プロセッサは、観察対象識別アルゴリズムが出力する観察支援対象部位が中咽頭であり、かつ、医用画像を入力された位置判定アルゴリズムが内視鏡位置判定情報として不適切と出力する場合、操作支援アルゴリズムに医用画像を入力することにより、医用画像に含まれる、声門の領域及び/又は喉頭蓋の領域を示す中咽頭領域情報を出力し、中咽頭領域情報に基づき、声門の領域及び喉頭蓋の領域の面積、幅及び/又は中心位置の座標情報である中咽頭領域演算情報を算出し、中咽頭領域演算情報を用いて内視鏡操作情報を出力することが好ましい。
位置判定アルゴリズムは、医用画像と、内視鏡位置判定情報とが対応付けられた学習用画像を用いて学習された学習済みモデルであることが好ましい。
プロセッサは、観察対象識別アルゴリズムが出力する観察支援対象部位が下咽頭であり、かつ、医用画像を入力された位置判定アルゴリズムが内視鏡位置判定情報として不適切と出力する場合、操作支援アルゴリズムに医用画像を入力することにより、医用画像に含まれる、声門の領域及び/又は声帯ヒダの領域を示す下咽頭領域情報を出力し、下咽頭領域情報に基づき、声門の領域の面積、幅及び/又は中心位置の座標情報、並びに、声帯ヒダの領域の長さである下咽頭領域演算情報を算出し、下咽頭領域演算情報を用いて内視鏡操作情報を出力することが好ましい。
位置判定アルゴリズムは、医用画像と、内視鏡位置判定情報とが対応付けられた学習用画像を用いて学習された学習済みモデルである学習済みモデルであることが好ましい。
プロセッサは、観察対象識別アルゴリズムが出力する観察支援対象部位が食道又は気管である場合、操作支援アルゴリズムに医用画像を入力することにより、内視鏡の引き抜きを指示する内視鏡操作情報を出力することが好ましい。
プロセッサは、観察対象識別アルゴリズムが観察対象識別情報として観察支援対象外と出力する場合、操作支援アルゴリズムに医用画像を入力することにより、観察支援停止情報を出力することが好ましい。
観察対象識別アルゴリズムは、食物若しくは唾液である異物、ブレ、ボケ又はハレーションを含む医用画像が入力された場合、観察対象識別情報として観察支援対象外と出力するように学習された学習済みモデルであることが好ましい。
本発明の画像処理装置の作動方法は、医用画像を取得するステップと、医用画像を観察対象識別アルゴリズムに入力することにより、医用画像に含まれる観察支援対象部位又は医用画像が観察支援対象外であることを示す観察対象識別情報を出力するステップと、観察対象識別情報に基づいて複数の観察支援アルゴリズムから1つの特定観察支援アルゴリズムを選択するステップと、特定観察支援アルゴリズムに医用画像を入力することにより、観察支援情報を出力するステップと、観察支援情報を報知する制御を行うステップと、を有する。
本発明の内視鏡システムは、上記の画像処理装置と、照明光を発する光源装置と、医用画像を撮影する内視鏡と、を備える。
本発明によれば、医用画像に含まれる観察対象に応じて、観察支援のための情報を出力することができる。
画像処理装置の機能を示すブロック図である。 内視鏡システムの概略図である。 観察支援情報生成部の機能を示すブロック図である。 最新の医用画像を入力とする観察支援情報の出力について示す説明図である。 中咽頭画像を入力とする場合の「適切」の内視鏡位置判定情報を示すガイド画像の例を示す画像図である。 中咽頭画像を入力とする場合の「不適切」の内視鏡位置判定情報を示すガイド画像の例を示す画像図である。 観察支援停止情報を示すガイド画像の例を示す画像図である。 嚥下について示す説明図である。 適切な観察位置について示す説明図である。 内視鏡を食道に誤挿入した場合について示す説明図である。 内視鏡を気管に誤挿入した場合について示す説明図である。 被検者の側面から見た内視鏡の挿入ルートについて示す説明図である。 被検者の正面から見た内視鏡の挿入ルートについて示す説明図である。 上ルート画像の例を示す画像図である。 下ルート画像の例を示す画像図である。 前鼻画像の例を示す画像図である。 上ルート挿入領域の例を示す画像図である。 上ルート画像を入力とする場合に、挿入ルートガイドマーク及び画像中心ガイドマークを表示するガイド画像の例を示す画像図である。 上ルート画像を入力とする場合の上方向の操作指示をガイド矢印で行うガイド画像の例を示す画像図である。 上ルート画像を入力とする場合の上方向の操作指示をアイコンで行うガイド画像の例を示す画像図である。 上ルート画像を入力とする場合の左下方向の操作指示をアイコンで行うガイド画像の例を示す画像図である。 上ルート画像を入力とする場合の左下方向の操作指示を内視鏡操作支援図で行うガイド画像の例を示す画像図である。 上ルート画像を入力とする場合の左旋回の操作指示を内視鏡操作支援図で行うガイド画像の例を示す画像図である。 下ルート挿入領域の例を示す画像図である。 上ルート挿入領域及び下ルート挿入領域の検出がなされた例を示す画像図である。 上ルート挿入領域及び下ルート挿入領域の検出がなされた場合の、挿入ルートガイドマーク及び画像中心ガイドマークを表示するガイド画像の例を示す画像図である。 上ルート挿入領域及び下ルート挿入領域の検出がなされた場合の操作指示を行うガイド画像の例を示す画像図である。 上咽頭、中咽頭及び下咽頭の高さについて示す説明図である。 適切な観察位置における上咽頭画像の例を示す画像図である。 適切な観察位置における上咽頭画像を入力とする場合のガイド画像の例を示す画像図である。 不適切な観察位置における上咽頭画像の例を示す画像図である。 上咽頭画像を入力とする場合の手前方向の操作指示をアイコンで行うガイド画像の例を示す画像図である。 上咽頭画像を入力とする場合の手前方向の操作指示を内視鏡操作支援図で行うガイド画像の例を示す画像図である。 適切な観察位置における中咽頭画像の例を示す画像図である。 不適切な観察位置における中咽頭画像の例を示す画像図である。 適切な観察位置における中咽頭画像を入力とする場合のガイド画像の例を示す画像図である。 声門の領域及び喉頭蓋の領域を検出した中咽頭画像の例を示す画像図である。 中咽頭画像を入力とする場合の手前方向の操作指示をアイコンで行うガイド画像の例を示す画像図である。 中咽頭画像を入力とする場合の被検者体位情報を示すガイド画像の例を示す画像図である。 適切な観察位置における下咽頭画像の例を示す画像図である。 不適切な観察位置における下咽頭画像の例を示す画像図である。 適切な観察位置における下咽頭画像を入力とする場合のガイド画像の例を示す画像図である。 声門の領域及び声帯ヒダの領域を検出した下咽頭画像の例を示す画像図である。 下咽頭画像を入力とする場合の手前方向の操作指示をアイコンで行うガイド画像の例を示す画像図である。 食道画像の例を示す画像図である。 気管画像の例を示す画像図である。 食道画像を入力とする場合の手前方向の操作指示をアイコンで行うガイド画像の例を示す画像図である 警告表示を行うガイド画像の例を示す画像図である。 画像処理装置の作動方法を示すフローチャートである。
画像処理装置10は、図1に示すように、医用画像を撮影して画像処理装置10に送信するモダリティ20又は医用画像が保存されているデータベース11から医用画像を受信する。画像処理装置10、モダリティ20及びデータベース11は、有線又はネットワークを介した無線で相互に通信可能に接続されている。ネットワークは、インターネット、LAN(Local Area Network)等である。
画像処理装置10は、ユーザーインターフェース12と有線又は無線で接続される。ユーザーインターフェース12は、キーボード、マウス、マイク、フットスイッチ、タッチパッド、タブレット、タッチペン等のユーザーからの機能設定の入力操作を受け付ける入力装置である。また、ユーザーインターフェース12は、画像処理装置10から報知指示を受信してユーザーに報知を行う、ディスプレイ、ヘッドマウントディスプレイ、スピーカー等の出力装置である。なお、ユーザーインターフェース12は、画像処理装置10及び後述するプロセッサ装置23の両方に接続されてよい。すなわち、ユーザーインターフェース12は、画像処理装置10又はプロセッサ装置23への入力指示を受け付ける機能及び画像処理装置10又はプロセッサ装置23から出力指示を行う機能を有する入出力装置である。
図1に示すように、画像処理装置10は、画像取得部30、観察対象識別部40、観察支援アルゴリズム選択部50、観察支援情報生成部60及び報知制御部70を有する。画像処理装置10は、医用画像を受信し、ほぼリアルタイムに、医用画像に対する画像処理を行って観察支援情報を出力し、ユーザーインターフェース12に送信する。詳しくは後述するが、画像処理装置10は医用画像に含まれる観察対象の部位を識別して、また、医用画像が観察支援対象外であることを識別して観察対象識別情報を出力し、観察対象識別情報に応じて観察支援アルゴリズムを選択し、医用画像を観察支援アルゴリズムに入力して観察支援情報を出力し、ユーザーインターフェース12を介して観察支援情報を医師等のユーザーに報知する制御を行う。
画像処理装置10は、プロセッサを備えるコンピュータである。プロセッサによって構成される制御部(図示しない)が、画像処理装置10に備えられるプログラム格納メモリ(図示しない)に組み込まれた各種処理又は制御等に関するプログラムを動作することによって、画像処理装置10では、画像取得部30、観察対象識別部40、観察支援アルゴリズム選択部50、観察支援情報生成部60及び報知制御部70の機能が実現する。
本実施形態において、画像処理装置10は、モダリティ20を内視鏡システム21とし、内視鏡画像である医用画像の画像処理を行う用途に好適である。内視鏡システム21は、ユーザーが被検者の生体内に内視鏡を挿入し、照明光で照明されることで観察可能となる観察対象を撮影することによって内視鏡画像を得る。撮影された内視鏡画像は、画像処理装置10に送信される。ユーザーとは、内視鏡を操作する医師であり、術者とも呼ぶ。
図2に示すように、内視鏡システム21は、内視鏡22、プロセッサ装置23及び光源装置24を有する。内視鏡22は、光源装置24と光学的に接続され、かつ、プロセッサ装置23と電気的に接続される。これらの接続は有線に限られず、無線であってもよい。なお、内視鏡システム21には、内視鏡22、プロセッサ装置23及び光源装置24に加えて、画像処理装置10が備えられるようにしてもよい。
内視鏡22は、被検者の体内に挿入される挿入部22a、挿入部22aの基端部分に設けられた操作部22b、挿入部22aの先端側に設けられた湾曲部22c及び先端部22dを有する。湾曲部22cは、操作部22bのアングルノブ22eを操作することにより湾曲動作する。先端部22dは、湾曲部22cの湾曲動作によって所望の方向に向けられる。
先端部22dは、光源装置24から発生する照明光を観察対象に向けて照射し、かつ、観察対象からの反射光を受光して観察対象を撮影する。操作部22bには、アングルノブ22e及び静止画取得指示スイッチ22fが設けられている。静止画取得指示スイッチ22fは、観察対象の静止画の取得指示に用いる。内視鏡22は、先端部22dに撮像センサを備えたビデオ軟性内視鏡の他、ズーム機構が設けられた内視鏡でもよく、挿入部22aの径が細いファイバースコープに撮像センサを接続した内視鏡であってもよく、硬性内視鏡に外付けの撮像センサを接続した内視鏡であってもよい。
内視鏡を被検者に挿入するルートとしては、鼻から鼻腔、上咽頭を通過して中咽頭、下咽頭、食道、胃、十二指腸へと挿入する経鼻的な挿入、口から口腔を通過して中咽頭、下咽頭、食道、胃、十二指腸、小腸へと挿入する経口的な挿入、あるいは肛門から直腸、結腸、小腸へと挿入される下部挿入がある。本実施形態における画像処理装置10は、内視鏡システム21が備える内視鏡22が経鼻的に被検者に挿入される軟性内視鏡である場合に特に好適である。なお、本明細書では、被検者とは、内視鏡22を挿入される対象のことを指す。観察対象とは、内視鏡22の画角に含まれ、医用画像に写る被写体のことを指す。
なお、静止画取得指示スイッチ22f以外の操作機器を用いることによって静止画取得指示を行うようにしてもよい。例えば、プロセッサ装置23にユーザーインターフェース12としてフットスイッチ、フットペダル、タッチパネル、ジェスチャー入力装置、視線入力装置等を接続し、ユーザーインターフェース12に対してユーザーから特定の操作がなされた場合に静止画取得指示を行うようにしてもよい。また、ユーザーインターフェース12としてのマイクを介してプロセッサ装置23に入力される特定の音声を認識した場合に、静止画取得指示を行うようにしてもよい。
プロセッサ装置23は、光源装置24に対する照明光の点消灯の制御、内視鏡22に対する操作の制御、内視鏡22による撮影の制御、内視鏡22が撮影した内視鏡画像に対する補正処理、強調処理等の画像処理の制御及び画像処理装置10への内視鏡画像の送信の制御を行う。
光源装置24は、光源部及び光源制御部を備える。光源部は、照明光を発光する。光源制御部は、光源部の動作を制御する。光源部は、レーザーダイオード、LED(Light Emitting Diode)、キセノンランプ、ハロゲンランプ等の光源であり、観察対象を照明する照明光を発光する。なお、光源部は、内視鏡22に内蔵させてもよい。光源制御部は、光源部を構成する各光源の点灯、消灯及び発光量を制御する。
内視鏡22の先端部22dには、照明光学系及び撮像光学系が設けられる。光源部が発光した照明光は、先端部22dから照明光学系の照明レンズを介して出射される。撮像光学系は、対物レンズ及び撮像センサを有している。照明光が照射された観察対象からの反射光は、対物レンズを介して撮像センサに入射する。これにより、撮像センサに観察対象の像が結像され、撮像センサから画像信号が出力される。なお、撮像センサは、先端部22dに備えられてもよく、ファイバースコープである内視鏡22に接続されるものでもよく、硬性内視鏡である内視鏡22に外付けされるものでもよい。
撮像センサは、CMOS(Complementary Metal Oxide Semiconductor)センサ、CCD(Charge-Coupled Device)センサ等である。プロセッサ装置23は、撮像センサが出力した画像信号に基づき、医用画像を生成する。プロセッサ装置23が生成した医用画像は、画像処理装置10の画像取得部30に出力される。内視鏡システム21から画像処理装置10に送信される医用画像は、内視鏡検査中に撮影される時系列的に連続した一連の動画像である。なお、内視鏡システム21からデータベース11に医用画像を送信して保存し、データベース11から画像処理装置10に医用画像を送信するようにしてもよい。
データベース11は、内視鏡画像等の医用画像を保存するストレージ、ファイルサーバ、クラウドストレージ等である。データベース11は、病院情報システム(いわゆるHIS(Hospital Information Systems))、PACS(Picture Archiving and Communication Systems)等の、画像処理装置10と直接的又は間接的に連携するシステムの一部であってもよい。
以下、画像処理装置10が、医用画像に対する画像処理を行って観察支援情報を出力し、ユーザーインターフェース12を介してユーザーに報知を行う流れについて説明する。画像取得部30は、モダリティ20である内視鏡システム21又はデータベース11から医用画像を受信することによって医用画像を取得する。画像取得部30は、医用画像を観察対象識別部40に送信する。
観察対象識別部40は、医用画像を観察対象識別部40が備える観察対象識別アルゴリズムに入力し、観察対象識別情報を出力する。観察対象識別アルゴリズムは、医用画像に含まれる観察対象の部位である観察支援対象部位を識別し、観察支援対象部位を示す観察対象識別情報を出力する。また、観察対象識別部40は、医用画像が観察支援対象外であることを識別した場合、「観察支援対象外」の観察対象識別情報を出力する。なお、本明細において、各種情報を出力するとは、各種情報を生成することを含む。
観察支援対象部位は、観察対象となる被検者の体の解剖学的部位の一部分である。観察支援対象部位は、具体的には、鼻腔、上咽頭、中咽頭、下咽頭、喉頭、気管、主気管支、葉気管支、区間気管支、亜区間気管支、口腔、食道、胃、十二指腸、空腸、回腸、盲腸、上行結腸、横行結腸、下行結腸、S状結腸、直腸等である。上咽頭は鼻咽腔とも呼ばれる。観察対象識別アルゴリズムは、医用画像に含まれる観察対象が観察支援対象部位のいずれかであることを識別した場合、その観察支援対象部位を観察対象識別情報として出力する。
本実施形態においては、観察支援対象部位として、鼻腔、上咽頭、中咽頭、下咽頭、喉頭、気管又は食道と出力することが好ましい。この場合、これらの部位以外の部位が観察対象である医用画像の入力に対して、観察対象識別アルゴリズムは「観察支援対象外」と出力する。このように観察支援対象部位を限られた部位とする場合において、観察対象識別アルゴリズムは、医用画像に含まれる観察対象が上咽頭であると識別した場合、観察対象識別情報として「上咽頭」と出力し、医用画像に含まれる観察対象が下行結腸であると識別した場合、観察対象識別情報として「観察支援対象外」と出力する。
なお、喉頭は、観察対象が中咽頭又は下咽頭である医用画像に含まれる(後述する図34、図40等参照)。観察対象識別アルゴリズムが「喉頭」を識別した場合、「中咽頭」又は「下咽頭」と出力されるようにしてもよい。また、観察対象識別アルゴリズムが気管、主気管支、葉気管支、区間気管支又は亜区間気管支を識別した場合、「気管」と出力するようにしてもよい。さらに、後述のように、観察支援対象部位として鼻腔、上咽頭、中咽頭、下咽頭、喉頭、気管又は食道として観察対象識別部40に出力される部位を、これらの部位のうち、さらに限られた範囲に狭めるようにしてもよい。
観察対象識別アルゴリズムは、医用画像に含まれる観察対象が観察支援対象部位でないと識別した場合、観察対象識別情報として観察支援対象外と出力する。観察対象識別アルゴリズムが観察支援対象外と出力する医用画像は、観察支援対象部位以外の部位が観察対象である医用画像に加えて、観察対象に食物、唾液等の異物が含まれる医用画像、観察対象がブレている医用画像、観察対象がボケている医用画像、観察対象にハレーションが含まれる医用画像等である。観察対象識別アルゴリズムは、このような観察に適さない医用画像の入力に対して「観察支援対象外」と出力する。なお、異物としての食物は、残留食物又は検査用の嚥下食である。異物としての唾液は、梨状陥凹等の解剖学的部位に貯留した唾液である。
観察対象識別アルゴリズム並びに後述する位置判定アルゴリズム及び操作支援アルゴリズムは、機械学習であってもよく、パターンマッチングによって医用画像を識別するアルゴリズムであってもよい。機械学習は、決定木、サポートベクトルマシン、ランダムフォレスト、回帰分析、教師あり学習、半教師なし学習、教師なし学習、強化学習、深層学習、深層強化学習、ニューラルネットワーク、畳み込みニューラルネットワーク、敵対的生成ネットワーク等である。
本実施形態では、画像処理装置10が有する機械学習としての観察対象識別アルゴリズム並びに後述する位置判定アルゴリズム及び操作支援アルゴリズムが、畳み込みニューラルネットワークである場合に好適である。また、後述する位置判定アルゴリズム及び操作支援アルゴリズムの一部分を畳み込みニューラルネットワークとしてもよい。本明細書では、観察対象識別アルゴリズム及び後述する観察支援アルゴリズムが機械学習である場合、学習前の観察対象識別アルゴリズム又は観察支援アルゴリズムを学習モデルと呼び、学習後の観察対象識別アルゴリズム又は観察支援アルゴリズムを学習済みモデルと呼ぶ。
学習モデルを学習させるための画像データを学習用画像と呼ぶ。学習用画像は、教師データとも呼ばれる。学習用画像には、観察支援対象部位の正解画像、後述する観察対象が「適切」な観察位置である正解画像、観察対象に含まれる特定の領域がクラス分けされた正解画像等の正解画像が含まれる。
観察対象識別アルゴリズムは、鼻腔、上咽頭、中咽頭、下咽頭、喉頭、気管又は食道が観察対象に含まれる医用画像を含む学習用画像を用いて学習された学習済みモデルであることが好ましい。例えば、VGG16、VGG19等のVGGNet、ResNet等の畳み込みニューラルネットワークが好適である。
観察対象識別アルゴリズムとして教師あり学習又は半教師あり学習を適用する場合、正解画像は、医師が観察に適していると判断した鼻腔、上咽頭、中咽頭又は下咽頭が写る医用画像である。また、観察支援対象外の正解画像は、被検者の体外において撮影された画像、医師によって観察対象に食物、唾液等の異物が含まれると判断された画像、医師又は既存のボケブレ判定を行う装置によってボケブレ判定が行われ、観察対象にボケ又はブレが含まれると判定された画像、観察対象に近接しすぎたために観察支援対象の識別に必要な特徴的な構造が映っていない画像、観察対象が暗すぎて判別できない画像、観察対象にハレーションが多く含まれる画像等である。ハレーションとは、観察対象からの照明光の反射光など強い光が撮像センサに入射することで画像が白飛びして観察に適さない領域である。また、医師又は既存の装置により、被検者が嚥下や咳など特定の動作をしている最中と判定がなされた医用画像を観察支援対象外の正解画像としてもよい。また、鼻腔、上咽頭、中咽頭、下咽頭、喉頭、気管又は食道以外の部位が観察対象である医用画像を、観察支援対象外の正解画像に含めるようにしてもよい。
観察支援アルゴリズム選択部50は、観察対象識別情報に基づいて複数の観察支援アルゴリズムから1つの特定観察支援アルゴリズムを選択する。観察支援アルゴリズム選択部50は、いずれの特定観察支援アルゴリズムを選択したかを示す情報である特定観察支援アルゴリズム選択情報を、観察支援情報生成部60に送信する。観察支援アルゴリズムは、観察支援情報生成部60が医用画像を入力することにより、後述する観察支援情報を出力するアルゴリズムである。
観察支援アルゴリズムには、鼻腔観察支援アルゴリズム、上咽頭観察支援アルゴリズム、中咽頭観察支援アルゴリズム、下咽頭観察支援アルゴリズム、誤挿入観察支援アルゴリズム及び観察支援対象外観察支援アルゴリズムが含まれる。観察支援アルゴリズム選択部50は、これらの観察支援アルゴリズムのうち、1つの観察支援アルゴリズムを特定観察支援アルゴリズムとして選択する。
観察支援アルゴリズム選択部50が、観察対象識別情報に基づいていずれの観察支援アルゴリズムを特定観察支援アルゴリズムとして選択するかは、予め設定されていることが好ましい。具体的には、観察支援対象部位又は観察支援対象外であることを示す観察対象識別情報と、観察支援アルゴリズムとが対応付けられて記憶されており、観察支援アルゴリズム選択部50は、この対応付けに基づいて特定観察支援アルゴリズムを選択する。例えば、観察対象識別情報としての観察支援対象部位が「鼻腔」である場合、観察支援アルゴリズム選択部50は、特定観察支援アルゴリズムとして鼻腔観察支援アルゴリズムを選択し、鼻腔観察支援アルゴリズムを用いることを指示する情報を特定観察支援アルゴリズム選択情報として観察支援情報生成部60に送信する。
また、「観察支援対象外」の観察対象識別情報が出力される場合、観察支援アルゴリズム選択部50は、特定観察支援アルゴリズムとして観察支援対象外観察支援アルゴリズムを選択し、観察支援対象外観察支援アルゴリズムを用いることを指示する情報を特定観察支援アルゴリズム選択情報として観察支援情報生成部60に送信する。
観察支援アルゴリズムは、観察支援情報生成部60に含まれる。図3に示すように、観察支援情報生成部60は、鼻腔観察支援情報生成部60a、上咽頭観察支援情報生成部60b、中咽頭観察支援情報生成部60c、下咽頭観察支援情報生成部60d、誤挿入観察支援情報生成部60e及び観察支援対象外観察支援情報生成部60fを備える。
鼻腔観察支援情報生成部60aは、鼻腔観察支援アルゴリズムを備える。上咽頭観察支援情報生成部60bは、上咽頭観察支援アルゴリズムを備える。中咽頭観察支援情報生成部60cは、中咽頭観察支援アルゴリズムを備える。下咽頭観察支援情報生成部60dは、下咽頭観察支援アルゴリズムを備える。誤挿入観察支援情報生成部60eは、誤挿入観察支援アルゴリズムを備える。観察支援対象外観察支援情報生成部60fは、観察支援対象外観察支援アルゴリズムを備える。
なお、観察支援対象部位に消化管を含む場合は、例えば、観察支援情報生成部60に胃用観察支援情報生成部等を設け、観察支援アルゴリズムとして、胃観察支援アルゴリズムを備えるようにしてもよい。この場合、観察支援アルゴリズム選択部50は、特定観察支援アルゴリズムとして胃観察支援アルゴリズムを選択できる。
観察支援情報生成部60は、特定観察支援アルゴリズムとして選択された観察支援アルゴリズムに医用画像を入力し、観察支援情報を出力する。観察支援情報は、ユーザーである術者に対するモダリティ20の操作指示のための情報、観察支援が停止されていることを示す情報、被検者に対する指示のための情報等である。
具体的には、内視鏡22の先端部22dの位置が適切又は不適切であることを示す内視鏡位置判定情報、内視鏡22の操作方法を示す内視鏡操作情報、被検者の体位の変更又は確認を促す被検者体位情報、観察支援の停止を示す観察支援停止情報等である。観察支援情報には、後述する挿入領域情報、挿入ルート情報、上咽頭位置情報、中咽頭領域情報、中咽頭領域演算情報、下咽頭領域情報及び下咽頭領域演算情報が含まれる。それぞれの観察支援情報の詳細な内容については後述する。観察支援情報生成部60は、出力された観察支援情報を報知制御部70に送信する。
観察支援情報生成部60には、観察対象識別部40に送信した医用画像と同じ医用画像を送信してもよく、観察対象識別部40に入力した医用画像とは異なる医用画像を送信してもよい。観察支援情報生成部60に、観察対象識別部40に送信した医用画像とは異なる医用画像を送信する場合、観察支援アルゴリズムには、最新の医用画像を入力する。この場合について、図4を用いて説明する。
画像取得部30は、図4において時間を示す矢印の方向の時系列順に、時刻T(-1)で医用画像31、時刻T(0)で医用画像32、時刻T(1)で医用画像33を取得するとする。時刻T(-1)では医用画像31が、時刻T(0)においては医用画像32が、時刻T(1)においては医用画像33が最新の医用画像である。
時刻T(0)において、医用画像32が観察対象識別部40に送信され、観察対象識別アルゴリズムに入力される。観察対象識別アルゴリズムが出力した観察対象識別情報41は、観察支援アルゴリズム選択部50に送信され、観察支援アルゴリズム選択部50は、観察対象識別情報に基づいて特定観察支援アルゴリズム選択情報51を観察支援情報生成部60に送信する。この時点において、時刻T(0)から時刻T(1)に時間が経過し、医用画像33が取得されているとする。この場合、観察支援情報生成部60は、最新の医用画像である医用画像33を特定観察支援アルゴリズムに入力する。特定観察支援アルゴリズムが出力した観察支援情報61は、報知制御部70に送信される。
このように、最新の医用画像を観察支援アルゴリズムに入力することによってほぼリアルタイムに観察支援情報の報知を行うことができる。また、後述する位置判定アルゴリズム及び操作支援アルゴリズムには、それぞれ最も新しく取得された医用画像(最新の医用画像)を入力するようにしてもよい。内視鏡検査中においては、医用画像が非常に短時間の間に連続的に取得されるため、位置判定アルゴリズムが「適切」又は「不適切」と判定した医用画像と、操作支援の対象となる医用画像とでは、被検者が嚥下、咳等の特定の動作をしている場合等の特殊な場合を除き、通常、含まれる観察対象が大きく変化しないためである。
報知制御部70は、観察支援情報を報知する制御を行う。観察支援情報は、ディスプレイに表示するガイド画像又はスピーカーから発せられる音声として、ユーザーインターフェース12を介してユーザーに報知される。ガイド画像を表示する場合、報知制御部70が観察支援情報を用いてガイド画像を生成し、ディスプレイに表示する制御を行う。また、観察支援情報を用いて音声指示情報を生成し、スピーカーから観察支援情報を音声として報知する制御を行う。なお、報知の方法として、ガイド画像の表示と、音声指示情報とを組み合わせてもよい。報知の方法はこれに限られない。
具体例として、ガイド画像に内視鏡22の先端部22dの位置が適切又は不適切であることを示す内視鏡位置判定情報を表示する例について、図5、図6及び図7を用いて説明する。
この例において、観察対象識別アルゴリズムが、観察支援対象部位として「中咽頭」と出力しているとする。この場合、観察支援アルゴリズム選択部50は、特定観察支援アルゴリズムとして、中咽頭観察支援アルゴリズムを選択する。中咽頭観察支援アルゴリズムは、観察対象が中咽頭である医用画像(以下、中咽頭画像と呼ぶ。)の画像処理を行い、観察支援情報として、内視鏡22の先端部22dの位置が「適切」又は「不適切」の内視鏡位置判定情報を出力する。中咽頭観察支援アルゴリズムが「適切」の内視鏡位置判定情報を出力した場合、報知制御部70は、図5に示すガイド画像71を生成し、ディスプレイに表示する。
報知制御部70は、観察支援アルゴリズムに入力した医用画像若しくは最新の医用画像に観察支援情報を重畳すること、又はこれらの医用画像と観察支援情報とを並列表示することによってガイド画像71を生成する。図5に示すガイド画像71の例では、医用画像72及び観察支援情報表示欄73が設けられている。図5に示す例では、「適切」の内視鏡位置判定情報を示すメッセージが観察支援情報表示欄73に表示されている。
図5に例示するガイド画像71に表示されている医用画像72(中咽頭画像)には、舌根部Rl、喉頭蓋Eg、声門裂Rg、声帯ヒダVof、梨状陥凹Ps、咽頭後壁Pw等の中咽頭における解剖学的構造が含まれる。「適切」と出力される中咽頭画像がどのような医用画像であるかについての詳細は後述する。
一方、中咽頭観察支援アルゴリズムが、内視鏡22の先端部22dの位置が不適切であることを示す「不適切」の内視鏡位置判定情報を出力した場合、報知制御部70は、図6に示すガイド画像71を生成し、ディスプレイに表示する。観察支援情報表示欄73が設けられる。図6に示すガイド画像71の例では、「不適切」の内視鏡位置判定情報を示すメッセージが、観察支援情報表示欄73に表示されている。なお、図6に示すガイド画像71の医用画像72(中咽頭画像)は、喉頭に接近し過ぎている画像であるため、「不適切」と判定されている。
なお、報知制御部70は、中咽頭観察支援アルゴリズムが「適切」あるいは「不適切」の内視鏡位置判定情報を出力した場合、音声指示情報として「適切な位置です」、「不適切な位置です」といった音声メッセージや、「適切」「不適切」それぞれに紐づけられた警報音等をスピーカーから発する制御を行ってもよい。また、このような音声メッセージを、図6に示すガイド画像71と同時に発するようにしてもよい。あるいは、中咽頭観察支援アルゴリズムが出力する内視鏡位置判定情報の「適切」「不適切」いずれかに対してのみ、音声メッセージを発さないように予め設定してもよい。
以下、観察対象識別アルゴリズムが、「観察支援対象外」の観察対象識別情報を出力した場合の観察支援情報の報知について説明する。この場合、観察支援アルゴリズム選択部50は、特定観察支援アルゴリズムとして、観察支援対象外観察支援アルゴリズムを選択する。観察支援対象外観察支援アルゴリズムは、「観察支援対象外」と識別された医用画像(観察支援対象外画像)の画像処理を行い、観察支援情報として、観察支援を停止すること示す観察支援停止情報を出力する。
この場合、報知制御部70は、図7に示すガイド画像71を生成する。図7に示すガイド画像71の例では、観察支援(Computer Aided Diagnosis/Detection, CAD)を停止していることを示す「CAD OFF」の観察支援停止情報を示すメッセージが、観察支援情報表示欄73に表示されている。なお、図7に例示するガイド画像71は、医用画像72がブレている画像であるため、観察対象識別アルゴリズムによって「観察支援対象外」と出力され、また、観察支援対象外観察支援アルゴリズムによって観察支援停止情報が出力された結果として報知制御部70が生成したガイド画像である。
上記構成により、モダリティ20又はデータベース11から送信される医用画像に含まれる観察対象の部位に応じて、観察支援情報を出力することができる。また、観察に適さない医用画像を観察支援対象外と識別し、このような医用画像が取得されるシーンに応じた特定観察支援アルゴリズムを選択した上で観察支援情報を出力することができる。
また、本実施形態においては、観察対象識別アルゴリズムが、観察支援対象部位として、鼻腔、上咽頭、中咽頭、下咽頭、喉頭、気管又は食道を識別することができる。この構成は、複数の観察部位において内視鏡22を適切な位置に保持した上で観察を行う必要がある嚥下内視鏡検査に特に好適である。
嚥下内視鏡検査は、嚥下障害の評価方法(嚥下機能評価検査)に用いられる手法のひとつである。嚥下とは、図8に示すような、食物や飲物を口に入れ、咀嚼し、飲み込み、食道へ送り込む一連の動作のことである。図8に示す正常な嚥下運動の例では、図8(A)に示す、食物Fを主に舌Tоの運動により口腔から咽頭へ運ぶ「口腔期」、次いで、図8(B)に示す、食物Fを嚥下反射により咽頭から食道Esへ運ぶ「咽頭期」、次いで、図8(C)に示す、食物Fを食道の蠕動運動により食道Esから胃へ運ぶ「食道期」に遷移する。嚥下の際は、食物Fを食道Esへ向かわせて気管Trへ流入させないため、気管Trに蓋をする役割を担う喉頭蓋Egが、反射運動により気管Trの入り口(声門Vc)を閉鎖する。また、口腔の天井である軟口蓋Spも後方へ移動して口腔と鼻腔の通路を閉鎖し、食道Fが鼻腔へ侵入しないようにする。
高齢や神経系の疾患等に伴い、食物や飲物がうまく飲み込めなくなる状態のことを嚥下障害という。嚥下内視鏡検査では、嚥下障害の発生の有無、また、嚥下障害の原因について調べるため、複数の観察位置から嚥下の状態を観察することが推奨されている。複数の観察位置とは、図9(A)、図9(B)及び図9(C)に示すような、上咽頭、中咽頭及び下咽頭を観察するための、3か所の内視鏡22の位置である。内視鏡22を経鼻的に挿入し、上咽頭、中咽頭、下咽頭の順に観察する場合は、図9(A)、図9(B)、図9(C)の順に先端部22dを移動させることになる。上咽頭の観察位置は図9(A)のような位置である。中咽頭の観察位置は図9(B)のような位置である。下咽頭の観察位置は図9(C)のような位置である。
適切な診断のためには、図9(A)、図9(B)及び図9(C)に示すような、嚥下に関わる部位ごとに先端部22dを配置する必要がある。教科書、ガイドライン等には、このような部位ごとに異なる適切な配置位置が示されている。しかし、その位置に先端部22dを配置するための適切な内視鏡22の操作の手順は医師の経験に依存するものであり、また、被検体によっても適切な内視鏡22の操作方法は異なる。このため、適切な観察位置に内視鏡22を配置すること、また適切な観察位置へのアプローチは、熟練者以外には困難である。
本実施形態により、上咽頭、中咽頭又は下咽頭を観察するための位置に、先端部22dが適切に配置されているかどうかの判断に関する支援、加えて、それぞれの適切な観察位置に移動させるための内視鏡22の操作に関する支援を、部位ごとに自動的に行うことができる。このため、嚥下内視鏡検査に関して経験の少ない医師でも、指針に沿って観察を行えるように観察支援することができる。
このように、嚥下内視鏡検査では、ユーザーが観察したい部位によって、現在位置が適切な位置かどうかの判断結果、また、適切な位置への内視鏡22の操作ガイドの内容は異なることから、本実施形態のように部位ごとに異なる観察支援アルゴリズムが選択されることが好ましい。嚥下内視鏡検査において1つの観察支援アルゴリズムを用いた場合、中咽頭の観察には適切な位置が写る医用画像であっても、下咽頭の観察には声門が遠すぎるため不適切と判定されてしまう問題が想定される。同様に、下咽頭の観察には適切な位置が写る医用画像であっても、中咽頭の観察には声門が近すぎるため不適切と判定されてしまうことが想定される。本実施形態では、観察対象を識別した上で複数の観察支援アルゴリズムから1つの特定観察支援アルゴリズムを選択するため、1つの観察支援アルゴリズムを用いた場合における判定結果の矛盾を防ぐことができる。
また、観察対象を識別した上で特定観察支援アルゴリズムを選択する構成により、中咽頭と下咽頭のいずれの観察を目的としているかによって、声門を近景観察する方向(奥方向)に向かって内視鏡22を進める方向へのガイドと、声門を遠景観察する方向(手前方向)に向かって内視鏡22を手前に引く方向へのガイドとのいずれのガイドを実行するかを自動的に切り替えることができる。本実施形態により、ユーザーの観察目的に応じた最も適切な観察支援を行うことができる。
さらに、上咽頭、中咽頭又は下咽頭の観察のため先端部22dを適用な位置に微調整する期間に加えて、内視鏡22を前鼻孔から上咽頭に移動させるまでの先端部22dが鼻腔にある期間において、最も適切な観察支援アルゴリズムへの自動切り替えを行うことができる。
加えて、図10及び図11に示すように、内視鏡22を誤って食道Es(図10)又は気管Tr(図11)まで挿入してしまった場合は、内視鏡22を直ちに手前に引いて咽頭まで戻す必要がある。このような場合においても、最も適切な観察支援アルゴリズムに自動的に切り替え、内視鏡22の引き抜きを行うための観察支援を行うことができる。
観察支援対象部位を識別する観察対象識別アルゴリズムは、医師が観察に適していると判断した鼻腔、上咽頭、中咽頭又は下咽頭が写る医用画像を正解画像として学習された学習済みモデルであることが好ましい。また、このような学習済みモデルを生成する場合、経鼻的に内視鏡22が挿入される順に、鼻腔、上咽頭、中咽頭、下咽頭と、観察対象が切り替わる一連の動画像を学習用画像として用いることがさらに好ましい。また、下咽頭、中咽頭、上咽頭、鼻腔と、内視鏡22が抜去される順に観察対象が切り替わる一連の動画像が学習用画像に含まれることがさらに好ましい。さらに、口腔、中咽頭、下咽頭と、経口的に内視鏡22が挿入される順に観察対象が切り替わる一連の動画像が学習用画像に含まれることがさらに好ましい。このように、内視鏡22の挿入又は抜去において通過する部位の順番について時系列的に重みづけがされている学習用画像を用いて学習済みモデルを生成することで、観察対象識別アルゴリズムの観察支援対象部位の識別の精度を向上させることができる。
観察支援アルゴリズムが出力する観察支援情報の例について、以下、説明する。観察支援情報には、内視鏡位置判定情報、内視鏡操作情報、被検者体位情報及び観察支援停止情報が含まれる。
内視鏡位置判定情報は、内視鏡22の先端部22dの位置が「適切」又は「不適切」であることを示す情報である。内視鏡位置判定情報は、観察支援アルゴリズムのうち、後述する中咽頭位置判定アルゴリズム及び下咽頭位置判定アルゴリズムが出力する情報である。中咽頭及び下咽頭における内視鏡位置判定情報の報知の具体例については後述する。
内視鏡操作情報は、内視鏡の操作方法を示す情報である。具体的には、内視鏡22の先端部22dの移動方向及び/又は移動量を示す情報である。先端部22dの移動方向には、右方向、左方向、上方向、下方向、奥方向、手前方向、右旋回又は左旋回が含まれる。内視鏡操作情報を出力する観察支援アルゴリズムは、後述する鼻腔操作支援アルゴリズム、上咽頭操作支援アルゴリズム、中咽頭操作支援アルゴリズム、下咽頭操作支援アルゴリズム及び誤挿入操作支援アルゴリズムである。鼻腔、上咽頭、中咽頭、下咽頭、食道及び気管における内視鏡操作情報の報知の具体例については後述する。
被検者体位情報は、観察に適した医用画像を得るために推奨される被検者の体位の変更又は確認を、ユーザーに対して促す情報である。具体的には、頭頚部の屈曲(前屈)、伸展(後屈)又は回旋の角度、体幹に対する顎の角度、体幹の向き等の被検者の体位、あるいは姿勢を変える事について指示し、又はこれらの確認を促す情報である。被検者体位情報を出力する観察支援アルゴリズムは、後述する中咽頭操作支援アルゴリズム及び下咽頭操作支援アルゴリズムである。内視鏡検査では、術者による内視鏡22の操作のみでは適切な観察位置に先端部22dを保持できないことがある。このため、被検者体位情報を報知することにより、医師が被検者の姿勢を適切にすること、又は被検者自身が姿勢を適切にすることを促し、先端部22dを適切な観察位置に移動することを支援できる。
観察支援停止情報は、観察支援を停止することを示す情報である。観察支援停止情報を出力する観察支援アルゴリズムは、後述する観察支援対象外操作支援アルゴリズムである。観察支援停止情報の報知としては、ガイド画像において「CAD OFF」等の観察支援停止情報を示すメッセージを表示する(図7参照)。また、内視鏡位置判定情報、内視鏡操作情報、被検者体位情報等の観察支援情報の報知の停止によって報知を行う。
以下、医用画像から識別された観察支援対象部位が鼻腔、上咽頭、中咽頭、下咽頭、食道又は気管の場合、加えて、医用画像が観察支援対象外と識別された場合について、用いられる観察支援アルゴリズム、観察支援アルゴリズムが出力する観察支援情報及び観察支援情報の報知の方法について、それぞれ具体例を挙げながら説明する。
まず、観察支援アルゴリズムについて説明する。観察支援アルゴリズムには、位置判定アルゴリズム及び操作支援アルゴリズムが含まれるが、観察対象識別情報に応じて選択された特定観察支援アルゴリズムによって、用いるアルゴリズムを切り替える。具体的には、観察対象識別情報が「鼻腔」、「上咽頭」、「食道」、「気管」又は「観察支援対象外」と出力された場合、観察支援アルゴリズムとして操作支援アルゴリズムを用いる。一方、観察対象識別情報が「中咽頭」又は「下咽頭」と出力された場合、観察支援アルゴリズムとして、位置判定アルゴリズム及び操作支援アルゴリズムを用いる。以下、部位ごとに具体的に説明する。
観察支援対象部位が鼻腔の場合、鼻腔観察支援情報生成部60aが備える鼻腔観察支援アルゴリズムが、特定観察支援アルゴリズムとして選択される。鼻腔観察支援アルゴリズムは、操作支援アルゴリズムである。観察支援対象部位が鼻腔の場合に用いる操作支援アルゴリズムを、鼻腔操作支援アルゴリズムと呼ぶ。
観察支援対象部位が上咽頭の場合、上咽頭観察支援情報生成部60bが備える上咽頭観察支援アルゴリズムが、特定観察支援アルゴリズムとして選択される。上咽頭観察支援アルゴリズムは、操作支援アルゴリズムである。観察支援対象部位が上咽頭の場合に用いる操作支援アルゴリズムを、上咽頭操作支援アルゴリズムと呼ぶ。
観察支援対象部位が中咽頭の場合、中咽頭観察支援情報生成部60cが備える中咽頭観察支援アルゴリズムが、特定観察支援アルゴリズムとして選択される。中咽頭観察支援アルゴリズムは、位置判定アルゴリズム及び操作支援アルゴリズムの組み合わせで構成される。観察支援対象部位が中咽頭の場合に用いる位置判定アルゴリズムを、中咽頭位置判定アルゴリズムと呼ぶ。観察支援対象部位が中咽頭の場合に用いる操作支援アルゴリズムを、中咽頭操作支援アルゴリズムと呼ぶ。
観察支援対象部位が下咽頭の場合、下咽頭観察支援情報生成部60dが備える下咽頭観察支援アルゴリズムが、特定観察支援アルゴリズムとして選択される。下咽頭観察支援アルゴリズムは、位置判定アルゴリズム及び操作支援アルゴリズムの組み合わせで構成される。観察支援対象部位が中咽頭の場合に用いる位置判定アルゴリズムを、下咽頭位置判定アルゴリズムと呼ぶ。観察支援対象部位が中咽頭の場合に用いる操作支援アルゴリズムを、下咽頭操作支援アルゴリズムと呼ぶ。
観察支援対象部位が食道又は気管の場合、誤挿入観察支援情報生成部60eが備える誤挿入観察支援アルゴリズムが、特定観察支援アルゴリズムとして選択される。誤挿入観察支援アルゴリズムは、操作支援アルゴリズムである。観察支援対象部位が気管又は食道の場合に用いる操作支援アルゴリズムを、誤挿入操作支援アルゴリズムと呼ぶ。
医用画像が観察支援対象外と識別された場合、観察支援対象外観察支援情報生成部60fが備える観察支援対象外観察支援アルゴリズムが、特定観察支援アルゴリズムとして選択される。観察支援対象外観察支援アルゴリズムは、操作支援アルゴリズムである。医用画像が観察支援対象外と識別された場合に用いる操作支援アルゴリズムを、観察支援対象外操作支援アルゴリズムと呼ぶ。
以下、鼻腔操作支援アルゴリズムが出力する観察支援情報及び観察支援情報の報知について説明する。鼻腔操作支援アルゴリズムは、前鼻孔から上咽頭に至るまでの、内視鏡22の適切な挿入ルートを示すことで観察支援を行うための操作支援アルゴリズムである。
経鼻的な内視鏡22の挿入ルートには2つあり、一方は、図12に示すように、前鼻孔から、総鼻道のうち中鼻甲介Mt、鼻中隔Ns及び下鼻甲介Itに囲まれた領域を通って後鼻孔に至る上ルート90である。もう一方は、図12に示すように、前鼻孔から、総鼻道のうち下鼻甲介It、鼻中隔Ns及び鼻腔底Nfに囲まれた領域を通って後鼻孔に至る下ルート91である。
ヒトの顔面Faを正面から見た場合の上ルートにおいて内視鏡22を挿入する領域は、図13に示すような、中鼻甲介Mt、鼻中隔Ns及び下鼻甲介Itに囲まれた領域90aである。下ルートにおいて内視鏡22を挿入する領域は、図13に示すような、下鼻甲介It、鼻中隔Ns及び鼻腔底Nfに囲まれた領域91aである。図13では、内視鏡22が通過する可能性がある「鼻腔」とする領域をドット模様で示している。鼻腔には、総鼻道並びに総鼻道と連続する内視鏡22の挿入には適さない上鼻道、中鼻道及び下鼻道を含む。
上ルートを通過中に撮影される医用画像(以下、上ルート画像100と呼ぶ。)の例を、図14に示す。また、下ルートを通過中に撮影される医用画像(以下、下ルート画像110と呼ぶ。)の例を、図15に示す。さらに、後述する上ルート挿入領域及び下ルート挿入領域の両方が観察対象に含まれる医用画像(以下、前鼻画像120と呼ぶ。)の例を図16に示す。前鼻画像は、鼻腔の領域の中でも、前鼻孔に近い位置で撮影された医用画像である。
なお、図14、図15及び図16は、被検者の左の鼻腔を撮影した医用画像の例であり、紙面の上側が被検者の頭側、紙面の下側が被検者の尾側、紙面の右側が被検者の左側、紙面の左側が被検者の右側を示している。学習済みモデルとしての観察対象識別アルゴリズムは、図14に示すような上ルート画像100、図15に示すような下ルート画像110及び図16に示すような前鼻画像120を、「鼻腔」の学習用画像として用いて学習されている。また、右の鼻腔と左の鼻腔のそれぞれについて上ルート及び下ルートを通過中に撮影された医用画像(上ルート画像及び/又は下ルート画像)を用いることにより、学習済みモデルとしての観察対象識別アルゴリズムの学習がなされている。
以下、上ルート画像が鼻腔操作支援アルゴリズムに入力された場合について説明する。鼻腔操作支援アルゴリズムは、図14に示すような上ルート画像が入力された場合、まず、図17に示すような、中鼻甲介Mt、鼻中隔Ns及び下鼻甲介Itに囲まれた、内視鏡22の挿入に適した領域である上ルート挿入領域92を、挿入領域情報として出力する。
上ルート挿入領域を出力する鼻腔操作支援アルゴリズムは、医用画像に対するセグメンテーションを行い、上ルート挿入領域を出力する学習済みモデルであることが好ましい。上ルート挿入領域を出力する学習済みモデルは、予め医師によって上ルート挿入領域がクラス分けされた正解画像を含む学習用画像を用いて学習を行うことによって生成されることが好ましい。このような学習済みモデルの生成に適用する学習モデルとしては、PSPnet(Pyramid Scene Parsing Network)を適用することが好ましく、また、SPPnet(Spatial Pyramid Pooling Network)等、他のセグメンテーションに好適である学習モデルを用いてもよい。なお、鼻腔操作支援アルゴリズムは、教師なし学習を適用した学習モデルを学習することによって生成された学習済みモデルでもよい。
次に、鼻腔操作支援アルゴリズムは、上ルート挿入領域を示す挿入領域情報を用いて、挿入ルート情報を出力する。挿入ルート情報とは、内視鏡22の挿入部22aをスムーズに体内に挿入していくために用いる情報である。具体的には、挿入ルート情報は、上ルート画像が鼻腔操作支援アルゴリズムに入力される場合、上ルート挿入領域の中心位置の座標情報である。また、上ルート挿入領域の面積又は幅としてもよい。
上ルート挿入領域の中心位置の座標は、上ルート挿入領域の重心又は幾何中心である。上ルート挿入領域の幾何中心は、例えば、上ルート挿入領域の周縁を構成するピクセルから任意の数点の座標を取り、一般的な多角形の幾何中心の算出方法によって求められる。例えば、上ルート挿入領域のピクセル数をk個とし、上ルート挿入領域のうち、任意の点を原点として、i番目のピクセルの座標を(x_i, y_i)とする場合、各座標の総和をピクセル数kで割った値を幾何中心とする。すなわち、(上ルート挿入領域の幾何中心のx座標)= Σ(x_i)/k、(上ルート挿入領域の幾何中心のy座標)= Σ(y_i)/kとして算出することができる。上ルート挿入領域の中心位置の座標情報を求める方法は、これに限られない。例えば、上ルート挿入領域を矩形で囲む処理を行い、その矩形の中心位置の座標としてもよい。上ルート挿入領域を構成するピクセルから任意の2点の座標を取り、その2点間の距離のうち、最も長いものの中点を中心位置の座標としてもよい。
上ルート挿入領域の面積は、セグメンテーションによって上ルート挿入領域にクラス分けされた領域の面積を算出する方法によって算出される。上ルート挿入領域の幅とは、上ルート挿入領域を構成するピクセルから任意の2点の座標を取り、その2点間の距離のうち、最も長いものを指す。
以下、観察支援情報の報知を行う例について説明する。まず、挿入ルート情報を上ルート挿入領域の中心位置の座標とする例について説明する。鼻腔操作支援アルゴリズムは、図17に示すような上ルート挿入領域92を出力し、次いで、上ルート挿入領域92の中心位置の座標を挿入ルート情報として出力し、報知制御部70に送信する。報知制御部70は、図18に示すようなガイド画像71を生成し、ディスプレイに表示する制御を行う。
図18に示すガイド画像71の例では、上ルート挿入領域92の中心位置の座標を示す挿入ルートガイドマーク94と、上ルート画像100の中心位置を示す画像中心ガイドマーク95(十字のマーク)と、画像中心ガイドマーク95を視認しやすくするガイド枠96と、が表示されている。この場合、挿入ルートガイドマーク94の位置を、画像中心ガイドマーク95に合わせるような内視鏡22の操作をユーザーが行うことによって、先端部22dを理想的な挿入位置とすることができる。
上ルートにおける理想的な挿入位置とは、上ルート挿入領域の中心位置が医用画像の中心位置付近となり、上ルート挿入領域の幅が医用画像の上下方向に伸びるように配置される位置である。具体的には、リアルタイムに観察される医用画像において、中鼻甲介Mt及び鼻中隔Nsが医用画像の左右に、下鼻甲介Itが医用画像の下となる先端部22dの位置が、理想的な挿入位置である。
内視鏡22の先端部22dが、挿入ルートガイドマーク94と画像中心ガイドマーク95とが重なる理想的な挿入位置に配置された場合は、ユーザーが、先端部22dを鼻腔の奥側に向かって進める(先端部22dを押し込む)ことにより、スムーズに先端部22dを挿入することができる。このため、図18に示すような、挿入ルートガイドマーク94と、画像中心ガイドマーク95とが表示されるガイド画像71を表示することにより、ユーザーがスムーズに先端部22dを挿入するための観察支援を行うことができる。結果として、内視鏡22の挿入に伴う被検者の苦痛を軽減することができる。
なお、図18では、上ルート挿入領域92を描写しているが、上ルート挿入領域92は、ガイド画像71に表示してもしなくてもよい。また、画像中心ガイドマーク95は、ガイド画像71の固定の位置に表示される。また、この場合、報知制御部70は、鼻腔操作支援アルゴリズムから送信される挿入ルート情報を、観察支援情報として報知を行っている。ガイド画像71には、挿入領域情報として、上ルート挿入領域の他に、後述する下ルート挿入領域、声門の領域、喉頭蓋の領域及び声門ヒダの領域を表示するようにしてもよい。また、後述する報知表示切り替えボタン又は操作部22bの操作により、ガイド画像71における挿入領域情報の、表示と非表示とを切り替えられるようにしてもよい。
鼻腔操作支援アルゴリズムは、上ルート挿入領域の中心位置の座標である挿入ルート情報を用いることにより、内視鏡操作情報を生成し、内視鏡操作情報を観察支援情報として報知するようにしてもよい。この場合、鼻腔操作支援アルゴリズムは、先端部22dを移動させるための移動方向及び移動量を示すベクトルを内視鏡操作情報として出力する。ベクトルとしての内視鏡操作情報は、上ルート挿入領域92の中心位置の座標から上ルート画像100の中心位置の座標までの方向と距離である。ベクトルの算出は、上ルート挿入領域92の中心位置の座標の情報と、上ルート画像100の中心位置の座標の情報との差分を算出することで行われる。鼻腔操作支援アルゴリズムが出力した内視鏡操作情報は、報知制御部70に送信される。
この場合、報知制御部70は、図19に示すようなガイド画像71を生成し、ディスプレイに表示する制御を行う。図19に示すガイド画像71の例では、画像中心ガイドマーク95と、ガイド枠96と、ガイド矢印102aとが表示されている。ガイド矢印102は、内視鏡操作情報に基づいて生成される、画像中心ガイドマーク95(上ルート挿入領域の中心位置の座標)から画像中心ガイドマーク95(上ルート画像の中心位置の座標)までの、先端部22dを移動させるための移動方向及び移動量を示す矢印型の表示である。ガイド矢印102を、図19に示すガイド画像71よりも、大きく又は小さく表示することにより、先端部22dの移動量が大きい又は小さいことを示してもよい。例えば、ガイド矢印102の長さで移動量の大きさを示すことができる。図19に示すようなガイド画像71を表示することで、ガイド矢印により、先端部22dの移動方向と移動量をユーザーに示すことができる。
鼻腔操作支援アルゴリズムが出力した内視鏡操作情報を報知する他の例について説明する。例えば、図14に示すような上ルート画像を鼻腔操作支援アルゴリズムに入力した場合、報知制御部70は、図20に示すようなガイド画像71を生成する。図20に示すガイド画像71の例では、上ルート画像100の周囲に、ガイド方向表示アイコン101a、101b、101c、101dが表示されている。ガイド画像71では、理想的な挿入ルートに応じて、例えば、それぞれのガイド方向表示アイコンの表示態様を異ならせることで先端部22dの移動方向を示す。具体的には、内視鏡操作情報として、先端部22dの移動方向が「上方向」と出力された場合、図20に示す例のように、ガイド方向表示アイコン101dと、ガイド方向表示アイコン101a、101b、101cの色を異ならせて表示する。なお、図20に示す例では、斜線の有無によってガイド方向表示アイコンの色が異なることを示し、上方向に内視鏡22を操作することを示している。
また、内視鏡操作情報として、先端部22dの移動方向として「左下方向」とする場合、図21に示すガイド画像71の例のように、左方向のガイド方向表示アイコン101b及び下方向のガイド方向表示アイコン101cと、右方向のガイド方向表示アイコン101b及び上方向のガイド方向表示アイコン101dと、の色をそれぞれ異ならせて表示する。ガイド方向表示アイコンの表示態様はこれに限られない。
また、内視鏡操作情報として、先端部22dを湾曲移動させるためのアングルノブ22eの操作を示す内視鏡操作支援図をガイド画像71に表示してもよい。図22に示すガイド画像71では、先端部22dの移動方向として「左下方向」に進むためのアングルノブ22eの操作を示す内視鏡操作支援図103aが表示されている。なお、図22に示す内視鏡操作支援図103aでは、湾曲部22cを左右方向に湾曲させるための外側のレバー103bと、湾曲部22cを上下方向に湾曲させるための内側のレバー103cとを反時計回りに回転させる操作指示の例を示している。
また、図23に示すガイド画像71では、先端部22dの移動方向として「左旋回」するためのアングルノブ22eの操作を示す内視鏡操作支援図103aが表示されている。図23に示すガイド画像71における内視鏡操作支援図103aでは、術者から見て左側にアングルノブ22eが配置されるように描いた図である。なお、ガイド方向表示アイコン、矢印表示、ガイド矢印、内視鏡操作支援図を組み合わせてガイド画像に表示するようにしてもよい。上記構成により、鼻腔における理想的な内視鏡の挿入ルートをユーザーに対して自動的に報知することができる。なお、内視鏡22の移動方向や移動量に関して、音声によって報知を行うようにしてもよい。
以下、挿入ルート情報を上ルート挿入領域の面積又は幅とする場合の観察支援情報の報知の例について説明する。この場合、鼻腔操作支援アルゴリズムが出力する挿入ルート情報に応じて、上ルート挿入領域の表示態様を変更するようにしてもよい。例えば、上ルート挿入領域の面積に対して、挿入領域表示用第1閾値と、挿入領域表示用第1閾値より小さい挿入領域表示用第2閾値とを設ける。ガイド画像71の上ルート挿入領域の表示態様としては(例えば、図18における上ルート挿入領域92の表示態様)、上ルート挿入領域の面積が、挿入領域表示用第1閾値より大きければ青、挿入領域表示用第1閾値以下であり、挿入領域表示用第2閾値より大きければ黄色、挿入領域表示用第2閾値以下であれば赤、と表示する。すなわち、上ルート挿入領域の面積が大きい順に、青、黄色、赤、と表示を切り替える。なお、挿入領域表示用第1閾値及び挿入領域表示用第2閾値は任意の値に設定できる。また、上ルート挿入領域表示の表示態様はこれに限られない。さらに、上ルート挿入領域の幅に対して、挿入領域表示用第1閾値及び挿入領域表示用第2閾値を設定してもよい。この場合、報知制御部70は、鼻腔操作支援アルゴリズムから送信される挿入ルート情報を観察支援情報として報知を行っている。
内視鏡22の挿入中に取得される上ルート画像の中には、鼻腔操作支援アルゴリズムが上ルート挿入領域を出力することができない画像が含まれることがある。例えば、理想的な挿入位置から大きくずれているため、リアルタイムに取得される上ルート画像に、上ルート挿入領域が映らない、又は映っていても上ルート挿入領域が小さすぎる場合がある。このような、上ルート挿入領域が映らない上ルート画像、又は上ルート挿入領域が小さすぎる上ルート画像と、理想的な挿入位置までの先端部22dの移動方向又は移動量(すなわち、内視鏡操作情報)とが対応付けられた学習用画像を用いて、鼻腔操作支援アルゴリズムを学習済みモデルとしてもよい。この場合、上ルート挿入領域が映らない上ルート画像、又は上ルート挿入領域が小さすぎる上ルート画像が入力された鼻腔操作支援アルゴリズムは、内視鏡操作情報を出力する。
なお、上ルート挿入領域を出力する鼻腔操作支援アルゴリズムを、第1鼻腔操作支援アルゴリズムとし、さらに、上ルート挿入領域が映らない上ルート画像、又は上ルート挿入領域が小さすぎる上ルート画像を入力することにより、内視鏡操作情報を出力する鼻腔操作支援アルゴリズムを、第2鼻腔操作支援アルゴリズムとしてもよい。第1鼻腔操作支援アルゴリズム及び/又は第2鼻腔操作支援アルゴリズムに、最新の医用画像を入力するようにしてもよい。
また、学習モデルとしての鼻腔操作支援アルゴリズムの学習において、鼻腔操作支援アルゴリズムに入力された上ルート画像のオリエンテーション(上下左右方向)が予め判別された学習用画像を用いることが好ましい。また、鼻腔操作支援アルゴリズムの学習において、パラメータの更新は、オリエンテーションを考慮してなされることが好ましい。また、学習用画像と理想的な挿入位置との対応付けを行う場合、対応付けは、オリエンテーションを考慮してなされることが好ましい。後述する下ルート画像及び前鼻画像についても同様である。
上記構成により、経鼻的な内視鏡の挿入に不慣れな術者に対して、内視鏡の挿入がしやすいルートを選択できていることの確認を促すことができる。また、被検者の鼻腔の内部構造によって、上ルート挿入領域には個人差がある。上記構成により、上ルート挿入領域が小さい被検者である場合に、術者に内視鏡の挿入に関する注意を促し、内視鏡の挿入に伴う被検者の痛みを軽減する挿入ルートの選択を促すことができる。
以下、下ルート画像が鼻腔操作支援アルゴリズムに入力された場合について説明する。鼻腔操作支援アルゴリズムは、図15に示すような下ルート画像が入力された場合、まず、図24に示すような、下鼻甲介It、鼻中隔Ns及び鼻腔底Nfに囲まれた、内視鏡22の挿入に適した領域である下ルート挿入領域93を、挿入領域情報として出力する。下ルート挿入領域93は、上ルート挿入領域(図17参照)と同様に、セグメンテーションを行う学習済みモデルとしての鼻腔操作支援アルゴリズムによってクラス分けされる領域である。
次に、鼻腔操作支援アルゴリズムは、下ルート挿入領域を示す挿入領域情報を用いて、挿入ルート情報を出力する。挿入ルート情報は、下ルート画像が鼻腔操作支援アルゴリズムに入力される場合、下ルート挿入領域の中心位置の座標情報である。また、下ルート挿入領域の面積又は幅としてもよい。下ルート挿入領域の中心位置の座標は、下ルート挿入領域の重心又は幾何中心である。下ルート挿入領域の中心位置の算出方法は、上ルート挿入領域の中心位置の算出方法と同様であるため省略する。また、下ルート挿入領域の面積又は幅の算出方法についても、上ルート挿入領域の中心位置の算出方法と同様であるため省略する。
下ルート画像が鼻腔操作支援アルゴリズムに入力された場合の、観察支援情報の報知の方法は、上ルート画像が鼻腔操作支援アルゴリズムに入力された場合と同様であるため、詳しい例は省略する。簡単に説明すると、挿入ルート情報を下ルート挿入領域の中心位置の座標とする場合、挿入ルート情報を観察支援情報として、図18に示すような、挿入ルートガイドマーク94及び画像中心ガイドマーク95が表示されるガイド画像71を表示する制御が行われる。
なお、下ルートにおける理想的な挿入位置とは、下ルート挿入領域の中心位置が医用画像の中心位置付近となり、下ルート挿入領域の幅が医用画像の上下方向に伸びるように配置される位置である。具体的には、リアルタイムに観察される医用画像において、下鼻甲介It及び鼻中隔Nsが医用画像の左右に、鼻腔底Nfが医用画像の下となる先端部22dの位置が、理想的な挿入位置である。
また、挿入ルート情報を下ルート挿入領域の中心位置の座標とする場合、鼻腔操作支援アルゴリズムが挿入ルート情報を用いることによって内視鏡操作情報を出力してもよい。内視鏡操作情報は、図19に示すような、画像中心ガイドマーク95及びガイド矢印102aが表示されるガイド画像71、図20に示すような、ガイド方向表示アイコンが表示されるガイド画像71、又は図21及び図22に示すような、内視鏡操作支援図が表示されるガイド画像71として報知される。内視鏡操作情報の出力方法は、上ルート画像が鼻腔操作支援アルゴリズムに入力された場合と同様である。
挿入ルート情報を下ルート挿入領域の面積又は幅とする場合、また、下ルート挿入領域が映らない下ルート画像又は下ルート挿入領域が小さすぎる下ルート画像が鼻腔操作支援アルゴリズムに入力された場合の観察支援情報の出力及び報知の方法も、上ルート画像が鼻腔操作支援アルゴリズムに入力された場合と同様である。
以下、前鼻画像が鼻腔操作支援アルゴリズムに入力された場合について説明する。鼻腔操作支援アルゴリズムは、図16に示すような前鼻画像120が入力された場合、まず、図25に示すような、内視鏡22の挿入に適した中鼻甲介Mt、鼻中隔Ns及び下鼻甲介Itに囲まれた上ルート挿入領域92、並びに、下鼻甲介It、鼻中隔Ns及び鼻腔底Nfに囲まれた下ルート挿入領域93を、挿入領域情報として出力する。なお、図25に示す前鼻画像120の例では、鼻腔側壁Nwと反対側(つまり鼻中隔Ns側)の、総鼻道につながる領域(図13参照)が上ルート挿入領域92として検出されている。すなわち、鼻腔操作支援アルゴリズムは、前鼻画像120の入力により、上ルート及び下ルートの両方について、内視鏡22の挿入に適した領域を出力する。この場合、上ルート挿入領域92及び下ルート挿入領域93は、セグメンテーションの結果としてそれぞれ異なるクラスにクラス分けされる。
次に、鼻腔操作支援アルゴリズムは、入力された前鼻画像においてクラス分けがされた挿入領域情報(上ルート挿入領域及び下ルート挿入領域)を用いて、上ルート挿入領域及び下ルート挿入領域のそれぞれについて挿入ルート情報を出力する。挿入ルート情報の出力方法については、上ルート画像100又は下ルート画像110を用いる場合と同様であるため省略する。
次に、鼻腔操作支援アルゴリズムは、上ルート挿入領域及び下ルート挿入領域について、それぞれの挿入ルート情報を出力する。さらに、挿入ルート情報を用いて内視鏡操作情報を出力する。挿入ルート情報及び内視鏡操作情報の出力方法及びその好ましい実施態様については、上ルート画像又は下ルート画像を用いた挿入ルート情報及び内視鏡操作情報の出力方法と同様であるため省略する。
前鼻画像を鼻腔操作支援アルゴリズムに入力した場合の、観察支援情報の報知の例について説明する。挿入ルート情報を観察支援情報として報知する場合、報知制御部70は、図26に例示するようなガイド画像71を生成する。図26に示すガイド画像71の例では、上ルート挿入領域92の中心位置の座標を示す挿入ルートガイドマーク94a、下ルート挿入領域92の中心位置の座標を示す挿入ルートガイドマーク94b、前鼻画像120の中心位置を示す画像中心ガイドマーク95及びガイド枠96と、が表示されている。この場合、挿入ルートガイドマーク94a又は挿入ルートガイドマーク94bの位置を、画像中心ガイドマーク95に合わせるような内視鏡22の操作をユーザーが行うことによって、先端部22dを理想的な挿入位置とすることができる。
また、内視鏡操作情報を観察支援情報として報知する場合、報知制御部70は、図27に例示するようなガイド画像71を生成する。図27に示すガイド画像71の例では、前鼻画像120に、検出された上ルート挿入領域92及び下ルート挿入領域93が重畳表示されている。また、前鼻画像120の外側に、上ルート用操作表示欄121及び下ルート用操作表示欄122が表示されている。図27に示す例では、上ルート用操作表示欄121に、上ルート挿入領域92に対する内視鏡操作情報として「左下方向」の先端部22dの移動方向が表示されている。また、下ルート用操作表示欄122には、下ルート挿入領域93に対する内視鏡操作情報として「右上方向」の先端部22dの移動方向がそれぞれ表示されている。
また、この場合、鼻腔操作支援アルゴリズムが出力する挿入ルート情報に応じて、上ルート挿入領域及び下ルート挿入領域の表示態様を変更するようにしてもよい。具体的には、上ルート挿入領域の面積に対して、挿入領域表示用第1閾値及び挿入領域表示用第2閾値を設け、上ルート挿入領域の面積が大きい順に、青、黄色、赤、と表示を切り替える。また、同様に、下ルート挿入領域の面積に対して、挿入領域表示用第1閾値及び挿入領域表示用第2閾値を設け、上ルート挿入領域の面積が大きい順に、青、黄色、赤、と表示を切り替える。図27に示す例では、下ルート挿入領域93と、上ルート挿入領域92との表示色が異なることを、異なるハッチング(斜線)を付することで表している。上記構成により、経鼻的な内視鏡の挿入に不慣れな術者に対して、内視鏡の挿入がしやすい挿入ルートの選択を促すことができる。
以下、上咽頭操作支援アルゴリズムが出力する観察支援情報及び観察支援情報の報知について説明する。上咽頭操作支援アルゴリズムは、上咽頭において先端部22dが適切な観察位置にあるか否かを示し、さらに、先端部22dが適切な観察位置となるような内視鏡22の操作について示すことで操作支援を行うための操作支援アルゴリズムである。
上咽頭は、後鼻孔及び咽頭円蓋Fpから口蓋垂根部までの領域である。高さとしては、図28に示すように、上咽頭Epは頭蓋底から硬口蓋と軟口蓋Spの移行部まで、中咽頭Mpは硬口蓋と軟口蓋Spの移行部から喉頭蓋谷Ev底部まで、下咽頭Hpは喉頭蓋谷Ev底部から輪状軟骨Cc下縁までである。なお、喉頭Laは、喉頭蓋Eg舌面から輪状軟骨Cc下縁の高さにあり、喉頭蓋Eg、甲状軟骨Tc及び左右の披裂軟骨で囲まれる、斜線で示す領域である。内視鏡22で喉頭を観察した場合には、図28では点線で示す声門Vcが認められる。
観察対象が上咽頭である医用画像(以下、上咽頭画像と呼ぶ。)の例を図29に示す。図29に示す例は、適切な観察位置に先端部22dを配置した上咽頭画像130の例である(図9(A)参照)。上咽頭における適切な観察位置とは、上咽頭の後壁Pwe、左右の側壁Lw、下壁である鼻腔底Nf及び軟口蓋Spが観察できる位置である。なお、鼻腔底Nfと軟口蓋Spは連続しており、内視鏡22の挿入時又は抜去時において、手前側(鼻腔側)に鼻腔底Nf、奥側(咽頭側)に軟口蓋Spが観察される。この位置では、発声時及び嚥下時の軟口蓋の動きを観察できるため、発声時及び嚥下時の鼻咽腔閉鎖機能について評価を行うことができる。なお、図29に示す上咽頭画像130の例のオリエンテーションは、紙面の上側が頭側、紙面の下側が尾側、紙面の手前側が腹側、紙面の奥側が背側である。
学習済みモデルとしての観察対象識別アルゴリズムは、図29に示すような上咽頭画像を、「上咽頭」の学習用画像として用いて学習されている。
以下、上咽頭画像が上咽頭操作支援アルゴリズムに入力された場合について説明する。まず、上咽頭操作支援アルゴリズムは、図29に示すような上咽頭画像が入力された場合、先端部22dの位置が、適切位置にあること又は「右不適切位置」、「左不適切位置」、「上不適切位置」、「下不適切位置」、「奥不適切位置」、「手前不適切位置」等の不適切方向位置にあることを示す上咽頭位置情報を出力する。
「右不適切位置」とは、先端部22dの位置が右に寄りすぎている上咽頭位置情報のことを指す。同様に、先端部22dの位置が左に寄りすぎている場合は「左不適切位置」、上に寄りすぎている場合は「上不適切位置」、下に寄りすぎている場合は「下不適切位置」、奥側(咽頭側)に寄りすぎている場合は「奥不適切位置」、手前側(鼻腔側)に寄りすぎている場合は「手前不適切位置」の上咽頭位置情報が出力される。不適切方向位置はこれに限られず、上咽頭操作支援アルゴリズムは、「左下不適切位置」、「右上奥不適切位置」等の多分類の上咽頭位置情報を出力する。また、上咽頭操作支援アルゴリズムは、「左不適切位置」及び「奥不適切位置」の上咽頭位置情報を出力するように、複数の上咽頭位置情報を出力してもよい。
上咽頭位置情報を出力する上咽頭操作支援アルゴリズムは、上咽頭位置情報が対応付けられた上咽頭画像を含む学習用画像を用いて学習された学習済みモデルであることが好ましい。学習済みモデルとしての上咽頭操作支援アルゴリズムの生成に用いる学習モデルとしては、VGG16、VGG19等のVGGNet、ResNet等の畳み込みニューラルネットワークが好適である。なお、上咽頭操作支援アルゴリズムは、学習用画像とのパターンマッチングによって上咽頭位置情報を出力するアルゴリズムであってもよい。
次に、上咽頭操作支援アルゴリズムは、上咽頭位置情報に基づいて内視鏡操作情報を出力する。上咽頭位置情報が「適切位置にある」である場合、上咽頭操作支援アルゴリズムは、「内視鏡22を静止させる」内視鏡操作情報を出力する。一方、「不適切方向位置にある」場合、上咽頭操作支援アルゴリズムは、不適切方向位置が示す不適切方向とは逆方向に先端部22dを移動させる先端部22dの移動方向を内視鏡操作情報として出力する。
上咽頭操作支援アルゴリズムが出力した内視鏡操作情報の報知の例について説明する。例えば、図29に示すような上咽頭画像130を上咽頭操作支援アルゴリズムに入力する場合、報知制御部70は、図30に示すようなガイド画像71を生成する。図30に示すガイド画像71の例では、上咽頭画像130と異なる位置に観察支援情報表示欄73が設けられ、観察支援情報表示欄73には、「適切:静止」のメッセージが表示されている。この場合、上咽頭位置情報としては「適切位置にある」と出力されている。
なお、メッセージではなく、先端部22dを停止させることを指示する「適切位置にある」ことを示すマークを表示するようにしてもよい。例えば、「適切位置にある」場合は、上咽頭画像130の周囲に緑色の枠を表示する。このようなガイド画像71を表示することにより、術者は、先端部22dが適切な観察位置にあることを確認することができる。また、「適切位置にある」の上咽頭位置情報が出力される場合、報知制御部70は、「適切な位置です。静止してください。」の音声メッセージをスピーカーから発生させてもよい。
以下、「不適切方向位置にある」場合の内視鏡操作情報の報知の例について説明する。例えば、図31に示すような上咽頭画像130を上咽頭操作支援アルゴリズムに入力する。図31に示す上咽頭画像130は、上咽頭の後壁Pweが大きく写りこみ、上咽頭画像130の左側に側壁Lw、下側に軟口蓋Spが僅かに見切れ、向かって右側の(つまり被検者の左側の)側壁は見えていない、先端部22dが奥側に寄りすぎている「奥不適切位置」の上咽頭画像である。このような場合、先端部22dを手前側に引き抜く操作が必要である。図31に例示する上咽頭画像が上咽頭操作支援アルゴリズムに入力された場合、上咽頭位置情報としては「奥不適切位置」と出力される。
この場合、報知制御部70は、図32に示すようなガイド画像71を生成する。図32に示すガイド画像71の例では、上咽頭画像130の周囲に、上下左右方向を示すガイド方向表示アイコン101a、101b、101c、101dが表示されている。また、奥方向を示すガイド方向表示アイコン101e及び手前方向を示すガイド方向表示アイコン101fが上咽頭画像130に重畳表示されている。さらに、ガイド画像71には、左旋回を示すガイド方向表示アイコン101g及び右旋回を示すガイド方向表示アイコン101hが表示されている。図32に例示するガイド画像71では、手前方向を示すガイド方向表示アイコン101fと、その他のガイド方向表示アイコン101a、101b、101c、101d、101e、101g、101hとの表示態様(色)が異なることを、斜線の有無で示し、手前方向に内視鏡22を操作することを示している。
なお、ガイド方向表示アイコンの表示態様はこれに限られない。例えば、上方向、下方向、左方向、右方向、奥方向、手間方向、右旋回、左旋回ガイド方向表示アイコンは、そのすべてガイド画像に表示してもよく、その一部をガイド画像表示するようにしてもよい。また、ガイド画像71には、「奥に寄りすぎ:内視鏡を引く」のようなメッセージを表示させてもよい。
また、内視鏡操作情報として、図33のような、内視鏡22を手前方向に引き抜くための操作を示す内視鏡操作支援図103aをガイド画像71に表示してもよい。また、音声指示情報として、「内視鏡を引いてください」の音声メッセージをスピーカーから発するようにしてもよい。
上記構成により、不慣れな術者に対して、内視鏡が上咽頭の適切な観察位置にあるかどうかを示し、また、内視鏡が不適切な観察位置にある場合には、内視鏡の操作について示すことで、上咽頭の観察支援を行うことができる。その結果として、被検者への負担を減らすことができる。
以下、中咽頭位置判定アルゴリズムの機能、中咽頭操作支援アルゴリズムが出力する観察支援情報及び観察支援情報の報知について説明する。中咽頭位置判定アルゴリズムは、中咽頭において先端部22dが適切な観察位置にあるか否かを示す、声門遠景観察用の位置判定アルゴリズムである。中咽頭操作支援アルゴリズムは、中咽頭位置判定アルゴリズムの出力結果に基づいて、先端部22dが適切な観察位置となるような内視鏡22の操作について示すことで操作支援を行う操作支援アルゴリズムである。
中咽頭画像の例を図34に示す。図34は、図5で例示したガイド画像71に表示される医用画像72の例である。図34に示す中咽頭画像140は、適切な観察位置に先端部22dを配置した医用画像である。中咽頭における適切な観察位置とは、咽頭後壁Pw、舌根部Rl、喉頭の全体が観察できる位置である。喉頭の具体的な構成としては、声門裂Rg、声帯ヒダVof、前庭ヒダVef(仮声帯とも呼ばれる)、喉頭蓋Eg、梨状陥凹Ps等が観察できる。声門裂Rgとは、左右の声帯ヒダVofの間の空間のことである。なお、さらに近景観察を行う場合、前庭ヒダVefの外側に後述する披裂喉頭蓋ヒダAf、楔状結節Cut、小角結節Cotがはっきりと観察できる。この位置では、呼吸時、発声時及び嚥下時の咽頭壁の運動の左右差等の遠景観察を行い、異常の有無について評価を行うことができる。また、下咽頭における観察とも共通するが、唾液、残留食物等の貯留の有無について評価を行うことができる。
一方、図35に示す中咽頭画像140は、先端部22dの位置が不適切である医用画像である。図35は、図6で例示したガイド画像71に表示される医用画像72の例である。図35に示す中咽頭画像140は、喉頭に接近し過ぎている画像である。喉頭に接近し過ぎているかどうかの判定は、中咽頭操作支援アルゴリズムが行う。
図34及び図35に示す中咽頭画像140の例のオリエンテーションは、紙面の上側が背側、紙面の下側が腹側、紙面の手前側が頭側、紙面の奥側が尾側である。学習済みモデルとしての観察対象識別アルゴリズムは、図34及び図35に示すような中咽頭画像を「中咽頭」の学習用画像として用いることによって学習されている。
以下、中咽頭画像が中咽頭観察支援アルゴリズム(中咽頭位置判定アルゴリズム及び中咽頭操作支援アルゴリズム)に入力された場合に、観察支援情報を出力する処理の流れについて説明する。まず、図34又は図35に示すような中咽頭画像が入力された中咽頭位置判定アルゴリズムが、先端部22dの位置について「適切」又は「不適切」であることを示す内視鏡位置判定情報を出力する。
図34に示すような中咽頭画像が入力された場合、中咽頭位置判定アルゴリズムは、内視鏡位置判定情報として、先端部22dの位置が「適切」であると出力する。一方、図35に示すような中咽頭画像が入力された場合、中咽頭位置判定アルゴリズムは、内視鏡位置判定情報として、先端部22dの位置が「不適切」であると出力する。
内視鏡位置判定情報を出力する中咽頭位置判定アルゴリズムは、「適切」又は「不適切」である内視鏡位置判定情報が対応付けられた中咽頭画像を含む学習用画像を用いて学習された学習済みモデルであることが好ましい。学習モデルに教師あり学習又は半教師あり学習を適用する場合、図34に示すような中咽頭画像を、「適切」の正解画像としてもよい。学習済みモデルとしての中咽頭操作支援アルゴリズムの生成に用いる学習モデルとしては、VGG16、VGG19等のVGGNet、ResNet等の畳み込みニューラルネットワークが好適である。なお、中咽頭操作支援アルゴリズムは、学習用画像とのパターンマッチングによって内視鏡位置判定情報を出力するアルゴリズムであってもよい。
次に、中咽頭操作支援アルゴリズムは、内視鏡位置判定情報に基づいて内視鏡操作情報を出力する。内視鏡位置判定情報が「適切」である場合、中咽頭操作支援アルゴリズムは、「内視鏡22を静止させる」内視鏡操作情報を出力する。この場合、報知制御部70は、図36に示すようなガイド画像71を生成する。図36に示すガイド画像71の例では、中咽頭画像140と異なる位置に観察支援情報表示欄73が設けられ、観察支援情報表示欄73には、適切な観察位置であることを示す「適切:静止」のメッセージが表示されている。なお、メッセージではなく、先端部22dを静止させることを指示する「適切」を示すマークを表示するようにしてもよい。例えば、「適切」である場合は、中咽頭画像140の周囲に緑色の枠を表示する。この場合、報知制御部70は、「不適切」である場合にはガイド画像71の「適切」を示すマークを非表示とし、ガイド方向表示アイコン等を表示するように、内視鏡操作情報の表示を切り替える制御を行う。
また、「適切」の内視鏡位置判定情報が出力される場合、報知制御部70は、「適切な位置です。静止してください。」の音声メッセージをスピーカーから発生させてもよい。このようなガイド画像又は音声による報知を行うことにより、術者は、先端部22dが、中咽頭の適切な観察位置にあることを確認することができる。
以下、内視鏡位置判定情報が「不適切」である場合の、中咽頭操作支援アルゴリズムによる内視鏡操作情報の出力方法と、内視鏡操作情報の報知の例について説明する。中咽頭操作支援アルゴリズムには、最新の医用画像を入力することが好ましい(図4参照)。なお、中咽頭操作支援アルゴリズムに、中咽頭位置判定アルゴリズムに入力した医用画像と同じ医用画像を入力してもよい。
中咽頭操作支援アルゴリズムは、まず、中咽頭領域情報を出力する。具体的には、図35に示すような中咽頭画像140が入力された中咽頭操作支援アルゴリズムは、図37に示すように、声門の領域141及び喉頭蓋の領域142を、中咽頭領域情報として出力する。声門の領域とは、図37に示すように、呼吸時の声門裂Rgの領域でもよく、また、発声時の声門裂Rgの領域でもよく、左右の声門ヒダVofと声門裂Rgからなる領域でもよく、声門裂Rgを含まない左右の声門ヒダVofである領域であってもよい。
中咽頭領域情報を出力する中咽頭操作支援アルゴリズムは、医用画像に対するセグメンテーションによって声門及び喉頭蓋の領域をそれぞれ出力する学習済みモデルであることが好ましい。学習済みモデルは、予め医師によって声門及び喉頭蓋の領域がそれぞれクラス分けされた中咽頭画像を正解画像である学習用画像として学習を行うことによって生成される。このような学習済みモデルの生成に適用する学習モデルとしては、PSPnetを適用することが好ましく、また、SPPnet、Segnet等、その他のセグメンテーションに好適である学習モデルを用いてもよい。なお、中咽頭操作支援アルゴリズムは、教師なし学習を適用した学習モデルを学習することによって生成された学習済みモデルであってもよい。
次に、中咽頭操作支援アルゴリズムは、中咽頭領域情報を用いて、中咽頭領域演算情報を出力する。中咽頭領域演算情報とは、先端部22dの位置が、適切な観察位置となるような内視鏡操作情報を出力するために用いる情報である。適切な観察位置は、学習用画像として用いられる場合の「適切」な中咽頭画像に付される情報である。
中咽頭領域演算情報は、声門の領域及び喉頭蓋の領域の、面積、幅及び/又は中心位置の座標情報である。声門及び喉頭蓋の領域の面積は、セグメンテーションによってこれらの領域にそれぞれクラス分けされた領域の面積を算出する方法によって算出される。声門の領域の幅又は喉頭蓋の領域の幅とは、声門又は喉頭蓋の領域を構成するピクセルのうちの任意の2点間の距離のことを指す。声門の領域の幅は、左右の声門ヒダVofの間の距離でもよく、声門裂Rgの領域のうち最も背側にある点と、最も腹側にある点との距離でもよい。声門の領域及び喉頭蓋の領域の中心位置の座標情報とは、これらの領域の重心又は幾何中心である。声門の領域及び喉頭蓋の領域の中心位置の算出方法は、鼻腔の上ルート画像における上ルート挿入領域の中心位置の算出方法と同様であるため省略する。
中咽頭操作支援アルゴリズムは、中咽頭領域演算情報を用いて、内視鏡操作情報を出力する。具体的には、声門又は喉頭蓋の領域の面積に対して、声門遠景観察用第1閾値を設け、声門又は喉頭蓋の領域の面積が声門遠景観察用第1閾値より大きければ、先端部22dの移動方向として「手前方向」の内視鏡操作指示情報を出力する。また、声門又は喉頭蓋の領域の面積に対して、声門遠景観察用第2閾値を設け、声門又は喉頭蓋の領域の面積が声門遠景観察用第2閾値未満であれば、先端部22dの移動方向として「奥方向」の内視鏡操作指示情報を出力する。声門遠景観察用第1閾値及び声門遠景観察用第2閾値は、任意に設定できる値であり、声門の領域及び喉頭蓋の領域の面積に対してそれぞれ設定される値でもよく、どちらか一方に与えられる値でもよい。なお、声門又は喉頭蓋の領域の面積に代えて、声門又は喉頭蓋の領域の幅を用いてもよく、これらの組み合わせに基づいて内視鏡操作情報を出力するようにしてもよい。
また、中咽頭操作支援アルゴリズムに入力された中咽頭画像を用いて出力された声門の領域及び喉頭蓋の領域の中心位置と、先端部22dの位置が「適切」である中咽頭画像における声門の領域及び喉頭蓋の領域の中心位置とを比較し、その差分に基づいて内視鏡操作情報を出力してもよい。この場合、例えば、「不適切」である中咽頭画像の声門及び喉頭蓋の領域の中心位置と、「適切」である中咽頭画像における声門及び喉頭蓋の領域の中心位置との差分を、内視鏡22の先端部22dの移動方向及び移動量を示すベクトルとして算出し、内視鏡操作情報とすることができる。
また、中咽頭操作支援アルゴリズムに入力された中咽頭画像を用いて出力された声門の領域の中心位置と喉頭蓋の領域の中心位置とを結んで現在位置ベクトルを生成し、さらに、先端部22dの位置が「適切」である中咽頭画像における声門の領域の中心位置と喉頭蓋の領域の中心位置とを結んで適切位置ベクトルを生成し、現在位置ベクトルと、適切位置ベクトルとの差分に基づいて、先端部22dの移動方向、移動距離及び回転角度を内視鏡操作指示情報として出力してもよい。
以下、内視鏡位置判定情報が「不適切」である場合の、内視鏡操作情報の報知の例について説明する。例えば、図35に示すような中咽頭画像140が入力された中咽頭操作支援アルゴリズムが、先端部22dの移動方向として「奥方向」の内視鏡操作指示情報を出力するとする。
この場合、報知制御部70は、図38に示すようなガイド画像71を生成する。図38に示すガイド画像71の例では、中咽頭画像140の周囲に、上、下、左、右方向を示すガイド方向表示アイコン101a、101b、101c、101dが表示されている。また、奥方向、手前方向を示すガイド方向表示アイコン101e、101fが中咽頭画像140に重畳表示されている。図38に例示するガイド画像71では、手前方向を示すガイド方向表示アイコン101fと、その他のガイド方向表示アイコン101a、101b、101c、101d、101eとの表示態様(色)が異なることを、斜線の有無で示し、手前方向に内視鏡22を操作することを示している。なお、ガイド方向表示アイコンの表示態様はこれに限られない。例えば、ガイド画像71には、図32に示すような、左旋回を示すガイド方向表示アイコン101g及び右旋回を示すガイド方向表示アイコン101hを表示してもよい。
また、ガイド画像71には、内視鏡操作情報として、先端部22dを湾曲移動させるためのアングルノブ22eの操作又は内視鏡22の引き抜き又は挿入方向を示す内視鏡操作支援図をガイド画像71に表示してもよい(図33等参照)。上咽頭画像130の例と同様であるため図示は省略する。上記構成により、不慣れな術者に対して、内視鏡が中咽頭の適切な観察位置にあるかどうかを示し、また、内視鏡が不適切な観察位置にある場合には、内視鏡の操作について示すことで、中咽頭の観察支援を行うことができる。その結果として、被検者への負担を減らすことができる。
また、中咽頭操作支援アルゴリズムは、中咽頭領域演算情報を用いて被検者体位情報を出力する。例えば、図35に示すような中咽頭画像140が入力された場合、中咽頭操作支援アルゴリズムは、「頭が前屈。頭部が伸展していないか確認する。」の被検者体位情報を出力する。この場合、報知制御部70は、図39に示すようなガイド画像71を生成する。図39に示すガイド画像71の例では、被検者の体位変更を促す「被検者の体位:頭部伸展位に注意」のメッセージが、観察支援情報表示欄73に表示されている。また、音声指示情報として、「頭が前屈している可能性があります。頭部伸展位に注意してください。」の音声メッセージをスピーカーから発してもよい。
被検者体位情報を出力する中咽頭操作支援アルゴリズムは、図35に示すような中咽頭画像140に、「頭部が前屈」等の被検者の姿勢に関する情報が付された学習用画像を用いて学習されている学習済みモデルであることが好ましい。なお、内視鏡操作情報を出力する中咽頭操作支援アルゴリズムと、被検者体位情報を出力する中咽頭操作支援アルゴリズムとは、同一の学習済みモデルであってもよく、異なる学習済みモデルであってもよい。これらが異なる学習済みモデルである場合、内視鏡操作情報を出力する第1中咽頭操作支援アルゴリズムと、被検者体位情報を出力する第2中咽頭操作支援アルゴリズムを備え、第1中咽頭操作支援アルゴリズム及び第2中咽頭操作支援アルゴリズムにそれぞれ最新の中咽頭画像を入力する。
以下、下咽頭位置判定アルゴリズムの機能、下咽頭操作支援アルゴリズムが出力する観察支援情報及び観察支援情報の報知について説明する。下咽頭位置判定アルゴリズムは、下咽頭において先端部22dが適切な観察位置にあるか否かを示す、声門近景観察用の位置判定アルゴリズムである。下咽頭操作支援アルゴリズムは、下咽頭位置判定アルゴリズムの出力結果に基づいて、先端部22dが適切な観察位置となるような内視鏡22の操作について示すことで操作支援を行う操作支援アルゴリズムである。
観察対象が下咽頭である医用画像(以下、下咽頭画像と呼ぶ。)の例を図40に示す。図40に示す下咽頭画像150は、適切な観察位置に先端部22dを配置した下咽頭画像である。下咽頭における適切な観察位置とは、披裂部の全体が観察できる位置である。具体的には、声門裂Rg、左右の声帯ヒダVof、左右の前庭ヒダVef、左右の披裂喉頭蓋ヒダAf、左右の楔状結節Cut、左右の小角結節Cot、左右の梨状陥凹Ps等がはっきりと観察できる位置である。また、この位置では下咽頭画像の上下に咽頭後壁Pw及び喉頭蓋Egの気管面が観察される。この位置では、呼吸時、発声時及び嚥下時の披裂部の近景観察を行い、披裂部の運動、器質的異常の有無、唾液、残留食物等の貯留の有無等について評価を行うことができる。
一方、図41に示す下咽頭画像150は、先端部22dの位置が不適切である下咽頭画像150の例である。図41に示す下咽頭画像150は、声門裂Rg、左右の声門ヒダVof等の全体が認められない、披裂部の全体がはっきり観察できない画像である。図40及び図41に示す中咽頭画像140の例のオリエンテーションは、紙面の上側が背側、紙面の下側が腹側、紙面の手前側が頭側、紙面の奥側が尾側である。
学習済みモデルとしての観察対象識別アルゴリズムは、図40及び図41に示すような下咽頭画像を「下咽頭」の学習用画像として用いることによって学習されている。
以下、下咽頭画像が下咽頭観察支援アルゴリズム(下咽頭位置判定アルゴリズム及び下咽頭操作支援アルゴリズム)に入力された場合に、観察支援情報を出力する処理の流れについて説明する。まず、図40及び図41に示すような下咽頭画像が入力された下咽頭位置判定アルゴリズムが、先端部22dの位置について「適切」又は「不適切」であることを示す内視鏡位置判定情報を出力する。
図40に示すような下咽頭画像が入力された場合、下咽頭位置判定アルゴリズムは、内視鏡位置判定情報として、先端部22dの位置が「適切」であると出力する。一方、図41に示すような下咽頭画像が入力された場合、下咽頭位置判定アルゴリズムは、内視鏡位置判定情報として、先端部22dの位置が「不適切」であると出力する。
内視鏡位置判定情報を出力する下咽頭位置判定アルゴリズムは、「適切」又は「不適切」である内視鏡位置判定情報が対応付けられた下咽頭画像を含む学習用画像を用いて学習された学習済みモデルであることが好ましい。学習モデルに教師あり学習又は半教師あり学習を適用する場合、図40に示すような下咽頭画像を、「適切」の正解画像としてもよい。学習済みモデルとしての下咽頭操作支援アルゴリズムの生成に用いる学習モデルとしては、VGG16、VGG19等のVGGNet、ResNet等の畳み込みニューラルネットワークが好適である。なお、下咽頭操作支援アルゴリズムは、学習用画像とのパターンマッチングによって内視鏡位置判定情報を出力するアルゴリズムであってもよい。
次に、下咽頭操作支援アルゴリズムは、内視鏡位置判定情報に基づいて内視鏡操作情報を出力する。内視鏡位置判定情報が「適切」である場合、下咽頭操作支援アルゴリズムは、「内視鏡22を静止させる」内視鏡操作情報を出力する。この場合、報知制御部70は、図42に示すようなガイド画像71を生成する。図42に示すガイド画像71の例では、下咽頭画像150と異なる位置に設けられる観察支援情報表示欄73に、適切な観察位置であることを示す「適切:静止」のメッセージが表示されている。なお、メッセージではなく、先端部22dを静止させることを指示する「適切」を示すマークを表示するようにしてもよい。例えば、「適切」である場合は、下咽頭画像150の周囲に緑色の枠を表示する。
また、「適切」の内視鏡位置判定情報が出力される場合、報知制御部70は、「適切な位置です。静止してください。」の音声メッセージをスピーカーから発生させてもよい。このようなガイド画像又は音声による報知を行うことにより、術者は、先端部22dが下咽頭の適切な観察位置にあることを確認することができる。
以下、内視鏡位置判定情報が「不適切」である場合の、下咽頭操作支援アルゴリズムによる内視鏡操作情報の出力方法と、内視鏡操作情報の報知の例について説明する。下咽頭操作支援アルゴリズムには、最新の医用画像を入力することが好ましい(図4参照)。なお、下咽頭操作支援アルゴリズムに、下咽頭位置判定アルゴリズムに入力した医用画像と同じ医用画像を入力してもよい。
下咽頭操作支援アルゴリズムは、まず、下咽頭領域情報を出力する。図41に示すような下咽頭画像150が入力された下咽頭操作支援アルゴリズムは、図43に示すように、声門の領域151及び左右の声帯ヒダの領域152a、152bを、下咽頭領域情報として出力する。下咽頭操作支援アルゴリズムに検出される声門の領域151は、中咽頭の場合と同様に、図43に示す例に限られない。
下咽頭領域情報を出力する下咽頭操作支援アルゴリズムは、医用画像に対するセグメンテーションによって声門及び声帯ヒダの領域をそれぞれ出力する学習済みモデルであることが好ましい。学習済みモデルは、予め医師によって声門及び声帯ヒダの領域がそれぞれクラス分けされた下咽頭画像を正解画像である学習用画像として学習を行うことによって生成される。なお、左右の声帯ヒダの領域は、左右がそれぞれ異なるクラスに分類されてもよく、同じクラスに分類されてもよい。
このような学習済みモデルの生成に適用する学習モデルとしては、PSPnetを適用することが好ましく、また、SPPnet、Segnet等、その他のセグメンテーションに好適である学習モデルを用いてもよい。なお、下咽頭操作支援アルゴリズムは、教師なし学習を適用した学習モデルを学習することによって生成された学習済みモデルであってもよい。
次に、下咽頭操作支援アルゴリズムは、下咽頭領域情報を用いて、下咽頭領域演算情報を出力する。下咽頭領域演算情報とは、先端部22dの位置が、適切な観察位置となるような内視鏡操作情報を出力するために用いる情報である。適切な観察位置は、学習用画像として用いられる場合の「適切」な下咽頭画像に付される情報である。
下咽頭領域演算情報は、声門の領域の、面積、幅及び/又は中心位置の座標情報並びに及び声帯ヒダの長さである。声門の領域の面積は、セグメンテーションによってこれらの領域にそれぞれクラス分けされた領域の面積を算出する方法によって算出される。声門の領域の幅とは、声門の領域を構成するピクセルに含まれる任意の2点間の距離のことを指し、中咽頭における声門の領域の幅と同様に、左右の声門ヒダVofの間の距離に限られない。
声帯ヒダの領域の長さとは、声帯ヒダの領域を構成するピクセルに含まれる任意の2点間の距離うち、最大のものである。例えば、背側(食道側)の声帯ヒダの末端と、腹側(喉頭蓋側)の声帯ヒダの末端との距離(長さ)である。また、声帯ヒダの領域の長さは、左右の声帯ヒダの領域の長さについて算出し、どちらか一方の声帯ヒダの領域の長さを下咽頭領域演算情報として出力するようにしてもよく、両側の声帯ヒダの領域の長さを下咽頭領域演算情報として出力してもよい。
声門の領域の中心位置の座標情報とは、これらの領域の重心又は幾何中心である。声門の領域の中心位置の算出方法は、鼻腔の上ルート画像における上ルート挿入領域の中心位置の算出方法と同様であるため省略する。
下咽頭操作支援アルゴリズムは、下咽頭領域演算情報を用いて、内視鏡操作情報を出力する。具体的には、声門の領域の面積に対して、声門近景観察用第1閾値を設け、声門の領域の面積が声門近景観察用第1閾値より大きければ、先端部22dの移動方向として「手前方向」の内視鏡操作指示情報を出力する。また、声門の領域の面積に対して、声門近景観察用第2閾値を設け、声門の領域の面積が声門近景観察用第2閾値未満であれば、先端部22dの移動方向として「奥方向」の内視鏡操作指示情報を出力する。声門近景観察用第1閾値及び声門近景観察用第2閾値は、任意に設定できる値であり、声門の領域及び声帯ヒダの領域の面積に対してそれぞれ設定される値でもよく、どちらか一方に与えられる値でもよい。なお、声門の領域の面積に代えて、声門の領域の幅を用いてもよく、これらの組み合わせに基づいて内視鏡操作情報を出力するようにしてもよい。
また、声帯ヒダの長さに対して、声門近景観察用第1閾値及び声門近景観察用第2閾値のような閾値を設け、声帯ヒダの長さに応じて内視鏡操作指示情報を出力するようにしてもよい。
また、下咽頭操作支援アルゴリズムに入力された下咽頭画像を用いて出力された声門の領域の中心位置と、先端部22dの位置が「適切」である下咽頭画像における声門の領域の中心位置とを比較し、その差分に基づいて内視鏡操作情報を出力してもよい。この場合、例えば、「不適切」である下咽頭画像の声門の領域の中心位置と、「適切」である下咽頭画像における声門の領域の中心位置との差分を、内視鏡22の先端部22dの移動方向、移動量及び回転角度を示すベクトルとして算出し、内視鏡操作情報とすることができる。
以下、内視鏡位置判定情報が「不適切」である場合の、内視鏡操作情報の報知の例について説明する。例えば、図41に示すような下咽頭画像150が入力された下咽頭操作支援アルゴリズムが、先端部22dの移動方向として「奥方向」の内視鏡操作指示情報を出力するとする。
この場合、報知制御部70は、図44に示すようなガイド画像71を生成する。図44に示すガイド画像71の例では、下咽頭画像150の周囲に、上、下、左、右方向を示すガイド方向表示アイコン101a、101b、101c、101dが表示されている。また、奥方向、手前方向を示すガイド方向表示アイコン101e、101fが下咽頭画像150に重畳表示されている。図44に例示するガイド画像71では、手前方向を示すガイド方向表示アイコン101fと、その他のガイド方向表示アイコン101a、101b、101c、101d、101eとの表示態様(色)が異なることを、斜線の有無で示し、手前方向に内視鏡22を操作することを示している。なお、ガイド方向表示アイコンの表示態様はこれに限られない。例えば、ガイド画像71には、図32に示すような、左旋回を示すガイド方向表示アイコン101g及び右旋回を示すガイド方向表示アイコン101hを表示してもよい。
また、ガイド画像71には、内視鏡操作情報として、先端部22dを湾曲移動させるためのアングルノブ22eの操作又は内視鏡22の引き抜き又は挿入方向を示す内視鏡操作支援図をガイド画像71に表示してもよい(図33等参照)。上記構成により、不慣れな術者に対して、内視鏡が下咽頭の適切な観察位置にあるかどうかを示し、また、内視鏡が不適切な観察位置にある場合には、内視鏡の操作について示すことで、下咽頭の観察支援を行うことができる。その結果として、被検者への負担を減らすことができる。
また、下咽頭操作支援アルゴリズムは被検者体位情報を出力する。被検者体位情報の報知の方法は、中咽頭の例において被検者体位情報を報知する方法と同様であるため説明を省略する。下咽頭操作支援アルゴリズムは、下咽頭画像150に被検者の姿勢に関する情報が付された学習用画像を用いて学習されている学習済みモデルであることが好ましい。なお、内視鏡操作情報を出力する下咽頭操作支援アルゴリズムと、被検者体位情報を出力する下咽頭操作支援アルゴリズムとは、同一の学習済みモデルであってもよく、異なる学習済みモデルであってもよい。これらが異なる学習済みモデルである場合、内視鏡操作情報を出力する第1下咽頭操作支援アルゴリズムと、被検者体位情報を出力する第2下咽頭操作支援アルゴリズムを備え、第1下咽頭操作支援アルゴリズム及び第2下咽頭操作支援アルゴリズムにそれぞれ最新の下咽頭画像を入力する。
以下、誤挿入操作支援アルゴリズムが出力する観察支援情報及び観察支援情報の報知について説明する。誤挿入操作支援アルゴリズムは、内視鏡22を誤って食道又は気管まで挿入してしまった場合に(図10及び図11参照)、内視鏡22を引き抜く操作指示を行うことで操作支援を行うための操作支援アルゴリズムである。
内視鏡22を図10に示す位置まで誤って挿入した場合の、観察対象が食道である医用画像(食道画像160)の例を図45に示す。また、内視鏡22を図11に示す位置まで誤って挿入した場合の、観察対象が気管である医用画像(気管画像170)の例を図46に示す。学習済みモデルとしての観察対象識別アルゴリズムは、図45に示すような食道画像を「食道」の学習用画像として、また、図46に示すような気管画像を「気管」の学習用画像として用いることによって学習されている。
誤挿入操作支援アルゴリズムは、図45に示すような食道画像又は図46に示すような気管画像が入力された場合、内視鏡の引き抜きを指示する内視鏡操作情報を出力する。
この場合の内視鏡操作情報の報知の例について説明する。例えば、図45に示すような食道画像が誤挿入操作支援アルゴリズムに入力された場合、報知制御部70は、図47に示すようなガイド画像71を生成する。図47に示すガイド画像71の例では、食道画像160の周囲に、上、下、左、右方向を示すガイド方向表示アイコン101a、101b、101c、101dが表示されている。また、奥方向、手前方向を示すガイド方向表示アイコン101e、101fが中咽頭画像140に重畳表示されている。図47に例示するガイド画像71では、手前方向を示すガイド方向表示アイコン101fと、その他のガイド方向表示アイコン101a、101b、101c、101d、101eとの表示態様(色)が異なることを斜線の有無で示し、手前方向に内視鏡22を操作することを示している。なお、ガイド方向表示アイコンの表示態様はこれに限られない。
また、図48に示すガイド画像71の例のように、食道画像160の周囲に警告表示欄161を設け、先端部22dが食道に至っているため、内視鏡22の引き抜きを促す報知を行ってもよい。図48に示す例では、「食道:内視鏡を引き抜いてください」のメッセージが表示されている。また、報知制御部70は、誤挿入操作支援アルゴリズムが内視鏡の引き抜きを指示する内視鏡操作情報を出力した場合、音声指示情報として「内視鏡を引き抜いてください」と音声メッセージをスピーカーから発する制御を行ってもよい。上記構成により、画像処理装置10が内視鏡を直ちに引き抜く必要がある部位を認識した場合に、内視鏡の引き抜きを術者に促すことができる。
以下、観察支援対象外操作支援アルゴリズムが出力する観察支援情報の報知について説明する。嚥下内視鏡検査の際は、観察支援対象部位が識別された後に、食物や唾液などの異物の流入や、嚥下動作や咳などによる咽頭部の収縮動作により、観察支援対象部位の識別が不可能な状態になることがある。観察支援対象外観察支援アルゴリズムは、このような場合に対して、観察支援停止情報を出力する。
観察支援停止情報が出力された場合、報知制御部70は、直前までガイド画像に表示されていた内視鏡操作情報を一時的に非表示とする。例えば、直前まで表示されていたガイド方向表示アイコンを非表示とする。また、ガイド方向表示アイコンの表示態様を全て同じものとして、操作指示が停止したことを示してもよい。また、ガイド画像に「CAD OFF」のメッセージを表示し、操作支援が一時停止していることを術者に知らせる表示を行うようにしてもよい(図7参照)。
なお、鼻腔と上咽頭、上咽頭と中咽頭及び中咽頭と下咽頭の境界領域を観察対象とする医用画像が観察対象識別アルゴリズムに入力された場合、「観察支援対象外」と出力するようにしてもよい。境界領域は観察支援対象外とし、特定観察支援アルゴリズムとして中咽頭観察支援アルゴリズム又は下咽頭観察支援アルゴリズムが選択される範囲を狭めることによって、画像処理に矛盾を生じさせる処理の実行を防ぎ、また、術者を惑わせる観察支援を行ってしまうことを防ぐことができる。
また、観察支援情報の報知の有無を切り替えられることが好ましい。例えば、ガイド方向表示アイコンが表示されているガイド画像が表示されている場合に、内視鏡22の操作部22b、フットスイッチ等を操作することによって、報知切替指示を報知制御部70に送信し、ガイド画像のガイド方向表示アイコンを非表示させるようにしてもよい。また、ガイド画像のガイド方向表示アイコンが非表示である場合に、内視鏡22の操作部22b、フットスイッチ等を再び操作することによって、ガイド方向表示アイコンを再び表示させるようにしてもよい。さらに、ガイド画像上のGUI(Graphical User Interface)として報知表示切り替えボタンを設け、観察支援情報の報知の有無の切り替えを行うようにしてもよい。このような観察支援情報の報知の有無を切り替える構成により、術者が報知を必要とする場合にのみ報知を行うことができる。
本実施形態の画像処理装置10における作動方法の一連の流れについて、図49のフローチャートを用いて説明する。まず、画像取得部30がモダリティ20又はデータベース11から医用画像を取得する(ステップST101)。次に、観察対象識別部40が、医用画像を観察対象識別アルゴリズムに入力することにより、観察対象識別情報を出力する(ステップST102)。次に、観察支援アルゴリズム選択部50が、観察対象識別情報に基づいて複数の観察支援アルゴリズムから1つの特定観察支援アルゴリズムを選択する(ステップST103)。次に、観察支援情報生成部60が、医用画像を特定観察支援アルゴリズムに入力することにより、観察支援情報を出力する(ステップST104)。最終的に、報知制御部70が、ガイド画像、音声指示情報等を生成するといった、観察支援情報を報知する制御を行う(ステップST105)。観察支援情報は、ディスプレイ、スピーカー等ユーザーインターフェースを介して報知される。
上記実施形態において、画像処理装置10は、画像取得部30、観察対象識別部40、観察支援アルゴリズム選択部50、観察支援情報生成部60及び報知制御部70といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウエア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA (Field Programmable Gate Array) 等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、各種の処理を実行するために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
1つの処理部は、これら各種のプロセッサのうちの1つで構成されてもよく、同種または異種の2つ以上のプロセッサの組み合せ(例えば、複数のFPGAや、CPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウエアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた形態の電気回路(circuitry)である。また、記憶部のハードウェア的な構造はHDD(hard disc drive)やSSD(solid state drive)等の記憶装置である。
10 画像処理装置
11 データベース
12 ユーザーインターフェース
20 モダリティ
21 内視鏡システム
22 内視鏡
22a 挿入部
22b 操作部
22c 湾曲部
22d 先端部
22e アングルノブ
22f 静止画取得指示スイッチ
23 プロセッサ装置
24 光源装置
30 画像取得部
31、32、33、72 医用画像
40 観察対象識別部
41 観察対象識別情報
50 観察支援アルゴリズム選択部
51 特定観察支援アルゴリズム選択情報
60 観察支援情報生成部
60a 鼻腔観察支援情報生成部
60b 上咽頭観察支援情報生成部
60c 中咽頭観察支援情報生成部
60d 下咽頭観察支援情報生成部
60e 誤挿入観察支援情報生成部
60f 観察支援対象外観察支援情報生成部
61 観察支援情報
70 報知制御部
71 ガイド画像
73 観察支援情報表示欄
90 上ルート
90a 上ルートの領域
91 下ルート
91a 下ルートの領域
92 上ルート挿入領域
93 下ルート挿入領域
94、94a、94b 挿入ルートガイドマーク
95 画像中心ガイドマーク
96 ガイド枠
100 上ルート画像
101a、101b、101c、101d、101e、101f、101g、101h ガイド方向表示アイコン
102 ガイド矢印
103a 内視鏡操作支援図
103b、103c レバー
110 下ルート画像
120 前鼻画像
121 上ルート用操作表示欄
122 下ルート用操作表示欄
130 上咽頭画像
140 中咽頭画像
141、151 声門の領域
142 喉頭蓋の領域
150 下咽頭画像
152a、152b 声帯ヒダの領域
160 食道画像
161 警告表示欄
170 気管画像
Af 披裂喉頭蓋ヒダ
Cc 輪状軟骨
Cot 小角結節
Cut 楔状結節
Eg 喉頭蓋
Ep 上咽頭
Es 食道
Ev 喉頭蓋谷
F 食物
Fa 顔面
Fp 咽頭円蓋
Hp 下咽頭
It 下鼻甲介
La 喉頭
Lw 側壁
Mp 中咽頭
Mt 中鼻甲介
Nf 鼻腔底
Ns 鼻中隔
Nw 鼻腔側壁
Ps 梨状陥凹
Pw 咽頭後壁
Pwe 上咽頭の後壁
Rg 声門裂
Rl 舌根部
Sp 軟口蓋
Tc 甲状軟骨
Tr 気管
Tо 舌
Vc 声門
Vef 前庭ヒダ
Vof 声帯ヒダ

Claims (28)

  1. プロセッサを備え、
    前記プロセッサは、
    医用画像を取得し、
    前記医用画像を観察対象識別アルゴリズムに入力することにより、前記医用画像に含まれる観察支援対象部位又は前記医用画像が観察支援対象外であることを示す観察対象識別情報を出力し、
    前記観察対象識別情報に基づいて複数の観察支援アルゴリズムから1つの特定観察支援アルゴリズムを選択し、
    前記特定観察支援アルゴリズムに前記医用画像を入力することにより、観察支援情報を出力し、
    前記観察支援情報を報知する制御を行う画像処理装置。
  2. 前記観察支援対象部位は、鼻腔、上咽頭、中咽頭、下咽頭、喉頭、気管又は食道である請求項1に記載の画像処理装置。
  3. 前記観察支援情報の報知は、前記観察支援情報を表示するガイド画像及び/又は前記観察支援情報を報知する音声によって行われる請求項1又は2に記載の画像処理装置。
  4. 前記観察支援情報は、内視鏡の位置が適切又は不適切であることを示す内視鏡位置判定情報、前記内視鏡の操作方法を示す内視鏡操作情報、被検者の体位の変更若しくは確認を促す被検者体位情報及び/又は観察支援を停止することを示す観察支援停止情報である請求項3に記載の画像処理装置。
  5. 前記内視鏡操作情報は、前記内視鏡の先端部の移動方向及び/又は移動量であり、
    前記移動方向は、右方向、左方向、上方向、下方向、奥方向、手前方向、右旋回又は左旋回である請求項4に記載の画像処理装置。
  6. 前記プロセッサは、前記内視鏡操作情報として、内視鏡操作支援図を前記ガイド画像に表示する制御を行う請求項5に記載の画像処理装置。
  7. 前記プロセッサは、内視鏡位置判定情報に基づいて、前記内視鏡操作情報の表示を切り替える制御を行う請求項4に記載の画像処理装置。
  8. 前記特定観察支援アルゴリズムは、操作支援アルゴリズムを含み、
    前記プロセッサは、
    前記操作支援アルゴリズムに前記医用画像を入力することにより、前記内視鏡操作情報又は前記観察支援停止情報を出力する請求項4に記載の画像処理装置。
  9. 前記プロセッサは、
    前記操作支援アルゴリズムに最新の前記医用画像を入力する請求項8に記載の画像処理装置。
  10. 前記操作支援アルゴリズムは、前記内視鏡操作情報及び/又は前記被検者体位情報を出力する学習済みモデルである請求項9に記載の画像処理装置。
  11. 前記特定観察支援アルゴリズムは、位置判定アルゴリズム及び操作支援アルゴリズムを含み、
    前記位置判定アルゴリズムは、前記医用画像を入力されることにより、前記内視鏡位置判定情報を出力する学習済みモデルであり、
    前記操作支援アルゴリズムは、前記医用画像を入力されることにより、前記内視鏡操作情報及び/又は前記被検者体位情報を出力する学習済みモデルである請求項4に記載の画像処理装置。
  12. 前記プロセッサは、前記位置判定アルゴリズム及び前記操作支援アルゴリズムに、最新の前記医用画像をそれぞれ入力する請求項11に記載の画像処理装置。
  13. 前記観察対象識別アルゴリズムは、鼻腔、上咽頭、中咽頭、下咽頭、喉頭、気管又は食道が観察対象に含まれる前記医用画像を含む学習用画像を用いて学習された学習済みモデルである請求項1に記載の画像処理装置。
  14. 前記プロセッサは、
    前記観察支援情報の報知の有無を切り替える制御を行う請求項1に記載の画像処理装置。
  15. 前記プロセッサは、
    前記観察対象識別アルゴリズムが出力する前記観察支援対象部位が鼻腔である場合、
    前記操作支援アルゴリズムに前記医用画像を入力することにより、前記医用画像に含まれる、前記内視鏡の挿入に適した領域である上ルート挿入領域及び/又は下ルート挿入領域を示す挿入領域情報を出力し、
    前記挿入領域情報に基づいて、前記上ルート挿入領域及び/又は前記下ルート挿入領域の、面積、幅及び/又は中心位置の座標情報である挿入ルート情報を算出し、
    前記挿入ルート情報を前記観察支援情報として前記ガイド画像に表示する制御を行う請求項3に記載の画像処理装置。
  16. 前記プロセッサは、
    前記挿入ルート情報に基づき、前記上ルート挿入領域又は前記下ルート挿入領域の表示態様を異ならせて前記ガイド画像に表示する制御を行う請求項15に記載の画像処理装置。
  17. 前記プロセッサは、
    前記観察対象識別アルゴリズムが出力する前記観察支援対象部位が鼻腔である場合、
    前記操作支援アルゴリズムに前記医用画像を入力することにより、前記医用画像に含まれる、前記内視鏡の挿入に適した領域である上ルート挿入領域及び/又は下ルート挿入領域を示す挿入領域情報を出力し、
    前記挿入領域情報に基づいて、前記上ルート挿入領域及び/又は前記下ルート挿入領域の、面積、幅及び/又は中心位置の座標情報である挿入ルート情報を算出し、
    前記挿入ルート情報を用いて前記内視鏡操作情報を出力する請求項10に記載の画像処理装置。
  18. 前記プロセッサは、
    前記観察対象識別アルゴリズムが出力する前記観察支援対象部位が上咽頭である場合、
    前記操作支援アルゴリズムに前記医用画像を入力することにより、適切位置であること又は右不適切位置、左不適切位置、上不適切位置、下不適切位置、奥不適切位置若しくは手前不適切位置である不適切方向位置であることを示す上咽頭位置情報を出力し、
    前記上咽頭位置情報に基づいて前記内視鏡操作情報を出力する請求項10に記載の画像処理装置。
  19. 前記操作支援アルゴリズムは、前記上咽頭位置情報が対応付けられた前記医用画像を含む学習用画像を用いて学習された学習済みモデルである請求項18に記載の画像処理装置。
  20. 前記プロセッサは、
    前記観察対象識別アルゴリズムが出力する前記観察支援対象部位が中咽頭であり、かつ、前記医用画像を入力された前記位置判定アルゴリズムが前記内視鏡位置判定情報として不適切と出力する場合、
    前記操作支援アルゴリズムに前記医用画像を入力することにより、前記医用画像に含まれる、声門の領域及び/又は喉頭蓋の領域を示す中咽頭領域情報を出力し、
    前記中咽頭領域情報に基づき、前記声門の領域及び前記喉頭蓋の領域の面積、幅及び/又は中心位置の座標情報である中咽頭領域演算情報を算出し、
    前記中咽頭領域演算情報を用いて前記内視鏡操作情報を出力する請求項11に記載の画像処理装置。
  21. 前記位置判定アルゴリズムは、前記医用画像と、前記内視鏡位置判定情報とが対応付けられた学習用画像を用いて学習された学習済みモデルである請求項20に記載の画像処理装置。
  22. 前記プロセッサは、
    前記観察対象識別アルゴリズムが出力する前記観察支援対象部位が下咽頭であり、かつ、前記医用画像を入力された前記位置判定アルゴリズムが前記内視鏡位置判定情報として不適切と出力する場合、
    前記操作支援アルゴリズムに前記医用画像を入力することにより、前記医用画像に含まれる、声門の領域及び/又は声帯ヒダの領域を示す下咽頭領域情報を出力し、
    前記下咽頭領域情報に基づき、前記声門の領域の面積、幅及び/又は中心位置の座標情報並びに前記声帯ヒダの領域の長さである下咽頭領域演算情報を算出し、
    前記下咽頭領域演算情報を用いて前記内視鏡操作情報を出力する請求項11に記載の画像処理装置。
  23. 前記位置判定アルゴリズムは、前記医用画像と、前記内視鏡位置判定情報とが対応付けられた学習用画像を用いて学習された学習済みモデルである学習済みモデルである請求項22に記載の画像処理装置。
  24. 前記プロセッサは、
    前記観察対象識別アルゴリズムが出力する前記観察支援対象部位が食道又は気管である場合、
    前記操作支援アルゴリズムに前記医用画像を入力することにより、前記内視鏡の引き抜きを指示する前記内視鏡操作情報を出力する請求項10に記載の画像処理装置。
  25. 前記プロセッサは、
    前記観察対象識別アルゴリズムが前記観察対象識別情報として観察支援対象外と出力する場合、
    前記操作支援アルゴリズムに前記医用画像を入力することにより、前記観察支援停止情報を出力する請求項8に記載の画像処理装置。
  26. 前記観察対象識別アルゴリズムは、食物若しくは唾液である異物、ブレ、ボケ又はハレーションを含む前記医用画像が入力された場合、前記観察対象識別情報として観察支援対象外と出力するように学習された学習済みモデルである請求項25に記載の画像処理装置。
  27. 医用画像を取得するステップと、
    前記医用画像を観察対象識別アルゴリズムに入力することにより、前記医用画像に含まれる観察支援対象部位又は前記医用画像が観察支援対象外であることを示す観察対象識別情報を出力するステップと、
    前記観察対象識別情報に基づいて複数の観察支援アルゴリズムから1つの特定観察支援アルゴリズムを選択するステップと、
    前記特定観察支援アルゴリズムに前記医用画像を入力することにより、観察支援情報を出力するステップと、
    前記観察支援情報を報知する制御を行うステップと、を有する画像処理装置の作動方法。
  28. 請求項1に記載の画像処理装置と、
    照明光を発する光源装置と、
    前記医用画像を撮影する内視鏡と、を備える内視鏡システム。
JP2022135036A 2022-08-26 2022-08-26 画像処理装置及びその作動方法並びに内視鏡システム Pending JP2024031468A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2022135036A JP2024031468A (ja) 2022-08-26 2022-08-26 画像処理装置及びその作動方法並びに内視鏡システム
US18/454,781 US20240065526A1 (en) 2022-08-26 2023-08-23 Image processing device, method for operating the same, and endoscope system
EP23193276.5A EP4327718A1 (en) 2022-08-26 2023-08-24 Image processing device, method for operating the same, and endoscope system
CN202311077788.1A CN117637120A (zh) 2022-08-26 2023-08-25 图像处理装置及其工作方法以及内窥镜系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022135036A JP2024031468A (ja) 2022-08-26 2022-08-26 画像処理装置及びその作動方法並びに内視鏡システム

Publications (1)

Publication Number Publication Date
JP2024031468A true JP2024031468A (ja) 2024-03-07

Family

ID=87801608

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022135036A Pending JP2024031468A (ja) 2022-08-26 2022-08-26 画像処理装置及びその作動方法並びに内視鏡システム

Country Status (4)

Country Link
US (1) US20240065526A1 (ja)
EP (1) EP4327718A1 (ja)
JP (1) JP2024031468A (ja)
CN (1) CN117637120A (ja)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7050817B2 (ja) * 2017-12-25 2022-04-08 富士フイルム株式会社 画像処理装置、プロセッサ装置、内視鏡システム、画像処理装置の動作方法及びプログラム
EP3841953B1 (en) * 2018-08-20 2024-02-07 FUJIFILM Corporation Medical image processing system
JP6632020B1 (ja) 2019-09-20 2020-01-15 株式会社Micotoテクノロジー 内視鏡画像処理システム
JP2021061911A (ja) 2019-10-10 2021-04-22 Hoya株式会社 学習モデルの生成方法、コンピュータプログラム、内視鏡支援システム、及び操作支援装置
WO2021075418A1 (ja) * 2019-10-18 2021-04-22 国立大学法人鳥取大学 画像処理方法、教師データ生成方法、学習済みモデル生成方法、発病予測方法、画像処理装置、画像処理プログラム、およびそのプログラムを記録した記録媒体
JP7346285B2 (ja) * 2019-12-24 2023-09-19 富士フイルム株式会社 医療画像処理装置、内視鏡システム、医療画像処理装置の作動方法及びプログラム
WO2021199910A1 (ja) * 2020-04-02 2021-10-07 富士フイルム株式会社 医用画像処理システム、医用画像処理システムの作動方法

Also Published As

Publication number Publication date
US20240065526A1 (en) 2024-02-29
CN117637120A (zh) 2024-03-01
EP4327718A1 (en) 2024-02-28

Similar Documents

Publication Publication Date Title
JP6710284B2 (ja) 挿入システム
JP6774552B2 (ja) プロセッサ装置、内視鏡システム及びプロセッサ装置の作動方法
EP3366191B1 (en) Endoscope system
JP6688243B2 (ja) 内視鏡システム及びその作動方法
EP4091532A1 (en) Medical image processing device, endoscope system, diagnosis assistance method, and program
JP7245360B2 (ja) 学習モデルの生成方法、プログラム、手技支援システム、情報処理装置、情報処理方法及び内視鏡用プロセッサ
JP2018139848A (ja) 内視鏡システム及びその作動方法
JP7423740B2 (ja) 内視鏡システム、管腔構造算出装置、管腔構造算出装置の作動方法及び管腔構造情報作成プログラム
CN106999045A (zh) 器官图像拍摄装置以及程序
EP4327718A1 (en) Image processing device, method for operating the same, and endoscope system
CN115279247A (zh) 处理系统、图像处理方法以及学习方法
WO2022009285A1 (ja) 処理装置、処理プログラム、処理方法及び処理システム
JP6266927B2 (ja) 内視鏡システム
US20240065527A1 (en) Medical support device, endoscope, medical support method, and program
JP7264407B2 (ja) 訓練用の大腸内視鏡観察支援装置、作動方法、及びプログラム
JP7495063B2 (ja) 内視鏡システム及びその作動方法
JP2022179220A (ja) 内視鏡システム及びその作動方法
US20240000336A1 (en) Insertion support system, endoscope system, and insertion support method
US20240324869A1 (en) Automatic steering of an introducer with a video laryngoscope
WO2021176665A1 (ja) 手術支援システム、手術支援方法、及び、プログラム
WO2024190778A1 (ja) 情報処理装置およびプログラム
WO2024042895A1 (ja) 画像処理装置、内視鏡、画像処理方法、及びプログラム
JP6620139B2 (ja) 内視鏡システムおよび内視鏡システムの作動方法
JP2022179218A (ja) 内視鏡システム及びその作動方法
JP6218315B2 (ja) 内視鏡システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240718