JP7388648B2 - 内視鏡診断支援方法及び内視鏡診断支援システム - Google Patents

内視鏡診断支援方法及び内視鏡診断支援システム Download PDF

Info

Publication number
JP7388648B2
JP7388648B2 JP2022568297A JP2022568297A JP7388648B2 JP 7388648 B2 JP7388648 B2 JP 7388648B2 JP 2022568297 A JP2022568297 A JP 2022568297A JP 2022568297 A JP2022568297 A JP 2022568297A JP 7388648 B2 JP7388648 B2 JP 7388648B2
Authority
JP
Japan
Prior art keywords
lesion
endoscopic
image
data
observation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022568297A
Other languages
English (en)
Other versions
JPWO2022124315A5 (ja
JPWO2022124315A1 (ja
Inventor
博和 野里
祐太 河内
英徳 坂無
正宏 村川
篤史 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
University of Tsukuba NUC
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
University of Tsukuba NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST, University of Tsukuba NUC filed Critical National Institute of Advanced Industrial Science and Technology AIST
Publication of JPWO2022124315A1 publication Critical patent/JPWO2022124315A1/ja
Publication of JPWO2022124315A5 publication Critical patent/JPWO2022124315A5/ja
Application granted granted Critical
Publication of JP7388648B2 publication Critical patent/JP7388648B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/031Recognition of patterns in medical or anatomical images of internal organs
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H15/00ICT specially adapted for medical reports, e.g. generation or transmission thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Epidemiology (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Primary Health Care (AREA)
  • Surgery (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Optics & Photonics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Endoscopes (AREA)
  • Image Analysis (AREA)

Description

本発明は、膀胱等の空洞を有する臓器を対象とした内視鏡診断支援方法及び内視鏡診断支援システムに関するものである。
例えば、膀胱がんは、TUBRT手術後の2年後再発率は50%と言われている。これは小さな病変や隆起性病変の周囲に付随する平坦病変が取り切れていないためである。検査時に、観察すべき膀胱を観察できていない「見落とし」と、観察しているが病変と認識できていない「見逃し」が起きていることが大きな原因となっている。そして検査の精度は、検査者の技量や経験に依存しているのが実情である。再発率を減少させるためには、膀胱鏡検査における病変の検出精度を高めることが重要で、デジタル化技術によるサポートにより技量や経験を補い、診断精度を向上させることが必要になっている。
そこで従来、内視鏡検査の状況を記録する技術としては、特許第5771757号公報(特許文献1)に開示される臓器のモデル画像上に内視鏡先端部に取り付けられたセンサで取得した位置と方向の情報に基づいて内視鏡画像を張り付けて記録するシステムや、特許第6704095号公報(特許文献2)に開示される内視鏡画像から導出した距離情報や体内部位の画像に基づき3次元テクスチャマッピングにより生成されたマップデータと過去のマップデータとの劣化量から対象部位の将来状態を推定するプログラムや、特表2017-534322号公報(特許文献3)に開示される内視鏡画像をつなぎ合わせて対象臓器の内腔のパノラママップを生成する方法が知られている。画像診断を人工知能により支援する技術としては、特開2019-180966号公報(特許文献4)に開示される内視鏡画像に基づいて所定の病変を検出・追尾する内視鏡観察支援装置や、特開2020-73081号公報(特許文献5)に開示される、消化器内視鏡画像内に存在する病変の名称と位置及び確度の情報を複数の消化器腫瘍内視鏡画像内においてあらかじめ判定された病変を教師データとして学習した畳み込みニューラルネットワークによって推定し、その推定結果を内視鏡画像上に表示させる画像診断支援装置が知られている。さらに非特許文献1には、移動体のカメラやセンサの情報から地図を作成し、自身がその地図のどこにいるかを推定するために用いる自己位置推定技術が開示されている。
特許第5771757号公報 特許第6704095号公報 特表2017-534322号公報 特開2019-180966号公報 特開2020-73081号公報
Sumikura, S., Shibuya, M., & Sakurada, K.: OpenVSLAM: A Versatile Visual SLAM Framework. Proceedings of the 27th ACM International Conference on Multimedia: 2292-2295, 2019.
従来の内視鏡検査では、術者である医師が内視鏡を操作しながら、対象臓器内を直接的な観察による診断により病変の判断を行い、疑わしい箇所の内視鏡画像を撮影して、検査レポートとして記録している。この検査レポートを元に手術や治療などが行われるのだが、対象臓器内をくまなく観察し、撮影した画像がどこで撮影されたのかが正しく記録されていることが前提となっている。しかし、現状の内視鏡システムでは、対象臓器の観察すべき部位のすべてを観察できているかどうか、撮影した画像はどこで撮影したのかは、医師の検査時の記憶やメモなどを頼りにレポートに記録されており、医師の技量や経験に依存してその精度はばらついている。また人工知能は、一般的に学習データの質と量に依存して、その診断精度が向上するが、質の良い医用画像の学習データを収集するコストは膨大である。医用画像の質とは、画質が良い事と共に、医師による正確なアノテーション情報がセットになっていることである。そのため、膨大な画像収集と共に、画像1枚1枚に正確なアノテーション情報を付加することが必要不可欠となる。しかし、医用画像には、日本国内において健康診断などの対象になっている消化器内視鏡やレントゲンなど比較的検査数の多い検査のほか、例えば、膀胱内視鏡検査のように、検査数患者数共に消化器内視鏡検査と比較して桁違いに少なく、画像を収集することが困難な検査がある。そのため、たとえ、学習用に大量の医用画像とアノテーション情報を揃えることで、画像内の病変の有無を高精度で判別可能な診断支援人工知能ができたとしても、膀胱内視鏡などの学習データの収集が難しい臓器の検査にはこの人工知能技術を適用することはできない。また、適用できたとしても、取得した画像が臓器内のどこで撮影されたか、臓器内すべてを撮影したのかを正しく記録に残すことができなければ、患者のすべての病変を検査において明らかにし、その検査結果を手術時の情報として正しく伝達することができない。実際の内視鏡検査において高精度の人工知能による診断支援を実現するためには、観察したことを正しく記録すると共に、人工知能の学習に必要な十分な量の学習データが集まらない場合でも高精度の人工知能を実現することの2つを解決しなければならない。
本発明の目的は、検査をした領域と検査をしていない領域を明確に判断することができる内視鏡診断支援方法及びシステムを提供することにある。
本発明の他の目的は、上記目的に加えて、学習データが少なくても、学習データを新たに増やすことなく診断精度を高めることができる内視鏡診断支援方法及びシステムを提供することにある。
本発明は、被験者の臓器内の空洞の内部に、内視鏡の先端部に設けた撮像装置を挿入し、撮像装置によって撮像された内視鏡画像を含む複数のフレームに基づいて、臓器の病変の有無をコンピュータを用いて診断する際の支援を行う内視鏡診断支援方法を対象とする。本発明においては、コンピュータが、インストールされたコンピュータ・プログラムによって以下の第1のステップ乃至第6のステップを実行する。
第1のステップでは、臓器の空洞の内視鏡画像のための観察キャンパスについての観察キャンパスデータを準備する。観察キャンパスとしては、臓器の空洞の1以上の開口部及び頂部(解剖学的構造)の位置を一般的に特定し中央部に一つの開口部を配置した模擬展開観察キャンパスを用いることができる。観察キャンパスデータは、観察キャンパスを電子データ化したものである。
第2のステップでは、フレーム中に臓器の空洞内の位置を特定可能な1以上の解剖学的構造が含まれているキーフレームを決定し且つ観察キャンパスデータに対してキーフレームのキーフレーム位置データをマーキングする。ここでキーフレームとは、空洞内の相対的な位置を決定する場合の基準点となる1以上の組織(膀胱であれば、二つの尿管口、尿道口、または気泡が溜まる頂部)である。キーフレーム位置データは、観察キャンパス上で基準点となる1以上の組織の位置に関するデータである。具体的には、観察キャンパスが模擬展開観察キャンパスであれば、この模擬展開観察キャンパス上に位置座標で定まる1以上の組織の位置に関するデータである。キーフレームのキーフレーム位置データのマーキングとは、位置の情報とフレーム番号を観察キャンパスデータと紐付けして記憶することを意味する。
第3のステップでは、キーフレームを最初の前フレームとして、複数のフレーム中の前フレームと後フレーム上にそれぞれ存在する3つ以上のキーポイントを決定してキーポイントの内視鏡画像中の座標を算出する。ここでキーポイントの内視鏡画像中の座標の算出は、非特許文献1に開示されているような公知の自己位置推定技術内で用いられている画像特徴点を用いて行う。
第4のステップでは、3つ以上のキーポイントの内視鏡画像中の座標に基づいて、前フレームと後フレームとの間の変位量を算出する。ここで変位量には、前フレーム中の3つ以上のキーポイントが移動する方向と角度、前フレームと後フレーム中の3つ以上のキーポイント間の距離が含まれる。
第5のステップでは、少なくとも変位量並びに第2のステップで最初にマーキングされた最初のキーフレーム位置データと第2のステップで後にマーキングされた次のキーフレーム位置データに基づいて、観察キャンパスデータに対して複数の後フレームの確定した位置データをマーキングする。このステップでは、複数の後フレームの位置データを次のキーフレーム位置データが定まるまで複数の後フレームの暫定の位置データを用い、次のキーフレーム位置データが定まると最初のキーフレーム位置データと次のキーフレーム位置データとの間に複数の後フレームの暫定の位置データが収まるように、後フレームの確定した位置データのマーキングを行う。ここで確定した位置データとは、観察キャンパスの中心を原点とする絶対的な位置情報とフレーム番号である。これは最初のキーフレーム位置データと次のキーフレーム位置データとが定まることにより、二つのキーフレーム位置間にある複数の後フレームの相対的な間隔が定まることになるからである。後フレームの暫定の位置データには、最初のキーフレーム位置データに対する相対的な位置情報とフレーム番号が含まれている。例えば、相対的な位置情報は、模擬展開観察キャンパス上に想定した同寸法及び同形状の複数のセグメントを整列して形成したマトリックスにおけるキーフレームとなる1つの解剖学的構造が位置するセグメントの座標位置を基準点として定めた座標位置データとその種類を示す記号を付したものとすることができる。このようなマトリックスを用いると、相対的な位置情報を展開図上に連続的に図示することが容易であるため、観察画像をつなぎ合わせたり、3次元上にマッピングしたりするなどの複雑な処理を行うことなく、臓器中のどこを観察したのかどうかを記録することが容易にできるという利点が得られる。そして対象臓器内の内壁の観察キャンパスデータに対して確定した位置データのマーキングを施せば、検査をした領域と検査をしていない領域を明確に判断することができるので、対象臓器内をくまなく観察することが可能となり、しかも撮影した画像がどこで撮影されたのかを正しく記録することができる。
第6のステップでは、複数のフレームについて、第2のステップ乃至第5のステップの実施と並行しながらまたは第2のステップ乃至前記第5のステップを実施した後に、観察キャンパスデータに対してマーキングされた複数の位置データと複数のフレーム中の内視鏡画像に基づいて、臓器内の病変の有無を画像診断する際の支援をする。
例えば、第6のステップは、以下の学習済み画像診断モデルの少なくとも1つを用いて実現できる。具体的には、第6のステップでは、内視鏡画像データベースに記録されているデータを学習データとして学習がなされた学習済み画像診断モデルを用いて実行できる。内視鏡画像データベースが、アノテーション情報付きの画像データを含む内視鏡画像データベースであれば、内視鏡画像データベースに、アノテーション情報をアノテーション拡張モデルを用いて拡張した拡張アノテーション情報を含めると、学習データが少なくても、学習データを新たに増やすことなく診断精度を高めることができる。
アノテーション拡張モデルとしては、エンコーダとデコーダで構成されるオートエンコーダベースのアノテーション拡張モデルを用いるのが好ましい。アノテーション拡張モデルは、画像診断モデルを特徴抽出器として用いて内視鏡画像データベースに記録されている病変内視鏡画像を入力として画像診断モデルの中間層から抽出した特徴量と、病変内視鏡画像に対応するアノテーション情報のセットをエンコーダに入力し、エンコーダから出力される潜在変数と特徴量をデコーダで逆演算することにより拡張アノテーション情報を推定するように学習したものである。このようなアノテーション拡張モデルを用いれば、新たにアノテーション情報を増やすことなく、学習データが少なくても元の内視鏡画像データベース内の内視鏡画像から有用な拡張アノテーション情報を新たに得ることができる。
アノテーション拡張モデルを作成する際には、エンコーダに入力するアノテーション情報と拡張アノテーション情報の交差エントロピーが小さくなるように学習するのが好ましい。このようにすると元の内視鏡画像データベースのアノテーション情報をなるべく再現するような曖昧なアノテーション基準を学習することができ、生成される拡張アノテーション情報にも病変と正常の境界の曖昧さを再現することができるという利点が得られる。
アノテーション拡張モデルは、拡張アノテーション情報をランダムに拡張するのが好ましい。ランダムに拡張するとは、得られた拡張アノテーション情報をすべて採用するのではなく、得られた拡張アノテーション情報からランダムに選択した拡張アノテーション情報を採用いることを意味する。このようにすると必要以上に拡張アノテーション情報を増やすことなくしかも偏りのない拡張アノテーション情報を得ることができる。
内視鏡画像データベースは、内視鏡画像データベースに記録されている病変内視鏡画像のデータをデータ拡張技術を用いて拡張して得た拡張データと拡張アノテーション情報の拡張データセットをさらに含んでいる。拡張データセットを内視鏡画像データベースに含めれば、学習データを新たに増やすことなく少ないデータで学習精度をさらに高めることができる。
第6のステップでは、内視鏡画像データベースに記録されているデータを学習データとして学習がなされた学習済み画像診断モデルを用いて、内視鏡画像内の病変の可能性が高い領域を検出し、病変の可能性が高い領域が病変かどうかの診断をすることにより診断を支援するようにしてもよい。内視鏡画像中には正常であると思われる部分と病変ではないかと思われる部分の両方が含まれる。そこで病変の可能性が高い領域を評価する対象として、正常か病変かの診断をすれば、全体を評価するより診断精度を高めることができる。
この場合に用いる学習済み画像診断モデルは、内視鏡画像からすべての画素における画像特徴量を抽出し、且つ内視鏡画像から病変の高い領域を特定し、病変の可能性が高い領域にある複数の画素の画像特徴量を用いて病変の可能性が高い領域の病変特徴量を求め、病変特徴量から病変の可能性が高い領域を正常と病変に分類するように構成されているものを用いるのが好ましい。学習済み病変領域検出画像診断モデルと、病変確度マップを二値化処理して病変候補マスクを作成する二値化処理部と、画像特徴量と病変候補マスクに基づいて病変の可能性が高い領域に限定して領域限定特徴量を求める領域限定特徴量演算部と、領域限定特徴量を平均化して病変の可能性が高い領域の病変候補特徴量を演算する病変候補特徴量演算部と、病変候補特徴量に基づいて病変の可能性が高い領域を正常と病変に分類する病変分類画像診断モデルとを備えて構成されているのが好ましい。このような学習済み画像診断モデルを用いると、病変の可能性の高い領域の判定精度を高めることができる。なおこの場合の画像特徴量は、病変領域検出画像診断モデルの中間層から得たものであるのが好ましい。
また観察キャンパスを模した図上に、複数の観察済み領域を表示する観察位置表示と、観察キャンパスを模した図上に、病変が存在する観察済みの領域を表示する病変位置表示と、病変が存在する観察済みの領域の病変の悪性度及び種類を表示する診断結果表示と、被験者のカルテ情報の表示の少なくとも一つを表示装置の表示画面に表示するようにしてもよい。このようにすると観察結果と診断結果を表示画面で確認することができる。
なお本発明は、内視鏡診断支援システムのカテゴリとしても把握することができる。
本発明の内視鏡診断支援方法を、コンピュータを用いて実施する場合の概略を示すフローチャートを表す図である。 観察記録ステップのアルゴリズムを示すフローチャートを表す図である。 膀胱を観察対象とする場合の観察キャンパスの一例を表す図である。 マトリックス状の観察キャンパスデータを表す図である。 観察キャンパスデータ上に最初のキーフレーム位置データの暫定的なマーキングを表す図である。 (A)乃至(D)は、キーフレームとなる膀胱内の解剖学的構造が映る内視鏡画像を表す図である。 (A)及び(B)は、前フレームと後フレームから算出されたキーポイントの例をそれぞれ表す図である。 (A)乃至(C)は、複数の後フレームの位置データの暫定的なマーキングの例を説明するために用いる図である。 (A)乃至(C)は、次のキーフレーム位置データが定まった際のこの間の複数の後フレームの相対的な間隔が定まったことを説明するために用いるである。 観察キャンパスデータの一例を表す図である。 観察キャンパスデータと対応する観察キャンパスのマーキング状態を表す図である。 画像診断支援システムの基本構成を表す図である。 アノテーション拡張による画像診断支援システムの構成を表す図である。 アノテーション情報拡張モデルの学習のフローチャートを表す図である。 (A)及び(B)は、膀胱内視鏡画像と対応するアノテーション情報及び拡張したアノテーション情報を表す図である。 アノテーション拡張の適用前と適用後の診断精度を比較した図である 病変領域を限定した画像診断モデルで病変分類画像診断モデルを作成する場合のフローチャートを表す図である。 (A)及び(B)は、病変領域限定の画像診断モデルで病変分類画像診断モデルを用いる前と用いた後の病変分類の結果を表す図である。 観察結果と診断結果を表示した表示画面の一例を表す図である。 観察結果と診断結果を表示した表示画面の他の例を表す図である。 出力レポートの一例を示す図である。
以下図面を参照して、本発明の内視鏡診断支援方法及び内視鏡診断支援システムの実施の形態について説明する。本発明の内視鏡診断支援方法及びシステムは、被験者の臓器内の空洞の内部に、内視鏡の先端部に設けた撮像装置を挿入し、撮像装置によって撮像された内視鏡画像を含む複数のフレームに基づいて、臓器の病変の有無をコンピュータを用いて診断する際の支援を行う。図1は、本発明の内視鏡診断支援方法をコンピュータを用いて実現する場合に実施される複数のステップの概略を示すフローチャートである。図1に示すように、既存の内視鏡システムESから得られた内視鏡画像EIは、観察記録ステップORSと画像診断支援ステップIDSで処理される。観察記録ステップORSでは、内視鏡画像EIから観察記録を得て観察記録情報ORIとしてコンピュータの記憶手段に記憶する。また画像診断支援ステップIDSでは、内視鏡画像EIから臓器の病変の有無を診断する際の支援情報を画像診断結果IDRとしてコンピュータの記憶手段に記憶する。コンピュータによって実現される診断支援情報表示ステップ部SIDでは、観察記録情報ORIと画像診断結果IDRの少なくとも一方を含む診断レポートを表示装置の画面またはカルテ等に出力する。出力の形態は任意である。例えば、画面上に画像診断結果IDRを表示する動画で出力するようにしてもよい。
[観察記録ステップ]
図2は、本発明の内視鏡診断支援方法の実施の形態中の観察記録ステップORSにおける具体的な処理フローを示している。本実施の形態における、内視鏡診断支援方法における観察記録ステップORSでは、観察キャンパスの準備ステップ(第1のステップ)S1を事前に実施した上で、フレームマーキングステップ(第2のステップ)S2、キーポイント算出ステップ(第3のステップ)S3、前後フレーム変位量算出ステップ(第4のステップ)S4、前後フレームマーキングステップ(第5のステップ)S5を実施することにより、観察記録を行う。本発明の内視鏡診断支援システムの実施の形態では、これらのステップを実施するためのコンピュータ・プログラムをコンピュータにインストールして、コンピュータの内部に各ステップを実施するための複数の手段を実現する。また内視鏡診断支援システム用コンピュータ・プログラムは、これらのステップを実施するアルゴリズムを含んで構成される。
観察キャンパスの準備ステップS1(第1のステップ)では、臓器の空洞の内視鏡画像のための観察キャンパスについての観察キャンパスデータを電子データとしてコンピュータのメモリ内に準備する。観察キャンパスデータは、観察キャンパスを電子データ化したものである。観察キャンパスとしては、臓器の空洞の複数の開口部及び頂部の位置を一般的に特定し中央部に一つの開口部を配置した模擬展開観察キャンパスSOCを用いることができる。
図3は、観察対象の臓器として膀胱を用いる場合の模擬展開観察キャンパスの一例を示している。膀胱内視鏡で観察する膀胱内壁に対応した仮想的な膀胱として、膀胱を球と仮定し、膀胱の前壁側(腹)と後壁側(背)の2つの半球をそれぞれ円として準備する。この観察キャンパスには、開口部としての左右の尿管口(例えば、上円の下から3/8且つ左右1/4の位置)、その間の尿管間靭帯、開口部としての尿道口(2つの円のつなぎ目の中心)、頂部(上円の最上部、下円の最下部)が描かれている。
図4は、図3の模擬展開観察キャンパスSOCを観察キャンパスデータとする場合の概念図である。図4の例では、模擬展開観察キャンパス上に想定した同寸法及び同形状の複数のセグメント(本例では正方形のセグメント)を整列して形成したマトリックスMXに位置データの存在と種類を示す記号を付したものを観察キャンパスデータとする。なお2つの半球を横に並べた模擬展開観察キャンパスを用いることもできる。さらに半球ではなく楕円を並べて模擬展開観察キャンパスとすることも可能である。図5に示すように、観察キャンパスデータのマトリックスMXのすべてのセグメントsgの領域には、初期値として未観察または位置データがないことを示すフラグ(0)が設定されている。なお各セグメントsgには、模擬展開観察キャンパスSOC中における尿道口を原点とする2次元配列の位置情報(座標)が個々に付されている。図5の例では、左尿管口を観察したが未確定であることを示すフラグ(1)が対応するセグメントに付されている。
フレームマーキングステップ(第2のステップ)S2では、フレーム中に臓器の空洞内の位置を特定可能な1以上の解剖学的構造が含まれているキーフレームを決定し且つ観察キャンパスデータに対してキーフレームのキーフレーム位置データをマーキングする。ここでキーフレームとは、空洞内の相対的な位置を決定する場合の基準点となる1以上の解剖学的構造(膀胱であれば、二つの尿管口、尿道口、気泡が溜まる頂部)が写ったフレームである。ここで位置データとは、観察キャンパスデータにおける原点に対しての絶対的な位置情報又は基準点に対しての相対的な位置情報とフレーム番号のことである。
図6(A)乃至(D)は、左右の尿管口、尿道口、気泡が溜まる頂部を映したフレーム中の内視鏡画像の実例を示している。キーフレーム位置データは、観察キャンパス上で基準点となる1以上の解剖学的構造の位置に関するデータである。具体的には、観察キャンパスが模擬展開観察キャンパスであれば、この模擬展開観察キャンパス上に位置座標で定まる1以上の解剖学的構造の位置に関するデータである。キーフレームのキーフレーム位置データのマーキングとは、位置情報(セグメントsgの座標)と画像のフレーム番号を観察キャンパスデータと紐付けして記憶することを意味する。
例えば、図6に示した膀胱内視鏡で撮影されるフレームの画像に左右どちらかの尿管口が映っているフレームをスタートキーフレームとして決定し、観察キャンパス上の該当する領域をスタートキーフレーム位置[図5のフラグ(1)が付されたセグメントsgの座標]としてマーキングする。ここでマーキングとは、図5に示すように、観察キャンパス上の該当領域(セグメント)のフラグを観察済み候補であることを示すフラグ(1)にするとともに、その位置情報をフレーム画像と紐づけることである。図5の例では、マーキングする領域の初期値[フラグ(1)]は、膀胱内視鏡観察時に必ず視野に入るサイズを目安として観察キャンパスの円の1/10の大きさの円の中に入るセグメントに与えられている。
キーポイント算出ステップ(第3のステップ)S3では、スタートキーフレームを最初の前フレームとして、複数のフレーム中の前フレームと後フレーム上にそれぞれ存在する3つ以上のキーポイントを決定してキーポイントの内視鏡画像中の座標を算出する。ここでキーポイントとは、連続する前後フレームに映っている臓器内壁上の同じ場所を示す画素のことである。キーポイントの内視鏡画像中の座標の算出は、自動運転やロボットビジョンで応用されているVisual SLAM(Simultaneous Localization and Mapping:地図構築・自己位置推定)に開示されているような公知の自己位置推定技術で用いられる画像特徴点を用いて行うことが可能である。フレーム内に映る多数の特徴的な部分を特徴点として認識し、その特徴点を共通の部分としてキーポイントの内視鏡画像中の座標を算出する。
前後フレーム変位量算出ステップ(第4のステップ)S4では、3つ以上のキーポイントの内視鏡画像中の座標に基づいて、前フレームの3つ以上のキーポイントと後フレームの3つ以上のキーポイントとの間の変位量を算出する。ここで変位量には、前フレーム中の3つ以上のキーポイントが移動する方向と角度、前フレームと後フレーム中の3つ以上のキーポイント間の距離が含まれる。この変位量に従って、観察キャンパス上にマーキングされた前フレームの位置情報から算出した後フレームの相対的な位置情報を算出し、その位置情報とフレーム画像を紐づけ、後フレームを前フレームに連続する次の後フレームとしてマーキングする。次のキーフレームが検出されるまで、上記処理を繰り返しながら、観察キャンパスに観察済み候補フラグ(1)をマーキングしていく。
図7(A)及び(B)は、膀胱の内壁上について撮像した前フレームと後フレームの内視鏡画像を示している。この例では、前フレーム中の3点A,B,Cが後フレームの3点A´,B´,C´に対応する。ここで3点A,B,Cの座標をA(xA,yA),B(xB,yB),C(xC,yC)とし、3点A´,B´,C´の座標をA´(xA´,yA´),B´(xB´,yB´),C´(xC´,yC´)としたときに、前後フレームの移動距離と方向は、下記の重心Gの式(1)により求めた前フレーム中の3点A,B,Cの重心Gと後フレーム中の3点A´,B´,C´の重心G´の差分(G´-G)のベクトルとして求めることができる。
また前フレームから後フレームへのサイズの変位は、下記式(2)に示すように、3点から重心までの距離の平均の差で算出することができる。
さらに回転は、下記式(3)に示すように、3点から重心までのベクトル同士のなす角の平均から算出できる。
前後フレームマーキングステップ(第5のステップ)S5では、少なくとも変位量並びに第2のステップで最初にマーキングされた最初のキーフレーム位置データと第2のステップで後にマーキングされた次のキーフレーム位置データに基づいて、観察キャンパスデータに対して複数の後フレームの確定した位置データをマーキングする。図8(A)乃至(C)に示すように、このステップでは、複数の後フレームの暫定の位置データを次のキーフレーム位置データが定まるまで複数の後フレームの暫定の位置データとしてマーキングする。図8(B)及び(C)では、各フレームの相対的な位置を示す各セグメントのフラグが観察済み候補(1)のままである。図8の具体的な例では、観察キャンパス上で、キーフレームではない後フレームをマーキングした領域が、いずれかのキーフレーム領域に重なった場合、まだキーフレームに到達していないと判断して、それまでマーキングしてきたスタートキーフレームからの相対的な情報を、マーキング領域サイズ及び移動距離が1/2となるように、観察キャンパス上の観察候補フラグ(1)が付されたフレームの相対的位置を修正する。また移動距離の計算式の係数と領域サイズを1/2にし、その後もマーキングステップを継続できるように観察キャンパスのスペースを空けるようにしている。ここで「1/2」の係数は、マトリックス上から観察済み候補としての複数の後フレームが出ないようにするために定める便宜的なものであり、この値に限定されるものではない。
そして図9(A)乃至(C)に示すように、次のキーフレーム位置データ(頂部の位置データ)が定まると、最初のキーフレーム位置データ(左尿管口の位置データ)と次のキーフレーム位置データとの間に複数の暫定の(観察済み候補としての)後フレームの位置データが収まるように、複数の暫定の後フレームの相対位置を調整して後フレームの位置データのマーキングを確定する。このように最初のキーフレーム位置データと次のキーフレーム位置データとが定まることにより、二つのキーフレーム位置間にある複数の後フレームの相対的な位置が確定して、絶対的な位置が確定することになる。図9(B)及び(C)に示すように、相対的な位置を定めるために、最初のキーフレームから次のキーフレームまでの連続する複数のフレームのマーキング情報を、観察キャンパスのキーフレーム間に配置されるように補正し、観察キャンパスの絶対的な位置に対応するセグメントのフラグを観察済み候補(1)から観察済み(2)とする。本実施の形態では、観察が確定した各フレームの位置データには、観察した位置の複数のセグメントsgの絶対的な位置情報(座標)とフレーム番号が含まれている。本実施の形態では、絶対的な位置情報は、模擬展開観察キャンパス上に想定した同寸法及び同形状の複数のセグメントsgを整列して形成したマトリックスMXにおいて、尿道口を原点とする配列の行と列で定まる座標で表している。
臓器の内壁に対して、内視鏡の位置を変えながら上記第2のステップ~第5のステップを繰り返すと、図10(A)に示すように、観察キャンパスデータの複数のセグメント中のフラグが、マーキングがないことを示すフラグ(0)とマーキングがあることを示すフラグ(2)のいずれかになる。その結果、図10(B)に示すようにフラグ(0)の複数のセグメントの領域を黒とし、フラグ(2)の複数のセグメントの領域をグレー色にして観察キャンパスの領域を色分けして表示すると、内視鏡により観察していない領域(グレー色の領域)の有無と場所を明確に示すことができる。
また後に説明する画像診断支援ステップ(第6のステップ)で、病変が含まれているフレームである可能性があることが診断されたフレームについては、前後フレームマーキングステップ(第5のステップ)S5で各フレームに対応するセグメントの絶対的な位置情報とフレーム番号を利用して、病変が含まれているフレームの撮影位置を特定することができる。これによって後の精密検査や手術を実施する場合に、病変の適格な位置を伝えることが可能になる。
[画像診断支援ステップ(第6のステップ)]
図1の画像診断支援ステップIDS(第6のステップ)は、複数のフレームについて、第2のステップ乃至第5のステップの実施と並行して実施されて、観察キャンパスデータに対してマーキングされた複数の位置データと複数のフレーム中の内視鏡画像に基づいて、臓器の病変の有無を画像診断する際の支援をする。しかしながら第2のステップ乃至前記第5のステップを実施した後に、観察キャンパスデータに対してマーキングされた複数の位置データと複数のフレーム中の内視鏡画像に基づいて、臓器の病変の有無を画像診断する際の支援をするようにしてもよい。
図1の画像診断支援ステップIDS(第6のステップ)では、以下のように学習済み画像診断モデルを用いて画像診断支援を実施する。学習済み画像診断モデルは、コンピュータ内に実現されて、データベースと共にいわゆる人工知能を構成する。
[学習済み画像診断モデルを用いる画像診断支援システム]
図11に示すように、画像診断支援ステップIDS(第6のステップ)は、内視鏡画像データベースDBに記録されているデータを学習データとして画像診断モデルDMが学習をして生成された学習済み画像診断モデルTDMを用いた人工知能を有する画像診断支援システムにより実現できる。図11の例では、内視鏡画像データベースDBには、正常の正常内視鏡画像データ及び病変を含む病変内視鏡画像データと、これらの画像内に病変があるかどうかを医師が示した情報を示すアノテーション情報データが記録されている。そしてこれらのデータを用いて画像診断モデルDMを学習して得た学習済み画像診断モデルTDMを用いて、内視鏡画像EIを観察するために、第6のステップ(支援システム)が実現される。一般的に画像診断モデルとしては、GoogleNet、Inceptionモデル、U-Net、ResNet、YOLO、SSDなどの画像分類や物体検出に用いられる深層学習モデルを用いることもできる。人工知能は、学習データの質と量に依存して、その診断精度が向上する。質の良い医用画像の学習データを収集するためには、画質が良いことは勿論であるが、医師による正確なアノテーション情報がセットになっていることが好ましい。そのため、この例では、正常および病変の内視鏡画像とアノテーション情報が内視鏡画像データベースに記録されていている。
[アノテーション拡張による画像診断支援]
膀胱内視鏡検査のように、検査数患者数共に消化器内視鏡検査と比較して桁違いに少なく、診断支援の対象とする検査画像を学習用データとして収集することが困難な検査が多くある。そのため学習用に大量の医用画像とアノテーション情報を揃えることで、画像内の病変の有無を高精度で判別可能な診断支援人工知能ができたとしても、膀胱内視鏡などの学習データの収集が難しい臓器や症例の検査にはその診断支援人工知能をそのまま適用することはできない。実際の検査における高精度の人工知能による画像診断支援を実現するためには、この問題を解決しなければならない。
図12は、この問題を解決するために、アノテーション拡張モデルAEMを用いる画像診断支援ステップIDS(第6のステップ)を実施する画像診断支援システムの構成を示している。このシステムでは、内視鏡画像データベースDB内にアノテーション拡張モデルAEMを設けて拡張アノテーション情報を作成している。図13は、アノテーション拡張モデルAEMを学習する具体的なフローを示している。図13に示すアノテーション拡張モデルAEMは、エンコーダEとデコーダDで構成されるオートエンコーダベースのアノテーション拡張モデルである。オートエンコーダは、入力情報の次元を一度エンコーダEで圧縮した潜在変数を用いてデコーダDで復元しても、入力情報と出力情報が同じ情報に戻るようにパラメータを学習するものである。このアノテーション拡張モデルは、画像診断モデルDMを特徴抽出器FEとして用いて内視鏡画像データベースに記録されている病変内視鏡画像LEIを入力として画像診断モデルDMの中間層から各ピクセル(画素)に対応した特徴量(H,W,M)を求め、病変内視鏡画像LEIに対応するアノテーション情報(H,W,C)とセットでエンコーダEに入力して、エンコーダEから出力される潜在変数(1,1,L)と特徴抽出器FEから得た特徴量(H,W,M)をデコーダDで逆演算することにより新たなアノテーション情報として拡張アノテーション情報(H,W,C´)を生成するように構成したものである。ここで潜在変数は、変数間の関係の解釈に影響する変数であり、例えば、内視鏡画像データベース内の内視鏡画像に対してのアノテーション操作の癖等に影響する変数である。また特徴量Hは「Feature Map Height」であり、これは畳み込みニューラルネットワークの特徴マップにおける画素配列の高さ方向の特徴量である。Wは「Feature Map Width」であり、これは畳み込みニューラルネットワークの特徴マップにおける画素配列の幅方向の特徴量である。Mは「Feature Map Depth」であり、これは畳み込みニューラルネットワークの特徴マップにおける画素の深さ方向の特徴量である。Cは「Number of Classes」であり、これはアノテーション情報における各ピクセルに割り当てられるクラス数である。Lは「Latent Vector Length」であり、これは潜在変数の潜在ベクトル長である。なおアノテーション拡張モデルAEMを作成する際には、エンコーダEに入力するアノテーション情報とデコーダDから出力される拡張アノテーション情報の交差エントロピーが小さくなるように学習するのが好ましい。すなわち本実施の形態では、アノテーション情報(H,W,C)の確率分布と拡張アノテーション情報(H,W,C´)の確率分布の間の交差エントロピーが小さくなるようにアノテーション拡張モデルAEMを学習する。
このようなアノテーション拡張モデルAEMを用いれば、新たにアノテーション情報を増やすことなく、学習データが少なくても元の内視鏡画像データベース内の内視鏡画像から有用な拡張アノテーション情報を医師に作業を強いることなく新たに得ることができる。アノテーション拡張モデルAEMとしては、GAN(敵対的生成ネットワーク)を使用することもできる。本実施の形態では、潜在変数に確率分布を用いるVAE(変分オートエンコーダ)ベースのアノテーション拡張モデルAEMを用いている。図14(A)及び(B)は、それぞれ対象となる内視鏡画像から、学習済みのアノテーション拡張モデルにより生成された複数の拡張アノテーション情報の例をそれぞれ示している。これらの図に見られるように、同じ内視鏡画像から医師の付けた元のアノテーション情報に近い、複数の拡張アノテーション情報を生成することが可能である。
アノテーション拡張モデルAEMは、拡張アノテーション情報をランダムに拡張するのが好ましい。拡張アノテーション情報は、学習したアノテーション拡張モデルにおいて潜在変数で定義される確率分布に従い生成される。ランダムに拡張するとは、拡張アノテーション情報を確率分布に従いすべて生成するのではなく、潜在変数をランダムに選択して拡張アノテーション情報を生成することを意味する。具体的には、図14(A)及び(B)の例で説明すれば生成可能な5枚の拡張アノテーション情報から例えば1枚の拡張アノテーション情報がランダムに生成されることを意味する。このようにすると必要以上に拡張アノテーション情報を増やすことなくしかも偏りのない拡張アノテーション情報を得ることができる。また既存のデータ拡張手法と合わせることで、N個のデータセットに対し、M倍の既存のデータ拡張とL倍のアノテーション拡張を実施すると、拡張データセットは、L×M×N個のデータセットに拡張される。
図15は、既存のデータ拡張を用いて拡張した拡張データを既存の学習データに追加した学習データを用いて拡張モデルを学習した場合と、既存のデータ拡張で得た拡張データとアノテーション拡張で得たデータを既存の学習データに追加したものを学習データとして拡張モデルを学習した場合の診断精度Fを示している。横軸は、学習データの割合で、baseline 1.0は内視鏡画像データベース内の学習データの100%に対し既存のデータ拡張で得た拡張データを学習に用いた場合であり、student 1.0は、内視鏡画像データベース内の学習データの100%に対し既存のデータ拡張で得た拡張データとアノテーション拡張で得た拡張データを学習に用いた場合である。図15からは、学習に用いたアノテーション拡張を用いた方場合の診断精度Fが上がることが分かる。また、元の学習データの量を10%に減らしてアノテーション拡張をした場合は、学習データの量100%でのデータ拡張のみの場合よりも精度が良く、アノテーション拡張手法が少ないデータでの学習精度を向上させていることがわかる。
本実施の形態によれば、学習用のデータを増やさずに、その限られた学習用データセットを有効活用して診断精度を向上させるため、学習用データセットで学習したアノテーション拡張モデルAEMを用い、学習用データセットの内視鏡画像に対し、医師を介さずにあらたにアノテーション情報を生成し、拡張アノテーション情報として、元のアノテーション情報と合わせて、拡張したデータセットとして使うことで少ないデータで画像診断モデルDMの学習精度をさらに高めることができる。
[領域限定病変判定による画像診断支援]
第6のステップを実施する画像診断支援システムでは、内視鏡画像データベースに記録されているデータを学習データとして学習がなされた学習済み画像診断モデルを用いて、内視鏡画像内の病変の可能性が高い領域を検出し、病変の可能性が高い領域が病変かどうかの診断をすることにより診断を支援するようにしてもよい。内視鏡画像中には正常であると思われる部分と病変ではないかと思われる部分の両方が含まれる。そこで病変の可能性が高い領域を評価する対象として、正常か病変かの診断をすれば、全体を評価するより診断精度を高めることができる。
図16は、第6のステップで領域限定病変分類による画像診断支援を行うための学習済み画像診断モデル(学習済み病変領域検出画像診断モデルと学習済み病変分類画像診断モデル)を作成するための具体的な例を示している。図16で用いる病変領域検出画像診断モデルLADMは、病変内視鏡画像LEI及び正常内視鏡画像NEIからすべての画素における画像特徴量(H,W,M)を抽出するための画像診断モデルである。この画像診断モデルでは、内視鏡画像LEI及びNEIから病変の高い領域を特定し、病変の可能性が高い領域にある複数の画素の画像特徴量を用いて病変の可能性が高い領域の特徴量(領域限定特徴量:H,W,M×0/1)を求める。次にこの領域限定特徴量:H,W,M×0/1)から病変候補特徴量(1,1,avg(M×1))を求める。この病変候補特徴量(1,1,avg(M×1))は、各ピクセル(画素)の特徴量Mが病変候補マスク(H,W,0/1)の1の部分の領域における平均値である。そして病変分類画像診断モデルLCDMを用いて、病変候補特徴量(1,1,avg(M×1))から病変の可能性が高い領域を正常と病変にクラス分類する。
より具体的には、病変領域検出画像診断モデルLADMと、二値化処理部BPと、領域限定特徴量演算部ALFCと、病変候補特徴量演算部LFCと、病変分類画像診断モデルLCDMとから画像診断支援を行うための学習済み画像診断モデルを作成するための画像診断モデルを構成する。
病変領域検出画像診断モデルLADMは、1枚の画像中のすべての画素の画像特徴量(H,W,M)と内視鏡画像から病変確度マップ(H,W,L)を作製する。なお病変領域検出画像診断モデルLADMには、深さが50層の畳み込みニューラルネットワークであるResnet50を用いることができる。二値化処理部BPは、病変確度マップ(H,W,L)を二値化処理して病変候補マスク(H,W,0/1)を作成する。また二値化処理部BPとしては、画像二値化手法である「大津の2値化手法」を用いることができる。領域限定特徴量演算部ALFCは、画像特徴量(H,W,M)と病変候補マスク(H,W,0/1)を掛け合わせて病変の可能性が高い領域に限定した領域限定特徴量(H,W,M×0/1)を求める。病変候補特徴量演算部LFCは、領域限定特徴量(H,W,M×0/1)の限定された領域(M×1)の部分を平均化して病変の可能性が高い領域の病変候補特徴量(1,1,avg(M×1))を演算する。そして病変分類画像診断モデルLCDMは、病変候補特徴量(1,1,avg(M×1))に基づいて病変の可能性が高い領域を正常と病変に分類する。病変分類画像診断モデルLCDMには、活性化関数であるソフトマックス関数(Softmax)を具備した多層パーセプトロン手法(MLP手法)を用いることができる。なおこの例では、各画素の画像特徴量(H,W,M)は、病変領域検出画像診断モデルLADMの中間層から得たものである。
第6のステップを実施する画像診断支援システムでは、図16に示した病変領域検出画像診断モデルLADMと病変分類画像診断モデルLCDMを学習して得た学習済み病変領域検出画像診断モデルと学習済み病変分類画像診断モデルを用いた学習済み画像診断モデルを用いる。このような学習済み画像診断モデルを用いると、病変の可能性の高い領域の判定精度を高めることができる。
図17(A)及び(B)は、領域限定をしない場合の病変判定結果と領域限定をした場合の病変判定結果を示している。図17(A)及び(B)において縦軸は評価指標[IoU]であり、横軸は病変領域の大きさである。そしてIoU≧0.4が病変として正しく判定され、IoU<0.4が病変を見落としたものである。図17(A)及び(B)を比較すると、領域限定をしない場合に微小病変(area:0-100)の見落としは11個であったが、領域限定をすると見落としは6個と少なくなった。この結果から、内視鏡画像内の病変の可能性が高い領域を検出し、病変の可能性が高い領域が病変かどうかの診断をすれば、判定精度を高めることができることが分かる。
[表示装置の表示画面]
図18は、画像診断支援方法を実施する画像診断支援システムの表示装置の表示画面の一例を示している。この例では、患者のカルテ情報D1と、観察キャンパスを模した図上に、複数の観察済み領域と検出した病変の位置を表示する観察位置表示D2と、病変が存在する観察済みの領域の病変の悪性度及び種類を表示する診断結果表示D3と、その病変のある元の内視鏡画像D4と、その病変と判断した際の画像診断支援の結果を内視鏡画像に重ねた内視鏡画像診断支援画像D5を表示画面に表示している。このようにすると観察結果と診断結果を表示画面で確認することができる。
図19は、表示装置の表示画面の他の例を示している。この例においても、患者のカルテ情報D1と、観察キャンパスを模した図上に、複数の観察済み領域と検出した病変の位置を表示する観察位置表示D2と、病変が存在する観察済みの領域の病変の悪性度及び種類を表示する診断結果表示D3と、その病変のある元の内視鏡画像D4と、その病変と判断した際の画像診断支援の結果を内視鏡画像に重ねた内視鏡画像診断支援画像D5を表示画面に表示している。この例では、さらに処理状況を表示する処理状況表示D6と病変候補サムネイル画像D7が表示されている。処理状況表示D6には、処理が行われたきの観察時期と病変の有無が順次表示される。したがって処理状況表示D6中の縦線をクリックすると、その時の内視鏡画像診断支援画像が病変候補サムネイル画像D7として表示される。病変候補サムネイル画像D7には、観察時期に診断結果として得られた内視鏡画像診断支援画像D5に表示された画像が病変候補としてサムネイルで表示される。サムネイルを選択することにより、選択したサムネイルに応じてD1、D2、D3の表示が変わる。図20は、出力レポートの一例を示している。図19の病変候補サムネイル画像D7のチェックボックスのチェック状況に対応した画像が表示される。なお出力レポートの例は、図20の例に限定されるものではない。
以下本願明細書に開示された複数の発明の構成の構成要件について列挙する。
[1]被験者の臓器内の空洞の内部に、内視鏡の先端部に設けた撮像装置を挿入し、前記撮像装置によって撮像された内視鏡画像を含む複数のフレームに基づいて、前記臓器の病変の有無をコンピュータを用いて診断する内視鏡診断支援システムであって、
前記コンピュータは、
前記空洞の前記内視鏡画像の観察キャンパスについての観察キャンパスデータを準備する第1のステップと、
フレーム中に前記臓器の前記空洞内の位置を特定可能な1以上の組織が含まれているキーフレームを決定し且つ前記観察キャンパスデータに対して前記キーフレームのキーフレーム位置データをマーキングする第2のステップと、
前記キーフレームを最初の前フレームとして、前記複数のフレーム中の前フレームと後フレーム上にそれぞれ存在する3つ以上のキーポイントを決定してキーポイントの前記内視鏡画像中の座標を算出する第3のステップと、
前記3つ以上のキーポイントの前記内視鏡画像中の座標に基づいて、前記前フレームと前記後フレームとの間の変位量を算出する第4のステップと、
少なくとも前記変位量並びに前記第2のステップで最初にマーキングされた最初の前記キーフレーム位置データと前記第2のステップで後にマーキングされた次のキーフレーム位置データに基づいて、前記観察キャンパスデータに対して複数の前記後フレームの確定した位置データをマーキングする第5のステップと、
前記複数のフレームについて、前記第2のステップ乃至前記第5のステップを実施するのと並行してまたは前記第2のステップ乃至前記第5のステップを実施した後に、前記観察キャンパスデータに対してマーキングされた複数の前記確定した位置データと前記複数のフレームに基づいて、前記臓器の病変の有無の画像診断を支援する第6のステップを実施するように構成されていることを特徴とする内視鏡診断支援システム。
[2]前記観察キャンパスを模した図上に、複数の観察済み領域を表示する観察位置表示と、
前記観察キャンパスを模した図上に、病変が存在する前記観察済みの領域を表示する病変位置表示と、
前記病変が存在する前記観察済みの領域の病変の悪性度及び種類を表示する診断結果表示と、
前記被験者のカルテ情報の表示の少なくとも一つを表示装置の表示画面に表示することを特徴とする上記[1]に記載の内視鏡診断支援システム。
[3]被験者の臓器内の空洞の内部に、内視鏡の先端部に設けた撮像装置を挿入し、前記撮像装置によって撮像された内視鏡画像を含む複数のフレームに基づいて、前記臓器の病変の有無をコンピュータを用いて診断する際の支援を行う内視鏡診断支援システムであって、
内視鏡画像データベースに記録されているデータを学習データとして学習がなされた内視鏡画像データベースに記録されているデータを学習データとして学習がなされた前記学習済み画像診断モデルを用いて、前記内視鏡画像内の病変の可能性が高い領域を検出し、前記病変の可能性が高い領域が病変かどうかの診断をすることにより支援することを特徴とする内視鏡診断支援システム。
[4]被験者の臓器内の空洞の内部に、内視鏡の先端部に設けた撮像装置を挿入し、前記撮像装置によって撮像された内視鏡画像を含む複数のフレームに基づいて、前記臓器の病変の有無をコンピュータを用いて診断する際の支援を行う内視鏡診断支援システムを実現するための内視鏡診断支援システム用コンピュータ・プログラムで、コンピュータ読み取り可能な記録媒体に記録されたものであって、
インストールされた前記コンピュータが、
前記空洞の前記内視鏡画像の観察キャンパスについての観察キャンパスデータを準備する第1のステップと、
フレーム中に前記臓器の前記空洞内の位置を特定可能な1以上の解剖学的構造が含まれているキーフレームを決定し且つ前記観察キャンパスデータに対して前記キーフレームのキーフレーム位置データをマーキングする第2のステップと、
前記キーフレームを最初の前フレームとして、前記複数のフレーム中の前フレームと後フレーム上にそれぞれ存在する3つ以上のキーポイントを決定してキーポイントの前記内視鏡画像中の座標を算出する第3のステップと、
前記3つ以上のキーポイントの前記内視鏡画像中の座標に基づいて、前記前フレームと前記後フレームとの間の変位量を算出する第4のステップと、
少なくとも前記変位量並びに前記第2のステップで最初にマーキングされた最初の前記キーフレーム位置データと前記第2のステップで後にマーキングされた次のキーフレーム位置データに基づいて、前記観察キャンパスデータに対して複数の前記後フレームの確定した位置データをマーキングする第5のステップと、
前記複数のフレームについて、前記第2のステップ乃至前記第5のステップの実施と並行しながらまたは前記第2のステップ乃至前記第5のステップを実施した後に、前記観察キャンパスデータに対してマーキングされた複数の前記確定した位置データと前記複数のフレーム中の前記内視鏡画像に基づいて、前記臓器の病変の有無の画像診断を支援する第6のステップを実施し、
前記第6のステップでは、
アノテーション情報付きの画像データを含む内視鏡画像データベースに記録されているデータを学習データとして学習がなされた学習済み画像診断モデルを用いて診断支援を行う第1の支援システムと、
内視鏡画像データベースに記録されているデータを学習データとして学習がなされた前記学習済み画像診断モデルを用いて、前記内視鏡画像内の病変の可能性が高い領域を検出し、前記病変の可能性が高い領域が病変かどうかの診断をすることにより診断支援を行う第2の支援システムの少なくとも一つを実現するように構成されていることを特徴とする内視鏡診断支援用コンピュータ・プログラム。
本発明によれば、対象臓器内の内壁の観察キャンパスデータに対してマーキングを施すので、検査をした領域と検査をしていない領域を明確に判断することができ、対象臓器内をくまなく観察することが可能となり、しかも撮影した画像がどこで撮影されたのかを正しく記録することができる。また観察キャンパスデータに対してマーキングされた複数の位置データと複数のフレーム中の内視鏡画像に基づいて、臓器の病変の有無を画像診断する際の支援をすることができる。
ES 内視鏡システム
EI 内視鏡画像
IDS 画像診断支援ステップ
ORS 観察記録ステップ
SID 診断支援情報表部
SOC 模擬展開観察キャンパス
MX マトリックス
DB 内視鏡画像データベース
DM 画像診断モデル
TDM 学習済み画像診断モデル
AEM アノテーション拡張モデル
E エンコーダ
D デコーダ
TADM 学習済み正常追加学習型画像診断モデル
TDM1 学習済み画像診断モデル
DM1 画像診断モデル
TDM2 学習済み画像診断モデル
LADM 病変領域検出画像診断モデル
LCDM 病変分類画像診断モデル
BP 二値化処理部
ALFC 領域限定特徴量演算部
LFC 病変候補特徴量演算部
LSEDM 類似画像判断モデル

Claims (15)

  1. 被験者の臓器内の空洞の内部に、内視鏡の先端部に設けた撮像装置を挿入し、前記撮像装置によって撮像された内視鏡画像を含む複数のフレームに基づいて、前記臓器の病変の有無をコンピュータを用いて診断する際の支援を、コンピュータを用いて行う内視鏡診断支援方法であって、
    前記コンピュータは、
    前記空洞の前記内視鏡画像の観察キャンパスについての観察キャンパスデータを準備する第1のステップと、
    フレーム中に前記臓器の前記空洞内の位置を特定可能な1以上の解剖学的構造が含まれているキーフレームを決定し且つ前記観察キャンパスデータに対して前記キーフレームのキーフレーム位置データをマーキングする第2のステップと、
    前記キーフレームを最初の前フレームとして、前記複数のフレーム中の前フレームと後フレーム上にそれぞれ存在する3つ以上のキーポイントを決定してキーポイントの前記内視鏡画像中の座標を算出する第3のステップと、
    前記3つ以上のキーポイントの前記内視鏡画像中の座標に基づいて、前記前フレームと前記後フレームとの間の変位量を算出する第4のステップと、
    少なくとも前記変位量並びに前記第2のステップで最初にマーキングされた最初の前記キーフレーム位置データと前記第2のステップで後にマーキングされた次のキーフレーム位置データに基づいて、前記観察キャンパスデータに対して複数の前記後フレームの確定した位置データをマーキングする第5のステップと、
    前記複数のフレームについて、前記第2のステップ乃至前記第5のステップの実施と並行しながらまたは前記第2のステップ乃至前記第5のステップを実施した後に、前記観察キャンパスデータに対してマーキングされた複数の前記確定した位置データと前記複数のフレーム中の前記内視鏡画像に基づいて、前記臓器の病変の有無の画像診断を支援する第6のステップを実施することを特徴とする内視鏡診断支援方法。
  2. 前記後フレームの位置データには、前記キーフレーム位置データに対する相対的な位置情報とフレーム番号が含まれている請求項1に記載の内視鏡診断支援方法。
  3. 前記観察キャンパスは、前記臓器の前記空洞の複数の開口部及び頂部の位置を一般的に特定し中央部に1つの前記開口部を配置した模擬展開観察キャンパスであり、
    前記第5のステップでは、前記次のキーフレーム位置データが定まるまで前記複数の後フレームの位置データとして複数の暫定の位置データを用い、前記次のキーフレーム位置データが定まると前記最初のキーフレーム位置データと前記次のキーフレーム位置データとの間に前記複数の後フレームの前記複数の暫定の位置データが収まるようにして、前記複数の後フレームの前記確定した位置データのマーキングを行うことを特徴とする請求項1または2に記載の内視鏡診断支援方法。
  4. 前記相対的な位置情報は、前記模擬展開観察キャンパス上に想定した同寸法及び同形状の複数のセグメントを整列して形成したマトリックスにおける前記1つの解剖学的構造が位置するセグメントの座標位置を基準点として定めた座標位置データと種類を示す記号を付したものである請求項に記載の内視鏡診断支援方法。
  5. 前記第2のステップと前記第3のステップは、自己位置推定技術を用いて実現される請求項1に記載の内視鏡診断支援方法。
  6. 前記第6のステップでは、
    アノテーション情報付きの画像データを含む内視鏡画像データベースに記録されているデータを学習データとして学習がなされた学習済み画像診断モデルを用いて診断支援を行う第1の支援方法と、
    前記内視鏡画像データベースに記録されているデータを学習データとして学習がなされた前記学習済み画像診断モデルを用いて、前記内視鏡画像内の病変の可能性が高い領域を検出し、前記病変の可能性が高い領域が病変かどうかの診断をすることにより診断支援を行う第2の支援方法の少なくとも一つを実行する請求項1に記載の内視鏡診断支援方法。
  7. 前記内視鏡画像データベースは、アノテーション情報をアノテーション拡張モデルを用いて拡張した拡張アノテーション情報をさらに含んでいる請求項6に記載の内視鏡診断支援方法。
  8. 前記アノテーション拡張モデルは、エンコーダとデコーダで構成されるオートエンコーダベースのアノテーション拡張モデルであり、
    前記アノテーション拡張モデルは、
    前記画像診断モデルを特徴抽出器として用いて前記内視鏡画像データベースに記録されている病変内視鏡画像を入力として前記画像診断モデルの中間層から抽出した特徴量と、前記病変内視鏡画像に対応する前記アノテーション情報のセットを前記エンコーダに入力し、
    前記エンコーダから出力される潜在変数と前記特徴量を前記デコーダに逆演算することにより前記拡張アノテーション情報を推定するように学習したものであることを特徴とする請求項7に記載の内視鏡診断支援方法。
  9. 前記エンコーダに入力する前記アノテーション情報と前記拡張アノテーション情報の交差エントロピーが小さくなるように学習する請求項8に記載の内視鏡診断支援方法。
  10. 前記アノテーション拡張モデルは、前記拡張アノテーション情報をランダムに拡張する請求項8に記載の内視鏡診断支援方法。
  11. 前記内視鏡画像データベースは、前記内視鏡画像データベースに記録されている前記病変内視鏡画像のデータをデータ拡張技術を用いて拡張して得た拡張データと拡張アノテーション情報の拡張データセットをさらに含んでいる請求項7に記載の内視鏡診断支援方法。
  12. 前記第2の支援方法で用いる前記学習済み画像診断モデルは、
    前記内視鏡画像からすべての画素における画像特徴量を抽出し、且つ前記内視鏡画像から前記病変の高い領域を特定し、
    前記病変の可能性が高い領域にある複数の前記画素の前記画像特徴量を用いて前記病変の可能性が高い領域の病変候補特徴量を求め、
    前記病変候補特徴量から前記病変の可能性が高い領域を正常と病変に分類するように構成されている請求項11に記載の内視鏡診断支援方法。
  13. 前記学習済み画像診断モデルは、
    前記画像特徴量と内視鏡画像から病変確度マップを作製する病変領域検出画像診断モデルと、
    前記病変確度マップを二値化処理して病変候補マスクを作成する二値化処理部と、
    前記画像特徴量と前記病変候補マスクに基づいて前記病変の可能性が高い領域に限定して領域限定特徴量を求める領域限定特徴量演算部と、
    前記領域限定特徴量を平均化して前記病変の可能性が高い領域の病変候補特徴量を演算する病変候補特徴量演算部と、
    前記病変候補特徴量に基づいて前記病変の可能性が高い領域を正常と病変に分類する病変分類画像診断モデルとを備えて構成されている請求項12に記載の内視鏡診断支援方法。
  14. 前記観察キャンパスを模した図上に、複数の観察済み領域を表示する観察位置表示と、
    前記観察キャンパスを模した図上に、病変が存在する前記観察済みの領域を表示する病変位置表示と、
    前記病変が存在する前記観察済みの領域の病変の悪性度及び種類を表示する診断結果表示と、
    前記被験者のカルテ情報の表示の少なくとも一つを表示装置の表示画面に表示するステップを更に含んでいることを特徴とする請求項1に記載の内視鏡診断支援方法。
  15. 請求項1の内視鏡診断支援方法を実施するための手段を有するコンピュータを備えた内視鏡診断支援システムであって、
    前記コンピュータは、
    前記空洞の前記内視鏡画像の観察キャンパスについての観察キャンパスデータを準備する第1のステップを実施する第1の手段と、
    フレーム中に前記臓器の前記空洞内の位置を特定可能な1以上の解剖学的構造が含まれているキーフレームを決定し且つ前記観察キャンパスデータに対して前記キーフレームのキーフレーム位置データをマーキングする第2のステップを実施する第2の手段と、
    前記キーフレームを最初の前フレームとして、前記複数のフレーム中の前フレームと後フレーム上にそれぞれ存在する3つ以上のキーポイントを決定してキーポイントの前記内視鏡画像中の座標を算出する第3のステップを実施する第3の手段と、
    前記3つ以上のキーポイントの前記内視鏡画像中の座標に基づいて、前記前フレームと前記後フレームとの間の変位量を算出する第4のステップを実施する第4の手段と、
    少なくとも前記変位量並びに前記第2のステップで最初にマーキングされた最初の前記キーフレーム位置データと前記第2のステップで後にマーキングされた次のキーフレーム位置データに基づいて、前記観察キャンパスデータに対して複数の前記後フレームの確定した位置データをマーキングする第5のステップを実施する第5の手段と、
    前記複数のフレームについて、前記第2のステップ乃至前記第5のステップの実施と並行しながら前記第3のステップ乃至前記第5のステップを実施した後に、前記観察キャンパスデータに対してマーキングされた複数の前記確定した位置データと前記複数のフレーム中の前記内視鏡画像に基づいて、前記臓器の病変の有無の画像診断を支援する第6のステップを実施する第6の手段を備えて構成されていることを特徴とする内視鏡診断支援システム。
JP2022568297A 2020-12-08 2021-12-07 内視鏡診断支援方法及び内視鏡診断支援システム Active JP7388648B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020203765 2020-12-08
JP2020203765 2020-12-08
PCT/JP2021/045003 WO2022124315A1 (ja) 2020-12-08 2021-12-07 内視鏡診断支援方法及び内視鏡診断支援システム

Publications (3)

Publication Number Publication Date
JPWO2022124315A1 JPWO2022124315A1 (ja) 2022-06-16
JPWO2022124315A5 JPWO2022124315A5 (ja) 2023-08-23
JP7388648B2 true JP7388648B2 (ja) 2023-11-29

Family

ID=81974510

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022568297A Active JP7388648B2 (ja) 2020-12-08 2021-12-07 内視鏡診断支援方法及び内視鏡診断支援システム

Country Status (4)

Country Link
US (1) US20240038391A1 (ja)
JP (1) JP7388648B2 (ja)
CN (1) CN116916807A (ja)
WO (1) WO2022124315A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117173075A (zh) * 2022-05-24 2023-12-05 鸿海精密工业股份有限公司 医学图像检测方法及相关设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017205343A (ja) 2016-05-19 2017-11-24 オリンパス株式会社 内視鏡装置、内視鏡装置の作動方法
JP2018050890A (ja) 2016-09-28 2018-04-05 富士フイルム株式会社 画像表示装置及び画像表示方法並びにプログラム
CN109146884A (zh) 2018-11-16 2019-01-04 青岛美迪康数字工程有限公司 内窥镜检查监控方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017205343A (ja) 2016-05-19 2017-11-24 オリンパス株式会社 内視鏡装置、内視鏡装置の作動方法
JP2018050890A (ja) 2016-09-28 2018-04-05 富士フイルム株式会社 画像表示装置及び画像表示方法並びにプログラム
CN109146884A (zh) 2018-11-16 2019-01-04 青岛美迪康数字工程有限公司 内窥镜检查监控方法及装置

Also Published As

Publication number Publication date
CN116916807A (zh) 2023-10-20
WO2022124315A1 (ja) 2022-06-16
US20240038391A1 (en) 2024-02-01
JPWO2022124315A1 (ja) 2022-06-16

Similar Documents

Publication Publication Date Title
JP6080248B2 (ja) 3次元画像表示装置および方法並びにプログラム
CN105719324B (zh) 图像处理装置以及图像处理方法
CN111214255B (zh) 一种医学超声图像计算机辅助方法
CN111227864B (zh) 使用超声图像利用计算机视觉进行病灶检测的装置
JP5584006B2 (ja) 投影画像生成装置、投影画像生成プログラムおよび投影画像生成方法
JP2020508536A (ja) 医療イメージングデバイスによりキャプチャされた組織学的イメージをプロセッシングするための方法及び装置
Du et al. Identification of COPD from multi-view snapshots of 3D lung airway tree via deep CNN
EP2452649A1 (en) Visualization of anatomical data by augmented reality
CN1771517B (zh) 实现虚拟内镜检查的系统和方法
WO2022194126A1 (zh) 基于胶囊内窥镜构建阅片模型的方法、设备及介质
KR20210104190A (ko) 수술 분석 장치, 수술영상 분석 및 인식 시스템, 방법 및 프로그램
CN111583385B (zh) 一种可变形数字人解剖学模型的个性化变形方法及系统
US20210391078A1 (en) Deep learning model learning device and method for cancer region
CN105938513A (zh) 为计算机辅助诊断提供可靠性的装置和方法
JP7388648B2 (ja) 内視鏡診断支援方法及び内視鏡診断支援システム
CN117197594B (zh) 一种基于深度神经网络的心脏分流分类系统
CN116958147B (zh) 基于深度图像特征的目标区域确定方法、装置和设备
CN111091539B (zh) 网络模型训练、医学图像处理方法、装置、介质及设备
CN114445406A (zh) 肠镜图像分析方法、装置和医学图像处理设备
CN116324897A (zh) 用于重建管状器官的三维表面的方法和系统
CN116051553B (zh) 一种在三维医学模型内部进行标记的方法和装置
CN116580819B (zh) 用于自动化地确定图像序列中的检查结果的方法和系统
CN113177945A (zh) 用于将分割图链接到体数据的系统和方法
JPWO2022124315A5 (ja)
CN114360695A (zh) 乳腺超声扫查分析辅助系统、介质及设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230619

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230619

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230619

AA64 Notification of invalidation of claim of internal priority (with term)

Free format text: JAPANESE INTERMEDIATE CODE: A241764

Effective date: 20230725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231107

R150 Certificate of patent or registration of utility model

Ref document number: 7388648

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150