JP7042907B2 - 学習データ収集装置、学習データ収集方法及びプログラム、学習システム、学習済みモデル、並びに内視鏡画像処理装置 - Google Patents

学習データ収集装置、学習データ収集方法及びプログラム、学習システム、学習済みモデル、並びに内視鏡画像処理装置 Download PDF

Info

Publication number
JP7042907B2
JP7042907B2 JP2020521812A JP2020521812A JP7042907B2 JP 7042907 B2 JP7042907 B2 JP 7042907B2 JP 2020521812 A JP2020521812 A JP 2020521812A JP 2020521812 A JP2020521812 A JP 2020521812A JP 7042907 B2 JP7042907 B2 JP 7042907B2
Authority
JP
Japan
Prior art keywords
image
finding
diagnosis information
endoscopic
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020521812A
Other languages
English (en)
Other versions
JPWO2019230302A1 (ja
Inventor
悟朗 三浦
正明 大酒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2019230302A1 publication Critical patent/JPWO2019230302A1/ja
Application granted granted Critical
Publication of JP7042907B2 publication Critical patent/JP7042907B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • G02B23/2484Arrangements in relation to a camera or imaging device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/031Recognition of patterns in medical or anatomical images of internal organs
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Endoscopes (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Description

本発明は、学習データ収集装置、学習データ収集方法及びプログラム、学習システム、学習済みモデル、並びに内視鏡画像処理装置に係り、特に、内視鏡画像から病変を識別する技術に関する。
内視鏡画像を保管する内視鏡ファイリングシステムや、内視鏡検査情報、患者情報、及び内視鏡画像を保管する内視鏡管理システムが市場に存在する。さらに、内視鏡検査時に、病変の検出や病変の鑑別を行う内視鏡CAD(Computer Aided Diagnosis)システムが実用化に向けて研究されている。
特許文献1には、医用画像の関心領域に対応する画像特徴セットを所定個数の画像所見に分類するための識別器が記載されている。
特開2017-068838号公報
特許文献1には、画像診断医により予め定められた10個の画像所見のそれぞれについて、予め収集された数百~数千個の画像から画像特徴セットを抽出し、抽出した画像特徴セットを用いて学習させることで識別器を生成する技術が記載されている。
また、内視鏡CADシステムに搭載されるAI(Artificial Intelligence)エンジンを学習させるためには、病変画像、病変画像を撮影した際の所見診断情報、及び内視鏡検査時に記録した検査動画等を、医師が内視鏡管理システム、内視鏡ファイリングシステム等のそれぞれのシステムから個別に取得し、AI学習を行える形式に変換する必要がある。
このように、モデルを学習させるためには大量の症例等の学習データを収集する必要があり、大量の学習データを収集するには多大な労力が必要であるという課題があった。
本発明はこのような事情に鑑みてなされたものであり、内視鏡画像から病変を識別するモデルを学習させるための学習データを容易に収集する学習データ収集装置、学習データ収集方法及びプログラム、学習システム、学習済みモデル、並びに内視鏡画像処理装置を提供することを目的とする。
上記目的を達成するために学習データ収集装置の一の態様は、内視鏡によって撮影された1つ又は複数の内視鏡画像を表示装置の画像表示エリアに表示させ、かつ病変に関する1つ又は複数の所見診断情報を表示装置の所見診断情報表示エリアに表示させる表示制御部と、入力装置による操作であって、画像表示エリアに表示された内視鏡画像のうち少なくとも1つの内視鏡画像と、所見診断情報表示エリアに表示された所見診断情報のうち少なくとも1つの内視鏡画像に関する所見診断情報とを選択する操作を受け付ける受付部と、選択された内視鏡画像と選択された所見診断情報とを紐付ける紐付部と、紐付けられた内視鏡画像と所見診断情報とを、内視鏡画像から病変を識別するモデルの学習に使用する学習データとして記録装置に記録させる記録制御部と、を備え、表示制御部は、紐付部において所見診断情報に紐付けられた内視鏡画像を所見診断情報毎のグループに分類し、かつタブを用いてグループ毎に内視鏡画像を切り替え表示させる学習データ収集装置である。
本態様によれば、所見診断情報に紐付けられた内視鏡画像を所見診断情報毎のグループに分類し、かつタブを用いてグループ毎に内視鏡画像を切り替え表示させるようにしたので、所見診断情報のグループ毎に内視鏡画像を確認することができる。
受付部は、入力装置によって1つのタブを選択する操作を受け付け、表示制御部は、選択されたタブのグループに分類された内視鏡画像を画像表示エリアに表示させることが好ましい。これにより、選択したタブのグループの内視鏡画像を確認することができる。
表示制御部は、選択可能な全ての内視鏡画像を1つのグループとして分類することが好ましい。これにより、選択可能な全ての内視鏡画像を確認することができる。
受付部は、画像表示エリアに表示された内視鏡画像のうちの少なくとも1つの内視鏡画像を所見診断情報表示エリアに表示された所見診断情報にドラッグアンドドロップする操作を受け付け、紐付部は、ドラッグアンドドロップされた内視鏡画像と所見診断情報とを紐付けることが好ましい。これにより、内視鏡画像とその内視鏡画像に関連する所見診断情報とを適切に選択することができる。
受付部は、所見診断情報表示エリアに表示された所見診断情報のうちの少なくとも1つの所見診断情報を画像表示エリアに表示された内視鏡画像にドラッグアンドドロップする操作を受け付け、紐付部は、ドラッグアンドドロップされた内視鏡画像と所見診断情報とを紐付けることが好ましい。これにより、内視鏡画像とその内視鏡画像に関連する所見診断情報とを適切に選択することができる。
表示制御部は、内視鏡画像に付属させて紐付けられた所見診断情報を示す識別情報を画像表示エリアに表示させることが好ましい。これにより、内視鏡画像毎に紐付けられた所見診断情報を確認することができる。
表示制御部は、識別情報をタブに表示させることが好ましい。これにより、タブを適切に識別することができる。
識別情報は、所見診断情報に対応する番号であることが好ましい。これにより、識別情報を適切に表示することができる。
表示制御部は、所見診断情報に付属させて識別情報を所見診断情報表示エリアに表示させることが好ましい。これにより、所見診断情報と番号の対応をユーザに認識させることができる。
表示制御部は、選択された画像を重ねて表示することが好ましい。これにより、表示画像数を削減することができ、内視鏡画像を選択しやすくすることができる。
受付部は、内視鏡画像に写った病変の位置情報を指定する操作を受け付け、記録制御部は、指定された位置情報を学習データとして記録装置に記録させることが好ましい。これにより、病変の位置情報を学習データに含めることができる。
上記目的を達成するために学習システムの一の態様は、表示装置と、入力装置と、記録装置と、内視鏡によって撮影された1つ又は複数の内視鏡画像を表示装置の画像表示エリアに表示させ、かつ病変に関する1つ又は複数の所見診断情報を表示装置の所見診断情報表示エリアに表示させる表示制御部と、入力装置による操作であって、画像表示エリアに表示された内視鏡画像のうち少なくとも1つの内視鏡画像と、所見診断情報表示エリアに表示された所見診断情報のうち少なくとも1つの内視鏡画像に関する所見診断情報とを選択する操作を受け付ける受付部と、選択された内視鏡画像と選択された所見診断情報とを紐付ける紐付部と、紐付けられた内視鏡画像と所見診断情報とを、内視鏡画像から病変を識別するモデルの学習に使用する学習データとして記録装置に記録させる記録制御部と、を備え、表示制御部は、紐付部において所見診断情報に紐付けられた内視鏡画像を所見診断情報毎のグループに分類し、かつタブを用いてグループ毎に内視鏡画像を切り替え表示させる学習データ収集装置と、モデルを用いて内視鏡画像から病変を識別する識別器と、を備え、学習データを用いてモデルを学習させる学習システムである。
本態様によれば、所見診断情報毎の内視鏡画像を確認することができる学習データ収集装置によって収集された学習データによってモデルを適切に学習させることができる。
上記目的を達成するために学習済みモデルの一の態様は、表示装置と、入力装置と、記録装置と、内視鏡によって撮影された1つ又は複数の内視鏡画像を表示装置の画像表示エリアに表示させ、かつ病変に関する1つ又は複数の所見診断情報を表示装置の所見診断情報表示エリアに表示させる表示制御部と、入力装置による操作であって、画像表示エリアに表示された内視鏡画像のうち少なくとも1つの内視鏡画像と、所見診断情報表示エリアに表示された所見診断情報のうち少なくとも1つの内視鏡画像に関する所見診断情報とを選択する操作を受け付ける受付部と、選択された内視鏡画像と選択された所見診断情報とを紐付ける紐付部と、紐付けられた内視鏡画像と所見診断情報とを、内視鏡画像から病変を識別するモデルの学習に使用する学習データとして記録装置に記録させる記録制御部と、を備え、表示制御部は、紐付部において所見診断情報に紐付けられた内視鏡画像を所見診断情報毎のグループに分類し、かつタブを用いてグループ毎に内視鏡画像を切り替え表示させる学習データ収集装置と、モデルを用いて内視鏡画像から病変を識別する識別器と、を備え、学習データを用いてモデルを学習させる学習システムによって学習された学習済みモデルである。
本態様によれば、適切に収集された学習データによって学習した学習済みモデルを取得することができる。
上記目的を達成するために内視鏡画像処理装置の一の態様は、モデルを用いて内視鏡画像から病変を識別する識別器を備え、学習データを用いてモデルを学習させる学習システムによって学習された学習済みモデルを用いて内視鏡画像を解析する内視鏡画像処理装置であって、学習システムは、表示装置と、入力装置と、記録装置と、内視鏡によって撮影された1つ又は複数の内視鏡画像を表示装置の画像表示エリアに表示させ、かつ病変に関する1つ又は複数の所見診断情報を表示装置の所見診断情報表示エリアに表示させる表示制御部と、入力装置による操作であって、画像表示エリアに表示された内視鏡画像のうち少なくとも1つの内視鏡画像と、所見診断情報表示エリアに表示された所見診断情報のうち少なくとも1つの内視鏡画像に関する所見診断情報とを選択する操作を受け付ける受付部と、選択された内視鏡画像と選択された所見診断情報とを紐付ける紐付部と、紐付けられた内視鏡画像と所見診断情報とを、内視鏡画像から病変を識別するモデルの学習に使用する学習データとして記録装置に記録させる記録制御部と、を備え、表示制御部は、紐付部において所見診断情報に紐付けられた内視鏡画像を所見診断情報毎のグループに分類し、かつタブを用いてグループ毎に内視鏡画像を切り替え表示させる学習データ収集装置と、を備え、学習データを用いてモデルを学習させる学習システムである。
本態様によれば、適切に収集された学習データによって学習した学習済みモデルを用いて内視鏡画像を解析することができる。
上記目的を達成するために学習データ収集方法の一の態様は、内視鏡によって撮影された1つ又は複数の内視鏡画像を表示装置の画像表示エリアに表示させ、かつ病変に関する1つ又は複数の所見診断情報を表示装置の所見診断情報表示エリアに表示させる表示制御工程と、入力装置による操作であって、画像表示エリアに表示された内視鏡画像のうち少なくとも1つの内視鏡画像と、所見診断情報表示エリアに表示された所見診断情報のうち少なくとも1つの内視鏡画像に関する所見診断情報とを選択する操作を受け付ける受付工程と、選択された内視鏡画像と選択された所見診断情報とを紐付ける紐付工程と、紐付けられた内視鏡画像と所見診断情報とを、内視鏡画像から病変を識別するモデルの学習に使用する学習データとして記録装置に記録させる記録制御工程と、を備え、表示制御工程は、紐付工程において所見診断情報に紐付けられた内視鏡画像を所見診断情報毎のグループに分類し、かつタブを用いてグループ毎に内視鏡画像を切り替え表示させる学習データ収集方法である。
本態様によれば、所見診断情報に紐付けられた内視鏡画像を所見診断情報毎のグループに分類し、かつタブを用いてグループ毎に内視鏡画像を切り替え表示させるようにしたので、所見診断情報のグループ毎に内視鏡画像を確認することができる。
上記目的を達成するために学習データ収集方法をコンピュータに実行させるためのプログラムの一の態様は、内視鏡によって撮影された1つ又は複数の内視鏡画像を表示装置の画像表示エリアに表示させ、かつ病変に関する1つ又は複数の所見診断情報を表示装置の所見診断情報表示エリアに表示させる表示制御工程と、入力装置による操作であって、画像表示エリアに表示された内視鏡画像のうち少なくとも1つの内視鏡画像と、所見診断情報表示エリアに表示された所見診断情報のうち少なくとも1つの内視鏡画像に関する所見診断情報とを選択する操作を受け付ける受付工程と、選択された内視鏡画像と選択された所見診断情報とを紐付ける紐付工程と、紐付けられた内視鏡画像と所見診断情報とを、内視鏡画像から病変を識別するモデルの学習に使用する学習データとして記録装置に記録させる記録制御工程と、を備え、表示制御工程は、紐付工程において所見診断情報に紐付けられた内視鏡画像を所見診断情報毎のグループに分類し、かつタブを用いてグループ毎に内視鏡画像を切り替え表示させる学習データ収集方法をコンピュータに実行させるためのプログラムである。
本態様によれば、所見診断情報に紐付けられた内視鏡画像を所見診断情報毎のグループに分類し、かつタブを用いてグループ毎に内視鏡画像を切り替え表示させるようにしたので、所見診断情報のグループ毎に内視鏡画像を確認することができる。
本態様によれば、内視鏡画像から病変を識別するモデルを学習させるための学習データを容易に収集することができる。
内視鏡画像学習システムの構成の一例を示すブロック図である。 内視鏡管理レポート端末の構成の一例を示すブロック図である。 AIエンジンの構成の一例を示すブロック図である。 学習方法の処理を示すフローチャートである。 内視鏡検査実施工程の詳細の処理を示すフローチャートである。 内視鏡レポート作成工程の詳細の処理を示すフローチャートである。 内視鏡レポート作成画面の一例を示す図である。 AI学習画像紐付け画面の一例を示す図である。 AI学習画像紐付け工程の詳細の処理を示すフローチャートである。 AI学習画像紐付け画面の一例を示す図である。 AI学習画像紐付け画面の一例を示す図である。 AI学習画像紐付け画面の一例を示す図である。 AI学習画像紐付け画面の一例を示す図である。 AI学習画像紐付け画面の一例を示す図である。 AI学習画像紐付け画面の一例を示す図である。 AI学習画像紐付け画面の一例を示す図である。 AI学習画像紐付け画面の一例を示す図である。 病理依頼工程の詳細の処理を示すフローチャートである。 AI学習データ出力工程の詳細の処理を示すフローチャートである。 内視鏡管理レポート端末の構成の一例を示すブロック図である。 病変位置情報入力方法の処理を示すフローチャートである。 病変位置情報入力画面の一例を示す図である。 病変位置情報入力画面の一例を示す図である。 病変位置情報入力画面の一例を示す図である。 病変位置情報入力画面の一例を示す図である。 病変位置情報入力画面の一例を示す図である。 病変位置情報入力画面の一例を示す図である。 病変位置情報入力画面の一例を示す図である。 内視鏡装置の構成の一例を示すブロック図である。
以下、添付図面に従って本発明の好ましい実施形態について詳説する。
<第1の実施形態>
〔内視鏡画像学習システムの構成〕
図1は、内視鏡画像学習システム10の構成の一例を示すブロック図である。内視鏡画像学習システム10は、病院内に構築される院内LAN(Local Area Network)20、病院の内視鏡部門内に構築される内視鏡部門ローカルLAN30、病院内又は病院外に構築されるAI(Artificial Intelligence)学習LAN50等を有している。
院内LAN20には、電子カルテシステム22、及び病理システム24が接続されている。
電子カルテシステム22は、病院内の全患者の検査情報を管理するシステムである。また、病理システム24は、病理検体及び病理診断情報を管理するシステムである。電子カルテシステム22及び病理システム24は、1台のコンピュータで構成されていてもよいし、複数のコンピュータに分散された構成であってもよい。
内視鏡部門ローカルLAN30には、内視鏡管理レポート端末32、ビデオキャプチャ端末38、内視鏡管理サーバー40、及び動画格納NAS(Network Attached Storage)46が接続されている。
内視鏡管理レポート端末32は、不図示の内視鏡装置によって行われた内視鏡検査に関する内視鏡レポート42(後述)を医師が作成するための端末である。
図2は、内視鏡管理レポート端末32の構成の一例を示すブロック図である。内視鏡管理レポート端末32は、入力デバイス34、ディスプレイ36、及び学習データ収集装置80を備えている。
入力デバイス34(入力装置の一例)は、例えばマウス、又はキーボードが適用される。ディスプレイ36(表示装置の一例)は、例えば液晶モニタが適用される。タッチパネル付きディスプレイを用いて、入力デバイス34とディスプレイ36とを兼ねてもよい。
学習データ収集装置80は、内視鏡画像から病変を識別するモデルの学習に使用する学習データを収集する。学習データ収集装置80は、受付部82、表示制御部84、紐付部86、及び記録制御部88を備えている。
受付部82は、入力デバイス34による操作を受け付ける。表示制御部84は、内視鏡画像及び所見診断情報をディスプレイ36に表示させる。紐付部86は、受付部82によって受け付けた後述する紐付操作に基づいて、内視鏡画像と所見診断情報とを紐付ける。記録制御部88は、紐付部86によって紐付けられた内視鏡画像と所見診断情報とを、内視鏡管理サーバー40に記録させる。
図1の説明に戻り、ビデオキャプチャ端末38は、不図示の内視鏡装置のカメラが撮影した動画を取り込み、動画格納NAS46に送信する。また、ビデオキャプチャ端末38は、不図示の内視鏡装置のカメラが撮影した静止画を取り込み、内視鏡管理サーバー40に送信する。
内視鏡管理サーバー40は、内視鏡管理レポート端末32を介して不図示の内視鏡装置を管理する。また、内視鏡管理サーバー40は、内視鏡管理レポート端末32によって作成された内視鏡レポート42、及び内視鏡装置のカメラによって撮影された静止画である検査画像44を記録する。
動画格納NAS46は、内視鏡装置のカメラによって撮影された動画を記録する。
AI学習LAN50には、AIエンジン52が接続されている。AIエンジン52は、入力された内視鏡画像に含まれる病変を識別し、識別した病変の情報を出力する。AIエンジン52は、例えばGPU(Graphics Processing Unit)により構成される。
図3は、AIエンジン52の構成の一例を示すブロック図である。AIエンジン52は、入力部54、特徴量抽出部56、識別部58、出力部60、学習データ入力部62、及び学習部64を備えている。
入力部54には、内視鏡画像が入力される。内視鏡画像は、静止画に限定されず、動画でもよい。
特徴量抽出部56は、入力部54に入力された内視鏡画像から特徴量を抽出する。識別部58(識別器の一例)は、特徴量抽出部56によって抽出された特徴量から、モデルを用いて内視鏡画像に含まれる病変を識別する。出力部60は、識別部58が識別した病変の情報を出力する。
学習データ入力部62は、モデルを学習させるための学習データが入力される。学習部64は、識別部58のモデルと同様のモデルを備えている。学習部64は、学習データ入力部62に入力された学習データによってモデルを学習させる。学習部64によって学習された学習済みモデルは、識別部58に入力される。これにより、識別部58のモデルが学習済みモデルに更新される。
特徴量抽出部56及び識別部58においてモデルを用いて内視鏡画像に含まれる病変を識別する構成とし、学習部64は、特徴量抽出部56及び識別部58のモデルを学習して学習済みモデルに更新してもよい。
再び図1の説明に戻り、電子カルテシステム22と内視鏡管理サーバー40とは、オーダーゲートウェイ70を介して接続されている。オーダーゲートウェイ70は、1台のコンピューターサーバーから構成される。オーダーゲートウェイ70は、電子カルテシステム22又は不図示のオーダーリングシステムから、検査情報及び患者情報を受信し、内視鏡管理サーバー40に検査オーダー情報を送信する。内視鏡管理サーバー40は、受信した検査オーダー情報を記録する。
また、オーダーゲートウェイ70は、内視鏡管理サーバー40から内視鏡レポート42及び検査実績情報を受信し、電子カルテシステム22又は不図示の医事会計システムに送信する。
病理システム24と内視鏡管理サーバー40とは、病理システムゲートウェイ72を介して接続されている。病理システムゲートウェイ72は、1台のコンピューターサーバーから構成される。病理システムゲートウェイ72は、病理システム24から病理診断結果を取得し、内視鏡管理サーバー40に病理診断結果を送信する。内視鏡管理サーバー40は、受信した病理診断結果を記録する。
AIエンジン52と内視鏡管理サーバー40とは、AI学習データ出力ゲートウェイ74を介して接続されている。AI学習データ出力ゲートウェイ74は、内視鏡管理サーバー40から学習データを受信し、AIエンジン52に送信する。
〔学習方法〕
内視鏡画像学習システム10は、内視鏡画像と所見診断情報とを学習データとして、内視鏡画像から病変を識別するモデルを学習させる。図4は、内視鏡画像学習システム10を用いた学習方法の処理を示すフローチャートである。学習方法は、内視鏡検査実施工程(ステップS10)、内視鏡レポート作成工程(ステップS20)、AI学習画像紐付け工程(ステップS30)、病理依頼工程(ステップS40)、AI学習データ出力工程(ステップS50)、及びAI学習工程(ステップS60)を有する。
〔内視鏡検査実施工程の詳細〕
内視鏡検査実施工程では、患者に対して内視鏡検査を実施する。図5は、内視鏡検査実施工程の詳細の処理を示すフローチャートである。内視鏡検査実施工程は、検査情報取得工程(ステップS11)、動画撮影開始工程(ステップS12)、病変部位静止画撮影工程(ステップS13)、静止画サーバー転送工程(ステップS14)、動画撮影終了工程(ステップS15)、及び動画サーバー転送工程(ステップS16)を有している。
〈検査情報取得工程(ステップS11)〉
検査情報取得工程では、実施する内視鏡検査の検査情報を取得する。検査情報は、医師が内視鏡管理レポート端末32の入力デバイス34を用いて入力する。検査情報には、検査部位情報、検査日、患者の氏名、年齢、性別等の情報が含まれる。入力された検査情報は、内視鏡管理レポート端末32から内視鏡管理サーバー40に送信される。
〈動画撮影開始工程(ステップS12)〉
動画撮影開始工程では、動画の内視鏡画像の撮影を開始する。医師は、不図示の内視鏡装置のカメラを操作し、動画を撮影する。撮影された動画は、不図示の内視鏡装置の表示装置にリアルタイムに表示される。また、撮影された動画は、ビデオキャプチャ端末38に随時入力される。
〈病変部位静止画撮影工程(ステップS13)〉
病変部位静止画撮影工程では、病変部位の静止画の内視鏡画像を撮影する。医師は、内視鏡装置の表示装置により撮影した動画を観察し、動画に病変部位が写った場合に不図示のカメラを操作し、静止画を撮影する。
〈静止画サーバー転送工程(ステップS14)〉
静止画サーバー転送工程では、撮影した静止画を内視鏡管理サーバー40に転送する。病変部位静止画撮影工程によって撮影された静止画は、不図示の内視鏡装置のカメラから、ビデオキャプチャ端末38に送信される。ビデオキャプチャ端末38は、受信した静止画を内視鏡管理サーバー40に送信する。内視鏡管理サーバー40は、受信した静止画を検査画像44として記録する。内視鏡管理サーバー40は、検査画像44と共に、検査画像のサイズを縮小させたサムネイル画像を記録してもよい。
〈動画撮影終了工程(ステップS15)〉
動画撮影終了工程では、動画の撮影を終了させる。医師は、内視鏡検査が終了すると、不図示の内視鏡装置のカメラによる動画の撮影を終了する。
〈動画サーバー転送工程(ステップS16)〉
動画サーバー転送工程では、撮影した動画を動画格納NAS46に転送する。撮影された動画は、ビデオキャプチャ端末38に随時転送され、動画サーバー転送工程においてビデオキャプチャ端末38から動画格納NAS46に転送される。動画格納NAS46は、転送された動画を検査画像として記録する。
以上により内視鏡検査実施工程が終了する。
〔内視鏡レポート作成工程の詳細〕
内視鏡レポート作成工程では、内視鏡検査実施工程において行った内視鏡検査に関する内視鏡レポート42を作成する。内視鏡レポート42は、医師により内視鏡管理レポート端末32を用いて作成される。
図6は、内視鏡レポート作成工程の詳細の処理を示すフローチャートである。内視鏡レポート作成工程は、キー画像選択工程(ステップS21)、病変マーク工程(ステップS22)、所見診断情報入力工程(ステップS23)、及び終了判定工程(ステップS24)を有している。
〈キー画像選択工程(ステップS21)〉
キー画像選択工程では、医師が内視鏡レポート42の作成に使用するキー画像を選択する。キー画像とは、例えば病変が明確に写った画像である。表示制御部84は、内視鏡管理サーバー40に記録された検査画像をディスプレイ36に表示する。医師は、入力デバイス34を用いて、表示された検査画像の中からキー画像を選択する。キー画像の数は限定されない。
〈病変マーク工程(ステップS22)〉
病変マーク工程では、病変の位置を示す病変マークをキー画像に付加する。医師は、入力デバイス34を用いて、ディスプレイ36に表示されたキー画像に病変マークを付加する。
〈所見診断情報入力工程(ステップS23)〉
所見診断情報入力工程では、所見情報及び診断情報からなる所見診断情報を入力する。医師は、入力デバイス34を用いて、内視鏡検査及びキー画像に関する所見診断情報を入力する。
〈終了判定工程(ステップS24)〉
終了判定工程では、選択したキー画像について全ての入力が終了したか否かを判定する。入力が終了していない場合は、ステップS22に戻り、同様の処理を行う。全ての入力が終了した場合は、医師が入力デバイス34を用いてその旨の入力を行うことで内視鏡レポート42が完成し、内視鏡レポート作成工程が終了する。
〔AI学習画像紐付け工程の詳細〕
AI学習画像紐付け工程では、内視鏡画像と所見診断情報とを紐付けて、AIエンジン52の学習に使用する学習データを作成する(学習データ収集方法の一例)。AI学習画像紐付け工程は、内視鏡管理レポート端末32を用いて行われる。
図7は、ディスプレイ36に表示された内視鏡レポート作成画面100の一例を示す図である。前述した内視鏡レポート作成工程(ステップS20)は、内視鏡レポート作成画面100において行われる。
内視鏡レポート作成画面100には、症例収録ボタン102が表示されている。内視鏡レポート42の作成後、医師は、入力デバイス34のマウス等のポインティングデバイスを使用して症例収録ボタン102にポインタを合わせてクリックする。この操作により、ディスプレイ36の表示は、AI学習画像紐付け画面110に移行する。この操作を、終了判定工程(ステップS24)の終了の入力としてもよい。
図8は、ディスプレイ36に表示されたAI学習画像紐付け画面110の一例を示す図である。AI学習画像紐付け工程は、AI学習画像紐付け画面110において行われる。図8に示すように、AI学習画像紐付け画面110は、画像表示エリア112及び所見診断情報表示エリア114を有している。
表示制御部84は、ディスプレイ36にAI学習画像紐付け画面110を表示させる。また、内視鏡管理サーバー40から、内視鏡レポート作成工程において内視鏡レポート42が作成された患者の検査画像44を読み出し、画像表示エリア112に表示させる(表示制御工程の一例)。
表示制御部84は、いずれか1つがアクティブとなる複数のタブを画像表示エリア112に表示させる。図8に示す例では、タブ116-1、116-2、及び116-3を表示させている。
表示制御部84は、紐付け可能な全ての検査画像を1つのグループとして分類し、このグループの検査画像をタブ116-1に関連する領域に表示させる。検査画像が静止画であれば静止画のサムネイル画像を表示してもよいし、検査画像が動画であれば動画の先頭画像等の代表画像を表示してもよい。図8に示す例では、タブ116-1がアクティブとなっており、紐付け可能な検査画像が画像表示エリア112に表示されている。タブ116-1には、タブの種類を識別するために「ALL」の文字が表示されている。
なお、画像表示エリア112における表示画像の大きさは適宜選択可能となっている。図8に示す例では、画像表示エリア112に2つの検査画像118-1及び118-2が表示されているが、表示画像の大きさを相対的に小さく設定することで、表示画像の数量を相対的に多くすることができる。
また、表示制御部84は、内視鏡管理サーバー40から内視鏡レポート作成工程において内視鏡レポート42が作成された患者の所見診断情報を読み出し、所見診断情報表示エリア114に表示させる(表示制御工程の一例)。図8に示す例では、2つの所見診断情報120-1及び120-2が表示されている。所見診断情報120-1及び120-2には、それぞれ所見診断情報に対応する識別情報122-1である番号「1」、及び識別情報122-2に対応する番号「2」が付されている。
画像表示エリア112に表示されたタブ116-2及び116-3は、それぞれ所見診断情報120-1及び120-2に関連したタブである。タブ116-2及び116-3には、タブの種類を識別するために識別情報122-1の番号「1」及び識別情報122-2の番号「2」が表示されている。
図9は、AI学習画像紐付け工程の詳細の処理を示すフローチャートである。AI学習画像紐付け工程は、AI学習画像選択工程(ステップS31)、紐付工程(ステップS32)、全画像判定工程(ステップS33)、及び全所見診断情報判定工程(ステップS34)を有している。
〈AI学習画像選択工程(ステップS31)〉
AI学習画像選択工程では、AI学習に使用する検査画像と、その検査画像に関する所見診断情報とを選択する。
医師は、AI学習画像紐付け画面110の画像表示エリア112に表示された検査画像のうちの少なくとも1つの検査画像を選択する。また、所見診断情報表示エリア114に表示された所見診断情報のうち、選択した検査画像と紐付ける所見診断情報を選択する(受付工程の一例)。そして、入力デバイス34を用いて、選択した検査画像を選択した所見診断情報の位置にドラッグアンドドロップ操作する。
ドラッグ操作とは、マウスを使用した場合であれば、選択した検査画像の位置にマウスポインタの位置を合わせた状態でマウスの左ボタンをクリック操作し、クリック操作を維持した状態でマウスポインタを移動させる操作である。ドラッグ操作中は、マウスポインタの移動に伴って選択された検査画像が複写されて移動する。また、ドロップ操作とは、ドラッグ操作したマウスポインタ又は複写された検査画像の位置を、選択した所見診断情報の位置に合わせた状態で、マウスの左ボタンを解除する操作である。
図10は、AI学習画像紐付け画面110において、選択した検査画像118-1を、選択した所見診断情報120-1に向けてドラッグ操作している状態の一例を示す図である。ドラッグ操作中は、選択した検査画像118-1の複写画像126がマウスポインタ124と共に移動する。
〈紐付工程(ステップS32)〉
紐付工程では、選択された検査画像と所見診断情報とを紐付ける。ここでは、紐付部86は、AI学習画像選択工程においてドラッグアンドドロップされた検査画像と所見診断情報とを紐付ける。図10に示した例では、検査画像118-1と所見診断情報120-1とが紐付けされる。
このように、検査画像を所見診断情報にドラッグアンドドロップすることで、検査画像と所見診断情報との紐付けを容易に行うことができる。
図11は、検査画像118-1と所見診断情報120-1とが紐付けされた後のAI学習画像紐付け画面110の一例を示す図である。表示制御部84は、検査画像118-1に紐付けられた所見診断情報120-1を示す識別情報122-1の番号「1」を、付属表示128-1として検査画像118-1に付属して表示する。これにより、医師は、検査画像118-1が所見診断情報120-1に紐付けられたことを確認することができる。
図12は、さらに検査画像118-2と所見診断情報120-1との紐付け、及び検査画像118-2と所見診断情報120-2との紐付けを行った後のAI学習画像紐付け画面110の一例を示す図である。
検査画像118-2には、識別情報122-1の番号「1」を示す付属表示128-2、及び識別情報122-の番号「2」を示す付属表示128-3が付属して表示されている。これにより、医師は、検査画像118-2が所見診断情報120-1及び120-2に紐付けられたことを確認することができる。
このように、紐付け後の画像に所見診断情報の識別情報を示す付属表示を表示することで、どの所見診断情報に画像を紐付けたのかを識別することが可能となる。また、1つの検査画像を複数の所見診断情報に紐付けた場合に、それぞれの所見診断情報の識別情報が表示されるため、紐付けた全ての所見診断情報を識別することが可能となる。
図9~図12に示したAI学習画像紐付け画面110は、タブ116-1がアクティブにされていたが、医師は入力デバイス34によりタブ116-2又は116-3のタブをアクティブにすることができる。
図13は、図12に示すAI学習画像紐付け画面110において、医師が入力デバイス34を用いてタブ116-2を選択することで、タブ116-2がアクティブにされた場合のAI学習画像紐付け画面110の一例を示す図である。タブ116-2は、所見診断情報120-1に関連したタブである。表示制御部84は、所見診断情報120-1に紐付けられた検査画像を1つのグループとして分類し、このグループの検査画像をタブ116-2に関連する領域に表示させる。したがって、タブ116-2が選択されると、表示制御部84は、所見診断情報120-1に紐付けられた検査画像を画像表示エリア112に表示させる。図13に示す例では、所見診断情報120-1に紐付けられた検査画像118-1及び118-2が表示されている。
また、図14は、図12に示すAI学習画像紐付け画面110において、医師が入力デバイス34を用いてタブ116-3を選択することで、タブ116-3がアクティブにされた場合のAI学習画像紐付け画面110の一例を示す図である。タブ116-3は所見診断情報120-2に関連したタブである。表示制御部84は、所見診断情報120-2に紐付けられた検査画像を1つのグループとして分類し、このグループの検査画像をタブ116-3に関連する領域に表示させる。したがって、タブ116-3が選択されると、表示制御部84は所見診断情報120-2に紐付けられた検査画像を画像表示エリア112に表示させる。図14に示す例では、所見診断情報120-2に紐付けられた検査画像118-2が表示されている。
このように、表示制御部84は、所見診断情報に紐付けられた検査画像を所見診断情報毎のグループに分類し、かつタブを用いてグループ毎に検査画像を切り替え表示させる。したがって、画像表示エリア112に表示された複数のタブのうち所望のタブを選択することで、選択したタブに関連する所見診断情報に紐付けされた検査画像のみを表示させることができる。これにより、所見診断情報に紐付けられた画像の抜け漏れを確認することができる。医師は、所見診断情報毎に必要な画像が揃っていることを確認し、過不足があれば再度選択操作を行う。
ここでは1つの検査画像毎にドラッグアンドドロップ操作する例を説明したが、複数の検査画像を選択画像としてドラッグアンドドロップ操作してもよい。図15は、AI学習画像紐付け画面110において、画像表示エリア112に表示された検査画像118-3~118-10のうち、検査画像118-3、118-7、118-8、及び118-9を選択した状態の一例を示す図である。ここでは、検査画像118-3、118-7、118-8、及び118-9が選択済みであることが認識できるように、外枠を太線で囲み、チェックボックスにチェックを入れている。
この状態から検査画像118-3、118-7、118-8、及び118-9をまとめてドラッグアンドドロップ操作することで、一度の操作で検査画像118-3、118-7、118-8、及び118-9を所望の所見診断情報に紐付けることができる。
また、複数の検査画像を選択した場合に、選択した検査画像を重ねて表示してもよい。図16は、AI学習画像紐付け画面110において、選択された検査画像118-3、118-7、118-8、及び118-9が重ねて表示されている一例を示す図である。このように選択済み画像を重ねて表示することで、表示画像数を削減することができ、医師が検査画像を選択しやすい表示とすることができる。
図15に示す場合と同様に、重ねて表示されている状態から検査画像118-3、118-7、118-8、及び118-9をまとめてドラッグアンドドロップ操作することで、一度の操作で検査画像118-3、118-7、118-8、及び118-9を所望の所見診断情報に紐付けることができる。
ここでは、検査画像を所見診断情報にドラッグアンドドロップ操作する場合について説明したが、所見診断情報を検査画像にドラッグアンドドロップ操作してもよい。
また、紐付操作は、ドラッグアンドドロップ操作に限定されない。図17は、AI学習画像紐付け画面110において、検査画像を選択後にマウスの右ボタンのクリック操作が行われた状態の一例を示す図である。ここでは、検査画像118-3、118-7、118-8、及び118-9が選択されており、その後のクリック操作により右クリックメニュー130が表示されている。
右クリックメニュー130には、選択した検査画像を所見診断情報120-1と紐付けるための「1に紐付け」の選択項目、及び選択した検査画像を所見診断情報120-2と紐付けるための「2に紐付け」の選択項目が含まれている。
医師は、右クリックメニュー130の「1に紐付け」又は「2に紐付け」の選択項目の位置にマウスポインタを合わせてマウスの左ボタンをクリック操作することで、検査画像118-3、118-7、118-8、及び118-9を所見診断情報120-1又は120-2と紐付けることができる。
〈全画像判定工程(ステップS33)〉
全画像判定工程では、全ての検査画像について所見診断情報を紐付けたか否かを判定する。ここでは、タブ116-1に関連する領域に表示された全ての検査画像について判定する。所見診断情報を紐付けていない検査画像が存在する場合は、ステップS31に戻り、同様の処理を行う。全ての検査画像について所見診断情報を紐付けた場合は、ステップS34に移行する。
〈全所見診断情報判定工程(ステップS34)〉
全所見診断情報判定工程では、全ての所見診断情報について検査画像を紐付けたか否かを判定する。ここでは、所見診断情報表示エリア114に表示された全ての所見診断情報について判定する。検査画像を紐付けていない所見診断情報が存在する場合は、ステップS31に戻り、同様の処理を行う。
全ての所見診断情報について検査画像を紐付けた場合は、記録制御部88は、紐付けられた検査画像と所見診断情報とを学習データとして内視鏡管理サーバー40(記録装置の一例)に記録させ(記録制御工程の一例)、本フローチャートの処理を終了してAI学習画像紐付け工程を終了する。
なお、内視鏡画像と所見診断情報とを紐付けた際に、内視鏡管理サーバー40に順次記録させてもよい。また、全ての検査画像について所見診断情報を紐付けていない場合、又は全ての所見診断情報について検査画像を紐付けていない場合であっても、AI学習画像紐付け工程を終了させるようにしてもよい。
〔病理依頼工程の詳細〕
病理依頼工程では、内視鏡検査において採取した病理検体について行うべき病理診断について、依頼書の作成及び病理診断結果の取得を行う。図18は、病理依頼工程の詳細の処理を示すフローチャートである。病理依頼工程は、生検有無判定工程(ステップS41)、病理依頼作成工程(ステップS42)、病理依頼送信工程(ステップS43)、病理診断受診工程(ステップS44)、及び全病理依頼終了判定工程(ステップS45)を有している。
〈生検有無判定工程(ステップS41)〉
生検有無判定工程では、医師が病理診断すべき検体が存在するか否かを判定する。病理診断すべき検体が存在しない場合は、本フローチャートの処理を終了し、病理依頼工程を終了する。病理診断すべき検体が存在する場合は、ステップS42に移行する。
〈病理依頼作成工程(ステップS42)〉
病理依頼作成工程では、医師は、内視鏡管理レポート端末32において、内視鏡検査において取得した病理検体について、内視鏡的所見と病理検体を識別する情報を元に病理依頼を作成する。
〈病理依頼送信工程(ステップS43)〉
病理依頼送信工程では、病理依頼作成工程において作成された病理依頼を、オーダーゲートウェイ70を経由して電子カルテシステム22に送信する。電子カルテシステム22は、受信した病理依頼をオーダーとして管理し、病理システム24に病理診断を依頼する。
〈病理診断受信工程(ステップS44)〉
病理診断受信工程では、病理システムゲートウェイ72が病理依頼済み、かつ病理診断結果未受信の検査に対して、病理システム24から病理診断結果を受信し、内視鏡管理サーバー40に送信する。内視鏡管理サーバー40は、受信した病理診断結果を、紐付けられた検査画像及び所見診断情報にさらに紐付けて格納する。
〈全病理依頼終了判定工程(ステップS45)〉
全病理依頼終了判定工程では、取得した全ての病理検体について病理依頼を行ったか否かを判定する。病理依頼を行っていない病理検体がある場合は、ステップS42に戻り、同様の処理を繰り返す。全ての病理検体について病理依頼を行った場合は、本フローチャートの処理を終了し、病理依頼工程を終了する。
〔AI学習データ出力工程の詳細〕
AI学習データ出力工程では、AI学習画像紐付け工程において紐付けられた検査画像及び所見診断情報を、学習データとして出力する。図19は、AI学習データ出力工程の詳細の処理を示すフローチャートである。AI学習データ出力工程は、学習データ検索工程(ステップS51)、静止画及び動画検索工程(ステップS52)、静止画及び動画データ出力工程(ステップS53)を有している。
〈学習データ検索工程(ステップS51)〉
学習データ検索工程では、AI学習データ出力ゲートウェイ74は、内視鏡管理サーバー40に記録された学習データの中から、学習部64において学習を行っていない未学習データを検索する。例えば、前回AIエンジン52に学習データを送信した時点での内視鏡管理サーバー40に記録された学習データと現在の内視鏡管理サーバー40に記録された学習データとの差分を抽出することで、学習部64において学習を行っていない学習データを検索する。
〈静止画及び動画検索工程(ステップS52)〉
静止画及び動画検索工程では、AI学習データ出力ゲートウェイ74は、内視鏡管理サーバー40に記録された静止画及び動画格納NAS46に記録された動画の中から、学習データ検索工程において検索された未学習データの静止画及び動画を検索する。
〈静止画及び動画データ出力工程(ステップS53)〉
静止画及び動画データ出力工程では、AI学習データ出力ゲートウェイ74は、静止画及び動画検索工程において検索された静止画データ及び動画データと、その静止画及び動画に紐付けられた所見診断情報とを、AIエンジン52に送信する。病理診断結果が紐付けられている場合は、AI学習データ出力ゲートウェイ74は、その病理診断結果を併せてAIエンジン52に送信する。送信された静止画データ等は、学習データ入力部62から学習部64に入力される。
〔AI学習工程(ステップS60)〕
AI学習工程では、学習部64は、学習データ入力部62に入力された学習データによってモデルを学習させる。学習部64によって学習された学習済みモデルは、識別部58に入力され、識別部58のモデルが学習済みモデルに更新される。
以上のように、本実施形態によれば、モデルを適切に学習させることができる。
<第2の実施形態>
〔病変位置情報の入力〕
第2の実施形態では、学習データとして検査画像の病変位置情報をさらに含める。病変位置情報は、医師が内視鏡管理レポート端末32を用いて入力する。本実施形態では、病変位置をバウンディングボックスで記録する。バウンディングボックスとは、病変を含む矩形領域であり、ここでは少なくとも2つの座標位置により特定される。
図20は、第2の実施形態に係る内視鏡管理レポート端末32の構成の一例を示すブロック図である。なお、図に示すブロック図と共通する部分には同一の符号を付し、その詳細な説明は省略する。
内視鏡管理レポート端末32の受付部82は、座標受信部83を備えている。座標受信部83は、入力デバイス34から入力されたバウンディングボックスの少なくとも2つの座標位置を受信して受け付ける。
図21は、病変位置情報入力方法の処理を示すフローチャートである。ここでは、1回の内視鏡検査によって撮影された複数の検査画像について、順に病変位置情報を入力する方法について説明する。病変位置情報入力方法は、検査画像表示工程(ステップS71)、矩形領域入力工程(ステップS72)、病変位置情報紐付工程(ステップS73)、及び終了判定工程(ステップS74)を有している。
〈検査画像表示工程(ステップS71)〉
検査画像表示工程では、表示制御部84は、内視鏡管理サーバー40に記録された検査画像のうち該当する内視鏡検査の検査画像の1つをディスプレイ36に表示する。
図22は、ディスプレイ36に表示された病変位置情報入力画面140の一例を示す図である。病変位置情報入力は、病変位置情報入力画面140において行われる。図22に示す病変位置情報入力画面140には、検査画像142-1が表示されている。また、検査画像142-1には、病変Lが含まれている。
〈矩形領域入力工程(ステップS72)〉
矩形領域入力工程では、ディスプレイ36に表示された検査画像に対して、医師が病変位置を含む矩形領域を入力する。矩形領域の入力は、矩形領域の左上の1点目を指定し、さらに矩形領域の1点目の対角となる右下の2点目を指定することで行う。1点目及び2点目の指定は、例えば入力デバイス34のマウスの操作、又はタッチパネルによる指の操作等によって行う。
図22~図25は、病変位置情報入力画面140において、マウスの操作によって矩形領域を入力する一例を示す図である。検査画像142-1の病変Lを含む最小面積の矩形領域は、左上の位置が位置P、右下の位置が位置Pであるとする。ここでは、左上の位置が位置P、右下の位置が位置Pである矩形領域を入力する場合について説明する。
表示制御部84は、病変位置情報入力画面140に、マウスポインタ144、ガイドライン146、及びガイドライン148を表示させる。即ち、図22に示すように、病変位置情報入力画面140には、マウスポインタ144が表示される。また、病変位置情報入力画面140には、マウスポインタ144の垂直方向位置及び水平方向位置を見やすく示すための垂直方向のガイドライン146、及び水平方向のガイドライン148が表示される。ガイドライン146及び148の交点がマウスポインタ144の位置である。
医師が矩形領域を入力するには、最初に、図22に示すように、マウスポインタ144を位置Pに移動させる。続いて、マウスポインタ144を位置Pに合わせた状態でマウスの左ボタンを押すクリック操作を行い、クリック操作を維持した状態でマウスポインタ144を位置Pに向けて移動させるドラッグ操作を行う。図23は、位置Pから位置Pに到達するまでのドラッグ操作中の状態を示す図である。図23に示すように、ドラッグ操作中は、ドラッグ開始位置(ここでは位置P)と現在のマウスポインタ144の位置とを対角とする矩形150が表示される。
さらにドラッグ操作を継続し、図24に示すようにマウスポインタ144を位置Pへ移動させたら、マウスポインタ144が位置Pに合わせた状態でマウスのクリック操作を解除する。
この操作により、左上の位置が位置P、右下の位置が位置Pである矩形150がバウンディングボックス152として確定する。受付部82の座標受信部83は、バウンディングボックス152の左上の位置Pのディスプレイ36内の座標(X,Y)、及び右下の位置Pのディスプレイ36内の座標(X,Y)を受信する。
なお、ここでは、病変Lを含む最小面積の矩形領域を入力したが、矩形領域が病変Lを含んでいれば最小面積の矩形領域でなくてもよい。
タッチパネルを用いて矩形領域を入力する場合は、例えば、矩形領域の1点目とする位置に指で触れ、タッチパネルに指を触れたまま、矩形領域の2点目とする位置まで指を移動させ、タッチパネルから離せばよい。また、2本の指を用いて1点目及び2点目を同時に指定してもよい。
〈病変位置情報紐付工程(ステップS73)〉
病変位置情報紐付工程では、紐付部86は、矩形領域入力工程において入力された矩形領域から病変位置情報を算出し、算出した病変位置情報を検査画像に紐付ける。
紐付部86は、表示制御部84がディスプレイ36に表示させた検査画像142-1のディスプレイ36内の座標を取得する。この検査画像142-1のディスプレイ36内の座標とバウンディングボックス152のディスプレイ36内の座標とから、検査画像142-1内におけるバウンディングボックス152の座標を病変位置情報として算出する。
記録制御部88は、算出した病変位置情報を検査画像に紐付けて内視鏡管理サーバー40に記録させる。
〈終了判定工程(ステップS74)〉
終了判定工程では、全ての検査画像について病変位置情報を紐付けたか否かを判定する。病変位置情報を紐付けていない検査画像が存在する場合は、ステップS71へ戻り、同様の処理を繰り返す。即ち、図25に示すように、表示制御部84は、検査画像142-1の次の検査画像である検査画像142-2をディスプレイ36に表示する。
矩形領域入力工程においてドラッグ操作を終了し、検査画像142-1の矩形領域の入力が終了すると、ただちに検査画像142-2が表示される。このように、ドラッグ操作終了以外の操作を待たずに次の検査画像を表示させることで、矩形領域の入力を迅速に行うことができる。なお、ドラッグ操作終了後に次の検査画像を表示させるためのボタン等をクリックすることで、次の検査画像を表示させてもよい。このように次の検査画像を表示させることで、1つの画像について複数の矩形領域を入力させることができる。
全ての検査画像について病変位置情報を紐付けた場合は、本フローチャートの処理を終了する。
本実施形態に係る病変位置情報の入力は、例えば、第1実施形態のAI学習画像選択工程(ステップS31)の前に行うことができる。また、紐付工程(ステップS32)の後に、所見診断情報が紐付けられた検査画像に対してのみ行うことが考えられる。病変マーク工程(ステップS22)において、同様の処理を行ってもよい。
また、学習データ検索工程(ステップS51)において、病変位置情報が付加されている条件で検索を行うようにすることも考えられる。また、検索条件として病変位置情報の面積を使用することも考えられる。
本実施形態では、矩形領域の1点目を左上、2点目を右下として指定したが、対角となる2点を指定できればよく、指定する位置と順序は限定されない。また、矩形領域の角は丸まっていてもよい。病変位置情報は円形領域で入力されてもよい
図26は、円形領域を入力する一例について示す図である。マウスポインタ144を病変Lの中心位置である位置Pに合わせた状態でマウスの左ボタンを押してドラッグ操作を行うと、位置Pを中心とする円形領域154が広がる。この円形領域154が病変Lを含む位置においてドラッグ操作を解除することで、円形領域を入力することができる。
紐付部86は、ディスプレイ36における円形領域154の中心座標と中心座標からの距離(円形領域の半径)を検査画像142-1内における中心座標及び中心座標からの距離に変換し、病変位置情報として取得する。
また、3つの点を指定することで楕円領域を入力してもよい。この場合、1点目に中心座標、2点目に水平方向の中心座標からの距離、3点目に垂直方向の中心座標からの距離を指定する等が考えられる。
さらに、検査画像表示工程において新たな検査画像を表示する際に、1つ前の検査画像の矩形領域入力で用いたバウンディングボックスを表示させてもよい。図27に示す例では、2つ目の検査画像142-2の矩形領域入力の際に、1つ目の検査画像142-1のバウンディングボックス156を表示している。また、図28に示す例では、2つ目の検査画像142-2の円形領域入力の際に、1つ目の検査画像142-1の円形領域158を表示している。
同じ病変の場合は同様の位置及び同様の大きさで写ることが多いため、以前に指定した位置を目安として表示することで、病変位置の指定が容易になる。
<第3の実施形態>
第1の実施形態において生成された学習済みモデルを用いて医療画像を解析する医療画像処理装置を備えた内視鏡装置について説明する。
図29は、内視鏡装置90の構成の一例を示すブロック図である。内視鏡装置90は、例えば内視鏡部門ローカルLAN30(図1参照)に接続される。内視鏡装置90は、内視鏡91、医療画像処理装置94、及び表示装置98を備えている。
内視鏡91は、光源92及びカメラ93を備えている。光源92は、患者の体腔内の被観察領域に照射光を照射する。カメラ93は、被観察領域からの反射光を受光して被観察領域の内視鏡画像を撮影する。
医療画像処理装置94(内視鏡画像処理装置の一例)は、医療画像取得部95、医療画像解析処理部96、及び医療画像解析結果取得部97を備えている。
医療画像取得部95は、医療画像を取得する。本実施形態では、内視鏡91によって撮影された内視鏡画像を取得する。
医療画像解析処理部96は、医療画像取得部95によって取得された医療画像を解析する。本実施形態では、第1の実施形態において生成された学習済みモデルを用いて内視鏡画像から病変を識別する。
医療画像解析結果取得部97は、医療画像解析処理部96における解析結果を取得する。
表示装置98は、例えば液晶モニタが適用される。表示装置98には、内視鏡91により撮影された内視鏡画像、及び医療画像解析結果取得部97において取得された解析結果が表示される。本実施形態では、識別した病変の領域を着色して内視鏡画像に重畳表示させる。病変の領域を枠で囲んで重畳表示させてもよい。
このように構成された内視鏡装置90によれば、撮影中の内視鏡画像から学習済みモデルによって病変を識別し、内視鏡検査を行う医師に病変を認識させることができる。
ここでは、医療画像処理装置94を内視鏡装置90に設けた場合について説明したが、内視鏡管理レポート端末32、又はビデオキャプチャ端末38に設けてもよい。
<付記>
上述した態様及び例に加えて、以下に記載の構成も本発明の範囲に含まれる。
〔付記1〕
医療画像解析処理部は、医療画像の画素の特徴量に基づいて、注目すべき領域である注目領域を検出し、
医療画像解析結果取得部は、医療画像解析処理部の解析結果を取得する医療画像処理装置。
〔付記2〕
医療画像解析処理部は、医療画像の画素の特徴量に基づいて、注目すべき対象の有無を検出し、
医療画像解析結果取得部は、医療画像解析処理部の解析結果を取得する医療画像処理装置。
〔付記3〕
医療画像解析結果取得部は、
医療画像の解析結果を記録する記録装置から取得し、
解析結果は、医療画像に含まれる注目すべき領域である注目領域と、注目すべき対象の有無のいずれか、もしくは両方である医療画像処理装置。
〔付記4〕
医療画像は、白色帯域の光、または白色帯域の光として複数の波長帯域の光を照射して得た通常光画像である医療画像処理装置。
〔付記5〕
医療画像は、特定の波長帯域の光を照射して得た画像であり、
特定の波長帯域は、白色の波長帯域よりも狭い帯域である医療画像処理装置。
〔付記6〕
特定の波長帯域は、可視域の青色もしくは、緑色帯域である医療画像処理装置。
〔付記7〕
特定の波長帯域は、390nm以上450nm以下または530nm以上550nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、390nm以上450nm以下または530nm以上550nm以下の波長帯域内にピーク波長を有する医療画像処理装置。
〔付記8〕
特定の波長帯域は、可視域の赤色帯域である医療画像処理装置。
〔付記9〕
特定の波長帯域は、585nm以上615nm以下または610nm以上730nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、585nm以上615nm以下または610nm以上730nm以下の波長帯域内にピーク波長を有する医療画像処理装置。
〔付記10〕
特定の波長帯域は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域を含み、かつ、特定の波長帯域の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域にピーク波長を有する医療画像処理装置。
〔付記11〕
特定の波長帯域は、400±10nm、440±10nm、470±10nm、または、600nm以上750nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、400±10nm、440±10nm、470±10nm、または、600nm以上750nm以下の波長帯域にピーク波長を有する医療画像処理装置。
〔付記12〕
医療画像は生体内を写した生体内画像であり、
生体内画像は、生体内の蛍光物質が発する蛍光の情報を有する医療画像処理装置。
〔付記13〕
蛍光は、ピークが390nm以上470nm以下である励起光を生体内に照射して得る医療画像処理装置。
〔付記14〕
医療画像は生体内を写した生体内画像であり、
特定の波長帯域は、赤外光の波長帯域である医療画像処理装置。
〔付記15〕
特定の波長帯域は、790nm以上820nm以下または905nm以上970nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、790nm以上820nm以下または905nm以上970nm以下の波長帯域にピーク波長を有する医療画像処理装置。
〔付記16〕
医療画像取得部は、白色帯域の光、または白色帯域の光として複数の波長帯域の光を照射して得る通常光画像に基づいて、特定の波長帯域の情報を有する特殊光画像を取得する特殊光画像取得部を備え、
医療画像は特殊光画像である医療画像処理装置。
〔付記17〕
特定の波長帯域の信号は、通常光画像に含まれるRGB(Red Green Blue)あるいはCMY(Cyan, Magenta, Yellow)の色情報に基づく演算により得る医療画像処理装置。
〔付記18〕
白色帯域の光、または白色帯域の光として複数の波長帯域の光を照射して得る通常光画像と、特定の波長帯域の光を照射して得る特殊光画像との少なくとも一方に基づく演算によって、特徴量画像を生成する特徴量画像生成部を備え、
医療画像は特徴量画像である医療画像処理装置。
〔付記19〕
付記1から18のいずれか1つに記載の医療画像処理装置と、
白色の波長帯域の光、または、特定の波長帯域の光の少なくともいずれかを照射して画像を取得する内視鏡と、
を備える内視鏡装置。
〔付記20〕
付記1から18のいずれか1つに記載の医療画像処理装置を備える診断支援装置。
〔付記21〕
付記1から18のいずれか1つに記載の医療画像処理装置を備える医療業務支援装置。
<その他>
上記の画像処理方法は、各工程をコンピュータに実現させるためのプログラムとして構成し、このプログラムを記憶したCD-ROM(Compact Disk-Read Only Memory)等の非一時的な記録媒体を構成することも可能である。
ここまで説明した実施形態において、例えば、学習データ収集装置80の各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、画像処理に特化したプロセッサであるGPU(Graphics Processing Unit)、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ、又はCPUとGPUの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、サーバー及びクライアント等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、各種のプロセッサを1つ以上用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(circuitry)である。
本発明の技術的範囲は、上記の実施形態に記載の範囲には限定されない。各実施形態における構成等は、本発明の趣旨を逸脱しない範囲で、各実施形態間で適宜組み合わせることができる。
10…内視鏡画像学習システム
20…院内LAN
22…電子カルテシステム
24…病理システム
30…内視鏡部門ローカルLAN
32…内視鏡管理レポート端末
34…入力デバイス
36…ディスプレイ
38…ビデオキャプチャ端末
40…内視鏡管理サーバー
42…内視鏡レポート
44…検査画像
46…動画格納NAS
50…AI学習LAN
52…AIエンジン
54…入力部
56…特徴量抽出部
58…識別部
60…出力部
62…学習データ入力部
64…学習部
70…オーダーゲートウェイ
72…病理システムゲートウェイ
74…AI学習データ出力ゲートウェイ
80…学習データ収集装置
82…受付部
83…座標受信部
84…表示制御部
86…紐付部
88…記録制御部
90…内視鏡装置
91…内視鏡
92…光源
93…カメラ
94…医療画像処理装置
95…医療画像取得部
96…医療画像解析処理部
97…医療画像解析結果取得部
100…内視鏡レポート作成画面
102…症例収録ボタン
110…AI学習画像紐付け画面
112…画像表示エリア
114…所見診断情報表示エリア
116-1~116-3…タブ
118-1~118-10…検査画像
120-1,120-2…所見診断情報
122-1,122-2…識別情報
124,144…マウスポインタ
126…複写画像
128-1~128-3…付属表示
130…右クリックメニュー
140…病変位置情報入力画面
142-1,142-2…検査画像
146,148…ガイドライン
150…矩形
152,156…バウンディングボックス
154,158…円形領域
S10~S60…学習方法の各工程
S71~S74…病変位置情報入力方法の各工程

Claims (17)

  1. 内視鏡によって撮影された1つ又は複数の内視鏡画像を表示装置の画像表示エリアに表示させ、かつ病変に関する1つ又は複数の所見診断情報を前記表示装置の所見診断情報表示エリアに表示させる表示制御部と、
    入力装置による操作であって、前記画像表示エリアに表示された内視鏡画像のうち少なくとも1つの内視鏡画像と、前記所見診断情報表示エリアに表示された所見診断情報のうち前記少なくとも1つの内視鏡画像に関する所見診断情報とを選択する操作を受け付ける受付部と、
    前記選択された内視鏡画像と前記選択された所見診断情報とを紐付ける紐付部と、
    前記紐付けられた内視鏡画像と所見診断情報とを、内視鏡画像から病変を識別するモデルの学習に使用する学習データとして記録装置に記録させる記録制御部と、
    を備え、
    前記表示制御部は、前記紐付部において所見診断情報に紐付けられた内視鏡画像を所見診断情報毎のグループに分類し、かつタブを用いて前記グループ毎に内視鏡画像を切り替え表示させる学習データ収集装置。
  2. 前記受付部は、前記入力装置によって1つのタブを選択する操作を受け付け、
    前記表示制御部は、前記選択されたタブのグループに分類された内視鏡画像を前記画像表示エリアに表示させる請求項1に記載の学習データ収集装置。
  3. 前記表示制御部は、選択可能な全ての内視鏡画像を1つのグループとして分類する請求項1又は2に記載の学習データ収集装置。
  4. 前記受付部は、前記画像表示エリアに表示された内視鏡画像のうちの少なくとも1つの内視鏡画像を前記所見診断情報表示エリアに表示された所見診断情報にドラッグアンドドロップする操作を受け付け、
    前記紐付部は、前記ドラッグアンドドロップされた内視鏡画像と所見診断情報とを紐付ける請求項1から3のいずれか1項に記載の学習データ収集装置。
  5. 前記受付部は、前記所見診断情報表示エリアに表示された所見診断情報のうちの少なくとも1つの所見診断情報を前記画像表示エリアに表示された内視鏡画像にドラッグアンドドロップする操作を受け付け、
    前記紐付部は、前記ドラッグアンドドロップされた内視鏡画像と所見診断情報とを紐付ける請求項1から4のいずれか1項に記載の学習データ収集装置。
  6. 前記表示制御部は、内視鏡画像に付属させて前記紐付けられた所見診断情報を示す識別情報を前記画像表示エリアに表示させる請求項1から5のいずれか1項に記載の学習データ収集装置。
  7. 前記表示制御部は、前記識別情報を前記タブに表示させる請求項6に記載の学習データ収集装置。
  8. 前記識別情報は、所見診断情報に対応する番号である請求項6又は7に記載の学習データ収集装置。
  9. 前記表示制御部は、所見診断情報に付属させて前記識別情報を前記所見診断情報表示エリアに表示させる請求項6から8のいずれか1項に記載の学習データ収集装置。
  10. 前記表示制御部は、前記選択された内視鏡画像を重ねて表示する請求項1から9のいずれか1項に記載の学習データ収集装置。
  11. 前記受付部は、前記内視鏡画像に写った病変を指定する操作を受け付け、
    前記紐付部は、前記指定された病変の位置情報を算出し、
    前記記録制御部は、前記算出した病変の位置情報を前記学習データとして前記記録装置に記録させる請求項1から10のいずれか1項に記載の学習データ収集装置。
  12. 表示装置と、
    入力装置と、
    記録装置と、
    請求項1から11のいずれか1項に記載の学習データ収集装置と、
    モデルを用いて内視鏡画像から病変を識別する識別器と、
    を備え、
    前記学習データを用いて前記モデルを学習させる学習システム。
  13. 請求項12に記載の学習システムによって学習された学習済みモデル。
  14. 請求項13に記載の学習済みモデルを用いて内視鏡画像を解析する内視鏡画像処理装置。
  15. コンピュータが、
    内視鏡によって撮影された1つ又は複数の内視鏡画像を表示装置の画像表示エリアに表示させ、かつ病変に関する1つ又は複数の所見診断情報を前記表示装置の所見診断情報表示エリアに表示させる表示制御工程と、
    入力装置による操作であって、前記画像表示エリアに表示された内視鏡画像のうち少なくとも1つの内視鏡画像と、前記所見診断情報表示エリアに表示された所見診断情報のうち前記少なくとも1つの内視鏡画像に関する所見診断情報とを選択する操作を受け付ける受付工程と、
    前記選択された内視鏡画像と前記選択された所見診断情報とを紐付ける紐付工程と、
    前記紐付けられた内視鏡画像と所見診断情報とを、内視鏡画像から病変を識別するモデルの学習に使用する学習データとして記録装置に記録させる記録制御工程と、
    実行し
    前記表示制御工程は、前記紐付工程において所見診断情報に紐付けられた内視鏡画像を所見診断情報毎のグループに分類し、かつタブを用いて前記グループ毎に内視鏡画像を切り替え表示させる学習データ収集方法。
  16. 請求項15に記載の学習データ収集方法をコンピュータに実行させるためのプログラム。
  17. 非一時的かつコンピュータ読取可能な記録媒体であって、前記記録媒体に格納された指令がコンピュータによって読み取られた場合に請求項16に記載のプログラムをコンピュータに実行させる記録媒体。
JP2020521812A 2018-05-28 2019-05-07 学習データ収集装置、学習データ収集方法及びプログラム、学習システム、学習済みモデル、並びに内視鏡画像処理装置 Active JP7042907B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018101498 2018-05-28
JP2018101498 2018-05-28
PCT/JP2019/018231 WO2019230302A1 (ja) 2018-05-28 2019-05-07 学習データ収集装置、学習データ収集方法及びプログラム、学習システム、学習済みモデル、並びに内視鏡画像処理装置

Publications (2)

Publication Number Publication Date
JPWO2019230302A1 JPWO2019230302A1 (ja) 2021-06-24
JP7042907B2 true JP7042907B2 (ja) 2022-03-28

Family

ID=68696941

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020521812A Active JP7042907B2 (ja) 2018-05-28 2019-05-07 学習データ収集装置、学習データ収集方法及びプログラム、学習システム、学習済みモデル、並びに内視鏡画像処理装置

Country Status (5)

Country Link
US (1) US11776692B2 (ja)
EP (1) EP3806101A4 (ja)
JP (1) JP7042907B2 (ja)
CN (1) CN112189236A (ja)
WO (1) WO2019230302A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102672710B1 (ko) * 2023-07-06 2024-06-05 주식회사 서르 내시경 영상 합성 장치 및 합성 방법

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6872581B2 (ja) * 2018-12-04 2021-05-19 Hoya株式会社 情報処理装置、内視鏡用プロセッサ、情報処理方法およびプログラム
JP7462424B2 (ja) 2020-01-15 2024-04-05 キヤノンメディカルシステムズ株式会社 医用情報処理装置、学習用データ生成プログラムおよび学習用データ生成方法
WO2021166749A1 (ja) * 2020-02-18 2021-08-26 ソニー・オリンパスメディカルソリューションズ株式会社 学習装置及び医療用画像処理装置
JPWO2022044642A1 (ja) * 2020-08-28 2022-03-03
WO2022230607A1 (ja) * 2021-04-26 2022-11-03 富士フイルム株式会社 医療画像処理装置、内視鏡システム、及び医療画像処理装置の作動方法
JP7190534B1 (ja) * 2021-06-14 2022-12-15 アサヒ飲料株式会社 微生物の検出方法
CN117115241B (zh) * 2023-09-06 2024-03-29 北京透彻未来科技有限公司 一种追寻数字病理图像在缩放过程中中心焦点的方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002336193A (ja) 2001-05-17 2002-11-26 Olympus Optical Co Ltd 診断支援装置
JP2007209770A (ja) 2007-03-16 2007-08-23 Olympus Corp 内視鏡診断支援装置
US20140101080A1 (en) 2012-09-28 2014-04-10 Samsung Electronics Co., Ltd. Apparatus and method of diagnosis using diagnostic models
JP2015146970A (ja) 2014-02-07 2015-08-20 国立大学法人広島大学 内視鏡画像診断支援システム
JP2017189390A (ja) 2016-04-13 2017-10-19 キヤノン株式会社 情報処理システム、情報処理方法及びプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6697743B2 (ja) 2015-09-29 2020-05-27 パナソニックIpマネジメント株式会社 情報端末の制御方法及びプログラム
CN107730489A (zh) * 2017-10-09 2018-02-23 杭州电子科技大学 无线胶囊内窥镜小肠病变计算机辅助检测系统及检测方法
CN113613543A (zh) * 2019-03-18 2021-11-05 奥林巴斯株式会社 诊断辅助装置、诊断辅助方法以及程序

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002336193A (ja) 2001-05-17 2002-11-26 Olympus Optical Co Ltd 診断支援装置
JP2007209770A (ja) 2007-03-16 2007-08-23 Olympus Corp 内視鏡診断支援装置
US20140101080A1 (en) 2012-09-28 2014-04-10 Samsung Electronics Co., Ltd. Apparatus and method of diagnosis using diagnostic models
JP2015146970A (ja) 2014-02-07 2015-08-20 国立大学法人広島大学 内視鏡画像診断支援システム
JP2017189390A (ja) 2016-04-13 2017-10-19 キヤノン株式会社 情報処理システム、情報処理方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102672710B1 (ko) * 2023-07-06 2024-06-05 주식회사 서르 내시경 영상 합성 장치 및 합성 방법

Also Published As

Publication number Publication date
US20210052137A1 (en) 2021-02-25
JPWO2019230302A1 (ja) 2021-06-24
EP3806101A4 (en) 2021-07-21
WO2019230302A1 (ja) 2019-12-05
CN112189236A (zh) 2021-01-05
US11776692B2 (en) 2023-10-03
EP3806101A1 (en) 2021-04-14

Similar Documents

Publication Publication Date Title
JP7042907B2 (ja) 学習データ収集装置、学習データ収集方法及びプログラム、学習システム、学習済みモデル、並びに内視鏡画像処理装置
JP4850892B2 (ja) 眼底画像表示装置及びその制御方法、コンピュータプログラム
JP2021100555A (ja) 医療画像処理装置、内視鏡システム、診断支援方法及びプログラム
CN103975364B (zh) 针对宫颈的光学检查的图像选择
WO2012029265A1 (ja) 医療情報表示装置および方法、並びにプログラム
EP4091532A1 (en) Medical image processing device, endoscope system, diagnosis assistance method, and program
KR20130053587A (ko) 의료기기 및 이를 이용한 의료영상 디스플레이 방법
US12016739B2 (en) Systems and methods for capturing, displaying, and manipulating medical images and videos
JP2008259661A (ja) 検査情報処理システム及び検査情報処理装置
JP6644530B2 (ja) 内視鏡業務支援システム
JP2007319403A (ja) 診療支援システム、診療支援装置及び診療支援プログラム
WO2020174863A1 (ja) 診断支援プログラム、診断支援システム及び診断支援方法
Lampreave et al. Towards assisted electrocardiogram interpretation using an AI-enabled Augmented Reality headset
US20220361739A1 (en) Image processing apparatus, image processing method, and endoscope apparatus
JP2010282355A (ja) 医療検査情報管理システム
JP4810141B2 (ja) 画像管理装置及び画像管理方法
JP6807605B2 (ja) 口腔検診支援システム
JP4459642B2 (ja) 電子カルテ入力システム、電子カルテ作成処理をコンピュータに実行させるプログラム、及びそのプログラムを記録したコンピュータ読み取り可能な情報記録媒体
JP5533198B2 (ja) 医用画像表示装置及びプログラム
CN112750537A (zh) 一种远程医疗指导系统
WO2023018259A1 (ko) 증강 현실 및 가상 현실을 이용하여 원격으로 피부 질환을 진단하는 진단 방법 및 장치
JP7427766B2 (ja) 画像選択支援装置、画像選択支援方法、及び画像選択支援プログラム
JP2012016617A (ja) 眼底画像表示装置及びその制御方法、コンピュータプログラム
WO2023228659A1 (ja) 画像処理装置及び内視鏡システム
JP2022184272A (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201126

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220315

R150 Certificate of patent or registration of utility model

Ref document number: 7042907

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150