JP7476800B2 - 医療支援システム、医療支援装置及び医療支援方法 - Google Patents

医療支援システム、医療支援装置及び医療支援方法 Download PDF

Info

Publication number
JP7476800B2
JP7476800B2 JP2020559953A JP2020559953A JP7476800B2 JP 7476800 B2 JP7476800 B2 JP 7476800B2 JP 2020559953 A JP2020559953 A JP 2020559953A JP 2020559953 A JP2020559953 A JP 2020559953A JP 7476800 B2 JP7476800 B2 JP 7476800B2
Authority
JP
Japan
Prior art keywords
tile
affected area
evaluation
evaluation value
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020559953A
Other languages
English (en)
Other versions
JPWO2020121906A1 (ja
Inventor
志織 笹田
健人 竹中
和朗 大塚
守 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2020121906A1 publication Critical patent/JPWO2020121906A1/ja
Application granted granted Critical
Publication of JP7476800B2 publication Critical patent/JP7476800B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00055Operational features of endoscopes provided with output arrangements for alerting the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Quality & Reliability (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Endoscopes (AREA)

Description

本開示は、医療支援システム、医療支援装置及び医療支援方法に関する。
医師が患者を診療する際には、様々な手法が用いられる。例えば、潰瘍性大腸炎などでは、内視鏡を用いて診療が行われる。この診療では、内視鏡から得られる撮像画像から医師が患部の病状を評価して、長期間に亘ってモニタリングをしながら、投薬量等をコントロールする。このようなモニタリングによる経過観察で病状の評価が困難な場合には、生検を行って病理診断による確定診断を行うことがある(下記の非特許文献参照)。
Theodore R. Levin, 「Complications of Colonoscopy in an Integrated HealthCare Delivery System」, Ann Intern Med, 2006 Dec 19, 145(12):880-6.
しかし、内視鏡の撮像画像からの病状の評価は、目視判断となるため、専門医ごとに個人差による評価ばらつきが生じてしまっていた。また、生検を行って診察する場合には、上記の非特許文献1に記載されるように、検体採取時に穿孔等の影響で出血が生じ、感染症へ罹患する等の生体へのリスクが懸念される。上記事情を鑑みれば、内視鏡を用いた診察において、病状の評価をより簡便に行うことが求められていた。
本開示によれば、患部を撮像して得られた患部画像に基づいて、前記患部に対する評価値を導出する導出装置と、前記評価値をユーザへ呈示する表示装置と、を備え、前記導出装置は、前記患部画像を複数のタイル状のタイル画像として切り出す切出部と、機械学習により得られた判定器を用いて、前記複数の前記タイル画像における前記患部の評価を表すタイル評価値を導出する評価導出部と、を有する、医療支援システムが提供される。
また、本開示によれば、患部を撮像して得られた患部画像を複数のタイル状のタイル画像として切り出す切出部と、機械学習により得られた判定器を用いて、前記複数の前記タイル画像における前記患部の評価を表すタイル評価値を導出する評価導出部と、前記タイル評価値をユーザへ呈示する表示装置を制御する表示制御部と、を有する、医療支援装置が提供される。
また、本開示によれば、導出装置が、患部を撮像して得られた患部画像を複数のタイル状のタイル画像として切り出すことと、機械学習により得られた判定器を用いて、前記複数の前記タイル画像における前記患部の評価を表すタイル評価値を導出することと、表示装置が、前記タイル評価値をユーザへ呈示することと、を含む、医療支援方法が提供される。
本開示の実施形態に係る医療支援システムの概要を示す模式図である。 同実施形態に係る表示の一例を示した図である。 同実施形態に係る医療支援システムの構成の一例を示したブロック図である。 同実施形態に係る医療支援システムの動作の一例を示した模式図である。 同実施形態に係る表示の一例を示した図である。 同実施形態に係る医療支援システムの動作フローの一例を示したフロー図である。 同実施形態に係る医療支援システムの動作フローの一例を示したフロー図である。 同実施形態に係る表示の変形例の一例を示した図である。 解析可能と判断された症例に対してUCEISをスコアリングした際の内視鏡医およびDNUCの間の相関を示す散布図である。 確信度が高いと判断された症例に対してUCEISをスコアリングした際の内視鏡医およびDNUCの間の相関を示す散布図である。 同実施形態に係る医療支援システムのハードウェア構成例を示した図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.技術概要
2.実施形態
2.1.機能と構成
2.2.動作フロー
3.変形例
4.実施例
5.ハードウェア構成例
(1.技術概要)
まず、図1および図2を参照して、本開示の一実施形態に係る医療支援システムの技術概要を説明する。図1は、本開示に係る技術の技術概要を説明する図であり、図2は、医療支援システムが有する表示装置に表示される患部画像の一例を示した図である。
図1および図2を参照すると、消化器系疾患の診察では、医師1は、例えば、内視鏡110を用いて患者2の体内を診察し、内視鏡110により撮像された患者の体内の患部画像Orは、表示装置130に表示されている。医師1は、表示装置130に表示された患部画像Orを視認することで、患者の体内を診察することができる。本開示に係る技術では、表示装置130には、患部画像Orと併せて、機械学習を用いて求められた患部の病状の評価画像A~Dが患部画像Orに重畳されて表示されている。医師1は、機械学習による病状の評価結果を考慮して診断することにより、診察精度を向上させることができる。
次に、図2を参照して、表示装置130に表示される評価画像A~Dに関して説明する。図2に示したように、表示装置130は、例えば、患者の名前Nと内視鏡110の撮像に関する詳細情報Iとを表示し、さらに、内視鏡が撮像した患部画像Orと、患部画像Orに対して機械学習を用いて導出された患部の評価を呈示した評価画像A、評価画像B、評価画像C、及び評価画像Dとを表示する。
医療支援システム1000では、評価画像A~Dで示した患部の評価と併せて、さらに評価画像A~Dの各画像の全体に対する全体評価値β~βが示され得る。評価画像A~Dでは、タイル状に切り出された各タイルの評価値に応じて、異なる色等にて患部の評価が呈示されている。
このような、医療支援システム1000を用いることで、医師1は、医療支援システム1000が導出した患部の評価と自身の診断とを考慮して、より確信をもって病状の診断を行うことができる。
本実施形態に係る医療支援システム1000は、例えば、内視鏡を用いる消化器系疾患の診察に用いることが可能である。具体的には、医療支援システム1000は、潰瘍性大腸炎、またはクローン病などのような炎症性腸疾患の診察に好適に用いることが可能である。なお、本明細書では、本実施形態に係る医療支援システム1000を潰瘍性大腸炎の診察に用いる場合を例示して説明を行うが、本開示に係る技術はかかる例示に限定されないことは言うまでもない。
(2.実施形態)
以下では、上述した医療支援システム1000に関して詳しく説明する。医療支援システム1000では、内視鏡により撮像される患部画像を用いる例を挙げて説明する。なお、以下に説明する医療支援システム1000は、内視鏡110と、導出装置120と、表示装置130と、を有するが、内視鏡110は、医療支援システム1000に含まれなくともよい。また、表示装置130に関しても、医療支援システム1000に含まれなくともよい。
(2.1.機能と構成)
医療支援システム1000は、内視鏡110と、導出装置120と、表示装置130と、を有する。医療支援システム1000は、内視鏡110が撮像した患部画像を入力として、導出装置120において機械学習により生成された判定器を作用させることで、患部の評価値を導出し、表示装置130にてユーザへ患部の評価値を呈示する機能を有する。
内視鏡110は、患者の体内を撮像して患部画像を取得する機能を有する。患部画像は、医師が診察する患部を含む画像である。具体的には、患部画像は、患部の血管像、凹凸、及び潰瘍部が見えやすい画像である。患部画像は、内視鏡によって撮像された患部の画像であってもよく、内視鏡によって連続的に撮像された動画であってもよく、内視鏡によって撮像された動画を一時停止した静止画の撮像画像であってもよい。患部画像が動画である場合、医療支援システム1000は、例えば後述するタイル評価値をリアルタイムでユーザへ呈示することが可能である。なお、本実施形態では、撮像装置として内視鏡を用いる例を示したが、本実施形態は、かかる例に限定されない。患部を撮像する撮像装置は、様態を限定されず、公知の撮像装置であってもよい。
患部を撮像した撮像画像としては、具体的には、内視鏡の白色光画像を用いてもよい。白色光画像は、内視鏡の基本機能にて最も容易に撮像可能な画像であるため、白色光画像によって病状を評価することができれば、内視鏡検査の時間、項目、及び費用を抑制することができる。
また、白色光画像にて病状を評価することが困難である場合には、例えば、特殊光によって血管を強調させたNBI(Narrow Band Imaging)画像、又は凹凸を強調させるインジゴカルミン染色を施した染色画像を用いてもよい。導出装置120が有する判定器の生成に、白色光画像だけでなく、これらのNBI画像、及び染色画像を追加で用いることによって、患部の評価精度を向上させることが可能である。
導出装置120は、切出部122と、評価導出部124と、を有する。導出装置120は、患部画像に基づいて、患部の病状の評価を導出する機能を有する。例えば、導出装置120は、患部画像を細分化して、細分化された画像に対する評価値を導出し、さらに各評価値から全体の画像に対する全体評価値を算出することで患部の病状の評価を導出してもよい。
切出部122は、内視鏡110により撮像された患部画像を多角形の形状を有するタイル状のタイル画像として切り出す機能を有する。切出部122は、患部の病状を判定可能な大きさで患部画像を複数のタイル画像として切り出す。患部の病状を判定可能な大きさとは、例えば、血管像または潰瘍等の診察対象物が含まれ得る大きさであってよい。
切出部122は、具体的には、患部画像を正方形等の四角形形状に切り出してもよい。切出部122は、該四角形形状の外接円が5mm以上15mm以下となるように患部画像を切り出してもよい。多角形に切り出されたタイル画像は、少なくとも上記診察対象物を含む。なお、タイル画像の形状は、多角形に限定されず、患部画像を細分化できる形状であればよい。また、タイル画像は、場所により形状が異なるランダムな形状に切り出されてもよい。
評価導出部124は、切出部122により切出されたタイル画像に基づいて、機械学習により得られた判定器を用いて、タイル評価値を導出する機能を有する。タイル評価値とは、タイル画像毎に導出された患部の評価値である。評価値とは、医師(内視鏡医)が患部の表面を視認することで判断した患部の病状に対する評価値、または患部を病理検査することで医師(病理医)が診断した病理検査の評価値である。
具体的には、患部の病状に対する評価値は、患部の出血、腫瘍、または血管透見像に対して医師がスコアリングした評価値である。患部の病状に対する評価値は、公知のいかなるスコアリング手法による評価値を用いてもよい。
例えば、患部の病状に対する評価値としては、UCEISによるスコアを用いることができる。UCEISによるスコアは、潰瘍性大腸炎の重症度の評価値として近年使用されるようになった指標である。UCEISによるスコアは、細かい分類が可能であるため、細かい診断方針を立てることが可能であり、かつ内視鏡医ごとの評価ばらつきを小さくすることができる。
具体的には、UCEISによるスコアは、以下の表1に示すように、少なくとも潰瘍性大腸炎の血管の透過性、出血、及び潰瘍度の評価について定義されている。評価導出部124は、潰瘍性大腸炎の血管の透過性、出血、及び潰瘍度の各々について評価値を導出してもよい。
Figure 0007476800000001
また、患部の病状に対する評価値としては、他に、Mayoスコアを用いることができる。Mayoスコアは、潰瘍性大腸炎の重症度を0~3までの数種類にて分類することができる。具体的には、Mayoスコアは、以下の表2~表5に示すように、複数の項目について評価値が定義されている。評価導出部124は、内視鏡所見、直腸出血、及び医師による総合評価の各々について潰瘍性大腸炎の血管の透過性、出血、及び潰瘍度の各々について評価値を導出してもよい。
Figure 0007476800000002
Figure 0007476800000003
Figure 0007476800000004
Figure 0007476800000005
なお、Mayoスコアでは、上記の各項目のスコアの合計が2以下、かついずれのサブスコアも1を超えない場合を「Mayoスコア寛解」と定義している。また、Mayoスコアでは、Mayoスコアがベースラインから3以上又は30%以上減少していることが認められ、かつ直腸出血のサブスコアの1以上の減少、又は直腸出血のサブスコアが0又は1の場合を「Mayoスコア改善」と定義している。さらに、Mayoスコアでは、内視鏡所見のサブスコアが0又は1の場合を「粘膜治癒」と定義している。
病理検査の評価値は、患部を生検した病理検査の診断結果に対して医師等が病状のグレードを決定した評価値である。病理検査の評価値は、公知のいかなるスコアリング手法による評価値を用いてもよい。
例えば、病理検査の評価値としては、Geboesの生検組織所見スコアを用いることができる。Geboesのスコアは、潰瘍性大腸炎の病理所見をスコア化する指標として一般的に用いられている指標である。具体的には、Geboesのスコアは、以下の表6に示すような定義に基づいて評価される。
Figure 0007476800000006
なお、Geboesスコアは、0~5の6段階評価であるが、炎症の有無を判断すればよい場合は、評価導出部124は、0~2を所見なし(炎症なし)とみなし、3~5を病理的に炎症ありとみなして評価値を導出してもよい。
判定器は機械学習により生成される。具体的には、判定器は、多数の患部画像と、該患部画像に対する患部視認による医師の評価又は病理検査による評価の少なくともいずれか1つ以上とを機械学習することで生成される。機械学習では、少なくとも1万枚以上の患部画像と評価とを学習することで、複数の医師間における評価値の差と同程度の差を示す程度の精度で判定を行うことができる。例えば、判定器は、ディープニューラルネットワークを用いた機械学習によって生成されてもよい。
例えば、潰瘍性大腸炎等の患部視認による評価は難易度が高いため、患部視認による医師の評価は、専門医であっても医師間でばらつきが生じてしまう。本実施形態によれば、機械学習によって生成された判定器を用いることによって、専門医がいなくとも潰瘍性大腸炎等の疾患の診断評価を行うことができる。また、機械学習によって生成された判定器を用いることによって、医師間での評価のばらつきを回避し、患者に対してより客観的かつ再現性の高い基準で評価した評価値に基づいた治療を行うことができる。
また、病理検査は、組織採取の際に患者にダメージを与える可能性、及び合併症を引き起こす可能性がある。さらに、病理検査を行う病理医の人数が少ないため、病理検査は、どこでもできるものではなく、かつ診断に時間がかかってしまう。加えて、病理検査を行うことで患者には追加の費用が発生してしまう。本実施形態によれば、機械学習によって生成された判定器を用いることによって、組織採取をせずとも病理検査の結果を導出することができるため、患者に対する身体的、時間的、及び金銭的な負担を抑制することができる。また、病理検査の結果は確定診断であるため、機械学習によって生成された判定器は、病理検査による評価をより高い精度で導出することが可能である。
なお、本実施形態において、判定器は、多数の患部画像に上述した評価以外のパラメータを対応付けたデータを機械学習することで、生成されていてもよい。例えば、判定器は、多数の患部画像と、該患部画像の患者に対する投薬量又は治療方法とを機械学習することで生成されてもよい。
評価導出部124は、タイル評価値として、評価項目別のタイル評価値を導出する。例えば、評価項目は、患部の出血、腫瘍、または血管透見像の項目であってよく、病理検査の項目であってよい。また、評価導出部124は、各評価項目を混合したタイル評価値を算出してもよい。例えば、患部の出血、潰瘍、または血管透見像の少なくともいずれか2つ以上の評価値が使用されてタイル評価値が導出されてもよい。例えば、この場合には、患部の出血、潰瘍、または血管透見像の少なくともいずれか2つ以上の評価値を合計して、タイル評価値としてもよい。
評価導出部124は、タイル評価値に加え、各タイル評価値の信頼度を算出する。信頼度とは、タイル評価値の確からしさを示した値であり、確率又は0~1の数値(例えば、1が最も確からしい)で表され得る。評価導出部124は、該信頼度が閾値以上である場合にタイル評価値は信頼できると判断して、後述する表示装置130へ該信頼度を出力してもよい。一方、該信頼度が閾値未満である場合には、評価導出部124は、タイル評価値は信頼できないと判断して、後述する表示装置130へタイル評価値を出力しなくともよく、表示装置130へ解析不可という結果を出力してもよい。
評価導出部124は、上記タイル評価値に基づいて、患部画像の全体の全体評価値を推定する。これにより、ユーザは、患部画像の一部ではなく全体を評価することができるため、潰瘍性の疾患に対してより正確な診断を行うことが可能となる。
具体的には、全体評価値は、患部画像に含まれるタイル画像のタイル評価値を平均した平均評価値として導出されてもよい。ただし、出血等のように病状の程度よりも発生の有無を特徴とする評価項目を評価する場合には、評価導出部124は、出血箇所に重みづけして全体評価値を導出してもよい。このような場合、評価導出部124は、タイル評価値の平均に替えて、又は加えてタイル評価値の最大値を用いて全体評価値を導出してもよい。
また、評価導出部124は、タイル評価値の確率分布をさらに用いて全体評価値を導出してよい。例えば、導出装置120は、タイル評価値の分散度合または標準偏差等を考慮して、全体評価値を導出して良い。
さらに、評価導出部124は、タイル画像の各々の輝度に応じて、複数のタイル画像の中から、全体評価値の推定に使用するタイル画像を選択してもよい。これによれば、評価導出部124は、患部画像内から、ノイズ、過照明、又は影等を含み、タイル評価値の導出が困難なタイル画像を除去することができる。
具体的には、評価導出部124は、輝度が第1閾値以上かつ第2閾値以下であるタイル画像を全体評価値の推定に使用してもよい。なお、第2閾値は、第1閾値よりも高い輝度の閾値を表し、これらの閾値はユーザ等により適宜決定され得る。これにより、評価導出部124は、第2閾値によって輝度が高すぎるタイル画像を除去し、第1閾値によって輝度が低すぎるタイル画像を除去することができる。したがって、評価導出部124は、導出されるタイル評価値の信頼度を高めることができるため、全体評価値をより高い信頼度で推定することができる。
表示装置130は、上記タイル評価値または全体評価値の少なくともいずれかをユーザへ呈示する。表示装置130は、例えば、タッチパネル型のディスプレイ、3次元ディスプレイ、空間ディスプレイ、または投影型ディスプレイ等であってもよい。具体的には、表示装置130は、CRT(Cathode Ray Tube)ディスプレイ、液晶ディスプレイ、プラズマディスプレイ、EL(ElectroLuminescence)ディスプレイ、レーザープロジェクタ、LEDプロジェクタ又はランプ等のいずれであってもよい。
ここで、図4を参照して、導出装置120と表示装置130との動作に関して詳しく説明する。図4は、導出装置120及び表示装置130による動作を示した模式図である。
図4に示すように、導出装置120は、内視鏡110から患部画像Orを取得する。導出装置120は、切出部122により、例えば患部画像を格子状のタイル画像120a、タイル画像120b、タイル画像120c、タイル画像120d・・・として切り出す。図4では、例えば、4×4の16枚のタイル画像として切り出された患部画像が図示されている。評価導出部124は、判定器10を用いて、これらのタイル画像120a~120dに対して、それぞれ、タイル評価値Scと信頼度αを導出する。
図4に示すように、例えば、タイル画像120aは、タイル評価値Scが0.9、信頼度αが0と導出されている。その他のタイル画像も同様に、タイル画像120bは、タイル評価値Scが0.94、信頼度αが0、5と導出されており、タイル画像120cは、タイル評価値Scが0.155、信頼度αが1と導出されており、タイル画像120dは、タイル評価値Scが0.5、信頼度αが0と導出されている。評価導出部124は、さらに各タイル画像から導出した全体評価値βを導出する。
表示装置130は、上記の各タイル評価値および全体評価値βを取得して、ユーザへ呈示する。表示装置130では、タイル評価値に応じて異なる表示を患部画像に重畳させることで、患部画像内の病状の評価の分布を示すことができる。例えば、表示装置130は、タイル画像のタイル評価値に応じて、タイル画像の色を変化させてよい。また、表示装置130は、タイル画像のタイル評価値の信頼度に応じて、タイル画像の透過度を変化させてよい。
図5を参照して、タイル画像に重畳させる表示の態様についてさらに説明する。図5は、タイル画像に重畳させる表示の態様の一例を示している。患部画像Or1は、病状が全体的に良好な画像であり、患部画像Or2は病状が良好な範囲と病状が不良な範囲とが含まれた画像であり、患部画像Or3は、病状が全体的に不良な画像である。タイル評価値Sc(すなわち、病状の良、又は不良)は、異なる表示の態様で呈示される。例えば、タイル評価値Scは、異なる色等で(いわゆる、ヒートマップ状に)呈示されることができるまた、タイル評価値の信頼度αは、例えば、色の透過度により呈示されることができる。なお、図5において、タイル評価値を示す画像Ef1~Ef3では、異なる色を異なるハッチング種類(すなわち、斜線またはドットハッチング)により表現し、各色の透過度を各ハッチングの密度にて表現している。
以上にて図4および図5を参照して、タイル画像の評価値および全体評価値の表示例に関して説明したが、表示例は、図4および図5に図示した表示例に限定されない。例えば、表示装置130は、図2に示すように、患部画像Orと、評価項目毎に評価値を重畳表示した患部画像と、を併せて表示してもよい。これにより、ユーザ(医師)は、実際の患部画像Or1~Or3を視認しながら、各評価項目のタイル評価値を示す画像Ef1~Ef3を視認することができる。したがって、ユーザは、医療支援システム1000による評価と、ユーザによる病状の評価とを考慮しながら患者を診察することができる。
(2.2.動作フロー)
ここで、図6および図7を参照して、医療支援システム1000にて判定器を生成する判定器生成フローS100の一例、および医療支援システム1000の全体の動作フローS200の一例をそれぞれ説明する。
図6を参照して、判定器の生成フローS100を説明する。
まず、導出装置120では学習用の患部画像が取得される(S102)。
次に、学習用患部画像がタイル画像として切り出される(S104)。タイル画像は、一定の形状にて切り出されてもよく、ランダムな形状で切り出されてもよい。
次に、タイル画像として切り出された学習用患部画像と該患部画像に対する評価値とが学習される(S106)。患部画像に対する評価値は、医師等によって判断された評価値であり、医師の患部視認による評価、病理検査の結果による評価等を含む。
次に、学習用患部画像がN枚以上学習されたか否かが判断される(S108)。学習用患部画像がN枚以上学習されていない場合(S108/No)、N枚以上の学習に達するまで患部画像の学習を繰り返す。機械学習される学習用患部画像は、回転、拡大、縮小又は変形等によりデータオーギュメンテーションが行われてもよい。学習用患部画像を少なくとも1万枚以上用いることによって、信頼度の高い判定器を生成することができる。
以上までで、判定器の生成フローS100を説明した。
次に、図7を参照して、判定器を用いた医療支援システム1000の全体の動作フローS200を説明する。
まず、導出装置120は、内視鏡110等にて判定用の患部画像を取得する(S202)。患部画像は、内視鏡110によるモニタリング中の動画であってもよく、内視鏡110にて撮像された静止画であってもよい。
次に、切出部122は、判定用患部画像をタイル画像として切り出す(S204)。タイル画像は、一定の形状にて切り出されてもよく、ランダムな形状にて切り出されてもよい。
次に、導出装置120は、生成した判定器を用いて、タイル画像のタイル評価値と、タイル画像の信頼度とを導出する(S206)。導出装置120は、タイル評価値を導出した際に、さらに患部画像の全体に対する全体評価値を導出してもよい。例えば、導出装置120は、患部画像内のタイル評価値の平均値から全体評価値を導出してもよく、タイル評価値の最大値及び平均値の組み合わせから全体評価値を導出してもよい。また、導出装置120は、タイル評価値の確率分布をさらに組み合わせて全体評価値を導出してもよい。例えば、導出装置120は、タイル評価値の分散度合または標準偏差等を考慮して、全体評価値を導出してもよい。
その後、表示装置130は、タイル画像のタイル評価値とタイル評価値の信頼度とをユーザへ呈示する(S208)。表示装置130は、さらに、上記全体評価値を表示してもよい。
以上までで、医療支援システム1000の全体の動作フローを説明した。これらの動作を行う医療支援システム1000によれば、医師1は、医療支援システム1000が導出した患部の評価と医師1の診断とを考慮することで、より確信をもって病状の診断を行うことができる。
(3.変形例)
図8を参照して、表示装置130にて表示される表示の変形例について説明する。図8は、表示装置130にて表示される表示の変形例を示した図である。上記実施形態では、表示装置130は、患部画像Orと併せて、各項目の評価値が呈示された患部画像を表示している。一方で、本変形例では、表示装置130は、さらに、各項目のタイル評価値が呈示された評価画像と併せて、患者の体内における内視鏡110の位置を表示し、該内視鏡110の位置に対応する全体評価値を表示している。
図8に示すように、例えば、表示装置130は、表示装置130の表示領域の一端から他端にかけて、内視鏡の位置を示す表示バー130aを表示してもよい。表示バー130aは、その長手方向の一端から他端までを診察部の長さとして示している。例えば、診断が大腸検査である場合、表示バー130aは、表示バー130aの一端を内視鏡の挿入開始箇所(例えば、肛門)の0cmを示し、表示バー130aの他端を大腸検査の終点(例えば、150cm)を示してもよい。診察時の内視鏡の大腸における位置130bは、表示バー130aの長手方向に対応して、挿入長さにて表現されてもよい。
また、表示バー130aは、色が連続的に変化する範囲130cを含んでもよい。具体的には、表示バー130aの各々の全体評価値に応じて、表示バー130aは、色が変化して表示されてよい。さらに、表示バー130aでは、全体評価値に特徴がある位置がマーキング130dにより強調されて表示されてもよい。例えば、内視鏡による診察を開始してから終了するまでに、全体評価値が高いと判断された位置は、マーキング130dにより強調されて表示されてもよい。なお、マーキング130dは、ユーザ等により選択された箇所に付されてもよい。
また、表示装置130は、患部画像内でタイル評価値の高い箇所が拡大されて表示されてもよい。これにより、医療支援システム1000は、病状が特に不良であると判断される箇所をユーザに重点的に示すことができる。
(4.実施例)
以下では、実施例を参照しながら、本実施形態に係る医療支援システムにて生成される判定器について、さらに具体的に説明する。なお、以下に示す実施例は、本実施形態に係る医療支援システムの実施可能性及び効果を示すための一条件例であり、本開示に係る技術が以下の実施例に限定されるものではない。
(背景)
潰瘍性大腸炎では、内視鏡的および組織学的評価による客観的評価が重要である。しかし、潰瘍性大腸炎の評価は、個人による経験差から観察者内および観察者間でばらつきが生じる。そこで、本実施例では、潰瘍性大腸炎に対して、一貫性があり、かつ客観的な評価をリアルタイムで行うことを実現するために、内視鏡画像に基づくディープニューラルネットワークシステム(DNUC)の開発を目的とした。
具体的には、潰瘍性大腸炎(以下、UCとも称する)の患者の管理には、客観的な観察が重要である。
例えば、過去の研究から、内視鏡評価によりUCの臨床転帰が予測可能であることが示されている。したがって、内視鏡的寛解を治療目標とし、内視鏡評価をUC患者の評価および管理に利用する場合が増えている。しかし、内視鏡観察は、訓練が必要であるため、内視鏡評価は、内視鏡医によって評価が異なる場合があり得る。
一方、臨床転帰を予測可能な別の治療目標として、組織学的寛解が提案されている。例えば、急性炎症が微小に残存する患者は再発の可能性が高いため、急性炎症が残存しない組織学的寛解を最終的な治療目標とすることができる。組織学的寛解を判断する組織学的評価は、重要な評価であるが、粘膜検体を必要とし、かつ病理医によって解釈が異なる場合があり得る。
このように内視鏡画像または粘膜検体に対する専門医の評価は、個人の経験に基づいて主観的に解釈されるため、一般化された評価、およびリアルタイムな特性評価が困難である。
ここで、近年、様々な医療分野で、ディープラーニング(深層学習)を利用した人工知能(AI)の役割を指摘する報告がなされている。ディープニューラルネットワーク(DNN)とは、深層学習アーキテクチャを構築するAI機械学習法である。本実施例では、UC内視鏡画像を用いてDNNを構築することで、一貫性があり、かつ客観的な内視鏡的および組織学的評価を実現するDNNシステム(DNUC)を開発した。さらに、検証試験により、開発したDNUCの精度を評価した。
(概略)
本実施例は、開発段階および検証段階の2つの段階からなる。開発段階では、過去の内視鏡画像および生検検体を利用してDNUCを開発し、検証段階では、新規の試験データからDNUCの妥当性を検討した。
開発段階では、1000人の患者から得た20149枚の大腸内視鏡画像と、3285例の生検検体とを再調査することで、DNUCアルゴリズム(すなわち、判定器)を構築した。
検証段階では、新規の試験データを収集してDNUCアルゴリズムの精度を評価した。潰瘍性大腸炎の評価は、内視鏡的重症度評価指標(UCEIS)が0となる場合を内視鏡的寛解とし、Geboes評価値が3以下となる場合を組織学的寛解とした。具体的には、検証段階では、登録された500人の患者から、2400枚の内視鏡検査画像、および2317例の生検検体を得、DNUCにおける内視鏡的および組織学的寛解の判定精度、および専門医との一致度を評価した。以下で詳細に説明するが、内視鏡的寛解の判定では、DNUCは、高い診断精度(90.1%)、および高い一貫性を示した。内視鏡的寛解の判定におけるDNUCおよび内視鏡医の間のkappa相関係数は0.785であった。また、組織学的寛解の判定でも、DNUCは高い診断精度(90.9%)を示した。組織学的寛解の判定におけるDNUCおよび生検結果の間のkappa相関係数は0.748であった。
(患者)
開発段階では、東京医科歯科大学医学部附属病院で大腸内視鏡検査を受けたUC患者の連続症例を再調査することで、過去の内視鏡画像および生検検体を得た。また、検証段階では、2018年の4月から11月までに同病院でUCの治療のため大腸内視鏡検査を受けた患者を登録することで、新規の試験データを得た。なお、開発段階でのデータの利用に関しては、全ての患者からオプトアウト方式で同意を得た。また、検証段階では、全ての患者から書面によるインフォームド・コンセントを得た。
ただし、以下のような除外基準に該当する患者については除外した。
(1)結腸切除歴、診断が確定しない炎症性腸疾患、クローン病、結腸・直腸新生物、又は腸管随伴感染症を有する患者。
(2)大腸内視鏡検査が禁忌となる患者。
(3)血液疾患、又は抗血栓・抗凝固療法で生検が禁忌となる患者。
また、全ての患者に対して、モントリオール分類に基づいて疾患程度を判断し、かつ部分的Mayo評価値を用いて臨床活動性を判断した。全ての患者に対して、ニフレックまたはモビプレップ(EAファーマ株式会社)により標準的な腸管前処置を行い、腸管洗浄の状態も記録した。
(内視鏡検査の手順および評価)
標準的な大腸内視鏡(オリンパスメディカルシステムズ社)による検査にて、結腸粘膜画像(画像サイズ4.5MB)を撮像した。一般的な大腸内視鏡検査では、白色光による検査の後に色素内視鏡検査を実施するが、本実施例で使用した画像は、白色光画像のみである。
潰瘍性大腸炎の内視鏡的重症度の評価には、内視鏡的重症度評価指標(UCEIS)を用いた。具体的には、血管透見像(評価値0~2)、出血(評価値0~3)、びらん・潰瘍(評価値0~3)を単純合計することで、合計値0~8の範囲でUCEIS評価値を得、UCEIS評価値0を内視鏡的寛解とした。なお、UCEISは、本来、最も重症度の高い疾患領域で評価値をスコアリングするが、本実施例では、撮像した全ての内視鏡画像で評価値を得た。
(組織学的評価)
患者の結腸粘膜から生検検体を採取した。潰瘍性大腸炎の炎症の組織学的重症度の評価には、Geboes評価値を用い、Geboes評価値3以下を組織学的寛解とした。
(開発段階)
DNUCを訓練及び構築するために用いるデータセットを準備した。具体的には、上述したように、2015年7月から2018年3月までの患者1000人に実施した大腸内視鏡検査の画像を合計20149枚収集した。また、これらの患者から3285例の生検検体(既に採取済み)も収集した。ただし、組織生検が実施されなかった領域の内視鏡画像は除外した。
全ての画像のUCEIS評価値は、一人の内視鏡医(IBD内視鏡検査歴11年)が評価し、全ての粘膜検体の組織学的活動性は、一人の病理医(IBD病理学歴13年)が評価した。なお、内視鏡医および病理医は、ともに相手の検査結果について知らされていない。
ここで、UCEIS評価値、および組織学的データの数及び割合(括弧内は割合(%))を以下の表7に示す。組織学的データは、組織生検を行なった領域の内視鏡画像とリンクさせている。
Figure 0007476800000007
撮像した内視鏡画像をDNUCに入力し、DNUCに内視鏡画像および評価値(UCEIS評価、および組織学的評価)を学習させた。また、DNUCは、内視鏡的寛解(達成/未達成)、組織学的寛解(達成/未達成)、およびUCEIS評価値の結果を出力するように設計した。正確な出力を実現するために、DNUCのカットオフを85%以上とし、該カットオフを満たさない画像は「解析不能」と判断するようにした。さらに正確な出力を実現するために、DNUCの別のカットオフを95%以上とし、該カットオフを満たす画像は「確信度が高い」と判断するようにした。
DNUCの学習は以下のように行った。
まず、1080×1080ピクセルのオリジナルの内視鏡画像を299×299ピクセルの正方形タイルに分割した。次に、分割した正方形タイルの平均輝度値を計算することで、過剰暴露の影響、及び暗部を取り除くことで、DNUCの学習に適用可能なタイルを選択した。続いて、正方形タイルに対して、0度から359度までのランダム回転、0.8倍から1.2倍までの拡大縮小、反転、または0.8倍から1.2倍までのせん断を実施するデータオーギュメンテーションを行った。
その後、最新のDNNアーキテクチャであるInception v3モデル(https://arxiv.org/abs/1512.00567)を適用して、DNUCを構築した。具体的には、Inceptionモデルの最終層を変更し、ソフトマックス活性化関数を利用して評価値毎にクラス分けを行った。該Inceptionモデルをエポック数2000×10回で訓練し、各評価値の確率を得た。さらに、同一オリジナル画像由来の299×299ピクセルの正方形タイルの全結果を平均化してスコアリングを行った。
DNUCからの出力結果は、例えば、オリジナル内視鏡画像から、タイルを特定の半透明の色で着色した重畳画像を作成することで、ユーザに呈示することができる。塗りつぶし色および透過率は、評価値の結果および確率に応じて決定することができる。
(検証段階)
構築したDNUCの診断精度を評価するため、新規の試験データセットを収集した。具体的には、上述した患者全てに大腸内視鏡検査を行い、5つの結腸部位(上行結腸、横行結腸、下行結腸、S状結腸、および直腸)の内視鏡画像を撮像し、該当箇所から5つの粘膜生検検体を採取した。大腸内視鏡検査は、7人の異なる内視鏡医にて行われた。
ただし、重症のUC患者には、S状結腸鏡検査、または生検検体の数の制限を行った。内視鏡画像は、開発段階と同じ内視鏡医が評価した。軽度から中等度のUC患者の400例の生検検体は、開発段階と同じ病理医が評価し、残りの生検検体は、内容を知らされていない別の病理医が評価した。
内視鏡画像ごとにDNUCの結果を出力させ、出力結果を内視鏡的および組織学的データと比較することで、下記の評価項目によりDNUCを評価した。
(1)主要評価項目として、内視鏡的寛解を評価する際のDNUCの精度、および組織学的寛解を予測する際のDNUCの精度を設定。
(2)副次的評価項目として、DNUCのUCEIS判定能力、各結腸部位の内視鏡的寛解および組織学的寛解でのDNUCの精度、確信度が高い症例でのDNUCの精度、ならびに腸管洗浄の状態により階層化した場合のDNUCの精度を設定。
(統計解析)
ここで、500枚の画像を用いた小規模パイロット試験により、開発段階では少なくとも10000枚の画像、検証段階では少なくとも1000枚の画像が必要であると推定された。そこで、DNUCの出力結果と、専門医(内視鏡医、および病理医)が評価したデータとを比較しながらDNUCの診断精度を判定し、内視鏡的寛解および組織学的寛解におけるDNUCおよび専門医の間の一致度をkappa相関係数にて計算した。また、UCEISをスコアリングした際の専門医およびDNUCの間の相関を級内相関係数(ICC)で判断した(図9A及び図9B)。なお、統計解析には、SPSS version 21.0(IBM社)を用いた。
(患者の内視鏡的および組織学的結果)
検証段階にて500人の患者を登録した。登録した患者の臨床像を以下の表8に示す。
Figure 0007476800000008
表8に示すように、298人(59.6%)の患者は、疾患活動性の評価のために大腸内視鏡検査を指示されており、202人(40.4%)の患者は、がん検診のために大腸内視鏡検査を指示されていた。合併症のリスクに関する内視鏡医の判断から、全体で42人の患者は、全大腸内視鏡検査を受けていない。また、60人の患者では、生検検体が4例に満たなかった。
これらの患者から2400枚の内視鏡画像、および2317例の生検検体を得た。得られた内視鏡画像、および生検検体を専門医(内視鏡医、および病理医)によって評価した結果を以下の表9に示す。
Figure 0007476800000009
表9に示すように、60.9%の画像が内視鏡的寛解と判断され、76.8%の検体が組織学的寛解と判断された。内視鏡検査によって中等度から重症(UCEIS評価値3以上)と判断された粘膜検体のほとんどは、組織学的活動と判断された。UCEIS評価値が0、1又は2と判断された粘膜は、それぞれ98.5%(1438例中1,417例)、78.3%(346例中271例)、41.8%(189例中79例)の割合で組織学的寛解と判断された。
(DNUCの内視鏡評価値に関する評価)
内視鏡評価値において、DNUCでは、92.4%の画像が「解析可能」と判断され、50.7%の画像が「確信度が高い」と判断された。
上述した主要評価項目に関して、以下の表10に示すように、DNUCは、内視鏡的寛解の判定にて、高い感度(94.3%)、高い特異性(83.1%)、高い陽性適中度(PPV:90.3%)、高い陰性適中度(NPV:89.8%)、および高い診断精度(90.1%)を示した。さらに、内視鏡的寛解におけるDNUCおよび内視鏡医の間のkappa相関係数は、0.785であった。すなわち、UC患者の粘膜炎症を評価する際のDNUCの精度は内視鏡医と同等であった。
Figure 0007476800000010
また、上述した副次的評価項目に関して、図9Aに示すように、UCEISをスコアリングした際の専門医およびDNUCの間のICCは0.861であった。特に、確信度が高い症例では、図9Bに示すように、DNUCは、非常に高い精度(98.7%)、および高い一貫性(kappa相関係数は0.972)を示した。DNUCの精度および一貫性は、許容範囲であったが、以下の表11に示すように、直腸でのDNUCの精度は比較的低かった。また、以下の表12に示すように、腸管洗浄の評価値が不良から不可である場合にも、DNUCの精度は低かった。
Figure 0007476800000011
Figure 0007476800000012
(DNUCの組織学的寛解に関する評価)
組織学的寛解の予測において、DNUCでは、92.0%の画像が「解析可能」と判断され、40.9%の画像が「確信度が高い」と判断された。
上述した主要評価項目に関して、以下の表13に示すように、DNUCは、組織学的寛解の予測にて、高い感度(92.6%)、高い特異性(85.0%)、高いPPV(95.6%)。高いNPV(76.7%)、および高い診断精度(90.9%)を示した。さらに、組織学的寛解におけるDNUCおよび生検結果の間のkappa相関係数は、0.748であった。すなわち、DNUCによって粘膜生検を必要とせずに組織学的寛解を予測することができた。
Figure 0007476800000013
また、確信度が高い症例では、DNUCは、非常に高い精度(97.6%)、および高い一貫性(kappa相関係数は0.938)を示した。上述した副次的評価項目に関して、DNUCの精度および一貫性は、許容範囲であったが、以下の表14に示すように、直腸でのDNUCの精度および一貫性は比較的低かった。また、以下の表15に示すように、腸管洗浄の評価値が不良から不可である場合も、DNUCの精度および一貫性は比較的低かった。
Figure 0007476800000014
Figure 0007476800000015
(まとめ)
以上の実施例からわかるように、内視鏡的および組織学的評価を組み合わせたUCの客観的評価は、UCへの治療方法の選択、および薬物療法への反応のモニターのために重要であり、特に、適切な臨床試験の設計および評価に重要であると考えられる。しかし、専門医による評価には一貫性がないことがあり、専門医個々の経験に影響される可能性が高い。したがって、臨床試験では、中立な第三者による独立した評価が求められる。
そこで、本開示に係る技術の発明者らは、UCの内視鏡画像から粘膜炎症の評価、および組織学的炎症の予測を行うためのDNUCを構築した。構築したDNUCの診断能力は、経験豊富な専門医と同等と考えられるため、DNUCは、内視鏡画像の客観的な評価に利用可能であると考えられる。
具体的には、DNUCは、内視鏡的寛解の評価について、内視鏡医と比較して高い精度および高い一貫性を示した。さらに、UCEISのスコアリングについて、DNUCおよび内視鏡医の間のICCは、0.861であった。したがって、DNUCは、臨床的に十分な能力を備えていると考えられる。
DNUC等のAIシステムは、スクリーニングの時間が短く、労力がかからないため、内視鏡検査の直後に結果を得ることができる。上記の実施例の結果によれば、DNUCによって客観的かつ一貫性のある内視鏡評価がリアルタイムで実現できることがわかる。これによれば、DNUCは、複数の内視鏡医の間で生じる評価の不一致等の問題を解決することが可能である。したがって、DNUCは、臨床診療および臨床試験の両方で効果的に利用することができると期待される。
また、UCに関する研究等を参照すると、臨床的および内視鏡的寛解の患者は、依然として組織学的活動性疾患を患っている可能性があり、高い再発のリスクを有している。すなわち、内視鏡的指標および組織学的指標による寛解の一致は緩やかであるため、組織学的指標による寛解を判断するためには、生検を繰り返し行うことが重要であるとされている。
一般に、組織学的評価を行うための生検は、大腸内視鏡検査中に結腸粘膜を採取して行われ、限られた領域のみでの評価である。一方で、DNUCは、結腸粘膜のどの領域においても評価を行うことが可能である。特に、本実施例では、DNUCは、組織学的寛解を高い精度および高い一貫性で予測することができることを示した。これによれば、DNUCは、生検検体を用いずとも組織学的寛解を評価することが可能である、したがって、DNUCは、医療費の削減に寄与することも期待される。
以上にて説明したように、本実施例にて構築されたDNUCは、内視鏡医と同等の精度にてUC患者の粘膜炎症の評価を行うことが可能である。また、本実施例にて構築されたDNUCは、粘膜検体を用いずとも組織学的寛解を予測することが可能である。本実施例にて構築されたDNUCは、客観的かつ一貫性のある評価方法であり、臨床診療および臨床試験の両方に利用可能であることがわかる。
(5.ハードウェア構成例)
図10を参照して、本実施形態に係る医療支援システム1000に含まれる導出装置等のハードウェア構成の一例について説明する。図10は、本実施形態に係る導出装置等のハードウェア構成の一例を示すブロック図である。
図10に示すように、情報処理装置900は、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、RAM(Random Access Memory)903、及びホストバス904aを備える。また、情報処理装置900は、ブリッジ904、外部バス904b、インタフェース905、入力装置906、出力装置907、ストレージ装置908、ドライブ909、接続ポート911、及び通信装置913を備える。情報処理装置900は、CPU901に代えて、又はこれとともに、電気回路、DSP、若しくはASIC等の処理回路を有してもよい。
CPU901は、演算処理装置又は制御装置として機能し、各種プログラムに従って情報処理装置900内の動作全般を制御する。CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラム及び演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラム、及びその実行において適宜変化するパラメータ等を一時記憶する。CPU901は、例えば、図3に示す評価導出部124として機能し得る。
CPU901、ROM902、及びRAM903は、CPUバスなどを含むホストバス904aにより相互に接続されている。ホストバス904aは、ブリッジ904を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス904bに接続されている。なお、必ずしもホストバス904a、ブリッジ904および外部バス904bを分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
入力装置906は、例えば、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチ又はレバー等のユーザによって情報が入力される装置によって実現される。また、入力装置906は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよく、情報処理装置900の操作に対応した携帯電話やPDA等の外部接続機器であってもよい。さらに、入力装置906は、例えば、上記の入力手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などを含んでもよい。情報処理装置900のユーザは、この入力装置906を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置907は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で形成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置、レーザープロジェクタ、LEDプロジェクタ及びランプ等の表示装置、スピーカ及びヘッドホン等の音声出力装置等がある。出力装置907は、例えば、情報処理装置900が行った各種処理により得られた結果を出力する。具体的には、出力装置907は、情報処理装置900が行った各種処理により得られた結果を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示してもよい。または、出力装置907は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力してもよい。出力装置907は、例えば、図3に示す表示装置130として機能し得る。
ストレージ装置908は、情報処理装置900の記憶部の一例として形成されたデータ格納用の装置である。ストレージ装置908は、例えば、HDD等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により実現される。ストレージ装置908は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ装置908は、CPU901が実行するプログラムや各種データ及び外部から取得した各種のデータ等を格納する。ストレージ装置908は、例えば、図3に示す評価導出部124において使用する患部画像若しくは評価画像、又はタイル評価値を導出する際に使用される各種パラメータ等を記憶する。
ドライブ909は、記憶媒体用リーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ909は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体に記録されている情報を読み出して、RAM903に出力する。また、ドライブ909は、リムーバブル記憶媒体に情報を書き込むこともできる。
接続ポート911は、外部機器と接続されるインタフェースである。例えば、接続ポート911は、USB(Universal Serial Bus)などによりデータ伝送可能な外部機器との接続口であってもよい。
通信装置913は、例えば、ネットワーク920に接続するための通信デバイス等で形成された通信インタフェースである。通信装置913は、例えば、有線若しくは無線LAN(Local Area Network)、LTE(Long Term Evolution)、Bluetooth(登録商標)又はWUSB(Wireless USB)用の通信カード等であってもよい。また、通信装置913は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ又は各種通信用のモデム等であってもよい。通信装置913は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。通信装置913により、例えば、図3に示すように、導出装置120と、内視鏡110および表示装置130とは、各種情報の入出力を行うことができる。
なお、ネットワーク920は、ネットワーク920に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、ネットワーク920は、インターネット、電話回線網、もしくは衛星通信網などの公衆回線網、またはEthernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク920は、IP-VPN(Internet Protocol-Virtual Private Network)などの専用回線網を含んでもよい。
また、情報処理装置900に内蔵されるCPU、ROM及びRAMなどのハードウェアに読み込まれることで、上述した本実施形態に係る医療支援システム1000の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記録媒体も本開示に係る技術の範疇に含まれ得る。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
患部を撮像して得られた患部画像に基づいて、前記患部に対する評価値を導出する導出装置と、
前記評価値をユーザへ呈示する表示装置と、を備え、
前記導出装置は、前記患部画像を複数のタイル状のタイル画像として切り出す切出部と、機械学習により得られた判定器を用いて、前記複数の前記タイル画像における前記患部の評価を表すタイル評価値を導出する評価導出部と、を有する、医療支援システム。
(2)
前記評価導出部は、さらに、前記タイル評価値に基づいて、前記患部画像の全体の全体評価値を推定する、前記(1)に記載の医療支援システム。
(3)
前記切出部は、前記患部の病状を判定可能な大きさで前記患部画像を前記複数の前記タイル画像として切り出す、前記(2)に記載の医療支援システム。
(4)
前記評価導出部は、前記複数の前記タイル画像の輝度に応じて、前記複数の前記タイル画像の中から、前記全体評価値の推定に使用される前記タイル画像を選択する、前記(2)または(3)に記載の医療支援システム。
(5)
前記評価導出部は、前記輝度が第1閾値以上であり、前記輝度が前記第1閾値よりも大きい第2閾値以下である前記タイル画像を、前記全体評価値の推定に使用する、前記(4)に記載の医療支援システム。
(6)
前記表示装置では、前記タイル評価値に応じて異なる表示態様を示す前記複数の前記タイル画像が前記患部画像に重畳表示される、前記(2)~(5)のいずれか一項に記載の医療支援システム。
(7)
前記導出装置は、さらに前記タイル評価値の信頼度を導出する、前記(6)に記載の医療支援システム。
(8)
前記表示装置には、さらに前記信頼度に応じて異なる表示態様を示す前記複数の前記タイル画像が前記患部画像に重畳表示される、前記(7)に記載の医療支援システム。
(9)
前記評価導出部は、前記タイル評価値の平均値、最大値、または前記評価値の確率分布の少なくともいずれか1つ以上、を用いて前記全体評価値を推定する、前記(2)~(8)のいずれか一項に記載の医療支援システム。
(10)
前記患部画像は、内視鏡により撮像され、
前記表示装置には、患者の体内における前記内視鏡の位置が表示され、前記患者の体内における位置に対応する前記全体評価値が表示される、前記(6)または(8)に記載の医療支援システム。
(11)
前記表示装置には、前記タイル評価値に応じて、前記患部画像の一部が拡大されて表示される、前記(6)または(8)に記載の医療支援システム。
(12)
前記切出部は、前記患部画像を多角形の形状の前記タイル画像として切出し、前記切出部は、前記多角形が前記多角形の外接円が5mm以上15mm以下となるように切出す、前記(3)~(11)のいずれか一項に記載の医療支援システム。
(13)
前記タイル評価値は、前記患部の出血、腫瘍、または血管透見像の項目に対する評価、あるいは病理検査の項目による評価の少なくともいずれか一つ以上に関するタイル評価値である、前記(6)または(8)に記載の医療支援システム。
(14)
前記表示装置では、前記患部画像と、前記項目毎に前記重畳表示された前記患部画像と、が並んで表示される、前記(13)に記載の医療支援システム。
(15)
患部を撮像して得られた患部画像を複数のタイル状のタイル画像として切り出す切出部と、
機械学習により得られた判定器を用いて、前記複数の前記タイル画像における前記患部の評価を表すタイル評価値を導出する評価導出部と、
前記タイル評価値をユーザへ呈示する表示装置を制御する表示制御部と、を有する、医療支援装置。
(16)
導出装置が、患部を撮像して得られた患部画像を複数のタイル状のタイル画像として切り出すことと、機械学習により得られた判定器を用いて、前記複数の前記タイル画像における前記患部の評価を表すタイル評価値を導出することと、
表示装置が、前記タイル評価値をユーザへ呈示することと、を含む、
医療支援方法。
110 内視鏡
120 導出装置
122 切出部
124 評価導出部
130 表示装置

Claims (15)

  1. 患部を撮像して得られた患部画像に基づいて、前記患部に対する評価値を導出する導出装置と、
    前記評価値をユーザへ呈示する表示装置と、を備え、
    前記導出装置は、前記患部画像を複数のタイル状のタイル画像として切り出す切出部と、機械学習により得られた判定器を用いて、前記複数の前記タイル画像における前記患部の評価を表すタイル評価値を導出する評価導出部と、を有し、
    前記評価導出部は、さらに、前記タイル評価値に基づいて、前記患部画像の全体の全体評価値を推定する、医療支援システム。
  2. 前記切出部は、前記患部の病状を判定可能な大きさで前記患部画像を前記複数の前記タイル画像として切り出す、請求項に記載の医療支援システム。
  3. 前記評価導出部は、前記複数の前記タイル画像の輝度に応じて、前記複数の前記タイル画像の中から、前記全体評価値の推定に使用される前記タイル画像を選択する、請求項に記載の医療支援システム。
  4. 前記評価導出部は、前記輝度が第1閾値以上であり、前記輝度が前記第1閾値よりも大きい第2閾値以下である前記タイル画像を、前記全体評価値の推定に使用する、請求項に記載の医療支援システム。
  5. 前記表示装置では、前記タイル評価値に応じて異なる表示態様を示す前記複数の前記タイル画像が前記患部画像に重畳表示される、請求項に記載の医療支援システム。
  6. 前記導出装置は、さらに前記タイル評価値の信頼度を導出する、請求項に記載の医療支援システム。
  7. 前記表示装置には、さらに前記信頼度に応じて異なる表示態様を示す前記複数の前記タイル画像が前記患部画像に重畳表示される、請求項に記載の医療支援システム。
  8. 前記評価導出部は、前記タイル評価値の平均値、最大値、または前記評価値の確率分布の少なくともいずれか1つ以上、を用いて前記全体評価値を推定する、請求項に記載の医療支援システム。
  9. 前記患部画像は、内視鏡により撮像され、
    前記表示装置には、患者の体内における前記内視鏡の位置が表示され、前記患者の体内における位置に対応する前記全体評価値が表示される、請求項に記載の医療支援システム。
  10. 前記表示装置には、前記タイル評価値に応じて、前記患部画像の一部が拡大されて表示される、請求項に記載の医療支援システム。
  11. 前記切出部は、前記患部画像を多角形の形状の前記タイル画像として切出し、前記切出部は、前記多角形が前記多角形の外接円が5mm以上15mm以下となるように切出す、請求項に記載の医療支援システム。
  12. 前記タイル評価値は、前記患部の出血、腫瘍、または血管透見像の項目に対する評価、あるいは病理検査の項目による評価の少なくともいずれか一つ以上に関するタイル評価値である、請求項に記載の医療支援システム。
  13. 前記表示装置では、前記患部画像と、前記項目毎に前記重畳表示された前記患部画像と、が並んで表示される、請求項12に記載の医療支援システム。
  14. 患部を撮像して得られた患部画像を複数のタイル状のタイル画像として切り出す切出部と、
    機械学習により得られた判定器を用いて、前記複数の前記タイル画像における前記患部の評価を表すタイル評価値を導出する評価導出部と、
    前記タイル評価値をユーザへ呈示する表示装置を制御する表示制御部と、を有し、
    前記評価導出部は、さらに、前記タイル評価値に基づいて、前記患部画像の全体の全体評価値を推定する、医療支援装置。
  15. 導出装置が、患部を撮像して得られた患部画像を複数のタイル状のタイル画像として切り出すことと、機械学習により得られた判定器を用いて、前記複数の前記タイル画像における前記患部の評価を表すタイル評価値を導出することと、
    表示装置が、前記タイル評価値をユーザへ呈示することと、を含み、
    前記導出装置が、さらに、前記タイル評価値に基づいて、前記患部画像の全体の全体評価値を推定することを含む、
    医療支援方法。
JP2020559953A 2018-12-13 2019-12-04 医療支援システム、医療支援装置及び医療支援方法 Active JP7476800B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2018233204 2018-12-13
JP2018233204 2018-12-13
JP2019022255 2019-02-12
JP2019022255 2019-02-12
PCT/JP2019/047351 WO2020121906A1 (ja) 2018-12-13 2019-12-04 医療支援システム、医療支援装置及び医療支援方法

Publications (2)

Publication Number Publication Date
JPWO2020121906A1 JPWO2020121906A1 (ja) 2021-10-28
JP7476800B2 true JP7476800B2 (ja) 2024-05-01

Family

ID=71076038

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020559953A Active JP7476800B2 (ja) 2018-12-13 2019-12-04 医療支援システム、医療支援装置及び医療支援方法

Country Status (5)

Country Link
US (2) US12048414B2 (ja)
EP (1) EP3895597B1 (ja)
JP (1) JP7476800B2 (ja)
CN (1) CN113164025B (ja)
WO (1) WO2020121906A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220039639A1 (en) * 2020-08-06 2022-02-10 Assistance Publique-Hopitaux De Paris Methods and devices for calculating a level of "clinical relevance" for abnormal small bowel findings captured by capsule endoscopy video
US20220102008A1 (en) * 2020-09-30 2022-03-31 Genentech, Inc. Methods and systems for placebo response modeling
KR102283673B1 (ko) * 2020-11-30 2021-08-03 주식회사 코어라인소프트 병변 추적 검사에 기반하여 진단 보조 정보의 임계치를 조정하는 의료 영상 판독 지원 장치 및 방법
JP7565824B2 (ja) 2021-03-04 2024-10-11 Hoya株式会社 プログラム、情報処理方法及び情報処理装置
WO2022209390A1 (ja) 2021-03-31 2022-10-06 富士フイルム株式会社 内視鏡システム及びその作動方法
JPWO2022249817A1 (ja) * 2021-05-27 2022-12-01
WO2023026538A1 (ja) * 2021-08-27 2023-03-02 ソニーグループ株式会社 医療支援システム、医療支援方法及び評価支援装置
JPWO2023058503A1 (ja) * 2021-10-04 2023-04-13
EP4434435A1 (en) * 2021-11-18 2024-09-25 NEC Corporation Information processing device, information processing method, and recording medium
JP7465409B2 (ja) 2022-01-19 2024-04-10 コ,ジファン 人工知能基盤の血管学習による大腸ポリープ検出方法及び装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016151711A1 (ja) 2015-03-20 2016-09-29 オリンパス株式会社 画像処理装置、画像処理方法および画像処理プログラム
US20170161891A1 (en) 2015-12-03 2017-06-08 Case Western Reserve University Scaling up convolutional networks
WO2018180631A1 (ja) 2017-03-30 2018-10-04 富士フイルム株式会社 医療用画像処理装置及び内視鏡システム並びに医療用画像処理装置の作動方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4594835B2 (ja) * 2005-09-09 2010-12-08 オリンパスメディカルシステムズ株式会社 画像表示装置
CN101273916B (zh) 2007-03-30 2013-07-17 吉温成像有限公司 评估患者状况的系统和方法
US9842391B2 (en) * 2013-05-14 2017-12-12 Pathxl Limited Method and apparatus for processing an image of a tissue sample
WO2014189969A1 (en) 2013-05-21 2014-11-27 Camplex, Inc. Surgical visualization systems
US10702127B2 (en) 2015-06-25 2020-07-07 Hoya Corporation Endoscope system and evaluation value calculation device
CN107847107B (zh) 2015-07-15 2021-09-24 索尼公司 医疗用观察装置与医疗用观察方法
FR3057094B1 (fr) 2016-10-04 2019-09-20 Universite Paris Descartes Procede et dispositif de traitement d'au moins une image d'une partie donnee d'au moins un poumon d'un patient
EP3881335A1 (en) * 2018-11-15 2021-09-22 Intuitive Surgical Operations, Inc. Training users using indexed to motion pictures

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016151711A1 (ja) 2015-03-20 2016-09-29 オリンパス株式会社 画像処理装置、画像処理方法および画像処理プログラム
US20170161891A1 (en) 2015-12-03 2017-06-08 Case Western Reserve University Scaling up convolutional networks
WO2018180631A1 (ja) 2017-03-30 2018-10-04 富士フイルム株式会社 医療用画像処理装置及び内視鏡システム並びに医療用画像処理装置の作動方法

Also Published As

Publication number Publication date
US20220020147A1 (en) 2022-01-20
US12048414B2 (en) 2024-07-30
EP3895597A1 (en) 2021-10-20
WO2020121906A1 (ja) 2020-06-18
CN113164025A (zh) 2021-07-23
JPWO2020121906A1 (ja) 2021-10-28
EP3895597B1 (en) 2024-01-24
CN113164025B (zh) 2024-07-16
US20240324850A1 (en) 2024-10-03

Similar Documents

Publication Publication Date Title
JP7476800B2 (ja) 医療支援システム、医療支援装置及び医療支援方法
JP6875709B2 (ja) 消化器官の内視鏡画像による疾患の診断支援方法、診断支援システム、診断支援プログラム及びこの診断支援プログラムを記憶したコンピュータ読み取り可能な記録媒体
JP7335552B2 (ja) 画像診断支援装置、学習済みモデル、画像診断支援装置の作動方法および画像診断支援プログラム
JP7037220B2 (ja) 消化器官の内視鏡画像による疾患の診断支援システム、診断支援システムの作動方法、診断支援プログラム及びこの診断支援プログラムを記憶したコンピュータ読み取り可能な記録媒体
Cai et al. Using a deep learning system in endoscopy for screening of early esophageal squamous cell carcinoma (with video)
JP5800468B2 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
JP4994737B2 (ja) 医療用画像処理装置及び医療用画像処理方法
WO2021054477A2 (ja) 消化器官の内視鏡画像による疾患の診断支援方法、診断支援システム、診断支援プログラム及びこの診断支援プログラムを記憶したコンピュータ読み取り可能な記録媒体
US20230281968A1 (en) Recording Medium, Method for Generating Learning Model, Surgical Support Device and Information Processing Method
JP7550409B2 (ja) 画像診断装置、画像診断方法、および画像診断プログラム
JP2013111125A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2012115342A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP7522154B2 (ja) ハンナ病変の指摘のためのプログラム
CN113112449A (zh) 一种肠癌辅助诊断模型构建和辅助诊断方法及系统
WO2022250031A1 (ja) 情報処理装置、情報処理方法、及びコンピュータプログラム
Lachter et al. Novel artificial intelligence–enabled deep learning system to enhance adenoma detection: a prospective randomized controlled study
JP2024509105A (ja) Turpの病理画像から前立腺癌を検出するための人工ニューラルネットワークを学習する方法、及びこれを行うコンピューティングシステム
CN116724334A (zh) 计算机程序、学习模型的生成方法、以及手术辅助装置
WO2023026538A1 (ja) 医療支援システム、医療支援方法及び評価支援装置
WO2023058503A1 (ja) 内視鏡システム、医療画像処理装置及びその作動方法
JP2023079866A (ja) 超拡大内視鏡による胃癌の検査方法、診断支援方法、診断支援システム、診断支援プログラム、学習済みモデル及び画像診断支援装置
Hewett Screening with ENDO-AID CADe

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240401

R150 Certificate of patent or registration of utility model

Ref document number: 7476800

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150