JPWO2019054045A1 - 医療画像処理装置、医療画像処理方法及び医療画像処理プログラム - Google Patents

医療画像処理装置、医療画像処理方法及び医療画像処理プログラム Download PDF

Info

Publication number
JPWO2019054045A1
JPWO2019054045A1 JP2019541932A JP2019541932A JPWO2019054045A1 JP WO2019054045 A1 JPWO2019054045 A1 JP WO2019054045A1 JP 2019541932 A JP2019541932 A JP 2019541932A JP 2019541932 A JP2019541932 A JP 2019541932A JP WO2019054045 A1 JPWO2019054045 A1 JP WO2019054045A1
Authority
JP
Japan
Prior art keywords
recognizer
medical image
image processing
recognition
certainty
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019541932A
Other languages
English (en)
Other versions
JP6890184B2 (ja
Inventor
正明 大酒
正明 大酒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2019054045A1 publication Critical patent/JPWO2019054045A1/ja
Application granted granted Critical
Publication of JP6890184B2 publication Critical patent/JP6890184B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Abstract

画像の認識処理の高速化及び認識精度の向上を図ることができる医療画像処理装置、医療画像処理方法及び医療画像処理プログラムを提供する。医療画像処理装置は、医療画像の認識を行う第1の認識器(41)と、第1の認識器(41)よりも認識精度が高い第2の認識器(42)と、第1の認識器(41)による認識結果の確信度を判定する認識確信度判定器(43)とを備え、認識確信度判定器(43)による判定結果に応じて第2の認識器(42)による医療画像の認識処理を実行させる。画像の認識処理の負荷が小さい第1の認識器(41)を使用することにより画像の認識処理の高速化を図り、かつ第1の認識器(41)を使用すると、認識結果の確信度が低くなる場合には、画像の認識精度の高い第2の認識器(42)を使用することにより認識精度の向上を図るようにしている。

Description

本発明は医療画像処理装置、医療画像処理方法及び医療画像処理プログラムに係り、特に認識器を使用して医療画像の認識処理を行う技術に関する。
医療分野においては、内視鏡システムを用いた検査が行われている。近年においては、画像解析によって画像に含まれる病変の認識を行うシステムが知られている。例えば、学習によって画像から特徴量を算出し、画像の認識処理を行う畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)が知られている(非特許文献1)。
このCNNは、画像とフィルタとの畳み込み演算を行う畳み込み層を含む複数の層構造になっており、層の段数によって画像の認識精度が向上することが知られている(非特許文献2)。
従来、この種の情報処理装置として、画像を解析して得られた特徴量から、複数のクラスのうち認識対象の画像が各クラスに属する確率を推定値として出力し、推定値に基づいて画像が属するクラスを認識し、また、各クラスの推定値を用いて認識結果に対する確信度を算出する装置が提案されている(特許文献1)。
特許文献1に記載の情報処理装置は、例えば、医療画像を画像解析し、その医療画像を撮影部位(胸部、腹部、足)の3クラスのいずれかのクラスに分類し、分類結果(認識結果)に対する確信度を算出している。
また、特許文献1に記載の情報処理装置は、算出した確信度の値に基づいて確信度が高いか低いかを判定し、確信度が低いと判定された場合、クラスの認識結果とともに確信度が低いことを警告する警告情報を表示手段に表示させている。
A. Krizhevsky, I. Sutskever, and G. Hinton. ImageNet classification with deep convolutional neural networks. In NIPS, 2012 K Simonyan, A Zisserman. Very Deep Convolutional Networks for Large-Scale Image Recognition. arXiv preprint arXiv:1409.1556
国際公開第2010/050333号
内視鏡装置に代表されるように、画像から病変位置、種類を認識し、認識結果をリアルタイムで表示することが必要とされる場合がある。このようなリアルタイムで表示が必要な場合、認識器による画像の認識処理は高速でなければならない。
しかしながら、画像の認識処理が高速の認識器は、画像の認識精度が低くなるという問題がある。例えば、CNNの場合、高速化のために複数の層構造の層の段数を少なくする必要があるが、画像の認識精度が低くなるという問題がある。一方、画像の認識精度を上げるために、層構造の段数を増加させると、計算量が増加し、認識器での演算の負荷が増大し、認識処理が遅延するといった問題が発生する。
一方、特許文献1に記載の情報処理装置は、認識器により医療画像が属するクラスを認識し、クラスの認識結果を表示するとともに、認識結果に対する確信度を算出し、確信度が低い場合には、警告情報を表示させるにとどまる。
したがって、特許文献1に記載の情報処理装置において、画像の認識の処理が高速の認識器(画像の認識精度が低い認識器)を適用すると、認識結果の確信度が低くなり、警告情報が頻繁に表示されることになるという問題がある。
一方、特許文献1に記載の情報処理装置において、画像の認識の処理が低速の認識器(画像の認識精度が高い認識器)を適用すると、認識結果の確信度が向上するものの、演算の負荷が増大し、認識結果をリアルタイムで表示することができなくなるという問題がある。
本発明はこのような事情に鑑みてなされたもので、画像の認識処理の高速化及び認識精度の向上を図ることができる医療画像処理装置、医療画像処理方法及び医療画像処理プログラムを提供することを目的とする。
上記目的を達成するために本発明の一の態様に係る医療画像処理装置は、被写体像を含む医療画像を取得する医療画像取得部と、医療画像の認識を行う第1の認識器と、医療画像の認識を行う第2の認識器であって、第1の認識器よりも認識精度が高い第2の認識器と、第1の認識器による認識結果の確信度を判定する認識確信度判定器と、認識確信度判定器による判定結果に応じて第2の認識器による医療画像の認識処理を実行させる制御部と、を備える。
本発明の一の態様によれば、医療画像の認識を行う第1の認識器であって、画像の認識処理の負荷が小さい第1の認識器を使用することにより画像の認識処理の高速化を図り、かつ第1の認識器を使用すると、認識結果の確信度が低くなる場合には、画像の認識精度の高い(認識処理の負荷が大きい)第2の認識器を使用することにより認識精度の向上を図るようにしている。
本発明の他の態様に係る医療画像処理装置において、第1の認識器及び第2の認識器は、それぞれ層構造を有することが好ましい。
本発明の更に他の態様に係る医療画像処理装置において、第2の認識器は、第1の認識器よりも層構造を構成する層の段数が多いことが好ましい。第2の認識器は、第1の認識器よりも層構造を構成する層の段数が多いため、画像の認識処理は、第1の認識器よりも演算負荷が大きく、画像の認識処理が低速になるが、第1の認識器よりも画像の認識精度が高く、認識結果の確信度を向上させることができる。
本発明の更に他の態様に係る医療画像処理装置において、第1の認識器及び第2の認識器は、層構造を構成する層に少なくとも1つのフィルタを有することが好ましい。
本発明の更に他の態様に係る医療画像処理装置において、第2の認識器は、第1の認識器よりも層構造を構成する層であって、フィルタを有する層が多いことが好ましい。
本発明の更に他の態様に係る医療画像処理装置において、第1の認識器及び第2の認識器は、それぞれ畳み込みニューラルネットワークであることが好ましい。
それぞれ畳み込みニューラルネットワークである第1の認識器及び第2の認識器は、フィルタを有する層の数(段数)が異なり、第1の認識器は、フィルタを有する層の数が少ないため、畳み込み演算の処理時間が短く(演算負荷が小さく)なり、画像の認識処理の高速化が可能であり、リアルタイムに画像の認識結果を確認する場合に有効である。一方、第2の認識器は、フィルタを有する層の数が多いため、畳み込み演算の処理時間が長く(演算負荷が大きく)なり、画像の認識処理が低速になるものの、画像の認識結果の確信度が高いため、第1の認識器では、確信度が低くなる場合には、第1の認識器よりも認識精度の高い第2の認識器によって認識し直すことで、認識の修正を行うことができる。
本発明の更に他の態様に係る医療画像処理装置において、第1の認識器及び第2の認識器は、それぞれ医療画像から病変候補の位置を検出することが好ましい。これにより、医療画像の中のどの領域に病変候補があるかを表示部に表示させることが可能である。
本発明の更に他の態様に係る医療画像処理装置において、第1の認識器及び第2の認識器は、それぞれ医療画像を病変に関する複数のカテゴリのうちのいずれかのカテゴリに分類することが好ましい。
本発明の更に他の態様に係る医療画像処理装置において、第1の認識器及び第2の認識器は、医療画像上の複数の病変領域を、それぞれ病変に関する複数のカテゴリのうちのいずれかのカテゴリに分類することが好ましい。病変に関する複数のカテゴリとしては、例えば、「腫瘍性」、「非腫瘍性」、「その他」等のカテゴリが該当する。
本発明の更に他の態様に係る医療画像処理装置において、複数のカテゴリは、病変の種類に関する複数のカテゴリ、病変の病期ステージに関する複数のカテゴリ、又は病変の種類と病期ステージとを組合せた複数のカテゴリであることが好ましい。例えば、病変の病期ステージに関する複数のカテゴリは、病変の進行程度等を示すステージI,II,III,IV等である。
本発明の更に他の態様に係る医療画像処理装置において、制御部は、医療画像に対する第1の認識器及び第2の認識器の少なくとも一方の認識結果を、表示部に表示させることが好ましい。第1の認識器による認識結果の確信度が高い場合、第2の認識器による認識処理は実行されないため、第1の認識器の認識結果が表示部に表示されることになる。一方、第1の認識器による認識結果の確信度が低い場合、第2の認識器による認識処理が実行されるため、第2の認識器の認識結果のみを表示部に表示してもよいし、第1の認識器及び第2の認識器の各認識結果をそれぞれ表示器に表示してもよい。
本発明の更に他の態様に係る医療画像処理装置において、制御部は、第2の認識器が医療画像の認識に使用された場合、第2の認識器が使用されたことを示す情報を、表示部に表示させることが好ましい。例えば、ユーザは、認識結果の表示が遅れた場合、通常の認識器(第1の認識器)とは異なる認識器(演算負荷が大きく、処理時間の長い第2の認識器)が使用された結果、認識結果の表示が遅れたと把握することができ、また、通常の認識器では、認識結果の確信度が低くなる病変であることを確認することができる。
本発明の更に他の態様に係る医療画像処理装置において、制御部は、第2の認識器が医療画像の認識に使用される場合、第2の認識器による認識処理の開始から終了までの期間、第2の認識器による認識処理中であることを示す情報を、表示部に表示させることが好ましい。第2の認識器による認識処理が行われる場合、第1の認識器よりも多くの処理時間を要し、認識結果が表示されるまでの待ち時間が長くなるが、その期間に第2の認識器による認識処理中であることを示す情報が表示されることで、ユーザは、少なくとも認識処理が継続して行われていることを確認することができる。
本発明の更に他の態様に係る医療画像処理装置において、医療画像に対する第1の認識器及び第2の認識器の少なくとも一方の認識結果を記録する記録部を有することが好ましい。
本発明の更に他の態様に係る医療画像処理装置において、医療画像のカテゴリを手動で選択する分類選択部を有し、認識確信度判定器は、医療画像に対する第2の認識器によるカテゴリ分類の確信度を判定し、制御部は、医療画像に対するカテゴリ分類の確信度が低い場合、医療画像のカテゴリの選択に使用するカテゴリ選択メニューを表示部に表示させ、カテゴリ選択メニューを使用した分類選択部による医療画像のカテゴリの選択を受け付けることが好ましい。
第2の認識器による認識処理が行われる場合でも、第2の認識器による認識結果(カテゴリ分類)の確信度が低くなる場合がある。この場合、確信度の低いカテゴリ分類をユーザに提示すると、誤ったカテゴリ分類を提示するおそれが高くなる。そこで、表示部にカテゴリ選択メニューを表示し、ユーザによるカテゴリ分類の選択を受け付けるようにしている。
本発明の更に他の態様に係る医療画像処理装置において、制御部は、医療画像に対する第2の認識器によるカテゴリ認識結果に基づいて複数のカテゴリのカテゴリ優先度を決定し、カテゴリ優先度に応じてカテゴリ選択メニューにおける複数のカテゴリの表示順を変更することが好ましい。これにより、ユーザにより選択される可能性の高いカテゴリ分類を上位に表示させることができ、ユーザによるカテゴリ分類の選択をしやすくしている。
本発明の更に他の態様に係る医療画像処理装置において、制御部は、分類選択部により医療画像のカテゴリが決定されると、分類選択部により医療画像のカテゴリが決定されたことを示す情報を表示部に表示させることが好ましい。これにより、医療画像のカテゴリ分類が、医療画像処理装置により自動的に行われたものか、又はユーザにより選択されたものかを確認することができる。
本発明の更に他の態様に係る医療画像処理方法は、被写体像を含む医療画像を取得するステップと、第1の認識器を使用して医療画像の認識を行うステップと、第1の認識器による認識結果の確信度を判定するステップと、確信度の判定結果に応じて第1の認識器よりも認識精度が高い第2の認識器を使用して医療画像の認識を行うステップと、を含む。
本発明の更に他の態様に係る医療画像処理方法において、第1の認識器による医療画像の認識結果の確信度が基準値以上の場合には、第1の認識器の認識結果を表示部に表示させ、第1の認識器による医療画像の認識結果の確信度が基準値未満の場合には、第2の認識器の認識結果を表示部に表示させることが好ましい。
本発明の更に他の態様に係る医療画像処理プログラムは、被写体像を含む医療画像を取得する機能と、第1の認識器を使用して医療画像の認識を行う機能と、第1の認識器による認識結果の確信度を判定する機能と、確信度の判定結果に応じて第1の認識器よりも認識精度が高い第2の認識器を使用して医療画像の認識を行う機能と、をコンピュータに実行させる。
本発明の更に他の態様に係る医療画像処理プログラムにおいて、第1の認識器による医療画像の認識結果の確信度が基準値以上の場合には、第1の認識器の認識結果を表示部に表示させ、第1の認識器による医療画像の認識結果の確信度が基準値未満の場合には、第2の認識器の認識結果を表示部に表示させることが好ましい。
本発明によれば、医療画像の認識を行う第1の認識器と第1の認識器よりも認識精度が高い第2の認識器とを使用することにより、第1の認識器による画像の認識処理の高速化を図るとともに、第2の認識器による認識精度の向上を図ることができる。
内視鏡システムの全体構成を示す概略図である。 医療画像処理装置の機能を示す機能ブロック図である。 第1の認識器に適用されるCNNの代表的な構成例を示す模式図である。 動画像に対する第1の認識器、第2の認識器、認識確信度判定器、及び情報表示制御部の作用を説明するために用いた図である。 医療画像処理装置により表示部に表示される情報の実施形態を示す図である。 医療画像処理装置により表示部に表示される画像及び情報の他の実施形態を示す図である。 医療画像処理方法の実施形態を示すフローチャートである。
以下、添付図面に従って本発明に係る医療画像処理装置、医療画像処理方法及び医療画像処理プログラムの好ましい実施形態について説明する。
[内視鏡システムの全体構成]
図1は、本発明に係る医療画像処理装置を含む内視鏡システム9の全体構成を示す概略図である。図1に示すように、内視鏡システム9は、電子内視鏡である内視鏡10と、光源装置11と、プロセッサ装置12と、表示装置13と、医療画像処理装置14と、操作部15と、表示部16と、を備える。
内視鏡10は、本発明の医療装置に相当するものであり、例えば軟性内視鏡である。この内視鏡10は、被検体内に挿入され且つ先端と基端とを有する挿入部20と、挿入部20の基端側に連設され且つ術者が把持して各種操作を行う手元操作部21と、手元操作部21に連設されたユニバーサルコード22と、を有する。
挿入部20は、全体が細径で長尺状に形成されている。挿入部20は、その基端側から先端側に向けて順に可撓性を有する軟性部25と、手元操作部21の操作により湾曲可能な湾曲部26と、不図示の撮影光学系及び撮像素子28等が内蔵される先端部27と、が連設されて構成される。
撮像素子28は、CMOS(complementary metal oxide semiconductor)型又はCCD(charge coupled device)型の撮像素子である。撮像素子28の撮像面には、先端部27の先端面に開口された不図示の観察窓、及びこの観察窓の後方に配置された不図示の撮影光学系等を介して、被観察部位の像光が入射する。撮像素子28は、その撮像面に入射した被観察部位の像光を撮像(電気信号に変換)して、撮像信号を出力する。
手元操作部21には、術者によって操作される各種操作部材が設けられている。具体的に、手元操作部21には、湾曲部26の湾曲操作に用いられる2種類の湾曲操作ノブ29と、送気送水操作用の送気送水ボタン30と、吸引操作用の吸引ボタン31と、が設けられている。また、手元操作部21には、被観察部位の静止画像39の撮影指示を行うための静止画像撮影指示部32と、挿入部20内を挿通している処置具挿通路(不図示)内に処置具(不図示)を挿入する処置具導入口33と、が設けられている。
ユニバーサルコード22は、内視鏡10を光源装置11に接続するための接続コードである。このユニバーサルコード22は、挿入部20内を挿通しているライトガイド35、信号ケーブル36、及び流体チューブ(不図示)を内包している。また、ユニバーサルコード22の端部には、光源装置11に接続されるコネクタ37Aと、このコネクタ37Aから分岐され且つプロセッサ装置12に接続されるコネクタ37Bと、が設けられている。
コネクタ37Aを光源装置11に接続することで、ライトガイド35及び流体チューブ(不図示)が光源装置11に挿入される。これにより、ライトガイド35及び流体チューブ(不図示)を介して、光源装置11から内視鏡10に対して必要な照明光と水と気体とが供給される。その結果、先端部27の先端面の照明窓(不図示)から被観察部位に向けて照明光が照射される。また、前述の送気送水ボタン30の押下操作に応じて、先端部27の先端面の送気送水ノズル(不図示)から先端面の観察窓(不図示)に向けて気体又は水が噴射される。
コネクタ37Bをプロセッサ装置12に接続することで、信号ケーブル36とプロセッサ装置12とが電気的に接続される。これにより、信号ケーブル36を介して、内視鏡10の撮像素子28からプロセッサ装置12へ被観察部位の撮像信号が出力されると共に、プロセッサ装置12から内視鏡10へ制御信号が出力される。
尚、本実施形態では、内視鏡10として軟性内視鏡を例に挙げて説明を行ったが、例えば硬性内視鏡等の被観察部位の動画撮影を可能な各種の電子内視鏡を用いてもよい。
光源装置11は、コネクタ37Aを介して、内視鏡10のライトガイド35へ照明光を供給する。照明光は、白色光(白色の波長帯域の光又は複数の波長帯域の光)、或いは1又は複数の特定の波長帯域の光、或いはこれらの組み合わせなど観察目的に応じた各種波長帯域の光が選択される。尚、特定の波長帯域は、白色の波長帯域よりも狭い帯域である。
特定の波長帯域の第1例は、例えば可視域の青色帯域又は緑色帯域である。この第1例の波長帯域は、390nm以上450nm以下又は530nm以上550nm以下の波長帯域を含み、且つ第1例の光は、390nm以上450nm以下又は530nm以上550nm以下の波長帯域内にピーク波長を有する。
特定の波長帯域の第2例は、例えば可視域の赤色帯域である。この第2例の波長帯域は、585nm以上615nm以下又は610nm以上730nm以下の波長帯域を含み、且つ第2例の光は、585nm以上615nm以下又は610nm以上730nm以下の波長帯域内にピーク波長を有する。
特定の波長帯域の第3例は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域を含み、且つ第3例の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域にピーク波長を有する。この第3例の波長帯域は、400±10nm、440±10nm、470±10nm、又は600nm以上750nm以下の波長帯域を含み、且つ第3例の光は、上記400±10nm、440±10nm、470±10nm、又は600nm以上750nm以下の波長帯域にピーク波長を有する。
特定の波長帯域の第4例は、生体内の蛍光物質が発する蛍光の観察(蛍光観察)に用いられ且つこの蛍光物質を励起させる励起光の波長帯域(390nmから470nm)である。
特定の波長帯域の第5例は、赤外光の波長帯域である。この第5例の波長帯域は、790nm以上820nm以下又は905nm以上970nm以下の波長帯域を含み、且つ第5例の光は、790nm以上820nm以下又は905nm以上970nm以下の波長帯域にピーク波長を有する。
プロセッサ装置12は、コネクタ37B及び信号ケーブル36を介して、内視鏡10の動作を制御する。また、プロセッサ装置12は、コネクタ37B及び信号ケーブル36を介して内視鏡10の撮像素子28から取得した撮像信号に基づき、被観察部位の動画像38を生成する。更に、プロセッサ装置12は、内視鏡10の手元操作部21にて静止画像撮影指示部32が操作された場合、動画像38の生成と並行して、撮像素子28から取得した撮像信号に基づき被観察部位の静止画像39を生成する。この静止画像39は、動画像38よりも高解像度に生成されていてもよい。
動画像38及び静止画像39は、被検体内、即ち生体内を撮影した生体内画像である。更に動画像38及び静止画像39が、上述の特定の波長帯域の光(特殊光)により得られた画像である場合、両者は特殊光画像である。そして、プロセッサ装置12は、生成した動画像38及び静止画像39を、表示装置13と医療画像処理装置14とにそれぞれ出力する。
尚、プロセッサ装置12は、上述の白色光により得られた通常光画像に基づいて、上述の特定の波長帯域の情報を有する特殊光画像を生成(取得)してもよい。この場合、プロセッサ装置12は、特殊光画像取得部として機能する。そして、プロセッサ装置12は、特定の波長帯域の信号を、通常光画像に含まれる赤、緑、及び青[RGB(Red,Green,Blue)]あるいはシアン、マゼンタ、及びイエロー[CMY(Cyan,Magenta,Yellow)]の色情報に基づく演算を行うことで得る。
また、プロセッサ装置12は、例えば、上述の白色光により得られた通常光画像と、上述の特定の波長帯域の光(特殊光)により得られた特殊光画像との少なくとも一方に基づいて、公知の酸素飽和度画像等の特徴量画像を生成してもよい。この場合、プロセッサ装置12は、特徴量画像生成部として機能する。尚、上記の生体内画像、通常画像、特殊光画像、及び特徴量画像を含む動画像38又は静止画像39は、いずれも画像による診断、検査の目的でヒトの人体を撮影し、又は計測した結果を画像化した医療画像である。
表示装置13は、プロセッサ装置12に接続されており、このプロセッサ装置12から入力された動画像38及び静止画像39を表示する。ユーザ(医師)は、表示装置13に表示される動画像38を確認しながら、挿入部20の進退操作等を行い、被観察部位に病変等を発見した場合には静止画像撮影指示部32を操作して被観察部位の静止画撮影を実行し、また、診断、生検等を行う。
[医療画像処理装置]
医療画像処理装置14は、本実施形態では、例えばパーソナルコンピュータが用いられる。また、操作部15はパーソナルコンピュータに有線接続又は無線接続されるキーボード及びマウス等が用いられ、表示部16はパーソナルコンピュータに接続可能な液晶モニタ等の各種モニタが用いられる。
また、医療画像処理装置14として、ワークステーション(サーバ)等の診断支援装置を用いてよく、この場合、操作部15及び表示部16はそれぞれワークステーションに接続した複数の端末ごとに設けられる。更に、医療画像処理装置14として、例えば医療レポート等の作成支援を行う診療業務支援装置を用いてもよい。
医療画像処理装置14は、主として動画像38又は静止画像39(医療画像)の認識を行い、医療画像のカテゴリ分類を行う部分であり、医療画像の取得及び記憶と、医療画像の再生制御と、認識結果(カテゴリ分類)の表示とを行う。操作部15は、医療画像処理装置14に対する操作指示の入力に用いられる。表示部16は、医療画像処理装置14の制御の下、動画像38又は静止画像39の表示、医療画像のカテゴリ分類等の認識結果の表示、後述するカテゴリ選択メニューの表示等を行う。また、表示部16は、操作部15と協働し、医療画像のカテゴリを手動で選択する分類選択部として機能するユーザインターフェースの一部を担う。
<医療画像処理装置の機能>
図2は、医療画像処理装置14の機能を示す機能ブロック図である。図2に示すように、動画像38又は静止画像39の表示、医療画像の認識、認識結果の表示等を含む医療画像処理装置14の各種制御を実行するハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の制御部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の制御部を1つのプロセッサで構成してもよい。複数の制御部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の制御部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の制御部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の制御部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
医療画像処理装置14のプロセッサ(不図示)に相当する制御部44は、記憶部47に記憶されたプログラム(医療画像処理プログラム)51に基づき、医療画像取得部40、第1の認識器41、第2の認識器42、認識確信度判定器43、及び表示制御部45を統括制御し、また、これらの各部の一部として機能する。
記憶部47は、第1の認識器41及び第2の認識器42の少なくとも一方の認識結果を記録する記録部、及び撮影された動画像38及び静止画像39を記憶する画像記憶部50として機能し、また、記憶部47には、プログラム51及び医療画像処理装置14の各種制御に係る情報等が記憶される。
尚、本実施形態では、記憶部47が医療画像処理装置14内に設けられているが、記憶部47はインターネット上のサーバ或いはデータベース内に設けられていてもよい。このため、本発明の医療画像処理装置には、複数の装置で構成される医療画像処理システムも含まれる。
医療画像取得部40は、プロセッサ装置12(図1)に有線接続又は無線接続された不図示の画像入出力インターフェースを用いて、プロセッサ装置12から被写体像を含む医療画像(本例では、内視鏡10により撮影される動画像38)を取得する。また、内視鏡10にて動画像38の撮影途中に既述の静止画像39の撮影が行われた場合、医療画像取得部40は、プロセッサ装置12から動画像38及び静止画像39を取得する。そして、医療画像取得部40は、取得した動画像38及び静止画像39を記憶部47内の画像記憶部50に記憶させる。図中の符号38aは、動画像38を構成する複数のフレーム画像である。
尚、医療画像取得部40は、プロセッサ装置12から動画像38及び静止画像39を直接取得する代わりに、メモリーカード等の各種情報記憶媒体を介して動画像38及び静止画像39を取得してもよい。また、医療画像取得部40は、インターネット上のサーバ或いはデータベース等にアップロードされた動画像38及び静止画像39をインターネット経由で取得してもよい。
また、医療画像取得部40は、動画像38及び静止画像39として、既述の特定の波長帯域の情報を有する特殊光画像を取得する場合には、特殊光画像取得部として機能する。
更にまた、医療画像取得部40は、プロセッサ装置12等から入力される動画像38の全てを画像記憶部50に記憶させる必要はなく、例えば、静止画像撮影指示部32の操作に応じて被観察部位の静止画撮影が行われた場合、その前後の一分間(撮影前一分間から撮影後一分間)の動画像38を画像記憶部50に記憶させてもよい。
第1の認識器41は、体腔の観察中に撮影された画像(動画像38及び静止画像39)の認識を行う部分であり、本例では、学習によって画像から特徴量を算出し、画像の認識処理を行う畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)、を含み、画像内の色情報、画素値の勾配等で特徴量を算出する。算出された特徴量を用いて画像上の病変(病変候補)を検出し、または例えば、「腫瘍性」、「非腫瘍性」、「その他」といった病変に関する複数のカテゴリのうちのいずれのカテゴリに医療画像が属するかのカテゴリ分類等の第1の認識結果を得る。
図3は、第1の認識器41に適用されるCNNの代表的な構成例を示す模式図である。
図3に示すように、CNNは、入力層41Aと、畳み込み層とプーリング層から構成された複数セット、及び全結合層を有する中間層41Bと、出力層41Cとを備え、各層は複数の「ノード」が「エッジ」で結ばれる構造となっている。
入力層41Aには、認識処理の対象である画像が入力される。
中間層41Bは、畳み込み層とプーリング層とを1セットとする複数セットと、全結合層とを有し、入力層から入力した画像から特徴を抽出する。畳み込み層は、前の層で近くにあるノードにフィルタ処理し(フィルタを使用した畳み込み演算を行い)、「特徴マップ」を取得する。プーリング層は、畳み込み層から出力された特徴マップを縮小して新たな特徴マップとする。「畳み込み層」は、画像からのエッジ抽出等の特徴抽出の役割を担い、「プーリング層」は抽出された特徴が、平行移動などによる影響を受けないようにロバスト性を与える役割を担う。
尚、中間層41Bには、畳み込み層とプーリング層とを1セットとする場合に限らず、畳み込み層が連続する場合や正規化層も含まれる。また、各畳み込み層にて使用されるフィルタのパラメータは、予め多数の学習データにより自動的に学習されている。
出力層41Cは、中間層41Bにより抽出された特徴に基づき画像の分類ごとの認識結果を出力する。本例では、画像を「腫瘍性」、「非腫瘍性」、「その他」の3つのカテゴリに分類しており、認識結果は、「腫瘍性」、「非腫瘍性」及び「その他」に対応する3つのスコア(3つのスコアの合計は100%)として出力される。
図2に戻って、第2の認識器42は、第1の認識器41と同様の構成を有し、撮影された画像の認識処理を行い、カテゴリ分類等の第2の認識結果を得るが、第1の認識器41よりも画像の認識精度が高く、その一方、第1の認識器41よりも認識処理の演算負荷が大きく、画像の認識処理の時間が長くなる点で相違する。
具体的には、第2の認識器42は、層構造を有するCNNの層の段数が、第1の認識器41よりも多く、特に中間層におけるフィルタを有する畳み込み層の数が、第1の認識器41よりも多い。尚、第2の認識器42は、第1の認識器41の一部を共通に使用し、例えば、第1の認識器41の中間層41Bのある「特徴マップ」を入力するものも含む。この場合、第2の認識器42の中間層における畳み込み層の数は、第1の認識器41のある「特徴マップ」以降の中間層における畳み込み層の数よりも多いことになる。
認識確信度判定器43は、第1の認識器41による認識結果の確信度を判定する部分であり、第1の認識器41による認識結果(例えば病変らしさのスコア)から確信度を算出し、本例では、確信度が、「高い」か「低い」かを判定する。尚、病変らしさのスコアそのものが確信度であってもよい。
具体的には、認識確信度判定器43は、第1の認識器41による認識結果(本例では、3つのスコア)を入力し、3つのスコアのうちの最大のスコアが、他のスコアに対して差が大きい場合、最大のスコアを有するカテゴリに画像を分類する、カテゴリ分類の確信度は「高い」と判定する。反対に、それぞれのカテゴリのスコアの差が小さい場合、最大のスコアを有するカテゴリに画像を分類する、カテゴリ分類の確信度は「低い」と判定する。
例えば、「腫瘍性」のスコア(確信度)が80%、「非腫瘍性」のスコアが15%、「その他」のスコアが5%であった場合は、「腫瘍性」のスコアが突出しているため、認識対象の画像を「腫瘍性」に分類するカテゴリ分類の確信度は、「高い」と判定する。もし、「腫瘍性」のスコアが33%、「非腫瘍性」のスコアが30%、「その他」のスコアが37%であった場合、これらのスコアのうちの最大の「その他」のスコア37%は、他のカテゴリのスコア30%、33%(特に2番目に大きいスコア33%)との差が小さいため、認識対象の画像を「その他」に分類するカテゴリ分類の確信度は、「低い」と判定する。
尚、確信度が「高い」か「低い」かの判定結果は、最大のスコアと2番目に大きいスコアとの差が、第1基準値以上か否かにより決定し、又は最大のスコアと2番目に大きいスコアとの比が、第2基準値以上か否かにより決定することができる。また、第1基準値又は第2基準値(以下、単に「基準値」という)は、予め設定された固定値でもよいし、ユーザにより設定した値でもよい。
また、認識確信度判定器43は、第1の認識器41による認識結果の確信度の判定と同様に、第2の認識器42による認識結果の確信度の判定を行うことができる。この場合、第2の認識器42は、第1の認識器41よりも画像の認識精度が高いため、第2の認識器42により得られた認識結果の確信度を判定する際の基準値は、第1の認識器41により得られた認識結果の確信度を判定する際の基準値よりも小さくしてもよい。
制御部44は、認識確信度判定器43による判定結果に応じて第2の認識器42による医療画像の認識処理を実行させる。即ち、認識確信度判定器43により第1の認識器41による認識結果の確信度が「低い」と判定された場合、制御部44は、確信度が「低い」と判定された医療画像に対し、第2の認識器42による認識処理を行わせる。
即ち、制御部44は、第1の認識器41による画像の認識処理を先行して行わせ、認識確信度判定器43により第1の認識器41による画像の認識結果の確信度が「低い」と判定されると、第2の認識器42による画像の認識処理を行わせる。
また、制御部44は、第2の認識器42による画像の認識結果の確信度が「低い」と判定されると、ユーザがカテゴリの選択に使用するカテゴリ選択メニュー等を表示部16に表示させ、カテゴリ選択メニューを使用した医療画像のカテゴリの選択を受け付ける。尚、ユーザにより行われる医療画像のカテゴリ分類の詳細については後述する。
また、制御部44は、医療画像に対する第1の認識器41及び第2の認識器42の少なくとも一方の認識結果を、医療画像に関連付けて記録部(記憶部47又は画像ファイルのヘッダ部等)に記録することが好ましい。
表示制御部45は、表示部16による表示を制御する。この表示制御部45は、画像表示制御部45A及び情報表示制御部45Bとして機能する。
画像表示制御部45Aは、撮影中の動画像38及び静止画像39を表示部16に表示させ、又は画像記憶部50内のフォルダごとに記憶された動画像38(静止画像39も可)を表示部16で再生させる表示制御を行う。
情報表示制御部45Bは、第1の認識器41及び第2の認識器42による第1、第2の認識結果のうちの少なくとも一方の認識結果等の画像以外の必要な情報を、表示部16に表示させる制御部として機能する。
図4は、動画像38に対する第1の認識器41、第2の認識器42、認識確信度判定器43、及び情報表示制御部45Bの作用を説明するために用いた図である。
図4において、内視鏡システム9により撮影される動画像38は、医療画像取得部40を介して第1の認識器41及び第2の認識器42に入力される。
第1の認識器41は、特徴抽出部及び認識処理部を有し、入力する動画像38を構成するフレーム画像38a(又は一定間隔置きのフレーム画像38a)毎に画像認識を行い、第1の認識結果(「腫瘍性」、「非腫瘍性」及び「その他」を示す3つの第1のスコア)を認識確信度判定器43に出力する。
認識確信度判定器43は、入力する3つの第1のスコアに基づいて3つの第1のスコアのうちの最大スコアにより特定されるカテゴリ分類の確信度を判定する。
図4において、画面17A、17B及び17Cは、表示部16の異なる時刻の画面を示し、画面17A、17B及び17Cには、動画像38の撮影開始時点からの経過時間を示す時刻「00:04:21」、「00:04:23」及び「00:04:32」に撮影された画像等が表示されている。
図4に示す例では、認識確信度判定器43は、時刻「00:04:21」及び「00:04:32」に撮影されたフレーム画像38aに対する第1のスコアの最大スコアにより特定されるカテゴリ分類の確信度をそれぞれ「高い」と判定し、時刻「00:04:23」に撮影された画像に対する第1のスコアの最大スコアにより特定されるカテゴリ分類の確信度を「低い」と判定している。
情報表示制御部45Bは、画面17A、17B及び17Cの右側の領域に各種の情報(本例では、撮影時刻、カテゴリ分類、及び認識結果等)を表示させる。第1の認識結果に基づく時刻「00:04:21」、「00:04:23」及び「00:04:32」に撮影された画像のカテゴリ分類は、それぞれ「腫瘍性」、「腫瘍性」、「その他」であるため、画面17A、17B及び17Cには、それぞれ「腫瘍性」、「腫瘍性」、「その他」が表示される。また、情報表示制御部45Bにより、カテゴリ分類の下側には棒グラフで表現された認識結果が表示される。
更に、第1の認識器41及び第2の認識器42は、それぞれ医療画像から病変候補の位置を検出する機能を有し、情報表示制御部45Bは、第1の認識器41及び第2の認識器42により検出された病変候補の位置に基づいて、その病変候補を示す指標18A,18B、18Cを画像上に重ねて表示させることができる。
第2の認識器42は、特徴抽出部及び認識処理部を有し、入力する動画像38を構成するフレーム画像38aであって、第1の認識器41の第1の認識結果に基づく認識確信度判定器43による確信度の判定結果(確信度が「低い」との判定結果)に応じたフレーム画像38aに対し、そのフレーム画像38aの認識処理を行い、第2の認識結果を出力する。
図4に示す例では、認識確信度判定器43は、時刻「00:04:23」に撮影されたフレーム画像38aに対する第1のスコアの最大スコアにより特定されるカテゴリ分類の確信度を「低い」と判定するため、第2の認識器42は、時刻「00:04:23」に撮影されたフレーム画像38aの認識処理を行い、第2の認識結果を出力する。
本例では、時刻「00:04:23」に撮影されたフレーム画像38aに対する第1の認識器41による第1の認識結果と、第2の認識器42による第2の認識結果とは異なり、第1の認識結果では、画像のカテゴリ分類が「腫瘍性」になっているが、第2の認識結果では、画像のカテゴリ分類が「非腫瘍性」に変更(修正)されている。
また、第2の認識器42によるカテゴリ分類の修正内容は、時刻「00:04:32」に撮影された画像を表示する画面17C上に表示される。即ち、制御部44又は情報表示制御部45Bは、表示部16の画面17Cの時刻「00:04:32」の上側の領域に、時刻「00:04:23」及び取り消し線付きの「腫瘍性」と、修正した「非腫瘍性」とを表示させる。
この表示形態によれば、ユーザは、時刻「00:04:23」に撮影されたフレーム画像38aのカテゴリ分類が、「腫瘍性」から「非腫瘍性」に変更されたことが分かる。また、ユーザは、時刻「00:04:23」に撮影されたフレーム画像38aに対して、第2の認識器42が使用されたことも分かる。即ち、制御部44又は情報表示制御部45Bは、第2の認識器42が医療画像の認識に使用された場合、2つの認識結果(第1、第2の認識結果や第1の認識結果の修正内容)を表示することで、間接的に第2の認識器42が使用されたことを示す情報を表示することになる。
更に、時刻「00:04:23」に撮影されたフレーム画像38aに対する第1の認識器41による第1の認識結果の確信度は、「低い」と判定され、第2の認識器42による同じフレーム画像38aの認識処理が開始される。第2の認識器42による認識処理が行われる場合、第2の認識器42は、第1の認識器41よりも多くの処理時間を要し、第1の認識器41が略リアルタイムで第1の認識結果を取得するのに対し、第2の認識器42が第2の認識結果を取得するまでには、ある程度の時間を要する。
制御部44又は情報表示制御部45Bは、第2の認識器42が画像の認識処理を行う場合、認識処理の開始から終了までの期間、第2の認識器42による認識処理中であることを示す情報を表示部16に表示させる。
図4に示す例では、表示部16の画面17Bにおいて、第2の認識器42による認識処理中であることを示す情報19が表示されている。ユーザは、この情報19により少なくとも認識処理が継続して行われていることを確認することができ、また、現在の認識結果の確信度が「低い」ことも確認することができる。
この医療画像処理装置14によれば、動画像を認識対象とする場合のようにリアルタイムで認識結果の取得又は表示が必要な場合であっても、高速に動作可能な第1の認識器41が略リアルタイムで第1の認識結果を取得すること(画像の認識処理の高速化)が可能であり、一方、第1の認識器41では確信度の高い認識結果が得られない場合には、画像の認識処理が遅いが、認識精度の高い第2の認識器42を使用するため、画像のカテゴリ分類の確信度を向上させることができる。
図5は、医療画像処理装置14により表示部16に表示される情報の実施形態を示す図である。医療画像処理装置14は、医療画像のカテゴリ分類、カテゴリ分類の確信度等を表示部16の画面に表示させることができる。
図5に示す画面には、診察番号「003」の患者の複数の医療画像(内視鏡による観察中に撮影された複数の静止画像)を特定する識別情報(No.1,No.2,No.3,…)に関連付けて、カテゴリ分類の確信度と、カテゴリ分類と、選択肢の表示を指示する情報「選択肢を表示する」とが表示されている。
カテゴリ分類の確信度を示す欄には、認識確信度判定器43により判定された判定結果(「高い」又は「低い」)が表示され、カテゴリの欄には、第1の認識器41及び第2の認識器42による認識されたカテゴリ分類(「腫瘍性」、「非腫瘍性」、「その他」)の他、カテゴリ選択メニュー用の「ウインドウ」が表示される。
図5に示す例では、「No.1」,「No.2」,「No.4」の画像に対する「腫瘍性」、「非腫瘍性」及び「その他」のカテゴリ分類の確信度が高くなっている。
「No.3」の画像に対する第1の認識器41による第1の認識結果「腫瘍性」のカテゴリ分類の確信度は低く、第2の認識器42による第2の認識結果「非腫瘍性」のカテゴリ分類の確信度は高くなっている。即ち、「No.3」の画像は、第1の認識器41及び第2の認識器42によりそれぞれ認識処理が行われ、第1の認識結果「腫瘍性」が、第2の認識結果「非腫瘍性」に変更されている。
一方、「No.5」の画像に対する第1の認識器41及び第2の認識器42の第1、第2の認識結果に基づくカテゴリ分類の確信度はいずれも低くなっており、この場合、カテゴリの欄には、カテゴリ分類を手動で選択する分類選択部として機能するカテゴリ選択メニュー用の「ウインドウ」が表示される。
ユーザは、操作部15として機能するマウスを操作し、「ウインドウ」にカーソルを合わせてクリックすることで、プルダウンメニューとしてカテゴリ選択メニューを表示させることができる。
カテゴリ選択メニューを表示させる場合、制御部44は、画像に対する第2の認識器42によるカテゴリ認識結果に基づいて複数のカテゴリのカテゴリ優先度を決定し、カテゴリ優先度に応じてカテゴリ選択メニューにおける複数のカテゴリの表示順を変更して、表示部16に表示させることが好ましい。
図5に示すカテゴリ選択メニューでは、「腫瘍性」、「非腫瘍性」及び「その他」に対応する3つのスコアのうち、スコアの高い順に「非腫瘍性」、「その他」及び「腫瘍性」が表示されている。
ユーザは、このカテゴリ選択メニューからNo.5の画像のカテゴリ分類を選択することができる。ユーザにより選択されたカテゴリ分類は、No.5の画像のカテゴリ分類とされ、「ウインドウ」には選択されたカテゴリ分類が表示されることになる。
また、カテゴリの欄にカテゴリ分類が「ウインドウ」で表示されている場合、ユーザは、その画像のカテゴリ分類がユーザにより決定されたものであることが分かる。即ち、カテゴリ分類が表示された「ウインドウ」は、画像のカテゴリ分類がユーザにより決定されたことを示す情報となる。
尚、自動的にカテゴリ分類が決定された画像であっても、「選択肢を表示する」のアイコンボタンをクリックすることで、カテゴリの欄にカテゴリ選択メニュー用の「ウインドウ」を表示させることができ、カテゴリ選択メニューを使用してユーザが手動でカテゴリ分類を変更することができる。
また、カテゴリ分類の確信度が高い画像(「No.1」「No.2」,「No.4」の画像)に対し、カテゴリ分類の確信度が低い画像(「No.3」,「No.5」の画像)を識別可能に表示することが好ましい。図5に示す例では、確信度が低い「No.3」,「No.5」の画像の位置に「カーソル」を表示している。「カーソル」が表示されている確信度が低い「No.3」,「No.5」の画像については、第2の認識器42による認識処理が行われるため、「カーソル」は、第2の認識器42が使用されたことを示す情報となる。尚、「カーソル」の表示に代えて、例えば、色分けにより識別可能に表示するようにしてもよい。
更に、画像を特定する識別情報(No.1,No.2,No.3,…)をクリックすることで、識別情報に対応する画像を、表示部16の画面を切り替えて拡大表示し、又は別ウインドウで拡大表示することができる。
図6は、医療画像処理装置14により表示部16に表示される画像及び情報の他の実施形態を示す図であり、1つの医療画像上で複数の病変領域が検出された場合、及びカテゴリ分類として病期ステージを含む場合の表示形態に関して示している。
図6に示すように複数の病変領域61、62が検出された場合、第1の認識器41又は第2の認識器42は、病変領域61、62毎に認識処理を行い、認識結果(病変領域別の病変のカテゴリ分類)を出力する。
図6に示す実施形態では、第1の認識器41又は第2の認識器42は、病変の種類に関する複数のカテゴリ(例えば、「腫瘍性」、「非腫瘍性」及び「その他」等)における分類と、病変の病期ステージに関する複数のカテゴリにおける分類とを行うことができるものとする。病変の病期ステージに関する複数のカテゴリは、病変の進行程度等を示すステージI,II,III,IV等である。
制御部44又は情報表示制御部45Bは、第1の認識器41又は第2の認識器42による病変領域61、62毎の認識結果(病変領域毎のカテゴリ分類)に基づいて、表示部16の画面上の病変領域61、62の近傍に、カテゴリ分類を表示させる。
図6に示す例では、病変領域61の近傍に「腫瘍性」、「ステージII」が表示され、病変領域62の近傍に「腫瘍性」、「ステージI」が表示されている。
尚、図6に示す例では、病変領域61、62毎の病変に関するカテゴリ分類は同一であり、病期ステージのカテゴリ分類が異なっているが、例えば、複数の病変領域の病変に関するカテゴリ分類が異なる場合、病期ステージが同一の場合、又は病期ステージによる分類がない病変に関するカテゴリ分類等が存在し得る。
[医療画像処理]
図7は、本発明に係る医療画像処理方法の実施形態を示すフローチャートであり、医療画像処理装置14の各部の処理手順に関して示している。
図7において、医療画像取得部40は、プロセッサ装置12又は画像記憶部50から認識処理の対象である医療画像を取得する。取得した医療画像は、第1の認識器41に入力される(ステップS10)。
第1の認識器41は、ステップS10で取得した医療画像の認識処理を実行し、認識結果(第1の認識結果)を取得する(ステップS12)。第1の認識器41が、医療画像を病変に関する複数のカテゴリ(例えば、「腫瘍性」、「非腫瘍性」及び「その他」)のうちのいずれかのカテゴリに分類するが、認識結果は、「腫瘍性」、「非腫瘍性」及び「その他」に対応する3つのスコアとして出力される。
認識確信度判定器43は、第1の認識結果に基づいて、認識結果より特定される医療画像のカテゴリ分類の確信度を判定する(ステップS14)。具体的には、認識確信度判定器43は、第1の認識器41による第1の認識結果(本例では、3つのスコア)を入力し、3つのスコアのうちの最大のスコアが、他のスコアに対して差が基準値以上の場合、最大のスコアを有するカテゴリに画像を分類し、カテゴリ分類の確信度は「高い」と判定する。反対に、それぞれのカテゴリのスコアの差が基準値未満の場合、最大のスコアを有するカテゴリに画像を分類し、カテゴリ分類の確信度は「低い」と判定する。
ステップS14において、第1の認識器41による画像の第1の認識結果の確信度が「低い」と判定されると、ステップS16に遷移する。
ステップS16では、第1の認識器41よりも認識精度の高い第2の認識器42が使用され、第2の認識器42は、ステップS10で入力された医療画像の認識処理を実行し、認識結果(第2の認識結果)を取得する。
一方、ステップS14において、第1の認識器41による画像の第1の認識結果の確信度が「高い」と判定されると、ステップS18に遷移する。
ステップS18において、第1の認識器41による画像の第1の認識結果の確信度が「高い」と判定された場合、制御部44又は情報表示制御部45Bは、第1の認識結果を表示部16に表示させる。一方、第1の認識器41による画像の第1の認識結果の確信度が「低い」と判定され、第2の認識器42による第2の認識結果が取得された場合には、第1の認識結果に代えて、又は第1の認識結果と共に第2の認識結果を表示部16に表示させる。
続いて、制御部44は、医療画像のカテゴリ分類の画像処理を終了させるか否かを判別し、画像処理を終了させない場合(「No」の場合)には、ステップS10に遷移させ、次の医療画像を認識処理の対象として、ステップS10からステップS20を繰り返し実行させる。
一方、画像処理を終了させる場合(「Yes」の場合)には、制御部44は、医療画像処理方法における処理を終了させる。尚、制御部44は、認識処理の対象である医療画像の全ての認識処理が終了した場合、画像処理を終了させる。
[その他]
上記実施形態の医療画像処理装置14の第1の認識器41及び第2の認識器42として、段数が異なる層構造を有するCNNを適用した場合について説明したが、これに限らず、CNNとは異なる他の方法により医療画像の認識を行うものでもよいし、例えば、第1の認識器41は、CNNとは異なる他の方法により医療画像の認識を行うものとし、第2の認識器42は、CNNにより医療画像の認識を行うものとしてもよい。
医療画像を認識する他の方法としては、例えば医療画像を複数の矩形領域に分割し、分割した各矩形領域を局所領域として設定する。そして、医療画像の局所領域ごとに局所領域内の画素の特徴量を算出し、特定の色相、形状等を有する病変候補を抽出し、抽出した病変候補の画像(画像の特徴量)と、予め準備されたカテゴリ分類毎に標準の病変画像(病変画像の特徴量)とのマッチングにより、医療画像のカテゴリ分類を行うことが考えられる。
上記実施形態では、プロセッサ装置12と医療画像処理装置14とが別体に設けられているが、プロセッサ装置12と医療画像処理装置14とが一体化されていてもよい。即ち、プロセッサ装置12に、医療画像処理装置14としての機能を設けてもよい。
上記実施形態では、内視鏡10により撮影された医療画像をカテゴリ分類の認識対象としたが、例えば超音波診断装置、X線画像診断システム、デジタルマンモグラフィ、CT(Computed Tomography)装置、及びMRI(Magnetic Resonance Imaging)装置等により取得される医療画像をカテゴリ分類の認識対象としてよい。
[付記]
本明細書では以下に示す発明を含む多様な技術思想の開示を含んでいる。
[付記A1]
本発明に係る医療画像処理装置において、更に、医療画像解析処理部を有し、医療画像解析処理部は、医療画像の画素の特徴量に基づいて、注目すべき領域である注目領域を検出し、医療画像解析結果取得部は、医療画像解析処理部の解析結果を取得する医療画像処理装置。
[付記A2]
本発明に係る医療画像処理装置において、更に、医療画像解析処理部を有し、医療画像解析処理部は、医療画像の画素の特徴量に基づいて、注目すべき対象の有無を検出し、医療画像解析結果取得部は、医療画像解析処理部の解析結果を取得する医療画像処理装置。
[付記A3]
付記A1又は付記A2に係る医療画像処理装置において、医療画像解析結果取得部は、医療画像の解析結果を記録する記録装置から取得し、解析結果は、医療画像に含まれる注目すべき領域である注目領域と、注目すべき対象の有無のいずれか、もしくは両方である医療画像処理装置。
[付記B1]
付記A1から付記A3のいずれか1つに記載の医療画像処理装置において、医療画像は、白色帯域の光、又は白色帯域の光として複数の波長帯域の光を照射して得た通常光画像である医療画像処理装置。
[付記B2]
付記B1に係る医療画像処理装置において、医療画像は、特定の波長帯域の光を照射して得た画像であることを特徴とし、特定の波長帯域は、白色の波長帯域よりも狭い帯域である医療画像処理装置。
[付記B3]
付記B2に係る医療画像処理装置において、特定の波長帯域は、可視域の青色もしくは、緑色帯域である医療画像処理装置。
[付記B4]
付記B3に係る医療画像処理装置において、特定の波長帯域は、390nm以上450nm以下または530nm以上550nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、390nm以上450nm以下または530nm以上550nm以下の波長帯域内にピーク波長を有する医療画像処理装置。
[付記B5]
付記B2に係る医療画像処理装置において、特定の波長帯域は、可視域の赤色帯域である医療画像処理装置。
[付記B6]
付記B5に係る医療画像処理装置において、特定の波長帯域は、585nm以上615nm以下または610nm以上730nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、585nm以上615nm以下または610nm以上730nm以下の波長帯域内にピーク波長を有する医療画像処理装置。
[付記B7]
付記B2に係る医療画像処理装置において、特定の波長帯域は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域を含み、かつ、特定の波長帯域の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域にピーク波長を有する医療画像処理装置。
[付記B8]
付記B7に係る医療画像処理装置において、特定の波長帯域は、400±10nm、440±10nm、470±10nm、または、600nm以上750nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、400±10nm、440±10nm、470±10nm、または、600nm以上750nm以下の波長帯域にピーク波長を有する医療画像処理装置。
[付記B9]
付記B2に係る医療画像処理装置において、医療画像は生体内を写した生体内画像であり、生体内画像は、生体内の蛍光物質が発する蛍光の情報を有する医療画像処理装置。
[付記B10]
付記B9に係る医療画像処理装置において、蛍光は、ピークが390nmから470nmである励起光を生体内に照射して得る医療画像処理装置。
[付記B11]
付記B2に係る医療画像処理装置において、医療画像は生体内を写した生体内画像であり、特定の波長帯域は、赤外光の波長帯域である医療画像処理装置。
[付記B12]
付記B11に係る医療画像処理装置において、特定の波長帯域は、790nm以上820nm以下または905nm以上970nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、790nm以上820nm以下または905nm以上970nm以下の波長帯域にピーク波長を有する医療画像処理装置。
[付記B13]
付記A1から付記A3のいずれか1つに記載の医療画像処理装置において、医療画像取得部は、白色帯域の光、又は白色帯域の光として複数の波長帯域の光を照射して得る通常光画像に基づいて、特定の波長帯域の情報を有する特殊光画像を取得する特殊光画像取得部を備え、医療画像は特殊光画像である医療画像処理装置。
[付記B14]
付記B13に係る医療画像処理装置において、特定の波長帯域の信号は、通常光画像に含まれる赤、緑、及び青あるいはシアン、マゼンタ、及びイエローの色情報に基づく演算により得る医療画像処理装置。
[付記B15]
付記A1から付記A3のいずれか1つに記載の医療画像処理装置において、白色帯域の光、又は白色帯域の光として複数の波長帯域の光を照射して得る通常光画像と、特定の波長帯域の光を照射して得る特殊光画像との少なくとも一方に基づく演算によって、特徴量画像を生成する特徴量画像生成部を備え、医療画像は特徴量画像である医療画像処理装置。
[付記C1]
上記各付記のいずれか1つに記載の医療画像処理装置と、白色の波長帯域の光、または、特定の波長帯域の光の少なくともいずれかを照射して画像を取得する内視鏡と、を備える内視鏡装置。
[付記C2]
上記各付記のいずれか1つに記載の医療画像処理装置を備える診断支援装置。
[付記C3]
上記各付記のいずれか1つに記載の医療画像処理装置を備える医療業務支援装置。
9 内視鏡システム
10 内視鏡
11 光源装置
12 プロセッサ装置
13 表示装置
14 医療画像処理装置
15 操作部
16 表示部
17A、17B、17C 画面
18A、18B、18C 指標
19 情報
20 挿入部
21 手元操作部
22 ユニバーサルコード
25 軟性部
26 湾曲部
27 先端部
28 撮像素子
29 湾曲操作ノブ
30 送気送水ボタン
31 吸引ボタン
32 静止画像撮影指示部
33 処置具導入口
35 ライトガイド
36 信号ケーブル
37A、37B コネクタ
38 動画像
38a フレーム画像
39 静止画像
40 医療画像取得部
41 第1の認識器
41A 入力層
41B 中間層
41C 出力層
42 第2の認識器
43 認識確信度判定器
44 制御部
45 表示制御部
45A 画像表示制御部
45B 情報表示制御部
47 記憶部
50 画像記憶部
51 プログラム
61、62 病変領域
S10〜S20 ステップ

Claims (21)

  1. 被写体像を含む医療画像を取得する医療画像取得部と、
    前記医療画像の認識を行う第1の認識器と、
    前記医療画像の認識を行う第2の認識器であって、前記第1の認識器よりも認識精度が高い第2の認識器と、
    前記第1の認識器による認識結果の確信度を判定する認識確信度判定器と、
    前記認識確信度判定器による判定結果に応じて前記第2の認識器による前記医療画像の認識処理を実行させる制御部と、
    を備えた医療画像処理装置。
  2. 前記第1の認識器及び前記第2の認識器は、それぞれ層構造を有する請求項1に記載の医療画像処理装置。
  3. 前記第2の認識器は、前記第1の認識器よりも前記層構造を構成する層の段数が多い請求項2に記載の医療画像処理装置。
  4. 前記第1の認識器及び前記第2の認識器は、前記層構造を構成する層に少なくとも1つのフィルタを有する請求項2又は3に記載の医療画像処理装置。
  5. 前記第2の認識器は、前記第1の認識器よりも前記層構造を構成する層であって、フィルタを有する層が多い請求項4に記載の医療画像処理装置。
  6. 前記第1の認識器及び前記第2の認識器は、それぞれ畳み込みニューラルネットワークである請求項1から5のいずれか1項に記載の医療画像処理装置。
  7. 前記第1の認識器及び前記第2の認識器は、それぞれ前記医療画像から病変候補の位置を検出する請求項1から6のいずれか1項に記載の医療画像処理装置。
  8. 前記第1の認識器及び前記第2の認識器は、それぞれ前記医療画像を病変に関する複数のカテゴリのうちのいずれかのカテゴリに分類する請求項1から7のいずれか1項に記載の医療画像処理装置。
  9. 前記第1の認識器及び前記第2の認識器は、前記医療画像上の複数の病変領域を、それぞれ病変に関する複数のカテゴリのうちのいずれかのカテゴリに分類する請求項1から7のいずれか1項に記載の医療画像処理装置。
  10. 前記複数のカテゴリは、病変の種類に関する複数のカテゴリ、病変の病期ステージに関する複数のカテゴリ、又は病変の種類と病期ステージとを組合せた複数のカテゴリである請求項8又は9に記載の医療画像処理装置。
  11. 前記制御部は、前記医療画像に対する前記第1の認識器及び前記第2の認識器の少なくとも一方の認識結果を、表示部に表示させる請求項1から10のいずれか1項に記載の医療画像処理装置。
  12. 前記制御部は、前記第2の認識器が前記医療画像の認識に使用された場合、前記第2の認識器が使用されたことを示す情報を、前記表示部に表示させる請求項11に記載の医療画像処理装置。
  13. 前記制御部は、前記第2の認識器が前記医療画像の認識に使用される場合、前記第2の認識器による認識処理の開始から終了までの期間、前記第2の認識器による認識処理中であることを示す情報を、前記表示部に表示させる請求項11又は12に記載の医療画像処理装置。
  14. 前記医療画像に対する前記第1の認識器及び前記第2の認識器の少なくとも一方の認識結果を記録する記録部を有する請求項1から13のいずれか1項に記載の医療画像処理装置。
  15. 前記医療画像のカテゴリを手動で選択する分類選択部を有し、
    前記認識確信度判定器は、前記医療画像に対する前記第2の認識器によるカテゴリ分類の確信度を判定し、
    前記制御部は、前記医療画像に対する前記カテゴリ分類の確信度が低い場合、前記医療画像のカテゴリの選択に使用するカテゴリ選択メニューを表示部に表示させ、前記カテゴリ選択メニューを使用した前記分類選択部による前記医療画像のカテゴリの選択を受け付ける請求項10に記載の医療画像処理装置。
  16. 前記制御部は、前記医療画像に対する前記第2の認識器によるカテゴリ認識結果に基づいて前記複数のカテゴリのカテゴリ優先度を決定し、前記カテゴリ優先度に応じて前記カテゴリ選択メニューにおける前記複数のカテゴリの表示順を変更する請求項15に記載の医療画像処理装置。
  17. 前記制御部は、前記分類選択部により前記医療画像のカテゴリが決定されると、前記分類選択部により前記医療画像のカテゴリが決定されたことを示す情報を前記表示部に表示させる請求項15又は16に記載の医療画像処理装置。
  18. 被写体像を含む医療画像を取得するステップと、
    第1の認識器を使用して前記医療画像の認識を行うステップと、
    前記第1の認識器による認識結果の確信度を判定するステップと、
    前記確信度の判定結果に応じて前記第1の認識器よりも認識精度が高い第2の認識器を使用して前記医療画像の認識を行うステップと、
    を含む医療画像処理方法。
  19. 前記第1の認識器による前記医療画像の認識結果の確信度が基準値以上の場合には、前記第1の認識器の認識結果を表示部に表示させ、前記第1の認識器による前記医療画像の認識結果の確信度が基準値未満の場合には、前記第2の認識器の認識結果を前記表示部に表示させる請求項18に記載の医療画像処理方法。
  20. 被写体像を含む医療画像を取得する機能と、
    第1の認識器を使用して前記医療画像の認識を行う機能と、
    前記第1の認識器による認識結果の確信度を判定する機能と、
    前記確信度の判定結果に応じて前記第1の認識器よりも認識精度が高い第2の認識器を使用して前記医療画像の認識を行う機能と、
    をコンピュータに実行させる医療画像処理プログラム。
  21. 前記第1の認識器による前記医療画像の認識結果の確信度が基準値以上の場合には、前記第1の認識器の認識結果を表示部に表示させ、前記第1の認識器による前記医療画像の認識結果の確信度が基準値未満の場合には、前記第2の認識器の認識結果を前記表示部に表示させる請求項20に記載の医療画像処理プログラム。
JP2019541932A 2017-09-15 2018-07-18 医療画像処理装置及び医療画像処理プログラム Active JP6890184B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017177491 2017-09-15
JP2017177491 2017-09-15
PCT/JP2018/026945 WO2019054045A1 (ja) 2017-09-15 2018-07-18 医療画像処理装置、医療画像処理方法及び医療画像処理プログラム

Publications (2)

Publication Number Publication Date
JPWO2019054045A1 true JPWO2019054045A1 (ja) 2020-10-29
JP6890184B2 JP6890184B2 (ja) 2021-06-18

Family

ID=65722623

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019541932A Active JP6890184B2 (ja) 2017-09-15 2018-07-18 医療画像処理装置及び医療画像処理プログラム

Country Status (3)

Country Link
US (2) US11222243B2 (ja)
JP (1) JP6890184B2 (ja)
WO (1) WO2019054045A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109427060A (zh) * 2018-10-30 2019-03-05 腾讯科技(深圳)有限公司 一种影像识别的方法、装置、终端设备和医疗系统
EP3660741B1 (en) * 2018-11-29 2022-05-04 Koninklijke Philips N.V. Feature identification in medical imaging
JP7252035B2 (ja) * 2019-03-28 2023-04-04 京セラ株式会社 疾患推定システム
JP7127779B2 (ja) * 2019-04-23 2022-08-30 学校法人慈恵大学 診断支援システム、及び診断支援用プログラム
EP3998931A4 (en) * 2019-07-16 2023-04-19 Docbot, Inc. REAL-TIME DEPLOYMENT OF MACHINE LEARNING SYSTEMS
CN113168699B (zh) 2019-07-18 2023-07-25 Hoya株式会社 计算机程序、信息处理方法以及内窥镜用处理器
WO2021071497A1 (en) * 2019-10-10 2021-04-15 Google Llc Camera synchronization and image tagging for face authentication
WO2021152784A1 (ja) * 2020-01-30 2021-08-05 株式会社インキュビット 手術支援システム
US11538135B2 (en) * 2020-02-25 2022-12-27 Raytheon Company Automatic multi-image 3D ground control point extraction
WO2021181564A1 (ja) * 2020-03-11 2021-09-16 オリンパス株式会社 処理システム、画像処理方法及び学習方法
CN115397304A (zh) 2020-04-08 2022-11-25 富士胶片株式会社 医疗图像处理系统、识别处理用处理器装置及医疗图像处理系统的工作方法
US20230281968A1 (en) * 2020-07-30 2023-09-07 Anaut Inc. Recording Medium, Method for Generating Learning Model, Surgical Support Device and Information Processing Method
KR102505791B1 (ko) * 2021-01-11 2023-03-03 한림대학교 산학협력단 실시간 영상을 통해 획득되는 병변 판단 시스템의 제어 방법, 장치 및 프로그램
WO2022163514A1 (ja) * 2021-01-27 2022-08-04 富士フイルム株式会社 医療画像処理装置、方法及びプログラム
CN113011418B (zh) * 2021-02-09 2024-02-23 杭州海康慧影科技有限公司 确定图像中待处理区域的方法、装置、设备
WO2022250031A1 (ja) * 2021-05-24 2022-12-01 アナウト株式会社 情報処理装置、情報処理方法、及びコンピュータプログラム
TWI832057B (zh) * 2021-05-27 2024-02-11 宏碁股份有限公司 醫療影像判讀方法與系統
WO2023058388A1 (ja) * 2021-10-04 2023-04-13 富士フイルム株式会社 情報処理装置、情報処理方法、内視鏡システム及びレポート作成支援装置
CN117956939A (zh) * 2021-11-04 2024-04-30 阿瑙特株式会社 计算机程序、学习模型的生成方法、以及信息处理装置
WO2023100475A1 (ja) * 2021-11-30 2023-06-08 富士フイルム株式会社 医療画像処理装置及びその作動方法
TWI825643B (zh) * 2022-03-30 2023-12-11 緯創資通股份有限公司 醫療輔助資訊產生方法與醫療輔助資訊產生系統

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017055412A1 (en) * 2015-09-30 2017-04-06 Siemens Healthcare Gmbh Method and system for classification of endoscopic images using deep decision networks

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7130446B2 (en) * 2001-12-03 2006-10-31 Microsoft Corporation Automatic detection and tracking of multiple individuals using multiple cues
US7783094B2 (en) * 2005-06-02 2010-08-24 The Medipattern Corporation System and method of computer-aided detection
US20090099862A1 (en) * 2007-10-16 2009-04-16 Heuristic Analytics, Llc. System, method and computer program product for providing health care services performance analytics
JPWO2010050333A1 (ja) 2008-10-30 2012-03-29 コニカミノルタエムジー株式会社 情報処理装置
US11664114B2 (en) * 2017-05-25 2023-05-30 Enlitic, Inc. Medical scan assisted review system
JP6719421B2 (ja) * 2017-06-20 2020-07-08 富士フイルム株式会社 学習データ生成支援装置および学習データ生成支援方法並びに学習データ生成支援プログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017055412A1 (en) * 2015-09-30 2017-04-06 Siemens Healthcare Gmbh Method and system for classification of endoscopic images using deep decision networks

Also Published As

Publication number Publication date
US20220092362A1 (en) 2022-03-24
US11222243B2 (en) 2022-01-11
WO2019054045A1 (ja) 2019-03-21
US20200193236A1 (en) 2020-06-18
JP6890184B2 (ja) 2021-06-18
US11734820B2 (en) 2023-08-22

Similar Documents

Publication Publication Date Title
JP6890184B2 (ja) 医療画像処理装置及び医療画像処理プログラム
US11600385B2 (en) Medical image processing device, endoscope system, diagnosis support method, and program
JP7308258B2 (ja) 医療画像処理装置及び医療画像処理装置の作動方法
US20210097331A1 (en) Medical image processing apparatus, medical image processing system, medical image processing method, and program
JP7166430B2 (ja) 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理装置の作動方法及びプログラム
US11449988B2 (en) Medical image processing apparatus
JP7326308B2 (ja) 医療画像処理装置及び医療画像処理装置の作動方法、内視鏡システム、プロセッサ装置、診断支援装置並びにプログラム
US20210366593A1 (en) Medical image processing apparatus and medical image processing method
JP7289373B2 (ja) 医療画像処理装置、内視鏡システム、診断支援方法及びプログラム
CN113498323A (zh) 医用图像处理装置、处理器装置、内窥镜系统、医用图像处理方法、及程序
US20200184644A1 (en) Medical image processing device and medical image processing method
JP7289241B2 (ja) ファイリング装置、ファイリング方法及びプログラム
JP6840263B2 (ja) 内視鏡システム及びプログラム
WO2019088008A1 (ja) 画像処理装置、画像処理方法、プログラム、及び内視鏡システム
US20210201080A1 (en) Learning data creation apparatus, method, program, and medical image recognition apparatus
US20230206445A1 (en) Learning apparatus, learning method, program, trained model, and endoscope system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210513

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210524

R150 Certificate of patent or registration of utility model

Ref document number: 6890184

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250