JP7429715B2 - 画像処理システム、内視鏡システム、画像処理システムの作動方法及びプログラム - Google Patents
画像処理システム、内視鏡システム、画像処理システムの作動方法及びプログラム Download PDFInfo
- Publication number
- JP7429715B2 JP7429715B2 JP2021569655A JP2021569655A JP7429715B2 JP 7429715 B2 JP7429715 B2 JP 7429715B2 JP 2021569655 A JP2021569655 A JP 2021569655A JP 2021569655 A JP2021569655 A JP 2021569655A JP 7429715 B2 JP7429715 B2 JP 7429715B2
- Authority
- JP
- Japan
- Prior art keywords
- observation method
- region
- interest
- image
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 331
- 238000011017 operating method Methods 0.000 title 1
- 238000000034 method Methods 0.000 claims description 616
- 238000001514 detection method Methods 0.000 claims description 298
- 230000008569 process Effects 0.000 claims description 136
- 238000012549 training Methods 0.000 claims description 46
- 238000010801 machine learning Methods 0.000 claims description 34
- 230000010354 integration Effects 0.000 claims description 31
- 238000013527 convolutional neural network Methods 0.000 claims description 24
- 238000001727 in vivo Methods 0.000 claims description 23
- 238000003384 imaging method Methods 0.000 claims description 18
- 238000005286 illumination Methods 0.000 claims description 17
- 239000000975 dye Substances 0.000 description 34
- 238000004364 calculation method Methods 0.000 description 23
- 230000006870 function Effects 0.000 description 23
- 238000013528 artificial neural network Methods 0.000 description 20
- 238000012805 post-processing Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 230000003287 optical effect Effects 0.000 description 10
- 238000007781 pre-processing Methods 0.000 description 10
- 238000000605 extraction Methods 0.000 description 9
- 230000003902 lesion Effects 0.000 description 9
- 238000012986 modification Methods 0.000 description 9
- 230000004048 modification Effects 0.000 description 9
- 208000037062 Polyps Diseases 0.000 description 8
- 230000008859 change Effects 0.000 description 8
- 238000003745 diagnosis Methods 0.000 description 8
- 238000003780 insertion Methods 0.000 description 8
- 230000037431 insertion Effects 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000011176 pooling Methods 0.000 description 7
- 238000003672 processing method Methods 0.000 description 5
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 206010028980 Neoplasm Diseases 0.000 description 3
- 201000011510 cancer Diseases 0.000 description 3
- 230000000295 complement effect Effects 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 3
- 230000036210 malignancy Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000001839 endoscopy Methods 0.000 description 2
- 238000012840 feeding operation Methods 0.000 description 2
- 239000006260 foam Substances 0.000 description 2
- KHLVKKOJDHCJMG-QDBORUFSSA-L indigo carmine Chemical compound [Na+].[Na+].N/1C2=CC=C(S([O-])(=O)=O)C=C2C(=O)C\1=C1/NC2=CC=C(S(=O)(=O)[O-])C=C2C1=O KHLVKKOJDHCJMG-QDBORUFSSA-L 0.000 description 2
- 229960003988 indigo carmine Drugs 0.000 description 2
- 235000012738 indigotine Nutrition 0.000 description 2
- 239000004179 indigotine Substances 0.000 description 2
- 230000001678 irradiating effect Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000005507 spraying Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000010420 art technique Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 239000000049 pigment Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 229910052724 xenon Inorganic materials 0.000 description 1
- FHNFHKCVQCLJFQ-UHFFFAOYSA-N xenon atom Chemical compound [Xe] FHNFHKCVQCLJFQ-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/045—Control thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Biophysics (AREA)
- Animal Behavior & Ethology (AREA)
- Molecular Biology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Heart & Thoracic Surgery (AREA)
- Biomedical Technology (AREA)
- Radiology & Medical Imaging (AREA)
- Pathology (AREA)
- Optics & Photonics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Image Analysis (AREA)
- Endoscopes (AREA)
Description
医師が内視鏡システムを用いて診断等を行う際、種々の観察方法が用いられる。ここでの観察とは、具体的には撮像画像を用いて被写体の状態を見ることである。撮像画像とは、具体的には生体内画像である。内視鏡装置の照明光の種類や、被写体の状態に応じて、観察方法が変化する。観察方法としては、通常光を照明光として照射することによって撮像を行う観察方法である通常光観察、特殊光を照明光として照射することによって撮像を行う観察方法である特殊光観察、染料を被写体に散布した状態で撮像を行う観察方法である色素散布観察等が考えられる。以下の説明においては、通常光観察において撮像される画像を通常光画像と表記し、特殊光観察において撮像される画像を特殊光画像と表記し、色素散布観察において撮像される画像を色素散布画像と表記する。
以下では、第1観察方法が通常光観察であり、第2観察方法が特殊光観察である例について説明する。ただし、第2観察方法は色素散布観察であってもよい。即ち、以下の説明において、特殊光観察又は特殊光画像との表記を、適宜、色素散布観察及び色素散布画像と読み替えることが可能である。
第1の実施形態においては、観察方法分類器が観察方法分類処理のみを実行する例について説明した。ただし、観察方法分類器は、観察方法分類処理に加えて、注目領域の検出処理を実行してもよい。なお、第2の実施形態においても、第1観察方法が通常光観察であり、第2観察方法が特殊光観察である例について説明するが、第2観察方法は色素散布観察であってもよい。
以上では、通常光観察及び特殊光観察を例にとって、2つの観察方法を対象として処理を行う例を示した。しかし本実施形態における観察方法は3つ以上であってもよい。第3の実施形態では、観察方法が通常光観察と、特殊光観察と、色素散布観察の3つを含む例について説明する。
例えば医師による診断工程は、通常光観察を用いて病変を探す工程と、特殊光観察を用いて、見つかった病変の悪性度の鑑別を行う工程とが考えられる。特殊光画像は、通常光画像に比べて病変の視認性が高いため、悪性度の鑑別を精度よく行うことが可能になる。しかし、特殊光画像は、通常光画像に比べて取得される枚数が少ない。そのため、特殊光画像を用いた機械学習において訓練データが不足することによって、検出精度が低下するおそれがある。例えば特殊光画像を用いて学習した第2注目領域検出器を用いた検出精度が、通常光画像を用いて学習した第1注目領域検出器に比べて低下してしまう。
Claims (11)
- 処理対象画像を取得する画像取得部と、
前記処理対象画像において注目領域を検出した結果である検出結果を出力する処理を行う処理部と、
を含み、
前記処理部は、
観察方法分類器に基づいて、前記処理対象画像が撮像されたときの観察方法を、第1観察方法及び第2観察方法を含む複数の観察方法のうちのいずれかの前記観察方法に分類する分類処理と、
前記観察方法分類器の分類結果に基づいて、第1注目領域検出器及び第2注目領域検出器を含み前記注目領域を検出する複数の注目領域検出器のうちの、いずれかの前記注目領域検出器を選択する選択処理を行い、
前記処理部は、
前記観察方法分類器に基づいて、前記処理対象画像から前記注目領域を検出する処理を行い、
前記処理部は、
前記選択処理において前記第1注目領域検出器が選択された場合に、前記第1注目領域検出器に基づいて、前記第1観察方法に分類された前記処理対象画像から検出した前記注目領域の前記検出結果と、前記観察方法分類器に基づく前記注目領域の前記検出結果と、の統合処理を行い、
前記選択処理において前記第2注目領域検出器が選択された場合に、前記第2注目領域検出器に基づいて、前記第2観察方法に分類された前記処理対象画像から検出した前記注目領域の前記検出結果と、前記観察方法分類器に基づく前記注目領域の前記検出結果と、の前記統合処理を行い、
前記第1注目領域検出器は、
前記第1観察方法で撮影された複数の第1学習用画像と、前記第1学習用画像における前記注目領域の有無、位置、大きさ、形状のうち少なくとも1つに関連する検出データに基づく機械学習によって取得された学習済モデルであり、
前記第2注目領域検出器は、
前記第2観察方法で撮影された複数の第2学習用画像と、前記第2学習用画像における前記注目領域の有無、位置、大きさ、形状のうち少なくとも1つに関連する検出データに基づく機械学習によって取得された学習済モデルであり、
前記観察方法分類器は、前記第1観察方法又は前記第2観察方法で撮像された学習用画像と、正解データとに基づく機械学習によって取得された学習済モデルであり、
前記正解データは、
前記学習用画像が前記第1観察方法と前記第2観察方法のいずれで撮像された画像であるかを表す観察方法データと、前記学習用画像における前記注目領域の有無、位置、大きさ、形状のうち少なくとも1つに関連する検出データとを含む、
ことを特徴とする画像処理システム。 - 請求項1において、
前記処理部は、
前記第1注目領域検出器に基づいて、前記処理対象画像から前記注目領域として検出された領域の前記注目領域らしさを表す第1スコアを出力する処理と、前記第2注目領域検出器に基づいて、前記処理対象画像から前記注目領域として検出された領域の前記注目領域らしさを表す第2スコアを出力する処理の少なくとも一方を行い、
前記観察方法分類器に基づいて、前記処理対象画像から前記注目領域として検出された領域の前記注目領域らしさを表す第3スコアを出力する処理を行い、
前記選択処理において前記第1注目領域検出器が選択された場合に、前記第1スコア及び前記第3スコアを統合することによって第4スコアを求め、前記第4スコアに基づく前記検出結果を出力し、
前記選択処理において前記第2注目領域検出器が選択された場合に、前記第2スコア及び前記第3スコアを統合することによって第5スコアを求め、前記第5スコアに基づく前記検出結果を出力する、
ことを特徴とする画像処理システム。 - 請求項1において、
前記処理対象画像は、内視鏡撮像装置によって撮像された生体内画像であり、
前記第1観察方法は、通常光を照明光とする観察方法であり、
前記第2観察方法は、特殊光を前記照明光とする観察方法である、
ことを特徴とする画像処理システム。 - 請求項1において、
前記処理対象画像は、内視鏡撮像装置によって撮像された生体内画像であり、
前記第1観察方法は、通常光を照明光とする観察方法であり、
前記第2観察方法は、被写体に対して色素散布が行われた観察方法である、
ことを特徴とする画像処理システム。 - 請求項1において、
前記第2注目領域検出器は、
前記第1観察方法において撮像された画像を含む第1画像群を用いてプレトレーニングされ、前記プレトレーニング後に、前記第2観察方法において撮像された画像を含む第2画像群を用いてファインチューニングされることによって学習された前記学習済モデルである、
ことを特徴とする画像処理システム。 - 請求項1において、
前記観察方法分類器は、
前記第1観察方法において撮像された画像を含む第1画像群を用いてプレトレーニングされ、前記プレトレーニング後に、前記第1観察方法において撮像された画像及び前記第2観察方法において撮像された画像を含む第3画像群を用いてファインチューニングされることによって学習された前記学習済モデルである、
ことを特徴とする画像処理システム。 - 請求項1において、
前記観察方法分類器、前記第1注目領域検出器及び前記第2注目領域検出器の少なくとも1つは、コンボリューショナルニューラルネットワーク(Convolutional Neural Network)からなることを特徴とする画像処理システム。 - 請求項1において、
前記第1注目領域検出器及び前記第2注目領域検出器は、
前記注目領域の有無、前記注目領域の位置、前記注目領域の大きさ、前記注目領域の形状のうちの少なくとも1つを検出することを特徴とする画像処理システム。 - 生体内画像を撮像する撮像部と、
前記生体内画像を処理対象画像として取得する画像取得部と、
前記処理対象画像において注目領域を検出した結果である検出結果を出力する処理を行う処理部と、
を含み、
前記処理部は、
観察方法分類器に基づいて、前記処理対象画像が撮像されたときの観察方法を、第1観察方法及び第2観察方法を含む複数の観察方法のうちのいずれかの前記観察方法に分類する分類処理と、
前記観察方法分類器の分類結果に基づいて、第1注目領域検出器及び第2注目領域検出器を含み前記注目領域を検出する複数の注目領域検出器のうちの、いずれかの前記注目領域検出器を選択する選択処理を行い、
前記処理部は、
前記観察方法分類器に基づいて、前記処理対象画像から前記注目領域を検出する処理を行い、
前記処理部は、
前記選択処理において前記第1注目領域検出器が選択された場合に、前記第1注目領域検出器に基づいて、前記第1観察方法に分類された前記処理対象画像から検出した前記注目領域の前記検出結果と、前記観察方法分類器に基づく前記注目領域の前記検出結果と、の統合処理を行い、
前記選択処理において前記第2注目領域検出器が選択された場合に、前記第2注目領域検出器に基づいて、前記第2観察方法に分類された前記処理対象画像から検出した前記注目領域の前記検出結果と、前記観察方法分類器に基づく前記注目領域の前記検出結果と、の前記統合処理を行い、
前記第1注目領域検出器は、
前記第1観察方法で撮影された複数の第1学習用画像と、前記第1学習用画像における前記注目領域の有無、位置、大きさ、形状のうち少なくとも1つに関連する検出データに基づく機械学習によって取得された学習済モデルであり、
前記第2注目領域検出器は、
前記第2観察方法で撮影された複数の第2学習用画像と、前記第2学習用画像における前記注目領域の有無、位置、大きさ、形状のうち少なくとも1つに関連する検出データに基づく機械学習によって取得された学習済モデルであり、
前記観察方法分類器は、前記第1観察方法又は前記第2観察方法で撮像された学習用画像と、正解データとに基づく機械学習によって取得された学習済モデルであり、
前記正解データは、
前記学習用画像が前記第1観察方法と前記第2観察方法のいずれで撮像された画像であるかを表す観察方法データと、前記学習用画像における前記注目領域の有無、位置、大きさ、形状のうち少なくとも1つに関連する検出データとを含む、
ことを特徴とする内視鏡システム。 - 画像取得部と処理部とを含む画像処理システムの作動方法であって、
前記画像取得部は、処理対象画像を取得し、
前記処理部は、観察方法分類器に基づいて、前記処理対象画像が撮像されたときの観察方法を、第1観察方法及び第2観察方法を含む複数の観察方法のうちのいずれかの前記観察方法に分類する分類処理を行い、
前記処理部は、前記観察方法分類器の分類結果に基づいて、第1注目領域検出器及び第2注目領域検出器を含み注目領域を検出する複数の注目領域検出器のうちの、いずれかの前記注目領域検出器を選択する選択処理を行い、
前記処理部は、前記観察方法分類器に基づいて、前記処理対象画像から前記注目領域を検出する処理を行い、
前記処理部は、前記選択処理において前記第1注目領域検出器が選択された場合に、前記第1注目領域検出器に基づいて、前記第1観察方法に分類された前記処理対象画像から検出した前記注目領域の検出結果と、前記観察方法分類器に基づく前記注目領域の検出結果と、の統合処理を行い、
前記処理部は、前記選択処理において前記第2注目領域検出器が選択された場合に、前記第2注目領域検出器に基づいて、前記第2観察方法に分類された前記処理対象画像から検出した前記注目領域の検出結果と、前記観察方法分類器に基づく前記注目領域の検出結果と、の統合処理を行い、
前記第1注目領域検出器は、
前記第1観察方法で撮影された複数の第1学習用画像と、前記第1学習用画像における前記注目領域の有無、位置、大きさ、形状のうち少なくとも1つに関連する検出データに基づく機械学習によって取得された学習済モデルであり、
前記第2注目領域検出器は、
前記第2観察方法で撮影された複数の第2学習用画像と、前記第2学習用画像における前記注目領域の有無、位置、大きさ、形状のうち少なくとも1つに関連する検出データに基づく機械学習によって取得された学習済モデルであり、
前記観察方法分類器は、前記第1観察方法又は前記第2観察方法で撮像された学習用画像と、正解データとに基づく機械学習によって取得された学習済モデルであり、
前記正解データは、
前記学習用画像が前記第1観察方法と前記第2観察方法のいずれで撮像された画像であるかを表す観察方法データと、前記学習用画像における前記注目領域の有無、位置、大きさ、形状のうち少なくとも1つに関連する検出データとを含む、
ことを特徴とする画像処理システムの作動方法。 - 処理対象画像を取得し、
観察方法分類器に基づいて、前記処理対象画像が撮像されたときの観察方法を、第1観察方法及び第2観察方法を含む複数の観察方法のうちのいずれかの前記観察方法に分類する分類処理を行い、
前記観察方法分類器の分類結果に基づいて、第1注目領域検出器及び第2注目領域検出器を含み注目領域を検出する複数の注目領域検出器のうちの、いずれかの前記注目領域検出器を選択する選択処理を行い、
前記観察方法分類器に基づいて、前記処理対象画像から前記注目領域を検出する処理を行い、
前記選択処理において前記第1注目領域検出器が選択された場合に、前記第1注目領域検出器に基づいて、前記第1観察方法に分類された前記処理対象画像から検出した前記注目領域の検出結果と、前記観察方法分類器に基づく前記注目領域の検出結果と、の統合処理を行い、
前記選択処理において前記第2注目領域検出器が選択された場合に、前記第2注目領域検出器に基づいて、前記第2観察方法に分類された前記処理対象画像から検出した前記注目領域の検出結果と、前記観察方法分類器に基づく前記注目領域の検出結果と、の統合処理を行う、
ステップをコンピュータに実行させ、
前記第1注目領域検出器は、
前記第1観察方法で撮影された複数の第1学習用画像と、前記第1学習用画像における前記注目領域の有無、位置、大きさ、形状のうち少なくとも1つに関連する検出データに基づく機械学習によって取得された学習済モデルであり、
前記第2注目領域検出器は、
前記第2観察方法で撮影された複数の第2学習用画像と、前記第2学習用画像における前記注目領域の有無、位置、大きさ、形状のうち少なくとも1つに関連する検出データに基づく機械学習によって取得された学習済モデルであり、
前記観察方法分類器は、前記第1観察方法又は前記第2観察方法で撮像された学習用画像と、正解データとに基づく機械学習によって取得された学習済モデルであり、
前記正解データは、
前記学習用画像が前記第1観察方法と前記第2観察方法のいずれで撮像された画像であるかを表す観察方法データと、前記学習用画像における前記注目領域の有無、位置、大きさ、形状のうち少なくとも1つに関連する検出データとを含む、
ことを特徴とするプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/000375 WO2021140600A1 (ja) | 2020-01-09 | 2020-01-09 | 画像処理システム、内視鏡システム及び画像処理方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2021140600A1 JPWO2021140600A1 (ja) | 2021-07-15 |
JPWO2021140600A5 JPWO2021140600A5 (ja) | 2022-08-30 |
JP7429715B2 true JP7429715B2 (ja) | 2024-02-08 |
Family
ID=76788172
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021569655A Active JP7429715B2 (ja) | 2020-01-09 | 2020-01-09 | 画像処理システム、内視鏡システム、画像処理システムの作動方法及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220351483A1 (ja) |
JP (1) | JP7429715B2 (ja) |
CN (1) | CN114901119A (ja) |
WO (1) | WO2021140600A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024004850A1 (ja) * | 2022-06-28 | 2024-01-04 | オリンパスメディカルシステムズ株式会社 | 画像処理システム、画像処理方法及び情報記憶媒体 |
WO2024084578A1 (ja) * | 2022-10-18 | 2024-04-25 | 日本電気株式会社 | 画像処理装置、画像処理方法及び記憶媒体 |
CN117437580B (zh) * | 2023-12-20 | 2024-03-22 | 广东省人民医院 | 消化道肿瘤识别方法、系统及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012115554A (ja) | 2010-12-02 | 2012-06-21 | Olympus Corp | 内視鏡画像処理装置及びプログラム |
WO2018105063A1 (ja) | 2016-12-07 | 2018-06-14 | オリンパス株式会社 | 画像処理装置 |
WO2019138773A1 (ja) | 2018-01-10 | 2019-07-18 | 富士フイルム株式会社 | 医療画像処理装置、内視鏡システム、医療画像処理方法及びプログラム |
WO2020003991A1 (ja) | 2018-06-28 | 2020-01-02 | 富士フイルム株式会社 | 医療画像学習装置、方法及びプログラム |
-
2020
- 2020-01-09 WO PCT/JP2020/000375 patent/WO2021140600A1/ja active Application Filing
- 2020-01-09 JP JP2021569655A patent/JP7429715B2/ja active Active
- 2020-01-09 CN CN202080091709.0A patent/CN114901119A/zh active Pending
-
2022
- 2022-07-05 US US17/857,363 patent/US20220351483A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012115554A (ja) | 2010-12-02 | 2012-06-21 | Olympus Corp | 内視鏡画像処理装置及びプログラム |
WO2018105063A1 (ja) | 2016-12-07 | 2018-06-14 | オリンパス株式会社 | 画像処理装置 |
WO2019138773A1 (ja) | 2018-01-10 | 2019-07-18 | 富士フイルム株式会社 | 医療画像処理装置、内視鏡システム、医療画像処理方法及びプログラム |
WO2020003991A1 (ja) | 2018-06-28 | 2020-01-02 | 富士フイルム株式会社 | 医療画像学習装置、方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20220351483A1 (en) | 2022-11-03 |
JPWO2021140600A1 (ja) | 2021-07-15 |
CN114901119A (zh) | 2022-08-12 |
WO2021140600A1 (ja) | 2021-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7104810B2 (ja) | 画像処理システム、学習済みモデル及び画像処理方法 | |
JP7429715B2 (ja) | 画像処理システム、内視鏡システム、画像処理システムの作動方法及びプログラム | |
EP3829416B1 (en) | Method and system for augmented imaging in open treatment using multispectral information | |
JP2021532881A (ja) | マルチスペクトル情報を用いた拡張画像化のための方法およびシステム | |
Iqbal et al. | Recent trends and advances in fundus image analysis: A review | |
JP2020509455A (ja) | プログラム可能光源を使用する画像のマルチクラス分類のシステムおよび方法 | |
US20220335610A1 (en) | Image processing system, training method for training device, and storage medium | |
JP7005767B2 (ja) | 内視鏡画像認識装置、内視鏡画像学習装置、内視鏡画像学習方法及びプログラム | |
JP7278202B2 (ja) | 画像学習装置、画像学習方法、ニューラルネットワーク、及び画像分類装置 | |
WO2021181520A1 (ja) | 画像処理システム、画像処理装置、内視鏡システム、インターフェース及び画像処理方法 | |
JP6952214B2 (ja) | 内視鏡用プロセッサ、情報処理装置、内視鏡システム、プログラム及び情報処理方法 | |
US20230050945A1 (en) | Image processing system, endoscope system, and image processing method | |
US20230005247A1 (en) | Processing system, image processing method, learning method, and processing device | |
JP7231762B2 (ja) | 画像処理方法、学習装置、画像処理装置及びプログラム | |
JP7162744B2 (ja) | 内視鏡用プロセッサ、内視鏡システム、情報処理装置、プログラム及び情報処理方法 | |
JP7352645B2 (ja) | 学習支援システム及び学習支援方法 | |
US20230100147A1 (en) | Diagnosis support system, diagnosis support method, and storage medium | |
Kiefer et al. | A survey of glaucoma detection algorithms using fundus and OCT images | |
WO2021140601A1 (ja) | 画像処理システム、内視鏡システム及び画像処理方法 | |
WO2022228396A1 (zh) | 内窥镜多光谱图像处理系统及处理和训练方法 | |
KR102637484B1 (ko) | 인공지능 기반의 내시경 진단 보조 시스템 및 이의 제어방법 | |
WO2021044590A1 (ja) | 内視鏡システム、処理システム、内視鏡システムの作動方法及び画像処理プログラム | |
US20230260117A1 (en) | Information processing system, endoscope system, and information processing method | |
US12026935B2 (en) | Image processing method, training device, and image processing device | |
JP2021196995A (ja) | 画像処理システム、画像処理方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220629 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220629 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230725 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230906 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231003 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231019 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240129 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7429715 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |