JP2023039245A - 画像処理装置、画像処理方法、及びプログラム - Google Patents
画像処理装置、画像処理方法、及びプログラム Download PDFInfo
- Publication number
- JP2023039245A JP2023039245A JP2021146310A JP2021146310A JP2023039245A JP 2023039245 A JP2023039245 A JP 2023039245A JP 2021146310 A JP2021146310 A JP 2021146310A JP 2021146310 A JP2021146310 A JP 2021146310A JP 2023039245 A JP2023039245 A JP 2023039245A
- Authority
- JP
- Japan
- Prior art keywords
- processor
- image processing
- learning
- frame section
- operation information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 85
- 238000003672 processing method Methods 0.000 title claims abstract description 21
- 238000007689 inspection Methods 0.000 claims abstract description 98
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 58
- 230000003902 lesion Effects 0.000 claims description 43
- 238000003780 insertion Methods 0.000 claims description 22
- 230000037431 insertion Effects 0.000 claims description 22
- 238000011282 treatment Methods 0.000 claims description 18
- 210000000056 organ Anatomy 0.000 claims description 15
- 238000001514 detection method Methods 0.000 claims description 11
- 238000004043 dyeing Methods 0.000 claims description 8
- 230000008859 change Effects 0.000 claims description 5
- 238000003384 imaging method Methods 0.000 description 44
- 238000010586 diagram Methods 0.000 description 23
- 230000006870 function Effects 0.000 description 18
- 238000005286 illumination Methods 0.000 description 18
- 238000003860 storage Methods 0.000 description 17
- 238000010801 machine learning Methods 0.000 description 14
- 230000002159 abnormal effect Effects 0.000 description 9
- 238000000034 method Methods 0.000 description 9
- 238000003825 pressing Methods 0.000 description 8
- 238000005452 bending Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 238000001839 endoscopy Methods 0.000 description 6
- 210000002429 large intestine Anatomy 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 210000004400 mucous membrane Anatomy 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000010186 staining Methods 0.000 description 4
- 108010054147 Hemoglobins Proteins 0.000 description 3
- 102000001554 Hemoglobins Human genes 0.000 description 3
- 238000004140 cleaning Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 241000404068 Cotula Species 0.000 description 2
- 241000282412 Homo Species 0.000 description 2
- 238000010521 absorption reaction Methods 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 210000003238 esophagus Anatomy 0.000 description 2
- 210000003405 ileum Anatomy 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 210000000813 small intestine Anatomy 0.000 description 2
- 210000002784 stomach Anatomy 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 1
- 108010064719 Oxyhemoglobins Proteins 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000003705 background correction Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 210000001072 colon Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000001727 in vivo Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011328 necessary treatment Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000005086 pumping Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 229910052724 xenon Inorganic materials 0.000 description 1
- FHNFHKCVQCLJFQ-UHFFFAOYSA-N xenon atom Chemical compound [Xe] FHNFHKCVQCLJFQ-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/49—Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
- G06V2201/031—Recognition of patterns in medical or anatomical images of internal organs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
- G06V2201/032—Recognition of patterns in medical or anatomical images of protuberances, polyps nodules, etc.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Computational Linguistics (AREA)
- Endoscopes (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理方法、及びプログラムに関し、特に検査動画から学習データを出力する画像処理装置、画像処理方法、及びプログラムに関する。
病変部等の異常領域を画像から識別又は検出する方法として、大量の画像(学習データ)と教師データを用いてAI(Artificial Intelligence:学習モデル)に学習させる方法が知られている。一般的に、大量の学習データを用意することで、より高性能なAIとなるように学習をさせることができる。しかしながら、内視鏡検査を含む医療分野において取得される画像の多くは、病変部を含まない正常な被写体を撮影した画像であり、病変部を撮影した画像を入手できる機会は少ない。また、病変部を撮影した画像が入手できたとしても、その病変の種類には偏りがある場合が多く、様々な種類の病変部の大量の学習データを用意することは困難であることが多い。
そこで、上述したように入手が容易な正常な被写体を撮影した画像を用いて、AIを学習させる方法が提案されている。
例えば特許文献1では、正例となる学習用画像データも用いて機械学習を行わせる技術が記載されている。
ここで、機械学習に適した正常画像をAIに多く与えることで、高精度なAIを得ることができる。機械学習に適した正常画像とは、病変部や処置具が写っていなく、正常な粘膜がはっきりと視認できる画像(送気、送水、染色、高速なスコープ移動などのユーザ操作が発生していない画像)である。
しかしながら、検査動画は数万フレームから数十万フレームで構成され、その検査動画から学習に適した正常画像を選別する作業は、人間の目視により行われる場合が多く、膨大な時間を要する。
本発明はこのような事情に鑑みてなされたもので、その目的は、人間による目視により学習データの選別を行うことなく、学習に適した正常画像を精度良く選別することができる画像処理装置、画像処理方法、及びプログラムを提供することである。
上記目的を達成するための本発明の一の態様である画像処理装置は、プロセッサを備える画像処理装置であって、プロセッサは、内視鏡装置で撮影された検査動画を取得し、検査動画の撮影における内視鏡装置の操作情報を取得し、操作情報に基づいて検査動画を構成する複数のフレームから学習フレーム区間を特定し、学習フレーム区間のフレーム群を第1学習データとして出力する。
本態様によれば、学習フレーム区間が操作情報に基づいて特定され、特定された学習フレーム区間のフレーム群が第1学習データとして出力される。これにより本態様は、人間による目視での学習データの選別を行うことなく、学習に適した画像を精度良く選別することができる。
好ましくは、プロセッサは、操作情報に基づいて特殊操作が行われていない区間を学習フレーム区間として特定する。
好ましくは、操作情報は、観察が開始されたことを示す観察開始情報を有し、プロセッサは、観察開始情報に基づいて学習フレーム区間を特定する。
好ましくは、操作情報は、検査対象の臓器の特定部位を検出したことを示す検出情報を有し、プロセッサは、検出情報に基づいて学習フレーム区間を特定する。
好ましくは、操作情報は、送水実行、送気実行、吸引実行、光源切替、処置具使用、染色実施、特殊挿入のうち少なくとも一つを示す特殊操作情報を有し、プロセッサは、特殊操作情報に基づいて学習フレーム区間を特定する。
好ましくは、プロセッサは、複数の特殊操作情報に基づいて学習フレーム区間を特定する。
好ましくは、操作情報は、内視鏡装置のスコープの時系列的な挿入長に関する情報を有し、プロセッサは、挿入長の変化量が第1閾値の範囲内である場合に、学習フレーム区間として特定する。
好ましくは、操作情報は、内視鏡装置により静止画が撮影されたことを示す静止画撮影情報を有し、プロセッサは、静止画撮影情報に基づいて学習フレーム区間を特定する。
好ましくは、プロセッサは、検査動画を構成するフレームに基づいて内視鏡装置の操作状況を認識し、認識の結果に基づいて学習フレーム区間を特定する。
本態様によれば、検査動画を構成するフレームに基づいて内視鏡装置の操作状況が認識され、認識の結果に基づいて学習フレーム区間が特定される。
好ましくは、プロセッサは、検査動画を構成するフレームに基づいて、検査対象の臓器の特定部位を検出することにより、内視鏡装置の操作状況を認識し、特定部位を認識したフレーム以降の区間を学習フレーム区間として特定する。
好ましくは、プロセッサは、検査動画を構成するフレームに基づいて、送水実行、吸引実行、光源切替、処置具使用、染色実施、及び特殊挿入のうち少なくとも一つの特殊操作を検出することにより、内視鏡装置の操作状況を認識し、特殊操作を認識したフレーム以外を学習フレーム区間として特定する。
好ましくは、プロセッサは、検査動画を構成するフレームに基づいて、検査対象の臓器の各部位を認識することにより、内視鏡装置の操作状況を認識し、認識の結果に基づいて学習フレーム区間を特定する。
好ましくは、プロセッサは、出力された第1学習データを、病変を検出する病変検出器に入力し、病変検出器で病変が検出されたフレーム以外を、第2学習データとして出力する。
本発明の他の態様である画像処理方法は、プロセッサを備える画像処理装置の画像処理方法であって、プロセッサが、内視鏡装置で撮影された検査動画を取得する工程と、検査動画の撮影における内視鏡装置の操作情報を取得する工程と、操作情報に基づいて検査動画を構成する複数のフレームから学習フレーム区間を特定する工程と、学習フレーム区間のフレーム群を第1学習データとして出力する工程と、を行う。
本発明の他の態様であるプログラムは、プロセッサを備える画像処理装置が画像処理方法を実行するプログラムであって、プロセッサに、内視鏡装置で撮影された検査動画を取得する工程と、検査動画の撮影における内視鏡装置の操作情報を取得する工程と、操作情報に基づいて検査動画を構成する複数のフレームから学習フレーム区間を特定する工程と、学習フレーム区間のフレーム群を第1学習データとして出力する工程と、を実行させる。
本発明によれば、学習フレーム区間が操作情報に基づいて特定され、特定された学習フレーム区間のフレーム群が第1学習データとして出力されるので、人間による目視での学習データの選別を行うことなく、学習に適した画像を精度良く選別することができる。
以下、添付図面にしたがって本発明に係る画像処理装置、画像処理方法及びプログラムの好ましい実施の形態について説明する。
<第1の実施形態>
図1は、本実施形態の画像処理装置10の主な構成を示すブロック図である。
図1は、本実施形態の画像処理装置10の主な構成を示すブロック図である。
画像処理装置10は、例えばコンピュータに搭載される。画像処理装置10は主に第1プロセッサ(プロセッサ)1及び記憶部11を備える。第1プロセッサ1は、コンピュータに搭載されるCPU(Central Processing Unit)又はGPU(Graphics Processing Unit)で構成される。記憶部11は、コンピュータに搭載されるROM(Read Only Memory)及びRAM(Random Access Memory)で構成される。
第1プロセッサ1は、記憶部11に記憶されるプログラムを実行することにより、様々な機能を実現する。第1プロセッサ1は、検査動画取得部12、操作情報取得部14、学習フレーム区間特定部16、及び第1学習データ出力部18として機能する。
検査動画取得部12は、内視鏡装置500(図13及び図14を参照)で撮影された検査動画MをデータベースDBから取得する。検査動画Mは画像処理装置10を構成するコンピュータのデータ入力部を介して入力される。そして、検査動画取得部12は入力された検査動画Mを取得する。
操作情報取得部14は、検査動画Mの撮影における内視鏡装置500の操作情報PをデータベースDBから取得する。操作情報Pは画像処理装置10を構成するコンピュータのデータ入力部を介して入力される。そして、操作情報取得部14は入力された操作情報Pを取得する。
検査動画M及び操作情報Pは、内視鏡装置500から出力されて、データベースDBに記憶されている。操作情報Pは、検査動画Mを撮影した際の操作が時刻と共に記録されている。操作情報Pと検査動画Mは、関連してデータベースDBに記録されている。データベースDBには、大量の検査動画及び操作情報が記録されている。なお、図1では、画像処理装置10がデータベースDBから検査動画M及び操作情報Pを取得する態様に関して説明しているがこれに限定されるものではない。例えば、検査動画M及び操作情報Pは、内視鏡装置500から直接取得されてもよい。
図2は、本実施形態の画像処理装置10を使用して行われる画像処理方法を示すフローチャートである。なお、画像処理方法は、画像処理装置10の第1プロセッサ1が記憶部11に記憶されているプログラムを実行することにより行われる。
先ず、検査動画取得部12は、検査動画Mを取得する(動画取得工程:ステップS10)。また、操作情報取得部14は、検査動画Mの内視鏡装置500から取得される操作情報Pを取得する(操作情報取得工程:ステップS11)。その後、学習フレーム区間特定部16は、操作情報Pに基づいて検査動画Mを構成する複数のフレームから学習フレーム区間を特定する(学習フレーム区間特定工程:ステップS12)。その後、第1学習データ出力部18は、学習フレーム区間のフレーム群を第1学習データとして出力する(第1学習データ出力工程:ステップS13)。以下に、上述した各工程に関して詳細に説明を行う。
<<動画取得工程>>
先ず、検査動画取得部12で行われる動画取得工程(ステップS10)に関して説明を行う。
先ず、検査動画取得部12で行われる動画取得工程(ステップS10)に関して説明を行う。
検査動画取得部12は、内視鏡装置500で撮影された検査の動画(検査動画M)を取得する。検査動画取得部12は、様々な検査の動画を取得することができる。例えば、検査動画取得部12は、下部内視鏡装置により取得された大腸の検査の検査動画を取得したり、上部内視鏡装置により取得された胃の検査の検査の検査動画を取得したりする。検査動画は、様々なフレームレートにより撮影されている。例えば、検査動画Mは30fps(frames per second)又は60fpsで撮影されている。
図3は、検査動画取得部12で取得される検査動画Mに関して説明する図である。なお、検査動画Mは、下部内視鏡装置で撮影された大腸の検査を行った検査動画である。
図3に示すように、検査動画Mは時刻t1から時刻t2の間で行われた検査に関する動画である。検査動画Mは時系列的に連続する複数のフレームNで構成されており、各フレームNは撮影された時刻に関する情報を有している。検査動画Mには、機械学習に適した正常画像を有するフレームN、及び正常画像ではない異常画像を有するフレームNが含まれている。
図4は、機械学習に適した正常画像の一例を示す図である。
図4に示した正常画像は、下部内視鏡装置での大腸の検査において取得された正常画像の一例である。このように、機械学習に適した正常画像は、病変部や処置具が写っていなく、正常な粘膜がはっきりと視認できる画像(送気、送水、染色、高速なスコープ移動などの特殊操作が行われていない画像)である。
一方、異常画像とは、正常画像とは逆に、病変部や処置具が写っており、正常な粘膜がはっきりと視認できない画像(送気、送水、染色、高速なスコープ移動などの特殊操作が発生している画像)である。
<<操作情報取得工程>>
次に、操作情報取得部14で行われる操作情報取得工程(ステップS11)に関して説明を行う。
次に、操作情報取得部14で行われる操作情報取得工程(ステップS11)に関して説明を行う。
操作情報取得部14は、検査動画Mの撮影における内視鏡装置500の操作情報Pを取得する。操作情報取得部14は、様々な検査動画Mの撮影における操作情報Pを取得する。
例えば操作情報取得部14は、検査において観察が開始されたことを示す観察開始情報を有する操作情報Pを取得する。術者は、検査対象の観察を行う場合に所定の入力装置(例えばフットペダルなど)により、観察開始情報の入力を内視鏡装置500に行い、内視鏡装置500は操作ログQとして観察開始の時刻を含む観察開始情報を記録する。そして、学習フレーム区間特定部16は、観察開始情報に基づいて学習フレーム区間を特定する。
また例えば、操作情報取得部14は、検査対象の臓器の特定部位を検出したことを示す検出情報を有する操作情報Pを取得する。術者は、検査対象の臓器の特定部位を検出した場合に所定の入力装置(例えば内視鏡本体100(図13)に付されたボタンなど)により、検出情報の入力を内視鏡装置500に行い、内視鏡装置500は操作ログQとして検査対象の臓器の特定部位を検出した時刻を含む検出情報を記録する。そして、学習フレーム区間特定部16は、検出情報に基づいて学習フレーム区間を特定する。
また例えば、操作情報取得部14は、送水実行、送気実行、吸引実行、光源切替、処置具使用、染色実施、特殊挿入のうち少なくとも一つを示す特殊操作情報を有する操作情報Pを取得する。特殊操作情報は、以下で説明するように内視鏡本体100に設けられるボタン等により入力され、内視鏡装置500は操作ログQとして各情報を記録する。そして、学習フレーム区間特定部16は、特殊情報に基づいて学習フレーム区間を特定する。
送水実行とは内視鏡装置500の先端硬質部116(図13)の送水ノズルから水(又は液体)を放出することであり、術者は例えば内視鏡装置500の内視鏡本体100にある送気送水ボタン141を押下することにより送水実行を行う。
また、送気実行とは内視鏡装置500の先端硬質部116(図13)の送気ノズルから空気を噴射することであり、術者は例えば内視鏡装置500の内視鏡本体100にある送気送水ボタン141を押下することにより送気実行を行う。
また、吸引実行とは内視鏡装置500の先端硬質部116から吸引を行うことであり、術者は例えば内視鏡装置500の内視鏡本体100にある吸引ボタン142を押下することにより吸引実行を行う。
また、光源切替とは内視鏡装置500の光源を切り替えることであり、術者は例えば内視鏡装置500の内視鏡本体100にある光源切替ボタン(不図示)を押下することにより光源切替を行う。例えば、術者は、光源切替ボタンを押下することにより、通常光から特殊光に光源を切り替える。
また処置具使用とは、内視鏡装置500の先端硬質部116の鉗子口126から処置具を挿入して処置を行うことである。処置具が使用された場合には、内視鏡本体100は使用された時刻を内視鏡装置500に送り、内視鏡装置500は操作ログQとしてそれを記録する。
また、染色実施とは内視鏡装置500の先端硬質部116から染料を噴射することであり、術者は例えば内視鏡装置500の内視鏡本体100にある染色実施ボタン(不図示)を押下することにより検査対象の臓器の一部分の染色を行う。例えば、検査対象の臓器の一部分の染色を行うことにより、病変部又は異常部の検出が容易に行うことができる。
また、特殊挿入とは、内視鏡装置500のスコープ(挿入部)104の挿入が特殊な形態で行われる場合である。通常スコープ104を検査対象の臓器に挿入する場合には、スコープ104を直線的に動かして行われる。しかし、検査対象の臓器によっては、スコープ104を直線的な動きでは無く、例えばひねり操作などを行って挿入が行われる場合がある。特に、大腸の検査では、大腸の形状に沿ってスコープ104を挿入しなければならず特殊挿入が行われることが多い。例えば、内視鏡装置500の内視鏡本体100にはジャイロセンサが搭載されており、内視鏡本体100は特殊挿入が行われたことを検出し、内視鏡装置500は特殊挿入が行われた時刻を操作ログQに記録する。
なお、上述した複数の特殊操作情報に基づいて、後で説明する学習フレーム区間が特定されてもよい。例えば、送水実行と処置具使用とが行われている場合には、学習フレーム区間としては特定されない。また、以上で説明した特殊操作は、具体例であり特殊操作の内容は特にこれらに限定されるものではない。
また例えば、操作情報取得部14は、内視鏡装置500のスコープ104の時系列的な挿入長に関する情報を有する操作情報Pを取得する。スコープ104には、センサ(不図示)が設けられており、そのセンサからの信号に基づいて内視鏡装置500は、スコープ104の挿入長の変化量を操作ログQに記録する。スコープ104の時系列的な挿入長に関する情報を用いることにより、手ブレ、被写体ブレが激しい区間や粘膜に寄りすぎて止まっているような区間を学習フレーム区間から除外することができる。例えば、スコープ104の挿入長の変化量が第1閾値の範囲内に有る場合には、正常にスコープ104が移動しているとして、学習フレーム区間特定部16により、学習フレーム区間として特定される。
また例えば、操作情報取得部14は、操作情報Pは、内視鏡装置500により静止画が撮影されたことを示す静止画撮影情報を有する操作情報Pを取得する。術者は、検査中に例えば病変部や病変と推定される部分に関して静止画の撮影を行う。術者は、例えば内視鏡装置500の内視鏡本体100に撮像ボタン144を押下することにより、静止画の撮影を行う。内視鏡装置500は、操作ログQとして静止画の撮影を行った時刻を含む静止画撮影情報を記録する。そして、学習フレーム区間特定部16は、静止画撮影情報に基づいて学習フレーム区間を特定する。
以上で説明したように、操作情報取得部14は、様々な検査動画Mの撮影における内視鏡装置500の操作情報Pを取得する。例えば、操作情報取得部14は、上述した複数の操作情報Pが記録された操作ログQを取得する。
以下に、操作ログQに関して具体的な説明を行う。
図5は、検査動画Mの撮影に関する操作ログQを示す図である。
操作ログQは、下部内視鏡検査での操作ログQを示す図である。なお、操作ログQには操作内容とその操作が行われた時刻(時間:分:秒)が示されている。
操作ログQによれば、時刻11:50:00に「検査開始」が行われている。ここで検査開始は、内視鏡装置500の検査動画Mの撮影及び記録が開始したことを意味する。検査動画Mの撮影開始ボタンが押下されることにより検査開始が行われる。これにより、内視鏡装置500は、操作ログQに検査開始を時刻と共に記録する。
操作ログQによれば、時刻12:00:00に「回盲部到達」が行われている。術者は、内視鏡画像が表示されているディスプレイ装置400により、スコープ104の先端が回盲部到達したことを確認すると、例えばフットペダルを押下することにより回盲部到達を入力する。これにより、内視鏡装置500は、操作ログQに回盲部到達を時刻と共に記録する。
操作ログQによれば、時刻12:10:00に「送水開始」が行われている。術者は、送気送水ボタン141を押下することにより、送水を行う。これにより、内視鏡装置500は、操作ログQに送水開始を時刻と共に記録する。
操作ログQによれば、時刻12:10:10に「送水終了」が行われている。術者は、送気送水ボタン141を再び押下することにより、送水を終了する。これにより、内視鏡装置500は、操作ログQに送水終了を時刻と共に記録する。
操作ログQによれば、時刻12:20:00に「静止画撮影」が行われている。術者は、撮像ボタン144を押下することにより、病変部又は病変部と推定される箇所を撮影する。これにより、内視鏡装置500は、操作ログQに静止画撮影を時刻と共に記録する。
操作ログQによれば、時刻12:25:00に「第1光源切替」が行われている。術者は、光源切替ボタン(不図示)を押下して光源を通常光から特殊光に切替を行う。これにより、内視鏡装置500は、操作ログQに光源切替を時刻と共に記録する。
操作ログQによれば、時刻12:25:30に「第2光源切替」が行われている。術者は、光源切替ボタン(不図示)を押下して光源を特殊光から通常光に切替を行う。これにより、内視鏡装置500は、操作ログQに光源切替を時刻と共に記録する。
操作ログQによれば、時刻12:30:00に「検査終了」が行われている。術者は、内視鏡装置500の検査終了ボタンを押下することにより検査終了を行う。これにより、内視鏡装置500は、操作ログQに検査終了を時刻と共に記録する。
以上で説明したように、操作ログQは、複数の様々な操作情報Pを含んでいる。なお、上述した操作ログQは具体例であり、これに限定されるものではない。
<<学習フレーム区間を特定する工程>>
次に、学習フレーム区間特定部16で行われる学習フレーム区間特定工程(ステップS12)に関して説明を行う。
次に、学習フレーム区間特定部16で行われる学習フレーム区間特定工程(ステップS12)に関して説明を行う。
学習フレーム区間特定部16は、操作情報取得部14が取得した操作情報Pに基づいて、検査動画Mを構成する複数のフレームから学習フレーム区間を特定する。具体的には、学習フレーム区間特定部16は、操作情報Pに基づいて特殊操作が行われていない区間を学習フレーム区間として特定する。これにより、学習フレーム区間は、機械学習に適した正常画像を有するフレームで構成されることになる。
図6は、学習フレーム区間に関して説明する図である。
図6には、操作ログQに基づいて、検査動画Mから特定された学習フレーム区間(A)~(D)が示されている。また、図6には、操作ログQに記録されている操作情報Pが時刻と共に示されている。
学習フレーム区間特定部16は、検査動画Mにおいて検査開始(11:50:00)から回盲部到達(12:00:00)までの区間は、学習フレーム区間として特定しない。検査開始から回盲部到達までは、スコープ104を大腸の一番奥まで挿入している段階であり、いわゆる検査の準備段階である。この場合には、内視鏡スコープの挿入スピードが通常とは異なっていたり、特殊挿入が行われていたり、フレームが有する画像に検査対象が適切に写っていない場合がある。すなわち、この区間を構成するフレーム群には、異常画像が含まれる可能性が高い。したがって、学習フレーム区間特定部16は、検査開始から回盲部到達までの区間は、学習フレーム区間として特定しない。
学習フレーム区間特定部16は、検査動画Mにおいて回盲部到達(12:00:00)から送水開始(12:10:00)までの区間は、学習フレーム区間(A)として特定する。回盲部到達後は、スコープ104を抜去しながら大腸の検査(観察)が行われる。そして、次の特殊な操作が行われるまでは正常画像が取得されていると考えられる。したがって、学習フレーム区間特定部16は、回盲部到達から送水開始までの区間は、学習フレーム区間(A)とする。
学習フレーム区間特定部16は、送水開始(12:10:00)から送水終了(12:10:10)までの区間は、特殊操作(送水)が行われているとして、学習フレーム区間として特定しない。この区間におけるフレームには、送水行為が写っている異常画像が含まれる可能性が高い。したがって、学習フレーム区間特定部16は、送水開始から送水終了までの区間は、学習フレーム区間として特定しない。
学習フレーム区間特定部16は、送水終了(12:10:10)から静止画撮影(12:20:00)までの区間は、学習フレーム区間(B)として特定する。送水終了から静止画撮影までの区間は、操作ログQにおいて特に特殊操作が行われていない区間であり、正常画像のみで構成されている可能性が高い。したがって、学習フレーム区間特定部16は、送水終了から静止画撮影までの区間は、学習フレーム区間(B)として特定する。
学習フレーム区間特定部16は、静止画撮影時を構成する複数のフレームは、学習フレーム区間として特定しない。学習フレーム区間特定部16は、静止画を撮影した場合には、病変部などの変位部が写っている異常画像である可能性が高いので、静止画撮影時のフレームは、学習フレーム区間として特定しない。
学習フレーム区間特定部16は、静止画撮影(12:20:00)の後から光源切替(12:25:00)までの区間は、学習フレーム区間(C)として特定する。静止画撮影から光源切替までの区間は、操作ログQにおいて特に特殊操作が行われていない区間であり、正常画像のみで構成されている可能性が高い。したがって、学習フレーム区間特定部16は、静止画撮影から光源切替までの区間は、学習フレーム区間(C)として特定する。
学習フレーム区間特定部16は、第1光源切替(12:25:00)から第2光源切替(12:25:30)までの区間は、学習フレーム区間として特定しない。学習フレーム区間特定部16は、光源に特殊光が用いて検査が行われている場合には特殊操作が行われている区間であり、異常画像が含まれている可能性が高い。したがって、学習フレーム区間特定部16は、第1光源切替から第2光源切替の区間は学習フレーム区間として特定しない。
次に、学習フレーム区間特定部16は、第2光源切替(12:25:30)から検査終了(12:30:00)までの区間は、学習フレーム(D)として特定する。第2光源切替から検査終了までの区間は、操作ログQにおいて特に特殊操作が記録されていない区間であり、この区間のフレームは正常画像のみで構成されている可能性が高い。したがって、学習フレーム区間特定部16は、第2光源切替から検査終了までの区間は、学習フレーム区間として特定する。
以上で説明したように、学習フレーム区間特定部16は、操作ログQに基づいて、特殊操作が行われていない区間(異常画像が含まれていない区間)を学習フレーム区間として特定する。
<<第1学習データを出力する工程>>
次に、第1学習データ出力部18で行われる第1学習データ出力工程(ステップS13)に関して説明する。
次に、第1学習データ出力部18で行われる第1学習データ出力工程(ステップS13)に関して説明する。
第1学習データ出力部18は、学習フレーム区間のフレーム群を第1学習データとして出力する。具体的には、第1学習データ出力部18は、学習フレーム区間(A)~(D)に対応するフレーム群を、第1学習データとして出力する。学習フレーム区間(A)~(D)を構成するフレーム群は、操作情報Pに基づいて選択されており、特殊操作が行われていない機械学習に適した正常画像を有するフレームで構成されている。
以上で説明したように、画像処理装置10によれば、学習フレーム区間が操作情報Pに基づいて特定され、特定された学習フレーム区間のフレーム群が第1学習データとして出力される。これにより本態様は、人間による目視による学習データの選別を行うことなく、学習に適した正常画像を精度良く効率的に選別することができる。また、本態様によれば、学習フレーム区間の特定において、操作情報Pを用いて、画像認識器が出力する結果は用いて行っていないので、画像認識器の誤認識により学習データに異常画像を有するフレームが混入することを抑制することができる。
<第2の実施形態>
次に、第2の実施形態に関して説明する。本実施形態の学習フレーム区間特定部16は、操作情報P及び操作状況認識部20で認識された操作状況に基づいて、学習フレーム区間を特定する。
次に、第2の実施形態に関して説明する。本実施形態の学習フレーム区間特定部16は、操作情報P及び操作状況認識部20で認識された操作状況に基づいて、学習フレーム区間を特定する。
図7は、本実施形態の画像処理装置10の主な構成を示すブロック図である。なお、図1で既に説明を行った箇所は、同じ符号を付し説明を省略する。
画像処理装置10は、第1プロセッサ1、記憶部11、第2プロセッサ(プロセッサ)2で構成される。なお、第1プロセッサ1と第2プロセッサ2とは、同一のCPU(又はGPU)で構成されても良いし、別々のCPU(又はGPU)で構成されてもよい。第1プロセッサ1及び第2プロセッサ2は、記憶部11に記憶されているプログラムを実行することにより機能ブロックに示される各機能を実現する。
第1プロセッサ1は、検査動画取得部12、操作情報取得部14、学習フレーム区間特定部16、及び第1学習データ出力部18で構成される。第2プロセッサ2は、操作状況認識部20で構成される。
操作状況認識部20は、公知の画像認識器で構成され、入力されたフレームが有する画像から様々な操作状況を認識することができる。なお、操作状況認識部20は1つの画像認識器から構成されてもよいし、複数の画像認識器を組み合わせて構成されてもよい。
例えば、操作状況認識部20は、入力されたフレームに基づいて、検査対象の臓器の特定部位を検出することにより、内視鏡装置500の操作状況を認識する。そして学習フレーム区間特定部16は、特定部位を認識したフレーム以降の区間を学習フレーム区間として特定する。例えば、操作状況認識部20は、下部内視鏡の検査において、入力されたフレームから回盲部を認識し、学習フレーム区間特定部16は回盲部を認識したフレーム以降の区間を学習フレーム区間として特定する。
また、操作状況認識部20は、入力されたフレームに基づいて、送水実行、吸引実行、光源切替、処置具使用、染色実施、及び特殊挿入のうち少なくとも一つの特殊操作を検出することにより、内視鏡装置500の操作状況を認識する。そして学習フレーム区間特定部16は、特殊操作を認識したフレーム以外を学習フレーム区間として特定する。
また、操作状況認識部20は、入力されたフレームに基づいて、検査対象の臓器の各部位を認識することにより、内視鏡装置500の操作状況を認識する。そして学習フレーム区間特定部16は、認識の結果に基づいて学習フレーム区間を特定する。例えば、操作状況認識部20は、下部内視鏡の検査において、入力されたフレームから小腸を認識し、学習フレーム区間特定部16は小腸が認識されたフレームを含む区間は学習フレーム区間として特定しない。また例えば、操作状況認識部20は、上部内視鏡の検査において、入力されたフレームから食道及び胃を認識し、学習フレーム区間特定部16は、食道用の機械学習を行う学習フレーム区間、胃用の機械学習を行う学習フレーム区間をそれぞれ特定してもよい。
図8は、操作状況認識部20が送水実行を認識する場合を説明する図である。
図8に示したフレームNには、送水を実行している画像が示されている。具体的には、フレームNには送水ノズルWが写っており、送水ノズルWの先端から水が噴射されている。操作状況認識部20にフレームNが入力されると、操作状況認識部20は、送水実行(特殊操作)を検出し、内視鏡装置500の操作状況を認識する。
図9は、本実施形態の画像処理装置10を使用して行われる画像処理方法を示すフローチャートである。なお、画像処理方法は、画像処理装置10の第1プロセッサ1及び第2プロセッサ2が記憶部11に記憶されているプログラムを実行することにより行われる。
先ず、検査動画取得部12は、検査動画Mを取得する(動画取得工程:ステップS20)。また、操作情報取得部14は、検査動画Mの内視鏡装置500から取得される操作情報Pを取得する(操作情報取得工程:ステップS21)。また、操作状況認識部20は、検査動画Mが入力され、操作状況の認識結果を出力する(操作状況認識工程:ステップS22)。その後、学習フレーム区間特定部16は、操作情報P及び操作状況の認識結果に基づいて検査動画Mを構成する複数のフレームから学習フレーム区間を特定する(学習フレーム区間特定工程:ステップS23)。その後、第1学習データ出力部18は、学習フレーム区間のフレーム群を第1学習データとして出力する(第1学習データ出力工程:ステップS24)。
図10は、本実施形態の学習フレーム区間特定部16で特定される学習フレーム区間に関して説明する図である。なお、図6で既に説明を行った箇所は同じ符号を付し説明は省略する。また、図6で説明した場合と同様、操作情報取得部14は操作ログQを取得している。
学習フレーム区間特定部16は、検査動画Mにおいて回盲部到達(12:00:00)から送水開始(12:10:00)までの区間は、学習フレーム区間(A)として特定する。また、操作状況認識部20は、入力された検査動画Mから送水実行を認識する。具体的には、操作状況認識部20は、操作ログQにおける送水開始の時刻よりも+αだけ遅れた時刻に送水開始を検出する。したがって、この場合には、学習フレーム区間特定部16は、学習フレーム区間(A)を送水開始(12:10:00)から+αだけ延長する。これにより、機械学習に使用できる正常画像を有するフレームを漏れなく学習フレーム区間(A)に含ませることができる。
また操作状況認識部20は、操作ログQにおける送水終了の時刻よりも+βだけ遅れた時刻に送水終了を検出する。したがって、この場合には、学習フレーム区間特定部16は、学習フレーム区間(B)を送水終了(12:10:10)から+βだけ短縮する。これにより、送水(特殊操作)が行われている異常画像を有するフレームが学習フレーム区間に含まれることを抑制することができる。
以上で説明したように、操作ログQに記憶された操作が実際に画面上に反映されるまでタイムラグがある場合があるため、本実施形態は、操作状況認識部20の画像認識結果を補助的に用いて、学習フレーム区間を特定する。これにより、本実施形態は、機械学習に適した正常画像で構成された学習フレーム区間をより正確に特定することができる。
<第3の実施形態>
次に、第3の実施形態について説明する。本実施形態では、第1学習データ出力部18で出力された第1学習データをさらに病変検出器22に入力し、病変が検出されたフレーム以外を第2学習データとして出力する。
次に、第3の実施形態について説明する。本実施形態では、第1学習データ出力部18で出力された第1学習データをさらに病変検出器22に入力し、病変が検出されたフレーム以外を第2学習データとして出力する。
図11は、本実施形態の画像処理装置10の主な構成を示すブロック図である。なお、図1及び図7で既に説明を行った箇所は、同じ符号を付し説明を省略する。
画像処理装置10は、第1プロセッサ1、記憶部11、第2プロセッサ2で構成される。なお、第1プロセッサ1と第2プロセッサ2とは、同一のCPU(又はGPU)で構成されても良いし、別々のCPU(又はGPU)で構成されてもよい。第1プロセッサ1及び第2プロセッサ2は、記憶部11に記憶されているプログラムを実行することにより機能ブロックに示される各機能を実現する。
第1プロセッサ1は、検査動画取得部12、操作情報取得部14、学習フレーム区間特定部16、及び第1学習データ出力部18で構成される。第2プロセッサ2は、病変検出器22及び第2学習データ出力部24を有する。
病変検出器22は、公知の病変検出器22が用いられる。例えば、病変検出器22は、病変検出の機械学習が行われた学習済みモデルにより構成される。
病変検出器22には、第1学習データ出力部18から出力される第1学習データが入力される。そして、病変検出器22は、第1学習データの中から病変が写っているフレームを検出する。
ここで、第1学習データは、操作ログQに基づいて正常画像のみで構成されるように特定されている。しかし、術者が特殊操作を行わない場合であってもフレームには、病変等が偶然に写り込んでいる場合がある。したがって、第1学習データ出力部18から出力された第1学習データを、病変検出器22に入力して病変を検出させる。そして、第2学習データ出力部24は病変検出器22で病変が検出されたフレーム以外を第2学習データとして出力する。
図12は、本実施形態の画像処理装置10を使用して行われる画像処理方法を示すフローチャートである。なお、画像処理方法は、画像処理装置10の第1プロセッサ1及び第2プロセッサが記憶部11に記憶されているプログラムを実行することにより行われる。
先ず、検査動画取得部12は、検査動画Mを取得する(動画取得工程:ステップS30)。また、操作情報取得部14は、検査動画Mの内視鏡装置500から取得される操作情報Pを取得する(操作情報取得工程:ステップS31)。その後、学習フレーム区間特定部16は、操作情報Pに基づいて検査動画Mを構成する複数のフレームから学習フレーム区間を特定する(学習フレーム区間特定工程:ステップS32)。その後、第1学習データ出力部18は、学習フレーム区間のフレーム群を第1学習データとして出力する(第1学習データ出力工程:ステップS33)。その後、病変検出器22に、第1学習データが入力される(病変検出工程:ステップS34)。その後、第2学習データ出力部24は、病変検出器22の検出結果に基づいて、第2学習データを出力する(第2学習データ出力工程:ステップS35)。
以上で説明したように、本実施形態では、第1学習データ出力部18から出力された第1学習データを病変検出器22に入力し、病変が検出されたフレーム以外のフレームで構成されるフレーム群を第2学習データとして出力する。これにより、正確に正常画像を揺するフレームで構成された学習データを出力することができる。
次に、上述した検査動画M及び操作情報Pを生成する内視鏡装置500に関して説明する。
<<内視鏡装置の全体構成>>
本開示の技術で使用される検査動画M及び操作情報Pは、以下で説明する内視鏡装置(内視鏡システム)500で取得され、その後データベースDBに保存される。なお、以下で説明する内視鏡装置500は一例であり、これに限定されるものではない。
本開示の技術で使用される検査動画M及び操作情報Pは、以下で説明する内視鏡装置(内視鏡システム)500で取得され、その後データベースDBに保存される。なお、以下で説明する内視鏡装置500は一例であり、これに限定されるものではない。
図13は、内視鏡装置500の全体構成図である。
内視鏡装置500は、内視鏡本体100、プロセッサ装置200、光源装置300及びディスプレイ装置400を備える。なお、同図には内視鏡本体100に具備される先端硬質部116の一部を拡大して図示する。
内視鏡本体100は、手元操作部102及びスコープ104を備える。ユーザは、手元操作部102を把持して操作し、挿入部(スコープ)104を被検体の体内に挿入して、被検体の体内を観察する。なお、ユーザは医師及び術者等と同義である。また、ここでいう被検体は患者及び被検査者と同義である。
手元操作部102は、送気送水ボタン141、吸引ボタン142、機能ボタン143及び撮像ボタン144を備える。送気送水ボタン141は送気指示及び送水指示の操作を受け付ける。
吸引ボタン142は吸引指示を受け付ける。機能ボタン143は各種の機能が割り付けられる。機能ボタン143は各種機能の指示を受け付ける。撮像ボタン144は、撮像指示操作を受け付ける。撮像は動画像撮像及び静止画像撮像が含まれる。
スコープ(挿入部)104は、軟性部112、湾曲部114及び先端硬質部116を備える。軟性部112、湾曲部114及び先端硬質部116は、手元操作部102の側から、軟性部112、湾曲部114及び先端硬質部116の順に配置される。すなわち、先端硬質部116の基端側に湾曲部114が接続され、湾曲部114の基端側に軟性部112が接続され、スコープ104の基端側に手元操作部102が接続される。
ユーザは、手元操作部102を操作し湾曲部114を湾曲させて、先端硬質部116の向きを上下左右に変えることができる。先端硬質部116は、撮像部、照明部及び鉗子口126を備える。
図13では撮像部を構成する撮影レンズ132を図示する。また、同図では照明部を構成する照明用レンズ123A及び照明用レンズ123Bを図示する。なお、撮像部は符号130を付して図14に図示する。また、照明部は符号123を付して図14に図示する。
観察及び処置の際に、図14に示す操作部208の操作に応じて、照明用レンズ123A及び照明用レンズ123Bを介して、白色光(通常光)及び狭帯域光(特殊光)の少なくともいずれかが出力される。
送気送水ボタン141が操作された場合、送水ノズルから洗浄水が放出されるか、又は送気ノズルから気体が放出される。洗浄水及び気体は照明用レンズ123A等の洗浄に用いられる。なお、送水ノズル及び送気ノズルの図示は省略する。送水ノズル及び送気ノズルを共通化してもよい。
鉗子口126は管路と連通する。管路は処置具が挿入される。処置具は適宜進退可能に支持される。腫瘍等の摘出等の際に、処置具を適用して必要な処置が実施される。なお、図13に示す符号106はユニバーサルケーブルを示す。符号108はライトガイドコネクタを示す。
図14、は内視鏡装置500の機能ブロック図である。内視鏡本体100は、撮像部130を備える。撮像部130は先端硬質部116の内部に配置される。撮像部130は、撮影レンズ132、撮像素子134、駆動回路136及びアナログフロントエンド138を備える。なお、AFEはAnalog Front Endの省略語である。
撮影レンズ132は先端硬質部116の先端側端面116Aに配置される。撮影レンズ132の先端側端面116Aと反対側の位置には、撮像素子134が配置される。撮像素子134は、CMOS型のイメージセンサが適用される。撮像素子134はCCD型のイメージセンサを適用してもよい。なお、CMOSはComplementary Metal-Oxide Semiconductorの省略語である。CCDはCharge Coupled Deviceの省略語である。
撮像素子134はカラー撮像素子が適用される。カラー撮像素子の例としてRGBに対応するカラーフィルタを備えた撮像素子が挙げられる。なお、RGBは赤、緑及び青のそれぞれの英語表記であるred、green及びyellowの頭文字である。
撮像素子134はモノクロ撮像素子を適用してもよい。撮像素子134にモノクロ撮像素子が適用される場合、撮像部130は、撮像素子134の入射光の波長帯域を切り替えて、面順次又は色順次の撮像を実施し得る。
駆動回路136は、プロセッサ装置200から送信される制御信号に基づき、撮像素子134の動作に必要な各種のタイミング信号を撮像素子134へ供給する。
アナログフロントエンド138は、アンプ、フィルタ及びADコンバータを備える。なお、ADはアナログ及びデジタルのそれぞれの英語表記であるanalog及びdigitalの頭文字である。アナログフロントエンド138は、撮像素子134の出力信号に対して、増幅、ノイズ除去及びアナログデジタル変換等の処理を施す。アナログフロントエンド138の出力信号は、プロセッサ装置200へ送信される。なお、図14に示すAFEは、アナログフロントエンドの英語表記であるAnalog Front End省略語である。
観察対象の光学像は、撮影レンズ132を介して撮像素子134の受光面に結像される。撮像素子134は、観察対象の光学像を電気信号へ変換する。撮像素子134から出力される電気信号は、信号線を介してプロセッサ装置200へ送信される。
照明部123は先端硬質部116に配置される。照明部123は、照明用レンズ123A及び照明用レンズ123Bを備える。照明用レンズ123A及び照明用レンズ123Bは、先端側端面116Aにおける撮影レンズ132の隣接位置に配置される。
照明部123は、ライトガイド170を備える。ライトガイド170の射出端は、照明用レンズ123A及び照明用レンズ123Bの先端側端面116Aと反対側の位置に配置される。
ライトガイド170は、図13に示すスコープ104、手元操作部102及びユニバーサルケーブル106に挿入される。ライトガイド170の入射端は、ライトガイドコネクタ108の内部に配置される。
プロセッサ装置200は、画像入力コントローラ202、撮像信号処理部204及びビデオ出力部206を備える。画像入力コントローラ202は、内視鏡本体100から送信される、観察対象の光学像に対応する電気信号を取得する。
撮像信号処理部204は、観察対象の光学像に対応する電気信号である撮像信号に基づき、観察対象の内視鏡画像及び検査動画を生成する。
撮像信号処理部204は、撮像信号に対してホワイトバランス処理及びシェーディング補正処理等のデジタル信号処理を適用した画質補正を実施し得る。撮像信号処理部204は、DICOM規格で規定された付帯情報を内視鏡画像又は検査動画を構成するフレームへ付加してもよい。なお、DICOMは、Digital Imaging and Communications in Medicineの省略語である。
ビデオ出力部206は、撮像信号処理部204を用いて生成された画像を表す表示信号をディスプレイ装置400へ送信する。ディスプレイ装置400は観察対象の画像を表示する。
プロセッサ装置200は、図13に示す撮像ボタン144が操作された際に、内視鏡本体100から送信される撮像指令信号に応じて、画像入力コントローラ202及び撮像信号処理部204等を動作させる。
プロセッサ装置200は、内視鏡本体100から静止画像撮像を表すフリーズ指令信号を取得した場合に、撮像信号処理部204を適用して、撮像ボタン144の操作タイミングにおけるフレーム画像に基づく静止画像を生成する。プロセッサ装置200は、ディスプレイ装置400を用いて静止画像を表示させる。
プロセッサ装置200は通信制御部205を備える。通信制御部205は、病院内システム及び病院内LAN等を介して通信可能に接続される装置との通信を制御する。通信制御部205はDICOM規格に準拠した通信プロトコルを適用し得る。なお、病院内システムの例として、HIS(Hospital Information System)が挙げられる。LANはLocal Area Networkの省略語である。
プロセッサ装置200は記憶部207を備える。記憶部207は、内視鏡本体100を用いて生成された内視鏡画像及び検査動画を記憶する。記憶部207は、内視鏡画像及び検査動画に付帯する各種情報を記憶してもよい。具体的には、記憶部207は、内視鏡画像及び検査動画の撮影における操作ログなどの操作情報を記憶する。なお、記憶部207に記憶された内視鏡画像、検査動画、操作ログなどの操作情報は、データベースDBに保存される。
プロセッサ装置200は操作部208を備える。操作部208はユーザの操作に応じた指令信号を出力する。操作部208は、キーボード、マウス及びジョイスティック等を適用し得る。
プロセッサ装置200は、音声処理部209及びスピーカ209Aを備える。音声処理部209は音声として報知される情報を表す音声信号を生成する。スピーカ209Aは、音声処理部209を用いて生成された音声信号を音声へ変換する。スピーカ209Aから出力される音声の例として、メッセージ、音声ガイダンス及び警告音等が挙げられる。
プロセッサ装置200は、CPU210、ROM211及びRAM212を備える。なお、ROMはRead Only Memoryの省略語である。RAMはRandom Access Memoryの省略語である。
CPU210は、プロセッサ装置200の全体制御部として機能する。CPU210は、ROM211及びRAM212を制御するメモリコントローラとして機能する。ROM
211は、プロセッサ装置200に適用される各種のプログラム及び制御パラメータ等が記憶される。
211は、プロセッサ装置200に適用される各種のプログラム及び制御パラメータ等が記憶される。
RAM212は各種処理におけるデータの一時記憶領域及びCPU210を用いた演算処理の処理領域に適用される。RAM212は内視鏡画像を取得した際のバッファメモリに適用し得る。
<<プロセッサ装置のハードウェア構成>>
プロセッサ装置200はコンピュータを適用し得る。コンピュータは、以下のハードウェアを適用し、規定のプログラムを実行してプロセッサ装置200の機能を実現し得る。なお、プログラムはソフトウェアと同義である。
プロセッサ装置200はコンピュータを適用し得る。コンピュータは、以下のハードウェアを適用し、規定のプログラムを実行してプロセッサ装置200の機能を実現し得る。なお、プログラムはソフトウェアと同義である。
プロセッサ装置200は、信号処理を実施する信号処理部として各種のプロセッサを適用し得る。プロセッサの例として、CPU及びGPU(Graphics Processing Unit)が挙げられる。CPUはプログラムを実行して信号処理部として機能する汎用的なプロセッサである。GPUは画像処理に特化したプロセッサである。プロセッサのハードウェアは、半導体素子等の電気回路素子を組み合わせた電気回路が適用される。各制御部は、プログラム等が記憶されるROM及び各種演算の作業領域等であるRAMを備える。
一つの信号処理部に対して二つ以上のプロセッサを適用してもよい。二つ以上のプロセッサは、同じ種類のプロセッサでもよいし、異なる種類のプロセッサでもよい。また、複数の信号処理部に対して一つのプロセッサを適用してもよい。なお、実施形態に記載のプロセッサ装置200は内視鏡制御部の一例に相当する。
<<光源装置の構成例>>
光源装置300は、光源310、絞り330、集光レンズ340及び光源制御部350を備える。光源装置300は、ライトガイド170へ観察光を入射させる。光源310は、赤色光源310R、緑色光源310G及び青色光源310Bを備える。赤色光源310R、緑色光源310G及び青色光源310Bはそれぞれ、赤色、緑色及び青色の狭帯域光を放出する。
光源装置300は、光源310、絞り330、集光レンズ340及び光源制御部350を備える。光源装置300は、ライトガイド170へ観察光を入射させる。光源310は、赤色光源310R、緑色光源310G及び青色光源310Bを備える。赤色光源310R、緑色光源310G及び青色光源310Bはそれぞれ、赤色、緑色及び青色の狭帯域光を放出する。
光源310は、赤色、緑色及び青色の狭帯域光を任意に組み合わせた照明光を生成し得る。例えば、光源310は赤色、緑色及び青色の狭帯域光を組み合わせて白色光を生成し得る。また、光源310は赤色、緑色及び青色の狭帯域光の任意の二色を組み合わせて狭帯域光を生成し得る。ここで、白色光は通常の内視鏡検査で使用される光であり通常光といい、狭帯域光を特殊光という。
光源310は赤色、緑色及び青色の狭帯域光の任意の一色を用いて狭帯域光を生成し得る。光源310は、白色光又は狭帯域光を選択的に切り替えて放出し得る。光源310は、赤外光を放出する赤外光源及び紫外光を放出する紫外光源等を備え得る。
光源310は、白色光を放出する白色光源、白色光を通過させるフィルタ及び狭帯域光を通過させるフィルタを備える態様を採用し得る。かかる態様の光源310は、白色光を通過させるフィルタ及び狭帯域光を通過させるフィルタを切り替えて、白色光又は狭帯域光のいずれかを選択的に放出し得る。
狭帯域光を通過させるフィルタは、異なる帯域に対応する複数のフィルタが含まれ得る。光源310は、異なる帯域に対応する複数のフィルタを選択的に切り替えて、帯域が異なる複数の狭帯域光を選択的に放出し得る。
光源310は、観察対象の種類及び観察の目的等に応じた、種類及び波長帯域等を適用し得る。光源310の種類の例として、レーザ光源、キセノン光源及びLED光源等が挙げられる。なお、LEDはLight-Emitting Diodeの省略語である。
光源装置300へライトガイドコネクタ108が接続された際に、光源310から放出された観察光は、絞り330及び集光レンズ340を介して、ライトガイド170の入射端へ到達する。観察光は、ライトガイド170及び照明用レンズ123A等を介して、観察対象へ照射される。
光源制御部350は、プロセッサ装置200から送信される指令信号に基づき、光源310及び絞り330へ制御信号を送信する。光源制御部350は、光源310から放出される観察光の照度、観察光の切り替え及び観察光のオンオフ等を制御する。
<<光源の変更>>
内視鏡装置500では、白色帯域の光、又は白色帯域の光として複数の波長帯域の光を照射して得た通常光を光源とすることができる。一方内視鏡装置500は、特定の波長帯域の光(特殊光)を照射することもできる。以下に特定波長帯域の具体例に関して説明する。
内視鏡装置500では、白色帯域の光、又は白色帯域の光として複数の波長帯域の光を照射して得た通常光を光源とすることができる。一方内視鏡装置500は、特定の波長帯域の光(特殊光)を照射することもできる。以下に特定波長帯域の具体例に関して説明する。
<<第1例>>
特定の波長帯域の第1例は、可視域の青色帯域又は緑色帯域である。第1例の波長帯域は、390ナノメートル以上450ナノメートル以下、又は530ナノメートル以上550ナノメートル以下の波長帯域を含み、かつ第1例の光は、390ナノメートル以上450ナノメートル以下、又は530ナノメートル以上550ナノメートル以下の波長帯域内にピーク波長を有する。
特定の波長帯域の第1例は、可視域の青色帯域又は緑色帯域である。第1例の波長帯域は、390ナノメートル以上450ナノメートル以下、又は530ナノメートル以上550ナノメートル以下の波長帯域を含み、かつ第1例の光は、390ナノメートル以上450ナノメートル以下、又は530ナノメートル以上550ナノメートル以下の波長帯域内にピーク波長を有する。
<<第2例>>
特定の波長帯域の第2例は、可視域の赤色帯域である。第2例の波長帯域は、585ナノメートル以上615ナノメートル以下、又は610ナノメートル以上730ナノメートル以下の波長帯域を含み、かつ第2例の光は、585ナノメートル以上615ナノメートル以下、又は610ナノメートル以上730ナノメートル以下の波長帯域内にピーク波長を有する。
特定の波長帯域の第2例は、可視域の赤色帯域である。第2例の波長帯域は、585ナノメートル以上615ナノメートル以下、又は610ナノメートル以上730ナノメートル以下の波長帯域を含み、かつ第2例の光は、585ナノメートル以上615ナノメートル以下、又は610ナノメートル以上730ナノメートル以下の波長帯域内にピーク波長を有する。
<<第3例>>
特定の波長帯域の第3例は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域を含み、かつ第3例の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域にピーク波長を有する。この第3例の波長帯域は、400±10ナノメートル、440±10ナノメートル、470±10ナノメートル、又は600ナノメートル以上750ナノメートル以下の波長帯域を含み、かつ第3例の光は、400±10ナノメートル、440±10ナノメートル、470±10ナノメートル、又は600ナノメートル以上750ナノメートル以下の波長帯域にピーク波長を有する。
特定の波長帯域の第3例は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域を含み、かつ第3例の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸光係数が異なる波長帯域にピーク波長を有する。この第3例の波長帯域は、400±10ナノメートル、440±10ナノメートル、470±10ナノメートル、又は600ナノメートル以上750ナノメートル以下の波長帯域を含み、かつ第3例の光は、400±10ナノメートル、440±10ナノメートル、470±10ナノメートル、又は600ナノメートル以上750ナノメートル以下の波長帯域にピーク波長を有する。
<<第4例>>
特定の波長帯域の第4例は、生体内の蛍光物質が発する蛍光の観察に用いられ、かつこの蛍光物質を励起させる励起光の波長帯域である。例えば、390ナノメートル以上470ナノメートル以下の波長帯域である。なお、蛍光の観察は蛍光観察と呼ばれる場合がある。
特定の波長帯域の第4例は、生体内の蛍光物質が発する蛍光の観察に用いられ、かつこの蛍光物質を励起させる励起光の波長帯域である。例えば、390ナノメートル以上470ナノメートル以下の波長帯域である。なお、蛍光の観察は蛍光観察と呼ばれる場合がある。
<<第5例>>
特定の波長帯域の第5例は、赤外光の波長帯域である。この第5例の波長帯域は、790ナノメートル以上820ナノメートル以下、又は905ナノメートル以上970ナノメートル以下の波長帯域を含み、かつ第5例の光は、790ナノメートル以上820ナノメートル以下、又は905ナノメートル以上970ナノメートル以下の波長帯域にピーク波長を有する。
特定の波長帯域の第5例は、赤外光の波長帯域である。この第5例の波長帯域は、790ナノメートル以上820ナノメートル以下、又は905ナノメートル以上970ナノメートル以下の波長帯域を含み、かつ第5例の光は、790ナノメートル以上820ナノメートル以下、又は905ナノメートル以上970ナノメートル以下の波長帯域にピーク波長を有する。
<<特殊光画像の生成例>>
プロセッサ装置200は、白色光を用いて撮像して得られた通常光画像に基づいて、特定の波長帯域の情報を有する特殊光画像を生成してもよい。なお、ここでいう生成は取得が含まれる。この場合、プロセッサ装置200は、特殊光画像取得部として機能する。そして、プロセッサ装置200は、特定の波長帯域の信号を、通常光画像に含まれる赤、緑及び青、或いはシアン、マゼンタ及びイエローの色情報に基づく演算を行うことで得る。なお、シアン、マゼンタ及びイエローは、それぞれの英語表記であるCyan、Magenta及びYellowの頭文字を用いてCMYと表されることがある。
プロセッサ装置200は、白色光を用いて撮像して得られた通常光画像に基づいて、特定の波長帯域の情報を有する特殊光画像を生成してもよい。なお、ここでいう生成は取得が含まれる。この場合、プロセッサ装置200は、特殊光画像取得部として機能する。そして、プロセッサ装置200は、特定の波長帯域の信号を、通常光画像に含まれる赤、緑及び青、或いはシアン、マゼンタ及びイエローの色情報に基づく演算を行うことで得る。なお、シアン、マゼンタ及びイエローは、それぞれの英語表記であるCyan、Magenta及びYellowの頭文字を用いてCMYと表されることがある。
<その他>
上記実施形態において、各種の処理を実行する処理部(第1プロセッサ1及び第2プロセッサ2)(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
上記実施形態において、各種の処理を実行する処理部(第1プロセッサ1及び第2プロセッサ2)(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
第1プロセッサ1及び/又は第2プロセッサ2は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。
上述の各構成及び機能は、任意のハードウェア、ソフトウェア、或いは両者の組み合わせによって適宜実現可能である。例えば、上述の処理ステップ(処理手順)をコンピュータに実行させるプログラム、そのようなプログラムを記録したコンピュータ読み取り可能な記録媒体(非一時的記録媒体)、或いはそのようなプログラムをインストール可能なコンピュータに対しても本発明を適用することが可能である。
以上で本発明の例に関して説明してきたが、本発明は上述した実施の形態に限定されず、本発明の趣旨を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
1 :第1プロセッサ
2 :第2プロセッサ
10 :画像処理装置
11 :記憶部
12 :検査動画取得部
14 :操作情報取得部
16 :学習フレーム区間特定部
18 :第1学習データ出力部
20 :操作状況認識部
22 :病変検出器
24 :第2学習データ出力部
2 :第2プロセッサ
10 :画像処理装置
11 :記憶部
12 :検査動画取得部
14 :操作情報取得部
16 :学習フレーム区間特定部
18 :第1学習データ出力部
20 :操作状況認識部
22 :病変検出器
24 :第2学習データ出力部
Claims (15)
- プロセッサを備える画像処理装置であって、
前記プロセッサは、
内視鏡装置で撮影された検査動画を取得し、
前記検査動画の撮影における前記内視鏡装置の操作情報を取得し、
前記操作情報に基づいて前記検査動画を構成する複数のフレームから学習フレーム区間を特定し、
前記学習フレーム区間のフレーム群を第1学習データとして出力する、
画像処理装置。 - 前記プロセッサは、前記操作情報に基づいて特殊操作が行われていない区間を前記学習フレーム区間として特定する請求項1に記載の画像処理装置。
- 前記操作情報は、観察が開始されたことを示す観察開始情報を有し、
前記プロセッサは、前記観察開始情報に基づいて前記学習フレーム区間を特定する請求項1又は2に記載の画像処理装置。 - 前記操作情報は、検査対象の臓器の特定部位を検出したことを示す検出情報を有し、
前記プロセッサは、前記検出情報に基づいて前記学習フレーム区間を特定する請求項1から3のいずれか1項に記載の画像処理装置。 - 前記操作情報は、送水実行、送気実行、吸引実行、光源切替、処置具使用、染色実施、特殊挿入のうち少なくとも一つを示す特殊操作情報を有し、
前記プロセッサは、前記特殊操作情報に基づいて前記学習フレーム区間を特定する請求項1から4のいずれか1項に記載の画像処理装置。 - 前記プロセッサは、複数の前記特殊操作情報に基づいて前記学習フレーム区間を特定する請求項5に記載の画像処理装置。
- 前記操作情報は、前記内視鏡装置のスコープの時系列的な挿入長に関する情報を有し、
前記プロセッサは、前記挿入長の変化量が第1閾値の範囲内である場合に、前記学習フレーム区間として特定する請求項1から6のいずれか1項に記載の画像処理装置。 - 前記操作情報は、前記内視鏡装置により静止画が撮影されたことを示す静止画撮影情報を有し、
前記プロセッサは、前記静止画撮影情報に基づいて前記学習フレーム区間を特定する請求項1から7のいずれか1項に記載の画像処理装置。 - 前記プロセッサは、
前記検査動画を構成する前記フレームに基づいて前記内視鏡装置の操作状況を認識し、
前記認識の結果に基づいて前記学習フレーム区間を特定する請求項1から8のいずれか1項に記載の画像処理装置。 - 前記プロセッサは、
前記検査動画を構成する前記フレームに基づいて、検査対象の臓器の特定部位を検出することにより、前記内視鏡装置の操作状況を認識し、
前記特定部位を認識した前記フレーム以降の区間を前記学習フレーム区間として特定する請求項9に記載の画像処理装置。 - 前記プロセッサは、
前記検査動画を構成する前記フレームに基づいて、送水実行、吸引実行、光源切替、処置具使用、染色実施、及び特殊挿入のうち少なくとも一つの特殊操作を検出することにより、前記内視鏡装置の操作状況を認識し、
前記特殊操作を認識した前記フレーム以外を前記学習フレーム区間として特定する請求項9又は10に記載の画像処理装置。 - 前記プロセッサは、
前記検査動画を構成する前記フレームに基づいて、検査対象の臓器の各部位を認識することにより、前記内視鏡装置の操作状況を認識し、
前記認識の結果に基づいて前記学習フレーム区間を特定する請求項9から11のいずれか1項に記載の画像処理装置。 - 前記プロセッサは、
出力された前記第1学習データを、病変を検出する病変検出器に入力し、
前記病変検出器で病変が検出されたフレーム以外を、第2学習データとして出力する、
請求項1から8のいずれか1項に記載の画像処理装置。 - プロセッサを備える画像処理装置の画像処理方法であって、
前記プロセッサが、
内視鏡装置で撮影された検査動画を取得する工程と、
前記検査動画の撮影における前記内視鏡装置の操作情報を取得する工程と、
前記操作情報に基づいて前記検査動画を構成する複数のフレームから学習フレーム区間を特定する工程と、
前記学習フレーム区間のフレーム群を第1学習データとして出力する工程と、
を行う画像処理方法。 - プロセッサを備える画像処理装置が画像処理方法を実行するプログラムであって、
前記プロセッサに、
内視鏡装置で撮影された検査動画を取得する工程と、
前記検査動画の撮影における前記内視鏡装置の操作情報を取得する工程と、
前記操作情報に基づいて前記検査動画を構成する複数のフレームから学習フレーム区間を特定する工程と、
前記学習フレーム区間のフレーム群を第1学習データとして出力する工程と、
を実行させるプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021146310A JP2023039245A (ja) | 2021-09-08 | 2021-09-08 | 画像処理装置、画像処理方法、及びプログラム |
US17/930,382 US20230074314A1 (en) | 2021-09-08 | 2022-09-07 | Image processing device, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021146310A JP2023039245A (ja) | 2021-09-08 | 2021-09-08 | 画像処理装置、画像処理方法、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023039245A true JP2023039245A (ja) | 2023-03-20 |
Family
ID=85385849
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021146310A Pending JP2023039245A (ja) | 2021-09-08 | 2021-09-08 | 画像処理装置、画像処理方法、及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20230074314A1 (ja) |
JP (1) | JP2023039245A (ja) |
-
2021
- 2021-09-08 JP JP2021146310A patent/JP2023039245A/ja active Pending
-
2022
- 2022-09-07 US US17/930,382 patent/US20230074314A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20230074314A1 (en) | 2023-03-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5623348B2 (ja) | 内視鏡システム、内視鏡システムのプロセッサ装置、及び内視鏡システムの作動方法 | |
KR100939400B1 (ko) | 생체 관측 장치 | |
US11950760B2 (en) | Endoscope apparatus, endoscope operation method, and program | |
US8734333B2 (en) | Endoscope system, endoscope video processor and method of driving endoscope system | |
JP5127639B2 (ja) | 内視鏡システム、およびその作動方法 | |
JP7387859B2 (ja) | 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理装置の作動方法及びプログラム | |
JP7125484B2 (ja) | 内視鏡システム | |
JP2023010809A (ja) | 医療画像処理装置、内視鏡システム、医療画像処理装置の作動方法及びプログラム、記録媒体 | |
JP7176041B2 (ja) | 医療画像処理装置及び方法、内視鏡システム、プロセッサ装置、診断支援装置並びにプログラム | |
JP7289373B2 (ja) | 医療画像処理装置、内視鏡システム、診断支援方法及びプログラム | |
JP2010063590A (ja) | 内視鏡システム、およびその駆動制御方法 | |
US20230000330A1 (en) | Medical observation system, medical imaging device and imaging method | |
JP7374280B2 (ja) | 内視鏡装置、内視鏡プロセッサ、及び内視鏡装置の作動方法 | |
US20230200626A1 (en) | Image processing apparatus, processor apparatus, endoscope system, image processing method, and program | |
JP7289241B2 (ja) | ファイリング装置、ファイリング方法及びプログラム | |
JP6277068B2 (ja) | 内視鏡用光源装置及び内視鏡システム | |
JP7256275B2 (ja) | 医療画像処理装置、内視鏡システム、医療画像処理装置の作動方法及びプログラム | |
JP2023039245A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP5483522B2 (ja) | 画像取得装置 | |
JP2015171442A (ja) | 内視鏡用光源装置及び内視鏡システム | |
CN117241719A (zh) | 内窥镜处理器、内窥镜装置以及诊断用图像生成方法 | |
JP5224390B2 (ja) | 内視鏡装置および内視鏡装置の作動方法 | |
US20230077690A1 (en) | Image processing device, image processing method, and program | |
WO2021153471A1 (ja) | 医療画像処理装置、医療画像処理方法、及びプログラム | |
WO2024166306A1 (ja) | 医療用装置、内視鏡システム、制御方法、制御プログラム、及び学習装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240606 |