JP7485193B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP7485193B2
JP7485193B2 JP2023501952A JP2023501952A JP7485193B2 JP 7485193 B2 JP7485193 B2 JP 7485193B2 JP 2023501952 A JP2023501952 A JP 2023501952A JP 2023501952 A JP2023501952 A JP 2023501952A JP 7485193 B2 JP7485193 B2 JP 7485193B2
Authority
JP
Japan
Prior art keywords
image
mask
processing device
image processing
granularity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023501952A
Other languages
English (en)
Other versions
JPWO2022180786A1 (ja
JPWO2022180786A5 (ja
Inventor
雅弘 西光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2022180786A1 publication Critical patent/JPWO2022180786A1/ja
Publication of JPWO2022180786A5 publication Critical patent/JPWO2022180786A5/ja
Application granted granted Critical
Publication of JP7485193B2 publication Critical patent/JP7485193B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/52Scale-space analysis, e.g. wavelet analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/771Feature selection, e.g. selecting representative features from a multi-dimensional feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Signal Processing (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Quality & Reliability (AREA)
  • Endoscopes (AREA)

Description

本開示は、内視鏡検査において取得される画像の処理を行う画像処理装置、画像処理方法及び記憶媒体の技術分野に関する。
従来から、臓器の管腔内を撮影した画像を表示する内視鏡システムが知られている。例えば、特許文献1には、撮影デバイスが生成した撮影画像データが入力される場合に撮影画像データに含まれる病変部位に関する情報を出力する学習モデルの学習方法が開示されている。また、非特許文献1には、マルチスケールの特徴マップを用いて推論を行うニューラルネットワークのアーキテクチャであるFeature Pyramid Networksが開示されている。また、非特許文献2には、生検箇所の採取に関する英国のガイドラインが開示されている。
国際公開WO2020/003607
T.-Y. Lin, P. Dollar, R. Girshick, K. He, B. Hariharan, and S. Belongie. Feature pyramid networks for object detection.In CVPR, 2017. Rebecca C Fitzgerald, Massimiliano di Pietro, Krish Ragunath, et al., British Society of Gastroenterology guidelines on the diagnosis and management of Barrett's oesophagus, < https://www.bsg.org.uk/wp-content/uploads/2019/12/BSG-guidelines-on-the-diagnosis-and-management-of-Barretts-oesophagus.pdf>, October 28, 2013, P17.
内視鏡検査において撮影された画像から病変部位等の注目箇所の領域を検出する場合、対象とする注目箇所(例えば平坦病変等)によっては検出が難しいという問題がある。このような場合、例えば、ピクセル単位により病変部位の位置の特定を行うと、本来検出すべき注目箇所が検出できない場合がある。
本開示の目的は、上述した課題を鑑み、内視鏡検査において、病変部位などの注目箇所を撮影した画像から好適に特定することが可能な画像処理装置、画像処理方法及び記憶媒体を提供することである。
画像処理装置の一の態様は、
内視鏡に設けられた撮影部により検査対象を撮影した撮影画像を取得する取得手段と、
前記撮影画像に対する注目箇所の候補領域を異なる粒度により示した複数のマスク画像を生成するマスク画像生成手段と、
前記複数のマスク画像に基づき、前記注目箇所を特定する特定手段と、
を有する画像処理装置である。
画像処理方法の一の態様は、
コンピュータが、
内視鏡に設けられた撮影部により検査対象を撮影した撮影画像を取得し、
前記撮影画像に対する注目箇所の候補領域を異なる粒度により示した複数のマスク画像を生成し、
前記複数のマスク画像に基づき、前記注目箇所を特定する、
画像処理方法である。
プログラムの一の態様は、
内視鏡に設けられた撮影部により検査対象を撮影した撮影画像を取得し、
前記撮影画像に対する注目箇所の候補領域を異なる粒度により表した複数のマスク画像を生成し、
前記複数のマスク画像に基づき、前記注目箇所を特定する処理をコンピュータに実行させるプログラである。
本開示によれば、内視鏡の画像において検出すべき注目箇所を好適に特定することができる。
内視鏡検査システムの概略構成を示す。 画像処理装置のハードウェア構成を示す。 生検箇所領域の抽出及び表示に関する処理の概要を示す図である。 画像処理装置の機能ブロック図である。 (A)マスク画像を生検箇所特定画像として選択する処理の概要を示した図である。(B)マスク画像を統合した生検箇所特定画像を生成する処理の概要を示した図である。 粒度調整部の処理の概要を表す図である 内視鏡検査において表示装置が表示する表示画面の表示例を示す。 第1実施形態において内視鏡検査時に画像処理装置が実行する処理の概要を示すフローチャートの一例である。 第2実施形態における画像処理装置のブロック図である。 第2実施形態において画像処理装置が実行するフローチャートの一例である。
以下、図面を参照しながら、画像処理装置、画像処理方法及び記憶媒体の実施形態について説明する。
<第1実施形態>
図1は、内視鏡検査システム100の概略構成を示す。図1に示すように、内視鏡検査システム100は、内視鏡を利用した検査又は治療を行う医師等の検査者に対して生検箇所(生体組織採取検査の対象となる箇所)の候補を提示するシステムであって、主に、画像処理装置1と、表示装置2と、画像処理装置1に接続された内視鏡スコープ3と、を備える。生検箇所は「注目箇所」の一例である。
画像処理装置1は、内視鏡スコープ3が時系列により撮影する画像(「撮影画像Ia」とも呼ぶ。)を内視鏡スコープ3から取得し、撮影画像Iaに基づく画面を表示装置2に表示させる。撮影画像Iaは、被検者への内視鏡スコープ3の挿入工程又は排出工程の少なくとも一方において所定の時間間隔により撮影された画像である。本実施形態においては、画像処理装置1は、撮影画像Iaを解析することで、生検箇所を撮影画像Iaから特定し、特定した生検箇所に関する情報を表示装置2に表示させる。
表示装置2は、画像処理装置1から供給される表示信号に基づき所定の表示を行うディスプレイ等である。
内視鏡スコープ3は、主に、検査者が所定の入力を行うための操作部36と、被検者の撮影対象となる臓器内に挿入され、柔軟性を有するシャフト37と、超小型撮像素子などの撮影部を内蔵した先端部38と、画像処理装置1と接続するための接続部39とを有する。
なお、以後では、代表例として、大腸の内視鏡検査における処理の説明を行うが、検査対象は、大腸に限らず、食道又は胃を対象としてもよい。また、本開示において対象となる内視鏡は、例えば、咽頭内視鏡、気管支鏡、上部消化管内視鏡、十二指腸内視鏡、小腸内視鏡、大腸内視鏡、カプセル内視鏡、胸腔鏡、腹腔鏡、膀胱鏡、胆道鏡、関節鏡、脊椎内視鏡、血管内視鏡、硬膜外腔内視鏡などが挙げられる。
図2は、画像処理装置1のハードウェア構成を示す。画像処理装置1は、主に、プロセッサ11と、メモリ12と、インターフェース13と、入力部14と、光源部15と、音出力部16と、を含む。これらの各要素は、データバス19を介して接続されている。
プロセッサ11は、メモリ12に記憶されているプログラム等を実行することにより、所定の処理を実行する。プロセッサ11は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、TPU(Tensor Processing Unit)などのプロセッサである。プロセッサ11は、複数のプロセッサから構成されてもよい。プロセッサ11は、コンピュータの一例である。
メモリ12は、RAM(Random Access Memory)、ROM(Read Only Memory)などの、作業メモリとして使用される各種の揮発性メモリ及び画像処理装置1の処理に必要な情報を記憶する不揮発性メモリにより構成される。なお、メモリ12は、画像処理装置1に接続又は内蔵されたハードディスクなどの外部記憶装置を含んでもよく、着脱自在なフラッシュメモリなどの記憶媒体を含んでもよい。メモリ12には、画像処理装置1が本実施形態における各処理を実行するためのプログラムが記憶される。また、メモリ12は、マスク画像生成モデル情報D1を記憶している。
マスク画像生成モデル情報D1は、撮影画像Ia中における生検箇所を表す画像であるマスク画像を生成するモデル(「マスク画像生成モデル」とも呼ぶ。)に関する情報である。マスク画像生成モデル情報D1は、例えば、マスク画像生成モデルを構成するために必要なパラメータを含んでいる。マスク画像生成モデルは、任意の機械学習モデル又は統計モデルであって、撮影画像Iaが入力された場合に、入力された撮影画像Ia中の生検箇所の候補領域を異なる粒度(即ち解像度)により示した複数のマスク画像を出力するように学習されたモデルである。なお、マスク画像生成モデルがニューラルネットワークにより構成される場合、マスク画像生成モデル情報D1は、例えば、層構造、各層のニューロン構造、各層におけるフィルタ数及びフィルタサイズ、並びに各フィルタの各要素の重みなどの各種パラメータを含む。本実施形態では、一例として、マスク画像生成モデルは、Feature Pyramid Networksであるものとする。マスク画像生成モデルの詳細については、図3を参照して後述する。
なお、マスク画像生成モデル情報D1は、メモリ12に代えて、画像処理装置1と有線又は無線によりデータ通信が可能な外部装置に記憶されてもよい。この外部装置は、1又は複数のサーバ装置であってもよい。
インターフェース13は、画像処理装置1と外部装置とのインターフェース動作を行う。例えば、インターフェース13は、プロセッサ11が生成した表示情報「Ib」を表示装置2に供給する。また、インターフェース13は、光源部15が生成する光等を内視鏡スコープ3に供給する。また、インターフェース13は、内視鏡スコープ3から供給される撮影画像Iaを示す電気信号をプロセッサ11に供給する。インターフェース13は、外部装置と有線又は無線により通信を行うためのネットワークアダプタなどの通信インターフェースであってもよく、USB(Universal Serial Bus)、SATA(Serial AT Attachment)などに準拠したハードウェアインターフェースであってもよい。
入力部14は、検査者による操作に基づく入力信号を生成する。入力部14は、例えば、ボタン、タッチパネル、リモートコントローラ、音声入力装置等である。後述するように、入力部14は、表示する生検箇所の粒度を指定する入力(外部入力)を受け付ける。光源部15は、内視鏡スコープ3の先端部38に供給するための光を生成する。また、光源部15は、内視鏡スコープ3に供給する水や空気を送り出すためのポンプ等も内蔵してもよい。音出力部16は、プロセッサ11の制御に基づき音を出力する。
次に、画像処理装置1による生検箇所の特定及び表示に関する処理について具体的に説明する。
図3は、生検箇所領域の抽出及び表示に関する処理の概要を示す図である。
まず、画像処理装置1は、撮影画像Iaに対し、マスク画像生成モデル情報D1に基づき構成されるマスク画像生成モデルに基づき、粒度の異なる複数のマスク画像「Im1」~「ImN」(Nは2以上の整数)を生成する。
マスク画像Im1~ImNは、生検箇所の信頼度をグリッドごとに示した画像である。ここで、グリッドは、撮影画像Iaを格子状に分割した仮想的な領域であり、撮影画像Iaの複数の画素に対応する矩形領域である。マスク画像Im1~ImNは、撮影画像Ia上での上記信頼度のヒートマップ(信頼度マップ)を示す画像であってもよく、グリッドごとに生検箇所であるか否かを示す2値画像であってもよい。図3では、一例として、生検箇所となる画素を白、それ以外の画素を黒とした2値画像のマスク画像Im1~ImNが示されている。
そして、マスク画像Im1~ImNは、生検箇所の信頼度を表す粒度(解像度)が夫々異なっており、粒度に応じたグリッド数を有している。例えば、マスク画像Im1は、縦及び横のグリッド数が4×4となるグリッドを有する画像となっており、マスク画像Im2は、縦及び横のグリッド数が8×8となるグリッドを有する画像となっている。
次に、画像処理装置1は、生成した粒度の異なるN枚のマスク画像Im1~ImNに対し、所定のアルゴリズムに基づき選択又は統合を行うことで、生検箇所を特定する画像(「生検箇所特定画像Ie」とも呼ぶ。)を生成する。図3では、一例として、画像処理装置1は、マスク画像Im1を、生検箇所特定画像Ieとして選択している。
そして、画像処理装置1は、ユーザが入力部14等により指定した粒度により、特定した生検箇所を提示する。ここでは、一例として、6×6の粒度が指定されており、画像処理装置1は、生検箇所特定画像Ie(ここでは4×4のマスク画像)を6×6のマスク画像に変換し、変換後のマスク画像に基づき、特定した生検箇所を指定された粒度により撮影画像Ia上において強調表示している。これにより、画像処理装置1は、生検箇所の候補を好適にユーザに提示することができる。なお、画像処理装置1は、撮影画像Iaに重ねて特定した生検箇所を明示する代わりに、特定した生検箇所を表す画像を撮影画像Iaとは別個に表示してもよい。この表示例については、図7を参照して説明する。
ここで、マスク画像生成モデルについて補足説明する。マスク画像生成モデルは、Feature Pyramid Networksに基づくネットワークアーキテクチャを有している。この場合、マスク画像生成モデルは、入力画像である撮影画像Iaに対して畳み込み演算を行うことで、マルチスケールの特徴マップ(即ち畳み込みによって得られたテンソル)を生成し、特徴マップごとに生検箇所の推論(本実施形態では粒度の異なるマスク画像の生成)を行う。マスク画像生成モデルが出力するマスク画像の数、及び、各マスク画像の粒度(解像度)については、学習段階において予め設定されている。そして、このようなマスク画像生成モデルが訓練用データに基づき予め学習され、学習されたパラメータがマスク画像生成モデル情報D1に記憶されている。訓練用データは、入力画像となる撮影画像と正解データとなる複数のマスク画像との複数の組となる。学習では、例えば、入力画像を入力した場合のマスク画像生成モデルの出力と正解データとの誤差(損失)が最小化されるように、勾配降下法や誤差逆伝播法などにより、マスク画像生成モデルのパラメータが決定される。
なお、マスク画像生成モデルは、Feature Pyramid Networksに限らず、入力された画像に対して粒度の異なるマスク画像を出力する任意の学習モデルであってもよい。例えば、このようなニューラルネットワークのアーキテクチャとして、入力画像である撮影画像Iaを複数の解像度にリサイズした画像を生成し、生成した複数の画像に対して推論(本実施形態ではマスク画像の生成)を行うFeaturized image pyramidなどが存在する。
図4は、画像処理装置1の機能ブロックの一例である。図4に示すように、画像処理装置1のプロセッサ11は、機能的には、撮影画像取得部31と、マスク画像生成部32と、特定部33と、粒度調整部34と、表示制御部35と、を有する。なお、図4では、データの授受が行われるブロック同士を実線により結んでいるが、データの授受が行われるブロックの組合せは図4に限定されない。後述する他の機能ブロックの図においても同様である。
撮影画像取得部31は、インターフェース13を介して内視鏡スコープ3が撮影した撮影画像Iaを所定間隔により取得する。そして、撮影画像取得部31は、取得した撮影画像Iaを、マスク画像生成部32、粒度調整部34、及び表示制御部35に夫々供給する。
マスク画像生成部32は、撮影画像取得部31から供給される撮影画像Iaを取得し、マスク画像生成モデル情報D1に基づき構成されるマスク画像生成モデルに撮影画像Iaを入力することで、マスク画像Im1~ImNを生成する。
特定部33は、マスク画像生成部32が生成したマスク画像Im1~ImNに基づき、生検箇所を特定する。一例として、特定部33は、マスク画像Im1~ImNに基づき、生検箇所特定画像Ieを生成する。そして、特定部33は、生検箇所特定画像Ieに基づき生検箇所を特定する。この場合、特定部33は、マスク画像Im1~ImNから1つのマスク画像を生検箇所特定画像Ieとして選択してもよく、マスク画像Im1~ImN又はその一部を統合することで生検箇所特定画像Ieを生成してもよい。特定部33の処理の具体例については後述する。
粒度調整部34は、特定部33から供給される生検箇所特定画像Ieを、ユーザが指定した粒度(即ち縦及び横のグリッド数)となるように調整した画像(「粒度調整画像Iec」とも呼ぶ。)に変換する。この場合、粒度調整部34は、例えば、入力部14から粒度を指定する情報を取得し、取得した情報が示す粒度に基づき、粒度調整画像Iecを生成する。なお、ユーザが予め指定した粒度の設定情報又はデフォルトの粒度の設定情報がメモリ12等に予め記憶されていてもよい。この場合、粒度調整部34は、上述の設定情報をメモリ12等から参照することで、粒度調整画像Iecを生成する。粒度調整部34による粒度調整画像Iecの生成については、図6を参照して補足説明する。なお、粒度調整部34による処理は、表示に用いる粒度のユーザによる指定又は設定があった場合に行われる処理であって、必須の構成ではない。
表示制御部35は、表示に用いる粒度のユーザによる指定又は設定があった場合、粒度調整部34が生成した粒度調整画像Iecに基づき、表示情報Ibを生成し、生成した表示情報Ibを表示装置2に供給することで、表示装置2に生検箇所領域に関する情報を表示させる。一方、表示制御部35は、表示に用いる粒度のユーザによる指定又は設定がない場合、生検箇所特定画像Ieに基づき表示情報Ibを生成し、生成した表示情報Ibを表示装置2に供給することで、表示装置2に生検箇所領域に関する情報を表示させる。表示制御部35が表示装置2に表示させる表示例については、図7を参照して後述する。
ここで、撮影画像取得部31、マスク画像生成部32、特定部33、粒度調整部34及び表示制御部35の各構成要素は、例えば、プロセッサ11がプログラムを実行することによって実現できる。また、必要なプログラムを任意の不揮発性記憶媒体に記録しておき、必要に応じてインストールすることで、各構成要素を実現するようにしてもよい。なお、これらの各構成要素の少なくとも一部は、プログラムによるソフトウェアで実現することに限ることなく、ハードウェア、ファームウェア、及びソフトウェアのうちのいずれかの組合せ等により実現してもよい。また、これらの各構成要素の少なくとも一部は、例えばFPGA(Field-Programmable Gate Array)又はマイクロコントローラ等の、ユーザがプログラミング可能な集積回路を用いて実現してもよい。この場合、この集積回路を用いて、上記の各構成要素から構成されるプログラムを実現してもよい。また、各構成要素の少なくとも一部は、ASSP(Application Specific Standard Produce)、ASIC(Application Specific Integrated Circuit)又は量子プロセッサ(量子コンピュータ制御チップ)により構成されてもよい。このように、各構成要素は、種々のハードウェアにより実現されてもよい。以上のことは、後述する他の実施の形態においても同様である。さらに、これらの各構成要素は、例えば、クラウドコンピューティング技術などを用いて、複数のコンピュータの協働によって実現されてもよい。
まず、特定部33による生検箇所特定画像Ieの生成方法について具体的に説明する。図5(A)は、マスク画像Im1~ImNから1つのマスク画像を生検箇所特定画像Ieとして選択する処理の概要を示した図である。図5(B)は、マスク画像Im1~ImNを統合した生検箇所特定画像Ieを生成する処理の概要を示した図である。
まず、生検箇所特定画像Ieとなるマスク画像を選択する方法(図5(A)参照)について説明する。
生検箇所特定画像Ieの選択に関する第1の例では、特定部33は、マスク画像がグリッドごとに生検箇所の信頼度のスコアを表す場合に、マスク画像毎の最大スコアを特定し、最大スコアが最も大きいマスク画像を、生検箇所特定画像Ieとして選択する。ここで、信頼度は、生検箇所が存在する可能性の高さを表す指標であり、信頼度が高いほど生検箇所が存在する可能性が高いことを表す。これにより、特定部33は、信頼性が最も高いマスク画像を生検箇所特定画像Ieとして選択することができる。
生検箇所特定画像Ieの選択に関する第2の例では、特定部33は、マスク画像Im1~ImN間の各ペアに対して類似度を算出し、類似度に基づき生検箇所特定画像Ieを選択する。ここで、特定部33は、MSE(Mean Squared Error)やSSIM(Structural Similarity)などの任意の画像類似度指標を用いて上述の類似度を算出してもよい。
具体的には、特定部33は、類似度に基づき外れ値となるマスク画像を特定し、特定したマスク画像を、生検箇所特定画像Ieとして選択する対象から除外する。この場合、特定部33は、例えば、他のマスク画像との類似度の平均値が所定値より小さいマスク画像を、生検箇所特定画像Ieとして選択する対象から除外する。そして、特定部33は、残りのマスク画像群から、例えば、最も粒度が低い(即ち解像度が低い)マスク画像を、生検箇所特定画像Ieとして選択する。
なお、生検箇所特定画像Ieの選択に関する第2の例において、特定部33は、マスク画像Im1~ImN間の各ペアの類似度に基づき外れ値となるマスク画像を特定する代わりに、類似度に基づきマスク画像Im1~ImNのクラスタリングを行い、最も数が大きいクラスタのマスク画像群から生検箇所特定画像Ieを選択してもよい。この場合、特定部33は、x-means法などの任意のクラスタリング手法を用いてクラスタリングを行ってもよい。そして、特定部33は、最も数が大きいクラスタのマスク画像群から、最も粒度が低い(即ち解像度が低い)マスク画像を、生検箇所特定画像Ieとして選択する。
次に、マスク画像Im1~ImNを統合して生検箇所特定画像Ieを生成する方法(図5(B)参照)について説明する。
この場合、特定部33は、マスク画像Im1~ImNを共通の粒度となるようにリサイズし、リサイズした各マスク画像Im1~ImNを対応するグリッドごとに平均化した(又は足し合わせた)生検箇所特定画像Ieを生成する。図5(B)の例では、特定部33は、マスク画像Im1~ImNを、8×8の粒度(グリッド数)となるマスク画像に変換した後、変換後のマスク画像を統合した8×8の粒度の生検箇所特定画像Ieを生成している。
なお、特定部33は、各マスク画像Im1~ImNに対して重み「w1」~「wN」を設定し、これらの重みを用いて重み付け平均することで生検箇所特定画像Ieを生成してもよい。この場合の重みw1~wNは、予め定められた値であってもよく、各マスク画像のグリッドごとの信頼度の最大スコアに応じた値に設定されてもよい。
また、特定部33は、マスク画像Im1~ImN間の類似度に基づき、統合する対象となるマスク画像をマスク画像Im1~ImNから選択してもよい。この場合、例えば、特定部33は、類似度に基づき外れ値となるマスク画像を特定し、特定したマスク画像を除外したマスク画像群を統合することで、生検箇所特定画像Ieを生成する。他の例では、特定部33は、上述したクラスタリング手法により、最も数が大きいクラスタとなるマスク画像群を特定し、特定したマスク画像群を統合した生検箇所特定画像Ieを生成する。これにより、特定部33は、外乱等により誤差を含むマスク画像を好適に除外し、生検箇所の候補となる領域を高精度に表した生検箇所特定画像Ieを生成することができる。
次に、粒度調整画像Iecの生成について説明する。図6は、粒度調整部34の処理の概要を表す図である。図6では、粒度調整部34は、4×4の粒度を有する生検箇所特定画像Ieを、ユーザにより指定された粒度である6×6の粒度調整画像Iecに変換している。
この場合、粒度調整部34は、任意の画像のリサイズ手法を用いて図6に示す変換処理を行う。例えば、粒度調整部34は、各マスク画像に対して四隅のいずれかを原点として共通の値域となる2次元座標系を定義し、生検箇所特定画像Ie及び粒度調整画像Iecでの各グリッドの座標値(例えば中心の座標値)を決定する。そして、粒度調整部34は、粒度調整画像Iecのグリッドの値(スコア)を、当該グリッドに対応する座標値に最も近い生検箇所特定画像Ieのグリッドの値に定める。なお、粒度調整部34は、座標値に基づき公知の重み付け平均処理を行うことで、複数の生検箇所特定画像Ieのグリッドの値から粒度調整画像Iecの各グリッドの値を決定してもよい。
次に、表示制御部35が実行する表示装置2の表示制御について説明する。図7は、内視鏡検査において表示装置2が表示する表示画面の表示例を示す。画像処理装置1の表示制御部35は、撮影画像取得部31が取得する撮影画像Ia及び粒度調整部34が生成する粒度調整画像Iecに基づき生成した表示情報Ibを表示装置2に送信することで、図7に示す表示画面を表示装置2に表示させている。
図7の例では、画像処理装置1の表示制御部35は、最新撮影画像70と、生検箇所マップ71と、粒度表示領域72とを表示画面上に表示している。表示制御部35は、撮影画像取得部31が取得した最新の撮影画像Iaに基づく動画を、最新撮影画像70として表示する。また、表示制御部35は、粒度調整部34から取得した粒度調整画像Iecに基づき、生検箇所マップ71を表示している。この場合、表示制御部35は、粒度調整画像Iecをそのまま生検箇所マップ71として表示してもよく、粒度調整画像Iecに対して所定の加工処理を行った画像を生検箇所マップ71として表示してもよい。後者の例では、例えば、表示制御部35は、粒度調整画像Iecを2値画像又は3以上の所定階調の画像に変換する処理を行ってもよい。
なお、表示制御部35は、生検箇所マップ71に相当する表示を、最新撮影画像70に重ねて表示してもよい。この場合、表示制御部35は、生検箇所マップ71上に、粒度調整画像Iecに基づくヒートマップを表示してもよく、粒度調整画像Iecにおいて値が所定の閾値以上となる範囲を縁取り効果により強調表示してもよい。このように、表示制御部35は、粒度調整画像Iecに基づく画像を表示させてもよい。
また、表示制御部35は、粒度表示領域72において、現在の粒度の設定(ここでは16×16)を表示すると共に、粒度の設定変更を指示する変更ボタン73を表示している。そして、表示制御部35は、変更ボタン73が選択されたことを検知した場合、設定する粒度を指定する入力を入力部14により受け付ける。この場合、表示制御部35は、入力部14が取得する音声入力信号に基づき、設定する粒度の指定を受け付けてもよい。この場合、表示制御部35は、変更ボタン73を設けることなく、音声入力信号に基づき、粒度の設定変更の要否及び変更後の粒度を決定してもよい。
図7に示す表示画面によれば、画像処理装置1は、検査者に対して生検箇所の候補となる領域を好適に提示し、効率的かつ効果的な生検の実施を支援することができる。この場合、画像処理装置1は、ユーザが指定した粒度により生検箇所の候補を好適に検査者に提示することができる。
図8は、第1実施形態において内視鏡検査時に画像処理装置1が実行する処理の概要を示すフローチャートの一例である。
まず、画像処理装置1の撮影画像取得部31は、撮影画像Iaを取得する(ステップS11)。この場合、画像処理装置1の撮影画像取得部31は、インターフェース13を介して内視鏡スコープ3から撮影画像Iaを受信する。
次に、画像処理装置1のマスク画像生成部32は、マスク画像生成モデル情報D1に基づき構成されるマスク画像生成モデルにより、ステップS11で取得された撮影画像Iaから粒度の異なるN枚のマスク画像Im1~ImNを生成する(ステップS12)。そして、特定部33は、N枚のマスク画像Im1~ImNに基づき、生検箇所領域を示すマスク画像である生検箇所特定画像Ieを生成する(ステップS13)。
そして、粒度調整部34は、ユーザ指定の粒度に基づく粒度調整画像Iecを生成する(ステップS14)。そして、表示制御部35は、ステップS11で取得した撮影画像Iaと、生検箇所に関する情報とを表示装置2に表示させる(ステップS15)。この場合、表示制御部35は、生検箇所に関する情報として、粒度調整画像Iec又は粒度調整画像Iecに基づく画像を表示装置2に表示させる。これにより、表示制御部35は、特定した生検箇所の存在及び位置を、ユーザが指定した粒度により好適に提示することができる。
なお、表示装置2に出力された生検箇所特定画像Ieをユーザが見て、ユーザがその場で粒度変更の入力を行ってもよい。この場合、表示制御部35は、ステップS13後に表示装置2に生検箇所特定画像Ieを表示し、粒度調整部34は、入力部14による粒度変更の入力を検知した場合に、ステップS14において、ユーザ指定の粒度に基づく粒度調整画像Iecを生成する。そして、ステップS15において、表示制御部35は、ステップS11で取得した撮影画像Iaと、生検箇所に関する情報とを表示装置2に表示させる。
そして、画像処理装置1は、内視鏡検査が終了したか否か判定する(ステップS16)。例えば、画像処理装置1は、入力部14又は操作部36への所定の入力等を検知した場合に、内視鏡検査が終了したと判定する。そして、画像処理装置1は、内視鏡検査が終了したと判定した場合(ステップS16;Yes)、フローチャートの処理を終了する。一方、画像処理装置1は、内視鏡検査が終了していないと判定した場合(ステップS16;No)、ステップS11へ処理を戻す。そして、画像処理装置1は、内視鏡スコープ3が新たに生成する撮影画像Iaに対してステップS11~ステップS16の処理を実行する。
次に、本実施形態における技術的効果について補足説明する。
一般に、生検箇所の選定は、ガンなどの病状の判定に極めて重要な一方で、平坦病変における生検箇所の選定は難しいという課題がある。そして、現状では、医師の生検箇所の選定スキルの差による検査ミスを避けるため、例えば、英国におけるバレット食道の標準検査手法では、生検箇所を一定間隔で採取する生検採取が採用されている。一方、このような生検採取方法では、採取箇所が多くなるため、検査者である医師の手間、患者の負担、生検検査コストが大きくなるという問題がある(非特許文献2参照)。一方、従来の病変領域抽出技術では、ピクセル単位での領域抽出が行われており、この手法を用いて生検箇所を提示することも考えられる。しかしながら、この手法では、平坦病変などの医師でも判断が難しい箇所に対して十分な抽出精度が得られないという問題がある。
以上を勘案し、本実施形態では、画像処理装置1は、撮影画像Iaを複数パターンのグリッドに分割し、グリッドパターンごとの生検箇所の検出結果であるマスク画像Im1~ImNに基づき、生検箇所を特定する。これにより、平坦病変などの医師でも判断が難しい箇所に対しても、生検箇所を適切な精度で特定することができ、生検箇所の候補として検査者に好適に提示することができる。従って、この場合、効率的かつ効果的な生検の実施を支援することができる。また、画像処理装置1は、ユーザが指定した粒度により生検箇所領域を好適に検査者に提示し、ユーザの利便性を高めることができる。
次に、上述した実施形態に好適な変形例について説明する。以下の変形例は、組み合わせて上述の実施形態に適用してもよい。
(変形例1)
画像処理装置1は、内視鏡検査時に生成された撮影画像Iaから構成された映像を、検査後において処理してもよい。
例えば、画像処理装置1は、検査後の任意のタイミングにおいて、入力部14によるユーザ入力等に基づき、処理を行う対象となる映像が指定された場合に、当該映像を構成する時系列の撮影画像Iaに対して逐次的に図8のフローチャートの処理を行う。そして、画像処理装置1は、ステップS16において対象の映像が終了したと判定した場合に、フローチャートの処理を終了し、対象の映像が終了していない場合にはステップS11に戻り、時系列において次の撮影画像Iaを対象としてフローチャートの処理を行う。
(変形例2)
画像処理装置1は、生検箇所の撮影画像Ia中の位置に関する情報を出力する制御に代えて、又は、これに加えて、生検箇所の存否に関する情報を通知する出力を行ってもよい。
この場合、例えば、表示制御部35は、表示及び音の出力を制御する出力制御部として機能し、上述した実施形態に基づく表示装置2の表示を制御すると共に、生検箇所特定画像Ie又は粒度調整画像Iecに基づき、生検箇所の存否判定を行い、音出力部16を制御する。この場合、表示制御部35は、例えば、生検箇所特定画像Ie又は粒度調整画像Iecにおいて、生検箇所が存在する信頼度を表すグリッドの値が所定の閾値以上となるグリッドが存在する場合、生検箇所が存在すると判定し、所定の音又は音声の出力を音出力部16に指示する。上述の閾値は、例えば予めメモリ12等に記憶されている。
なお、画像処理装置1は、生検箇所の存否に関する情報を音により通知する代わりに、生検箇所の存否に関する情報を表示させてもよい。この場合、画像処理装置1は、例えば、生検箇所が存在すると判定した場合に、最新撮影画像70を縁取り効果により強調表示することで、生検箇所が存在することをユーザに通知してもよい。
以上説明したように、本変形例では、画像処理装置1は、生検箇所の存否を検査者に好適に通知し、生検箇所の見逃し等を好適に抑制することができる。そして、本変形例によれば、画像処理装置1は、生検箇所の存否に関する情報又は注目箇所が存在する撮影画像Ia中の位置に関する情報の少なくとも一方を出力すればよい。
(変形例3)
マスク画像生成モデルにより検知する対象は、生検箇所に限らず、検査者が注目する必要がある任意の注目箇所であってもよい。このような注目箇所は、病変部位、炎症が生じている箇所、手術痕その他の切り傷が生じている箇所、ひだや突起が生じている箇所、内視鏡スコープ3の先端部38が管腔内の壁面において接触しやすい(閊えやすい)箇所などであってもよい。例えば、病変部位の場合、検出対象となる病変部位の病状は、以下の(a)~(f)ように例示される。
(a)頭頚部:咽頭ガン、悪性リンパ腫、乳頭腫
(b)食道:食道ガン、食道炎、食道裂孔ヘルニア、バレット食道、食道静脈瘤、食道アカラシア、食道粘膜下腫瘍、食道良性腫瘍
(c)胃:胃ガン、胃炎、胃潰瘍、胃ポリープ、胃腫瘍
(d)十二指腸:十二指腸ガン、十二指腸潰瘍、十二指腸炎、十二指腸腫瘍、十二指腸リンパ腫
(e)小腸:小腸ガン、小腸腫瘍性疾患、小腸炎症性疾患、小腸血管性疾患
(f)大腸:大腸ガン、大腸腫瘍性疾患、大腸炎症性疾患、大腸ポリープ、大腸ポリポーシス、クローン病、大腸炎、腸結核、痔
そして、マスク画像生成モデルは、撮影画像Iaが入力された場合に、所定の注目箇所を異なる粒度により示したマスク画像を出力するように学習される。そして、画像処理装置1のマスク画像生成部32は、このようなマスク画像生成モデルを用いて撮影画像Iaから注目箇所に関するマスク画像Im1~ImNを生成し、特定部33は、マスク画像Im1~ImNから選択又はこれらを統合したマスク画像を生成する。そして、粒度調整部34は、ユーザ指定の粒度になるようにマスク画像の粒度を変更し、表示制御部35は、粒度調整部34が生成したマスク画像に基づき、注目箇所に関する表示を行う。これによっても、画像処理装置1は、検査者に注目箇所を好適に提示することができる。また、本変形例においても、本変形例前の第1実施形態において述べた生検箇所の抽出における効果と同等の効果を奏する。
<第2実施形態>
図9は、第2実施形態における画像処理装置1Xのブロック図である。画像処理装置1Xは、取得手段31Xと、マスク画像生成手段32Xと、特定手段33Xとを備える。画像処理装置1Xは、複数の装置から構成されてもよい。
取得手段31Xは、内視鏡に設けられた撮影部により検査対象を撮影した撮影画像を取得する。取得手段31Xは、第1実施形態(変形例を含む、以下同じ。)における撮影画像取得部31とすることができる。なお、取得手段31Xは、撮影部が生成した撮影画像を即時に取得してもよく、予め撮影部が生成して記憶装置に記憶された撮影画像を、所定のタイミングにおいて取得してもよい。
マスク画像生成手段32Xは、撮影画像に対する注目箇所の候補領域を異なる粒度により示した複数のマスク画像を生成する。マスク画像生成手段32Xは、例えば、第1実施形態におけるマスク画像生成部32とすることができる。
特定手段33Xは、複数のマスク画像に基づき、注目箇所を特定する。特定手段33Xは、例えば、第1実施形態における特定部33とすることができる。
図10は、第2実施形態における処理手順を示すフローチャートの一例である。まず、取得手段31Xは、内視鏡に設けられた撮影部により検査対象を撮影した撮影画像を取得する(ステップS21)。次に、マスク画像生成手段32Xは、撮影画像に対する注目箇所の候補領域を異なる粒度により示した複数のマスク画像を生成する(ステップS22)。そして、特定手段33Xは、複数のマスク画像に基づき、注目箇所を特定する(ステップS23)。
第2実施形態によれば、画像処理装置1Xは、注目箇所の候補領域を異なる粒度により示した複数のマスク画像に基づき、検査対象を撮影した撮影画像中における注目箇所を好適に特定することができる。
その他、上記の各実施形態(変形例を含む、以下同じ)の一部又は全部は、以下の付記のようにも記載され得るが以下には限られない。
[付記1]
内視鏡に設けられた撮影部により検査対象を撮影した撮影画像を取得する取得手段と、
前記撮影画像に対する注目箇所の候補領域を異なる粒度により表した複数のマスク画像を生成するマスク画像生成手段と、
前記複数のマスク画像に基づき、前記注目箇所を特定する特定手段と、
を有する画像処理装置。
[付記2]
前記複数のマスク画像は、前記撮影画像の複数の画素に対応するグリッドごとに前記注目箇所となる信頼度を表した画像であり、前記粒度に応じて定まる前記グリッドの数は前記複数のマスク画像間において異なる、付記1に記載の画像処理装置。
[付記3]
前記マスク画像生成手段は、前記撮影画像に基づきスケールが異なる複数の特徴マップを生成し、当該複数の特徴マップから前記複数のマスク画像を夫々生成する、付記1または2に記載の画像処理装置。
[付記4]
前記特定手段は、前記複数のマスク画像から選択された1のマスク画像に基づき、前記注目箇所を特定する、、付記1~3のいずれか一項に記載の画像処理装置。
[付記5]
前記特定手段は、前記複数のマスク画像が統合されたマスク画像に基づき、前記注目箇所を特定する、付記1~3のいずれか一項に記載の画像処理装置。
[付記6]
前記特定手段は、前記複数のマスク画像間の類似度を算出し、前記類似度に基づき、選択又は統合する対象となるマスク画像を決定する、付記4または5に記載の画像処理装置。
[付記7]
前記特定手段が特定した前記注目箇所に関する情報を出力する出力制御手段をさらに有する、付記1~6のいずれか一項に記載の画像処理装置。
[付記8]
前記出力制御手段は、前記注目箇所の存否に関する情報又は前記注目箇所が存在する前記撮影画像中の位置に関する情報の少なくとも一方を、前記注目箇所に関する情報として出力する、付記7に記載の画像処理装置。
[付記9]
前記注目箇所を特定した画像を、指定された粒度により前記注目箇所を表した画像である粒度調整画像に変換する粒度調整手段をさらに有し、
前記出力制御手段は、前記粒度調整画像又は前記粒度調整画像に基づく画像を表示装置に表示させる、付記7または8に記載の画像処理装置。
[付記10]
前記注目箇所は、生体組織採取検査の対象となる箇所である、付記1~9のいずれか一項に記載の画像処理装置。
[付記11]
コンピュータが、
内視鏡に設けられた撮影部により検査対象を撮影した撮影画像を取得し、
前記撮影画像に対する注目箇所の候補領域を異なる粒度により表した複数のマスク画像を生成し、
前記複数のマスク画像に基づき、前記注目箇所を特定する、
画像処理方法。
[付記12]
内視鏡に設けられた撮影部により検査対象を撮影した撮影画像を取得し、
前記撮影画像に対する注目箇所の候補領域を異なる粒度により表した複数のマスク画像を生成し、
前記複数のマスク画像に基づき、前記注目箇所を特定する処理をコンピュータに実行させるプログラムを格納した記憶媒体。
以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。すなわち、本願発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。また、引用した上記の特許文献等の各開示は、本書に引用をもって繰り込むものとする。
1、1X 画像処理装置
2 表示装置
3 内視鏡スコープ
11 プロセッサ
12 メモリ
13 インターフェース
14 入力部
15 光源部
16 音出力部
100 内視鏡検査システム

Claims (12)

  1. 内視鏡に設けられた撮影部により検査対象を撮影した撮影画像を取得する取得手段と、
    前記撮影画像に対する注目箇所の候補領域を異なる粒度により表した複数のマスク画像を生成するマスク画像生成手段と、
    前記複数のマスク画像に基づき、前記注目箇所を特定する特定手段と、
    を有する画像処理装置。
  2. 前記複数のマスク画像は、前記撮影画像の複数の画素に対応するグリッドごとに前記注目箇所となる信頼度を表した画像であり、前記粒度に応じて定まる前記グリッドの数は前記複数のマスク画像間において異なる、請求項1に記載の画像処理装置。
  3. 前記マスク画像生成手段は、前記撮影画像に基づきスケールが異なる複数の特徴マップを生成し、当該複数の特徴マップから前記複数のマスク画像を夫々生成する、請求項1または2に記載の画像処理装置。
  4. 前記特定手段は、前記複数のマスク画像から選択された1のマスク画像に基づき、前記注目箇所を特定する、、請求項1~3のいずれか一項に記載の画像処理装置。
  5. 前記特定手段は、前記複数のマスク画像が統合されたマスク画像に基づき、前記注目箇所を特定する、請求項1~3のいずれか一項に記載の画像処理装置。
  6. 前記特定手段は、前記複数のマスク画像間の類似度を算出し、前記類似度に基づき、選択又は統合する対象となるマスク画像を決定する、請求項4または5に記載の画像処理装置。
  7. 前記特定手段が特定した前記注目箇所に関する情報を出力する出力制御手段をさらに有する、請求項1~6のいずれか一項に記載の画像処理装置。
  8. 前記出力制御手段は、前記注目箇所の存否に関する情報又は前記注目箇所が存在する前記撮影画像中の位置に関する情報の少なくとも一方を、前記注目箇所に関する情報として出力する、請求項7に記載の画像処理装置。
  9. 前記注目箇所を特定した画像を、指定された粒度により前記注目箇所を表した画像である粒度調整画像に変換する粒度調整手段をさらに有し、
    前記出力制御手段は、前記粒度調整画像又は前記粒度調整画像に基づく画像を表示装置に表示させる、請求項7または8に記載の画像処理装置。
  10. 前記注目箇所は、生体組織採取検査の対象となる箇所である、請求項1~9のいずれか一項に記載の画像処理装置。
  11. コンピュータが、
    内視鏡に設けられた撮影部により検査対象を撮影した撮影画像を取得し、
    前記撮影画像に対する注目箇所の候補領域を異なる粒度により表した複数のマスク画像を生成し、
    前記複数のマスク画像に基づき、前記注目箇所を特定する、
    画像処理方法。
  12. 内視鏡に設けられた撮影部により検査対象を撮影した撮影画像を取得し、
    前記撮影画像に対する注目箇所の候補領域を異なる粒度により表した複数のマスク画像を生成し、
    前記複数のマスク画像に基づき、前記注目箇所を特定する処理をコンピュータに実行させるプログラ
JP2023501952A 2021-02-26 2021-02-26 画像処理装置、画像処理方法及びプログラム Active JP7485193B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/007346 WO2022180786A1 (ja) 2021-02-26 2021-02-26 画像処理装置、画像処理方法及び記憶媒体

Publications (3)

Publication Number Publication Date
JPWO2022180786A1 JPWO2022180786A1 (ja) 2022-09-01
JPWO2022180786A5 JPWO2022180786A5 (ja) 2023-11-09
JP7485193B2 true JP7485193B2 (ja) 2024-05-16

Family

ID=83049000

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023501952A Active JP7485193B2 (ja) 2021-02-26 2021-02-26 画像処理装置、画像処理方法及びプログラム

Country Status (4)

Country Link
US (1) US20240127434A1 (ja)
EP (1) EP4298986A4 (ja)
JP (1) JP7485193B2 (ja)
WO (1) WO2022180786A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024084578A1 (ja) * 2022-10-18 2024-04-25 日本電気株式会社 画像処理装置、画像処理方法及び記憶媒体

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016154588A (ja) 2015-02-23 2016-09-01 Hoya株式会社 画像処理装置
WO2020003992A1 (ja) 2018-06-28 2020-01-02 富士フイルム株式会社 学習装置及び学習方法、並びに、医療画像処理装置
WO2020012530A1 (ja) 2018-07-09 2020-01-16 日本電気株式会社 施術支援装置、施術支援方法、及びコンピュータ読み取り可能な記録媒体
US20200065961A1 (en) 2018-08-21 2020-02-27 International Business Machines Corporation Training classifier with data of different granularity

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021182169A (ja) 2018-06-25 2021-11-25 オリンパス株式会社 情報処理装置、モデル学習方法、データ認識方法および学習済みモデル

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016154588A (ja) 2015-02-23 2016-09-01 Hoya株式会社 画像処理装置
WO2020003992A1 (ja) 2018-06-28 2020-01-02 富士フイルム株式会社 学習装置及び学習方法、並びに、医療画像処理装置
WO2020012530A1 (ja) 2018-07-09 2020-01-16 日本電気株式会社 施術支援装置、施術支援方法、及びコンピュータ読み取り可能な記録媒体
US20200065961A1 (en) 2018-08-21 2020-02-27 International Business Machines Corporation Training classifier with data of different granularity

Also Published As

Publication number Publication date
JPWO2022180786A1 (ja) 2022-09-01
US20240127434A1 (en) 2024-04-18
WO2022180786A1 (ja) 2022-09-01
EP4298986A4 (en) 2024-03-13
EP4298986A1 (en) 2024-01-03

Similar Documents

Publication Publication Date Title
US8830307B2 (en) Image display apparatus
US20180263568A1 (en) Systems and Methods for Clinical Image Classification
JP2011234931A (ja) 画像処理装置、画像処理方法、および画像処理プログラム
JP2012073953A (ja) 画像処理装置、画像処理方法、および画像処理プログラム
EP2458555A2 (en) Image processing device, image processing method, and image processing program
JPWO2012153568A1 (ja) 医用画像処理装置
JP7485193B2 (ja) 画像処理装置、画像処理方法及びプログラム
KR102095730B1 (ko) 딥러닝 기반의 대장 병변 검출 방법
JP5004736B2 (ja) 画像処理装置および画像処理プログラム
JP4804742B2 (ja) 画像処理装置、及び画像処理プログラム
WO2023042273A1 (ja) 画像処理装置、画像処理方法及び記憶媒体
JP6824868B2 (ja) 画像解析装置及び画像解析方法
JP2007075157A (ja) 画像表示装置
WO2022185369A1 (ja) 画像処理装置、画像処理方法及び記憶媒体
WO2022224446A1 (ja) 画像処理装置、画像処理方法及び記憶媒体
WO2023187886A1 (ja) 画像処理装置、画像処理方法及び記憶媒体
WO2024084838A1 (ja) 画像処理装置、画像処理方法及び記憶媒体
WO2024180796A1 (ja) 画像処理装置、画像処理方法及び記憶媒体
WO2023234071A1 (ja) 画像処理装置、画像処理方法及び記憶媒体
WO2024142490A1 (ja) 画像処理装置、画像処理方法及び記憶媒体
WO2023181353A1 (ja) 画像処理装置、画像処理方法及び記憶媒体
WO2024018581A1 (ja) 画像処理装置、画像処理方法及び記憶媒体
WO2023148812A1 (ja) 画像処理装置、画像処理方法及び記憶媒体
WO2023275974A1 (ja) 画像処理装置、画像処理方法及び記憶媒体
WO2022208615A1 (ja) 画像処理装置、画像処理方法及び記憶媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230818

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230818

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240415

R150 Certificate of patent or registration of utility model

Ref document number: 7485193

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150