JP2016009984A - 画像処理装置、内視鏡システム及び画像処理方法 - Google Patents

画像処理装置、内視鏡システム及び画像処理方法 Download PDF

Info

Publication number
JP2016009984A
JP2016009984A JP2014129068A JP2014129068A JP2016009984A JP 2016009984 A JP2016009984 A JP 2016009984A JP 2014129068 A JP2014129068 A JP 2014129068A JP 2014129068 A JP2014129068 A JP 2014129068A JP 2016009984 A JP2016009984 A JP 2016009984A
Authority
JP
Japan
Prior art keywords
image
feature amount
image processing
learning
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014129068A
Other languages
English (en)
Other versions
JP6339872B2 (ja
Inventor
文行 白谷
Fumiyuki Shiratani
文行 白谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2014129068A priority Critical patent/JP6339872B2/ja
Priority to PCT/JP2015/064450 priority patent/WO2015198757A1/ja
Priority to CN201580033672.5A priority patent/CN106464849B/zh
Priority to DE112015002583.9T priority patent/DE112015002583T5/de
Publication of JP2016009984A publication Critical patent/JP2016009984A/ja
Priority to US15/366,803 priority patent/US10360474B2/en
Application granted granted Critical
Publication of JP6339872B2 publication Critical patent/JP6339872B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/041Capsule endoscopes for imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • G06V30/194References adjustable by an adaptive method, e.g. learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Signal Processing (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)
  • Endoscopes (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

【課題】対象物の切り替わり位置の推定精度を向上できる画像処理装置、内視鏡システム及び画像処理方法等を提供すること。
【解決手段】画像処理装置は、時系列に撮像された時系列画像を取得する画像取得部100と、時系列画像に写された対象物が第1の対象物から第2の対象物に切り替わる位置である切り替わり位置を検出する処理部200と、を含む。処理部200は、時系列画像の各画像から特徴量を抽出し、特徴量に基づいて各画像に写された対象物が第1の対象物であるか第2の対象物であるかの判定を行い、判定の結果に基づいて切り替わり位置の候補位置を抽出し、判定の結果に基づいて候補位置の比較を行って切り替わり位置を決定する。
【選択図】図1

Description

本発明は、画像処理装置、内視鏡システム及び画像処理方法等に関する。
時系列画像から特徴量を抽出してシーン分類し、シーン分類の切替り位置を求めるニーズがある。このシーン分類のうち、シーンの切替りが、ある状態から別の状態になることが前提条件となっているものがある。例えば、カプセル型内視鏡の画像から対象物(例えば臓器)の切り替り位置を推定する場合等が該当する。その従来技術として、例えば特許文献1や特許文献2に記載された手法がある。
特許文献1の手法では、画像の赤色レベルと青色レベルを算出し、それぞれに時間軸方向のローパスフィルタ処理を施して赤色レベルと青色レベルのグラフを生成し、その各グラフの変色エッジを検出し、変色エッジの時間的な位置から臓器範囲を自動判別している。
特許文献2の手法では、特徴量の時間軸方向への平滑化処理として、所定サイズのフィルタを用いた平滑化処理を行い、胃から小腸への変化を検出している。所定サイズのフィルタとして、例えばサイズ20の(即ち、時間軸方向に20枚分の画像に対する)フィルタを用いる。
特開2004−321603号公報 特開2007−175432号公報
しかしながら、従来の手法ではノイズを低減するために時間軸方向の平滑化を行っており、その平滑化のために対象物の切り替わり位置の推定誤差が大きくなるという課題がある。
例えば特許文献1の手法において、時間軸方向のローパスフィルタとして下式(1)のガウシアンフィルタを用いたとする。この場合、標準偏差σの設定値に依存して平滑化の度合いが変わるため、赤色レベルと青色レベルのグラフの変化量が最大となる位置が変化する。そのため、グラフの変化エッジから推定される臓器の切り替わり位置が変わってしまう。
また特許文献2の手法では、固定サイズのフィルタを用いている。しかしながら、適用する症例(患者毎の画像系列)によってノイズ量などが異なり、フィルタの最適サイズが異なる(例えばノイズ量が多い場合にはフィルタサイズを大きくする)。そのため、症例によって平滑化の度合いが変わり、臓器の切り替わり位置の推定誤差が大きくなってしまう。
本発明の幾つかの態様によれば、対象物の切り替わり位置の推定精度を向上できる画像処理装置、内視鏡システム及び画像処理方法等を提供できる。
本発明の一態様は、時系列に撮像された時系列画像を取得する画像取得部と、前記時系列画像に写された対象物が第1の対象物から第2の対象物に切り替わる位置である切り替わり位置を検出する処理部と、を含み、前記処理部は、前記時系列画像の各画像から特徴量を抽出し、前記特徴量に基づいて前記各画像に写された前記対象物が前記第1の対象物であるか前記第2の対象物であるかの判定を行い、前記判定の結果に基づいて前記切り替わり位置の候補位置を抽出し、前記判定の結果に基づいて前記候補位置の比較を行って前記切り替わり位置を決定する画像処理装置に関係する。
本発明の一態様によれば、時系列画像から抽出された特徴量に基づいて対象物の判定が行われ、その時系列の判定結果から対象物の切り替わり候補位置が抽出され、その候補位置の比較により候補位置の中から対象物の切り替わり位置が決定される。これにより、対象物の切り替わり位置の推定精度を向上することが可能となる。
また本発明の他の態様は、上記に記載された画像処理装置と、前記時系列画像を撮像するカプセル型内視鏡と、を含む内視鏡システムに関係する。
また本発明の更に他の態様は、時系列に撮像された時系列画像を取得し、前記時系列画像の各画像から特徴量を抽出し、前記特徴量に基づいて前記各画像に写された対象物が第1の対象物であるか第2の対象物であるかの判定を行い、前記判定の結果に基づいて、前記時系列画像に写された前記対象物が前記第1の対象物から前記第2の対象物に切り替わる位置である切り替わり位置の候補位置を抽出し、前記判定の結果に基づいて前記候補位置の比較を行って前記切り替わり位置を決定する画像処理方法に関係する。
画像処理装置の基本構成例。 処理部の詳細な構成例。 本実施形態が行う処理のフローチャート。 第1の学習処理のフローチャート。 第2の学習処理のフローチャート。 切り替わり位置決定処理のフローチャート。 局所特徴量の説明図。 色に関する局所特徴量の説明図。 判定結果の例。 ステップ関数の説明図。 窓幅Lを変えながら行う畳み込み演算の説明図。 窓幅Lを変えながら行った畳み込み演算の最小値の例。 切り替わり位置決定処理の説明図。 切り替わり位置決定処理の説明図。 切り替わり位置決定処理の説明図。 内視鏡システムの構成例。
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。
1.基本構成例
以下では、カプセル型内視鏡により撮像した画像の臓器切り替わり位置を判定する場合を例に説明するが、本実施形態はこれに限定されない。例えば、本実施形態はスコープ型の内視鏡装置等で撮像した画像に適用してもよい。また、切り替わり位置を判定する対象物は、撮像経路の途中で切り替わることが予め決まっているものであればよい。例えば、シーン変化のように不確定に頻繁に起きるものでなく、臓器のように切り替わり位置が固定で必ず存在するものである。
さて、カプセル型内視鏡で撮像した画像を医師が診断する際、見たい臓器の画像を素早く提示することで診断をアシストできる。例えば上述した特許文献1、2のように画像から臓器の切り替わり位置を推定し、どの臓器に属するか画像を分類する手法がある。
しかしながら、切り替わり位置の推定が不正確だと誤診につながるという課題がある。例えば、医師が大腸の病変をチェックする場合に、実際には大腸に属するにも関わらず小腸に属すると判定された画像があると、その部分の画像が医師に提示されない。その部分に病変があった場合には、その病変の見落としにつながる。
また、カプセル型内視鏡は小型であるため電源の容量に余裕がなく、特定の臓器だけ集中的に撮像して電力消費を抑える場合がある。例えば、小腸までは撮像頻度を抑え、大腸に入ったと判断したときに撮像頻度を上げる。この場合、小腸から大腸への切り替わり位置を実際よりも手前に判断すると電力を消費し、実際よりも後ろに判断すると大腸の画像を撮り漏らすという課題がある。
図1に、上記のような課題を解決できる本実施形態の画像処理装置の基本構成例を示す。画像処理装置は、時系列に撮像された時系列画像を取得する画像取得部100と、その時系列画像に写された対象物が第1の対象物から第2の対象物に切り替わる位置である切り替わり位置を検出する処理部200と、を含む。
そして処理部200は、時系列画像の各画像から特徴量を抽出し、その特徴量に基づいて各画像に写された対象物が第1の対象物であるか第2の対象物であるかの判定を行う。処理部200は、その判定の結果に基づいて切り替わり位置の候補位置を抽出し、その判定の結果に基づいて候補位置の比較を行って切り替わり位置を決定する。
例えば、図3〜図6等で後述するように、ラベル既知の学習用画像を用いて予めSVM(Support Vector Machine)により学習を行い、その学習済みのSVMを用いて時系列画像の対象物が胃であるか小腸であるかを判定(分類)する。図7〜図9等で後述するように、時系列の判定結果とステップ関数との類似度により胃と小腸の切り替わり位置の候補を抽出する。図10〜図12等で後述するように、候補位置を判定結果に基づいて比較することで適切な候補位置を選抜して候補位置を1つに絞り、その候補位置を最終的な切り替わり位置として出力する。
ここで、時系列画像は、撮像された時間の順に並んだラベルが未知の画像であり、例えば動画像や、或いは所定の間隔で連続撮影された画像である。或いは、不定の間隔で撮像された画像であってもよい。例えば、カプセル型内視鏡では撮像間隔を変化させたり、画像の要約等によって時系列の間隔が変化する場合がある。また、位置(切り替わり位置、候補位置)は、時系列に並べた画像の番号(フレーム番号)や何枚目の画像であるかに対応する。例えば図7では、10000枚の画像img00001〜img10000を並べており、時系列の最初の画像img00001から数えて何枚目の画像であるかが位置xに対応する。
本実施形態によれば、臓器の判定結果から切り替わり位置の候補を抽出し、その候補の中から切り替わり位置を決定することで、実際の変化点に対して進みや遅れの無い正確な切り替わり位置を決定できる。即ち、特許文献1、2のような時間軸方向のローパスフィルタ処理を行った場合には、平滑化パラメータσ等の影響(ウィンドウ幅や半値幅依存性)により判定結果の変化エッジがずれる。この点、本実施形態の手法では、そのような変化エッジのずれが生じないので、平滑化パラメータσ等の影響を受けずに高精度に切り替わり位置を検出することが可能である。
また本実施形態では、下式(2)、(3)で後述するように、処理部200は、時系列の判定の結果S(x)とステップ関数H(x)との畳み込み演算により評価値(MIN Conv(x)又はMAX Conv(x))を求める。そして、評価値Conv(x)に基づいて候補位置Pcanを抽出する。
例えば、図7に示すように小腸と判定された画像に“1”を割り当て、胃と判定された画像に“−1”を割り当て、時系列の判定の結果S(x)とする。この場合、胃から小腸に変化する位置xでは判定結果S(x)がステップ状に変化すると予想される。この判定結果S(x)とステップ関数H(x)の畳み込み演算(コンボリューション)を行うことで類似度を評価でき、ステップ状の変化点を候補位置として抽出できる。
また本実施形態では、下式(2)、(3)で後述するように、処理部200は、時系列の判定の結果S(x)に対する畳み込み演算を、各画像を中心としてウィンドウサイズL(窓幅)を変化させながら行うことで、各画像について評価値を求め、その評価値に基づいて候補位置Pcanを抽出する。
図7に示すように、時系列の判定の結果S(x)は複雑な変化をしているため、正解の切り替わり位置でない位置において一見、ステップ状の変化をしている場合がある。ウィンドウサイズLはステップ関数H(x)が定義される位置xの幅であり、このウィンドウサイズLを固定して各位置xについて畳み込み演算を行った場合、ステップ関数H(x)との類似度が偶然に高くなる位置xが現れる。本実施形態では、各位置xにおいてウィンドウサイズLを変化させながら畳み込み演算を行うことで、上記のような偶然の一致を避け、正確な切り替わり位置の候補を抽出することが可能となる。
また本実施形態では、処理部200は、ウィンドウサイズLを変化させながら行った畳み込み演算の結果の最小値(MIN Conv(x))又は最大値(MAX Conv(x))を評価値として求める。そして、処理部200は、評価値と評価値の閾値とを比較して、候補位置Pcanを抽出する。
評価値として最小値を用いた場合には、ウィンドウサイズLを変化させたなかで最もステップ関数に似ていないときの畳み込み演算の結果を用いることになる。これは、ステップ関数に似ていない位置を探すことに相当するが、それでもステップ関数に似ている(つまり最小値が大きい)位置があった場合、その位置を候補として抽出できる。これにより、臓器の切り替えが実際に起きた可能性が高い候補を正確に抽出できる。
また評価値として最大値を用いた場合には、ウィンドウサイズLを変化させたなかで最もステップ関数に似ているときの畳み込み演算の結果を用いることになる。これは、少しでもステップ関数に似ている位置を探すことに相当し、切り替わり位置の候補の見逃しを抑制することが可能である。
2.処理部
以下、本実施形態の詳細を説明する。図2に処理部200の詳細な構成例を示す。処理部200は、領域設定部210と、局所特徴量算出部220、局所特徴量記憶部230、クラスタリング部240、ヒストグラム作成部250、画像特徴量生成部260、学習・判定部270(学習・分類部)、候補位置抽出部280、切り替わり位置決定部290を含む。
図3〜図6に示すフローチャートを用いて本実施形態が行う処理について説明する。ここでは処理手順の概要について説明し、各処理の詳細については後述する。
図3に示すように、処理部200は、学習用画像から代表ベクトルを抽出する教師無しの第1の学習処理を行い(ステップS1)、次に代表ベクトルを用いて学習用画像から抽出した特徴量と正解ラベルにより教師有り学習を行う第2の学習処理(ステップS2)を行う。次に、学習済みの処理部200が、診断対象の患者の体内を撮像した時系列画像から臓器の切り替わり位置を決定する処理を行う(ステップS3)。
図4に、ステップS1で実行する第1の学習処理のフローチャートを示す。まず、画像取得部100が複数の学習用画像を取得する(ステップS11)。次に領域設定部210が各学習用画像に複数の局所領域を設定する(ステップS12)。次に、局所特徴量算出部220が各局所領域から局所特徴量を算出する(ステップS13)。局所特徴量記憶部230は、複数の学習用画像に設定された複数の局所領域について算出した局所特徴量を記憶する(ステップS14)。次に、クラスタリング部240が、記憶された局所特徴量をクラスタリングし、代表ベクトル(ビジュアルワード(Visual Words))を抽出する(ステップS15)。次に、代表ベクトルを不図示の記憶部に記憶する(ステップS16)。代表ベクトルを記憶する記憶部は、例えば処理部200に内蔵されたメモリであってもよいし、処理部200の外部の記憶装置であってもよい。
図5に、ステップS2で実行する第2の学習処理のフローチャートを示す。まず、画像取得部100が複数の学習用画像と、その各画像に対応するラベルを取得する(ステップS21)。ラベルは、画像に写っている臓器の種類を示す情報である。次に領域設定部210が各学習用画像に複数の局所領域を設定し(ステップS22)、局所特徴量算出部220が各局所領域から局所特徴量を算出する(ステップS23)。次に、ヒストグラム作成部250が、各局所特徴量に対して最近接となる代表ベクトルを求め、その代表ベクトルの番号を割り当て、各番号に割り当てられた局所特徴量の数を数えてヒストグラムを作成する。そして、画像特徴量生成部260がヒストグラムの各ビンを成分とする特徴ベクトルを生成する(ステップS25)。ヒストグラムや特徴ベクトルは各画像について作成する。即ち、特徴ベクトルは画像毎に抽出した特徴量である。次に、特徴ベクトルとラベルに基づいて学習を行う(ステップS26)。次に、学習結果を不図示の記憶部に記憶する(ステップS27)。学習結果を記憶する記憶部は、例えば処理部200に内蔵されたメモリであってもよいし、処理部200の外部の記憶装置であってもよい。
図6に、ステップS3で実行する切り替わり位置決定処理のフローチャートを示す。まず、画像取得部100が時系列画像を取得する(ステップS31)。次に領域設定部210が時系列画像の各画像に複数の局所領域を設定し(ステップS32)、局所特徴量算出部220が各局所領域から局所特徴量を算出する(ステップS33)。次に、ヒストグラム作成部250が、各局所特徴量に対して最近接となる代表ベクトルを求め、その代表ベクトルの番号を割り当て、各番号に割り当てられた局所特徴量の数を数えてヒストグラムを作成する。そして、画像特徴量生成部260がヒストグラムの各ビンを成分とする特徴ベクトルを生成する(ステップS35)。ヒストグラムや特徴ベクトルは各画像について作成する。次に、学習・判定部270が、学習結果により特徴ベクトルを分類する(ステップS36)。即ち、各画像に写った臓器の種類を判定する。次に、候補位置抽出部280が、判定結果の時系列を用いて臓器の切り替わり位置の候補位置を抽出する(S37)。次に、切り替わり位置決定部290が、候補位置どうしを比較し、臓器の切替り位置を決定する(ステップS38)。
3.学習処理
次に、個々の処理について具体的に説明する。まず第1の学習処理、第2の学習処理について説明する。
画像取得部100が取得する学習用画像は、画像と臓器(対象物)の種類との対応が予め判明している画像である。例えば診断対象の患者とは別の患者から予め撮像しておいた画像を用いる。複数の学習用画像は時系列の画像である必要はない。画像取得部100は、例えば撮像部により撮像された画像を受信するインターフェース部や、或いは画像処理装置の内部や外部の記憶装置に記憶された画像を読み出すコントローラー等に対応する。
図7に示すように、領域設定部210は、画像IM(1枚の学習用画像)に所定サイズの局所領域LAを設定する。具体的には、複数の局所領域LA1、LA2、LA3、・・・を、互いに重なりを許して設定する。例えば画像IMのサイズが288画素×288画素の場合、局所領域のサイズを30画素×30画素に設定するが、画像IMのサイズに応じて局所領域のサイズを変えてもよい。
局所特徴量算出部220は、各局所領域LAの画像に対して、例えば、LBP(Locally Binary Pattern)を適用する。LBP値は、局所領域LAの各画素を中心とする3×3画素から求める。3×3画素の中心の画素をP0とし、その周囲の8画素をP1〜P9とすると、P1〜P9の各画素とP0とで画素値を比較し、P0の画素値以上の場合には“1”を割り当て、P0の画素値より小さい場合には“0”を割り当てる。そのビットをP1〜P9の順に並べて8ビットの値を得る。これを、局所領域LAの全画素について行い、1つの局所領域LAあたり30×30=900個のLBP値を得る。その900個のLBP値を0〜255のLBP値に振り分けて、各値の個数をカウントし、局所領域LAについて256次元の局所特徴ヒストグラムを得る。これを256次元の特徴ベクトル(局所特徴量)とみなし、この特徴ベクトルを局所領域LA1、LA2、・・・の各々について求め、局所領域の個数分の特徴ベクトルを生成する。
この局所領域から局所特徴量を算出する処理を複数の画像に対して行い、局所特徴量記憶部230に多数のベクトルを記憶する。例えば学習用画像を100枚とし、画像1枚あたり100個の局所領域を設定したとすると、10000個分の特徴ベクトルを局所特徴量記憶部230に記憶する。
クラスタリング部240は、これらの記憶された特徴ベクトルに対して例えばK−means法等を用いてクラスタリングを行い、代表ベクトルを抽出する。K−means法は、分割クラス数をk個とし、k個の代表ベクトルを初期状態に設定して特徴ベクトルをk個のクラスに分割し、各クラスの平均位置を求めて代表ベクトルを移動してクラスの分割を再度行い、これを繰り返して最終的なクラスの分割を決める手法である。例えば、本実施形態では代表ベクトルの数をk=100個とする。なお、代表ベクトルの逆像に相当する局所領域の画像を、視覚的な辞書という意味でビジュアルワード(Visual Words)と呼ぶ。
ヒストグラム作成部250は、100個の代表ベクトルの中から、局所特徴量と代表ベクトルのユークリッド距離が最短となるものを見いだす。これを各画像について局所領域毎に行う。100個の代表ベクトルに1〜100の番号を付し、各番号の代表ベクトルに対してユークリッド距離が最短だった局所領域が何個あったかをカウントし、100次元のヒストグラムを生成する。このヒストグラムは1枚の学習用画像毎に生成する。これを100次元のベクトルとみなし、画像のBoF(Bag of Features)特徴ベクトルと呼ぶ。
画像特徴量生成部260は、上記のBoF特徴ベクトルを学習用画像の枚数分だけ生成し、正解のラベル(例えば、胃、小腸、大腸等の臓器の種類)と共に学習データセットを生成する。
学習・判定部270は、上記の学習データセットを用いて、例えばSVM(Support Vector Machine)により学習を行う。SVMは、与えられた学習データセットから、特徴ベクトルのベクトル空間におけるラベルの分離面(例えば胃と小腸の特徴ベクトルを分離する面)を決定する学習器である。例えば、特徴ベクトルのベクトル空間において線形に分離を行い、分離平面を決定する。或いは、特徴ベクトルよりも高次元のベクトル空間において線形に分離を行い、特徴ベクトルの次元で見たときに非線形な分離面を決定してもよい。
なお、以上では1種類のLBP局所特徴量を各局所領域に適用する場合について説明したが、本実施形態はこれに限定されない。例えば、LBP以外にも、勾配の局所特徴量としてSIFT(Scale-Invariant Feature Transform)を用いてもよいし、色(Hue Saturation Value)の局所特徴量を用いてもよい。或いは、これらの複数種類の局所特徴量を適用した特徴ベクトルを生成しても良い。
色、勾配、テクスチャの組合せ方法には、大きく分けて処理の早い段階で組合せるアーリーフュージョン(early fusion)と処理の遅い段階で組合せるレイトフュージョン(late fusion)がある。
アーリーフュージョンの一例として、各局所領域の中の3×3画素のパターンをテクスチャ特徴量のULBP(Uniform LBP)特徴量と中心画素のHSV色特徴の組合せによって表現する方法がある。HSV色特徴は、例えば、図8のようにHSV色空間を色相方向に12分割し、彩度方向に3分割し、無彩色の明度を4分割する。この場合、合計40次元の特徴量であり、ULBP特徴量が10次元であるため、その結果生成されるアーリーフュージョンの特徴量の次元は、40×10=400次元である。
レイトフュージョンの一例として、HSV色特徴量のBoFヒストグラムとLBPヒストグラムを並べて得られる結合ヒストグラムを画像の特徴ベクトルとする方法がある。また、レイトフュージョンの別の例として、色単独、テクスチャ単独、或いは、それらの上述したアーリーフュージョンやレイトフュージョンの組合せをそれぞれ別々に、後述するSVM等の判別器で学習し、分類時の分類スコアを合算し、それをある閾値で判定する方法がある。
以上のような手法を組合せることで、より精度の高い学習・分類器を構築できる。
4.切り替わり位置決定処理
次に、切り替わり位置決定処理について説明する。
BoF特徴ベクトルを求めるまでの処理は、基本的には第2の学習処理と同様である。即ち、画像取得部100が、カプセル型内視鏡により撮像された時系列画像(ラベル未知の画像)を取得し、領域設定部210が、時系列画像の各画像に対して30×30画素の局所領域を、互いに重複させて複数設定し、局所特徴量算出部220は、各局所領域の画像に例えばLBPを適用して256次元の特徴ベクトルを求める。ヒストグラム作成部250は、学習で求めた代表ベクトルに特徴ベクトルを割り当て、画像毎に100次元のBoF特徴ベクトルを作成する。
なお、切り替わり位置決定処理では学習で求めた代表ベクトルを用いるため、クラスタリングは行わない。そのため、局所特徴量記憶部230は、少なくとも画像1枚分の局所特徴量を記憶すればよく、必ずしも複数の画像の局所特徴量を記憶しておく必要はない。
学習・判定部270は、ラベルが未知のBoF特徴ベクトルを学習済みのSVMで判定し、各画像に写っている臓器の種類を分類する。入力画像は時系列なので、それに対応して時系列に並んだ判定結果が得られる。
以下、画像の2分類問題として胃と小腸の画像を自動分類する場合を例にとり、判定結果系列から、臓器の切り替わり候補位置を抽出する処理について説明する。
図9に、胃と小腸の時系列画像を自動分類した判定結果の例を示す。判定結果S(x)=−1は胃を表し、S(x)=+1は小腸を表す。画像には時系列の順にimg00001〜img10000の名前(番号)が付けられており、その時系列の順に判定結果S(x)が並んでいる。位置xは、時系列画像の番号である。XRは、胃から小腸への切替りの正解位置(幽門)である。
候補位置抽出部280は、判定結果S(x)と、図10に示すステップ関数H(x)との畳み込み演算を下式(2)により行い、下式(3)により臓器の切り替わり候補位置を求める。
ステップ関数H(x)はx=−L〜+Lの範囲で定義された関数であり、その窓幅Lは可変である。上式(2)では、窓幅Lを任意に固定し、2Lで割って値を正規化した中で畳み込みの値Conv(x)を算出する。
上式(3)の{}内では、位置xを任意に固定し、窓幅LをL0からL1まで動かす中でのConv(x)の最小値を算出する。例えばL0=10、L1=MIN[x−M0,M1−x]である。M0は画像の探索開始位置であり、例えばM0=1である。M1は画像の探索終了位置であり、例えばM1=10000である。
例えば判定結果S(x)の時系列が図11に示す形状であったとする。位置x0で畳み込みを行った場合、窓幅L≦(x1−x0)ではS(x)がステップ関数なので畳み込みの値Conv(x)=1である。窓幅L>(x1−x0)ではS(x)の形状がステップ関数から離れていくので、畳み込みの値Conv(x)は1より小さくなっていく。即ち、Conv(x)の最小値を用いるということは、窓幅Lを変化させたときにステップ関数に最も似ていないときのConv(x)を選択するということである。
候補位置抽出部280は、この最小値を探索開始位置M0から探索終了位置M1の各位置xで求める。その最小値の例を図12に示す。上式(3)の[]内では、Th(閾値)関数により所定の閾値で判定を行う。そして、Arg関数により、最小値が閾値以上である位置xを候補位置Pcanとして抽出する。閾値として例えば0を用いた場合、図12の例では位置A〜Dが候補位置Pcanとして選出される。
なお、上記では畳み込みの最小値を用いたが、本実施形態はこれに限定されない。例えば、上式(3)の{}内をMAX Conv(x)として、窓幅LをL0からL1まで動かす中でのConv(x)の最大値を用いてもよい。図11の例では、畳み込みの値Conv(x)の最大値は1である。Conv(x)の最大値を用いるということは、窓幅Lを変化させたときにステップ関数に最も似ているときのConv(x)を選択するということである。
次に、切り替わり候補位置A〜Dから最終的な推定位置を決定する処理について説明する。
切り替わり位置決定部290は、抽出した切り替わり候補位置A〜Dのうち、例えば、隣り合う2点に挟まれる区間[A,B]に着目し、区間内での1(小腸)と‐1(胃)の数を比較する。即ち、
+1(小腸)の数>−1(胃)の数の場合⇒左側の点Aを候補点とする
+1(小腸)の数≦−1(胃)の数の場合⇒右側の点Bを候補点とする
この比較を候補位置の数が1つになるまで続ける。
図13は、上記の判定法に従って、候補位置A、Bに挟まれる区間[A,B]で−1、+1の数を比較する場合の図である。区間[A,B]では、−1の数の方が、+1の数よりも多いので、AでなくBが候補位置として残る。次に、図14に示すように、候補位置BとCを比較する。区間[B,C]では、+1の数の方が−1の数よりも多いので、CでなくBが候補位置として残る。次に、図15に示すように、候補位置BとDを比較する。区間[B,D]では、+1の数の方が−1の数よりも多いので、DでなくBを最終的な推定位置として選択する。
選択された位置Bは、図9に示す正解位置XRとほぼ同じ位置にあり、良好な推定結果を得ることができている。
以上の実施形態によれば、処理部200は、候補位置として第1〜第nの候補位置(nは2以上の自然数)が抽出された場合に、第1〜第nの候補位置のうち第iの候補位置と第jの候補位置(i、jはi<j≦nの自然数)の間の判定の結果に基づいて、第iの候補位置及び第jの候補位置のいずれかを選択する。
例えば、図12で説明したように第1〜第4の候補位置A〜Dが抽出され、図13で説明したように第1の候補位置Aと第2の候補位置Bの間の判定結果S(x)に基づいて、第1の候補位置Aと第2の候補位置Bのいずれかを選択する。
候補位置は、上式(2)、(3)により正解の切り替わり位置に近い(即ちS(x)がステップ関数に近い)と判断した位置であり、ローパスフィルタ等の影響を受けずに抽出された位置である。このようにローパスフィルタ等による位置ズレを起こしていない候補位置の中から切り替わり位置を選択することで、高精度な推定が可能となる。また、2つの候補位置の間の判定結果は、真の切り替わり位置を反映しているはずであり、それを用いることによって、より正解に近い候補位置を選択可能である。
また本実施形態では、処理部200は、対象物が第1の対象物から第2の対象物に変化する場合に、第iの候補位置と第jの候補位置の間において、対象物が第1の対象物であるとの判定の結果の数が、対象物が第2の対象物であるとの判定の結果の数よりも多い場合には、第jの候補位置を選択する。一方、対象物が第2の対象物であるとの判定の結果の数が、対象物が前記第1の対象物であるとの判定の結果の数よりも多い場合には、第iの候補位置を選択する。
例えば、図13で説明したように、胃(第1の対象物)から小腸(第2の対象物)に変化する場合に、第1の候補位置Aと第2の候補位置Bの間では、胃であるとの判定結果(−1)の数が、小腸であるとの判定結果(+1)の数よりも多い。この場合、第2の候補位置Bを選択する。
このようにすれば、第iの候補位置と第jの候補位置の間にある判定結果の多数決をとり、その結果によって、どちらの候補位置が真の切り替わり位置に近いかを推定できる。この選択を順次繰り返すことで、第1〜第nの候補位置の中で最も正解に近い候補位置を推定できる。
また本実施形態では、特徴量は、テクスチャに関する局所特徴量、色に関する局所特徴量、勾配に関する局所特徴量のうちの少なくとも1つに基づく特徴量である。より具体的には、特徴量は、テクスチャに関する局所特徴量と、色に関する局所特徴量又は勾配に関する局所特徴量との組み合わせに基づく特徴量である。
例えば本実施形態では、LBPによりテクスチャに関する局所特徴量を求め、HSV空間の分割により色に関する局所特徴量を求め、SIFTにより勾配に関する局所特徴量を求める。そして、これらの局所特徴量からBoF特徴ベクトル(画像の特徴量)を求める。
このようにすれば、臓器の画像のテクスチャや色、勾配等の特徴に基づいて、画像がどの臓器のものであるか分類できる。また、複数の特徴量を組み合わせることで、分類精度を向上できる。例えば、臓器の種類によって差が出やすい特徴の組み合わせが存在する場合、その組み合わせを用いることで正確な判定が可能となる。
また本実施形態では、処理部200は、各画像に複数の局所領域を設定し、複数の局所領域の各領域について局所特徴量を求め、複数の代表ベクトルのうち局所特徴量が属する代表ベクトルに局所特徴量を割り当てたヒストグラムを特徴量として作成し、ヒストグラムと予め行われた学習の結果とに基づいて、対象物が第1の対象物であるか第2の対象物であるかの判定を行う。
例えば本実施形態では、LBP等の局所特徴量を、第1の学習処理で求めた代表ベクトルに割り当てて画像毎にヒストグラムを生成し、そのヒストグラムを画像毎のBoF特徴ベクトル(特徴量)とする。そして、学習済みのSVMによりBoF特徴ベクトルを胃と小腸に分類する。
このようにすれば、予め正解ラベルが分かっている画像により学習した学習器を用いて、離散値(例えば胃と小腸の2値)の判定結果が得られる。離散値の判定結果が得られることで臓器毎の判定結果の個数がカウント可能となり、上述したような候補位置の比較が可能となる。
また本実施形態では、画像取得部100は、対象物が第1の対象物であるか第2の対象物であるかのラベルが付された複数の学習用画像を取得する。処理部200は、第1の学習処理として、複数の学習用画像から局所特徴量を求め、その複数の学習用画像から求めた局所特徴量に対してクラスタリングを行い、複数の代表ベクトルを生成する。そして、処理部200は、第2の学習処理として、複数の代表ベクトルに基づいて複数の学習用画像の各学習用画像についてヒストグラムを求め、その各学習用画像に付されたラベルとヒストグラムとに基づいて学習を行う。
例えば本実施形態では、ラベルとして臓器の種類が各画像に対応付けられている。第1の学習処理では、LBP等の局所特徴量に対してK−means法によりクラスタリングを行う。第2の学習処理では、学習用画像から求めたBoF特徴ベクトルと、その学習用画像に対応付けられた臓器ラベルから、SVMによる学習を行う。
このようにすれば、教師無し学習によるクラスタリングを行って代表ベクトルを抽出し、その代表ベクトルにより生成したBoF特徴ベクトルと正解ラベルを用いた教師有り学習により学習を行うことができる。そして、その学習済みの学習器によって、患者の消化管を撮影した未知ラベルの画像を分類できる。
5.内視鏡システム
図16に、本実施形態の画像処理装置を適用できる内視鏡システムの構成例を示す。内視鏡システムは、カプセル型内視鏡300、通信装置400、画像処理装置500を含む。
カプセル型内視鏡300は、患者が飲み込むことで患者の消化管の中を移動していき、消化管の内部を順次撮像する内視鏡である。カプセル型内視鏡300は、照明光を発生する光源330と、その照明光を消化管内に照射するレンズ310と、消化管の像を結像するレンズ320と、その結像を撮影する撮像素子340と、を含む。レンズ320と撮像素子340により撮像部が構成される。またカプセル型内視鏡300は、各部の制御等(例えばや撮像処理等)を行う処理部380と、通信装置400との無線通信を行う通信部360と、を含む。撮像画像は通信部360を介して通信装置400に転送される。
通信装置400は、患者の腹部等に貼り付けたアンテナを介してカプセル型内視鏡300との通信を行う通信部410と、各部の制御や画像処理等を行う処理部440と、例えば画像を保存する或いは処理部440のワーキングメモリとして機能する記憶部430と、画像処理装置500等の外部装置とのインターフェース処理を行うI/F部420と、を含む。撮像画像はI/F部420を介して画像処理装置500に転送される。転送は、全ての撮像が終わった後にまとめて行ってもよいし、撮影中に随時行ってもよい。
画像処理装置500は、上述した臓器の切り替わり位置を決定する処理を行う。画像処理装置500は、例えばPC等の汎用の情報処理装置で構成してもよいし、或いは専用の処理装置で構成してもよい。画像処理装置500は、通信装置400とのインターフェース処理を行うI/F部510と、各部の処理や画像処理、学習処理、切り替わり位置決定処理等を行う処理部200と、例えば画像を保存する或いは処理部200のワーキングメモリとして機能する記憶部520と、撮像画像等を表示する表示部540と、ユーザの操作を受け付ける操作部550と、を含む。
なお、以上で説明した本実施形態の画像処理装置等は、プロセッサとメモリを含んでもよい。ここでのプロセッサは、例えばCPU(Central Processing Unit)であってもよい。ただしプロセッサはCPUに限定されるものではなく、GPU(Graphics Processing Unit)、或いはDSP(Digital Signal Processor)等、各種のプロセッサを用いることが可能である。またプロセッサはASICによるハードウェア回路でもよい。また、メモリはコンピュータにより読み取り可能な命令を格納するものであり、当該命令がプロセッサにより実行されることで、本実施形態に係る画像処理装置等の各部が実現されることになる。ここでのメモリは、SRAM、DRAMなどの半導体メモリであってもよいし、レジスターやハードディスク等でもよい。また、ここでの命令は、プログラムを構成する命令セットの命令でもよいし、プロセッサのハードウェア回路に対して動作を指示する命令であってもよい。
以上、本発明を適用した実施形態およびその変形例について説明したが、本発明は、各実施形態やその変形例そのままに限定されるものではなく、実施段階では、発明の要旨を逸脱しない範囲内で構成要素を変形して具体化することができる。また、上記した各実施形態や変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、各実施形態や変形例に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態や変形例で説明した構成要素を適宜組み合わせてもよい。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能である。また、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。
100 画像取得部、200 処理部、210 領域設定部、
220 局所特徴量算出部、230 局所特徴量記憶部、240 クラスタリング部、
250 ヒストグラム作成部、260 画像特徴量生成部、270 判定部、
280 候補位置抽出部、290 位置決定部、300 カプセル型内視鏡、
310 レンズ、320 レンズ、330 光源、340 撮像素子、
360 通信部、380 処理部、400 通信装置、410 通信部、
420 I/F部、430 記憶部、440 処理部、500 画像処理装置、
510 I/F部、520 記憶部、540 表示部、550 操作部、
A〜D 候補位置、H(x) ステップ関数、L 窓幅、
LA,LA1〜LA3 局所領域、S(x) 判定結果、x 位置、XR 正解位置、
img00001〜img10000 時系列画像

Claims (13)

  1. 時系列に撮像された時系列画像を取得する画像取得部と、
    前記時系列画像に写された対象物が第1の対象物から第2の対象物に切り替わる位置である切り替わり位置を検出する処理部と、
    を含み、
    前記処理部は、
    前記時系列画像の各画像から特徴量を抽出し、前記特徴量に基づいて前記各画像に写された前記対象物が前記第1の対象物であるか前記第2の対象物であるかの判定を行い、前記判定の結果に基づいて前記切り替わり位置の候補位置を抽出し、前記判定の結果に基づいて前記候補位置の比較を行って前記切り替わり位置を決定することを特徴とする画像処理装置。
  2. 請求項1において、
    前記処理部は、
    時系列の前記判定の結果とステップ関数との畳み込み演算により評価値を求め、前記評価値に基づいて前記候補位置を抽出することを特徴とする画像処理装置。
  3. 請求項1において、
    前記処理部は、
    時系列の前記判定の結果に対する畳み込み演算を、前記各画像を中心としてウィンドウサイズを変化させながら行うことで、前記各画像について評価値を求め、前記評価値に基づいて前記候補位置を抽出することを特徴とする画像処理装置。
  4. 請求項3において、
    前記処理部は、
    前記ウィンドウサイズを変化させながら行った前記畳み込み演算の結果の最小値又は最大値を前記評価値として求め、前記評価値と前記評価値の閾値とを比較して、前記候補位置を抽出することを特徴とする画像処理装置。
  5. 請求項1において、
    前記処理部は、
    前記候補位置として第1〜第nの候補位置(nは2以上の自然数)が抽出された場合に、前記第1〜第nの候補位置のうち第iの候補位置と第jの候補位置(i、jはi<j≦nの自然数)の間の前記判定の結果に基づいて、前記第iの候補位置及び前記第jの候補位置のいずれかを選択することを特徴とする画像処理装置。
  6. 請求項5において、
    前記処理部は、
    前記対象物が前記第1の対象物から前記第2の対象物に変化する場合に、前記第iの候補位置と前記第jの候補位置の間において、前記対象物が前記第1の対象物であるとの前記判定の結果の数が、前記対象物が前記第2の対象物であるとの前記判定の結果の数よりも多い場合には、前記第jの候補位置を選択し、前記対象物が前記第2の対象物であるとの前記判定の結果の数が、前記対象物が前記第1の対象物であるとの前記判定の結果の数よりも多い場合には、前記第iの候補位置を選択することを特徴とする画像処理装置。
  7. 請求項1において、
    前記特徴量は、テクスチャに関する局所特徴量、色に関する局所特徴量、勾配に関する局所特徴量のうちの少なくとも1つに基づく特徴量であることを特徴とする画像処理装置。
  8. 請求項7において、
    前記特徴量は、前記テクスチャに関する局所特徴量と、前記色に関する局所特徴量又は前記勾配に関する局所特徴量との組み合わせに基づく特徴量であることを特徴とする画像処理装置。
  9. 請求項1において、
    前記処理部は、
    前記各画像に複数の局所領域を設定し、前記複数の局所領域の各領域について局所特徴量を求め、複数の代表ベクトルのうち前記局所特徴量が属する代表ベクトルに前記局所特徴量を割り当てたヒストグラムを前記特徴量として作成し、前記ヒストグラムと予め行われた学習の結果とに基づいて、前記対象物が前記第1の対象物であるか前記第2の対象物であるかの前記判定を行うことを特徴とする画像処理装置。
  10. 請求項9において、
    前記画像取得部は、
    前記対象物が前記第1の対象物であるか前記第2の対象物であるかのラベルが付された複数の学習用画像を取得し、
    前記処理部は、
    第1の学習処理として、前記複数の学習用画像から前記局所特徴量を求め、前記複数の学習用画像から求めた前記局所特徴量に対してクラスタリングを行い、前記複数の代表ベクトルを生成し、
    第2の学習処理として、前記複数の代表ベクトルに基づいて前記複数の学習用画像の各学習用画像について前記ヒストグラムを求め、前記各学習用画像に付された前記ラベルと前記ヒストグラムとに基づいて学習を行うことを特徴とする画像処理装置。
  11. 請求項1において、
    前記画像取得部は、
    カプセル型内視鏡により撮像された前記時系列画像を取得することを特徴とする画像処理装置。
  12. 請求項1に記載された画像処理装置と、
    前記時系列画像を撮像するカプセル型内視鏡と、
    を含むことを特徴とする内視鏡システム。
  13. 時系列に撮像された時系列画像を取得し、
    前記時系列画像の各画像から特徴量を抽出し、
    前記特徴量に基づいて前記各画像に写された対象物が第1の対象物であるか第2の対象物であるかの判定を行い、
    前記判定の結果に基づいて、前記時系列画像に写された前記対象物が前記第1の対象物から前記第2の対象物に切り替わる位置である切り替わり位置の候補位置を抽出し、
    前記判定の結果に基づいて前記候補位置の比較を行って前記切り替わり位置を決定することを特徴とする画像処理方法。
JP2014129068A 2014-06-24 2014-06-24 画像処理装置、内視鏡システム及び画像処理方法 Expired - Fee Related JP6339872B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2014129068A JP6339872B2 (ja) 2014-06-24 2014-06-24 画像処理装置、内視鏡システム及び画像処理方法
PCT/JP2015/064450 WO2015198757A1 (ja) 2014-06-24 2015-05-20 画像処理装置、内視鏡システム及び画像処理方法
CN201580033672.5A CN106464849B (zh) 2014-06-24 2015-05-20 图像处理装置、内窥镜系统以及图像处理方法
DE112015002583.9T DE112015002583T5 (de) 2014-06-24 2015-05-20 Vorrichtung für die Bildverarbeitung, Endoskopsystem und Verfahren für die Bildverarbeitung
US15/366,803 US10360474B2 (en) 2014-06-24 2016-12-01 Image processing device, endoscope system, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014129068A JP6339872B2 (ja) 2014-06-24 2014-06-24 画像処理装置、内視鏡システム及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2016009984A true JP2016009984A (ja) 2016-01-18
JP6339872B2 JP6339872B2 (ja) 2018-06-06

Family

ID=54937855

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014129068A Expired - Fee Related JP6339872B2 (ja) 2014-06-24 2014-06-24 画像処理装置、内視鏡システム及び画像処理方法

Country Status (5)

Country Link
US (1) US10360474B2 (ja)
JP (1) JP6339872B2 (ja)
CN (1) CN106464849B (ja)
DE (1) DE112015002583T5 (ja)
WO (1) WO2015198757A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2017175282A1 (ja) * 2016-04-04 2019-02-28 オリンパス株式会社 学習方法、画像認識装置およびプログラム

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018180573A1 (ja) * 2017-03-31 2018-10-04 ソニー株式会社 手術用画像処理装置、画像処理方法、及び、手術システム
JP6845923B2 (ja) * 2017-04-21 2021-03-24 株式会社モリタ製作所 医療用診療装置
JP6970553B2 (ja) * 2017-08-17 2021-11-24 キヤノン株式会社 画像処理装置、画像処理方法
JP6517298B2 (ja) * 2017-10-10 2019-05-22 株式会社Cygames 対象物取得確認のためのシステム、サーバ、プログラム及び方法
CN107820010B (zh) * 2017-11-17 2020-11-06 英业达科技有限公司 摄影计数装置
JP2019109709A (ja) * 2017-12-18 2019-07-04 株式会社東芝 画像処理装置、画像処理方法およびプログラム
JP6933164B2 (ja) * 2018-03-08 2021-09-08 株式会社Jvcケンウッド 学習用データ作成装置、学習用モデル作成システム、学習用データ作成方法、及びプログラム
US11238070B1 (en) * 2018-07-17 2022-02-01 A9.Com, Inc. Dense cluster filtering
JP6937438B2 (ja) 2018-07-31 2021-09-22 オリンパス株式会社 画像診断支援システムおよび画像診断支援方法
KR102037303B1 (ko) 2018-10-24 2019-10-28 아주대학교 산학협력단 캡슐 내시경의 위치를 추정하는 방법 및 장치
CN115087386A (zh) * 2020-02-18 2022-09-20 索尼奥林巴斯医疗解决方案公司 学习装置和医疗图像处理装置
CN115049637B (zh) * 2022-07-12 2023-03-31 北京奥乘智能技术有限公司 胶囊接缝图像获取方法、装置、存储介质和计算设备
CN117557587B (zh) * 2024-01-12 2024-03-19 南京晨新医疗科技有限公司 一种内窥镜冷光源亮度自动调节系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1199127A (ja) * 1997-09-29 1999-04-13 Olympus Optical Co Ltd 内視鏡光源装置
JP2005348902A (ja) * 2004-06-09 2005-12-22 Olympus Corp 内視鏡装置
JP2006223377A (ja) * 2005-02-15 2006-08-31 Olympus Corp 管腔画像処理装置、管腔画像処理方法及びそのためのプログラム
WO2007135884A1 (ja) * 2006-05-19 2007-11-29 Hitachi Medical Corporation 超音波診断装置及び超音波診断方法
WO2008139812A1 (ja) * 2007-05-08 2008-11-20 Olympus Corporation 画像処理装置および画像処理プログラム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002032751A (ja) * 2000-07-18 2002-01-31 Olympus Optical Co Ltd 学習型画像分類装置及び方法並びにその処理プログラムを記録した記録媒体
JP3810381B2 (ja) 2003-04-25 2006-08-16 オリンパス株式会社 画像表示装置、画像表示方法および画像表示プログラム
WO2006087981A1 (ja) 2005-02-15 2006-08-24 Olympus Corporation 医用画像処理装置、管腔画像処理装置、管腔画像処理方法及びそれらのためのプログラム
WO2006100808A1 (ja) * 2005-03-22 2006-09-28 Osaka University カプセル内視鏡画像表示制御装置
EP1969992B1 (en) 2005-12-28 2012-05-02 Olympus Medical Systems Corp. Image processing device and image processing method in the image processing device
JP4472631B2 (ja) 2005-12-28 2010-06-02 オリンパスメディカルシステムズ株式会社 画像処理装置および当該画像処理装置における画像処理方法
JP2009005152A (ja) * 2007-06-22 2009-01-08 Olympus Corp 画像処理装置
JP4959445B2 (ja) * 2007-07-04 2012-06-20 オリンパス株式会社 画像処理装置および画像処理プログラム
JP5312807B2 (ja) * 2008-01-08 2013-10-09 オリンパス株式会社 画像処理装置および画像処理プログラム
JP5191240B2 (ja) * 2008-01-09 2013-05-08 オリンパス株式会社 シーン変化検出装置およびシーン変化検出プログラム
US8665326B2 (en) * 2009-01-30 2014-03-04 Olympus Corporation Scene-change detecting device, computer readable storage medium storing scene-change detection program, and scene-change detecting method
JP2010187756A (ja) * 2009-02-16 2010-09-02 Olympus Corp 画像処理装置、画像処理方法および画像処理プログラム
US20120316421A1 (en) * 2009-07-07 2012-12-13 The Johns Hopkins University System and method for automated disease assessment in capsule endoscopy
JP5243660B2 (ja) * 2011-01-28 2013-07-24 オリンパスメディカルシステムズ株式会社 カプセル内視鏡システム
CN103140160B (zh) * 2011-03-30 2015-06-17 奥林巴斯医疗株式会社 图像管理装置、图像管理装置的工作方法以及胶囊型内窥镜系统
US10068334B2 (en) * 2013-05-29 2018-09-04 Capsovision Inc Reconstruction of images from an in vivo multi-camera capsule
WO2014192512A1 (ja) * 2013-05-31 2014-12-04 オリンパスメディカルシステムズ株式会社 医療装置
JP6196922B2 (ja) * 2014-03-17 2017-09-13 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP6351323B2 (ja) * 2014-03-20 2018-07-04 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
EP3155971A4 (en) * 2014-06-11 2018-03-07 Olympus Corporation Medical diagnostic device, medical diagnostic device operation method, and medical diagnostic device operation program
GB201501157D0 (en) * 2015-01-23 2015-03-11 Scopis Gmbh Instrument guidance system for sinus surgery
JP2018515197A (ja) * 2015-04-29 2018-06-14 シーメンス アクチエンゲゼルシヤフトSiemens Aktiengesellschaft 腹腔鏡および内視鏡による2d/2.5d画像データにおけるセマンティックセグメンテーションのための方法およびシステム
US10181083B2 (en) * 2016-03-21 2019-01-15 Viisights Solutions Ltd. Scene change detection and logging
US10169663B2 (en) * 2016-09-01 2019-01-01 The Boeing Company Scene change detection via multiple sensors

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1199127A (ja) * 1997-09-29 1999-04-13 Olympus Optical Co Ltd 内視鏡光源装置
JP2005348902A (ja) * 2004-06-09 2005-12-22 Olympus Corp 内視鏡装置
JP2006223377A (ja) * 2005-02-15 2006-08-31 Olympus Corp 管腔画像処理装置、管腔画像処理方法及びそのためのプログラム
WO2007135884A1 (ja) * 2006-05-19 2007-11-29 Hitachi Medical Corporation 超音波診断装置及び超音波診断方法
WO2008139812A1 (ja) * 2007-05-08 2008-11-20 Olympus Corporation 画像処理装置および画像処理プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2017175282A1 (ja) * 2016-04-04 2019-02-28 オリンパス株式会社 学習方法、画像認識装置およびプログラム

Also Published As

Publication number Publication date
US20170083791A1 (en) 2017-03-23
US10360474B2 (en) 2019-07-23
CN106464849B (zh) 2019-06-25
WO2015198757A1 (ja) 2015-12-30
JP6339872B2 (ja) 2018-06-06
CN106464849A (zh) 2017-02-22
DE112015002583T5 (de) 2017-05-24

Similar Documents

Publication Publication Date Title
JP6339872B2 (ja) 画像処理装置、内視鏡システム及び画像処理方法
Sainju et al. Automated bleeding detection in capsule endoscopy videos using statistical features and region growing
Rahim et al. A survey on contemporary computer-aided tumor, polyp, and ulcer detection methods in wireless capsule endoscopy imaging
JP6552613B2 (ja) 画像処理装置、画像処理装置の作動方法、及び画像処理プログラム
Guo et al. Giana polyp segmentation with fully convolutional dilation neural networks
Pereira et al. Dermoscopic skin lesion image segmentation based on Local Binary Pattern Clustering: Comparative study
Anthimopoulos et al. Segmentation and recognition of multi-food meal images for carbohydrate counting
Shrivastava et al. Exploring the color feature power for psoriasis risk stratification and classification: A data mining paradigm
Pogorelov et al. Bleeding detection in wireless capsule endoscopy videos—Color versus texture features
Deeba et al. Performance assessment of a bleeding detection algorithm for endoscopic video based on classifier fusion method and exhaustive feature selection
WO2015141692A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
CN109635871B (zh) 一种基于多特征融合的胶囊内窥镜图像分类方法
JP5878924B2 (ja) 画像処理装置、撮像装置および画像処理方法
US10687913B2 (en) Image processing device, image processing method, and computer-readable recording medium for detecting abnormality from intraluminal image using integrated feature data
KR102176139B1 (ko) 연속적인 딥 인코더-디코더 네트워크를 이용한 이미지 세그먼테이션 장치 및 그 방법
Yuan et al. Automatic bleeding frame detection in the wireless capsule endoscopy images
Filali et al. Graph weighting scheme for skin lesion segmentation in macroscopic images
WO2016117018A1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
Van Der Sommen et al. Computer-aided detection of early cancer in the esophagus using HD endoscopy images
Vasilakakis et al. DINOSARC: Color features based on selective aggregation of chromatic image components for wireless capsule endoscopy
Maghsoudi Superpixels based segmentation and SVM based classification method to distinguish five diseases from normal regions in wireless capsule endoscopy
Setio et al. Evaluation and Comparison of Textural Feature Representation for the Detection of Early Stage Cancer in Endoscopy.
Hu et al. Bleeding and tumor detection for capsule endoscopy images using improved geometric feature
US11690569B2 (en) Blood vessel detecting apparatus and image-based blood vessel detecting method
Geetha et al. Heuristic classifier for observe accuracy of cancer polyp using video capsule endoscopy

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180417

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180511

R151 Written notification of patent or utility model registration

Ref document number: 6339872

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees