JP2007175432A - 画像処理装置および当該画像処理装置における画像処理方法 - Google Patents

画像処理装置および当該画像処理装置における画像処理方法 Download PDF

Info

Publication number
JP2007175432A
JP2007175432A JP2005380210A JP2005380210A JP2007175432A JP 2007175432 A JP2007175432 A JP 2007175432A JP 2005380210 A JP2005380210 A JP 2005380210A JP 2005380210 A JP2005380210 A JP 2005380210A JP 2007175432 A JP2007175432 A JP 2007175432A
Authority
JP
Japan
Prior art keywords
image
image processing
processing apparatus
images
representative value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005380210A
Other languages
English (en)
Other versions
JP4472631B2 (ja
Inventor
Hiroichi Nishimura
博一 西村
Tetsuo Nonami
徹緒 野波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Medical Systems Corp
Original Assignee
Olympus Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2005380210A priority Critical patent/JP4472631B2/ja
Application filed by Olympus Medical Systems Corp filed Critical Olympus Medical Systems Corp
Priority to PCT/JP2006/322387 priority patent/WO2007077672A1/ja
Priority to CN2010105119860A priority patent/CN101947114B/zh
Priority to CN201010511970XA priority patent/CN101947113B/zh
Priority to EP11008472.0A priority patent/EP2412301B1/en
Priority to CN200680049583.0A priority patent/CN101351149B/zh
Priority to EP11008465.4A priority patent/EP2412300B1/en
Priority to EP06823274A priority patent/EP1969992B1/en
Priority to US11/638,821 priority patent/US20070165932A1/en
Publication of JP2007175432A publication Critical patent/JP2007175432A/ja
Application granted granted Critical
Publication of JP4472631B2 publication Critical patent/JP4472631B2/ja
Priority to US13/166,938 priority patent/US8363962B2/en
Priority to US13/168,510 priority patent/US8300955B2/en
Priority to US13/168,483 priority patent/US8369626B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00011Operational features of endoscopes characterised by signal transmission
    • A61B1/00016Operational features of endoscopes characterised by signal transmission using wireless means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/041Capsule endoscopes for imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Optics & Photonics (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Endoscopes (AREA)

Abstract

【課題】ユーザによる観察の効率化をはかることができる画像処理装置および当該画像処理装置における画像処理方法を提供する。
【解決手段】本発明の画像処理装置は、撮像機能を有する医療機器により撮像された複数の画像に基づく画像信号を入力する画像信号入力手段と、前記複数の画像を各々複数の領域に分割する画像分割手段と、前記複数の領域各々における特徴量を算出する特徴量算出手段と、前記特徴量及び前記特徴量の発生頻度に基づき、特徴空間において生成した複数のクラスタを複数のクラスのいずれかに各々分類するクラスタ分類手段と、前記複数の画像を用い、複数のサブセットを生成するサブセット生成手段と、一のサブセットに含まれる画像各々の、前記特徴空間における前記特徴量の分布状態に基づき、前記一のサブセットに含まれる画像を分類する際の分類基準を算出する分類基準算出手段とを具備する。
【選択図】図11

Description

本発明は、画像処理装置および当該画像処理装置における画像処理方法に関し、特に、生体粘膜表面の像が良好に撮像されていない画像を除外することができる画像処理装置および当該画像処理装置における画像処理方法に関するものである。
従来、医療分野において、X線、CT、MRI、超音波観測装置及び内視鏡装置等の画像撮像機器を用いた観察が広く行われている。このような画像撮像機器のうち、内視鏡装置は、例えば、生体としての体腔内に挿入される細長の挿入部を有し、該挿入部の先端部に配置された対物光学系により結像した体腔内の像を固体撮像素子等の撮像手段により撮像して撮像信号として出力し、該撮像信号に基づいてモニタ等の表示手段に体腔内の像の画像を表示するという作用及び構成を有する。そして、ユーザは、モニタ等の表示手段に表示された体腔内の像の画像に基づき、例えば、体腔内における臓器等の観察を行う。また、内視鏡装置は、消化管粘膜の像を直接的に撮像することが可能である。そのため、ユーザは、例えば、粘膜の色調、病変の形状及び粘膜表面の微細な構造等の様々な所見を総合的に観察することができる。
そして、近年、前述したような内視鏡装置と略同様の有用性が期待できる画像撮像機器として、例えば、カプセル型内視鏡装置が提案されている。一般的に、カプセル型内視鏡装置は、被検者が口から飲み込むことにより体腔内に配置され、撮像した該体腔内の像を撮像信号として外部に送信するカプセル型内視鏡と、送信された該撮像信号を体腔外で受信した後、受信した該撮像信号を蓄積するレシーバと、レシーバに蓄積された撮像信号に基づく体腔内の像の画像を観察するための観察装置とから構成される。
カプセル型内視鏡装置を構成するカプセル型内視鏡は、消化管の蠕動運動により進むため、例えば、口から体腔内に入れられた後、肛門から排出されるまで数時間程度の時間がかかることが一般的である。そして、カプセル型内視鏡は、体腔内に入れられた後、排出されるまでの間、レシーバに対して撮像信号を略常時出力し続けるため、例えば、数時間分の動画像における、レシーバに蓄積されたフレーム画像としての静止画像の枚数は膨大なものとなる。そのため、ユーザによる観察の効率化という点において、例えば、蓄積された画像のうち、出血部位等の病変部位が含まれる所定の画像を検出するような画像処理方法が行われた上において、該所定の画像以外の画像を表示または記憶しないという処理が行われることにより、画像のデータ量が削減されるような提案が望まれている。
前述したような画像処理方法としては、例えば、特許文献1に記載されているようなものがある。特許文献1に記載されている、生体内での比色分析の異常を検出するための方法は、正常粘膜と出血部位との色調の違いに着目し、色調を特徴量と設定した特徴空間における各平均値からの距離に基づき、画像の分割領域毎に出血部位の検出を行う方法、すなわち、病変部位としての出血部位が含まれる所定の画像を検出するための方法を有する画像処理方法である。
PCT WO 02/073507 A2号公報
しかし、特許文献1に記載されている画像処理方法においては、以下に記すような課題がある。
一般に、消化管においては、常に生体粘膜表面の像のみの撮像が行われている訳ではなく、例えば、便、泡、粘液または食物残渣等の異物の像と、生体粘膜表面の像とが混在した状態において撮像が行われている。そのため、前述したような異物の存在を考慮していない特許文献1に記載されている画像処理方法においては、例えば、該異物により正常粘膜を出血部位と誤検出してしまう可能性、及び該異物の像が大部分を占めるような画像を検出する可能性が考えられる。その結果、ユーザによる観察の効率化をはかることができないという課題が生じている。
本発明は、前述した点に鑑みてなされたものであり、例えば、生体粘膜表面の像としての胃粘膜及び絨毛の像と、異物の像としての便及び泡の像とを画像の小領域毎に識別して分類することにより、画像の小領域の多くを異物の像が占めるような、生体粘膜表面の像が良好に撮像されていない画像を、観察不要の画像として容易に除外することができ、さらに、前記分類結果に基づいて撮像された臓器を特定することができ、その結果、ユーザによる観察の効率化をはかることのできる画像処理装置および当該画像処理装置における画像処理方法を提供することを目的としている。
また、本発明は、生体粘膜表面の像として分類された各々の領域に対し、さらに、例えば、前記各々の領域が有する特徴量に基づき、正常な粘膜の像と病変部位の像と分類するような画像処理方法を用いることにより、病変部位の検出精度を高めることができる画像処理装置および当該画像処理装置における画像処理方法を提供することを目的としている。
本発明における第1の画像処理装置は、撮像機能を有する医療機器により撮像された複数の画像に基づく画像信号を入力する画像信号入力手段と、前記画像信号入力手段において入力した画像信号に基づき、前記複数の画像を各々複数の領域に分割する画像分割手段と、前記画像分割手段により分割された前記複数の領域各々における特徴量を算出する特徴量算出手段と、前記特徴量及び前記特徴量の発生頻度に基づき、特徴空間において複数のクラスタを生成するとともに、該複数のクラスタを複数のクラスのいずれかに各々分類するクラスタ分類手段と、前記複数の画像を用い、前記複数の画像が各々撮像されたタイミングに基づく複数のサブセットを生成するサブセット生成手段と、前記サブセット生成手段により生成された一のサブセットに含まれる画像各々の、前記特徴空間における前記特徴量の分布状態に基づき、前記一のサブセットに含まれる画像を、前記複数のクラスのいずれかに各々分類する際の分類基準を算出する分類基準算出手段とを具備することを特徴とする。
本発明における第2の画像処理装置は、前記第1の画像処理装置において、さらに、前記分類基準算出手段は、前記複数のクラスのうち、一のサブセットにおいて前記特徴量が発生しないクラスについては、前記分類基準を算出しないことを特徴とする。
本発明における第3の画像処理装置は、前記第1または第2の画像処理装置において、前記複数のクラスは、生体粘膜に関するクラスと、非生体粘膜に関するクラスとを少なくとも有することを特徴とする。
本発明における第4の画像処理装置は、前記第3の画像処理装置において、さらに、前記分類基準に基づき、前記一のサブセットに含まれる一の画像における各領域の分類を行う分類手段と、前記一の画像の分類結果に基づき、前記一の画像が前記生体粘膜に関するクラスとして分類された領域を有している場合、該領域各々に対し、病変箇所を検出するための処理を行う病変検出手段とを有することを特徴とする。
本発明における第5の画像処理装置は、撮像機能を有する医療機器により時系列的に撮像された複数の画像に基づく画像信号を入力する画像信号入力手段と、前記画像信号入力手段において入力した画像信号に基づき、前記複数の画像を各々複数の領域に分割する画像分割手段と、前記画像分割手段により分割された前記複数の領域各々における特徴量を算出する特徴量算出手段と、前記特徴量に基づき、前記複数の領域各々を複数のクラスのいずれかに各々分類する画像領域分類手段と、前記複数の画像各々において、少なくとも一のクラスの特徴量の代表値を算出する代表値算出手段と、前記代表値の変動が極大となる画像または時間のいずれかを検出する変動検出手段とを具備することを特徴とする。
本発明における第6の画像処理装置は、前記第5の画像処理装置において、さらに、前記代表値各々に対して時系列方向の平滑化を適用する平滑化手段を有し、前記変動検出手段は、前記平滑化手段により平滑化された後の前記代表値に基づき、前記代表値の変動が極大となる画像または時間のいずれかを検出することを特徴とする。
本発明における第7の画像処理装置は、前記第5または第6の画像処理装置において、前記代表値の変動は、生体内における観察部位の変化に基づいて生じるものであることを特徴とする。
本発明における第8の画像処理装置は、前記第5または第6の画像処理装置において、前記代表値の変動は、生体内における便の存在に基づいて生じるものであることを特徴とする。
本発明における第9の画像処理装置は、前記第5または第6の画像処理装置において、前記代表値の変動は、生体内における胆汁の存在に基づいて生じるものであることを特徴とする。
本発明における第10の画像処理装置は、前記第5または第6の画像処理装置において、前記代表値の変動は、生体内における病変部位の存在に基づいて生じるものであることを特徴とする。
本発明における第11の画像処理装置は、前記第5乃至第10の画像処理装置において、 前記代表値は、前記複数のクラス各々における特徴量の平均値であることを特徴とする。
本発明における第1の画像処理方法は、撮像機能を有する医療機器により撮像された画像に基づいて入力される画像信号に基づき、前記画像を各々複数の領域に分割する画像分割ステップと、前記画像分割ステップにより分割された前記複数の領域各々における特徴量を算出する特徴量算出ステップと、前記特徴量及び前記特徴量の発生頻度に基づき、特徴空間において複数のクラスタを生成するとともに、該複数のクラスタを複数のクラスのいずれかに各々分類するクラスタ分類ステップと、前記複数の画像を用い、前記複数の画像が各々撮像されたタイミングに基づく複数のサブセットを生成するサブセット生成ステップと、前記サブセット生成ステップにより生成された一のサブセットに含まれる画像各々の、前記特徴空間における前記特徴量の分布状態に基づき、前記一のサブセットに含まれる画像を各々分類する際の分類基準を算出する分類基準算出ステップとを具備することを特徴とする。
本発明における第2の画像処理方法は、前記第1の画像処理方法において、さらに、前記分類基準算出ステップは、前記複数のクラスのうち、一のサブセットにおいて前記特徴量が発生しないクラスについては、前記分類基準を算出しないことを特徴とする。
本発明における第3の画像処理方法は、前記第1または第2の画像処理方法において、前記複数のクラスは、生体粘膜に関するクラスと、非生体粘膜に関するクラスとを少なくとも有することを特徴とする。
本発明における第4の画像処理方法は、前記第3の画像処理方法において、さらに、前記分類基準に基づき、前記一のサブセットに含まれる一の画像における各領域の分類を行う分類ステップと、前記一の画像の分類結果に基づき、前記一の画像が前記生体粘膜に関するクラスとして分類された領域を有している場合、該領域各々に対し、病変箇所を検出するための処理を行う病変検出ステップとを有することを特徴とする。
本発明における第5の画像処理方法は、撮像機能を有する医療機器により撮像された画像に基づいて入力される画像信号に基づき、前記画像を各々複数の領域に分割する画像分割ステップと、前記画像分割ステップにより分割された前記複数の領域各々における特徴量を算出する特徴量算出ステップと、前記特徴量に基づき、前記複数の領域各々を複数のクラスのいずれかに各々分類する画像領域分類ステップと、前記複数の画像各々において、少なくとも一のクラスの特徴量の代表値を算出する代表値算出ステップと、前記代表値の変動が極大となる画像または時間のいずれかを検出する変動検出ステップとを具備することを特徴とする。
本発明における第6の画像処理方法は、前記第5の画像処理方法において、さらに、前記代表値各々に対して時系列方向の平滑化を適用する平滑化ステップを有し、前記平滑化ステップにより平滑化された後の前記代表値に基づき、前記代表値の変動が極大となる画像または時間のいずれかを検出する処理を前記変動検出ステップにおいて行うことを特徴とする。
本発明における第7の画像処理方法は、前記第5または第6の画像処理方法において、 前記代表値の変動は、生体内における観察部位の変化に基づいて生じるものであることを特徴とする。
本発明における第8の画像処理方法は、前記第5または第6の画像処理方法において、前記代表値の変動は、生体内における便の存在に基づいて生じるものであることを特徴とする。
本発明における第9の画像処理方法は、前記第5または第6の画像処理方法において、前記代表値の変動は、生体内における胆汁の存在に基づいて生じるものであることを特徴とする。
本発明における第10の画像処理方法は、前記第5または第6の画像処理方法において、 前記代表値の変動は、生体内における病変部位の存在に基づいて生じるものであることを特徴とする。
本発明における第11の画像処理方法は、前記第5乃至第10の画像処理方法において、前記代表値は、前記複数のクラス各々における特徴量の平均値であることを特徴とする。
本発明における画像処理装置および当該画像処理装置における画像処理方法によると、画像の小領域の多くを異物の像が占めるような、生体粘膜表面の像が良好に撮像されていない画像を、観察不要の画像として容易に除外することができ、さらに、前記分類結果に基づいて撮像された臓器を特定することができ、その結果、ユーザによる観察の効率化をはかることができる。
また、本発明における画像処理装置および当該画像処理装置における画像処理方法によると、生体粘膜表面の像として分類された各々の領域に対し、さらに、例えば、前記各々の領域が有する特徴量に基づき、正常な粘膜の像と病変部位の像と分類するような画像処理方法を用いることにより、病変部位の検出精度を高めることができる。
以下、図面を参照して本発明の実施の形態を説明する。図1は、本発明の第1の実施形態である画像処理動作が行われる画像処理装置および周辺機器の外観を示した外観正面図である。図2は、本実施形態の画像処理装置において処理する所定の画像情報を生成するカプセル型内視鏡の一部を切り取って示した要部拡大断面図である。図3は、本実施形態の画像処理装置に所定の画像情報を供給するカプセル型内視鏡装置の概略内部構成を示すブロック図である。図4は、本実施形態の画像処理装置に所定の画像情報を供給するカプセル型内視鏡装置の一使用例を示した図である。図5は、図2に示すカプセル型内視鏡から出力される信号の一例を示したタイミングチャートである。図6は、図2に示すカプセル型内視鏡の位置検出を説明する説明図である。図7は、図3に示すカプセル型内視鏡装置を使用した際におけるアンテナユニットを示した要部拡大断面図である。図8は、図3に示すカプセル型内視鏡装置を使用した際におけるシールドジャケットを説明する説明図である。図9は、図3に示すカプセル型内視鏡装置の外部装置の被検体への装着状態を説明する説明図である。図10は、図2に示すカプセル型内視鏡の電気的な構成を示すブロック図である。図11は、本実施形態に係る画像処理動作を示すフローチャートである。図12は、制御部が行う処理により作成される、特徴空間におけるヒストグラムの一例を示す図である。図13は、制御部が行う処理により作成される、特徴空間におけるクラスタの一例を示す図である。図14は、図13に示すクラスタのうち、特徴空間における面積または体積が所定の閾値未満であるクラスタが削除される様子を示す図である。図15は、制御部が行う処理である、境界が接している2つ以上のクラスタの統合または分離判定の処理の一例を示すフローチャートである。図16は、胃粘膜クラス及び絨毛クラスに分類された領域が有する特徴量μgpの、サブセット毎の時間方向における変化を示すグラフである。図17は、図16のグラフに示される特徴量μgpにおいて、時間方向への平滑化処理を行った場合のグラフである。図18は、制御部が行う処理である、病変検出処理の一例を示すフローチャートである。
本発明の実施形態である画像処理装置に所定の画像情報を供給するカプセル型内視鏡装置1は、図3に示すように、カプセル型内視鏡3、アンテナユニット4及び外部装置5とを有して要部が構成されている。
医療機器としてのカプセル型内視鏡3は、詳細は後述するが、被検体である患者2の口から体腔内に飲み込まれることにより体腔内に配置された後、蠕動運動により消化管内を進行する形状に形成され、かつ、内部に体腔内を撮像し、その撮像画像情報を生成する撮像機能と、その撮像画像情報を体外に送信する送信機能とを有している。アンテナユニット4は、詳細は後述するが、患者2の身体表面上に設置され、前記カプセル型内視鏡3から送信される撮像画像情報を受信する複数の受信アンテナ11を有している。外部装置5は、外形が箱形形状に形成されており、詳細は後述するが、前記アンテナユニット4が受信した撮像画像情報の各種処理、撮像画像情報の記録、及び撮像画像情報による撮像画像表示等の機能を有している。この外部装置5の外装の表面に前記撮像画像を表示させる液晶モニタ12と、各種機能の操作指示を行う操作部13とが設けられている。
また、この外部装置5は、駆動電源用の電池の残量に関する警告表示用のLEDと、電源スイッチ等のスイッチからなる操作部13とが外装の表面に設けられている。又、カプセル型内視鏡3の内部には、CPU及びメモリを用いた演算実行部が設けられており、例えば、該演算実行部において、受信及び記録した撮像画像情報に対して後述する画像処理が実行されるような構成であっても良い。
この外部装置5は、患者2の身体に着脱自在に装着されると共に、図1に示すように、クレードル6に装着されることにより、本発明の第1の実施形態である画像処理装置(以下、端末装置と記す)7に着脱自在に接続されるようになっている。この端末装置7は、たとえば、パーソナルコンピュータが用いられ、各種データの処理機能や記憶機能を有する端末本体9と、各種操作処理入力用のキーボード8a及びマウス8bと、及び各種処理結果を表示するディスプレイ8cとを有している。この端末装置7は、基本的機能として、例えば、前記外部装置5に記録されている撮像画像情報をクレードル6を介して取り込み、端末本体9に内蔵されている書換可能なメモリ、或いは端末本体9に着脱自在な書換可能な半導体メモリ等の可搬型メモリに書込記録させ、かつ、その記録した撮像画像情報をディスプレイ8cに表示する画像処理を行うような機能を有している。なお、前記外部装置5に記憶されている撮像画像情報は、前記クレードル6に代えて、USBケーブル等によって端末装置7に取り込まれるようにしても良い。
なお、端末装置7が行う画像処理は、例えば、前記外部装置5から取り込み記録した撮像画像情報から経過時間に応じて表示させる画像を選択する処理、及び後述する画像処理として、端末本体9が有する制御部9aにおいて行われる。制御部9aは、CPU(中央処理装置)等を有し、例えば、前述したような処理を行う場合に、処理結果を一時的に図示しないレジスタ等に保持することができる。
次に、前記カプセル型内視鏡3の外形と内部構造について、図2を用いて説明する。カプセル型内視鏡3は、断面がU字状の外装部材14と、この外装部材14の先端側の開放端に接着剤により水密装着された透明部材により形成された略半球形状のカバー部材14aと有する。そのため、カプセル型内視鏡3の外装は、外装部材14と、カバー部材14aとが接続された状態においては、水密構造かつカプセル形状を有するように形成されている。
この外装部材14とカバー部材14aを有するカプセル形状の内部中空部であって、前記カバー部材14aの半球の円弧の略中央にあたる部分には、カバー部材14aを介して入射された観察部位像を取り込む対物レンズ15がレンズ枠16に収納されて配置されている。この対物レンズ15の結像位置には、撮像素子である電荷結合素子(以降、CCDと記す)17が配置されている。また、前記対物レンズ15を収納するレンズ枠16の周囲には、照明光を発光放射させる4つの白色系のLED18が同一平面上に配置されている(図中には2つのLEDのみを表記している)。前記CCD17の後端側の前記外装部材14の内部中空部には、前記CCD17を駆動制御して光電変換された撮像信号の生成、その撮像信号に所定の信号処理を施して撮像画像信号を生成する撮像処理、及び前記LED18の点灯/非点灯の動作を制御するLED駆動の処理を行う処理回路19と、この処理回路19の撮像処理により生成された撮像画像信号を無線信号に変換して送信する通信処理回路20と、この通信処理回路20からの無線信号を外部に送信する送信アンテナ23と、前記処理回路19と通信処理回路20の駆動用電源を供給する複数のボタン型の電池21とが配置されている。
なお、CCD17、LED18、処理回路19、通信処理回路20及び送信アンテナ23は、図示しない基板上に配置され、それらの基板の間は、図示しないフレキシブル基板にて接続されている。また、前記処理回路19には、後述する画像処理を行うための図示しない演算回路を備えている。つまり、前記カプセル型内視鏡3は、図3に示すように、前記CCD17、LED18及び処理回路19とを有する撮像装置43と、前記通信処理回路20を有する送信器37と、送信アンテナ23とを有する。
次に、前記カプセル型内視鏡3の撮像装置43の詳細構成について、図10を用いて説明する。撮像装置43は、LED18の点灯/非点灯の動作を制御するLEDドライバ18Aと、CCD17の駆動を制御して光電変換された電荷の転送を行う為のCCDドライバ17Aと、前記CCD17から転送された電荷を用いて撮像信号を生成し、かつ、その撮像信号に所定の信号処理を施して撮像画像信号を生成する処理回路19Aと、前記LEDドライバ18A、CCDドライバ17A、処理回路19A、及び送信器37に電池21からの駆動電源を供給するスイッチ部と、前記スイッチ部及びCCDドライバ17Aにタイミング信号を供給するタイミングジェネレータ19Bとからなっている。なお、前記スイッチ部は、電池21から前記LEDドライバ18Aへの電源供給をオン/オフをするスイッチ19Cと、前記CCD17、CCDドライバ17A及び処理回路19Aへの電源供給をオン・オフするスイッチ19Dと、前記送信器37への電源供給をオン/オフするスイッチ19Eとからなっている。また、前記タイミングジェネレータ19Bには、電池21から常時駆動電源が供給されるようになっている。
このような構成を有するカプセル型内視鏡3の撮像装置43においては、スイッチ19Cと、スイッチ19Dと、スイッチ19Eとがオフ状態である場合、タイミングジェネレータ19B以外の各部は非動作状態である。そして、タイミングジェネレータ19Bからタイミング信号が出力されると、前記スイッチ19Dがオンされ、これにより、電池21から電源が供給されたCCD17、CCDドライバ17A及び処理回路19Aは動作状態となる。
前記CCD17の駆動初期時に、CCD17の電子シャッターを動作させて、不要な暗電流を除去した後、タイミングジェネレータ19Bは、スイッチ19CをオンさせてLEDドライバ18Aを駆動させてLED18を点灯させCCD17を露光する。LED18は、CCD17の露光に必要な所定の時間だけ点灯された後、消費電力低減の為に、スイッチ19Cがオフしたタイミングにおいて消灯される。
前記CCD17の露光が行われた前記所定の時間内に蓄えられた電荷は、CCDドライバ17Aの制御により処理回路19Aへ転送される。処理回路19Aは、CCD17から転送された電荷を基に撮像信号を生成し、その撮像信号に所定の信号処理を施して内視鏡画像信号を生成する。処理回路19Aは、例えば、送信器37から送信される信号がアナログ無線方式である場合、CDS出力信号に対して複合同期信号を重畳させたアナログ撮像信号を生成した後、該アナログ撮像信号を内視鏡画像信号として送信器37へ出力する。また、処理回路19Aは、例えば、送信器37から送信される信号がデジタル無線方式である場合、アナログ/デジタルコンバータにより生成したシリアルなデジタル信号に対し、さらにスクランブル等の符号化処理を施したデジタル撮像画像信号を生成し、該デジタル撮像信号を内視鏡画像信号として送信器37へ出力する。
この送信器37は、前記処理回路19Aから供給された内視鏡画像信号である、アナログ撮像画像信号またはデジタル撮像画像信号に対して変調処理を施して送信アンテナ23から外部へ無線送信する。この時、スイッチ19Eは、前記処理回路19Aから撮像画像信号が出力されたタイミングにおいてのみ送信器37に駆動電力が供給されるように、タイミングジェネレータ19Bによりオン/オフされる。
なお、スイッチ19Eは、処理回路19Aから撮像画像信号が出力されてから所定の時間が経過した後に、送信器37に駆動電力が供給されるように制御されても良い。また、スイッチ19Eは、カプセル型内視鏡3に設けられた、図示しないpHセンサーによる所定値のpH値の検出、図示しない湿度センサーによる所定値以上の湿度の検出、図示しない圧力センサーまたは図示しない加速度センサーによる所定値以上の圧力または加速度の検出等の検出結果に基づいてタイミングジェネレータ19Bから出力される信号により、被検体である患者2の体腔内に挿入された際に、送信器37に電源を供給するように制御されるような構成を有していても良い。
なお、前記カプセル型内視鏡3の撮像装置43は、通常毎秒2枚の画像(毎秒2フレーム=2fps)を撮像するものであるが、例えば、食道の検査の場合は、毎秒15〜30枚の画像(15fps〜30fps)を撮像できるようにする。具体的には、カプセル型内視鏡3に、図示しないタイマー回路を設け、このタイマー回路により、例えば、タイマーカウントが所定時間以内においては毎秒当たりの撮像枚数の多い高速撮像とし、所定時間が経過した後は、毎秒当たりの撮像枚数の少ない低速撮像となるように撮像装置43の駆動を制御させる。或いは、カプセル型内視鏡3の電源の投入と共にタイマー回路を作動させて、このタイマー回路により、例えば、患者2が飲み込んだ直後の食道を通過するまでの時間は高速撮像となるように、撮像装置43の駆動を制御させることも可能である。さらに、低速撮像用カプセル型内視鏡と高速撮像用カプセル型内視鏡とを個別に設けて、観察対象部位に応じて使い分けるようにしても良い。
次に、前記患者2の身体表面上に設置されるアンテナユニット4について説明する。図4に示すように、カプセル型内視鏡3を飲み込んで内視鏡検査を行う場合、患者2は、複数の受信アンテナ11からなるアンテナユニット4が設置されたジャケット10を装着する。このアンテナユニット4は、図7に示すように、たとえば、GPSに使用されているパッチアンテナのような単方向の指向性を有する複数の受信アンテナ11を患者2の身体内方向にその指向性を向けて配置する。つまり、カプセル型内視鏡3のカプセル本体3Dは、身体内に留置されるため、その身体内のカプセル本体3Dを取り囲むように前記複数のアンテナ11が配置される。この指向性の高いアンテナ11を使用することにより、身体内のカプセル本体3D以外からの電波による干渉妨害の影響を受けにくくしている。
前記ジャケット10は、図8に示すように、患者2の身体表面に設置する前記アンテナユニット4と、ベルトにより患者2の腰に設置された外部装置5の本体部5Dを覆うように電磁シールド繊維で形成されたシールドジャケット72とからなる。このシールドジャケット72を形成する電磁シールド繊維は、金属繊維、金属化学繊維、硫化銅含有繊維等が用いられている。なお、このシールドジャケット72は、ジャケット形状に限るものではなく、例えば、ベスト、ワンピース形状等であっても良い。
又、前記シールドジャケット72に前記外部装置5を装着する例として、図9に示すように、前記外部装置5の外部本体5Dに鍵穴74を設け、前記シールドジャケット72に設けた鍵75を前記鍵穴74に差し込むことにより、ベルト73に着脱自在に装着できるようにする。或いは、単にシールドジャケット72に図示しないポケットを設け、そのポケットに外部本体5Dを収納したり、又は、外部装置5の外部本体5Dとシールドジャケット72にマジックテープ(登録商標)を設置し、そのマジックテープ(登録商標)により取付固定しても良い。
つまり、アンテナユニット4が配置された身体にシールドジャケット72を装着することにより、アンテナユニット4に対する外部からの電波がシールド遮蔽されて、外部電波による干渉妨害の影響を一層受けにくくしている。
次に、前記アンテナユニット4と外部装置5の構成について、図3を用いて説明する。前記アンテナユニット4は、前記カプセル型内視鏡3の送信アンテナ23から送信された無線信号を受信する複数の受信アンテナ11a〜11dと、このアンテナ11a〜11dを切り替えるアンテナ切換スイッチ45とからなる。前記外部装置5は、アンテナ切換スイッチ45からの無線信号を撮像画像信号に変換及び増幅等の受信処理を行う受信回路33と、この受信回路33から供給された撮像画像信号に所定の信号処理を施して、撮像画像の表示用信号及び撮像画像データを生成する信号処理回路35と、この信号処理回路35により生成された撮像画像表示用信号に基づいて撮像画像を表示する液晶モニタ12と、前記信号処理回路35により生成された撮像画像データを記憶するメモリ47と、前記受信回路33により受信処理された無線信号の大きさにより前記アンテナ切換スイッチ45を制御するアンテナ選択回路46とからなる。
前記アンテナユニット4の図中受信アンテナ11a〜11dとして示した複数の受信アンテナ11は、前記カプセル型内視鏡3の送信アンテナ23から一定の電波強度により送信された無線信号を受信する。この複数の受信アンテナ11a〜11dは、前記外部装置5のアンテナ選択回路46からのアンテナ選択信号によりアンテナ切替スイッチ45が制御されて、前記無線信号を受信する受信アンテナを順次切り替える。つまり、前記アンテナ切替スイッチ45により順次切り替えられた各受信アンテナ11a〜d毎に受信した無線信号が前記受信器33に出力される。この受信器33において、各受信アンテナ11a〜11d毎の無線信号の受信強度を検出して、各受信アンテナ11a〜11dとカプセル型内視鏡3の位置関係を算出すると共に、その無線信号を復調処理して撮像画像信号を信号処理回路35へと出力する。前記アンテナ選択回路46は、前記受信器33からの出力によって制御される。
前記アンテナ選択回路46によるアンテナ切替スイッチ45の動作について説明する。前記カプセル型内視鏡3から送信される無線信号は、図5に示すように、撮像画像信号の1フレームの送信期間に、無線信号の受信強度を示す受信強度信号の送信期間である強度受信期間と、撮像画像信号の送信期間である映像信号期間とが順次繰り返されて送信されるとする。
前記アンテナ選択回路46は、前記受信回路33を介して、各受信アンテナ11a〜11dが受信した受信強度信号の受信強度が供給される。前記アンテナ選択回路46は、前記受信器33からの供給された各アンテナ11a〜11dの受信強度信号の強度を比較して、映像信号期間の撮像画像信号を受信する最適な受信アンテナ、つまり、受信強度信号の強度が最も高いアンテナ11i(i=a〜d)を決定して、アンテナ切替回路45をそのアンテナ11iに切り替えるための制御信号を生成出力する。これにより、現在画像信号を受信しているアンテナよりも、他のアンテナの受信強度信号の受信強度が高い場合には、映像信号期間の受信アンテナを次フレーム分から切り替えるようにする。
このように、カプセル型内視鏡3からの無線信号を受信するたびに、撮像画像信号、又は受信強度信号の受信強度を比較し、この比較結果を受けたアンテナ選択回路46によって受信強度が最大となるアンテナ11iを画像信号受信用のアンテナとを指定するようにしている。これにより、カプセル型内視鏡3が患者2の体内で移動しても、その移動位置において最も受信強度の高い信号を検出できるアンテナ11により取得した画像信号を受信することができる。また、体内でのカプセル型内視鏡3の移動速度は非常に遅い部分と早い部分に分かれるので、撮像動作1回につき常にアンテナ切替動作を1回行うとは限らず、高速撮像モードなどでは複数回の撮像動作に対してアンテナ切替動作を1回行うようにしてもよい。
なお、カプセル型内視鏡3は、患者2の体内を移動しているので、適宜の時間間隔で外部装置5から電波強度を検出した結果である検出結果信号を送り、その信号に基づいてカプセル型内視鏡3が送信する際のその出力を更新するようにしてもよい。このようにすれば、カプセル型内視鏡3が患者2の体内を移動した場合にも、適切な送信出力に設定でき、電池21のエネルギを無駄に消費すること等を防止でき、信号の送受信状態を適切な状態に維持できるようになる。
次に、前記複数の受信アンテナ11とカプセル型内視鏡3の位置関係を示す情報の取得方法について、図6を用いて説明する。なお、図6において、カプセル型内視鏡3を3次元座標X、Y、Zの原点に設定した場合を例に説明する。又、前記複数の受信アンテナ11a〜11dのうち、説明を簡単化するために、3つの受信アンテナ11a、11b、11cを用い、受信アンテナ11aと受信アンテナ11bとの間の距離をDab、受信アンテナ11bと受信アンテナ11cとの間の距離をDbc、受信アンテナ11aと受信アンテナ11cとの間の距離Dacとしている。さらに、この受信アンテナ11a〜11cとカプセル型内視鏡3の間は、所定の距離関係としている。
カプセル型内視鏡3の送信された一定の送信強度の無線信号は、各受信アンテナ11j(j=a、b、c)で受信した場合の受信強度は、カプセル型内視鏡3(カプセル型内視鏡3の送信アンテナ23)からの距離Li(i=a,b,c)の関数となる。具体的には電波減衰量が伴う距離Liに依存する。従って、カプセル型内視鏡3から送信された無線信号の受信アンテナ11jにより受信した受信強度からカプセル型内視鏡3と各受信アンテナ11jとの間の距離Liを算出する。この距離Liの算出には、前記カプセル型内視鏡3と受信アンテナ11jの間の距離による電波の減衰量などの関係データを事前に前記アンテナ選択回路46に設定する。又、その算出されたカプセル型内視鏡3と各受信アンテナ11jの位置関係を示す距離データは、前記メモリ47にカプセル型内視鏡3の位置情報として記憶させる。このメモリ47に記憶された撮像画像情報及びカプセル型内視鏡3の位置情報を基に、前記端末装置7による後述する画像情報処理方法において、内視鏡観察所見の位置設定に有用となる。
次に、本実施形態の画像処理装置における画像処理動作について説明を行う。
なお、本実施形態においては、カプセル型内視鏡3により撮像された体腔内の像の画像は、x軸方向のドット数ISX×y軸方向のドット数ISY(1≦ISX、1≦ISYを満たす値であり、例えば、ISX=300、ISY=300)、R(赤)G(緑)B(青)の3プレーンからなり、各プレーンにおける各画素は、濃度値であるRGB値として各々8bit、すなわち、0から255の値をとるものとする。また、本発明の実施形態においては、時系列的に連続して撮像されたN枚の画像(1≦N)におけるi番目の画像をIi(1≦i≦N)と示すものとする。さらに、本実施形態においては、画像Iiの各プレーンにおけるv番目の画素(1≦v≦ISX×ISY)をそれぞれriv、giv及びbivと示すものとする。
また、本実施形態の画像処理装置における画像処理動作は、前述した端末装置7の端末本体9が有する制御部9aにおける処理として行われるようになっている。
まず、制御部9aは、端末装置7において予め設定されたサンプリング値k(k=1,2,…)に基づき、カプセル型内視鏡3により時系列的に連続して撮像されたN枚の画像において、k番目毎の画像Ik、I2k、…、Ink(nkは1≦nk≦Nを満たす整数であるとする)のサンプリングを行う(図11のステップS1)。例えば、カプセル型内視鏡3が毎秒2枚の画像を撮像し、かつ、サンプリング値kが20として設定されている場合、制御部9aは、カプセル型内視鏡3により撮像されたN枚の画像において、撮像開始時間から10秒経過毎の画像を1枚ずつサンプリングする。
そして、制御部9aは、サンプリングした(N/k)枚(N/kは、端数を切り捨てた整数であるとする)の画像Inkをサンプル画像群とした後、該サンプル画像群の画像Ink各々に対し、以下に記す処理を行う。なお、前記サンプル画像群は、(N/k)枚の画像Inkに加え、1番目の画像I1を含む(n+1)枚の画像からなるものであっても良い。
制御部9aは、入力された画像Inkを構成するRnk、Gnk及びBnkの各プレーンに対し、前処理として、例えば、メディアンフィルタリングによるノイズ除去及び逆γ補正を行うと共に、ハレーション画素及び暗部画素を以降の処理対象から除外するため、閾値に基づく処理により検出しておく(図11のステップS2)。そして、前記閾値に基づく処理は、例えば、rnkv、gnkv及びbnkvの濃度値の全てが10以下の値であれば暗部画素、また、rnkv、gnkv及びbnkvの濃度値の全てが230以上の値であればハレーション画素とするような処理として行われる。
制御部9aは、入力された画像Inkを、例えば、8×8からなる複数の矩形領域に分割する(図11のステップS3)。なお、以降の説明においては、制御部9aにおいて分割された矩形領域のうち、一の領域をHp(pは1以上の整数)と示すものとする。
その後、制御部9aは、画像Inkの一の領域Hp各々における各画素のRGB値の比に基づく値である、gnkv/rnkvの平均値(以降、μgpと示す)及びbnkv/gnkvの平均値(以降、μbpと示す)からなる、画像の色度を示す2つの特徴量を算出する(図11のステップS4)。
さらに、制御部9aは、領域Hp各々において得られた特徴量μgp及びμbpを各々離散化するとともに、離散化した特徴量μgp及びμbpの発生頻度に基づく、特徴空間におけるヒストグラムを作成する(図11のステップS5)。具体的には、制御部9aは、特徴量μgp及びμbpの値を、例えば、1以上の値を全て1としつつ、各々0から1までの値をとるものとして扱うとともに、さらに、0から1までの値としての特徴量μgp及びμbpを80倍した値を整数値に丸めることにより、離散化及びヒストグラムの作成を行う。
制御部9aは、離散化した特徴量μgp及びμbp各々に対し、例えば、所定のサイズの平均値フィルタを適用することにより、ヒストグラムを平滑化する(図11のステップS6)。なお、制御部9aが以上までの処理を行うことにより作成されるヒストグラムは、例えば、図12に示されるようなものとなる。
次に、制御部9aは、サンプル画像群としての(N/k)枚の画像全てに対して前述した処理を行うことにより作成したヒストグラムにおいて、発生頻度が極大となる(μgp,μbp)の要素、すなわち、ピーク点を検出する(図11のステップS7)。具体的には、制御部9aは、作成したヒストグラムにおいて、一の要素及び該一の要素の8近傍の要素からなる9個の要素を抽出した後、抽出した該9個の要素のうち、発生頻度が最大となる要素をピーク点として検出する。
制御部9aは、作成したヒストグラムにおいて、(μgp,μbp)=(0,0)以外の各要素が、検出した各ピーク点のうち、いずれのピーク点に向かうものであるかを、gradientベクトルに基づく解析手法としての、例えば、Valley−Seeking法を用いることにより特定する(図11のステップS8)。そして、制御部9aは、同一のピーク点に向かうgradientベクトルを有する要素を同一クラスタに属する要素とする処理である、ヒストグラム内の各要素に対する教師なしクラスタリング処理を行う(図11のステップS9)。なお、制御部9aが教師なしクラスタリング処理を行うことにより作成される各クラスタは、例えば、図13に示されるようなものとなる。
なお、制御部9aは、前述した教師なしクラスタリング処理において、2つ以上のクラスタの境界が接していることを検出した場合、以降に記すような、該2つ以上のクラスタの統合または分離判定の処理をさらに行うものであってもよい。
その場合、制御部9aは、作成した各クラスタのうち、8近傍の要素を含む9個の要素において、2以上のクラスタを含む要素を抽出することにより、すなわち、2以上のクラスタの境界に属している要素を抽出することにより、該2以上のクラスタが接していると判定する(図15のステップS21)。さらに、制御部9aは、処理対象となる前記2以上のクラスタの境界に属している前記各要素のうち、発生頻度が最小となる一の要素を抽出し、該一の要素における発生頻度をμminとする(図15のステップS22)。また、制御部9aは、処理対象となる前記2以上のクラスタにおける各ピーク点のうち、発生頻度が最大となる一のピーク点を抽出し、該一のピーク点における発生頻度をμmaxとする(図15のステップS23)。
制御部9aは、μmin及びμmaxを抽出した後、μmin/μmaxの値と、閾値μthrとの比較を行う。そして、制御部9aは、μmin/μmaxの値が閾値μthrよりも大きいことを検出した場合(図15のステップS24)、処理対象となる前記2以上のクラスタを各々別クラスタと判定し、該2以上のクラスタを分離したままとする(図15のステップS25)。また、制御部9aは、μmin/μmaxの値が閾値μthr以下であることを検出した場合(図15のステップS24)、処理対象となる前記2以上のクラスタが同一クラスタに属すると判定するとともに、該2以上のクラスタを統合し、発生頻度μmaxのピーク点を新たなピーク点とする、統合後のクラスタを作成する(図15のステップS26)。なお、前述した閾値μthrは、本実施形態においては、例えば、0.1であるとする。
制御部9aは、前述した教師なしクラスタリングの処理(図11のステップS9に示す処理)を行った後、生成した各クラスタについて、該各クラスタのクラスタ情報を取得する(図11のステップS10)。なお、制御部9aが取得するクラスタ情報は、例えば、クラスタ番号、該各クラスタのピーク点となる要素、該各クラスタ各々の特徴空間における面積及び体積、及び該各クラスタにおける特徴量μgp及びμbpの平均値ベクトルといった情報である。
その後、制御部9aは、取得したクラスタ情報に基づき、例えば、図14に示すように、特徴空間における面積または体積が所定の閾値未満であるクラスタを削除する(図11のステップS11)。
さらに、制御部9aは、特徴空間に残った各クラスタにおける特徴量μgp及びμbpの平均値ベクトル及び教師データセットから作成された、例えば、線形判別関数またはベイズの定理に基づく関数等の識別器を用いることにより、特徴空間に残った各クラスタがいずれのクラスに属するかを判定する(図11のステップS12)。なお、本実施形態においては、前記クラスは、胃粘膜、絨毛、便及び泡からなる4つのクラスであるとする。また、本実施形態においては、前記教師データセットは、前記4つのクラスの教師データを構成する複数の画像であるとする。
そして、制御部9aは、特徴空間に残った各クラスタを胃粘膜、絨毛、便及び泡の4つのクラスに分類するとともに、該4つのクラスに分類不可能なクラスタを不明クラスとして分類する(図11のステップS13)。
ここで、図11のステップS12及びステップS13に示す処理の具体例を以下に詳述する。なお、制御部9aは、特徴空間に残ったクラスタ全てに対し、以下に述べる処理を各々行うものであるとする。
前述した4つのクラスの識別及び分類において、一のクラスωa(a=1、2、…、C、Cはクラス数を示す)が発生する事前確率をP(ωa)とし、特徴空間に残った各クラスタにおける特徴量μgp及びμbpから決定された特徴ベクトルをxとし、全クラスからの特徴ベクトルの発生確率に基づく確率密度関数をp()とし、一のクラスωaからの特徴ベクトルの発生確率に基づく状態依存確率密度(多変量正規確率密度)関数をp(|ωa)とすると、発生した特徴ベクトルが一のクラスωaに属する事後確率P(ωa|)を算出するための計算式は、下記数式(1)として示される。
Figure 2007175432
・・・(1)

なお、状態依存確率密度関数p(|ωa)及び確率密度関数p()は、下記数式(2)及び数式(3)として示される。
Figure 2007175432
・・・(2)
Figure 2007175432
・・・(3)

なお、上記数式(2)及び数式(3)において、dはの特徴量の個数と同数である次元数を示し、μa及びΣaはクラスωaにおける特徴ベクトルの平均ベクトル及び一のクラスωaにおける分散共分散行列を示すものとする。また、(μaは(μa)の転置行列を示し、|Σa|はΣaの行列式を示し、Σa−1はΣaの逆行列を示すものとする。さらに、説明の簡単のため、事前確率P(ωa)は、全クラスにおいて等しい値をとると仮定し、また、確率密度関数p()は、上記数式(3)により全クラス共通の関数として表されるものとする。
前述したようなベイズの定理に基づく統計的識別器と共に、分類基準として用いられる平均ベクトルμa及び分散共分散行列Σaは、一のクラスωaにおける母数を構成する要素であり、1番目の画像I1が端末装置7に入力される以前の段階において、胃粘膜、絨毛、便及び泡からなる4つのクラスの教師データを構成する複数の画像に基づき、該画像の一の領域各々において都度決定される特徴ベクトルから、クラス毎に予め算出された後、初期値として端末装置7に各々記録される。なお、このとき、制御部9aは、各クラスの教師データにおける特徴ベクトルに、画像Iiにおける各クラスの特徴ベクトルを加えるようにして母数を推定しても良い。
なお、平均ベクトルμaは、特徴ベクトルが有する2つの特徴量各々の平均値からなり、かつ、特徴ベクトルと同一の次元数を有するベクトルである。すなわち、特徴ベクトル=(μgp,μbp)として表される場合、平均ベクトルμaは、特徴ベクトルが有する2つの特徴量各々の平均値である、μ(μgp)及びμ(μbp)を用いて、μa=(μ(μgp),μ(μbp))として表されるものとする。また、分散共分散行列Σaは、一のクラスωaに属する特徴ベクトルの分布のバラツキ及び広がり具合を示す行列であり、特徴ベクトルの特徴量の個数と同数である次元数dに対し、d×d行列として表されるものとする。
制御部9aは、発生した特徴ベクトルがクラスω1に属する事後確率P(ω1|)と、発生した特徴ベクトルがクラスω2に属する事後確率P(ω2|)と、発生した特徴ベクトルがクラスω3に属する事後確率P(ω3|)と、発生した特徴ベクトルがクラスω4に属する事後確率P(ω4|)とを、ベイズの定理に基づいた上記数式(1)から数式(3)を用いて各々算出する。そして、制御部9aは、これら4つの事後確率のうち、最大の事後確率P1(ωa|)を与えるクラスωaに特徴ベクトルが属するものとして識別を行い、該識別結果に基づいて特徴ベクトルが発生した領域である一のクラスタをクラスωaに分類すると共に、最大の事後確率P1(ωa|)を与える確率密度関数p1(|ωa)の値を算出する。
そして、制御部9aは、以上までの処理において、クラスωaに分類された一のクラスタの分類結果が正確なものであるか否かを判定するため、平均値からの距離に基づく処理、すなわち、最大の事後確率P1(ωa|)を与える確率密度関数p1(|ωa)の値に対する閾値に基づく処理をさらに行う。
具体的には、まず、制御部9aは、平均ベクトルμaが有する2つの特徴量各々の平均値のうち、例えば、特徴量μgpの平均値μ(μgp)に対し、特徴量μgpの標準偏差σ(μgp)と、所定の定数としての乗算係数αとの積を加えた値を含む、閾値ベクトルxb1を決定する。なお、このような閾値ベクトルxb1は、例えば、下記数式(4)として示されるものであり、また、本実施形態においては、乗算係数αの値は1.5であるとする。

xb1=(μ(μgp)+α×σ(μgp),μbp) ・・・(4)

上記数式(4)により閾値ベクトルxb1が決定されると、制御部9aは、閾値ベクトルxb1を上記数式(1)、数式(2)及び数式(3)のとして代入し、一のクラスタが分類されたクラスωaの閾値としての、確率密度関数p(xb1|ωa)の値を算出する。
そして、制御部9aは、p1(|ωa)の値がp(xb1|ωa)の値より大きいことを検出すると、前述した処理において、一のクラスタをクラスωaに分類した分類結果が正確であると判定する。
また、制御部9aは、p1(|ωa)の値がp(xb1|ωa)の値以下であることを検出すると、前述した処理において、一のクラスタをクラスωaに分類した分類結果が不正確であると判定し、一のクラスタを不明クラスに分類する。
さらに、制御部9aは、前述したクラス分類を行った後、サンプル画像群としての(N/k)枚の画像Inkから、撮像されたタイミングに基づく所定の間隔t毎のサブセットを生成する(図11のステップS14)。例えば、撮像開始時間から10秒経過毎の画像が1枚ずつサンプリングされ(k=20と設定され)、かつ、間隔tが180として設定されている場合、制御部9aは、サンプル画像群としての(N/k)枚の画像Inkにおいて、撮像開始時間から1800秒経過毎までに含まれる画像を1組のサブセットとする。
その後、制御部9aは、各サブセットに含まれる画像Ink各々において、特徴空間において発生したクラスの種別の分布を示すクラス分布情報と、該特徴空間において発生したクラスタに含まれる特徴量μgp及びμbpの、クラス毎の分布状態を示す特徴量分布情報とを取得する(図11のステップS15)。そして、制御部9aは、前記特徴量分布情報に基づき、画像を分類する際の分類基準としての平均値ベクトル及び分散共分散行列を算出した後、該平均値ベクトル及び該分散共分散行列を用いた、サブセット毎の識別器を構成する(図11のステップS16)。さらに、制御部9aは、前述した処理により、サブセット毎に構成した識別器を用いつつ、N枚の画像各々に対する分類を行う(図11のステップS17)。このような処理を行うことにより、制御部9aは、前述した統計的識別器において、各クラスの分布を規定するための多変量正規確率密度関数の母数を、サブセット毎に最適に設定することができる。
制御部9aは、以上に述べた、図11のステップS1から図11のステップS17までに示す処理を行うことにより、カプセル型内視鏡3により撮像された画像の分類を高精度かつ高速に行うことができる。
なお、制御部9aは、取得した特徴量分布情報に基づき、一のサブセットにおいて発生しなかったクラスについては、平均値ベクトル及び分散共分散行列を算出しないものであっても良い。
また、以上に述べた、制御部9aが行う処理は、N枚の画像が撮像された後に行われるものに限るものではなく、例えば、間隔tに基づく、一のサブセットの画像が撮像された直後毎に随時行われるものであっても良い。
さらに、制御部9aは、さらに高精度な処理結果を得るために、図11のステップS15に示す処理において取得した特徴量分布情報に対し、例えば、1次元において均等な重み付けがなされた所定のサイズの平滑化フィルタを用いた処理である、平滑化処理を行うものであっても良い。そして、制御部9aは、このような平滑化処理を行うことにより、特徴量分布情報のうち、特徴量μgpまたはμbpの変動が顕著である部分、または、特徴量μgpまたはμbpの変動が極大となる部分から、撮像部位及び病変部位を特定することができる。
前述した、平滑化処理の処理結果に基づき、制御部9aが撮像部位及び病変部位を特定するための方法の一例を以降に記す。
例えば、制御部9aが図11のステップS15に示す処理において取得した特徴量分布情報に基づき、胃粘膜クラス及び絨毛クラスに分類された領域が有する特徴量μgpのサブセット毎の時間方向における変化を表した場合、該変化は図16のようなグラフとして示される。
本来、生体粘膜等の色調は、同一の撮像部位を撮像し続けた場合、時間方向における頻繁な変動を伴うものではない。そのため、時間的に近接した画像から得られる特徴量μgp(または特徴量μbp)の値は、類似した値をとると考えられる。
そして、前述したような観点に基づいて予め設定された所定のサイズのフィルタとして、例えば、サイズ20の1次元均等重み付けフィルタを用いた、図16のようなグラフとして示される特徴量μgpに対する時間方向への平滑化処理を制御部9aが行うことにより、特徴量μgpのサブセット毎の時間方向における変化は、図17のようなグラフとして示されるものになる。なお、図16及び図17に示すグラフは、特徴量μgpのサブセット毎の時間方向における変化を表したものであるが、特徴量μbpにおいても、サブセット毎の時間方向における変化を示す、略同様のグラフを描くことが可能である。
また、制御部9aは、平滑化処理を行った後においてもなお特徴量μgpまたは特徴量μbpの値が顕著に変動する時間帯が存在することを検知した場合、該時間帯において、例えば、撮像部位の変化が確認されたと判定する。あるいは、制御部9aは、平滑化処理を行った後においてもなお特徴量μgpまたは特徴量μbpの値が顕著に変動する時間帯が存在することを検知した場合、該時間帯において、例えば、便、胆汁の泡または病変部位等の存在が確認されたと判定する。
例えば、カプセル型内視鏡3が胃から小腸(十二指腸)へ移動する際には、胆汁等の消化液が分泌されることにより、黄色がかった被写体の像が撮像される。そのため、制御部9aは、胃粘膜クラス及び絨毛クラスにおける特徴量μbpの値が顕著な減少を示す時間帯の存在を検知した場合、該時間帯において、カプセル型内視鏡3の撮像部位が胃から小腸へ変化したということを特定することができる。
また、例えば、カプセル型内視鏡3が、病変部位の1つとしての出血部位を通過する際には、該出血部位における血液の存在により、赤色がかった被写体の像が撮像される。そのため、制御部9aは、同一クラスにおいて特徴量μgpの値が顕著な減少を示す時間帯の存在を検知した場合、該時間帯において、カプセル型内視鏡3が病変部位を撮像したということを特定することができる。
そして、制御部9aは、以上に述べた、図11のステップS1から図11のステップS17までに示す一連の処理に加え、さらに、以降に記す処理を行うものであっても良い。なお、以降に記す処理において、制御部9aが取得するクラス分布情報には、胃粘膜、絨毛、便、泡及び不明の、5つのクラスの情報が含まれているものであるとする。また、前述したクラス分布情報は、前述した5つのクラスの情報を含むものに限るものではなく、例えば、胃粘膜及び絨毛クラスが生体粘膜クラスとして同一のクラスとして扱われるとともに、便、泡及び不明クラスが非生体粘膜クラスとして同一のクラスとして扱われるような情報を含むものであっても良いし、白色調の生体粘膜と黄色調の生体粘膜とが同一のクラスとして扱われている情報を含むものであっても良い。
制御部9aは、前述した、図11のステップS17の処理を行った後、入力されたi番目の画像Iiを、例えば、8×8の複数の矩形領域に分割する(図18のステップS31)。
ここで、前述した、図11のステップS17までの処理において生成したs番目(sは整数であるとする)のサブセットが有する最初の画像及び最後の画像を、それぞれIs1及びIs2(s1及びs2は、1≦s1<s2≦Nを満たす整数であるとする)とした場合、制御部9aは、前述した処理において生成した各サブセットのうち、s1≦i<s2またはi=s2を満たす所定のサブセットにおけるクラス分布情報及び特徴量分布情報を取得する(図18のステップS32)。
その後、制御部9aは、s1≦i<s2またはi=s2を満たす所定のサブセットにおけるクラス分布情報及び特徴量分布情報に基づき、画像Iiが有する各矩形領域が、胃粘膜、絨毛、便、泡及び不明からなる5つのクラスのうち、どのクラスに属するかを識別し、該識別結果に基づく分類を行う(図18のステップS33)。なお、制御部9aは、前述した、図11のステップS17までの処理において発生していないクラスについて、教師データにより予め推定された特徴量分布情報を用いた識別及び分類を行うものであっても良い。
さらに、制御部9aは、図18のステップS33における分類結果に基づき、画像Iiの各矩形領域のうち、胃粘膜または絨毛として分類された領域、すなわち、生体粘膜が撮像された領域が存在するか否かを判定する。そして、制御部9aは、画像Iiの各矩形領域のうち、生体粘膜が撮像された領域が存在する場合(図18のステップS34)、画像Iiにおいて生体粘膜が撮像されていると判定された全領域における全特徴量に基づく値と、画像Iiにおいて生体粘膜が撮像されていると判定された一の領域が有する特徴量μgp及びμbpの値との比較により病変箇所を検出するための処理、すなわち、病変検出処理として、例えば、出血または発赤を検出する処理を行う(図18のステップS35)。
具体的には、制御部9aは、例えば、画像Iiにおいて生体粘膜が撮像されていると判定された一の領域が有する特徴量μgp及びμbpの値と、画像Iiにおいて生体粘膜が撮像されていると判定された全領域に含まれる各画素のRGB値の比に基づく値としての、giv/rivの平均値(以降、μgiと記す)及びbiv/givの平均値(以降、μbiと記す)とに基づき、μgpとμgiとの比較及びμbpとμbiとの比較を行うことにより、画像Iiにおいて生体粘膜が撮像された領域のうち、出血または発赤が撮像された領域を検出する。このような処理を行うことにより、制御部9aは、クラス分類を伴う領域分割結果において、生体粘膜が撮像されていると判定された全領域の平均色度に対し、出血または発赤調の変化を呈するとされる色度を有する一の領域を、出血領域または発赤領域として正確に検出することができる。なお、制御部9aは、画像Iiにおいて不明クラスに分類された一の領域が有する特徴量とμgi及びμbiとの比較結果に基づく処理をさらに行うことにより、画像Iiにおいて生体粘膜が撮像された領域に加え、画像Iiにおいて不明クラスに分類された領域に対しても出血または発赤が撮像された領域を検出可能とするものであっても良い。
制御部9aは、入力されたN枚の画像全てに対し、前述した処理が完了していない場合(図18のステップS36)、画像番号iに1を加え(図18のステップS37)、次の画像について、図18のステップS31からステップS36までに示す処理を引き続き行う。
なお、制御部9aは、胃粘膜または絨毛として分類された領域に加え、胆汁等により黄色調になった絨毛もまた生体粘膜が撮像された領域であるとして判定するものであっても良い。
また、以上に述べた画像処理方法は、カプセル型内視鏡により撮像された画像に対してのみ適用されるものに限らず、例えば、生体内に挿入可能であるとともに、撮像機能を有する挿入部を具備して構成される内視鏡により撮像された画像に対して適用されるものであっても良い。
以上に述べたように、本実施形態における画像処理方法によれば、画像を撮像対象毎に高精度かつ高速に分類することができ、さらに、前記分類結果に基づいて撮像された臓器を特定することができ、その結果、ユーザによる観察の効率化をはかることができる。
また、本実施形態によれば、生体粘膜が撮像された領域として分類された各々の領域に対し、さらに、前述した病変検出処理を用いることにより、病変部位の検出精度を高めることができる。
また、本発明の第1の実施形態及び第2の実施形態において、制御部9aは、一の画像Iiを大きさ8×8からなる複数の矩形領域に分割して一連の処理を行うとして説明を行っているが、これに限るものではなく、例えば、1×1、すなわち画素毎に分割して処理を行うものであってもよいし、また、他の大きさの矩形領域に分割して処理を行うものであってもよい。
さらに、本発明の第1の実施形態及び第2の実施形態において、制御部9aは、一の画像Iiを大きさ8×8からなる複数の矩形領域に分割して一連の処理を行うとして説明を行っているが、これに限るものではなく、例えば、エッジ情報等に応じた、一の画像Iiにおける分類結果に基づく領域に分割して処理を行うものであってもよいし、また、他の形状を有する領域に分割して処理を行うものであってもよい。
なお、本発明は、上述した実施形態に限定されるものではなく、発明の趣旨を逸脱しない範囲内において種々の変更や応用が可能であることは勿論である。
本発明の第1の実施形態である画像処理動作が行われる画像処理装置および周辺機器の外観を示した外観正面図。 本実施形態の画像処理装置において処理する所定の画像情報を生成するカプセル型内視鏡の一部を切り取って示した要部拡大断面図。 本実施形態の画像処理装置に所定の画像情報を供給するカプセル型内視鏡装置の概略内部構成を示すブロック図。 本実施形態の画像処理装置に所定の画像情報を供給するカプセル型内視鏡装置の一使用例を示した図。 図2に示すカプセル型内視鏡から出力される信号の一例を示したタイミングチャート。 図2に示すカプセル型内視鏡の位置検出を説明する説明図。 図3に示すカプセル型内視鏡装置を使用した際におけるアンテナユニットを示した要部拡大断面図。 図3に示すカプセル型内視鏡装置を使用した際におけるシールドジャケットを説明する説明図。 図3に示すカプセル型内視鏡装置の外部装置の被検体への装着状態を説明する説明図。 図2に示すカプセル型内視鏡の電気的な構成を示すブロック図。 本実施形態に係る画像処理動作を示すフローチャート。 制御部が行う処理により作成される、特徴空間におけるヒストグラムの一例を示す図。 制御部が行う処理により作成される、特徴空間におけるクラスタの一例を示す図。 図13に示すクラスタのうち、特徴空間における面積または体積が所定の閾値未満であるクラスタが削除される様子を示す図。 制御部が行う処理である、境界が接している2つ以上のクラスタの統合または分離判定の処理の一例を示すフローチャート。 胃粘膜クラス及び絨毛クラスに分類された領域が有する特徴量μgpの、サブセット毎の時間方向における変化を示すグラフ。 図16のグラフに示される特徴量μgpにおいて、時間方向への平滑化処理を行った場合のグラフ。 制御部が行う処理である、病変検出処理の一例を示すフローチャート。
符号の説明
1・・・カプセル型内視鏡装置、2・・・患者、3・・・カプセル型内視鏡、3D・・・カプセル本体、4・・・アンテナユニット、5・・・外部装置、5D・・・本体部、6・・・クレードル、7・・・端末装置、8a・・・キーボード、8b・・・マウス、8c・・・ディスプレイ、9・・・端末本体、9a・・・制御部、10・・・ジャケット、11,11a,11b,11c,11d・・・受信アンテナ、12・・・液晶モニタ、13・・・操作部、14・・・外装部材、14a・・・カバー部材、15・・・対物レンズ、16・・・レンズ枠、17・・・電荷結合素子、17A・・・CCDドライバ、18・・・LED、18A・・・LEDドライバ、19,19A・・・処理回路、19B・・・タイミングジェネレータ、19C,19D,19E・・・スイッチ、20・・・通信処理回路、21・・・電池、23・・・送信アンテナ、 33・・・受信回路、35・・・信号処理回路、37・・・送信器、43・・・撮像装置、45・・・アンテナ切換スイッチ、46・・・アンテナ選択回路、47・・・メモリ、72・・・シールドジャケット、73・・・ベルト、74・・・鍵穴、 75・・・鍵

Claims (22)

  1. 撮像機能を有する医療機器により撮像された複数の画像に基づく画像信号を入力する画像信号入力手段と、
    前記画像信号入力手段において入力した画像信号に基づき、前記複数の画像を各々複数の領域に分割する画像分割手段と、
    前記画像分割手段により分割された前記複数の領域各々における特徴量を算出する特徴量算出手段と、
    前記特徴量及び前記特徴量の発生頻度に基づき、特徴空間において複数のクラスタを生成するとともに、該複数のクラスタを複数のクラスのいずれかに各々分類するクラスタ分類手段と、
    前記複数の画像を用い、前記複数の画像が各々撮像されたタイミングに基づく複数のサブセットを生成するサブセット生成手段と、
    前記サブセット生成手段により生成された一のサブセットに含まれる画像各々の、前記特徴空間における前記特徴量の分布状態に基づき、前記一のサブセットに含まれる画像を、前記複数のクラスのいずれかに各々分類する際の分類基準を算出する分類基準算出手段と、
    を具備することを特徴とする画像処理装置。
  2. さらに、前記分類基準算出手段は、前記複数のクラスのうち、一のサブセットにおいて前記特徴量が発生しないクラスについては、前記分類基準を算出しないことを特徴とする請求項1に記載の画像処理装置。
  3. 前記複数のクラスは、生体粘膜に関するクラスと、非生体粘膜に関するクラスとを少なくとも有することを特徴とする請求項1または請求項2に記載の画像処理装置。
  4. さらに、前記分類基準に基づき、前記一のサブセットに含まれる一の画像における各領域の分類を行う分類手段と、
    前記一の画像の分類結果に基づき、前記一の画像が前記生体粘膜に関するクラスとして分類された領域を有している場合、該領域各々に対し、病変箇所を検出するための処理を行う病変検出手段と、
    を有することを特徴とする請求項3に記載の画像処理装置。
  5. 撮像機能を有する医療機器により撮像された画像に基づいて入力される画像信号に基づき、前記画像を各々複数の領域に分割する画像分割ステップと、
    前記画像分割ステップにより分割された前記複数の領域各々における特徴量を算出する特徴量算出ステップと、
    前記特徴量及び前記特徴量の発生頻度に基づき、特徴空間において複数のクラスタを生成するとともに、該複数のクラスタを複数のクラスのいずれかに各々分類するクラスタ分類ステップと、
    前記複数の画像を用い、前記複数の画像が各々撮像されたタイミングに基づく複数のサブセットを生成するサブセット生成ステップと、
    前記サブセット生成ステップにより生成された一のサブセットに含まれる画像各々の、前記特徴空間における前記特徴量の分布状態に基づき、前記一のサブセットに含まれる画像を各々分類する際の分類基準を算出する分類基準算出ステップと、
    を具備することを特徴とする画像処理装置における画像処理方法。
  6. さらに、前記分類基準算出ステップは、前記複数のクラスのうち、一のサブセットにおいて前記特徴量が発生しないクラスについては、前記分類基準を算出しないことを特徴とする請求項5に記載の画像処理装置における画像処理方法。
  7. 前記複数のクラスは、生体粘膜に関するクラスと、非生体粘膜に関するクラスとを少なくとも有することを特徴とする請求項5または請求項6に記載の画像処理装置における画像処理方法。
  8. さらに、前記分類基準に基づき、前記一のサブセットに含まれる一の画像における各領域の分類を行う分類ステップと、
    前記一の画像の分類結果に基づき、前記一の画像が前記生体粘膜に関するクラスとして分類された領域を有している場合、該領域各々に対し、病変箇所を検出するための処理を行う病変検出ステップと、
    を有することを特徴とする請求項7に記載の画像処理装置における画像処理方法。
  9. 撮像機能を有する医療機器により時系列的に撮像された複数の画像に基づく画像信号を入力する画像信号入力手段と、
    前記画像信号入力手段において入力した画像信号に基づき、前記複数の画像を各々複数の領域に分割する画像分割手段と、
    前記画像分割手段により分割された前記複数の領域各々における特徴量を算出する特徴量算出手段と、
    前記特徴量に基づき、前記複数の領域各々を複数のクラスのいずれかに各々分類する画像領域分類手段と、
    前記複数の画像各々において、少なくとも一のクラスの特徴量の代表値を算出する代表値算出手段と、
    前記代表値の変動が極大となる画像または時間のいずれかを検出する変動検出手段と、
    を具備することを特徴とする画像処理装置。
  10. さらに、前記代表値各々に対して時系列方向の平滑化を適用する平滑化手段を有し、
    前記変動検出手段は、前記平滑化手段により平滑化された後の前記代表値に基づき、前記代表値の変動が極大となる画像または時間のいずれかを検出することを特徴とする請求項9に記載の画像処理装置。
  11. 前記代表値の変動は、生体内における観察部位の変化に基づいて生じるものであることを特徴とする請求項9または請求項10に記載の画像処理装置。
  12. 前記代表値の変動は、生体内における便の存在に基づいて生じるものであることを特徴とする請求項9または請求項10に記載の画像処理装置。
  13. 前記代表値の変動は、生体内における胆汁の存在に基づいて生じるものであることを特徴とする請求項9または請求項10に記載の画像処理装置。
  14. 前記代表値の変動は、生体内における病変部位の存在に基づいて生じるものであることを特徴とする請求項9または請求項10に記載の画像処理装置。
  15. 前記代表値は、前記複数のクラス各々における特徴量の平均値であることを特徴とする請求項9乃至請求項14のいずれか一に記載の画像処理装置。
  16. 撮像機能を有する医療機器により撮像された画像に基づいて入力される画像信号に基づき、前記画像を各々複数の領域に分割する画像分割ステップと、
    前記画像分割ステップにより分割された前記複数の領域各々における特徴量を算出する特徴量算出ステップと、
    前記特徴量に基づき、前記複数の領域各々を複数のクラスのいずれかに各々分類する画像領域分類ステップと、
    前記複数の画像各々において、少なくとも一のクラスの特徴量の代表値を算出する代表値算出ステップと、
    前記代表値の変動が極大となる画像または時間のいずれかを検出する変動検出ステップと、
    を具備することを特徴とする画像処理装置における画像処理方法。
  17. さらに、前記代表値各々に対して時系列方向の平滑化を適用する平滑化ステップを有し、
    前記平滑化ステップにより平滑化された後の前記代表値に基づき、前記代表値の変動が極大となる画像または時間のいずれかを検出する処理を前記変動検出ステップにおいて行うことを特徴とする請求項16に記載の画像処理装置における画像処理方法。
  18. 前記代表値の変動は、生体内における観察部位の変化に基づいて生じるものであることを特徴とする請求項16または請求項17に記載の画像処理装置における画像処理方法。
  19. 前記代表値の変動は、生体内における便の存在に基づいて生じるものであることを特徴とする請求項16または請求項17に記載の画像処理装置における画像処理方法。
  20. 前記代表値の変動は、生体内における胆汁の存在に基づいて生じるものであることを特徴とする請求項16または請求項17に記載の画像処理装置における画像処理方法。
  21. 前記代表値の変動は、生体内における病変部位の存在に基づいて生じるものであることを特徴とする請求項16または請求項17に記載の画像処理装置における画像処理方法。
  22. 前記代表値は、前記複数のクラス各々における特徴量の平均値であることを特徴とする請求項16乃至請求項21のいずれか一に記載の画像処理装置における画像処理方法。
JP2005380210A 2005-12-28 2005-12-28 画像処理装置および当該画像処理装置における画像処理方法 Expired - Fee Related JP4472631B2 (ja)

Priority Applications (12)

Application Number Priority Date Filing Date Title
JP2005380210A JP4472631B2 (ja) 2005-12-28 2005-12-28 画像処理装置および当該画像処理装置における画像処理方法
EP06823274A EP1969992B1 (en) 2005-12-28 2006-11-09 Image processing device and image processing method in the image processing device
CN201010511970XA CN101947113B (zh) 2005-12-28 2006-11-09 图像处理装置和该图像处理装置中的图像处理方法
EP11008472.0A EP2412301B1 (en) 2005-12-28 2006-11-09 Image processing device and image processing method in image processing device
CN200680049583.0A CN101351149B (zh) 2005-12-28 2006-11-09 图像处理装置和该图像处理装置中的图像处理方法
EP11008465.4A EP2412300B1 (en) 2005-12-28 2006-11-09 Image processing device and image processing method in image processing device
PCT/JP2006/322387 WO2007077672A1 (ja) 2005-12-28 2006-11-09 画像処理装置および当該画像処理装置における画像処理方法
CN2010105119860A CN101947114B (zh) 2005-12-28 2006-11-09 图像处理装置和该图像处理装置中的图像处理方法
US11/638,821 US20070165932A1 (en) 2005-12-28 2006-12-14 Image processing device and image processing method in image processing device
US13/166,938 US8363962B2 (en) 2005-12-28 2011-06-23 Image processing device and image processing method in image processing device for identifying features in an image
US13/168,510 US8300955B2 (en) 2005-12-28 2011-06-24 Image processing device and image processing method in image processing device for identifying features in an image
US13/168,483 US8369626B2 (en) 2005-12-28 2011-06-24 Image processing device and image processing method in image processing device for identifying features in an image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005380210A JP4472631B2 (ja) 2005-12-28 2005-12-28 画像処理装置および当該画像処理装置における画像処理方法

Publications (2)

Publication Number Publication Date
JP2007175432A true JP2007175432A (ja) 2007-07-12
JP4472631B2 JP4472631B2 (ja) 2010-06-02

Family

ID=38301181

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005380210A Expired - Fee Related JP4472631B2 (ja) 2005-12-28 2005-12-28 画像処理装置および当該画像処理装置における画像処理方法

Country Status (2)

Country Link
JP (1) JP4472631B2 (ja)
CN (1) CN101351149B (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009077800A (ja) * 2007-09-25 2009-04-16 Olympus Corp 画像処理装置および画像処理プログラム
WO2009087821A1 (ja) 2008-01-08 2009-07-16 Olympus Corporation 画像処理装置および画像処理プログラム
WO2009148092A1 (ja) 2008-06-05 2009-12-10 オリンパス株式会社 画像処理装置、画像処理プログラムおよび画像処理方法
WO2011129176A1 (ja) 2010-04-12 2011-10-20 オリンパスメディカルシステムズ株式会社 医用画像処理装置及び医用画像処理方法
CN106102554A (zh) * 2014-03-14 2016-11-09 奥林巴斯株式会社 图像处理装置、图像处理方法以及图像处理程序
JP2019117466A (ja) * 2017-12-26 2019-07-18 日本電信電話株式会社 画像異常判定装置、画像異常判定方法及びコンピュータプログラム
US10360474B2 (en) 2014-06-24 2019-07-23 Olympus Corporation Image processing device, endoscope system, and image processing method
EP3539455A1 (fr) * 2018-03-14 2019-09-18 Sorbonne Université Procédé pour déterminer automatiquement la qualité de visualisation des images en vidéocapsule endoscopique
CN116977253A (zh) * 2022-12-29 2023-10-31 开立生物医疗科技(武汉)有限公司 用于内窥镜的清洁度检测方法及装置、电子设备和介质

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8583647B2 (en) 2010-01-29 2013-11-12 Panasonic Corporation Data processing device for automatically classifying a plurality of images into predetermined categories
JP5828649B2 (ja) * 2011-03-09 2015-12-09 キヤノン株式会社 画像処理装置、画像処理方法、及びコンピュータプログラム
JP5784751B2 (ja) * 2011-12-08 2015-09-24 オリンパス株式会社 画像処理装置、画像処理装置の作動方法、及び画像処理プログラム
JP6150583B2 (ja) * 2013-03-27 2017-06-21 オリンパス株式会社 画像処理装置、内視鏡装置、プログラム及び画像処理装置の作動方法
WO2018003503A1 (ja) * 2016-06-28 2018-01-04 ソニー株式会社 画像処理装置および画像処理方法、並びに医療用撮像システム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL108352A (en) * 1994-01-17 2000-02-29 Given Imaging Ltd In vivo video camera system
US6826424B1 (en) * 2000-12-19 2004-11-30 Haishan Zeng Methods and apparatus for fluorescence and reflectance imaging and spectroscopy and for contemporaneous measurements of electromagnetic radiation with multiple measuring devices

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009077800A (ja) * 2007-09-25 2009-04-16 Olympus Corp 画像処理装置および画像処理プログラム
WO2009087821A1 (ja) 2008-01-08 2009-07-16 Olympus Corporation 画像処理装置および画像処理プログラム
US8724847B2 (en) 2008-01-08 2014-05-13 Olympus Corporation Image processing apparatus and program storage medium
US8396271B2 (en) 2008-06-05 2013-03-12 Olympus Corporation Image processing apparatus, image processing program recording medium, and image processing method
WO2009148092A1 (ja) 2008-06-05 2009-12-10 オリンパス株式会社 画像処理装置、画像処理プログラムおよび画像処理方法
JP2009291415A (ja) * 2008-06-05 2009-12-17 Olympus Corp 画像処理装置、画像処理プログラムおよび画像処理方法
WO2011129176A1 (ja) 2010-04-12 2011-10-20 オリンパスメディカルシステムズ株式会社 医用画像処理装置及び医用画像処理方法
EP2502546A4 (en) * 2010-04-12 2012-10-31 Olympus Medical Systems Corp MEDICAL IMAGE PROCESSING APPARATUS AND MEDICAL IMAGE PROCESSING METHOD
EP2502546A1 (en) * 2010-04-12 2012-09-26 Olympus Medical Systems Corp. Medical image processing apparatus and medical image processing method
CN106102554A (zh) * 2014-03-14 2016-11-09 奥林巴斯株式会社 图像处理装置、图像处理方法以及图像处理程序
US10360474B2 (en) 2014-06-24 2019-07-23 Olympus Corporation Image processing device, endoscope system, and image processing method
JP2019117466A (ja) * 2017-12-26 2019-07-18 日本電信電話株式会社 画像異常判定装置、画像異常判定方法及びコンピュータプログラム
EP3539455A1 (fr) * 2018-03-14 2019-09-18 Sorbonne Université Procédé pour déterminer automatiquement la qualité de visualisation des images en vidéocapsule endoscopique
WO2019175248A1 (fr) * 2018-03-14 2019-09-19 Sorbonne Universite Dispositif et procédé de réalisation d'un classifieur numérique d'images, afin de déterminer la qualité de visualisation des images de vidéocapsule endoscopique d'un segment du tube digestif
US10980404B2 (en) 2018-03-14 2021-04-20 Assistance Publique-Hopitaux De Paris Device and method for producing a numerical classifier of images, so as to determine the viewing quality of the endoscopic videocapsule images of a segment of the digestive tube
CN116977253A (zh) * 2022-12-29 2023-10-31 开立生物医疗科技(武汉)有限公司 用于内窥镜的清洁度检测方法及装置、电子设备和介质
CN116977253B (zh) * 2022-12-29 2024-03-19 开立生物医疗科技(武汉)有限公司 用于内窥镜的清洁度检测方法及装置、电子设备和介质

Also Published As

Publication number Publication date
CN101351149B (zh) 2011-02-02
JP4472631B2 (ja) 2010-06-02
CN101351149A (zh) 2009-01-21

Similar Documents

Publication Publication Date Title
JP4472631B2 (ja) 画像処理装置および当該画像処理装置における画像処理方法
JP4624841B2 (ja) 画像処理装置および当該画像処理装置における画像処理方法
US8363962B2 (en) Image processing device and image processing method in image processing device for identifying features in an image
JP4912787B2 (ja) 医療用画像処理装置及び医療用画像処理装置の作動方法
JP4615963B2 (ja) カプセル型内視鏡装置
JP4520405B2 (ja) 画像処理装置および当該画像処理装置における画像処理方法
US7953261B2 (en) Image processing apparatus and image processing method
JP4624842B2 (ja) 画像処理方法、画像処理装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100209

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100303

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130312

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4472631

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130312

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140312

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees