JP2011024727A - 画像処理装置、画像処理プログラムおよび画像処理方法 - Google Patents

画像処理装置、画像処理プログラムおよび画像処理方法 Download PDF

Info

Publication number
JP2011024727A
JP2011024727A JP2009172435A JP2009172435A JP2011024727A JP 2011024727 A JP2011024727 A JP 2011024727A JP 2009172435 A JP2009172435 A JP 2009172435A JP 2009172435 A JP2009172435 A JP 2009172435A JP 2011024727 A JP2011024727 A JP 2011024727A
Authority
JP
Japan
Prior art keywords
region
group
feature
unit
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009172435A
Other languages
English (en)
Other versions
JP5220705B2 (ja
Inventor
Masashi Hirota
昌士 弘田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2009172435A priority Critical patent/JP5220705B2/ja
Priority to CN201080028989.7A priority patent/CN102469925B/zh
Priority to PCT/JP2010/061977 priority patent/WO2011010598A1/ja
Priority to EP10802218.7A priority patent/EP2457494A4/en
Publication of JP2011024727A publication Critical patent/JP2011024727A/ja
Priority to US13/351,342 priority patent/US9186051B2/en
Application granted granted Critical
Publication of JP5220705B2 publication Critical patent/JP5220705B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/041Capsule endoscopes for imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30092Stomach; Gastric

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Radiology & Medical Imaging (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Quality & Reliability (AREA)
  • Endoscopes (AREA)
  • Processing Or Creating Images (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

【課題】時系列に沿って撮像された時系列画像群の観察者による観察の負担を軽減することができること。
【解決手段】本発明のある実施の形態にかかる画像処理装置2において、注目領域検出部11は、時系列順の体内画像群内の注目領域を検出する。特徴量算出部12は、前記注目領域の特徴を示す特徴量を算出する。領域分類部13は、前記注目領域の特徴量と、前記注目領域を含む時系列画像の時系列位置とに基づいて前記注目領域をいずれかの領域グループに分類する。グループ特徴量算出部14は、前記領域グループ毎の特徴を示すグループ特徴量を算出する。領域選出部15は、前記グループ特徴量をもとに前記領域グループの代表領域を選出する。代表画像出力部16は、前記時系列画像群のうちの前記代表領域を含む代表画像を出力する。
【選択図】図1

Description

本発明は、画像処理装置、画像処理プログラムおよび画像処理方法に関し、特に、被検体の管腔内等を時系列に沿って撮像した時系列画像群の中から注目すべき代表画像群を選出して出力する画像処理装置、画像処理プログラムおよび画像処理方法に関するものである。
従来から、被写体の画像を撮像するデジタルカメラまたはデジタルビデオカメラ等の各種態様の電子撮像装置が登場している。電子撮像装置は、時系列に沿って被写体の画像を連続的に撮像可能であり、時系列に沿って連続的に撮像された被写体の画像群(以下、時系列画像群という)は、液晶ディスプレイ等の表示装置に表示することによって順次観察可能である。
特に、近年の医療分野においては、患者等の被検体の体内画像を時系列に沿って順次撮像可能なカプセル内視鏡が提案されている。カプセル内視鏡は、被検体に嚥下させることが可能な小型のカプセル型筐体の内部に撮像機能および無線通信機能等を備えた医療機器である。カプセル内視鏡は、被検体の口から飲み込まれた後、蠕動運動等によって消化管内部を移動しつつ、所定の撮像レートで消化管内の画像(以下、体内画像という)を時系列に沿って順次撮像し、得られた体内画像を被検体外部の受信装置に順次無線送信する。被検体内部のカプセル内視鏡は、体内画像群を受信装置に送信後、最終的に被検体外部に排出される。なお、カプセル内視鏡によって撮像された体内画像群は、時系列画像群の一例である。
ここで、カプセル内視鏡によって撮像された体内画像群の画像枚数は、一般に、数万枚以上の膨大なものになる。例えば、カプセル内視鏡は、被検体に経口摂取されてから便等とともに体外に排出されるまでの体内滞在期間(約8〜10時間)、2〜4フレーム/秒の撮像レートで体内画像を時系列順に撮像し続ける。このため、医師または看護師等の観察者は、カプセル内視鏡による被検体の体内画像群を表示装置に表示させて観察するために多大な時間および労力を要し、この結果、体内画像群の観察を通して行われる被検体の体内検査に多大な負担を強いられていた。
上述した問題に対し、例えば、特許文献1に開示された従来技術では、体内画像が有する色調情報に基づいて算出した特徴量と予め設定した基準特徴量とを比較し、この基準特徴量より逸脱する特徴量を有する体内画像を、病変領域を含む体内画像として検出し、この体内画像を出力することによって画像枚数を削減して観察者の負担を軽減している。あるいは、特許文献2に開示された従来技術では、入力された複数の画像を画像の類似度によって分類し、分類された画像から代表画像を選択して要約された画像を出力し、これによって観察する画像枚数を削減して観察者の負担を軽減している。
特開2005−192880号公報 特開2005−236993号公報
しかしながら、上述した特許文献1に開示された従来技術では、上述したように基準特徴量より逸脱する特徴量を有する体内画像は、病変領域を含む体内画像として判定されるため、同一病変領域を繰り返し撮像した複数の体内画像がある場合、これら複数の体内画像の各々は、観察対象の体内画像として出力されてしまう。この結果、観察者は、同一の病変領域が撮像された複数の体内画像を繰り返し観察しなければならず、体内画像群全体の観察時間が長くなる場合が生じ、観察者の負担を十分に軽減しきれないという問題がある。なお、このような問題は、例えば、被検体内部に導入されたカプセル内視鏡が消化管内において停滞し、この停滞状態のカプセル内視鏡が消化管内の同一部位に存在する同一病変領域を含む体内画像を時系列に沿って繰り返し撮像した場合に、起こり得る。
また、上述した特許文献2に開示された従来技術では、入力された複数の画像を画像間の類似度によって分類しているので、病変領域等の観察者が注目すべき注目領域が撮像された画像であるか否かに関わらず、画像間の類似度の高い複数の画像の中から選択された代表画像群を出力する。例えば、被検体内部のカプセル内視鏡によって撮像された体内画像群内の各体内画像の類似度は、病変領域の有無のみならず、消化管の蠕動運動またはカプセル内視鏡の移動等による被写体の変動に大きく影響される。このため、特許文献2のものでは、病変領域等の体内の注目領域を含む画像を出力対象の代表画像群に確実に含めることは困難な場合が多く、病変領域を含まない体内画像等の観察の必要性が低い画像が代表画像として出力される可能性がある。この結果、観察者は、観察の必要性が低い画像の観察に無駄な時間を費やすことになり、この場合も体内画像群の観察時間が長くなる場合が生じ、観察者の負担を十分に軽減しきれないという問題がある。
本発明は、上記事情に鑑みてなされたものであって、時系列に沿って撮像された時系列画像群の観察者による観察の負担を軽減することができる画像処理装置、画像処理プログラムおよび画像処理方法を提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明のある態様にかかる画像処理装置は、時系列に沿って撮像された時系列画像群に含まれる注目領域を検出する注目領域検出部と、前記注目領域の特徴を示す特徴量を算出する算出処理部と、前記注目領域の特徴量と、前記注目領域を含む時系列画像の時系列位置とに基づいて、前記注目領域をいずれかの領域グループに分類する領域分類部と、前記領域グループ毎の特徴を示すグループ特徴量を算出するグループ特徴量算出部と、前記グループ特徴量をもとに、前記領域グループの中から前記領域グループに属する前記注目領域を代表する1以上の代表領域を選出する領域選出部と、前記時系列画像群のうちの前記代表領域を含む1以上の代表画像を出力する代表画像出力部と、を備えるものである。
なお、時系列画像の時系列位置とは、時系列画像群内の各時系列画像の時系列上の位置であって、各時系列画像が撮像されたタイミングに関する情報を示す。このタイミングに関する情報とは、時系列に沿って撮像された時系列画像群を構成する時系列画像のうち先頭の時系列画像から経過した時間情報(秒、分、時間等)でもよいし、撮像された時刻そのもの(何時何分何秒)の情報であってもよい。いずれの情報の場合であっても、時系列に沿って撮像された各時系列画像は、これらの情報をもとに時系列上に配置できる。また、注目領域とは、観察者にとって観察の必要性が高い注目すべき領域をいい、時系列に沿って撮像された時系列画像群が、例えば、体内を写した体内画像群であれば、その注目領域の例として、粘膜領域や病変領域が挙げられる。一方で、観察者にとって観察の必要性の低い領域は非注目領域に相当し、時系列に沿って撮像された時系列画像群が、例えば、体内を写した体内画像群であれば、その非注目領域の例として、泡や便などの領域が挙げられる。
この態様に係る画像処理装置によれば、注目領域の特徴量と、注目領域を含む時系列画像の時系列位置とに基づいて、注目領域をいずれかの領域グループに分類し、その分類された領域グループに属する注目領域の中から代表となる代表領域を選出して、その代表領域を含む代表画像を出力する。
このように、注目領域の特徴量と、注目領域を含む時系列画像の時系列位置とを考慮した分類により、例えば、特徴量が互いに似通って、かつ時間的にも近い注目領域どうし(例えば、所定の時間内に検出された同一の病変領域どうし)を一つの領域グループにまとめることができる。そして、その領域グループ内の、例えば、互いに似通った注目領域の中から選出した代表領域を含む代表画像を出力することで、互いに似通った注目領域を含む画像が何回も繰り返し出力されるという無駄を排除できる。その結果、観察者による観察の負担を軽減できる。
さらに、この態様に係る画像処理装置は、出力対象である代表画像の代表領域を、少なくとも観察の必要性の高い注目領域の中から選出するため、観察の必要性の低い非注目領域を含む画像が代表画像となる可能性を排除でき、その結果、非注目領域を含む画像を出力対象から外すことができる。その結果、観察の必要性の低い非注目領域を含む画像を観察するという無駄を排除でき、観察者による観察の負担を軽減できる。
また、本発明の別の態様にかかる画像処理プログラムは、時系列に沿って撮像された時系列画像群に含まれる注目領域を検出する注目領域検出手順と、前記注目領域の特徴を示す特徴量を算出する算出処理手順と、前記注目領域の特徴量と、前記注目領域を含む時系列画像の時系列位置とに基づいて、前記注目領域をいずれかの領域グループに分類する領域分類手順と、前記領域グループ毎の特徴を示すグループ特徴量を算出するグループ特徴量算出手順と、前記グループ特徴量をもとに、前記領域グループの中から前記領域グループに属する前記注目領域を代表する1以上の代表領域を選出する領域選出手順と、前記時系列画像群のうちの前記代表領域を含む1以上の代表画像を出力する代表画像出力手順と、をコンピュータに実行させるものである。
また、本発明の別の態様にかかる画像処理方法は、時系列に沿って撮像された時系列画像群に含まれる注目領域を検出する注目領域検出ステップと、前記注目領域の特徴を示す特徴量を算出する算出処理ステップと、前記注目領域の特徴量と、前記注目領域を含む時系列画像の時系列位置とに基づいて前記注目領域をいずれかの領域グループに分類する領域分類ステップと、前記領域グループ毎の特徴を示すグループ特徴量を算出するグループ特徴量算出ステップと、前記グループ特徴量をもとに、前記領域グループの中から前記領域グループに属する前記注目領域を代表する1以上の代表領域を選出する領域選出ステップと、前記時系列画像群のうちの前記代表領域を含む1以上の代表画像を出力する代表画像出力ステップと、を含むものである。
本発明にかかる画像処理装置、画像処理プログラムおよび画像処理方法によれば、時系列に沿って撮像された時系列画像群の観察者による観察の負担を軽減することができるという効果を奏する。
図1は、本発明の実施の形態1にかかる画像処理装置を備えた画像表示システムの一構成例を模式的に示すブロック図である。 図2は、本発明の実施の形態1にかかる画像処理装置の処理手順を例示するフローチャートである。 図3は、体内画像群に含まれる各注目領域の分類処理の処理手順を例示するフローチャートである。 図4は、体内画像群内に含まれる注目領域の特徴点の特徴空間における分布状態の一具体例を示す模式図である。 図5は、特徴空間内の各特徴点を特徴点クラスタに分類した状態を示す模式図である。 図6は、時系列的に隣接または同一の特徴点が属する複数の特徴点クラスタを同一クラスタに統合する状態を示す模式図である。 図7は、各注目領域グループの代表領域の選出処理の処理手順を例示するフローチャートである。 図8は、注目領域グループからの代表領域の選出数と注目領域グループのグループ特徴量との関係を示す関数の一具体例を示す模式図である。 図9は、グループ特徴量に応じた選出数の代表領域を注目領域グループから選出する状態を説明する模式図である。 図10は、本発明の実施の形態2にかかる画像処理装置を備えた画像表示システムの一構成例を模式的に示すブロック図である。 図11は、実施の形態2における各注目領域グループの代表領域の選出処理の処理手順を例示するフローチャートである。 図12は、実施の形態2における代表領域の選出処理を具体的に説明するための模式図である。
以下に、本発明にかかる画像処理装置、画像処理プログラムおよび画像処理方法の実施の形態を図面に基づいて詳細に説明する。なお、以下では、時系列に沿って撮像された時系列画像群の一例として被検体内部のカプセル内視鏡が時系列順に撮像した体内画像群を例示し、この体内画像群の中から観察すべき注目領域を含む体内画像を代表画像として出力する画像処理装置、画像処理プログラムおよび画像処理方法を説明するが、本実施の形態によって本発明が限定されるものではない。
(実施の形態1)
図1は、本発明の実施の形態1にかかる画像処理装置を備えた画像表示システムの一構成例を模式的に示すブロック図である。図1に示すように、本実施の形態1にかかる画像表示システム100は、被検体の体内画像群を入力する画像入力装置1と、画像入力装置1によって入力された体内画像群の中から注目領域を含む1フレーム以上の体内画像を出力するための各種画像処理を行う画像処理装置2と、画像処理装置2によって出力された1フレーム以上の体内画像を表示する表示装置3とを備える。
画像入力装置1は、被検体の体内画像群を画像処理装置2に入力するための装置である。具体的には、画像入力装置1は、例えば可搬型の記録媒体を着脱可能なデータ入力インターフェースである。画像入力装置1は、カプセル内視鏡等によって撮像された被検体の体内画像群を保存した記録媒体を着脱可能に挿着され、この記録媒体から取り込んだ体内画像群を画像処理装置2に入力する。
画像処理装置2は、画像入力装置1によって入力された体内画像群の中から注目領域を含む体内画像を抽出するための各種画像処理を行う。具体的には、画像処理装置2は、画像入力装置1から被検体の体内画像群を取得し、この取得した体内画像群に含まれる各体内画像に対して画像処理を行って、この体内画像群の中から注目領域を含む体内画像を1フレーム以上抽出する。画像処理装置2は、この体内画像群内の各体内画像を代表する代表画像として、注目領域を含む体内画像を表示装置3に1フレーム以上出力する。なお、画像処理装置2の詳細な構成については、後述する。
ここで、本実施の形態1において、被検体の体内画像群に含まれる注目領域は、医師または看護師等の観察者が観察すべき注目の体内領域(体内部位)であり、例えば、消化管内部の病変領域、粘膜領域、医療処置後の生体組織領域等である。
表示装置3は、体内画像群のうちの注目領域を含む体内画像を1フレーム以上表示出力するユーザインターフェースとして機能する。具体的には、表示装置3は、CRTディスプレイまたは液晶ディスプレイ等の所望のディスプレイを用いて実現される。表示装置3は、画像処理装置2が体内画像群の中から抽出した1フレーム以上の代表画像を取得し、この取得した1フレーム以上の代表画像を表示する。
なお、表示装置3が表示する代表画像は、被検体内部の病変領域等の注目領域が撮像された体内画像であり、観察者は、表示された代表画像を観察することによって、被検体の消化管内部を検査することができる。
つぎに、本発明の実施の形態1にかかる画像処理装置2の構成について詳細に説明する。図1に示すように、本実施の形態1にかかる画像処理装置2は、体内画像群内の各体内画像に対して演算処理等を行う演算部10と、画像処理に必要な設定情報等の各種情報を入力する入力部20と、体内画像等の各種データを記憶する記憶部30と、画像処理装置2の各構成部を制御する制御部40とを備える。
演算部10は、画像入力装置1によって入力された体内画像群内の各体内画像に対して各種演算処理を行う。具体的には、演算部10は、体内画像群に含まれる注目領域を検出する注目領域検出部11と、注目領域検出部11が検出した注目領域の特徴量を算出する特徴量算出部12と、特徴量算出部12が算出した特徴量と、注目領域を含む体内画像の時系列位置とに基づいて注目領域を分類する領域分類部13とを備える。また、演算部10は、領域分類部13によって分類された注目領域が属する領域グループの特徴量(以下、グループ特徴量という)を算出するグループ特徴量算出部14と、領域グループに属する注目領域を代表する1以上の代表領域を選出する領域選出部15と、領域選出部15が選出した代表領域を含む1以上の代表画像を出力する代表画像出力部16とを備える。
注目領域検出部11は、体内画像群に含まれる注目領域を検出する。具体的には、注目領域検出部11は、総数N枚の体内画像群PGを画像入力装置1から取得し、この取得した体内画像群PGの各体内画像P(j)に対して時系列順にフレーム番号j(1≦j≦N)を付与する。注目領域検出部11は、各体内画像P(j)の色情報等の特徴量をもとに、各体内画像P(j)から病変領域等の注目領域A(j,t)を検出する。注目領域検出部11は、注目領域A(j、t)の検出結果および体内画像群PGを特徴量算出部12に送信する。なお、tは、1フレームの体内画像P(j)に含まれる1以上の注目領域A(j,t)を識別するインデクス(識別子)である。
特徴量算出部12は、注目領域検出部11が各体内画像P(j)から検出した注目領域A(j,t)の特徴を示す特徴量を算出する算出処理部として機能する。具体的には、特徴量算出部12は、各注目領域A(j,t)に属する画素の画素値を所望の色空間の値に変換する画素値変換部12aと、画素値変換部12aによって変換された各注目領域A(j,t)の画素値の平均値を算出する平均値算出部12bとを備える。
画素値変換部12aは、体内画像群PGの中から注目領域検出部11が検出した注目領域毎に、注目領域A(j,t)に属する画素の値、例えば赤緑青(RGB)の色空間の値をL*a*b*空間の値に変換する。平均値算出部12bは、画素値変換部12aが変換出力したL*a*b*空間の値の平均値を、注目領域A(j,t)の特徴量、例えば色特徴量として算出する。このように算出された注目領域A(j,t)の特徴量は、体内画像群PGとともに領域分類部13に送信される。
領域分類部13は、特徴量算出部12が算出した注目領域A(j,t)の特徴量と、注目領域検出部11が検出した注目領域A(j,t)を含む体内画像P(j)の時系列位置とに基づいて、注目領域A(j,t)をいずれかの領域グループに分類する。具体的には、領域分類部13は、各注目領域A(j,t)の時系列的な隣接状況を判定する隣接状況判定部13aと、注目領域A(j、t)同士の特徴量の類似性を示す類似度を判定する類似度判定部13bとを備える。
隣接状況判定部13aは、体内画像群PGの中から注目領域検出部11が検出した複数の注目領域A(j,t)が時系列的に隣接するか否かを判定する。なお、隣接状況判定部13aが判定した注目領域A(j,t)の時系列的な隣接状況は、注目領域A(j,t)の特徴量の座標軸および時系列の座標軸によって形成される特徴空間における注目領域A(j,t)の時系列的な分布状態を示す。
類似度判定部13bは、特徴量算出部12が算出した複数の注目領域A(j,t)同士の特徴量(例えば色特徴量)の類似性を示す類似度を判定する。なお、類似度判定部13bが判定した注目領域A(j,t)同士の類似度は、上述した特徴空間における注目領域A(j,t)の特徴量の分布状態を示す。
ここで、領域分類部13は、上述した注目領域A(j,t)の時系列的な隣接状況判定結果をもとに、特徴空間における注目領域A(j,t)の時系列的な分布状態を把握する。また、領域分類部13は、上述した注目領域A(j,t)同士の類似度判定結果をもとに、特徴空間における注目領域A(j,t)の特徴量の分布状態を把握する。領域分類部13は、把握した注目領域A(j,t)の特徴量の分布状態と時系列的な分布状態とに基づいて、注目領域A(j,t)をいずれかの領域グループに分類する。このようにして、領域分類部13は、特徴空間における特徴量の分布が所定の閾値範囲内に収まり且つ時系列的に隣接または同一の状態になる注目領域A(j,t)同士を同一の領域グループに分類する。領域分類部13は、注目領域A(j,t)のグループ分類結果および体内画像群PGをグループ特徴量算出部14に送信する。
グループ特徴量算出部14は、領域分類部13が分類した注目領域A(j,t)の領域グループ毎の特徴を示すグループ特徴量を算出する。具体的には、グループ特徴量算出部14は、領域分類部13から体内画像群PGを取得し、この取得した体内画像群PG内の注目領域A(j,t)が属する領域グループ毎に、各領域グループに属する注目領域A(j,t)の特徴空間における特徴量の分散を算出する。次いで、グループ特徴量算出部14は、算出した領域グループ毎の特徴量の分散算出結果をもとに、各領域グループのグループ特徴量を算出する。
ここで、注目領域A(j,t)の特徴空間における特徴量の分散は、平均値算出部12bによって算出された注目領域A(j,t)の色特徴量、すなわち注目領域A(j,t)に属するL*a*b*空間の値の平均値に基づく分散である。グループ特徴量算出部14は、上述した注目領域A(j,t)の特徴量の分散を領域グループ毎に合計することによって、領域グループ毎のグループ特徴量を算出する。グループ特徴量算出部14は、グループ特徴量の算出結果および体内画像群PGを領域選出部15に送信する。
領域選出部15は、グループ特徴量算出部14が算出したグループ特徴量をもとに、領域グループの中から注目領域A(j,t)を代表する1以上の代表領域を選出する。具体的には、領域選出部15は、領域グループ毎の代表領域の選出数を決定する選出数決定部15aと、領域グループに含まれる複数の注目領域A(j,t)を選出数と同数の類似グループに細分類する細分類処理部15bと、細分類後の類似グループ毎に重心を算出する重心算出部15cと、類似グループ毎に重心に最近の注目領域を選出する最近領域選出部15dとを備える。
選出数決定部15aは、関数部15eを備える。関数部15eは、代表領域の選出数とグループ特徴量との関係を示す関数を予め保持し、グループ特徴量が入力された場合、入力されたグループ特徴量と予め保持した関数とをもとに、領域グループ毎に要約率を算出する。ここで、関数部15eが算出した要約率は、1つの領域グループに属する注目領域A(j,t)の何%を選出するかを決定する値である。なお、関数部15eが保持する関数は、予め関数部15eに設定したものであってもよいし、入力部20から入力された関数情報に基づいて制御部40が関数部15eに設定したものであってもよい。
具体的には、選出数決定部15aは、領域グループ毎に関数部15eが算出した要約率と領域グループ内の注目領域A(j,t)の総数とを乗算し、この乗算結果の小数点以下を四捨五入することによって、領域グループ毎の代表領域の選出数を決定する。
細分類処理部15bは、体内画像群PGにおける領域グループ毎に、領域グループ内の複数の注目領域A(j,t)を一層特徴が類似した類似グループに細分類する。具体的には、細分類処理部15bは、この体内画像群PGにおける各領域グループに含まれる複数の注目領域A(j,t)の特徴の類似度に基づいて、選出数決定部15aによる選出数と同数の類似グループに領域グループ毎の注目領域A(j,t)を細分類する。
ここで、注目領域A(j,t)の特徴の類似度として、例えば、上述した平均値算出部12bが算出した各注目領域A(j,t)の色特徴量の類似度が挙げられる。注目領域A(j,t)の特徴の類似度が色特徴量の類似度である場合、細分類処理部15bが細分類した各類似グループ内の注目領域A(j,t)同士は、細分類処理前の領域グループ内の注目領域A(j,t)同士に比して一層色特徴量が類似した注目領域同士になる。
重心算出部15cは、細分類処理部15bによって細分類された類似グループに含まれる複数の注目領域A(j,t)の特徴量の重心を類似グループ毎に算出する。ここで、類似グループ内の注目領域A(j,t)の特徴量の重心は、同一類似グループに含まれる複数の注目領域A(j,t)の特徴量の平均値と時系列位置とに基づいた特徴空間内の座標点である。なお、注目領域A(j,t)の特徴量の平均値として、例えば、平均値算出部12bが算出した色特徴量の平均値が挙げられる。
最近領域選出部15dは、上述した類似グループに含まれる複数の注目領域A(j,t)の中から、重心算出部15cが算出した特徴量の重心に最も近い注目領域を選出する。具体的には、最近領域選出部15dは、類似グループ毎に、特徴空間内における特徴量の重心からのユークリッド距離が最小になる特徴量の注目領域A(j,t)を選出する。すなわち、最近領域選出部15dは、上述した特徴量の重心に最も近い特徴空間内座標点に対応する注目領域A(j,t)を類似グループ毎に選出する。
上述したような構成を有する領域選出部15は、細分類処理部15bが細分類した類似グループ毎に最近領域選出部15dが選出した注目領域A(j,t)を代表領域とすることによって、体内画像群PG内の中から、選出数決定部15aが決定した選出数と同数の代表領域を領域グループ毎に選出する。領域選出部15は、領域グループ毎の代表領域の選出結果および体内画像群PGを代表画像出力部16に送信する。なお、領域選出部15は、選出数が1未満の値になった領域グループに対し、この選出数を「1」にすることによって、少なくとも1つの注目領域A(j,t)をこの領域グループから選出する。
代表画像出力部16は、体内画像群PGのうちの代表領域を含む1以上の代表画像を出力する。具体的には、代表画像出力部16は、上述した代表領域の選出処理が行われた体内画像群PGを取得し、この取得した代表画像群PGの中から、領域選出部15によって選出された代表領域を含む体内画像を抽出する。代表画像出力部16は、抽出した代表領域を含む体内画像を、出力対象(例えば表示対象)の代表画像として表示装置3に1フレーム以上出力する。
なお、代表画像出力部16は、体内画像群PGに複数の代表領域が含まれる場合、これら複数の代表領域の各々を含む複数の体内画像群である代表画像群を表示装置3に出力する。代表画像出力部16によって出力された1フレーム以上の代表画像は、上述したように、観察対象の体内画像として表示装置3に表示される。
入力部20は、例えばキーボードおよびマウスに例示される入力デバイス等を用いて実現される。入力部20は、医師または看護師等の観察者(ユーザ)による入力操作に対応して画像処理装置2の制御部40に各種情報を入力する。なお、入力部20によって制御部40に入力される各種情報として、例えば、画像処理装置2の動作開始または動作終了等を制御部40に対して指示する指示情報、上述した関数部15eに設定する関数情報、画像処理装置2による画像処理に必要な各種パラメータ等が挙げられる。
記憶部30は、RAM、EEPROM、フラッシュメモリ、またはハードディスク等の書き換え可能に情報を保存する各種記憶メディアを用いて実現される。記憶部30は、制御部40が記憶指示した各種情報を記憶し、記憶した各種情報の中から制御部40が読み出し指示した情報を制御部40に送信する。なお、記憶部30が記憶する各種情報として、例えば、入力部20によって入力された入力情報、画像入力装置1によって入力された体内画像群PG、画像処理装置2の各構成部の処理結果等が挙げられる。
制御部40は、画像処理装置2の構成部である演算部10、入力部20および記憶部30の各動作を制御し、且つ、これら各構成部間における信号の入出力を制御する。特に演算部10の制御において、制御部40は、この演算部10の構成部である注目領域検出部11、特徴量算出部12、領域分類部13、グループ特徴量算出部14、領域選出部15および代表画像出力部16の各動作を制御し、且つ、これら各構成部間における信号の入出力を制御する。
具体的には、制御部40は、処理プログラムを記憶する記憶部とこの記憶部内の処理プログラムを実行するコンピュータとを用いて実現される。制御部40は、入力部20によって入力された指示情報に基づいて、記憶部30の動作を制御し、あるいは、演算部10の各構成部の処理および動作タイミング等を制御する。また、制御部40は、画像入力装置1によって入力された体内画像群PGを処理してこの体内画像群PGのうちの1フレーム以上の代表画像を表示装置3に出力するように演算部10を制御し、且つ、体内画像群PGを記憶するように記憶部30を制御する。制御部40は、入力部20によって入力された指示情報等に基づいて、記憶部30内の体内画像群PGの各体内画像P(j)を適宜読み出し、読み出した体内画像P(j)を演算部10に送信する。
つぎに、本発明の実施の形態1にかかる画像処理装置2の動作について説明する。図2は、本発明の実施の形態1にかかる画像処理装置の処理手順を例示するフローチャートである。この実施の形態1にかかる画像処理装置2は、図2に示される処理手順を実行して、画像入力装置1から取得した被検体の体内画像群PGに含まれる1フレーム以上の代表画像(以下、代表体内画像という)を表示装置3に出力する。
すなわち、図2に示すように、画像処理装置2は、まず、画像入力装置1から被検体の体内画像群PGを取得する(ステップS101)。このステップS101において、制御部40は、画像入力装置1によって入力された体内画像群PGの取得処理を実行するように演算部10の注目領域検出部11を制御する。注目領域検出部11は、制御部40の制御に基づいて、画像入力装置1から被検体の体内画像群PGを取得し、この取得した体内画像群PG(総数N枚)の各体内画像P(j)に対して時系列順にフレーム番号j(1≦j≦N)を付与する。なお、体内画像群PGに含まれる各体内画像P(j)は、各画素においてR(赤)G(緑)B(青)の各々に対応した画素値を有するカラー画像である。
つぎに、画像処理装置2は、体内画像群PGに含まれる注目領域A(j,t)を検出する(ステップS102)。このステップS102において、制御部40は、上述したステップS101の処理手順によって取得した体内画像群PG内の注目領域A(j,t)の検出処理を実行するように注目領域検出部11を制御する。注目領域検出部11は、制御部40の制御に基づいて、体内画像群PG内の各体内画像P(j)の色情報等をもとに病変領域等の注目領域A(j,t)を検出する。
具体的には、注目領域検出部11は、まず、体内画像群PG内の各体内画像P(j)を各々所定数の画素領域に領域分割して各画素領域の色等の特徴量を算出する。次いで、注目領域検出部11は、色等の特徴量を座標軸とする特徴空間における各画素領域のデータ点をクラスタリングする。その後、注目領域検出部11は、特徴空間における各データ点のクラスタの重心位置等の情報をもとに、体内画像P(j)内の注目領域の各画素のデータ点によって構成されたクラスタを識別し、識別したクラスタに対応する画素領域を体内画像P(j)内の注目領域A(j,t)としている。
ここで、クラスタリングとは、特徴空間におけるデータ分布を、特徴量の類似性に基づいてクラスタと呼ばれる集合に分類する処理である。なお、注目領域検出部11は、例えばk−means法(CG−ARTS協会「ディジタル画像処理」p.231参照)等の公知のクラスタリングを行って、体内画像群PG内に含まれる病変領域等の注目領域A(j,t)を検出する。
なお、本実施の形態1において、注目領域検出部11は、特徴空間における特徴量の分布状態に基づいて病変領域等の注目領域A(j,t)を検出しているが、注目領域検出部11による注目領域A(j,t)の検出手法は、検出対象の注目領域A(j,t)によって異なる。このため、注目領域検出部11は、体内画像群PGの中から注目領域A(j,t)を検出できる手法であれば、上述したクラスタリング以外の手法を用いて体内画像群PG内の注目領域A(j,t)を検出してもよい。
その後、画像処理装置2は、体内画像群PGに含まれる各注目領域A(j,t)の特徴量を算出する(ステップS103)。このステップS103において、制御部40は、上述したステップS102の処理手順によって検出された各注目領域A(j,t)の特徴量の算出処理を実行するように特徴量算出部12を制御する。特徴量算出部12は、制御部40の制御に基づいて、体内画像群PG内の各注目領域A(j,t)の特徴量の一例である色特徴量を算出する。
具体的には、画素値変換部12aは、体内画像群PGの中から注目領域検出部11が検出した注目領域A(j,t)毎に、注目領域A(j,t)に属するRGB色空間の値をL*a*b*空間の値、すなわち明度指数Lおよび知覚色度a,bの各値に変換する。次いで、平均値算出部12bは、画素値変換部12aが注目領域A(j,t)毎に変換出力した明度指数Lおよび知覚色度a,bの各値の平均値、すなわち平均明度指数L(j,t)および平均知覚色度a(j,t),b(j,t)を各注目領域A(j,t)の色特徴量として算出する。
特徴量算出部12は、上述したようにして、明度指数Lおよび知覚色度a,b等の3つの色特徴量と時系列とを座標軸とする4軸の特徴空間(以下、Lab−時系列特徴空間という)における注目領域A(j,t)の色特徴量を算出する。ここで、特徴量算出部12が算出した注目領域A(j,t)の色特徴量は、Lab−時系列特徴空間の色特徴量軸の座標成分である。
なお、上述した平均明度指数L(j,t)および平均知覚色度a(j,t),b(j,t)におけるjは、上述したように、体内画像群PG内の各体内画像P(j)に付与されたフレーム番号jである。一方、tは、体内画像群PG内の1フレームの体内画像P(j)に含まれる1以上の注目領域A(j,t)を識別するインデクスである。
つぎに、画像処理装置2は、体内画像群PG内の各注目領域A(j,t)を分類する(ステップS104)。このステップS104において、制御部40は、上述したステップS102の処理手順によって検出された各注目領域A(j,t)の分類処理を実行するように領域分類部13を制御する。領域分類部13は、制御部40の制御に基づいて、上述したステップS103の処理手順によって算出された各注目領域A(j,t)の色特徴量と、注目領域A(j,t)を含む各体内画像P(j)の時系列位置とをもとに、体内画像群PG内の各注目領域A(j,t)をいずれかの領域グループに分類する。
具体的には、隣接状況判定部13aは、体内画像群PGに含まれる注目領域A(j,t)の時系列的な隣接状況を判定する。すなわち、隣接状況判定部13aは、Lab−時系列特徴空間内の各特徴点に対応する注目領域A(j,t)毎に、各特徴点が時系列的に隣接するか否かを判定する。一方、類似度判定部13bは、ステップS103において平均値算出部12bが算出した複数の注目領域A(j,t)同士の色特徴量の類似度を判定する。すなわち、類似度判定部13bは、Lab−時系列特徴空間における各特徴点同士の平均明度指数L(j,t)および平均知覚色度a(j,t),b(j,t)の類似度を判定する。
領域分類部13は、上述したように隣接状況判定部13aが判定した注目領域A(j,t)の時系列的な隣接状況と類似度判定部13bが判定した注目領域A(j,t)同士の色特徴量の類似度とをもとに、体内画像群PG内の注目領域A(j,t)を1以上の領域グループに分類する。これによって、領域分類部13は、Lab−時系列特徴空間内に分布する特徴点を1以上の特徴点クラスタに分類する。
なお、Lab−時系列特徴空間内の特徴点は、注目領域A(j,t)の色特徴量および時系列位置とによって決定される座標点である。一方、特徴点クラスタは、Lab−時系列特徴空間内に分布する特徴点のグループであり、1以上の特徴点を含む。ステップS104において、領域分類部13は、Lab−時系列特徴空間における複数の特徴点を含むグループを特徴点クラスタと看做すことは勿論、Lab−時系列特徴空間における単一の特徴点も1つの特徴点が属する特徴点クラスタと看做す。
続いて、画像処理装置2は、この体内画像群PG内の各注目領域グループのグループ特徴量を算出する(ステップS105)。このステップS105において、制御部40は、上述したステップS104の処理手順によって分類された注目領域A(j,t)の領域グループ毎にグループ特徴量の算出処理を実行するようにグループ特徴量算出部14を制御する。
具体的には、グループ特徴量算出部14は、制御部40の制御に基づいて、注目領域A(j,t)の領域グループ毎に、領域グループの特徴を示すグループ特徴量を算出する。すなわち、グループ特徴量算出部14は、まず、体内画像群PG内に含まれる注目領域A(j,t)毎に、注目領域A(j,t)の色特徴量の分散を算出する。次いで、グループ特徴量算出部14は、領域グループに属する各注目領域A(j,t)の色特徴量を領域グループ毎に合計し、これによって、体内画像群PG内の各領域グループのグループ特徴量を算出する。
より具体的には、グループ特徴量算出部14は、Lab−時系列特徴空間内の各特徴点の平均明度指数L(j,t)および平均知覚色度a(j,t),b(j,t)の分散を算出し、算出した平均明度指数L(j,t)および平均知覚色度a(j,t),b(j,t)の分散を特徴点クラスタ毎に合計する。これによって、グループ特徴量算出部14は、体内画像群PG内の特徴点クラスタ毎のグループ特徴量、すなわち各領域グループのグループ特徴量を算出する。
つぎに、画像処理装置2は、体内画像群PG内の各注目領域グループの代表領域を選出する(ステップS106)。このステップS106において、制御部40は、上述したステップS104の処理手順によって分類された注目領域A(j,t)の領域グループ毎に代表領域の選出処理を実行するように領域選出部15を制御する。
具体的には、領域選出部15は、制御部40の制御に基づいて、上述したグループ特徴量算出部14が算出した各領域グループのグループ特徴量をもとに、領域グループに属する注目領域A(j,t)の中から1以上の代表領域を領域グループ毎に選出する。
その後、画像処理装置2は、体内画像群PGのうちの代表領域を含む代表体内画像を表示装置3に1フレーム以上出力し(ステップS107)、本処理を終了する。このステップS107において、制御部40は、上述したステップS106の処理手順によって選出された代表領域を含む代表体内画像の出力処理を実行するように代表画像出力部16を制御する。
具体的には、代表画像出力部16は、制御部40の制御に基づいて、体内画像群PGの中から、上述したステップS106において領域選出部15が選出した代表領域を含む代表体内画像を1フレーム以上抽出し、抽出した1フレーム以上の代表体内画像を表示装置3に出力する。すなわち、代表画像出力部16は、体内画像群PG内に含まれる代表体内画像が1フレームのみである場合、この1フレームの代表体内画像を表示装置3に出力し、体内画像群PG内に代表体内画像が複数フレーム含まれる場合、これら複数フレームの代表体内画像を表示装置3に出力する。なお、代表画像出力部16が表示装置3に出力する代表体内画像は、単一の注目領域A(j,1)を含むものであってもよいし、複数の注目領域A(j,t)(t≧2)を含むものであってもよい。
つぎに、上述したステップS104における各注目領域の分類処理について詳細に説明する。図3は、体内画像群に含まれる各注目領域の分類処理の処理手順を例示するフローチャートである。図4は、体内画像群内に含まれる注目領域の特徴点の特徴空間における分布状態の一具体例を示す模式図である。図5は、特徴空間内の各特徴点を特徴点クラスタに分類した状態を示す模式図である。図6は、時系列的に隣接または同一の特徴点が属する複数の特徴点クラスタを同一クラスタに統合する状態を示す模式図である。
なお、図4〜6に示す特徴空間は、Lab−時系列特徴空間である。図4〜6では、本発明の説明を簡単にするために、注目領域A(j,t)が有する平均明度指数L(j,t)および平均知覚色度a(j,t),b(j,t)を色特徴量として一軸に纏めて表している。
画像処理装置2の領域分類部13は、上述したように、制御部40の制御に基づいてステップS104における各注目領域A(j,t)の分類処理を実行する。具体的には、図3に示すように、領域分類部13は、まず、体内画像群PGに含まれる各注目領域A(j,t)の特徴点の初期設定処理を行う(ステップS201)。
このステップS201において、領域分類部13は、上述した特徴量算出部12が算出した各注目領域A(j,t)の色特徴量と、注目領域A(j,t)を含む各体内画像P(j)の時系列位置とに基づいて、体内画像群PG内の各注目領域A(j,t)の特徴に対応する各特徴点をLab−時系列特徴空間内に作成(プロット)する。
具体的には、領域分類部13は、体内画像群PG内の体内画像P(j)に総数Tmの注目領域A(j,t)が含まれる場合、注目領域A(j,t)の時系列情報と色特徴量とに基づいて、注目領域A(j,t)の特徴点C(m)をLab−時系列特徴空間にプロットする。なお、特徴点C(m)におけるmは、Lab−時系列特徴空間内にプロットされる特徴点を識別するインデクスである。すなわち、総数Tmの注目領域A(j,t)において、インデクスmは1以上、Tm以下である。一方、注目領域A(j,t)の時系列情報は、体内画像群PGにおける体内画像P(j)の時系列位置を示す情報であり、体内画像P(j)のフレーム番号jに対応する。また、注目領域A(j,t)の色特徴量は、平均値算出部12bが算出した平均明度指数L(j,t)および平均知覚色度a(j,t),b(j,t)である。
ここで、領域分類部13は、まず、インデクスmを「1」に設定し、特徴点C(1)の色特徴量と時系列情報とをもとに特徴点C(1)の座標を設定して、Lab−時系列特徴空間に特徴点C(1)を作成する。それ以降、残りの特徴点C(2)〜C(Tm)についても特徴点C(1)の場合と同様に色特徴量と時系列情報とをもとに座標を順次設定して、Lab−時系列特徴空間に特徴点C(2)〜C(Tm)を作成する。この時点において、領域分類部13は、Lab−時系列特徴空間に分布している各特徴点C(1)〜C(Tm)を各々1つの特徴点クラスタと看做すことによって、検出された注目領域A(j,t)と同数の特徴点クラスタ群を作成する。
つぎに、領域分類部13は、作成した特徴点クラスタ群の総数をTkと設定し、この特徴点クラスタ群内の各特徴点クラスタCG(k)を識別するインデクスk(1≦k≦Tk)を「1」に設定する。次いで、領域分類部13は、特徴点クラスタCG(k)を構成する注目領域A(j,t)の色特徴量、すなわち平均明度指数L(j,t)および平均知覚色度a(j,t),b(j,t)を特徴点クラスタCG(k)の平均明度指数L(k)および平均知覚色度a(k),b(k)に代入する(色特徴量の代入処理)。
ここで、平均明度指数L(k)および平均知覚色度a(k),b(k)は、特徴点クラスタCG(k)に属する全ての注目領域A(j,t)の色特徴量の平均値である。しかし、この段階において、各特徴点クラスタCG(k)には1つの注目領域A(j,t)、すなわち1つの特徴点C(m)のみ含まれる。このため、各特徴点クラスタCG(k)に属する注目領域A(j,t)の明度指数L(j,t)および知覚色度a(j,t),b(j,t)を平均明度指数L(k)および平均知覚色度a(k),b(k)に代入している。
その後、領域分類部13は、インデクスkをインクリメント処理し、インデクスkが総数Tk以下であるか否かを判定する。領域分類部13は、インデクスkが総数Tk以下であると判定した場合、上述した色特徴量の代入処理以降の処理手順を繰り返し行い、インデクスkが総数Tk以下ではないと判定した場合、ステップS201の処理手順を終了する。
以下、図4を参照して、ステップS201の処理手順をより具体的に説明する。図4に示すように、体内画像群PGのうちの体内画像P(1),P(2),P(3),P(4),P(6),P(7)に注目領域A(1,1),A(2,1),A(3,1),A(4,1),A(6,1),A(7,1)が各々含まれる場合、領域分類部13は、Lab−時系列特徴空間に、まず、体内画像P(1)内の注目領域A(1,1)の時系列情報と色特徴量とに基づく座標を有する特徴点C(1)を作成する。次いで、領域分類部13は、Lab−時系列特徴空間に、体内画像P(2)内の注目領域A(2,1)の時系列情報と色特徴量とに基づく座標を有する特徴点C(2)から、体内画像P(7)内の注目領域A(7,1)の時系列情報と色特徴量とに基づく座標を有する特徴点C(6)までを順次作成する。この結果、図4に示すLab−時系列特徴空間には、注目領域の総数Tm(=6)と同数である6つの特徴点C(1)〜C(6)がプロットされる。
つぎに、領域分類部13は、これら6つの特徴点C(1)〜C(6)の各々を特徴点クラスタとして看做し、各特徴点C(1)〜C(6)の各色特徴量を各特徴点クラスタの色特徴量、すなわち平均明度指数L(k)および平均知覚色度a(k),b(k)に代入する。
なお、体内画像群PG内の体内画像P(5)は、注目領域を含んでいないため、Lab−時系列特徴空間には、体内画像P(5)に対応する特徴点はプロットされない。このことは、残りの体内画像P(8)〜P(N)についても同様である。
一方、上述したステップS201を実行後、領域分類部13は、Lab−時系列特徴空間内の特徴点クラスタの総数が1以下であるか否かを判定する(ステップS202)。このステップS202において、領域分類部13は、Lab−時系列特徴空間内に存在する特徴点クラスタの数を集計し、この集計した特徴点クラスタの総数が1以下であるか否かを判定する。
このステップS202における判定処理の結果、領域分類部13は、特徴点クラスタの総数が1以下である場合(ステップS202,Yes)、本処理を終了して図2に示したステップS104の処理手順にリターンする。一方、ステップS202の判定処理の結果、特徴点クラスタの総数が1以下ではない場合(ステップS202,No)、領域分類部13は、Lab−時系列特徴空間内に存在する複数の特徴点クラスタにおいて最小色差になる特徴点クラスタの組み合わせを選出する(ステップS203)。
ステップS203において、領域分類部13は、上述したステップS201の処理手順のようにLab−時系列特徴空間内に設定された複数の特徴点クラスタCG(k)の中から異なるインデクスk1,k2(1≦k1<k2≦Tk)の特徴点クラスタCG(k1),CG(k2)を順次抽出し、抽出した2つの特徴点クラスタCG(k1),CG(k2)の色特徴量の差である色差△Eを次式(1)に基づいて順次算出する。
Figure 2011024727
ここで、この式(1)において、平均明度指数L(k1)および平均知覚色度a(k1),b(k1)は、特徴点クラスタCG(k1)の色特徴量であり、平均明度指数L(k2)および平均知覚色度a(k2),b(k2)は、特徴点クラスタCG(k2)の色特徴量である。
具体的には、領域分類部13は、まず、インデクスk1の初期値を「1」に設定し且つインデクスk2の初期値を「2」に設定し、式(1)に基づいて、特徴点クラスタCG(k1),CG(k2)の色差△Eを算出する。つぎに、領域分類部13は、インデクスk2が特徴点クラスタの総数Tk未満であるか否かを判定し、総数Tk未満である場合、上述した色差△Eの算出処理およびインデクスk2のインクリメント処理を順次繰り返す。
その後、領域分類部13は、インデクスk2が特徴点クラスタの総数Tk以上である場合、インデクスk1が特徴点クラスタの総数Tkから「1」減算した減算値(Tk−1)未満であるか否かを判定する。領域分類部13は、インデクスk1が減算値(Tk−1)未満である場合、インデクスk1をインクリメント処理し、インデクスk2をインデクスk1に「1」加算した値(k1+1)に設定して、上述した色差△Eの算出処理を繰り返す。
一方、領域分類部13は、インデクスk1が減算値(Tk−1)以上である場合、このステップS203において算出した全ての色差△Eをソート処理する。領域分類部13は、このソート処理結果に基づいて、これら全ての色差△Eのうちの最小色差△Eminを有する特徴点クラスタCG(k1),CG(k2)の組み合わせを選出する。
なお、色差△Eは、注目領域A(j,t)同士の色特徴量の類似度に相当するものであり、注目領域A(j,t)同士の色特徴量の類似度の増加に伴って減少し、注目領域A(j,t)同士の色特徴量の類似度の減少に伴って増加する。
以下、図4を参照して、ステップS202の処理手順をより具体的に説明する。図4に示すように1つの特徴点クラスタに1つの特徴点のみが属する初期状態の場合、領域分類部13は、まず、特徴点クラスタCG(k1)のインデクスk1を特徴点C(1)のインデクス(=1)に設定し、特徴点クラスタCG(k2)のインデックスk2を特徴点C(2)のインデクス(=2)に設定する。
つぎに、領域分類部13は、特徴点クラスタCG(k1)に属する特徴点C(1)と特徴点クラスタCG(k2)に属する特徴点C(2)との色差△Eを算出する。続いて、領域分類部13は、インデクスk2が特徴点クラスタの総数Tk以下であるか否かを判定し、総数Tk以下である場合、インデクスk2をインクリメント処理して、特徴点C(1)と特徴点クラスタCG(k2)に属する特徴点C(3)との色差△Eを算出する。その後、領域分類部13は、このインデクスk2が総数Tkに到達するまでインデクスk2のインクリメント処理および色差△Eの算出処理を順次繰り返す。
一方、領域分類部13は、インデクスk2が総数Tkを超過した場合、インデクスk1をインクリメント処理し、且つインデクスk2をk1+1の値に置き換える。そして、領域分類部13は、このインクリメント処理後の特徴点クラスタCG(k1)に属する特徴点C(2)と特徴点クラスタCG(k2)に属する特徴点C(3)との色差△Eを算出する。その後、領域分類部13は、インデクスk1が総数Tkから「1」減算した値に到達するまでインデクスk1,k2のインクリメント処理および色差△Eの算出処理を順次繰り返す。
その後、領域分類部13は、Lab−時系列特徴空間内から抽出可能な2つの特徴点クラスタCG(k1),CG(k2)の全組み合わせについて、上述したような処理を実行して、2つの特徴点クラスタCG(k1),CG(k2)の全組み合わせの各色差△Eを算出する。
以上のようにして、領域分類部13は、図4に示すLab−時系列特徴空間内の6つの特徴点クラスタである特徴点C(1)〜C(6)について、特徴点C(1),C(2)の色差△E1、特徴点C(1),C(3)の色差△E2、特徴点C(1),C(4)の色差△E3、特徴点C(1),C(5)の色差△E4、特徴点C(1),C(6)の色差△E5を順次算出する。次いで、領域分類部13は、特徴点C(2),C(3)の色差△E6、特徴点C(2),C(4)の色差△E7、特徴点C(2),C(5)の色差△E8、特徴点C(2),C(6)の色差△E9を順次算出する。また、領域分類部13は、特徴点C(3),C(4)の色差△E10、特徴点C(3),C(5)の色差△E11、特徴点C(3),C(6)の色差△E12を順次算出する。さらに、領域分類部13は、特徴点C(4),C(5)の色差△E13、特徴点C(4),C(6)の色差△E14を順次算出し、その後、特徴点C(5),C(6)の色差△E15を算出する。
上述したように特徴点クラスタCG(k1),CG(k2)の全組み合わせの色差△Eを算出完了後、領域分類部13は、算出した全ての色差△E同士を比較処理し、これら全ての色差△Eをソート処理する。次いで、領域分類部13は、このソート処理結果に基づいて、これら全ての色差△Eの中から最小色差△Eminを求める。そして、領域分類部13は、Lab−時系列特徴空間内の全ての特徴点クラスタの組み合わせの中から、この最小色差△Eminに対応する特徴点クラスタCG(k1),CG(k2)の組み合わせを選出する。
具体的には、図4に示すように特徴点C(1),C(4)の色差△E3が最小値である場合、領域分類部13は、算出した全ての色差△E1〜△E15の中から色差△E3を最小色差△Eminに決定し、特徴点クラスタとしての特徴点C(1)〜C(6)の全組み合わせの中から、この色差△E3に対応する特徴点クラスタの組み合わせ、すなわち特徴点C(1),C(4)を選出する。
一方、上述したステップS203を実行後、領域分類部13は、選出した特徴点クラスタCG(k1),CG(k2)の組み合わせの色差△Eが所定の閾値以下であるか否かを判定する(ステップS204)。
ステップS204において、領域分類部13は、上述したステップS203の直後であれば、Lab−時系列特徴空間における色特徴量に関する閾値と1つの特徴点のみが属する特徴点クラスタの組み合わせの最小色差△Eminとを比較処理し、後述するステップS209の直後であれば、ステップS209の処理手順で選出した特徴点クラスタの組み合わせの最小色差△Eminとこの閾値とを比較処理する。領域分類部13は、この最小色差△Eminが閾値以下ではない場合(ステップS204,No)、本処理を終了して図2に示したステップS104の処理手順にリターンする。
なお、上述した色差△Eminの閾値は、色差△Eの単位系、例えば、人間の感じる色差と対応する値の範囲が定められるNBS(National Bureau of Standards)単位系に基づいて設定され、具体的には、人間が見て目立つ色差を感じられる程度の値(=3.0)に設定されることが望ましい。この閾値は、予め領域分類部13に保持させた値であってもよいし、入力部20からの入力情報に基づいて制御部40によって更新可能に設定された値であってもよい。
一方、領域分類部13は、ステップS204において特徴点クラスタの組み合わせの色差すなわち最小色差△Eminが閾値以下である場合(ステップS204,Yes)、この特徴点クラスタの組み合わせの中から、Lab−時系列特徴空間において互いに異なる特徴点クラスタに属して時系列的に最も近くなる特徴点の組み合わせを選出する(ステップS205)。
ステップS205において、領域分類部13は、まず、ステップS204の処理手順によって閾値以下と判定した最小色差△Eminの特徴点クラスタの組み合わせの中から、一方の特徴点クラスタに属する特徴点C(t1)と他方の特徴点クラスタに属する特徴点C(t2)とを設定する。
ここで、t1は、一方の特徴点クラスタに属する特徴点を識別するインデクスであるとともに、この一方の特徴点クラスタに対応する領域グループ内の注目領域を識別するインデクスでもある。同様に、t2は、他方の特徴点クラスタに属する特徴点を識別するインデクスであるとともに、この他方の特徴点クラスタに対応する領域グループ内の注目領域を識別するインデクスでもある。
領域分類部13は、一方の特徴点クラスタに属する特徴点のインデクスt1の数値範囲(1≦t1≦Q1)と、他方の特徴点クラスタに属する特徴点のインデクスt2の数値範囲(1≦t2≦Q2)とを設定する。なお、Q1は、インデクスt1の最大値であり、この一方の特徴点クラスタに対応する注目領域の総数を示す。一方、Q2は、インデクスt2の最大値であり、この他方の特徴点クラスタに対応する注目領域の総数を示す。
ここで、領域分類部13は、Lab−時系列特徴空間における複数の特徴点を含むグループを特徴点クラスタと看做すことは勿論、Lab−時系列特徴空間における単一の特徴点も1つの特徴点が属する特徴点クラスタと看做す。
なお、上述した特徴点に対応する注目領域は、図2に示したステップS102において注目領域検出部11が検出した病変領域等の注目領域A(j,t)であり、図4においては、注目領域A(1,1),A(2,1),A(3,1),A(4,1),A(6,1),A(7,1)が該当する。
続いて、領域分類部13は、インデクスt1によって識別される注目領域とインデクスt2によって識別される注目領域との時系列方向の距離Dを算出する。具体的には、領域分類部13は、まず、インデクスt1,t2を共に「1」と設定し、インデクスt1=1の注目領域に対応する一方の特徴点クラスタ内の特徴点C(t1)とインデクスt2=1の注目領域に対応する他方の特徴点クラスタ内の特徴点C(t2)との時系列方向のユークリッド距離を距離Dとして算出する。
つぎに、領域分類部13は、インデクスt1が総数Q1未満であるか否かを判定し、総数Q1未満である場合、インデクスt1をインクリメント処理して、インクリメント処理後のインデクスt1によって識別される注目領域とインデクスt2によって識別される注目領域との時系列方向の距離Dを算出する。その後、領域分類部13は、インデクスt1が総数Q1に到達するまでインデクスt1のインクリメント処理および距離Dの算出処理を順次繰り返す。
一方、領域分類部13は、インデクスt1が総数Q1以上である場合、他方の特徴点クラスタに属する特徴点のインデクスt2が総数Q2未満であるか否かを判定する。領域分類部13は、インデクスt2が総数Q2未満である場合、インデクスt1を初期値(=1)に設定するとともに、このインデクスt2をインクリメント処理して、インクリメント処理後のインデクスt2によって識別される注目領域とインデクスt1によって識別される注目領域との時系列方向の距離Dを算出する。その後、領域分類部13は、このインデクスt2が総数Q2に到達するまでインデクスt2のインクリメント処理および距離Dの算出処理を順次繰り返す。
上述したようにインデクスt1,t2のインクリメント処理および距離Dの算出処理を繰り返し行うことによって、領域分類部13は、一方の特徴点クラスタに属する特徴点C(t1)と他方の特徴点クラスタに属する特徴点C(t2)との時系列方向の距離、すなわち両特徴点クラスタにおける各注目領域間の時系列方向の距離Dを算出完了する。その後、領域分類部13は、算出した全ての距離Dをソート処理し、このソート処理結果に基づいて、これら全ての距離Dのうちの最小値である距離Dminを求める。
ここで、距離Dminに対応する特徴点の組み合わせが、Lab−時系列特徴空間において時系列的に最も近くなる特徴点の組み合わせとなる。すなわち、領域分類部13は、Lab−時系列特徴空間において互いに異なる特徴点クラスタに属して時系列的に最も近くなる特徴点の組み合わせとして、距離Dminに対応する特徴点の組み合わせを選出する。領域分類部13は、このような特徴点の組み合わせ選出処理によって、互いに異なる特徴点クラスタに属して時系列的に最も近くなる注目領域の組み合わせを選出する。
一方、上述したステップS205を実行後、領域分類部13は、ステップS205の処理手順によって選出した特徴点の組み合わせ内の各特徴点が時系列的に隣接または同一であるか否かを判定する(ステップS206)。
ステップS206において、隣接状況判定部13aは、ステップS205の処理手順によって選出された特徴点の組み合わせの時系列的な距離Dをもとに、この選出された組み合わせ内の各特徴点に対応する各注目領域の時系列的な隣接状況を判定する。すなわち、隣接状況判定部13aは、時系列的な距離Dをもとに、この選出された組み合わせ内の各特徴点が時系列的に隣接状態または同一状態であるか否かを判定する。
隣接状況判定部13aがステップS206において組み合わせ内の特徴点が時系列的に隣接状態または同一状態であると判定した場合(ステップS206,Yes)、領域分類部13は、時系列的に隣接状態または同一状態である各特徴点が属する特徴点クラスタの組み合わせを同一のクラスタに統合する(ステップS207)。
具体的には、ステップS207において、領域分類部13は、まず、時系列的に隣接状態または同一状態の組み合わせである2つの特徴点が各々属する2つの特徴点クラスタCG(k1),CG(k2)のインデクスk1,k2のうち、小さい方を最小のインデクスkaとし、大きい方を最大のインデクスkbとする。
つぎに、領域分類部13は、最小のインデクスkaを新規に統合処理後の特徴点クラスタを識別するインデクスに設定して、時系列的に隣接状態または同一状態である2つの特徴点が各々属する2つの特徴点クラスタ内の全特徴点を統合した新規の特徴点クラスタCG(ka)を作成する。
その後、領域分類部13は、特徴点クラスタCG(ka)に属する各特徴点の色特徴量をもとに、特徴点クラスタCG(ka)の色特徴量である平均明度指数L(ka)および平均知覚色度a(ka),b(ka)を算出する。詳細には、領域分類部13は、特徴点クラスタCG(ka)内の各特徴点の平均明度指数の平均値を平均明度指数L(ka)として算出し、各特徴点の平均知覚色度の平均値を平均明度指数a(ka),b(ka)として算出する。
この時点において、最大のインデクスkbによって識別される特徴点クラスタは、この新規の特徴点クラスタCG(ka)に統合されてLab−時系列特徴空間内に存在しない。この状態において、領域分類部13は、Lab−時系列特徴空間内に存在する全特徴点クラスタのうち、最大のインデクスkb以上のインデクスによって識別される残りの特徴点クラスタの各インデクスkをデクリメント処理する。
具体的には、領域分類部13は、まず、仮のインデクスkiに最大のインデクスkbを割り当てる。次いで、領域分類部13は、この割り当て処理後のインデクスki(=kb)が特徴点クラスタの総数Tk未満であるか否かを判定し、インデクスkiが総数Tk未満であれば、このインデクスkiをインクリメント処理する。つぎに、領域分類部13は、インクリメント処理後のインデクスki(=kb+1)によって示される特徴点クラスタCG(k)のインデクスをデクリメント処理(k−1に変更)する。その後、領域分類部13は、インデクスkiが総数Tk以上になるまで、このようなインデクスkiのインクリメント処理およびインデクスkのデクリメント処理を繰り返す。一方、領域分類部13は、インデクスkiが総数Tk未満ではない場合、上述したインデクスkiに対するインクリメント処理およびインデクスkに対するデクリメント処理を終了する。
ここで、Lab−時系列特徴空間内における現時点の特徴点クラスタの総数Tkは、上述した特徴点クラスタの統合処理によって1つ減っている。このため、領域分類部13は、インデクスkiが総数Tk未満ではない場合、特徴点クラスタの統合処理前の総数Tkから「1」を減算し、この減算処理後の総数TkをLab−時系列特徴空間内における現時点の特徴点クラスタの総数に更新する。
ステップS207の処理手順が終了後、領域分類部13は、上述したステップS202に戻り、このステップS202以降の処理手順を繰り返す。一方、領域分類部13は、上述したステップS206における隣接状況判定部13aの処理によって特徴点の組み合わせの時系列的な状況を隣接状態および同一状態のいずれでもないと判定した場合(ステップS206,No)、Lab−時系列特徴空間内の全ての特徴点クラスタの組み合わせについて時系列的な状況の判定処理が完了したか否かを判定する(ステップS208)。
ステップS208において、領域分類部13は、ステップS206における時系列的な状況の判定処理済みの特徴点クラスタのインデクス等に基づいて、全特徴点クラスタの組み合わせに対する時系列的な状況の判定処理が完了したか否かを判定する。領域分類部13は、全特徴点クラスタの組み合わせに対する時系列的な状況の判定処理が完了したと判定した場合(ステップS208,Yes)、本処理を終了して図2に示したステップS104の処理手順にリターンする。
一方、領域分類部13は、ステップS208において全特徴点クラスタの組み合わせに対する時系列的な状況の判定処理が完了していないと判定した場合(ステップS208,No)、上述したステップS205において選出した現在の特徴点クラスタの組み合わせの次に色差△Eが小さい特徴点クラスタの組み合わせを選出する(ステップS209)。その後、領域分類部13は、上述したステップS204に戻り、このステップS204以降の処理手順を繰り返す。
ステップS209において、領域分類部13は、上述したステップS203の処理手順によって算出した全ての色差△Eの中から、現在の特徴点クラスタの組み合わせの色差△E(現在の最小色差△Emin)の次に小さい値の色差△Eを最小色差△Eminとして選択する。次いで、領域分類部13は、Lab−時系列特徴空間内の全特徴点クラスタの中から、この選択した最小色差△Eminを有する特徴点クラスタの組み合わせを選出する。
ここで、領域分類部13は、上述したステップS201〜S209の処理手順を適宜繰り返し実行することによって、Lab−時系列特徴空間における全特徴点を時系列および色特徴量の各情報に基づく特徴点クラスタに分類する。これによって、領域分類部13は、注目領域検出部11が体内画像群PGから検出した全ての注目領域A(j,t)を、特徴点クラスタに対応するいずれかの領域グループに分類する。すなわち、領域分類部13は、特徴量算出部12が算出した注目領域A(j,t)の色特徴量と、注目領域A(j,t)を含む体内画像P(j)の時系列位置とに基づいたいずれかの領域グループに注目領域A(j,t)を分類する。
一方、領域分類部13が上述したステップS201〜S209の処理手順を適宜繰り返し実行した後、グループ特徴量算出部14は、図2に示したステップS105において、上述したように、注目領域A(j,t)の領域グループ毎にグループ特徴量を算出する。
具体的には、グループ特徴量算出部14は、Lab−時系列特徴空間における特徴点クラスタ毎に、特徴点クラスタの重心L(k),a(k),b(k)を算出する。次いで、グループ特徴量算出部14は、算出した特徴点クラスタ毎の重心L(k),a(k),b(k)を用いて、同一特徴点クラスタに属する注目領域A(j,t)の色特徴量である平均明度指数L(j,t)および平均知覚色度a(j,t),b(j,t)の分散を特徴点クラスタ毎に算出する。グループ特徴量算出部14は、特徴点クラスタ毎に、同一特徴点クラスタにおける平均明度指数L(j,t)および平均知覚色度a(j,t),b(j,t)の分散の合計値Sum(k)を次式(2)に基づいて算出する。このようにグループ特徴量算出部14が算出した合計値Sum(k)は、注目領域A(j,t)の領域グループ毎のグループ特徴量である。
Figure 2011024727
なお、式(2)において、Num(k)は、特徴点クラスタCG(k)に属する特徴点すなわち注目領域A(j,t)の総数である。j(k)maxは、特徴点クラスタCG(k)に属する注目領域A(j,t)のインデクスjの最大値であり、j(k)minは、特徴点クラスタCG(k)に属する注目領域A(j,t)のインデクスjの最小値である。Num(t)は、体内画像群PG内の体内画像P(j)から検出された注目領域A(j,t)のうち、特徴点クラスタCG(k)に属する注目領域の数である。
一方、重心L(k),a(k),b(k)は、同一特徴点クラスタにおける時系列の平均値と色特徴量の平均値とを座標成分とするLab−時系列特徴空間内の座標点である。このうち、重心L(k)は、注目領域A(j,t)の色特徴量のうちの平均明度指数L(j,t)に対応し、重心a(k)は、注目領域A(j,t)の色特徴量のうちの平均知覚色度a(j,t)に対応し、重心b(k)は、注目領域A(j,t)の色特徴量のうちの平均知覚色度b(j,t)に対応する。
ここで、図5,6を参照して、領域分類部13が実行するステップS202〜S209の処理手順を具体的に説明する。図5に示すように、Lab−時系列特徴空間内に総数Tm=6の特徴点C(1)〜C(6)が存在する場合、領域分類部13は、これら6つの特徴点C(1)〜C(6)を各々特徴点クラスタ(CG(1))〜(CG(6))と看做して上述したステップS202、S203の各処理手順を順次行い、6つの特徴点クラスタ(CG(1))〜(CG(6))から選出可能な2つの特徴点クラスタの全組み合わせの各色差△E1〜△E15を順次算出する。
次いで、領域分類部13は、算出した各色差△E1〜△E15を比較処理し、この比較処理の結果に基づいて、全ての色差△E1〜△E15のうちの最小値である色差△E3を最小色差△Eminに決定する。図5においては、領域分類部13は、特徴点クラスタの全組み合わせの中から、この色差△E3に対応する特徴点クラスタ(CG(1)),(CG(4))の組み合わせを選出する。
つぎに、領域分類部13は、上述したステップS204,S205を順次行って、所定の閾値以下の色差△E3に対応する特徴点クラスタ(CG(1)),(CG(4))の組み合わせを選出する。次いで、領域分類部13は、上述したステップS206の処理手順を行って、この選出した組み合わせ内の特徴点C(1)と特徴点C(4)とが時系列的に隣接または同一であるか否かを判定する。
ここで、特徴点C(1)および特徴点C(4)は、図5に示すように時系列的に隣接せず且つ同一でもない。このため、領域分類部13は、上述したステップ208の処理手順を実行し、特徴点クラスタに対する時系列的な状況の判定処理が未完であるため、上述したステップS209を実行する。図5においては、領域分類部13は、現在の特徴点クラスタ(CG(1)),(CG(4))の組み合わせの色差△E3の次に小さい色差となる特徴点クラスタの組み合わせ、例えば特徴点クラスタ(CG(1)),(CG(2))を選出する。
続いて、領域分類部13は、上述したステップS204,S205を再度行って、互いに異なる特徴点クラスタに属して時系列的に最も近くなる特徴点C(1),C(2)を選出する。次いで、領域分類部13は、上述したステップS206を再度行って、この選出した特徴点C(1)と特徴点C(2)とが時系列的に隣接または同一であるか否かを判定する。
ここで、特徴点C(1)および特徴点C(2)は、図5に示すように時系列的に隣接する。このため、領域分類部13は、上述したステップS207を行って、時系列的に隣接する特徴点C(1),C(2)が各々属する特徴点クラスタ(CG(1)),(CG(2))の組み合わせを同一クラスタに統合する。
具体的には、領域分類部13は、まず、特徴点クラスタ(CG(1)),(CG(2))のうちの最小のインデクスka(=1)をインデクスとする新規の特徴点クラスタCG(1)を作成する。この特徴点クラスタCG(1)には、図5に示すように、特徴点C(1),C(2)が属する。
次いで、領域分類部13は、上述した特徴点クラスタの統合処理後に残存する残りの特徴点クラスタ(CG(3))〜(CG(6))の各インデクスをデクリメント処理するとともに、特徴点クラスタの総数Tkの減算処理を行う。この結果、元来の特徴点クラスタ(CG(3))〜(CG(6))は、特徴点クラスタ(CG(2))〜(CG(5))に更新され、特徴点クラスタの総数Tk=6は、総数Tk=5に更新される。
その後、領域分類部13は、上述したステップS202〜S209の処理手順を適宜繰り返し実行して、図5に示すように、元来6つ存在した特徴点を3つの特徴点クラスタCG(1)〜CG(3)に分類する。具体的には図5に示すように、特徴点クラスタCG(1)には、元来の特徴点クラスタ(C(1)),(C(2))が属し、特徴点クラスタCG(2)には元来の特徴点クラスタ(C(3)),(C(4))が属し、特徴点クラスタCG(3)には元来の特徴点クラスタ(C(5)),(C(6))が属する。
さらに、領域分類部13は、上述したステップS202〜S209を適宜繰り返し行って、図5に示すように、閾値以下の色差になる特徴点クラスタCG(1),CG(2)の組み合わせを選出し、この選出した特徴点クラスタCG(1),CG(2)の組み合わせの中から、互いに異なる特徴点クラスタに属して時系列的に最も近い特徴点になる特徴点C(2),C(3)の組み合わせを選出する。
ここで、図5に示すように、特徴点C(2),C(3)の組み合わせが時系列的に隣接するので、領域分類部13は、上述したステップS207の処理手順を行って、特徴点クラスタCG(1)と特徴点クラスタCG(2)とを同一クラスタに統合する。一方、領域分類部13は、特徴点クラスタCG(2),CG(3)の組み合わせの中から互いに異なる特徴点クラスタに属して時系列的に最も近い特徴点になる特徴点C(4),C(5)の組み合わせを選出した場合、特徴点C(4),C(5)の組み合わせが時系列的に隣接せず且つ同一ではないので、特徴点クラスタCG(2)と特徴点クラスタCG(3)とを統合しない。
その後、領域分類部13は、Lab−時系列特徴空間内の全特徴点クラスタについて判定処理が完了した場合、上述したステップS201〜S209の処理手順による各注目領域の分類処理を終了する。この結果、領域分類部13は、図6に示すように、元来の特徴点クラスタ(CG(1))〜(CG(4))を同一の特徴点クラスタCG(1)に統合し、元来の特徴点クラスタ(CG(5)),(CG(6))を同一の特徴点クラスタCG(2)に統合する。
ここで、領域分類部13は、図6に示した特徴点クラスタの統合処理結果に基づいて、体内画像群PG内の全注目領域A(1,1),A(2,1),A(3,1),A(4,1),A(6,1),A(7,1)のうち、特徴点クラスタCG(1)に対応する領域グループに注目領域A(1,1),A(2,1),A(3,1),A(4,1)を分類し、特徴点クラスタCG(2)に対応する領域グループに注目領域A(6,1),A(7,1)を分類する。
なお、同一の特徴点クラスタに属する複数の注目領域、すなわち同一の領域グループに分類された複数の注目領域は、色特徴量等の特徴が類似し且つ時系列的に近傍の注目領域同士である。一方、特徴点クラスタは単一の特徴点によって構成される場合もあり、特徴点クラスタに属する単一の特徴点に対応する注目領域は、体内画像群PG内に含まれる他の注目領域に比して、色特徴量等の特徴が類似せず且つ時系列的に離間した注目領域である。
つぎに、上述したステップS106における各注目領域グループの代表領域の選出処理について詳細に説明する。図7は、各注目領域グループの代表領域の選出処理の処理手順を例示するフローチャートである。図8は、注目領域グループからの代表領域の選出数と注目領域グループのグループ特徴量との関係を示す関数の一具体例を示す模式図である。図9は、グループ特徴量に応じた選出数の代表領域を注目領域グループから選出する状態を説明する模式図である。画像処理装置2の領域選出部15は、上述したように、制御部40の制御に基づいてステップS106における各注目領域グループの代表領域の選出処理を実行する。
すなわち、図7に示すように、領域選出部15は、まず、Lab−時系列特徴空間内に存在する各特徴点クラスタの選出数決定処理を実行する(ステップS301)。このステップS301において、選出数決定部15aは、体内画像群PG内の注目領域A(j,t)の領域グループ毎に、グループ特徴量算出部14が算出したグループ特徴量に応じた代表領域の選出数を決定する。
具体的には、関数部15eは、例えば図8に示すようなグループ特徴量と要約率との関係を示す関数を予め保持する。ここで、この関数における要約率(図8に示す縦軸)は、上述したように、1つの領域グループに属する注目領域A(j,t)の何%を選出するかを決定する値であり、同一の特徴点クラスタから選出する特徴点選出数、すなわち、同一の領域グループからの代表領域の選出数に対応する。関数部15eは、注目領域A(j,t)の領域グループ毎に、グループ特徴量に応じた要約率を算出する。
つぎに、選出数決定部15aは、関数部15eが領域グループ毎に算出した要約率に基づいて、領域グループ毎の注目領域A(j,t)を代表する代表領域の選出数を決定する。すなわち、選出数決定部15aは、特徴点クラスタ毎に算出された要約率に基づいて、特徴点クラスタ毎の代表的な特徴点の選出数を決定する。
ステップS301を実行後、領域選出部15は、グループ特徴量に基づいた特徴点クラスタの細分類処理を実行する(ステップS302)。このステップS302において、細分類処理部15bは、領域分類部13によって分類された領域グループ毎の各注目領域A(j,t)の平均明度指数L(j,t)および平均知覚色度a(j,t),b(j,t)に基づいて、選出数決定部15aによって決定した選出数と同数の類似グループに領域グループ毎の注目領域を細分類する。
具体的には、細分類処理部15bは、Lab−時系列特徴空間内に存在する特徴点クラスタ毎に、特徴点クラスタに属する特徴点C(m)の注目領域A(j,t)の平均明度指数L(j,t)および平均知覚色度a(j,t),b(j,t)を用いてk−means法等の公知のクラスタリングを行うことによって、上述した選出数と同数の特徴点クラスタに特徴点C(m)を細分類する。
ここで、細分類処理部15bが細分類した特徴点クラスタは、上述した類似グループに対応するグループである。すなわち、細分類処理後の特徴点クラスタには、色特徴量が一層類似した注目領域A(j,t)同士(例えば同一の注目領域同士)の各特徴点が属する。なお、類似グループに対応する特徴点クラスタ内の特徴点は、他の特徴点クラスタ内の特徴点に比して平均明度指数L(k)および平均知覚色度a(k),b(k)が類似している。
一方、ステップS302を実行後、領域選出部15は、Lab−時系列特徴空間内の各特徴点クラスタの重心算出処理を実行する(ステップS303)。このステップS303において、重心算出部15cは、細分類処理部15bが細分類した類似グループ毎に、類似グループに属する複数の注目領域A(j,t)の特徴量の重心を算出する。
具体的には、重心算出部15cは、細分類処理部15bが細分類した特徴点クラスタ毎に、細分類後の同一特徴点クラスタに属する全ての特徴点の色特徴量軸座標成分の平均値と時系列軸座標成分の平均値とを算出する。なお、Lab−時系列特徴空間における特徴点の色特徴量軸座標成分の平均値は、注目領域A(j,t)の平均明度指数L(j,t)および平均知覚色度a(j,t),b(j,t)の各平均値である。
次いで、重心算出部15cは、細分類処理後の特徴点クラスタ毎に、算出した時系列軸座標成分の平均値を時系列軸方向の座標成分とし、且つ、算出した色特徴量軸座標成分の平均値を色特徴量軸方向の座標成分とする重心を算出する。ここで、細分類処理後の特徴点クラスタ毎の重心は、色特徴量軸方向の座標成分として、細分類後の同一特徴点クラスタの平均明度指数および平均知覚色度を有する。
なお、ステップS303において、重心算出部15cは、Lab−時系列特徴空間内の全特徴点クラスタのうち、細分類処理部15bが細分類していない残りの特徴点クラスタについても、細分類処理後の特徴点クラスタの場合と同様に特徴点クラスタの重心を算出する。例えば、このような細分類されていない残りの特徴点クラスタとして、類似性の高い2つの特徴点のみが属する特徴点クラスタ等が挙げられる。
ステップS303を実行後、領域選出部15は、特徴点クラスタの重心に最近の特徴点に基づいた注目領域の選出処理を実行する(ステップS304)。その後、領域選出部15は、本処理を終了して図2に示したステップS106の処理手順にリターンする。
ステップS304において、最近領域選出部15dは、上述した類似グループ毎に、同一類似グループに含まれる複数の注目領域A(j,t)の中から、重心算出部15cが算出した特徴量の重心に対し、他の注目領域に比して最も近い注目領域を選出する。
具体的には、最近領域選出部15dは、まず、細分類処理部15bが細分類した特徴点クラスタ毎に、細分類後の同一特徴点クラスタに属する複数の特徴点と重心との各離間距離を算出する。ここで、最近領域選出部15dが算出する離間距離は、Lab−時系列特徴空間における同一の特徴点クラスタ内の特徴点と重心算出部15cによる重心との間のユークリッド距離である。
次いで、最近領域選出部15dは、細分類処理後の特徴点クラスタ毎に、各特徴点と重心との各離間距離を比較処理して、重心に最も近い特徴点を選出する。この結果、最近領域選出部15dは、Lab−時系列特徴空間内の特徴点クラスタ毎に、選出数決定部15aが決定した選出数と同数の特徴点を選出する。
その後、最近領域選出部15dは、上述したように選出した特徴点に対応する注目領域A(j,t)を類似グループ毎に選出し、この結果、体内画像群PGにおける各類似グループの中から類似グループ毎の選出数と同数の注目領域A(j,t)を選出する。
なお、ステップS304において、最近領域選出部15dは、類似グループに分類されていない残りの領域グループについても、上述した類似グループの場合と同様に、同一領域グループに含まれる複数の注目領域A(j,t)の中から、重心算出部15cが算出した特徴量の重心に対し、他の注目領域に比して最も近い注目領域を選出する。
具体的には、最近領域選出部15dは、まず、細分類処理部15bが細分類していない残りの特徴点クラスタ毎に、同一特徴点クラスタに属する複数の特徴点と重心との各離間距離を算出する。つぎに、最近領域選出部15dは、残りの特徴点クラスタ毎に、各特徴点と重心との各離間距離を比較処理して、重心に最も近い特徴点を選出する。この結果、最近領域選出部15dは、残りの特徴点クラスタ毎に、上述した選出数と同数の特徴点を選出する。
その後、最近領域選出部15dは、上述したように選出した特徴点に対応する注目領域A(j,t)を領域グループ毎に選出し、この結果、体内画像群PGにおける各領域グループの中から領域グループ毎の選出数と同数の注目領域A(j,t)を選出する。
以上のようにして、領域選出部15は、最近領域選出部15dが選出した注目領域A(j,t)を、各領域グループまたは各類似グループの代表領域とし、この代表領域の選出処理結果を代表画像出力部16に送信する。
ここで、図9を参照して、領域選出部15が実行するステップS301〜S304の処理手順を具体的に説明する。図9に示すように、Lab−時系列特徴空間内に、特徴点C(1)〜C(4)を含む特徴点クラスタCG(1)と特徴点C(5),C(6)を含む特徴点クラスタCG(2)とが存在する場合、領域選出部15は、ステップS301の処理手順を行って、これら2つの特徴点クラスタCG(1),CG(2)の各々について選出数Vを決定する。
具体的には、選出数決定部15aは、関数部15eが算出した要約率(図8参照)に基づいて、特徴点クラスタCG(1)のグループ特徴量に応じた特徴点クラスタCG(1)の選出数V(=2)と、特徴点クラスタCG(2)のグループ特徴量に応じた特徴点クラスタCG(2)の選出数V(=1)とを決定する。
つぎに、領域選出部15は、ステップS302の処理手順を行って、特徴点クラスタCG(1),CG(2)を細分類する。具体的には、細分類処理部15bは、ステップS301において選出数決定部15aが決定した特徴点クラスタCG(1)の選出数Vが「2」であるため、特徴点クラスタCG(1)に属する特徴点C(1)〜C(4)の各色特徴量に基づいて、図9に示すように、特徴点C(1)〜C(4)を選出数V(=2)と同数である2つの特徴点クラスタCG(11),CG(12)に細分類する。この結果、特徴点クラスタCG(1)内の全特徴点C(1)〜C(4)のうち、色特徴量の類似性が他の特徴点C(3),C(4)に比して高い2つの特徴点C(1),C(2)が同一の特徴点クラスタCG(11)に細分類され、色特徴量の類似性が他の特徴点C(1),C(2)に比して高い2つの特徴点C(3),C(4)が同一の特徴点クラスタCG(12)に細分類される。
一方、細分類処理部15bは、ステップS301において選出数決定部15aが決定した特徴点クラスタCG(2)の選出数Vが「1」であるため、特徴点クラスタCG(2)を1つの特徴点クラスタに細分類する。すなわち、細分類処理部15bは、図9に示すように、特徴点クラスタCG(2)に属する特徴点C(5),C(6)をこれ以上細分類せず、このグループ状態を維持する。
続いて、領域選出部15は、ステップS303の処理手順を行って、Lab−時系列特徴空間内の各特徴点クラスタの重心を算出する。具体的には、重心算出部15cは、図9に示す特徴点クラスタCG(11),CG(12),CG(2)の各重心D1,D2,D3を算出する。
詳細には、重心算出部15cは、特徴点クラスタCG(11)に属する2つの特徴点C(1),C(2)の時系列軸座標成分の平均値と色特徴量軸座標成分の平均値とを算出する。同様に、重心算出部15cは、特徴点クラスタCG(12)に属する2つの特徴点C(3),C(4)の時系列軸座標成分の平均値と色特徴量軸座標成分の平均値とを算出する。また、重心算出部15cは、特徴点クラスタCG(2)に属する2つの特徴点C(5),C(6)の時系列軸座標成分の平均値と色特徴量軸座標成分の平均値とを算出する。なお、重心算出部15cが算出した時系列軸座標成分の各平均値が重心D1〜D3の時系列軸方向の座標成分であり、色特徴量軸座標成分の平均値が重心D1〜D3の色特徴量軸方向の座標成分である。
その後、領域選出部15は、ステップS304の処理手順を行って、Lab−時系列特徴空間内の各特徴点クラスタの重心に最近の特徴点に基づいて、代表的な注目領域を選出する。具体的には、最近領域選出部15dは、図9に示す特徴点クラスタCG(11),CG(12),CG(2)に対応する注目領域の類似グループまたは領域グループ毎に、重心算出部15cが算出した特徴量の重心に対し、他の注目領域に比して最も近い注目領域を選出する。
すなわち、最近領域選出部15dは、まず、特徴点クラスタCG(1)に属する一方の特徴点クラスタCG(11)における特徴点C(1)と重心D1との離間距離L1と特徴点C(2)と重心D1との離間距離L2とを算出する。次いで、最近領域選出部15dは、算出した各離間距離L1,L2(L1<L2)を比較処理して、重心D1に最も近い特徴点、すなわち、離間距離が一層小さい特徴点C(1)を選出する。つぎに、最近領域選出部15dは、特徴点クラスタCG(1)に属する他方の特徴点クラスタCG(12)における特徴点C(3)と重心D2との離間距離L3と特徴点C(4)と重心D2との離間距離L4とを算出する。次いで、最近領域選出部15dは、算出した各離間距離L3,L4(L3>L4)を比較処理して、重心D2に最も近い特徴点、すなわち、離間距離が一層小さい特徴点C(4)を選出する。この結果、最近領域選出部15dは、特徴点クラスタCG(1)から、特徴点クラスタCG(1)における選出数V(=2)と同数である2つの特徴点C(1),C(4)を選出する。
つぎに、最近領域選出部15dは、特徴点クラスタCG(11)に対応する注目領域の類似グループの中から、特徴点C(1)に対応する注目領域A(1,1)を選出し、特徴点クラスタCG(12)に対応する注目領域の類似グループの中から、特徴点C(4)に対応する注目領域A(4,1)を選出する。すなわち、最近領域選出部15dは、体内画像群PGの中から、特徴点クラスタCG(1)における選出数V(=2)と同数である2つの注目領域A(1,1),A(4,1)を選出する。
続いて、最近領域選出部15dは、残りの特徴点クラスタCG(2)における特徴点C(5)と重心D3との離間距離L5と特徴点C(6)と重心D3との離間距離L6とを算出する。次いで、最近領域選出部15dは、この算出した各離間距離L5,L6(L5<L6)を比較処理して、重心D3に最も近い特徴点、すなわち、離間距離が一層小さい特徴点C(5)を選出する。この結果、最近領域選出部15dは、特徴点クラスタCG(2)から、特徴点クラスタCG(2)における選出数V(=1)と同数である1つの特徴点C(5)を選出する。つぎに、最近領域選出部15dは、特徴点クラスタCG(2)に対応する注目領域の領域グループの中から、特徴点C(5)に対応する注目領域A(6,1)を選出する。すなわち、最近領域選出部15dは、体内画像群PGの中から、特徴点クラスタCG(1)における選出数V(=1)と同数である1つの注目領域A(6,1)を選出する。
なお、図9に示すように、特徴点クラスタCG(11)に対応する注目領域の類似グループには、体内画像群PG内の注目領域A(1,1),A(2,1)が属し、特徴点クラスタCG(12)に対応する注目領域の類似グループには、体内画像群PG内の注目領域A(3,1),A(4,1)が属する。また、特徴点クラスタCG(2)に対応する注目領域の領域グループには、この体内画像群PG内の注目領域A(6,1),A(7,1)が属する。
その後、領域選出部15は、最近領域選出部15dが選出した注目領域A(1,1),A(4,1),A(6,1)を、体内画像群PG内の各領域グループまたは各類似グループを代表する代表領域として選出し、代表領域の選出処理結果を代表画像出力部16に送信する。
なお、代表画像出力部16は、領域選出部15から取得した代表領域の選出処理結果に基づいて、体内画像群PGの中から、代表領域である注目領域A(1,1)を含む体内画像P(1)と、注目領域A(4,1)を含む体内画像P(4)と、注目領域A(6,1)を含む体内画像P(6)とを表示対象の代表体内画像群として表示装置3に出力する。
以上、説明したように、本発明の実施の形態1では、注目領域の特徴量と、注目領域を含む体内画像の時系列位置とに基づいて、注目領域をいずれかの領域グループに分類し、その分類された領域グループに属する注目領域の中から代表となる代表領域を選出して、その代表領域を含む代表画像を出力するように構成した。
このため、注目領域の特徴量と、注目領域を含む体内画像の時系列位置とを考慮した分類によって、例えば、特徴量が互いに似通って、且つ時間的にも近い注目領域どうし(例えば、所定の時間内に検出された同一の病変領域どうし)を一つの領域グループにまとめることができる。そして、その領域グループ内の、例えば、互いに似通った注目領域の中から選出した代表領域を含む代表画像を出力することによって、互いに似通った注目領域を含む体内画像が何回も繰り返し出力されるという無駄を排除できる。その結果、観察者による観察の負担を軽減できる。
さらに、本発明の実施の形態1では、出力対象である代表画像の代表領域を、少なくとも観察の必要性の高い注目領域の中から選出するため、観察の必要性の低い非注目領域を含む画像が代表画像となる可能性を排除でき、その結果、非注目領域を含む画像を出力対象から外すことができる。その結果、観察の必要性の低い非注目領域を含む画像を観察するという無駄を排除でき、観察者による観察の負担を軽減できる。
(実施の形態2)
つぎに、本発明の実施の形態2について説明する。上述した実施の形態1では、注目領域の領域グループ毎のグループ特徴量に応じて選出数を決定し、この決定した選出数と同数のグループに注目領域の領域グループを細分類し、この細分類した注目領域のグループ毎に代表的な注目領域を選出して、この選出数と同数の代表領域を選出していたが、本実施の形態2では、上述した選出数に応じて時系列方向に特徴点クラスタを等間隔に分割する時系列座標を算出し、得られた時系列座標に最近の特徴点に対応する注目領域を選出することによって、この選出数と同数の代表領域を選出している。
図10は、本発明の実施の形態2にかかる画像処理装置を備えた画像表示システムの一構成例を模式的に示すブロック図である。図10に示すように、本実施の形態2にかかる画像表示システム200は、上述した実施の形態1にかかる画像表示システム100の画像処理装置2に代えて画像処理装置202を備える。画像処理装置202は、実施の形態1にかかる画像処理装置2の演算部10に代えて演算部210を備える。演算部210は、実施の形態1における演算部10の領域選出部15に代えて領域選出部215を備える。その他の構成は実施の形態1と同じであり、同一構成部分には同一符号を付している。
画像処理装置202は、上述したように、実施の形態1にかかる画像処理装置2の演算部10に代えて演算部210を備える。また、演算部210は、実施の形態1における演算部10の領域選出部15に代えて領域選出部215を備える。なお、画像処理装置202は、演算部210の機能以外、上述した実施の形態1にかかる画像処理装置2と同様の機能を有する。また、演算部210は、領域選出部215の機能以外、上述した実施の形態1における演算部10と同様の機能を有する。
領域選出部215は、図10に示すように、上述した実施の形態1における領域選出部15と同様の選出数決定部15aを備える。一方、領域選出部215は、上述した実施の形態1における細分類処理部15b、重心算出部15c、および最近領域選出部15dを備えていない。すなわち、領域選出部215は、実施の形態1における領域選出部15と同様の選出数決定処理機能を有し、選出数決定部15aが注目領域の領域グループ毎に決定した選出数に応じた各注目領域グループの代表領域選出処理機能のみ異なる。このような領域選出部215は、実施の形態1における領域選出部15と異なる処理手順によって、選出数決定部15aによる選出数と同数の代表領域を各領域グループの中から各々選出する。
具体的には、領域選出部215は、選出数決定部15aによる選出数に対応して、体内画像群PG内の複数の注目領域A(j,t)の特徴量の分布を時系列方向に等間隔に分割する時系列座標を算出し、これら複数の注目領域A(j,t)を代表する代表領域として、この時系列座標に最近の注目領域をこの選出数と同数選出する。
つぎに、本発明の実施の形態2にかかる画像処理装置202の動作について説明する。なお、画像処理装置202は、上述したように、演算部210内の領域選出部215の動作以外、実施の形態1にかかる画像処理装置2と同様に動作する。すなわち、画像処理装置202は、図2に示したステップS101〜S107と略同様の処理手順を行って、表示装置3に1以上の代表体内画像を出力する。具体的には、画像処理装置202は、ステップS106の処理手順のみ、実施の形態1にかかる画像処理装置2と異なる。以下に、本実施の形態2にかかる画像処理装置202が実行するステップS106の処理手順を詳細に説明する。
図11は、実施の形態2における各注目領域グループの代表領域の選出処理の処理手順を例示するフローチャートである。図12は、実施の形態2における代表領域の選出処理を具体的に説明するための模式図である。
なお、図12に示す特徴空間は、Lab−時系列特徴空間である。図12では、本発明の説明を簡単にするために、注目領域A(j,t)が有する平均明度指数L(j,t)および平均知覚色度a(j,t),b(j,t)を色特徴量として一軸に纏めて表している。
画像処理装置202の領域選出部215は、制御部40の制御に基づいて図11に示すステップS401〜S403の処理手順を順次実行して、図2に示したステップS106における各注目領域グループの代表領域の選出処理を達成する。
具体的には、図11に示すように、領域選出部215は、まず、実施の形態1の場合と同様に、Lab−時系列特徴空間内に存在する各特徴点クラスタの選出数決定処理を実行する(ステップS401)。このステップS401において、選出数決定部15aは、図7に示したステップS301と同様に、体内画像群PG内の注目領域A(j,t)の領域グループ毎に、グループ特徴量算出部14が算出したグループ特徴量に応じた代表領域の選出数Vを決定する。
ステップS401を実行後、領域選出部215は、選出数決定部15aが決定した選出数Vに応じて時系列方向に特徴点クラスタを等間隔に分割する時系列座標の算出処理を実行する(ステップS402)。
ステップS402において、領域選出部215は、まず、Lab−時系列特徴空間内の特徴点クラスタCG(k)のインデクスkを初期値(=1)に設定し、特徴点クラスタCG(1)に属する全ての特徴点の時系列方向の座標成分(すなわち時系列座標)の最小値Tminおよび最大値Tmaxを求める。
次いで、領域選出部215は、時系列座標の最大値Tmaxと最小値Tminとの差(Tmax−Tmin)を、選出数決定部15aによる特徴点クラスタCG(1)の選出数Vに「1」を加算した値(V+1)によって除算する。ここで、領域選出部215は、この除算処理によって得られた値を時系列方向の刻み幅Wとする。
その後、領域選出部215は、特徴点クラスタCG(1)を分割する時系列座標T(1,i)のインデクスiを初期値(=1)に設定し、インデクスiを特徴点クラスタCG(1)の選出数Vと同値になるまで順次インクリメント処理しつつ、次式(3)に基づいて、特徴点クラスタCG(1)における時系列座標T(1,i)(k=1,1≦i≦V)を順次算出する。

T(k,i)=Tmin+W×i (1≦k≦Tk、1≦i≦V) ・・・(3)
特徴点クラスタCG(1)における時系列座標T(1,i)を算出後、領域選出部215は、特徴点クラスタCG(k)のインデクスkを特徴点クラスタの総数Tkまで順次インクリメント処理しつつ、式(3)に基づいて、上述した演算処理を繰り返し実行する。この結果、領域選出部215は、Lab−時系列特徴空間内に存在する特徴点クラスタCG(k)毎に、選出数決定部15aによる選出数Vと同数の時系列座標T(k,i)を算出する。
ここで、特徴点クラスタCG(k)毎の時系列座標T(k,i)は、特徴点クラスタCG(k)に属する特徴点の分布を時系列方向に等間隔に分割する。すなわち、特徴点クラスタCG(k)毎の時系列座標T(k,i)は、特徴点クラスタCG(k)に対応する複数の注目領域の特徴量の分布を時系列方向に等間隔に分割する。
ステップS402を実行後、領域選出部215は、Lab−時系列特徴空間内の特徴点クラスタCG(k)毎に、時系列座標T(k,i)に最近の特徴点に基づいた注目領域の選出処理を実行する(ステップS403)。その後、領域選出部215は、本処理を終了して図2に示したステップS106にリターンする。
ステップS403において、領域選出部215は、まず、Lab−時系列特徴空間内における特徴点クラスタCG(k)毎に、特徴点クラスタCG(k)に属する各特徴点と時系列座標T(k,i)との各離間距離を算出する。つぎに、領域選出部215は、特徴点クラスタCG(k)毎に、算出した各離間距離を所定の順序で順次(例えば時系列順に順次)比較処理し、最小の離隔距離になる特徴点、すなわち時系列座標T(k,i)に最も近い特徴点を特徴点クラスタCG(k)の選出数Vと同数選出する。次いで、領域選出部215は、選出した特徴点に対応する注目領域を体内画像群PGの中から選出する。この結果、領域選出部215は、体内画像群PGにおける注目領域の領域グループ毎に、各領域グループの代表領域として選出数Vと同数の注目領域A(j,t)を選出する。領域選出部215は、この代表領域の選出処理結果を代表画像出力部16に送信する。
ここで、図12を参照して、領域選出部215が実行するステップS401〜S403の処理手順を具体的に説明する。図12に示すように、Lab−時系列特徴空間内に、特徴点C(1)〜C(4)を含む特徴点クラスタCG(1)と特徴点C(5),C(6)を含む特徴点クラスタCG(2)とが存在する場合、領域選出部215は、ステップS401の処理手順を行って、これら2つの特徴点クラスタCG(1),CG(2)の各々について選出数Vを決定する。
具体的には、選出数決定部15aは、まず、上述した実施の形態1の場合と同様に、関数部15eが算出した要約率に基づいて、特徴点クラスタCG(1)のグループ特徴量に応じた特徴点クラスタCG(1)の選出数V(=2)と、特徴点クラスタCG(2)のグループ特徴量に応じた特徴点クラスタCG(2)の選出数V(=1)とを決定する。
つぎに、領域選出部215は、ステップS402の処理手順を行って、Lab−時系列特徴空間内の特徴点クラスタCG(1)および特徴点クラスタCG(2)の各時系列座標を算出する。具体的には、領域選出部215は、まず、特徴点クラスタCG(1)に属する特徴点C(1)〜C(4)の各時系列座標のうちの最小値Tminおよび最大値Tmaxを求める。ここで、最小値Tminは、特徴点クラスタCG(1)において最もインデクスが小さい特徴点C(1)の時系列軸の座標成分であり、最大値Tmaxは、特徴点クラスタCG(1)において最もインデクスが大きい特徴点C(4)の時系列軸の座標成分である。
次いで、領域選出部215は、時系列座標の最大値Tmaxと最小値Tminとの差(Tmax−Tmin)を、特徴点クラスタCG(1)における選出数V(=2)に「1」を加算した値(=3)によって除算し、これによって、特徴点クラスタCG(1)における時系列方向の刻み幅Wを算出する。領域選出数215は、特徴点クラスタCG(1)の選出数V(=2)、時系列座標の最小値Tminおよび刻み幅W等のパラメータを用い、上述した式(3)に基づいて、特徴点クラスタCG(1)の選出数V(=2)と同数である2つの時系列座標T(1,1),T(1,2)を算出する。
ここで、時系列座標T(1,1),T(1,2)は、図12に示すように、特徴点クラスタCG(1)における特徴点C(1)〜C(4)の分布を時系列軸の方向に等間隔に分割する。すなわち、時系列座標T(1,1),T(1,2)は、これら4つの特徴点C(1)〜C(4)に対応する体内画像群PG内の4つの注目領域A(1,1)〜A(4,1)の特徴量の分布を時系列方向に等間隔に分割する。
続いて、領域選出部215は、残りの特徴点クラスタCG(2)に属する2つの特徴点C(5),C(6)の各時系列座標のうちの最小値Tminおよび最大値Tmaxを求める。ここで、最小値Tminは、特徴点クラスタCG(2)において最もインデクスが小さい特徴点C(5)の時系列軸の座標成分であり、最大値Tmaxは、特徴点クラスタCG(2)において最もインデクスが大きい特徴点C(6)の時系列軸の座標成分である。
つぎに、領域選出部215は、時系列座標の最大値Tmaxと最小値Tminとの差(Tmax−Tmin)を、特徴点クラスタCG(2)の選出数V(=1)に「1」を加算した値(=2)によって除算し、これによって、特徴点クラスタCG(2)における時系列方向の刻み幅Wを算出する。領域選出数215は、特徴点クラスタCG(2)の選出数V(=1)、時系列座標の最小値Tminおよび刻み幅W等のパラメータを用い、式(3)に基づいて、特徴点クラスタCG(2)の選出数V(=1)と同数である1つの時系列座標T(2,1)を算出する。
ここで、時系列座標T(2,1)は、図12に示すように、特徴点クラスタCG(2)における2つの特徴点C(5),C(6)の分布を時系列軸の方向に等間隔に分割する。すなわち、時系列座標T(2,1)は、これら2つの特徴点C(5),C(6)に対応する体内画像群PG内の2つの注目領域A(6,1),A(7,1)の特徴量の分布を時系列方向に等間隔に分割する。
その後、領域選出部215は、ステップS403の処理手順を行って、特徴点クラスタCG(1)における2つの時系列座標T(1,1),T(1,2)に各々最近の各特徴点に基づいて注目領域を選出し、且つ、特徴点クラスタCG(2)における1つの時系列座標T(2,1)に最近の特徴点に基づいて注目領域を選出する。
具体的には、領域選出部215は、まず、よりインデクスの小さい特徴点クラスタCG(1)に属する4つの特徴点C(1)〜C(4)と2つの時系列座標T(1,1),T(1,2)のうちの一方の時系列座標T(1,1)との各離間距離を算出する。つぎに、領域選出部215は、算出した各離間距離を所定の順序(例えば時系列順)で順次比較処理し、時系列座標T(1,1)との離間距離が最小になる特徴点、すなわち、時系列座標T(1,1)に最も近い特徴点C(2)を特徴点クラスタCG(1)の中から選出する。
つぎに、領域選出部215は、特徴点クラスタCG(1)に属する4つの特徴点C(1)〜C(4)と2つの時系列座標T(1,1),T(1,2)のうちの他方の時系列座標T(1,2)との各離間距離を算出する。次いで、領域選出部215は、算出した各離間距離を所定の順序(例えば時系列順)で順次比較処理し、時系列座標T(1,2)との離間距離が最小になる特徴点、すなわち、時系列座標T(1,2)に最も近い特徴点C(3)を特徴点クラスタCG(1)の中から選出する。
以上のようにして、領域選出部215は、特徴点クラスタCG(1)の中から、特徴点クラスタCG(1)における選出数V(=2)と同数である2つの特徴点C(2),C(3)を選出する。続いて、領域選出部215は、選出した2つの特徴点C(2),C(3)に各々対応する2つの注目領域A(2,1),A(3,1)を体内画像群PGの中から選出する。
つぎに、領域選出部215は、処理済みの特徴点クラスタCG(1)の次にインデクスの小さい特徴点クラスタCG(2)に属する2つの特徴点C(5),C(6)と1つの時系列座標T(2,1)との各離間距離を算出する。続いて、領域選出部215は、算出した各離間距離を所定の順序(例えば時系列順)で順次比較処理し、時系列座標T(2,1)との離間距離が最小になる特徴点、すなわち、時系列座標T(2,1)に最も近い特徴点C(5)を特徴点クラスタCG(2)の中から選出する。
以上のようにして、領域選出部215は、特徴点クラスタCG(2)の中から、特徴点クラスタCG(2)の選出数V(=1)と同数である1つの特徴点C(5)を選出する。続いて、領域選出部215は、選出した1つの特徴点C(5)に対応する1つの注目領域A(6,1)を体内画像群PGの中から選出する。
ここで、領域選出部215は、上述したようにLab−時系列特徴空間内の全特徴点クラスタCG(1),CG(2)について注目領域の選出処理を実行することによって、体内画像群PGにおける領域グループ毎に選出数Vと同数の注目領域A(j,t)を選出する。
具体的には、領域選出部215は、注目領域の各領域グループの代表領域として、選出数V=2と同数の注目領域A(2,1),A(3,1)、および選出数V=1と同数の注目領域A(6,1)の合計3つの注目領域を選出する。領域選出部215は、この代表領域の選出処理結果を代表画像出力部16に送信する。
一方、代表画像出力部16は、領域選出部215から取得した代表領域の選出処理結果に基づいて、体内画像群PGの中から、代表領域である注目領域A(2,1)を含む体内画像P(2)と、注目領域A(3,1)を含む体内画像P(3)と、注目領域A(6,1)を含む体内画像P(6)とを表示対象の代表体内画像群として表示装置3に出力する。
なお、領域選出部215は、同一の特徴点クラスタCG(k)内に、時系列座標T(k,i)に対して最小の離間距離になる特徴点が複数存在する場合、所定の手法に従って、これら複数の特徴点のうちのいずれか一つを選出すればよい。例えば、領域選出部215は、時系列座標T(k,i)に対して最小の離間距離になる複数の特徴点のうち、時系列順に最も過去(すなわちインデクスが最小)の特徴点を選出してもよいし、時系列順に最新(すなわちインデクスが最大)の特徴点を選出してもよい。いずれの場合であっても、領域選出部215は、時系列座標T(k,i)毎に1つの特徴点を選出すればよい。
以上、説明したように、本発明の実施の形態2では、体内画像群に含まれる注目領域の領域グループのグループ特徴量に応じて決定した選出数と同数であって、Lab−時系列特徴空間における特徴点クラスタに対応する領域グループ内の注目領域の特徴量の分布を時系列方向に等間隔に分割する時系列座標を算出し、この体内画像群内の各注目領域を代表する代表領域として、この選出数と同数の時系列座標毎に体内画像群内の注目領域を選出するようにし、その他を実施の形態1と同様に構成した。
このため、上述した実施の形態1の場合と同様の作用効果を享受するとともに、Lab−時系列特徴空間内の特徴点クラスタを再度細分類処理することなく、上述した選出数と同数の注目領域を代表領域として選出しているため、実施の形態1の場合に比して短時間に、体内画像群の中から注目領域を選出することができ、この結果、観察すべき注目領域を含む体内画像を出力するまでに必要な処理時間の短時間化を一層促進できる画像処理装置、画像処理プログラムおよび画像処理方法を実現することができる。
なお、上述した実施の形態1,2では、単一の体内画像に単一の注目領域が被写体として含まれる場合を例示したが、これに限らず、単一の体内画像に複数の注目領域が被写体と含まれていてもよい。例えば、上述した体内画像群PG内の体内画像P(j)に複数の注目領域A(j,t)(t≧2)が被写体として含まれる場合、これら複数の注目領域A(j,t)は2以上のインデクスtによって識別される。具体的には、この体内画像P(j)に含まれる注目領域数が2つである場合、これらは、注目領域A(j,1),A(j,2)のように注目領域数と同数のインデクスtによって識別される。なお、同一の体内画像に含まれる複数の注目領域の時系列座標は互いに同値である。
また、上述した実施の形態1,2では、画素値変換部12aは処理対象の体内画像におけるRGBの色空間の値をL*a*b*空間の値に変換していたが、これに限らず、画素値変換部12aは処理対象の体内画像におけるRGBの色空間の値をL*a*b*空間以外の色空間の値、例えば、Yuv色空間の値に変換してもよいし、HSI色空間の値に変換してもよい。
さらに、上述した実施の形態1,2では、病変領域等の注目領域の特徴量の一例として色特徴量を例示したが、これに限らず、上述した注目領域の特徴量は、注目領域の円形度等の形状特徴量であってもよいし、周囲長等の構造特徴量であってもよいし、体内画像における注目領域の位置情報等の位置特徴量であってもよいし、これらのうちの少なくとも2つを組み合わせたものであってもよい。
また、上述した実施の形態1,2では、注目領域(または特徴点)の色特徴量である平均明度指数および平均知覚色度の各分散の合計値Sum(k)を注目領域の領域グループのグループ特徴量としていたが、これに限らず、上述したグループ特徴量算出部14は、注目領域の色特徴量の各分散の平均値をグループ特徴量として算出してもよいし、注目領域の色特徴量の各標準偏差の合計値または平均値をグループ特徴量として算出してもよい。あるいは、グループ特徴量算出部14は、上述した注目領域の色特徴量に基づいた分散または標準偏差等の値に、注目領域の時系列方向の分散を加味(例えば加算)した値をグループ特徴量として算出してもよい。
さらに、上述した実施の形態1,2では、病変領域等の注目領域が属する領域グループのグループ特徴量に応じて代表的な注目領域(すなわち代表領域)の選出数を決定していたが、これに限らず、Lab−時系列特徴空間における特徴点または特徴点クラスタ毎に属する注目領域の特徴量(例えば色特徴量)のばらつきに応じて代表領域の選出数を決定してもよい。なお、被検体内部のカプセル内視鏡が動きの無い状態で時系列順に順次撮像した体内画像群においては、撮像された注目領域の色、形状等の特徴量変化が画像間で少ない。一方、被検体内部のカプセル内視鏡が動きの有る状態で時系列順に順次撮像した体内画像群においては、撮像された注目領域の色、形状等の特徴量変化が画像間で多少ある。すなわち、動きの有るカプセル内視鏡によって撮像された体内画像群の方が病変領域等の注目領域の見え方に変化があり、観察すべき注目情報をより多く有している。このため、動きの有るカプセル内視鏡によって撮像された体内画像群を処理する場合は、Lab−時系列特徴空間における特徴点または特徴点クラスタ毎に属する注目領域の特徴量のばらつきに応じて代表領域の選出数を変化させることが望ましい。
また、上述した実施の形態2では、上述した式(3)に基づいて時系列座標を算出していたが、これに限らず、上述した時系列座標は、時系列順に撮像された体内画像群内の各体内画像のフレーム番号(画像番号)であってもよい。なお、同一のフレーム番号の体内画像内に特徴が類似する複数の注目領域が被写体として含まれる場合、代表領域として選出される注目領域は、これら複数の注目領域のいずれであってもよい。
さらに、上述した実施の形態1,2では、注目領域の特徴点は、注目領域の色特徴量(例えばL*a*b*空間の平均明度指数および平均知覚色度等)の座標軸と時系列の座標軸とによって形成される特徴空間に分布していたが、これに限らず、本発明における注目領域の特徴点は、注目領域の色特徴量、注目領域の円形度等の形状特徴量、注目領域の周囲長等の構造特徴量、注目領域の位置情報等の位置特徴量、および時系列のうちのいずれか2つの座標軸によって形成される特徴空間に分布してもよい。例えば、注目領域の特徴点は、色特徴量および形状特徴量の各座標軸によって形成される特徴空間に分布してもよいし、形状特徴量および時系列の各座標軸によって形成される特徴空間に分布してもよい。
また、上述した実施の形態1,2では、処理対象の時系列画像群の一例として被検体の体内画像群を例示したが、これに限らず、本発明における処理対象の時系列画像群は、時系列に沿って順次撮像された画像群であれば、被検体の消化管内部等の体内が時系列順に撮像された体内画像群でなくてもよく、その被写体は消化管内部等の被検体内部以外の所望のものであってもよい。すなわち、時系列画像群に含まれる注目領域は、被検体の体内領域に限らず、観察者が観察する所望の領域であってもよい。また、上述した画像入力装置1は、カプセル内視鏡等によって撮像された体内画像群を画像処理装置に入力するものに限らず、所望の被写体を撮像した時系列画像群を記憶して画像処理装置にこの時系列画像群を入力する装置であってもよいし、自らが時系列画像群を撮像し、得られた時系列画像群を画像表示装置に入力するデジタルカメラ等の電子撮像装置であってもよい。
さらに、上述した実施の形態1,2では、時系列画像群のうちの注目領域を含む代表画像を表示対象の時系列画像として表示装置3に出力していたが、これに限らず、本発明にかかる画像処理装置、画像処理プログラムおよび画像処理方法は、時系列画像群のうちの注目領域を含む代表画像を記憶対象の時系列画像として記憶装置に出力するものであってもよいし、時系列画像群のうちの注目領域を含む代表画像を印刷対象の時系列画像としてプリンタに出力するものであってもよい。すなわち、本発明にかかる画像処理装置から注目領域を含む代表画像を受信する装置は、上述した表示装置3に限らず、ハードディスク等の記憶装置であってもよいし、プリンタであってもよい。
また、上述した実施の形態1,2では、処理プログラムを実行する制御部の動作に基づいたソフトウェアによる画像処理装置の処理手順を説明したが、これに限らず、本発明にかかる画像処理装置は、ハードウェアによる処理手順を実行してもよい。
また、上述した実施の形態1,2では、観察の必要性が高い注目領域として粘膜領域または病変領域等の体内領域を例示したが、これに限らず、被検体内部の観察内容によっては、泡または便等の体内領域が注目領域であってもよく、また、粘膜領域または病変領域等の体内領域(実施の形態1,2における注目領域)が非注目領域であってもよい。
以上のように、本発明にかかる画像処理装置、画像処理プログラムおよび画像処理方法は、時系列に沿って撮像された時系列画像群の観察に有用であり、特に、非注目領域を含む時系列画像の観察または同一注目領域の繰り返しとなる複数の時系列画像の観察に費やされる無駄な時間を削除して、時系列画像群の観察者による観察の負担を軽減することができる画像処理装置、画像処理プログラムおよび画像処理方法に適している。
1 画像入力装置
2,202 画像処理装置
3 表示装置
10,210 演算部
11 注目領域検出部
12 特徴量算出部
12a 画素値変換部
12b 平均値算出部
13 領域分類部
13a 隣接状況判定部
13b 類似度判定部
14 グループ特徴量算出部
15,215 領域選出部
15a 選出数決定部
15b 細分類処理部
15c 重心算出部
15d 最近領域選出部
15e 関数部
16 代表画像出力部
20 入力部
30 記憶部
40 制御部
100,200 画像表示システム
A(1,t)〜A(7,t) 注目領域
C(1)〜C(6) 特徴点
CG(1)〜CG(3),CG(11),CG(12) 特徴点クラスタ
D1〜D3 重心
P(1)〜P(N) 体内画像
PG 体内画像群

Claims (17)

  1. 時系列に沿って撮像された時系列画像群に含まれる注目領域を検出する注目領域検出部と、
    前記注目領域の特徴を示す特徴量を算出する算出処理部と、
    前記注目領域の特徴量と、前記注目領域を含む時系列画像の時系列位置とに基づいて、前記注目領域をいずれかの領域グループに分類する領域分類部と、
    前記領域グループ毎の特徴を示すグループ特徴量を算出するグループ特徴量算出部と、
    前記グループ特徴量をもとに、前記領域グループの中から前記領域グループに属する前記注目領域を代表する1以上の代表領域を選出する領域選出部と、
    前記時系列画像群のうちの前記代表領域を含む1以上の代表画像を出力する代表画像出力部と、
    を備えたことを特徴とする画像処理装置。
  2. 前記領域分類部は、前記検出された注目領域同士の特徴量の類似性を示す類似度と、前記検出された注目領域を含む各々の時系列画像の時系列位置の関係とに基づいて、前記検出された注目領域をいずれかの領域グループに分類することを特徴とする請求項1に記載の画像処理装置。
  3. 前記領域分類部は、
    前記注目領域検出部が検出した複数の前記注目領域が時系列的に隣接するか否かを判定する隣接状況判定部と、
    前記算出処理部が算出した複数の前記注目領域の特徴量の類似度を判定する類似度判定部と、
    を備え、
    前記領域分類部は、前記隣接状況判定部が判定した複数の前記注目領域の隣接状況と前記類似度判定部が判定した複数の前記注目領域の特徴量の類似度とをもとに、複数の前記注目領域をいずれかの領域グループに分類することを特徴とする請求項2に記載の画像処理装置。
  4. 前記領域分類部は、前記注目領域の特徴量の座標軸および時系列の座標軸によって形成される特徴空間における前記注目領域の特徴量の分布状態と前記注目領域の時系列的な分布状態とに基づいて、複数の前記注目領域をいずれかの領域グループに分類することを特徴とする請求項3に記載の画像処理装置。
  5. 前記隣接状況判定部は、複数の前記領域グループから各々選出した領域グループ別の各注目領域が時系列的に隣接状態または同一状態であるか否かを判定し、
    前記領域分類部は、前記領域グループ別の各注目領域が時系列的に隣接状態または同一状態である場合、複数の前記領域グループを同一の領域グループに統合することを特徴とする請求項3または4に記載の画像処理装置。
  6. 前記注目領域の特徴量は、色特徴量であることを特徴とする請求項1〜5のいずれか一つに記載の画像処理装置。
  7. 前記算出処理部は、
    前記注目領域に属する画素の値をL*a*b*空間の値に変換する画素値変換部と、
    前記画素値変換部が変換出力したL*a*b*空間の値の平均値を前記注目領域の色特徴量として算出する平均値算出部と、
    を備えたことを特徴とする請求項6に記載の画像処理装置。
  8. 前記グループ特徴量算出部は、前記特徴空間における前記注目領域の特徴量の分散を算出し、この算出した前記分散をもとに前記領域グループのグループ特徴量を算出することを特徴とする請求項4〜7のいずれか一つに記載の画像処理装置。
  9. 前記領域選出部は、前記グループ特徴量に基づいて前記代表領域の選出数を決定する選出数決定部を備え、前記領域グループの中から前記選出数と同数の前記代表領域を選出することを特徴とする請求項1〜8のいずれか一つに記載の画像処理装置。
  10. 前記選出数決定部は、前記グループ特徴量と前記選出数との関係を示す関数を設定する関数部を備え、前記関数部が設定した前記関数に基づいて前記選出数を決定することを特徴とする請求項9に記載の画像処理装置。
  11. 前記領域選出部は、前記領域グループに含まれる複数の前記注目領域の特徴量に基づいて、前記選出数と同数の類似グループに複数の前記注目領域を細分類する細分類処理部を備え、前記類似グループ毎に1つの注目領域を選出することによって前記選出数と同数の前記代表領域を選出することを特徴とする請求項9または10に記載の画像処理装置。
  12. 前記領域選出部は、
    前記類似グループに含まれる複数の前記注目領域の特徴量の重心を前記類似グループ毎に算出する重心算出部と、
    前記類似グループに含まれる複数の前記注目領域の中から、前記重心に最近の注目領域を選出する最近領域選出部と、
    を備え、
    前記領域選出部は、前記代表領域として前記最近の注目領域を前記類似グループ毎に選出することを特徴とする請求項11に記載の画像処理装置。
  13. 前記領域選出部は、前記選出数に対応して、複数の前記注目領域の特徴量の分布を時系列方向に等間隔に分割する時系列座標を算出し、前記代表領域として、複数の前記注目領域の中から前記時系列座標に最近の注目領域を前記選出数と同数選出することを特徴とする請求項9または10に記載の画像処理装置。
  14. 前記時系列画像群は、被検体の消化管内部を時系列に沿って撮像した体内画像群であることを特徴とする請求項1〜13のいずれか一つに記載の画像処理装置。
  15. 前記注目領域は、被検体内部の病変領域または粘膜領域であることを特徴とする請求項1〜14のいずれか一つに記載の画像処理装置。
  16. 時系列に沿って撮像された時系列画像群に含まれる注目領域を検出する注目領域検出手順と、
    前記注目領域の特徴を示す特徴量を算出する算出処理手順と、
    前記注目領域の特徴量と、前記注目領域を含む時系列画像の時系列位置とに基づいて、前記注目領域をいずれかの領域グループに分類する領域分類手順と、
    前記領域グループ毎の特徴を示すグループ特徴量を算出するグループ特徴量算出手順と、
    前記グループ特徴量をもとに、前記領域グループの中から前記領域グループに属する前記注目領域を代表する1以上の代表領域を選出する領域選出手順と、
    前記時系列画像群のうちの前記代表領域を含む1以上の代表画像を出力する代表画像出力手順と、
    をコンピュータに実行させることを特徴とする画像処理プログラム。
  17. 時系列に沿って撮像された時系列画像群に含まれる注目領域を検出する注目領域検出ステップと、
    前記注目領域の特徴を示す特徴量を算出する算出処理ステップと、
    前記注目領域の特徴量と、前記注目領域を含む時系列画像の時系列位置とに基づいて、前記注目領域をいずれかの領域グループに分類する領域分類ステップと、
    前記領域グループ毎の特徴を示すグループ特徴量を算出するグループ特徴量算出ステップと、
    前記グループ特徴量をもとに、前記領域グループの中から前記領域グループに属する前記注目領域を代表する1以上の代表領域を選出する領域選出ステップと、
    前記時系列画像群のうちの前記代表領域を含む1以上の代表画像を出力する代表画像出力ステップと、
    を含むことを特徴とする画像処理方法。
JP2009172435A 2009-07-23 2009-07-23 画像処理装置、画像処理プログラムおよび画像処理方法 Active JP5220705B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2009172435A JP5220705B2 (ja) 2009-07-23 2009-07-23 画像処理装置、画像処理プログラムおよび画像処理方法
CN201080028989.7A CN102469925B (zh) 2009-07-23 2010-07-15 图像处理装置和图像处理方法
PCT/JP2010/061977 WO2011010598A1 (ja) 2009-07-23 2010-07-15 画像処理装置、画像処理プログラムおよび画像処理方法
EP10802218.7A EP2457494A4 (en) 2009-07-23 2010-07-15 Image processing device, image processing program and image processing method
US13/351,342 US9186051B2 (en) 2009-07-23 2012-01-17 Image processing device, computer-readable recording device, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009172435A JP5220705B2 (ja) 2009-07-23 2009-07-23 画像処理装置、画像処理プログラムおよび画像処理方法

Publications (2)

Publication Number Publication Date
JP2011024727A true JP2011024727A (ja) 2011-02-10
JP5220705B2 JP5220705B2 (ja) 2013-06-26

Family

ID=43499071

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009172435A Active JP5220705B2 (ja) 2009-07-23 2009-07-23 画像処理装置、画像処理プログラムおよび画像処理方法

Country Status (5)

Country Link
US (1) US9186051B2 (ja)
EP (1) EP2457494A4 (ja)
JP (1) JP5220705B2 (ja)
CN (1) CN102469925B (ja)
WO (1) WO2011010598A1 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013030105A (ja) * 2011-07-29 2013-02-07 Olympus Corp 画像処理装置、画像処理方法、及び画像処理プログラム
JP5164127B1 (ja) * 2012-09-03 2013-03-13 国立大学法人山口大学 画像処理装置、画像処理方法、画像処理プログラム
WO2015137016A1 (ja) * 2014-03-14 2015-09-17 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
WO2015141302A1 (ja) * 2014-03-17 2015-09-24 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
WO2015141692A1 (ja) * 2014-03-20 2015-09-24 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP2016085635A (ja) * 2014-10-27 2016-05-19 Kddi株式会社 健康データ分析補助装置
WO2017122431A1 (ja) * 2016-01-15 2017-07-20 オリンパス株式会社 画像解析装置、画像解析システム、及び画像解析装置の作動方法
WO2020067100A1 (ja) * 2018-09-26 2020-04-02 富士フイルム株式会社 医用画像処理装置、プロセッサ装置、医用画像処理方法、及びプログラム
CN111050628A (zh) * 2017-09-15 2020-04-21 富士胶片株式会社 医疗图像处理装置
CN111612751A (zh) * 2020-05-13 2020-09-01 河北工业大学 基于嵌入分组注意力模块的Tiny-yolov3网络的锂电池缺陷检测方法
US10776921B2 (en) 2016-05-19 2020-09-15 Olympus Corporation Image processing apparatus, operation method for image processing apparatus, and recording medium
JPWO2019220848A1 (ja) * 2018-05-17 2021-05-13 富士フイルム株式会社 内視鏡装置、内視鏡操作方法、及びプログラム
CN114332025A (zh) * 2021-12-29 2022-04-12 长沙慧维智能医疗科技有限公司 消化内镜口咽通过时间自动检测系统及方法
KR102405434B1 (ko) * 2020-12-31 2022-06-07 주식회사 카이미 딥러닝 모델을 이용한 내시경 영상으로부터의 불필요한 이미지 제거 방법, 장치 및 프로그램

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130066452A1 (en) * 2011-09-08 2013-03-14 Yoshiyuki Kobayashi Information processing device, estimator generating method and program
JP6191278B2 (ja) * 2013-06-26 2017-09-06 カシオ計算機株式会社 情報処理装置、コンテンツ課金システム及びプログラム
CN104541289B (zh) * 2013-07-24 2017-11-17 华为技术有限公司 一种兴趣点判断方法和兴趣点判断装置
CN103870829A (zh) * 2013-09-16 2014-06-18 中国人民解放军国防科学技术大学 基于sar图像的车辆目标特征提取方法
DE112015002681B4 (de) * 2014-06-06 2022-09-29 Mitsubishi Electric Corporation Bild-analyseverfahren, bild-analysevorrichtung, bild-analysesystem und tragbare bild-analysevorrichtung
CN105574504B (zh) * 2015-12-16 2019-01-18 华南理工大学 一种适用于运动自行车再识别的相似性度量计算方法
US9917999B2 (en) 2016-03-09 2018-03-13 Wipro Limited System and method for capturing multi-media of an area of interest using multi-media capturing devices
WO2019220801A1 (ja) * 2018-05-15 2019-11-21 富士フイルム株式会社 内視鏡画像処理装置、内視鏡画像処理方法、及びプログラム
WO2020044523A1 (ja) * 2018-08-30 2020-03-05 オリンパス株式会社 記録装置、画像観察装置、観察システム、観察システムの制御方法、及び観察システムの作動プログラム
WO2020059098A1 (ja) * 2018-09-20 2020-03-26 オリンパス株式会社 画像処理装置
WO2020095909A1 (ja) * 2018-11-07 2020-05-14 株式会社 東芝 画像処理装置、画像処理方法及びプログラム
CN109872327A (zh) * 2019-03-13 2019-06-11 南京航空航天大学 基于改进后密度峰和k均值聚类的簇绒地毯图像分割方法
DE112019007057T5 (de) * 2019-03-20 2021-12-30 Hoya Corporation Endoskopsystem
CN112419309B (zh) * 2020-12-11 2023-04-07 上海联影医疗科技股份有限公司 医学图像相位确定方法、装置、计算机设备和存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005131031A (ja) * 2003-10-29 2005-05-26 Olympus Corp 画像表示装置、画像表示方法、及び画像表示プログラム
JP2006280792A (ja) * 2005-04-04 2006-10-19 Olympus Corp 画像表示装置
JP2006320650A (ja) * 2005-05-20 2006-11-30 Olympus Medical Systems Corp 画像表示装置
JP2007006129A (ja) * 2005-06-23 2007-01-11 Toshiba Corp 代表画像抽出装置及びその方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6801645B1 (en) * 1999-06-23 2004-10-05 Icad, Inc. Computer aided detection of masses and clustered microcalcifications with single and multiple input image context classification strategies
JP2001256244A (ja) * 2000-03-14 2001-09-21 Fuji Xerox Co Ltd 画像データ分類装置および画像データ分類方法
US6654728B1 (en) * 2000-07-25 2003-11-25 Deus Technologies, Llc Fuzzy logic based classification (FLBC) method for automated identification of nodules in radiological images
US7272251B2 (en) * 2002-09-30 2007-09-18 The Board Of Trustees Of The Leland Stanford Junior University Method for detecting and classifying a structure of interest in medical images
US7496228B2 (en) * 2003-06-13 2009-02-24 Landwehr Val R Method and system for detecting and classifying objects in images, such as insects and other arthropods
JP4652694B2 (ja) 2004-01-08 2011-03-16 オリンパス株式会社 画像処理方法
US8442280B2 (en) * 2004-01-21 2013-05-14 Edda Technology, Inc. Method and system for intelligent qualitative and quantitative analysis of digital radiography softcopy reading
US7564994B1 (en) * 2004-01-22 2009-07-21 Fotonation Vision Limited Classification system for consumer digital images using automatic workflow and face detection and recognition
KR100590537B1 (ko) 2004-02-18 2006-06-15 삼성전자주식회사 복수 영상의 요약 방법 및 장치
US7088850B2 (en) * 2004-04-15 2006-08-08 Edda Technology, Inc. Spatial-temporal lesion detection, segmentation, and diagnostic information extraction system and method
US8423125B2 (en) * 2004-11-09 2013-04-16 Spectrum Dynamics Llc Radioimaging
EP2237189B1 (en) * 2005-01-27 2018-08-01 Cambridge Research & Instrumentation, Inc. Classifying image features
US7783094B2 (en) * 2005-06-02 2010-08-24 The Medipattern Corporation System and method of computer-aided detection
US7720267B2 (en) * 2005-07-15 2010-05-18 Siemens Medical Solutions Usa, Inc. Method and apparatus for classifying tissue using image data
US7756309B2 (en) * 2005-07-27 2010-07-13 Bioimagene, Inc. Method and system for storing, indexing and searching medical images using anatomical structures of interest
US8014576B2 (en) * 2005-11-23 2011-09-06 The Medipattern Corporation Method and system of computer-aided quantitative and qualitative analysis of medical images
US7949181B2 (en) * 2007-06-28 2011-05-24 General Electric Company Segmentation of tissue images using color and texture

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005131031A (ja) * 2003-10-29 2005-05-26 Olympus Corp 画像表示装置、画像表示方法、及び画像表示プログラム
JP2006280792A (ja) * 2005-04-04 2006-10-19 Olympus Corp 画像表示装置
JP2006320650A (ja) * 2005-05-20 2006-11-30 Olympus Medical Systems Corp 画像表示装置
JP2007006129A (ja) * 2005-06-23 2007-01-11 Toshiba Corp 代表画像抽出装置及びその方法

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9773185B2 (en) 2011-07-29 2017-09-26 Olympus Corporation Image processing apparatus, image processing method, and computer readable recording device
JP2013030105A (ja) * 2011-07-29 2013-02-07 Olympus Corp 画像処理装置、画像処理方法、及び画像処理プログラム
JP5164127B1 (ja) * 2012-09-03 2013-03-13 国立大学法人山口大学 画像処理装置、画像処理方法、画像処理プログラム
WO2015137016A1 (ja) * 2014-03-14 2015-09-17 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP2015173827A (ja) * 2014-03-14 2015-10-05 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
US10223785B2 (en) 2014-03-14 2019-03-05 Olympus Corporation Image processing apparatus, image processing method, and computer-readable recording medium extracting one or more representative images
WO2015141302A1 (ja) * 2014-03-17 2015-09-24 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
US9959618B2 (en) 2014-03-17 2018-05-01 Olympus Corporation Image processing apparatus, image processing method, and computer-readable recording medium
US10198811B2 (en) 2014-03-20 2019-02-05 Olympus Corporation Image processing apparatus, image processing method, and computer-readable recording medium
JP2015181594A (ja) * 2014-03-20 2015-10-22 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
WO2015141692A1 (ja) * 2014-03-20 2015-09-24 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP2016085635A (ja) * 2014-10-27 2016-05-19 Kddi株式会社 健康データ分析補助装置
WO2017122431A1 (ja) * 2016-01-15 2017-07-20 オリンパス株式会社 画像解析装置、画像解析システム、及び画像解析装置の作動方法
JP6234648B1 (ja) * 2016-01-15 2017-11-22 オリンパス株式会社 画像解析装置、画像解析システム、及び画像解析装置の作動方法
US10736499B2 (en) 2016-01-15 2020-08-11 Olympus Corporation Image analysis apparatus, image analysis system, and method for operating image analysis apparatus
US10776921B2 (en) 2016-05-19 2020-09-15 Olympus Corporation Image processing apparatus, operation method for image processing apparatus, and recording medium
JP2022010202A (ja) * 2017-09-15 2022-01-14 富士フイルム株式会社 医療画像処理装置
CN111050628B (zh) * 2017-09-15 2022-09-06 富士胶片株式会社 医疗图像处理装置
CN111050628A (zh) * 2017-09-15 2020-04-21 富士胶片株式会社 医疗图像处理装置
JPWO2019054265A1 (ja) * 2017-09-15 2020-10-01 富士フイルム株式会社 医療画像処理装置
US11449988B2 (en) 2017-09-15 2022-09-20 Fujifilm Corporation Medical image processing apparatus
JP7135082B2 (ja) 2018-05-17 2022-09-12 富士フイルム株式会社 内視鏡装置、内視鏡装置の作動方法、及びプログラム
JPWO2019220848A1 (ja) * 2018-05-17 2021-05-13 富士フイルム株式会社 内視鏡装置、内視鏡操作方法、及びプログラム
US11950760B2 (en) 2018-05-17 2024-04-09 Fujifilm Corporation Endoscope apparatus, endoscope operation method, and program
WO2020067100A1 (ja) * 2018-09-26 2020-04-02 富士フイルム株式会社 医用画像処理装置、プロセッサ装置、医用画像処理方法、及びプログラム
CN111612751A (zh) * 2020-05-13 2020-09-01 河北工业大学 基于嵌入分组注意力模块的Tiny-yolov3网络的锂电池缺陷检测方法
CN111612751B (zh) * 2020-05-13 2022-11-15 河北工业大学 基于嵌入分组注意力模块的Tiny-yolov3网络的锂电池缺陷检测方法
KR102405434B1 (ko) * 2020-12-31 2022-06-07 주식회사 카이미 딥러닝 모델을 이용한 내시경 영상으로부터의 불필요한 이미지 제거 방법, 장치 및 프로그램
CN114332025A (zh) * 2021-12-29 2022-04-12 长沙慧维智能医疗科技有限公司 消化内镜口咽通过时间自动检测系统及方法
CN114332025B (zh) * 2021-12-29 2022-07-26 长沙慧维智能医疗科技有限公司 消化内镜口咽通过时间自动检测系统及方法

Also Published As

Publication number Publication date
EP2457494A4 (en) 2017-05-24
EP2457494A1 (en) 2012-05-30
US20120114203A1 (en) 2012-05-10
US9186051B2 (en) 2015-11-17
CN102469925A (zh) 2012-05-23
CN102469925B (zh) 2014-07-30
WO2011010598A1 (ja) 2011-01-27
JP5220705B2 (ja) 2013-06-26

Similar Documents

Publication Publication Date Title
JP5220705B2 (ja) 画像処理装置、画像処理プログラムおよび画像処理方法
US8515141B2 (en) Medical image processing apparatus and method for detecting locally protruding lesion
US8502861B2 (en) Image display apparatus
JP4994737B2 (ja) 医療用画像処理装置及び医療用画像処理方法
US8830308B2 (en) Image management apparatus, image management method and computer-readable recording medium associated with medical images
EP1849402B1 (en) Medical image processing device, lumen image processing device, lumen image processing method, and programs for them
JP5005032B2 (ja) 画像表示装置および画像表示プログラム
JP5276225B2 (ja) 医用画像処理装置及び医用画像処理装置の作動方法
JP5215105B2 (ja) 画像表示装置、画像表示方法、および画像表示プログラム
JP2010158308A (ja) 画像処理装置、画像処理方法および画像処理プログラム
US20140028821A1 (en) Image processing apparatus
EP3936026B1 (en) Medical image processing device, processor device, endoscopic system, medical image processing method, and program
US20080068454A1 (en) Image display apparatus
JP2009050321A (ja) 画像処理装置
JP2011234931A (ja) 画像処理装置、画像処理方法、および画像処理プログラム
US8666135B2 (en) Image processing apparatus
JP2009039449A (ja) 画像処理装置
JP2011024628A (ja) 画像処理装置、画像処理プログラムおよび画像処理方法
JP2007151645A (ja) 医用画像診断支援システム
US20230281968A1 (en) Recording Medium, Method for Generating Learning Model, Surgical Support Device and Information Processing Method
JP2009077800A (ja) 画像処理装置および画像処理プログラム
WO2021141048A1 (ja) 内視鏡システム、プロセッサ装置、診断支援方法、及びコンピュータプログラム
JP2008093213A (ja) 医療用画像処理装置及び医療用画像処理方法
JP2021045337A (ja) 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理方法、及びプログラム
JP2012024404A (ja) 画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130306

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5220705

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250