JP5374078B2 - 画像処理装置、画像処理方法および画像処理プログラム - Google Patents

画像処理装置、画像処理方法および画像処理プログラム Download PDF

Info

Publication number
JP5374078B2
JP5374078B2 JP2008157223A JP2008157223A JP5374078B2 JP 5374078 B2 JP5374078 B2 JP 5374078B2 JP 2008157223 A JP2008157223 A JP 2008157223A JP 2008157223 A JP2008157223 A JP 2008157223A JP 5374078 B2 JP5374078 B2 JP 5374078B2
Authority
JP
Japan
Prior art keywords
image
representative vector
unit
distribution map
representative
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008157223A
Other languages
English (en)
Other versions
JP2009297365A5 (ja
JP2009297365A (ja
Inventor
尚之 宮下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2008157223A priority Critical patent/JP5374078B2/ja
Priority to US12/485,182 priority patent/US9076078B2/en
Publication of JP2009297365A publication Critical patent/JP2009297365A/ja
Publication of JP2009297365A5 publication Critical patent/JP2009297365A5/ja
Application granted granted Critical
Publication of JP5374078B2 publication Critical patent/JP5374078B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2137Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on criteria of topology preservation, e.g. multidimensional scaling or self-organising maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/40Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/945User interactive design; Environments; Toolboxes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30092Stomach; Gastric
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS

Description

本発明は、カプセル型内視鏡等の撮像装置で撮像された一連の画像群から代表画像を選択して表示させるための画像処理装置、画像処理方法および画像処理プログラムに関するものである。
近年、生体内を撮像する手段として、カプセル型内視鏡が用いられている。カプセル型内視鏡は、患者である被検体の口から飲み込まれて自然排出されるまでの約8時間、消化管の蠕動運動に伴って胃・小腸・大腸などを移動しながら、2〜4fpsで各臓器部位を撮像する。このため、カプセル型内視鏡が1回の検査で撮像する体内画像は、約6万枚にのぼる。
カプセル型内視鏡が撮像した体内画像を観察する場合、体内画像を動画像再生のように時系列順に再生表示させて観察するのが一般的であるが(例えば、特許文献1参照)、一連の体内画像群から所定枚数の代表画像を選択して表示することによって、一連の体内画像群の全体的な傾向を示す画像処理装置も知られている。例えば、非特許文献1に記載の画像処理装置は、自己組織化マップ(SOM:Self Organized Maps)を用いて一連の体内画像群から代表画像を選択して表示する。
特開2004−321603号公報 A Machine Learning Framework Using SOMs :Applications in the Intestinal Motility Assessment
ところで、一連の体内画像群から代表画像を選択して表示する従来の画像処理装置は、自己組織化マップを用いて代表画像を選択する処理を行っているだけであり、重要な画像であっても一連の体内画像群の全画像に対して枚数が少ない画像、例えば病変画像などは代表画像として選択されず、表示されない場合がある。この場合、観察者は、別途の表示操作を行って重要な画像を検索しなければならず、画像観察における負担が大きなものとなっている。したがって、非特許文献1によると、診断に適した症例の全体的な傾向が提示されず、大量の画像を観察する上で不便である。
本発明は、上記に鑑みてなされたものであって、一連の画像群からなる大量の画像を観察する上で、重要な画像の表示漏れなく全体的な傾向を表示させることができ、画像観察に際して観察者にかかる負担を軽減できる画像処理装置、画像処理方法および画像処理プログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明のある態様にかかる画像処理装置は、撮像装置で撮像された一連の画像群に含まれる各画像の特徴量を算出する特徴量算出部と、前記一連の画像群の全体的な傾向を示す分布マップを作成する分布マップ作成部と、前記分布マップを表示部に表示させる表示制御部と、を備え、前記分布マップ作成部は、各画像の特徴量および各画像の重要度をもとに、前記一連の画像群中に含まれる複数の画像を代表する所定数の代表ベクトルを算出する代表ベクトル算出部と、算出された代表ベクトルの前記分布マップ上での配置を決定する代表ベクトル配置決定部と、を備える。
また、本発明の別の態様にかかる画像処理方法は、撮像装置で撮像された一連の画像群に含まれる各画像の特徴量を算出する特徴量算出ステップと、前記一連の画像群の全体的な傾向を示す分布マップを作成する分布マップ作成ステップと、前記分布マップを表示部に表示させる表示制御ステップと、を含み、前記分布マップ作成ステップは、各画像の特徴量および各画像の重要度をもとに、前記一連の画像群中に含まれる複数の画像を代表する所定数の代表ベクトルを算出する代表ベクトル算出ステップと、算出された代表ベクトルの前記分布マップ上での配置を決定する代表ベクトル配置決定ステップと、を含む。
また、本発明のさらなる別の態様にかかる画像処理プログラムは、撮像装置で撮像された一連の画像群に含まれる各画像の特徴量を算出する特徴量算出手順と、前記一連の画像群の全体的な傾向を示す分布マップを作成する分布マップ作成手順と、前記分布マップを表示部に表示させる表示制御手順と、を含み、前記分布マップ作成手順は、各画像の特徴量および各画像の重要度をもとに、前記一連の画像群中に含まれる複数の画像を代表する所定数の代表ベクトルを算出する代表ベクトル算出手順と、算出された代表ベクトルの前記分布マップ上での配置を決定する代表ベクトル配置決定手順と、を含む。
これらの画像処理装置、画像処理方法および画像処理プログラムは、一連の画像群の全体的な傾向を示す分布マップを作成して表示部に表示させる上で、代表ベクトル算出部が、分布マップ上に配置させる代表ベクトルを一連の画像群に含まれる各画像の特徴量および各画像の重要度をもとに算出するので、一連の画像群中から重要な画像の表示漏れなく全体的な傾向を表示させることができる。
本発明によれば、画像観察に際して観察者にかかる負担を軽減できる。
以下、図面を参照しつつ本発明にかかる画像処理装置、画像処理方法および画像処理プログラムの好適な実施の形態について説明する。本実施の形態では、体内撮像装置であるカプセル型内視鏡によって時系列に撮像された約6万枚に及ぶ一連の体内画像群を処理し、症例の全体的な傾向を示す画像の分布マップを表示させる画像処理装置を例に説明する。ただし、本発明にかかる画像処理装置の処理対象とする画像群は、カプセル型内視鏡によって撮像された画像群に限定されるものではない。また、本実施の形態によって本発明が限定されるものではない。なお、図面の記載において同一部分または相当する部分には同一の符号を付して示す。
(実施の形態1)
実施の形態1にかかる画像処理装置について、図1を参照して説明する。図1は、本実施の形態1にかかる画像処理装置1の概略構成を示すブロック図である。画像処理装置1は、例えばワークステーション等のコンピュータによって構成されたものであり、各種情報の入力を受け付ける入力部10、処理結果など各種情報を表示出力する出力部20、一連の画像群の情報などの各種情報を記憶する記憶部30および画像処理装置1の各部の処理および動作を制御する制御部40を備える。さらに画像処理装置1は、カプセル型内視鏡で時系列に撮像された一連の画像群を処理する画像処理部50および一連の画像群から所定の画像を検索する画像検索部60を備える。
入力部10は、キーボード、マウスおよびデータ通信インターフェイスなどによって実現され、観察者から直接に各種情報の入力を受け付けるとともに、例えば、各種メモリカード、CD、DVDなどの携帯型記録媒体や通信ネットワークを介して体内画像の画像情報の入力を受け付ける。この入力部10は操作受付部11を備える。操作受付部11は、出力部20に表示された画像などを選択する操作を受け付ける。
出力部20は、液晶ディスプレイなどの表示部を構成する表示デバイスによって実現され、画像処理部50で行われた画像処理結果および画像検索部60で行われた画像検索結果などを表示する。また、出力部20は、観察者に対して各種処理情報の入力を依頼するGUI(Graphical User Interface)画面を表示する。なお、出力部20は、表示画面の一例として、分布マップ表示部21を備える。分布マップ表示部21は、一連の画像群の全体的な傾向を示す分布マップを表示する。
記憶部30は、ハードディスク、ROMおよびRAMなどによって実現され、制御部40に実行させる各種処理プログラム、処理結果などの各種情報を記憶する。また、記憶部30は、教師データ記憶部31を備え、一連の画像群の各画像を所定の種類に分類する処理および各画像の重要度を設定する処理で用いる教師データを予め記憶する。
制御部40は、CPUによって実現され、記憶部30に記憶された各種処理プログラムを実行することで、画像処理装置1が備える各部の処理および動作を制御する。特に、制御部40は、画像処理プログラムを実行することで、画像処理部50に本実施の形態1にかかる画像処理手順を行わせる。また、制御部40は、表示制御部41を備え、表示制御部41は、分布マップ上に所定の画像を配置して分布マップ表示部21に表示させるための制御などを行う。
画像処理部50は、特徴量算出部51、分類部53および分布マップ作成部54を備え、分布マップを作成する処理を行う。
特徴量算出部51は、一連の画像群に含まれる各画像の特徴量を算出する。特徴量算出部51は、特に領域分割部52を備え、領域分割部52は、体内特有の撮像対象の状態に応じて各画像の画像領域を分割する。例えば、領域分割部52は、粘膜領域、病変領域、絨毛領域、泡領域、食物残渣領域などの領域に各画像を分割する。特徴量算出部51は、各分割領域の状態を示す数値の集合を各画像の特徴量として算出する。
分類部53は、各画像の特徴量および教師データをもとに、各画像を所定の種類、例えば粘膜画像、病変画像、粘膜・病変画像、泡・食物残渣画像などに分類する処理を行う。例えば、分類部53は、各画像の特徴量と教師データの特徴量とを特徴空間にプロットしてユークリッド距離を求め、各画像に最も近い教師データが属する種類を各画像の種類と定義する。なお、分類部53は、各画像と各種類の教師データとのユークリッド距離、すなわち各画像が各種類の教師データにどの程度類似しているかを示す情報も各画像の種類と合わせて記憶部30に記憶させておく。
分布マップ作成部54は、一連の画像群の全体的な傾向を示す分布マップを作成する処理を行う。ここで、一連の画像群の全体的な傾向としては、少なくとも画像群全体に対して種類の異なる画像が各々どの程度占めているかの割合の傾向を示し得るものであればよい。また、分布マップ作成部54が作成する分布マップは、一連の画像群の全体的な傾向を視覚的に把握可能に提示し得る態様であればよく、本実施の形態では、例えば、2次元分布マップが用いられる。分布マップ作成部54は、重要度決定部55、代表ベクトル算出部56および代表ベクトル配置決定部57を備える。重要度決定部55は、各画像の特徴量および教師データの特徴量のユークリッド距離によって各画像の重要度を決定し、重要画像の教師データとのユークリッド距離が近いほど重要度を高く決定する。具体的には、重要度決定部55は、分類部53によって分類された各画像の種類に応じて各画像の重要度を決定する。例えば、重要度決定部55は、診断に必須な画像、例えば病変画像の重要度を高く決定し、粘膜が見えにくいもの、例えば泡・食物残渣画像の重要度を低く決定する。なお、各種類の画像の重要度の具体的数値は、予め記憶部30に記憶させておく。
代表ベクトル算出部56は、各画像の特徴量および重要度をもとに予め設定された所定数の代表ベクトルを算出する。ここで、代表ベクトルとは、複数の画像の特徴量を代表する特徴量を有するもので、各画像の特徴量と同次元の特徴量を有するベクトルである。代表ベクトル算出部56が行う処理の原理を図2および図3を参照しつつ説明する。図2および図3は、一連の画像群の画像数が10枚、各画像の特徴量が3次元の場合を示している。図2は、例えばRGB3次元特徴空間に画像Fig.1〜10の特徴量をプロットして各画像の特徴量をベクトルで表示した図である。図2に示すように、画像Fig.1〜3、画像Fig.4〜7、画像Fig.8〜10の特徴量を示すベクトルが各々近傍に位置しており、各々類似した画像であることがわかる。代表ベクトル算出部56は、10枚の画像の重要度がすべて等しく、また10枚の画像に対して算出する代表ベクトルの個数が3つである場合、図3に示すように、画像Fig.1〜3を代表する代表ベクトル1、画像Fig.4〜7を代表する代表ベクトル2、画像Fig.8〜10を代表する代表ベクトル3を算出する。
なお、代表ベクトル算出部56は、重要度が高い画像群を代表する代表ベクトル、換言すれば重要度が高い画像が有する特徴量に類似する代表ベクトルが算出されていない場合、重要度が高い画像群を構成する画像枚数が少なくても、重要度が高い画像群を代表する代表ベクトルを算出して少なくとも1つ、重要度が高い画像を代表する代表ベクトルを加える。
代表ベクトル配置決定部57は、各代表ベクトルの分布マップ上での配置を決定する。本実施の形態1では、分布マップと称される2次元座標上に代表ベクトルを配置することで、入力された一連の画像群の全体的な傾向を示すものである。図4は、算出する代表ベクトル数を25とした場合の代表ベクトルの配置例である。図4に示す場合、2次元座標上に5×5のマトリクス状に代表ベクトルを配置して分布マップを形成する。図5は、分布マップ上に配置された各代表ベクトルの概念図である。図5に示すように、各代表ベクトルは、高次元の特徴量を有しており、特徴量に応じて所定の位置に配置される。よって、各代表ベクトルがどの画像に対応しているかは、代表ベクトルが有する高次元特徴量と画像の特徴量とを比較すればよい。そして、表示制御部41が、各代表ベクトルの位置に各代表ベクトルが有する特徴量に最も類似する画像を画像群より検索して代表画像として配置して分布マップ表示部21に表示させることで、目的とする全体的な傾向を示す分布マップが得られる。
画像検索部60は、類似画像検索部61および時系列画像検索部62を備え、一連の画像群から所定の画像群を検索する。特に、類似画像検索部61は、操作受付部11を介して選択された代表画像に類似する画像を検索する。また、時系列画像検索部62は、選択された代表画像を基準として時系列的に前後所定範囲内で撮像された画像を検索する。なお、表示制御部41は、代表画像とともに画像検索部60によって検索された画像を出力部20に表示させる。
次に、画像処理装置1の画像処理手順を説明する。図6は、制御部40が行う画像処理手順を示す概略フローチャートである。図6に示すように、まず制御部40は、カプセル型内視鏡で撮像されて携帯型記録媒体に記録された一連の画像群の画像データを取得し(ステップS101)、各画像の特徴量を算出する処理を行う(ステップS102)。その後、制御部40は、特徴量をもとに各画像を、例えば粘膜画像、病変画像または泡・食物残渣画像などに分類する(ステップS103)。さらに、制御部40は、一連の画像群の全画像の特徴量をもとに、分布マップを作成する処理を行う(ステップS104)。その後、表示制御部41は、各代表ベクトルの位置に代表画像を配置した分布マップを分布マップ表示部21に表示する処理を行う(ステップS105)。
その後、制御部40は、操作受付部11を制御して代表画像の選択操作を受け付ける(ステップS106)。選択操作が入力されると、制御部40は、選択操作に応じた画像群を検索する処理を行う(ステップS107)。その後、表示制御部41は、検索された画像群を表示させる処理を行う(ステップS108)。ステップS101〜S108の処理によって、制御部40は、一連の画像群の分布マップを作成して代表画像を表示させるとともに、画像の選択操作を受け付けて観察者が所望する画像群を表示させる処理を行う。
まず、ステップS102の特徴量算出処理について説明する。図7は、制御部40の制御のもと特徴量算出部51が行う特徴量算出処理手順を示す概略フローチャートである。まず、特徴量算出部51は、入力された画像から輝度成分と色成分を分離するため、各画像の色空間をRGB空間からYuv空間に変換する(ステップS201)。その後、領域分割部52は、画素値をもとに各画像の画像領域を分割する処理を行う(ステップS202)。その後、特徴量算出部51は、画像毎に各領域の平均色、面積および周波数特性などの数値を算出し、算出した数値の集合を各画像の特徴量とする(ステップS203)。各領域の面積は、後述する各領域内のプロット数が全プロット数に占める割合で算出する。これらの値を各画像の特徴量とすることで、粘膜、病変、絨毛、泡、食物残渣などの体内環境に由来した特徴量が算出されることとなる。特徴量算出部51は、ステップS102においてステップS201〜S203の処理を行って各画像の特徴量を算出する。
なお、ステップS201は、入力された各画像の輝度成分と色成分を分離するために各画像の色空間をYuv空間に変換するものであり、画像の輝度成分と色成分を取得できれば、変換後の色空間はYuv空間に限らず、例えばL*a*b*、HSVなどの等色色空間に変換してもよい。さらには、画素毎の変換でなく、JPEG符号化に用いられるDCT係数のDC成分を用いるようにしてもよい。
また、ステップS202において、領域分割部52は、画素値をもとに各画素に撮像されている撮像対象が粘膜か、病変かまたは泡・食物残渣かによって各画素をクラスタリングして、同クラスタに属して隣接する複数の画素の塊を1つの領域として画像領域を分割する。
図8は、領域分割処理の手順を示す概略フローチャートである。図8に示すように、領域分割部52は、画像毎に各画素のu値およびv値を2次元ベクトルとした場合の原点からの角度θおよび距離Dを2次元特徴平面にプロットする(ステップS301)。領域分割部52は、2次元特徴平面を所定の面積ずつマス目状に分割して各マス目のプロットの密度を算出する(ステップS302)。
その後、領域分割部52は、各マス目を開始マスとして、各開始マスとそのマス目に隣接するマス目とのプロット密度を比較し最もプロット密度が高いマス目を開始マスの注目マスとする(ステップS303)。さらに、領域分割部52は、注目マスと注目マスが隣接するマス目とのプロット密度を比較してプロット密度が高いマス目を開始マスの新たな注目マスとする(ステップS304)。その後、領域分割部52は、注目マスのプロット密度と注目マスに隣接するマス目のプロット密度とを比較する(ステップS305)。注目マスと比較してプロット密度が高いマス目がある場合(ステップS305:No)、領域分割部52は、ステップS304に戻り処理を繰り返す。一方、注目マスのプロット密度が隣接するマス目の中で最も高い場合(ステップS305:Yes)、領域分割部52は、この注目マスを開始マスの頂上マスとする(ステップS306)。その後、領域分割部52は、全マス目の頂上マスを特定したかを確認する(ステップS307)。領域分割部52は、全マス目の頂上マスを特定するまでステップS303〜S307の処理を繰り返す(ステップS307:No)。
全マス目の頂上マスが特定された後(ステップS307:Yes)、領域分割部52は、頂上マスが同じマス目を同一のクラスタに属すると定義する(ステップS308)。その後、領域分割部52は、教師データを用いて各クラスタの種類、すなわち各クラスタに属するマス目にプロットされた画素の種類を判別して各画素に撮像されている撮像対象の状態を判別して、各画像の画像領域を粘膜領域、病変領域または泡・食物残渣領域などに分割し(ステップS309)、領域分割処理を終了する。領域分割部52は、ステップS301〜S309の処理によって各画像の画像領域を分割する。なお、本実施の形態1では、領域分割部52は、周知の山登り法を用いて各画素をクラスタリングしたが、山登り法以外のクラスタリング手法を適用してもよい。
なお、ステップS301では、各画素の特徴量としてu値およびv値を用いるのではなく、角度θおよび距離Dを用いている。図9は、u値およびv値と、角度θおよび距離Dとの関係を示す図である。カプセル型内視鏡で撮像した画像では、各画素の特徴量としてu値およびv値をそのまま使用して2次元特徴平面にプロットした場合、プロットは原点を中心として放射状に広がる傾向にあるので、本実施の形態1では、u値およびv値を角度θおよび距離Dに変換することによって原点に近いプロットもクラスタリングが的確に行える。
図10は、2次元特徴平面上に各画素の角度θおよび距離Dをプロットした図である。図10において、各マス目から出た矢印の先に位置するマス目が頂上マスである。図10に示すように、ステップS309では、頂上マスが同じマス目は同一の領域に属するものとする。なお、カプセル型内視鏡によって撮像された画像では、粘膜領域が高角度側にプロットされ、泡・食物残渣領域が低角度側にプロットされる傾向がある。そして、病変に関しては、粘膜領域において通常粘膜(正常粘膜)の色範囲から大きく外れているプロットを画像内の病変領域と推定する。画像内の病変推定部分に対して、周辺画素値との変化量が大きければ、確かに病変であると判断される。
次に、画像処理手順のステップS104について説明する。ステップS104では、制御部40は、分布マップ作成部54を制御して分布マップを作成する処理を行う。図11は、ステップS104の分布マップ作成処理の手順を示す概略フローチャートである。
まず、重要度決定部55は、各画像の種類をもとに各画像の重要度を決定する(ステップS401)。その後、代表ベクトル算出部56および代表ベクトル配置決定部57は、自己組織化マップ(SOM:Self Organized Maps)を用いて所定数の代表ベクトルを算出して分布マップ上に配置する処理を行う(ステップS402)。
その後、代表ベクトル算出部56は、重要度が高い画像群を代表する代表ベクトルが算出されているかを確認する(ステップS403)。重要度が高い画像群を代表する代表ベクトルが算出されていない場合(ステップS403:No)、代表ベクトル算出部56は、算出された代表ベクトルの中の所定の代表ベクトルに代えて重要度が高い画像群を代表するベクトルを代表ベクトルとする(ステップS404)。その後、または重要度が高い画像群を代表する代表ベクトルが算出されている場合(ステップS403:Yes)、代表ベクトル配置決定部57は、各代表ベクトルが特徴量に応じた所望の位置に配置されているかを確認して代表ベクトルの配置を調整し(ステップS405)、分布マップ作成処理を終了する。ステップS401〜S405の処理によって、分布マップ作成部54は、分布マップを作成する。
ここで、ステップS402の処理について説明する。まず、自己組織化マップ(SOM)について説明する。SOMは、ニューラルネットワークの一種であり、教師データなしの競合学習によって高次元のデータを、例えば2次元マップ上に写像してクラスタリングを行う手法であり、高次元特徴空間から任意の数の代表ベクトルを求めることができる。また、求められる代表ベクトルは、位置関係を有しており、近い特徴量を有するもの同士が近傍に位置するように出力される。ここで、自己組織化マップは、入力層および出力層を備え、入力層に画像から得られた高次元特徴量のデータが入力され、出力層には位置関係を持つ所定数のニューロンが配置され2次元マップが作成される。各ニューロンは、各特徴量への結合係数を代表ベクトルとして保持している。本実施の形態1では、入力層に一連の画像群の画像の特徴量を入力し、出力層の各ニューロンの結合係数を代表ベクトルとして算出して2次元分布マップを作成し、作成した2次元マップを調整して一連の画像群の分布マップを作成する。各ニューロンには入力データと同じ次元の要素(特徴量)を有する結合係数が与えられている。すなわち、各画像の特徴量Xを式(1)のように示した場合、ニューロンの結合係数Mは式(2)のように示される。なお、式(2)おいて、Nとは、ニューロンの数であり、操作者が予め任意に設定可能な数値である。
Figure 0005374078
SOMの一般的な学習処理では、まず、予め定められた所定数のニューロンの結合係数をランダムに決定し、高次元特徴量を持つ複数のデータを入力層に入力する。そして、ランダムなデータを1つ選び、そのデータの有する特徴ベクトルに最も近い代表ベクトルを持つ勝者ニューロンを決定し、勝者ニューロンおよび特徴空間内で勝者ニューロンの近傍に位置する近傍ニューロンの結合係数を更新する。その後、終了条件を満たすまで、入力層へのデータ入力処理、勝者ニューロンの決定処理および各ニューロンの特徴量の更新処理を繰り返す。
勝者ニューロンは、特徴空間内での入力データXと各ニューロンとのユークリッド距離をもとに決定する。具体的には、式(3)に示すように、入力データX(t)と各ニューロンMi(t)とのユークリッド距離が最小のニューロンを入力データX(t)に対する勝者ニューロンとする。なお、式(3)において、tは各入力データの学習回数を示す。
Figure 0005374078
勝者ニューロンおよび近傍ニューロンの特徴量の更新は、式(4)に示すように、入力データと各ニューロンとのユークリッド距離、学習係数α(t)および近傍関数hci(t)に応じて行う。
Figure 0005374078
学習係数α(t)は、学習回数の増加に伴って減衰する関数で、下式(5)のように示される。
Figure 0005374078
近傍関数hci(t)は、近傍ニューロンを決定する関数であり、式(6)に示すように、勝者ニューロンと他のニューロンとの距離‖ri−rc‖および学習回数tを変数とする関数である。近傍関数hci(t)は、勝者ニューロンに近いほど大きな値をとり重みが増し、学習回数が多いほど小さな値をとり重みが減る。近傍関数hci(t)は、例えば式(7)のような正規分布関数で定義されるが、実装法はさまざまである。式(7)により処理を繰り返すことで、各ニューロンの代表ベクトルが入力データによって引っ張られ、自己組織化マップが形成される。
Figure 0005374078
ステップS402では、代表ベクトル算出部56および代表ベクトル配置決定部57が共同してSOMを用いた代表ベクトル算出配置処理を行う。図12は、代表ベクトル算出配置処理の手順を示す概略フローチャートである。まず、代表ベクトル配置決定部57は、教師データ記憶部31に予め記憶されている教師データをもとに、各ニューロンの初期結合係数を決定する(ステップS501)。また、代表ベクトル算出部56は、重要度が高い画像の特徴量を学習する場合には近傍関数hci(t)が大きな値になるように、近傍関数hci(t)を設定する(ステップS502)。その後、代表ベクトル算出部56および代表ベクトル配置決定部57は、SOMの学習処理を行い(ステップS503)、各ニューロンの結合係数を代表ベクトルとして処理を終了する(ステップS504)。
一般的なSOMでは、初期の結合係数はランダムに与えられるが、本実施の形態1では、ステップS501において、初期の結合係数として教師データを与える。カプセル型内視鏡で撮像された一連の画像群による診断に当っては、分布マップ上に診断すべき画像(粘膜画像や病変画像など)とノイズ的画像(泡・食物残渣画像や穴画像など)が最終的に分かれるように分布していることが望ましいためである。例えば、図13に示すように、2次元分布マップの左上方向には粘膜画像が、左下方向には粘膜と病変画像が、右下方向には病変画像が、右上方向には泡・食物残渣画像が最終的に分布するような分布マップを作成する。
このため、本実施の形態1では、初期の結合係数を教師データから設定することで、出力位置傾向の固定と重要画像の取りこぼし対策を行う。例えば、代表ベクトル配置決定部57は、図4において、左上のニューロン(1,5)の初期の結合係数として教師データから粘膜画像の特徴量を代表する特徴ベクトルを与える。同様に、右下のニューロン(5,1)の初期の結合係数として教師データから病変画像の特徴量を代表する特徴ベクトルを与える。さらに、右上のニューロン(5,5)の初期の結合係数として教師データから泡・食物残渣画像の特徴量を代表する特徴ベクトルを与える。
次に、SOMの学習を行う。入力データからランダムにデータを選択しニューロンの結合係数を更新していくが、ニューロンに教師データから初期の結合係数値を与えてあるため、各ニューロンの結合係数は、自然と目的に沿った方向へ引っ張られていく。また、入力データが重要画像、この場合は病変画像であった場合は、式(6)の重み付け関数において重要画像の枚数が少ないほど通常より重みを強くする。これによって、入力データ全体に対する重要画像の絶対数が少ない場合でも、重要画像を表す代表ベクトルが残ることになる。学習終了後、各ニューロンの結合係数を代表ベクトル、出力層での各ニューロンの座標を各代表ベクトルの分布マップ上での座標とする。
次に、分布マップ作成処理中のステップS404の処理について説明する。ステップS404の処理は、重要度が高い画像群を代表する代表ベクトルを確実に算出するための処理である。SOMによる代表ベクトル算出配置処理では、全画像数に対して画像数が少ない画像群、例えば病変画像の画像群を代表する代表ベクトルが算出されない場合がある。本実施の形態1では、病変画像の重要度を高く設定してSOMによる処理の際に病変画像の特徴量の重みを付けるが、病変画像数が少ない場合、病変画像を代表する代表ベクトルが算出されない場合がある。そこで、ステップS404では、SOMによって算出された代表ベクトルに替えて、重要度が高い画像を代表する代表ベクトルを加える。
例えば代表ベクトル算出部56は、算出された各代表ベクトルの持つ特徴量を調べ、重要画像の特徴量と近い代表ベクトルが存在しない場合には、代表ベクトルを新たに作成する処理を行う。新たな代表ベクトルとして病変画像の画像群の特徴量の平均値を算出し、SOMによって算出された代表ベクトルのうち病変画像に最も近い画像群を代表する代表ベクトル、または所定の位置に配置された代表ベクトルと新たに算出した代表ベクトルを交換する。なお、この場合、交換にかかる代表ベクトルの近傍の代表ベクトルの特徴量も更新する。例えば、交換によって消去された代表ベクトルと近傍の各代表ベクトルとの特徴量の平均値を近傍の各代表ベクトルの特徴量とし、特徴量を更新した各代表ベクトルの近傍の代表ベクトルの特徴量も同様に更新する。このため、消去された代表ベクトルが代表する画像群の特徴量も代表ベクトルの特徴量算出に反映される。
また、分布マップ作成処理中のステップS405の処理では、代表ベクトルの配置を調整して所定の種類の画像を代表する代表ベクトルを所定の位置に確実に配置する。SOMによる代表ベクトル算出配置処理によって多くの場合、代表ベクトルは分布マップ上にほぼ目的通りに配置される。しかし、学習処理の過程で間違った分布が形成されている可能性もあり、意図しない位置に代表ベクトルが配置される場合も考えられる。このため、代表ベクトル配置決定部57は、SOMによる処理の後、代表ベクトルの配置を確認し、代表ベクトルの配置を調整して最終決定する。例えば、粘膜領域に泡・食物残渣画像を代表する代表ベクトルが入り込んでいた場合は、その代表ベクトルと泡・食物残渣領域内で粘膜に近い特徴量を有する代表ベクトルの特徴量を交換するなどの処理を行う。すなわち、各代表ベクトルにおいて粘膜、病変、絨毛、泡、食物残渣などの体内環境を示す特徴量がどの程度か調べ、目的の分布に沿うように代表ベクトルをソートする。
次に、画像処理手順のステップS105について説明する。ステップS105では、表示制御部41は、分布マップを観察者が視認できる形態にするために各代表ベクトルの位置に代表画像を配置して分布マップとして分布マップ表示部21に表示させる。すなわち、各代表ベクトルの有する特徴量と入力された一連の画像群の画像とを比較し、最も近い特徴量を有する画像をその代表ベクトルの代表画像として分布マップ上に配置させて表示させる。図14は、代表ベクトルと代表画像の関係を示す概念図である。図14に示すように、各代表画像は、各代表ベクトルに類似する画像によって構成される類似画像群の中から決定される。
次に、画像処理手順のステップS106について説明する。ステップS106では、操作受付部11が、分布マップ表示部21に表示されたGUIを介して、代表画像などの選択操作を受け付ける。なお、操作受付部11は、代表画像を選択する操作に加えて、検索処理を行い表示する画像および表示形態を選択する操作を受け付ける。
図15は、分布マップ表示部21の表示画面の一例を示す図である。分布マップ表示部21の画像表示ウインドウ100には、分布マップ101、分布マップ表示形態選択部102、類似画像分布マップ選択部103および検索画像マップ104が表示される。
分布マップ101は、図14で示したように代表ベクトルに対応させて選択された代表画像および代表画像の種類(粘膜、粘膜+病変、病変、泡・食物残渣等)を2次元マップ上に表示することで一連の画像群の全体的な傾向を示す。このような分布マップ101の表示により、症例の全体的な傾向が観察者に提示される。この際、本実施の形態1では、分布マップ表示形態選択部102において、「分類を表示する」の選択により、分布マップ101として表示される画像に重畳させて、分類部53による代表ベクトルの分類結果が、例えば破線で示す枠線101aの態様で表示される。これにより、どの代表ベクトル(代表画像)がどの分類に入っているかが明確となる。
なお、分類部53による分類結果を分布マップ101に重畳表示させる場合、枠線101aの態様に代えて、分布マップ表示形態選択部102において、「分類を色で表示する」の選択により、例えばRGBグラデーションによる色表示を利用するようにしてもよい。例えば、分布マップ101上で粘膜に最も近い一番左上の座標を(R,G,B)=(0,255,0)とし、泡・食物残渣の集まる一番右上の座標を(R,G,B)=(0,0,255)とし、病変の集まる一番右下の座標を(R,G,B)=(255,0,0)と設定する。そして、分布マップ101上の各座標の色は、以下のように設定する。各座標に配置されている代表ベクトルの特徴量と、左上、右上、右下に配置されている代表ベクトルの持つ特徴量とのユークリッド距離を求める。そして、ユークリッド距離が0であれば、対応する色の画素値を255とし、距離が遠いほど、対応する色の画素値を低く設定する。すなわち、左上に近いほど、G=255に近づき、右上に近いほど、B=255に近づき、右下に近いほど、R=255に近づく。これによって、全体的な傾向を色のグラデーションによって視覚的に表すことができるとともに、分類の境界など曖昧な特徴量を持つ代表ベクトルを中間色として表現することができる。
また、図15に示すような画像表示ウインドウ100においては、類似画像分布マップ選択部103によって、類似画像分布マップの表示や、類似画像の表示や、時系列画像の表示が選択設定自在とされており、観察者の操作に応じた処理結果が検索画像マップ104部分に表示される。
例えば、医師等の観察者による画像診断時に、分布マップ101上に表示されているある病変をより詳細に観察したい、といった場合、「類似画像の表示」を選択し、その病変画像を表示している代表画像部分を選択する操作を行うと(図15中に矢印で示すポインタ参照)、操作受付部11がその代表画像の選択操作を受け付ける。そして、選択操作された代表画像部分の座標(または範囲)の情報が、類似画像検索部61に送られる。類似画像検索部61は、このような情報の入力を受け、分布マップ101上で選択された座標(または範囲)に配置された代表ベクトルが有する特徴量に類似する特徴量を有する類似画像を記憶部30に格納されている一連の画像群中から検索し、検索された複数枚の類似画像を検索画像マップ104中の類似画像欄104aに表示させる。
この場合、「類似画像分布マップの表示」が選択されていれば、分布マップ作成部54は、類似画像検索部61によって検索された複数枚の類似画像からなる類似画像群の分布マップを前述の処理手順に従い作成し、表示制御部41による制御の下に、作成された類似画像群の分布マップを検索画像マップ104中の類似画像分布マップ欄104bに表示させる。これにより、当初の全ての画像群を対象とする場合と異なり、類似画像群に限定した範囲内でその画像群の傾向を把握することが可能となる。
一方、「時系列画像の表示」が選択されている場合において、注目の病変画像を表示している代表画像部分を選択する操作を行うと、操作受付部11がその代表画像の選択操作を受け付ける。そして、選択操作された代表画像部分の座標(または範囲)の情報が、時系列画像検索部62に送られる。時系列画像検索部62は、このような情報の入力を受け、分布マップ101上で選択された座標(または範囲)に配置された代表ベクトルが有する特徴量に最も類似する画像である代表画像とこの代表画像に対して時系列で近傍に位置する所定枚数の画像を記憶部30に格納されている一連の画像群中から検索する。そして、検索された代表画像やその近傍の時系列画像を、タイムバー104cの表示を伴う検索画像マップ104中の類似画像欄104dに時系列的に1枚ずつ順次再生表示させる。これにより、注目の代表画像前後に限定された画像の観察を適切に行うことができる。
このようにして、本実施の形態1によれば、カプセル型内視鏡によって撮像された一連の画像群に基づき、症例全体の特徴を視覚的に表す画像の分布を分布マップ101として表示させるので、画像群全体に占める粘膜、病変、泡・食物残渣などの画像の割合を視覚的に一目で把握することができ、画像観察に際して医師等の観察者にかかる負担を軽減させることができる。
(実施の形態2)
実施の形態2にかかる画像処理装置について、図16〜図21を参照して説明する。実施の形態1では、分布マップ作成部54による分布マップ作成処理に自己組織化マップ(SOM)を用いることで、代表ベクトル算出機能と代表ベクトル配置決定機能とを並行的に処理させるようにしたが、本実施の形態2では、分布マップ作成部54による分布マップ作成処理に主成分分析法を用いるようにしたものである。分布マップ作成部54以外の処理は、実施の形態1の場合と同様である。この主成分分析法は、高次元特徴空間から任意の低次元特徴空間を求める手法の一つであり、入力の分布において広がりが最も大きい方向の直線を第1主成分とし、第1主成分に直交しかつ2番目に広がりの大きい方向の直線を第2主成分とし、以下、同様に任意の低次元まで算出する方法である(例えば、「ディジタル画像処理(GC−ARTS協会)」参照)。
図16は、本実施の形態2におけるステップS104の分布マップ作成処理の手順を示す概略フローチャートである。まず、代表ベクトル算出部56によって、入力された一連の画像群の画像に対して主成分分析法を用いて代表ベクトルを算出する(ステップS601)。そして、代表ベクトル算出部56は、重要度が高い画像群を代表する代表ベクトルが存在するかを確認する(ステップS602)。重要度が高い画像群を代表する代表ベクトルが存在しない場合(ステップS602:No)、代表ベクトル算出部56は、重要度が高い画像の特徴量に近い代表ベクトルに代えて、重要度が高い画像に対応するベクトルを代表ベクトルとする(ステップS603)。その後、または重要度が高い画像群を代表する代表ベクトルが存在する場合(ステップS602:Yes)、代表ベクトル配置決定部57は、算出された各代表ベクトルの分布マップ上での配置を決定する処理を行い(ステップS604)、分布マップ作成処理を終了する。ステップS601〜S604の処理によって、分布マップ作成部54は、分布マップを作成する。
ここで、ステップS601の代表ベクトル算出処理について説明する。図17は、ステップS601の代表ベクトル算出処理例を示す概略フローチャートである。まず、主成分分析を行う。本実施の形態2では、2次元の分布マップを作成するため、各画像の特徴量の主成分分析を行い、各画像のX座標およびY座標を、第1主成分、第2主成分から決定する(ステップS701)。そして、XY2次元平面上に各画像の座標をプロットする(ステップS702)。
例えば、10枚分の画像の特徴量から主成分分析を行い、XY2次元平面上に各画像の座標をプロットした例を図18に示す。主成分分析によって特徴量が近い画像同士は、XY2次元平面上で近傍の座標位置にプロットされる。
次いで、XY2次元平面上のプロットを、予め設定された代表ベクトル数と同数のクラスタにK平均法を用いてクラスタリングする(ステップS703)。代表ベクトル数は、数が多いほど、詳細な分布が得られるので、最終的に分布マップを表示する分布マップ表示部21のサイズやユーザの好みによって代表ベクトル数を決定するようにしてもよい。
K平均法を用いたクラスタリング処理においては、まず、XY2次元平面上の単位面積当りのプロット密度を求め、求められた密度に比例する数のクラスタを単位面積内でランダムに座標決定することで、各クラスタの初期重心座標を決定する(ステップS704)。この際、プロット密度を考慮しないで全ての座標をランダムに決定してしまうと、クラスタ分類が適正に行われない可能性がある。
次に、全プロットに対して、各クラスタの重心座標までの距離を求めて、最も近い重心座標のクラスタをそのプロットのクラスタとする(ステップS705)。そして、各クラスタに対して、そのクラスタに属する全プロットの重心座標を改めて算出する(ステップS706)。この場合、各プロットの重心座標の平均座標として算出する。そして、改めて算出された重心座標によって各クラスタの重心座標を更新する。その後、各クラスタの重心座標が収束するまで(ステップS707:Yes)、ステップS705〜S706の処理を繰り返す。このような処理の繰り返しにより、各クラスタの重心座標と各クラスタに含まれるプロットが決定される。図19は、このように決定される様子を示す概念図である。
このようにしてK平均法から算出されたXY2次元平面上での各クラスタの重心座標を、分布マップ上における代表ベクトルと定義する(ステップS708)。図20は、この様子を示す概念図である。
次いで、ステップS604の代表ベクトル配置決定処理について説明する。図21は、ステップS604の分布マップにおける代表ベクトルの配置を決定する代表ベクトル配置決定処理例を示す概略フローチャートである。なお、この処理の前に、分類部53において、各代表ベクトルの特徴量と教師データから、各代表ベクトルの種類の分類を行っておく。そして、この分類に従い、例えば図4に示した場合と同様に、左上に粘膜、右下に病変、右上に泡・食物残渣画像を示す各々の代表ベクトルをXY2次元平面からなる分布マップ上に配置させる。このXY2次元平面上での各代表ベクトルと教師データの特徴量からユークリッド距離を算出する(ステップS801)。そして、算出されたユークリッド距離をもとに各代表ベクトルの種類を判別し(ステップS802)、算出されたユークリッド距離の大きさをもとに各代表ベクトルの分布マップ上での配置座標を決定する(ステップS803)。例えば、粘膜領域の代表ベクトルでは、粘膜画像の教師データとのユークリッド距離が近いほど、分布マップ上の左上座標に近づくことになる。
なお、代表ベクトルは、XY2次元平面において画像のプロットが密な領域に集中しているので、特徴量によって代表ベクトルの配置をソートさせた後に、分布マップに代表ベクトルが均等に配置されるように座標を補正する処理を行う。このようにして、実施の形態1の場合と同様、目的とする全体的な傾向を表す分布マップが出力される。
本発明の実施の形態1にかかる画像処理装置の概略構成を示すブロック図である。 特徴空間に各画像の特徴量をプロットし、ベクトルで表示した図である。 図2に示す画像群の代表ベクトルを示す図である。 代表ベクトルの配置の一例を示す図である。 分布マップ上の各代表ベクトルの概念図である。 画像処理の手順を示す概略フローチャートである。 特徴量算出処理の手順を示す概略フローチャートである。 領域分割処理の手順を示す概略フローチャートである。 u値およびv値と、角度θおよび距離Dとの関係を示す図である。 2次元特徴平面上に各画素の角度θおよび距離Dをプロットした図である。 分布マップ作成処理の手順を示す概略フローチャートである。 代表ベクトル算出配置処理の手順を示す概略フローチャートである。 分布マップの表示例を示す図である。 代表ベクトルと代表画像の関係を示す概念図である。 分布マップ表示画面の一例を示す説明図である。 本発明の実施の形態2における分布マップ作成処理の手順を示す概略フローチャートである。 代表ベクトル算出処理例を示す概略フローチャートである。 主成分分析結果に伴いXY2次元平面上に各画像の座標をプロットした例を示す概念図である。 各クラスタの重心座標と各クラスタに含まれるプロットが決定される様子を示す概念図である。 K平均法から算出されたXY2次元平面上での各クラスタの重心座標が、代表ベクトルと定義される様子を示す概念図である。 代表ベクトル配置決定処理例を示す概略フローチャートである。
符号の説明
1 画像処理装置
11 操作受付部
20 出力部
21 分布マップ表示部
41 表示制御部
51 特徴量算出部
52 領域分割部
53 分類部
54 分布マップ作成部
55 重要度決定部
56 代表ベクトル算出部
57 代表ベクトル位置決定部
60 画像検索部
61 類似画像検索部
62 時系列画像検索部
101 分布マップ

Claims (17)

  1. 撮像装置で撮像された一連の画像群に含まれる各画像の特徴量を算出する特徴量算出部と、
    前記一連の画像群の全体的な傾向を示す分布マップを作成する分布マップ作成部と、
    前記分布マップを表示部に表示させる表示制御部と、
    を備え、
    前記分布マップ作成部は、
    特徴量および教師データを用いて各画像の重要度を決定する重要度決定部と、
    各画像の特徴量および各画像の重要度をもとに、前記一連の画像群中に含まれる複数の画像を代表する所定数の代表ベクトルを算出する代表ベクトル算出部であって、重要度が所定値以上の画像の特徴量に類似する画像群に対して1つ以上の代表ベクトルを算出する代表ベクトル算出部と
    算出された代表ベクトルの前記分布マップ上での配置を決定する代表ベクトル配置決定部と、を有し、
    各画像の特徴量および教師データをもとに、各代表ベクトルを所定の種類に分類する分類部をさらに備え、
    前記代表ベクトル配置決定部は、前記分類部により分類された各代表ベクトルの種類に応じて各代表ベクトルの配置を決定する、
    ことを特徴とする画像処理装置。
  2. 前記代表ベクトル算出部は、特徴量が類似する複数の画像群の各画像群の代表ベクトル数を、各画像群の画像枚数の多少に応じて増減することを特徴とする請求項1に記載の画像処理装置。
  3. 前記代表ベクトル配置決定部は、互いに類似する特徴量を有する代表ベクトルが前記分布マップ上で近傍になるように各代表ベクトルの配置を決定することを特徴とする請求項1に記載の画像処理装置。
  4. 記分布マップにおいて、前記分類部により分類される代表ベクトルの種類に応じて代表ベクトル配置され得る領域は、予め特定されていることを特徴とする請求項に記載の画像処理装置。
  5. 前記表示制御部は、各代表ベクトルの位置に各代表ベクトルが有する特徴量に最も類似する画像を代表画像として前記表示部に表示させることを特徴とする請求項1に記載の画像処理装置。
  6. 前記表示制御部は、各代表ベクトルの位置に各代表ベクトルが有する特徴量に応じた色を前記表示部に表示させることを特徴とする請求項1に記載の画像処理装置。
  7. 前記表示制御部は、前記分類部による各代表ベクトルの分類結果を前記表示部に表示させることを特徴とする請求項に記載の画像処理装置。
  8. 前記表示部に表示された前記分布マップ上の任意の座標および範囲を選択する操作を受け付ける操作受付部と、
    表示された前記分布マップ上で選択された座標または範囲の情報をもとに前記一連の画像群から所定の画像を検索する画像検索部と、
    さらに備え、
    前記表示制御部は、前記画像検索部によって検索された画像を前記表示部に表示させることを特徴とする請求項1に記載の画像処理装置。
  9. 前記画像検索部は、前記分布マップ上の選択された座標または範囲に配置された代表ベクトルが有する特徴量に類似する特徴量を有する類似画像を検索する類似画像検索部を備えることを特徴とする請求項に記載の画像処理装置。
  10. 前記画像検索部は、前記分布マップ上の選択された座標または範囲に配置された代表ベクトルが有する特徴量に最も類似する画像である代表画像および該代表画像に対して時系列で近傍に位置する画像を検索する時系列画像検索部を備えることを特徴とする請求項に記載の画像処理装置。
  11. 前記分布マップ作成部は、前記類似画像検索部によって検索された類似画像からなる類似画像群の前記分布マップを作成し、
    前記表示制御部は、前記類似画像群の前記分布マップを前記表示部に表示させることを特徴とする請求項に記載の画像処理装置。
  12. 前記特徴量算出部は、各画像を所定の領域毎に分割する領域分割部を備え、分割された各領域の状態を示す数値の集合を各画像の特徴量として算出することを特徴とする請求項1に記載の画像処理装置。
  13. 前記一連の画像群は、被検体内に導入された体内撮像装置によって撮像された時系列の画像群であり、
    前記特徴量算出部は、体内特有の撮像対象である粘膜、病変、絨毛、泡、食物残渣の特性を示す数値を特徴量として算出することを特徴とする請求項1に記載の画像処理装置。
  14. 前記一連の画像群は、被検体内に導入された体内撮像装置によって撮像された時系列の画像群であり、
    前記重要度決定部は、病変画像の重要度を高く決定し、泡または食物残渣が撮像された泡・食物残渣画像の重要度を低く決定することを特徴とする請求項に記載の画像処理装置。
  15. 前記一連の画像群は、被検体内に導入された体内撮像装置によって撮像された時系列の画像群であり、
    前記分類部は、特徴量をもとに各画像または各代表ベクトルを分類する種類に、粘膜画像、病変画像、正常粘膜ともに病変が撮像された粘膜・病変画像、泡または食物残渣が撮像された泡・食物残渣画像の少なくとも一つを含むことを特徴とする請求項に記載の画像処理装置。
  16. 撮像装置で撮像された一連の画像群に含まれる各画像の特徴量を算出する特徴量算出ステップと、
    前記一連の画像群の全体的な傾向を示す分布マップを作成する分布マップ作成ステップと、
    前記分布マップを表示部に表示させる表示制御ステップと、
    を含み、
    前記分布マップ作成ステップは、
    特徴量および教師データを用いて各画像の重要度を決定する重要度決定ステップと、
    各画像の特徴量および各画像の重要度をもとに、前記一連の画像群中に含まれる複数の画像を代表する所定数の代表ベクトルを算出する代表ベクトル算出ステップであって、重要度が所定値以上の画像の特徴量に類似する画像群に対して1つ以上の代表ベクトルを算出する代表ベクトル算出ステップと、
    算出された代表ベクトルの前記分布マップ上での配置を決定する代表ベクトル配置決定ステップと、を含み、
    各画像の特徴量および教師データをもとに、各代表ベクトルを所定の種類に分類する分類ステップをさらに含み、
    前記代表ベクトル配置決定ステップは、前記分類ステップにおいて分類された各代表ベクトルの種類に応じて各代表ベクトルの配置を決定する、
    ことを特徴とする画像処理方法。
  17. 撮像装置で撮像された一連の画像群に含まれる各画像の特徴量を算出する特徴量算出手順と、
    前記一連の画像群の全体的な傾向を示す分布マップを作成する分布マップ作成手順と、
    前記分布マップを表示部に表示させる表示制御手順と、
    をコンピュータに実行させ、
    前記分布マップ作成手順は、
    特徴量および教師データを用いて各画像の重要度を決定する重要度決定手順と、
    各画像の特徴量および各画像の重要度をもとに、前記一連の画像群中に含まれる複数の画像を代表する所定数の代表ベクトルを算出する代表ベクトル算出手順であって、重要度が所定値以上の画像の特徴量に類似する画像群に対して1つ以上の代表ベクトルを算出する代表ベクトル算出手順と、
    算出された代表ベクトルの前記分布マップ上での配置を決定する代表ベクトル配置決定手順と、を含み、
    各画像の特徴量および教師データをもとに、各代表ベクトルを所定の種類に分類する分類手順を前記コンピュータにさらに実行させ、
    前記代表ベクトル配置決定手順は、前記分類手順において分類された各代表ベクトルの種類に応じて各代表ベクトルの配置を決定する、
    ことを特徴とする画像処理プログラム。
JP2008157223A 2008-06-16 2008-06-16 画像処理装置、画像処理方法および画像処理プログラム Active JP5374078B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008157223A JP5374078B2 (ja) 2008-06-16 2008-06-16 画像処理装置、画像処理方法および画像処理プログラム
US12/485,182 US9076078B2 (en) 2008-06-16 2009-06-16 Image processing apparatus, method and program for determining arrangement of vectors on a distribution map

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008157223A JP5374078B2 (ja) 2008-06-16 2008-06-16 画像処理装置、画像処理方法および画像処理プログラム

Publications (3)

Publication Number Publication Date
JP2009297365A JP2009297365A (ja) 2009-12-24
JP2009297365A5 JP2009297365A5 (ja) 2011-07-21
JP5374078B2 true JP5374078B2 (ja) 2013-12-25

Family

ID=41414366

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008157223A Active JP5374078B2 (ja) 2008-06-16 2008-06-16 画像処理装置、画像処理方法および画像処理プログラム

Country Status (2)

Country Link
US (1) US9076078B2 (ja)
JP (1) JP5374078B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7228212B2 (ja) 2019-04-14 2023-02-24 株式会社ごとう 絶縁電線

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5291955B2 (ja) * 2008-03-10 2013-09-18 富士フイルム株式会社 内視鏡検査システム
US20100165088A1 (en) * 2008-12-29 2010-07-01 Intromedic Apparatus and Method for Displaying Capsule Endoscope Image, and Record Media Storing Program for Carrying out that Method
JP2011009976A (ja) * 2009-06-25 2011-01-13 Hitachi Ltd 画像再生装置
CN106923779A (zh) 2010-04-28 2017-07-07 基文影像公司 用于显示体内图像部分的系统和方法
EP2508116B1 (en) * 2010-09-24 2013-11-13 Olympus Medical Systems Corp. Image-display device and capsule-type endoscope system
JP5980490B2 (ja) * 2011-10-18 2016-08-31 オリンパス株式会社 画像処理装置、画像処理装置の作動方法、及び画像処理プログラム
WO2013085061A1 (ja) * 2011-12-08 2013-06-13 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
US9201901B2 (en) 2011-12-13 2015-12-01 International Business Machines Corporation Techniques for generating a representative image and radiographic interpretation information for a case
JP6067264B2 (ja) 2012-07-17 2017-01-25 Hoya株式会社 画像処理装置及び内視鏡装置
JP6027803B2 (ja) * 2012-07-17 2016-11-16 Hoya株式会社 画像処理装置及び内視鏡装置
JP6196760B2 (ja) * 2012-08-10 2017-09-13 オリンパス株式会社 画像処理装置
US9262442B2 (en) 2012-09-20 2016-02-16 International Business Machines Corporation Techniques for generating a representative image and radiographic interpretation information for a case
JP5948200B2 (ja) 2012-09-27 2016-07-06 オリンパス株式会社 画像処理装置、プログラム及び画像処理方法
JP6242072B2 (ja) 2012-09-27 2017-12-06 オリンパス株式会社 画像処理装置、プログラム及び画像処理装置の作動方法
JP6064855B2 (ja) * 2013-06-17 2017-01-25 富士ゼロックス株式会社 情報処理プログラム及び情報処理装置
JP6371544B2 (ja) * 2014-03-14 2018-08-08 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP6196922B2 (ja) * 2014-03-17 2017-09-13 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP6277818B2 (ja) * 2014-03-26 2018-02-14 日本電気株式会社 機械学習装置、機械学習方法、及びプログラム
JP6472279B2 (ja) * 2015-03-09 2019-02-20 キヤノン株式会社 画像処理装置及び画像処理方法
US10416764B2 (en) * 2015-03-13 2019-09-17 Apple Inc. Method for operating an eye tracking device for multi-user eye tracking and eye tracking device
JPWO2017006618A1 (ja) * 2015-07-09 2017-11-16 オリンパス株式会社 サーバ、内視鏡システム、送信方法およびプログラム
CN106714651B (zh) 2015-08-13 2019-06-28 Hoya株式会社 评价值计算装置以及电子内窥镜系统
WO2017026540A1 (ja) * 2015-08-13 2017-02-16 Hoya株式会社 評価値計算装置及び電子内視鏡システム
EP3410415B1 (en) * 2016-01-28 2020-11-18 Ricoh Company, Ltd. Image processing device, imaging device, moving body device control system and image processing program
WO2017145270A1 (ja) * 2016-02-23 2017-08-31 オリンパス株式会社 画像処理装置、画像処理方法および内視鏡
EP3476272A4 (en) * 2016-06-28 2019-07-31 Sony Corporation PICTURE
US11301509B2 (en) * 2017-01-20 2022-04-12 Rakuten Group, Inc. Image search system, image search method, and program
US10025950B1 (en) * 2017-09-17 2018-07-17 Everalbum, Inc Systems and methods for image recognition
US10592780B2 (en) * 2018-03-30 2020-03-17 White Raven Ltd. Neural network training system
JP7015385B2 (ja) * 2018-05-15 2022-02-02 富士フイルム株式会社 内視鏡画像処理装置、内視鏡装置の作動方法、及びプログラム
JP7187244B2 (ja) * 2018-10-10 2022-12-12 キヤノンメディカルシステムズ株式会社 医用画像処理装置、医用画像処理システム及び医用画像処理プログラム
WO2020110520A1 (ja) * 2018-11-27 2020-06-04 富士フイルム株式会社 類似度決定装置、方法およびプログラム
CN111104970B (zh) * 2019-12-04 2023-04-18 浙江大华技术股份有限公司 人脸聚类方法及装置
JP7309035B2 (ja) 2020-03-09 2023-07-14 オリンパス株式会社 教師データ作成システム、教師データ作成方法及び教師データ作成プログラム
JP2021173734A (ja) * 2020-04-30 2021-11-01 ソニーグループ株式会社 生成装置、生成方法、生成プログラム及び診断支援システム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5963670A (en) * 1996-02-12 1999-10-05 Massachusetts Institute Of Technology Method and apparatus for classifying and identifying images
US6331116B1 (en) * 1996-09-16 2001-12-18 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual segmentation and examination
JP4340367B2 (ja) * 1999-01-27 2009-10-07 株式会社リコー 画像分類装置およびその装置としてコンピュータを機能させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体
US6331859B1 (en) * 1999-04-06 2001-12-18 Sharp Laboratories Of America, Inc. Video skimming system utilizing the vector rank filter
US7016540B1 (en) * 1999-11-24 2006-03-21 Nec Corporation Method and system for segmentation, classification, and summarization of video images
JP4049522B2 (ja) * 2000-07-25 2008-02-20 富士通株式会社 情報分布装置および情報分布方法
US7583827B2 (en) * 2001-10-03 2009-09-01 Retinalyze Danmark A/S Assessment of lesions in an image
KR100490564B1 (ko) * 2002-07-23 2005-05-19 주식회사 메디슨 초음파 영상 신호로부터 장기를 인식하는 장치 및 방법
GB2393271A (en) * 2002-09-19 2004-03-24 Sony Uk Ltd Information storage and retrieval
US7346209B2 (en) * 2002-09-30 2008-03-18 The Board Of Trustees Of The Leland Stanford Junior University Three-dimensional pattern recognition method to detect shapes in medical images
JP3810381B2 (ja) 2003-04-25 2006-08-16 オリンパス株式会社 画像表示装置、画像表示方法および画像表示プログラム
US20050147203A1 (en) * 2003-12-31 2005-07-07 Ross William R. Reading imaging data
US7986337B2 (en) * 2004-09-27 2011-07-26 Given Imaging Ltd. System and method for editing an image stream captured in vivo
JP4985293B2 (ja) * 2007-10-04 2012-07-25 ソニー株式会社 情報処理装置および方法、プログラム、並びに記録媒体
US8131065B2 (en) * 2007-12-20 2012-03-06 Intel Corporation Method and apparatus for obtaining and processing image features
JP5275668B2 (ja) * 2008-04-04 2013-08-28 富士フイルム株式会社 画像処理装置及び画像処理方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7228212B2 (ja) 2019-04-14 2023-02-24 株式会社ごとう 絶縁電線

Also Published As

Publication number Publication date
US20090309961A1 (en) 2009-12-17
US9076078B2 (en) 2015-07-07
JP2009297365A (ja) 2009-12-24

Similar Documents

Publication Publication Date Title
JP5374078B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US8502861B2 (en) Image display apparatus
KR101887194B1 (ko) 피검체의 의료 영상의 판독을 지원하는 방법 및 이를 이용한 장치
JP4688954B2 (ja) 特徴量選択方法、特徴量選択装置、画像分類方法、画像分類装置、コンピュータプログラム、及び記録媒体
US8913806B2 (en) Texture homogeneity based in-vivo image identifying device, method, and computer-readable recording device
KR101874348B1 (ko) 피검체의 흉부 pa 영상의 판독을 지원하는 방법 및 이를 이용한 장치
KR100991915B1 (ko) 내시경 진단 지원 방법, 내시경 진단 지원 장치 및 내시경 진단 지원 프로그램을 기록한 기록매체
JP7366583B2 (ja) 医用情報処理装置、方法及びプログラム
JP2012010275A (ja) 情報処理装置、情報処理方法、及びそのプログラム
CN112399816A (zh) 信息处理装置和模型生成方法
JP5326064B2 (ja) 画像処理装置
JP2007151645A (ja) 医用画像診断支援システム
JP4832794B2 (ja) 画像処理装置及び画像処理プログラム
US20230281968A1 (en) Recording Medium, Method for Generating Learning Model, Surgical Support Device and Information Processing Method
CN103974653A (zh) 图像处理装置、图像处理方法以及图像处理程序
JP4855709B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2007075158A (ja) 画像表示装置
WO2007029569A1 (ja) 画像表示装置
Karargyris et al. A video-frame based registration using segmentation and graph connectivity for Wireless Capsule Endoscopy
WO2023042273A1 (ja) 画像処理装置、画像処理方法及び記憶媒体
WO2022180786A1 (ja) 画像処理装置、画像処理方法及び記憶媒体
Wang et al. Computer-aided WCE diagnosis using convolutional neural network and label transfer
WO2024084838A1 (ja) 画像処理装置、画像処理方法及び記憶媒体
WO2021215475A1 (ja) 画像生成装置、表示装置、データ変換装置、画像生成方法、提示方法、データ変換方法およびプログラム
WO2024084578A1 (ja) 画像処理装置、画像処理方法及び記憶媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110530

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110530

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130502

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130920

R151 Written notification of patent or utility model registration

Ref document number: 5374078

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250