JP5284863B2 - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP5284863B2
JP5284863B2 JP2009110683A JP2009110683A JP5284863B2 JP 5284863 B2 JP5284863 B2 JP 5284863B2 JP 2009110683 A JP2009110683 A JP 2009110683A JP 2009110683 A JP2009110683 A JP 2009110683A JP 5284863 B2 JP5284863 B2 JP 5284863B2
Authority
JP
Japan
Prior art keywords
region
extraction
image data
image
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009110683A
Other languages
English (en)
Other versions
JP2010262350A (ja
Inventor
智子 竹本
秀夫 横田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
RIKEN Institute of Physical and Chemical Research
Original Assignee
RIKEN Institute of Physical and Chemical Research
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by RIKEN Institute of Physical and Chemical Research filed Critical RIKEN Institute of Physical and Chemical Research
Priority to JP2009110683A priority Critical patent/JP5284863B2/ja
Priority to US12/609,468 priority patent/US20100278425A1/en
Publication of JP2010262350A publication Critical patent/JP2010262350A/ja
Application granted granted Critical
Publication of JP5284863B2 publication Critical patent/JP5284863B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

本発明は、画像処理装置、画像処理方法およびプログラムに関する。
従来、画像をいくつかの構成要素に基づいて分割し、目的要素を他要素と区別する処理を行う領域抽出方法が開発されている。領域抽出の研究は、1970年代頃から活発に行われ、現在までに相当数の領域抽出アルゴリズムが発表されている。領域抽出は、画像理解や画像からの定量データ獲得の第一歩であることから、何十年にも渡りコンピュータビジョン分野における重要研究の一つである。
また、近年、医学や生物科学分野においても、領域抽出の重要性が高まっており、例えば細胞生物学では、顕微鏡の性能向上に伴い、高解像度・長時間の画像取得が容易になったことで、画像情報から細胞の微細な構造や時間変化挙動などを定量化し、新たな知見獲得を目指す研究が盛んに行われている。このような定量化の前処理として、大量画像からの領域抽出は欠かすことができない技術である。
ここで、特許文献1には、多様な画像や抽出タスクに対しても、より人間の感覚に近い領域抽出を計算機が自動で行うことができる画像処理方法が開示されている。この方法は、画像平面上で人間が知覚的に一様と感じる色領域をなす画素群は、均等色空間の中で稠密なクラスタを形成することを利用して、クラスタごとに領域を分割、対象の自動抽出を行うものである。
また、特許文献2には、抽出タスクに応じて処理アルゴリズムを構築し、汎用性の高い処理アルゴリズムを得ることができる画像処理方法が開示されている。この方法は、画像中から特定の対象を抽出することができる木構造状の処理プログラムを、遺伝的プログラミングの手法を用いて自動的に構築し最適化することにより、あらゆる抽出タスクに対する汎用性を獲得しようとしたものである。ここで、遺伝的プログラミングによって最適化された木構造状の処理プログラムによる抽出機能は、静止画像、すなわち空間画像に対してのみ有効であり、この方法では、それを動画像、すなわち時空間画像に対応させるためにオプティカルフローを導入している。そして、オプティカルフローの算出に関して、入力画像を疑似的に上空からみた状態に変換する処理を行うため、画像撮像装置を規定し、入力画像は撮像装置からの出力とする範囲を定めている。
また、非特許文献1には、汎用性獲得の解決策として、エンドユーザーが提示した抽出ターゲットと、計算機による自動抽出結果の類似度を評価することにより、抽出アルゴリズムを選択する方法が開示されている。
特開2003−162718号公報 特開2006−285385号公報
S.K.Shah, "Performance Modeling and Algorithm Characterization for Robust Image Segmentation" International Journal of Computer Vision Vol.80 No.1 pp.92−103 2008
しかしながら、従来の領域抽出方法においては、領域抽出アルゴリズムの汎用性の欠如が問題となっていた。すなわち、ある抽出タスクのために検討した領域抽出アルゴリズムが、多様な画像や抽出タスクに幅広く有効であることはなく、研究者は目的に応じて常にアルゴリズムを変更、新規に検討する必要に迫られており、この変更、検討に関わる作業は極めて冗長であるため、知見獲得のボトルネックとなっている、という問題点を有していた。
具体的には、例えば、特許文献1の方法では、抽出領域が必ずクラスタを形成し、かつ非抽出領域の特徴が示すクラスタと明確に区別できるような空間を発見することは実際には難しく、対象によって理想の空間を発見することに労力を要することになり、汎用性の獲得には多くの問題があった。
また、特許文献2の方法では、オプティカルフローの導入にあたり特殊な画像撮像装置を用いているが、この特殊な画像撮像装置を、例えば医学や生物学分野における時空間観察画像の獲得に応用することは難しく、多様な時空間画像に対応した汎用性のある抽出アルゴリムの獲得には未だ多くの問題があった。
また、非特許文献1の方法では、類似度を測る尺度の定義が問題となる。すなわち、類似度を測る尺度として、画像の輝度やテクスチャ、コントラスト、形状の比較などが用いられることが多いが、どの尺度を用いるかによって、選択アルゴリズムや抽出精度が大きく異なる。そのため最近は尺度自体の評価が必要であるとされ、収束不能の様相を呈しており、非特許文献1の方法では、類似度を測る尺度について、汎用性の獲得には未だ大きな問題があった。
本発明は、上記問題点に鑑みてなされたもので、多様な対象に対して汎用性に富んだ領域抽出を行うことができる、画像処理装置、画像処理方法、および、プログラムを提供することを目的とする。
このような目的を達成するため、本発明は、記憶部と制御部と表示部と入力部を少なくとも備えた画像処理装置において、前記記憶部は、複数の領域抽出アルゴリズムと、画像データと、を記憶し、前記制御部は、前記画像データの画像が前記表示部に表示されるよう制御する第一の画像出力手段と、前記表示部に表示された前記画像上で前記入力部を介して指定される注目領域を受け付け、前記注目領域の前記画像データを取得する領域受付手段と、前記記憶部に記憶された前記複数の前記領域抽出アルゴリズムを用いて、前記領域抽出アルゴリズム毎に前記画像データから抽出される抽出領域を生成し、前記抽出領域の前記画像データを取得する領域抽出手段と、前記抽出領域の前記画像データと前記注目領域の前記画像データとを比較して、当該画像データ間の類似度が最も高い前記領域抽出アルゴリズムを選択する領域抽出アルゴリズム選択手段と、前記選択された前記領域抽出アルゴリズムを用いて抽出した領域の前記画像データを前記表示部に出力する第二の画像出力手段と、を備えたことを特徴とする。
また、本発明の画像処理装置は、上記記載の画像処理装置において、前記入力部は、ポインティングデバイスであり、前記領域受付手段は、ユーザーに前記ポインティングデバイスを介して前記画像上で指定する領域の輪郭をトレースさせることにより、前記注目領域を受け付けること、を特徴とする。
また、本発明の画像処理装置は、上記記載の画像処理装置において、前記領域抽出アルゴリズム選択手段は、前記抽出領域の前記画像データと前記注目領域の前記画像データのそれぞれを、形状とテクスチャという概念で数値化した特徴量間で前記類似度を算出すること、を特徴とする。
また、本発明の画像処理装置は、上記記載の画像処理装置において、前記領域抽出アルゴリズム選択手段は、前記特徴量を、ベクトルで表現すること、を特徴とする。
また、本発明の画像処理装置は、上記記載の画像処理装置において、前記領域抽出アルゴリズム選択手段は、前記ベクトルの各要素を、複素数または実数で表現すること、を特徴とする。
また、本発明の画像処理装置は、上記記載の画像処理装置において、前記領域抽出アルゴリズム選択手段は、前記形状の前記特徴量を、多次元ベクトルで表現すること、を特徴とする。
また、本発明の画像処理装置は、上記記載の画像処理装置において、前記領域抽出アルゴリズム選択手段は、前記テクスチャの前記特徴量を、多次元ベクトルで表現すること、を特徴とする。
また、本発明は、画像処理方法に関するものであり、記憶部と制御部と表示部と入力部を少なくとも備えた情報処理装置において実行される画像処理方法であって、前記記憶部は、複数の領域抽出アルゴリズムと、画像データと、を記憶し、前記制御部において実行される、前記画像データの画像が前記表示部に表示されるよう制御する第一の画像出力ステップと、前記表示部に表示された前記画像上で前記入力部を介して指定される注目領域を受け付け、前記注目領域の前記画像データを取得する領域受付ステップと、前記記憶部に記憶された前記複数の前記領域抽出アルゴリズムを用いて、前記領域抽出アルゴリズム毎に前記画像データから抽出される抽出領域を生成し、前記抽出領域の前記画像データを取得する領域抽出ステップと、前記抽出領域の前記画像データと前記注目領域の前記画像データとを比較して、当該画像データ間の類似度が最も高い前記領域抽出アルゴリズムを選択する領域抽出アルゴリズム選択ステップと、前記選択された前記領域抽出アルゴリズムを用いて抽出した領域の前記画像データを前記表示部に出力する第二の画像出力ステップと、を含むことを特徴とする。
また、本発明の画像処理方法は、上記記載の画像処理方法において、前記入力部は、ポインティングデバイスであり、前記領域受付ステップは、ユーザーに前記ポインティングデバイスを介して前記画像上で指定する領域の輪郭をトレースさせることにより、前記注目領域を受け付けること、を特徴とする。
また、本発明の画像処理方法は、上記記載の画像処理方法において、前記領域抽出アルゴリズム選択ステップは、前記抽出領域の前記画像データと前記注目領域の前記画像データのそれぞれを、形状とテクスチャという概念で数値化した特徴量間で前記類似度を算出すること、を特徴とする。
また、本発明は、プログラムに関するものであり、記憶部と制御部と表示部と入力部を少なくとも備えた情報処理装置に実行させるためのプログラムであって、前記記憶部は、複数の領域抽出アルゴリズムと、画像データと、を記憶し、前記制御部において、前記画像データの画像が前記表示部に表示されるよう制御する第一の画像出力ステップと、前記表示部に表示された前記画像上で前記入力部を介して指定される注目領域を受け付け、前記注目領域の前記画像データを取得する領域受付ステップと、前記記憶部に記憶された前記複数の前記領域抽出アルゴリズムを用いて、前記領域抽出アルゴリズム毎に前記画像データから抽出される抽出領域を生成し、前記抽出領域の前記画像データを取得する領域抽出ステップと、前記抽出領域の前記画像データと前記注目領域の前記画像データとを比較して、当該画像データ間の類似度が最も高い前記領域抽出アルゴリズムを選択する領域抽出アルゴリズム選択ステップと、前記選択された前記領域抽出アルゴリズムを用いて抽出した領域の前記画像データを前記表示部に出力する第二の画像出力ステップと、を実行させることを特徴とする。
また、本発明のプログラムは、上記記載のプログラムにおいて、前記入力部は、ポインティングデバイスであり、前記領域受付ステップは、ユーザーに前記ポインティングデバイスを介して前記画像上で指定する領域の輪郭をトレースさせることにより、前記注目領域を受け付けること、を特徴とする。
また、本発明のプログラムは、上記記載のプログラムにおいて、前記領域抽出アルゴリズム選択ステップは、前記抽出領域の前記画像データと前記注目領域の前記画像データのそれぞれを、形状とテクスチャという概念で数値化した特徴量間で前記類似度を算出すること、を特徴とする。
この発明によれば、多様な対象に対して汎用性に富んだ領域抽出を行うことができる。
図1は、基本原理を示すフローチャートである。 図2は、基本原理を模式的に示した図である。 図3は、基本原理を示す原理構成図である。 図4は、本実施の形態が適用される画像処理装置100の構成の一例を示すブロック図である。 図5は、本実施の形態における画像処理装置100の全体処理の一例を示すフローチャートである。 図6は、画像データ中の元画像(左図)と、指定された注目領域を重畳した画像(右図)を示す図である。 図7は、制御部102による入出力制御インターフェースの制御により実現されるGUI画面の一例を示す図である。 図8は、本実施の形態における領域抽出処理の一例を示すフローチャートである。 図9は、本実施の形態におけるスコアテーブル生成処理の一例を示すフローチャートである。 図10は、本実施の形態による細胞領域の抽出結果を示す図である。 図11は、酵母ゴルジ体の観察画像(元画像)と、本実施の形態による領域抽出結果を示す図である。
以下に、本発明にかかる画像処理装置、画像処理方法、および、プログラムの実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。
特に以下の実施の形態においては、本発明を生物科学分野に適用した例について説明することがあるが、この場合に限られず、生体認証や撮像技術における顔認識など全ての技術分野において、同様に適用することができる。
[本実施の形態の概要]
以下、本実施の形態の概要について図1〜図3を参照して説明し、その後、本実施の形態の構成および処理等について詳細に説明する。図1は、本実施の形態の基本原理を示すフローチャートである。
本実施の形態は、概略的に、以下の基本的特徴を有する。すなわち、本実施の形態の画像処理装置は、図1に示すように、画像データの画像が表示部に表示されるよう制御し、表示された画像上で入力部を介して指定される注目領域を受け付け、注目領域の画像データを取得する(ステップSA−1)。より具体的には、本実施の形態の画像処理装置は、ユーザーにポインティングデバイスを介して画像上で指定する領域の輪郭をトレースさせることにより、注目領域を受け付けてもよい。ここで、注目領域を指定させるために表示する画像は、画像データ中の単数または複数の画像のうちの一部の画像である。また、「注目領域」とは、領域抽出の対象を例示的に表す特定の領域のことであり、領域抽出の目的に応じて任意に設定可能な領域である。ここで、図2は、本実施の形態の基本原理を模式的に示した図である。図2に示すように、本実施の形態の画像処理装置は、一例として、一部の画像データを表示して、表示された画像上において注目領域をユーザーに指定させる(ステップSA−1)。
そして、図1に示すように、本画像処理装置は、画像データ中の画像の一部に対し、記憶部に記憶された複数の領域抽出アルゴリズムを用いて、領域抽出アルゴリズム毎に当該画像データから抽出される抽出領域を生成し、抽出領域の画像データを取得する(ステップSA−2)。ここで、「抽出領域」とは、領域抽出アルゴリズムの実行により自動抽出される領域のことであり、領域抽出アルゴリズムの種類に応じて生成される可変の領域である。図2に示すように、本画像処理装置は、注目領域の指定に用いた画像と同一の画像データに対し、例えば、領域抽出アルゴリズム1〜Kを実行することにより、それぞれ異なった抽出領域を生成し、抽出領域の画像データを取得する(ステップSA−2)。
ここで、本画像処理装置は、図2のステップSA−1´、SA−2´に示すように、取得した抽出領域の画像データと注目領域の画像データのそれぞれを、形状とテクスチャという概念(要素)を含む特徴量に数値化してもよい。ここで、「テクスチャ」とは、画像のある一定の領域から得られる、濃度値の変化に起因する量である。例えば、テクスチャは、局所領域の統計量(平均値、分散など)を算出したり、自己回帰モデルを当てはめたり、フーリエ変換によって局所領域の周波数を算出したりすることによって求められる。
そして、図1に示すように、本画像処理装置は、抽出領域の画像データと注目領域の画像データとを比較して、当該画像データ間の類似度を算出する(ステップSA−3)。より具体的には、図2のSA−3に示すように、本画像処理装置は、抽出領域の画像データと注目領域の画像データのそれぞれを数値化した特徴量間で類似度を算出してもよい。
そして、図1および図2に示すように、本画像処理装置は、算出した類似度が最も高い領域抽出アルゴリズムを選択する(ステップSA−4)。
そして、図1に示すように、本画像処理装置は、全画像データに対し、当該選択した領域抽出アルゴリズムを実行し(ステップSA−5)、全画像データに対する抽出領域の画像データを表示部に出力する(ステップSA−6)。
以上が、本実施の形態のフローチャートの概要である。次に、図3は、本実施の形態の基本原理を示す原理構成図である。
図3に示すように、本実施の形態は、表示部に表示した画像上で入力部を介して指定される注目領域を受け付け、注目領域の画像データを取得し(ステップSA−1)、記憶部の領域抽出アルゴリズムライブラリ等に記憶された複数の領域抽出アルゴリズムを用いて、領域抽出アルゴリズム毎に領域抽出を行い、抽出領域の画像データを取得し(ステップSA−2)、注目領域の画像データと各抽出領域の画像データとの間の類似度を評価し(ステップSA−3)、類似度が最も高い領域抽出アルゴリズム(すなわち、最適アルゴリズム)を決定し(ステップSA−4)、全画像データに対し、当該選択した領域抽出アルゴリズムを用いて抽出した抽出領域の画像データを表示部に出力する(ステップSA−5,6)。
このように、本実施の形態によれば、ある対象についての抽出タスクに対し、ユーザーの知識や経験を生かしてタスク解決に有効な領域抽出アルゴリズムを選択できるので、ユーザーが何度も領域抽出アルゴリズムを検討する手間を省き、異なる画像特徴や多様な対象に対して汎用性に富んだ領域抽出を自動で行うことができ、スムーズな知見の獲得が可能となる。
[画像処理装置の構成]
次に、本実施の形態にかかる画像処理装置の構成について図4を参照して説明する。図4は、本実施の形態が適用される画像処理装置100の構成の一例を示すブロック図であり、該構成のうち本実施の形態に関係する部分のみを概念的に示している。
図4に示すように、画像処理装置100は、概略的に、制御部102と、入力装置112および表示装置114に接続された入出力制御インターフェース部108と、記憶部106を備えて構成される。ここで、制御部102は、画像処理装置100の全体を統括的に制御するCPU等である。また、入出力制御インターフェース部108は、入力装置112や表示装置114に接続されるインターフェースである。また、記憶部106は、各種のデータベースやテーブルなどを格納する装置である。これら画像処理装置100の各部は任意の通信路を介して通信可能に接続されている。
記憶部106に格納される各種のデータベースやテーブル(画像データファイル106a、領域抽出アルゴリズムライブラリ106b)は、固定ディスク装置等のストレージ手段である。例えば、記憶部106は、各種処理に用いる各種のプログラムやテーブルやファイルやデータベースやウェブページ等を格納する。
これら記憶部106の各構成要素のうち、画像データファイル106aは、画像データ等を記憶する画像データ記憶手段である。この画像データファイル106aに格納される画像データは、一例として、x−y−z−t(x軸−y軸−z軸−時間軸)の最大4次元空間で構成される単数または複数の画像から構成されるデータである。例えば、画像データは、x−yスライス画像(2次元)、x−yスライス画像×z(3次元)、x−yスライス画像×時相t(3次元)、x−yスライス画像×z×時相t(4次元)等の、単数または複数の画像から構成されるデータである。なお、注目領域や抽出領域の画像データは、一例として、画像データファイル106aに記憶された画像データの時空間画像と同一の次元構成に従った、最大4次元空間で構成される画像の一部について、注目領域や抽出領域が設定されたデータである。なお、指定された注目領域や抽出領域の画像データは、マスクとして保持される。マスクは、画像と同じように画素(ピクセル)単位に区分けされており、各画素は座標情報とともにラベル情報を持つ。例えば、ユーザーが注目領域であると指定した画素にはラベル1が、それ以外の領域にはラベル0がそれぞれ設定される。このマスクは、領域抽出アルゴリズムを用いて生成した抽出領域の評価に用いられることから「教師マスク」と呼ぶ場合がある。
また、領域抽出アルゴリズムライブラリ106bは、複数の領域抽出アルゴリズムを記憶する領域抽出アルゴリズム記憶手段である。領域抽出アルゴリズムは、一例として、画像から特徴を計測する特徴抽出法と、特徴量のクラスタリング(特徴のクラス分け)を行って領域を識別する識別法と、を実行させるためのアルゴリズム等により構成される。すなわち、本実施の形態においては、一例として、パターン認識に対応させて抽出処理を行う領域抽出アルゴリズムを用いる。パターン認識とは、得られた特徴が観測されたパターンのどのクラスに属するかを判断する処理であり、観測されたパターンを予め定められた複数概念の一つに対応させる処理である。この処理では、まず、特徴抽出法に基づいて、観測パターンを良く表現することができる数値(特徴量)を計測する。そして、識別法に基づいて、特徴量を概念に対応させる処理を行う。すなわち、画像データのパターン空間は、特徴抽出法によりm次元の特徴空間X=(x,x,・・・xに変換され、さらに識別法により、ユーザーにより定義された概念(教師マスク)に対応付けて概念空間C,C,・・・,Cに変換される。このように、領域抽出アルゴリズムが実行されると、パターン認識によりオブジェクトクラスが決定される。このようなパターン認識に基づく領域抽出は、画像フィルタの組み合わせによるアルゴリズムよりも精度が高くなることが多い。
そして、領域抽出アルゴリズムライブラリ106bは、この領域抽出アルゴリズムの一例として、複数の特徴抽出法や複数の識別法、パラメータ等を記憶する。例えば、領域抽出アルゴリズムライブラリ106bが、M種類の特徴抽出法、N種類の識別法、P種類のパラメータを記憶する場合、領域抽出アルゴリズムライブラリ106bは、これらの組み合わせにより、M×N×P種類の領域抽出アルゴリズムを記憶していることとなる。これらの特徴抽出法や識別法やパラメータの組み合わせは、領域抽出アルゴリズム選択部102dにより算出される類似度のスコアに基づいて、相対的に評価される。
領域抽出アルゴリズムライブラリ106bに記憶される領域抽出アルゴリズムの特徴抽出法は、一例として、輝度、カラー値、テクスチャ統計量、高次局所自己相関特徴、微分特徴、同時生起行列、2次元フーリエ特徴、周波数特徴、SIFT特徴、方向線素特徴等の特徴量、または、これらのマルチスケール特徴を計測する。また、領域抽出アルゴリズムライブラリ106bに記憶される領域抽出アルゴリズムの識別法は、K−Nearest Neighbor、ANN(Approximate Nearest Neighbor)、SVM(Support Vector Machine)、線形判別分析、ニューラルネットワーク、遺伝的アルゴリズム、多項ロジットモデル等に基づいて、領域の識別を行う。なお、この他にも、教師付き識別法と呼ばれるものは、すべて識別法として適用することができる。また、教師マスクをダミーとすることによって、教師なしクラスタリング法(例えば、k−Mean法など)を使用してもよい。また、領域抽出アルゴリズムライブラリ106bに記憶される領域抽出アルゴリズムのパラメータは、カーネル関数に関わるパラメータや、参照近傍数に関わるパラメータ等である。
また、図4において、入出力制御インターフェース部108は、入力装置112や表示装置114の制御を行う。ここで、表示装置114としては、モニタ(家庭用テレビを含む)の他、スピーカを用いることができる。また、入力装置112としては、マウスやタッチペン等のポインティングデバイスの他、キーボードや撮像装置等を用いることができる。
また、図4において、制御部102は、OS(Operating System)等の制御プログラムや、各種の処理手順等を規定したプログラム、および、所要データを格納するための内部メモリを有する。そして、制御部102は、これらのプログラム等により、種々の処理を実行するための情報処理を行う。制御部102は、機能概念的に、第一の画像出力部102a、領域受付部102b、領域抽出部102c、領域抽出アルゴリズム選択部102d、第二の画像出力部102eを備えて構成されている。
このうち、第一の画像出力部102aは、画像データファイル106aに記憶された画像データの画像が表示装置114に表示されるよう制御する第一の画像出力手段である。
また、領域受付部102bは、表示装置114に表示された画像上で入力装置114を介して指定される注目領域を受け付け、注目領域の画像データを取得する領域受付手段である。例えば、領域受付部102bは、ユーザーに、入力装置112であるポインティングデバイスを介して、表示装置114に表示された画像上で指定する領域の輪郭をトレースさせることにより、注目領域を受け付けてもよい。また、領域受付部102bは、入出力制御インターフェース部108を介して入力装置112および表示装置114を制御することによりGUI(Graphical User Interface)を実現し、ユーザーに入力装置112を介して、上述の注目領域のほか、画像データや各種設定データを入力させるよう制御し、入力されたデータを記憶部106に格納してもよい。
また、領域抽出部102cは、画像データに対し、領域抽出アルゴリズムライブラリ106bに記憶された領域抽出アルゴリズムを用いて抽出領域を生成する領域抽出手段である。例えば、領域抽出部102cは、領域受付部102bにより注目領域を受け付けた画像と同一の画像データに対し、領域抽出アルゴリズムライブラリ106bに記憶された複数の領域抽出アルゴリズムを用いて、領域抽出アルゴリズム毎に画像データから抽出される抽出領域を生成し、抽出領域の画像データを取得する。また、領域抽出部102cは、画像データファイル106aに記憶された全画像データに対し、領域抽出アルゴリズム選択部102dにより選択された領域抽出アルゴリズムを用いて抽出領域を生成し、抽出領域の画像データを取得する。なお、領域抽出部102cは、複数の領域抽出アルゴリズムの各処理の計算量が膨大になることを抑制するために、クラスタマシン等によりジョブ並列処理を行ってもよい。
また、領域抽出アルゴリズム選択部102dは、領域受付部102bにより取得された注目領域の画像データと、領域抽出部102cにより取得された抽出領域の画像データとを比較して、当該画像データ間の類似度が最も高い領域抽出アルゴリズムを選択する領域抽出アルゴリズム選択手段である。ここで、領域抽出アルゴリズム選択部102dは、抽出領域の画像データと注目領域の画像データのそれぞれを、形状とテクスチャという概念で数値化した特徴量間で類似度を算出してもよい。また、領域抽出アルゴリズム選択部102dは、類似度のスコアを算出して、記憶部106にスコアテーブルを作成して格納してもよい。なお、このスコアテーブルには、一例として、特徴量(ベクトル)や、領域抽出アルゴリズムの種類とパラメータ、類似度等の情報が格納される。
一例として、領域抽出アルゴリズム選択部102dによる類似度の算出は、注目領域と抽出領域との「近さ」を評価することにより実現される。この「近さ」の判断基準には、多くの要素が考えられるが、中でも輝度やテクスチャなど画素値由来の特徴と領域輪郭形状は、ユーザーが最も注目する要素の1つであると考えられることから、これらの領域を形状とテクスチャという概念で数値化した特徴量間で比較することにより「近さ」を評価する。
この領域抽出アルゴリズム選択部102dによる類似度の算出処理に用いられる特徴量は、ベクトルで表現されたものでもよく、このベクトルの各要素を、複素数や実数で表したものでもよい。また、特徴量の形状またはテクスチャの各概念は、多次元ベクトルで表現されたものでもよい。
また、第二の画像出力部102eは、領域抽出アルゴリズム選択部102dにより選択された領域抽出アルゴリズムを用いて領域抽出部102cにより全画像データから抽出された抽出領域の画像データを、表示装置114に出力する第二の画像出力手段である。ここで、第二の画像出力部102eは、抽出領域の画像データの画像が表示装置114に表示されるよう制御する他、抽出領域の統計量を算出して統計データ等が表示されるよう表示装置114を制御してもよい。例えば、第二の画像出力部102eは、画像データ中の抽出領域の統計量(輝度平均・最大・最小・分散・標準偏差・共分散・PCA・ヒストグラム等)を算出してもよい。
以上が、画像処理装置100の構成の概略である。ここで、画像処理装置100は、ルータ等の通信装置および専用線等の有線または無線の通信回線を介して、ネットワーク300に通信可能に接続されてもよく、パラメータ等に関する外部データベースや、領域抽出アルゴリズム等の外部プログラム等を提供する外部システム200と、ネットワーク300を介して通信可能に接続して構成されてもよい。この場合、図4において、画像処理装置100の通信制御インターフェース部104は、通信回線等に接続されるルータ等の通信装置(図示せず)に接続されるインターフェースであり、画像処理装置100とネットワーク300(またはルータ等の通信装置)との間における通信制御を行う。すなわち、通信制御インターフェース部104は、他の端末と通信回線を介してデータを通信する機能を有する。ネットワーク300は、画像処理装置100と外部システム200とを相互に接続する機能を有し、例えば、インターネット等である。また、外部システム200は、ネットワーク300を介して、画像処理装置100と相互に接続され、ユーザーに対してパラメータ等に関する外部データベースや、領域抽出アルゴリズムや評価法プログラム等の外部プログラム等を提供する機能を有する。ここで、外部システム200は、WEBサーバやASPサーバ等として構成していてもよい。また、外部システム200のハードウェア構成は、一般に市販されるワークステーション、パーソナルコンピュータ等の情報処理装置およびその付属装置により構成していてもよい。また、外部システム200の各機能は、外部システム200のハードウェア構成中のCPU、ディスク装置、メモリ装置、入力装置、出力装置、通信制御装置等およびそれらを制御するプログラム等により実現される。
[画像処理装置100の処理]
次に、このように構成された本実施の形態における画像処理装置100の処理の一例について、以下に図5〜図11を参照して詳細に説明する。
[全体処理]
まず、画像処理装置100の全体処理の詳細について図5および図6を参照して説明する。図5は、本実施の形態における画像処理装置100の全体処理の一例を示すフローチャートである。
図5に示すように、まず、第一の画像出力部102aは、画像データファイル106aに記憶された画像データの画像が表示装置114に表示されるよう制御し、領域受付部102bは、表示された画像上で入力装置112を介して指定される注目領域を受け付け、注目領域の画像データを取得する(ステップSB−1)。より好適には、領域受付部102bは、入出力制御インターフェース部108を制御することによりユーザーにGUIを提供し、入力装置112であるポインティングデバイスを介して、表示装置114に表示された画像上で指定する領域の輪郭をユーザーにトレースさせることにより、注目領域を受け付ける。ここで、図6は、画像データ中の元画像(左図)と、指定された注目領域を重畳した画像(右図)を示す図である。
図6に示すように、ユーザーは、表示された元画像上で、ポインティングデバイスを介して指定する領域の輪郭をトレースすることにより、注目領域を指定する。なお、指定された注目領域の画像データは、マスクとして保持される。マスクは、画像と同じように画素(ピクセル)単位に区分けされており、各画素は座標情報とともにラベル情報を持つ。例えば、ユーザーが注目領域であると指定した画素にはラベル1が、それ以外の領域にはラベル0がそれぞれ設定される。
そして、領域抽出部102cは、領域抽出アルゴリズムライブラリ106bに記憶された複数の領域抽出アルゴリズムを用いて、領域抽出アルゴリズム毎に画像データから抽出領域を生成し、抽出領域の画像データを取得し、領域抽出アルゴリズム選択部102dは、抽出領域の画像データと注目領域の画像データとを比較して、当該画像データ間の類似度が最も高い領域抽出アルゴリズムを選択して、全画像データに対する抽出領域を生成し(ステップSB−2)、生成した抽出領域を記憶部106の所定の領域に出力する(ステップSB−3)。
そして、第二の画像出力部102eは、抽出領域と画像データの画像とを統合して、抽出領域に対応する画像を抽出した出力画像を生成し(ステップSB−4)、記憶部106の所定の領域に出力する(ステップSB−5)。例えば、第二の画像出力部102eは、元画像データと抽出領域(マスク)のブール演算を行い、(ラベル1が設定された抽出領域以外の)ラベル0が設定された領域には輝度値0を設定した画像データを作成する。
そして、第二の画像出力部102eは、抽出領域と画像データの画像とに基づいて、所定の総計データ算出法に従って、統計量を算出して統計データを算出し(ステップSB−6)、記憶部106の所定の領域に出力する(ステップSB−7)。
そして、第二の画像出力部102eは、入出力制御インターフェース部108を制御することにより実現されるGUIをユーザーに提供し、生成した出力画像と算出した統計データが、表示装置114に表示(例えば、3次元表示)されるよう入出力制御インターフェース部108を制御する(ステップSB−8)。
これにて、画像処理装置100の全体処理が終了する。
[設定処理]
次に、上述の全体処理を行うための前処理となる各種設定データの設定処理について、図7を参照して説明する。ここで、図7は、制御部102による入出力制御インターフェースの制御により実現されるGUI画面の一例を示す図である。
図7に示すように、GUI画面には、一例として、入力ファイル設定画面MA−1、Z数(Z_num)入力画面MA−2、t数(t_num)入力画面MA−3、入力教師マスクファイル設定画面MA−4、教師マスクファイル数入力画面MA−5、出力ファイル設定画面MA−6、出力表示設定チェックボックスMA−7、コンフィギュレーション選択タブMA−8、データベース使用設定チェックボックスMA−9、統計関数使用設定チェックボックスMA−10、算出法選択タブMA−11、出力ファイル入力画面MA−12、並列処理使用チェックボックスMA−13、システム選択タブMA−14、コマンドラインオプション入力画面MA−15、アルゴリズム選択タブMA−16、実行ボタンMA−17、クリアボタンMA−18、キャンセルボタンMA−19等が表示される。
また、図7に示すように、入力ファイル設定画面MA−1は、画像データを格納したファイルを指定するための画面であり、Z数(Z_num)入力画面MA−2、および、t数(t_num)入力画面MA−3は、画像データの画像のZ軸方向の数および時間位相の数を入力するための画面である。また、入力教師マスクファイル設定画面MA−4は、注目領域(教師マスク)を格納するファイルを指定するための画面であり、教師マスクファイル数入力画面MA−5は、注目領域を指定する画像データのデータ数を入力するための画面である。また、出力ファイル設定画面MA−6は、抽出領域や出力画像やスコアテーブル等の出力先を設定するための画面である。また、出力表示設定チェックボックスMA−7は、抽出領域の画像データ(出力画像)等を表示装置114に表示するか否かを設定するためのチェックボックスである。また、コンフィギュレーション選択タブMA−8は、制御部102の各種動作を指定するための動作情報を設定するための選択タブである。また、データベース使用設定チェックボックスMA−9は、領域抽出アルゴリズム選択部102dにより算出されたスコアテーブルの履歴をデータベースに格納し、このデータベースを用いて領域抽出アルゴリズムの選択を行うか否かを設定するためのチェックボックスである。
また、図7に示すように、統計関数使用設定チェックボックスMA−10は、第二の画像出力部102eにより統計関数を使用して算出される統計データを出力するか否かを設定するためのチェックボックスであり、算出法選択タブMA−11は、第二の画像出力部102eによる統計データ算出のための統計データ算出法を選択するための選択タブであり、出力ファイル入力画面MA−12は、第二の画像出力部102eにより算出された統計データの出力先を入力するための画面である。また、並列処理使用チェックボックスMA−13は、領域抽出部102cによる複数の領域抽出アルゴリズムの実行時に並列処理を行うか否かを設定するためのチェックボックスであり、システム選択タブMA−14は、領域抽出部102cにより並列処理を行う場合に使用するクラスタマシン等のシステムを指定するための選択タブである。また、コマンドラインオプション入力画面MA−15は、画像処理装置100として機能させるためのプログラムにおいてコマンドラインオプションを指定するための画面であり、アルゴリズム選択タブMA−16は、領域抽出部102cによる領域抽出に用いる領域抽出アルゴリズムの種類(特徴抽出法や識別法の種類、パラメータの範囲等)を指定するための選択タブである。また、実行ボタンMA−17は、設定した設定データで処理の実行を開始させるためのボタンであり、クリアボタンMA−18は、設定した設定データを解除するためのボタンであり、キャンセルボタンMA−19は、処理の実行を行わない場合のボタンである。
このように、制御部102は、入出力制御インターフェース部108を制御することによりユーザーにGUI画面を表示装置114に表示し、入力装置112を介して入力された各種の設定データを取得する。そして、制御部102は、取得した各種の設定データを画像データファイル106a等の記憶部106に格納する。そして、画像処理装置100は、これらの設定データに基づいて処理を行う。以上が、設定処理の一例である。
[領域抽出処理]
次に、上述の全体処理における領域抽出処理(ステップSB−2)の詳細について、図8を参照して説明する。ここで、図8は、本実施の形態における領域抽出処理の一例を示すフローチャートである。
図8に示すように、まず、領域抽出部102cは、領域受付部102bにより注目領域を受け付けた画像と同一の画像データを、スコアリング対象として選択する(ステップSB−21)。
そして、領域抽出部102cは、スコアリング対象の画像データに対し、領域抽出アルゴリズムライブラリ106bに記憶された複数の領域抽出アルゴリズムを用いて抽出領域を生成し、領域抽出アルゴリズム選択部102dは、注目領域の画像データと抽出領域の画像データとを比較して、当該画像データ間の類似度のスコアを算出して、スコアテーブルを作成する(ステップSB−22)。すなわち、注目領域(Rg)を指定するために使用した画像データに対し、領域抽出アルゴリズムライブラリ106bに記憶された複数の領域抽出アルゴリズム(A1〜A10)によって、それぞれ抽出領域を生成し、これによって抽出された複数の抽出領域(R1〜R10)と、Rgとの類似度のスコアを算出する。すなわち、一例として、類似度のスコアは、指定領域Rgと各抽出領域R1〜R10をそれぞれ「特徴量」と呼ばれる量で数値化した数値間の距離(difference)によって類似度を計測する。
そして、領域抽出アルゴリズム選択部102dは、作成したスコアテーブルに基づいて、トップスコア(最も高い類似度)を算出した領域抽出アルゴリズムを選択する(ステップSB−23)。上述の例では、最も類似している(つまり、距離(difference)が最小)と判断された領域を抽出した領域抽出アルゴリズム(A*)を最適法として選択する。
そして、領域抽出部102cは、画像データファイル106aに記憶された画像データから、抽出対象の画像データ(通常は、全画像データ)を選択する(ステップSB−24)。
そして、領域抽出部102cは、抽出対象の全画像データに対し、領域抽出アルゴリズム選択部102dにより選択された領域抽出アルゴリズムを用いて、抽出領域を生成する(ステップSB−25)。
そして、領域抽出部102cは、注目領域を更新するか否かを判断する(ステップSB−26)。例えば、画像データに、t(時間)軸方向のn個の画像が格納されている場合、t=0の画像とt=nの画像では、環境が大きく異なっている場合がある。そのため、抽出精度を高めるために、ユーザーにより、時間が離れた複数の画像に対して、複数の注目領域が設定されている場合がある(図7の教師マスクファイル数入力画面MA−5参照)。領域抽出部102cは、一例として、複数の注目領域が設定されているか否かを判断し、未だ解析を行っていない注目領域に対応する抽出対象の画像データがある場合、注目領域を更新する(ステップSB−26、Yes)。このように、注目領域を更新することで、空間的、時間的に多様に変化するタスク環境においても高い精度の抽出処理が可能となる。
そして、領域抽出部102cは、注目領域を更新すると判断した場合(ステップSB−26、Yes)、更新した注目領域に対応する、スコアリング対象の画像データを選択し(ステップSB−21)、更新した注目領域に関して上述の処理を繰り返す(ステップSB−22〜ステップSB−26)。
そして、領域抽出部102cは、更新すべき注目領域がないと判断した場合(ステップSB−26、No)、処理を終える。以上が、領域抽出処理(ステップSB−2)の一例である。
[スコアテーブル生成処理]
つづいて、上述の領域抽出処理におけるスコアテーブル生成処理(ステップSB−22)の詳細について、図9を参照して説明する。ここで、図9は、本実施の形態におけるスコアテーブル生成処理の一例を示すフローチャートである。
まず、領域抽出部102cは、領域抽出アルゴリズムライブラリ106bに記憶された特徴抽出法に基づいて、スコアリング対象の画像データに対し抽出領域を生成し、抽出領域の特徴量を計測して、パターン空間から特徴空間を生成する(ステップSB−221)。
そして、領域抽出部102cは、領域抽出アルゴリズムライブラリ106bに記憶された識別法に基づいて、特徴空間上の特徴量を注目領域に対応付けて、抽出領域の識別を行う(ステップSB−222)。すなわち、この処理においては、領域抽出部102cは、図6に示すような元画像から注目領域の再現を行う。そのため、領域抽出部102cは、元画像から抽出領域の特徴量を計測し、特徴量の分布を表した特徴空間において、注目領域と対応付け(クラス分け)を行い、抽出領域の画像データを取得する。
そして、領域抽出アルゴリズム選択部102dは、領域受付部102bにより取得された注目領域の画像データと、領域抽出部102cにより取得された抽出領域の画像データとを比較して、当該画像データ間の類似度のスコアを算出する(ステップSB−223)。より具体的には、領域抽出アルゴリズム選択部102dは、抽出領域の画像データと注目領域の画像データのそれぞれを、形状とテクスチャという概念で数値化した特徴量間で比較を行い、類似度のスコアを算出する。
なお、本実施の形態における画像処理装置で数値化される特徴量は、一例として、濃度値に由来するものと領域の形状に由来する特徴量である。前者は局所領域の画素が持つ濃度値に注目したものであり、例えばテクスチャ特徴や、方向特徴などが考えられる。後者は、例えば注目領域の輪郭形状の法線ベクトルや輝度勾配ベクトル、複素自己回帰係数を当てはめたベクトルなどが考えられる。各特徴量は1次元または多次元ベクトルとして保持される。
また、一例として、領域内のある画素が持つ濃度値由来の特徴量としては、例えばある画素を中心とした5×5画素領域が持つ25個の画素の濃度の平均・最大・最小・分散・標準偏差等である。また、他の例として、同時生起行列(GLCM:Grey Level Co−occurrence Matrix)に基づくテクスチャ統計量を用いてもよい。これは、画像内のある画素が持つ濃度値がiであるとき、そこから一定変位δ=(d,θ)だけ離れた画素の濃度値がjである確率Pδ(i,j)(i,j=0,1,2,…n−1)を要素とする同時生起行列M(d,θ)を求めるものである。ここでdとθは2つの画素間の距離と位置角度を示している。また,Pδ(i,j)は0から1の正規化された値をとり,その総和は1となる。例えばd=1の場合、θ=0°(水平方向),45°(右対角線方向),90°(垂直方向)および135°(左対角線方向)の同時生起行列が求められる。各行列からテクスチャを特徴づける角二次モーメント、コントラスト、相関、エントロピーなどが算出される。
また、形状に由来する特徴量の例として、ある領域の輪郭線を追跡して得られる点列を(x,y)(j=0,1,…,N−1)とし、その複素表現をz=x+iyとする。例えば、ある輪郭画素(ピクセル)の座標(x,y)=(3,0)である場合、複素表現ではz=3+0iとする。このとき、m次の複素自己回帰モデルは以下の式で表すことができる。
そして、この一例として示した評価法では、上記のように数値化(基準化)した特徴量を用いて、注目領域と各抽出領域との間の類似度を算出する。例えば、領域抽出アルゴリズムライブラリ106bに記憶された複数の領域抽出アルゴリズムが、a〜a10(∈A)であるとき、ユーザーが指定した一部の画像データにおける注目領域をRg、各領域抽出アルゴリズムによる抽出領域をRa1〜Ra10とすると、各領域間の類似度Sは次式によって計算される。
そして、領域抽出アルゴリズム選択部102dは、抽出領域の特徴量ベクトルと、領域抽出アルゴリズムの種類(すなわち、特徴抽出法や識別法、パラメータ等の組み合わせ)と、算出した類似度のスコアとを対応付けて格納したスコアテーブルを生成する(ステップSB−224)。
以上が、本実施の形態におけるスコアテーブル生成処理(ステップSB−22)の一例である。領域抽出アルゴリズム選択部102dは、このスコアテーブルを生成した後、スコアのソートを行い、最も高い類似度のスコアを算出した領域抽出アルゴリズムを選択する(ステップSB−23)。なお、k個の領域抽出アルゴリズムの中で、選択される領域抽出アルゴリズムaは以下で表せる。
すなわち、上述の式(1)によって算出されたS(A=a1〜a10)のスコアが最小値である(すなわち、類似度が最も高い)領域抽出アルゴリズムが、ユーザーが指定した注目領域に最も近く、領域抽出に最適であると決定される。その後、上述のように、領域抽出部102cは、選択された領域抽出アルゴリズムを用いて、画像データ全体から領域の自動抽出を行う。抽出結果は、マスクとして保存され、すなわち、抽出領域として抽出された領域には、例えばラベル1、それ以外の領域にラベル0が設定される。このあとのマスクの使用法はユーザーの意図によって異なるが、例えば表示装置114に抽出領域だけを表示したい場合には、第二の画像出力部102eは、図5のステップSB−4において、元画像データとマスクのブール演算を行い、抽出領域以外には輝度値0を設定した画像データを作成する。
以上が、本実施の形態の画像処理装置100の処理の詳細である。このように、本実施の形態によれば、画像データファイル106aに記憶された画像データの画像が表示装置114に表示されるよう制御し、表示装置114に表示された画像上で入力装置112を介して指定される注目領域を受け付け、注目領域の画像データを取得し、領域抽出アルゴリズムライブラリ106bに記憶された複数の領域抽出アルゴリズムを用いて、領域抽出アルゴリズム毎に画像データから抽出される抽出領域を生成し、抽出領域の画像データを取得し、抽出領域の画像データと注目領域の画像データとを比較して、当該画像データ間の類似度が最も高い領域抽出アルゴリズムを選択し、選択された領域抽出アルゴリズムを用いて抽出した領域の画像データを表示装置114に出力する。これにより、本実施の形態によれば、大量の画像データから、ユーザーが指定した注目領域に対応した領域を自動で抽出することができ、多様な対象に対して汎用性に富んだ領域抽出を行うことができる。
また、本実施の形態によれば、ユーザーに入力装置112であるポインティングデバイスを介して画像上で指定する領域の輪郭をトレースさせることにより、注目領域を受け付ける。これにより、ユーザーが指定する注目領域を正確に受け付けることができ、ユーザーの目的に応じて汎用性に富んだ領域抽出を行うことができる。
また、本実施の形態によれば、抽出領域の画像データと注目領域の画像データのそれぞれを、形状とテクスチャという概念で数値化した特徴量間で類似度を算出する。これにより、類似度を測る尺度として汎用性の高い尺度を用いて、領域抽出精度を高めることができる。
また、本実施の形態によれば、特徴量を、ベクトルで表現するので、より汎用性の高い尺度を用いて、領域抽出精度を一層高めることができる。
また、本実施の形態によれば、ベクトルの各要素を、複素数または実数で表現するので、より汎用性の高い尺度を用いて、領域抽出精度を一層高めることができる。
また、本実施の形態によれば、形状の特徴量を、多次元ベクトルで表現するので、より汎用性の高い尺度を用いて、領域抽出精度をより一層高めることができる。
また、本実施の形態によれば、テクスチャの特徴量を、多次元ベクトルで表現するので、より汎用性の高い類似度の尺度を用いて、領域抽出精度をより一層高めることができる。
また、本実施の形態によれば、多様な対象に対して汎用性に富んだ領域抽出を行うことができるので、例えば、顕微鏡画像における対象物の定量化や、病変部の自動検出、顔認識等を行うための領域抽出として、バイオ分野(医療や製薬や創薬や生物学研究や臨床検査等を含む。)や情報処理分野(生体認証やセキュリティシステム、カメラ撮影技術等を含む。)など様々な分野で利用することができる。
例えば、微小な対象物を撮像した画像データを用いる場合、ノイズが大きい上、サイズが小さいため、領域抽出のためのタスク解決においては、様々な問題が生じていたが、本実施の形態によれば、そのような画像に対しても、最適な領域抽出アルゴリズムとそのパラメータを自動選択して、高精度な領域抽出を行うことができる。ここで、図10は、本実施の形態による細胞領域の抽出結果を示す図である。
図10に示すように、本実施の形態によれば、背景にノイズが多くサイズが小さい画像(図10上図)であっても、正確に細胞の領域を抽出することができ、抽出領域と画像を統合して、ノイズの少ない画像(図10下図)に変換することができる。また、図11は、酵母ゴルジ体の観察画像(元画像)と、本実施の形態による領域抽出結果を示す図である。
図11に示すように、本実施の形態によれば、ユーザーがゴルジ体領域を指定して注目領域を設定した場合、指定した注目領域に最適な領域抽出アルゴリズムを選択するので、元画像(図11左図)がノイズの大きい画像であっても、図11右図に示すように、ゴルジ体領域を正確に自動抽出することができる。また、本実施の形態によれば、大量の画像に対する処理を行うことができ、手作業とは異なり抽出基準が明確であるため、客観性や再現性があるデータが得られる。また、本実施の形態による領域抽出結果に基づいて、体積や移動速度などの定量化を行うことも可能である。
また、本実施の形態を用いれば、認証処理の前処理として、顔の領域を抽出するために応用することができる。また、医者等の専門家がレントゲン写真等において病変部領域を注目領域として指定することにより、大量の画像データの中で、病変部領域を自動検出することが可能となる。このように、領域抽出研究に関わる専門家等のユーザーが、ある抽出タスクを前にしたとき、知識や経験を生かしてタスク解決に有効な注目領域を指定できることを利用して、専門家の知識・経験による選択能力を具現化し、適切なアルゴリズムを用いて短時間で目的とする画像を得ることができる。また、研究者等のユーザーは、何度もアルゴリズムを再検討する手間から解放され、よりスムーズな知見の獲得が期待できる。
[他の実施の形態]
さて、これまで本発明の実施の形態について説明したが、本発明は、上述した実施の形態以外にも、特許請求の範囲に記載した技術的思想の範囲内において種々の異なる実施の形態にて実施されてよいものである。
例えば、画像処理装置100がスタンドアローンの形態で処理を行う場合を一例に説明したが、画像処理装置100とは別筐体で構成されるクライアント端末からの要求に応じて処理を行い、その処理結果を当該クライアント端末に返却するように構成してもよい。
また、実施の形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。
このほか、上記文献中や図面中で示した処理手順、制御手順、具体的名称、各処理の登録データや検索条件等のパラメータを含む情報、画面例、データベース構成については、特記する場合を除いて任意に変更することができる。
また、画像処理装置100に関して、図示の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。
例えば、画像処理装置100の各装置が備える処理機能、特に制御部102にて行われる各処理機能については、その全部または任意の一部を、CPU(Central Processing Unit)および当該CPUにて解釈実行されるプログラムにて実現してもよく、また、ワイヤードロジックによるハードウェアとして実現してもよい。尚、プログラムは、後述する記録媒体に記録されており、必要に応じて画像処理装置100に機械的に読み取られる。すなわち、ROMまたはHDなどの記憶部106などは、OS(Operating System)として協働してCPUに命令を与え、各種処理を行うためのコンピュータプログラムが記録されている。このコンピュータプログラムは、RAMにロードされることによって実行され、CPUと協働して制御部を構成する。
また、このコンピュータプログラムは、画像処理装置100に対して任意のネットワーク300を介して接続されたアプリケーションプログラムサーバに記憶されていてもよく、必要に応じてその全部または一部をダウンロードすることも可能である。
また、本発明に係るプログラムを、コンピュータ読み取り可能な記録媒体に格納することもできる。ここで、この「記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、EPROM、EEPROM、CD−ROM、MO、DVD等の任意の「可搬用の物理媒体」、あるいは、LAN、WAN、インターネットに代表されるネットワークを介してプログラムを送信する場合の通信回線や搬送波のように、短期にプログラムを保持する「通信媒体」を含むものとする。
また、「プログラム」とは、任意の言語や記述方法にて記述されたデータ処理方法であり、ソースコードやバイナリコード等の形式を問わない。なお、「プログラム」は必ずしも単一的に構成されるものに限られず、複数のモジュールやライブラリとして分散構成されるものや、OS(Operating System)に代表される別個のプログラムと協働してその機能を達成するものをも含む。なお、実施の形態に示した各装置において記録媒体を読み取るための具体的な構成、読み取り手順、あるいは、読み取り後のインストール手順等については、周知の構成や手順を用いることができる。
記憶部106に格納される各種のデータベース等(画像データファイル106a、領域抽出アルゴリズムライブラリ106b等)は、RAM、ROM等のメモリ装置、ハードディスク等の固定ディスク装置、フレキシブルディスク、光ディスク等のストレージ手段であり、各種処理やウェブサイト提供に用いる各種のプログラムやテーブルやデータベースやウェブページ用ファイル等を格納する。
また、画像処理装置100は、既知のパーソナルコンピュータ、ワークステーション等の情報処理装置を接続し、該情報処理装置に本発明の方法を実現させるソフトウェア(プログラム、データ等を含む)を実装することにより実現してもよい。
更に、装置の分散・統合の具体的形態は図示するものに限られず、その全部または一部を、各種の付加等に応じて、または、機能負荷に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
100 画像処理装置
102 制御部
102a 第一の画像出力部
102b 領域受付部
102c 領域抽出部
102d 領域抽出アルゴリズム選択部
102e 第二の画像出力部
104 通信制御インターフェース部
106 記憶部
106a 画像データファイル
106b 領域抽出アルゴリズムライブラリ
108 入出力制御インターフェース部
112 入力装置
114 表示装置
200 外部システム
300 ネットワーク

Claims (13)

  1. 記憶部と制御部と表示部と入力部を少なくとも備えた画像処理装置において、
    前記記憶部は、
    複数の特徴抽出法と複数の教師付き識別法との組み合わせからなる、複数の領域抽出アルゴリズムと、
    画像データと、
    を記憶し、
    前記制御部は、
    前記画像データの画像が前記表示部に表示されるよう制御する第一の画像出力手段と、
    前記表示部に表示された前記画像上で前記入力部を介して指定される注目領域を受け付け、前記注目領域の前記画像データを取得する領域受付手段と、
    前記記憶部に記憶された前記複数の前記領域抽出アルゴリズムを用いて、前記領域抽出アルゴリズム毎に前記画像データから抽出される抽出領域を生成し、前記抽出領域の前記画像データを取得する領域抽出手段と、
    前記抽出領域の前記画像データと前記注目領域の前記画像データとを比較して、当該画像データ間の類似度が最も高い前記領域抽出アルゴリズムを選択する領域抽出アルゴリズム選択手段と、
    前記選択された前記領域抽出アルゴリズムを用いて抽出した領域の前記画像データを前記表示部に出力する第二の画像出力手段と、
    を備え、
    前記領域抽出アルゴリズム選択手段は、
    前記特徴抽出法と前記教師付き識別法との組み合わせからなる各領域抽出アルゴリズムについて、前記表示部に表示された前記画像の画像データから当該特徴抽出法にて特徴量を算出し、算出された特徴量の特徴空間において、前記注目領域を教師マスクとした当該教師付き識別法を用いて、当該注目領域とその他の領域がクラス分けされるようなクラスタリングを実行することによって前記抽出領域を抽出すること
    を特徴とする画像処理装置。
  2. 請求項1に記載の画像処理装置において、
    前記入力部は、ポインティングデバイスであり、
    前記領域受付手段は、
    ユーザーに前記ポインティングデバイスを介して前記画像上で指定する領域の輪郭をトレースさせることにより、前記注目領域を受け付けること、
    を特徴とする画像処理装置。
  3. 請求項1または2に記載の画像処理装置において、
    前記領域抽出アルゴリズム選択手段は、
    前記抽出領域の前記画像データと前記注目領域の前記画像データのそれぞれを、形状とテクスチャという概念で数値化した特徴量間で前記類似度を算出すること、
    を特徴とする画像処理装置。
  4. 請求項3に記載の画像処理装置において、
    前記領域抽出アルゴリズム選択手段は、
    前記特徴量を、ベクトルで表現すること、
    を特徴とする画像処理装置。
  5. 請求項4に記載の画像処理装置において、
    前記領域抽出アルゴリズム選択手段は、
    前記ベクトルの各要素を、複素数または実数で表現すること、
    を特徴とする画像処理装置。
  6. 請求項4または5に記載の画像処理装置において、
    前記領域抽出アルゴリズム選択手段は、
    前記形状の前記特徴量を、多次元ベクトルで表現すること、
    を特徴とする画像処理装置。
  7. 請求項4または5に記載の画像処理装置において、
    前記領域抽出アルゴリズム選択手段は、
    前記テクスチャの前記特徴量を、多次元ベクトルで表現すること、
    を特徴とする画像処理装置。
  8. 記憶部と制御部と表示部と入力部を少なくとも備えた情報処理装置において実行される画像処理方法であって、
    前記記憶部は、
    複数の特徴抽出法と複数の教師付き識別法との組み合わせからなる、複数の領域抽出アルゴリズムと、
    画像データと、
    を記憶し、
    前記制御部において実行される、
    前記画像データの画像が前記表示部に表示されるよう制御する第一の画像出力ステップと、
    前記表示部に表示された前記画像上で前記入力部を介して指定される注目領域を受け付け、前記注目領域の前記画像データを取得する領域受付ステップと、
    前記記憶部に記憶された前記複数の前記領域抽出アルゴリズムを用いて、前記領域抽出アルゴリズム毎に前記画像データから抽出される抽出領域を生成し、前記抽出領域の前記画像データを取得する領域抽出ステップと、
    前記抽出領域の前記画像データと前記注目領域の前記画像データとを比較して、当該画像データ間の類似度が最も高い前記領域抽出アルゴリズムを選択する領域抽出アルゴリズム選択ステップと、
    前記選択された前記領域抽出アルゴリズムを用いて抽出した領域の前記画像データを前記表示部に出力する第二の画像出力ステップと、
    を含み、
    前記領域抽出アルゴリズム選択ステップは、
    前記特徴抽出法と前記教師付き識別法との組み合わせからなる各領域抽出アルゴリズムについて、前記表示部に表示された前記画像の画像データから当該特徴抽出法にて特徴量を算出し、算出された特徴量の特徴空間において、前記注目領域を教師マスクとした当該教師付き識別法を用いて、当該注目領域とその他の領域がクラス分けされるようなクラスタリングを実行することによって前記抽出領域を抽出すること
    を特徴とする画像処理方法。
  9. 請求項8に記載の画像処理方法において、
    前記入力部は、ポインティングデバイスであり、
    前記領域受付ステップは、
    ユーザーに前記ポインティングデバイスを介して前記画像上で指定する領域の輪郭をトレースさせることにより、前記注目領域を受け付けること、
    を特徴とする画像処理方法。
  10. 請求項8または9に記載の画像処理方法において、
    前記領域抽出アルゴリズム選択ステップは、
    前記抽出領域の前記画像データと前記注目領域の前記画像データのそれぞれを、形状とテクスチャという概念で数値化した特徴量間で前記類似度を算出すること、
    を特徴とする画像処理方法。
  11. 記憶部と制御部と表示部と入力部を少なくとも備えた情報処理装置に実行させるためのプログラムであって、
    前記記憶部は、
    複数の特徴抽出法と複数の教師付き識別法との組み合わせからなる、複数の領域抽出アルゴリズムと、
    画像データと、
    を記憶し、
    前記制御部において、
    前記画像データの画像が前記表示部に表示されるよう制御する第一の画像出力ステップと、
    前記表示部に表示された前記画像上で前記入力部を介して指定される注目領域を受け付け、前記注目領域の前記画像データを取得する領域受付ステップと、
    前記記憶部に記憶された前記複数の前記領域抽出アルゴリズムを用いて、前記領域抽出アルゴリズム毎に前記画像データから抽出される抽出領域を生成し、前記抽出領域の前記画像データを取得する領域抽出ステップと、
    前記抽出領域の前記画像データと前記注目領域の前記画像データとを比較して、当該画像データ間の類似度が最も高い前記領域抽出アルゴリズムを選択する領域抽出アルゴリズム選択ステップと、
    前記選択された前記領域抽出アルゴリズムを用いて抽出した領域の前記画像データを前記表示部に出力する第二の画像出力ステップと、
    を実行させるためのプログラムであって、
    前記領域抽出アルゴリズム選択ステップは、
    前記特徴抽出法と前記教師付き識別法との組み合わせからなる各領域抽出アルゴリズムについて、前記表示部に表示された前記画像の画像データから当該特徴抽出法にて特徴量を算出し、算出された特徴量の特徴空間において、前記注目領域を教師マスクとした当該教師付き識別法を用いて、当該注目領域とその他の領域がクラス分けされるようなクラスタリングを実行することによって前記抽出領域を抽出すること
    を特徴とするプログラム。
  12. 請求項11に記載のプログラムにおいて、
    前記入力部は、ポインティングデバイスであり、
    前記領域受付ステップは、
    ユーザーに前記ポインティングデバイスを介して前記画像上で指定する領域の輪郭をトレースさせることにより、前記注目領域を受け付けること、
    を特徴とするプログラム。
  13. 請求項11または12に記載のプログラムにおいて、
    前記領域抽出アルゴリズム選択ステップは、
    前記抽出領域の前記画像データと前記注目領域の前記画像データのそれぞれを、形状とテクスチャという概念で数値化した特徴量間で前記類似度を算出すること、
    を特徴とするプログラム。
JP2009110683A 2009-04-30 2009-04-30 画像処理装置、画像処理方法およびプログラム Active JP5284863B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009110683A JP5284863B2 (ja) 2009-04-30 2009-04-30 画像処理装置、画像処理方法およびプログラム
US12/609,468 US20100278425A1 (en) 2009-04-30 2009-10-30 Image processing apparatus, image processing method, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009110683A JP5284863B2 (ja) 2009-04-30 2009-04-30 画像処理装置、画像処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2010262350A JP2010262350A (ja) 2010-11-18
JP5284863B2 true JP5284863B2 (ja) 2013-09-11

Family

ID=43030388

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009110683A Active JP5284863B2 (ja) 2009-04-30 2009-04-30 画像処理装置、画像処理方法およびプログラム

Country Status (2)

Country Link
US (1) US20100278425A1 (ja)
JP (1) JP5284863B2 (ja)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0424737D0 (en) * 2004-11-09 2004-12-08 Isis Innovation Method,computer program and signal processing apparatus for determining statistical information of a signal
US10621461B1 (en) * 2013-03-13 2020-04-14 Hrl Laboratories, Llc Graphical display and user-interface for high-speed triage of potential items of interest in imagery
US9721035B2 (en) * 2010-06-30 2017-08-01 Leaf Group Ltd. Systems and methods for recommended content platform
KR101463362B1 (ko) * 2011-02-24 2014-11-19 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 모바일 디바이스들을 이용한 인증
JP5665655B2 (ja) * 2011-05-24 2015-02-04 株式会社日立製作所 画像処理装置及び方法
JP5646400B2 (ja) * 2011-06-22 2014-12-24 株式会社日立製作所 画像処理フロー評価方法及び当該方法を実行する画像処理装置
JP6088498B2 (ja) * 2011-06-22 2017-03-01 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 医用画像を処理するシステム及び方法
US10509831B2 (en) 2011-07-29 2019-12-17 Leaf Group Ltd. Systems and methods for time and space algorithm usage
JP5607839B2 (ja) * 2011-11-24 2014-10-15 パナソニック株式会社 診断支援装置および診断支援方法
US9697326B1 (en) * 2012-02-27 2017-07-04 Kelly Eric Bowman Topology graph optimization
JP6049300B2 (ja) * 2012-05-11 2016-12-21 オリンパス株式会社 顕微鏡システム
JP6019798B2 (ja) 2012-06-22 2016-11-02 ソニー株式会社 情報処理装置、情報処理システム及び情報処理方法
US9336302B1 (en) 2012-07-20 2016-05-10 Zuci Realty Llc Insight and algorithmic clustering for automated synthesis
US8843759B2 (en) * 2012-08-28 2014-09-23 At&T Intellectual Property I, L.P. Methods, systems, and computer program products for media-based authentication
WO2014104151A1 (ja) * 2012-12-28 2014-07-03 富士通株式会社 画像処理装置及び特徴検出方法
JP2014207110A (ja) * 2013-04-12 2014-10-30 株式会社日立ハイテクノロジーズ 観察装置および観察方法
US9389754B2 (en) 2013-05-14 2016-07-12 Demand Media, Inc. Generating a playlist based on content meta data and user parameters
KR101577040B1 (ko) 2014-02-06 2015-12-11 주식회사 에스원 얼굴 인식 장치 및 방법
WO2015150392A1 (en) 2014-04-03 2015-10-08 Koninklijke Philips N.V. Examining device for processing and analyzing an image
JP6576690B2 (ja) * 2014-05-29 2019-09-18 キヤノンメディカルシステムズ株式会社 医用画像処理装置
WO2015194006A1 (ja) * 2014-06-19 2015-12-23 富士通株式会社 プログラム生成装置、プログラム生成方法およびプログラム
US9558427B2 (en) * 2014-06-20 2017-01-31 Varian Medical Systems International Ag Shape similarity measure for body tissue
IL239191A0 (en) * 2015-06-03 2015-11-30 Amir B Geva Image sorting system
US10810744B2 (en) * 2016-05-27 2020-10-20 Rakuten, Inc. Image processing device, image processing method and image processing program
US10068554B2 (en) * 2016-08-02 2018-09-04 Qualcomm Incorporated Systems and methods for conserving power in refreshing a display panel
US11205103B2 (en) 2016-12-09 2021-12-21 The Research Foundation for the State University Semisupervised autoencoder for sentiment analysis
WO2018117662A1 (en) * 2016-12-22 2018-06-28 Samsung Electronics Co., Ltd. Apparatus and method for processing image
US10706554B2 (en) * 2017-04-14 2020-07-07 Adobe Inc. Three-dimensional segmentation of digital models utilizing soft classification geometric tuning
US10691969B2 (en) * 2017-11-06 2020-06-23 EagleSens Systems Corporation Asynchronous object ROI detection in video mode
US11455499B2 (en) * 2018-03-21 2022-09-27 Toshiba Global Commerce Solutions Holdings Corporation Method, system, and computer program product for image segmentation in a sensor-based environment
JP7364381B2 (ja) * 2019-07-19 2023-10-18 ファナック株式会社 画像処理装置
US11386667B2 (en) * 2019-08-06 2022-07-12 Cisco Technology, Inc. Video analysis using a deep fusion reasoning engine (DFRE)
JP2021074360A (ja) * 2019-11-12 2021-05-20 株式会社日立製作所 医用画像処理装置及び医用画像処理方法、医用画像処理プログラム
CN114691912A (zh) * 2020-12-25 2022-07-01 日本电气株式会社 图像处理的方法、设备和计算机可读存储介质
CN115344397B (zh) * 2022-10-20 2023-02-10 中科星图测控技术股份有限公司 一种实时的目标区域快速筛选处理方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0792651A (ja) * 1993-09-24 1995-04-07 Konica Corp 画像切り抜き装置
US6240423B1 (en) * 1998-04-22 2001-05-29 Nec Usa Inc. Method and system for image querying using region based and boundary based image matching
US8488863B2 (en) * 2008-11-06 2013-07-16 Los Alamos National Security, Llc Combinational pixel-by-pixel and object-level classifying, segmenting, and agglomerating in performing quantitative image analysis that distinguishes between healthy non-cancerous and cancerous cell nuclei and delineates nuclear, cytoplasm, and stromal material objects from stained biological tissue materials

Also Published As

Publication number Publication date
JP2010262350A (ja) 2010-11-18
US20100278425A1 (en) 2010-11-04

Similar Documents

Publication Publication Date Title
JP5284863B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6966875B2 (ja) 画像検索装置及びプログラム
Huang et al. From quantitative microscopy to automated image understanding
JP6091560B2 (ja) 画像解析方法
CN111524137B (zh) 基于图像识别的细胞识别计数方法、装置和计算机设备
JP5675214B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP5451302B2 (ja) 画像処理装置及び方法、プログラム及び記憶媒体
Huang et al. Boosting accuracy of automated classification of fluorescence microscope images for location proteomics
EP2894577A1 (en) Retrieving system, retrieving method, and security inspection device based on contents of fluoroscopic images
CN113420640A (zh) 红树林高光谱图像分类方法、装置、电子设备及存储介质
Remagnino et al. Computational Botany
Murugappan et al. Texture based medical image classification by using multi-scale Gabor rotation-invariant local binary pattern (MGRLBP)
JP5866064B2 (ja) 画像検索装置、画像検索方法、および記録媒体
CN115115856A (zh) 图像编码器的训练方法、装置、设备及介质
JP6739200B2 (ja) 映像処理装置、映像処理システムおよび制御方法
CN112445846A (zh) 医疗项目识别方法、装置、设备及计算机可读存储介质
JP3848514B2 (ja) 顕著性算出装置及び方法
CN115019305B (zh) 一种根尖细胞的识别方法、装置、设备及可读存储介质
Liu et al. Automated phase segmentation and quantification of high-resolution TEM image for alloy design
CN112200224B (zh) 医学图像特征处理方法和装置
CN114359090A (zh) 一种口腔ct影像的数据增强方法
Takemoto et al. Algorithm selection for intracellular image segmentation based on region similarity
CN113032622A (zh) 一种新型医学视频图像采集和数据管理系统
Fodor et al. Geometric morphometrics and the shape of microscopic organisms
JPWO2010098211A1 (ja) 輪郭抽出装置および輪郭抽出方法、並びにプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130319

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130530

R150 Certificate of patent or registration of utility model

Ref document number: 5284863

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250