JP5167442B2 - 画像識別装置およびプログラム - Google Patents

画像識別装置およびプログラム Download PDF

Info

Publication number
JP5167442B2
JP5167442B2 JP2012547372A JP2012547372A JP5167442B2 JP 5167442 B2 JP5167442 B2 JP 5167442B2 JP 2012547372 A JP2012547372 A JP 2012547372A JP 2012547372 A JP2012547372 A JP 2012547372A JP 5167442 B2 JP5167442 B2 JP 5167442B2
Authority
JP
Japan
Prior art keywords
image
input image
block
images
block images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012547372A
Other languages
English (en)
Other versions
JPWO2012111236A1 (ja
Inventor
明 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2012547372A priority Critical patent/JP5167442B2/ja
Application granted granted Critical
Publication of JP5167442B2 publication Critical patent/JP5167442B2/ja
Publication of JPWO2012111236A1 publication Critical patent/JPWO2012111236A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • G06F18/24155Bayesian classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/763Non-hierarchical techniques, e.g. based on statistics of modelling distributions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、画像識別装置およびプログラムに関する。
近年、様々な分野で画像識別技術が用いられている。例えば、入力された画像が予め定義された2つ以上のカテゴリの何れに属するかを識別する技術は、光学式文字認識(OCR:Optical Character Recognition)や顔認識システム(FRS:Facial Recognition System)などで利用されている。そして、これらの技術では、例えば、入力画像から文字や顔などの識別対象の領域を抽出する工程、抽出した領域から特徴量を抽出する工程、抽出した特徴量を予め用意した各カテゴリの特徴量と比較する工程などを経て、入力画像が属するカテゴリを決定している。
また、例えば特許文献1や特許文献2では、画像に含まれる特定の対象ではなく、画像全体の構図や画像から受ける印象などが類似しているか否かによって画像を識別する技術が開示されている。特許文献1の画像蓄積・管理装置では、画像を格子状に分割した各ブロックに領域番号を割り当て、その領域ごとの属性を記述した画像インデックスを利用することによって、画像全体の類似度が高い画像を検索することができる。一方、特許文献2の画像検索装置では、文書画像を構成する各部分領域のアスペクト比、大きさ、重心位置座標などの特徴量を用いて総合類似度を算出して、文書画像を検索している。
このようにして、各領域の特徴量を用いて、各領域の形状や位置の類似度を反映した画像間の類似度を求めることによって、画像全体の構図が類似している画像を検索することができる。
特開平8−180176号公報 特開2006−163841号公報
しかしながら、例えば、細胞培養装置において培養される細胞塊(細胞コロニー)や、雲の発生・成長などの自然界の現象では、細胞塊や雲などの識別対象の形状・大きさ・向き・位置などが多様・不定であるため、同一カテゴリに属する画像間で全体の構図が大きく異なる場合がある。さらに、識別対象の輪郭が不明瞭であったり、識別対象の一部が画像の視野からはみ出していたりして、識別対象の領域を正確に抽出することが困難な場合もある。
そのため、上記のような画像識別技術では、細胞塊や雲などの自然現象の入力画像に対してカテゴリを決定することができない。
前述した課題を解決する主たる本発明は、入力画像を所定サイズの複数のブロック画像に分割し、前記複数のブロック画像のそれぞれの特徴量を求める第1特徴抽出部と、前記特徴量に基づいて、前記複数のブロック画像をK個(Kは2以上の整数)の領域の何れかにそれぞれ割り当てて、前記入力画像を前記K個の領域に分割する領域分割部と、前記領域分割部の領域分割結果に基づいて、前記入力画像において2つのブロック画像が隣接する隣接箇所の、当該2つのブロック画像のそれぞれが割り当てられた領域ごとの数、または、前記K個の領域のそれぞれに割り当てられたブロック画像に隣接するブロック画像のうち、前記K個の領域のそれぞれに割り当てられたブロック画像の割合を要素として含む特徴ベクトルを求める第2特徴抽出部と、前記特徴ベクトルに基づいて、前記入力画像が複数のカテゴリの何れに属するかを識別する識別部と、を有することを特徴とする画像識別装置である。
本発明の他の特徴については、添付図面及び本明細書の記載により明らかとなる。
本発明によれば、識別対象の形状・大きさ・向き・位置などが多様・不定である場合や、識別対象の抽出が困難な場合であっても、入力画像が属するカテゴリを高精度に識別することができる。
本発明の一実施形態における画像識別装置の構成を示すブロック図である。 本発明の一実施形態における画像識別装置の動作を説明するフローチャートである。 第1特徴抽出部11が入力画像Iをブロック画像に分割する処理の一例を説明する図である。 第1特徴抽出部11が各ブロック画像の特徴量を抽出する処理の一例を説明する図である。 記憶部13に記憶されている学習用ブロック画像群のクラスタリング結果の一例を示す図である。 入力画像I1に対して領域分割部12が各ブロック画像を領域に割り当てる処理の一例を説明する図である。 入力画像I2に対して領域分割部12が各ブロック画像を領域に割り当てる処理の一例を説明する図である。 第2特徴抽出部14が領域分割結果に基づいて特徴ベクトルを算出する処理の一例を説明する図である。 識別部15が特徴ベクトルに基づいて識別カテゴリを出力する処理の一例を説明する図である。 入力画像I3に対して領域分割部12が各ブロック画像を領域に割り当てる処理の一例を説明する図である。 入力画像I1の領域分割結果における隣接箇所の数の算出方法を説明する図である。 第2特徴抽出部14において算出される特徴ベクトルの他の例を示す図である。 第2特徴抽出部14において算出される特徴ベクトルのさらに他の例を示す図である。
本明細書および添付図面の記載により、少なくとも以下の事項が明らかとなる。
===画像識別装置の構成===
以下、図1を参照して、本発明の一実施形態における画像識別装置の構成について説明する。
図1に示されている画像識別装置1は、第1特徴抽出部11、領域分割部12、記憶部13、第2特徴抽出部14、および識別部15を含んで構成されている。
第1特徴抽出部11には、入力画像Iが入力され、第1特徴抽出部11から出力される特徴量v1[x]は、領域分割部12に入力されている。また、記憶部13には、後述する学習用ブロック画像群ILのクラスタリング結果から得られたクラスタ属性{π,m,C}が記憶されており、当該クラスタ属性は、領域分割部12に適宜読み出されている。さらに、領域分割部12から第2特徴抽出部14には、入力画像Iの領域分割結果Seg[I]が入力され、第2特徴抽出部14から出力される特徴ベクトルv2[I]は、識別部15に入力されている。そして、識別部15からは、識別カテゴリCat[I]が出力されている。
===画像識別装置の動作===
以下、図2ないし図9を適宜参照して、本実施形態における画像識別装置の動作について説明する。
画像識別装置1のうち、第1特徴抽出部11、領域分割部12、第2特徴抽出部14、および識別部15の機能は、例えば、記憶部13を備えるコンピュータによって実現することができる。図2は、第1特徴抽出部11、領域分割部12、第2特徴抽出部14、および識別部15に相当する機能をコンピュータに実現させるためのプログラムの動作を示している。
識別対象の入力画像Iが入力され、プログラムの処理が開始されると(S1)、まず、図3に示すように、入力画像Iを所定サイズ(例えば32画素×32画素)のブロック画像に分割する(S2)。図3においては、入力画像Iは、一例として、M×N個のブロック画像x(1≦n≦M×N)に分割されている。そして、各ブロック画像xの特徴量v1[x]を抽出する(S3)。したがって、S2およびS3の処理は、第1特徴抽出部11に相当する機能を実現する。
ここで、特徴量v1[x]としては、例えば、各画素の輝度値の平均値や標準偏差などを用いることができる。また、各画素の輝度値の平均値や標準偏差などのスカラー量を複数用いたベクトルを特徴量v1[x]として用いることもできる。さらに、各画素の輝度値そのまま用いる代わりに、エッジ抽出などのフィルタリング処理を行ったうえで特徴量v1[x]を抽出してもよい。本実施形態では、一例として、図4に示すように、ブロック画像xに含まれる各画素の輝度値の平均値μと標準偏差σとを要素とする2次元ベクトルを特徴量v1[x]とする。
次に、特徴量v1[x]に基づいて、各ブロック画像xを領域c(0≦i≦K−1、Kは2以上の整数)の何れかに割り当てることによって、入力画像IをK個の領域に分割する(S4)。したがって、S4の処理は、領域分割部12に相当する機能を実現する。
当該領域分割処理においては、例えば、特徴量v1[x]に基づいて、各ブロック画像xを予め用意したK個のクラスタ(領域)のうち最も近いクラスタに順次割り当てることによって、互いに類似するブロック画像が同じクラスタに属するように割り当てられる。また、クラスタへの割り当て(クラスタリング)は、例えば、入力画像Iとは別に予め用意した学習用画像群をそれぞれ分割した学習用ブロック画像群ILをK個のクラスタにクラスタリングした結果から得られたクラスタ属性に基づいて行われる。
ここで、クラスタリング手法としては、例えば、K−平均法(c−平均法)やファジィc−平均法、混合正規分布モデル(GMM:Gaussian Mixture Model)などを用いることができる。また、これらのクラスタリング手法では、クラスタ数Kを明示的に与える必要があるが、最適なクラスタ数を推定しながらクラスタリングを行う手法を用いてもよい。本実施形態では、一例として、混合正規分布モデルを用いることとし、学習用ブロック画像群ILのクラスタリング結果を図5に示す。図5においては、クラスタ数K=3であり、学習用ブロック画像群ILは、領域c、c、cの何れかに割り当てられている。
混合正規分布モデルにおいて、データ集合を構成する各個体x(各ブロック画像x)が従う確率密度関数p(x)は、

と表すことができる。なお、N(x|m,C)は、平均ベクトルmおよび分散共分散行列Cをパラメータとして、

と表される、クラスタcの分布を表すD次元正規分布である。また、πは、クラスタcの重みであり、

との条件を満たし、Θは、全クラスタc、c、…、cK−1のクラスタ属性{π,m,C}(0≦k≦K−1)を表している。そして、EMアルゴリズムを用いて、データ集合(学習用ブロック画像群IL)からクラスタcのクラスタ属性であるモデルパラメータ{π,m,C}を推定しておくことによって、入力画像Iに対して、各ブロック画像xの各クラスタへの所属確率を求めることができる。ここで、個体x(ブロック画像x)のクラスタcへの所属確率はベイズの定理から次式により算出される。

さらに、各ブロック画像xを所属確率が最大となるクラスタに割り当てることによって、入力画像Iの領域分割結果が得られる。なお、学習用ブロック画像群ILのクラスタリング結果から得られたクラスタ属性(モデルパラメータ){π,m,C}は、記憶部13に記憶され、適宜読み出される。
ここで、一例として、クラスタ数K=3とし、当該クラスタ属性に基づいて、同一カテゴリに属すべき入力画像I1およびI2を領域分割した結果を、それぞれ図6および図7に示す。なお、学習用ブロック画像群ILのクラスタリング結果から得られたクラスタ属性{π,m,C}に基づいて領域分割を行うことによって、特許文献1や特許文献2の画像識別技術のように画像間で領域の対応付けを行うことなく、図6および図7に示されているように、輝度が異なる部分を同じ領域cに割り当てることができる。
次に、入力画像Iの領域分割結果Seg[I]に基づいて、特徴ベクトルv2[I]を算出する(S5)。したがって、S5の処理は、第2特徴抽出部14に相当する機能を実現する。
ここで、特徴ベクトルv2[I]としては、例えば、各ブロック画像xが割り当てられた領域ごとの数、すなわち、各領域cに割り当てられたブロック画像の数nを要素とするK次元のベクトルを用いることができる。入力画像I1およびI2において、各n(0≦i≦2)は図8のようになり、各特徴ベクトルは、
v2[I1]=(5,22,53)、
v2[I2]=(4,22,54)
と表すことができる。
最後に、特徴ベクトルv2[I]に基づいて、入力画像Iが予め定義された2つ以上のカテゴリの何れに属するかを識別して識別カテゴリCat[I]を出力し(S6)、処理を終了する(S7)。したがって、S6の処理は、識別部15に相当する機能を実現する。
ここで、識別アルゴリズムとしては、例えば、線形判別分析やニューラルネットやサポートベクタマシンなど、数値ベクトルを対象とする公知の教師あり識別アルゴリズムを用いることができる。例えば、予め用意した教師ラベル付きの学習用画像群を用いて学習させた識別器に入力画像Iの特徴ベクトルv2[I]を入力することによって、識別カテゴリCat[I]を出力することができる。また、例えば、各学習用画像の特徴ベクトルを記憶部13または別の記憶部に記憶させておき、入力画像Iの特徴ベクトルv2[I]と最も類似している学習用画像が属するカテゴリを識別カテゴリCat[I]として出力してもよい。
図9は、一例として、カテゴリAに属する学習用画像群ILおよびカテゴリBに属する学習用画像群ILを用いて、特徴ベクトルv2[I]=(n,n,n)に基づいて、識別カテゴリCat[I]を出力する処理を示している。入力画像Iは、学習用画像群から決定される識別面に対してどちら側にあるかによって、何れかのカテゴリに識別され、図9においては、識別カテゴリCat[I]=Aが出力される。
なお、特徴ベクトルv2[I1]およびv2[I2]の間のユークリッド距離をd(I1,I2)と表すこととすると、図9の特徴空間においては、
(I1,I2)=1.414
となる。当該ユークリッド距離d(I1,I2)は、小さな値であるため、入力画像I1およびI2が近い(類似している)ことを意味する。
このようにして、画像識別装置1は、入力画像Iの領域分割結果Seg[I]に基づいて、各領域cに割り当てられたブロック画像の数nを要素とするK次元の特徴ベクトルv2[I]を求め、当該特徴ベクトルv2[I]に基づいて、入力画像Iが属するカテゴリを識別することができる。
===特徴ベクトルの他の例===
上記実施形態では、特徴ベクトルv2[I]として、各領域cに割り当てられたブロック画像の数nを要素とするK次元のベクトルを用いている(以下、方法1と称する)が、これに限定されるものではない。方法1では、例えば、図10に示す入力画像I3の各nは、入力画像I1と同一になるため、入力画像I1およびI3は、同一カテゴリに属することとなる。しかしながら、例えば、入力画像I1ないしI3が細胞培養装置において培養される細胞塊の画像である場合など、入力画像I1およびI2を同一カテゴリに識別し、入力画像I3を入力画像I1およびI2とは異なるカテゴリに識別すべき場合がある。
そこで、特徴ベクトルv2[I]の要素として、nに代えて、またはnに追加して、隣接する2つのブロック画像のそれぞれが割り当てられた領域ごとの当該隣接箇所の数、すなわち、領域cに割り当てられたブロック画像と領域cに割り当てられたブロック画像との隣接箇所の数nijを用いることができる(以下、方法2と称する)。
ここで、一例として、入力画像I1の領域分割結果Seg[I1]において、隣接箇所の数n00、n01、n11は、図11のように求めることができる。すなわち、領域cに割り当てられたブロック画像同士の隣接箇所の数n00は、実線の本数から8となる。また、領域cに割り当てられたブロック画像と領域cに割り当てられたブロック画像との隣接箇所の数n01は、長破線の本数から24となる。そして、領域cに割り当てられたブロック画像同士の隣接箇所の数n11は、短破線の本数から47となる。
入力画像I1ないしI3において、このように、各nij(0≦i≦j≦2)を求めると、図12のようになる。なお、特徴ベクトルv2[I]は、nに代えてnijのみを要素とする場合には、[K(K+1)/2]次元のベクトルとなり、nおよびnijの両方を要素とする場合には、[K+K(K+1)/2]次元のベクトルとなる。
また、nおよびnijの両方を要素とする各特徴ベクトル間のユークリッド距離を求めると、
(I1,I2)=28.98、
(I1,I3)=44.77、
(I2,I3)=47.83
となる。これらは、方法2では、入力画像I1およびI2が近く(類似し)、入力画像I3が入力画像I1およびI2から遠い(離れている)ことを意味する。したがって、nijを要素として含む特徴ベクトルv2[I]に基づいて、入力画像I1およびI2を同一カテゴリに識別し、入力画像I3を入力画像I1およびI2とは異なるカテゴリに識別することができる。
なお、図11および図12においては、nijとnjiとを区別せず、nij(0≦i≦j≦2)のみを用いているが、nijおよびnjiの両方を用いてもよい。この場合、nij=njiとなる。また、nijをさらに隣接方向ごとに細分化し、隣接箇所の数を縦(上下)方向、横(左右)方向、斜め方向ごとに求めた数を特徴ベクトルv2[I]の要素として用いてもよい。
===特徴ベクトルのさらに他の例===
さらに、特徴ベクトルv2[I]の要素として、ブロック画像や隣接箇所の数を直接用いる代わりに、それらの割合や確率を用いてもよい(以下、方法3と称する)。
例えば、各領域cに割り当てられたブロック画像の数nに代えて、入力画像IのM×N個のブロック画像xのうち各領域cに割り当てられたブロック画像の割合を特徴ベクトルv2[I]の要素として用いることができる。当該割合は、ブロック画像が領域cに割り当てられる確率p(c)として求めることができ、当該確率p(c)は、nを用いて、
p(c)=n/(M×N)
と表すことができる。
また、例えば、領域cに割り当てられたブロック画像と領域cに割り当てられたブロック画像との隣接箇所の数nijに代えて、領域cに割り当てられたブロック画像に隣接するブロック画像のうち、領域cに割り当てられたブロック画像の割合を特徴ベクトルv2[I]の要素として用いることができる。当該割合は、領域cに割り当てられたブロック画像が領域cに割り当てられたブロック画像と隣接する(条件付き)確率p(c|c)として求めることができ、当該確率p(c|c)は、nij(0≦i,j≦2)を用いて、
p(c|c)=2nij/N (i=j)、
p(c|c)= nij/N (i≠j)
と表すことができる。なお、Nは、領域cに割り当てられたブロック画像に隣接するブロック画像の延べ総数であり、

と表すことができる。
入力画像I1ないしI3において、このように、各確率p(c)およびp(c|c)を求めると、図13のようになる。なお、特徴ベクトルv2[I]は、確率p(c)のみを要素とする場合には、K次元のベクトルとなり、確率p(c|c)のみを要素とする場合には、K2次元のベクトルとなり、両方を要素とする場合には、(K+K2)次元のベクトルとなる。
また、確率p(c)およびp(c|c)の両方を要素とする各特徴ベクトル間のユークリッド距離を求めると、
(I1,I2)=0.169、
(I1,I3)=1.198、
(I2,I3)=1.188
となる。したがって、方法3は、入力画像I1およびI2が近く(類似し)、入力画像I3が入力画像I1およびI2から遠い(離れている)ことを、方法2の場合より顕著に表すことができる。なお、nijの場合と同様に、確率p(c|c)をさらに隣接方向ごとに細分化し、縦(上下)方向、横(左右)方向、斜め方向ごとに求めた確率を特徴ベクトルv2[I]の要素として用いてもよい。
前述したように、画像識別装置1において、入力画像Iの領域分割結果Seg[I]に基づいて、各領域cに割り当てられたブロック画像の数nを要素とする特徴ベクトルv2[I]を求めることによって、当該特徴ベクトルv2[I]に基づいて、識別対象の形状・大きさ・向き・位置などが多様・不定である場合や、識別対象の抽出が困難な場合であっても、入力画像Iが属するカテゴリを高精度に識別することができる。なお、nに代えて、ブロック画像が領域cに割り当てられる確率p(c)を特徴ベクトルv2[I]の要素として用いてもよい。
また、nに代えて、またはnに追加して、領域cに割り当てられたブロック画像と領域cに割り当てられたブロック画像との隣接箇所の数nijを特徴ベクトルv2[I]の要素として用いることによって、細胞塊や雲などの自然現象の入力画像Iに対して適切にカテゴリを決定することができる。さらに、確率p(c)に代えて、または確率p(c)に追加して、領域cに割り当てられたブロック画像が領域cに割り当てられたブロック画像と隣接する(条件付き)確率p(c|c)を特徴ベクトルv2[I]の要素として用いることによって、細胞塊や雲などの自然現象の入力画像Iに対してより適切にカテゴリを決定することができる。
また、nijや確率p(c|c)を隣接方向ごとに細分化して求めた数や確率を特徴ベクトルv2[I]の要素として用いることによって、入力画像Iが属するカテゴリの識別精度を向上させることができる。
また、予め用意した学習用ブロック画像群ILのクラスタリング結果から得られたクラスタ属性{π,m,C}を記憶部13に記憶させておくことによって、当該クラスタ属性{π,m,C}に基づいて、画像間で領域の対応付けを行うことなく、入力画像Iを領域分割することができる。
また、細胞培養装置において培養される細胞塊の入力画像Iが属するカテゴリの識別を特徴ベクトルv2[I]に基づいて行うことによって、形状・大きさ・向き・位置などが多様・不定である細胞塊や、識別対象として抽出することが困難な細胞塊であっても、高精度に識別することができる。
また、画像識別装置1の第1特徴抽出部11、領域分割部12、第2特徴抽出部14、および識別部15に相当する機能をコンピュータに実現させるためのプログラムにおいて、入力画像Iの領域分割結果Seg[I]に基づいて、nまたは確率p(c)を要素として含む特徴ベクトルv2[I]を求め、当該特徴ベクトルv2[I]に基づいて入力画像Iが属するカテゴリを識別することによって、識別対象の形状・大きさ・向き・位置などが多様・不定である場合や、識別対象の抽出が困難な場合であっても、高精度に識別することができる。
また、nijまたは確率p(c|c)を要素として含む特徴ベクトルv2[I]に基づいて入力画像Iが属するカテゴリを識別することによって、細胞塊や雲などの自然現象の入力画像Iに対して適切にカテゴリを決定することができる。
なお、上記実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得るとともに、本発明にはその等価物も含まれる。
1 画像識別装置
11 第1特徴抽出部
12 領域分割部
13 記憶部
14 第2特徴抽出部
15 識別部

Claims (5)

  1. 入力画像を所定サイズの複数のブロック画像に分割し、前記複数のブロック画像のそれぞれの特徴量を求める第1特徴抽出部と、
    前記特徴量に基づいて、前記複数のブロック画像をK個(Kは2以上の整数)の領域の何れかにそれぞれ割り当てて、前記入力画像を前記K個の領域に分割する領域分割部と、
    前記領域分割部の領域分割結果に基づいて、前記入力画像において2つのブロック画像が隣接する隣接箇所の、当該2つのブロック画像のそれぞれが割り当てられた領域ごとの数、または、前記K個の領域のそれぞれに割り当てられたブロック画像に隣接するブロック画像のうち、前記K個の領域のそれぞれに割り当てられたブロック画像の割合を要素として含む特徴ベクトルを求める第2特徴抽出部と、
    前記特徴ベクトルに基づいて、前記入力画像が複数のカテゴリの何れに属するかを識別する識別部と、
    を有することを特徴とする画像識別装置。
  2. 前記第2特徴抽出部は、前記領域分割部の領域分割結果に基づいて、前記隣接箇所の、前記2つのブロック画像のそれぞれが割り当てられた領域ごとの数を隣接方向ごとに計数した数、または、前記K個の領域のそれぞれに割り当てられたブロック画像に隣接するブロック画像のうち、前記K個の領域のそれぞれに割り当てられたブロック画像の割合を隣接方向ごとに算出した割合を要素として含む前記特徴ベクトルを求めることを特徴とする請求項1に記載の画像識別装置。
  3. 複数の学習用画像をそれぞれ分割した前記複数のブロック画像のそれぞれの前記特徴量に基づいて、前記複数の学習用画像をそれぞれ前記K個の領域に分割した領域分割結果が記憶されている記憶部をさらに有し、
    前記領域分割部は、前記記憶部に記憶されている領域分割結果に基づいて、前記入力画像を前記K個の領域に分割することを特徴とする請求項1または請求項2に記載の画像識別装置。
  4. 前記入力画像は、細胞培養装置において培養される細胞塊の画像であることを特徴とする請求項1ないし請求項3の何れかに記載の画像識別装置。
  5. 識別対象の入力画像が入力されるコンピュータに、
    前記入力画像を所定サイズの複数のブロック画像に分割する機能と、
    前記複数のブロック画像のそれぞれの特徴量を求める機能と、
    前記特徴量に基づいて、前記複数のブロック画像をK個(Kは2以上の整数)の領域の何れかにそれぞれ割り当てて、前記入力画像を前記K個の領域に分割する機能と、
    前記入力画像を前記K個の領域に分割した領域分割結果に基づいて、前記入力画像において2つのブロック画像が隣接する隣接箇所の、当該2つのブロック画像のそれぞれが割り当てられた領域ごとの数、または、前記K個の領域のそれぞれに割り当てられたブロック画像に隣接するブロック画像のうち、前記K個の領域のそれぞれに割り当てられたブロック画像の割合を要素として含む特徴ベクトルを求める機能と、
    前記特徴ベクトルに基づいて、前記入力画像が複数のカテゴリの何れに属するかを識別する機能と、
    を実現させるためのプログラム
JP2012547372A 2011-02-17 2011-12-22 画像識別装置およびプログラム Expired - Fee Related JP5167442B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012547372A JP5167442B2 (ja) 2011-02-17 2011-12-22 画像識別装置およびプログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2011032492 2011-02-17
JP2011032492 2011-02-17
PCT/JP2011/079762 WO2012111236A1 (ja) 2011-02-17 2011-12-22 画像識別装置およびプログラム
JP2012547372A JP5167442B2 (ja) 2011-02-17 2011-12-22 画像識別装置およびプログラム

Publications (2)

Publication Number Publication Date
JP5167442B2 true JP5167442B2 (ja) 2013-03-21
JPWO2012111236A1 JPWO2012111236A1 (ja) 2014-07-03

Family

ID=46672185

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012547372A Expired - Fee Related JP5167442B2 (ja) 2011-02-17 2011-12-22 画像識別装置およびプログラム

Country Status (3)

Country Link
US (1) US9031305B2 (ja)
JP (1) JP5167442B2 (ja)
WO (1) WO2012111236A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103425996A (zh) * 2013-08-01 2013-12-04 华南理工大学 一种并行分布式的大规模图像识别方法
CN110705460A (zh) * 2019-09-29 2020-01-17 北京百度网讯科技有限公司 图像类别识别方法及装置
WO2023075310A1 (ko) * 2021-10-25 2023-05-04 고려대학교 산학협력단 인공지능을 이용한 세포 판별 방법 및 장치
CN117831033A (zh) * 2024-03-04 2024-04-05 南京市浦口人民医院(江苏省人民医院浦口分院) 基于图像分析的病原微生物智能提取识别方法

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5167442B2 (ja) 2011-02-17 2013-03-21 三洋電機株式会社 画像識別装置およびプログラム
JP6131723B2 (ja) * 2012-11-26 2017-05-24 株式会社リコー 情報処理装置、情報処理方法、プログラムおよび記録媒体
CN103398927A (zh) * 2013-08-15 2013-11-20 上海市城市建设设计研究总院 河流含沙量非线性反演方法
JP6071007B2 (ja) * 2013-08-22 2017-02-01 富士フイルム株式会社 観察画像撮影評価装置および方法並びにプログラム
JP5876453B2 (ja) 2013-09-26 2016-03-02 株式会社Screenホールディングス 培養品質評価方法
JP6235921B2 (ja) * 2014-02-07 2017-11-22 国立大学法人広島大学 内視鏡画像診断支援システム
JP6301199B2 (ja) * 2014-05-30 2018-03-28 富士フイルム株式会社 細胞評価装置および方法並びにプログラム
KR102277087B1 (ko) 2014-08-21 2021-07-14 삼성전자주식회사 콘텐츠 분류 방법 및 전자 장치
CN105069457B (zh) * 2015-07-15 2020-02-11 杭州易现先进科技有限公司 图像识别方法和装置
US9704054B1 (en) * 2015-09-30 2017-07-11 Amazon Technologies, Inc. Cluster-trained machine learning for image processing
WO2017221860A1 (ja) * 2016-06-21 2017-12-28 日本電気株式会社 領域識別装置と領域識別方法および領域識別プログラム
WO2018055762A1 (ja) * 2016-09-26 2018-03-29 オリンパス株式会社 細胞状態計測装置
JP6652911B2 (ja) * 2016-12-19 2020-02-26 Kddi株式会社 画像処理装置、画像処理方法、プログラム、及び画像処理システム
CN112771516A (zh) * 2018-09-26 2021-05-07 国立研究开发法人理化学研究所 分类装置、分类方法、程序以及信息记录介质
CN111147891B (zh) * 2019-12-31 2022-09-13 杭州威佩网络科技有限公司 视频画面中对象的信息的获取方法、装置及设备
US11436852B2 (en) * 2020-07-28 2022-09-06 Intuit Inc. Document information extraction for computer manipulation
JP7417504B2 (ja) * 2020-10-23 2024-01-18 株式会社日立ソリューションズ 類似画像差分抽出装置、類似画像差分抽出方法、プログラム及び記録媒体

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08180176A (ja) * 1994-10-27 1996-07-12 Nec Corp 画像蓄積・管理装置、画像インデックス生成方法及び画像インデックス生成装置
JP2005063307A (ja) * 2003-08-19 2005-03-10 Fuji Photo Film Co Ltd 画像識別方法および装置、オブジェクト識別方法および装置ならびにプログラム
JP2006166939A (ja) * 2004-12-10 2006-06-29 Olympus Corp 画像処理方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6913877B1 (en) * 2000-09-11 2005-07-05 State Of Oregon Acting By And Through The State Board Of Higher Education On Behalf Of Oregon State University Methods for detecting bioactive compounds
US20020164070A1 (en) * 2001-03-14 2002-11-07 Kuhner Mark B. Automatic algorithm generation
WO2004053074A2 (en) * 2002-12-06 2004-06-24 Science And Technology Corporation @ Unm Outcome prediction and risk classification in childhood leukemia
US7711174B2 (en) * 2004-05-13 2010-05-04 The Charles Stark Draper Laboratory, Inc. Methods and systems for imaging cells
US7958063B2 (en) * 2004-11-11 2011-06-07 Trustees Of Columbia University In The City Of New York Methods and systems for identifying and localizing objects based on features of the objects that are mapped to a vector
JP4641414B2 (ja) 2004-12-07 2011-03-02 キヤノン株式会社 文書画像検索装置、文書画像検索方法、プログラム、記憶媒体
EP1842481B1 (en) * 2004-12-10 2017-02-08 Olympus Corporation Medical image processing method
JP4483629B2 (ja) 2005-03-08 2010-06-16 パナソニック株式会社 トナー、トナーの製造方法、二成分現像剤及び画像形成装置
US7756309B2 (en) * 2005-07-27 2010-07-13 Bioimagene, Inc. Method and system for storing, indexing and searching medical images using anatomical structures of interest
US8041090B2 (en) * 2005-09-10 2011-10-18 Ge Healthcare Uk Limited Method of, and apparatus and computer software for, performing image processing
US8326014B2 (en) * 2007-09-28 2012-12-04 Cytyc Corporation Methods and systems for processing biological specimens utilizing multiple wavelengths
CN101835037B (zh) * 2009-03-12 2015-02-04 索尼株式会社 对视频中的运动矢量进行可靠性分类的方法和系统
US8320655B2 (en) * 2009-10-16 2012-11-27 General Electric Company Process and system for analyzing the expression of biomarkers in cells
JP5167442B2 (ja) 2011-02-17 2013-03-21 三洋電機株式会社 画像識別装置およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08180176A (ja) * 1994-10-27 1996-07-12 Nec Corp 画像蓄積・管理装置、画像インデックス生成方法及び画像インデックス生成装置
JP2005063307A (ja) * 2003-08-19 2005-03-10 Fuji Photo Film Co Ltd 画像識別方法および装置、オブジェクト識別方法および装置ならびにプログラム
JP2006166939A (ja) * 2004-12-10 2006-06-29 Olympus Corp 画像処理方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103425996A (zh) * 2013-08-01 2013-12-04 华南理工大学 一种并行分布式的大规模图像识别方法
CN103425996B (zh) * 2013-08-01 2017-08-25 华南理工大学 一种并行分布式的大规模图像识别方法
CN110705460A (zh) * 2019-09-29 2020-01-17 北京百度网讯科技有限公司 图像类别识别方法及装置
CN110705460B (zh) * 2019-09-29 2023-06-20 北京百度网讯科技有限公司 图像类别识别方法及装置
WO2023075310A1 (ko) * 2021-10-25 2023-05-04 고려대학교 산학협력단 인공지능을 이용한 세포 판별 방법 및 장치
CN117831033A (zh) * 2024-03-04 2024-04-05 南京市浦口人民医院(江苏省人民医院浦口分院) 基于图像分析的病原微生物智能提取识别方法
CN117831033B (zh) * 2024-03-04 2024-05-07 南京市浦口人民医院(江苏省人民医院浦口分院) 基于图像分析的病原微生物智能提取识别方法

Also Published As

Publication number Publication date
WO2012111236A1 (ja) 2012-08-23
US9031305B2 (en) 2015-05-12
US20130236081A1 (en) 2013-09-12
JPWO2012111236A1 (ja) 2014-07-03

Similar Documents

Publication Publication Date Title
JP5167442B2 (ja) 画像識別装置およびプログラム
CN109753885B (zh) 一种目标检测方法、装置以及行人检测方法、系统
Zou et al. Tree classification in complex forest point clouds based on deep learning
CN107292276B (zh) 一种车载点云聚类方法及系统
CN104268593B (zh) 一种小样本情况下多稀疏表示的人脸识别方法
CN110163239B (zh) 一种基于超像素和条件随机场的弱监督图像语义分割方法
CN105528575B (zh) 基于上下文推理的天空检测方法
CN108510516A (zh) 一种散乱点云的三维线段提取方法及系统
CN105740915B (zh) 一种融合感知信息的协同分割方法
CN105354593B (zh) 一种基于nmf的三维模型分类方法
JP6197659B2 (ja) 検出制御装置、プログラム及び検出システム
CN102708380B (zh) 一种基于机器视觉的室内一般物体识别方法
CN106228121B (zh) 手势特征识别方法和装置
CN110751027B (zh) 一种基于深度多示例学习的行人重识别方法
Wang et al. Graph-based multiprototype competitive learning and its applications
CN110348478B (zh) 一种基于形状分类与组合的室外点云场景中树木提取方法
CN110334584B (zh) 一种基于区域全卷积网络的手势识别方法
CN108681721A (zh) 基于图像分割二维双向数据线性相关组合的人脸识别方法
CN106650744A (zh) 局部形状迁移指导的图像对象共分割方法
CN111339818A (zh) 一种人脸多属性识别系统
CN110349159A (zh) 基于权重能量自适应分布的三维形状分割方法及系统
CN115827995A (zh) 基于大数据分析的社交匹配方法
Kumar et al. A hybrid cluster technique for improving the efficiency of colour image segmentation
CN118015662A (zh) 基于Transformer多头自注意力机制的跨摄像头行人重识别方法
CN113496260A (zh) 基于改进YOLOv3算法的粮库人员不规范作业检测法

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121221

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151228

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151228

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees