WO2012111236A1 - 画像識別装置およびプログラム - Google Patents

画像識別装置およびプログラム Download PDF

Info

Publication number
WO2012111236A1
WO2012111236A1 PCT/JP2011/079762 JP2011079762W WO2012111236A1 WO 2012111236 A1 WO2012111236 A1 WO 2012111236A1 JP 2011079762 W JP2011079762 W JP 2011079762W WO 2012111236 A1 WO2012111236 A1 WO 2012111236A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
input image
block
block images
feature
Prior art date
Application number
PCT/JP2011/079762
Other languages
English (en)
French (fr)
Inventor
中村 明
Original Assignee
三洋電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三洋電機株式会社 filed Critical 三洋電機株式会社
Priority to JP2012547372A priority Critical patent/JP5167442B2/ja
Publication of WO2012111236A1 publication Critical patent/WO2012111236A1/ja
Priority to US13/754,026 priority patent/US9031305B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • G06F18/24155Bayesian classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/763Non-hierarchical techniques, e.g. based on statistics of modelling distributions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification

Definitions

  • the present invention relates to an image identification device and a program.
  • OCR optical character recognition
  • FSS Facial Recognition System
  • a step of extracting an identification target region such as a character or a face from an input image a step of extracting a feature amount from the extracted region, and a feature amount of each category prepared in advance.
  • the category to which the input image belongs is determined through the process of comparing with.
  • Patent Document 1 and Patent Document 2 disclose a technique for identifying an image based on whether the composition of the entire image, the impression received from the image, and the like are similar to each other, rather than a specific target included in the image. .
  • an area number is assigned to each block obtained by dividing an image into a grid pattern, and an image index describing attributes for each area is used, whereby an image having a high degree of similarity between the entire images. Can be searched.
  • the image search device of Patent Document 2 the overall similarity is calculated using the feature quantities such as the aspect ratio, size, and barycentric position coordinates of each partial area constituting the document image, and the document image is searched. Yes.
  • an image having a similar composition of the entire image is searched by obtaining the similarity between the images reflecting the similarity of the shape and position of each region using the feature amount of each region. Can do.
  • the shape, size, orientation, position, etc. of the identification target such as cell clusters and clouds are Due to the variety and indefiniteness, the overall composition may vary greatly between images belonging to the same category.
  • the outline of the identification target may be unclear, or a part of the identification target may protrude from the field of view of the image, and it may be difficult to accurately extract the identification target region. For this reason, the image identification technique as described above cannot determine a category for an input image of a natural phenomenon such as a cell mass or a cloud.
  • the main present invention for solving the above-described problem is to divide an input image into a plurality of block images of a predetermined size and obtain a feature amount of each of the plurality of block images, and based on the feature amount
  • K is an integer equal to or greater than 2
  • the input image is divided into K areas.
  • the category to which the input image belongs can be identified with high accuracy even when the shape, size, orientation, position, etc. of the identification target are diverse or indefinite, or when the identification target is difficult to extract. can do.
  • the image identification device 1 shown in FIG. 1 includes a first feature extraction unit 11, a region division unit 12, a storage unit 13, a second feature extraction unit 14, and an identification unit 15.
  • the input image I is input to the first feature extraction unit 11, and the feature quantity v ⁇ b > 1 [x n ] output from the first feature extraction unit 11 is input to the region division unit 12.
  • the storage unit 13 stores cluster attributes ⁇ k , m k , C k ⁇ obtained from the clustering result of the learning block image group IL, which will be described later, and the cluster attributes are stored in the region dividing unit 12. Are read as appropriate.
  • the region dividing result Seg [I] of the input image I is input from the region dividing unit 12 to the second feature extracting unit 14, and the feature vector v2 [I] output from the second feature extracting unit 14 is identified. It is input to the unit 15. Then, the identification category Cat [I] is output from the identification unit 15.
  • FIG. 2 shows the operation of a program for causing a computer to realize functions corresponding to the first feature extraction unit 11, the region division unit 12, the second feature extraction unit 14, and the identification unit 15.
  • the input image I to be identified is input and the processing of the program is started (S1), first, as shown in FIG. 3, the input image I is divided into block images of a predetermined size (for example, 32 pixels ⁇ 32 pixels). (S2). In FIG. 3, the input image I is divided into M ⁇ N block images x n (1 ⁇ n ⁇ M ⁇ N) as an example. Then, it extracts the feature amount v1 [x n] of each block image x n (S3). Therefore, the processing of S2 and S3 realizes a function corresponding to the first feature extraction unit 11.
  • a predetermined size for example, 32 pixels ⁇ 32 pixels.
  • the feature amount v1 [x n ] for example, an average value or standard deviation of luminance values of each pixel can be used. Also, a vector using a plurality of scalar quantities such as the average value and standard deviation of the luminance values of each pixel can be used as the feature quantity v1 [x n ]. Further, instead of using the luminance value of each pixel as it is, the feature value v1 [x n ] may be extracted after performing filtering processing such as edge extraction. In the present embodiment, as an example, as illustrated in FIG. 4, a two-dimensional vector having elements of the average value ⁇ n and the standard deviation ⁇ n of the luminance values of each pixel included in the block image x n is represented by a feature value v1 [ x n ].
  • each block image x n is similar to each other by sequentially assigning each block image x n to the nearest cluster among K clusters (regions) prepared in advance based on the feature value v1 [x n ].
  • Block images are assigned to belong to the same cluster.
  • the cluster assignment (clustering) is, for example, a cluster obtained from the result of clustering the learning block image group IL obtained by dividing the learning image group prepared separately from the input image I into K clusters. This is done based on attributes.
  • a clustering method for example, a K-mean method (c-mean method), a fuzzy c-mean method, a mixed normal distribution model (GMM: Gaussian Mixture Model), or the like can be used.
  • c-mean method a K-mean method
  • GMM Gaussian Mixture Model
  • the probability density function p (x) followed by each individual x (each block image x n ) constituting the data set is: It can be expressed as. N (x
  • ⁇ k is the weight of the cluster c k
  • represents the cluster attributes ⁇ k , m k , C k ⁇ (0 ⁇ k ⁇ K ⁇ 1) of all clusters c 0 , c 1 ,..., C K ⁇ 1 .
  • the model parameter is a cluster attribute of the cluster c k from the data set (the learning block image group IL) ⁇ k, m k , C k ⁇ by keeping to estimate the input image I
  • the affiliation probability of each block image xn to each cluster can be obtained.
  • the membership probability of the individual x (block image x n ) to the cluster ck is calculated from the Bayes' theorem according to the following equation.
  • cluster attributes (model parameters) ⁇ k , m k , C k ⁇ obtained from the clustering result of the learning block image group IL are stored in the storage unit 13 and appropriately read out.
  • the image identification techniques of Patent Document 1 and Patent Document 2 are used. without associating regions between images, as shown in FIGS. 6 and 7, it can be assigned a portion where luminance is different to the same region c 0.
  • a feature vector v2 [I] is calculated based on the region segmentation result Seg [I] of the input image I (S5). Therefore, the process of S5 realizes a function corresponding to the second feature extraction unit 14.
  • the identification algorithm for example, a well-known supervised identification algorithm for numerical vectors such as linear discriminant analysis, a neural network, or a support vector machine can be used.
  • the classification category Cat [I] can be output by inputting the feature vector v2 [I] of the input image I to a classifier trained using a learning image group with a teacher label prepared in advance.
  • the feature vector of each learning image is stored in the storage unit 13 or another storage unit, and the category to which the learning image most similar to the feature vector v2 [I] of the input image I belongs is identified. You may output as category Cat [I].
  • the feature vector v2 [I] the (n 0, n 1, n 2)
  • a process of outputting the identification category Cat [I] is shown.
  • the input image I is identified as one of the categories depending on which side is on the identification plane determined from the learning image group.
  • the identification category Cat [I] A is output. .
  • the image identification device 1 based on the region division result Seg [I] of the input image I has a K-dimensional feature vector v2 having the number n i of block images allocated to each region c i as an element. [I] is obtained, and the category to which the input image I belongs can be identified based on the feature vector v2 [I].
  • n i of the input image I3 shown in FIG. 10 to become the same as the input image I1, the input image I1 and I3 are, is to belong to the same category.
  • the input images I1 to I3 are images of cell clusters cultured in the cell culture device, the input images I1 and I2 are identified in the same category, and the input image I3 is different from the input images I1 and I2. There are cases where classification should be made.
  • the number of the adjacent portions of each adjacent two blocks images are allocated area, i.e., area
  • the number n ij of adjacent portions between the block image assigned to c i and the block image assigned to the region c j can be used (hereinafter referred to as method 2).
  • the numbers n 00 , n 01 , and n 11 of adjacent portions can be obtained as shown in FIG. That is, the number n 00 of adjacent portions between the block images assigned to the region c 0 is 8 from the number of solid lines. Further, the number n 01 of adjacent portions between the block image assigned to the area c 0 and the block image assigned to the area c 1 is 24 from the number of long broken lines. The number n 11 of adjacent portions between the block images assigned to the region c 1 is 47 from the number of short broken lines.
  • the block image adjacent to the block image assigned to the region c i can be used as an element of the feature vector v2 [I].
  • the ratio can be obtained as a probability (conditional) probability p (c j
  • c i ) n ij / N i (i ⁇ j) It can be expressed as.
  • N i is the total number of block images adjacent to the block image assigned to the area c i , It can be expressed as.
  • the feature vector v2 [I] is a K-dimensional vector when only the probability p (c i ) is an element, and K2 when only the probability p (c j
  • the method 3 can express more significantly that the input images I1 and I2 are close (similar) and the input image I3 is far (separated) from the input images I1 and I2 than the method 2.
  • c i ) is further subdivided for each adjacent direction, and the probability obtained for each of the vertical (vertical) direction, horizontal (left / right) direction, and diagonal direction is represented by the feature vector. It may be used as an element of v2 [I].
  • the feature vector v2 [I] having the number n i of block images allocated to each region c i as an element. Is obtained based on the feature vector v2 [I], even if the shape, size, orientation, position, etc. of the identification target is various or indefinite, or when the identification target is difficult to extract,
  • the category to which the input image I belongs can be identified with high accuracy.
  • the probability p (c i ) that the block image is assigned to the region c i may be used as an element of the feature vector v2 [I].
  • n ij a feature vector number n ij of the adjacent portion of the allocated block image and the region c j allocated block image in the area c i v2 [I]
  • a category can be more appropriately determined for the input image I of a natural phenomenon such as a cell mass or a cloud.
  • the cluster attribute ⁇ k , m k , C k ⁇ obtained from the clustering result of the learning block image group IL prepared in advance is stored in the storage unit 13 so that the cluster attribute ⁇ k , m Based on k 1 , C k ⁇ , the input image I can be divided into regions without associating regions between images.
  • region division of the input image I is performed.
  • a feature vector v2 [I] including n i or a probability p (c i ) as an element is obtained, and a category to which the input image I belongs is identified based on the feature vector v2 [I].
  • the input image of a natural phenomenon such as a cell mass or a cloud
  • the category can be determined appropriately for I.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Processing (AREA)

Abstract

【課題】 識別対象の形状・大きさ・向き・位置などが多様・不定である場合や、識別対象の抽出が困難な場合であっても、入力画像が属するカテゴリを高精度に識別する。 【解決手段】 入力画像を所定サイズの複数のブロック画像に分割し、複数のブロック画像のそれぞれの特徴量を求める第1特徴抽出部と、特徴量に基づいて、複数のブロック画像をK個(Kは2以上の整数)の領域の何れかにそれぞれ割り当てて、入力画像をK個の領域に分割する領域分割部と、領域分割部の領域分割結果に基づいて、複数のブロック画像の、それぞれが割り当てられた領域ごとの数、または、複数のブロック画像のうち、K個の領域のそれぞれに割り当てられたブロック画像の割合を要素として含む特徴ベクトルを求める第2特徴抽出部と、特徴ベクトルに基づいて、入力画像が複数のカテゴリの何れに属するかを識別する識別部と、を有する。

Description

画像識別装置およびプログラム
 本発明は、画像識別装置およびプログラムに関する。
 近年、様々な分野で画像識別技術が用いられている。例えば、入力された画像が予め定義された2つ以上のカテゴリの何れに属するかを識別する技術は、光学式文字認識(OCR:Optical Character Recognition)や顔認識システム(FRS:Facial Recognition System)などで利用されている。そして、これらの技術では、例えば、入力画像から文字や顔などの識別対象の領域を抽出する工程、抽出した領域から特徴量を抽出する工程、抽出した特徴量を予め用意した各カテゴリの特徴量と比較する工程などを経て、入力画像が属するカテゴリを決定している。
 また、例えば特許文献1や特許文献2では、画像に含まれる特定の対象ではなく、画像全体の構図や画像から受ける印象などが類似しているか否かによって画像を識別する技術が開示されている。特許文献1の画像蓄積・管理装置では、画像を格子状に分割した各ブロックに領域番号を割り当て、その領域ごとの属性を記述した画像インデックスを利用することによって、画像全体の類似度が高い画像を検索することができる。一方、特許文献2の画像検索装置では、文書画像を構成する各部分領域のアスペクト比、大きさ、重心位置座標などの特徴量を用いて総合類似度を算出して、文書画像を検索している。
 このようにして、各領域の特徴量を用いて、各領域の形状や位置の類似度を反映した画像間の類似度を求めることによって、画像全体の構図が類似している画像を検索することができる。
特開平8-180176号公報 特開2006-163841号公報
 しかしながら、例えば、細胞培養装置において培養される細胞塊(細胞コロニー)や、雲の発生・成長などの自然界の現象では、細胞塊や雲などの識別対象の形状・大きさ・向き・位置などが多様・不定であるため、同一カテゴリに属する画像間で全体の構図が大きく異なる場合がある。さらに、識別対象の輪郭が不明瞭であったり、識別対象の一部が画像の視野からはみ出していたりして、識別対象の領域を正確に抽出することが困難な場合もある。
 そのため、上記のような画像識別技術では、細胞塊や雲などの自然現象の入力画像に対してカテゴリを決定することができない。
 前述した課題を解決する主たる本発明は、入力画像を所定サイズの複数のブロック画像に分割し、前記複数のブロック画像のそれぞれの特徴量を求める第1特徴抽出部と、前記特徴量に基づいて、前記複数のブロック画像をK個(Kは2以上の整数)の領域の何れかにそれぞれ割り当てて、前記入力画像を前記K個の領域に分割する領域分割部と、前記領域分割部の領域分割結果に基づいて、前記複数のブロック画像の、それぞれが割り当てられた領域ごとの数、または、前記複数のブロック画像のうち、前記K個の領域のそれぞれに割り当てられたブロック画像の割合を要素として含む特徴ベクトルを求める第2特徴抽出部と、前記特徴ベクトルに基づいて、前記入力画像が複数のカテゴリの何れに属するかを識別する識別部と、を有することを特徴とする画像識別装置である。
 本発明の他の特徴については、添付図面及び本明細書の記載により明らかとなる。
 本発明によれば、識別対象の形状・大きさ・向き・位置などが多様・不定である場合や、識別対象の抽出が困難な場合であっても、入力画像が属するカテゴリを高精度に識別することができる。
本発明の一実施形態における画像識別装置の構成を示すブロック図である。 本発明の一実施形態における画像識別装置の動作を説明するフローチャートである。 第1特徴抽出部11が入力画像Iをブロック画像に分割する処理の一例を説明する図である。 第1特徴抽出部11が各ブロック画像の特徴量を抽出する処理の一例を説明する図である。 記憶部13に記憶されている学習用ブロック画像群のクラスタリング結果の一例を示す図である。 入力画像I1に対して領域分割部12が各ブロック画像を領域に割り当てる処理の一例を説明する図である。 入力画像I2に対して領域分割部12が各ブロック画像を領域に割り当てる処理の一例を説明する図である。 第2特徴抽出部14が領域分割結果に基づいて特徴ベクトルを算出する処理の一例を説明する図である。 識別部15が特徴ベクトルに基づいて識別カテゴリを出力する処理の一例を説明する図である。 入力画像I3に対して領域分割部12が各ブロック画像を領域に割り当てる処理の一例を説明する図である。 入力画像I1の領域分割結果における隣接箇所の数の算出方法を説明する図である。 第2特徴抽出部14において算出される特徴ベクトルの他の例を示す図である。 第2特徴抽出部14において算出される特徴ベクトルのさらに他の例を示す図である。
 本明細書および添付図面の記載により、少なくとも以下の事項が明らかとなる。
===画像識別装置の構成===
 以下、図1を参照して、本発明の一実施形態における画像識別装置の構成について説明する。
 図1に示されている画像識別装置1は、第1特徴抽出部11、領域分割部12、記憶部13、第2特徴抽出部14、および識別部15を含んで構成されている。
 第1特徴抽出部11には、入力画像Iが入力され、第1特徴抽出部11から出力される特徴量v1[x]は、領域分割部12に入力されている。また、記憶部13には、後述する学習用ブロック画像群ILのクラスタリング結果から得られたクラスタ属性{π,m,C}が記憶されており、当該クラスタ属性は、領域分割部12に適宜読み出されている。さらに、領域分割部12から第2特徴抽出部14には、入力画像Iの領域分割結果Seg[I]が入力され、第2特徴抽出部14から出力される特徴ベクトルv2[I]は、識別部15に入力されている。そして、識別部15からは、識別カテゴリCat[I]が出力されている。
===画像識別装置の動作===
 以下、図2ないし図9を適宜参照して、本実施形態における画像識別装置の動作について説明する。
 画像識別装置1のうち、第1特徴抽出部11、領域分割部12、第2特徴抽出部14、および識別部15の機能は、例えば、記憶部13を備えるコンピュータによって実現することができる。図2は、第1特徴抽出部11、領域分割部12、第2特徴抽出部14、および識別部15に相当する機能をコンピュータに実現させるためのプログラムの動作を示している。
 識別対象の入力画像Iが入力され、プログラムの処理が開始されると(S1)、まず、図3に示すように、入力画像Iを所定サイズ(例えば32画素×32画素)のブロック画像に分割する(S2)。図3においては、入力画像Iは、一例として、M×N個のブロック画像x(1≦n≦M×N)に分割されている。そして、各ブロック画像xの特徴量v1[x]を抽出する(S3)。したがって、S2およびS3の処理は、第1特徴抽出部11に相当する機能を実現する。
 ここで、特徴量v1[x]としては、例えば、各画素の輝度値の平均値や標準偏差などを用いることができる。また、各画素の輝度値の平均値や標準偏差などのスカラー量を複数用いたベクトルを特徴量v1[x]として用いることもできる。さらに、各画素の輝度値そのまま用いる代わりに、エッジ抽出などのフィルタリング処理を行ったうえで特徴量v1[x]を抽出してもよい。本実施形態では、一例として、図4に示すように、ブロック画像xに含まれる各画素の輝度値の平均値μと標準偏差σとを要素とする2次元ベクトルを特徴量v1[x]とする。
 次に、特徴量v1[x]に基づいて、各ブロック画像xを領域c(0≦i≦K-1、Kは2以上の整数)の何れかに割り当てることによって、入力画像IをK個の領域に分割する(S4)。したがって、S4の処理は、領域分割部12に相当する機能を実現する。
 当該領域分割処理においては、例えば、特徴量v1[x]に基づいて、各ブロック画像xを予め用意したK個のクラスタ(領域)のうち最も近いクラスタに順次割り当てることによって、互いに類似するブロック画像が同じクラスタに属するように割り当てられる。また、クラスタへの割り当て(クラスタリング)は、例えば、入力画像Iとは別に予め用意した学習用画像群をそれぞれ分割した学習用ブロック画像群ILをK個のクラスタにクラスタリングした結果から得られたクラスタ属性に基づいて行われる。
 ここで、クラスタリング手法としては、例えば、K-平均法(c-平均法)やファジィc-平均法、混合正規分布モデル(GMM:Gaussian Mixture Model)などを用いることができる。また、これらのクラスタリング手法では、クラスタ数Kを明示的に与える必要があるが、最適なクラスタ数を推定しながらクラスタリングを行う手法を用いてもよい。本実施形態では、一例として、混合正規分布モデルを用いることとし、学習用ブロック画像群ILのクラスタリング結果を図5に示す。図5においては、クラスタ数K=3であり、学習用ブロック画像群ILは、領域c、c、cの何れかに割り当てられている。
 混合正規分布モデルにおいて、データ集合を構成する各個体x(各ブロック画像x)が従う確率密度関数p(x)は、
Figure JPOXMLDOC01-appb-M000001

と表すことができる。なお、N(x|m,C)は、平均ベクトルmおよび分散共分散行列Cをパラメータとして、
Figure JPOXMLDOC01-appb-M000002

と表される、クラスタcの分布を表すD次元正規分布である。また、πは、クラスタcの重みであり、
Figure JPOXMLDOC01-appb-M000003

との条件を満たし、Θは、全クラスタc、c、…、cK-1のクラスタ属性{π,m,C}(0≦k≦K-1)を表している。そして、EMアルゴリズムを用いて、データ集合(学習用ブロック画像群IL)からクラスタcのクラスタ属性であるモデルパラメータ{π,m,C}を推定しておくことによって、入力画像Iに対して、各ブロック画像xの各クラスタへの所属確率を求めることができる。ここで、個体x(ブロック画像x)のクラスタcへの所属確率はベイズの定理から次式により算出される。
 
Figure JPOXMLDOC01-appb-M000004
 さらに、各ブロック画像xを所属確率が最大となるクラスタに割り当てることによって、入力画像Iの領域分割結果が得られる。なお、学習用ブロック画像群ILのクラスタリング結果から得られたクラスタ属性(モデルパラメータ){π,m,C}は、記憶部13に記憶され、適宜読み出される。
 ここで、一例として、クラスタ数K=3とし、当該クラスタ属性に基づいて、同一カテゴリに属すべき入力画像I1およびI2を領域分割した結果を、それぞれ図6および図7に示す。なお、学習用ブロック画像群ILのクラスタリング結果から得られたクラスタ属性{π,m,C}に基づいて領域分割を行うことによって、特許文献1や特許文献2の画像識別技術のように画像間で領域の対応付けを行うことなく、図6および図7に示されているように、輝度が異なる部分を同じ領域cに割り当てることができる。
 次に、入力画像Iの領域分割結果Seg[I]に基づいて、特徴ベクトルv2[I]を算出する(S5)。したがって、S5の処理は、第2特徴抽出部14に相当する機能を実現する。
 ここで、特徴ベクトルv2[I]としては、例えば、各ブロック画像xが割り当てられた領域ごとの数、すなわち、各領域cに割り当てられたブロック画像の数nを要素とするK次元のベクトルを用いることができる。入力画像I1およびI2において、各n(0≦i≦2)は図8のようになり、各特徴ベクトルは、
v2[I1]=(5,22,53)、
v2[I2]=(4,22,54)
と表すことができる。
 最後に、特徴ベクトルv2[I]に基づいて、入力画像Iが予め定義された2つ以上のカテゴリの何れに属するかを識別して識別カテゴリCat[I]を出力し(S6)、処理を終了する(S7)。したがって、S6の処理は、識別部15に相当する機能を実現する。
 ここで、識別アルゴリズムとしては、例えば、線形判別分析やニューラルネットやサポートベクタマシンなど、数値ベクトルを対象とする公知の教師あり識別アルゴリズムを用いることができる。例えば、予め用意した教師ラベル付きの学習用画像群を用いて学習させた識別器に入力画像Iの特徴ベクトルv2[I]を入力することによって、識別カテゴリCat[I]を出力することができる。また、例えば、各学習用画像の特徴ベクトルを記憶部13または別の記憶部に記憶させておき、入力画像Iの特徴ベクトルv2[I]と最も類似している学習用画像が属するカテゴリを識別カテゴリCat[I]として出力してもよい。
 図9は、一例として、カテゴリAに属する学習用画像群ILおよびカテゴリBに属する学習用画像群ILを用いて、特徴ベクトルv2[I]=(n,n,n)に基づいて、識別カテゴリCat[I]を出力する処理を示している。入力画像Iは、学習用画像群から決定される識別面に対してどちら側にあるかによって、何れかのカテゴリに識別され、図9においては、識別カテゴリCat[I]=Aが出力される。
 なお、特徴ベクトルv2[I1]およびv2[I2]の間のユークリッド距離をd(I1,I2)と表すこととすると、図9の特徴空間においては、
(I1,I2)=1.414
となる。当該ユークリッド距離d(I1,I2)は、小さな値であるため、入力画像I1およびI2が近い(類似している)ことを意味する。
 このようにして、画像識別装置1は、入力画像Iの領域分割結果Seg[I]に基づいて、各領域cに割り当てられたブロック画像の数nを要素とするK次元の特徴ベクトルv2[I]を求め、当該特徴ベクトルv2[I]に基づいて、入力画像Iが属するカテゴリを識別することができる。
===特徴ベクトルの他の例===
 上記実施形態では、特徴ベクトルv2[I]として、各領域cに割り当てられたブロック画像の数nを要素とするK次元のベクトルを用いている(以下、方法1と称する)が、これに限定されるものではない。方法1では、例えば、図10に示す入力画像I3の各nは、入力画像I1と同一になるため、入力画像I1およびI3は、同一カテゴリに属することとなる。しかしながら、例えば、入力画像I1ないしI3が細胞培養装置において培養される細胞塊の画像である場合など、入力画像I1およびI2を同一カテゴリに識別し、入力画像I3を入力画像I1およびI2とは異なるカテゴリに識別すべき場合がある。
 そこで、特徴ベクトルv2[I]の要素として、nに代えて、またはnに追加して、隣接する2つのブロック画像のそれぞれが割り当てられた領域ごとの当該隣接箇所の数、すなわち、領域cに割り当てられたブロック画像と領域cに割り当てられたブロック画像との隣接箇所の数nijを用いることができる(以下、方法2と称する)。
 ここで、一例として、入力画像I1の領域分割結果Seg[I1]において、隣接箇所の数n00、n01、n11は、図11のように求めることができる。すなわち、領域cに割り当てられたブロック画像同士の隣接箇所の数n00は、実線の本数から8となる。また、領域cに割り当てられたブロック画像と領域cに割り当てられたブロック画像との隣接箇所の数n01は、長破線の本数から24となる。そして、領域cに割り当てられたブロック画像同士の隣接箇所の数n11は、短破線の本数から47となる。
 入力画像I1ないしI3において、このように、各nij(0≦i≦j≦2)を求めると、図12のようになる。なお、特徴ベクトルv2[I]は、nに代えてnijのみを要素とする場合には、[K(K+1)/2]次元のベクトルとなり、nおよびnijの両方を要素とする場合には、[K+K(K+1)/2]次元のベクトルとなる。
 また、nおよびnijの両方を要素とする各特徴ベクトル間のユークリッド距離を求めると、
(I1,I2)=28.98、
(I1,I3)=44.77、
(I2,I3)=47.83
となる。これらは、方法2では、入力画像I1およびI2が近く(類似し)、入力画像I3が入力画像I1およびI2から遠い(離れている)ことを意味する。したがって、nijを要素として含む特徴ベクトルv2[I]に基づいて、入力画像I1およびI2を同一カテゴリに識別し、入力画像I3を入力画像I1およびI2とは異なるカテゴリに識別することができる。
 なお、図11および図12においては、nijとnjiとを区別せず、nij(0≦i≦j≦2)のみを用いているが、nijおよびnjiの両方を用いてもよい。この場合、nij=njiとなる。また、nijをさらに隣接方向ごとに細分化し、隣接箇所の数を縦(上下)方向、横(左右)方向、斜め方向ごとに求めた数を特徴ベクトルv2[I]の要素として用いてもよい。
===特徴ベクトルのさらに他の例===
 さらに、特徴ベクトルv2[I]の要素として、ブロック画像や隣接箇所の数を直接用いる代わりに、それらの割合や確率を用いてもよい(以下、方法3と称する)。
 例えば、各領域cに割り当てられたブロック画像の数nに代えて、入力画像IのM×N個のブロック画像xのうち各領域cに割り当てられたブロック画像の割合を特徴ベクトルv2[I]の要素として用いることができる。当該割合は、ブロック画像が領域cに割り当てられる確率p(c)として求めることができ、当該確率p(c)は、nを用いて、
p(c)=n/(M×N)
と表すことができる。
 また、例えば、領域cに割り当てられたブロック画像と領域cに割り当てられたブロック画像との隣接箇所の数nijに代えて、領域cに割り当てられたブロック画像に隣接するブロック画像のうち、領域cに割り当てられたブロック画像の割合を特徴ベクトルv2[I]の要素として用いることができる。当該割合は、領域cに割り当てられたブロック画像が領域cに割り当てられたブロック画像と隣接する(条件付き)確率p(c|c)として求めることができ、当該確率p(c|c)は、nij(0≦i,j≦2)を用いて、
p(c|c)=2nij/N (i=j)、
p(c|c)= nij/N (i≠j)
と表すことができる。なお、Nは、領域cに割り当てられたブロック画像に隣接するブロック画像の延べ総数であり、
Figure JPOXMLDOC01-appb-M000005

と表すことができる。
 入力画像I1ないしI3において、このように、各確率p(c)およびp(c|c)を求めると、図13のようになる。なお、特徴ベクトルv2[I]は、確率p(c)のみを要素とする場合には、K次元のベクトルとなり、確率p(c|c)のみを要素とする場合には、K2次元のベクトルとなり、両方を要素とする場合には、(K+K2)次元のベクトルとなる。
 また、確率p(c)およびp(c|c)の両方を要素とする各特徴ベクトル間のユークリッド距離を求めると、
(I1,I2)=0.169、
(I1,I3)=1.198、
(I2,I3)=1.188
となる。したがって、方法3は、入力画像I1およびI2が近く(類似し)、入力画像I3が入力画像I1およびI2から遠い(離れている)ことを、方法2の場合より顕著に表すことができる。なお、nijの場合と同様に、確率p(c|c)をさらに隣接方向ごとに細分化し、縦(上下)方向、横(左右)方向、斜め方向ごとに求めた確率を特徴ベクトルv2[I]の要素として用いてもよい。
 前述したように、画像識別装置1において、入力画像Iの領域分割結果Seg[I]に基づいて、各領域cに割り当てられたブロック画像の数nを要素とする特徴ベクトルv2[I]を求めることによって、当該特徴ベクトルv2[I]に基づいて、識別対象の形状・大きさ・向き・位置などが多様・不定である場合や、識別対象の抽出が困難な場合であっても、入力画像Iが属するカテゴリを高精度に識別することができる。なお、nに代えて、ブロック画像が領域cに割り当てられる確率p(c)を特徴ベクトルv2[I]の要素として用いてもよい。
 また、nに代えて、またはnに追加して、領域cに割り当てられたブロック画像と領域cに割り当てられたブロック画像との隣接箇所の数nijを特徴ベクトルv2[I]の要素として用いることによって、細胞塊や雲などの自然現象の入力画像Iに対して適切にカテゴリを決定することができる。さらに、確率p(c)に代えて、または確率p(c)に追加して、領域cに割り当てられたブロック画像が領域cに割り当てられたブロック画像と隣接する(条件付き)確率p(c|c)を特徴ベクトルv2[I]の要素として用いることによって、細胞塊や雲などの自然現象の入力画像Iに対してより適切にカテゴリを決定することができる。
 また、nijや確率p(c|c)を隣接方向ごとに細分化して求めた数や確率を特徴ベクトルv2[I]の要素として用いることによって、入力画像Iが属するカテゴリの識別精度を向上させることができる。
 また、予め用意した学習用ブロック画像群ILのクラスタリング結果から得られたクラスタ属性{π,m,C}を記憶部13に記憶させておくことによって、当該クラスタ属性{π,m,C}に基づいて、画像間で領域の対応付けを行うことなく、入力画像Iを領域分割することができる。
 また、細胞培養装置において培養される細胞塊の入力画像Iが属するカテゴリの識別を特徴ベクトルv2[I]に基づいて行うことによって、形状・大きさ・向き・位置などが多様・不定である細胞塊や、識別対象として抽出することが困難な細胞塊であっても、高精度に識別することができる。
 また、画像識別装置1の第1特徴抽出部11、領域分割部12、第2特徴抽出部14、および識別部15に相当する機能をコンピュータに実現させるためのプログラムにおいて、入力画像Iの領域分割結果Seg[I]に基づいて、nまたは確率p(c)を要素として含む特徴ベクトルv2[I]を求め、当該特徴ベクトルv2[I]に基づいて入力画像Iが属するカテゴリを識別することによって、識別対象の形状・大きさ・向き・位置などが多様・不定である場合や、識別対象の抽出が困難な場合であっても、高精度に識別することができる。
 また、nijまたは確率p(c|c)を要素として含む特徴ベクトルv2[I]に基づいて入力画像Iが属するカテゴリを識別することによって、細胞塊や雲などの自然現象の入力画像Iに対して適切にカテゴリを決定することができる。
 なお、上記実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得るとともに、本発明にはその等価物も含まれる。
  1     画像識別装置
  11    第1特徴抽出部
  12    領域分割部
  13    記憶部
  14    第2特徴抽出部
  15    識別部

Claims (7)

  1.  入力画像を所定サイズの複数のブロック画像に分割し、前記複数のブロック画像のそれぞれの特徴量を求める第1特徴抽出部と、
     前記特徴量に基づいて、前記複数のブロック画像をK個(Kは2以上の整数)の領域の何れかにそれぞれ割り当てて、前記入力画像を前記K個の領域に分割する領域分割部と、
     前記領域分割部の領域分割結果に基づいて、前記複数のブロック画像の、それぞれが割り当てられた領域ごとの数、または、前記複数のブロック画像のうち、前記K個の領域のそれぞれに割り当てられたブロック画像の割合を要素として含む特徴ベクトルを求める第2特徴抽出部と、
     前記特徴ベクトルに基づいて、前記入力画像が複数のカテゴリの何れに属するかを識別する識別部と、
     を有することを特徴とする画像識別装置。
  2.  入力画像を所定サイズの複数のブロック画像に分割し、前記複数のブロック画像のそれぞれの特徴量を求める第1特徴抽出部と、
     前記特徴量に基づいて、前記複数のブロック画像をK個(Kは2以上の整数)の領域の何れかにそれぞれ割り当てて、前記入力画像を前記K個の領域に分割する領域分割部と、
     前記領域分割部の領域分割結果に基づいて、前記入力画像において2つのブロック画像が隣接する隣接箇所の、当該2つのブロック画像のそれぞれが割り当てられた領域ごとの数、または、前記K個の領域のそれぞれに割り当てられたブロック画像に隣接するブロック画像のうち、前記K個の領域のそれぞれに割り当てられたブロック画像の割合を要素として含む特徴ベクトルを求める第2特徴抽出部と、
     前記特徴ベクトルに基づいて、前記入力画像が複数のカテゴリの何れに属するかを識別する識別部と、
     を有することを特徴とする画像識別装置。
  3.  前記第2特徴抽出部は、前記領域分割部の領域分割結果に基づいて、前記隣接箇所の、前記2つのブロック画像のそれぞれが割り当てられた領域ごとの数を隣接方向ごとに計数した数、または、前記K個の領域のそれぞれに割り当てられたブロック画像に隣接するブロック画像のうち、前記K個の領域のそれぞれに割り当てられたブロック画像の割合を隣接方向ごとに算出した割合を要素として含む前記特徴ベクトルを求めることを特徴とする請求項2に記載の画像識別装置。
  4.  複数の学習用画像をそれぞれ分割した前記複数のブロック画像のそれぞれの前記特徴量に基づいて、前記複数の学習用画像をそれぞれ前記K個の領域に分割した領域分割結果が記憶されている記憶部をさらに有し、
     前記領域分割部は、前記記憶部に記憶されている領域分割結果に基づいて、前記入力画像を前記K個の領域に分割することを特徴とする請求項1ないし請求項3の何れかに記載の画像識別装置。
  5.  前記入力画像は、細胞培養装置において培養される細胞塊の画像であることを特徴とする請求項1ないし請求項4の何れかに記載の画像識別装置。
  6.  識別対象の入力画像が入力されるコンピュータに、
     前記入力画像を所定サイズの複数のブロック画像に分割する機能と、
     前記複数のブロック画像のそれぞれの特徴量を求める機能と、
     前記特徴量に基づいて、前記複数のブロック画像をK個(Kは2以上の整数)の領域の何れかにそれぞれ割り当てて、前記入力画像を前記K個の領域に分割する機能と、
     前記入力画像を前記K個の領域に分割した領域分割結果に基づいて、前記複数のブロック画像の、それぞれが割り当てられた領域ごとの数、または、前記複数のブロック画像のうち、前記K個の領域のそれぞれに割り当てられたブロック画像の割合を要素として含む特徴ベクトルを求める機能と、
     前記特徴ベクトルに基づいて、前記入力画像が複数のカテゴリの何れに属するかを識別する機能と、
     を実現させるためのプログラム。
  7.  識別対象の入力画像が入力されるコンピュータに、
     前記入力画像を所定サイズの複数のブロック画像に分割する機能と、
     前記複数のブロック画像のそれぞれの特徴量を求める機能と、
     前記特徴量に基づいて、前記複数のブロック画像をK個(Kは2以上の整数)の領域の何れかにそれぞれ割り当てて、前記入力画像を前記K個の領域に分割する機能と、
     前記入力画像を前記K個の領域に分割した領域分割結果に基づいて、前記入力画像において2つのブロック画像が隣接する隣接箇所の、当該2つのブロック画像のそれぞれが割り当てられた領域ごとの数、または、前記K個の領域のそれぞれに割り当てられたブロック画像に隣接するブロック画像のうち、前記K個の領域のそれぞれに割り当てられたブロック画像の割合を要素として含む特徴ベクトルを求める機能と、
     前記特徴ベクトルに基づいて、前記入力画像が複数のカテゴリの何れに属するかを識別する機能と、
     を実現させるためのプログラム。
PCT/JP2011/079762 2011-02-17 2011-12-22 画像識別装置およびプログラム WO2012111236A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012547372A JP5167442B2 (ja) 2011-02-17 2011-12-22 画像識別装置およびプログラム
US13/754,026 US9031305B2 (en) 2011-02-17 2013-01-30 Image classification apparatus with first and second feature extraction units and recording medium having program recorded therein

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011032492 2011-02-17
JP2011-032492 2011-02-17

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/754,026 Continuation US9031305B2 (en) 2011-02-17 2013-01-30 Image classification apparatus with first and second feature extraction units and recording medium having program recorded therein

Publications (1)

Publication Number Publication Date
WO2012111236A1 true WO2012111236A1 (ja) 2012-08-23

Family

ID=46672185

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/079762 WO2012111236A1 (ja) 2011-02-17 2011-12-22 画像識別装置およびプログラム

Country Status (3)

Country Link
US (1) US9031305B2 (ja)
JP (1) JP5167442B2 (ja)
WO (1) WO2012111236A1 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103398927A (zh) * 2013-08-15 2013-11-20 上海市城市建设设计研究总院 河流含沙量非线性反演方法
JP2014123341A (ja) * 2012-11-26 2014-07-03 Ricoh Co Ltd 情報処理装置、情報処理方法、プログラムおよび記録媒体
JP2015065812A (ja) * 2013-09-26 2015-04-13 株式会社Screenホールディングス 培養品質評価方法
US9031305B2 (en) 2011-02-17 2015-05-12 Panasonic Healthcare Holdings Co., Ltd. Image classification apparatus with first and second feature extraction units and recording medium having program recorded therein
WO2015118850A1 (ja) * 2014-02-07 2015-08-13 国立大学法人広島大学 内視鏡画像診断支援システム
WO2015182396A1 (ja) * 2014-05-30 2015-12-03 富士フイルム株式会社 細胞評価装置および方法並びにプログラム
WO2017221860A1 (ja) * 2016-06-21 2017-12-28 日本電気株式会社 領域識別装置と領域識別方法および領域識別プログラム
WO2018055762A1 (ja) * 2016-09-26 2018-03-29 オリンパス株式会社 細胞状態計測装置
JP2018101840A (ja) * 2016-12-19 2018-06-28 Kddi株式会社 画像処理装置、画像処理方法、プログラム、及び画像処理システム
CN111147891A (zh) * 2019-12-31 2020-05-12 杭州威佩网络科技有限公司 视频画面中对象的信息的获取方法、装置及设备
JP2022000777A (ja) * 2018-09-26 2022-01-04 国立研究開発法人理化学研究所 分類装置、分類方法、プログラム、ならびに、情報記録媒体
JP7417504B2 (ja) 2020-10-23 2024-01-18 株式会社日立ソリューションズ 類似画像差分抽出装置、類似画像差分抽出方法、プログラム及び記録媒体

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103425996B (zh) * 2013-08-01 2017-08-25 华南理工大学 一种并行分布式的大规模图像识别方法
JP6071007B2 (ja) * 2013-08-22 2017-02-01 富士フイルム株式会社 観察画像撮影評価装置および方法並びにプログラム
KR102277087B1 (ko) 2014-08-21 2021-07-14 삼성전자주식회사 콘텐츠 분류 방법 및 전자 장치
CN105069457B (zh) * 2015-07-15 2020-02-11 杭州易现先进科技有限公司 图像识别方法和装置
US9704054B1 (en) * 2015-09-30 2017-07-11 Amazon Technologies, Inc. Cluster-trained machine learning for image processing
CN110705460B (zh) * 2019-09-29 2023-06-20 北京百度网讯科技有限公司 图像类别识别方法及装置
US11436852B2 (en) * 2020-07-28 2022-09-06 Intuit Inc. Document information extraction for computer manipulation
WO2023075310A1 (ko) * 2021-10-25 2023-05-04 고려대학교 산학협력단 인공지능을 이용한 세포 판별 방법 및 장치
CN117831033B (zh) * 2024-03-04 2024-05-07 南京市浦口人民医院(江苏省人民医院浦口分院) 基于图像分析的病原微生物智能提取识别方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08180176A (ja) * 1994-10-27 1996-07-12 Nec Corp 画像蓄積・管理装置、画像インデックス生成方法及び画像インデックス生成装置
JP2005063307A (ja) * 2003-08-19 2005-03-10 Fuji Photo Film Co Ltd 画像識別方法および装置、オブジェクト識別方法および装置ならびにプログラム
JP2006166939A (ja) * 2004-12-10 2006-06-29 Olympus Corp 画像処理方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6913877B1 (en) * 2000-09-11 2005-07-05 State Of Oregon Acting By And Through The State Board Of Higher Education On Behalf Of Oregon State University Methods for detecting bioactive compounds
US20020165839A1 (en) * 2001-03-14 2002-11-07 Taylor Kevin M. Segmentation and construction of segmentation classifiers
AU2003300823A1 (en) * 2002-12-06 2004-06-30 Sandia Corporation Outcome prediction and risk classification in childhood leukemia
US7711174B2 (en) * 2004-05-13 2010-05-04 The Charles Stark Draper Laboratory, Inc. Methods and systems for imaging cells
US7958063B2 (en) * 2004-11-11 2011-06-07 Trustees Of Columbia University In The City Of New York Methods and systems for identifying and localizing objects based on features of the objects that are mapped to a vector
JP4641414B2 (ja) 2004-12-07 2011-03-02 キヤノン株式会社 文書画像検索装置、文書画像検索方法、プログラム、記憶媒体
EP1842481B1 (en) * 2004-12-10 2017-02-08 Olympus Corporation Medical image processing method
JP4483629B2 (ja) 2005-03-08 2010-06-16 パナソニック株式会社 トナー、トナーの製造方法、二成分現像剤及び画像形成装置
US7756309B2 (en) * 2005-07-27 2010-07-13 Bioimagene, Inc. Method and system for storing, indexing and searching medical images using anatomical structures of interest
US8041090B2 (en) * 2005-09-10 2011-10-18 Ge Healthcare Uk Limited Method of, and apparatus and computer software for, performing image processing
US8326014B2 (en) * 2007-09-28 2012-12-04 Cytyc Corporation Methods and systems for processing biological specimens utilizing multiple wavelengths
CN101835037B (zh) * 2009-03-12 2015-02-04 索尼株式会社 对视频中的运动矢量进行可靠性分类的方法和系统
US8320655B2 (en) * 2009-10-16 2012-11-27 General Electric Company Process and system for analyzing the expression of biomarkers in cells
JP5167442B2 (ja) 2011-02-17 2013-03-21 三洋電機株式会社 画像識別装置およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08180176A (ja) * 1994-10-27 1996-07-12 Nec Corp 画像蓄積・管理装置、画像インデックス生成方法及び画像インデックス生成装置
JP2005063307A (ja) * 2003-08-19 2005-03-10 Fuji Photo Film Co Ltd 画像識別方法および装置、オブジェクト識別方法および装置ならびにプログラム
JP2006166939A (ja) * 2004-12-10 2006-06-29 Olympus Corp 画像処理方法

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9031305B2 (en) 2011-02-17 2015-05-12 Panasonic Healthcare Holdings Co., Ltd. Image classification apparatus with first and second feature extraction units and recording medium having program recorded therein
JP2014123341A (ja) * 2012-11-26 2014-07-03 Ricoh Co Ltd 情報処理装置、情報処理方法、プログラムおよび記録媒体
CN103398927A (zh) * 2013-08-15 2013-11-20 上海市城市建设设计研究总院 河流含沙量非线性反演方法
US9600874B2 (en) 2013-09-26 2017-03-21 SCREEN Holdings Co., Ltd. Method for evaluating culture quality
JP2015065812A (ja) * 2013-09-26 2015-04-13 株式会社Screenホールディングス 培養品質評価方法
WO2015118850A1 (ja) * 2014-02-07 2015-08-13 国立大学法人広島大学 内視鏡画像診断支援システム
JP2015146970A (ja) * 2014-02-07 2015-08-20 国立大学法人広島大学 内視鏡画像診断支援システム
US10062161B2 (en) 2014-02-07 2018-08-28 Hiroshima University Endoscopic image diagnosis support system for computing average values of identification probabilities of pathological types
WO2015182396A1 (ja) * 2014-05-30 2015-12-03 富士フイルム株式会社 細胞評価装置および方法並びにプログラム
JP2015223175A (ja) * 2014-05-30 2015-12-14 富士フイルム株式会社 細胞評価装置および方法並びにプログラム
US10157461B2 (en) 2014-05-30 2018-12-18 Fujifilm Corporation Cell evaluation device, cell evaluation method, and cell evaluation program
WO2017221860A1 (ja) * 2016-06-21 2017-12-28 日本電気株式会社 領域識別装置と領域識別方法および領域識別プログラム
JP7031584B2 (ja) 2016-06-21 2022-03-08 日本電気株式会社 領域識別装置と領域識別方法および領域識別プログラム
JPWO2017221860A1 (ja) * 2016-06-21 2019-04-11 日本電気株式会社 領域識別装置と領域識別方法および領域識別プログラム
WO2018055762A1 (ja) * 2016-09-26 2018-03-29 オリンパス株式会社 細胞状態計測装置
JP2018101840A (ja) * 2016-12-19 2018-06-28 Kddi株式会社 画像処理装置、画像処理方法、プログラム、及び画像処理システム
JP2022000777A (ja) * 2018-09-26 2022-01-04 国立研究開発法人理化学研究所 分類装置、分類方法、プログラム、ならびに、情報記録媒体
JP7294695B2 (ja) 2018-09-26 2023-06-20 国立研究開発法人理化学研究所 学習済モデルによるプログラム、情報記録媒体、分類装置、ならびに、分類方法
CN111147891A (zh) * 2019-12-31 2020-05-12 杭州威佩网络科技有限公司 视频画面中对象的信息的获取方法、装置及设备
JP7417504B2 (ja) 2020-10-23 2024-01-18 株式会社日立ソリューションズ 類似画像差分抽出装置、類似画像差分抽出方法、プログラム及び記録媒体

Also Published As

Publication number Publication date
US20130236081A1 (en) 2013-09-12
US9031305B2 (en) 2015-05-12
JPWO2012111236A1 (ja) 2014-07-03
JP5167442B2 (ja) 2013-03-21

Similar Documents

Publication Publication Date Title
JP5167442B2 (ja) 画像識別装置およびプログラム
CN109753885B (zh) 一种目标检测方法、装置以及行人检测方法、系统
Zou et al. Tree classification in complex forest point clouds based on deep learning
CN104268593B (zh) 一种小样本情况下多稀疏表示的人脸识别方法
CN110163239B (zh) 一种基于超像素和条件随机场的弱监督图像语义分割方法
CN105528575B (zh) 基于上下文推理的天空检测方法
CN108510516A (zh) 一种散乱点云的三维线段提取方法及系统
CN103984953A (zh) 基于多特征融合与Boosting决策森林的街景图像的语义分割方法
CN102708380B (zh) 一种基于机器视觉的室内一般物体识别方法
CN107992850B (zh) 一种室外场景三维彩色点云分类方法
CN105354593B (zh) 一种基于nmf的三维模型分类方法
CN105046272B (zh) 一种基于简洁非监督式卷积网络的图像分类方法
CN104182765A (zh) 一种互联网图像驱动的三维模型最优视图自动选择方法
Wang et al. Graph-based multiprototype competitive learning and its applications
CN108681721A (zh) 基于图像分割二维双向数据线性相关组合的人脸识别方法
CN101930537A (zh) 基于弯曲不变量相关特征的三维人脸识别方法及系统
CN110866896A (zh) 基于k-means与水平集超像素分割的图像显著性目标检测方法
CN110751027B (zh) 一种基于深度多示例学习的行人重识别方法
CN106650744A (zh) 局部形状迁移指导的图像对象共分割方法
JP2015137857A (ja) 検出制御装置、プログラム及び検出システム
CN115827995A (zh) 基于大数据分析的社交匹配方法
CN110348478B (zh) 一种基于形状分类与组合的室外点云场景中树木提取方法
Kumar et al. A hybrid cluster technique for improving the efficiency of colour image segmentation
CN104732209B (zh) 一种室内场景的识别方法及装置
CN107423695A (zh) 基于二分图的动态纹理识别方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11858747

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012547372

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11858747

Country of ref document: EP

Kind code of ref document: A1