JP2011008631A - 画像変換方法及び装置並びにパターン識別方法及び装置 - Google Patents
画像変換方法及び装置並びにパターン識別方法及び装置 Download PDFInfo
- Publication number
- JP2011008631A JP2011008631A JP2009152870A JP2009152870A JP2011008631A JP 2011008631 A JP2011008631 A JP 2011008631A JP 2009152870 A JP2009152870 A JP 2009152870A JP 2009152870 A JP2009152870 A JP 2009152870A JP 2011008631 A JP2011008631 A JP 2011008631A
- Authority
- JP
- Japan
- Prior art keywords
- class
- classes
- pattern
- image
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2137—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on criteria of topology preservation, e.g. multidimensional scaling or self-organising maps
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/54—Extraction of image or video features relating to texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
【解決手段】入力画像の画素値を変換して変換画像を生成する画像変換方法は、複数のクラスのそれぞれに分類された画素とその周囲の画素とからなる画素パターンのクラス間の相互関係を反映した値を、複数のクラスのそれぞれに対して変換値として設定し、入力画像から注目画素を順次に選択し、選択された注目画素およびその周囲の所定数の画素からなる画素パターンを、注目画素の値と当該注目画素に対して所定の相対位置にある周辺画素の値との関係に基づいて得られる近傍パターンに従って複数のクラスのいずれかに分類する。そして、注目画素の値を上記分類されたクラスに対して設定された変換値へ変換する。
【選択図】 図1
Description
つまり、LBPやCTは、明るさ等の変動に対してロバストではあるが、変換後の値に数値としての意味があまり無いか変換値の次元が高くなってしまい、その変換元となるパターンの違いを好ましく反映できなかった。
非特許文献4に記載された技術では、ベクトル量子化後の代表ベクトルにマッチしたベクトルの度数ヒストグラムを用いてパターン識別が行われる。この技術では、2つのパターンに対応するインデックス同士の差分等、インデックスを数値として扱った場合の数値間の演算からは、LBPと同様に、あまり意味のある演算結果は得られない。
(非特許文献5〜20は、「発明を実施するための最良の形態」において引用されている)
複数のクラスのそれぞれに分類された画素とその周囲の画素とからなる画素パターンのクラス間の相互関係を反映した値を、前記複数のクラスのそれぞれに対して変換値として設定する設定工程と、
前記入力画像から注目画素を順次選択する選択工程と、
選択された前記注目画素を、前記注目画素の値と前記注目画素に対して所定の相対位置にある周辺画素の値との関係に基づいて得られる近傍パターンに従って前記複数のクラスのいずれかに分類する分類工程と、
前記分類工程で前記注目画素が分類されたクラスに設定されている変換値に前記注目画素の値を変換する変換工程とを有する。
(第1実施形態)
まず、第1実施形態の概要を説明する。図1、図4に示される本実施形態の画像変換方法では、まず、画像入力部10により、入力画像の注目画素を順次選択する(ステップ40、41)。そして、近傍パターン抽出部12により、選択された注目画素の位置に対して所定の相対位置にある周辺画素の値に基づいて近傍パターンを取得する(ステップ42)。上記の周辺画素としては、図3に示されるような注目画素を中心とした3×3画素パターンの周囲の8画素を用いることができる。
まず、画像入力部10において、縦横20×20画素の、人物の顔を切り出したグレースケール画像(以下、単に入力画像とする)を入力する(ステップ40)。
次に、注目画素選択部11において、入力画像の左上から、ラスタスキャン的に、順次、注目画素を選択していく。ただし、後の近傍画素選択部12で注目画素の8近傍の画素値を用いるため、注目画素には8近傍の画素が存在する必要があるため、入力画像の上下左右の端、1画素分を除いた場所から、順次、注目画素を選択していく(ステップ41)。
続いて、近傍パターン抽出部12では、注目画素選択部11で選択した注目画素を中心とする、3×3画素のパターンを抽出する(ステップ42)。
上記処理により、注目画素選択部11で選択した注目画素に対して、2次元ベクトル値である変換値が変換画像保持部16に記録される。このような変換値を18×18画素分求める。そのため、選択していない画素があるならば、注目画素選択処理に戻り、全画素を処理したならば次の処理に進む(ステップ46)。
続いて、クラス別パターン記録部74において、クラス分類結果に基づいて、抽出した3×3画素パターンを、それぞれの画素値を左上からラスタスキャン的に並べた9個の数値として、クラス別パターン群データベース76に記録する(ステップ84)。
上記ステップ81〜84までの処理を、入力した1枚の画像に対し、注目画素として選択すべき18×18画素分実行する。そのため、選択していない画素があるならば、注目画素選択処理に戻り、全画素の処理を行ったならば次の処理に進む(ステップ85)。
より具体的には、例えば、クラスiとクラスj(i≠j)のクラスター距離は、以下のような手順により求まる。まず、クラスiパターン群76−iとクラスjパターン群76−jとのそれぞれに記録されている全ての3×3画素のパターンの全ての組み合わせの距離を求める。ここで求める各パターン間の距離は、どのような距離尺度でも構わないが、本実施形態では、ユークリッド距離を用いる。そして、求めた距離の平均を求め、これをクラスiとクラスj間のクラスター距離とする。クラスター分析処理部77では、このようなクラスター距離を、全てのクラスの組み合わせに対して求める(ステップ87)。
図5に、第1実施形態における、パターン識別方法の処理ブロック図を示す。また、図6は、第1実施形態における、パターン識別方法の処理フローを示した図である。
まず、画像入力部50において、縦横20×20画素の、人物の顔を切り出したグレースケール画像(以下、簡単に、入力画像とする)を入力する(ステップ60)。
第2実施形態では、第1実施形態で用いた、各クラスに対応した変換値の求め方を変形した場合の例を示す。
上記複数のクラス間の相互関係として、各クラスに対して設定された代表パターンの間の距離または類似度を用いることができる。例えば、上述した大小比較結果に基づく8個の0または1の数値列を各クラスの代表パターンとし、それらの距離または類似度を用いることができる。以下では、大小比較の結果を示す数値列を用いた場合が説明される。
まず、全256個の、各クラスに対応する8個の{0、1}からなるパターンを用い、各クラス間の距離を算出する。この各クラスに対応する8個の{0、1}のパターンは、第1実施形態で示したものと同様である。このパターンのような、ビット列間の距離として、ハミング距離を用いた場合、図3の(a)から(c)までに示したような、3つのパターン間の距離が、全て同一の2となってしまう。先にも述べたように、図3の(a)のパターンから見ると、図3の(c)のパターンとの関係は、図3の(b)のパターンとの関係より離れているのが好ましいと考えられる。そこで本実施形態では、通常のハミング距離を、ビットの空間的な配置関係を反映できるように改造した改造ハミング距離を用い、8個の{0、1}からなるパターン間、即ち、クラス間の距離を算出する。
2つのパターンの一方から見たときに、相手のパターンの隣接する位置のビットが同一なら距離を0.125増加させる。ここで、1番左の数値と1番右の数値は連結されていると考える。隣接する位置にも同一のビットが無い場合は、相手のパターンの更にもうひとつ隣の位置のビットが同一ならば、距離を0.25増加させる。もし、もう1つ隣の位置にも同一のビットが無ければ、距離を0.5増加させる。これを、2つのパターンそれぞれにおいて、8個のビット全てに対して行い、距離の総和を改造ハミング距離とする。
なお、上記の改造ハミング距離は、距離の公理の内、三角不等式を満たさない場合がある。三角不等式を満たさなくても、大きな問題は生じないが、本実施形態では、各クラス間の距離が三角不等式を満たすように、Floyd−Warshall法を用い、求めたクラス間距離を修正する。
最後に、求めた各クラスに対応する2次元の座標値を外部に出力する。ここで出力した各クラスに対応する2次元座標値が、第1実施形態同様、クラス対応変換値データベース15に保持され、画像変換の際に、各クラスに対応する変換値として用いられる。
第3実施形態では、第1実施形態における各処理部での処理の内容を変形した場合の例を示す。また、第1実施形態と同様に、変換後の画像が何れの人物の顔画像であるかを識別する、パターン識別方法の例も合わせて示す。
本実施形態の処理部の構成は、図1に示した、第1実施形態の構成と同様であり、処理のフローも、図4に示したものと同様である。ただし、各処理部における処理の内容が、多少異なる。そこで、この図1及び図4を用い、処理の内容が、第1実施形態と異なる部分を説明し、それ以外の部分は説明を省略する。
次いで、注目画素選択部11において、入力画像から注目画素を選択する(ステップ41)。ここでも、入力画像の左上から順次注目画素を選択していけば良い。ただし、第1実施形態では、注目画素の8近傍の画素値を用いるため、入力画像の上下左右の端、1画素分を除いた場所から注目画素を選択した。これに対し、本実施形態では、注目画素から上下左右に3画素離れた画素値を用いるため、入力画素の上下左右の端、3画素分を除いた場所から、順次、注目画素を選択していく。本実施形態では、入力画像が20×20画素であるので、14×14画素分を選択する。
条件1.領域の平均値>注目画素の画素値×(1+所定割合)
条件2.領域の平均値<注目画素の画素値×(1−所定割合)
条件3.上記、条件1、2以外
まず、図11の(a)の領域111に対応する領域は、図11の(b)の領域121である。図11の(c)を参照すると、この領域内の2つの画素値は、253と225であるので、この領域の平均値は、(253+225)/2=239である。ここで、所定割合を0.1とすると、注目画素の画素値×(1+所定割合)=164×(1+0.1)=180.4であるので、この領域については、条件1という判定になり、対応する数値“2”となる。同様に、領域112に対応する領域122は、条件2という判定になる。したがって、領域122に対応する数値は“0”となり、領域123と領域124に対応する数値は、それぞれ“2”と“1”である。このため、図11の(b)に示したパターンに対応する数値列は、“2021”となる。
上記処理により、3次元ベクトル値が、選択した注目画素に対応する変換値として記録される。このような変換値を14×14画素分求めるため、未選択の画素があるならば、注目画素選択部11での処理に戻り、14×14画素の全てを選択して処理を行ったならば次の処理に進む(ステップ46)。
次の、注目画素選択部131からクラス分類処理部133は、第1実施形態における注目画素選択部11からクラス分類処理部13までと同等である。つまり、入力した顔画像から注目画素を選択して、注目画素周辺の4領域の平均値を抽出し、このパターンを分類する(ステップ141〜143)。
・n番目の画像の、位置(s、t)から抽出した5×5画素のパターンx(n、(s、t))と、
・m番目の画像の、位置(u、v)から抽出した5×5画素のパターンy(m、(u、v))と、
の距離d’(x(n、(s、t))、y(m、(u、v)))を、以下の式1を用いて求める。
本実施形態のパターン識別方法における処理部の構成も、図5に示した、第1実施形態と同様であり、処理のフローも、図6に示したものと同様である。そこで、本実施形態のパターン識別方法の説明においては、この図5、及び図6を用い、各処理部における処理の内容が、第1実施形態と異なる部分のみ説明する。
次に、画像変換部51で入力画像を変換する。本実施形態では、注目画素は14×14画素分であり、各注目画素に対応する変換値は3次元ベクトル値であるため、3次元ベクトル値を14×14画素分並べた変換画像が得られる(ステップ61)。
最後に、識別結果出力部55において、探索結果に基づいて、入力画像がいずれの人物の画像であるのかを出力する(ステップ64)。ここでも、第1実施形態と同様に、最近傍探索部53での処理により得られた、登録データベース54の内、最もユークリッド距離が小さかったデータに対応するラベルと、その最小の距離と所定の閾値とに基づいて、最終的な判定を行う。そして、その結果を識別結果として外部に出力する。
第4実施形態では、第1から第3実施形態とは異なる方法で、画像変換を行う場合の例を示す。また、第1から第3実施形態と同様に、人物の顔を切り出したグレースケール画像を変換し、その変換後の画像が何れの人物の顔画像であるかを識別する、パターン識別方法の例も合わせて示す。
このようなインデックスを、第1実施形態と同様に、18×18画素分、全てにおいて求めるため、未選択画素があるならば、注目画素選択処理に戻り、全画素を選択して処理を行ったならば次の処理に進む(ステップ168)。
まず、画像入力部170において、画像データベース175に保持されている多数のグレースケール画像の中から、1枚の画像を選択して入力する(ステップ180)。第1及び第3実施形態においては、この画像入力の際に、サイズや回転、明るさ・コントラストの正規化を行った、縦横20×20画素の、様々な人物について顔を切り出したグレースケール画像を入力した。これに対し、本実施形態では、人物の顔画像に限らず、明るさ等の正規化も行っていない任意のグレースケール画像を入力する。画像のサイズも任意ではあるが、本実施形態では、640×480画素の画像を入力画像として用いる。このように、任意のグレースケール画像を用いることで、後の近傍パターン抽出部172において、顔画像に存在するようなパターンに限定されず、多種多様なパターンを抽出することができる。このように、多種多様なパターンを利用して得られる、各クラスに対応するインデックスは、多様なパターンを表現するのに好適となる。したがって、顔画像以外を用いる場合(例えば、画像から車両の検出を行う等の場合)でも、そのまま本手法を流用できる。なお、第1及び第3実施形態のように、顔画像からパターンを抽出しても顔画像以外にも流用可能ではあるが、顔画像に多く存在するパターンに特化されてしまう傾向がある。また、第1及び第3実施形態では、明るさ等の正規化を行わないと、パターン間のユークリッド距離算出の際に問題が発生するため、予め正規化を行うようにした。これに対し、本実施形態では、明るさやコントラストの変動に不変な距離尺度を用いる(詳細は後述)ので、特に明るさ等の正規化を行っておく必要は無い。
以上で、SOM生成処理部177での処理(ステップ187)が終了となり、クラス対応インデックス決定部178における処理に進む。
クラス対応インデックス決定部178では、生成したSOMを元に、各クラスに対応するインデックスを決定する。先にも述べた通り、本実施形態では、1つのクラスに複数種類の値が対応する場合がある。そのような場合、このクラス対応インデックス決定部178では、複数種類の値それぞれに対応するテンプレート(インデックス決定部154で利用する3×3画素=9次元ベクトル)を求める処理も行う。
まずステップ200で、生成したSOMを複数の領域に分割する。ここでの各領域は同じサイズの矩形領域であるが、領域のサイズを位置ごとに変えたり(例えば、SOMの中心部分はサイズを小さくする等)、矩形ではなく六角形等その他の形状を用いても構わない。本実施形態では、生成したSOMを、縦横5×5=25個の正方形の領域に分割する。本実施形態のSOMは100×100個のニューロンで構成されているので、20×20=400個のニューロン分の領域が、分割された1つの領域になる。ここで、分割した各領域の、上からi番目、左からj番目の領域を、(i、j)の領域と記載する。
続いて、ステップ201で、クラス0からクラス255までを順に1つずつ選択する。選択する順は問わないので、ここではクラス0から順に選択していけば良い。
クラス一致数が最大である領域が1つであった場合、選択したクラスは対応するインデックスが1種類であるとし、クラス一致数が最大であった領域の位置(i、j)をこのクラスに対応するインデックスとする(ステップ205)。これで、選択した1つのクラスに対応するインデックスが決まり、この1つのクラスに対する処理が終了となる。そして、全てのクラスを選択していないならば、クラス選択ステップ201に戻り、次のクラスを選択し、全てのクラスを選択して処理を行ったならば、クラス対応インデックス決定部178での処理が終了となる(ステップ2012)。
続いて、ステップ204−2で、ステップ204−1と同様に、各領域のクラス一致数の内、最大の値であるものが1つであるか否かにより処理が分岐する。もし、ここでのクラス一致数が最大の値であるものが1つであるならば、ステップ205に進み、ここでもクラス一致数が最大の値のものが複数あるならば、ステップ208に進む。
最後に、クラス一致数が全ての領域において0であり、ステップ203において、ステップ2010に進んだ場合について説明する。
・領域212−11:0個
・領域212−21:1個
・領域212−31:0個
・領域212−12:0個
・領域212−22:5個・・・最大
・領域212−32:1個
・領域212−13:0個
・領域212−23:3個
・領域212−33:0個
領域212−11:58回
領域212−21:132回
領域212−31:98回
領域212−12:263回・・・最大
領域212−22:263回・・・最大
領域212−32:74回
領域212−13:82回
領域212−23:30回
領域212−33:0回
[クラス]:[対応するインデックス]
・クラス0:(2、2)
・クラス1:(1、3)
・クラス2:(1、2)
・クラス3:(3、2)、(3、3)
・クラス4:(1、2)、(2、2)
・クラス5:(1、3)
・クラス6:(1、1)
・クラス7:(2、3)、(3、3)
・クラス8:(3、1)
・クラス9:(3、2)
図22に、第4実施形態における、パターン識別方法の処理ブロック図を示す。また、図23は、第4実施形態における、パターン識別方法の処理フローを示した図である。
次に、画像変換部221で、入力画像を、上記画像変換方法により変換する(ステップ231)。本実施形態では、注目画素として選択される画素は、18×18画素分であり、各注目画素に対応するのは、2個の1から5までの整数値からなる2次元ヒストグラムのインデックスである。そのため、ここでは、2個の1から5までの整数値からなるインデックスを、18×18画素分並べた変換画像が得られる。
そして、求めた類似度が今までに求めた類似度より大きいならば、求めた類似度と、その時の、登録データベース224から選択した1セットのヒストグラム群に対応する人物のラベルにより、類似データを更新する(ステップ2332)。これらの処理を、登録データベース224に記録されている全データついて行う。そのため、ステップ2330において、選択していない登録データがあるならばステップ2330に戻り、全ての登録データを選択して処理を行ったならば次の処理に進む(ステップ2334)。
第5実施形態では、第1から第4実施形態で示した画像変換方法の変形として、本発明をベクトル量子化の技術に適用した場合の例を示す。本実施形態でも、第1から第4実施形態と同様に、人物の顔を切り出したグレースケール画像を変換し、その変換後の画像が何れの人物の顔画像であるかを識別する、パターン識別方法の例を示す。
まず、上記4次元の部分空間の、4つの正規直交基底を、第4実施形態と同様に、非特許文献13のGram−Schmidtの直交化手法を用いて求める。但し、このとき、基底u1、u2、u3を、任意のパターンにおいて共通である変動方向、つまり、ベクトル1、h、v方向の正規基底とする。つまり、基底u1を、1/|1|とし、基底u2をh、基底u3をvとする。これら3つの基底は、互いに直交することは明らかであり、また、hとvは、既に正規化されているので、正規直交基底としてこのまま用いることにする。
上記処理により、選択した注目画素に対して2次元ベクトル値である変換値が得られ、変換画像保持部266に記録される。このような変換値を、第1実施形態と同様に、18×18画素分求めるため、未選択の画素があるならば、注目画素選択部261での処理に戻り、18×18画素全てを選択して処理したならば次の処理に進むステップ46)。
このクラスタリング後の複数のクラスターが各クラスに対応する。それぞれのクラスには、前述の通り1つの代表ベクトルが対応するが、本実施形態では、それぞれのクラスターに属する直交基底パターンの平均を直交基底化したものを、代表ベクトルとする。
本実施形態のパターン識別方法における処理部の構成は、図5に示した第1実施形態における処理部の構成と同様であり、処理のフローも図6に示したものと同様である。各処理部における処理の内容も、第1実施形態とほとんど同様であるので、簡単に説明する。
次に、画像変換部51で、入力画像を、上記画像変換方法により変換し、、2次元ベクトル値を、18×18画素分並べた変換画像を得る(ステップ61)。
続いて、次元削減処理部52において、変換画像を18×18×2=648次元のベクトルとみなし、この次元を削減する。
次の最近傍探索部53で、登録データベース54に保持された登録者のデータの内、次元削減されたデータに最も近いデータを探索する(ステップ630〜634)。
最後に、識別結果出力部55において、探索結果に基づいて、入力画像がいずれの人物の画像であるのかを出力する(ステップ64)。ここでも、第1実施形態と同様に、探索により得られたユークリッド距離が最小のデータに対応するラベルと、その距離に基づいて、最終的な判定を行い、その結果を外部に出力する。
また、ベクトル量子化に適用した場合も、特に2次元の画像データに限られるものではないので、ボリュームデータや、動画データに対しても、適用可能である。
Claims (24)
- 設定手段が、複数のクラスのそれぞれに分類された画素とその周囲の画素とからなる画素パターンのクラス間の相互関係を反映した値を、前記複数のクラスのそれぞれに対して変換値として設定する設定工程と、
選択手段が、入力画像から注目画素を順次選択する選択工程と、
分類手段が、選択された前記注目画素を、前記注目画素の値と前記注目画素に対して所定の相対位置にある周辺画素の値との関係に基づいて得られる近傍パターンに従って前記複数のクラスのいずれかに分類する分類工程と、
変換手段が、前記分類工程で前記注目画素が分類されたクラスに設定されている変換値に前記注目画素の値を変換する変換工程とを有することを特徴とする画像変換方法。 - 前記周辺画素は、前記注目画素に隣接した複数の画素であることを特徴とする請求項1に記載の画像変換方法。
- 前記周辺画素は、当該注目画素から所定の距離だけ離れた位置にある複数の画素であることを特徴とする請求項1に記載の画像変換方法。
- 前記分類工程では、前記注目画素と前記周辺画素との画素値の大小比較結果に基づいて前記近傍パターンを取得することを特徴とする請求項1に記載の画像変換方法。
- 前記設定工程では、前記複数のクラスのそれぞれに分類された前記大小比較結果を示す近傍パターンの間の距離または類似度が保存されるように前記複数のクラスの各々の変換値を設定することを特徴とする請求項4に記載の画像変換方法。
- 前記分類工程では、前記近傍パターンと、前記複数のクラスそれぞれの代表パターンとの距離または類似度を求め、当該距離または類似度に基づいて前記注目画素を前記複数のクラスのいずれかに分類することを特徴とする請求項1に記載の画像変換方法。
- 前記設定工程では、前記複数のクラスそれぞれの前記代表パターンの間の距離または類似度が保存されるように前記変換値を設定することを特徴とする請求項6に記載の画像変換方法。
- 前記代表パターンは、予め用意した前記複数のクラスのそれぞれに分類された複数のパターンサンプル群をベクトル量子化することにより得られた代表ベクトルであることを特徴とする請求項7に記載の画像変換方法。
- 前記変換値はベクトル値であり、該ベクトル値は前記代表ベクトルよりも次元が低いことを特徴とする請求項8に記載の画像変換方法。
- 前記設定工程では、前記複数のクラスのそれぞれに分類された画素パターンに基づいて得られるクラス間の距離または類似度が保存されるように前記複数のクラスの各々の変換値を決定することを特徴とする請求項1に記載の画像変換方法。
- 前記設定工程では、前記複数のクラスのそれぞれに属するクラス別の画素パターンのサンプル群に対してクラスター分析を適用することにより得られた当該複数のクラス間のクラスター距離またはクラスター間の類似度が保存されるように前記複数のクラスの各々の変換値を設定することを特徴とする請求項10に記載の画像変換方法。
- 前記設定工程では、クラス別の前記サンプル群における各画素パターンの画素値を用いて前記クラスター分析を行なうことを特徴とする請求項11に記載の画像変換方法。
- 前記設定工程では、クラス別の前記サンプル群における各画素パターンの画素値と、各画素パターンが抽出された元の画像を特定する情報を含む付随情報とに基づいて前記複数のクラスの各々の変換値を決定することを特徴とする請求項11に記載の画像変換方法。
- 前記付随情報が、各画素パターンが抽出された元の画像における空間配置位置を示す情報を更に含むことを特徴とする請求項13に記載の画像変換方法。
- 前記設定工程では、前記クラス間の距離を用いて、前記複数のクラスの各クラスを少なくとも1次元以上の空間にマッピングしたマップを生成し、前記マップ上の各クラスに対応する座標値を当該各クラスに対する変換値とすることを特徴とする請求項10に記載の画像変換方法。
- 前記マッピングは、多次元尺度構成法またはIsomapを適用することにより行われることを特徴とする請求項15に記載の画像変換方法。
- 前記設定工程では、前記複数のクラスの各々について用意した画素パターンのサンプル群を用いて自己組織化マップを生成し、前記自己組織化マップに基づいて前記変換値を設定することを特徴とする請求項1乃至5のいずれか1項に記載の画像変換方法。
- 前記設定工程では、
前記自己組織化マップにおける各ニューロンの重みベクトルに基づき、当該各ニューロンを前記複数のクラスのいずれかへ分類し、
前記複数のクラスの各々において各クラスに分類されたニューロンの重心位置座標を求め、
前記複数のクラスの各々について求めた前記重心位置座標を前記複数のクラスの各々の変換値とすることを特徴とする請求項17に記載の画像変換方法。 - 前記設定工程では、
前記自己組織化マップにおける各ニューロンの重みベクトルに基づき、当該各ニューロンを、前記複数のクラスのいずれかへ分類し、
前記複数のクラスの各々において、前記自己組織化マップにおいて最大のクラスターを検出し、
前記複数のクラスの各々について求めた前記最大のクラスターの重心位置座標を、前記複数のクラスの各々の変換値とすることを特徴とする請求項17に記載の画像変換方法。 - 前記設定工程では、
生成した前記自己組織化マップを複数の領域に分割し、
前記分割により得られた各領域を、前記自己組織化マップと同じ次元数を有するヒストグラムのビンとし、前記自己組織化マップにおける前記複数の領域の各々における前記複数のクラスのマッピング状況に基づき、各クラスに対応するビンを決定し、
前記各クラスに対応するヒストグラムのビンの位置を示すインデックスを、前記複数のクラスのそれぞれの変換値とすることを特徴とする請求項17に記載の画像変換方法。 - 請求項1乃至20のいずれか1項に記載された画像変換方法により、入力画像の各画素が変換値に置換された変換画像を取得する取得工程と、
前記取得工程で取得した変換画像を用いて前記入力画像のパターンを識別する識別工程とを有することを特徴とするパターン識別方法。 - 複数のクラスのそれぞれに分類された画素とその周囲の画素とからなる画素パターンのクラス間の相互関係を反映した値を、前記複数のクラスのそれぞれに対して変換値として設定する設定手段と、
入力画像から注目画素を順次選択する選択手段と、
選択された前記注目画素を、前記注目画素の値と前記注目画素に対して所定の相対位置にある周辺画素の値との関係に基づいて得られる近傍パターンに従ってあらかじめ定義された複数のクラスのいずれかに分類する分類手段と、
前記分類手段により前記注目画素が分類されたクラスに付与されている変換値に前記注目画素の値を変換する変換手段とを備えることを特徴とする画像変換装置。 - 請求項22に記載された画像変換装置と、
前記画像変換装置から、入力画像の各画素が変換値に置換された変換画像を取得する取得手段と、
前記取得手段で取得した変換画像を用いて前記入力画像のパターンを識別する識別手段とを備えることを特徴とするパターン識別装置。 - 請求項1乃至20のいずれか1項に記載された画像変換方法または請求項21に記載されたパターン識別方法をコンピュータに実行させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009152870A JP5254893B2 (ja) | 2009-06-26 | 2009-06-26 | 画像変換方法及び装置並びにパターン識別方法及び装置 |
US12/819,003 US8340439B2 (en) | 2009-06-26 | 2010-06-18 | Image conversion method and apparatus, and pattern identification method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009152870A JP5254893B2 (ja) | 2009-06-26 | 2009-06-26 | 画像変換方法及び装置並びにパターン識別方法及び装置 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2011008631A true JP2011008631A (ja) | 2011-01-13 |
JP2011008631A5 JP2011008631A5 (ja) | 2012-08-09 |
JP5254893B2 JP5254893B2 (ja) | 2013-08-07 |
Family
ID=43380801
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009152870A Active JP5254893B2 (ja) | 2009-06-26 | 2009-06-26 | 画像変換方法及び装置並びにパターン識別方法及び装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US8340439B2 (ja) |
JP (1) | JP5254893B2 (ja) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013021580A1 (ja) * | 2011-08-11 | 2013-02-14 | パナソニック株式会社 | 特徴抽出装置、特徴抽出プログラム、および画像処理装置 |
JP2015041293A (ja) * | 2013-08-22 | 2015-03-02 | キヤノン株式会社 | 画像認識装置および画像認識方法 |
JP2019096334A (ja) * | 2013-06-28 | 2019-06-20 | ディー−ウェイブ システムズ インコーポレイテッド | データの量子処理のためのシステムおよび方法 |
WO2020054521A1 (ja) * | 2018-09-13 | 2020-03-19 | Soinn株式会社 | 情報処理装置、情報処理方法及びプログラム |
US11386346B2 (en) | 2018-07-10 | 2022-07-12 | D-Wave Systems Inc. | Systems and methods for quantum bayesian networks |
US11461644B2 (en) | 2018-11-15 | 2022-10-04 | D-Wave Systems Inc. | Systems and methods for semantic segmentation |
US11468293B2 (en) | 2018-12-14 | 2022-10-11 | D-Wave Systems Inc. | Simulating and post-processing using a generative adversarial network |
US11481669B2 (en) | 2016-09-26 | 2022-10-25 | D-Wave Systems Inc. | Systems, methods and apparatus for sampling from a sampling server |
US11531852B2 (en) | 2016-11-28 | 2022-12-20 | D-Wave Systems Inc. | Machine learning systems and methods for training with noisy labels |
US11586915B2 (en) | 2017-12-14 | 2023-02-21 | D-Wave Systems Inc. | Systems and methods for collaborative filtering with variational autoencoders |
US11625612B2 (en) | 2019-02-12 | 2023-04-11 | D-Wave Systems Inc. | Systems and methods for domain adaptation |
US11900264B2 (en) | 2019-02-08 | 2024-02-13 | D-Wave Systems Inc. | Systems and methods for hybrid quantum-classical computing |
Families Citing this family (81)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8866920B2 (en) | 2008-05-20 | 2014-10-21 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
KR101588877B1 (ko) | 2008-05-20 | 2016-01-26 | 펠리칸 이매징 코포레이션 | 이종 이미저를 구비한 모놀리식 카메라 어레이를 이용한 이미지의 캡처링 및 처리 |
US11792538B2 (en) | 2008-05-20 | 2023-10-17 | Adeia Imaging Llc | Capturing and processing of images including occlusions focused on an image sensor by a lens stack array |
JP5538967B2 (ja) | 2009-06-18 | 2014-07-02 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
EP2502115A4 (en) | 2009-11-20 | 2013-11-06 | Pelican Imaging Corp | RECORDING AND PROCESSING IMAGES THROUGH A MONOLITHIC CAMERA ARRAY WITH HETEROGENIC IMAGE CONVERTER |
JP5588165B2 (ja) * | 2009-12-24 | 2014-09-10 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
JP5554984B2 (ja) * | 2009-12-24 | 2014-07-23 | キヤノン株式会社 | パターン認識方法およびパターン認識装置 |
CN103004180A (zh) | 2010-05-12 | 2013-03-27 | 派力肯影像公司 | 成像器阵列和阵列照相机的架构 |
JP2012038106A (ja) | 2010-08-06 | 2012-02-23 | Canon Inc | 情報処理装置、情報処理方法、およびプログラム |
US8768944B2 (en) | 2010-08-18 | 2014-07-01 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
JP5675214B2 (ja) | 2010-08-18 | 2015-02-25 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
US8878950B2 (en) | 2010-12-14 | 2014-11-04 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using super-resolution processes |
CN103765864B (zh) | 2011-05-11 | 2017-07-04 | 派力肯影像公司 | 用于传送和接收阵列照相机图像数据的系统和方法 |
JP2013005410A (ja) * | 2011-06-21 | 2013-01-07 | Sony Corp | 画像フォーマット判別装置、画像フォーマット判別方法、画像再生装置および電子機器 |
JP5848551B2 (ja) | 2011-08-26 | 2016-01-27 | キヤノン株式会社 | 学習装置、学習装置の制御方法、検出装置、検出装置の制御方法、およびプログラム |
JP5896661B2 (ja) | 2011-09-14 | 2016-03-30 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法、およびプログラム |
WO2013043751A1 (en) | 2011-09-19 | 2013-03-28 | Pelican Imaging Corporation | Systems and methods for controlling aliasing in images captured by an array camera for use in super resolution processing using pixel apertures |
WO2013049699A1 (en) | 2011-09-28 | 2013-04-04 | Pelican Imaging Corporation | Systems and methods for encoding and decoding light field image files |
US9661310B2 (en) * | 2011-11-28 | 2017-05-23 | ArcSoft Hanzhou Co., Ltd. | Image depth recovering method and stereo image fetching device thereof |
CN103930900B (zh) * | 2011-11-29 | 2017-06-23 | 诺基亚技术有限公司 | 用于对象的分类的方法、装置 |
JP5886616B2 (ja) | 2011-11-30 | 2016-03-16 | キヤノン株式会社 | 物体検出装置、物体検出装置の制御方法、およびプログラム |
JP5806606B2 (ja) | 2011-12-01 | 2015-11-10 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
JP5865043B2 (ja) | 2011-12-06 | 2016-02-17 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
EP2817955B1 (en) | 2012-02-21 | 2018-04-11 | FotoNation Cayman Limited | Systems and methods for the manipulation of captured light field image data |
US8792713B2 (en) * | 2012-04-26 | 2014-07-29 | Sony Corporation | Deriving multidimensional histogram from multiple parallel-processed one-dimensional histograms to find histogram characteristics exactly with O(1) complexity for noise reduction and artistic effects in video |
EP2856215A1 (en) * | 2012-05-31 | 2015-04-08 | Analogic Corporation | Segmentation of sheet objects from image generated using radiation imaging modality |
EP2873028A4 (en) | 2012-06-28 | 2016-05-25 | Pelican Imaging Corp | SYSTEMS AND METHOD FOR DETECTING DEFECTIVE CAMERA ARRAYS, OPTICAL ARRAYS AND SENSORS |
US20140002674A1 (en) | 2012-06-30 | 2014-01-02 | Pelican Imaging Corporation | Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors |
WO2014021448A1 (ja) * | 2012-08-03 | 2014-02-06 | 日本電気株式会社 | 生産物管理方法、生産物管理装置、生産物管理システム、及びプログラム |
CA2881131A1 (en) | 2012-08-21 | 2014-02-27 | Pelican Imaging Corporation | Systems and methods for parallax detection and correction in images captured using array cameras |
WO2014032020A2 (en) | 2012-08-23 | 2014-02-27 | Pelican Imaging Corporation | Feature based high resolution motion estimation from low resolution images captured using an array source |
EP4307659A1 (en) | 2012-09-28 | 2024-01-17 | Adeia Imaging LLC | Generating images from light fields utilizing virtual viewpoints |
CN103077378B (zh) * | 2012-12-24 | 2016-08-31 | 西安电子科技大学 | 基于扩展八邻域局部纹理特征的非接触式人脸识别算法和签到系统 |
KR101716646B1 (ko) * | 2013-01-10 | 2017-03-15 | 한국전자통신연구원 | 국부이진패턴을 이용한 객체 검출 인식 방법 및 장치 |
WO2014130849A1 (en) | 2013-02-21 | 2014-08-28 | Pelican Imaging Corporation | Generating compressed light field representation data |
WO2014138695A1 (en) | 2013-03-08 | 2014-09-12 | Pelican Imaging Corporation | Systems and methods for measuring scene information while capturing images using array cameras |
US8866912B2 (en) | 2013-03-10 | 2014-10-21 | Pelican Imaging Corporation | System and methods for calibration of an array camera using a single captured image |
WO2014164550A2 (en) | 2013-03-13 | 2014-10-09 | Pelican Imaging Corporation | System and methods for calibration of an array camera |
US9888194B2 (en) | 2013-03-13 | 2018-02-06 | Fotonation Cayman Limited | Array camera architecture implementing quantum film image sensors |
WO2014159779A1 (en) | 2013-03-14 | 2014-10-02 | Pelican Imaging Corporation | Systems and methods for reducing motion blur in images or video in ultra low light with array cameras |
US9497429B2 (en) | 2013-03-15 | 2016-11-15 | Pelican Imaging Corporation | Extended color processing on pelican array cameras |
WO2014145856A1 (en) | 2013-03-15 | 2014-09-18 | Pelican Imaging Corporation | Systems and methods for stereo imaging with camera arrays |
US10122993B2 (en) | 2013-03-15 | 2018-11-06 | Fotonation Limited | Autofocus system for a conventional camera that uses depth information from an array camera |
US9445003B1 (en) | 2013-03-15 | 2016-09-13 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information |
KR20150003573A (ko) * | 2013-07-01 | 2015-01-09 | 한국전자통신연구원 | 영상 패턴 검출 방법 및 그 장치 |
CN103455803B (zh) * | 2013-09-04 | 2017-01-18 | 哈尔滨工业大学 | 基于迭代随机抽样一致算法的非接触式掌纹识别方法 |
WO2015048694A2 (en) | 2013-09-27 | 2015-04-02 | Pelican Imaging Corporation | Systems and methods for depth-assisted perspective distortion correction |
WO2015070105A1 (en) | 2013-11-07 | 2015-05-14 | Pelican Imaging Corporation | Methods of manufacturing array camera modules incorporating independently aligned lens stacks |
WO2015074078A1 (en) | 2013-11-18 | 2015-05-21 | Pelican Imaging Corporation | Estimating depth from projected texture using camera arrays |
EP3075140B1 (en) | 2013-11-26 | 2018-06-13 | FotoNation Cayman Limited | Array camera configurations incorporating multiple constituent array cameras |
CN103679708B (zh) * | 2013-11-28 | 2016-06-08 | 河海大学 | 一种环形lbp纹理生成方法 |
WO2015134996A1 (en) | 2014-03-07 | 2015-09-11 | Pelican Imaging Corporation | System and methods for depth regularization and semiautomatic interactive matting using rgb-d images |
JP6448204B2 (ja) * | 2014-03-28 | 2019-01-09 | キヤノン株式会社 | 物体検出装置、物体検出方法及びプログラム |
CN107077743B (zh) | 2014-09-29 | 2021-03-23 | 快图有限公司 | 用于阵列相机的动态校准的系统和方法 |
JP2018529298A (ja) * | 2015-07-23 | 2018-10-04 | トヨタ モーター ヨーロッパ | 環境コンテキストにおいて人間のような制御行動をシミュレーションするためのシステム及びコンピュータに基づく方法。 |
CN105095912B (zh) * | 2015-08-06 | 2019-02-12 | 北京奇虎科技有限公司 | 数据聚类的方法及装置 |
US10129495B2 (en) * | 2016-03-25 | 2018-11-13 | Qualcomm Incorporated | Apparatus and method for generating local binary patterns (LBPS) |
JP6815741B2 (ja) * | 2016-03-30 | 2021-01-20 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
JP6708043B2 (ja) * | 2016-07-28 | 2020-06-10 | 富士通株式会社 | データ検索プログラム、データ検索方法およびデータ検索装置 |
CN107294947A (zh) * | 2016-08-31 | 2017-10-24 | 张梅 | 基于物联网的停车信息公共服务平台 |
JP6789762B2 (ja) * | 2016-11-02 | 2020-11-25 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP6926838B2 (ja) * | 2017-08-31 | 2021-08-25 | 富士通株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP6889865B2 (ja) * | 2017-09-22 | 2021-06-18 | オムロン株式会社 | テンプレート作成装置、物体認識処理装置、テンプレート作成方法及びプログラム |
CN107894986B (zh) * | 2017-09-26 | 2021-03-30 | 北京纳人网络科技有限公司 | 一种基于向量化的企业关系划分方法、服务器以及客户端 |
WO2019092041A1 (en) * | 2017-11-08 | 2019-05-16 | AVAST Software s.r.o. | Malware classification of executable files by convolutional networks |
JP6968342B2 (ja) * | 2017-12-25 | 2021-11-17 | オムロン株式会社 | 物体認識処理装置、物体認識処理方法及びプログラム |
KR101893557B1 (ko) * | 2017-12-29 | 2018-08-30 | (주)제이엘케이인스펙션 | 영상 처리 장치 및 방법 |
TWI684918B (zh) * | 2018-06-08 | 2020-02-11 | 和碩聯合科技股份有限公司 | 臉部辨識系統以及加強臉部辨識方法 |
EP3821267A4 (en) | 2019-09-17 | 2022-04-13 | Boston Polarimetrics, Inc. | SURFACE MODELING SYSTEMS AND METHODS USING POLARIZATION MARKERS |
EP4042101A4 (en) | 2019-10-07 | 2023-11-22 | Boston Polarimetrics, Inc. | SYSTEMS AND METHODS FOR DETECTING SURFACE NORMALS USING POLARIZATION |
KR20210041328A (ko) * | 2019-10-07 | 2021-04-15 | 엘지전자 주식회사 | 인공지능 기반 얼굴 인식 장치 및 방법 |
US11302012B2 (en) | 2019-11-30 | 2022-04-12 | Boston Polarimetrics, Inc. | Systems and methods for transparent object segmentation using polarization cues |
EP4081933A4 (en) | 2020-01-29 | 2024-03-20 | Intrinsic Innovation Llc | SYSTEMS AND METHODS FOR CHARACTERIZING OBJECT POSE DETECTION AND MEASUREMENT SYSTEMS |
EP4085424A4 (en) | 2020-01-30 | 2024-03-27 | Intrinsic Innovation Llc | SYSTEMS AND METHODS OF DATA SYNTHESIS FOR TRAINING STATISTICAL MODELS ON DIFFERENT IMAGING MODALITIES INCLUDING POLARIZED IMAGES |
CN111353493B (zh) * | 2020-03-31 | 2023-04-28 | 中国工商银行股份有限公司 | 文本图像方向校正方法及装置 |
WO2021243088A1 (en) | 2020-05-27 | 2021-12-02 | Boston Polarimetrics, Inc. | Multi-aperture polarization optical systems using beam splitters |
US11954886B2 (en) | 2021-04-15 | 2024-04-09 | Intrinsic Innovation Llc | Systems and methods for six-degree of freedom pose estimation of deformable objects |
US11290658B1 (en) | 2021-04-15 | 2022-03-29 | Boston Polarimetrics, Inc. | Systems and methods for camera exposure control |
US11689813B2 (en) | 2021-07-01 | 2023-06-27 | Intrinsic Innovation Llc | Systems and methods for high dynamic range imaging using crossed polarizers |
CN116776183B (zh) * | 2023-08-18 | 2023-11-03 | 北京建工环境修复股份有限公司 | 一种六价铬污染场地识别与评价方法及系统 |
CN117373024B (zh) * | 2023-12-07 | 2024-03-08 | 潍坊市海洋发展研究院 | 标注图像生成方法、装置、电子设备和计算机可读介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005537578A (ja) * | 2002-09-03 | 2005-12-08 | ハニーウェル・オサケユキテュア | 紙の特徴付け |
JP2008085472A (ja) * | 2006-09-26 | 2008-04-10 | Nagoya Institute Of Technology | 音源定位・同定装置 |
JP2008287437A (ja) * | 2007-05-16 | 2008-11-27 | Canon Inc | 情報処理方法、情報処理装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3616256B2 (ja) * | 1998-07-03 | 2005-02-02 | シャープ株式会社 | 画像処理装置 |
ITVA20040032A1 (it) * | 2004-08-31 | 2004-11-30 | St Microelectronics Srl | Metodo di generazione di una immagine maschera di appartenenza a classi di cromaticita' e miglioramento adattivo di una immagine a colori |
US20070160308A1 (en) | 2006-01-11 | 2007-07-12 | Jones Michael J | Difference of sum filters for texture classification |
JP2007241418A (ja) | 2006-03-06 | 2007-09-20 | Nikon Corp | テンプレートマッチング装置 |
-
2009
- 2009-06-26 JP JP2009152870A patent/JP5254893B2/ja active Active
-
2010
- 2010-06-18 US US12/819,003 patent/US8340439B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005537578A (ja) * | 2002-09-03 | 2005-12-08 | ハニーウェル・オサケユキテュア | 紙の特徴付け |
JP2008085472A (ja) * | 2006-09-26 | 2008-04-10 | Nagoya Institute Of Technology | 音源定位・同定装置 |
JP2008287437A (ja) * | 2007-05-16 | 2008-11-27 | Canon Inc | 情報処理方法、情報処理装置 |
Non-Patent Citations (2)
Title |
---|
CSNG200501405039; 木村 昭悟: 'SPIRE:スパースなインデキシングによる画像中の同一部分領域の検出' 電子情報通信学会論文誌 第J88-D-II巻 第8号, 20050801, p.1712-1719, 社団法人電子情報通信学会 * |
JPN6013013856; 木村 昭悟: 'SPIRE:スパースなインデキシングによる画像中の同一部分領域の検出' 電子情報通信学会論文誌 第J88-D-II巻 第8号, 20050801, p.1712-1719, 社団法人電子情報通信学会 * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013021580A1 (ja) * | 2011-08-11 | 2013-02-14 | パナソニック株式会社 | 特徴抽出装置、特徴抽出プログラム、および画像処理装置 |
JP2013041330A (ja) * | 2011-08-11 | 2013-02-28 | Panasonic Corp | 特徴抽出装置、特徴抽出方法、特徴抽出プログラム、および画像処理装置 |
US9294665B2 (en) | 2011-08-11 | 2016-03-22 | Panasonic Intellectual Property Management Co., Ltd. | Feature extraction apparatus, feature extraction program, and image processing apparatus |
JP2019096334A (ja) * | 2013-06-28 | 2019-06-20 | ディー−ウェイブ システムズ インコーポレイテッド | データの量子処理のためのシステムおよび方法 |
US11501195B2 (en) | 2013-06-28 | 2022-11-15 | D-Wave Systems Inc. | Systems and methods for quantum processing of data using a sparse coded dictionary learned from unlabeled data and supervised learning using encoded labeled data elements |
JP2015041293A (ja) * | 2013-08-22 | 2015-03-02 | キヤノン株式会社 | 画像認識装置および画像認識方法 |
US11481669B2 (en) | 2016-09-26 | 2022-10-25 | D-Wave Systems Inc. | Systems, methods and apparatus for sampling from a sampling server |
US11531852B2 (en) | 2016-11-28 | 2022-12-20 | D-Wave Systems Inc. | Machine learning systems and methods for training with noisy labels |
US11586915B2 (en) | 2017-12-14 | 2023-02-21 | D-Wave Systems Inc. | Systems and methods for collaborative filtering with variational autoencoders |
US11386346B2 (en) | 2018-07-10 | 2022-07-12 | D-Wave Systems Inc. | Systems and methods for quantum bayesian networks |
WO2020054521A1 (ja) * | 2018-09-13 | 2020-03-19 | Soinn株式会社 | 情報処理装置、情報処理方法及びプログラム |
US11461644B2 (en) | 2018-11-15 | 2022-10-04 | D-Wave Systems Inc. | Systems and methods for semantic segmentation |
US11468293B2 (en) | 2018-12-14 | 2022-10-11 | D-Wave Systems Inc. | Simulating and post-processing using a generative adversarial network |
US11900264B2 (en) | 2019-02-08 | 2024-02-13 | D-Wave Systems Inc. | Systems and methods for hybrid quantum-classical computing |
US11625612B2 (en) | 2019-02-12 | 2023-04-11 | D-Wave Systems Inc. | Systems and methods for domain adaptation |
Also Published As
Publication number | Publication date |
---|---|
JP5254893B2 (ja) | 2013-08-07 |
US8340439B2 (en) | 2012-12-25 |
US20100329556A1 (en) | 2010-12-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5254893B2 (ja) | 画像変換方法及び装置並びにパターン識別方法及び装置 | |
Shao et al. | Learning deep and wide: A spectral method for learning deep networks | |
US20150324663A1 (en) | Image congealing via efficient feature selection | |
Cao et al. | Local information-based fast approximate spectral clustering | |
Li et al. | Fast similarity search via optimal sparse lifting | |
Chaaraoui et al. | Human action recognition optimization based on evolutionary feature subset selection | |
Belhaouari et al. | Optimized K‐Means Algorithm | |
Arias et al. | Classification of pollen grain images based on an ensemble of classifiers | |
Alphonse et al. | A novel Monogenic Directional Pattern (MDP) and pseudo-Voigt kernel for facilitating the identification of facial emotions | |
Ganapathi et al. | Graph based texture pattern classification | |
Ngadi et al. | Uniformed two local binary pattern combined with neighboring support vector classifier for classification | |
Raikar et al. | Efficiency comparison of supervised and unsupervised classifier on content based classification using shape, color, texture | |
Ghosh et al. | A survey on remote sensing scene classification algorithms | |
Aissa et al. | Unsupervised features extraction using a multi-view self organizing map for image classification | |
Silva et al. | Bog: A new approach for graph matching | |
Soleimani et al. | Nonlinear dimensionality reduction by unit ball embedding (ube) and its application to image clustering | |
Neumann et al. | Propagation kernels for partially labeled graphs | |
Izadipour et al. | A feature selection approach for segmentation of very high-resolution satellite images | |
Hariri et al. | Geometrical and visual feature quantization for 3d face recognition | |
Nguyen et al. | Efficient dynamic texture classification with probabilistic motifs | |
Singh et al. | Genetic algorithm implementation to optimize the hybridization of feature extraction and metaheuristic classifiers | |
Ozdemir et al. | Locally linear low-rank tensor approximation | |
Rogovschi et al. | t-Distributed Stochastic Neighbor Embedding Spectral Clustering using higher order approximations. | |
Ramanan et al. | Speeding up multi-class texture classification by one-pass vocabulary design and decision tree | |
du Plessis et al. | Reducing the dimensionality of hyperspectral data using diffusion maps |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120626 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120626 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130315 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130322 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130418 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5254893 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160426 Year of fee payment: 3 |