JP2019046334A - 分類モデル生成装置、画像データ分類装置およびそれらのプログラム - Google Patents
分類モデル生成装置、画像データ分類装置およびそれらのプログラム Download PDFInfo
- Publication number
- JP2019046334A JP2019046334A JP2017170806A JP2017170806A JP2019046334A JP 2019046334 A JP2019046334 A JP 2019046334A JP 2017170806 A JP2017170806 A JP 2017170806A JP 2017170806 A JP2017170806 A JP 2017170806A JP 2019046334 A JP2019046334 A JP 2019046334A
- Authority
- JP
- Japan
- Prior art keywords
- classification
- image data
- filter
- main direction
- classification model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013145 classification model Methods 0.000 title claims abstract description 143
- 238000013527 convolutional neural network Methods 0.000 claims description 46
- 230000006870 function Effects 0.000 claims description 21
- 238000013528 artificial neural network Methods 0.000 abstract description 2
- 238000004364 calculation method Methods 0.000 abstract 2
- 238000000034 method Methods 0.000 description 28
- 230000008569 process Effects 0.000 description 15
- 238000012545 processing Methods 0.000 description 14
- 238000011176 pooling Methods 0.000 description 8
- 230000004913 activation Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 230000000694 effects Effects 0.000 description 2
- 239000004615 ingredient Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
ここで、図12,図13を参照して、CNNの一例についてその概要を説明する。CNNは、図12に示すように、入力層Iと、隠れ層Hと、出力層Oとの各層で構成される。各層は、複数のノード(ユニット)をエッジで結んだ構造を有する。なお、図12ではCNNの説明を簡易にするため、各層の数を少なくし、入力画像の大きさを小さくして説明している。
隠れ層Hは、複数の畳み込み層C(C1,C2,…)およびプーリング層P(P1,P2,…)と、全結合層F(F1,F2,…)とを介して、入力画像から特徴量(特徴マップ)を抽出する層である。なお、隠れ層Hは、畳み込み層Cを連続して設けたり、正規化層を設けたり等、図12の構成には限定されない。
出力層Oは、入力画像の分類結果を確率値として出力する層である。この出力層Oは、全結合層Fの出力をすべて接続した分類対象と同じノード数を持ち、活性化関数(例えばソフマックス関数)により、ノードごとの確率値を出力する。
このCNNは、学習段階において、分類が既知の複数の画像データにより、各層のパラメータ(ネットワーク)を学習し、分類段階において、学習したパラメータにより、分類が未知の画像データを分類する。
例えば、図14に示すように、同じオブジェクト(一例として、「家」の画像)が異なる画像データ内で傾いた状態であった場合、図14(a),(b),(c)において、オブジェクトの同一領域(「煙突部分」の画像領域)で畳み込みフィルタCfにより畳み込み処理を行って特徴量を抽出すると、同じオブジェクトの同一領域であっても、それぞれ異なった特徴量が抽出されることになる。
そのため、従来のCNNは、図14(a),(b),(c)の各画像データに同一のオブジェクトが含まれていても、オブジェクトが傾くことで異なるオブジェクトを含んだ画像データとして分類してしまうことになる。
このように、従来のCNNを用いた画像データの分類手法は、様々な方向のオブジェクトを含んだ画像データを学習データとして準備する必要があり、学習データの量と学習に要する時間が膨大になってしまうという問題がある。
これによって、分類モデル学習手段は、最初の畳み込み層において、画像データ内のオブジェクトの向きに対してほぼ不変な特徴量を抽出することができる。
なお、分類モデル生成装置は、コンピュータを、前記した各手段として機能させるための分類モデル生成プログラムで動作させることができる。
これによって、分類手段は、最初の畳み込み層において、画像データ内のオブジェクトの向きに対してほぼ不変な特徴量を抽出することができる。
なお、画像データ分類装置は、コンピュータを、前記した各手段として機能させるための画像データ分類プログラムで動作させることができる。
本発明によれば、最初の畳み込み層において、畳み込みフィルタのフィルタ領域の予め定めた基準の向きを、フィルタ領域に対応する画像のエッジ成分の主方向に対して一定方向となるように回転して畳み込み演算を行うことで、画像データ内のオブジェクトの向きに対してほぼ不変な特徴量を抽出することができる。
これによって、本発明は、1つの方向のオブジェクトの画像データを学習データとして用いて分類モデルを学習すればよく、学習データの量と学習に要する時間を抑えることができる。また、本発明は、画像データ内のオブジェクトが傾いているか否かに関わらず同一のオブジェクトとして認識し、画像データを分類することができる。
<画像データ分類装置の構成>
まず、図1を参照して、本発明の実施形態に係る画像データ分類装置1の構成について説明する。
画像データ分類装置1は、画像データを、画像データ内のオブジェクトにより分類するための畳み込みニューラルネットワーク(CNN;以下、分類モデルという)を学習し、その分類モデルを用いて、画像データを分類するものである。この画像データ分類装置1は、分類モデルを学習するモード(以下、「学習モードという」)と、画像データを分類するモード(以下、「分類モード」という)の2つの異なる動作モードを有する。
分類モードにおいて、画像データ分類装置1は、分類が未知の画像データを入力し、分類モデルを用いて分類した結果(分類結果)を出力する。
以下、この2つの動作モードで動作する画像データ分類装置1の構成を詳細に説明する。
領域別主方向推定手段12は、図2に例示したフィルタ領域Rごとに、エッジ成分の主方向を推定する。なお、エッジ成分の主方向を推定する手法は、ソーベル(Sobel)フィルタを用いる等の一般的な手法を用いることができる。
まず、領域別主方向推定手段12は、図3に例示したソーベルフィルタ((a)縦方向ソーベルフィルタ、(b)横方向ソーベルフィルタ)を用い、フィルタ領域Rの画素ごとに、近接画素の画素値からエッジ成分の勾配強度および勾配方向を演算する。
ここで、フィルタ領域Rの(x,y)座標の画素に、図3(a)の縦方向ソーベルフィルタを適用した値をfx(x,y)、図3(b)の横方向ソーベルフィルタを適用した値をfy(x,y)としたとき、領域別主方向推定手段12は、以下の式(1)により、(x,y)座標の画素のエッジ成分の勾配強度G(x,y)を求め、以下の式(2)により、(x,y)座標の画素のエッジ成分の勾配方向θ(x,y)を求める。
図1に戻って、画像データ分類装置1の構成について説明を続ける。
この領域別主方向推定手段12は、画像データのすべてのフィルタ領域Rについてエッジ成分の主方向を推定した段階で、推定が完了したことを示す「推定完了通知」を、学習モードにおいては分類モデル学習手段14に通知し、分類モードにおいては分類手段16に通知する。
この領域別主方向記憶手段13に記憶されているフィルタ領域ごとのエッジ成分の主方向を、学習モードにおいては分類モデル学習手段14が参照し、分類モードにおいては分類手段16が参照する。
図5(a)に示すように、例えば、画像データ内におけるあるフィルタ領域Rのエッジ成分の主方向が予め定めた基準方向(ここでは、画像の水平右方向〔0°方向〕とする)から30°の方向であった場合、分類モデル学習手段14は、図5(b)に示すように、フィルタ領域Rの中心Oを基準に30°回転させた領域を新たなフィルタ領域RNとする。なお、フィルタ領域Rの回転は、畳み込み対象のエリアを所定角度回転させるのみであり、領域内の画像を回転させるわけではない。
これによって、分類モデル学習手段14は、フィルタ領域Rのエッジ成分の主方向がどの方向であっても、主方向に対して、畳み込みフィルタを適用する方向を同じにすることができる。
このように、分類モデル学習手段14は、CNNの最初の畳み込み層において、すべてのフィルタ領域Rで、エッジ成分の主方向に対して畳み込みフィルタの向きが一定となるように畳み込み処理を行う。これにより、画像データ内のオブジェクトが傾いているか否かに関わらず、フィルタ領域ごとにほぼ不変な特徴量としてCNNの次の層に伝播させることができる。
図1に戻って、画像データ分類装置1の構成について説明を続ける。
そして、分類モデル学習手段14は、入力された画像データに対応して出力層から出力される分類結果と、教師データである既知の分類結果との誤差をなくす方向(誤差関数の値が“0”に漸近するよう)に、例えば、誤差逆伝播法を用いて、分類モデルのパラメータ(畳み込みフィルタ、全結合層の層間の重み〔重み行列〕等)を更新する。この分類モデルのパラメータの更新は、一般的なCNNの手法であるため、ここでは詳細な説明を省略する。
なお、後述するように、誤差逆伝播法によって、フィルタ領域を所定角度回転させた畳み込みフィルタの更新が可能である。
この分類モデル記憶手段15には、予め分類モデルの構造(畳み込み層、プーリング層、全結合層等の構造、畳み込みフィルタの大きさ、数、移動幅等)を記憶するとともに、分類モデルのパラメータ(畳み込みフィルタ、全結合層の層間の重み〔重み行列〕等)の初期値を記憶しておく。なお、分類モデルのパラメータは、分類モデル学習手段14によって、学習モードの動作時に更新される。
この分類手段16は、分類モデルの最初の畳み込み層における畳み込み処理において、画像データのそれぞれのフィルタ領域を、エッジ成分の主方向に応じて所定角度回転させて、回転後のフィルタ領域に対して、畳み込み演算を行う。
また、分類手段16は、最初の畳み込み層における畳み込み処理以降、分類モデル記憶手段15に記憶されている分類モデルを用いて、画像データの特徴を伝播させ、分類モデルの出力層のノードで最も高い確率値となるノードの対応する分類結果を出力する。
次に、図8,図9を参照して、本発明の実施形態に係る画像データ分類装置1の動作について説明する。ここでは、画像データ分類装置1の動作を、学習モードと、分類モードとに分けて説明する。
図8を参照(構成については適宜図1参照)して、画像データ分類装置1の学習モードの動作について説明する。
そして、領域別主方向推定手段12は、以下のステップS2からステップS6の動作により、ステップS1で入力した画像データにおいて、畳み込みフィルタを適用するフィルタ領域ごとにエッジ成分の主方向を推定する。
ステップS5において、領域別主方向推定手段12は、画像データ内のすべてのフィルタ領域の画像に対して、エッジ成分の主方向を推定したか否かを判定する。
一方、すべてのフィルタ領域の画像に対してエッジ成分の主方向を推定した場合(ステップS5でYes)、分類モデル学習手段14がステップS7以降の動作を行う。
ステップS8において、分類モデル学習手段14は、フィルタ領域の位置に対応するエッジ成分の主方向を、領域別主方向記憶手段13から読み出し、フィルタ領域の予め定めた基準方向が主方向となるように回転させた領域を新たなフィルタ領域とする。
ステップS10において、分類モデル学習手段14は、画像データ内のすべてのフィルタ領域に対して、畳み込み演算を行ったか否かを判定する。
ステップS13において、分類モデル学習手段14は、ステップS12の出力層から出力される分類結果と、ステップS1で入力した教師データとの誤差から、誤差逆伝播法を用いて、分類モデルのパラメータを更新し、分類モデル記憶手段15に記憶する。
ここで、分類モデルの学習が完了していない場合(ステップS14でNo)、ステップS1において、学習用データ入力手段10が新たな学習データを入力することで、分類モデル学習手段14は、分類モデルの学習を継続する。
一方、分類モデルの学習が完了した場合(ステップS14でYe)、画像データ分類装置1は、動作を終了する。
これによって、画像データ分類装置1は、画像データのオブジェクトの傾きに対してほぼ不変な特徴量を抽出して学習を行うことができるため、様々な向きでオブジェクトが映った画像データを学習データとする必要がなく、学習データの量と学習時間とを従来に比べて軽減することができる。
次に、図9を参照(構成については適宜図1参照)して、画像データ分類装置1の画像データの分類モードの動作について説明する。
そして、領域別主方向推定手段12は、ステップS21からステップS25の動作により、ステップS20で入力した画像データにおいて、畳み込みフィルタを適用するフィルタ領域ごとにエッジ成分の主方向を推定する。なお、ステップS21からステップS25の動作は、図8で説明したステップS2からステップS6の動作と同じであるため、説明を省略する。
ステップS32において、分類手段16は、ステップS31における出力層のノードで最も高い確率値となるノードの対応する分類結果を出力する。
これによって、画像データ分類装置1は、画像データのオブジェクトの傾きに対してほぼ不変な特徴量を抽出するため、異なる向きで同じオブジェクトが映った画像データであっても、同じ内容として画像データを分類することができる。
以上、本発明の実施形態に係る画像データ分類装置1の構成および動作について説明したが、本発明は、この実施形態に限定されるものではない。
(変形例1)
画像データ分類装置1は、分類モデルを学習するモード(学習モード)と、画像データを分類するモード(分類モード)との2つの異なる動作モードの処理を1つの装置で実行するものである。しかし、これらの処理は、別々の装置で行うようにしても構わない。
分類モデル生成装置2は、図10に示すように、学習用データ入力手段10と、領域別主方向推定手段12と、領域別主方向記憶手段13と、分類モデル学習手段14と、分類モデル記憶手段15と、を備える。この構成は、図1で説明した画像データ分類装置1の構成から、分類用データ入力手段11と、分類手段16とを削除したものである。
この分類モデル生成装置2は、分類モデルを学習する動作のみを行う。分類モデル生成装置2の動作は、図8で説明した動作と同じである。
なお、分類モデル生成装置2は、コンピュータを前記した各手段として機能させるためのプログラム(分類モデル生成プログラム)で動作させることができる。
また、分類モデルを用いて、画像データを分類する装置は、図11に示す画像データ分類装置1Bとして構成することができる。
画像データ分類装置1Bは、分類用データ入力手段11と、領域別主方向推定手段12と、領域別主方向記憶手段13と、分類モデル記憶手段15と、分類手段16と、を備える。この構成は、図1で説明した画像データ分類装置1の構成から、学習用データ入力手段10と、分類モデル学習手段14とを削除したものである。また、分類モデル記憶手段15に記憶する分類モデルは、図10の分類モデル生成装置2で生成されたものである。
この画像データ分類装置1Bは、画像データを分類する動作のみを行う。画像データ分類装置1Bの動作は、図9で説明した動作と同じである。
なお、画像データ分類装置1Bは、コンピュータを前記した各手段として機能させるためのプログラム(画像データ分類プログラム)で動作させることができる。
また、ここでは、領域別主方向推定手段12がソーベルフィルタを用いてエッジ成分の主方向を推定することとしたが、これに限定されるものではない。
例えば、領域別主方向推定手段12は、SIFT(Scale-Invariant Feature Transform)、SURF(Speed-Up Robust Features)等の画像データの特徴量であるエッジ成分の勾配強度、勾配方向を用いてもよい。あるいは、畳み込みフィルタの大きさの画像を、予めエッジ成分の主方向が既知の複数のパターンで機械学習した結果を用いて、領域別主方向推定手段12が、入力された画像データの主方向を推定することとしてもよい。
最後に、分類モデル学習手段14(図1)において、誤差逆伝播法によって、フィルタ領域を所定角度だけ回転させた畳み込みフィルタの更新(学習)が可能であることを説明する。
CNNにおける第L層の座標(i,j)における出力値(重み付き和)をuij L、活性化関数をfとすると、活性(活性化関数の値)zij Lは、以下の式(3)で表すことができる。
ここで、誤差関数をEとする。誤差関数Eの勾配は、偏微分の連鎖法則から以下の式(6)で表すことができる。
まず、偏微分の連鎖法則によって、δij Lは、以下の式(9)のように変形することができる。なお、座標(s,t)における重み付き和をust Lとする。
このように、本発明によっても、誤差関数Eは微分可能であり、CNNにおける順伝播および逆伝播の処理を行うことで、分類モデルを学習することができる。
2 分類モデル生成装置
10 学習用データ入力手段
11 分類用データ入力手段
12 領域別主方向推定手段
13 領域別主方向記憶手段
14 分類モデル学習手段
15 分類モデル記憶手段
16 分類手段
Claims (7)
- 分類が既知の複数の画像データから、分類が未知の画像データを分類するための畳み込みニューラルネットワークである分類モデルを生成する分類モデル生成装置であって、
前記分類が既知の画像データから、前記畳み込みニューラルネットワークの最初の畳み込み層の畳み込みフィルタを適用するフィルタ領域ごとに、画像のエッジ成分の主方向を推定する領域別主方向推定手段と、
前記分類が既知の画像データと分類内容を示す教師データとから、前記畳み込みニューラルネットワークを学習し前記分類モデルを生成する分類モデル学習手段と、を備え、
前記分類モデル学習手段は、最初の畳み込み層において、前記フィルタ領域ごとに、前記フィルタ領域の予め定めた基準の向きが、前記領域別主方向推定手段で推定されたエッジ成分の主方向に対して一定方向となるようにフィルタ領域を回転させて、畳み込み演算を行うことを特徴とする分類モデル生成装置。 - 前記領域別主方向推定手段は、前記フィルタ領域の画素ごとに、当該画素に近接する近接画素の画素値から当該フィルタ領域のエッジ成分の勾配強度および勾配方向を算出し、量子化した勾配方向ごとに累計した勾配強度が最も大きい勾配角度を前記主方向として推定することを特徴とする請求項1に記載の分類モデル生成装置。
- 請求項1または請求項2に記載のモデル生成装置で生成された畳み込みニューラルネットワークである分類モデルを用いて、分類が未知の画像データを分類する画像データ分類装置であって、
前記分類が未知の画像データから、前記畳み込みニューラルネットワークの最初の畳み込み層の畳み込みフィルタを適用するフィルタ領域ごとに、画像のエッジ成分の主方向を推定する領域別主方向推定手段と、
前記分類モデルである畳み込みニューラルネットワークにより、前記分類が未知の画像データを分類する分類手段と、を備え、
前記分類手段は、最初の畳み込み層において、前記フィルタ領域ごとに、前記フィルタ領域の予め定めた基準の向きが、前記領域別主方向推定手段で推定されたエッジ成分の主方向に対して一定方向となるようにフィルタ領域を回転させて、畳み込み演算を行うことを特徴とする画像データ分類装置。 - 前記領域別主方向推定手段は、前記フィルタ領域の画素ごとに、近接画素の画素値からエッジ成分の勾配強度および勾配方向を算出し、量子化した勾配方向ごとに累計した勾配強度が最も大きい勾配角度を前記主方向として推定することを特徴とする請求項3に記載の画像データ分類装置。
- 分類が既知の複数の画像データから、分類が未知の画像データを分類するための畳み込みニューラルネットワークである分類モデルを生成し、分類が未知の画像データを分類する画像データ分類装置であって、
画像データから、前記畳み込みニューラルネットワークの最初の畳み込み層の畳み込みフィルタを適用するフィルタ領域ごとに、画像のエッジ成分の主方向を推定する領域別主方向推定手段と、
前記分類が既知の画像データと分類内容を示す教師データとから、前記畳み込みニューラルネットワークを学習し前記分類モデルを生成する分類モデル学習手段と、
前記分類モデルである畳み込みニューラルネットワークにより、前記分類が未知の画像データを分類する分類手段と、を備え、
前記分類モデル学習手段は、最初の畳み込み層において、前記フィルタ領域ごとに、前記フィルタ領域の予め定めた基準の向きが、前記領域別主方向推定手段で推定されたエッジ成分の主方向に対して一定方向となるようにフィルタ領域を回転させて、畳み込み演算を行い、
前記分類手段は、最初の畳み込み層において、前記フィルタ領域ごとに、前記フィルタ領域の予め定めた基準の向きが、前記領域別主方向推定手段で推定されたエッジ成分の主方向に対して一定方向となるようにフィルタ領域を回転させて、畳み込み演算を行うことを特徴とする画像データ分類装置。 - コンピュータを、請求項1または請求項2に記載の分類モデル生成装置として機能させるための分類モデル生成プログラム。
- コンピュータを、請求項3から請求項5のいずれか一項に記載の画像データ分類装置として機能させるための画像データ分類プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017170806A JP6951913B2 (ja) | 2017-09-06 | 2017-09-06 | 分類モデル生成装置、画像データ分類装置およびそれらのプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017170806A JP6951913B2 (ja) | 2017-09-06 | 2017-09-06 | 分類モデル生成装置、画像データ分類装置およびそれらのプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019046334A true JP2019046334A (ja) | 2019-03-22 |
JP6951913B2 JP6951913B2 (ja) | 2021-10-20 |
Family
ID=65814448
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017170806A Active JP6951913B2 (ja) | 2017-09-06 | 2017-09-06 | 分類モデル生成装置、画像データ分類装置およびそれらのプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6951913B2 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020181404A (ja) * | 2019-04-25 | 2020-11-05 | 住友電気工業株式会社 | 画像分類器、画像分類方法及びコンピュータプログラム |
CN112364899A (zh) * | 2020-10-27 | 2021-02-12 | 西安科技大学 | 一种基于虚拟图像与迁移学习的磨粒铁谱图像智能识别方法 |
JP2021056735A (ja) * | 2019-09-30 | 2021-04-08 | Kddi株式会社 | モデル生成装置、学習モデル及び被写体認識装置 |
WO2021172744A1 (ko) * | 2020-02-25 | 2021-09-02 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
WO2022097195A1 (ja) * | 2020-11-04 | 2022-05-12 | 日本電信電話株式会社 | 学習方法、学習装置及びプログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013120482A (ja) * | 2011-12-07 | 2013-06-17 | Nippon Hoso Kyokai <Nhk> | 画像特徴量抽出装置およびそのプログラム |
JP2016111585A (ja) * | 2014-12-09 | 2016-06-20 | 日本電気株式会社 | 画像処理装置、システム、画像処理方法、およびプログラム |
JP2017520864A (ja) * | 2014-04-09 | 2017-07-27 | エントルピー インコーポレーテッドEntrupy Inc. | 微視的差異からの機械学習を使用する物体の真贋鑑定 |
US20170358086A1 (en) * | 2015-09-30 | 2017-12-14 | Fotonation Limited | Method and system for tracking an object |
-
2017
- 2017-09-06 JP JP2017170806A patent/JP6951913B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013120482A (ja) * | 2011-12-07 | 2013-06-17 | Nippon Hoso Kyokai <Nhk> | 画像特徴量抽出装置およびそのプログラム |
JP2017520864A (ja) * | 2014-04-09 | 2017-07-27 | エントルピー インコーポレーテッドEntrupy Inc. | 微視的差異からの機械学習を使用する物体の真贋鑑定 |
JP2016111585A (ja) * | 2014-12-09 | 2016-06-20 | 日本電気株式会社 | 画像処理装置、システム、画像処理方法、およびプログラム |
US20170358086A1 (en) * | 2015-09-30 | 2017-12-14 | Fotonation Limited | Method and system for tracking an object |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020181404A (ja) * | 2019-04-25 | 2020-11-05 | 住友電気工業株式会社 | 画像分類器、画像分類方法及びコンピュータプログラム |
JP2021056735A (ja) * | 2019-09-30 | 2021-04-08 | Kddi株式会社 | モデル生成装置、学習モデル及び被写体認識装置 |
JP7240997B2 (ja) | 2019-09-30 | 2023-03-16 | Kddi株式会社 | モデル生成装置、学習モデル及び被写体認識装置 |
WO2021172744A1 (ko) * | 2020-02-25 | 2021-09-02 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
CN112364899A (zh) * | 2020-10-27 | 2021-02-12 | 西安科技大学 | 一种基于虚拟图像与迁移学习的磨粒铁谱图像智能识别方法 |
WO2022097195A1 (ja) * | 2020-11-04 | 2022-05-12 | 日本電信電話株式会社 | 学習方法、学習装置及びプログラム |
JP7421152B2 (ja) | 2020-11-04 | 2024-01-24 | 日本電信電話株式会社 | 学習方法、学習装置及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP6951913B2 (ja) | 2021-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019046334A (ja) | 分類モデル生成装置、画像データ分類装置およびそれらのプログラム | |
US20230229919A1 (en) | Learning to generate synthetic datasets for training neural networks | |
Mukhoti et al. | Evaluating bayesian deep learning methods for semantic segmentation | |
US10695911B2 (en) | Robot navigation and object tracking | |
JP7128022B2 (ja) | 完全教師あり学習用のデータセットの形成 | |
CN107529650B (zh) | 闭环检测方法、装置及计算机设备 | |
CN108038435B (zh) | 一种基于卷积神经网络的特征提取与目标跟踪方法 | |
WO2016054779A1 (en) | Spatial pyramid pooling networks for image processing | |
WO2017199141A1 (en) | Point cloud matching method | |
JP2010238226A (ja) | 物体を追跡するための方法及びシステム | |
US9008440B2 (en) | Component recognizing apparatus and component recognizing method | |
US20070237359A1 (en) | Method and apparatus for adaptive mean shift tracking | |
KR20160096460A (ko) | 복수의 분류기를 포함하는 딥 러닝 기반 인식 시스템 및 그 제어 방법 | |
JP2007213560A (ja) | フレームシーケンス中のオブジェクトを追跡するコンピュータ化された方法 | |
US10275667B1 (en) | Learning method, learning device for detecting lane through lane model and testing method, testing device using the same | |
JP7494316B2 (ja) | ブートストラッピングされた潜在表現を使用する自己教師付き表現学習 | |
WO2017214970A1 (en) | Building convolutional neural network | |
JP5674550B2 (ja) | 状態追跡装置、方法、及びプログラム | |
Ait Abdelali et al. | An adaptive object tracking using Kalman filter and probability product kernel | |
CN111027610B (zh) | 图像特征融合方法、设备和介质 | |
CN115063447A (zh) | 一种基于视频序列的目标动物运动追踪方法及相关设备 | |
JP2021051589A5 (ja) | ||
CN116266359A (zh) | 目标物的跟踪方法、装置、计算机设备和存储介质 | |
JP2021015479A (ja) | 行動認識装置、行動認識方法、及び行動認識プログラム | |
CN117095180B (zh) | 基于分期识别的胚胎发育阶段预测与质量评估方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200731 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210819 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210831 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210927 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6951913 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |