JP2019046334A - 分類モデル生成装置、画像データ分類装置およびそれらのプログラム - Google Patents

分類モデル生成装置、画像データ分類装置およびそれらのプログラム Download PDF

Info

Publication number
JP2019046334A
JP2019046334A JP2017170806A JP2017170806A JP2019046334A JP 2019046334 A JP2019046334 A JP 2019046334A JP 2017170806 A JP2017170806 A JP 2017170806A JP 2017170806 A JP2017170806 A JP 2017170806A JP 2019046334 A JP2019046334 A JP 2019046334A
Authority
JP
Japan
Prior art keywords
classification
image data
filter
main direction
classification model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017170806A
Other languages
English (en)
Other versions
JP6951913B2 (ja
Inventor
吉彦 河合
Yoshihiko Kawai
吉彦 河合
佐野 雅規
Masami Sano
雅規 佐野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2017170806A priority Critical patent/JP6951913B2/ja
Publication of JP2019046334A publication Critical patent/JP2019046334A/ja
Application granted granted Critical
Publication of JP6951913B2 publication Critical patent/JP6951913B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】画像データを分類する分類モデルを生成し、画像データを分類する画像データ分類装置を提供する。【解決手段】画像データ分類装置1は、畳み込みニューラルネットワーク(CNN)の最初の畳み込み層のフィルタ領域ごとにエッジ成分の主方向を推定する領域別主方向推定手段12と、分類が既知の画像データと分類内容を示す教師データとから、最初の畳み込み層において、フィルタ領域の基準の向きがエッジ成分の主方向に対して一定方向となるようにフィルタ領域を回転させて畳み込み演算を行いCNNを学習して分類モデルを生成する分類モデル学習手段14と、学習済みの分類モデルを用いて、最初の畳み込み層において、フィルタ領域の基準の向きがエッジ成分の主方向に対して一定方向となるようにフィルタ領域を回転させてCNNの演算を行い画像データを分類する分類手段16と、を備える。【選択図】図1

Description

本発明は、画像データを分類するための畳み込みニューラルネットワークで構成される分類モデルを生成する分類モデル生成装置、分類モデルにより画像データを分類する画像データ分類装置およびそれらのプログラムに関する。
従来、画像データを分類する手法として、畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)を用いた手法が用いられている(非特許文献1,2等)。
ここで、図12,図13を参照して、CNNの一例についてその概要を説明する。CNNは、図12に示すように、入力層Iと、隠れ層Hと、出力層Oとの各層で構成される。各層は、複数のノード(ユニット)をエッジで結んだ構造を有する。なお、図12ではCNNの説明を簡易にするため、各層の数を少なくし、入力画像の大きさを小さくして説明している。
入力層Iは、分類対象となる画像データ(入力画像)を入力する層である。
隠れ層Hは、複数の畳み込み層C(C,C,…)およびプーリング層P(P,P,…)と、全結合層F(F,F,…)とを介して、入力画像から特徴量(特徴マップ)を抽出する層である。なお、隠れ層Hは、畳み込み層Cを連続して設けたり、正規化層を設けたり等、図12の構成には限定されない。
畳み込み層Cは、入力画像、あるいは、前層の出力となる特徴マップに対して、複数の畳み込みフィルタによって画像の畳み込み演算を行うものである。図12では、例えば、畳み込み層Cにおいて、24×24画素の入力画像に対して、4つの畳み込みフィルタによって畳み込み演算を行うことで、4つの20×20画素の特徴マップM(4@20×20)を生成した例を示している。
この畳み込み層Cは、図13に示すように、畳み込みフィルタCfの大きさ(ここでは、3×3画素)に対応する前の層(第L層)の画像に対して、順次、畳み込みフィルタCfを移動させて畳み込み処理を行い、活性化関数f(例えば、正規化線形関数max(0,x))による演算を行うことで、次の層(第(L+1)層)の画素値を求める。なお、ここでは、畳み込みフィルタCfを4つとし、第L層の画像から、4つの第(L+1)層の特徴マップを生成した例を示している。
プーリング層Pは、畳み込み層Cで生成される特徴マップMをサブサンプリングするものである。図12では、例えば、プーリング層Pにおいて、4つの20×20画像の特徴マップM(4@20×20)に対して、水平垂直にそれぞれ1/2のサブサンプリングを行うことで、4つの10×10画像の特徴マップM(4@10×10)を生成した例を示している。
全結合層Fは、複数の畳み込み層Cおよびプーリング層Pを介して生成される特徴マップを1次元のベクトルとする多層パーセプトロンである。この全結合層Fは、複数の層(F,F,…)で構成され、各層のノードは次の層のノードとすべて繋がっている。
出力層Oは、入力画像の分類結果を確率値として出力する層である。この出力層Oは、全結合層Fの出力をすべて接続した分類対象と同じノード数を持ち、活性化関数(例えばソフマックス関数)により、ノードごとの確率値を出力する。
このCNNは、学習段階において、分類が既知の複数の画像データにより、各層のパラメータ(ネットワーク)を学習し、分類段階において、学習したパラメータにより、分類が未知の画像データを分類する。
Quoc V Le,"Building high-level features using large scale unsupervised learning", ICASSP, 2013 Alex Krizhevsky, Ilya Sutskever, Geoffrey E. Hinton,"ImageNet classification with deep convolutional neural networks", NIPS, 2012
前記したCNNは、画像データから特徴量を抽出するために、畳み込みフィルタを移動させながら畳み込み処理を行っている。この畳み込みフィルタは、画像データの内容に依存せず、常にフィルタの向きは一定である。
例えば、図14に示すように、同じオブジェクト(一例として、「家」の画像)が異なる画像データ内で傾いた状態であった場合、図14(a),(b),(c)において、オブジェクトの同一領域(「煙突部分」の画像領域)で畳み込みフィルタCfにより畳み込み処理を行って特徴量を抽出すると、同じオブジェクトの同一領域であっても、それぞれ異なった特徴量が抽出されることになる。
そのため、従来のCNNは、図14(a),(b),(c)の各画像データに同一のオブジェクトが含まれていても、オブジェクトが傾くことで異なるオブジェクトを含んだ画像データとして分類してしまうことになる。
これらの画像データ内のオブジェクトを同一のオブジェクトとして認識するためには、オブジェクトを様々な方向に傾けた画像データを学習データとして、CNNを学習する必要がある。
このように、従来のCNNを用いた画像データの分類手法は、様々な方向のオブジェクトを含んだ画像データを学習データとして準備する必要があり、学習データの量と学習に要する時間が膨大になってしまうという問題がある。
そこで、本発明は、1つの方向のオブジェクトの画像データからCNN(分類モデル)を学習するだけで、画像データ内のオブジェクトの向きに関わらず同一のオブジェクトとして認識し、画像データを分類することが可能な分類モデルを生成する分類モデル生成装置、その分類モデルを用いて画像データを分類する画像データ分類装置およびそれらのプログラムを提供することを課題とする。
前記課題を解決するため、本発明に係る分類モデル生成装置は、分類が既知の複数の画像データから、分類が未知の画像データを分類するための畳み込みニューラルネットワークである分類モデルを生成する分類モデル生成装置であって、領域別主方向推定手段と、分類モデル学習手段と、を備える構成とした。
かかる構成において、分類モデル生成装置は、領域別主方向推定手段によって、分類が既知の画像データから、畳み込みニューラルネットワークの最初の畳み込み層の畳み込みフィルタを適用するフィルタ領域ごとに、画像のエッジ成分の主たる方向(主方向)を推定する。なお、エッジ成分の主方向は、ソーベルフィルタ等を用いて推定することができる。
そして、分類モデル生成装置は、分類モデル学習手段によって、分類が既知の画像データと分類内容を示す教師データとから、畳み込みニューラルネットワークを学習し分類モデルを生成する。このとき、分類モデル学習手段は、最初の畳み込み層において、フィルタ領域ごとに、フィルタ領域の予め定めた基準の向きが、領域別主方向推定手段で推定されたエッジ成分の主方向に対して一定方向となるようフィルタ領域を回転させ、その回転した領域に対して、空間フィルタである畳み込みフィルタを適用して畳み込み演算を行う。
これによって、分類モデル学習手段は、最初の畳み込み層において、画像データ内のオブジェクトの向きに対してほぼ不変な特徴量を抽出することができる。
なお、分類モデル生成装置は、コンピュータを、前記した各手段として機能させるための分類モデル生成プログラムで動作させることができる。
また、前記課題を解決するため、本発明に係る画像データ分類装置は、モデル生成装置で生成された畳み込みニューラルネットワークである分類モデルを用いて、分類が未知の画像データを分類する画像データ分類装置であって、領域別主方向推定手段と、分類手段と、を備える構成とした。
かかる構成において、画像データ分類装置は、領域別主方向推定手段によって、分類が未知の画像データから、畳み込みニューラルネットワークの最初の畳み込み層の畳み込みフィルタを適用するフィルタ領域ごとに、画像のエッジ成分の主方向を推定する。なお、エッジ成分の主方向は、ソーベルフィルタ等を用いて推定することができる。
そして、画像データ分類装置は、分類手段によって、分類モデルである畳み込みニューラルネットワークにより、分類が未知の画像データを分類する。このとき、分類手段は、最初の畳み込み層において、フィルタ領域ごとに、フィルタ領域の予め定めた基準の向きが、領域別主方向推定手段で推定されたエッジ成分の主方向に対して一定方向となるようにフィルタ領域を回転させ、その回転した領域に対して、空間フィルタである畳み込みフィルタを適用して畳み込み演算を行う。
これによって、分類手段は、最初の畳み込み層において、画像データ内のオブジェクトの向きに対してほぼ不変な特徴量を抽出することができる。
なお、画像データ分類装置は、コンピュータを、前記した各手段として機能させるための画像データ分類プログラムで動作させることができる。
また、前記課題を解決するため、本発明に係る画像データ分類装置は、分類が既知の複数の画像データから、分類が未知の画像データを分類するための畳み込みニューラルネットワークである分類モデルを生成し、分類が未知の画像データを分類する画像データ分類装置であって、領域別主方向推定手段と、分類モデル学習手段と、分類手段と、を備える構成としてもよい。
本発明は、以下に示す優れた効果を奏するものである。
本発明によれば、最初の畳み込み層において、畳み込みフィルタのフィルタ領域の予め定めた基準の向きを、フィルタ領域に対応する画像のエッジ成分の主方向に対して一定方向となるように回転して畳み込み演算を行うことで、画像データ内のオブジェクトの向きに対してほぼ不変な特徴量を抽出することができる。
これによって、本発明は、1つの方向のオブジェクトの画像データを学習データとして用いて分類モデルを学習すればよく、学習データの量と学習に要する時間を抑えることができる。また、本発明は、画像データ内のオブジェクトが傾いているか否かに関わらず同一のオブジェクトとして認識し、画像データを分類することができる。
本発明の実施形態に係る画像データ分類装置の構成を示すブロック構成図である。 畳み込み層において適用する畳み込みフィルタのフィルタ領域の大きさと移動量を説明するための説明図である。 ソーベルフィルタの例を示す図であって、(a)は縦方向ソーベルフィルタ、(b)は横方向ソーベルフィルタを示す。 エッジ成分の主方向を求める手法を説明するための説明図であって、(a)はフィルタ領域のエッジ成分の勾配強度および勾配方向を画素ごとにベクトルで表した図、(b)は勾配方向を量子化して勾配強度の累計をヒストグラム化した図である。 フィルタ領域の回転方向を説明するための説明図であって、(a)はフィルタ領域の基準方向とエッジ成分の主方向との関係を示す図、(b)はフィルタ領域を回転させた図、(c)は回転したフィルタ領域に対して適用する畳み込みフィルタの対応画素を示す図である。 フィルタ領域を回転させながらフィルタ領域を移動させて畳み込み処理を行う例を説明するための説明図である。 本発明の最初の畳み込み層のフィルタ領域を説明するための図であって、(a)〜(c)は、同じオブジェクトの同一領域において、ほぼ同じ方向の特徴量が抽出される例を説明するための説明図である。 本発明の実施形態に係る画像データ分類装置の学習モードの動作を示すフローチャートである。 本発明の実施形態に係る画像データ分類装置の分類モードの動作を示すフローチャートである。 本発明の他の実施形態に係る分類モデル生成装置の構成を示すブロック構成図である。 本発明の他の実施形態に係る画像データ分類装置の構成を示すブロック構成図である。 畳み込みニューラルネットワークの構造の例を示すネットワーク図である。 畳み込みニューラルネットワークの畳み込み層の処理を説明するための説明図である。 従来の畳み込みフィルタの領域を説明するための図であって、(a)〜(c)は、同じオブジェクトの同一領域において、それぞれ異なった方向の特徴量が抽出される例を説明するための説明図である。
以下、本発明の実施形態について図面を参照して説明する。
<画像データ分類装置の構成>
まず、図1を参照して、本発明の実施形態に係る画像データ分類装置1の構成について説明する。
画像データ分類装置1は、画像データを、画像データ内のオブジェクトにより分類するための畳み込みニューラルネットワーク(CNN;以下、分類モデルという)を学習し、その分類モデルを用いて、画像データを分類するものである。この画像データ分類装置1は、分類モデルを学習するモード(以下、「学習モードという」)と、画像データを分類するモード(以下、「分類モード」という)の2つの異なる動作モードを有する。
学習モードにおいて、画像データ分類装置1は、分類が既知の画像データと、その分類内容を示す教師データとを学習データとして複数入力し、分類モデルを学習する。ここで、教師データは、例えば、分類対象が人物であれば、それぞれの人物を一意に特定する情報(例えば、人物名等)である。
分類モードにおいて、画像データ分類装置1は、分類が未知の画像データを入力し、分類モデルを用いて分類した結果(分類結果)を出力する。
以下、この2つの動作モードで動作する画像データ分類装置1の構成を詳細に説明する。
画像データ分類装置1は、学習用データ入力手段10と、分類用データ入力手段11と、領域別主方向推定手段12と、領域別主方向記憶手段13と、分類モデル学習手段14と、分類モデル記憶手段15と、分類手段16と、を備える。
学習用データ入力手段10は、学習データとして、分類が既知の画像データと、その分類内容を示す教師データとを入力するものである。この学習用データ入力手段10は、入力した画像データを、領域別主方向推定手段12および分類モデル学習手段14に出力する。また、学習用データ入力手段10は、入力した教師データを、分類モデル学習手段14に出力する。
分類用データ入力手段11は、分類が未知の画像データを入力するものである。この分類用データ入力手段11は、入力した画像データを、領域別主方向推定手段12および分類手段16に出力する。
領域別主方向推定手段12は、分類モデル(CNN)の最初の畳み込み層で行う畳み込み処理において畳み込みフィルタを適用する画像領域(フィルタ領域)ごとに、画像データのエッジ成分の主方向を推定するものである。この領域別主方向推定手段12は、学習モードにおいては画像データを学習用データ入力手段10から入力し、分類モードにおいては画像データを分類用データ入力手段11から入力する。
図2に、畳み込み層において適用するフィルタ領域の大きさと移動量の例を示す。ここでは、畳み込みフィルタの大きさ(ここでは、3×3画素)と同じで、畳み込みフィルタの移動幅(ストライド:ここでは、水平・垂直方向ともに1画素)で移動させたフィルタ領域R,R,…,Rの例を示す。もちろん、畳み込みフィルタの大きさおよび移動幅は、これに限定されるものではない。
領域別主方向推定手段12は、図2に例示したフィルタ領域Rごとに、エッジ成分の主方向を推定する。なお、エッジ成分の主方向を推定する手法は、ソーベル(Sobel)フィルタを用いる等の一般的な手法を用いることができる。
ここで、ソーベルフィルタを用いて、フィルタ領域Rのエッジ成分の主方向を推定する手法について簡単に説明する。
まず、領域別主方向推定手段12は、図3に例示したソーベルフィルタ((a)縦方向ソーベルフィルタ、(b)横方向ソーベルフィルタ)を用い、フィルタ領域Rの画素ごとに、近接画素の画素値からエッジ成分の勾配強度および勾配方向を演算する。
ここで、フィルタ領域Rの(x,y)座標の画素に、図3(a)の縦方向ソーベルフィルタを適用した値をf(x,y)、図3(b)の横方向ソーベルフィルタを適用した値をf(x,y)としたとき、領域別主方向推定手段12は、以下の式(1)により、(x,y)座標の画素のエッジ成分の勾配強度G(x,y)を求め、以下の式(2)により、(x,y)座標の画素のエッジ成分の勾配方向θ(x,y)を求める。
Figure 2019046334
Figure 2019046334
これによって、図4(a)に示すように、フィルタ領域Rの画素ごとに、エッジ成分の勾配強度(ベクトルの長さ)および勾配方向(ベクトルの方向)を求めることができる。そして、領域別主方向推定手段12は、図4(a)に示した画素ごとのエッジ成分の勾配方向を、図4(b)に示すように量子化(例えば、5°単位で量子化)して、勾配方向ごとの勾配強度を累計したヒストグラムを生成する。
そして、領域別主方向推定手段12は、図4(b)に示したヒストグラムにおける勾配強度の累計がピークとなる勾配方向を、フィルタ領域Rのエッジ成分の主方向として推定する。なお、領域別主方向推定手段12は、明確なピークを検出できない場合、エッジ成分の主方向が存在しないこととし、例えば、主方向を0°とする。ここで、ヒストグラムに明確なピークが存在するか否かは、例えば、勾配強度の最も大きい累計値に対する2番目に大きい累計値の割合が予め定めた割合よりも大きい場合等とすればよい。
図1に戻って、画像データ分類装置1の構成について説明を続ける。
領域別主方向推定手段12は、フィルタ領域R,R,…,R(図2)ごとのエッジ成分の主方向を、フィルタ領域Rの位置に対応付けて領域別主方向記憶手段13に記憶する。
この領域別主方向推定手段12は、画像データのすべてのフィルタ領域Rについてエッジ成分の主方向を推定した段階で、推定が完了したことを示す「推定完了通知」を、学習モードにおいては分類モデル学習手段14に通知し、分類モードにおいては分類手段16に通知する。
領域別主方向記憶手段13は、画像データのフィルタ領域の位置と、領域別主方向推定手段12で推定されたフィルタ領域に対応するエッジ成分の主方向とを対応付けて記憶するものである。この領域別主方向記憶手段13は、ハードディスク、半導体メモリ等の一般的な記憶媒体で構成することができる。
この領域別主方向記憶手段13に記憶されているフィルタ領域ごとのエッジ成分の主方向を、学習モードにおいては分類モデル学習手段14が参照し、分類モードにおいては分類手段16が参照する。
分類モデル学習手段14は、学習用データ入力手段10から入力される複数の学習データ(画像データ、教師データ)と、領域別主方向記憶手段13に記憶されているフィルタ領域ごとのエッジ成分の主方向とを用いて、分類が未知の画像データを分類する分類モデルである畳み込みニューラルネットワーク(CNN)を学習するものである。なお、分類モデルのパラメータ等の初期値は分類モデル記憶手段15に記憶されており、分類モデル学習手段14は、学習により、分類モデル記憶手段15に記憶されている分類モデルのパラメータを更新する。
この分類モデル学習手段14は、CNNの最初の畳み込み層における畳み込み処理において、画像データのそれぞれのフィルタ領域を、エッジ成分の主方向に応じて所定角度回転させて、回転後のフィルタ領域に対して、畳み込み演算を行う。
図5(a)に示すように、例えば、画像データ内におけるあるフィルタ領域Rのエッジ成分の主方向が予め定めた基準方向(ここでは、画像の水平右方向〔0°方向〕とする)から30°の方向であった場合、分類モデル学習手段14は、図5(b)に示すように、フィルタ領域Rの中心Oを基準に30°回転させた領域を新たなフィルタ領域Rとする。なお、フィルタ領域Rの回転は、畳み込み対象のエリアを所定角度回転させるのみであり、領域内の画像を回転させるわけではない。
そして、分類モデル学習手段14は、図5(c)に示すように、回転前のフィルタ領域Rの画素領域(a1,a2,…,a9)の画素値の代わりに、回転後のフィルタ領域Rの画素領域(b1,b2,…,b9)の画素値に対して、畳み込みフィルタを適用して畳み込み演算を行う。なお、厳密には、回転後のフィルタ領域Rの画素領域(b1,b2,…,b9)の画素値とは、フィルタ領域Rの画素領域(b1,b2,…,b9)のそれぞれの中心位置に対応する画素の画素値である。
これによって、分類モデル学習手段14は、フィルタ領域Rのエッジ成分の主方向がどの方向であっても、主方向に対して、畳み込みフィルタを適用する方向を同じにすることができる。
そして、分類モデル学習手段14は、図6に示すように、画像データのフィルタ領域を順次移動させる際に、エッジ成分の主方向に応じてフィルタ領域を回転させ、回転したフィルタ領域に畳み込みフィルタCfを適用して畳み込み処理を行う。
このように、分類モデル学習手段14は、CNNの最初の畳み込み層において、すべてのフィルタ領域Rで、エッジ成分の主方向に対して畳み込みフィルタの向きが一定となるように畳み込み処理を行う。これにより、画像データ内のオブジェクトが傾いているか否かに関わらず、フィルタ領域ごとにほぼ不変な特徴量としてCNNの次の層に伝播させることができる。
図1に戻って、画像データ分類装置1の構成について説明を続ける。
分類モデル学習手段14は、最初の畳み込み層においてのみ、エッジ成分の主方向に応じた畳み込み処理を行い、以降の処理(2段目以降の畳み込み層、プーリング層、全結合層、出力層;図12参照)は、従来のCNNと同じ処理を行う。
そして、分類モデル学習手段14は、入力された画像データに対応して出力層から出力される分類結果と、教師データである既知の分類結果との誤差をなくす方向(誤差関数の値が“0”に漸近するよう)に、例えば、誤差逆伝播法を用いて、分類モデルのパラメータ(畳み込みフィルタ、全結合層の層間の重み〔重み行列〕等)を更新する。この分類モデルのパラメータの更新は、一般的なCNNの手法であるため、ここでは詳細な説明を省略する。
なお、後述するように、誤差逆伝播法によって、フィルタ領域を所定角度回転させた畳み込みフィルタの更新が可能である。
分類モデル記憶手段15は、分類モデル学習手段14で学習した分類モデルを記憶するものである。この分類モデル記憶手段15は、ハードディスク、半導体メモリ等の一般的な記憶媒体で構成することができる。学習後の分類モデルは、分類手段16によって参照される。
この分類モデル記憶手段15には、予め分類モデルの構造(畳み込み層、プーリング層、全結合層等の構造、畳み込みフィルタの大きさ、数、移動幅等)を記憶するとともに、分類モデルのパラメータ(畳み込みフィルタ、全結合層の層間の重み〔重み行列〕等)の初期値を記憶しておく。なお、分類モデルのパラメータは、分類モデル学習手段14によって、学習モードの動作時に更新される。
分類手段16は、領域別主方向記憶手段13に記憶されているフィルタ領域ごとのエッジ成分の主方向と、分類モデル記憶手段15に記憶されている分類モデルとを用いて、分類用データ入力手段11から入力される画像データを分類するものである。
この分類手段16は、分類モデルの最初の畳み込み層における畳み込み処理において、画像データのそれぞれのフィルタ領域を、エッジ成分の主方向に応じて所定角度回転させて、回転後のフィルタ領域に対して、畳み込み演算を行う。
なお、この分類モデルの最初の畳み込み層における畳み込み処理は、分類モデル記憶手段15に記憶されている学習済みの畳み込み係数を用いる以外は、図5、図6を用いて説明した分類モデル学習手段14の処理と同じであるため、説明を省略する。
また、分類手段16は、最初の畳み込み層における畳み込み処理以降、分類モデル記憶手段15に記憶されている分類モデルを用いて、画像データの特徴を伝播させ、分類モデルの出力層のノードで最も高い確率値となるノードの対応する分類結果を出力する。
以上、本発明の実施形態に係る画像データ分類装置1の構成について説明したが、画像データ分類装置1は、コンピュータを前記した各手段として機能させるためのプログラム(画像データ分類プログラム)で動作させることができる。
以上説明したように画像データ分類装置1を構成することで、画像データ分類装置1は、1つの方向のオブジェクトを含んだ画像データを用いて分類モデルを学習することで、オブジェクトの向きによらずに精度よく画像データを分類することができる。
例えば、図7に示すように、同じオブジェクト(一例として、「家」の画像)が異なる画像データ内で傾いた状態であった場合、画像データ分類装置1は、図7(a),(b),(c)において、オブジェクトの同一領域(「煙突部分」の画像領域)で畳み込みフィルタCfを適用する際に、エッジ成分の主方向に対して同一方向となるフィルタ領域で畳み込み処理を行う。そのため、画像データ分類装置1は、同じオブジェクトの同一領域において、ほぼ同じ特徴量を抽出することができ、1つの方向のオブジェクトを含んだ画像データを用いて分類モデルを学習すればよい。
<画像データ分類装置の動作>
次に、図8,図9を参照して、本発明の実施形態に係る画像データ分類装置1の動作について説明する。ここでは、画像データ分類装置1の動作を、学習モードと、分類モードとに分けて説明する。
(学習モード)
図8を参照(構成については適宜図1参照)して、画像データ分類装置1の学習モードの動作について説明する。
ステップS1において、学習用データ入力手段10は、学習データとして、分類が既知の画像データと、その分類内容を示す教師データとを入力する。
そして、領域別主方向推定手段12は、以下のステップS2からステップS6の動作により、ステップS1で入力した画像データにおいて、畳み込みフィルタを適用するフィルタ領域ごとにエッジ成分の主方向を推定する。
ステップS2において、領域別主方向推定手段12は、ステップS1で入力した画像データに対して、畳み込みフィルタを適用するフィルタ領域の初期位置(例えば、画像の左上)を設定する。
ステップS3において、領域別主方向推定手段12は、フィルタ領域において、画像のエッジ成分の主方向を推定する。具体的には、領域別主方向推定手段12は、ソーベルフィルタを用いて、フィルタ領域内の画像の各画素の勾配強度および勾配方向を求める。そして、領域別主方向推定手段12は、勾配方向を量子化し、量子化した勾配方向ごとの勾配強度を累計し、勾配強度の累計がピークとなる勾配方向を、エッジ成分の主方向とする。なお、勾配強度の最も大きい累計値に対する2番目に大きい累計値の割合が予め定めた割合よりも大きい場合は、主方向が存在しないもの(主方向=0°)とする。
ステップS4において、領域別主方向推定手段12は、フィルタ領域の位置と、ステップS3で推定したエッジ成分の主方向とを対応付けて領域別主方向記憶手段13に記憶する。
ステップS5において、領域別主方向推定手段12は、画像データ内のすべてのフィルタ領域の画像に対して、エッジ成分の主方向を推定したか否かを判定する。
ここで、まだ、すべてのフィルタ領域の画像に対してエッジ成分の主方向を推定していない場合(ステップS5でNo)、ステップS6において、領域別主方向推定手段12は、フィルタ領域を、畳み込みフィルタの移動幅に応じた位置に移動させる。そして、領域別主方向推定手段12は、ステップS3に戻って、次のフィルタ領域の画像に対して、エッジ成分の主方向を推定する。
一方、すべてのフィルタ領域の画像に対してエッジ成分の主方向を推定した場合(ステップS5でYes)、分類モデル学習手段14がステップS7以降の動作を行う。
分類モデル学習手段14は、以下のステップS7からステップS11の動作により、最初の畳み込み層の処理を行う。
ステップS7において、分類モデル学習手段14は、ステップS1で入力した画像データに対して、畳み込みフィルタを適用するフィルタ領域の初期位置を設定する。
ステップS8において、分類モデル学習手段14は、フィルタ領域の位置に対応するエッジ成分の主方向を、領域別主方向記憶手段13から読み出し、フィルタ領域の予め定めた基準方向が主方向となるように回転させた領域を新たなフィルタ領域とする。
ステップS9において、分類モデル学習手段14は、ステップS8で主方向の向きに所定角度回転させたフィルタ領域に対して畳み込みフィルタを適用して畳み込み演算を行う。
ステップS10において、分類モデル学習手段14は、画像データ内のすべてのフィルタ領域に対して、畳み込み演算を行ったか否かを判定する。
ここで、まだ、すべてのフィルタ領域に対して畳み込み演算を行っていない場合(ステップS10でNo)、ステップS11において、分類モデル学習手段14は、フィルタ領域を、畳み込みフィルタの移動幅に応じた位置に移動させる。そして、分類モデル学習手段14は、ステップS8に戻って、次のフィルタ領域に対して、畳み込み演算を行う。
一方、すべてのフィルタ領域に対して畳み込み演算を行った場合(ステップS10でYes)、分類モデル学習手段14は、ステップS12に動作を進める。なお、図示は省略するが、最初の畳み込み層において、複数の畳み込みフィルタを用いる場合、分類モデル学習手段14は、ステップS7からステップS11までの動作を、畳み込みフィルタの数だけ実行する。
ステップS12において、分類モデル学習手段14は、ステップS11までの動作で最初の畳み込み層により生成された特徴マップに対して、後段の2段目以降の畳み込み層、プーリング層、全結合層、出力層の処理を実行する。
ステップS13において、分類モデル学習手段14は、ステップS12の出力層から出力される分類結果と、ステップS1で入力した教師データとの誤差から、誤差逆伝播法を用いて、分類モデルのパラメータを更新し、分類モデル記憶手段15に記憶する。
ステップS14において、分類モデル学習手段14は、分類モデルの学習を完了したか否かを判定する。ここで、分類モデルの学習の判定は、ステップS13における誤差が予め定めた閾値よりも小さくなった場合である。
ここで、分類モデルの学習が完了していない場合(ステップS14でNo)、ステップS1において、学習用データ入力手段10が新たな学習データを入力することで、分類モデル学習手段14は、分類モデルの学習を継続する。
一方、分類モデルの学習が完了した場合(ステップS14でYe)、画像データ分類装置1は、動作を終了する。
以上の動作によって、画像データ分類装置1は、CNNの分類モデルを学習する際に、最初の畳み込み層の処理において、フィルタ領域のエッジ成分の主方向に対して、一定方向となるように畳み込みフィルタを適用して畳み込み処理を行う。
これによって、画像データ分類装置1は、画像データのオブジェクトの傾きに対してほぼ不変な特徴量を抽出して学習を行うことができるため、様々な向きでオブジェクトが映った画像データを学習データとする必要がなく、学習データの量と学習時間とを従来に比べて軽減することができる。
(分類モード)
次に、図9を参照(構成については適宜図1参照)して、画像データ分類装置1の画像データの分類モードの動作について説明する。
ステップS20において、分類用データ入力手段11は、分類が未知の画像データを入力する。
そして、領域別主方向推定手段12は、ステップS21からステップS25の動作により、ステップS20で入力した画像データにおいて、畳み込みフィルタを適用するフィルタ領域ごとにエッジ成分の主方向を推定する。なお、ステップS21からステップS25の動作は、図8で説明したステップS2からステップS6の動作と同じであるため、説明を省略する。
そして、分類手段16は、ステップS26からステップS30の動作により、最初の畳み込み層の処理を行う。なお、ステップS26からステップS30の動作は、動作主体が分類モデル学習手段14から分類手段16に替わるだけ、図8で説明したステップS7からステップS11の動作と同じであるため、説明を省略する。
ステップS31において、分類手段16は、ステップS30までの動作で最初の畳み込み層により生成された特徴マップに対して、後段の2段目以降の畳み込み層、プーリング層、全結合層、出力層の処理を実行する。
ステップS32において、分類手段16は、ステップS31における出力層のノードで最も高い確率値となるノードの対応する分類結果を出力する。
以上の動作によって、画像データ分類装置1は、CNNの分類モデルにより画像データを分類する際に、最初の畳み込み層の処理において、フィルタ領域のエッジ成分の主方向に対して、一定方向となるように畳み込みフィルタを適用して畳み込み処理を行う。
これによって、画像データ分類装置1は、画像データのオブジェクトの傾きに対してほぼ不変な特徴量を抽出するため、異なる向きで同じオブジェクトが映った画像データであっても、同じ内容として画像データを分類することができる。
<変形例>
以上、本発明の実施形態に係る画像データ分類装置1の構成および動作について説明したが、本発明は、この実施形態に限定されるものではない。
(変形例1)
画像データ分類装置1は、分類モデルを学習するモード(学習モード)と、画像データを分類するモード(分類モード)との2つの異なる動作モードの処理を1つの装置で実行するものである。しかし、これらの処理は、別々の装置で行うようにしても構わない。
具体的には、分類モデルを学習する装置は、図10に示す分類モデル生成装置2として構成することができる。
分類モデル生成装置2は、図10に示すように、学習用データ入力手段10と、領域別主方向推定手段12と、領域別主方向記憶手段13と、分類モデル学習手段14と、分類モデル記憶手段15と、を備える。この構成は、図1で説明した画像データ分類装置1の構成から、分類用データ入力手段11と、分類手段16とを削除したものである。
この分類モデル生成装置2は、分類モデルを学習する動作のみを行う。分類モデル生成装置2の動作は、図8で説明した動作と同じである。
なお、分類モデル生成装置2は、コンピュータを前記した各手段として機能させるためのプログラム(分類モデル生成プログラム)で動作させることができる。
(変形例2)
また、分類モデルを用いて、画像データを分類する装置は、図11に示す画像データ分類装置1Bとして構成することができる。
画像データ分類装置1Bは、分類用データ入力手段11と、領域別主方向推定手段12と、領域別主方向記憶手段13と、分類モデル記憶手段15と、分類手段16と、を備える。この構成は、図1で説明した画像データ分類装置1の構成から、学習用データ入力手段10と、分類モデル学習手段14とを削除したものである。また、分類モデル記憶手段15に記憶する分類モデルは、図10の分類モデル生成装置2で生成されたものである。
この画像データ分類装置1Bは、画像データを分類する動作のみを行う。画像データ分類装置1Bの動作は、図9で説明した動作と同じである。
なお、画像データ分類装置1Bは、コンピュータを前記した各手段として機能させるためのプログラム(画像データ分類プログラム)で動作させることができる。
このように、分類モデルを学習する動作と、分類モデルを用いて画像データを分類する動作とを、異なる装置(分類モデル生成装置2,画像データ分類装置1B)で動作させることで、1つの分類モデル生成装置2で生成した分類計モデルを、複数の画像データ分類装置1Bで利用することが可能になる。
(変形例3)
また、ここでは、領域別主方向推定手段12がソーベルフィルタを用いてエッジ成分の主方向を推定することとしたが、これに限定されるものではない。
例えば、領域別主方向推定手段12は、SIFT(Scale-Invariant Feature Transform)、SURF(Speed-Up Robust Features)等の画像データの特徴量であるエッジ成分の勾配強度、勾配方向を用いてもよい。あるいは、畳み込みフィルタの大きさの画像を、予めエッジ成分の主方向が既知の複数のパターンで機械学習した結果を用いて、領域別主方向推定手段12が、入力された画像データの主方向を推定することとしてもよい。
<畳み込みフィルタの更新について>
最後に、分類モデル学習手段14(図1)において、誤差逆伝播法によって、フィルタ領域を所定角度だけ回転させた畳み込みフィルタの更新(学習)が可能であることを説明する。
CNNにおける第L層の座標(i,j)における出力値(重み付き和)をuij 、活性化関数をfとすると、活性(活性化関数の値)zij は、以下の式(3)で表すことができる。
Figure 2019046334
ここで、畳み込みフィルタの係数をhpqとすると従来の畳み込み層における出力値uij は、以下の式(4)で表すことができる。なお、(p,q)は、畳み込みフィルタの座標を示す。
Figure 2019046334
一方、本発明において、畳み込みフィルタの畳み込み対象となる座標(i+p,j+q)はエッジ成分の主方向に応じて所定角度回転することになる。この回転角度は、領域別主方向推定手段12によって、分類モデル学習手段14におけるCNNの学習以前に既知の情報である。ここで、回転後の座標を((i+p)′,(j+q)′)とすると、分類モデル学習手段14における最初の畳み込み層の出力値uij は、以下の式(5)で表すことができる。
Figure 2019046334
本発明において、誤差逆伝播法によって所定角度回転させた畳み込みフィルタの更新が可能であるか否かは、誤差関数が微分可能(誤差関数の勾配を求めることが可能)であるか否かと同義である。以下、本発明において、誤差関数が微分可能であることを示す。
ここで、誤差関数をEとする。誤差関数Eの勾配は、偏微分の連鎖法則から以下の式(6)で表すことができる。
Figure 2019046334
ここで、誤差関数Eを重み付き和uij で偏微分した結果を以下の式(7)に示すδij とする。
Figure 2019046334
すると、前記式(5)から、前記式(6)は以下の式(8)に書き換えることができる。
Figure 2019046334
この式(8)のz(i+p)′,(j+q)′ L−1は、前の層(第(L−1)層)の出力値であり、回転後の座標の値は、エッジ成分の主方向がすでに決定されていることから、確定した値となる。そこで、誤差伝播を行うためには、δij を求めることができればよいことになる。なお、δij を求めることができか否かは、畳み込みフィルタが所定角度回転しているか否かによらず、従来と同様の手法で求めることができる。
まず、偏微分の連鎖法則によって、δij は、以下の式(9)のように変形することができる。なお、座標(s,t)における重み付き和をust とする。
Figure 2019046334
ここで、前記式(3)および前記式(5)から、前記式(9)の(∂ust L+1/∂uij )は、以下の式(10)に変形することができる。
Figure 2019046334
前記式(9)を前記式(10)で置き換えると、以下の式(11)となる。
Figure 2019046334
この式(11)における∂(…)/∂uij は、uij で偏微分していることから、us+p,t+q =uij 、すなわち、s+p=i,t+q=jとなる(s,t)および(p,q)の組み合わせだけを考えればよい(他の値は“0”になる)ため、前記式(11)は以下の式(12)となる。
Figure 2019046334
ここで、f′(…)は、既知の活性化関数fの微分であり、δi−p,j−q L+1は、後ろの層から伝播される値であることから、δij を求めることができる。
このように、本発明によっても、誤差関数Eは微分可能であり、CNNにおける順伝播および逆伝播の処理を行うことで、分類モデルを学習することができる。
1,1B 画像データ分類装置
2 分類モデル生成装置
10 学習用データ入力手段
11 分類用データ入力手段
12 領域別主方向推定手段
13 領域別主方向記憶手段
14 分類モデル学習手段
15 分類モデル記憶手段
16 分類手段

Claims (7)

  1. 分類が既知の複数の画像データから、分類が未知の画像データを分類するための畳み込みニューラルネットワークである分類モデルを生成する分類モデル生成装置であって、
    前記分類が既知の画像データから、前記畳み込みニューラルネットワークの最初の畳み込み層の畳み込みフィルタを適用するフィルタ領域ごとに、画像のエッジ成分の主方向を推定する領域別主方向推定手段と、
    前記分類が既知の画像データと分類内容を示す教師データとから、前記畳み込みニューラルネットワークを学習し前記分類モデルを生成する分類モデル学習手段と、を備え、
    前記分類モデル学習手段は、最初の畳み込み層において、前記フィルタ領域ごとに、前記フィルタ領域の予め定めた基準の向きが、前記領域別主方向推定手段で推定されたエッジ成分の主方向に対して一定方向となるようにフィルタ領域を回転させて、畳み込み演算を行うことを特徴とする分類モデル生成装置。
  2. 前記領域別主方向推定手段は、前記フィルタ領域の画素ごとに、当該画素に近接する近接画素の画素値から当該フィルタ領域のエッジ成分の勾配強度および勾配方向を算出し、量子化した勾配方向ごとに累計した勾配強度が最も大きい勾配角度を前記主方向として推定することを特徴とする請求項1に記載の分類モデル生成装置。
  3. 請求項1または請求項2に記載のモデル生成装置で生成された畳み込みニューラルネットワークである分類モデルを用いて、分類が未知の画像データを分類する画像データ分類装置であって、
    前記分類が未知の画像データから、前記畳み込みニューラルネットワークの最初の畳み込み層の畳み込みフィルタを適用するフィルタ領域ごとに、画像のエッジ成分の主方向を推定する領域別主方向推定手段と、
    前記分類モデルである畳み込みニューラルネットワークにより、前記分類が未知の画像データを分類する分類手段と、を備え、
    前記分類手段は、最初の畳み込み層において、前記フィルタ領域ごとに、前記フィルタ領域の予め定めた基準の向きが、前記領域別主方向推定手段で推定されたエッジ成分の主方向に対して一定方向となるようにフィルタ領域を回転させて、畳み込み演算を行うことを特徴とする画像データ分類装置。
  4. 前記領域別主方向推定手段は、前記フィルタ領域の画素ごとに、近接画素の画素値からエッジ成分の勾配強度および勾配方向を算出し、量子化した勾配方向ごとに累計した勾配強度が最も大きい勾配角度を前記主方向として推定することを特徴とする請求項3に記載の画像データ分類装置。
  5. 分類が既知の複数の画像データから、分類が未知の画像データを分類するための畳み込みニューラルネットワークである分類モデルを生成し、分類が未知の画像データを分類する画像データ分類装置であって、
    画像データから、前記畳み込みニューラルネットワークの最初の畳み込み層の畳み込みフィルタを適用するフィルタ領域ごとに、画像のエッジ成分の主方向を推定する領域別主方向推定手段と、
    前記分類が既知の画像データと分類内容を示す教師データとから、前記畳み込みニューラルネットワークを学習し前記分類モデルを生成する分類モデル学習手段と、
    前記分類モデルである畳み込みニューラルネットワークにより、前記分類が未知の画像データを分類する分類手段と、を備え、
    前記分類モデル学習手段は、最初の畳み込み層において、前記フィルタ領域ごとに、前記フィルタ領域の予め定めた基準の向きが、前記領域別主方向推定手段で推定されたエッジ成分の主方向に対して一定方向となるようにフィルタ領域を回転させて、畳み込み演算を行い、
    前記分類手段は、最初の畳み込み層において、前記フィルタ領域ごとに、前記フィルタ領域の予め定めた基準の向きが、前記領域別主方向推定手段で推定されたエッジ成分の主方向に対して一定方向となるようにフィルタ領域を回転させて、畳み込み演算を行うことを特徴とする画像データ分類装置。
  6. コンピュータを、請求項1または請求項2に記載の分類モデル生成装置として機能させるための分類モデル生成プログラム。
  7. コンピュータを、請求項3から請求項5のいずれか一項に記載の画像データ分類装置として機能させるための画像データ分類プログラム。
JP2017170806A 2017-09-06 2017-09-06 分類モデル生成装置、画像データ分類装置およびそれらのプログラム Active JP6951913B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017170806A JP6951913B2 (ja) 2017-09-06 2017-09-06 分類モデル生成装置、画像データ分類装置およびそれらのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017170806A JP6951913B2 (ja) 2017-09-06 2017-09-06 分類モデル生成装置、画像データ分類装置およびそれらのプログラム

Publications (2)

Publication Number Publication Date
JP2019046334A true JP2019046334A (ja) 2019-03-22
JP6951913B2 JP6951913B2 (ja) 2021-10-20

Family

ID=65814448

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017170806A Active JP6951913B2 (ja) 2017-09-06 2017-09-06 分類モデル生成装置、画像データ分類装置およびそれらのプログラム

Country Status (1)

Country Link
JP (1) JP6951913B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020181404A (ja) * 2019-04-25 2020-11-05 住友電気工業株式会社 画像分類器、画像分類方法及びコンピュータプログラム
CN112364899A (zh) * 2020-10-27 2021-02-12 西安科技大学 一种基于虚拟图像与迁移学习的磨粒铁谱图像智能识别方法
JP2021056735A (ja) * 2019-09-30 2021-04-08 Kddi株式会社 モデル生成装置、学習モデル及び被写体認識装置
WO2021172744A1 (ko) * 2020-02-25 2021-09-02 삼성전자주식회사 전자 장치 및 그 제어 방법
WO2022097195A1 (ja) * 2020-11-04 2022-05-12 日本電信電話株式会社 学習方法、学習装置及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013120482A (ja) * 2011-12-07 2013-06-17 Nippon Hoso Kyokai <Nhk> 画像特徴量抽出装置およびそのプログラム
JP2016111585A (ja) * 2014-12-09 2016-06-20 日本電気株式会社 画像処理装置、システム、画像処理方法、およびプログラム
JP2017520864A (ja) * 2014-04-09 2017-07-27 エントルピー インコーポレーテッドEntrupy Inc. 微視的差異からの機械学習を使用する物体の真贋鑑定
US20170358086A1 (en) * 2015-09-30 2017-12-14 Fotonation Limited Method and system for tracking an object

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013120482A (ja) * 2011-12-07 2013-06-17 Nippon Hoso Kyokai <Nhk> 画像特徴量抽出装置およびそのプログラム
JP2017520864A (ja) * 2014-04-09 2017-07-27 エントルピー インコーポレーテッドEntrupy Inc. 微視的差異からの機械学習を使用する物体の真贋鑑定
JP2016111585A (ja) * 2014-12-09 2016-06-20 日本電気株式会社 画像処理装置、システム、画像処理方法、およびプログラム
US20170358086A1 (en) * 2015-09-30 2017-12-14 Fotonation Limited Method and system for tracking an object

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020181404A (ja) * 2019-04-25 2020-11-05 住友電気工業株式会社 画像分類器、画像分類方法及びコンピュータプログラム
JP2021056735A (ja) * 2019-09-30 2021-04-08 Kddi株式会社 モデル生成装置、学習モデル及び被写体認識装置
JP7240997B2 (ja) 2019-09-30 2023-03-16 Kddi株式会社 モデル生成装置、学習モデル及び被写体認識装置
WO2021172744A1 (ko) * 2020-02-25 2021-09-02 삼성전자주식회사 전자 장치 및 그 제어 방법
CN112364899A (zh) * 2020-10-27 2021-02-12 西安科技大学 一种基于虚拟图像与迁移学习的磨粒铁谱图像智能识别方法
WO2022097195A1 (ja) * 2020-11-04 2022-05-12 日本電信電話株式会社 学習方法、学習装置及びプログラム
JP7421152B2 (ja) 2020-11-04 2024-01-24 日本電信電話株式会社 学習方法、学習装置及びプログラム

Also Published As

Publication number Publication date
JP6951913B2 (ja) 2021-10-20

Similar Documents

Publication Publication Date Title
JP2019046334A (ja) 分類モデル生成装置、画像データ分類装置およびそれらのプログラム
US20230229919A1 (en) Learning to generate synthetic datasets for training neural networks
Mukhoti et al. Evaluating bayesian deep learning methods for semantic segmentation
US10695911B2 (en) Robot navigation and object tracking
JP7128022B2 (ja) 完全教師あり学習用のデータセットの形成
CN107529650B (zh) 闭环检测方法、装置及计算机设备
CN108038435B (zh) 一种基于卷积神经网络的特征提取与目标跟踪方法
WO2016054779A1 (en) Spatial pyramid pooling networks for image processing
WO2017199141A1 (en) Point cloud matching method
JP2010238226A (ja) 物体を追跡するための方法及びシステム
US9008440B2 (en) Component recognizing apparatus and component recognizing method
US20070237359A1 (en) Method and apparatus for adaptive mean shift tracking
KR20160096460A (ko) 복수의 분류기를 포함하는 딥 러닝 기반 인식 시스템 및 그 제어 방법
JP2007213560A (ja) フレームシーケンス中のオブジェクトを追跡するコンピュータ化された方法
US10275667B1 (en) Learning method, learning device for detecting lane through lane model and testing method, testing device using the same
JP7494316B2 (ja) ブートストラッピングされた潜在表現を使用する自己教師付き表現学習
WO2017214970A1 (en) Building convolutional neural network
JP5674550B2 (ja) 状態追跡装置、方法、及びプログラム
Ait Abdelali et al. An adaptive object tracking using Kalman filter and probability product kernel
CN111027610B (zh) 图像特征融合方法、设备和介质
CN115063447A (zh) 一种基于视频序列的目标动物运动追踪方法及相关设备
JP2021051589A5 (ja)
CN116266359A (zh) 目标物的跟踪方法、装置、计算机设备和存储介质
JP2021015479A (ja) 行動認識装置、行動認識方法、及び行動認識プログラム
CN117095180B (zh) 基于分期识别的胚胎发育阶段预测与质量评估方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200731

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210819

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210831

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210927

R150 Certificate of patent or registration of utility model

Ref document number: 6951913

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250