JP6873600B2 - 画像認識装置、画像認識方法及びプログラム - Google Patents
画像認識装置、画像認識方法及びプログラム Download PDFInfo
- Publication number
- JP6873600B2 JP6873600B2 JP2016042166A JP2016042166A JP6873600B2 JP 6873600 B2 JP6873600 B2 JP 6873600B2 JP 2016042166 A JP2016042166 A JP 2016042166A JP 2016042166 A JP2016042166 A JP 2016042166A JP 6873600 B2 JP6873600 B2 JP 6873600B2
- Authority
- JP
- Japan
- Prior art keywords
- feature
- image
- region
- scale
- conversion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
以下、本発明の第1の実施形態について、図面を参照しながら説明する。なお、本実施形態に係る画像認識装置は、対象画像中の被写体のカテゴリを判別し被写体ごとの領域に分割する意味的領域分割を行うものとする。また、被写体のカテゴリとしては、空、建物、山、道路の4種類の一般的なカテゴリであるとする。
画像認識装置100は、画像認識を行う対象の画像を取得するための画像取得部101、取得された画像から少なくとも3つの異なる空間スケールの特徴量(以降、マルチスケール特徴)を生成する生成処理を行うマルチスケール特徴生成部102を有する。また、マルチスケール特徴を変換する処理を段階的に複数回実行して新たなマルチスケールの特徴量を得るための特徴変換部103を有する。また、特徴変換部103に演算処理の制御データを供給する変換制御データメモリ104、変換された特徴量を保持する中間結果保持部105を有する。またさらに、変換された結果の特徴量に基づいて画像中の領域のカテゴリの判定を行うカテゴリ判定部106、特徴量の生成および変換動作を画像のどの領域に対して、どのようなタイミングで行うかを制御する制御部107を有する。
次に、画像認識装置100による認識処理の詳細な流れについて説明する。図3は、画像認識装置100による認識処理のフローチャートである。まず、ステップS101では、画像取得部101が、画像認識装置の記憶領域(ストレージ)やカメラ等の撮像装置等から画像を1枚取得する。ここでの画像は、静止画像もしくは動画像中の1フレームの画像である。
Round(2(k−α)/τ),
α=0.5,τ=2 ・・・(数式1)
ステップS1023では、前段のステップS1022で生成された領域群を認識装置の記憶領域に保存する。このようにしてS0個の領域群が得られたら、ステップS1021〜S1024のループ処理を抜け、ステップS102の処理を終了する。図5には、ステップS102の処理結果の一例を示す図であり、同図に示すように、本実施形態ではS0個の空間スケールからなる複数スケール領域群401が得られる。
Mx = 1/n × Σx(I(x)−μx)2
My = 1/n × Σy(I(y)−μy)2 ・・・(数式2)
ここで、nは領域jの画素数、μx,μyはそれぞれ領域jの重心の座標xおよびy、I(x),I(y)は領域jに含まれる各画素の座標xおよびyである。次に、ステップS1036では、このようにして得られた全特徴を連結して、数式3のように領域jの特徴ベクトルfjとする。
fj=[色ヒストグラム特徴T,LBP特徴T,モーメント特徴T]T ・・・(数式3)
ただし、記号Tはベクトルの転置である。ここでは、領域の特徴として3種類の特徴量を利用するとしたが、これ以外に特徴量の形態は様々に考えられる。特徴量は、画像認識装置100で判別すべき被写体の性質や計算量に応じて選択すればよい。
F0(p)=[f1(p), f2(p), ...,fk(p), ...,fS0(p)]T ・・・(数式4)
こうして得られた特徴量F0(p)の結果の一例を、図6(A)に示す。特徴量F0(p)はスケール数S0×d0次元の2次元行列であり、ここで記号col,LBP,Mx,およびMyはそれぞれ色ヒストグラム、LBP、二次モーメントの特徴であることを表している。d0は、これらの特徴量の次元の総数である。
Gi+1(p)=Fi(p)*Ci ・・・(数式5)
ただし、この畳み込み演算を詳細化すると数式6のように表される。
Gi+1(p,k,d’)=ΣdΣ−1≦τ≦1 Fi(p,τ,d)×Ci(k−τ,d’,d) ・・・(数式6)
ここで、Fi(p,k,d)は、特徴量Fi(p)のうち、k番目のスケール且つd番目の特徴チャンネルの値のことである。畳み込み変換後の特徴量Gi+1(p,k,d)についても、同様である。次に、上記の畳み込み演算で得られた特徴量Gi+1(p)に対して、スップS1082では、数式7で表わされる活性化関数θによる非線形な演算処理を行う。
G’i+1(p)=θ(Gi+1(p)),
θ(x)= Max(0,x) ・・・(数式7)
上記の活性化関数θは、半波整流の関数である。ただし、活性化関数θとしては、これに限らず、シグモイド関数や区分線形凸関数等、様々な形態を用いることができる。次に、ステップS1083では、プーリングと呼ばれる圧縮処理を行ってスケールの数を半減させる。ここでは、特徴量G’i+1(p)を構成するmi個のスケールの特徴量を平均し、1個の特徴量に代表させる平均化プーリング演算406を行う。上記の畳み込みおよびプーリング処理により、特徴変換前のスケール数siは以下の数式8で表わされるスケール数si+1に圧縮される。
si+1=(si−ci+1)/mi ・・・(数式8)
次に、ステップS1084では、上記プーリング演算の結果得られた特徴量をL2正規化し、結果を新たな特徴量Fi+1(p)とする。なお、上記プーリング演算の処理は、例えば非特許文献1などの先行手法に開示されているように、最大値プーリングや、サンプリング処理など他の形態も有り得る。また、特徴変換の段階によっては、mi=1(即ちプーリング演算を行わない)をとるような段階があってもよい。L2正規化の他の形態についても同様であり、これらの手法は公知の内容であるため、ここでは詳細の説明は省略する。
l(p)=softmax(Wn・Fn(p)+b) ・・・(数式9)
ここで、l(p)は画素pの各カテゴリの尤度を表す要素数dcのベクトルである。Wnは全結合型の重みパラメータであり、dc行dn列の行列である。bは長さdnのバイアス項のベクトルであり、Wnと共に予め学習によって調整されている。関数softmax(・)は、xiをi番目の要素に持つベクトルxが入力されると、数式10の値をi番目の要素とするベクトルyを出力する関数である。
yのi番目の要素:=exi/Σj exj ・・・(数式10)
数式10の演算の結果が、画素pのカテゴリの尤度となる。これをdc種類のカテゴリごとにスコアのマップとして集計したものを、図2のカテゴリ尤度606として図示する。ここで重要なのは、カテゴリ尤度606の解像度が入力画像600と等しいことである。本実施形態では、従来の方法のように空間方向に対しての畳み込みは行わず、数式6に表されるような方法で、画像のスケールkの方向に対して特徴量を畳み込む変換を行っている。そのため、本実施形態では従来の方法と異なり、カテゴリ尤度606として解像度の高い結果が最終的に得られる。
ここで、特徴変換部103の畳み込みカーネルCiの重みパラメータの学習方法について述べる。深層学習においては、数式11のように、クロスエントロピー最小化を損失関数として重みの値を調整する方法が広く知られている。ただし、ここでq(x)はカテゴリxの真の確率分布である。q’(x)は認識システムが推定したカテゴリxの分布である(ここで認識システムはカーネルCiの演算を部分として含むものとする)。
H(q,q’)= −Σx q(x)・Log q’(x) ・・・(数式11)
畳み込みカーネルCiの重みパラメータの学習には、数式11のクロスエントロピーを損失関数L=H(q,q’)として用いる。学習時には、まず全ての畳み込みカーネルCiの重みWiを乱数で初期化する(Wiはci×di+1×di個の重み変数である)。次に、学習画像のセットを与えて得た認識システムの出力から、各学習画像の各画素についてカテゴリの推定分布q’(x)を計算する。そして下の更新式(数式12)に従って、重みWnのj番目の要素wnjの値を更新する。
wnj(t+1)=wnj(t)−η∂L/∂wnj(t),
L=ΣiΣpLip ・・・(数式12)
ただし、ここで、Lipは学習画像iの画素pに関する損失関数である。また、ηは1より小さな値をとる学習係数である。最終層以外の重みパラメータWiについては、ニューラルネットで一般的な手法である誤差逆伝搬手法により各層ごとに順次計算して更新すればよい。なお、上記の更新式に慣性項や重みwnの減衰項と呼ばれる項を加えたタイプなど派生の形態も様々に存在する。ここで示した学習計算の個々の要素は、深層学習の技術として広く知られているため、ここではこれ以上は詳述しない。
上述の第1の実施形態では、画素ごとに特徴の抽出と畳み込み等の演算を行った。しかしながら、例えば非特許文献2のような方法によって、予め画像をN個のSuper−pixelと呼ばれる小領域に分け、この小領域を最小単位として認識の演算処理を行うようにしてもよい。これにより、画像認識時の演算の回数を画像サイズであるh×w回からN回のオーダへと減らすことができる。その際には、図4(A)のフロー図で説明した複数の領域群を作成する際に、画素ではなく上述のSuper−pixelに基づいてクラスタリングを行えばよい。
次に、本発明の第2の実施形態について説明する。第2の実施形態は、スケール方向の変換を全結合型の重みで実現するものである。第2の実施形態においては、スケール方向の特徴変換と、従来型のCNNに特徴的な空間方向の特徴変換とが、1回の演算で同時に行えることを示す。以下、図面を参照しつつ、本発明の第2の実施形態について説明する。なお、第1の実施形態で既に説明をした構成については、その説明を省略し、同一の符号を付す。
F’=θ(Wc0(1)・F) ・・・(数式13)
ここで、Fは長さ686(=カーネルのサイズ14×7×7に等しい)の特徴ベクトル、F’は長さ16の特徴ベクトル、Wc0(1)は16行686列の行列からなる重み付き和のパラメータ、θは第1の実施形態で用いたものと同じ非線形の活性化関数である。
ここで、図14に、本実施形態に係る特徴変換に関するパラメータの例(パラメータ設定1)を示す。図14(A)の表は、その各数値が図11に示した特徴変換の構成と一致するものである。この数値は、あくまでも本実施形態を実現する際の一例であり、これらの数値を変化させることによりネットワークの性能も変化する。
ここで、本実施形態に係る各段階の特徴量の変換の学習方法について説明する。図12(C)は、本実施形態の特徴量変換の学習方法を説明する模式図である。ここでは、オートエンコーダーと呼ばれる非教師型の学習方法を用いることとする。これは、以下の数式14で表される。
z=θ(W・x+b),
x’=θ(WT・z+b’) ・・・(数式14)
ここで、xは入力特徴量1010pを1列のベクトルとして並べたもの、zは中間層の出力、x’は出力特徴量1010qを1列のベクトルとして並べたものである。Wはxとzの間を結合する全結合型の重み行列、WTはzとx’の間を結合する全結合型の重み行列であり、Wの転置行列である。bとb’はバイアス項のベクトルである。θは以下の数式15で定義されるシグモイド関数である。
θ(x)=1/(1+e−x) ・・・(数式15)
オートエンコーダーの学習は、数式15の入力xと出力x’がなるべく同じ値になるように重みパラメータWを調節することで行われる。学習時には、まずWを乱数で初期化する。次に、学習用画像から物体候補領域を抽出し、各候補領域から特徴マップF0を抽出して学習データセットとする。次に、損失関数Lは数式16で定義され、これを最小化するように以下の更新式(数式17)を用いて重みWおよびバイアス項bとb’を更新する。ここでxjはj番目の学習データの特徴量である。
L = Σj 1/2||x’j−xj||2 ・・・(数式16)
[数17]
w(t+1)=w(t)−η∂L/∂w(t),
b(t+1)=b(t)−η∂L/∂b(t),
b’(t+1)=b’(t)−η∂L/∂b’(t) ・・・(数式17)
また、ηは1より小さな値をとる学習係数である。以上の処理を特徴変換の全段階、全スケールで行い、学習された重みWとバイアス項をそれぞれ記憶する。学習の順番は、特徴量F0と特徴量F1の変換に関する重みパラメータから始める。学習で獲得されたWiを用いて特徴量Fi−1から特徴量Fiを算出し、次の段階の重みパラメータWi+1を学習する。このような順番で学習処理を行う。
上述の第2の実施形態に係る画像認識装置は物体検出を目的としたが、例えばこれを画像のシーン分類のような認識タスクに応用することも可能である。それには物体の候補領域を画像全体とし、判定する対象をシーンのカテゴリに変更して学習、認識を行えばよい。また、例えば、物体候補領域を、人体検出器を用いて検出した人物の候補領域に変更し、カテゴリ判定部206が対象とするカテゴリを人物のポーズの種別や人物の行動カテゴリに変更してもよい。これにより、人物の姿勢認識や行動認識の機能を実現することが可能にある。第2の実施形態はスケール方向の特徴変換の方法に特徴を有し、その適用先としてのパターン認識については特定のタスクに限定されるものではない。
次に、本発明の第3の実施形態について説明する。第3の実施形態は、スケール方向の特徴変換と画像の空間方向の特徴変換とを別々に行うものである。以下、図面を参照しつつ、本発明の第3の実施形態について説明する。なお、第1、第2の実施形態で既に説明をした構成については、その説明を省略し、同一の符号を付す。
次に、階層画像の特徴マップf1,kをアップサンプリングし、各階層の画像の解像度を元の画像のサイズh×wに揃える。最後に、全てのスケールの特徴マップf1,1〜f1,S1を連結して特徴量F1とする。なおこの特徴変換Wsp iの処理においては、スケールに関しての変換はなされないので新たな特徴量F1のスケールの数はs1=s0=7である。
次に、本発明の第4の実施形態について説明する。上述の各実施形態において、マルチスケールの特徴量F0は、スケールの異なる複数の特徴量f0,1〜f0,s0で構成されていた。そして、各特徴量f0,iの特徴の属性およびその次元数は、どのスケールiでも共通であった。これに対し、第4の実施形態は、特徴量F0を構成する各スケールの特徴量f0,1〜f0,s0の属性および次元数がそれぞれ異なるものである。以下、図面を参照しつつ、本発明の第3の実施形態について説明する。なお、第1〜第3の実施形態で既に説明をした構成については、その説明を省略し、同一の符号を付す。
fi+1,j(p)=θ(Wi(j) Tfi,m(j)(p)+b)
・・・(数式18)
ここで、fi+1,j(p)は変換後のj番目の特徴マップ中の画素pの特徴ベクトルである。特徴ベクトルfi+1,j(p)の次元数は、スケールjごとにユーザが任意に設定したものである。このときの次元数を記号di+1,jで表す。fi,m(j)(p)は、上層の特徴ベクトルfi+1,j(p)に結合を持つ下層の全ての特徴ベクトルを縦に連結したものである。また、bはバイアス項、θは第1の実施形態と同じく非線形の活性化関数である。変換処理Wi(j)は全結合型の変換であり、di,m(j)行di+1,j列の行列である。次元数di+1,jは、スケールjごとにユーザが異なる値を決めてもよいし、全て同一の値としてもよい。
P(v(q,r)=1)=1/Z・exp{−1/σ・(q−r+0.5)2}
・・・(数式19)
ただし、P(v(q,r)=1)は、上層の特徴量Fi+1のq番目のスケールの特徴マップfi+1,qが下層の特徴量Fiのr番目のスケールの特徴マップfi,rと結合を持つ確率である。また、Zは正規化係数、σはスケールについての制御パラメータである。
[その他の実施形態]
また、本発明は、上記実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読出し実行する処理である。また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。本発明は上記実施例に限定されるものではなく、本発明の趣旨に基づき種々の変形(各実施例の有機的な組合せを含む)が可能であり、それらを本発明の範囲から除外するものではない。即ち、上述した各実施例及びその変形例を組み合わせた構成も全て本発明に含まれるものである。
102 マルチスケール特徴生成部
103 特徴変換部
104 変換制御データメモリ
105 中間結果保持部
106 カテゴリ判定部
107 制御部
Claims (7)
- 対象画像を取得する取得手段と、
前記取得した対象画像を、それぞれ異なる分割数の領域に分割し、互いに分割数の異なる少なくとも3つの領域群を生成する生成手段と、
前記領域群の領域ごとに特徴量を抽出し、当該領域内の各位置に割り当てる抽出手段と、
前記領域群を前記分割数の順に並べた順位において順位の隣接する複数の領域群を、重複を許して所定個ずつグループ化し、グループごとに特徴量を統合し、各グループの特徴量を再度グループ化してグループごとに統合する処理を繰り返すことで、前記領域群のそれぞれにおける同一の位置の特徴量を段階的に統合する統合手段と、
前記統合された特徴量に基づいて前記対象画像のカテゴリを判定する判定手段と、
を有することを特徴とする画像認識装置。 - 前記統合手段は畳み込みニューラルネットワークを用いることを特徴とする請求項1に記載の画像認識装置。
- 前記統合手段は全結合型のニューラルネットワークを用いることを特徴とする請求項1に記載の画像認識装置。
- 前記抽出手段は、前記領域群ごとの特徴量を空間方向に統合し、該統合の結果と、前記領域群の特徴量とを連結することを特徴とする請求項1に記載の画像認識装置。
- 前記判定手段は、前記対象画像のシーンの種別、前記対象画像の被写体の種別、前記対象画像の被写体の行動の種別、前記対象画像の被写体が主被写体か否か、のいずれか1つ以上を判定することを特徴とする請求項1から4のいずれか1項に記載の画像認識装置。
- 対象画像を取得するステップと、
前記取得した対象画像を、それぞれ異なる分割数の領域に分割し、互いに分割数の異なる少なくとも3つの領域群を生成するステップと、
前記領域群の領域ごとに特徴量を抽出し、当該領域内の各位置に割り当てるステップと、
前記領域群を前記分割数の順に並べた順位において順位の隣接する複数の領域群を、重複を許して所定個ずつグループ化し、グループごとに特徴量を統合し、各グループの特徴量を再度グループ化してグループごとに統合する処理を繰り返すことで、前記領域群のそれぞれにおける同一の位置の特徴量を段階的に統合するステップと、
前記統合された特徴量に基づいて前記対象画像のカテゴリを判定するステップと、
を有することを特徴とする画像認識方法。 - コンピュータを請求項1から5のいずれか1項に記載の画像認識装置として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016042166A JP6873600B2 (ja) | 2016-03-04 | 2016-03-04 | 画像認識装置、画像認識方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016042166A JP6873600B2 (ja) | 2016-03-04 | 2016-03-04 | 画像認識装置、画像認識方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017157138A JP2017157138A (ja) | 2017-09-07 |
JP6873600B2 true JP6873600B2 (ja) | 2021-05-19 |
Family
ID=59810329
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016042166A Active JP6873600B2 (ja) | 2016-03-04 | 2016-03-04 | 画像認識装置、画像認識方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6873600B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7029981B2 (ja) | 2018-03-01 | 2022-03-04 | 国立大学法人北海道大学 | 汚水越流検知装置、汚水越流検知方法、プログラム、及び汚水処理装置 |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6861600B2 (ja) * | 2017-09-11 | 2021-04-21 | 株式会社日立製作所 | 学習装置、および学習方法 |
EP3462373A1 (en) * | 2017-10-02 | 2019-04-03 | Promaton Holding B.V. | Automated classification and taxonomy of 3d teeth data using deep learning methods |
US10043113B1 (en) * | 2017-10-04 | 2018-08-07 | StradVision, Inc. | Method and device for generating feature maps by using feature upsampling networks |
CN109684901B (zh) * | 2017-10-19 | 2023-06-06 | 富士通株式会社 | 图像处理装置和图像处理方法 |
JP6949671B2 (ja) * | 2017-11-02 | 2021-10-13 | キヤノン株式会社 | 情報処理装置、画像領域選択方法、コンピュータプログラム、及び記憶媒体 |
JP7062923B2 (ja) * | 2017-11-21 | 2022-05-09 | 富士通株式会社 | 可視化方法、可視化装置及び可視化プログラム |
JP2019159910A (ja) * | 2018-03-14 | 2019-09-19 | 国立大学法人豊橋技術科学大学 | 三次元画像分類装置および三次元画像分類方法 |
EP3561778A1 (en) | 2018-04-26 | 2019-10-30 | Promaton Holding B.V. | Automated correction of metal affected voxel representations of x-ray data using deep learning techniques |
CA3105272A1 (en) * | 2018-06-29 | 2020-01-02 | Wrnch Inc. | Human pose analysis system and method |
KR102195940B1 (ko) * | 2018-09-18 | 2020-12-28 | 전남대학교 산학협력단 | 적응적 비최대억제 방법을 이용하는 딥러닝기반 영상객체 탐지를 위한 장치 및 방법 |
CN111476067B (zh) * | 2019-01-23 | 2023-04-07 | 腾讯科技(深圳)有限公司 | 图像的文字识别方法、装置、电子设备及可读存储介质 |
US10387754B1 (en) * | 2019-01-23 | 2019-08-20 | StradVision, Inc. | Learning method and learning device for object detector based on CNN using 1×H convolution to be used for hardware optimization, and testing method and testing device using the same |
CN109800737B (zh) * | 2019-02-02 | 2021-06-25 | 深圳市商汤科技有限公司 | 面部识别方法及装置、电子设备和存储介质 |
JP6965299B2 (ja) * | 2019-03-18 | 2021-11-10 | 株式会社東芝 | 物体検出装置、物体検出方法、プログラム、および移動体 |
JP6965298B2 (ja) * | 2019-03-18 | 2021-11-10 | 株式会社東芝 | 物体検出装置、物体検出方法、プログラム、および移動体 |
EP3745153A1 (en) * | 2019-05-28 | 2020-12-02 | Koninklijke Philips N.V. | A method for motion artifact detection |
JP7235308B2 (ja) * | 2019-09-10 | 2023-03-08 | 株式会社豊田中央研究所 | 物体識別装置、及び物体識別プログラム |
CN111178369B (zh) * | 2019-12-11 | 2023-12-19 | 中国科学院苏州生物医学工程技术研究所 | 一种医学影像的识别方法及系统、电子设备、存储介质 |
CN112560893B (zh) * | 2020-11-13 | 2022-11-04 | 贝壳技术有限公司 | 图片纹理匹配方法、装置、电子介质及存储介质 |
CN115453990B (zh) * | 2022-08-31 | 2023-02-17 | 福建天甫电子材料有限公司 | 用于氟化铵生产的生产管理控制系统及其控制方法 |
CN116715560B (zh) * | 2023-08-10 | 2023-11-14 | 吉林隆源农业服务有限公司 | 控释肥料的智能化制备方法及其系统 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06139410A (ja) * | 1992-10-23 | 1994-05-20 | Fujitsu Ltd | ニューラル・ネットワークによるテンプレート・マッチング型文字認識方式 |
JP2007072530A (ja) * | 2005-09-02 | 2007-03-22 | Canon Inc | 画像処理装置、画像処理方法、及び撮像装置 |
JP4859025B2 (ja) * | 2005-12-16 | 2012-01-18 | 株式会社リコー | 類似画像検索装置、類似画像検索処理方法、プログラム及び情報記録媒体 |
JP4842197B2 (ja) * | 2007-04-17 | 2011-12-21 | 財団法人ソフトピアジャパン | 多重分割画像を用いた異常動作検出装置、異常動作検出方法及び異常動作検出用プログラム |
US9530073B2 (en) * | 2010-04-20 | 2016-12-27 | Qualcomm Incorporated | Efficient descriptor extraction over multiple levels of an image scale space |
JP6151908B2 (ja) * | 2012-11-14 | 2017-06-21 | 日本放送協会 | 学習装置、識別装置、およびそのプログラム |
-
2016
- 2016-03-04 JP JP2016042166A patent/JP6873600B2/ja active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7029981B2 (ja) | 2018-03-01 | 2022-03-04 | 国立大学法人北海道大学 | 汚水越流検知装置、汚水越流検知方法、プログラム、及び汚水処理装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2017157138A (ja) | 2017-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6873600B2 (ja) | 画像認識装置、画像認識方法及びプログラム | |
Abbas et al. | Region-based object detection and classification using faster R-CNN | |
KR102224253B1 (ko) | 심층 네트워크와 랜덤 포레스트가 결합된 앙상블 분류기의 경량화를 위한 교사-학생 프레임워크 및 이를 기반으로 하는 분류 방법 | |
CN108182441B (zh) | 平行多通道卷积神经网络、构建方法及图像特征提取方法 | |
CN107341452B (zh) | 基于四元数时空卷积神经网络的人体行为识别方法 | |
JP7386545B2 (ja) | 画像中の物体を識別するための方法、及び当該方法を実施するためのモバイル装置 | |
Thériault et al. | Dynamic scene classification: Learning motion descriptors with slow features analysis | |
US20210264144A1 (en) | Human pose analysis system and method | |
CN112446270A (zh) | 行人再识别网络的训练方法、行人再识别方法和装置 | |
JP7026456B2 (ja) | 画像処理装置、学習装置、フォーカス制御装置、露出制御装置、画像処理方法、学習方法、及びプログラム | |
CN104778476B (zh) | 一种图像分类方法 | |
CN110929593A (zh) | 一种基于细节辨别区别的实时显著性行人检测方法 | |
JP2014041476A (ja) | 画像処理装置、画像処理方法及びプログラム | |
CN115116054B (zh) | 一种基于多尺度轻量级网络的病虫害识别方法 | |
CN109165698A (zh) | 一种面向智慧交通的图像分类识别方法及其存储介质 | |
JP2023115104A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
KR101612779B1 (ko) | 부분 기저 및 랜덤 포레스트를 이용하여 복수의 정적 이미지에서 부분적으로 가려진 사람을 시점 변화에 관계없이 감지하는 방법 및 이를 수행하는 컴퓨팅 장치 | |
Greche et al. | Histogram of oriented gradient and multi layer feed forward neural network for facial expression identification | |
CN110728238A (zh) | 一种融合型神经网络的人员再检测方法 | |
CN112560824B (zh) | 一种基于多特征自适应融合的人脸表情识别方法 | |
KR20180092453A (ko) | Cnn과 스테레오 이미지를 이용한 얼굴 인식 방법 | |
Roslan et al. | Individual tree crown detection using GAN and RetinaNet on tropical forest | |
Yang et al. | Fast image mosaicing for panoramic face recognition. | |
CN112580442B (zh) | 一种基于多维金字塔层次模型的行为识别方法 | |
Kasinets et al. | Layered convolutional neural networks for multi-class image classification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190301 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200218 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20200403 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200617 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201013 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201210 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210323 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210421 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6873600 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |