JP2017157138A - 画像認識装置、画像認識方法及びプログラム - Google Patents
画像認識装置、画像認識方法及びプログラム Download PDFInfo
- Publication number
- JP2017157138A JP2017157138A JP2016042166A JP2016042166A JP2017157138A JP 2017157138 A JP2017157138 A JP 2017157138A JP 2016042166 A JP2016042166 A JP 2016042166A JP 2016042166 A JP2016042166 A JP 2016042166A JP 2017157138 A JP2017157138 A JP 2017157138A
- Authority
- JP
- Japan
- Prior art keywords
- feature
- conversion
- image
- image recognition
- scale
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
以下、本発明の第1の実施形態について、図面を参照しながら説明する。なお、本実施形態に係る画像認識装置は、対象画像中の被写体のカテゴリを判別し被写体ごとの領域に分割する意味的領域分割を行うものとする。また、被写体のカテゴリとしては、空、建物、山、道路の4種類の一般的なカテゴリであるとする。
画像認識装置100は、画像認識を行う対象の画像を取得するための画像取得部101、取得された画像から少なくとも3つの異なる空間スケールの特徴量(以降、マルチスケール特徴)を生成する生成処理を行うマルチスケール特徴生成部102を有する。また、マルチスケール特徴を変換する処理を段階的に複数回実行して新たなマルチスケールの特徴量を得るための特徴変換部103を有する。また、特徴変換部103に演算処理の制御データを供給する変換制御データメモリ104、変換された特徴量を保持する中間結果保持部105を有する。またさらに、変換された結果の特徴量に基づいて画像中の領域のカテゴリの判定を行うカテゴリ判定部106、特徴量の生成および変換動作を画像のどの領域に対して、どのようなタイミングで行うかを制御する制御部107を有する。
次に、画像認識装置100による認識処理の詳細な流れについて説明する。図3は、画像認識装置100による認識処理のフローチャートである。まず、ステップS101では、画像取得部101が、画像認識装置の記憶領域(ストレージ)やカメラ等の撮像装置等から画像を1枚取得する。ここでの画像は、静止画像もしくは動画像中の1フレームの画像である。
Round(2(k−α)/τ),
α=0.5,τ=2 ・・・(数式1)
ステップS1023では、前段のステップS1022で生成された領域群を認識装置の記憶領域に保存する。このようにしてS0個の領域群が得られたら、ステップS1021〜S1024のループ処理を抜け、ステップS102の処理を終了する。図5には、ステップS102の処理結果の一例を示す図であり、同図に示すように、本実施形態ではS0個の空間スケールからなる複数スケール領域群401が得られる。
Mx = 1/n × Σx(I(x)−μx)2
My = 1/n × Σy(I(y)−μy)2 ・・・(数式2)
ここで、nは領域jの画素数、μx,μyはそれぞれ領域jの重心の座標xおよびy、I(x),I(y)は領域jに含まれる各画素の座標xおよびyである。次に、ステップS1036では、このようにして得られた全特徴を連結して、数式3のように領域jの特徴ベクトルfjとする。
fj=[色ヒストグラム特徴T,LBP特徴T,モーメント特徴T]T ・・・(数式3)
ただし、記号Tはベクトルの転置である。ここでは、領域の特徴として3種類の特徴量を利用するとしたが、これ以外に特徴量の形態は様々に考えられる。特徴量は、画像認識装置100で判別すべき被写体の性質や計算量に応じて選択すればよい。
F0(p)=[f1(p), f2(p), ...,fk(p), ...,fS0(p)]T ・・・(数式4)
こうして得られた特徴量F0(p)の結果の一例を、図6(A)に示す。特徴量F0(p)はスケール数S0×d0次元の2次元行列であり、ここで記号col,LBP,Mx,およびMyはそれぞれ色ヒストグラム、LBP、二次モーメントの特徴であることを表している。d0は、これらの特徴量の次元の総数である。
Gi+1(p)=Fi(p)*Ci ・・・(数式5)
ただし、この畳み込み演算を詳細化すると数式6のように表される。
Gi+1(p,k,d’)=ΣdΣ−1≦τ≦1 Fi(p,τ,d)×Ci(k−τ,d’,d) ・・・(数式6)
ここで、Fi(p,k,d)は、特徴量Fi(p)のうち、k番目のスケール且つd番目の特徴チャンネルの値のことである。畳み込み変換後の特徴量Gi+1(p,k,d)についても、同様である。次に、上記の畳み込み演算で得られた特徴量Gi+1(p)に対して、スップS1082では、数式7で表わされる活性化関数θによる非線形な演算処理を行う。
G’i+1(p)=θ(Gi+1(p)),
θ(x)= Max(0,x) ・・・(数式7)
上記の活性化関数θは、半波整流の関数である。ただし、活性化関数θとしては、これに限らず、シグモイド関数や区分線形凸関数等、様々な形態を用いることができる。次に、ステップS1083では、プーリングと呼ばれる圧縮処理を行ってスケールの数を半減させる。ここでは、特徴量G’i+1(p)を構成するmi個のスケールの特徴量を平均し、1個の特徴量に代表させる平均化プーリング演算406を行う。上記の畳み込みおよびプーリング処理により、特徴変換前のスケール数siは以下の数式8で表わされるスケール数si+1に圧縮される。
si+1=(si−ci+1)/mi ・・・(数式8)
次に、ステップS1084では、上記プーリング演算の結果得られた特徴量をL2正規化し、結果を新たな特徴量Fi+1(p)とする。なお、上記プーリング演算の処理は、例えば非特許文献1などの先行手法に開示されているように、最大値プーリングや、サンプリング処理など他の形態も有り得る。また、特徴変換の段階によっては、mi=1(即ちプーリング演算を行わない)をとるような段階があってもよい。L2正規化の他の形態についても同様であり、これらの手法は公知の内容であるため、ここでは詳細の説明は省略する。
l(p)=softmax(Wn・Fn(p)+b) ・・・(数式9)
ここで、l(p)は画素pの各カテゴリの尤度を表す要素数dcのベクトルである。Wnは全結合型の重みパラメータであり、dc行dn列の行列である。bは長さdnのバイアス項のベクトルであり、Wnと共に予め学習によって調整されている。関数softmax(・)は、xiをi番目の要素に持つベクトルxが入力されると、数式10の値をi番目の要素とするベクトルyを出力する関数である。
yのi番目の要素:=exi/Σj exj ・・・(数式10)
数式10の演算の結果が、画素pのカテゴリの尤度となる。これをdc種類のカテゴリごとにスコアのマップとして集計したものを、図2のカテゴリ尤度606として図示する。ここで重要なのは、カテゴリ尤度606の解像度が入力画像600と等しいことである。本実施形態では、従来の方法のように空間方向に対しての畳み込みは行わず、数式6に表されるような方法で、画像のスケールkの方向に対して特徴量を畳み込む変換を行っている。そのため、本実施形態では従来の方法と異なり、カテゴリ尤度606として解像度の高い結果が最終的に得られる。
ここで、特徴変換部103の畳み込みカーネルCiの重みパラメータの学習方法について述べる。深層学習においては、数式11のように、クロスエントロピー最小化を損失関数として重みの値を調整する方法が広く知られている。ただし、ここでq(x)はカテゴリxの真の確率分布である。q’(x)は認識システムが推定したカテゴリxの分布である(ここで認識システムはカーネルCiの演算を部分として含むものとする)。
H(q,q’)= −Σx q(x)・Log q’(x) ・・・(数式11)
畳み込みカーネルCiの重みパラメータの学習には、数式11のクロスエントロピーを損失関数L=H(q,q’)として用いる。学習時には、まず全ての畳み込みカーネルCiの重みWiを乱数で初期化する(Wiはci×di+1×di個の重み変数である)。次に、学習画像のセットを与えて得た認識システムの出力から、各学習画像の各画素についてカテゴリの推定分布q’(x)を計算する。そして下の更新式(数式12)に従って、重みWnのj番目の要素wnjの値を更新する。
wnj(t+1)=wnj(t)−η∂L/∂wnj(t),
L=ΣiΣpLip ・・・(数式12)
ただし、ここで、Lipは学習画像iの画素pに関する損失関数である。また、ηは1より小さな値をとる学習係数である。最終層以外の重みパラメータWiについては、ニューラルネットで一般的な手法である誤差逆伝搬手法により各層ごとに順次計算して更新すればよい。なお、上記の更新式に慣性項や重みwnの減衰項と呼ばれる項を加えたタイプなど派生の形態も様々に存在する。ここで示した学習計算の個々の要素は、深層学習の技術として広く知られているため、ここではこれ以上は詳述しない。
上述の第1の実施形態では、画素ごとに特徴の抽出と畳み込み等の演算を行った。しかしながら、例えば非特許文献2のような方法によって、予め画像をN個のSuper−pixelと呼ばれる小領域に分け、この小領域を最小単位として認識の演算処理を行うようにしてもよい。これにより、画像認識時の演算の回数を画像サイズであるh×w回からN回のオーダへと減らすことができる。その際には、図4(A)のフロー図で説明した複数の領域群を作成する際に、画素ではなく上述のSuper−pixelに基づいてクラスタリングを行えばよい。
次に、本発明の第2の実施形態について説明する。第2の実施形態は、スケール方向の変換を全結合型の重みで実現するものである。第2の実施形態においては、スケール方向の特徴変換と、従来型のCNNに特徴的な空間方向の特徴変換とが、1回の演算で同時に行えることを示す。以下、図面を参照しつつ、本発明の第2の実施形態について説明する。なお、第1の実施形態で既に説明をした構成については、その説明を省略し、同一の符号を付す。
F’=θ(Wc0(1)・F) ・・・(数式13)
ここで、Fは長さ686(=カーネルのサイズ14×7×7に等しい)の特徴ベクトル、F’は長さ16の特徴ベクトル、Wc0(1)は16行686列の行列からなる重み付き和のパラメータ、θは第1の実施形態で用いたものと同じ非線形の活性化関数である。
ここで、図14に、本実施形態に係る特徴変換に関するパラメータの例(パラメータ設定1)を示す。図14(A)の表は、その各数値が図11に示した特徴変換の構成と一致するものである。この数値は、あくまでも本実施形態を実現する際の一例であり、これらの数値を変化させることによりネットワークの性能も変化する。
ここで、本実施形態に係る各段階の特徴量の変換の学習方法について説明する。図12(C)は、本実施形態の特徴量変換の学習方法を説明する模式図である。ここでは、オートエンコーダーと呼ばれる非教師型の学習方法を用いることとする。これは、以下の数式14で表される。
z=θ(W・x+b),
x’=θ(WT・z+b’) ・・・(数式14)
ここで、xは入力特徴量1010pを1列のベクトルとして並べたもの、zは中間層の出力、x’は出力特徴量1010qを1列のベクトルとして並べたものである。Wはxとzの間を結合する全結合型の重み行列、WTはzとx’の間を結合する全結合型の重み行列であり、Wの転置行列である。bとb’はバイアス項のベクトルである。θは以下の数式15で定義されるシグモイド関数である。
θ(x)=1/(1+e−x) ・・・(数式15)
オートエンコーダーの学習は、数式15の入力xと出力x’がなるべく同じ値になるように重みパラメータWを調節することで行われる。学習時には、まずWを乱数で初期化する。次に、学習用画像から物体候補領域を抽出し、各候補領域から特徴マップF0を抽出して学習データセットとする。次に、損失関数Lは数式16で定義され、これを最小化するように以下の更新式(数式17)を用いて重みWおよびバイアス項bとb’を更新する。ここでxjはj番目の学習データの特徴量である。
L = Σj 1/2||x’j−xj||2 ・・・(数式16)
[数17]
w(t+1)=w(t)−η∂L/∂w(t),
b(t+1)=b(t)−η∂L/∂b(t),
b’(t+1)=b’(t)−η∂L/∂b’(t) ・・・(数式17)
また、ηは1より小さな値をとる学習係数である。以上の処理を特徴変換の全段階、全スケールで行い、学習された重みWとバイアス項をそれぞれ記憶する。学習の順番は、特徴量F0と特徴量F1の変換に関する重みパラメータから始める。学習で獲得されたWiを用いて特徴量Fi−1から特徴量Fiを算出し、次の段階の重みパラメータWi+1を学習する。このような順番で学習処理を行う。
上述の第2の実施形態に係る画像認識装置は物体検出を目的としたが、例えばこれを画像のシーン分類のような認識タスクに応用することも可能である。それには物体の候補領域を画像全体とし、判定する対象をシーンのカテゴリに変更して学習、認識を行えばよい。また、例えば、物体候補領域を、人体検出器を用いて検出した人物の候補領域に変更し、カテゴリ判定部206が対象とするカテゴリを人物のポーズの種別や人物の行動カテゴリに変更してもよい。これにより、人物の姿勢認識や行動認識の機能を実現することが可能にある。第2の実施形態はスケール方向の特徴変換の方法に特徴を有し、その適用先としてのパターン認識については特定のタスクに限定されるものではない。
次に、本発明の第3の実施形態について説明する。第3の実施形態は、スケール方向の特徴変換と画像の空間方向の特徴変換とを別々に行うものである。以下、図面を参照しつつ、本発明の第3の実施形態について説明する。なお、第1、第2の実施形態で既に説明をした構成については、その説明を省略し、同一の符号を付す。
次に、階層画像の特徴マップf1,kをアップサンプリングし、各階層の画像の解像度を元の画像のサイズh×wに揃える。最後に、全てのスケールの特徴マップf1,1〜f1,S1を連結して特徴量F1とする。なおこの特徴変換Wsp iの処理においては、スケールに関しての変換はなされないので新たな特徴量F1のスケールの数はs1=s0=7である。
次に、本発明の第4の実施形態について説明する。上述の各実施形態において、マルチスケールの特徴量F0は、スケールの異なる複数の特徴量f0,1〜f0,s0で構成されていた。そして、各特徴量f0,iの特徴の属性およびその次元数は、どのスケールiでも共通であった。これに対し、第4の実施形態は、特徴量F0を構成する各スケールの特徴量f0,1〜f0,s0の属性および次元数がそれぞれ異なるものである。以下、図面を参照しつつ、本発明の第3の実施形態について説明する。なお、第1〜第3の実施形態で既に説明をした構成については、その説明を省略し、同一の符号を付す。
fi+1,j(p)=θ(Wi(j) Tfi,m(j)(p)+b)
・・・(数式18)
ここで、fi+1,j(p)は変換後のj番目の特徴マップ中の画素pの特徴ベクトルである。特徴ベクトルfi+1,j(p)の次元数は、スケールjごとにユーザが任意に設定したものである。このときの次元数を記号di+1,jで表す。fi,m(j)(p)は、上層の特徴ベクトルfi+1,j(p)に結合を持つ下層の全ての特徴ベクトルを縦に連結したものである。また、bはバイアス項、θは第1の実施形態と同じく非線形の活性化関数である。変換処理Wi(j)は全結合型の変換であり、di,m(j)行di+1,j列の行列である。次元数di+1,jは、スケールjごとにユーザが異なる値を決めてもよいし、全て同一の値としてもよい。
P(v(q,r)=1)=1/Z・exp{−1/σ・(q−r+0.5)2}
・・・(数式19)
ただし、P(v(q,r)=1)は、上層の特徴量Fi+1のq番目のスケールの特徴マップfi+1,qが下層の特徴量Fiのr番目のスケールの特徴マップfi,rと結合を持つ確率である。また、Zは正規化係数、σはスケールについての制御パラメータである。
[その他の実施形態]
また、本発明は、上記実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読出し実行する処理である。また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。本発明は上記実施例に限定されるものではなく、本発明の趣旨に基づき種々の変形(各実施例の有機的な組合せを含む)が可能であり、それらを本発明の範囲から除外するものではない。即ち、上述した各実施例及びその変形例を組み合わせた構成も全て本発明に含まれるものである。
102 マルチスケール特徴生成部
103 特徴変換部
104 変換制御データメモリ
105 中間結果保持部
106 カテゴリ判定部
107 制御部
Claims (13)
- 対象画像を取得する取得手段と、
前記取得した対象画像に基づいて、少なくとも3つの異なるスケールの特徴ベクトルからなる特徴セットを生成する生成手段と、
前記生成した特徴セットとは異なるスケールの特徴セットに変換する変換処理を行う変換手段と、
前記変換手段による変換処理を複数回実行させる制御手段と、
を有することを特徴とする画像認識装置。 - 前記生成手段が生成した特徴セットと前記変換手段が変換した特徴セットとは同一のスケール方向の順序を持つマルチスケールの特徴セットであることを特徴とする請求項1に記載の画像認識装置。
- 前記変換手段は畳み込みニューラルネットからなることを特徴とする請求項1または2に記載の画像認識装置。
- 前記変換手段は全結合型のニューラルネットであることを特徴とする請求項1または2に記載の画像認識装置。
- 前記生成手段は、前記取得した対象画像に基づいてスケールの異なる複数の画像を生成し、当該生成した複数の画像に対して空間方向の特徴を統合するニューラルネットをそれぞれ適応した結果に基づいて前記特徴セットを生成する生成処理を実行することを特徴とする請求項1から4のいずれか1項に記載の画像認識装置。
- 前記制御手段は、前記生成手段による生成処理と前記変換手段による変換処理を段階的に複数回実行させることを特徴とする請求項5に記載の画像認識装置。
- 前記生成手段は、スケールに関する制御パラメータを変更することによりスケールの異なる複数の局所領域を生成し、当該局所領域の特徴量に基づいて前記特徴セットを生成することを特徴とする請求項1から6のいずれか1項に記載の画像認識装置。
- 前記生成手段は、前記取得した対象画像に基づいてスケールの異なる複数の画像を生成し、当該生成した複数の画像について空間方向の特徴を統合する演算の結果と、前記局所領域との特徴量とを連結することを特徴とする請求項7に記載の画像認識装置。
- 前記生成手段は、スケールおよび特徴の種別が異なる特徴のセットを生成することを特徴とする請求項1から8のいずれか1項に記載の画像認識装置。
- 前記制御手段により前記変換処理が複数回実行された特徴セットに基づいて、前記対象画像に含まれるカテゴリを判断する判定手段を、更に有することを特徴とする請求項1から9のいずれか1項に記載の画像認識装置。
- 前記制御手段により前記変換処理が複数回実行された特徴セットに基づいて、前記対象画像のシーンの種別、前記対象画像の被写体の種別、前記対象画像の被写体の行動の種別、前記対象画像の被写体が主被写体か否か、のいずれか1つ以上を判定する判定手段を、更に有することを特徴とする請求項1から9のいずれか1項に記載の画像認識装置。
- 対象画像を取得するステップと、
前記取得した対象画像に基づいて、少なくとも3つの異なるスケールの特徴ベクトルからなる特徴セットを生成するステップと、
前記生成した特徴セットとは異なるスケールの特徴セットに変換する変換処理を行うステップと、
前記変換処理を複数回実行させるステップと、
を有することを特徴とする画像認識方法。 - コンピュータを請求項1から11のいずれか1項に記載の画像認識装置として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016042166A JP6873600B2 (ja) | 2016-03-04 | 2016-03-04 | 画像認識装置、画像認識方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016042166A JP6873600B2 (ja) | 2016-03-04 | 2016-03-04 | 画像認識装置、画像認識方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017157138A true JP2017157138A (ja) | 2017-09-07 |
JP6873600B2 JP6873600B2 (ja) | 2021-05-19 |
Family
ID=59810329
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016042166A Active JP6873600B2 (ja) | 2016-03-04 | 2016-03-04 | 画像認識装置、画像認識方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6873600B2 (ja) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019049889A (ja) * | 2017-09-11 | 2019-03-28 | 株式会社日立製作所 | 学習装置、および学習方法 |
JP2019067406A (ja) * | 2017-10-04 | 2019-04-25 | 株式会社ストラドビジョン | Funを用いて特徴マップを生成するための方法及び装置 |
CN109684901A (zh) * | 2017-10-19 | 2019-04-26 | 富士通株式会社 | 图像处理装置和图像处理方法 |
JP2019086899A (ja) * | 2017-11-02 | 2019-06-06 | キヤノン株式会社 | 情報処理装置、画像領域選択方法、コンピュータプログラム、及び記憶媒体 |
JP2019096977A (ja) * | 2017-11-21 | 2019-06-20 | 富士通株式会社 | 可視化方法、可視化装置及び可視化プログラム |
JP2019159910A (ja) * | 2018-03-14 | 2019-09-19 | 国立大学法人豊橋技術科学大学 | 三次元画像分類装置および三次元画像分類方法 |
KR20200036079A (ko) * | 2018-09-18 | 2020-04-07 | 전남대학교산학협력단 | 적응적 비최대억제 방법을 이용하는 딥러닝기반 영상객체 탐지를 위한 장치 및 방법 |
CN111178369A (zh) * | 2019-12-11 | 2020-05-19 | 中国科学院苏州生物医学工程技术研究所 | 一种医学影像的识别方法及系统、电子设备、存储介质 |
CN111328397A (zh) * | 2017-10-02 | 2020-06-23 | 普罗马顿控股有限责任公司 | 使用深度学习方法对3d牙齿数据进行自动分类和归类 |
CN111476067A (zh) * | 2019-01-23 | 2020-07-31 | 腾讯科技(深圳)有限公司 | 图像的文字识别方法、装置、电子设备及可读存储介质 |
JP2020119539A (ja) * | 2019-01-23 | 2020-08-06 | 株式会社ストラドビジョン | ハードウェア最適化に使用される1xHコンボリューションを利用したCNN基盤の物体検出器を学習する方法及び学習装置、それを利用したテスト方法及びテスト装置 |
JP2020154479A (ja) * | 2019-03-18 | 2020-09-24 | 株式会社東芝 | 物体検出装置、物体検出方法、プログラム、および移動体 |
JP2020154478A (ja) * | 2019-03-18 | 2020-09-24 | 株式会社東芝 | 物体検出装置、物体検出方法、プログラム、および移動体 |
JP2021043633A (ja) * | 2019-09-10 | 2021-03-18 | 株式会社豊田中央研究所 | 物体識別装置、及び物体識別プログラム |
CN112560893A (zh) * | 2020-11-13 | 2021-03-26 | 贝壳技术有限公司 | 图片纹理匹配方法、装置、电子介质及存储介质 |
JP2021514497A (ja) * | 2019-02-02 | 2021-06-10 | 深▲せん▼市商▲湯▼科技有限公司Shenzhen Sensetime Technology Co., Ltd. | 顔部認識方法及び装置、電子機器並びに記憶媒体 |
JP2021529389A (ja) * | 2018-06-29 | 2021-10-28 | レンチ インク.Wrnch Inc. | 人体ポーズ分析システム及び方法 |
JP2022534031A (ja) * | 2019-05-28 | 2022-07-27 | コーニンクレッカ フィリップス エヌ ヴェ | 運動アーチファクト検出の方法 |
US11494957B2 (en) | 2018-04-26 | 2022-11-08 | Promaton Holding B.V. | Automated correction of metal affected voxel representations of x-ray data using deep learning techniques |
CN115453990A (zh) * | 2022-08-31 | 2022-12-09 | 福建天甫电子材料有限公司 | 用于氟化铵生产的生产管理控制系统及其控制方法 |
CN116715560A (zh) * | 2023-08-10 | 2023-09-08 | 吉林隆源农业服务有限公司 | 控释肥料的智能化制备方法及其系统 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7029981B2 (ja) | 2018-03-01 | 2022-03-04 | 国立大学法人北海道大学 | 汚水越流検知装置、汚水越流検知方法、プログラム、及び汚水処理装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06139410A (ja) * | 1992-10-23 | 1994-05-20 | Fujitsu Ltd | ニューラル・ネットワークによるテンプレート・マッチング型文字認識方式 |
JP2007072530A (ja) * | 2005-09-02 | 2007-03-22 | Canon Inc | 画像処理装置、画像処理方法、及び撮像装置 |
JP2007164648A (ja) * | 2005-12-16 | 2007-06-28 | Ricoh Co Ltd | 類似画像検索装置、類似画像検索方法、プログラム及び情報記録媒体 |
JP2008269063A (ja) * | 2007-04-17 | 2008-11-06 | Softopia Japan Foundation | 多重分割画像を用いた異常動作検出装置、異常動作検出方法及び異常動作検出用プログラム |
JP2013525905A (ja) * | 2010-04-20 | 2013-06-20 | クゥアルコム・インコーポレイテッド | 事前計算されたスケール空間からのデイジー記述子生成 |
JP2014099027A (ja) * | 2012-11-14 | 2014-05-29 | Nippon Hoso Kyokai <Nhk> | 画像特徴量算出装置、学習装置、識別装置、およびそのプログラム |
-
2016
- 2016-03-04 JP JP2016042166A patent/JP6873600B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06139410A (ja) * | 1992-10-23 | 1994-05-20 | Fujitsu Ltd | ニューラル・ネットワークによるテンプレート・マッチング型文字認識方式 |
JP2007072530A (ja) * | 2005-09-02 | 2007-03-22 | Canon Inc | 画像処理装置、画像処理方法、及び撮像装置 |
JP2007164648A (ja) * | 2005-12-16 | 2007-06-28 | Ricoh Co Ltd | 類似画像検索装置、類似画像検索方法、プログラム及び情報記録媒体 |
JP2008269063A (ja) * | 2007-04-17 | 2008-11-06 | Softopia Japan Foundation | 多重分割画像を用いた異常動作検出装置、異常動作検出方法及び異常動作検出用プログラム |
JP2013525905A (ja) * | 2010-04-20 | 2013-06-20 | クゥアルコム・インコーポレイテッド | 事前計算されたスケール空間からのデイジー記述子生成 |
JP2014099027A (ja) * | 2012-11-14 | 2014-05-29 | Nippon Hoso Kyokai <Nhk> | 画像特徴量算出装置、学習装置、識別装置、およびそのプログラム |
Cited By (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019049889A (ja) * | 2017-09-11 | 2019-03-28 | 株式会社日立製作所 | 学習装置、および学習方法 |
CN111328397A (zh) * | 2017-10-02 | 2020-06-23 | 普罗马顿控股有限责任公司 | 使用深度学习方法对3d牙齿数据进行自动分类和归类 |
US11568533B2 (en) | 2017-10-02 | 2023-01-31 | Promaton Holding B.V. | Automated classification and taxonomy of 3D teeth data using deep learning methods |
JP2020535897A (ja) * | 2017-10-02 | 2020-12-10 | プロマトン・ホールディング・ベー・フェー | 深層学習法を使用する3d歯データの自動分類および分類法 |
JP7412334B2 (ja) | 2017-10-02 | 2024-01-12 | プロマトン・ホールディング・ベー・フェー | 深層学習法を使用する3d歯データの自動分類および分類法 |
JP2019067406A (ja) * | 2017-10-04 | 2019-04-25 | 株式会社ストラドビジョン | Funを用いて特徴マップを生成するための方法及び装置 |
CN109684901A (zh) * | 2017-10-19 | 2019-04-26 | 富士通株式会社 | 图像处理装置和图像处理方法 |
JP2019079514A (ja) * | 2017-10-19 | 2019-05-23 | 富士通株式会社 | 画像処理装置及び画像処理方法 |
CN109684901B (zh) * | 2017-10-19 | 2023-06-06 | 富士通株式会社 | 图像处理装置和图像处理方法 |
JP2019086899A (ja) * | 2017-11-02 | 2019-06-06 | キヤノン株式会社 | 情報処理装置、画像領域選択方法、コンピュータプログラム、及び記憶媒体 |
JP2019096977A (ja) * | 2017-11-21 | 2019-06-20 | 富士通株式会社 | 可視化方法、可視化装置及び可視化プログラム |
JP7062923B2 (ja) | 2017-11-21 | 2022-05-09 | 富士通株式会社 | 可視化方法、可視化装置及び可視化プログラム |
JP2019159910A (ja) * | 2018-03-14 | 2019-09-19 | 国立大学法人豊橋技術科学大学 | 三次元画像分類装置および三次元画像分類方法 |
US11494957B2 (en) | 2018-04-26 | 2022-11-08 | Promaton Holding B.V. | Automated correction of metal affected voxel representations of x-ray data using deep learning techniques |
JP2021529389A (ja) * | 2018-06-29 | 2021-10-28 | レンチ インク.Wrnch Inc. | 人体ポーズ分析システム及び方法 |
JP7417555B2 (ja) | 2018-06-29 | 2024-01-18 | レンチ インク. | 人体ポーズ分析システム及び方法 |
KR102195940B1 (ko) * | 2018-09-18 | 2020-12-28 | 전남대학교 산학협력단 | 적응적 비최대억제 방법을 이용하는 딥러닝기반 영상객체 탐지를 위한 장치 및 방법 |
KR20200036079A (ko) * | 2018-09-18 | 2020-04-07 | 전남대학교산학협력단 | 적응적 비최대억제 방법을 이용하는 딥러닝기반 영상객체 탐지를 위한 장치 및 방법 |
CN111476067B (zh) * | 2019-01-23 | 2023-04-07 | 腾讯科技(深圳)有限公司 | 图像的文字识别方法、装置、电子设备及可读存储介质 |
JP2020119539A (ja) * | 2019-01-23 | 2020-08-06 | 株式会社ストラドビジョン | ハードウェア最適化に使用される1xHコンボリューションを利用したCNN基盤の物体検出器を学習する方法及び学習装置、それを利用したテスト方法及びテスト装置 |
CN111476067A (zh) * | 2019-01-23 | 2020-07-31 | 腾讯科技(深圳)有限公司 | 图像的文字识别方法、装置、电子设备及可读存储介质 |
JP2021514497A (ja) * | 2019-02-02 | 2021-06-10 | 深▲せん▼市商▲湯▼科技有限公司Shenzhen Sensetime Technology Co., Ltd. | 顔部認識方法及び装置、電子機器並びに記憶媒体 |
US11455830B2 (en) | 2019-02-02 | 2022-09-27 | Shenzhen Sensetime Technology Co., Ltd. | Face recognition method and apparatus, electronic device, and storage medium |
JP7038829B2 (ja) | 2019-02-02 | 2022-03-18 | 深▲セン▼市商▲湯▼科技有限公司 | 顔部認識方法及び装置、電子機器並びに記憶媒体 |
JP2020154479A (ja) * | 2019-03-18 | 2020-09-24 | 株式会社東芝 | 物体検出装置、物体検出方法、プログラム、および移動体 |
JP2020154478A (ja) * | 2019-03-18 | 2020-09-24 | 株式会社東芝 | 物体検出装置、物体検出方法、プログラム、および移動体 |
JP2022534031A (ja) * | 2019-05-28 | 2022-07-27 | コーニンクレッカ フィリップス エヌ ヴェ | 運動アーチファクト検出の方法 |
JP7420834B2 (ja) | 2019-05-28 | 2024-01-23 | コーニンクレッカ フィリップス エヌ ヴェ | 運動アーチファクト検出の方法 |
JP7235308B2 (ja) | 2019-09-10 | 2023-03-08 | 株式会社豊田中央研究所 | 物体識別装置、及び物体識別プログラム |
JP2021043633A (ja) * | 2019-09-10 | 2021-03-18 | 株式会社豊田中央研究所 | 物体識別装置、及び物体識別プログラム |
CN111178369A (zh) * | 2019-12-11 | 2020-05-19 | 中国科学院苏州生物医学工程技术研究所 | 一种医学影像的识别方法及系统、电子设备、存储介质 |
CN111178369B (zh) * | 2019-12-11 | 2023-12-19 | 中国科学院苏州生物医学工程技术研究所 | 一种医学影像的识别方法及系统、电子设备、存储介质 |
CN112560893A (zh) * | 2020-11-13 | 2021-03-26 | 贝壳技术有限公司 | 图片纹理匹配方法、装置、电子介质及存储介质 |
CN115453990A (zh) * | 2022-08-31 | 2022-12-09 | 福建天甫电子材料有限公司 | 用于氟化铵生产的生产管理控制系统及其控制方法 |
CN116715560B (zh) * | 2023-08-10 | 2023-11-14 | 吉林隆源农业服务有限公司 | 控释肥料的智能化制备方法及其系统 |
CN116715560A (zh) * | 2023-08-10 | 2023-09-08 | 吉林隆源农业服务有限公司 | 控释肥料的智能化制备方法及其系统 |
Also Published As
Publication number | Publication date |
---|---|
JP6873600B2 (ja) | 2021-05-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6873600B2 (ja) | 画像認識装置、画像認識方法及びプログラム | |
CN108182441B (zh) | 平行多通道卷积神经网络、构建方法及图像特征提取方法 | |
CN109584248B (zh) | 基于特征融合和稠密连接网络的红外面目标实例分割方法 | |
CN106529447B (zh) | 一种小样本人脸识别方法 | |
CN108460356B (zh) | 一种基于监控系统的人脸图像自动处理系统 | |
JP6192271B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
CN112446476A (zh) | 神经网络模型压缩的方法、装置、存储介质和芯片 | |
CN112446270A (zh) | 行人再识别网络的训练方法、行人再识别方法和装置 | |
CN104778476B (zh) | 一种图像分类方法 | |
CN105139004A (zh) | 基于视频序列的人脸表情识别方法 | |
CN110222718A (zh) | 图像处理的方法及装置 | |
CN111898621A (zh) | 一种轮廓形状识别方法 | |
CN113011253B (zh) | 基于ResNeXt网络的人脸表情识别方法、装置、设备及存储介质 | |
CN109165698A (zh) | 一种面向智慧交通的图像分类识别方法及其存储介质 | |
CN113191489A (zh) | 二值神经网络模型的训练方法、图像处理方法和装置 | |
CN114897728A (zh) | 图像增强方法、装置、终端设备以及存储介质 | |
JP2023115104A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
CN113011506B (zh) | 一种基于深度重分形频谱网络的纹理图像分类方法 | |
CN114782979A (zh) | 一种行人重识别模型的训练方法、装置、存储介质及终端 | |
CN112560824B (zh) | 一种基于多特征自适应融合的人脸表情识别方法 | |
CN114492634A (zh) | 一种细粒度装备图片分类识别方法及系统 | |
KR20180092453A (ko) | Cnn과 스테레오 이미지를 이용한 얼굴 인식 방법 | |
CN116758415A (zh) | 一种基于二维离散小波变换的轻量化害虫识别方法 | |
CN106228163B (zh) | 一种基于特征选择的局部差三进制序列图像特征描述方法 | |
Ng et al. | Traffic Sign Recognition with Convolutional Neural Network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190301 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200218 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20200403 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200617 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201013 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201210 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210323 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210421 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6873600 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |