JP7441654B2 - 認識装置、学習装置、認識システム、認識方法、認識プログラム、学習方法、及び学習プログラム - Google Patents
認識装置、学習装置、認識システム、認識方法、認識プログラム、学習方法、及び学習プログラム Download PDFInfo
- Publication number
- JP7441654B2 JP7441654B2 JP2020007381A JP2020007381A JP7441654B2 JP 7441654 B2 JP7441654 B2 JP 7441654B2 JP 2020007381 A JP2020007381 A JP 2020007381A JP 2020007381 A JP2020007381 A JP 2020007381A JP 7441654 B2 JP7441654 B2 JP 7441654B2
- Authority
- JP
- Japan
- Prior art keywords
- feature
- recognition
- segmented
- feature amount
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 29
- 238000000605 extraction Methods 0.000 claims description 140
- 238000007689 inspection Methods 0.000 claims description 89
- 238000012545 processing Methods 0.000 claims description 58
- 238000013527 convolutional neural network Methods 0.000 claims description 43
- 238000004364 calculation method Methods 0.000 claims description 41
- 239000000284 extract Substances 0.000 claims description 39
- 230000010354 integration Effects 0.000 description 27
- 230000006870 function Effects 0.000 description 21
- 238000013500 data storage Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 12
- 239000013598 vector Substances 0.000 description 12
- 238000004891 communication Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 230000011218 segmentation Effects 0.000 description 6
- 230000003321 amplification Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 238000003199 nucleic acid amplification method Methods 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 238000010606 normalization Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 230000005484 gravity Effects 0.000 description 3
- 238000011480 coordinate descent method Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000000137 annealing Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 230000015654 memory Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Image Analysis (AREA)
Description
前記重み計算手段は、前記検査領域毎に、当該検査領域と重複する前記区分領域の各々について前記重みを計算し、
前記統合手段は、前記検査領域毎に、前記統合特徴量を求め、
前記認識手段は、前記検査領域毎に、当該検査領域が、前記認識対象を表しているか否かを認識することができる。
すなわち、本実施形態において、処理対象データは画像であり、認識処理は照合ないしReID(再同定)であり、認識対象は特定人物の立位全身である。
以下、本発明を適用した認識システム1の概略構成を示した図1を参照し、本発明の実施の形態の構成を説明する。
認識システム1が図2に示す学習装置200として機能するとき、記憶部4は、学習用データ記憶手段40、区分領域情報記憶手段41、及び特徴量抽出モデル記憶手段42として機能する。画像処理部5は、特徴量抽出手段50、重み計算手段51、統合手段52、及び学習手段53として機能する。
学習用データ記憶手段40は、多数の学習用画像、認識対象領域、及び教師特徴量を含む学習用データを記憶する。
具体的には、例えば、教師特徴量抽出モデルを特徴量抽出モデルよりも多層のCNNとし、教師特徴量抽出モデルの出力値が認識手段56に入力されるよう教師特徴量抽出モデルと認識手段56を接続した装置を用意する。この装置に、学習用画像から認識対象領域を切り出した切り出し画像を入力して得られる出力値(認識手段56の出力値)が正解データとなるよう十分に反復させて教師特徴量抽出モデルを学習する。そして、学習済みの教師特徴量抽出モデルに再び各切り出し画像を入力して得られる出力値を認識対象領域に対応する教師特徴量とすることができる。
区分領域情報記憶手段41は、画像を所定サイズの複数の領域に区分する区分領域の設定を表す区分領域情報を予め記憶している。区分領域情報は、区分領域そのものを定めた情報とすることができ、具体的には各区分領域の位置及び大きさ(幅、高さ)である。区分の対象となる画像は学習用画像及び入力画像である。なお、本実施形態では、学習用画像のサイズは入力画像のサイズと同一とする。
本実施形態では、図3に示すように、128×128画素の画像800に対し、複数種類の区分803、804、805にて設定される。区分803は、幅、高さ、及び間隔がそれぞれ64画素の2×2区分である。また、区分804は、幅、高さ、及び間隔がそれぞれ32画素の4×4区分である。また、区分805は、幅、高さ、及び間隔がそれぞれ16画素の8×8区分である。また、これら3種類の区分803、804、805の区分領域に0から83までの通し番号を付与しておく。
特徴量抽出モデル記憶手段42は、特徴量抽出モデルを記憶する。本実施形態においては、特徴量抽出モデルを深層学習(Deep Learning)で用いられるような多層のネットワークで構成された畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)でモデル化する。すなわち、特徴量抽出モデルは、畳み込み層や活性化関数、プーリング(pooling)層などの複数の層が直列に接続されたネットワーク構造を有し、特徴量抽出モデル記憶手段42は、ネットワークを構成するフィルタのフィルタ係数やネットワーク構造などを含めた情報を記憶する。
特徴量抽出手段50は、特徴量抽出モデルを用いて、区分領域の各々についての画像の特徴量を抽出する。以下、区分領域の各々についての特徴量を区分特徴量と称する。抽出の対象となる画像は学習用画像及び入力画像である。
マルチスケール画像生成手段500は、区分の種類によらず1区分領域当たりの画素数が同一となるよう、画像をスケーリング処理して区分の種類ごとの正規化画像を生成する。処理の対象となる画像は学習用画像及び入力画像である。
畳み込み手段501は、CNNでモデル化された特徴量抽出モデルを用いて、マルチスケール画像生成手段500から入力された複数の正規化画像から複数種類の区分の区分特徴量を抽出し、抽出した区分特徴量を統合手段52に出力する。
特徴量抽出手段50のマルチスケール画像生成手段500が1/4縮小処理を行って2×2区分用の1/4画像900を生成し、特徴量抽出手段50の畳み込み手段501が特徴量抽出モデルに1/4画像900を入力し、その出力値として要素数が2×2×C個のテンソルデータ910を得る。テンソルデータ910は、xy方向に2×2の配置で区分領域#0~#3の区分特徴量が束になったものである。つまり、各区分特徴量はCチャンネル分の要素を有するベクトルである。
また、マルチスケール画像生成手段500は4×4区分用の1/2画像901を生成し、畳み込み手段501は特徴量抽出モデルに1/2画像901を入力して区分特徴量#4~#19が束になった4×4×C要素のテンソルデータ911を得る。
また、マルチスケール画像生成手段500は元の画像をそのまま出力して8×8区分用の1/1画像902を生成し、畳み込み手段501は特徴量抽出モデルに1/1画像902を入力して区分特徴量#20~#83が束になった8×8×C要素のテンソルデータ912を得る。
重み計算手段51は、任意の注目領域と重複する区分領域の各々について、重複度合いに応じた重みを算出する。好適には、注目領域に対する重みは、総和が一定値になるように正規化される。
注目領域と区分領域の重複部分(Intersection)の面積をI、2つの領域の和領域(Union)の面積をUとすると、IoU=I/Uである。IoUの値域は0~1で、0に近いほど2つの領域の重なり度合いが低いことを表す。
領域の重心間の距離は、注目領域の重心と区分領域の重心の間の距離である。
重みのベクトル806は、6個の区分領域#1,#7,#26,#27,#34,#35に認識対象領域802との重複部分があり、それぞれに対する重みが0.06,0.20,0.09,0.16,0.16,0.33であること、上記6個の区分領域以外は認識対象領域802との重複部分を有さないこと、を表している。
重みのベクトル816は、23個の区分領域#0,#2,#8,#9,#12,#13,#16,#17,#44~#46,#52~#55,#60~#62,#68~#70,#76~#78に認識対象領域812との重複部分があり、それぞれに対する重みが0.025,0.375,…,0.015,0.005であること、上記20個の区分領域以外は認識対象領域812との重複部分を有さないこと、を表している。
なお、重みのベクトル806,816それぞれの要素の総和は1になっている。
統合手段52は、注目領域が重複する区分領域について抽出された区分特徴量を、当該区分領域のそれぞれについて計算された重みにて重みづけて統合して当該注目領域の統合特徴量を求める。
学習手段53は、認識対象を表している認識対象領域の統合特徴量が、認識対象を表す画像から予め求められた特徴量と一致するように特徴量抽出モデルを学習する。具体的には、学習手段53は、認識対象領域について統合手段52が算出した統合特徴量の、当該領域について学習用データ記憶手段40に記憶されている教師特徴量に対する誤差を最小化する特徴量抽出モデルを学習する。
ここで、反復終了条件としては、例えば、誤差が予め定めた閾値以下となる、または反復回数(特徴量抽出モデルの更新回数)が予め定めた上限回数に達することとすればよい。
次に、図5を参照して、学習装置200の動作例について説明する。
そしてその際に、背景を含んだ区分領域について抽出される区分特徴量を統合することによって検査領域(学習時は認識対象領域)に現れている認識対象の特徴量を精度よく近似するには、背景の成分が極力除かれて認識対象の成分が支配的な区分特徴量を抽出できる特徴量抽出モデルを得る必要がある。教師特徴量として極力背景の成分を除いて抽出した特徴量を用い、そのような教師特徴量に統合特徴量を近づける学習により、背景を含んだ区分領域に対して認識対象の成分が支配的な区分特徴量を抽出するような特徴量抽出モデルを得ることができる。よって、教師特徴量に統合特徴量を近づける学習により、統合に適した特徴量抽出モデルを得ることができる。
認識システム1が図6に示す認識装置600として機能するとき、通信部3は、画像入力手段30として動作するとともに、表示部6と協働して認識結果出力手段31として機能する。記憶部4は、区分領域情報記憶手段41、特徴量抽出モデル記憶手段42、及びテンプレート特徴量記憶手段43として機能する。画像処理部5は、検査領域設定手段55、特徴量抽出手段50、重み計算手段51、統合手段52、及び認識手段56として機能する。
画像入力手段30は、撮影部2a,2b,2c,…が撮影した画像のうち、検索範囲として指定された画像を画像処理部5の特徴量抽出手段50及び検査領域設定手段55に入力する。画像入力手段30により入力される画像を入力画像と称する。画像入力手段30は本発明におけるデータ入力手段であり、入力画像は本発明における入力データである。
区分領域情報記憶手段41は学習装置200の構成として上述した同手段と同様の情報を記憶する。すなわち、認識装置600の区分領域情報記憶手段41は、入力画像を所定サイズの複数の領域に区分する区分領域の設定を表す区分領域情報を予め記憶する。好適には、区分領域は、様々なサイズの検査領域に適応するために、大きさや間隔が異なる複数種類の区分にて設定される。本実施形態では、区分領域の設定は、学習装置200の構成で上述した設定と共通設定とする。
特徴量抽出モデル記憶手段42は学習装置200の構成として上述した同手段と同様の情報を記憶する。特徴量抽出モデル記憶手段42に記憶される特徴量抽出モデルは、上述した学習を経て得られた学習済みの特徴量抽出モデルである。
検査領域設定手段55は、入力画像に対して検査領域を設定し、検査領域の情報を重み計算手段51へ出力する。ここで、検査領域とは認識対象領域の候補として任意に設定される領域である。検査領域の情報とは、検査領域の位置及び大きさであり、例えば矩形領域の1頂点の座標と高さと幅である。
例えば、128×128画素の入力画像に、2画素間隔で、10×20、16×32、20×40、24×48、32×64、40×80、48×96、64×128画素の検査領域を設定する。なお、別途の画像処理または外部指示によって検査領域の位置を限定してもよい。例えば、背景差分処理を行って差分領域とその周辺の位置にのみ検査領域を設定するようにしてもよい。また、撮影条件を参照して、または外部指示によって、検査領域の大きさを限定してもよい。例えば、入力画像の上部2/3は上記8種の大きさのうち10×20~40×80画素の大きさのみを設定し、下部2/3は20×40~64×128画素の大きさのみを設定するようにしてもよい。また、検査領域の形状を、楕円形状としてもよい。
認識装置600の特徴量抽出手段50は、特徴量抽出モデルを用いて、区分領域の各々についての入力画像の区分特徴量を抽出し、抽出した区分特徴量を統合手段52に出力する。すなわち、特徴量抽出手段50は、特徴量抽出モデル記憶手段42から特徴量抽出モデルを、区分領域情報記憶手段41から区分領域の設定をそれぞれ読み出し、画像入力手段30から入力された入力画像を特徴量抽出モデルに入力し、各区分領域に対応して特徴量抽出モデルが出力した特徴量のそれぞれを当該入力画像における当該区分領域の区分特徴量とする。
認識装置600のマルチスケール画像生成手段500は、入力画像及び区分領域情報を入力され、入力画像をスケーリング処理して区分の種類ごとの正規化画像を生成し、生成した正規化画像を畳み込み手段501に出力する。
認識装置600の畳み込み手段501は、CNNでモデル化された特徴量抽出モデルを用いて、区分領域の各々についての正規化画像の区分特徴量を抽出し、抽出した区分特徴量を対応する入力画像の区分特徴量として統合手段52に出力する。すなわち、畳み込み手段501は、特徴量抽出モデル記憶手段42から特徴量抽出モデルを読み出し、マルチスケール画像生成手段500から入力された複数の正規化画像それぞれを特徴量抽出モデルに入力し、各区分領域に対応して特徴量抽出モデルが出力した特徴量のそれぞれを入力画像における当該区分領域の区分特徴量とする。
認識装置600の重み計算手段51は、区分領域情報記憶手段41から区分領域の設定を読み出し、画像入力手段30から入力画像が入力され、当該入力画像に対する検査領域が検査領域設定手段55から入力されると、検査領域ごとに、当該検査領域と重複する区分領域の各々について、重複度合いに応じた重みを算出し、算出した重みの情報を統合手段52へ出力する。
認識装置600の統合手段52は、特徴量抽出手段50から各区分領域の区分特徴量を入力されるとともに、重み計算手段51から各区分領域の重みを入力され、検査領域ごとに、当該検査領域が重複する区分領域について抽出された区分特徴量を、当該区分領域のそれぞれについて計算された重みにて重みづけて統合して統合特徴量を算出し、算出した統合特徴量を認識手段56に出力する。
本実施形態における認識システム1の目的は、指定された入力画像の中から、指定された特定人物の像が撮影されている領域を検出することである。これに対応して、テンプレート特徴量記憶手段43は当該特定人物のテンプレート特徴量を記憶する。
また、他の例として、特定人物を指定するために通信部3が外部から当該人物の画像を受信する。または認識システム1のユーザーが操作入力部7を操作して撮影部2からの画像上で当該人物の領域を指定する。このように画像で指定された場合、認識手段56が、教師特徴量の抽出と同様の手法で特徴量を抽出するテンプレート特徴量抽出手段(不図示)を備え、テンプレート特徴量抽出手段を用いて特定人物の画像からテンプレート特徴量を抽出し、テンプレート特徴量記憶手段43に記憶させてもよい。または、テンプレート特徴量抽出手段の代わりに、特徴量抽出手段50、重み計算手段51、及び統合手段52が協働して特定人物の領域についての統合特徴量をテンプレート特徴量として求めてもよい。
認識手段56は、統合特徴量を用いて、検査領域が認識対象を表しているか否かを認識する。
認識結果出力手段31は、認識手段56による認識結果を出力する。例えば、認識結果出力手段31は、認識手段56から入力された検査領域を表す矩形を当該認識対象が設定された入力画像に重畳して、重畳した画像を表示部6にて表示する。
次に、図7を参照して、認識装置600の動作例について説明する。
また、上述したように、学習装置200により学習した特徴量抽出モデルは、教師特徴量に統合特徴量を近づける学習とCNNでモデル化することとが相まって、精度の高い認識(すなわち、統合特徴量による教師特徴量の高精度な近似)を可能にし、且つ統合に適した区分特徴量を抽出可能なものとなっている。
よって、CNNでモデル化され、教師特徴量に統合特徴量を一致させる学習が行われた特徴量抽出モデルを用いて区分特徴量を抽出することにより、近似精度の高い統合特徴量を高速に算出して、対象を高速且つ高精度に認識することが可能となる。
なお、本発明は、上述した実施形態の装置構成及び作用に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
例えば、図8に示すように、非線形関数930を用いて、重複度合いの値を変換してもよい。これにより、重複度合いの大きい区分領域に対して、より大きな重みを割り当てる効果が得られる。また、非線形関数931を用いて、重複度合いの値を変換してもよい。これにより、ある程度以上の重複度合いをもつ区分領域に対して、同程度の重みを割り当てる効果が得られる。また、非線形関数932を用いて、重複度合いの値を変換してもよい。これにより、非線形関数930と931で得られる効果の両方が得られる。例えば、位置ずれに敏感な特徴量を用いる場合は非線形関数930を適応し、位置ずれに頑健な特徴量を用いる場合は非線形関数931又は非線形関数932を適応するのが好適である。位置ずれに頑健な特徴量の代表例はCNN特徴量である。なお、この場合、重みの総和を一定値にする正規化は重複度合いの変換の後に行われる。
2 撮影部
3 通信部
4 記憶部
5 画像処理部
6 表示部
7 操作入力部
30 画像入力手段
31 認識結果出力手段
40 学習用データ記憶手段
41 区分領域情報記憶手段
42 特徴量抽出モデル記憶手段
43 テンプレート特徴量記憶手段
50 特徴量抽出手段
51 重み計算手段
52 統合手段
53 学習手段
55 検査領域設定手段
56 認識手段
200 学習装置
500 マルチスケール画像生成手段
501 畳み込み手段
600 認識装置
Claims (8)
- 処理対象データを入力とし、区分領域毎の特徴量を抽出する畳み込みニューラルネットワークを用いて、入力された前記処理対象データである入力データの区分領域毎に特徴量を抽出する特徴量抽出手段と、
検査領域と重複する前記区分領域の各々について、重複度合いに応じた重みを計算する重み計算手段と、
前記検査領域と重複する前記区分領域の各々について抽出された前記特徴量を、前記計算された重みを用いて統合した統合特徴量を求める統合手段と、
前記統合特徴量を用いて、前記検査領域が、認識対象を表しているか否かを認識する認識手段と、
を含み、
前記畳み込みニューラルネットワークは、前記認識対象を表すデータを入力したときに、前記畳み込みニューラルネットワークよりも多層の畳み込みニューラルネットワークである学習済みの教師特徴量抽出モデルによって抽出された教師特徴量と、前記統合手段が出力する前記統合特徴量とが一致するように予め学習されたものである認識装置。 - 前記検査領域を、位置又は大きさの少なくとも一方を異ならせて複数設定し、
前記重み計算手段は、前記検査領域毎に、当該検査領域と重複する前記区分領域の各々について前記重みを計算し、
前記統合手段は、前記検査領域毎に、前記統合特徴量を求め、
前記認識手段は、前記検査領域毎に、当該検査領域が、前記認識対象を表しているか否かを認識する請求項1記載の認識装置。 - 処理対象データを入力とし、区分領域毎の特徴量を抽出する特徴量抽出モデルを用いて、学習用の前記処理対象データの区分領域毎に特徴量を抽出する特徴量抽出手段と、
認識対象を表している認識対象領域と重複する前記区分領域の各々について、重複度合いに応じた重みを計算する重み計算手段と、
前記認識対象領域と重複する前記区分領域の各々について抽出された前記特徴量を、前記計算された重みを用いて統合した統合特徴量を求める統合手段と、
前記特徴量抽出モデルよりも多層の畳み込みニューラルネットワークである学習済みの教師特徴量抽出モデルによって抽出された前記認識対象領域の教師特徴量と、前記認識対象領域の前記統合特徴量とが一致するように前記特徴量抽出モデルを学習する学習手段と、
を含む学習装置。 - 請求項1又は2に記載の認識装置と、
請求項3に記載の学習装置とを含み、
前記認識装置の前記特徴量抽出手段は、前記学習装置によって学習された前記特徴量抽出モデルを用いて、前記入力データの区分領域毎に特徴量を抽出する
認識システム。 - 特徴量抽出手段が、処理対象データを入力とし、区分領域毎の特徴量を抽出する畳み込みニューラルネットワークを用いて、入力された前記処理対象データである入力データの区分領域毎に特徴量を抽出し、
重み計算手段が、検査領域と重複する前記区分領域の各々について、重複度合いに応じた重みを計算し、
統合手段が、前記検査領域と重複する前記区分領域の各々について抽出された前記特徴量を、前記計算された重みを用いて統合した統合特徴量を求め、
認識手段が、前記統合特徴量を用いて、前記検査領域が、認識対象を表しているか否かを認識することを含み、
前記畳み込みニューラルネットワークは、前記認識対象を表すデータを入力したときに、前記畳み込みニューラルネットワークよりも多層の畳み込みニューラルネットワークである学習済みの教師特徴量抽出モデルによって抽出された教師特徴量と、前記統合特徴量とが一致するように予め学習されたものである
認識方法。 - コンピュータを、
処理対象データを入力とし、区分領域毎の特徴量を抽出する畳み込みニューラルネットワークを用いて、入力された前記処理対象データである入力データの区分領域毎に特徴量を抽出する特徴量抽出手段、
検査領域と重複する前記区分領域の各々について、重複度合いに応じた重みを計算する重み計算手段、
前記検査領域と重複する前記区分領域の各々について抽出された前記特徴量を、前記計算された重みを用いて統合した統合特徴量を求める統合手段、及び
前記統合特徴量を用いて、前記検査領域が、認識対象を表しているか否かを認識する認識手段
として機能させるための認識プログラムであって、
前記畳み込みニューラルネットワークは、前記認識対象を表すデータを入力したときに、前記畳み込みニューラルネットワークよりも多層の畳み込みニューラルネットワークである学習済みの教師特徴量抽出モデルによって抽出された教師特徴量と、前記統合特徴量とが一致するように予め学習されたものである認識プログラム。 - 特徴量抽出手段が、処理対象データを入力とし、区分領域毎の特徴量を抽出する特徴量抽出モデルを用いて、学習用の前記処理対象データの区分領域毎に特徴量を抽出し、
重み計算手段が、認識対象を表している認識対象領域と重複する前記区分領域の各々について、重複度合いに応じた重みを計算し、
統合手段が、前記認識対象領域と重複する前記区分領域の各々について抽出された前記特徴量を、前記計算された重みを用いて統合した統合特徴量を求め、
学習手段が、前記特徴量抽出モデルよりも多層の畳み込みニューラルネットワークである学習済みの教師特徴量抽出モデルによって抽出された前記認識対象領域の教師特徴量と、前記認識対象領域の前記統合特徴量とが一致するように前記特徴量抽出モデルを学習する
学習方法。 - コンピュータを、
処理対象データを入力とし、区分領域毎の特徴量を抽出する特徴量抽出モデルを用いて、学習用の前記処理対象データの区分領域毎に特徴量を抽出する特徴量抽出手段、
認識対象を表している認識対象領域と重複する前記区分領域の各々について、重複度合いに応じた重みを計算する重み計算手段、
前記認識対象領域と重複する前記区分領域の各々について抽出された前記特徴量を、前記計算された重みを用いて統合した統合特徴量を求める統合手段、及び
前記特徴量抽出モデルよりも多層の畳み込みニューラルネットワークである学習済みの教師特徴量抽出モデルによって抽出された前記認識対象領域の教師特徴量と、前記認識対象領域の前記統合特徴量とが一致するように前記特徴量抽出モデルを学習する学習手段
として機能させるための学習プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020007381A JP7441654B2 (ja) | 2020-01-21 | 2020-01-21 | 認識装置、学習装置、認識システム、認識方法、認識プログラム、学習方法、及び学習プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020007381A JP7441654B2 (ja) | 2020-01-21 | 2020-01-21 | 認識装置、学習装置、認識システム、認識方法、認識プログラム、学習方法、及び学習プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021114223A JP2021114223A (ja) | 2021-08-05 |
JP7441654B2 true JP7441654B2 (ja) | 2024-03-01 |
Family
ID=77077059
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020007381A Active JP7441654B2 (ja) | 2020-01-21 | 2020-01-21 | 認識装置、学習装置、認識システム、認識方法、認識プログラム、学習方法、及び学習プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7441654B2 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014030399A1 (ja) | 2012-08-23 | 2014-02-27 | 日本電気株式会社 | 物体識別装置、物体識別方法、及びプログラム |
JP2019016298A (ja) | 2017-07-10 | 2019-01-31 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
-
2020
- 2020-01-21 JP JP2020007381A patent/JP7441654B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014030399A1 (ja) | 2012-08-23 | 2014-02-27 | 日本電気株式会社 | 物体識別装置、物体識別方法、及びプログラム |
JP2019016298A (ja) | 2017-07-10 | 2019-01-31 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
Non-Patent Citations (1)
Title |
---|
映像からのオブジェクト識別技術,NHK技研R&D No.142,2013年11月15日,企業技報201300118006 |
Also Published As
Publication number | Publication date |
---|---|
JP2021114223A (ja) | 2021-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107704857B (zh) | 一种端到端的轻量级车牌识别方法及装置 | |
CN110599537A (zh) | 基于Mask R-CNN的无人机图像建筑物面积计算方法及系统 | |
JP6884517B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN111461213B (zh) | 一种目标检测模型的训练方法、目标快速检测方法 | |
CN112288761B (zh) | 一种异常发热的电力设备检测方法、装置和可读存储介质 | |
CN112884782B (zh) | 生物对象分割方法、装置、计算机设备和存储介质 | |
CN111626295B (zh) | 车牌检测模型的训练方法和装置 | |
EP3620958A1 (en) | Learning method, learning device for detecting lane through lane model and testing method, testing device using the same | |
CN110490262B (zh) | 图像处理模型生成方法、图像处理方法、装置及电子设备 | |
TW200529093A (en) | Face image detection method, face image detection system, and face image detection program | |
CN111274926B (zh) | 图像数据筛选方法、装置、计算机设备和存储介质 | |
CN112818821B (zh) | 基于可见光和红外光的人脸采集源检测方法和装置 | |
CN113221956B (zh) | 基于改进的多尺度深度模型的目标识别方法及装置 | |
CN111160169A (zh) | 人脸检测方法、装置、设备及计算机可读存储介质 | |
CN111768415A (zh) | 一种无量化池化的图像实例分割方法 | |
JP5704909B2 (ja) | 注目領域検出方法、注目領域検出装置、及びプログラム | |
CN111739029A (zh) | 基于深度学习卷积神经网络的电铲斗齿脱落检测方法 | |
CN114332457A (zh) | 图像实例分割模型训练、图像实例分割方法和装置 | |
KR102260556B1 (ko) | 전역 정보와 지역 정보 통합을 통한 딥러닝 기반 주차구획 검출 방법 및 장치 | |
JP7441654B2 (ja) | 認識装置、学習装置、認識システム、認識方法、認識プログラム、学習方法、及び学習プログラム | |
CN112634174A (zh) | 一种图像表示学习方法及系统 | |
CN109583584B (zh) | 可使具有全连接层的cnn接受不定形状输入的方法及系统 | |
JP7441656B2 (ja) | 認識装置、学習装置、認識システム、認識方法、及び認識プログラム | |
CN110399868B (zh) | 一种滨海湿地鸟类检测方法 | |
CN113569829A (zh) | 集装箱编码数据识别方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231030 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240219 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7441654 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |