JP7441656B2 - 認識装置、学習装置、認識システム、認識方法、及び認識プログラム - Google Patents
認識装置、学習装置、認識システム、認識方法、及び認識プログラム Download PDFInfo
- Publication number
- JP7441656B2 JP7441656B2 JP2020008942A JP2020008942A JP7441656B2 JP 7441656 B2 JP7441656 B2 JP 7441656B2 JP 2020008942 A JP2020008942 A JP 2020008942A JP 2020008942 A JP2020008942 A JP 2020008942A JP 7441656 B2 JP7441656 B2 JP 7441656B2
- Authority
- JP
- Japan
- Prior art keywords
- segmented
- feature
- recognition
- area
- weight
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title description 25
- 238000000605 extraction Methods 0.000 claims description 142
- 238000007689 inspection Methods 0.000 claims description 120
- 238000004364 calculation method Methods 0.000 claims description 47
- 238000012545 processing Methods 0.000 claims description 45
- 239000000284 extract Substances 0.000 claims description 22
- 230000006870 function Effects 0.000 claims description 13
- 238000013527 convolutional neural network Methods 0.000 description 16
- 230000010354 integration Effects 0.000 description 16
- 230000008569 process Effects 0.000 description 15
- 238000013500 data storage Methods 0.000 description 13
- 239000013598 vector Substances 0.000 description 12
- 238000001228 spectrum Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 230000001419 dependent effect Effects 0.000 description 9
- 230000011218 segmentation Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000012549 training Methods 0.000 description 5
- 230000005484 gravity Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 238000011480 coordinate descent method Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000000137 annealing Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 230000015654 memory Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Image Analysis (AREA)
Description
また、前記重み計算手段は、前記複数種類の区分に前記検査領域に包含される前記区分領域を含んだ区分が存在する場合に、当該検査領域に対する当該区分の前記区分領域に対する重みを0とすることができる。
すなわち、本実施形態において、処理対象データは画像であり、認識処理は照合ないしReID(再同定)であり、認識対象は特定人物の立位全身である。
以下、本発明を適用した認識システム1の概略構成を示した図1を参照し、本発明の実施の形態の構成を説明する。
認識システム1が図2に示す学習装置200として機能するとき、記憶部4は、学習用データ記憶手段40、区分領域情報記憶手段41、及び特徴量抽出モデル記憶手段42として機能する。画像処理部5は、特徴量抽出手段50、重み計算手段51、統合手段52、及び学習手段53として機能する。
学習用データ記憶手段40は、多数の学習用画像、認識対象領域、及び教師特徴量を含む学習用データを記憶する。
具体的には、例えば、教師特徴量抽出モデルを特徴量抽出モデルよりも多層のCNNとし、教師特徴量抽出モデルの出力値が認識手段56に入力されるよう教師特徴量抽出モデルと認識手段56を接続した装置を用意する。この装置に、学習用画像から認識対象領域を切り出した切り出し画像を入力して得られる出力値(認識手段56の出力値)が正解データとなるよう十分に反復させて教師特徴量抽出モデルを学習する。そして、学習済みの教師特徴量抽出モデルに再び各切り出し画像を入力して得られる出力値を認識対象領域に対応する教師特徴量とすることができる。
区分領域情報記憶手段41は、画像を所定サイズの複数の領域に区分する区分領域の設定を表す区分領域情報を予め記憶している。区分領域情報は、区分領域そのものを定めた情報とすることができ、具体的には各区分領域の位置及び大きさ(幅、高さ)である。区分の対象となる画像は学習用画像及び入力画像である。なお、本実施形態では、学習用画像のサイズは入力画像のサイズと同一とする。
本実施形態では、図3に示すように、128×128画素の画像800に対し、複数種類の区分803、804、805にて設定される。区分803は、幅、高さ、及び間隔がそれぞれ64画素の2×2区分である。また、区分804は、幅、高さ、及び間隔がそれぞれ32画素の4×4区分である。また、区分805は、幅、高さ、及び間隔がそれぞれ16画素の8×8区分である。また、これら3種類の区分803、804、805の区分領域に0から83までの通し番号を付与しておく。
特徴量抽出モデル記憶手段42は、特徴量抽出モデルを記憶する。本実施形態においては、特徴量抽出モデルを深層学習(Deep Learning)で用いられるような多層のネットワークで構成された畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)でモデル化する。すなわち、特徴量抽出モデルは、畳み込み層や活性化関数、プーリング(pooling)層などの複数の層が直列に接続されたネットワーク構造を有し、特徴量抽出モデル記憶手段42は、ネットワークを構成するフィルタのフィルタ係数やネットワーク構造などを含めた情報を記憶する。
特徴量抽出手段50は、特徴量抽出モデルを用いて、区分領域の各々についての画像の特徴量を抽出する。以下、区分領域の各々についての特徴量を区分特徴量と称する。抽出の対象となる画像は学習用画像及び入力画像である。
マルチスケール画像生成手段500は、区分の種類によらず1区分領域当たりの画素数が同一となるよう、画像をスケーリング処理して区分の種類ごとの正規化画像を生成する。処理の対象となる画像は学習用画像及び入力画像である。マルチスケール画像生成手段500は本発明におけるマルチスケールデータ生成手段であり、正規化画像は本発明における正規化データである。
畳み込み手段501は、CNNでモデル化された特徴量抽出モデルを用いて、マルチスケール画像生成手段500から入力された複数の正規化画像から複数種類の区分の区分特徴量を抽出し、抽出した区分特徴量を統合手段52に出力する。
特徴量抽出手段50のマルチスケール画像生成手段500が1/4縮小処理を行って2×2区分用の1/4画像900を生成し、特徴量抽出手段50の畳み込み手段501が特徴量抽出モデルに1/4画像900を入力し、その出力値として要素数が2×2×C個のテンソルデータ910を得る。テンソルデータ910は、xy方向に2×2の配置で区分領域#0~#3の区分特徴量が束になったものである。つまり、各区分特徴量はCチャンネル分の要素を有するベクトルである。
また、マルチスケール画像生成手段500は4×4区分用の1/2画像901を生成し、畳み込み手段501は特徴量抽出モデルに1/2画像901を入力して区分特徴量#4~#19が束になった4×4×C要素のテンソルデータ911を得る。
また、マルチスケール画像生成手段500は元の画像をそのまま出力して8×8区分用の1/1画像902を生成し、畳み込み手段501は特徴量抽出モデルに1/1画像902を入力して区分特徴量#20~#83が束になった8×8×C要素のテンソルデータ912を得る。
重み計算手段51は、任意の注目領域と重複する区分領域の各々について重複度合いに応じた重みを算出する。好適には、注目領域に対する重みは、総和が一定値になるように正規化される。
重みのベクトル806は、6個の区分領域#1,#7,#26,#27,#34,#35に認識対象領域802との重複部分があり、それぞれに対する重みが0.06,0.20,0.09,0.16,0.16,0.33であること、上記6個の区分領域以外は認識対象領域802との重複部分を有さないこと、を表している。
重みのベクトル816は、23個の区分領域#0,#2,#8,#9,#12,#13,#16,#17,#44~#46,#52~#55,#60~#62,#68~#70,#76~#78に認識対象領域812との重複部分があり、それぞれに対する重みが0.025,0.375,…,0.015,0.005であること、上記20個の区分領域以外は認識対象領域812との重複部分を有さないこと、を表している。
なお、重みのベクトル806,816それぞれの要素の総和は1になっている。
統合手段52は、注目領域が重複する区分領域について抽出された区分特徴量を、当該区分領域のそれぞれについて計算された重みにて重みづけて統合して当該注目領域の統合特徴量を求める。
学習手段53は、認識対象を表している認識対象領域の統合特徴量が、認識対象を表す画像から予め求められた特徴量と一致するように特徴量抽出モデルを学習する。具体的には、学習手段53は、認識対象領域について統合手段52が算出した統合特徴量の、当該領域について学習用データ記憶手段40に記憶されている教師特徴量に対する誤差を最小化する特徴量抽出モデルを学習する。
ここで、反復終了条件としては、例えば、誤差が予め定めた閾値以下となる、または反復回数(特徴量抽出モデルの更新回数)が予め定めた上限回数に達することとすればよい。
次に、図5を参照して、学習装置200の動作例について説明する。
また、精度の高い認識を可能にする特徴量は、認識対象について近傍のデータ(画像の例では近傍の画素)の関係を記述したものであることが多い。精度を追求した教師特徴量もそのような特徴量である。例示したCNNは、畳み込み層やプーリング層の働きによって近傍のデータ同士の関係を記述できる。よって、特徴量抽出モデルをCNNでモデル化して教師特徴量に統合特徴量が一致するように学習を行うことにより、精度の高い認識(すなわち、統合特徴量による教師特徴量の高精度な近似)を可能にし、且つ統合に適した特徴量抽出モデルを得ることができる。
図3の画像800において小さく撮影されている人物801と大きく撮影されている人物811とで認識の精度の格差が生じないようにするには、人物に対する相対的な受容野の大きさが同じであることが望ましい。つまり、様々な大きさの認識対象の像に対して精度の高い認識を行うためには様々な大きさの区分領域に対して相対的な受容野の大きさが同じであることが望ましい。
また、様々な大きさの区分領域の区分特徴量を1つの特徴量抽出モデルで抽出できるように特徴量抽出モデルを学習させている。これにより学習用の処理対象データの多様性が確保されて、認識の精度を向上せしめることができる。
認識システム1が図6に示す認識装置600として機能するとき、通信部3は、画像入力手段30として動作するとともに、表示部6と協働して認識結果出力手段31として機能する。記憶部4は、区分領域情報記憶手段41、特徴量抽出モデル記憶手段42、及びテンプレート特徴量記憶手段43として機能する。画像処理部5は、検査領域設定手段55、特徴量抽出手段50、重み計算手段51、統合手段52、及び認識手段56として機能する。
画像入力手段30は、撮影部2a,2b,2c,…が撮影した画像のうち、検索範囲として指定された画像を画像処理部5の特徴量抽出手段50及び検査領域設定手段55に入力する。画像入力手段30により入力される画像を入力画像と称する。画像入力手段30は本発明におけるデータ入力手段であり、入力画像は本発明における入力データである。
区分領域情報記憶手段41は学習装置200の構成として上述した同手段と同様の情報を記憶する。すなわち、認識装置600の区分領域情報記憶手段41は、入力画像を所定サイズの複数の領域に区分する区分領域の設定を表す区分領域情報を予め記憶する。好適には、区分領域は、様々なサイズの検査領域に適応するために、大きさや間隔が異なる複数種類の区分にて設定される。本実施形態では、区分領域の設定は、学習装置200の構成で上述した設定と共通設定とする。
特徴量抽出モデル記憶手段42は学習装置200の構成として上述した同手段と同様の情報を記憶する。特徴量抽出モデル記憶手段42に記憶される特徴量抽出モデルは、上述した学習を経て得られた学習済みの特徴量抽出モデルである。
検査領域設定手段55は、入力画像に対して検査領域を設定し、検査領域の情報を重み計算手段51へ出力する。ここで、検査領域とは認識対象領域の候補として任意に設定される領域である。検査領域の情報とは、検査領域の位置及び大きさであり、例えば矩形領域の1頂点の座標と高さと幅である。
例えば、128×128画素の入力画像に、2画素間隔で、10×20、16×32、20×40、24×48、32×64、40×80、48×96、64×128画素の検査領域を設定する。なお、別途の画像処理または外部指示によって検査領域の位置を限定してもよい。例えば、背景差分処理を行って差分領域とその周辺の位置にのみ検査領域を設定するようにしてもよい。また、撮影条件を参照して、または外部指示によって、検査領域の大きさを限定してもよい。例えば、入力画像の上部2/3は上記8種の大きさのうち10×20~40×80画素の大きさのみを設定し、下部2/3は20×40~64×128画素の大きさのみを設定するようにしてもよい。また、検査領域の形状を、楕円形状としてもよい。
認識装置600の特徴量抽出手段50は、特徴量抽出モデルを用いて、区分領域の各々についての入力画像の区分特徴量を抽出し、抽出した区分特徴量を統合手段52に出力する。すなわち、特徴量抽出手段50は、特徴量抽出モデル記憶手段42から特徴量抽出モデルを、区分領域情報記憶手段41から区分領域の設定をそれぞれ読み出し、画像入力手段30から入力された入力画像を特徴量抽出モデルに入力し、各区分領域に対応して特徴量抽出モデルが出力した特徴量のそれぞれを当該入力画像における当該区分領域の区分特徴量とする。
認識装置600のマルチスケール画像生成手段500は、入力画像及び区分領域情報を入力され、入力画像をスケーリング処理して区分の種類ごとの正規化画像を生成し、生成した正規化画像を畳み込み手段501に出力する。
認識装置600の畳み込み手段501は、CNNでモデル化された特徴量抽出モデルを用いて、区分領域の各々についての正規化画像の区分特徴量を抽出し、抽出した区分特徴量を対応する入力画像の区分特徴量として統合手段52に出力する。すなわち、畳み込み手段501は、特徴量抽出モデル記憶手段42から特徴量抽出モデルを読み出し、マルチスケール画像生成手段500から入力された複数の正規化画像それぞれを特徴量抽出モデルに入力し、各区分領域に対応して特徴量抽出モデルが出力した特徴量のそれぞれを入力画像における当該区分領域の区分特徴量とする。
認識装置600の重み計算手段51は、区分領域情報記憶手段41から区分領域の設定を読み出し、画像入力手段30から入力画像が入力され、当該入力画像に対する検査領域が検査領域設定手段55から入力されると、検査領域ごとに、当該検査領域と重複する区分領域の各々について、重複度合いに応じた重みを算出し、算出した重みの情報を統合手段52へ出力する。
認識装置600の統合手段52は、特徴量抽出手段50から各区分領域の区分特徴量を入力されるとともに、重み計算手段51から各区分領域の重みを入力され、検査領域ごとに、当該検査領域が重複する区分領域について抽出された区分特徴量を、当該区分領域のそれぞれについて計算された重みにて重みづけて統合して統合特徴量を算出し、算出した統合特徴量を認識手段56に出力する。
本実施形態における認識システム1の目的は、指定された入力画像の中から、指定された特定人物の像が撮影されている領域を検出することである。これに対応して、テンプレート特徴量記憶手段43は当該特定人物のテンプレート特徴量を記憶する。
また、他の例として、特定人物を指定するために通信部3が外部から当該人物の画像を受信する。または認識システム1のユーザーが操作入力部7を操作して撮影部2からの画像上で当該人物の領域を指定する。このように画像で指定された場合、認識手段56が、教師特徴量の抽出と同様の手法で特徴量を抽出するテンプレート特徴量抽出手段(不図示)を備え、テンプレート特徴量抽出手段を用いて特定人物の画像からテンプレート特徴量を抽出し、テンプレート特徴量記憶手段43に記憶させてもよい。または、テンプレート特徴量抽出手段の代わりに、特徴量抽出手段50、重み計算手段51、及び統合手段52が協働して特定人物の領域についての統合特徴量をテンプレート特徴量として求めてもよい。
認識手段56は、統合特徴量を用いて、検査領域が認識対象を表しているか否かを認識する。
認識結果出力手段31は、認識手段56による認識結果を出力する。例えば、認識結果出力手段31は、認識手段56から入力された検査領域を表す矩形を当該認識対象が設定された入力画像に重畳して、重畳した画像を表示部6にて表示する。
次に、図7を参照して、認識装置600の動作例について説明する。
さらに、上述したように、複数種類の区分を設定して各種類の区分領域との重複度合いに応じた重みで区分特徴量を統合することで、様々な大きさの検査領域に対して適切な大きさの区分領域を含ませることができる。
よって、様々なサイズの検査領域を設定してもサイズに依存した変動を抑制して高精度な統合特徴量を算出でき、高速且つ高精度な認識が可能となる。
なお、本発明は、上述した実施形態の装置構成及び作用に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
なお、CNN特徴量やパワースペクトル特徴量以外にも公知の特徴量のうちの、周辺との関係を記述可能な多次元の特徴量を採用することもできる。
例えば、重み計算手段51は、各注目領域(学習時は認識対象領域、認識時は検査領域)と重複する区分領域を区分の種類ごとに計数し、複数種類の区分のうち、いずれかの注目領域と重複する区分領域の数が所定範囲外である区分が存在した場合に、当該注目領域ついて当該区分の区分領域に対する重みを0とする。すなわち、図3の例において所定範囲を1個以上6個以下に設定した場合、8×8区分805が注目領域812に対する不適合サイズとして明示的に統合から除外される。また、所定範囲を2個以上6個以下に設定すれば2×2区分803と4×4区分804が注目領域802に対する不適合サイズとして除外される。こうすることによってもサイズ違いに起因する統合特徴量の変動を抑制した高精度な認識を実現できる。
2 撮影部
3 通信部
4 記憶部
5 画像処理部
6 表示部
7 操作入力部
30 画像入力手段
31 認識結果出力手段
40 学習用データ記憶手段
41 区分領域情報記憶手段
42 特徴量抽出モデル記憶手段
43 テンプレート特徴量記憶手段
50 特徴量抽出手段
51 重み計算手段
52 統合手段
53 学習手段
55 検査領域設定手段
56 認識手段
200 学習装置
500 マルチスケール画像生成手段
501 畳み込み手段
502 拡張区分領域画像切り出し手段
503 パワースペクトル算出手段
600 認識装置
Claims (10)
- 区分領域の大きさ又は間隔が異なる複数種類の区分それぞれに対し、前記区分領域毎に入力データから特徴量を抽出する特徴量抽出手段と、
前記複数種類の区分それぞれに対し、前記入力データに設定される検査領域と重複する前記区分領域の各々について、当該検査領域との重複度合いに応じた重みを計算する重み計算手段と、
前記検査領域と重複する前記区分領域の各々について抽出された前記特徴量を、前記計算された重みを用いて統合した統合特徴量を求める統合手段と、
前記統合特徴量を用いて、前記検査領域が、認識対象を表しているか否かを認識する認識手段と、
を含み、
前記重み計算手段は、前記複数種類の区分について前記区分領域ごとに求めた前記重複度合いを示す値の総和が一定値となるよう正規化して前記区分領域毎の前記重みを計算する認識装置。 - 前記特徴量抽出手段は、前記入力データを、前記複数種類の区分に対応する複数種類のサイズに変更した正規化データを生成するマルチデータ生成手段を更に含み、
前記複数種類の区分に対し、前記区分に対応する前記正規化データの、前記区分での前記区分領域毎に特徴量を抽出する請求項1記載の認識装置。 - 区分領域の大きさ又は間隔が異なる複数種類の区分に対し、入力データの、前記区分での前記区分領域毎に特徴量を抽出する特徴量抽出手段と、
検査領域と重複する前記区分領域の各々について、重複度合いに応じた重みを計算する重み計算手段と、
前記検査領域と重複する前記区分領域の各々について抽出された前記特徴量を、前記計算された重みを用いて統合した統合特徴量を求める統合手段と、
前記統合特徴量を用いて、前記検査領域が、認識対象を表しているか否かを認識する認識手段と、
を含み、
前記重み計算手段は、前記複数種類の区分のうち、前記検査領域と重複する区分領域の数が所定範囲外である区分が存在する場合に、当該検査領域に対する当該区分の前記区分領域に対する重みを0とする認識装置。 - 区分領域の大きさ又は間隔が異なる複数種類の区分に対し、入力データの、前記区分での前記区分領域毎に特徴量を抽出する特徴量抽出手段と、
検査領域と重複する前記区分領域の各々について、重複度合いに応じた重みを計算する重み計算手段と、
前記検査領域と重複する前記区分領域の各々について抽出された前記特徴量を、前記計算された重みを用いて統合した統合特徴量を求める統合手段と、
前記統合特徴量を用いて、前記検査領域が、認識対象を表しているか否かを認識する認識手段と、
を含み、
前記重み計算手段は、前記複数種類の区分のうち、前記検査領域に包含される前記区分領域を含んだ区分が存在する場合に、当該検査領域に対する当該区分の前記区分領域に対する重みを0とする認識装置。 - 前記検査領域を、位置又は大きさの少なくとも一方を異ならせて複数設定し、
前記重み計算手段は、前記検査領域毎に、当該検査領域と重複する前記区分領域の各々について前記重みを計算し、
前記統合手段は、前記検査領域毎に、前記統合特徴量を求め、
前記認識手段は、前記検査領域毎に、当該検査領域が、前記認識対象を表しているか否かを認識する請求項1~4のいずれかひとつに記載の認識装置。 - 前記特徴量抽出手段は、前記複数種類の区分での区分領域毎の特徴量を抽出するための特徴量抽出モデルを用いて、前記複数種類の区分に対し、前記入力データの区分領域毎に特徴量を抽出する請求項1~5のいずれかひとつに記載の認識装置。
- 処理対象データを入力とし、区分領域の大きさ又は間隔が異なる複数種類の区分での前記区分領域毎の特徴量を抽出するための特徴量抽出モデルを用いて、前記複数種類の区分に対し、学習用の前記処理対象データの前記区分それぞれの前記区分領域毎に特徴量を抽出する特徴量抽出手段と、
前記複数種類の区分それぞれに対し、認識対象を表している認識対象領域と重複する前記区分領域の各々について、当該認識対象領域との重複度合いに応じた重みを計算する重み計算手段と、
前記認識対象領域と重複する前記区分領域の各々について抽出された前記特徴量を、前記計算された重みを用いて統合した統合特徴量を求める統合手段と、
前記認識対象領域の前記統合特徴量が、前記認識対象を表すデータから予め求められた特徴量と一致するように前記特徴量抽出モデルを学習する学習手段と、
を含み、
前記重み計算手段は、前記複数種類の区分について前記区分領域ごとに求めた前記重複度合いを示す値の総和が一定値となるよう正規化して前記区分領域毎の前記重みを計算する学習装置。 - 請求項1~6のいずれかひとつに記載の認識装置と、
請求項7に記載の学習装置とを含み、
前記認識装置の前記特徴量抽出手段は、前記学習装置によって学習された前記特徴量抽出モデルを用いて、前記複数種類の区分に対し、前記入力データの前記区分領域毎に特徴量を抽出する
認識システム。 - 特徴量抽出手段が、区分領域の大きさ又は間隔が異なる複数種類の区分それぞれに対し、前記区分領域毎に入力データから特徴量を抽出し、
重み計算手段が、前記複数種類の区分それぞれに対し、前記入力データに設定される検査領域と重複する前記区分領域の各々について、当該検査領域との重複度合いに応じた重みを計算し、
統合手段が、前記検査領域と重複する前記区分領域の各々について抽出された前記特徴量を、前記計算された重みを用いて統合した統合特徴量を求め、
認識手段が、前記統合特徴量を用いて、前記検査領域が、認識対象を表しているか否かを認識し、
前記重み計算手段は、前記複数種類の区分について前記区分領域ごとに求めた前記重複度合いを示す値の総和が一定値となるよう正規化して前記区分領域毎の前記重みを計算する認識方法。 - コンピュータを、
区分領域の大きさ又は間隔が異なる複数種類の区分それぞれに対し、前記区分領域毎に入力データから特徴量を抽出する特徴量抽出手段、
前記複数種類の区分それぞれに対し、前記入力データに設定される検査領域と重複する前記区分領域の各々について、当該検査領域との重複度合いに応じた重みを計算する重み計算手段、
前記検査領域と重複する前記区分領域の各々について抽出された前記特徴量を、前記計算された重みを用いて統合した統合特徴量を求める統合手段、及び
前記統合特徴量を用いて、前記検査領域が、認識対象を表しているか否かを認識する認識手段
として機能させ、
前記重み計算手段は、前記複数種類の区分について前記区分領域ごとに求めた前記重複度合いを示す値の総和が一定値となるよう正規化して前記区分領域毎の前記重みを計算するように機能させるための認識プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020008942A JP7441656B2 (ja) | 2020-01-23 | 2020-01-23 | 認識装置、学習装置、認識システム、認識方法、及び認識プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020008942A JP7441656B2 (ja) | 2020-01-23 | 2020-01-23 | 認識装置、学習装置、認識システム、認識方法、及び認識プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021117565A JP2021117565A (ja) | 2021-08-10 |
JP7441656B2 true JP7441656B2 (ja) | 2024-03-01 |
Family
ID=77174850
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020008942A Active JP7441656B2 (ja) | 2020-01-23 | 2020-01-23 | 認識装置、学習装置、認識システム、認識方法、及び認識プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7441656B2 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004295776A (ja) | 2003-03-28 | 2004-10-21 | Minolta Co Ltd | 画像認識装置および画像認識プログラム |
WO2014030399A1 (ja) | 2012-08-23 | 2014-02-27 | 日本電気株式会社 | 物体識別装置、物体識別方法、及びプログラム |
JP2019016298A (ja) | 2017-07-10 | 2019-01-31 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
-
2020
- 2020-01-23 JP JP2020008942A patent/JP7441656B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004295776A (ja) | 2003-03-28 | 2004-10-21 | Minolta Co Ltd | 画像認識装置および画像認識プログラム |
WO2014030399A1 (ja) | 2012-08-23 | 2014-02-27 | 日本電気株式会社 | 物体識別装置、物体識別方法、及びプログラム |
JP2019016298A (ja) | 2017-07-10 | 2019-01-31 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
Non-Patent Citations (1)
Title |
---|
映像からのオブジェクト識別技術,NHK技研R&D No.142 ,2013年11月15日,企業技報201300118006 |
Also Published As
Publication number | Publication date |
---|---|
JP2021117565A (ja) | 2021-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020253629A1 (zh) | 检测模型训练方法、装置、计算机设备和存储介质 | |
EP3779774A1 (en) | Training method for image semantic segmentation model and server | |
CN110599537A (zh) | 基于Mask R-CNN的无人机图像建筑物面积计算方法及系统 | |
CN111627050B (zh) | 一种目标跟踪模型的训练方法和装置 | |
CN110991513B (zh) | 一种具有类人连续学习能力的图像目标识别系统及方法 | |
CN110490262B (zh) | 图像处理模型生成方法、图像处理方法、装置及电子设备 | |
CN111461213A (zh) | 一种目标检测模型的训练方法、目标快速检测方法 | |
CN110879982A (zh) | 一种人群计数系统及方法 | |
CN113221956B (zh) | 基于改进的多尺度深度模型的目标识别方法及装置 | |
CN112884782B (zh) | 生物对象分割方法、装置、计算机设备和存储介质 | |
CN112749726B (zh) | 目标检测模型的训练方法、装置、计算机设备和存储介质 | |
CN111768415A (zh) | 一种无量化池化的图像实例分割方法 | |
CN112861970A (zh) | 一种基于特征融合的细粒度图像分类方法 | |
CN112802197A (zh) | 动态场景下基于全卷积神经网络的视觉slam方法及系统 | |
CN114549462A (zh) | 基于视角解耦Transformer模型的病灶检测方法、装置、设备及介质 | |
CN110472640B (zh) | 一种目标检测模型预测框处理方法及装置 | |
Aristoteles et al. | Identification of human sperm based on morphology using the you only look once version 4 algorithm | |
CN113780145A (zh) | 精子形态检测方法、装置、计算机设备和存储介质 | |
CN112927215A (zh) | 一种消化道活检病理切片自动分析方法 | |
JP7441656B2 (ja) | 認識装置、学習装置、認識システム、認識方法、及び認識プログラム | |
CN109583584B (zh) | 可使具有全连接层的cnn接受不定形状输入的方法及系统 | |
CN112488996A (zh) | 非齐次三维食管癌能谱ct弱监督自动标注方法与系统 | |
CN113887455B (zh) | 一种基于改进fcos的人脸口罩检测系统及方法 | |
CN112699898B (zh) | 一种基于多层特征融合的图像方向识别方法 | |
JP7441654B2 (ja) | 認識装置、学習装置、認識システム、認識方法、認識プログラム、学習方法、及び学習プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231030 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240219 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7441656 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |