JP7357454B2 - 特徴特定装置、特徴特定方法及び特徴特定プログラム - Google Patents
特徴特定装置、特徴特定方法及び特徴特定プログラム Download PDFInfo
- Publication number
- JP7357454B2 JP7357454B2 JP2019056844A JP2019056844A JP7357454B2 JP 7357454 B2 JP7357454 B2 JP 7357454B2 JP 2019056844 A JP2019056844 A JP 2019056844A JP 2019056844 A JP2019056844 A JP 2019056844A JP 7357454 B2 JP7357454 B2 JP 7357454B2
- Authority
- JP
- Japan
- Prior art keywords
- feature
- feature amount
- recognition
- similarity
- influence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/55—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/56—Information retrieval; Database structures therefor; File system structures therefor of still image data having vectorial format
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19173—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
- G06V30/41—Analysis of document content
- G06V30/414—Extracting the geometrical structure, e.g. layout tree; Block segmentation, e.g. bounding boxes for graphics or text
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Medical Informatics (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
これらの処理を自動化する取り組みとして、紙書類を電子化し、記載項目及び記載内容をコンピュータにより認識し、不備の判定を行うシステムがある(例えば、特許文献1参照)。このようなシステムでは、システムを動作させる以前に、紙書類内の記入領域を定義するといった初期設定が必要である。この初期設定を手作業で行うには手間がかかる。
ここで、複数の人によって記入された複数の記入書類では、記入領域は、記入がされている場合もあれば、記入がされていない場合もある。また、記入領域に記入された内容及び文字の形状は異なる。そのため、複数の紙書類の画像データにおける特徴箇所がテンプレートである可能性が高い。また、複数の分類の紙書類がある場合には、各分類の識別に寄与する箇所、つまり各分類の紙書類の画像データからその分類に固有の特徴箇所がテンプレートである可能性が高い。
この発明は、分類が増えた場合にも、CNNのパラメータの再学習することなく、各分類に固有の特徴箇所を適切に特定可能にすることを目的とする。
複数の分類それぞれを対象として、対象の分類の画像データから抽出された特徴量である基準特徴量と、認識対象の画像データである認識対象データから抽出された特徴量である認識特徴量との類似度を計算する類似度計算部と、
前記類似度計算部によって計算された各分類についての類似度と、前記認識特徴量とを入力として、前記認識対象データの各部分画像についての前記類似度への影響度を計算する影響度計算部と、
前記影響度計算部によって計算された前記影響度により前記認識特徴量を変更する特徴特定部と
備える。
これにより、分類に関する情報を有さないCNNを用いて基準特徴量と認識特徴量とを抽出しても、適切に特徴箇所を特定可能になる。そのため、分類が増えた場合にも、基準特徴量及び認識特徴量を抽出するためのCNNのパラメータの再学習することなく、適切に特徴箇所を特定可である。
***構成の説明***
図1を参照して、実施の形態1に係る特徴特定システム100の構成を説明する。
特徴特定システム100は、機械学習装置10と、特徴特定装置20とを備える。機械学習装置10と特徴特定装置20とは、LAN(Local Area Network)といった通信路30を介して接続されており、データの受け渡しが可能である。
なお、機械学習装置10と特徴特定装置20とは、1つの装置によって実現されてもよい。この場合には、機械学習装置10と特徴特定装置20とは、装置の信号線等を介して、データの受け渡しが可能である。
機械学習装置10及び特徴特定装置20は、コンピュータである。
機械学習装置10は、プロセッサ11と、メモリ12と、補助記憶装置13と、通信インタフェース14とを備える。特徴特定装置20は、プロセッサ21と、メモリ22と、補助記憶装置23と、通信インタフェース24と、出力インタフェース25とを備える。
Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)である。
機械学習装置10は、機能構成要素として、サンプリング部111と、二値画像変換部112と、画像生成部113と、特徴量抽出部114と、画像再構築部115と、パラメータ更新部116とを備える。機械学習装置10の各機能構成要素の機能はソフトウェアにより実現される。
補助記憶装置13には、機械学習装置10の各機能構成要素の機能を実現するプログラムが格納されている。このプログラムは、プロセッサ11によりメモリ12に読み込まれ、プロセッサ11によって実行される。これにより、機械学習装置10の各機能構成要素の機能が実現される。
また、補助記憶装置13は、複数の学習画像データ131と、第1パラメータ132と、第2パラメータ133とを記憶する。
特徴特定装置20機能構成要素として、特徴抽出部211と、特徴変更部212とを備える。特徴変更部212は、類似度計算部213と、影響度計算部214と、特徴特定部215とを備える。特徴特定装置20の各機能構成要素の機能はソフトウェアにより実現される。
補助記憶装置23には、特徴特定装置20の各機能構成要素の機能を実現するプログラムが格納されている。このプログラムは、プロセッサ21によりメモリ22に読み込まれ、プロセッサ21によって実行される。これにより、特徴特定装置20の各機能構成要素の機能が実現される。
また、補助記憶装置23は、複数の分類それぞれについて1つ以上の登録画像データ231と、複数の分類それぞれについて1つ以上の基準特徴量232と、1つ以上の認識対象データ233とを記憶する。
図5から図9を参照して、実施の形態1に係る特徴特定システム100の動作を説明する。
実施の形態1に係る特徴特定システム100の動作は、実施の形態1に係る特徴特定方法に相当する。また、実施の形態1に係る特徴特定システム100の動作は、実施の形態1に係る特徴特定プログラムの処理に相当する。
機械学習装置10は、補助記憶装置13に記憶された複数の学習画像データ131それぞれを対象として図5に示す処理を実行する。これにより、第1ニューラルネットワークの第1パラメータ132及び第2ニューラルネットワークの第2パラメータ133を更新する。
各学習画像データ131は、学習対象とする複数の分類のいずれかの分類の画像データである。実施の形態1では、各学習画像データ131は、複数の分類のいずれかの分類の紙書類を画像化した画像データである。なお、各学習画像データ131には、分類に関する情報は含まれていない。
サンプリング部111は、対象の学習画像データ131から画素データをサンプリングして、基準サイズの画像データに変換する。ここでは、各学習画像データ131は、グレースケールであるとする。
二値画像変換部112は、ステップS11で基準サイズに変換された後のグレースケールの学習画像データ131を二値化して、二値の画像データである変換二値データを生成する。
画像生成部113は、ステップS11で基準サイズに変換された後のグレースケールの学習画像データ131に対して、学習に必要な前処理を実行する。
具体例としては、画像生成部113は、学習画像データ131から画像取得時のノイズを除去して、学習画像データ131の状態を均一にする。又は、画像生成部113は、学習画像データ131に対してノイズを付加して、学習画像データ131にバリエーションを持たせる。ノイズを付加する方法としては、ガウシアンノイズと、ごま塩ノイズと、ガウシアンぼかし等を付加する、回転とシフトと拡大縮小といった操作を実行する、又は、輝度値とコントラストとシャープネスといった設定値を調整するといったことが考えられる。
特徴量抽出部114は、ステップS13で前処理が実行された後の学習画像データ131から第1ニューラルネットワークにより画素毎の特徴量を学習特徴量として抽出する。この際、第1ニューラルネットワークは、補助記憶装置13に記憶された第1パラメータ132を参照して学習特徴量を抽出する。実施の形態1では、第1ニューラルネットワークは、CNNであるとする。
画像再構築部115は、ステップS14で抽出された学習特徴量を入力として、第2ニューラルネットワークにより学習画像データ131を二値化して、二値の画像データである学習二値データを生成する。この際、第2ニューラルネットワークは、補助記憶装置13に記憶された第2パラメータ133を参照して学習二値データを生成する。実施の形態1では、第2ニューラルネットワークは、CNNであるとする。
パラメータ更新部116は、ステップS12で生成された変換二値データと、ステップS15で生成された学習二値データとの差分を計算する。パラメータ更新部116は、計算された差分に基づき、第1ニューラルネットワークのパラメータである第1パラメータ132と、第2ニューラルネットワークのパラメータである第2パラメータ133とを更新する。
図6に示す処理の前提として、特徴抽出部211は、補助記憶装置23に記憶された複数の登録画像データ231それぞれを対象として、対象の登録画像データ231から画素毎の特徴量を基準特徴量232として抽出して、補助記憶装置23に記憶する。
ここで、補助記憶装置23には、処理対象とする複数の分類それぞれについて1つ以上の登録画像データ231が記憶されている。登録画像データ231は、分類を示す情報と対応付けられている。複数の登録画像データ231は、学習画像データ131と同じ画像データが含まれてもよいし、異なる画像データだけであってもよい。
具体的には、特徴抽出部211は、機械学習装置10によって生成された第1ニューラルネットワークを特徴抽出モデルとして用いて、対象の登録画像データ231から基準特徴量232を抽出する。この際、第1ニューラルネットワークは、第1パラメータ132を参照して基準特徴量232を抽出する。そして、特徴抽出部211は、各登録画像データ231から抽出された基準特徴量232を、分類を示す情報と対応付けて補助記憶装置23に記憶する。
これにより、各分類について1つ以上の基準特徴量232が補助記憶装置23に記憶される。
特徴抽出部211は、認識対象の画像データである認識対象データ233から画素毎の特徴量を認識特徴量として抽出する。
ここで、認識対象データ233は、処理対象とする複数の分類のいずれかの分類の画像データである。認識対象データ233は、学習画像データ131と同じ画像データであってもよいし、違う画像データであってもよい。
具体的には、特徴抽出部211は、機械学習装置10によって生成された第1ニューラルネットワークを特徴抽出モデルとして用いて、認識対象データ233から認識特徴量を抽出する。この際、第1ニューラルネットワークは、第1パラメータ132を参照して認識特徴量を抽出する。
類似度計算部213は、複数の分類それぞれを対象として、対象の分類の画像データから抽出された特徴量である基準特徴量232と、ステップS21で抽出された認識特徴量との類似度を計算する。
影響度計算部214は、ステップS22で計算された各分類についての類似度と、ステップS21で抽出された認識特徴量とを入力として、認識対象データの各部分画像についての類似度への影響度を計算する。
特徴特定部215は、ステップS23で計算された影響度により、ステップS21で抽出された認識特徴量を変更して、認識対象データ233の特徴箇所を特定する。そして、特徴特定部215は、特定された特徴箇所が紙書類におけるテンプレートであり、他の部分を記入領域であると特定する。
各分類を対象としてステップS31からステップS36の処理が実行される。
ステップS31で類似度計算部213は、対象の分類の基準特徴量232を補助記憶装置23から取得する。ステップS32で類似度計算部213は、図6のステップS21で抽出された認識特徴量を取得する。
ステップS33で類似度計算部213は、ステップS31で複数の基準特徴量232が読み出された場合には、処理をステップS34に進め、ステップS31で1つの基準特徴量232が読み出された場合には、処理をステップS35に進める。ステップS34で類似度計算部213は、基準特徴量232の平均を対象の分類の基準特徴量232として扱う。なお、類似度計算部213は、平均に限らず、何らかの方法により、対象の分類の基準特徴量232を1つに定めればよい。
(式1)dissimilarityj=Σk(featurek-basisjk)2
ここで、basisjkは、分類jである登録画像データ231の画素kに対する基準特徴量232である。featurekは、認識対象データ233の画素kに対する認識特徴量である。dissimilarityjは、分類jに対する乖離度である。
この際、重みは、分類毎に、影響の大きい画素ほど大きい値になるように決定される。あるいは、重みは、分類毎に、登録画像データ231の特徴量のばらつき(標準変化)が大きい画素ほど小さい値になるように決定される。また、重みは、これらの2つの組合せにより決定されてもよい。
つまり、類似度計算部213は、式2に示すように、乖離度を計算する。
(式2)dissimilarityj=Σkwjk(featurek-basisjk)2
ここで、wjkは、分類jである登録画像データ231の画素kに対する重みである。重みwjkは、例えば、|basisjk|2/σjkである。σjkは、分類jである登録画像データ231の画素kについての標準偏差である。
ステップS41で影響度計算部214は、図7のステップS37で出力された類似度ベクトルを取得する。ステップS42で影響度計算部214は、図6のステップS21で抽出された認識特徴量を取得する。
ステップS43で影響度計算部214は、ステップS41で取得された類似度ベクトルと、ステップS42で取得された認識特徴量とを入力として、認識対象データ233の各部分画像である各画素を変化させた場合の類似度への影響の大きさを、影響度として計算する。具体的には、影響度計算部214は、類似度ベクトルと認識特徴量とをGrad-CAMに入力して、各画素についての影響度を計算する。つまり、影響度は、勾配のことである。Grad-CAMについては、非特許文献1に記載されている。
ステップS44で影響度計算部214は、ステップS43で計算された影響度を出力する。なお、特徴量は複数のレイヤを有している。そのため、影響度計算部214は、特徴量のレイヤ毎に影響度を出力してもよいし、特徴量のレイヤ毎の影響度の平均を出力してもよい。
ステップS51で特徴特定部215は、図8のステップS44で出力された影響度を取得する。ステップS52で特徴特定部215は、図6のステップS21で抽出された認識特徴量を取得する。
ステップS53で特徴特定部215は、ステップS51で取得された影響度を重みとして、ステップS52で取得された認識特徴量に重み付けすることにより、認識特徴量を変更する。この際、特徴特定部215は、影響度がレイヤ毎に出力された場合には、レイヤ毎に重み付けする。ステップS54で特徴特定部215は、ステップS53で変更された認識特徴量を、出力インタフェース25を介して表示装置等に出力する。この認識特徴量では、認識対象データ233の特徴箇所が特定されている。
以上のように、実施の形態1に係る特徴特定装置20は、各分類について基準特徴量232と認識特徴量との類似度を計算し、認識対象データ233の各部分画像(各画素)についての類似度への影響度を計算する。そして、影響度により認識特徴量を変更する。
これにより、分類に関する情報を有さないCNNを用いて基準特徴量233と認識特徴量とを抽出しても、適切に特徴箇所を特定可能になる。そのため、分類が増えた場合にも、基準特徴量及び認識特徴量を抽出するためのCNNのパラメータを再学習することなく、分類に応じた固有の特徴箇所を適切に特定可能である。その結果、分類が増えた場合にも、CNNのパラメータを再学習することなく、テンプレートと記入個所とを適切に特定することが可能である。
<変形例1>
機械学習装置10は、特徴量抽出部114の入力として与えられる学習画像データ131に分類に関する情報を含まずに、第1ニューラルネットワークの学習が行われるという条件を満たせばよい。この条件を満たせば、機械学習装置10は、実施の形態1で説明した構成に限らず、他の構成であってもよい。
実施の形態1では、複数の基準特徴量232を統合した上で、基準特徴量232と認識特徴量とを比較して、類似度を計算した。しかし、複数の基準特徴量232それぞれについて認識特徴量との類似度を計算した上で、複数の基準特徴量232それぞれについての類似度を統合してもよい。
各分類を対象としてステップS61からステップS66の処理が実行される。
ステップS61からステップS62の処理は、図7のステップS31からステップS32の処理と同じである。ステップS63で類似度計算部213は、ステップS61で取得された各基準特徴量232と、ステップS62で取得された認識特徴量との乖離度を計算する。
ステップS64で類似度計算部213は、ステップS61で複数の基準特徴量232が読み出された場合には、処理をステップS65に進め、ステップS61で1つの基準特徴量232が読み出された場合には、処理をステップS66に進める。ステップS65で類似度計算部213は、ステップS63で計算された各基準特徴量232との乖離度の平均を対象の分類の乖離度として扱う。なお、類似度計算部213は、平均に限らず、何らかの方法により、対象の分類の乖離度を1つに定めればよい。
ステップS66からステップS67の処理は、図7のステップS36からステップS37の処理と同じである。
実施の形態1では、各機能構成要素がソフトウェアで実現された。しかし、変形例3として、各機能構成要素はハードウェアで実現されてもよい。この変形例3について、実施の形態1と異なる点を説明する。
各機能構成要素がハードウェアで実現される場合には、機械学習装置10は、プロセッサ11とメモリ12と補助記憶装置13とに代えて、電子回路を備える。電子回路は、各機能構成要素と、メモリ12と、補助記憶装置13との機能とを実現する専用の回路である。同様に、各機能構成要素がハードウェアで実現される場合には、特徴特定装置20は、プロセッサ21とメモリ22と補助記憶装置23とに代えて、電子回路を備える。電子回路は、各機能構成要素と、メモリ22と、補助記憶装置23との機能とを実現する専用の回路である。
各機能構成要素を1つの電子回路で実現してもよいし、各機能構成要素を複数の電子回路に分散させて実現してもよい。
変形例4として、一部の各機能構成要素がハードウェアで実現され、他の各機能構成要素がソフトウェアで実現されてもよい。
Claims (6)
- 複数の分類それぞれを対象として、前記複数の分類に関する情報を有しない特徴抽出モデルによって、対象の分類の登録画像データから部分画像毎の特徴量を基準特徴量として抽出するとともに、前記特徴抽出モデルによって、認識対象の画像データである認識対象データから部分画像毎の特徴量を認識特徴量として抽出する特徴抽出部と、
各分類についての前記基準特徴量と、前記認識特徴量との類似度を計算する類似度計算部と、
前記類似度計算部によって計算された前記各分類についての類似度と、前記認識特徴量とを入力として、前記各分類について、前記認識対象データの各部分画像を変化させた場合の前記類似度への影響の大きさを、前記各部分画像についての影響度として計算する影響度計算部と、
前記影響度計算部によって計算された前記影響度により前記認識特徴量を変更する特徴特定部と
を備える特徴特定装置。 - 前記類似度計算部は、前記基準特徴量と前記認識特徴量との距離を計算することにより、前記類似度を計算する
請求項1に記載の特徴特定装置。 - 前記特徴特定部は、前記影響度を重みとして、前記認識特徴量に重み付けすることにより、前記認識特徴量を変更する
請求項1又は2に記載の特徴特定装置。 - 前記特徴抽出モデルは、学習対象の画像データである学習データが変換された二値の画像データである変換二値データと、第1ニューラルネットワークにより抽出した前記学習データの特徴量である学習特徴量を入力とする第2ニューラルネットワークにより前記学習データを変換した二値の画像データである学習二値データとの差分に基づき、前記第1ニューラルネットワークと前記第2ニューラルネットワークとのパラメータを更新する機械学習装置によって生成された前記第1ニューラルネットワークである
請求項1に記載の特徴特定装置。 - 特徴抽出部が、複数の分類それぞれを対象として、前記複数の分類に関する情報を有しない特徴抽出モデルによって、対象の分類の登録画像データから部分画像毎の特徴量を基準特徴量として抽出するとともに、前記特徴抽出モデルによって、認識対象の画像データである認識対象データから部分画像毎の特徴量を認識特徴量として抽出し、
類似度計算部が、各分類についての前記基準特徴量と、前記認識特徴量との類似度を計算し、
影響度計算部が、前記各分類についての類似度と、前記認識特徴量とを入力として、前記各分類について、前記認識対象データの各部分画像を変化させた場合の前記類似度への影響の大きさを、前記各部分画像についての影響度として計算し、
特徴特定部が、前記影響度により前記認識特徴量を変更する特徴特定方法。 - 複数の分類それぞれを対象として、前記複数の分類に関する情報を有しない特徴抽出モデルによって、対象の分類の登録画像データから部分画像毎の特徴量を基準特徴量として抽出するとともに、前記特徴抽出モデルによって、認識対象の画像データである認識対象データから部分画像毎の特徴量を認識特徴量として抽出する特徴抽出処理と、
各分類についての前記基準特徴量と、前記認識特徴量との類似度を計算する類似度計算処理と、
前記類似度計算処理によって計算された前記各分類についての類似度と、前記認識特徴量とを入力として、前記各分類について、前記認識対象データの各部分画像を変化させた場合の前記類似度への影響の大きさを、前記各部分画像についての影響度として計算する影響度計算処理と、
前記影響度計算処理によって計算された前記影響度により前記認識特徴量を変更する特徴特定処理と
を実行する特徴特定装置としてコンピュータを機能させる特徴特定プログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019056844A JP7357454B2 (ja) | 2019-03-25 | 2019-03-25 | 特徴特定装置、特徴特定方法及び特徴特定プログラム |
PCT/JP2019/046249 WO2020194864A1 (ja) | 2019-03-25 | 2019-11-26 | 特徴特定装置、特徴特定方法及び特徴特定プログラム |
CN201980094307.3A CN113661515A (zh) | 2019-03-25 | 2019-11-26 | 特征确定装置、特征确定方法和特征确定程序 |
US17/388,283 US11755907B2 (en) | 2019-03-25 | 2021-07-29 | Feature identification device, feature identification method, and computer readable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019056844A JP7357454B2 (ja) | 2019-03-25 | 2019-03-25 | 特徴特定装置、特徴特定方法及び特徴特定プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020160582A JP2020160582A (ja) | 2020-10-01 |
JP7357454B2 true JP7357454B2 (ja) | 2023-10-06 |
Family
ID=72611286
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019056844A Active JP7357454B2 (ja) | 2019-03-25 | 2019-03-25 | 特徴特定装置、特徴特定方法及び特徴特定プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11755907B2 (ja) |
JP (1) | JP7357454B2 (ja) |
CN (1) | CN113661515A (ja) |
WO (1) | WO2020194864A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114549499B (zh) * | 2022-03-01 | 2024-07-16 | 浪潮金融信息技术有限公司 | 一种用于终端设备的高拍仪达标检测方法、系统及介质 |
CN115017359A (zh) * | 2022-05-27 | 2022-09-06 | 浙江大华技术股份有限公司 | 一种搜索图片的方法、装置及电子设备 |
CN116645661B (zh) * | 2023-07-27 | 2023-11-14 | 深圳市青虹激光科技有限公司 | 一种防重码检测方法及系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6320649B1 (ja) | 2017-03-31 | 2018-05-09 | 三菱電機株式会社 | 機械学習装置及び画像認識装置 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA1060775A (en) | 1977-03-18 | 1979-08-21 | Manfred A.A. Lupke | Apparatus for perforating tubing |
JPS5635692A (en) | 1979-08-30 | 1981-04-08 | Mitsubishi Electric Corp | Control device for transistor motor |
US5638465A (en) * | 1994-06-14 | 1997-06-10 | Nippon Telegraph And Telephone Corporation | Image inspection/recognition method, method of generating reference data for use therein, and apparatuses therefor |
JP2001256244A (ja) | 2000-03-14 | 2001-09-21 | Fuji Xerox Co Ltd | 画像データ分類装置および画像データ分類方法 |
JP2007317034A (ja) | 2006-05-27 | 2007-12-06 | Ricoh Co Ltd | 画像処理装置、画像処理方法、プログラムおよび記録媒体 |
JP4717760B2 (ja) * | 2006-08-31 | 2011-07-06 | 三菱電機株式会社 | 物体認識装置および映像物体測位装置 |
KR100840021B1 (ko) * | 2007-11-05 | 2008-06-20 | (주)올라웍스 | 특성 데이터를 이용하여 디지털 데이터에 포함된 인물의얼굴에 대해 인식하는 방법 및 시스템 |
US8194933B2 (en) * | 2007-12-12 | 2012-06-05 | 3M Innovative Properties Company | Identification and verification of an unknown document according to an eigen image process |
JP5445062B2 (ja) | 2009-11-24 | 2014-03-19 | 富士ゼロックス株式会社 | 情報処理装置及び情報処理プログラム |
JP5214762B2 (ja) * | 2011-03-25 | 2013-06-19 | 株式会社東芝 | 認識装置、方法及びプログラム |
JP6440303B2 (ja) | 2014-12-02 | 2018-12-19 | エヌ・ティ・ティ・コムウェア株式会社 | 対象認識装置、対象認識方法、およびプログラム |
JP6345203B2 (ja) | 2016-05-19 | 2018-06-20 | 株式会社 ディー・エヌ・エー | 対象物の類似度判定のためのプログラム、システム、及び方法 |
EP3291146A1 (en) | 2016-09-05 | 2018-03-07 | Fujitsu Limited | Knowledge extraction from a convolutional neural network |
JP6830226B2 (ja) * | 2016-09-21 | 2021-02-17 | パナソニックIpマネジメント株式会社 | 換言文識別方法、換言文識別装置及び換言文識別プログラム |
JP6190027B1 (ja) | 2016-10-20 | 2017-08-30 | 三菱電機インフォメーションシステムズ株式会社 | 作業支援装置および作業支援プログラム |
JP2018112891A (ja) | 2017-01-11 | 2018-07-19 | 富士通株式会社 | 画像処理プログラム、画像処理方法及び画像処理システム |
JP6751684B2 (ja) | 2017-03-28 | 2020-09-09 | 株式会社Nttドコモ | 類似画像検索装置 |
JP6349477B1 (ja) | 2018-02-14 | 2018-06-27 | 株式会社エクサ | 類似度判定プログラム |
JP2019211913A (ja) * | 2018-06-01 | 2019-12-12 | 日本電信電話株式会社 | 特徴量抽出装置、方法、及びプログラム |
-
2019
- 2019-03-25 JP JP2019056844A patent/JP7357454B2/ja active Active
- 2019-11-26 CN CN201980094307.3A patent/CN113661515A/zh active Pending
- 2019-11-26 WO PCT/JP2019/046249 patent/WO2020194864A1/ja active Application Filing
-
2021
- 2021-07-29 US US17/388,283 patent/US11755907B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6320649B1 (ja) | 2017-03-31 | 2018-05-09 | 三菱電機株式会社 | 機械学習装置及び画像認識装置 |
WO2018179338A1 (ja) | 2017-03-31 | 2018-10-04 | 三菱電機株式会社 | 機械学習装置及び画像認識装置 |
Non-Patent Citations (1)
Title |
---|
長野 章宏 外10名,電子顕微鏡画像における薬剤耐性菌株の識別と形態的特徴の比較,情報処理学会研究報告 コンピュータビジョンとイメージメディア(CVIM) 2019-CVIM-215,日本,2019年01月10日,No. 32,pp. 1-8 |
Also Published As
Publication number | Publication date |
---|---|
JP2020160582A (ja) | 2020-10-01 |
CN113661515A (zh) | 2021-11-16 |
WO2020194864A1 (ja) | 2020-10-01 |
US20210357635A1 (en) | 2021-11-18 |
US11755907B2 (en) | 2023-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7357454B2 (ja) | 特徴特定装置、特徴特定方法及び特徴特定プログラム | |
EP2806374B1 (en) | Method and system for automatic selection of one or more image processing algorithm | |
TW202036463A (zh) | 活體檢測方法和裝置、設備和存儲介質 | |
WO2021137946A1 (en) | Forgery detection of face image | |
US11361528B2 (en) | Systems and methods for stamp detection and classification | |
CN106447592A (zh) | 每个特征描述符的在线个性化服务 | |
CN111951154B (zh) | 包含背景和介质的图片的生成方法及装置 | |
Tang et al. | Person re-identification with feature pyramid optimization and gradual background suppression | |
Liu et al. | An indoor scene classification method for service robot Based on CNN feature | |
US20210312215A1 (en) | Method for book recognition and book reading device | |
Le et al. | Exploring the asynchronous of the frequency spectra of gan-generated facial images | |
US11514702B2 (en) | Systems and methods for processing images | |
CN112750065B (zh) | 载体对象处理和水印嵌入方法、装置及电子设备 | |
KR20240114180A (ko) | 문서 이미지 디블러링 모델의 학습 방법 및 이를 실행하는 서버 | |
WO2023010701A1 (en) | Image generation method, apparatus, and electronic device | |
Wei et al. | FRGAN: a blind face restoration with generative adversarial networks | |
JP7485226B2 (ja) | 訓練装置、分類装置、訓練方法、分類方法、及びプログラム | |
CA3070701C (en) | Systems and methods for processing images | |
US12013922B2 (en) | Method for watermarking a machine learning model | |
US12080054B2 (en) | Systems and methods for detecting small objects in an image using a neural network | |
US20240330582A1 (en) | Debiasing prompts in connection with artificial intelligence techniques | |
JP7266075B2 (ja) | データ選別支援装置、データ選別支援方法及びデータ選別支援プログラム | |
US20240143693A1 (en) | Decoding additive superposition of vectors | |
Sasithradevi et al. | Computer Graphic and Photographic Images Classification—A Transfer Learning Approach | |
Dutta et al. | A systematic literature review on image splicing detection and localization using emerging technologies |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230328 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230515 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230829 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230926 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7357454 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |