JP2020027504A - 物体認識装置、物体認識学習装置、方法、及びプログラム - Google Patents

物体認識装置、物体認識学習装置、方法、及びプログラム Download PDF

Info

Publication number
JP2020027504A
JP2020027504A JP2018152701A JP2018152701A JP2020027504A JP 2020027504 A JP2020027504 A JP 2020027504A JP 2018152701 A JP2018152701 A JP 2018152701A JP 2018152701 A JP2018152701 A JP 2018152701A JP 2020027504 A JP2020027504 A JP 2020027504A
Authority
JP
Japan
Prior art keywords
image
resolution
feature
resolution image
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018152701A
Other languages
English (en)
Other versions
JP7131195B2 (ja
Inventor
之人 渡邉
Yukito Watanabe
之人 渡邉
島村 潤
Jun Shimamura
潤 島村
淳 嵯峨田
Atsushi Sagata
淳 嵯峨田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018152701A priority Critical patent/JP7131195B2/ja
Priority to US17/268,293 priority patent/US11928790B2/en
Priority to PCT/JP2019/031469 priority patent/WO2020036124A1/ja
Publication of JP2020027504A publication Critical patent/JP2020027504A/ja
Application granted granted Critical
Publication of JP7131195B2 publication Critical patent/JP7131195B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/248Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
    • G06V30/2504Coarse or fine approaches, e.g. resolution of ambiguities or multiscale approaches

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Library & Information Science (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】低解像度画像に含まれる物体を精度よく認識することができる。【解決手段】取得部が、クエリ画像から、予め学習された、画像を高解像度化する取得処理によって、クエリ画像を高解像度化した高解像度化画像を取得する。特徴抽出部が、高解像度化画像を入力とし、予め学習された、画像の特徴量ベクトルを抽出する抽出処理によって、高解像度化画像の特徴量ベクトルを抽出する。認識部が、高解像度化画像の特徴量ベクトルに基づき高解像度化画像において撮影された物体を認識し、認識された物体をクエリ画像において撮影された物体として出力する。【選択図】図2

Description

本発明は、物体認識装置、物体認識学習装置、方法、及びプログラムに係り、特に、画像に含まれる物体を認識するための物体認識装置、物体認識学習装置、方法、及びプログラムに関する。
スマートフォン等の小型撮像デバイスの普及に伴い、様々な場所や環境で任意の対象を撮影したような画像中に写る物体を認識する技術への要望が高まってきている。
従来、画像中の物体を認識する種々の技術が発明、開示されているが、画像の検索に基づく典型的な手続きを、非特許文献1に記載の技術に従って説明する。まず、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を用いて画像から特徴量ベクトルを抽出する。次に、互いに異なる二つの画像について特徴量ベクトル同士の内積を計算する。計算した値が大きいほど、同一の物体が写っているとみなす。予め、認識したい物体を含む画像(参照画像)により参照画像データベースを構築し、新たに入力された画像(クエリ画像)と同一の物体が写っているものを検索することにより、クエリ画像中に存在する物体を特定することができる。
G. Tolias, R. Sicre, and H. Jegou, Particular Object Retrieval with Integral Max-Pooling of CNN Activations, In ICLR, 2016.
しかしながら、クエリ画像と参照画像との解像度に乖離がある場合、たとえ同じ物体同士であっても異なる特徴量ベクトルが得られてしまうような場合が多い。結果として、異なる物体が検索されてしまい、認識精度が低下するという課題がある。例えば、解像度が高い参照画像に対して、解像度が低い画像をクエリ画像として検索するようなケースでは、クエリ画像中から高周波成分が失われていることが多く、前述の問題が発生しやすい典型例である。このような例において、単純に高解像度に写る画像の解像度を落とすことで解像度を揃えた場合、多くの詳細な情報が失われてしまうため、十分に認識精度は改善されない。
本発明は、上記事情を鑑みて成されたものであり、低解像度画像に含まれる物体を精度よく認識することができる物体認識装置、方法、及びプログラムを提供することを目的とする。
また、低解像度画像に含まれる物体を精度よく認識するためのニューラルネットワークを学習することができる物体認識学習装置、方法、及びプログラムを提供することを目的とする。
上記目的を達成するために、第1の発明に係る物体認識装置は、認識対象のクエリ画像において撮影された物体を認識する物体認識装置であって、前記クエリ画像から、予め学習された、画像を高解像度化する取得処理によって、前記クエリ画像を高解像度化した高解像度化画像を取得する取得部と、前記高解像度化画像を入力とし、予め学習された、画像の特徴量ベクトルを抽出する抽出処理によって、前記高解像度化画像の特徴量ベクトルを抽出する特徴抽出部と、前記高解像度化画像の特徴量ベクトルに基づき前記高解像度化画像において撮影された物体を認識し、認識された物体を前記クエリ画像において撮影された物体として出力する認識部と、を含む物体認識装置であって、前記取得部の前記取得処理は、少なくとも、前記物体が撮影された任意の画像と、前記任意の画像に対応する低解像度画像を高解像度化した画像と、を関連付けることで学習された取得処理であり、さらに、前記取得処理は、学習において前記抽出処理と同時に最適化されたものであることを特徴とする。
第2の発明に係る物体認識学習装置は、画像を入力として高解像度化した中間高解像度画像を出力する中間層である高解像度化層と、前記高解像度化層から出力された前記中間高解像度画像を入力として特徴量ベクトルを出力する特徴抽出層とを含むニューラルネットワークについて、任意の画像と、前記任意の画像に対応する低解像度画像を入力として得られる前記中間高解像度画像との差、前記中間高解像度画像を入力して得られる特徴量ベクトルと、前記任意の画像と同一のラベルが付された画像を入力して得られる前記特徴量ベクトルとの差、及び前記中間高解像度画像を入力して得られる特徴量ベクトルと、前記任意の画像とは異なるラベルが付された画像を入力して得られる前記特徴量ベクトルとの差を用いて表される損失関数を用いて、前記ニューラルネットワークの前記高解像度化層のパラメータと前記特徴抽出層のパラメータとを同時に最適化するパラメータ最適化部、を含んで構成されている。
第3の発明に係る物体認識方法は、認識対象のクエリ画像において撮影された物体を認識する物体認識装置における物体認識方法であって、取得部が、前記クエリ画像から、予め学習された、画像を高解像度化する取得処理によって、前記クエリ画像を高解像度化した高解像度化画像を取得するステップと、特徴抽出部が、前記高解像度化画像を入力とし、予め学習された、画像の特徴量ベクトルを抽出する抽出処理によって、前記高解像度化画像の特徴量ベクトルを抽出するステップと、認識部が、前記高解像度化画像の特徴量ベクトルに基づき前記高解像度化画像において撮影された物体を認識し、認識された物体を前記クエリ画像において撮影された物体として出力するステップと、を含む物体認識装置であって、前記取得部の前記取得処理は、少なくとも、前記物体が撮影された任意の画像と、前記任意の画像に対応する低解像度画像を高解像度化した画像と、を関連付けることで学習された取得処理であり、さらに、前記取得処理は、学習において前記抽出処理と同時に最適化されたものであることを特徴とする。
第4の発明に係る物体認識学習方法は、パラメータ最適化部が、画像を入力として高解像度化した中間高解像度画像を出力する中間層である高解像度化層と、前記高解像度化層から出力された前記中間高解像度画像を入力として特徴量ベクトルを出力する特徴抽出層とを含むニューラルネットワークについて、任意の画像と、前記任意の画像に対応する低解像度画像を入力として得られる前記中間高解像度画像との差、前記中間高解像度画像を入力して得られる特徴量ベクトルと、前記任意の画像と同一のラベルが付された画像を入力して得られる前記特徴量ベクトルとの差、及び前記中間高解像度画像を入力して得られる特徴量ベクトルと、前記任意の画像とは異なるラベルが付された画像を入力して得られる前記特徴量ベクトルとの差を用いて表される損失関数を用いて、前記ニューラルネットワークの前記高解像度化層のパラメータと前記特徴抽出層のパラメータとを同時に最適化するステップ、を含んで実行することを特徴とする。
第5の発明に係るプログラムは、コンピュータを、第1の発明に記載の物体認識装置の各部として機能させるためのプログラムである。
第6の発明に係るプログラムは、コンピュータを、第2の発明に記載の物体認識学習装置の各部として機能させるためのプログラムである。
本発明の物体認識装置、方法、及びプログラムによれば、クエリ画像から、予め学習された、画像を高解像度化する取得処理によって、クエリ画像を高解像度化した高解像度化画像を取得し、高解像度化画像を入力とし、予め学習された、画像の特徴量ベクトルを抽出する抽出処理によって、高解像度化画像の特徴量ベクトルを抽出し、高解像度化画像の特徴量ベクトルに基づき高解像度化画像において撮影された物体を認識し、認識された物体をクエリ画像において撮影された物体として出力することにより、低解像度画像に含まれる物体を精度よく認識することができる、という効果が得られる。
本発明の物体認識学習装置、方法、及びプログラムによれば、ニューラルネットワークの高解像度化層のパラメータと特徴抽出層のパラメータとを同時に最適化することにより、低解像度画像に含まれる物体を精度よく認識するためのニューラルネットワークを学習することができる、という効果が得られる。
本発明の実施の形態に係る物体認識学習装置の構成を示すブロック図である。 本発明の実施の形態に係る物体認識装置の構成を示すブロック図である。 本発明の実施の形態に係る物体認識学習装置における物体認識学習処理ルーチンを示すフローチャートである。 本発明の実施の形態に係る物体認識装置における物体認識処理ルーチンを示すフローチャートである。
以下、図面を参照して本発明の実施の形態を詳細に説明する。
上述した通り従来技術ではクエリ画像と参照画像との間で解像度に乖離が有る場合、参照画像を低解像度化して解像度を合わせても、クエリ画像を従来の技術で高解像度化して解像度を合わせても十分に精度は改善されない。これは低解像度な画像では高周波成分が失われていること、高周波成分には物体認識において重要となる詳細な模様などが含まれることが多いこと、に起因する。
従来技術では低解像度の画像を高解像度化する際に主観画質を向上させることが多いが、物体認識を目的とする場合、物体認識を行いやすいように高解像度化すればよい。また、物体認識は同種の物体の特徴量ベクトル間の距離が他種の物体の特徴量ベクトル間の距離と比べ小さくなるような特徴量ベクトルを抽出できればよい。本発明の実施の形態は、そのような事情を考慮し、前述したような特徴量抽出手段と、当該特徴量抽出手段に適した高解像度化手段を得るために、特徴量抽出手段と高解像度化手段を同時に最適化する。ここで、適した、とは主観画質を向上させることではなく、物体認識を行うために、最適化された特徴量抽出手段が高解像度化する前と比較して認識対象の物体の特徴をより反映した値になるということを意図している。
<本発明の実施の形態に係る物体認識学習装置の構成>
次に、本発明の実施の形態に係る物体認識学習装置の構成について説明する。図1に示すように、本発明の実施の形態に係る物体認識学習装置10は、CPUと、RAMと、後述する物体認識学習処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。
物体認識学習装置10は、データベース2と通信手段を介して接続されて相互に情報通信する。データベース2は、例えば、一般的な汎用コンピュータに実装されているファイルシステムによって構成できる。本実施の形態では、一例としてデータベース2には、画像集合4の画像、及び画像に関する各種データが予め格納されているものとする。本実施の形態では、画像集合4の各画像それぞれを一意に識別可能な、通し番号によるID(Identification)やユニークな画像ファイル名等の識別子が与えられているものとしている。また、データベース2は、各々の画像について、当該画像の識別子と、当該画像の画像データとを関連づけて記憶しているものとする。あるいは、データベース2は、同様に、RDBMS(Relational Database Management System)等で実装、構成されていても構わない。データベース2が記憶する情報は、その他、メタデータとして、例えば画像の内容を表現する情報(画像のタイトル、概要文、またはキーワード等)、画像のフォーマットに関する情報(画像のデータ量、サムネイル等のサイズ)等を含んでいても構わないが、これらの情報の記憶は本開示の実施においては必須ではない。
データベース2は、物体認識学習装置10の内部及び外部の何れに設けられていても構わず、通信手段は任意の公知ものを用いることができる。なお、本実施の形態では、データベース2は、物体認識学習装置10の外部に設けられているものとし、インターネット、及びTCP/IP(Transmission Control Protocol/Internet Protocol)等のネットワークを通信手段として物体認識学習装置10と通信可能に接続されているものとする。
画像集合4は、画像に含まれる特定対象物を表すラベルが付与された画像群である。ラベルは、例えば、整数とし、画像に含まれる特定対象物が同一であるものは同じ整数を割り当てればよい。また、データベース2には、前述した画像集合4の画像、及び画像に関する各種データに加え、画像集合4の各画像を低解像度化した低解像度画像が格納されているものとする。低解像度化処理は公知の方法と用いれば良いが、本実施の形態ではBicubic法を利用した縮小処理によって行われているものとする。説明のため、低解像度化処理が行われた画像を低解像度画像、処理が行われる前の元画像を高解像度画像と記載する。また、低解像度画像には、対応する高解像度画像と同一のラベルが付与されているものとする。
物体認識学習装置10は、図1に示すように取得部11と、特徴抽出部12と、パラメータ最適化部13と、CNN記憶部14とを含んで構成されている。
本実施の形態の物体認識学習装置10は、取得部11で、CNNの高解像度化層を用いて低解像度画像を高解像度化した中間高解像度画像を得て、特徴抽出部12で、CNNの特徴抽出層を用いて各種画像から特徴量ベクトルを抽出し、パラメータ最適化部13で、画像間の誤差及び特徴量ベクトル間の距離を含む損失関数を用いて、高解像度化層のパラメータと特徴抽出層のパラメータとを同時に最適化する。以下、各部の具体的な処理を詳述する。
CNN記憶部14には、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)のパラメータを格納しておくものとする。本実施の形態のCNNは、高解像度化層と、特徴抽出層とを含むCNNとする。具体的には、画像を入力として高解像度化した中間高解像度画像を出力する中間層である高解像度化層と、高解像度化層から出力された中間高解像度画像を入力として特徴量ベクトルを出力する特徴抽出層とを順に結合した畳み込みニューラルネットワーク(CNN)を用いる。すなわち、高解像度化層の最終出力が、特徴抽出層の入力となる。各層の構成は、任意の公知の物を用いてよい。ここでは、高解像度化層として非特許文献2に記載のCNN、特徴抽出層として非特許文献1に記載のVGG16(Very Deep Network)から全結合層を取り除いた構成を用いるものとする。
[非特許文献2]M. Haris, G. Shakhnarovich, and N. Ukita, Deep backprojection networks for super-resolution, CVPR, 2018.
取得部11は、データベース2に含まれる、任意の高解像度画像Iに対する低解像度画像IをCNNの高解像度化層の入力とし、高解像度化した中間高解像度画像Iを特徴抽出部12、及びパラメータ最適化部13に出力する。高解像度化層のパラメータはCNN記憶部14に記憶してあるものを用いる。なお、本実施の形態における画像の高解像度化は、非特許文献2に記載の構成のCNNを用いた高解像度化層によって畳み込むことで高解像度化を実施するが、ニューラルネットワークを用いて畳み込む方法であれば限定されるものではない。また、任意の高解像度画像Iは、高解像度化される前の低解像度画像Iの元画像となる高解像度な画像であり、
特徴抽出部12は、中間高解像度画像I、任意の高解像度画像Iと同一ラベルが付与された高解像度画像I、及び異なるラベルが付与された高解像度画像Iのそれぞれを、CNNの特徴抽出層への入力とし、特徴量ベクトルを抽出し、パラメータ最適化部13に出力する。
本実施の形態における特徴抽出部12の特徴量ベクトルの抽出は、非特許文献1に記載の構成のCNNの特徴抽出層によって畳み込みを行い、最終畳み込み層出力をグリッドに分割し、グリッド毎にspatial max poolingした値をsum poolingすることで固定の次元を持つ特徴量ベクトルを獲得できる。なお、ニューラルネットワークを用いて固定の次元を持つベクトルとして表現できるものであればこれに限定されるものではない。
特徴抽出部12で用いるCNNの特徴抽出層において、非特許文献1に記載の特徴量ベクトルを抽出する処理について詳細に説明する。本実施の形態に好適な例として、非特許文献1に記載のMAC(Maximum Activations of Convolutions)、あるいは、RMAC(Regional Maximum Activation of Convolutions)、あるいはその両者を用いる。
CNNの特徴抽出層の最終畳み込み層出力をC×W×Hの特徴マップとする。Cがチャネル数、Wが幅、Hが高さを表す。特徴マップを、X={X}、c=1,...,Cと表現すると、MACを用いた特徴ベクトルfは下記(1)式で算出できる。

・・・(1)
RMACを用いた特徴ベクトルについては、予め規定した様々な大きさの矩形によって特徴マップXを分割し、様々な大きさの矩形によって分割された各々の特徴マップからMACの特徴量ベクトルfを各々抽出し、正規化した後に足し合わせることで算出できる。正規化は、L2正規化を用いればよい。また、MAC、RMACともに、算出後の特徴量ベクトルを正規化して用いてもよい。また、MAC、RMAC両者を用いる場合は、両者の特徴ベクトルを正規化後、足し合わせ、再度正規化を実施したベクトルを最終的な特徴量ベクトルとすればよい。また、用いる中間層としては最終畳み込み層に限らず、学習処理及び認識処理において一貫しているのであれば、他の中間層を対象としてもよい。特徴量ベクトルの抽出方法は、MAC、RMACに限定されず、CNNの中間層から固定の次元を持つベクトルとして表現できる任意の公知の方法を用いてもよい。
なお、特徴抽出部12は、中間高解像度画像I、任意の高解像度画像Iと同一ラベルが付与された高解像度画像I、及び異なるラベルが付与された高解像度画像Iのそれぞれから抽出した特徴量ベクトルをデータベース2に記憶する。
パラメータ最適化部13は、任意の高解像度画像Iと、低解像度画像Iを高解像度化した中間高解像度画像Iと、特徴抽出部12で抽出した、中間高解像度画像Iの特徴量ベクトルdと、同一ラベルが付与された高解像度画像Iの特徴量ベクトルdと、異なるラベルが付与された高解像度画像Iの特徴量ベクトルdとに基づいて、画像間の誤差及び特徴量ベクトル間の距離を含む損失関数を用いて、高解像度化層のパラメータと、特徴抽出層のパラメータとを同時に最適化し、CNN記憶部14のCNNのパラメータを更新する。
高解像度化層のパラメータについては、任意の高解像度画像Iと中間高解像度画像Iとを関連付け、任意の高解像度画像Iと、中間高解像度画像Iと間の誤差が小さくなるように最適化される。また、特徴抽出層のパラメータについては、任意の高解像度画像Iと同一ラベルが付与された高解像度画像Iの特徴量ベクトルdと間の距離が小さく、任意の高解像度画像Iとは異なるラベルが付与された高解像度画像Iの特徴量ベクトルdとの間の距離が大きくなるように最適化される。
具体的には、パラメータ最適化部13は、以下(2)式の損失関数を最小化するようにCNNのパラメータを最適化する。

・・・(2)
は、任意の高解像度画像Iに対応する低解像度画像I を入力として高解像度化層の出力として得られる中間高解像度画像である。dは、中間高解像度画像I を入力して特徴抽出層の出力として得られる特徴量ベクトルである。dは、任意の高解像度画像Iと同一のラベルが付与された高解像度画像Iを入力して特徴抽出層の出力として得られる特徴量ベクトルである。dは、任意の高解像度画像Iとは異なるラベルが付与された高解像度画像Iを入力して特徴抽出層の出力として得られる特徴量ベクトルである。なお、中間高解像度画像は、I 単独であってもI の集合であってもよい。すなわち、1画素からなる画像(N=1の場合)であってもよいし、複数の画素から成る画像(N>1)であってもよい。
このように損失関数は、任意の高解像度画像Iと、中間高解像度画像I との差、特徴量ベクトルdと、特徴量ベクトルdとの差、及び特徴量ベクトルdと、特徴量ベクトルdとの差を用いて表される。
上記の損失関数について誤差逆伝播法を用いて、CNNの全パラメータを更新すればよい。NはIの画素数である。また、mはマージンを表す固定のパラメータ、λ、λは重みの固定パラメータであり、任意の実数を用いればよく、例えばmは0.1、λとλは0.5などとすればよい。損失関数により、低解像度画像を高精度に高解像度化しながら、高精度な検索が可能な特徴量ベクトルを抽出可能なCNNのパラメータを得ることができる。
<本発明の実施の形態に係る物体認識装置の構成>
次に、本発明の実施の形態に係る物体認識装置の構成について説明する。物体認識装置は、認識対象のクエリ画像において撮影された物体を認識する。
図2に示すように、本発明の実施の形態に係る物体認識装置210は、CPUと、RAMと、後述する物体認識処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。
物体認識装置210は、データベース222と通信手段を介して接続されて相互に情報通信する。
データベース222は、上記データベース2と同様の構成であり、ラベルが付与された参照画像群を記憶している。また、参照画像ごとに、上記CNNの特徴抽出層を用いて予め特徴抽出処理をし、参照画像の特徴量ベクトルを関連付けて記憶しているものとする。参照画像群は画像集合4としてもよい。また、参照画像として画像集合4の画像を用いる必要は必ずしもなく、別途参照画像とする画像を格納してもよい。
物体認識装置210は、図2に示すように取得部211と、特徴抽出部212と、認識部213と、CNN記憶部214とを含んで構成されている。
CNN記憶部214には、上記物体認識学習装置10で学習された、CNNにおける高解像度化層のパラメータと、特徴抽出層のパラメータとが記憶されている。
本実施の形態の物体認識装置210で用いるCNNは、上述した物体認識学習装置10について説明した高解像度化層と、特徴抽出層とを含むCNNである。CNNはパラメータの学習によって、取得部211の取得処理として、任意の高解像度画像と、低解像度画像を高解像度化した画像(中間高解像度画像)とを関連付けて学習されたものであり、抽出処理と同時に最適化されたものである。また、CNNはパラメータの学習によって、中間層(高解像度化層)の出力値として任意の高解像度画像が出力されるように学習された学習済みニューラルネットワークである。
取得部211は、認識対象のクエリ画像から、クエリ画像3をCNNの高解像度化層への入力として、CNN記憶部214に記憶されたパラメータを用いて取得処理を行い、クエリ画像を高解像度化した高解像度化画像を取得する。具体的な処理手法は、上述した物体認識学習装置10について説明した取得部11と同様、非特許文献2に記載の手法を用いる。
特徴抽出部212は、高解像度化画像をCNNの特徴抽出層への入力として、CNN記憶部214に記憶されたパラメータを用いて抽出処理を行い、特徴量ベクトルを抽出する。具体的な処理手法は、上述した物体認識学習装置10について説明した特徴抽出部12と同様、非特許文献1に記載の手法を用いる。
認識部213は、高解像度化画像の特徴量ベクトルに基づき高解像度化画像において撮影された物体を認識し、認識された物体をクエリ画像3において撮影された物体として認識結果5を出力する。
具体的には、認識部213において、クエリ画像3から抽出された特徴量ベクトルと、データベース222の参照画像の各々の特徴量ベクトルとを比較することで検索処理を実施する。例えば、両者の距離を測ることで、比較することができる。距離は、例えばL2距離を用いればよい。あるいは、クエリ画像3の特徴量ベクトルと、参照画像の各々の特徴量ベクトルとの内積を求めても構わず、この場合は両者の類似度を得ることができる。
全ての参照画像に対して上記比較を行ったのち、距離が小さい参照画像、あるいは、類似度が大きい順にリスト化する。そして、リスト化した参照画像の各々のラベルを、同一物体を含む、ないし同一物体に近い物体であるものとし、認識結果5として出力する。
<本発明の実施の形態に係る物体認識学習装置の作用>
次に、本発明の実施の形態に係る物体認識学習装置10の作用について説明する。物体認識学習装置10は、図3に示す物体認識学習処理ルーチンを実行する。
ステップS100では、取得部11は、データベース2に含まれる、任意の高解像度画像Iに対する低解像度画像IをCNNの高解像度化層の入力とし、高解像度化した中間高解像度画像Iを特徴抽出部12、及びパラメータ最適化部13に出力する。
ステップS102では、特徴抽出部12は、中間高解像度画像I、任意の高解像度画像Iと同一ラベルが付与された高解像度画像I、及び異なるラベルが付与された高解像度画像Iのそれぞれについて、CNNの特徴抽出層への入力とし、特徴量ベクトルを抽出し、パラメータ最適化部13に出力する。
ステップS104では、パラメータ最適化部13は、任意の高解像度画像Iと、低解像度画像Iを高解像度化した中間高解像度画像Iと、特徴抽出部12で抽出した、中間高解像度画像Iの特徴量ベクトルdと、同一ラベルが付与された高解像度画像Iの特徴量ベクトルdと、異なるラベルが付与された高解像度画像Iの特徴量ベクトルdとに基づいて、上記(2)式の損失関数を用いて、高解像度化層のパラメータと、特徴抽出層のパラメータとを同時に最適化し、CNN記憶部14のCNNのパラメータを更新する。これにより、高解像度化層のパラメータについては、任意の高解像度画像Iと中間高解像度画像Iとを関連付け、任意の高解像度画像Iと、中間高解像度画像Iと間の誤差が小さくなるようにパラメータが最適化される。また、特徴抽出層のパラメータについては、任意の高解像度画像Iと同一ラベルが付与された高解像度画像Iの特徴量ベクトルdと間の距離が小さく、任意の高解像度画像Iとは異なるラベルが付与された高解像度画像Iの特徴量ベクトルdとの間の距離が大きくなるようにパラメータが最適化される。
以上説明したように、本発明の実施の形態に係る物体認識学習装置によれば、低解像度画像に含まれる物体を精度よく認識するためのニューラルネットワークを学習することができる。
<本発明の実施の形態に係る物体認識装置の作用>
次に、本発明の実施の形態に係る物体認識装置210の作用について説明する。物体認識装置210は、図4に示す物体認識処理ルーチンを実行する。
ステップS200では、取得部211は、認識対象のクエリ画像3から、クエリ画像3をCNNの高解像度化層への入力として、CNN記憶部214に記憶されたパラメータを用いて取得処理を行い、クエリ画像を高解像度化した高解像度化画像を取得する。
ステップS202では、特徴抽出部212は、高解像度化画像をCNNの特徴抽出層への入力として、CNN記憶部214に記憶されたパラメータを用いて抽出処理を行い、特徴量ベクトルを抽出する。
ステップS204では、認識部213は、高解像度化画像の特徴量ベクトルに基づき高解像度化画像において撮影された物体を認識し、認識された物体をクエリ画像3において撮影された物体として認識結果5を出力する。
以上説明したように、本発明の実施の形態に係る物体認識装置によれば、低解像度画像に含まれる物体を精度よく認識することができる。
なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
例えば、上述した実施の形態では、物体認識学習装置は、取得部、及び特徴抽出部を含む構成を例として説明したが、これに限定されるものではない。例えば、物体認識学習装置は、取得部、及び特徴抽出部を含まずに、パラメータ最適化部のみによって構成するようにしてもよい。この場合には、予め低解像度画像Iを高解像度化層への入力として高解像度化した中間高解像度画像I、及び中間高解像度画像Iの特徴量ベクトルd、画像Iの特徴量ベクトルd、画像Iの特徴量ベクトルdを取得しておき、パラメータ最適化部の処理のみを行うようにすればよい。
2、222 データベース
3 クエリ画像
4 画像集合
5 認識結果
10 物体認識学習装置
11、211 取得部
12、212 特徴抽出部
13 パラメータ最適化部
14、214 CNN記憶部
210 物体認識装置
213 認識部

Claims (8)

  1. 認識対象のクエリ画像において撮影された物体を認識する物体認識装置であって、
    前記クエリ画像から、予め学習された、画像を高解像度化する取得処理によって、前記クエリ画像を高解像度化した高解像度化画像を取得する取得部と、
    前記高解像度化画像を入力とし、予め学習された、画像の特徴量ベクトルを抽出する抽出処理によって、前記高解像度化画像の特徴量ベクトルを抽出する特徴抽出部と、
    前記高解像度化画像の特徴量ベクトルに基づき前記高解像度化画像において撮影された物体を認識し、認識された物体を前記クエリ画像において撮影された物体として出力する認識部と、
    を含む物体認識装置であって、
    前記取得部の前記取得処理は、
    少なくとも、前記物体が撮影された任意の画像と、前記任意の画像に対応する低解像度画像を高解像度化した画像と、を関連付けることで学習された取得処理であり、
    さらに、前記取得処理は、学習において前記抽出処理と同時に最適化されたものである
    物体認識装置。
  2. 前記取得処理は、少なくとも、前記任意の画像と前記任意の画像に対応する低解像度画像とを学習データとし、かつ、前記低解像度画像を入力としたニューラルネットワークの所定の中間層の出力値として前記任意の画像が出力されるように学習された学習済みニューラルネットワークを用いる
    請求項1記載の物体認識装置。
  3. 画像を入力として高解像度化した中間高解像度画像を出力する中間層である高解像度化層と、前記高解像度化層から出力された前記中間高解像度画像を入力として特徴量ベクトルを出力する特徴抽出層とを含むニューラルネットワークについて、
    任意の画像と、前記任意の画像に対応する低解像度画像を入力として得られる前記中間高解像度画像との差、
    前記中間高解像度画像を入力して得られる特徴量ベクトルと、前記任意の画像と同一のラベルが付された画像を入力して得られる前記特徴量ベクトルとの差、
    及び前記中間高解像度画像を入力して得られる特徴量ベクトルと、前記任意の画像とは異なるラベルが付された画像を入力して得られる前記特徴量ベクトルとの差を用いて表される損失関数を用いて、前記ニューラルネットワークの前記高解像度化層のパラメータと前記特徴抽出層のパラメータとを同時に最適化するパラメータ最適化部、
    を含む物体認識学習装置。
  4. 前記パラメータ最適化部は、以下(1)式の前記損失関数を用いて、前記ニューラルネットワークの前記高解像度化層のパラメータと前記特徴抽出層のパラメータとを同時に最適化する請求項3に記載の物体認識学習装置。

    ・・・(1)
    ただし、Iは前記任意の画像、I は、前記任意の画像Iに対応する低解像度画像I を入力として前記高解像度化層の出力として得られる中間高解像度画像、dは前記中間高解像度画像I を入力として前記特徴抽出層の出力として得られる特徴量ベクトル、dは前記任意の画像と同一のラベルの画像を入力として前記特徴抽出層の出力として得られる特徴量ベクトル、dは前記任意の画像とは異なるラベルの画像を入力として前記特徴抽出層の出力として得られる特徴量ベクトルである。
  5. 認識対象のクエリ画像において撮影された物体を認識する物体認識装置における物体認識方法であって、
    取得部が、前記クエリ画像から、予め学習された、画像を高解像度化する取得処理によって、前記クエリ画像を高解像度化した高解像度化画像を取得するステップと、
    特徴抽出部が、前記高解像度化画像を入力とし、予め学習された、画像の特徴量ベクトルを抽出する抽出処理によって、前記高解像度化画像の特徴量ベクトルを抽出するステップと、
    認識部が、前記高解像度化画像の特徴量ベクトルに基づき前記高解像度化画像において撮影された物体を認識し、認識された物体を前記クエリ画像において撮影された物体として出力するステップと、
    を含む物体認識装置であって、
    前記取得部の前記取得処理は、
    少なくとも、前記物体が撮影された任意の画像と、前記任意の画像に対応する低解像度画像を高解像度化した画像と、を関連付けることで学習された取得処理であり、
    さらに、前記取得処理は、学習において前記抽出処理と同時に最適化されたものである
    物体認識方法。
  6. パラメータ最適化部が、画像を入力として高解像度化した中間高解像度画像を出力する中間層である高解像度化層と、前記高解像度化層から出力された前記中間高解像度画像を入力として特徴量ベクトルを出力する特徴抽出層とを含むニューラルネットワークについて、
    任意の画像と、前記任意の画像に対応する低解像度画像を入力として得られる前記中間高解像度画像との差、
    前記中間高解像度画像を入力して得られる特徴量ベクトルと、前記任意の画像と同一のラベルが付された画像を入力して得られる前記特徴量ベクトルとの差、
    及び前記中間高解像度画像を入力して得られる特徴量ベクトルと、前記任意の画像とは異なるラベルが付された画像を入力して得られる前記特徴量ベクトルとの差を用いて表される損失関数を用いて、前記ニューラルネットワークの前記高解像度化層のパラメータと前記特徴抽出層のパラメータとを同時に最適化するステップ、
    を含む物体認識学習方法。
  7. コンピュータを、請求項1又は請求項2に記載の物体認識装置の各部として機能させるためのプログラム。
  8. コンピュータを、請求項3又は請求項4に記載の物体認識学習装置の各部として機能させるためのプログラム。
JP2018152701A 2018-08-14 2018-08-14 物体認識装置、物体認識学習装置、方法、及びプログラム Active JP7131195B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018152701A JP7131195B2 (ja) 2018-08-14 2018-08-14 物体認識装置、物体認識学習装置、方法、及びプログラム
US17/268,293 US11928790B2 (en) 2018-08-14 2019-08-08 Object recognition device, object recognition learning device, method, and program
PCT/JP2019/031469 WO2020036124A1 (ja) 2018-08-14 2019-08-08 物体認識装置、物体認識学習装置、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018152701A JP7131195B2 (ja) 2018-08-14 2018-08-14 物体認識装置、物体認識学習装置、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2020027504A true JP2020027504A (ja) 2020-02-20
JP7131195B2 JP7131195B2 (ja) 2022-09-06

Family

ID=69525510

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018152701A Active JP7131195B2 (ja) 2018-08-14 2018-08-14 物体認識装置、物体認識学習装置、方法、及びプログラム

Country Status (3)

Country Link
US (1) US11928790B2 (ja)
JP (1) JP7131195B2 (ja)
WO (1) WO2020036124A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112907444A (zh) * 2021-02-07 2021-06-04 中国科学院沈阳自动化研究所 一种基于复数域零样本学习的太赫兹图像超分辨重建方法
JP2022013524A (ja) * 2020-06-30 2022-01-18 Arithmer株式会社 帳票情報生成装置、方法及びプログラム
WO2022208673A1 (ja) * 2021-03-30 2022-10-06 株式会社Nttドコモ 端末、無線通信方法及び基地局
WO2022208687A1 (ja) * 2021-03-30 2022-10-06 株式会社Nttドコモ 端末、無線通信方法及び基地局
KR20220144269A (ko) * 2021-04-19 2022-10-26 주식회사우경정보기술 인공지능 기반 객체 재인식 장치

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11494616B2 (en) * 2019-05-09 2022-11-08 Shenzhen Malong Technologies Co., Ltd. Decoupling category-wise independence and relevance with self-attention for multi-label image classification
WO2020255227A1 (ja) * 2019-06-17 2020-12-24 日本電信電話株式会社 学習装置、検索装置、学習方法、検索方法、学習プログラム、及び検索プログラム
CN113869282B (zh) * 2021-10-22 2022-11-11 马上消费金融股份有限公司 人脸识别方法、超分模型训练方法及相关设备
WO2024019634A1 (ru) * 2022-07-22 2024-01-25 Публичное Акционерное Общество "Сбербанк России" Способ и система поиска графических изображений

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107330381A (zh) * 2017-06-15 2017-11-07 浙江捷尚视觉科技股份有限公司 一种人脸识别方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012176317A1 (ja) * 2011-06-23 2012-12-27 サイバーアイ・エンタテインメント株式会社 画像認識システムを組込んだ関連性検索によるインタレスト・グラフ収集システム
US10380753B1 (en) * 2018-05-30 2019-08-13 Aimotive Kft. Method and apparatus for generating a displacement map of an input dataset pair

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107330381A (zh) * 2017-06-15 2017-11-07 浙江捷尚视觉科技股份有限公司 一种人脸识别方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022013524A (ja) * 2020-06-30 2022-01-18 Arithmer株式会社 帳票情報生成装置、方法及びプログラム
CN112907444A (zh) * 2021-02-07 2021-06-04 中国科学院沈阳自动化研究所 一种基于复数域零样本学习的太赫兹图像超分辨重建方法
CN112907444B (zh) * 2021-02-07 2024-03-22 中国科学院沈阳自动化研究所 一种基于复数域零样本学习的太赫兹图像超分辨重建方法
WO2022208673A1 (ja) * 2021-03-30 2022-10-06 株式会社Nttドコモ 端末、無線通信方法及び基地局
WO2022208687A1 (ja) * 2021-03-30 2022-10-06 株式会社Nttドコモ 端末、無線通信方法及び基地局
KR20220144269A (ko) * 2021-04-19 2022-10-26 주식회사우경정보기술 인공지능 기반 객체 재인식 장치
KR102499861B1 (ko) * 2021-04-19 2023-02-15 주식회사우경정보기술 인공지능 기반 객체 재인식 장치

Also Published As

Publication number Publication date
US11928790B2 (en) 2024-03-12
JP7131195B2 (ja) 2022-09-06
WO2020036124A1 (ja) 2020-02-20
US20210303903A1 (en) 2021-09-30

Similar Documents

Publication Publication Date Title
WO2020036124A1 (ja) 物体認識装置、物体認識学習装置、方法、及びプログラム
US11416710B2 (en) Feature representation device, feature representation method, and program
CN111401384B (zh) 一种变电设备缺陷图像匹配方法
WO2020177432A1 (zh) 基于目标检测网络的多标签物体检测方法、系统、装置
CN109583483B (zh) 一种基于卷积神经网络的目标检测方法和系统
CN109885796B (zh) 一种基于深度学习的网络新闻配图匹配性检测方法
WO2019230666A1 (ja) 特徴量抽出装置、方法、及びプログラム
CN109376783B (zh) 机器人自适应地形分类方法、系统与计算机可读存储介质
WO2023124278A1 (zh) 图像处理模型的训练方法、图像分类方法及装置
CN112347284A (zh) 一种组合商标图像检索方法
WO2020213742A1 (ja) 画像変換装置、画像変換モデル学習装置、方法、及びプログラム
CN115331150A (zh) 图像识别方法、装置、电子设备、存储介质
CN116310466A (zh) 基于局部无关区域筛选图神经网络的小样本图像分类方法
CN111444816A (zh) 一种基于Faster RCNN的多尺度密集行人检测方法
CN107193979B (zh) 一种同源图片检索的方法
JP6758250B2 (ja) 局所特徴表現学習装置、及び方法
JP6793925B2 (ja) 検証装置、方法、及びプログラム
JP6699048B2 (ja) 特徴選択装置、タグ関連領域抽出装置、方法、及びプログラム
WO2012077818A1 (ja) ハッシュ関数の変換行列を定める方法、該ハッシュ関数を利用するハッシュ型近似最近傍探索方法、その装置及びそのコンピュータプログラム
CN116363469A (zh) 一种少样本红外目标检测方法、装置和系统
JP6789175B2 (ja) 画像認識装置、方法、及びプログラム
CN115601791A (zh) 基于Multiformer及离群样本重分配的无监督行人重识别方法
CN110674342B (zh) 查询目标图像的方法和装置
JP7192990B2 (ja) 学習装置、検索装置、学習方法、検索方法、学習プログラム、及び検索プログラム
CN113177566A (zh) 一种特征提取模型训练方法、装置及计算机设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220808

R150 Certificate of patent or registration of utility model

Ref document number: 7131195

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150