JP2021101274A - 物体検索装置及び物体検索方法 - Google Patents

物体検索装置及び物体検索方法 Download PDF

Info

Publication number
JP2021101274A
JP2021101274A JP2019232512A JP2019232512A JP2021101274A JP 2021101274 A JP2021101274 A JP 2021101274A JP 2019232512 A JP2019232512 A JP 2019232512A JP 2019232512 A JP2019232512 A JP 2019232512A JP 2021101274 A JP2021101274 A JP 2021101274A
Authority
JP
Japan
Prior art keywords
image
feature amount
unit
dimensional data
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019232512A
Other languages
English (en)
Other versions
JP7196058B2 (ja
Inventor
田村 雅人
Masahito Tamura
雅人 田村
智明 吉永
Tomoaki Yoshinaga
智明 吉永
廣池 敦
Atsushi Hiroike
敦 廣池
冠 中前
Kan Nakamae
冠 中前
勇太 梁島
Yuta Yanajima
勇太 梁島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2019232512A priority Critical patent/JP7196058B2/ja
Priority to US17/784,472 priority patent/US20230005268A1/en
Priority to EP20905155.6A priority patent/EP4083906A4/en
Priority to CN202080076434.3A priority patent/CN114641795A/zh
Priority to PCT/JP2020/038659 priority patent/WO2021131248A1/ja
Publication of JP2021101274A publication Critical patent/JP2021101274A/ja
Application granted granted Critical
Publication of JP7196058B2 publication Critical patent/JP7196058B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】形状や凹凸に特徴のある物体の検索において、画像のみでそれらの情報を特徴量に表現し、正確な検索を行うことを可能とする物体検索装置を提供する。【解決手段】物体検索装置は、第一のニューラルネットワークで構成され、画像を入力して画像特徴量を抽出する画像特徴抽出部と、第二のニューラルネットワークで構成され、三次元データを入力して三次元データ特徴量を抽出する三次元データ特徴抽出部と、同一個体から得られた物体の画像と三次元データから、それぞれ画像特徴量と三次元データ特徴量を抽出し、画像特徴量と三次元データ特徴量との差分を減らすように画像特徴抽出用のパラメータを更新する学習部と、更新された画像特徴抽出用のパラメータを使用した画像特徴抽出部が物体のクエリ画像及びギャラリー画像の画像特徴量を抽出し、両画像の画像特徴量の類似度を算出して物体を検索する検索部と、を備える。【選択図】図1

Description

本発明は、物体検索装置及び物体検索方法に関する。
類似物体検索の用途として、監視システムがある。例えば検索対象を人物とした場合、人物検索を用いて、監視者の不審者追跡を補助できる。また、例えば検索対象を荷物とした場合、荷物検索を用いて、置き去りにされた荷物や不審な荷物を他所のカメラの画像に映っている荷物から追跡し、所有者を特定できる。このような用途においては、同一人物や同一荷物などの同一個体が検索結果の上位に出現することが好ましく、高精度な検索が求められる。
本技術分野の背景技術として、特開2009−27393号公報(特許文献1)がある。該公報には、「1台以上のカメラなどの撮像機器から信号を取得する映像取得部と、映像取得部より取得した入力画像を保持する画像データ部を有する映像監視システムにおいて、入力画像から人物特徴,時間,カメラを指定する条件指定部と、画像データ部に保持した入力画像群から条件指定部で指定した条件に合致する画像を画像認識により検索する画像検索部と、画像検索部の結果を表示する結果表示部を有し、条件指定部にて指定する人物特徴をユーザ指定または人物追跡の方法により複数選択し、条件指定部の検索条件に加える手段を備える。」と記載されている。
特開2009−27393号公報 特開2015−176484号公報
監視システムで必要とされるような高精度な検索を行う方法として、特許文献1や特許文献2に記載されている方法がある。特許文献1では、画像を用いた検索方法が提案されている。近年は画像をConvolutional neural network (CNN) に入力して特徴量を抽出し、特徴量の類似度を計算する方法がよく用いられる。この方法では、同一個体について、照明環境や画像内での物体の位置や大きさが異なる様々な画像を用意し、それらの画像に対して類似する特徴量を抽出するようにCNNを学習しておく。この学習によってCNNは様々な画像の変化に対して頑強になり、高精度な検索を行うことができる。また、特許文献2では、三次元モデルを用いた検索方法が提案されている。三次元モデルを用いた検索では、深度情報を含む画像や点群データに対して、ローカルバイナリパターン(LBP)などの古典的な特徴抽出やNeural network (NN)を用いて特徴量の抽出を行い、画像と同様にして特徴量の類似度を計算する。三次元モデルを用いることで、画像からは抽出することが困難であった形状や凹凸の特徴を抽出することができ、検索の精度を高めることができる。
特許文献1に記載の画像を用いた検索や特許文献2に記載の三次元データを用いた検索は、有用である一方で課題が残されている。画像を用いた検索では、物体の立体的な形状や凹凸の情報が画像に含まれていないため、それらの情報を含めて検索を行うことができない。従って、例えば、検索対象に色が似ている一方で、凹凸模様に差がある複数の荷物がある場合、画像を用いた検索では誤った検索結果が出てしまう可能性が高くなる。三次元データを用いた検索では、精度の高い検索を行うために正確な三次元情報が必要である。深度カメラには、撮像対象の正確な三次元データを取得できる距離に制限があり、監視範囲によっては多数の深度カメラが必要になる。これにより、深度カメラの設置コストの問題が生じる。また、三次元データは画像と比較して処理するデータ量が増加するため、特徴抽出に時間がかかる。
このような課題に対して、本発明は、三次元データから得られる形状や凹凸の情報を含む特徴量を、画像から推定して特徴抽出を行う方法を提案する。本発明を用いれば、形状や凹凸に特徴のある物体の検索において、画像のみでそれらの情報を特徴量に表現し、正確な検索を行うことを可能とする物体検索装置を構成することを目的とする。
本発明の物体検索装置の好ましい例では、第一のニューラルネットワークで構成され、画像を入力して画像特徴量を抽出する画像特徴抽出部と、第二のニューラルネットワークで構成され、三次元データを入力して三次元データ特徴量を抽出する三次元データ特徴抽出部と、同一個体から得られた物体の画像と三次元データから、それぞれ画像特徴量と三次元データ特徴量を抽出し、前記画像特徴量と前記三次元データ特徴量との差分を減らすように画像特徴抽出用のパラメータを更新する学習部と、前記更新された画像特徴抽出用のパラメータを使用した画像特徴抽出部が物体のクエリ画像、及びギャラリー画像の画像特徴量を抽出し、両画像の画像特徴量の類似度を算出して物体を検索する検索部と、を備えて構成する。
また、本発明の他の特徴として、前記物体検索装置において、第三のニューラルネットワークで構成され、時系列的に連続する複数の画像を入力して、各画像の検出結果より同種の物体を空間的に距離が近いもの同士で結びつけて、同一個体の時系列的に連続する複数の画像を追跡データとして生成する追跡部と、前記追跡部が生成した追跡データを記憶する追跡データ蓄積部とを更に備え、前記検索部が、前記追跡部、及び前記追跡データ蓄積部から得られる追跡データ、及び画像を用いて物体検索を行う。
また、本発明の物体検索方法の好ましい例では、同一個体から得られた物体の画像と三次元データを入力して、前記画像を第一のニューラルネットワークにより画像特徴量を抽出し、前記三次元データを第二のニューラルネットワークにより三次元データ特徴量を抽出し、前記画像特徴量と前記三次元データ特徴量との差分を減らすように画像特徴抽出用のパラメータを更新する学習処理を行いし、前記更新された画像特徴抽出用のパラメータを使用した画像特徴抽出部前記第一のニューラルネットワークが物体のクエリ画像、及びギャラリー画像の各画像特徴量を抽出し、両画像の画像特徴量の類似度を算出して物体を検索することを特徴とする。
また、本発明の他の特徴として、前記物体検索方法において、前記画像特徴抽出用のパラメータは、前記第一のニューラルネットワークを構成する各ニューロンのウエイトとバイアスである。
本発明によれば、画像のみから形状や凹凸などの三次元情報を特徴量として表現する、高精度な物体検索装置を提供することができる。また、検索時には三次元データを扱う必要がなく、深度カメラの設置コストの問題や、特徴抽出の処理時間の問題が生じない効果がある。それ以外の効果については、各実施例で述べる。
実施例1における物体検索装置の構成図である。 物体検索装置の学習制御部、または検索制御部により制御される各機能部の機能ブロック図である。 実施例1における学習処理の一例のフローチャートである。 実施例1における検索処理の一例のフローチャートである。 本実施例で用いられる学習処理に必要な画像及び三次元データの例を示す図である。 実施例1で用いられる学習処理に必要なアノテーションデータを示す図である。 実施例2における物体検索装置の構成図である。 実施例2の物体検索装置の学習制御部、または検索制御部により制御される各機能部の機能ブロック図である。 実施例2で用いられる追跡処理の一例のフローチャートである。 実施例2で用いられる検索処理の一例のフローチャートである。 実施例2で用いられる学習処理に必要なアノテーションデータを示す図である。
以下、本発明の実施形態を、図面を用いて説明する。
本実施形態では、物体検索装置の一例として、スーツケースなどの荷物の検索を行う例を説明する。なお、検索対象は荷物である必要はなく、撮像可能な物体であればよい。
図1は、本実施例による物体検索装置の構成図である。
物体検索装置100は、汎用の計算機上に構成することができて、そのハードウェア構成は、CPU(Central Processing Unit)、RAM(Random Access Memory)などにより構成される演算部110、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリなどを用いたSSD(Solid State Drive)などにより構成される記憶部120、キーボードやマウス等の入力デバイスより構成される入力部130、LCD(Liquid Crystal Display)、有機ELディスプレイなどの表示装置により構成される表示部140、NIC(Network Interface Card)などにより構成される通信部150、などを備える。
通信部150は、ネットワーク160を介して外部の監視システムと共用される監視画像データベース_A171、監視画像データベース_Z172、および各所に設置されたカメラ181、182と接続されている。
演算部110は、記憶部120に記憶されている物体検索プログラム121をRAMへロードしてCPUで実行することにより以下の各機能部を実現する。演算部110は、学習制御部111、検索制御部112、画像・三次元データ取得部113、学習部114、検索部115、画像特徴抽出部116、および三次元データ特徴抽出部117を有する。
学習制御部111は、学習実行者(学習を制御する人間あるいはコンピュータ)の指示により起動され、学習実行者が要求する学習処理を実行するため、以下の各機能部を制御する。
検索制御部112は、検索実行者(検索を行う人間あるいはコンピュータ)の指示により起動され、検索実行者が要求する検索処理を実行するため、以下の各機能部を制御する。
図2は、学習制御部111、または検索制御部112により制御される各機能部の機能ブロック図を示す。
画像・三次元データ取得部113は、学習処理、もしくは検索処理を実行する際にデータの入出力を処理する。学習処理の実行時には、学習実行者から学習処理に用いる画像、三次元データ、及びアノテーションデータを受け付け、または学習実行者が要求する画像、三次元データを外部から取得して、それらのデータを学習部114に送信する。ここで、アノテーションデータとは、学習を行うための正解データのことである。
検索処理の実行時には、検索実行者からクエリ画像とギャラリー画像を受け付け、または検索実行者が要求するクエリ画像とギャラリー画像のいずれも、またはいずれかの画像を外部から取得して、それらの画像を検索部115に送信する。ここで、クエリ画像とは、検索対象の荷物が映った画像のことであり、ギャラリー画像とは、クエリ画像をもとにして検索対象の荷物と同一個体の荷物が映った画像を探すために比較される画像のことである。
学習部114は、画像特徴抽出部116や三次元データ特徴抽出部117が特徴を抽出する際に使用するパラメータ(ニューラルネットワークを構成する各ニューロンのウエイトとバイアス)を学習により更新する。学習の実行時には、画像・三次元データ取得部113から学習に用いる画像、三次元データ、及びアノテーションデータを受信する。受信した画像は、画像特徴抽出部116に送信し、画像特徴抽出部116が抽出した特徴量を受信する。受信した三次元データは、三次元データ特徴抽出部117に送信し、三次元データ特徴抽出部117が抽出した特徴量を受信する。また、画像特徴抽出部116、及び三次元データ特徴抽出部117から特徴抽出用のパラメータを受信し、更新したパラメータを画像特徴抽出部116、及び三次元データ特徴抽出部117に送信する。
検索部115は、検索のための入出力処理や計算、表示管理を行う。検索の実行時には、画像・三次元データ取得部113から検索に用いるクエリ画像とギャラリー画像を受信し、それらの画像を画像特徴抽出部116に送信する。また、画像特徴抽出部116から特徴量を受信し、特徴量により算出した検索結果を表示部140に送信する。
表示部140は、検索結果の表示を行う。検索の実行時には、検索部115からクエリ画像、ギャラリー画像、及び表示順を取得し、表示順に従って画像を表示する。
画像特徴抽出部116は、画像から類似度計算に必要な特徴量を抽出する。学習の実行時には、学習部114から画像を受信し、抽出した特徴量を学習部114に送信する。また、特徴抽出用のパラメータを学習部114に送信し、更新されたパラメータを学習部114から受信する。検索の実行時には、検索部115から画像を受信し、抽出した特徴量を検索部115に送信する。
三次元データ特徴抽出部117は、三次元データから類似度計算に必要な特徴量を抽出する。学習の実行時には、学習部114から三次元データを受信し、抽出した特徴量を学習部114に送信する。また、特徴抽出用のパラメータを学習部114に送信し、更新された特徴量を学習部114から受信する。
記憶部120の画像特徴抽出用パラメータ122に、画像特徴抽出部116が画像の特徴を抽出する際に使用するパラメータ(ニューラルネットワークを構成する各ニューロンのウエイトとバイアス)を記憶する。
記憶部120の三次元データ特徴抽出用パラメータ123に、三次元データ特徴抽出部117が三次元データの特徴を抽出する際に使用するパラメータ(ニューラルネットワークを構成する各ニューロンのウエイトとバイアス)を記憶する。
図3は、本実施形態で用いられる学習処理の一例のフローチャートを示す。
ステップS100では、学習実行者の学習開始操作により学習制御部111が起動して、学習処理を開始する。
ステップS101では、学習実行者が学習に必要な画像、三次元データ、及びアノテーションデータを画像・三次元データ取得部に入力する。ここで、画像が色情報を含む場合には、三次元データも色情報を含むものを使用する。
ステップS102では、画像・三次元データ取得部がステップS101で受信した画像、三次元データ、及びアノテーションデータを学習部114に送信する。
ステップS103では、学習部がステップS102で受信した画像を画像特徴抽出部116に送信する。
ステップS104では、画像特徴抽出部116がステップS103で受信した画像に対して特徴抽出を行う。特徴抽出には、例えばCNNを用いる。CNNは画像を入力として受け付け、特徴量となる数値ベクトルに変換して出力する。この変換は、CNNが保持しているパラメータ(画像特徴抽出用パラメータ122を使用する)を用いて畳み込み演算を繰り返すことで行われる。パラメータは任意の値に初期設定可能であり、学習によりパラメータの値は更新される。
ステップS105では、画像特徴抽出部がステップS104で抽出した特徴量と特徴抽出に用いたパラメータ(画像特徴抽出用パラメータ122)を学習部114に送信する。
ステップS106では、学習部114がステップS105で受信した画像特徴量、及び画像特徴抽出用のパラメータを記憶する。
ステップS107では、学習部がステップS102で受信した三次元データを三次元データ特徴抽出部117に送信する。
ステップS108では、三次元データ特徴抽出部117がステップS107で受信した三次元データに対して特徴抽出を行う。特徴抽出には、例えば三次元データ用のNeural network (NN)を使う。例えば、ポイントネットなど。三次元データ用のNNは三次元データを入力として受け付け、特徴量となる数値ベクトルに変換して出力する。この変換は、三次元データ用のNNが保持しているパラメータ(三次元データ特徴抽出用パラメータ123を使用する)を用いて三次元データを線形変換し、非線形関数に入力する処理を繰り返すことで行われる。パラメータは任意の値に初期設定可能であり、学習によりパラメータの値は更新される。
ステップS109では、三次元データ特徴抽出部117がステップS108で抽出した特徴量と特徴抽出に用いたパラメータ(三次元データ特徴抽出用パラメータ123)を学習部に送信する。
ステップS110では、学習部114がステップS109で受信した三次元データ特徴量、及び三次元データ特徴抽出用のパラメータを記憶する。
ステップS111では、学習部114がステップS106で記憶した画像特徴量、及び画像特徴抽出用パラメータと、ステップS110で記憶した三次元データ特徴量、及び三次元データ特徴抽出用パラメータを用いて、パラメータの更新作業を行う。パラメータの更新には、例えば確率的勾配降下法を用いる。
確率的勾配降下法には目的関数が必要であり、画像特徴抽出用のパラメータ更新に用いる目的関数Eimageは、例えば同一個体の画像特徴量fimageと、三次元データ特徴量f3dを用いて数式(1)のように計算する。
Figure 2021101274
これは、画像特徴量fimageと、三次元データ特徴量f3dの二乗誤差となる。目的関数Eimageを最小化する方向に画像特徴抽出用のパラメータを更新する。複数の個体について目的関数を計算する場合は、例えばEimageを複数の個体について計算し、平均をとる、平均二乗誤差を用いることができる。
三次元データ特徴量抽出用のパラメータ更新に用いる目的関数E3d は、例えば個体識別によるSoftmax cross-entropyを用いる。目的関数E3dを最小化する方向に三次元データ特徴量抽出用のパラメータを更新する。複数の個体について目的関数を計算する場合は、例えばE3dを複数の個体について計算し、平均をとる。
ステップS112では、学習部114がステップS111で計算したパラメータの更新値を画像特徴抽出部116、及び三次元データ特徴抽出部117に送信する。
ステップS113では、画像特徴抽出部116、及び三次元データ特徴抽出部117がステップS112で受信したパラメータ更新値を用いてそれぞれの特徴抽出用パラメータ(画像特徴抽出用パラメータ122、三次元データ特徴抽出用パラメータ123)を更新する。
ステップS114では、学習制御部111が、学習実行者が学習を続行するか終了するかを当初の依頼内容、処理実績から判定して、続行すると判定した場合はS101へ移行し、終了すると判定した場合はS115へ移行する。
ステップS115では、学習処理を終了する。
本実施形態に示すように、学習処理によって、三次元データ特徴抽出部が同一個体に対して類似するような特徴量を抽出できるようにしておき、画像特徴抽出部が三次元データ特徴抽出部が出力する特徴量に近い特徴量を抽出できるようにしておくことで、三次元データ特徴抽出部が出力するような特徴量を画像特徴抽出部が画像から抽出できるようになる。これにより、検索時における画像の特徴抽出において、三次元の構造を考慮した類似特徴量の抽出を行えるようになる。この特徴量を用いると、形状に特徴があるような物体の検索に対して精度を向上させることができる。また、三次元データを用いた検索を行う場合には、一般的に監視エリア全域にRGBカメラと深度カメラの両方、あるいはRGB-Dカメラを設置する必要があり、設置のコストが大きくなる。しかし、本手法を用いれば、学習時にのみ三次元データを用意すればよく、カメラ設置のコスト増加を抑えることができる。
本フローにおける、画像特徴量抽出用のパラメータと三次元データ特徴量抽出用のパラメータの学習のタイミングについては、それぞれのパラメータを同時に学習しても良いし、先に三次元データ特徴量抽出用のパラメータを学習しておき、後から画像特徴量抽出用のパラメータを学習させてもよい。
本実施形態では同一個体の検索についての方法を説明しているが、本手法は同一個体の検索だけでなく、物体識別や物体検出についても用いることができ、精度を高めることができる。
図4は、本実施形態で用いられる検索処理の一例のフローチャートを示す。
ステップS200では、検索実行者の検索開始操作により検索制御部112が起動して、検索処理を開始する。
ステップS201では、検索実行者が検索処理に必要なクエリ画像、及びギャラリー画像を画像・三次元データ取得部113に入力する。または、検索制御部112が検索実行者の要求に従い、各所に設置されたカメラ181、182、または外部の監視画像データベース171、172などから、検索処理に必要なクエリ画像、及びギャラリー画像を画像・三次元データ取得部に取得させる。
ステップS202では、画像・三次元データ取得部113がステップS201で受信した画像を検索部115に送信する。
ステップS203では、検索部115がステップS202で受信した画像を画像特徴抽出部116に送信する。
ステップS204では、画像特徴抽出部がステップS203で受信した画像に対して特徴抽出を行う。特徴抽出の方法は、学習処理フローにおけるステップS104で用いた方法と同様の方法を用いる。学習処理において、色情報を含む画像と色情報を含む三次元データ用いて学習を行った場合には、色情報を含む画像に対して特徴抽出を行うことができる。
ステップS205では、画像特徴抽出部116がステップS204で抽出した特徴量を検索部115に送信する。
ステップS206では、検索部115がステップS205で受信した特徴量を用いて検索結果の表示順を決定する。特徴量を用いて表示順を決定する場合、特徴量の類似度を計算する必要がある。類似度の計算には、例えば特徴量を表す数値ベクトルのユークリッド距離を用いる方法がある。クエリ画像の特徴量をfとし、ギャラリー画像の特徴量をfとすると、類似度sは数式(2)のように計算できる。
Figure 2021101274
類似度は0.0から1.0の値をとり、大きい程、類似度が高いことを示す。表示順は、例えば類似度が高いものを優先的に表示するように決定する。
ステップS207では、検索部115がステップS202で受信した画像と、ステップS206で決定した表示順を表示部140に送信する。
ステップS208では、表示部がステップS207で受信した画像と表示順を用いて、検索結果を表示する。表示には、例えば表示順の高いものから順に画面の上部に表示する。
ステップS209では、検索制御部112が、検索実行者が検索を続行するか終了するかを当初の依頼内容、処理実績から判定して、続行すると判定した場合はS201へ移行し、終了すると判定した場合はS210へ移行する。
ステップS210では、検索処理を終了する。
本実施形態に示すように、検索処理時に画像の特徴量のみを用いることで、前記したように監視エリアに三次元データ取得用のカメラが必要なくなり、カメラの設置コストの増加を抑えることができる。また、三次元データは画像と比較してデータ量が多くなるため、処理に時間がかかる。このため、検索処理時に三次元データを用いて特徴抽出を行った場合、検索精度が向上する一方で、検索速度が低下する欠点がある。しかし、本手法を用いれば、画像のみの処理で三次元データから得られる特徴量を再現できるため、処理速度の低下を発生させずに検索精度を向上させることができる。
図5は、本実施形態で用いられる学習処理に必要な画像及び三次元データの例を示す図である。以下で、図内の各項目を説明する。
500は、撮影対象の荷物である。
501は、荷物を撮影するカメラであり、画像及び三次元データを生成する。このカメラには、RGB-Dカメラのように画像と三次元データの両方を取得できる一つのカメラを用いてもよいし、RGBカメラと深度カメラの両方を用いてもよい。
502は、荷物500をカメラ501で撮影したときに取得できる画像である。
503は、荷物500をカメラ501で撮影したときに取得できる三次元データである。三次元データの表現方法については、点群やVoxelなど、空間情報を表現できるものであればいかなるものを用いても構わない。
図6は、本実施形態で用いられる学習処理に必要なアノテーションデータを示す図である。以下でアノテーションデータの形式について説明する。
600はアノテーションデータとして保存されるデータテーブルを示す。データテーブルには画像ID、三次元データID、及び荷物IDの各項目が対応付けられて保存されている。画像IDは画像を一意に識別するために付与されたIDであり、例えば画像を取得する毎にIDを1ずつ増加させて付与する。三次元データIDは三次元データを一意に識別するために付与されたIDであり、例えば三次元データを取得する毎にIDを1ずつ増加させて付与する。画像と三次元データは必ずしも同一時刻に取得する必要はないが、なるべく近い時刻に取得した画像と三次元データの組み合わせがあることが望ましい。組み合わせの決め方については、例えば近い時刻に取得した同一個体の画像と三次元データについて、取得したときにコンピュータが画像IDと三次元データIDに同一のIDを割り振ることで、組み合わせを決定してもよいし、後から人間が画像と三次元データを確認して、組み合わせを決定してもよい。荷物IDは、同一個体を一意に識別するためのIDであり、取得した画像、及び三次元データに対して、アノテーション作業により付与する。データテーブル600では、上から二行が同一個体の画像、及び三次元データであることを表している。
本実施形態に示すようなアノテーションデータを用いて学習を行うことで、学習時に、画像から抽出する特徴量と三次元データから抽出する特徴量を紐づけることができる。この紐づけを用いて、図3に示す学習処理フローで学習することにより、本手法を実現できる。
本実施形態では、物体検索装置の一例として、スーツケースなどの荷物の検索を行う例を説明する。なお、検索対象は荷物である必要はなく、撮像可能な物体であればよい。実施例1に対して本実施形態は、学習処理、及び検索処理に用いる画像については、カメラ内での物体追跡(1つのカメラ内で時系列的に連続したフレーム内に同一物体を捕らえる)により、予め複数の画像について同一個体であることが分かっており、学習に用いる三次元データについては、予め三次元再構成などの方法(三次元カメラで対象物の周りを回りながら捉えて対象物全体のデータを得て対象物の三次元を再構成すること)により、一つのデータになっている例である。学習処理、及び検索処理時の各個体について、複数の画像、及び三次元再構成された三次元データを使う以外の点については、実施例1と同様である。
図7は、実施例2における物体検索装置200の構成図である。図1に示す実施例1の物体検索装置に、追跡部118、追跡データ蓄積部124、及び追跡画像特徴抽出用パラメータ125を追加した構成となる。
図8は、学習制御部111、または検索制御部112により制御される実施例2の物体検索装置200の各機能部の機能ブロック図を示す。図2に示す実施例1の機能ブロック図に、追跡部118、及び追跡データ蓄積部124を追加した構成となる。
追跡部118は、入力された時系列的に連続する複数の画像に対して追跡処理(同一の対象物を捕らえていると検出された画像を一まとめにして同一の追跡IDを付与する)を行う。検索処理の実行時には、画像・三次元データ取得部113から時系列的に連続する複数の画像を受信し、追跡した結果である追跡データと画像を検索部115に送信する。
追跡データ蓄積部124は、追跡データの蓄積を行う。追跡の実行時には、追跡部118から追跡データ、及び画像を受信する。検索処理の実行時には、検索部115に追跡データ、及び画像を送信する。
図9は、本実施形態で用いられる追跡処理の一例のフローチャートを示す。
ステップS300では、追跡実行者の追跡開始指示により追跡部が追跡処理を開始する。追跡実行者とは、追跡を制御する人間あるいはコンピュータのことである。本実施例では、学習実行者、または検索実行者の操作により起動された学習制御部111、または検索制御部112になる。
ステップS301では、追跡実行者が追跡を行うための時系列的に連続する複数の画像を画像・三次元データ取得部113に入力する。
ステップS302では、画像・三次元データ取得部がステップS301で受信した時系列的に連続する複数の画像を追跡部118に送信する。
ステップS303では、追跡部118がステップS302で受信した時系列的に連続する複数の画像に対して追跡処理を実施する。追跡処理には、例えば次のような処理手順を踏む。まずCNN検出器を用いて各画像の荷物(追跡対象物)の検出を行う(CNN検出器は事前に学習処理を実施しておく。CNN検出器において検出に使用されるパラメータは追跡画像特徴抽出用パラメータ125に記憶される。)。検出結果は、荷物の種類と画像内における位置、及び大きさになる。次に時系列的に隣接する画像の検出結果について、同種類の荷物の検出結果を空間的に距離が近いもの同士で結びつける。距離の計算には、例えば検出の位置のユークリッド距離を用いる。このようにして得られる追跡結果から、同一個体を一意に決める追跡IDとその追跡IDが示す個体の時系列的に連続する複数の画像を追跡データとして生成する。
ステップS304では、追跡部118がステップS303で生成した追跡データを追跡データ蓄積部に保存する。
ステップS305では、追跡実行者が追跡を続行するか終了するかを決定する。
ステップS306では、追跡を終了する。
本実施形態に示すような追跡処理を実施することで、予め同一個体に対して複数の画像が得られ、検索処理時に複数の画像を用いて特徴抽出を行えるようになる。
図10は、本実施形態で用いられる検索処理の一例のフローチャートを示す。本フローは追跡処理を行う以外は実施例1のフロー(図4)と同様である。以下では追跡処理のフローのみを説明する。
ステップS401では、検索実行者が検索対象となる物体が映る時系列的に連続した複数の画像を画像・三次元データ取得部113に入力する。
ステップS402では、画像・三次元データ取得部113がステップS401で受信した画像を追跡部118に送信する。
ステップS403では、追跡部118がステップS402で受信した画像に対して追跡処理を行う。
ステップS404では、追跡部がステップS403で行った追跡処理の結果得られる追跡データ、及び画像を検索部115に送信する。
ステップS405では、検索部がステップS404で受信した追跡データ、及び画像を画像特徴抽出部116に送信する。
ステップS406では、追跡データ蓄積部124に保存した追跡データ、及び画像を画像特徴抽出部116に送信する。
ステップS407では、画像特徴抽出部116がステップS405、及びステップS406で受信した追跡データ、及び画像を用いて特徴抽出を行う。同一個体の複数の画像から特徴量を抽出するには、例えば3DCNNを用いる。この場合、学習フローにおける画像特徴抽出部についても、3DCNNを用いる。
本フローでは予め複数の荷物について追跡処理を実施し、追跡データ蓄積部124にそれらの荷物の追跡データ、及び画像を保存しておく。検索処理の実行時には、それらの事前に追跡データ蓄積部124に保存された画像をギャラリー画像として検索を行う。
本実施形態に示すように、検索処理の実行時に追跡処理を実施することで、同一個体に対して様々な方向から撮影した複数の画像が得られる。これら複数視点の画像を特徴抽出の際に用いることで、三次元データから得られる特徴量を再現しやすくなり、精度を向上させることができる。
図11は、本実施形態で用いられる学習処理に必要なアノテーションデータを示す図である。以下でアノテーションデータの形式について説明する。
700はアノテーションデータとして保存されるデータテーブルを示す。データテーブルには画像ID、三次元データID、追跡ID、及び荷物IDが対応付けられて保存されている。画像ID、三次元データID、荷物IDについては、図6に示すデータテーブル600と同様である。追跡IDには、物体を追跡処理した結果、同一個体として一意に識別するために割り当てられたIDを用いる。三次元データは、例えば三次元再構成を用いて一つの三次元データを作成しておく。従って複数の画像に対して一つの三次元データが対応する。
本実施例に示すようなアノテーションデータを用いて学習処理を行うことで、物体を様々な方向から見た場合の特徴を一つの特徴量として抽出するように学習処理でき、検索処理の精度を向上させることができる。
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
100 物体検索装置
110 演算部
111 学習制御部
112 検索制御部
113 画像・三次元データ取得部
114 学習部
115 検索部
116 画像特徴抽出部
117 三次元データ特徴抽出部
118 追跡部
120 記憶部
121 物体検索プログラム
122 画像特徴抽出用パラメータ
123 三次元データ特徴抽出用パラメータ
124 追跡データ蓄積部
125 追跡画像特徴抽出用パラメータ
130 入力部
140 表示部
150 通信部
160 ネットワーク
171、172 監視画像データベース
181、182 各所に設置されたカメラ
200 実施例2の物体検索装置
500 撮影対象の荷物
501 荷物を撮影するカメラ
502 荷物500をカメラ501で撮影したときに取得できる画像
503 荷物500をカメラ501で撮影したときに取得できる三次元データ
600 アノテーションデータとして保存されるデータテーブル
700 実施例2のアノテーションデータとして保存されるデータテーブル

Claims (11)

  1. 第一のニューラルネットワークで構成され、画像を入力して画像特徴量を抽出する画像特徴抽出部と、
    第二のニューラルネットワークで構成され、三次元データを入力して三次元データ特徴量を抽出する三次元データ特徴抽出部と、
    同一個体から得られた物体の画像と三次元データから、それぞれ画像特徴量と三次元データ特徴量を抽出し、前記画像特徴量と前記三次元データ特徴量との差分を減らすように画像特徴抽出用のパラメータを更新する学習部と、
    前記更新された画像特徴抽出用のパラメータを使用した画像特徴抽出部が物体のクエリ画像、及びギャラリー画像の画像特徴量を抽出し、両画像の画像特徴量の類似度を算出して物体を検索する検索部と、
    を備えたことを特徴とする物体検索装置。
  2. 前記学習部は、学習に使用する物体の画像、三次元データ、及びアノテーションデータを受付けて、アノテーションデータにより同一個体から得られた画像と三次元データの対応付けを識別することを特徴とする請求項1に記載の物体検索装置。
  3. 前記学習部は、アノテーションデータにより同一個体から得られたと識別した画像と三次元データからそれぞれ画像特徴量と三次元データ特徴量を抽出し、抽出された画像特徴量と三次元データ特徴量により画像特徴抽出用のパラメータ、及び三次元データ特徴抽出用のパラメータを更新することを特徴とする請求項2に記載の物体検索装置。
  4. 前記画像特徴抽出用のパラメータ、及び前記三次元データ特徴抽出用のパラメータは、それぞれ第一、または第二のニューラルネットワークを構成する各ニューロンのウエイトとバイアスであることを特徴とする請求項3に記載の物体検索装置。
  5. 前記検索部は、物体のクエリ画像、及び複数のギャラリー画像の画像特徴量を抽出し、各画像の画像特徴量によりクエリ画像と各ギャラリー画像との類似度を算出し、類似度が高い順にギャラリー画像を表示部に表示させることを特徴とする請求項1に記載の物体検索装置。
  6. 前記学習部は、色情報を含む画像と色情報を含む三次元データを用いてそれぞれ画像特徴量と三次元データ特徴量を抽出して、画像特徴抽出用のパラメータを更新し、
    前記検索部は、色情報を含む物体のクエリ画像、及びギャラリー画像の画像特徴量を抽出し、両画像の画像特徴量の類似度を算出して検索することを特徴とする請求項1に記載の物体検索装置。
  7. 第三のニューラルネットワークで構成され、時系列的に連続する複数の画像を入力して、各画像の検出結果より同種の物体を空間的に距離が近いもの同士で結びつけて、同一個体の時系列的に連続する複数の画像を追跡データとして生成する追跡部と、
    前記追跡部が生成した追跡データを記憶する追跡データ蓄積部とを更に備え、
    前記検索部が、前記追跡部、及び前記追跡データ蓄積部から得られる追跡データ、及び画像を用いて物体検索を行うことを特徴とする請求項1に記載の物体検索装置。
  8. 前記学習部は、前記追跡部から得られる同一個体の複数枚の画像を含む追跡データと、三次元再構成により得られる一つの三次元データを対応付けたアノテーションデータを用いて学習処理を行うことを特徴とする請求項7に記載の物体検索装置。
  9. 同一個体から得られた物体の画像と三次元データを入力して、前記画像を第一のニューラルネットワークにより画像特徴量を抽出し、前記三次元データを第二のニューラルネットワークにより三次元データ特徴量を抽出し、前記画像特徴量と前記三次元データ特徴量との差分を減らすように画像特徴抽出用のパラメータを更新する学習処理を行い、
    前記更新された画像特徴抽出用のパラメータを使用した前記第一のニューラルネットワークが物体のクエリ画像、及びギャラリー画像の各画像特徴量を抽出し、両画像の画像特徴量の類似度を算出して物体を検索することを特徴とする物体検索方法。
  10. 前記画像特徴抽出用のパラメータは、前記第一のニューラルネットワークを構成する各ニューロンのウエイトとバイアスであることを特徴とする請求項9に記載の物体検索方法。
  11. 時系列的に連続する複数の画像を第三のニューラルネットワークへ入力して、各画像の検出結果より同種の物体を空間的に距離が近いもの同士で結びつけて、同一個体の時系列的に連続する複数の画像を追跡データとして生成し、
    前記追跡データとして纏められた同一個体の時系列的に連続する複数の画像と、該当個体の複数の三次元データを三次元再構成により得られた一つの三次元データとを入力して、前記追跡データとして纏められた同一個体の時系列的に連続する複数の画像を第一のニューラルネットワークにより画像特徴量を抽出し、前記三次元再構成により得られた一つの三次元データを第二のニューラルネットワークにより三次元データ特徴量を抽出し、前記画像特徴量と前記三次元データ特徴量との差分を減らすように画像特徴抽出用のパラメータを更新する学習処理を行い、
    物体のクエリ画像、及びギャラリー画像として、それぞれ同一個体の時系列的に連続する複数の画像を纏めた追跡データを入力して、物体を検索することを特徴とする請求項9に記載の物体検索方法。
JP2019232512A 2019-12-24 2019-12-24 物体検索装置及び物体検索方法 Active JP7196058B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019232512A JP7196058B2 (ja) 2019-12-24 2019-12-24 物体検索装置及び物体検索方法
US17/784,472 US20230005268A1 (en) 2019-12-24 2020-10-10 Object search device and object search method
EP20905155.6A EP4083906A4 (en) 2019-12-24 2020-10-13 OBJECT SEARCH APPARATUS AND OBJECT SEARCH METHOD
CN202080076434.3A CN114641795A (zh) 2019-12-24 2020-10-13 物体检索装置及物体检索方法
PCT/JP2020/038659 WO2021131248A1 (ja) 2019-12-24 2020-10-13 物体検索装置及び物体検索方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019232512A JP7196058B2 (ja) 2019-12-24 2019-12-24 物体検索装置及び物体検索方法

Publications (2)

Publication Number Publication Date
JP2021101274A true JP2021101274A (ja) 2021-07-08
JP7196058B2 JP7196058B2 (ja) 2022-12-26

Family

ID=76574258

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019232512A Active JP7196058B2 (ja) 2019-12-24 2019-12-24 物体検索装置及び物体検索方法

Country Status (5)

Country Link
US (1) US20230005268A1 (ja)
EP (1) EP4083906A4 (ja)
JP (1) JP7196058B2 (ja)
CN (1) CN114641795A (ja)
WO (1) WO2021131248A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020255227A1 (ja) * 2019-06-17 2020-12-24 日本電信電話株式会社 学習装置、検索装置、学習方法、検索方法、学習プログラム、及び検索プログラム
US11868443B1 (en) * 2021-05-12 2024-01-09 Amazon Technologies, Inc. System for training neural network using ordered classes

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018179338A1 (ja) * 2017-03-31 2018-10-04 三菱電機株式会社 機械学習装置及び画像認識装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11308350B2 (en) * 2016-11-07 2022-04-19 Qualcomm Incorporated Deep cross-correlation learning for object tracking

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018179338A1 (ja) * 2017-03-31 2018-10-04 三菱電機株式会社 機械学習装置及び画像認識装置

Also Published As

Publication number Publication date
US20230005268A1 (en) 2023-01-05
CN114641795A (zh) 2022-06-17
EP4083906A1 (en) 2022-11-02
WO2021131248A1 (ja) 2021-07-01
JP7196058B2 (ja) 2022-12-26
EP4083906A4 (en) 2024-01-17

Similar Documents

Publication Publication Date Title
JP6428266B2 (ja) 色補正装置、色補正方法および色補正用プログラム
JP6624794B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6397379B2 (ja) 変化領域検出装置、方法、及びプログラム
JP2019145174A (ja) 画像処理システム、画像処理方法及びプログラム記憶媒体
CN108229347A (zh) 用于人识别的拟吉布斯结构采样的深层置换的方法和装置
JP2017016593A (ja) 画像処理装置、画像処理方法、及びプログラム
CN110009614A (zh) 用于输出信息的方法和装置
US11734338B2 (en) Image search in walkthrough videos
WO2021131248A1 (ja) 物体検索装置及び物体検索方法
JP6503079B2 (ja) 特定人物検知システム、特定人物検知方法および検知装置
JP2018120283A (ja) 情報処理装置、情報処理方法及びプログラム
US20170053172A1 (en) Image processing apparatus, and image processing method
JP2016099835A (ja) 画像処理装置、画像処理方法、及びプログラム
Pushkar et al. Automated progress monitoring of masonry activity using photogrammetric point cloud
JPWO2015064292A1 (ja) 画像の特徴量に関する処理システム、処理方法及びプログラム
CN112541403B (zh) 一种利用红外摄像头的室内人员跌倒检测方法
JP2014203133A (ja) 画像処理装置、画像処理方法
KR20230049969A (ko) 글로벌 측위 장치 및 방법
Dubey Efficient content based image retrieval (CBIR) techniques: a survey
US11127158B2 (en) Image indexing and retrieval using local image patches for object three-dimensional pose estimation
JP2019204183A (ja) 情報処理装置、撮像装置、情報処理方法
CN113256600B (zh) 基于人工智能的相机灰尘检测方法、装置及电子设备
Ching et al. Understanding the Amazon from space
KR102665603B1 (ko) 스테레오 매칭을 위한 하드웨어 디스패러티 평가
JP2023183956A (ja) 学習プログラム、推論プログラム、学習方法および推論方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221214

R150 Certificate of patent or registration of utility model

Ref document number: 7196058

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150