JP6883710B2 - ターゲットのマッチング方法及び装置、電子機器並びに記憶媒体 - Google Patents

ターゲットのマッチング方法及び装置、電子機器並びに記憶媒体 Download PDF

Info

Publication number
JP6883710B2
JP6883710B2 JP2020515878A JP2020515878A JP6883710B2 JP 6883710 B2 JP6883710 B2 JP 6883710B2 JP 2020515878 A JP2020515878 A JP 2020515878A JP 2020515878 A JP2020515878 A JP 2020515878A JP 6883710 B2 JP6883710 B2 JP 6883710B2
Authority
JP
Japan
Prior art keywords
image sequence
feature vector
frame
search
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020515878A
Other languages
English (en)
Other versions
JP2020534606A (ja
Inventor
ルイマオ ジャン
ルイマオ ジャン
ホンビン スン
ホンビン スン
ピン ルオ
ピン ルオ
ユーイン ゴー
ユーイン ゴー
クワンゾー レン
クワンゾー レン
リアン リン
リアン リン
シアオガン ワン
シアオガン ワン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Sensetime Technology Co Ltd
Original Assignee
Shenzhen Sensetime Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Sensetime Technology Co Ltd filed Critical Shenzhen Sensetime Technology Co Ltd
Publication of JP2020534606A publication Critical patent/JP2020534606A/ja
Application granted granted Critical
Publication of JP6883710B2 publication Critical patent/JP6883710B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/532Query formulation, e.g. graphical querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/56Information retrieval; Database structures therefor; File system structures therefor of still image data having vectorial format
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Library & Information Science (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

(関連出願の相互参照)
本願は、2018年6月15日に中国特許局に提出された、出願番号が201810621959.5であり、出願の名称が「ターゲットのマッチング方法及び装置、電子機器並びに記憶媒体」の中国特許出願の優先権を主張し、その開示の全てが参照によって本願に組み込まれる。
本開示は、コンピュータビジョン技術に関し、特に、ターゲットのマッチング方法及び装置、電子機器並びに記憶媒体に関する。
ターゲットのマッチングとは、検索映像又は検索画像と同じターゲットを有するデータベース内の映像又は画像を返すことを指す。ターゲットのマッチング技術は、空港、駅、学校及びスーパーマーケット等の場所のセキュリティ監視システムに広く用いられている。関連技術において、ターゲットのマッチングの正確性が低い。
本開示は、ターゲットのマッチングの技術的手段を提供する。
本開示の一態様によれば、
マッチング待ちターゲットを含む検索画像シーケンスにおける各フレームの特徴ベクトルと、候補画像シーケンスにおける各フレームの特徴ベクトルをそれぞれ抽出するステップと、
前記検索画像シーケンスにおける各フレームの特徴ベクトルと前記候補画像シーケンスにおける各フレームの特徴ベクトルのそれぞれに基づいて、前記検索画像シーケンスの自己表現特徴ベクトルと前記候補画像シーケンスの自己表現特徴ベクトルを決定するステップと、
前記検索画像シーケンスにおける各フレームの特徴ベクトルと前記候補画像シーケンスの自己表現特徴ベクトルに基づいて、前記検索画像シーケンスの協同表現特徴ベクトルを決定し、前記候補画像シーケンスにおける各フレームの特徴ベクトルと前記検索画像シーケンスの自己表現特徴ベクトルに基づいて、前記候補画像シーケンスの協同表現特徴ベクトルを決定するステップと、
前記検索画像シーケンスの自己表現特徴ベクトル、前記検索画像シーケンスの協同表現特徴ベクトル、前記候補画像シーケンスの自己表現特徴ベクトル及び前記候補画像シーケンスの協同表現特徴ベクトルに基づいて、前記検索画像シーケンスと前記候補画像シーケンスの類似度特徴ベクトルを決定するステップと、
前記類似度特徴ベクトルに基づいて、前記検索画像シーケンスと前記候補画像シーケンスのマッチング結果を決定するステップと、を含むターゲットのマッチング方法を提供する。
可能な一実施形態では、検索画像シーケンスにおける各フレームの特徴ベクトルと、候補画像シーケンスにおける各フレームの特徴ベクトルをそれぞれ抽出するステップには、
第1のサブニューラルネットワークによって検索画像シーケンスにおける各フレームの特徴ベクトルと候補画像シーケンスにおける各フレームの特徴ベクトルを抽出するステップを含む。
可能な一実施形態では、検索画像シーケンスにおける各フレームの特徴ベクトルと候補画像シーケンスにおける各フレームの特徴ベクトルを抽出するステップの後に、前記方法は、
第1のサブニューラルネットワークの第1の全結合層によって前記検索画像シーケンスにおける各フレームの特徴ベクトルと前記候補画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルと前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルを取得するステップを更に含む。
可能な一実施形態では、前記検索画像シーケンスにおける各フレームの特徴ベクトルと前記候補画像シーケンスにおける各フレームの特徴ベクトルのそれぞれに基づいて、前記検索画像シーケンスの自己表現特徴ベクトルと前記候補画像シーケンスの自己表現特徴ベクトルを決定するステップには、
前記検索画像シーケンスにおける各フレームの特徴ベクトルと前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルを第2のサブニューラルネットワークに入力して、前記検索画像シーケンスの自己表現特徴ベクトルを決定するステップと、
前記候補画像シーケンスにおける各フレームの特徴ベクトルと前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルを第2のサブニューラルネットワークに入力して、前記候補画像シーケンスの自己表現特徴ベクトルを決定するステップと、を含む。
可能な一実施形態では、前記検索画像シーケンスにおける各フレームの特徴ベクトルと前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルを第2のサブニューラルネットワークに入力して、前記検索画像シーケンスの自己表現特徴ベクトルを決定するステップには、
前記第2のサブニューラルネットワークの第2の全結合層によって前記検索画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、前記検索画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルを取得するステップと、
前記検索画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルに対して時間次元の平均プーリング処理を行って、前記検索画像シーケンスの全体的特徴ベクトルを取得するステップと、
前記検索画像シーケンスにおける各フレームの第2の次元削減特徴ベクトル、前記検索画像シーケンスの全体的特徴ベクトル及び前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、前記検索画像シーケンスの自己表現特徴ベクトルを決定するステップと、を含む。
可能な一実施形態では、前記候補画像シーケンスにおける各フレームの特徴ベクトルと前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルを第2のサブニューラルネットワークに入力して、前記候補画像シーケンスの自己表現特徴ベクトルを取得するステップには、
前記第2のサブニューラルネットワークの第2の全結合層によって前記候補画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、前記候補画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルを取得するステップと、
前記候補画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルに対して時間次元の平均プーリング処理を行って、前記候補画像シーケンスの全体的特徴ベクトルを取得するステップと、
前記候補画像シーケンスにおける各フレームの第2の次元削減特徴ベクトル、前記候補画像シーケンスの全体的特徴ベクトル及び前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、前記候補画像シーケンスの自己表現特徴ベクトルを決定するステップと、を含む。
可能な一実施形態では、前記検索画像シーケンスにおける各フレームの第2の次元削減特徴ベクトル、前記検索画像シーケンスの全体的特徴ベクトル及び前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、前記検索画像シーケンスの自己表現特徴ベクトルを決定するステップには、
パラメータレス相関関数によって前記検索画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルと前記検索画像シーケンスの全体的特徴ベクトルとの相関度を計算して、前記検索画像シーケンスにおける各フレームの第1の相関重みを取得するステップと、
前記検索画像シーケンスにおける各フレームの第1の相関重みに基づいて、前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、前記検索画像シーケンスの自己表現特徴ベクトルを取得するステップと、を含む。
可能な一実施形態では、前記候補画像シーケンスにおける各フレームの第2の次元削減特徴ベクトル、前記候補画像シーケンスの全体的特徴ベクトル及び前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、前記候補画像シーケンスの自己表現特徴ベクトルを決定するステップには、
パラメータレス相関関数によって前記候補画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルと前記候補画像シーケンスの全体的特徴ベクトルとの相関度を計算して、前記候補画像シーケンスにおける各フレームの第1の相関重みを取得するステップと、
前記候補画像シーケンスにおける各フレームの第1の相関重みに基づいて、前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、前記候補画像シーケンスの自己表現特徴ベクトルを取得するステップと、を含む。
可能な一実施形態では、前記第1の相関重みは、前記第1の相関重みに対して正規化処理を行って得られた第1の正規化相関重みを含む。
可能な一実施形態では、前記検索画像シーケンスにおける各フレームの特徴ベクトルと前記候補画像シーケンスの自己表現特徴ベクトルに基づいて、前記検索画像シーケンスの協同表現特徴ベクトルを決定し、前記候補画像シーケンスにおける各フレームの特徴ベクトルと前記検索画像シーケンスの自己表現特徴ベクトルに基づいて、前記候補画像シーケンスの協同表現特徴ベクトルを決定するステップには、
前記検索画像シーケンスにおける各フレームの特徴ベクトル、前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトル及び前記候補画像シーケンスの自己表現特徴ベクトルを第3のサブニューラルネットワークに入力して、前記検索画像シーケンスの協同表現特徴ベクトルを取得するステップと、
前記候補画像シーケンスにおける各フレームの特徴ベクトル、前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトル及び前記検索画像シーケンスの自己表現特徴ベクトルを第3のサブニューラルネットワークに入力して、前記候補画像シーケンスの協同表現特徴ベクトルを取得するステップと、を含む。
可能な一実施形態では、前記検索画像シーケンスにおける各フレームの特徴ベクトル、前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトル及び前記候補画像シーケンスの自己表現特徴ベクトルを第3のサブニューラルネットワークに入力して、前記検索画像シーケンスの協同表現特徴ベクトルを取得するステップには、
前記第3のサブニューラルネットワークの第3の全結合層によって前記検索画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、前記検索画像シーケンスにおける各フレームの第3の次元削減特徴ベクトルを取得するステップと、
前記検索画像シーケンスにおける各フレームの第3の次元削減特徴ベクトル、前記候補画像シーケンスの自己表現特徴ベクトル及び前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、前記検索画像シーケンスの協同表現特徴ベクトルを取得するステップと、を含み、
前記候補画像シーケンスにおける各フレームの特徴ベクトル、前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトル及び前記検索画像シーケンスの自己表現特徴ベクトルを第3のサブニューラルネットワークに入力して、前記候補画像シーケンスの協同表現特徴ベクトルを取得するステップには、
前記第3のサブニューラルネットワークの第3の全結合層によって前記候補画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、前記候補画像シーケンスにおける各フレームの第3の次元削減特徴ベクトルを取得するステップと、
前記候補画像シーケンスにおける各フレームの第3の次元削減特徴ベクトル、前記検索画像シーケンスの自己表現特徴ベクトル及び前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、前記候補画像シーケンスの協同表現特徴ベクトルを取得するステップと、を含む。
可能な一実施形態では、前記検索画像シーケンスにおける各フレームの第3の次元削減特徴ベクトル、前記候補画像シーケンスの自己表現特徴ベクトル及び前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、前記検索画像シーケンスの協同表現特徴ベクトルを取得するステップには、
パラメータレス相関関数によって前記検索画像シーケンスにおける各フレームの第3の次元削減特徴ベクトルと前記候補画像シーケンスの自己表現特徴ベクトルとの相関度を計算して、前記検索画像シーケンスにおける各フレームの第2の相関重みを取得するステップと、
前記検索画像シーケンスにおける各フレームの第2の相関重みに基づいて、前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、前記検索画像シーケンスの協同表現特徴ベクトルを取得するステップと、を含む。
可能な一実施形態では、前記候補画像シーケンスにおける各フレームの第3の次元削減特徴ベクトル、前記検索画像シーケンスの自己表現特徴ベクトル及び前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、前記候補画像シーケンスの協同表現特徴ベクトルを取得するステップには、
パラメータレス相関関数によって前記候補画像シーケンスにおける各フレームの第3の次元削減特徴ベクトルと前記検索画像シーケンスの自己表現特徴ベクトルとの相関度を計算して、前記候補画像シーケンスにおける各フレームの第2の相関重みを取得するステップと、
前記候補画像シーケンスにおける各フレームの第2の相関重みに基づいて、前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、前記候補画像シーケンスの協同表現特徴ベクトルを取得するステップと、を含む。
可能な一実施形態では、前記第2の相関重みは、前記第2の相関重みに対して正規化処理を行って得られた第2の正規化相関重みを含む。
可能な一実施形態では、前記検索画像シーケンスの自己表現特徴ベクトル、前記検索画像シーケンスの協同表現特徴ベクトル、前記候補画像シーケンスの自己表現特徴ベクトル及び前記候補画像シーケンスの協同表現特徴ベクトルに基づいて、前記検索画像シーケンスと前記候補画像シーケンスの類似度特徴ベクトルを取得するステップには、
前記検索画像シーケンスの自己表現特徴ベクトルと前記候補画像シーケンスの協同表現特徴ベクトルの差分を計算して、第1の差分ベクトルを取得するステップと、
前記候補画像シーケンスの自己表現特徴ベクトルと前記検索画像シーケンスの協同表現特徴ベクトルの差分を計算して、第2の差分ベクトルを取得するステップと、
前記第1の差分ベクトルと前記第2の差分ベクトルに基づいて、前記検索画像シーケンスと前記候補画像シーケンスの類似度特徴ベクトルを取得するステップと、を含む。
可能な一実施形態では、前記第1の差分ベクトルと前記第2の差分ベクトルに基づいて、前記検索画像シーケンスと前記候補画像シーケンスの類似度特徴ベクトルを取得するステップには、
前記第1の差分ベクトルと前記第2の差分ベクトルの和を計算して、前記検索画像シーケンスと前記候補画像シーケンスの類似度特徴ベクトルを取得するか、又は、
前記第1の差分ベクトルと前記第2の差分ベクトルとの対応位置の要素の積を計算して、前記検索画像シーケンスと前記候補画像シーケンスの類似度特徴ベクトルを取得するステップを含む。
可能な一実施形態では、前記類似度特徴ベクトルに基づいて、前記検索画像シーケンスと前記候補画像シーケンスのマッチング結果を決定するステップには、
前記検索画像シーケンスと前記候補画像シーケンスの類似度特徴ベクトルを第4の全結合層に入力して、前記検索画像シーケンスと前記候補画像シーケンスのマッチングスコアを取得するステップと、
前記検索画像シーケンスと前記候補画像シーケンスのマッチングスコアに基づいて、前記検索画像シーケンスと前記候補画像シーケンスのマッチング結果を決定するステップと、を含む。
可能な一実施形態では、前記検索画像シーケンスと前記候補画像シーケンスのマッチングスコアを取得するステップの後に、前記方法は、
前記検索画像シーケンスと前記候補画像シーケンスのマッチングスコアに基づいて、同一対のラベリングデータとバイナリ交差エントロピー損失関数を用いて、ネットワークパラメータを最適化するステップを更に含む。
可能な一実施形態では、検索画像シーケンスにおける各フレームの特徴ベクトルを抽出するステップの前に、前記方法は、
検索映像を複数の検索画像シーケンスに分割するステップと、
候補映像を複数の候補画像シーケンスに分割するステップと、を更に含み、
前記検索画像シーケンスと前記候補画像シーケンスのマッチング結果を決定するステップの後に、前記方法は、
前記検索映像の検索画像シーケンスと前記候補映像の候補画像シーケンスのマッチング結果に基づいて、前記検索映像と前記候補映像のマッチング結果を決定するステップを更に含む。
可能な一実施形態では、検索映像を複数の検索画像シーケンスに分割するステップには、
所定シーケンス長及び所定ステップ長により、検索映像を複数の検索画像シーケンスに分割するステップを含み、前記検索画像シーケンス長が前記所定シーケンス長に等しく、隣接する検索画像シーケンスの間の重畳画像数が前記所定シーケンス長と前記所定ステップ長の差分に等しく、
候補映像を複数の候補画像シーケンスに分割するステップには、
所定シーケンス長及び所定ステップ長により、候補映像を複数の候補画像シーケンスに分割するステップを含み、前記候補画像シーケンス長が前記所定シーケンス長に等しく、隣接する候補画像シーケンスの間の重畳画像数が前記所定シーケンス長と前記所定ステップ長の差分に等しい。
可能な一実施形態では、前記検索映像の検索画像シーケンスと前記候補映像の候補画像シーケンスのマッチング結果に基づいて、前記検索映像と前記候補映像のマッチング結果を決定するステップには、
前記検索映像の各検索画像シーケンスと前記候補映像の各候補画像シーケンスのマッチングスコアを決定するステップと、
前記検索映像の各検索画像シーケンスと前記候補映像の各候補画像シーケンスのマッチングスコアのうちの最高のN個のマッチングスコアの平均値を計算して、前記検索映像と前記候補映像のマッチングスコアを取得し、Nが正整数であるステップと、
前記検索映像と前記候補映像のマッチングスコアに基づいて、前記検索映像と前記候補映像のマッチング結果を決定するステップと、を含む。
本開示の一態様によれば、
マッチング待ちターゲットを含む検索画像シーケンスにおける各フレームの特徴ベクトルと、候補画像シーケンスにおける各フレームの特徴ベクトルをそれぞれ抽出するための抽出モジュールと、
前記検索画像シーケンスにおける各フレームの特徴ベクトルと前記候補画像シーケンスにおける各フレームの特徴ベクトルのそれぞれに基づいて、前記検索画像シーケンスの自己表現特徴ベクトルと前記候補画像シーケンスの自己表現特徴ベクトルを決定するための第1の決定モジュールと、
前記検索画像シーケンスにおける各フレームの特徴ベクトルと前記候補画像シーケンスの自己表現特徴ベクトルに基づいて、前記検索画像シーケンスの協同表現特徴ベクトルを決定し、前記候補画像シーケンスにおける各フレームの特徴ベクトルと前記検索画像シーケンスの自己表現特徴ベクトルに基づいて、前記候補画像シーケンスの協同表現特徴ベクトルを決定するための第2の決定モジュールと、
前記検索画像シーケンスの自己表現特徴ベクトル、前記検索画像シーケンスの協同表現特徴ベクトル、前記候補画像シーケンスの自己表現特徴ベクトル及び前記候補画像シーケンスの協同表現特徴ベクトルに基づいて、前記検索画像シーケンスと前記候補画像シーケンスの類似度特徴ベクトルを決定するための第3の決定モジュールと、
前記類似度特徴ベクトルに基づいて、前記検索画像シーケンスと前記候補画像シーケンスのマッチング結果を決定するための第4の決定モジュールと、を含むターゲットのマッチング装置を提供する。
可能な一実施形態では、前記抽出モジュールは、
第1のサブニューラルネットワークによって検索画像シーケンスにおける各フレームの特徴ベクトルと候補画像シーケンスにおける各フレームの特徴ベクトルを抽出するために用いられる。
可能な一実施形態では、前記装置は、
第1のサブニューラルネットワークの第1の全結合層によって前記検索画像シーケンスにおける各フレームの特徴ベクトルと前記候補画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルと前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルを取得するための次元削減モジュールを更に含む。
可能な一実施形態では、前記第1の決定モジュールは、
前記検索画像シーケンスにおける各フレームの特徴ベクトルと前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルを第2のサブニューラルネットワークに入力して、前記検索画像シーケンスの自己表現特徴ベクトルを決定するための第1の決定サブモジュールと、
前記候補画像シーケンスにおける各フレームの特徴ベクトルと前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルを第2のサブニューラルネットワークに入力して、前記候補画像シーケンスの自己表現特徴ベクトルを決定するための第2の決定サブモジュールと、を含む。
可能な一実施形態では、前記第1の決定サブモジュールは、
前記第2のサブニューラルネットワークの第2の全結合層によって前記検索画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、前記検索画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルを取得するための第1の次元削減ユニットと、
前記検索画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルに対して時間次元の平均プーリング処理を行って、前記検索画像シーケンスの全体的特徴ベクトルを取得するための第1の平均プーリングユニットと、
前記検索画像シーケンスにおける各フレームの第2の次元削減特徴ベクトル、前記検索画像シーケンスの全体的特徴ベクトル及び前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、前記検索画像シーケンスの自己表現特徴ベクトルを決定するための第1の決定ユニットと、を含む。
可能な一実施形態では、前記第2の決定サブモジュールは、
前記第2のサブニューラルネットワークの第2の全結合層によって前記候補画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、前記候補画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルを取得するための第2の次元削減ユニットと、
前記候補画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルに対して時間次元の平均プーリング処理を行って、前記候補画像シーケンスの全体的特徴ベクトルを取得するための第2の平均プーリングユニットと、
前記候補画像シーケンスにおける各フレームの第2の次元削減特徴ベクトル、前記候補画像シーケンスの全体的特徴ベクトル及び前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、前記候補画像シーケンスの自己表現特徴ベクトルを決定するための第2の決定ユニットと、を含む。
可能な一実施形態では、前記第1の決定ユニットは、
パラメータレス相関関数によって前記検索画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルと前記検索画像シーケンスの全体的特徴ベクトルとの相関度を計算して、前記検索画像シーケンスにおける各フレームの第1の相関重みを取得するための第1の計算サブユニットと、
前記検索画像シーケンスにおける各フレームの第1の相関重みに基づいて、前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、前記検索画像シーケンスの自己表現特徴ベクトルを取得するための第1の重み付けサブユニットと、を含む。
可能な一実施形態では、前記第2の決定ユニットは、
パラメータレス相関関数によって前記候補画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルと前記候補画像シーケンスの全体的特徴ベクトルとの相関度を計算して、前記候補画像シーケンスにおける各フレームの第1の相関重みを取得するための第2の計算サブユニットと、
前記候補画像シーケンスにおける各フレームの第1の相関重みに基づいて、前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、前記候補画像シーケンスの自己表現特徴ベクトルを取得するための第2の重み付けサブユニットと、を含む。
可能な一実施形態では、前記第1の相関重みは、前記第1の相関重みに対して正規化処理を行って得られた第1の正規化相関重みを含む。
可能な一実施形態では、前記第2の決定モジュールは、
前記検索画像シーケンスにおける各フレームの特徴ベクトル、前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトル及び前記候補画像シーケンスの自己表現特徴ベクトルを第3のサブニューラルネットワークに入力して、前記検索画像シーケンスの協同表現特徴ベクトルを取得するための第3の決定サブモジュールと、
前記候補画像シーケンスにおける各フレームの特徴ベクトル、前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトル及び前記検索画像シーケンスの自己表現特徴ベクトルを第3のサブニューラルネットワークに入力して、前記候補画像シーケンスの協同表現特徴ベクトルを取得するための第4の決定サブモジュールと、を含む。
可能な一実施形態では、前記第3の決定サブモジュールは、
前記第3のサブニューラルネットワークの第3の全結合層によって前記検索画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、前記検索画像シーケンスにおける各フレームの第3の次元削減特徴ベクトルを取得するための第3の次元削減ユニットと、
前記検索画像シーケンスにおける各フレームの第3の次元削減特徴ベクトル、前記候補画像シーケンスの自己表現特徴ベクトル及び前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、前記検索画像シーケンスの協同表現特徴ベクトルを取得するための第3の決定ユニットと、を含み、
前記第4の決定サブモジュールは、
前記第3のサブニューラルネットワークの第3の全結合層によって前記候補画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、前記候補画像シーケンスにおける各フレームの第3の次元削減特徴ベクトルを取得するための第4の次元削減ユニットと、
前記候補画像シーケンスにおける各フレームの第3の次元削減特徴ベクトル、前記検索画像シーケンスの自己表現特徴ベクトル及び前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、前記候補画像シーケンスの協同表現特徴ベクトルを取得するための第4の決定ユニットと、を含む。
可能な一実施形態では、前記第3の決定ユニットは、
パラメータレス相関関数によって前記検索画像シーケンスにおける各フレームの第3の次元削減特徴ベクトルと前記候補画像シーケンスの自己表現特徴ベクトルとの相関度を計算して、前記検索画像シーケンスにおける各フレームの第2の相関重みを取得するための第3の計算サブユニットと、
前記検索画像シーケンスにおける各フレームの第2の相関重みに基づいて、前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、前記検索画像シーケンスの協同表現特徴ベクトルを取得するための第3の重み付けサブユニットと、を含む。
可能な一実施形態では、前記第4の決定ユニットは、
パラメータレス相関関数によって前記候補画像シーケンスにおける各フレームの第3の次元削減特徴ベクトルと前記検索画像シーケンスの自己表現特徴ベクトルとの相関度を計算して、前記候補画像シーケンスにおける各フレームの第2の相関重みを取得するための第4の計算サブユニットと、
前記候補画像シーケンスにおける各フレームの第2の相関重みに基づいて、前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、前記候補画像シーケンスの協同表現特徴ベクトルを取得するための第4の重み付けサブユニットと、を含む。
可能な一実施形態では、前記第2の相関重みは、前記第2の相関重みに対して正規化処理を行って得られた第2の正規化相関重みを含む。
可能な一実施形態では、前記第3の決定モジュールは、
前記検索画像シーケンスの自己表現特徴ベクトルと前記候補画像シーケンスの協同表現特徴ベクトルの差分を計算して、第1の差分ベクトルを取得するための第1の計算サブモジュールと、
前記候補画像シーケンスの自己表現特徴ベクトルと前記検索画像シーケンスの協同表現特徴ベクトルの差分を計算して、第2の差分ベクトルを取得するための第2の計算サブモジュールと、
前記第1の差分ベクトルと前記第2の差分ベクトルに基づいて、前記検索画像シーケンスと前記候補画像シーケンスの類似度特徴ベクトルを取得するための第5の決定サブモジュールと、を含む。
可能な一実施形態では、前記第5の決定サブモジュールは、
前記第1の差分ベクトルと前記第2の差分ベクトルの和を計算して、前記検索画像シーケンスと前記候補画像シーケンスの類似度特徴ベクトルを取得するための第1の計算ユニット、又は、
前記第1の差分ベクトルと前記第2の差分ベクトルとの対応位置の要素の積を計算して、前記検索画像シーケンスと前記候補画像シーケンスの類似度特徴ベクトルを取得するための第2の計算ユニットを含む。
可能な一実施形態では、前記第4の決定モジュールは、
前記検索画像シーケンスと前記候補画像シーケンスの類似度特徴ベクトルを第4の全結合層に入力して、前記検索画像シーケンスと前記候補画像シーケンスのマッチングスコアを取得するための第6の決定サブモジュールと、
前記検索画像シーケンスと前記候補画像シーケンスのマッチングスコアに基づいて、前記検索画像シーケンスと前記候補画像シーケンスのマッチング結果を決定するための第7の決定サブモジュールと、を含む。
可能な一実施形態では、前記装置は、
前記検索画像シーケンスと前記候補画像シーケンスのマッチングスコアに基づいて、同一対のラベリングデータとバイナリ交差エントロピー損失関数を用いて、ネットワークパラメータを最適化するための最適化モジュールを更に含む。
可能な一実施形態では、前記装置は、
検索映像を複数の検索画像シーケンスに分割するための第1の分割モジュールと、
候補映像を複数の候補画像シーケンスに分割するための第2の分割モジュールと、
前記検索映像の検索画像シーケンスと前記候補映像の候補画像シーケンスのマッチング結果に基づいて、前記検索映像と前記候補映像のマッチング結果を決定するための第5の決定モジュールと、を更に含む。
可能な一実施形態では、前記第1の分割モジュールは、
所定シーケンス長及び所定ステップ長により、検索映像を複数の検索画像シーケンスに分割するために用いられ、前記検索画像シーケンス長が前記所定シーケンス長に等しく、隣接する検索画像シーケンスの間の重畳画像数が前記所定シーケンス長と前記所定ステップ長の差分に等しく、
前記第2の分割モジュールは、
所定シーケンス長及び所定ステップ長により、候補映像を複数の候補画像シーケンスに分割するために用いられ、前記候補画像シーケンス長が前記所定シーケンス長に等しく、隣接する候補画像シーケンスの間の重畳画像数が前記所定シーケンス長と前記所定ステップ長の差分に等しい。
可能な一実施形態では、前記第5の決定モジュールは、
前記検索映像の各検索画像シーケンスと前記候補映像の各候補画像シーケンスのマッチングスコアを決定するための第8の決定サブモジュールと、
前記検索映像の各検索画像シーケンスと前記候補映像の各候補画像シーケンスのマッチングスコアのうちの最高のN個のマッチングスコアの平均値を計算して、前記検索映像と前記候補映像のマッチングスコアを取得するために用いられ、Nが正整数である第3の計算サブモジュールと、
前記検索映像と前記候補映像のマッチングスコアに基づいて、前記検索映像と前記候補映像のマッチング結果を決定するための第9の決定サブモジュールと、を含む。
本開示の一態様によれば、
上記ターゲットのマッチング方法を実行するように構成されるプロセッサと、
プロセッサでの実行可能コマンドを記憶するためのメモリと、を含む電子機器を提供する。
本開示の一態様によれば、コンピュータプログラムコマンドを記憶したコンピュータ可読記憶媒体であって、前記コンピュータプログラムコマンドがプロセッサにより実行される時に上記ターゲットのマッチング方法が実現されるコンピュータ可読記憶媒体を提供する。
本開示の実施例では、検索画像シーケンスの自己表現特徴ベクトル、検索画像シーケンスの協同表現特徴ベクトル、候補画像シーケンスの自己表現特徴ベクトル及び候補画像シーケンスの協同表現特徴ベクトルに基づいて、検索画像シーケンスと候補画像シーケンスの類似度特徴ベクトルを決定し、類似度特徴ベクトルに基づいて検索画像シーケンスと候補画像シーケンスのマッチング結果を決定することによって、ターゲットのマッチングの正確性を高めることができる。
以下、図面を参照しながら例示的な実施例について詳細に説明することにより、本開示の他の特徴及び態様は明瞭になる。
明細書に含まれ且つ明細書の一部を構成する図面は明細書と共に本開示の例示的な実施例、特徴及び態様を示し、更に本開示の原理を解釈するために用いられる。
本開示の実施例に係るターゲットのマッチング方法のフローチャートを示す。 本開示の実施例に係るターゲットのマッチング方法のステップS12の例示的なフローチャートを示す。 本開示の実施例に係るターゲットのマッチング方法のステップS121の例示的なフローチャートを示す。 本開示の実施例に係るターゲットのマッチング方法のステップS122の例示的なフローチャートを示す。 本開示の実施例に係るターゲットのマッチング方法のステップS1213の例示的なフローチャートを示す。 本開示の実施例に係るターゲットのマッチング方法のステップS1223の例示的なフローチャートを示す。 本開示の実施例に係るターゲットのマッチング方法のステップS13の例示的なフローチャートを示す。 本開示の実施例に係るターゲットのマッチング方法のステップS131の例示的なフローチャートを示す。 本開示の実施例に係るターゲットのマッチング方法のステップS132の例示的なフローチャートを示す。 本開示の実施例に係るターゲットのマッチング方法のステップS1312の例示的なフローチャートを示す。 本開示の実施例に係るターゲットのマッチング方法のステップS1322の例示的なフローチャートを示す。 本開示の実施例に係るターゲットのマッチング方法のステップS14の例示的なフローチャートを示す。 本開示の実施例に係るターゲットのマッチング方法のステップS15の例示的なフローチャートを示す。 本開示の実施例に係るターゲットのマッチング方法の例示的なフローチャートを示す。 本開示の実施例に係るターゲットのマッチング方法のステップS28の例示的なフローチャートを示す。 本開示の実施例に係るターゲットのマッチング装置のブロック図を示す。 本開示の実施例に係るターゲットのマッチング装置の例示的なブロック図を示す。 例示的な一実施例に基づいて示される電子機器800のブロック図である。 例示的な一実施例に基づいて示される電子機器1900のブロック図である。
以下に図面を参照しながら本開示の様々な例示的実施例、特徴および態様を詳細に説明する。図面における同じ符号は同じまたは類似する機能の要素を表す。図面において実施例の様々な態様を示したが、特に断らない限り、比例に従って図面を作る必要がない。
ここの用語「例示的」とは、「例、実施例として用いられることまたは説明的なもの」を意味する。ここで「例示的」に説明したいかなる実施例も他の実施例より優れたものと理解すべきではない。
また、本開示をより効果的に説明するために、以下の具体的な実施形態において様々な具体的詳細を示す。当業者であれば、何らかの具体的詳細がなくなるにも関わらず、本開示は同様に実施できるということを理解すべきである。いくつかの実施例では、本開示の趣旨を強調するよう、当業者に既知の方法、手段、要素および回路に対する詳細な説明を省略する。
図1は本開示の実施例に係るターゲットのマッチング方法のフローチャートを示す。本開示の実施例は、映像の知能的解析又はセキュリティ監視等の分野に用いることができる。例えば、本開示の実施例は、通行人検出、通行人追跡等の技術と組み合わせて、空港や駅、学校、スーパーマーケット等の場所のセキュリティ監視システムに用いることができる。図1に示すように、該方法は、ステップS11〜ステップS15を含む。
ステップS11では、マッチング待ちターゲットを含む検索画像シーケンスにおける各フレームの特徴ベクトルと、候補画像シーケンスにおける各フレームの特徴ベクトルをそれぞれ抽出する。
本開示の実施例では、検索画像シーケンスは、ターゲットのマッチングを行おうとする画像シーケンスを指してよい。候補画像シーケンスは、データベースにおける画像シーケンスを指してよい。データベースは複数の候補画像シーケンスを含んでよく、例えば、データベースは大規模の候補画像シーケンスを含んでよい。本開示の実施例では、検索画像シーケンスは1つのマッチング待ちターゲットのみを含んでもよく、複数のマッチング待ちターゲットを含んでもよい。本開示の実施例における画像シーケンスは映像、ビデオクリップ又は他の画像シーケンスであってよい。
本開示の実施例では、検索画像シーケンスと候補画像シーケンスのフレーム数は異なっていてもよく、同じであってもよい。例えば、検索画像シーケンスは、Tフレーム(即ち、T個の画像)を含み、候補画像シーケンスはRフレーム(即ち、R個の画像)を含み、ここで、TとRがいずれも正整数である。
本開示の実施例では、検索画像シーケンスにおける各フレームの特徴ベクトルを抽出して、
Figure 0006883710
を取得し、ここで、
Figure 0006883710
は検索画像シーケンスにおけるt番目のフレームの特徴ベクトルを表し、
Figure 0006883710
であり、候補画像シーケンスにおける各フレームの特徴ベクトルを抽出して、
Figure 0006883710
を取得し、ここで、
Figure 0006883710
は候補画像シーケンスにおけるr番目のフレームの特徴ベクトルを表し、
Figure 0006883710
である。
可能な一実施形態では、検索画像シーケンスにおける各フレームの特徴ベクトルと、候補画像シーケンスにおける各フレームの特徴ベクトルをそれぞれ抽出するステップには、第1のサブニューラルネットワークによって検索画像シーケンスにおける各フレームの特徴ベクトルと候補画像シーケンスにおける各フレームの特徴ベクトルを抽出するステップを含む。例えば、第1のサブニューラルネットワークはCNN(Convolutional Neural Network、畳み込みニューラルネットワーク)であってよい。該実施形態では、同じパラメータの畳み込みニューラルネットワークを用いて検索画像シーケンスにおける各フレームの特徴ベクトルと、候補画像シーケンスにおける各フレームの特徴ベクトルをそれぞれ抽出することができる。
可能な一実施形態では、検索画像シーケンスにおける各フレームの特徴ベクトルと候補画像シーケンスにおける各フレームの特徴ベクトルを抽出するステップの後に、該方法は、第1のサブニューラルネットワークの第1の全結合層によって検索画像シーケンスにおける各フレームの特徴ベクトルと候補画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルと候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルを取得するステップを更に含む。例えば、検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルは
Figure 0006883710
で表してよく、ここで、
Figure 0006883710
は検索画像シーケンスにおけるt番目のフレームの第1の次元削減特徴ベクトルを表し、候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルは
Figure 0006883710
で表してよく、ここで、
Figure 0006883710
は候補画像シーケンスにおけるr番目のフレームの第1の次元削減特徴ベクトルを表す。例えば、検索画像シーケンスにおける各フレームの特徴ベクトルの次元数が2048次元であり、検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルの次元数が128次元であり、候補画像シーケンスにおける各フレームの特徴ベクトルの次元数が2048次元であり、候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルの次元数が128次元である。例えば、第1の全結合層はfc−0で表してよい。
ステップS12では、それぞれ検索画像シーケンスにおける各フレームの特徴ベクトルと候補画像シーケンスにおける各フレームの特徴ベクトルに基づいて、検索画像シーケンスの自己表現特徴ベクトルと候補画像シーケンスの自己表現特徴ベクトルを決定する。
本開示の実施例では、検索画像シーケンスにおける各フレームの特徴ベクトルに基づいて、検索画像シーケンスの自己表現特徴ベクトルを決定し、候補画像シーケンスにおける各フレームの特徴ベクトルに基づいて、候補画像シーケンスの自己表現特徴ベクトルを決定するようにしてよい。本開示の実施例では、検索画像シーケンスの自己表現特徴ベクトルは検索画像シーケンスの表現のみによって決定される特徴ベクトルを表してよく、即ち、検索画像シーケンスの自己表現特徴ベクトルは検索画像シーケンスの表現のみによって決定され、候補画像シーケンスの表現と無関係であり、また、候補画像シーケンスの自己表現特徴ベクトルは候補画像シーケンスの表現のみよって決定される特徴ベクトルを表してよく、即ち、候補画像シーケンスの自己表現特徴ベクトルは候補画像シーケンスの表現のみによって決定され、検索画像シーケンスの表現と無関係である。
ステップS13では、検索画像シーケンスにおける各フレームの特徴ベクトルと候補画像シーケンスの自己表現特徴ベクトルに基づいて、検索画像シーケンスの協同表現特徴ベクトルを決定し、候補画像シーケンスにおける各フレームの特徴ベクトルと検索画像シーケンスの自己表現特徴ベクトルに基づいて、候補画像シーケンスの協同表現特徴ベクトルを決定する。
本開示の実施例では、検索画像シーケンスの協同表現特徴ベクトルは検索画像シーケンスの表現と候補画像シーケンスの表現の両方によって決定される特徴ベクトルを表してよく、即ち、検索画像シーケンスの協同表現特徴ベクトルは検索画像シーケンスの表現と関係があるだけでなく、候補画像シーケンスの表現とも関係があり、また、候補画像シーケンスの協同表現特徴ベクトルは候補画像シーケンスの表現と検索画像シーケンスの表現の両方によって決定される特徴ベクトルを表してよく、即ち、候補画像シーケンスの協同表現特徴ベクトルは候補画像シーケンスの表現と関係があるだけでなく、検索画像シーケンスの表現とも関係がある。
ステップS14では、検索画像シーケンスの自己表現特徴ベクトル、検索画像シーケンスの協同表現特徴ベクトル、候補画像シーケンスの自己表現特徴ベクトル及び候補画像シーケンスの協同表現特徴ベクトルに基づいて、検索画像シーケンスと候補画像シーケンスの類似度特徴ベクトルを決定する。
本開示の実施例では、検索画像シーケンスと候補画像シーケンスの類似度特徴ベクトルは検索画像シーケンスと候補画像シーケンスの類似度を決定することに利用可能であり、それによって検索画像シーケンスと候補画像シーケンスがマッチング可能であるか否かを判断することに利用可能になる。
ステップS15では、類似度特徴ベクトルに基づいて、検索画像シーケンスと候補画像シーケンスのマッチング結果を決定する。
本開示の実施例ではマッチング可能な2つの画像シーケンスは、異なる撮影視角で撮影された同一な人物の画像シーケンスであってもよく、同一な撮影視角で撮影された同一な人物の画像シーケンスであってもよい。
本開示の実施例は、検索画像シーケンスの自己表現特徴ベクトル、検索画像シーケンスの協同表現特徴ベクトル、候補画像シーケンスの自己表現特徴ベクトル及び候補画像シーケンスの協同表現特徴ベクトルに基づいて、検索画像シーケンスと候補画像シーケンスの類似度特徴ベクトルを決定し、類似度特徴ベクトルに基づいて、検索画像シーケンスと候補画像シーケンスのマッチング結果を決定することによって、ターゲットのマッチングの正確性を高めることができる。
図2は本開示の実施例に係るターゲットのマッチング方法のステップS12の例示的なフローチャートを示す。図2に示すように、ステップS12にはステップS121とステップS122を含んでよい。
ステップS121では、検索画像シーケンスにおける各フレームの特徴ベクトルと検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルを第2のサブニューラルネットワークに入力して、検索画像シーケンスの自己表現特徴ベクトルを決定する。
例えば、第2のサブニューラルネットワークはSAN(Self Attention Subnetwork、注意機構に基づく自己表現サブニューラルネットワーク)であってよい。
例えば、検索画像シーケンスにおける各フレームの特徴ベクトル
Figure 0006883710
と検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトル
Figure 0006883710
を第2のサブニューラルネットワークに入力して、検索画像シーケンスの自己表現特徴ベクトル
Figure 0006883710
を決定するようしてよい。
ステップS122では、候補画像シーケンスにおける各フレームの特徴ベクトルと候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルを第2のサブニューラルネットワークに入力して、候補画像シーケンスの自己表現特徴ベクトルを決定する。
例えば、候補画像シーケンスにおける各フレームの特徴ベクトル
Figure 0006883710
と候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトル
Figure 0006883710
を第2のサブニューラルネットワークに入力して、候補画像シーケンスの自己表現特徴ベクトル
Figure 0006883710
を決定するようしてよい。
図3は本開示の実施例に係るターゲットのマッチング方法のステップS121の例示的なフローチャートを示す。図3に示すように、ステップS121にはステップS1211〜ステップS1213を含んでよい。
ステップS1211では、第2のサブニューラルネットワークの第2の全結合層によって検索画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、検索画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルを取得する。
例えば、検索画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルは
Figure 0006883710
で表してよく、ここで、
Figure 0006883710
は検索画像シーケンスにおけるt番目のフレームの第2の次元削減特徴ベクトルを表す。
例えば、第2の全結合層はfc−1で表してよい。
例えば、検索画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルの次元数が128次元である。
ステップS1212では、検索画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルに対して時間次元の平均プーリング処理を行って、検索画像シーケンスの全体的特徴ベクトルを取得する。
例えば、検索画像シーケンスの全体的特徴ベクトルは
Figure 0006883710
で表してよい。
ステップS1213では、検索画像シーケンスにおける各フレームの第2の次元削減特徴ベクトル、検索画像シーケンスの全体的特徴ベクトル及び検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、検索画像シーケンスの自己表現特徴ベクトルを決定する。
図4は本開示の実施例に係るターゲットのマッチング方法のステップS122の例示的なフローチャートを示す。図4に示すように、ステップS122にはステップS1221〜ステップS1223を含んでよい。
ステップS1221では、第2のサブニューラルネットワークの第2の全結合層によって候補画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、候補画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルを取得する。
例えば、候補画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルの次元数が128次元である。
ステップS1222では、候補画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルに対して時間次元の平均プーリング処理を行って、候補画像シーケンスの全体的特徴ベクトルを取得する。
例えば、候補画像シーケンスの全体的特徴ベクトルは
Figure 0006883710
で表してよい。
ステップS1223では、候補画像シーケンスにおける各フレームの第2の次元削減特徴ベクトル、候補画像シーケンスの全体的特徴ベクトル及び候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、候補画像シーケンスの自己表現特徴ベクトルを決定する。
図5は本開示の実施例に係るターゲットのマッチング方法のステップS1213の例示的なフローチャートを示す。図5に示すように、ステップS1213にはステップS12131とステップS12132を含んでよい。
ステップS12131では、パラメータレス相関関数によって検索画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルと検索画像シーケンスの全体的特徴ベクトルとの相関度を計算して、検索画像シーケンスにおける各フレームの第1の相関重みを取得する。
例えば、パラメータレス相関関数
Figure 0006883710
によって検索画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルと検索画像シーケンスの全体的特徴ベクトルとの相関度を計算して、検索画像シーケンスにおける各フレームの第1の相関重み
Figure 0006883710
を取得するようしてよい。
可能な一実施形態では、パラメータレス相関関数
Figure 0006883710
はドット積の方式で
Figure 0006883710

Figure 0006883710
との相関度を計算することができる。
本開示の実施例は自己表現機構に基づいて、検索画像シーケンス自身の表現によって検索画像シーケンスにおける各フレームに対して相関重み付けを施す。
ステップS12132では、検索画像シーケンスにおける各フレームの第1の相関重みに基づいて、検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、検索画像シーケンスの自己表現特徴ベクトルを取得する。
例えば、検索画像シーケンスの自己表現特徴ベクトルは
Figure 0006883710
で表してもよく、ここで、
Figure 0006883710
は検索画像シーケンスにおけるt番目のフレームの第2の次元削減特徴ベクトルを表し、
Figure 0006883710
は検索画像シーケンスの全体的特徴ベクトルを表し、
Figure 0006883710
は検索画像シーケンスにおけるt番目のフレームの第1の次元削減特徴ベクトルを表す。
可能な一実施形態では、第1の相関重みは、第1の相関重みに対して正規化処理を行って得られた第1の正規化相関重みを含む。該実施形態では、検索画像シーケンスにおける各フレームの第1の相関重みに基づいて、検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、検索画像シーケンスの自己表現特徴ベクトルを取得するステップには、検索画像シーケンスにおける各フレームの第1の相関重みに対して正規化処理を行って、検索画像シーケンスにおける各フレームの第1の正規化相関重みを取得するステップと、検索画像シーケンスにおける各フレームの第1の正規化相関重みに基づいて、検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、検索画像シーケンスの自己表現特徴ベクトルを取得するステップと、を含む。該実施形態では、softmaxを用いて検索画像シーケンスにおける各フレームの第1の相関重みに対して正規化処理を行って、検索画像シーケンスにおける各フレームの第1の正規化相関重みを取得するようにしてよい。
図6は本開示の実施例に係るターゲットのマッチング方法のステップS1223の例示的なフローチャートを示す。図6に示すように、ステップS1223にはステップS12231とステップS12232を含んでよい。
ステップS12231では、パラメータレス相関関数によって候補画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルと候補画像シーケンスの全体的特徴ベクトルとの相関度を計算して、候補画像シーケンスにおける各フレームの第1の相関重みを取得する。
例えば、パラメータレス相関関数
Figure 0006883710
によって候補画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルと候補画像シーケンスの全体的特徴ベクトルとの相関度を計算して、候補画像シーケンスにおける各フレームの第1の相関重み
Figure 0006883710
を取得するようにしてよい。
可能な一実施形態では、パラメータレス相関関数
Figure 0006883710
はドット積の方式を用いて
Figure 0006883710

Figure 0006883710
との相関度を計算することができる。
本開示の実施例は自己表現機構に基づいて、候補画像シーケンス自身の表現によって候補画像シーケンスにおける各フレームに対して相関重み付けを施す。
ステップS12232では、候補画像シーケンスにおける各フレームの第1の相関重みに基づいて、候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、候補画像シーケンスの自己表現特徴ベクトルを取得する。
例えば、候補画像シーケンスの自己表現特徴ベクトルは
Figure 0006883710
で表してよく、ここで、
Figure 0006883710
は候補画像シーケンスにおけるr番目のフレームの第2の次元削減特徴ベクトルを表し、
Figure 0006883710
は候補画像シーケンスの全体的特徴ベクトルを表し、
Figure 0006883710
は候補画像シーケンスにおけるr番目のフレームの第1の次元削減特徴ベクトルを表す。
可能な一実施形態では、第1の相関重みは、第1の相関重みに対して正規化処理を行って得られた第1の正規化相関重みを含む。該実施形態では、候補画像シーケンスにおける各フレームの第1の相関重みに基づいて、候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、候補画像シーケンスの自己表現特徴ベクトルを取得するステップには、候補画像シーケンスにおける各フレームの第1の相関重みに対して正規化処理を行って、候補画像シーケンスにおける各フレームの第1の正規化相関重みを取得するステップと、候補画像シーケンスにおける各フレームの第1の正規化相関重みに基づいて、候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、候補画像シーケンスの自己表現特徴ベクトルを取得するステップと、を含む。該実施形態では、softmaxを用いて候補画像シーケンスにおける各フレームの第1の相関重みに対して正規化処理を行って、候補画像シーケンスにおける各フレームの第1の正規化相関重みを取得するようにしてよい。
図7は本開示の実施例に係るターゲットのマッチング方法のステップS13の例示的なフローチャートを示す。図7に示すように、ステップS13にはステップS131とステップS132を含んでよい。
ステップS131では、検索画像シーケンスにおける各フレームの特徴ベクトル、検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトル及び候補画像シーケンスの自己表現特徴ベクトルを第3のサブニューラルネットワークに入力して、検索画像シーケンスの協同表現特徴ベクトルを取得する。
例えば、第3のサブニューラルネットワークはCAN(Collaborative Attention Subnetwork、注意機構に基づく協同表現サブニューラルネットワーク)であってよい。
例えば、検索画像シーケンスにおける各フレームの特徴ベクトル
Figure 0006883710
、検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトル
Figure 0006883710
及び候補画像シーケンスの自己表現特徴ベクトル
Figure 0006883710
を第3のサブニューラルネットワークに入力して、検索画像シーケンスの協同表現特徴ベクトル
Figure 0006883710
を取得するようにしてよい。
ステップS132では、候補画像シーケンスにおける各フレームの特徴ベクトル、候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトル及び検索画像シーケンスの自己表現特徴ベクトルを第3のサブニューラルネットワークに入力して、候補画像シーケンスの協同表現特徴ベクトルを取得する。
例えば、候補画像シーケンスにおける各フレームの特徴ベクトル
Figure 0006883710
、候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトル
Figure 0006883710
及び検索画像シーケンスの自己表現特徴ベクトル
Figure 0006883710
を第3のサブニューラルネットワークに入力して、候補画像シーケンスの協同表現特徴ベクトル
Figure 0006883710
を取得するようにしてよい。
図8は本開示の実施例に係るターゲットのマッチング方法のステップS131の例示的なフローチャートを示す。図8に示すように、ステップS131にはステップS1311とステップS1312を含んでよい。
ステップS1311では、第3のサブニューラルネットワークの第3の全結合層によって検索画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、検索画像シーケンスにおける各フレームの第3の次元削減特徴ベクトルを取得する。
例えば、検索画像シーケンスにおける各フレームの第3の次元削減特徴ベクトルは
Figure 0006883710
で表してよく、ここで、
Figure 0006883710
は検索画像シーケンスにおけるt番目のフレームの第3の次元削減特徴ベクトルを表す。例えば、検索画像シーケンスにおける各フレームの第3の次元削減特徴ベクトルの次元数が128次元である。
例えば、第3の全結合層はfc−2で表してよい。
ステップS1312では、検索画像シーケンスにおける各フレームの第3の次元削減特徴ベクトル、候補画像シーケンスの自己表現特徴ベクトル及び検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、検索画像シーケンスの協同表現特徴ベクトルを取得する。
図9は本開示の実施例に係るターゲットのマッチング方法のステップS132の例示的なフローチャートを示す。図9に示すように、ステップS132にはステップS1321とステップS1322を含んでよい。
ステップS1321では、第3のサブニューラルネットワークの第3の全結合層によって候補画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、候補画像シーケンスにおける各フレームの第3の次元削減特徴ベクトルを取得する。
例えば、候補画像シーケンスにおける各フレームの第3の次元削減特徴ベクトルは
Figure 0006883710
で表してよく、ここで、
Figure 0006883710
は候補画像シーケンスにおけるr番目のフレームの第3の次元削減特徴ベクトルを表す。例えば、候補画像シーケンスにおける各フレームの第3の次元削減特徴ベクトルの次元数が128次元である。
ステップS1322では、候補画像シーケンスにおける各フレームの第3の次元削減特徴ベクトル、検索画像シーケンスの自己表現特徴ベクトル及び候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、候補画像シーケンスの協同表現特徴ベクトルを取得する。
図10は本開示の実施例に係るターゲットのマッチング方法のステップS1312の例示的なフローチャートを示す。図10に示すように、ステップS1312にはステップS13121とステップS13122を含んでよい。
ステップS13121では、パラメータレス相関関数によって検索画像シーケンスにおける各フレームの第3の次元削減特徴ベクトルと候補画像シーケンスの自己表現特徴ベクトルとの相関度を計算して、検索画像シーケンスにおける各フレームの第2の相関重みを取得する。
例えば、検索画像シーケンスにおけるt番目のフレームの第2の相関重みは
Figure 0006883710
で表してよい。
本開示の実施例は協同表現機構に基づいて、候補画像シーケンスの表現と検索画像シーケンス自身の表現によって検索画像シーケンスにおける各フレームに対して相関重み付けを施す。
ステップS13122では、検索画像シーケンスにおける各フレームの第2の相関重みに基づいて、検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、検索画像シーケンスの協同表現特徴ベクトルを取得する。
例えば、検索画像シーケンスの協同表現特徴ベクトルは
Figure 0006883710
で表してよい。
可能な一実施形態では、第2の相関重みは、第2の相関重みに対して正規化処理を行って得られた第2の正規化相関重みを含む。該実施形態では、検索画像シーケンスにおける各フレームの第2の相関重みに基づいて、検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、検索画像シーケンスの協同表現特徴ベクトルを取得するステップには、検索画像シーケンスにおける各フレームの第2の相関重みに対して正規化処理を行って、検索画像シーケンスにおける各フレームの第2の正規化相関重みを取得するステップと、検索画像シーケンスにおける各フレームの第2の正規化相関重みに基づいて、検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、検索画像シーケンスの協同表現特徴ベクトルを取得するステップと、を含む。
図11は本開示の実施例に係るターゲットのマッチング方法のステップS1322の例示的なフローチャートを示す。図11に示すように、ステップS1322にはステップS13221とステップS13222を含んでよい。
ステップS13221では、パラメータレス相関関数によって候補画像シーケンスにおける各フレームの第3の次元削減特徴ベクトルと検索画像シーケンスの自己表現特徴ベクトルとの相関度を計算して、候補画像シーケンスにおける各フレームの第2の相関重みを取得する。
例えば、候補画像シーケンスにおけるr番目のフレームの第2の相関重みは
Figure 0006883710
で表してよい。
本開示の実施例は協同表現機構に基づいて、検索画像シーケンスの表現と候補画像シーケンス自身の表現によって候補画像シーケンスにおける各フレームに対して相関重み付けを施す。
ステップS13222では、候補画像シーケンスにおける各フレームの第2の相関重みに基づいて、候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、候補画像シーケンスの協同表現特徴ベクトルを取得する。
例えば、候補画像シーケンスの協同表現特徴ベクトルは
Figure 0006883710
で表してよい。
可能な一実施形態では、第2の相関重みは、第2の相関重みに対して正規化処理を行って得られた第2の正規化相関重みを含む。該実施形態では、候補画像シーケンスにおける各フレームの第2の相関重みに基づいて、候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、候補画像シーケンスの協同表現特徴ベクトルを取得するステップには、候補画像シーケンスにおける各フレームの第2の相関重みに対して正規化処理を行って、候補画像シーケンスにおける各フレームの第2の正規化相関重みを取得するステップと、候補画像シーケンスにおける各フレームの第2の正規化相関重みに基づいて、候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、候補画像シーケンスの協同表現特徴ベクトルを取得するステップと、を含む。
本開示の実施例では、第2のサブニューラルネットワークと第3のサブニューラルネットワークは自己表現機構と協同表現機構に基づいて、検索画像シーケンスの表現と候補画像シーケンスの表現によって検索画像シーケンスにおける各フレームと候補画像シーケンスにおける各フレームに対して相関重み付けを施す。第2のサブニューラルネットワークと第3のサブニューラルネットワークはこのようなパラメータレス自己表現と協同表現によって、検索画像シーケンスと候補画像シーケンスのフレームを暗黙的に揃わせて、より判別的なフレームを選択して2つの画像シーケンスを表現する。第2のサブニューラルネットワークと第3のサブニューラルネットワークがパラメータレスのものであるので、検索画像シーケンスと候補画像シーケンスが異なる長さを有することが許容され、従って、本開示の実施例で提供されるターゲットのマッチング方法は、広範に活用可能である。
図12は本開示の実施例に係るターゲットのマッチング方法のステップS14の例示的なフローチャートを示す。図12に示すように、ステップS14にはステップS141〜ステップS143を含んでよい。
ステップS141では、検索画像シーケンスの自己表現特徴ベクトルと候補画像シーケンスの協同表現特徴ベクトルの差分を計算して、第1の差分ベクトルを取得する。
例えば、第1の差分ベクトルは
Figure 0006883710
である。
ステップS142では、候補画像シーケンスの自己表現特徴ベクトルと検索画像シーケンスの協同表現特徴ベクトルの差分を計算して、第2の差分ベクトルを取得する。
例えば、第2の差分ベクトルは
Figure 0006883710
である。
ステップS143では、第1の差分ベクトルと第2の差分ベクトルに基づいて、検索画像シーケンスと候補画像シーケンスの類似度特徴ベクトルを取得する。
可能な一実施形態では、第1の差分ベクトルと第2の差分ベクトルに基づいて、検索画像シーケンスと候補画像シーケンスの類似度特徴ベクトルを取得するステップには、第1の差分ベクトルと第2の差分ベクトルの和を計算して、検索画像シーケンスと候補画像シーケンスの類似度特徴ベクトルを取得するステップを含む。例えば、検索画像シーケンスと候補画像シーケンスの類似度特徴ベクトルは
Figure 0006883710
である。
別の可能な実施形態では、第1の差分ベクトルと第2の差分ベクトルに基づいて、検索画像シーケンスと候補画像シーケンスの類似度特徴ベクトルを取得するステップには、第1の差分ベクトルと第2の差分ベクトルとの対応位置の要素の積を計算して、検索画像シーケンスと候補画像シーケンスの類似度特徴ベクトルを取得するステップを含む。
図13は本開示の実施例に係るターゲットのマッチング方法のステップS15の例示的なフローチャートを示す。図13に示すように、ステップS15にはステップS151とステップS152を含んでよい。
ステップS151では、検索画像シーケンスと候補画像シーケンスの類似度特徴ベクトルを第4の全結合層に入力して、検索画像シーケンスと候補画像シーケンスのマッチングスコアを取得する。
例えば、第4の全結合層はfc−3で表してよい。
本開示の実施例では異なる全結合層のパラメータが異なってもよいことを説明する必要がある。第1の全結合層、第2の全結合層、第3の全結合層及び第4の全結合層は、説明の便宜上、「第1の」、「第2の」、「第3の」及び「第4の」として記載され、これらの4つの全結合層が異なる全結合層であってよいことを示す。「第1の」、「第2の」、「第3の」及び「第4の」は全結合層の結合順序を限定するためのものではない。
ステップS152では、検索画像シーケンスと候補画像シーケンスのマッチングスコアに基づいて、検索画像シーケンスと候補画像シーケンスのマッチング結果を決定する。
例えば、検索画像シーケンスと候補画像シーケンスのマッチングスコアがスコア閾値より大きい場合に、検索画像シーケンスと候補画像シーケンスのマッチング結果として検索画像シーケンスと候補画像シーケンスがマッチング可能であると決定することができ、検索画像シーケンスと候補画像シーケンスのマッチングスコアがスコア閾値以下である場合に、検索画像シーケンスと候補画像シーケンスのマッチング結果として検索画像シーケンスと候補画像シーケンスがマッチング不可能であると決定することができる。
可能な一実施形態では、検索画像シーケンスと候補画像シーケンスのマッチングスコアを取得するステップの後に、該方法は、検索画像シーケンスと候補画像シーケンスのマッチングスコアに基づいて、同一対のラベリングデータとバイナリ交差エントロピー損失関数を用いて、ネットワークパラメータを最適化するステップを更に含む。
該実施形態の例示的な一例として、
Figure 0006883710
を用いてネットワークパラメータを最適化することができる。ただし、Nはトレーニング集合における検索画像シーケンス候補画像シーケンスペアの数量を表し、
Figure 0006883710

Figure 0006883710
番目のペアのマッチングスコアを表し、
Figure 0006883710
番目の検索画像シーケンス候補画像シーケンスペアが同一な人物に属すれば、
Figure 0006883710
であり、反対に
Figure 0006883710
である。
本開示の実施例では、トレーニングプロセスにおいて、トレーニング画像シーケンスを分割して、豊富な検索画像シーケンス候補画像シーケンスペアを生成することができ、それによって最適化効率を効果的に高め、更にネットワークモデルのロバスト性を高めてマッチング精度を高めることができる。
図14は本開示の実施例に係るターゲットのマッチング方法の例示的なフローチャートを示す。図14に示すように、該方法は、ステップS21〜ステップS28を含んでよい。
ステップS21では、検索映像を複数の検索画像シーケンスに分割する。
可能な一実施形態では、検索映像を複数の検索画像シーケンスに分割するステップには、所定シーケンス長及び所定ステップ長により、検索映像を複数の検索画像シーケンスに分割するステップを含み、ここで、検索画像シーケンス長が所定シーケンス長に等しく、隣接する検索画像シーケンスの間の重畳画像数が所定シーケンス長と所定ステップ長の差分に等しい。
ステップS22では、候補映像を複数の候補画像シーケンスに分割する。
可能な一実施形態では、候補映像を複数の候補画像シーケンスに分割するステップには、所定シーケンス長及び所定ステップ長により、候補映像を複数の候補画像シーケンスに分割するステップを含み、ここで、候補画像シーケンス長が所定シーケンス長に等しく、隣接する候補画像シーケンスの間の重畳画像数が所定シーケンス長と所定ステップ長の差分に等しい。
ステップS23では、マッチング待ちターゲットを含む検索画像シーケンスにおける各フレームの特徴ベクトルと、候補画像シーケンスにおける各フレームの特徴ベクトルをそれぞれ抽出する。
ここで、ステップS23については、以上のステップS11の説明を参照する。
ステップS24では、それぞれ検索画像シーケンスにおける各フレームの特徴ベクトルと候補画像シーケンスにおける各フレームの特徴ベクトルに基づいて、検索画像シーケンスの自己表現特徴ベクトルと候補画像シーケンスの自己表現特徴ベクトルを決定する。
ここで、ステップS24については、以上のステップS12の説明を参照する。
ステップS25では、検索画像シーケンスにおける各フレームの特徴ベクトルと候補画像シーケンスの自己表現特徴ベクトルに基づいて、検索画像シーケンスの協同表現特徴ベクトルを決定し、候補画像シーケンスにおける各フレームの特徴ベクトルと検索画像シーケンスの自己表現特徴ベクトルに基づいて、候補画像シーケンスの協同表現特徴ベクトルを決定する。
ここで、ステップS25については、以上のステップS13の説明を参照する。
ステップS26では、検索画像シーケンスの自己表現特徴ベクトル、検索画像シーケンスの協同表現特徴ベクトル、候補画像シーケンスの自己表現特徴ベクトル及び候補画像シーケンスの協同表現特徴ベクトルに基づいて、検索画像シーケンスと候補画像シーケンスの類似度特徴ベクトルを決定する。
ここで、ステップS26については、以上のステップS14の説明を参照する。
ステップS27では、類似度特徴ベクトルに基づいて、検索画像シーケンスと候補画像シーケンスのマッチング結果を決定する。
ここで、ステップS27については、以上のステップS15の説明を参照する。
ステップS28では、検索映像の検索画像シーケンスと候補映像の候補画像シーケンスのマッチング結果に基づいて、検索映像と候補映像のマッチング結果を決定する。
図15は本開示の実施例に係るターゲットのマッチング方法のステップS28の例示的なフローチャートを示す。図15に示すように、ステップS28にはステップS281〜ステップS283を含んでよい。
ステップS281では、検索映像の各検索画像シーケンスと候補映像の各候補画像シーケンスのマッチングスコアを決定する。
ステップS282では、検索映像の各検索画像シーケンスと候補映像の各候補画像シーケンスのマッチングスコアのうちの最高のN個のマッチングスコアの平均値を計算して、検索映像と候補映像のマッチングスコアを取得し、Nが正整数である。
ステップS283では、検索映像と候補映像のマッチングスコアに基づいて、検索映像と候補映像のマッチング結果を決定する。
可能な一実施形態では、検索映像と候補映像のマッチングスコアがスコア閾値より大きい場合に、検索映像と候補映像のマッチング結果として検索映像と候補映像がマッチング可能であると決定することができ、検索映像と候補映像のマッチングスコアがスコア閾値以下である場合に、検索映像と候補映像のマッチング結果として検索映像と候補映像がマッチング不可能であると決定することができる。
本開示の実施例で提供されるターゲットのマッチング方法は、画像シーケンスにおける判別性がより高いキーフレームを選び出し、複数のキーフレームを用いて画像シーケンスを表現することができ、それによって判別能力を高めることができ、本開示の実施例は、より効果的な時間領域モデル化方法を提供して、連続フレームの動的変化情報を捕獲して、モデルの表現能力を高めることができ、本開示の実施例は、より効果的な距離測定方法を提供して、同じ人物の特徴表現間の距離を低減し、異なる人物の特徴表現間の距離を増大することができた。本開示の実施例で提供されるターゲットのマッチング方法は、光照射条件が悪く、遮蔽度が高く、視角が悪く、又は背景障害がひどい場合にも、正確なターゲットのマッチング結果を取得することができる。本開示の実施例を利用すれば、通行人検出及び/又は通行人追跡の効果の改善に貢献することができる。本開示の実施例を利用すれば、インテリジェントビデオ監視で特定の通行人(例えば、犯罪容疑者、迷子等)を複数のカメラにわたってより望ましく捜索したり、追跡することができる。
本開示で言及される上記各方法の実施例は、原理と論理に違反しない限り、相互に組み合わせて、組合せ後の実施例を形成することができることが理解され、紙数に限りがあるので、本開示では詳細な説明を省略する。
また、本開示はターゲットのマッチング装置、電子機器、コンピュータ可読記憶媒体及びプログラムを更に提供し、それらはいずれも本開示で提供されるいずれか1種のターゲットのマッチング方法を実現するために利用可能であり、それに対応する技術手段及び説明については方法部分に対応する記載を参照してよく、ここで省略する。
図16は本開示の実施例に係るターゲットのマッチング装置のブロック図を示す。図16に示すように、該装置は、マッチング待ちターゲットを含む検索画像シーケンスにおける各フレームの特徴ベクトルと、候補画像シーケンスにおける各フレームの特徴ベクトルをそれぞれ抽出するための抽出モジュール31と、それぞれ検索画像シーケンスにおける各フレームの特徴ベクトルと候補画像シーケンスにおける各フレームの特徴ベクトルに基づいて、検索画像シーケンスの自己表現特徴ベクトルと候補画像シーケンスの自己表現特徴ベクトルを決定するための第1の決定モジュール32と、検索画像シーケンスにおける各フレームの特徴ベクトルと候補画像シーケンスの自己表現特徴ベクトルに基づいて、検索画像シーケンスの協同表現特徴ベクトルを決定し、候補画像シーケンスにおける各フレームの特徴ベクトルと検索画像シーケンスの自己表現特徴ベクトルに基づいて、候補画像シーケンスの協同表現特徴ベクトルを決定するための第2の決定モジュール33と、検索画像シーケンスの自己表現特徴ベクトル、検索画像シーケンスの協同表現特徴ベクトル、候補画像シーケンスの自己表現特徴ベクトル及び候補画像シーケンスの協同表現特徴ベクトルに基づいて、検索画像シーケンスと候補画像シーケンスの類似度特徴ベクトルを決定するための第3の決定モジュール34と、類似度特徴ベクトルに基づいて、検索画像シーケンスと候補画像シーケンスのマッチング結果を決定するための第4の決定モジュール35と、を含む。
可能な一実施形態では、抽出モジュール31は、第1のサブニューラルネットワークによって検索画像シーケンスにおける各フレームの特徴ベクトルと候補画像シーケンスにおける各フレームの特徴ベクトルを抽出するために用いられる。
図17は本開示の実施例に係るターゲットのマッチング装置の例示的なブロック図を示す。図17に示すように、
可能な一実施形態では、該装置は、第1のサブニューラルネットワークの第1の全結合層によって検索画像シーケンスにおける各フレームの特徴ベクトルと候補画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルと候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルを取得するための次元削減モジュール36を更に含む。
可能な一実施形態では、第1の決定モジュール32は、検索画像シーケンスにおける各フレームの特徴ベクトルと検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルを第2のサブニューラルネットワークに入力して、検索画像シーケンスの自己表現特徴ベクトルを決定するための第1の決定サブモジュール321と、候補画像シーケンスにおける各フレームの特徴ベクトルと候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルを第2のサブニューラルネットワークに入力して、候補画像シーケンスの自己表現特徴ベクトルを決定するための第2の決定サブモジュール322と、を含む。
可能な一実施形態では、第1の決定サブモジュール321は、第2のサブニューラルネットワークの第2の全結合層によって検索画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、検索画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルを取得するための第1の次元削減ユニットと、検索画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルに対して時間次元の平均プーリング処理を行って、検索画像シーケンスの全体的特徴ベクトルを取得するための第1の平均プーリングユニットと、検索画像シーケンスにおける各フレームの第2の次元削減特徴ベクトル、検索画像シーケンスの全体的特徴ベクトル及び検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、検索画像シーケンスの自己表現特徴ベクトルを決定するための第1の決定ユニットと、を含む。
可能な一実施形態では、第2の決定サブモジュール322は、第2のサブニューラルネットワークの第2の全結合層によって候補画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、候補画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルを取得するための第2の次元削減ユニットと、候補画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルに対して時間次元の平均プーリング処理を行って、候補画像シーケンスの全体的特徴ベクトルを取得するための第2の平均プーリングユニットと、候補画像シーケンスにおける各フレームの第2の次元削減特徴ベクトル、候補画像シーケンスの全体的特徴ベクトル及び候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、候補画像シーケンスの自己表現特徴ベクトルを決定するための第2の決定ユニットと、を含む。
可能な一実施形態では、第1の決定ユニットは、パラメータレス相関関数によって検索画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルと検索画像シーケンスの全体的特徴ベクトルとの相関度を計算して、検索画像シーケンスにおける各フレームの第1の相関重みを取得するための第1の計算サブユニットと、検索画像シーケンスにおける各フレームの第1の相関重みに基づいて、検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、検索画像シーケンスの自己表現特徴ベクトルを取得するための第1の重み付けサブユニットと、を含む。
可能な一実施形態では、第2の決定ユニットは、パラメータレス相関関数によって候補画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルと候補画像シーケンスの全体的特徴ベクトルとの相関度を計算して、候補画像シーケンスにおける各フレームの第1の相関重みを取得するための第2の計算サブユニットと、候補画像シーケンスにおける各フレームの第1の相関重みに基づいて、候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、候補画像シーケンスの自己表現特徴ベクトルを取得するための第2の重み付けサブユニットと、を含む。
可能な一実施形態では、第1の相関重みは、第1の相関重みに対して正規化処理を行って得られた第1の正規化相関重みを含む。
可能な一実施形態では、第2の決定モジュール33は、検索画像シーケンスにおける各フレームの特徴ベクトル、検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトル及び候補画像シーケンスの自己表現特徴ベクトルを第3のサブニューラルネットワークに入力して、検索画像シーケンスの協同表現特徴ベクトルを取得するための第3の決定サブモジュール331と、候補画像シーケンスにおける各フレームの特徴ベクトル、候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトル及び検索画像シーケンスの自己表現特徴ベクトルを第3のサブニューラルネットワークに入力して、候補画像シーケンスの協同表現特徴ベクトルを取得するための第4の決定サブモジュール332と、を含む。
可能な一実施形態では、第3の決定サブモジュール331は、第3のサブニューラルネットワークの第3の全結合層によって検索画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、検索画像シーケンスにおける各フレームの第3の次元削減特徴ベクトルを取得するための第3の次元削減ユニットと、検索画像シーケンスにおける各フレームの第3の次元削減特徴ベクトル、候補画像シーケンスの自己表現特徴ベクトル及び検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、検索画像シーケンスの協同表現特徴ベクトルを取得するための第3の決定ユニットと、を含み、第4の決定サブモジュール332は、第3のサブニューラルネットワークの第3の全結合層によって候補画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、候補画像シーケンスにおける各フレームの第3の次元削減特徴ベクトルを取得するための第4の次元削減ユニットと、候補画像シーケンスにおける各フレームの第3の次元削減特徴ベクトル、検索画像シーケンスの自己表現特徴ベクトル及び候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、候補画像シーケンスの協同表現特徴ベクトルを取得するための第4の決定ユニットと、を含む。
可能な一実施形態では、第3の決定ユニットは、パラメータレス相関関数によって検索画像シーケンスにおける各フレームの第3の次元削減特徴ベクトルと候補画像シーケンスの自己表現特徴ベクトルとの相関度を計算して、検索画像シーケンスにおける各フレームの第2の相関重みを取得するための第3の計算サブユニットと、検索画像シーケンスにおける各フレームの第2の相関重みに基づいて、検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、検索画像シーケンスの協同表現特徴ベクトルを取得するための第3の重み付けサブユニットと、を含む。
可能な一実施形態では、第4の決定ユニットは、パラメータレス相関関数によって候補画像シーケンスにおける各フレームの第3の次元削減特徴ベクトルと検索画像シーケンスの自己表現特徴ベクトルとの相関度を計算して、候補画像シーケンスにおける各フレームの第2の相関重みを取得するための第4の計算サブユニットと、候補画像シーケンスにおける各フレームの第2の相関重みに基づいて、候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、候補画像シーケンスの協同表現特徴ベクトルを取得するための第4の重み付けサブユニットと、を含む。
可能な一実施形態では、第2の相関重みは、第2の相関重みに対して正規化処理を行って得られた第2の正規化相関重みを含む。
可能な一実施形態では、第3の決定モジュール34は、検索画像シーケンスの自己表現特徴ベクトルと候補画像シーケンスの協同表現特徴ベクトルの差分を計算して、第1の差分ベクトルを取得するための第1の計算サブモジュール341と、候補画像シーケンスの自己表現特徴ベクトルと検索画像シーケンスの協同表現特徴ベクトルの差分を計算して、第2の差分ベクトルを取得するための第2の計算サブモジュール342と、第1の差分ベクトルと第2の差分ベクトルに基づいて、検索画像シーケンスと候補画像シーケンスの類似度特徴ベクトルを取得するための第5の決定サブモジュール343と、を含む。
可能な一実施形態では、第5の決定サブモジュール343は、第1の差分ベクトルと第2の差分ベクトルの和を計算して、検索画像シーケンスと候補画像シーケンスの類似度特徴ベクトルを取得するための第1の計算ユニット、又は、第1の差分ベクトルと第2の差分ベクトルとの対応位置の要素の積を計算して、検索画像シーケンスと候補画像シーケンスの類似度特徴ベクトルを取得するための第2の計算ユニットを含む。
可能な一実施形態では、第4の決定モジュール35は、検索画像シーケンスと候補画像シーケンスの類似度特徴ベクトルを第4の全結合層に入力して、検索画像シーケンスと候補画像シーケンスのマッチングスコアを取得するための第6の決定サブモジュール351と、検索画像シーケンスと候補画像シーケンスのマッチングスコアに基づいて、検索画像シーケンスと候補画像シーケンスのマッチング結果を決定するための第7の決定サブモジュール352と、を含む。
可能な一実施形態では、該装置は、検索画像シーケンスと候補画像シーケンスのマッチングスコアに基づいて、同一対のラベリングデータとバイナリ交差エントロピー損失関数を用いて、ネットワークパラメータを最適化するための最適化モジュール37を更に含む。
可能な一実施形態では、該装置は、検索映像を複数の検索画像シーケンスに分割するための第1の分割モジュール38と、候補映像を複数の候補画像シーケンスに分割するための第2の分割モジュール39と、検索映像の検索画像シーケンスと候補映像の候補画像シーケンスのマッチング結果に基づいて、検索映像と候補映像のマッチング結果を決定するための第5の決定モジュール30と、を更に含む。
可能な一実施形態では、第1の分割モジュール38は、所定シーケンス長及び所定ステップ長により、検索映像を複数の検索画像シーケンスに分割するために用いられ、ここで、検索画像シーケンス長が所定シーケンス長に等しく、隣接する検索画像シーケンスの間の重畳画像数が所定シーケンス長と所定ステップ長の差分に等しく、第2の分割モジュール39は、所定シーケンス長及び所定ステップ長により、候補映像を複数の候補画像シーケンスに分割するために用いられ、ここで、候補画像シーケンス長が所定シーケンス長に等しく、隣接する候補画像シーケンスの間の重畳画像数が所定シーケンス長と所定ステップ長の差分に等しい。
可能な一実施形態では、第5の決定モジュール30は、検索映像の各検索画像シーケンスと候補映像の各候補画像シーケンスのマッチングスコアを決定するための第8の決定サブモジュール301と、検索映像の各検索画像シーケンスと候補映像の各候補画像シーケンスのマッチングスコアのうちの最高のN個のマッチングスコアの平均値を計算して、検索映像と候補映像のマッチングスコアを取得するために用いられ、Nが正整数である第3の計算サブモジュール302と、検索映像と候補映像のマッチングスコアに基づいて、検索映像と候補映像のマッチング結果を決定するための第9の決定サブモジュール303と、を含む。
本開示の実施例は、検索画像シーケンスの自己表現特徴ベクトル、検索画像シーケンスの協同表現特徴ベクトル、候補画像シーケンスの自己表現特徴ベクトル及び候補画像シーケンスの協同表現特徴ベクトルに基づいて、検索画像シーケンスと候補画像シーケンスの類似度特徴ベクトルを決定し、類似度特徴ベクトルに基づいて、検索画像シーケンスと候補画像シーケンスのマッチング結果を決定することによって、ターゲットのマッチングの正確性を高めることができる。
本開示の実施例は、コンピュータプログラムコマンドを記憶したコンピュータ可読記憶媒体であって、前記コンピュータプログラムコマンドがプロセッサにより実行される時に上記方法が実現されるコンピュータ可読記憶媒体を更に提供する。コンピュータ可読記憶媒体は非揮発性コンピュータ可読記憶媒体であってよい。
本開示の実施例は、上記方法を実行するように構成されるプロセッサと、プロセッサでの実行可能コマンドを記憶するためのメモリと、を含む電子機器を更に提供する。
電子機器は、端末、サーバ又は他の形態の機器として提供されてもよい。
図18は例示的な一実施例に基づいて示される電子機器800のブロック図である。例えば、電子機器800は携帯電話、コンピュータ、デジタル放送端末、メッセージ送受信装置、ゲームコンソール、タブレット装置、医療機器、フィットネス器具、パーソナル・デジタル・アシスタント等の端末であってよい。
図18を参照すると、電子機器800は処理コンポーネント802、メモリ804、電源コンポーネント806、マルチメディアコンポーネント808、オーディオコンポーネント810、入力/出力(I/O)インターフェイス812、センサコンポーネント814、および通信コンポーネント816の一つ以上を含むことができる。
処理コンポーネント802は通常、電子機器800の全体的な動作、例えば表示、電話の呼び出し、データ通信、カメラ動作および記録動作に関連する動作を制御する。処理コンポーネント802は、上記方法の全てまたは一部のステップを完了するために、一つ以上のプロセッサ820を含んで命令を実行することができる。また、処理コンポーネント802は、他のコンポーネントとの対話のために、一つ以上のモジュールを含むことができる。例えば、処理コンポーネント802は、マルチメディアコンポーネント808との対話のために、マルチメディアモジュールを含むことができる。
メモリ804は電子機器800での動作をサポートするために様々なタイプのデータを記憶するように構成される。これらのデータの例は電子機器800において運用するためのあらゆるアプリケーションプログラムまたは方法の命令、連絡先データ、電話帳データ、メッセージ、ピクチャー、ビデオなどを含む。メモリ804は、例えば静的ランダムアクセスメモリ(SRAM)、電気的消去可能プログラマブル読み取り専用メモリ(EEPROM)、消去可能なプログラマブル読み取り専用メモリ(EPROM)、プログラマブル読み取り専用メモリ(PROM)、読み取り専用メモリ(ROM)、磁気メモリ、フラッシュメモリ、磁気ディスクまたは光ディスクなどの様々なタイプの揮発性または非揮発性記憶機器またはそれらの組み合わせによって実現できる。
電源コンポーネント806は電子機器800の各コンポーネントに電力を供給する。電源コンポーネント806は電源管理システム、一つ以上の電源、および電子機器800のための電力生成、管理および配分に関連する他のコンポーネントを含むことができる。
マルチメディアコンポーネント808は前記電子機器800とユーザとの間で出力インターフェイスを提供する画面を含む。いくつかの実施例では、画面は液晶ディスプレイ(LCD)およびタッチパネル(TP)を含むことができる。画面がタッチパネルを含む場合、ユーザからの入力信号を受信するために、タッチ画面として実現してもよい。タッチパネルは、タッチ、スライドおよびタッチパネルでのジェスチャを検知するために、一つ以上のタッチセンサを含む。前記タッチセンサはタッチまたはスライド動きの境界を検知するのみならず、前記タッチまたはスライド操作に関連する持続時間および圧力を検出することもできる。いくつかの実施例では、マルチメディアコンポーネント808は前面カメラおよび/または後面カメラを含む。電子機器800が動作モード、例えば撮影モードまたは撮像モードになる場合、前面カメラおよび/または後面カメラは外部のマルチメディアデータを受信することができる。各前面カメラおよび後面カメラは固定された光学レンズ系または焦点距離および光学ズーム能力を有するものであってもよい。
オーディオコンポーネント810はオーディオ信号を出力および/または入力するように構成される。例えば、オーディオコンポーネント810は、電子機器800が動作モード、例えば呼び出しモード、記録モードおよび音声認識モードになる場合、外部のオーディオ信号を受信するように構成されたマイク(MIC)を含む。受信されたオーディオ信号はさらにメモリ804に記憶されるか、または通信コンポーネント816によって送信されてもよい。いくつかの実施例では、オーディオコンポーネント810はさらに、オーディオ信号を出力するためのスピーカーを含む。
I/Oインターフェイス812は処理コンポーネント802と周辺インターフェイスモジュールとの間でインターフェイスを提供し、上記周辺インターフェイスモジュールはキーボード、クリックホイール、ボタンなどであってもよい。これらのボタンはホームボタン、音量ボタン、スタートボタンおよびロックボタンを含むことができるが、これらに限定されない。
センサコンポーネント814は電子機器800に各面での状態評価を提供するための一つ以上のセンサを含む。例えば、センサコンポーネント814は電子機器800のオン/オフ状態、コンポーネントの相対的位置決め、例えば前記コンポーネントが電子機器800の表示装置およびキーパッドであることを検出でき、センサコンポーネント814はさらに、電子機器800または電子機器800のあるコンポーネントの位置の変化、ユーザと電子機器800との接触の有無、電子機器800の方位または加減速および電子機器800の温度変化を検出できる。センサコンポーネント814は、いかなる物理的接触もない場合に近傍の物体の存在を検出するために用いられるように構成された近接センサを含む。センサコンポーネント814はさらに、CMOS又はCCDイメージセンサのような、イメージングアプリケーションにおいて使用するための光センサを含むことができる。いくつかの実施例では、該センサコンポーネント814はさらに、加速度センサ、ジャイロスコープセンサ、磁気センサ、圧力センサまたは温度センサを含むことができる。
通信コンポーネント816は電子機器800と他の機器との間の有線または無線通信を実現するように配置される。電子機器800は通信規格に基づく無線ネットワーク、例えばWiFi、2Gまたは3G、またはそれらの組み合わせにアクセスできる。一例示的実施例では、通信コンポーネント816は放送チャネルによって外部の放送管理システムの放送信号または放送関連情報を受信する。一例示的実施例では、前記通信コンポーネント816はさらに、近距離通信を促進させるために、近距離無線通信(NFC)モジュールを含む。例えば、NFCモジュールでは無線周波数識別(RFID)技術、赤外線データ協会(IrDA)技術、超広帯域(UWB)技術、ブルートゥース(BT)技術および他の技術によって実現できる。
例示的な実施例では、電子機器800は一つ以上の特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)、デジタル信号処理デバイス(DSPD)、プログラマブルロジックデバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)、コントローラ、マイクロコントローラ、マイクロプロセッサまたは他の電子要素によって実現し、上記方法を実行するために用いることができる。
例示的な実施例では、さらに、非揮発性コンピュータ読み取り可能記憶媒体、例えばコンピュータプログラム命令を含むメモリ804が提供され、上記コンピュータプログラム命令は電子機器800のプロセッサ820によって実行して上記方法を完了することができる。
図19は一例示的実施例により示された電子機器1900のブロック図である。例えば、電子機器1900はサーバとして提供できる。図19を参照すると、電子機器1900は、さらに一つ以上のプロセッサを含む処理コンポーネント1922、および、処理コンポーネント1922によって実行可能な命令、例えばアプリケーションプログラムを記憶するための、メモリ1932を代表とするメモリ資源を含む。メモリ1932に記憶されたアプリケーションプログラムはそれぞれが1グループの命令に対応する一つ以上のモジュールを含むことができる。また、処理コンポーネント1922は命令を実行し、それによって上記方法を実行するように構成される。
電子機器1900はさらに、電子機器1900の電源管理を実行するように構成された電源コンポーネント1926、電子機器1900をネットワークにアクセスするように構成された有線または無線ネットワークインターフェイス1950、および入出力(I/O)インターフェイス1958を含むことができる。電子機器1900はメモリ1932に記憶されたオペレーティングシステム、例えばWindows ServerTM、Mac OS XTM、UnixTM、LinuxTM、FreeBSDTMまたは類似するものに基づいて動作できる。
例示的な実施例では、さらに、非揮発性コンピュータ読み取り可能記憶媒体、例えばコンピュータプログラム命令を含むメモリ1932が提供され、上記コンピュータプログラム命令は電子機器1900の処理コンポーネント1922によって実行して上記方法を完了することができる。
本開示はシステム、方法および/またはコンピュータプログラム製品であってもよい。コンピュータプログラム製品はプロセッサに本開示の各態様を実現させるためのコンピュータ読み取り可能プログラム命令がロードされているコンピュータ読み取り可能記憶媒体を含むことができる。
コンピュータ読み取り可能記憶媒体は命令実行機器により使用される命令を保存および記憶可能な有形機器であってもよい。コンピュータ読み取り可能記憶媒体は例えば、電気記憶装置、磁気記憶装置、光記憶装置、電磁記憶装置、半導体記憶装置または上記の任意の適当な組み合わせであってもよいが、これらに限定されない。コンピュータ読み取り可能記憶媒体のさらに具体的な例(非包括的リスト)としては、携帯型コンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROMまたはフラッシュメモリ)、静的ランダムアクセスメモリ(SRAM)、携帯型コンパクトディスク読み取り専用メモリ(CD−ROM)、デジタル多用途ディスク(DVD)、メモリスティック、フロッピーディスク、機械的符号化装置、例えば命令が記憶されているせん孔カードまたはスロット内突起構造、および上記の任意の適当な組み合わせを含む。ここで使用されるコンピュータ読み取り可能記憶媒体は瞬時信号自体、例えば無線電波または他の自由に伝播される電磁波、導波路または他の伝送媒体を経由して伝播される電磁波(例えば、光ファイバーケーブルを通過するパルス光)、または電線を経由して伝送される電気信号と解釈されるものではない。
ここで記述したコンピュータ読み取り可能プログラム命令はコンピュータ読み取り可能記憶媒体から各計算/処理機器にダウンロードされてもよいし、またはネットワーク、例えばインターネット、ローカルエリアネットワーク、広域ネットワークおよび/または無線ネットワークによって外部のコンピュータまたは外部記憶装置にダウンロードされてもよい。ネットワークは銅伝送ケーブル、光ファイバー伝送、無線伝送、ルーター、ファイアウォール、交換機、ゲートウェイコンピュータおよび/またはエッジサーバを含むことができる。各計算/処理機器内のネットワークアダプタカードまたはネットワークインターフェイスはネットワークからコンピュータ読み取り可能プログラム命令を受信し、該コンピュータ読み取り可能プログラム命令を転送し、各計算/処理機器内のコンピュータ読み取り可能記憶媒体に記憶する。
本開示の動作を実行するためのコンピュータプログラム命令はアセンブラ命令、命令セットアーキテクチャ(ISA)命令、機械語命令、機械依存命令、マイクロコード、ファームウェア命令、状態設定データ、またはSmalltalk、C++などのオブジェクト指向プログラミング言語、および「C」言語または類似するプログラミング言語などの一般的な手続き型プログラミング言語を含む一つ以上のプログラミング言語の任意の組み合わせで書かれたソースコードまたは目標コードであってもよい。コンピュータ読み取り可能プログラム命令は、完全にユーザのコンピュータにおいて実行されてもよく、部分的にユーザのコンピュータにおいて実行されてもよく、スタンドアロンソフトウェアパッケージとして実行されてもよく、部分的にユーザのコンピュータにおいてかつ部分的にリモートコンピュータにおいて実行されてもよく、または完全にリモートコンピュータもしくはサーバにおいて実行されてもよい。リモートコンピュータに関与する場合、リモートコンピュータは、ローカルエリアネットワーク(LAN)または広域ネットワーク(WAN)を含む任意の種類のネットワークを経由してユーザのコンピュータに接続されてもよく、または、(例えばインターネットサービスプロバイダを利用してインターネットを経由して)外部コンピュータに接続されてもよい。いくつかの実施例では、コンピュータ読み取り可能プログラム命令の状態情報を利用して、例えばプログラマブル論理回路、フィールドプログラマブルゲートアレイ(FPGA)またはプログラマブル論理アレイ(PLA)などの電子回路をパーソナライズすることで、該電子回路はコンピュータ読み取り可能プログラム命令を実行し、それにより本開示の各態様を実現できるようになる。
なお、ここで本開示の実施例に係る方法、装置(システム)およびコンピュータプログラム製品のフローチャートおよび/またはブロック図を参照しながら本開示の各態様を説明しが、フローチャートおよび/またはブロック図の各ブロックおよびフローチャートおよび/またはブロック図の各ブロックの組み合わせは、いずれもコンピュータ読み取り可能プログラム命令によって実現できることを理解すべきである。
これらのコンピュータ読み取り可能プログラム命令は、機械を製造するために、共通コンピュータ、専用コンピュータまたは他のプログラマブルデータ処理装置のプロセッサへ提供されてもよく、それにより、これらの命令はコンピュータまたは他のプログラマブルデータ処理装置のプロセッサによって実行され、フローチャートおよび/またはブロック図の一つ以上のブロックにおいて指定された機能/動作を実現する手段を創出する。また、これらのコンピュータ読み取り可能プログラム命令は、コンピュータ読み取り可能記憶媒体に記憶し、それによってコンピュータ、プログラマブルデータ処理装置および/または他の機器を特定の方式で動作させるようにしてもよく、それにより、中に保存された命令を有するコンピュータ読み取り可能記憶媒体は、フローチャートおよび/またはブロック図の一つ以上のブロックにおいて指定された機能/動作の各態様を実現する命令を含む製品を備える。
コンピュータ読み取り可能プログラムはコンピュータ、他のプログラマブルデータ処理装置、または他の機器にロードすることにより、コンピュータ実施プロセスを生成するように、コンピュータ、他のプログラマブルデータ処理装置または他の機器において一連の動作ステップを実行させるようにしてもよく、それにより、コンピュータ、他のプログラマブルデータ処理装置、または他の機器において実行される命令はフローチャートおよび/またはブロック図の一つ以上のブロックにおいて指定された機能/動作を実現する。
図面のうちフローチャートおよびブロック図は本開示の複数の実施例に係るシステム、方法およびコンピュータプログラム製品の実現可能なシステムアーキテクチャ、機能および動作を示す。この点では、フローチャートまたはブロック図における各ブロックは一つのモジュール、プログラムセグメントまたは命令の一部分を代表することができ、前記モジュール、プログラムセグメントまたは命令の一部分は指定された論理機能を実現するための一つ以上の実行可能命令を含む。いくつかの置換としての実現形態では、ブロックに表記される機能は図面に付したものと異なる順序で実現してもよい。例えば、二つの連続的なブロックは実質的に同時に実行してもよく、また、係る機能によって、それらは逆な順序で実行してもよい場合がある。なお、ブロック図および/またはフローチャートにおける各ブロック、およびブロック図および/またはフローチャートにおけるブロックの組み合わせは、指定される機能または動作を実行するハードウェアに基づく専用システムによって実現してもよいし、または専用ハードウェアとコンピュータ命令との組み合わせによって実現してもよいことに注意すべきである。
以上、本開示の各実施例を記述したが、上記説明は例示的なものに過ぎず、網羅的なものではなく、かつ披露された各実施例に限定されるものでもない。当業者にとって、説明された各実施例の範囲および精神から逸脱することなく、様々な修正および変更が自明である。本明細書に選ばれた用語は、各実施例の原理、実際の適用または市場における技術への技術的改善を好適に解釈するか、または他の当業者に本文に披露された各実施例を理解させるためのものである。

Claims (24)

  1. マッチング待ちターゲットを含む検索画像シーケンスにおける各フレームの特徴ベクトルと、候補画像シーケンスにおける各フレームの特徴ベクトルをそれぞれ抽出するステップと、
    前記検索画像シーケンスにおける各フレームの特徴ベクトルと前記候補画像シーケンスにおける各フレームの特徴ベクトルのそれぞれに基づいて、前記検索画像シーケンスの自己表現特徴ベクトルと前記候補画像シーケンスの自己表現特徴ベクトルを決定するステップと、
    前記検索画像シーケンスにおける各フレームの特徴ベクトルと前記候補画像シーケンスの自己表現特徴ベクトルに基づいて、前記検索画像シーケンスの協同表現特徴ベクトルを決定し、前記候補画像シーケンスにおける各フレームの特徴ベクトルと前記検索画像シーケンスの自己表現特徴ベクトルに基づいて、前記候補画像シーケンスの協同表現特徴ベクトルを決定するステップと、
    前記検索画像シーケンスの自己表現特徴ベクトル、前記検索画像シーケンスの協同表現特徴ベクトル、前記候補画像シーケンスの自己表現特徴ベクトル及び前記候補画像シーケンスの協同表現特徴ベクトルに基づいて、前記検索画像シーケンスと前記候補画像シーケンスの類似度特徴ベクトルを決定するステップと、
    前記類似度特徴ベクトルに基づいて、前記検索画像シーケンスと前記候補画像シーケンスのマッチング結果を決定するステップと、を含むことを特徴とするターゲットのマッチング方法。
  2. 検索画像シーケンスにおける各フレームの特徴ベクトルと、候補画像シーケンスにおける各フレームの特徴ベクトルをそれぞれ抽出するステップには、
    第1のサブニューラルネットワークによって検索画像シーケンスにおける各フレームの特徴ベクトルと候補画像シーケンスにおける各フレームの特徴ベクトルを抽出するステップを含むことを特徴とする請求項1に記載の方法。
  3. 検索画像シーケンスにおける各フレームの特徴ベクトルと候補画像シーケンスにおける各フレームの特徴ベクトルを抽出するステップの後に、
    第1のサブニューラルネットワークの第1の全結合層によって前記検索画像シーケンスにおける各フレームの特徴ベクトルと前記候補画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルと前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルを取得するステップを更に含むことを特徴とする請求項1又は2に記載の方法。
  4. 前記検索画像シーケンスにおける各フレームの特徴ベクトルと前記候補画像シーケンスにおける各フレームの特徴ベクトルのそれぞれに基づいて、前記検索画像シーケンスの自己表現特徴ベクトルと前記候補画像シーケンスの自己表現特徴ベクトルを決定するステップには、
    前記検索画像シーケンスにおける各フレームの特徴ベクトルと前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルを第2のサブニューラルネットワークに入力して、前記検索画像シーケンスの自己表現特徴ベクトルを決定するステップと、
    前記候補画像シーケンスにおける各フレームの特徴ベクトルと前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルを第2のサブニューラルネットワークに入力して、前記候補画像シーケンスの自己表現特徴ベクトルを決定するステップと、を含むことを特徴とする請求項3に記載の方法。
  5. 前記検索画像シーケンスにおける各フレームの特徴ベクトルと前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルを第2のサブニューラルネットワークに入力して、前記検索画像シーケンスの自己表現特徴ベクトルを決定するステップには、
    前記第2のサブニューラルネットワークの第2の全結合層によって前記検索画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、前記検索画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルを取得するステップと、
    前記検索画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルに対して時間次元の平均プーリング処理を行って、前記検索画像シーケンスの全体的特徴ベクトルを取得するステップと、
    前記検索画像シーケンスにおける各フレームの第2の次元削減特徴ベクトル、前記検索画像シーケンスの全体的特徴ベクトル及び前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、前記検索画像シーケンスの自己表現特徴ベクトルを決定するステップと、を含むことを特徴とする請求項4に記載の方法。
  6. 前記候補画像シーケンスにおける各フレームの特徴ベクトルと前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルを第2のサブニューラルネットワークに入力して、前記候補画像シーケンスの自己表現特徴ベクトルを取得するステップには、
    前記第2のサブニューラルネットワークの第2の全結合層によって前記候補画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、前記候補画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルを取得するステップと、
    前記候補画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルに対して時間次元の平均プーリング処理を行って、前記候補画像シーケンスの全体的特徴ベクトルを取得するステップと、
    前記候補画像シーケンスにおける各フレームの第2の次元削減特徴ベクトル、前記候補画像シーケンスの全体的特徴ベクトル及び前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、前記候補画像シーケンスの自己表現特徴ベクトルを決定するステップと、を含むことを特徴とする請求項4に記載の方法。
  7. 前記検索画像シーケンスにおける各フレームの第2の次元削減特徴ベクトル、前記検索画像シーケンスの全体的特徴ベクトル及び前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、前記検索画像シーケンスの自己表現特徴ベクトルを決定するステップには、
    パラメータレス相関関数によって前記検索画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルと前記検索画像シーケンスの全体的特徴ベクトルとの相関度を計算して、前記検索画像シーケンスにおける各フレームの第1の相関重みを取得するステップと、
    前記検索画像シーケンスにおける各フレームの第1の相関重みに基づいて、前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、前記検索画像シーケンスの自己表現特徴ベクトルを取得するステップと、を含むことを特徴とする請求項5に記載の方法。
  8. 前記候補画像シーケンスにおける各フレームの第2の次元削減特徴ベクトル、前記候補画像シーケンスの全体的特徴ベクトル及び前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、前記候補画像シーケンスの自己表現特徴ベクトルを決定するステップには、
    パラメータレス相関関数によって前記候補画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルと前記候補画像シーケンスの全体的特徴ベクトルとの相関度を計算して、前記候補画像シーケンスにおける各フレームの第1の相関重みを取得するステップと、
    前記候補画像シーケンスにおける各フレームの第1の相関重みに基づいて、前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、前記候補画像シーケンスの自己表現特徴ベクトルを取得するステップと、を含むことを特徴とする請求項6に記載の方法。
  9. 前記第1の相関重みは、前記第1の相関重みに対して正規化処理を行って得られた第1の正規化相関重みを含むことを特徴とする請求項7又は8に記載の方法。
  10. 前記検索画像シーケンスにおける各フレームの特徴ベクトルと前記候補画像シーケンスの自己表現特徴ベクトルに基づいて、前記検索画像シーケンスの協同表現特徴ベクトルを決定し、前記候補画像シーケンスにおける各フレームの特徴ベクトルと前記検索画像シーケンスの自己表現特徴ベクトルに基づいて、前記候補画像シーケンスの協同表現特徴ベクトルを決定するステップには、
    前記検索画像シーケンスにおける各フレームの特徴ベクトル、前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトル及び前記候補画像シーケンスの自己表現特徴ベクトルを第3のサブニューラルネットワークに入力して、前記検索画像シーケンスの協同表現特徴ベクトルを取得するステップと、
    前記候補画像シーケンスにおける各フレームの特徴ベクトル、前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトル及び前記検索画像シーケンスの自己表現特徴ベクトルを第3のサブニューラルネットワークに入力して、前記候補画像シーケンスの協同表現特徴ベクトルを取得するステップと、を含むことを特徴とする請求項3〜9のいずれか一項に記載の方法。
  11. 前記検索画像シーケンスにおける各フレームの特徴ベクトル、前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトル及び前記候補画像シーケンスの自己表現特徴ベクトルを第3のサブニューラルネットワークに入力して、前記検索画像シーケンスの協同表現特徴ベクトルを取得するステップには、
    前記第3のサブニューラルネットワークの第3の全結合層によって前記検索画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、前記検索画像シーケンスにおける各フレームの第3の次元削減特徴ベクトルを取得するステップと、
    前記検索画像シーケンスにおける各フレームの第3の次元削減特徴ベクトル、前記候補画像シーケンスの自己表現特徴ベクトル及び前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、前記検索画像シーケンスの協同表現特徴ベクトルを取得するステップと、を含み、
    前記候補画像シーケンスにおける各フレームの特徴ベクトル、前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトル及び前記検索画像シーケンスの自己表現特徴ベクトルを第3のサブニューラルネットワークに入力して、前記候補画像シーケンスの協同表現特徴ベクトルを取得するステップには、
    前記第3のサブニューラルネットワークの第3の全結合層によって前記候補画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、前記候補画像シーケンスにおける各フレームの第3の次元削減特徴ベクトルを取得するステップと、
    前記候補画像シーケンスにおける各フレームの第3の次元削減特徴ベクトル、前記検索画像シーケンスの自己表現特徴ベクトル及び前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、前記候補画像シーケンスの協同表現特徴ベクトルを取得するステップと、を含むことを特徴とする請求項10に記載の方法。
  12. 前記検索画像シーケンスにおける各フレームの第3の次元削減特徴ベクトル、前記候補画像シーケンスの自己表現特徴ベクトル及び前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、前記検索画像シーケンスの協同表現特徴ベクトルを取得するステップには、
    パラメータレス相関関数によって前記検索画像シーケンスにおける各フレームの第3の次元削減特徴ベクトルと前記候補画像シーケンスの自己表現特徴ベクトルとの相関度を計算して、前記検索画像シーケンスにおける各フレームの第2の相関重みを取得するステップと、
    前記検索画像シーケンスにおける各フレームの第2の相関重みに基づいて、前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、前記検索画像シーケンスの協同表現特徴ベクトルを取得するステップと、を含むことを特徴とする請求項11に記載の方法。
  13. 前記候補画像シーケンスにおける各フレームの第3の次元削減特徴ベクトル、前記検索画像シーケンスの自己表現特徴ベクトル及び前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、前記候補画像シーケンスの協同表現特徴ベクトルを取得するステップには、
    パラメータレス相関関数によって前記候補画像シーケンスにおける各フレームの第3の次元削減特徴ベクトルと前記検索画像シーケンスの自己表現特徴ベクトルとの相関度を計算して、前記候補画像シーケンスにおける各フレームの第2の相関重みを取得するステップと、
    前記候補画像シーケンスにおける各フレームの第2の相関重みに基づいて、前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、前記候補画像シーケンスの協同表現特徴ベクトルを取得するステップと、を含むことを特徴とする請求項11に記載の方法。
  14. 前記第2の相関重みは、前記第2の相関重みに対して正規化処理を行って得られた第2の正規化相関重みを含むことを特徴とする請求項12又は13に記載の方法。
  15. 前記検索画像シーケンスの自己表現特徴ベクトル、前記検索画像シーケンスの協同表現特徴ベクトル、前記候補画像シーケンスの自己表現特徴ベクトル及び前記候補画像シーケンスの協同表現特徴ベクトルに基づいて、前記検索画像シーケンスと前記候補画像シーケンスの類似度特徴ベクトルを取得するステップには、
    前記検索画像シーケンスの自己表現特徴ベクトルと前記候補画像シーケンスの協同表現特徴ベクトルの差分を計算して、第1の差分ベクトルを取得するステップと、
    前記候補画像シーケンスの自己表現特徴ベクトルと前記検索画像シーケンスの協同表現特徴ベクトルの差分を計算して、第2の差分ベクトルを取得するステップと、
    前記第1の差分ベクトルと前記第2の差分ベクトルに基づいて、前記検索画像シーケンスと前記候補画像シーケンスの類似度特徴ベクトルを取得するステップと、を含むことを特徴とする請求項1〜14のいずれか一項に記載の方法。
  16. 前記第1の差分ベクトルと前記第2の差分ベクトルに基づいて、前記検索画像シーケンスと前記候補画像シーケンスの類似度特徴ベクトルを取得するステップには、
    前記第1の差分ベクトルと前記第2の差分ベクトルの和を計算して、前記検索画像シーケンスと前記候補画像シーケンスの類似度特徴ベクトルを取得するか、又は、
    前記第1の差分ベクトルと前記第2の差分ベクトルとの対応位置の要素の積を計算して、前記検索画像シーケンスと前記候補画像シーケンスの類似度特徴ベクトルを取得するステップを含むことを特徴とする請求項15に記載の方法。
  17. 前記類似度特徴ベクトルに基づいて、前記検索画像シーケンスと前記候補画像シーケンスのマッチング結果を決定するステップには、
    前記検索画像シーケンスと前記候補画像シーケンスの類似度特徴ベクトルを第4の全結合層に入力して、前記検索画像シーケンスと前記候補画像シーケンスのマッチングスコアを取得するステップと、
    前記検索画像シーケンスと前記候補画像シーケンスのマッチングスコアに基づいて、前記検索画像シーケンスと前記候補画像シーケンスのマッチング結果を決定するステップと、を含むことを特徴とする請求項1〜16のいずれか一項に記載の方法。
  18. 前記検索画像シーケンスと前記候補画像シーケンスのマッチングスコアを取得するステップの後に、
    前記検索画像シーケンスと前記候補画像シーケンスのマッチングスコアに基づいて、同一対のラベリングデータとバイナリ交差エントロピー損失関数を用いて、ネットワークパラメータを最適化するステップを更に含むことを特徴とする請求項17に記載の方法。
  19. 検索画像シーケンスにおける各フレームの特徴ベクトルを抽出するステップの前に、
    検索映像を複数の検索画像シーケンスに分割するステップと、
    候補映像を複数の候補画像シーケンスに分割するステップと、を更に含み、
    前記検索画像シーケンスと前記候補画像シーケンスのマッチング結果を決定するステップの後に、
    前記検索映像の検索画像シーケンスと前記候補映像の候補画像シーケンスのマッチング結果に基づいて、前記検索映像と前記候補映像のマッチング結果を決定するステップを更に含むことを特徴とする請求項1〜18のいずれか一項に記載の方法。
  20. 検索映像を複数の検索画像シーケンスに分割するステップには、
    所定シーケンス長及び所定ステップ長により、検索映像を複数の検索画像シーケンスに分割するステップを含み、前記検索画像シーケンス長が前記所定シーケンス長に等しく、隣接する検索画像シーケンスの間の重畳画像数が前記所定シーケンス長と前記所定ステップ長の差分に等しく、
    候補映像を複数の候補画像シーケンスに分割するステップには、
    所定シーケンス長及び所定ステップ長により、候補映像を複数の候補画像シーケンスに分割するステップを含み、前記候補画像シーケンス長が前記所定シーケンス長に等しく、隣接する候補画像シーケンスの間の重畳画像数が前記所定シーケンス長と前記所定ステップ長の差分に等しいことを特徴とする請求項19に記載の方法。
  21. 前記検索映像の検索画像シーケンスと前記候補映像の候補画像シーケンスのマッチング結果に基づいて、前記検索映像と前記候補映像のマッチング結果を決定するステップには、
    前記検索映像の各検索画像シーケンスと前記候補映像の各候補画像シーケンスのマッチングスコアを決定するステップと、
    前記検索映像の各検索画像シーケンスと前記候補映像の各候補画像シーケンスのマッチングスコアのうちの最高のN個のマッチングスコアの平均値を計算して、前記検索映像と前記候補映像のマッチングスコアを取得し、Nが正整数であるステップと、
    前記検索映像と前記候補映像のマッチングスコアに基づいて、前記検索映像と前記候補映像のマッチング結果を決定するステップと、を含むことを特徴とする請求項19又は20に記載の方法。
  22. ターゲットのマッチング装置であって、
    前記ターゲットのマッチング装置内のモジュールが、請求項1〜21のいずれか一項に記載の方法を実行するように構成される、
    ことを特徴とするターゲットのマッチング装置。
  23. 請求項1〜21のいずれか一項に記載の方法を実行するように構成されるプロセッサと、
    プロセッサでの実行可能コマンドを記憶するためのメモリと、を含むことを特徴とする電子機器。
  24. コンピュータプログラムコマンドを記憶したコンピュータ可読記憶媒体であって、前記コンピュータプログラムコマンドがプロセッサにより実行される時に請求項1〜21のいずれか一項に記載の方法が実現されることを特徴とするコンピュータ可読記憶媒体。
JP2020515878A 2018-06-15 2019-05-13 ターゲットのマッチング方法及び装置、電子機器並びに記憶媒体 Active JP6883710B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201810621959.5 2018-06-15
CN201810621959.5A CN109145150B (zh) 2018-06-15 2018-06-15 目标匹配方法及装置、电子设备和存储介质
PCT/CN2019/086670 WO2019237870A1 (zh) 2018-06-15 2019-05-13 目标匹配方法及装置、电子设备和存储介质

Publications (2)

Publication Number Publication Date
JP2020534606A JP2020534606A (ja) 2020-11-26
JP6883710B2 true JP6883710B2 (ja) 2021-06-09

Family

ID=64802036

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020515878A Active JP6883710B2 (ja) 2018-06-15 2019-05-13 ターゲットのマッチング方法及び装置、電子機器並びに記憶媒体

Country Status (6)

Country Link
US (1) US11222231B2 (ja)
JP (1) JP6883710B2 (ja)
KR (1) KR20200042513A (ja)
CN (1) CN109145150B (ja)
SG (1) SG11202003581YA (ja)
WO (1) WO2019237870A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109145150B (zh) * 2018-06-15 2021-02-12 深圳市商汤科技有限公司 目标匹配方法及装置、电子设备和存储介质
CN111435432B (zh) * 2019-01-15 2023-05-26 北京市商汤科技开发有限公司 网络优化方法及装置、图像处理方法及装置、存储介质
CN110705590B (zh) * 2019-09-02 2021-03-12 创新先进技术有限公司 通过计算机执行的、用于识别车辆部件的方法及装置
CN110866509B (zh) * 2019-11-20 2023-04-28 腾讯科技(深圳)有限公司 动作识别方法、装置、计算机存储介质和计算机设备
KR102475177B1 (ko) * 2020-11-04 2022-12-07 한국전자기술연구원 영상 처리 방법 및 장치
CN113243886B (zh) * 2021-06-11 2021-11-09 四川翼飞视科技有限公司 一种基于深度学习的视力检测系统、方法和存储介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7921036B1 (en) * 2002-04-30 2011-04-05 Videomining Corporation Method and system for dynamically targeting content based on automatic demographics and behavior analysis
US10346726B2 (en) * 2014-12-15 2019-07-09 Samsung Electronics Co., Ltd. Image recognition method and apparatus, image verification method and apparatus, learning method and apparatus to recognize image, and learning method and apparatus to verify image
CN106326288B (zh) * 2015-06-30 2019-12-03 阿里巴巴集团控股有限公司 图像搜索方法及装置
CN105608234A (zh) * 2016-03-18 2016-05-25 北京京东尚科信息技术有限公司 图像检索方法和装置
US9818126B1 (en) * 2016-04-20 2017-11-14 Deep Labs Inc. Systems and methods for sensor data analysis through machine learning
CN107451156B (zh) * 2016-05-31 2021-08-20 杭州华为企业通信技术有限公司 一种图像再识别方法及识别装置
CN106649663B (zh) * 2016-12-14 2018-10-16 大连理工大学 一种基于紧凑视频表征的视频拷贝检测方法
CN106886599B (zh) * 2017-02-28 2020-03-03 北京京东尚科信息技术有限公司 图像检索方法以及装置
CN107193983A (zh) * 2017-05-27 2017-09-22 北京小米移动软件有限公司 图像搜索方法及装置
CN107862331A (zh) * 2017-10-31 2018-03-30 华中科技大学 一种基于时间序列及cnn的不安全行为识别方法及系统
CN109145150B (zh) * 2018-06-15 2021-02-12 深圳市商汤科技有限公司 目标匹配方法及装置、电子设备和存储介质
US20210264496A1 (en) * 2020-02-21 2021-08-26 Goldenspear Llc Machine learning for rapid analysis of image data via curated customer personas

Also Published As

Publication number Publication date
US20200234078A1 (en) 2020-07-23
CN109145150B (zh) 2021-02-12
WO2019237870A1 (zh) 2019-12-19
JP2020534606A (ja) 2020-11-26
KR20200042513A (ko) 2020-04-23
US11222231B2 (en) 2022-01-11
CN109145150A (zh) 2019-01-04
SG11202003581YA (en) 2020-05-28

Similar Documents

Publication Publication Date Title
JP6883710B2 (ja) ターゲットのマッチング方法及び装置、電子機器並びに記憶媒体
US11120078B2 (en) Method and device for video processing, electronic device, and storage medium
TWI766286B (zh) 圖像處理方法及圖像處理裝置、電子設備和電腦可讀儲存媒介
JP6852150B2 (ja) 生体検知方法および装置、システム、電子機器、記憶媒体
TWI724736B (zh) 圖像處理方法及裝置、電子設備、儲存媒體和電腦程式
JP7171884B2 (ja) 歩行者認識方法及び装置
WO2021093375A1 (zh) 检测同行人的方法及装置、系统、电子设备和存储介质
TWI747325B (zh) 目標對象匹配方法及目標對象匹配裝置、電子設備和電腦可讀儲存媒介
TW202139140A (zh) 圖像重建方法及圖像重建裝置、電子設備和電腦可讀儲存媒體
CN113590881B (zh) 视频片段检索方法、视频片段检索模型的训练方法及装置
US11416703B2 (en) Network optimization method and apparatus, image processing method and apparatus, and storage medium
CN113326768B (zh) 训练方法、图像特征提取方法、图像识别方法及装置
JP2022526381A (ja) 画像処理方法及び装置、電子機器並びに記憶媒体
CN109101542B (zh) 图像识别结果输出方法及装置、电子设备和存储介质
CN114332503A (zh) 对象重识别方法及装置、电子设备和存储介质
CN111582383A (zh) 属性识别方法及装置、电子设备和存储介质
CN112906484A (zh) 一种视频帧处理方法及装置、电子设备和存储介质
CN112101216A (zh) 人脸识别方法、装置、设备及存储介质
CN111241844A (zh) 一种信息推荐方法及装置
CN112801116B (zh) 图像的特征提取方法及装置、电子设备和存储介质
CN115422932A (zh) 一种词向量训练方法及装置、电子设备和存储介质
CN115147449A (zh) 一种多目标跟踪方法、电子设备、存储介质及产品
CN111178115A (zh) 对象识别网络的训练方法及系统
CN114842404A (zh) 时序动作提名的生成方法及装置、电子设备和存储介质
CN111723715B (zh) 一种视频显著性检测方法及装置、电子设备和存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200317

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210427

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210510

R150 Certificate of patent or registration of utility model

Ref document number: 6883710

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250