JP6883710B2 - ターゲットのマッチング方法及び装置、電子機器並びに記憶媒体 - Google Patents
ターゲットのマッチング方法及び装置、電子機器並びに記憶媒体 Download PDFInfo
- Publication number
- JP6883710B2 JP6883710B2 JP2020515878A JP2020515878A JP6883710B2 JP 6883710 B2 JP6883710 B2 JP 6883710B2 JP 2020515878 A JP2020515878 A JP 2020515878A JP 2020515878 A JP2020515878 A JP 2020515878A JP 6883710 B2 JP6883710 B2 JP 6883710B2
- Authority
- JP
- Japan
- Prior art keywords
- image sequence
- feature vector
- frame
- search
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/73—Querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
- G06F16/532—Query formulation, e.g. graphical querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/56—Information retrieval; Database structures therefor; File system structures therefor of still image data having vectorial format
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Library & Information Science (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本願は、2018年6月15日に中国特許局に提出された、出願番号が201810621959.5であり、出願の名称が「ターゲットのマッチング方法及び装置、電子機器並びに記憶媒体」の中国特許出願の優先権を主張し、その開示の全てが参照によって本願に組み込まれる。
マッチング待ちターゲットを含む検索画像シーケンスにおける各フレームの特徴ベクトルと、候補画像シーケンスにおける各フレームの特徴ベクトルをそれぞれ抽出するステップと、
前記検索画像シーケンスにおける各フレームの特徴ベクトルと前記候補画像シーケンスにおける各フレームの特徴ベクトルのそれぞれに基づいて、前記検索画像シーケンスの自己表現特徴ベクトルと前記候補画像シーケンスの自己表現特徴ベクトルを決定するステップと、
前記検索画像シーケンスにおける各フレームの特徴ベクトルと前記候補画像シーケンスの自己表現特徴ベクトルに基づいて、前記検索画像シーケンスの協同表現特徴ベクトルを決定し、前記候補画像シーケンスにおける各フレームの特徴ベクトルと前記検索画像シーケンスの自己表現特徴ベクトルに基づいて、前記候補画像シーケンスの協同表現特徴ベクトルを決定するステップと、
前記検索画像シーケンスの自己表現特徴ベクトル、前記検索画像シーケンスの協同表現特徴ベクトル、前記候補画像シーケンスの自己表現特徴ベクトル及び前記候補画像シーケンスの協同表現特徴ベクトルに基づいて、前記検索画像シーケンスと前記候補画像シーケンスの類似度特徴ベクトルを決定するステップと、
前記類似度特徴ベクトルに基づいて、前記検索画像シーケンスと前記候補画像シーケンスのマッチング結果を決定するステップと、を含むターゲットのマッチング方法を提供する。
第1のサブニューラルネットワークによって検索画像シーケンスにおける各フレームの特徴ベクトルと候補画像シーケンスにおける各フレームの特徴ベクトルを抽出するステップを含む。
第1のサブニューラルネットワークの第1の全結合層によって前記検索画像シーケンスにおける各フレームの特徴ベクトルと前記候補画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルと前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルを取得するステップを更に含む。
前記検索画像シーケンスにおける各フレームの特徴ベクトルと前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルを第2のサブニューラルネットワークに入力して、前記検索画像シーケンスの自己表現特徴ベクトルを決定するステップと、
前記候補画像シーケンスにおける各フレームの特徴ベクトルと前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルを第2のサブニューラルネットワークに入力して、前記候補画像シーケンスの自己表現特徴ベクトルを決定するステップと、を含む。
前記第2のサブニューラルネットワークの第2の全結合層によって前記検索画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、前記検索画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルを取得するステップと、
前記検索画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルに対して時間次元の平均プーリング処理を行って、前記検索画像シーケンスの全体的特徴ベクトルを取得するステップと、
前記検索画像シーケンスにおける各フレームの第2の次元削減特徴ベクトル、前記検索画像シーケンスの全体的特徴ベクトル及び前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、前記検索画像シーケンスの自己表現特徴ベクトルを決定するステップと、を含む。
前記第2のサブニューラルネットワークの第2の全結合層によって前記候補画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、前記候補画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルを取得するステップと、
前記候補画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルに対して時間次元の平均プーリング処理を行って、前記候補画像シーケンスの全体的特徴ベクトルを取得するステップと、
前記候補画像シーケンスにおける各フレームの第2の次元削減特徴ベクトル、前記候補画像シーケンスの全体的特徴ベクトル及び前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、前記候補画像シーケンスの自己表現特徴ベクトルを決定するステップと、を含む。
パラメータレス相関関数によって前記検索画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルと前記検索画像シーケンスの全体的特徴ベクトルとの相関度を計算して、前記検索画像シーケンスにおける各フレームの第1の相関重みを取得するステップと、
前記検索画像シーケンスにおける各フレームの第1の相関重みに基づいて、前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、前記検索画像シーケンスの自己表現特徴ベクトルを取得するステップと、を含む。
パラメータレス相関関数によって前記候補画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルと前記候補画像シーケンスの全体的特徴ベクトルとの相関度を計算して、前記候補画像シーケンスにおける各フレームの第1の相関重みを取得するステップと、
前記候補画像シーケンスにおける各フレームの第1の相関重みに基づいて、前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、前記候補画像シーケンスの自己表現特徴ベクトルを取得するステップと、を含む。
前記検索画像シーケンスにおける各フレームの特徴ベクトル、前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトル及び前記候補画像シーケンスの自己表現特徴ベクトルを第3のサブニューラルネットワークに入力して、前記検索画像シーケンスの協同表現特徴ベクトルを取得するステップと、
前記候補画像シーケンスにおける各フレームの特徴ベクトル、前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトル及び前記検索画像シーケンスの自己表現特徴ベクトルを第3のサブニューラルネットワークに入力して、前記候補画像シーケンスの協同表現特徴ベクトルを取得するステップと、を含む。
前記第3のサブニューラルネットワークの第3の全結合層によって前記検索画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、前記検索画像シーケンスにおける各フレームの第3の次元削減特徴ベクトルを取得するステップと、
前記検索画像シーケンスにおける各フレームの第3の次元削減特徴ベクトル、前記候補画像シーケンスの自己表現特徴ベクトル及び前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、前記検索画像シーケンスの協同表現特徴ベクトルを取得するステップと、を含み、
前記候補画像シーケンスにおける各フレームの特徴ベクトル、前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトル及び前記検索画像シーケンスの自己表現特徴ベクトルを第3のサブニューラルネットワークに入力して、前記候補画像シーケンスの協同表現特徴ベクトルを取得するステップには、
前記第3のサブニューラルネットワークの第3の全結合層によって前記候補画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、前記候補画像シーケンスにおける各フレームの第3の次元削減特徴ベクトルを取得するステップと、
前記候補画像シーケンスにおける各フレームの第3の次元削減特徴ベクトル、前記検索画像シーケンスの自己表現特徴ベクトル及び前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、前記候補画像シーケンスの協同表現特徴ベクトルを取得するステップと、を含む。
パラメータレス相関関数によって前記検索画像シーケンスにおける各フレームの第3の次元削減特徴ベクトルと前記候補画像シーケンスの自己表現特徴ベクトルとの相関度を計算して、前記検索画像シーケンスにおける各フレームの第2の相関重みを取得するステップと、
前記検索画像シーケンスにおける各フレームの第2の相関重みに基づいて、前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、前記検索画像シーケンスの協同表現特徴ベクトルを取得するステップと、を含む。
パラメータレス相関関数によって前記候補画像シーケンスにおける各フレームの第3の次元削減特徴ベクトルと前記検索画像シーケンスの自己表現特徴ベクトルとの相関度を計算して、前記候補画像シーケンスにおける各フレームの第2の相関重みを取得するステップと、
前記候補画像シーケンスにおける各フレームの第2の相関重みに基づいて、前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、前記候補画像シーケンスの協同表現特徴ベクトルを取得するステップと、を含む。
前記検索画像シーケンスの自己表現特徴ベクトルと前記候補画像シーケンスの協同表現特徴ベクトルの差分を計算して、第1の差分ベクトルを取得するステップと、
前記候補画像シーケンスの自己表現特徴ベクトルと前記検索画像シーケンスの協同表現特徴ベクトルの差分を計算して、第2の差分ベクトルを取得するステップと、
前記第1の差分ベクトルと前記第2の差分ベクトルに基づいて、前記検索画像シーケンスと前記候補画像シーケンスの類似度特徴ベクトルを取得するステップと、を含む。
前記第1の差分ベクトルと前記第2の差分ベクトルの和を計算して、前記検索画像シーケンスと前記候補画像シーケンスの類似度特徴ベクトルを取得するか、又は、
前記第1の差分ベクトルと前記第2の差分ベクトルとの対応位置の要素の積を計算して、前記検索画像シーケンスと前記候補画像シーケンスの類似度特徴ベクトルを取得するステップを含む。
前記検索画像シーケンスと前記候補画像シーケンスの類似度特徴ベクトルを第4の全結合層に入力して、前記検索画像シーケンスと前記候補画像シーケンスのマッチングスコアを取得するステップと、
前記検索画像シーケンスと前記候補画像シーケンスのマッチングスコアに基づいて、前記検索画像シーケンスと前記候補画像シーケンスのマッチング結果を決定するステップと、を含む。
前記検索画像シーケンスと前記候補画像シーケンスのマッチングスコアに基づいて、同一対のラベリングデータとバイナリ交差エントロピー損失関数を用いて、ネットワークパラメータを最適化するステップを更に含む。
検索映像を複数の検索画像シーケンスに分割するステップと、
候補映像を複数の候補画像シーケンスに分割するステップと、を更に含み、
前記検索画像シーケンスと前記候補画像シーケンスのマッチング結果を決定するステップの後に、前記方法は、
前記検索映像の検索画像シーケンスと前記候補映像の候補画像シーケンスのマッチング結果に基づいて、前記検索映像と前記候補映像のマッチング結果を決定するステップを更に含む。
所定シーケンス長及び所定ステップ長により、検索映像を複数の検索画像シーケンスに分割するステップを含み、前記検索画像シーケンス長が前記所定シーケンス長に等しく、隣接する検索画像シーケンスの間の重畳画像数が前記所定シーケンス長と前記所定ステップ長の差分に等しく、
候補映像を複数の候補画像シーケンスに分割するステップには、
所定シーケンス長及び所定ステップ長により、候補映像を複数の候補画像シーケンスに分割するステップを含み、前記候補画像シーケンス長が前記所定シーケンス長に等しく、隣接する候補画像シーケンスの間の重畳画像数が前記所定シーケンス長と前記所定ステップ長の差分に等しい。
前記検索映像の各検索画像シーケンスと前記候補映像の各候補画像シーケンスのマッチングスコアを決定するステップと、
前記検索映像の各検索画像シーケンスと前記候補映像の各候補画像シーケンスのマッチングスコアのうちの最高のN個のマッチングスコアの平均値を計算して、前記検索映像と前記候補映像のマッチングスコアを取得し、Nが正整数であるステップと、
前記検索映像と前記候補映像のマッチングスコアに基づいて、前記検索映像と前記候補映像のマッチング結果を決定するステップと、を含む。
マッチング待ちターゲットを含む検索画像シーケンスにおける各フレームの特徴ベクトルと、候補画像シーケンスにおける各フレームの特徴ベクトルをそれぞれ抽出するための抽出モジュールと、
前記検索画像シーケンスにおける各フレームの特徴ベクトルと前記候補画像シーケンスにおける各フレームの特徴ベクトルのそれぞれに基づいて、前記検索画像シーケンスの自己表現特徴ベクトルと前記候補画像シーケンスの自己表現特徴ベクトルを決定するための第1の決定モジュールと、
前記検索画像シーケンスにおける各フレームの特徴ベクトルと前記候補画像シーケンスの自己表現特徴ベクトルに基づいて、前記検索画像シーケンスの協同表現特徴ベクトルを決定し、前記候補画像シーケンスにおける各フレームの特徴ベクトルと前記検索画像シーケンスの自己表現特徴ベクトルに基づいて、前記候補画像シーケンスの協同表現特徴ベクトルを決定するための第2の決定モジュールと、
前記検索画像シーケンスの自己表現特徴ベクトル、前記検索画像シーケンスの協同表現特徴ベクトル、前記候補画像シーケンスの自己表現特徴ベクトル及び前記候補画像シーケンスの協同表現特徴ベクトルに基づいて、前記検索画像シーケンスと前記候補画像シーケンスの類似度特徴ベクトルを決定するための第3の決定モジュールと、
前記類似度特徴ベクトルに基づいて、前記検索画像シーケンスと前記候補画像シーケンスのマッチング結果を決定するための第4の決定モジュールと、を含むターゲットのマッチング装置を提供する。
第1のサブニューラルネットワークによって検索画像シーケンスにおける各フレームの特徴ベクトルと候補画像シーケンスにおける各フレームの特徴ベクトルを抽出するために用いられる。
第1のサブニューラルネットワークの第1の全結合層によって前記検索画像シーケンスにおける各フレームの特徴ベクトルと前記候補画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルと前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルを取得するための次元削減モジュールを更に含む。
前記検索画像シーケンスにおける各フレームの特徴ベクトルと前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルを第2のサブニューラルネットワークに入力して、前記検索画像シーケンスの自己表現特徴ベクトルを決定するための第1の決定サブモジュールと、
前記候補画像シーケンスにおける各フレームの特徴ベクトルと前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルを第2のサブニューラルネットワークに入力して、前記候補画像シーケンスの自己表現特徴ベクトルを決定するための第2の決定サブモジュールと、を含む。
前記第2のサブニューラルネットワークの第2の全結合層によって前記検索画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、前記検索画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルを取得するための第1の次元削減ユニットと、
前記検索画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルに対して時間次元の平均プーリング処理を行って、前記検索画像シーケンスの全体的特徴ベクトルを取得するための第1の平均プーリングユニットと、
前記検索画像シーケンスにおける各フレームの第2の次元削減特徴ベクトル、前記検索画像シーケンスの全体的特徴ベクトル及び前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、前記検索画像シーケンスの自己表現特徴ベクトルを決定するための第1の決定ユニットと、を含む。
前記第2のサブニューラルネットワークの第2の全結合層によって前記候補画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、前記候補画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルを取得するための第2の次元削減ユニットと、
前記候補画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルに対して時間次元の平均プーリング処理を行って、前記候補画像シーケンスの全体的特徴ベクトルを取得するための第2の平均プーリングユニットと、
前記候補画像シーケンスにおける各フレームの第2の次元削減特徴ベクトル、前記候補画像シーケンスの全体的特徴ベクトル及び前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、前記候補画像シーケンスの自己表現特徴ベクトルを決定するための第2の決定ユニットと、を含む。
パラメータレス相関関数によって前記検索画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルと前記検索画像シーケンスの全体的特徴ベクトルとの相関度を計算して、前記検索画像シーケンスにおける各フレームの第1の相関重みを取得するための第1の計算サブユニットと、
前記検索画像シーケンスにおける各フレームの第1の相関重みに基づいて、前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、前記検索画像シーケンスの自己表現特徴ベクトルを取得するための第1の重み付けサブユニットと、を含む。
パラメータレス相関関数によって前記候補画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルと前記候補画像シーケンスの全体的特徴ベクトルとの相関度を計算して、前記候補画像シーケンスにおける各フレームの第1の相関重みを取得するための第2の計算サブユニットと、
前記候補画像シーケンスにおける各フレームの第1の相関重みに基づいて、前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、前記候補画像シーケンスの自己表現特徴ベクトルを取得するための第2の重み付けサブユニットと、を含む。
前記検索画像シーケンスにおける各フレームの特徴ベクトル、前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトル及び前記候補画像シーケンスの自己表現特徴ベクトルを第3のサブニューラルネットワークに入力して、前記検索画像シーケンスの協同表現特徴ベクトルを取得するための第3の決定サブモジュールと、
前記候補画像シーケンスにおける各フレームの特徴ベクトル、前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトル及び前記検索画像シーケンスの自己表現特徴ベクトルを第3のサブニューラルネットワークに入力して、前記候補画像シーケンスの協同表現特徴ベクトルを取得するための第4の決定サブモジュールと、を含む。
前記第3のサブニューラルネットワークの第3の全結合層によって前記検索画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、前記検索画像シーケンスにおける各フレームの第3の次元削減特徴ベクトルを取得するための第3の次元削減ユニットと、
前記検索画像シーケンスにおける各フレームの第3の次元削減特徴ベクトル、前記候補画像シーケンスの自己表現特徴ベクトル及び前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、前記検索画像シーケンスの協同表現特徴ベクトルを取得するための第3の決定ユニットと、を含み、
前記第4の決定サブモジュールは、
前記第3のサブニューラルネットワークの第3の全結合層によって前記候補画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、前記候補画像シーケンスにおける各フレームの第3の次元削減特徴ベクトルを取得するための第4の次元削減ユニットと、
前記候補画像シーケンスにおける各フレームの第3の次元削減特徴ベクトル、前記検索画像シーケンスの自己表現特徴ベクトル及び前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、前記候補画像シーケンスの協同表現特徴ベクトルを取得するための第4の決定ユニットと、を含む。
パラメータレス相関関数によって前記検索画像シーケンスにおける各フレームの第3の次元削減特徴ベクトルと前記候補画像シーケンスの自己表現特徴ベクトルとの相関度を計算して、前記検索画像シーケンスにおける各フレームの第2の相関重みを取得するための第3の計算サブユニットと、
前記検索画像シーケンスにおける各フレームの第2の相関重みに基づいて、前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、前記検索画像シーケンスの協同表現特徴ベクトルを取得するための第3の重み付けサブユニットと、を含む。
パラメータレス相関関数によって前記候補画像シーケンスにおける各フレームの第3の次元削減特徴ベクトルと前記検索画像シーケンスの自己表現特徴ベクトルとの相関度を計算して、前記候補画像シーケンスにおける各フレームの第2の相関重みを取得するための第4の計算サブユニットと、
前記候補画像シーケンスにおける各フレームの第2の相関重みに基づいて、前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、前記候補画像シーケンスの協同表現特徴ベクトルを取得するための第4の重み付けサブユニットと、を含む。
前記検索画像シーケンスの自己表現特徴ベクトルと前記候補画像シーケンスの協同表現特徴ベクトルの差分を計算して、第1の差分ベクトルを取得するための第1の計算サブモジュールと、
前記候補画像シーケンスの自己表現特徴ベクトルと前記検索画像シーケンスの協同表現特徴ベクトルの差分を計算して、第2の差分ベクトルを取得するための第2の計算サブモジュールと、
前記第1の差分ベクトルと前記第2の差分ベクトルに基づいて、前記検索画像シーケンスと前記候補画像シーケンスの類似度特徴ベクトルを取得するための第5の決定サブモジュールと、を含む。
前記第1の差分ベクトルと前記第2の差分ベクトルの和を計算して、前記検索画像シーケンスと前記候補画像シーケンスの類似度特徴ベクトルを取得するための第1の計算ユニット、又は、
前記第1の差分ベクトルと前記第2の差分ベクトルとの対応位置の要素の積を計算して、前記検索画像シーケンスと前記候補画像シーケンスの類似度特徴ベクトルを取得するための第2の計算ユニットを含む。
前記検索画像シーケンスと前記候補画像シーケンスの類似度特徴ベクトルを第4の全結合層に入力して、前記検索画像シーケンスと前記候補画像シーケンスのマッチングスコアを取得するための第6の決定サブモジュールと、
前記検索画像シーケンスと前記候補画像シーケンスのマッチングスコアに基づいて、前記検索画像シーケンスと前記候補画像シーケンスのマッチング結果を決定するための第7の決定サブモジュールと、を含む。
前記検索画像シーケンスと前記候補画像シーケンスのマッチングスコアに基づいて、同一対のラベリングデータとバイナリ交差エントロピー損失関数を用いて、ネットワークパラメータを最適化するための最適化モジュールを更に含む。
検索映像を複数の検索画像シーケンスに分割するための第1の分割モジュールと、
候補映像を複数の候補画像シーケンスに分割するための第2の分割モジュールと、
前記検索映像の検索画像シーケンスと前記候補映像の候補画像シーケンスのマッチング結果に基づいて、前記検索映像と前記候補映像のマッチング結果を決定するための第5の決定モジュールと、を更に含む。
所定シーケンス長及び所定ステップ長により、検索映像を複数の検索画像シーケンスに分割するために用いられ、前記検索画像シーケンス長が前記所定シーケンス長に等しく、隣接する検索画像シーケンスの間の重畳画像数が前記所定シーケンス長と前記所定ステップ長の差分に等しく、
前記第2の分割モジュールは、
所定シーケンス長及び所定ステップ長により、候補映像を複数の候補画像シーケンスに分割するために用いられ、前記候補画像シーケンス長が前記所定シーケンス長に等しく、隣接する候補画像シーケンスの間の重畳画像数が前記所定シーケンス長と前記所定ステップ長の差分に等しい。
前記検索映像の各検索画像シーケンスと前記候補映像の各候補画像シーケンスのマッチングスコアを決定するための第8の決定サブモジュールと、
前記検索映像の各検索画像シーケンスと前記候補映像の各候補画像シーケンスのマッチングスコアのうちの最高のN個のマッチングスコアの平均値を計算して、前記検索映像と前記候補映像のマッチングスコアを取得するために用いられ、Nが正整数である第3の計算サブモジュールと、
前記検索映像と前記候補映像のマッチングスコアに基づいて、前記検索映像と前記候補映像のマッチング結果を決定するための第9の決定サブモジュールと、を含む。
上記ターゲットのマッチング方法を実行するように構成されるプロセッサと、
プロセッサでの実行可能コマンドを記憶するためのメモリと、を含む電子機器を提供する。
を取得し、ここで、
は検索画像シーケンスにおけるt番目のフレームの特徴ベクトルを表し、
であり、候補画像シーケンスにおける各フレームの特徴ベクトルを抽出して、
を取得し、ここで、
は候補画像シーケンスにおけるr番目のフレームの特徴ベクトルを表し、
である。
で表してよく、ここで、
は検索画像シーケンスにおけるt番目のフレームの第1の次元削減特徴ベクトルを表し、候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルは
で表してよく、ここで、
は候補画像シーケンスにおけるr番目のフレームの第1の次元削減特徴ベクトルを表す。例えば、検索画像シーケンスにおける各フレームの特徴ベクトルの次元数が2048次元であり、検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルの次元数が128次元であり、候補画像シーケンスにおける各フレームの特徴ベクトルの次元数が2048次元であり、候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルの次元数が128次元である。例えば、第1の全結合層はfc−0で表してよい。
と検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトル
を第2のサブニューラルネットワークに入力して、検索画像シーケンスの自己表現特徴ベクトル
を決定するようしてよい。
と候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトル
を第2のサブニューラルネットワークに入力して、候補画像シーケンスの自己表現特徴ベクトル
を決定するようしてよい。
によって検索画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルと検索画像シーケンスの全体的特徴ベクトルとの相関度を計算して、検索画像シーケンスにおける各フレームの第1の相関重み
を取得するようしてよい。
で表してもよく、ここで、
は検索画像シーケンスにおけるt番目のフレームの第2の次元削減特徴ベクトルを表し、
は検索画像シーケンスの全体的特徴ベクトルを表し、
は検索画像シーケンスにおけるt番目のフレームの第1の次元削減特徴ベクトルを表す。
によって候補画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルと候補画像シーケンスの全体的特徴ベクトルとの相関度を計算して、候補画像シーケンスにおける各フレームの第1の相関重み
を取得するようにしてよい。
で表してよく、ここで、
は候補画像シーケンスにおけるr番目のフレームの第2の次元削減特徴ベクトルを表し、
は候補画像シーケンスの全体的特徴ベクトルを表し、
は候補画像シーケンスにおけるr番目のフレームの第1の次元削減特徴ベクトルを表す。
、検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトル
及び候補画像シーケンスの自己表現特徴ベクトル
を第3のサブニューラルネットワークに入力して、検索画像シーケンスの協同表現特徴ベクトル
を取得するようにしてよい。
、候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトル
及び検索画像シーケンスの自己表現特徴ベクトル
を第3のサブニューラルネットワークに入力して、候補画像シーケンスの協同表現特徴ベクトル
を取得するようにしてよい。
で表してよく、ここで、
は検索画像シーケンスにおけるt番目のフレームの第3の次元削減特徴ベクトルを表す。例えば、検索画像シーケンスにおける各フレームの第3の次元削減特徴ベクトルの次元数が128次元である。
で表してよく、ここで、
は候補画像シーケンスにおけるr番目のフレームの第3の次元削減特徴ベクトルを表す。例えば、候補画像シーケンスにおける各フレームの第3の次元削減特徴ベクトルの次元数が128次元である。
である。
を用いてネットワークパラメータを最適化することができる。ただし、Nはトレーニング集合における検索画像シーケンス候補画像シーケンスペアの数量を表し、
は
番目のペアのマッチングスコアを表し、
番目の検索画像シーケンス候補画像シーケンスペアが同一な人物に属すれば、
であり、反対に
である。
可能な一実施形態では、該装置は、第1のサブニューラルネットワークの第1の全結合層によって検索画像シーケンスにおける各フレームの特徴ベクトルと候補画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルと候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルを取得するための次元削減モジュール36を更に含む。
Claims (24)
- マッチング待ちターゲットを含む検索画像シーケンスにおける各フレームの特徴ベクトルと、候補画像シーケンスにおける各フレームの特徴ベクトルをそれぞれ抽出するステップと、
前記検索画像シーケンスにおける各フレームの特徴ベクトルと前記候補画像シーケンスにおける各フレームの特徴ベクトルのそれぞれに基づいて、前記検索画像シーケンスの自己表現特徴ベクトルと前記候補画像シーケンスの自己表現特徴ベクトルを決定するステップと、
前記検索画像シーケンスにおける各フレームの特徴ベクトルと前記候補画像シーケンスの自己表現特徴ベクトルに基づいて、前記検索画像シーケンスの協同表現特徴ベクトルを決定し、前記候補画像シーケンスにおける各フレームの特徴ベクトルと前記検索画像シーケンスの自己表現特徴ベクトルに基づいて、前記候補画像シーケンスの協同表現特徴ベクトルを決定するステップと、
前記検索画像シーケンスの自己表現特徴ベクトル、前記検索画像シーケンスの協同表現特徴ベクトル、前記候補画像シーケンスの自己表現特徴ベクトル及び前記候補画像シーケンスの協同表現特徴ベクトルに基づいて、前記検索画像シーケンスと前記候補画像シーケンスの類似度特徴ベクトルを決定するステップと、
前記類似度特徴ベクトルに基づいて、前記検索画像シーケンスと前記候補画像シーケンスのマッチング結果を決定するステップと、を含むことを特徴とするターゲットのマッチング方法。 - 検索画像シーケンスにおける各フレームの特徴ベクトルと、候補画像シーケンスにおける各フレームの特徴ベクトルをそれぞれ抽出するステップには、
第1のサブニューラルネットワークによって検索画像シーケンスにおける各フレームの特徴ベクトルと候補画像シーケンスにおける各フレームの特徴ベクトルを抽出するステップを含むことを特徴とする請求項1に記載の方法。 - 検索画像シーケンスにおける各フレームの特徴ベクトルと候補画像シーケンスにおける各フレームの特徴ベクトルを抽出するステップの後に、
第1のサブニューラルネットワークの第1の全結合層によって前記検索画像シーケンスにおける各フレームの特徴ベクトルと前記候補画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルと前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルを取得するステップを更に含むことを特徴とする請求項1又は2に記載の方法。 - 前記検索画像シーケンスにおける各フレームの特徴ベクトルと前記候補画像シーケンスにおける各フレームの特徴ベクトルのそれぞれに基づいて、前記検索画像シーケンスの自己表現特徴ベクトルと前記候補画像シーケンスの自己表現特徴ベクトルを決定するステップには、
前記検索画像シーケンスにおける各フレームの特徴ベクトルと前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルを第2のサブニューラルネットワークに入力して、前記検索画像シーケンスの自己表現特徴ベクトルを決定するステップと、
前記候補画像シーケンスにおける各フレームの特徴ベクトルと前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルを第2のサブニューラルネットワークに入力して、前記候補画像シーケンスの自己表現特徴ベクトルを決定するステップと、を含むことを特徴とする請求項3に記載の方法。 - 前記検索画像シーケンスにおける各フレームの特徴ベクトルと前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルを第2のサブニューラルネットワークに入力して、前記検索画像シーケンスの自己表現特徴ベクトルを決定するステップには、
前記第2のサブニューラルネットワークの第2の全結合層によって前記検索画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、前記検索画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルを取得するステップと、
前記検索画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルに対して時間次元の平均プーリング処理を行って、前記検索画像シーケンスの全体的特徴ベクトルを取得するステップと、
前記検索画像シーケンスにおける各フレームの第2の次元削減特徴ベクトル、前記検索画像シーケンスの全体的特徴ベクトル及び前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、前記検索画像シーケンスの自己表現特徴ベクトルを決定するステップと、を含むことを特徴とする請求項4に記載の方法。 - 前記候補画像シーケンスにおける各フレームの特徴ベクトルと前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルを第2のサブニューラルネットワークに入力して、前記候補画像シーケンスの自己表現特徴ベクトルを取得するステップには、
前記第2のサブニューラルネットワークの第2の全結合層によって前記候補画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、前記候補画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルを取得するステップと、
前記候補画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルに対して時間次元の平均プーリング処理を行って、前記候補画像シーケンスの全体的特徴ベクトルを取得するステップと、
前記候補画像シーケンスにおける各フレームの第2の次元削減特徴ベクトル、前記候補画像シーケンスの全体的特徴ベクトル及び前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、前記候補画像シーケンスの自己表現特徴ベクトルを決定するステップと、を含むことを特徴とする請求項4に記載の方法。 - 前記検索画像シーケンスにおける各フレームの第2の次元削減特徴ベクトル、前記検索画像シーケンスの全体的特徴ベクトル及び前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、前記検索画像シーケンスの自己表現特徴ベクトルを決定するステップには、
パラメータレス相関関数によって前記検索画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルと前記検索画像シーケンスの全体的特徴ベクトルとの相関度を計算して、前記検索画像シーケンスにおける各フレームの第1の相関重みを取得するステップと、
前記検索画像シーケンスにおける各フレームの第1の相関重みに基づいて、前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、前記検索画像シーケンスの自己表現特徴ベクトルを取得するステップと、を含むことを特徴とする請求項5に記載の方法。 - 前記候補画像シーケンスにおける各フレームの第2の次元削減特徴ベクトル、前記候補画像シーケンスの全体的特徴ベクトル及び前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、前記候補画像シーケンスの自己表現特徴ベクトルを決定するステップには、
パラメータレス相関関数によって前記候補画像シーケンスにおける各フレームの第2の次元削減特徴ベクトルと前記候補画像シーケンスの全体的特徴ベクトルとの相関度を計算して、前記候補画像シーケンスにおける各フレームの第1の相関重みを取得するステップと、
前記候補画像シーケンスにおける各フレームの第1の相関重みに基づいて、前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、前記候補画像シーケンスの自己表現特徴ベクトルを取得するステップと、を含むことを特徴とする請求項6に記載の方法。 - 前記第1の相関重みは、前記第1の相関重みに対して正規化処理を行って得られた第1の正規化相関重みを含むことを特徴とする請求項7又は8に記載の方法。
- 前記検索画像シーケンスにおける各フレームの特徴ベクトルと前記候補画像シーケンスの自己表現特徴ベクトルに基づいて、前記検索画像シーケンスの協同表現特徴ベクトルを決定し、前記候補画像シーケンスにおける各フレームの特徴ベクトルと前記検索画像シーケンスの自己表現特徴ベクトルに基づいて、前記候補画像シーケンスの協同表現特徴ベクトルを決定するステップには、
前記検索画像シーケンスにおける各フレームの特徴ベクトル、前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトル及び前記候補画像シーケンスの自己表現特徴ベクトルを第3のサブニューラルネットワークに入力して、前記検索画像シーケンスの協同表現特徴ベクトルを取得するステップと、
前記候補画像シーケンスにおける各フレームの特徴ベクトル、前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトル及び前記検索画像シーケンスの自己表現特徴ベクトルを第3のサブニューラルネットワークに入力して、前記候補画像シーケンスの協同表現特徴ベクトルを取得するステップと、を含むことを特徴とする請求項3〜9のいずれか一項に記載の方法。 - 前記検索画像シーケンスにおける各フレームの特徴ベクトル、前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトル及び前記候補画像シーケンスの自己表現特徴ベクトルを第3のサブニューラルネットワークに入力して、前記検索画像シーケンスの協同表現特徴ベクトルを取得するステップには、
前記第3のサブニューラルネットワークの第3の全結合層によって前記検索画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、前記検索画像シーケンスにおける各フレームの第3の次元削減特徴ベクトルを取得するステップと、
前記検索画像シーケンスにおける各フレームの第3の次元削減特徴ベクトル、前記候補画像シーケンスの自己表現特徴ベクトル及び前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、前記検索画像シーケンスの協同表現特徴ベクトルを取得するステップと、を含み、
前記候補画像シーケンスにおける各フレームの特徴ベクトル、前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトル及び前記検索画像シーケンスの自己表現特徴ベクトルを第3のサブニューラルネットワークに入力して、前記候補画像シーケンスの協同表現特徴ベクトルを取得するステップには、
前記第3のサブニューラルネットワークの第3の全結合層によって前記候補画像シーケンスにおける各フレームの特徴ベクトルに対して次元削減処理を行って、前記候補画像シーケンスにおける各フレームの第3の次元削減特徴ベクトルを取得するステップと、
前記候補画像シーケンスにおける各フレームの第3の次元削減特徴ベクトル、前記検索画像シーケンスの自己表現特徴ベクトル及び前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、前記候補画像シーケンスの協同表現特徴ベクトルを取得するステップと、を含むことを特徴とする請求項10に記載の方法。 - 前記検索画像シーケンスにおける各フレームの第3の次元削減特徴ベクトル、前記候補画像シーケンスの自己表現特徴ベクトル及び前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、前記検索画像シーケンスの協同表現特徴ベクトルを取得するステップには、
パラメータレス相関関数によって前記検索画像シーケンスにおける各フレームの第3の次元削減特徴ベクトルと前記候補画像シーケンスの自己表現特徴ベクトルとの相関度を計算して、前記検索画像シーケンスにおける各フレームの第2の相関重みを取得するステップと、
前記検索画像シーケンスにおける各フレームの第2の相関重みに基づいて、前記検索画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、前記検索画像シーケンスの協同表現特徴ベクトルを取得するステップと、を含むことを特徴とする請求項11に記載の方法。 - 前記候補画像シーケンスにおける各フレームの第3の次元削減特徴ベクトル、前記検索画像シーケンスの自己表現特徴ベクトル及び前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに基づいて、前記候補画像シーケンスの協同表現特徴ベクトルを取得するステップには、
パラメータレス相関関数によって前記候補画像シーケンスにおける各フレームの第3の次元削減特徴ベクトルと前記検索画像シーケンスの自己表現特徴ベクトルとの相関度を計算して、前記候補画像シーケンスにおける各フレームの第2の相関重みを取得するステップと、
前記候補画像シーケンスにおける各フレームの第2の相関重みに基づいて、前記候補画像シーケンスにおける各フレームの第1の次元削減特徴ベクトルに対して重み付けを施して、前記候補画像シーケンスの協同表現特徴ベクトルを取得するステップと、を含むことを特徴とする請求項11に記載の方法。 - 前記第2の相関重みは、前記第2の相関重みに対して正規化処理を行って得られた第2の正規化相関重みを含むことを特徴とする請求項12又は13に記載の方法。
- 前記検索画像シーケンスの自己表現特徴ベクトル、前記検索画像シーケンスの協同表現特徴ベクトル、前記候補画像シーケンスの自己表現特徴ベクトル及び前記候補画像シーケンスの協同表現特徴ベクトルに基づいて、前記検索画像シーケンスと前記候補画像シーケンスの類似度特徴ベクトルを取得するステップには、
前記検索画像シーケンスの自己表現特徴ベクトルと前記候補画像シーケンスの協同表現特徴ベクトルの差分を計算して、第1の差分ベクトルを取得するステップと、
前記候補画像シーケンスの自己表現特徴ベクトルと前記検索画像シーケンスの協同表現特徴ベクトルの差分を計算して、第2の差分ベクトルを取得するステップと、
前記第1の差分ベクトルと前記第2の差分ベクトルに基づいて、前記検索画像シーケンスと前記候補画像シーケンスの類似度特徴ベクトルを取得するステップと、を含むことを特徴とする請求項1〜14のいずれか一項に記載の方法。 - 前記第1の差分ベクトルと前記第2の差分ベクトルに基づいて、前記検索画像シーケンスと前記候補画像シーケンスの類似度特徴ベクトルを取得するステップには、
前記第1の差分ベクトルと前記第2の差分ベクトルの和を計算して、前記検索画像シーケンスと前記候補画像シーケンスの類似度特徴ベクトルを取得するか、又は、
前記第1の差分ベクトルと前記第2の差分ベクトルとの対応位置の要素の積を計算して、前記検索画像シーケンスと前記候補画像シーケンスの類似度特徴ベクトルを取得するステップを含むことを特徴とする請求項15に記載の方法。 - 前記類似度特徴ベクトルに基づいて、前記検索画像シーケンスと前記候補画像シーケンスのマッチング結果を決定するステップには、
前記検索画像シーケンスと前記候補画像シーケンスの類似度特徴ベクトルを第4の全結合層に入力して、前記検索画像シーケンスと前記候補画像シーケンスのマッチングスコアを取得するステップと、
前記検索画像シーケンスと前記候補画像シーケンスのマッチングスコアに基づいて、前記検索画像シーケンスと前記候補画像シーケンスのマッチング結果を決定するステップと、を含むことを特徴とする請求項1〜16のいずれか一項に記載の方法。 - 前記検索画像シーケンスと前記候補画像シーケンスのマッチングスコアを取得するステップの後に、
前記検索画像シーケンスと前記候補画像シーケンスのマッチングスコアに基づいて、同一対のラベリングデータとバイナリ交差エントロピー損失関数を用いて、ネットワークパラメータを最適化するステップを更に含むことを特徴とする請求項17に記載の方法。 - 検索画像シーケンスにおける各フレームの特徴ベクトルを抽出するステップの前に、
検索映像を複数の検索画像シーケンスに分割するステップと、
候補映像を複数の候補画像シーケンスに分割するステップと、を更に含み、
前記検索画像シーケンスと前記候補画像シーケンスのマッチング結果を決定するステップの後に、
前記検索映像の検索画像シーケンスと前記候補映像の候補画像シーケンスのマッチング結果に基づいて、前記検索映像と前記候補映像のマッチング結果を決定するステップを更に含むことを特徴とする請求項1〜18のいずれか一項に記載の方法。 - 検索映像を複数の検索画像シーケンスに分割するステップには、
所定シーケンス長及び所定ステップ長により、検索映像を複数の検索画像シーケンスに分割するステップを含み、前記検索画像シーケンス長が前記所定シーケンス長に等しく、隣接する検索画像シーケンスの間の重畳画像数が前記所定シーケンス長と前記所定ステップ長の差分に等しく、
候補映像を複数の候補画像シーケンスに分割するステップには、
所定シーケンス長及び所定ステップ長により、候補映像を複数の候補画像シーケンスに分割するステップを含み、前記候補画像シーケンス長が前記所定シーケンス長に等しく、隣接する候補画像シーケンスの間の重畳画像数が前記所定シーケンス長と前記所定ステップ長の差分に等しいことを特徴とする請求項19に記載の方法。 - 前記検索映像の検索画像シーケンスと前記候補映像の候補画像シーケンスのマッチング結果に基づいて、前記検索映像と前記候補映像のマッチング結果を決定するステップには、
前記検索映像の各検索画像シーケンスと前記候補映像の各候補画像シーケンスのマッチングスコアを決定するステップと、
前記検索映像の各検索画像シーケンスと前記候補映像の各候補画像シーケンスのマッチングスコアのうちの最高のN個のマッチングスコアの平均値を計算して、前記検索映像と前記候補映像のマッチングスコアを取得し、Nが正整数であるステップと、
前記検索映像と前記候補映像のマッチングスコアに基づいて、前記検索映像と前記候補映像のマッチング結果を決定するステップと、を含むことを特徴とする請求項19又は20に記載の方法。 - ターゲットのマッチング装置であって、
前記ターゲットのマッチング装置内のモジュールが、請求項1〜21のいずれか一項に記載の方法を実行するように構成される、
ことを特徴とするターゲットのマッチング装置。 - 請求項1〜21のいずれか一項に記載の方法を実行するように構成されるプロセッサと、
プロセッサでの実行可能コマンドを記憶するためのメモリと、を含むことを特徴とする電子機器。 - コンピュータプログラムコマンドを記憶したコンピュータ可読記憶媒体であって、前記コンピュータプログラムコマンドがプロセッサにより実行される時に請求項1〜21のいずれか一項に記載の方法が実現されることを特徴とするコンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810621959.5 | 2018-06-15 | ||
CN201810621959.5A CN109145150B (zh) | 2018-06-15 | 2018-06-15 | 目标匹配方法及装置、电子设备和存储介质 |
PCT/CN2019/086670 WO2019237870A1 (zh) | 2018-06-15 | 2019-05-13 | 目标匹配方法及装置、电子设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020534606A JP2020534606A (ja) | 2020-11-26 |
JP6883710B2 true JP6883710B2 (ja) | 2021-06-09 |
Family
ID=64802036
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020515878A Active JP6883710B2 (ja) | 2018-06-15 | 2019-05-13 | ターゲットのマッチング方法及び装置、電子機器並びに記憶媒体 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11222231B2 (ja) |
JP (1) | JP6883710B2 (ja) |
KR (1) | KR20200042513A (ja) |
CN (1) | CN109145150B (ja) |
SG (1) | SG11202003581YA (ja) |
WO (1) | WO2019237870A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109145150B (zh) * | 2018-06-15 | 2021-02-12 | 深圳市商汤科技有限公司 | 目标匹配方法及装置、电子设备和存储介质 |
CN111435432B (zh) * | 2019-01-15 | 2023-05-26 | 北京市商汤科技开发有限公司 | 网络优化方法及装置、图像处理方法及装置、存储介质 |
CN110705590B (zh) * | 2019-09-02 | 2021-03-12 | 创新先进技术有限公司 | 通过计算机执行的、用于识别车辆部件的方法及装置 |
CN110866509B (zh) * | 2019-11-20 | 2023-04-28 | 腾讯科技(深圳)有限公司 | 动作识别方法、装置、计算机存储介质和计算机设备 |
KR102475177B1 (ko) * | 2020-11-04 | 2022-12-07 | 한국전자기술연구원 | 영상 처리 방법 및 장치 |
CN113243886B (zh) * | 2021-06-11 | 2021-11-09 | 四川翼飞视科技有限公司 | 一种基于深度学习的视力检测系统、方法和存储介质 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7921036B1 (en) * | 2002-04-30 | 2011-04-05 | Videomining Corporation | Method and system for dynamically targeting content based on automatic demographics and behavior analysis |
US10346726B2 (en) * | 2014-12-15 | 2019-07-09 | Samsung Electronics Co., Ltd. | Image recognition method and apparatus, image verification method and apparatus, learning method and apparatus to recognize image, and learning method and apparatus to verify image |
CN106326288B (zh) * | 2015-06-30 | 2019-12-03 | 阿里巴巴集团控股有限公司 | 图像搜索方法及装置 |
CN105608234A (zh) * | 2016-03-18 | 2016-05-25 | 北京京东尚科信息技术有限公司 | 图像检索方法和装置 |
US9818126B1 (en) * | 2016-04-20 | 2017-11-14 | Deep Labs Inc. | Systems and methods for sensor data analysis through machine learning |
CN107451156B (zh) * | 2016-05-31 | 2021-08-20 | 杭州华为企业通信技术有限公司 | 一种图像再识别方法及识别装置 |
CN106649663B (zh) * | 2016-12-14 | 2018-10-16 | 大连理工大学 | 一种基于紧凑视频表征的视频拷贝检测方法 |
CN106886599B (zh) * | 2017-02-28 | 2020-03-03 | 北京京东尚科信息技术有限公司 | 图像检索方法以及装置 |
CN107193983A (zh) * | 2017-05-27 | 2017-09-22 | 北京小米移动软件有限公司 | 图像搜索方法及装置 |
CN107862331A (zh) * | 2017-10-31 | 2018-03-30 | 华中科技大学 | 一种基于时间序列及cnn的不安全行为识别方法及系统 |
CN109145150B (zh) * | 2018-06-15 | 2021-02-12 | 深圳市商汤科技有限公司 | 目标匹配方法及装置、电子设备和存储介质 |
US20210264496A1 (en) * | 2020-02-21 | 2021-08-26 | Goldenspear Llc | Machine learning for rapid analysis of image data via curated customer personas |
-
2018
- 2018-06-15 CN CN201810621959.5A patent/CN109145150B/zh active Active
-
2019
- 2019-05-13 SG SG11202003581YA patent/SG11202003581YA/en unknown
- 2019-05-13 WO PCT/CN2019/086670 patent/WO2019237870A1/zh active Application Filing
- 2019-05-13 JP JP2020515878A patent/JP6883710B2/ja active Active
- 2019-05-13 KR KR1020207007917A patent/KR20200042513A/ko not_active IP Right Cessation
-
2020
- 2020-04-07 US US16/841,723 patent/US11222231B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20200234078A1 (en) | 2020-07-23 |
CN109145150B (zh) | 2021-02-12 |
WO2019237870A1 (zh) | 2019-12-19 |
JP2020534606A (ja) | 2020-11-26 |
KR20200042513A (ko) | 2020-04-23 |
US11222231B2 (en) | 2022-01-11 |
CN109145150A (zh) | 2019-01-04 |
SG11202003581YA (en) | 2020-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6883710B2 (ja) | ターゲットのマッチング方法及び装置、電子機器並びに記憶媒体 | |
US11120078B2 (en) | Method and device for video processing, electronic device, and storage medium | |
TWI766286B (zh) | 圖像處理方法及圖像處理裝置、電子設備和電腦可讀儲存媒介 | |
JP6852150B2 (ja) | 生体検知方法および装置、システム、電子機器、記憶媒体 | |
TWI724736B (zh) | 圖像處理方法及裝置、電子設備、儲存媒體和電腦程式 | |
JP7171884B2 (ja) | 歩行者認識方法及び装置 | |
WO2021093375A1 (zh) | 检测同行人的方法及装置、系统、电子设备和存储介质 | |
TWI747325B (zh) | 目標對象匹配方法及目標對象匹配裝置、電子設備和電腦可讀儲存媒介 | |
TW202139140A (zh) | 圖像重建方法及圖像重建裝置、電子設備和電腦可讀儲存媒體 | |
CN113590881B (zh) | 视频片段检索方法、视频片段检索模型的训练方法及装置 | |
US11416703B2 (en) | Network optimization method and apparatus, image processing method and apparatus, and storage medium | |
CN113326768B (zh) | 训练方法、图像特征提取方法、图像识别方法及装置 | |
JP2022526381A (ja) | 画像処理方法及び装置、電子機器並びに記憶媒体 | |
CN109101542B (zh) | 图像识别结果输出方法及装置、电子设备和存储介质 | |
CN114332503A (zh) | 对象重识别方法及装置、电子设备和存储介质 | |
CN111582383A (zh) | 属性识别方法及装置、电子设备和存储介质 | |
CN112906484A (zh) | 一种视频帧处理方法及装置、电子设备和存储介质 | |
CN112101216A (zh) | 人脸识别方法、装置、设备及存储介质 | |
CN111241844A (zh) | 一种信息推荐方法及装置 | |
CN112801116B (zh) | 图像的特征提取方法及装置、电子设备和存储介质 | |
CN115422932A (zh) | 一种词向量训练方法及装置、电子设备和存储介质 | |
CN115147449A (zh) | 一种多目标跟踪方法、电子设备、存储介质及产品 | |
CN111178115A (zh) | 对象识别网络的训练方法及系统 | |
CN114842404A (zh) | 时序动作提名的生成方法及装置、电子设备和存储介质 | |
CN111723715B (zh) | 一种视频显著性检测方法及装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200317 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200317 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210419 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210427 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210510 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6883710 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |