JP7097641B2 - 畳み込み知覚ハッシュアルゴリズムに基づくループ検出方法 - Google Patents

畳み込み知覚ハッシュアルゴリズムに基づくループ検出方法 Download PDF

Info

Publication number
JP7097641B2
JP7097641B2 JP2021035168A JP2021035168A JP7097641B2 JP 7097641 B2 JP7097641 B2 JP 7097641B2 JP 2021035168 A JP2021035168 A JP 2021035168A JP 2021035168 A JP2021035168 A JP 2021035168A JP 7097641 B2 JP7097641 B2 JP 7097641B2
Authority
JP
Japan
Prior art keywords
neural network
images
convolutional neural
image
hash code
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021035168A
Other languages
English (en)
Other versions
JP2022018066A (ja
Inventor
永端 宋
磊 方
俊峰 ▲らい▼
力▲ふい▼ 譚
杰 張
佩▲ぶん▼ ▲ちゃお▼
▲つぉん▼毅 張
▲かん▼ 包
魁龍 楊
雅▲てい▼ 楊
▲いん▼睿 陳
Original Assignee
星際(重慶)智能装備技術研究院有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 星際(重慶)智能装備技術研究院有限公司 filed Critical 星際(重慶)智能装備技術研究院有限公司
Publication of JP2022018066A publication Critical patent/JP2022018066A/ja
Application granted granted Critical
Publication of JP7097641B2 publication Critical patent/JP7097641B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、リアルタイム測位と地図作成(SLAM)におけるループ検出の技術分野に関し、より具体的には、深い畳み込み知覚ハッシュに基づくループ検出方法に関する。
視覚SLAM(simultaneous localization and mapping,リアルタイム測位と地図作成)では、視覚オドメーターは隣接する時間のキーフレームのみを考慮し、前の瞬間にエラーが発生した場合、エラーは次の瞬間に累積され、SLAM全体が累積エラーになり、推定結果は必然的に信頼できない。SLAMバックエンドは最大事後誤差を推定できるが、隣接するキーフレームデータのみが存在する場合、累積誤差を排除できない。
ループ検出の重要性は、隣接するキーフレームの制約に加えて、より長い時間の制約を与えることである。カメラが同じ場所を通過し、類似のデータを収集したことをロボットが検出すると、より適切な推定値を提供し、グローバルに知られている推定値を取得できる。ループ検出は、SLAMが推定した追跡と地図の長期間にわたる正確さに関連していて、ロボットに対して再測位を行わせ、SLAM地図作成の精度を効果的に向上させることができる。ループ検出で現在使用されている技術は、一般的に単語の袋法であり、画像上の特徴を認識して単語として保存し、2つのフレームの特徴の数を比較して、2つのフレームの類似度を取得し、類似度が一定のしきい値に達する場合、2つのフレームが同じ場所にあると見なし、ループが発生したと見なされる。
単語の袋のループ検出アルゴリズムは、外観に完全に依存していて、図の幾何学的情報を使用していないため、外観が似ている画像はループと見なされやすくなる。また、単語の袋は単語の順序に影響されず、単語の表現の有無にのみ影響されるので、より知覚バイアスを引き起こし易い。
本発明の目的は、上記の技術的課題を克服できる畳み込み知覚ハッシュアルゴリズムに基づくループ検出方法を提供することであり、本発明の方法の特徴は、深層学習技術に基づいて、画像コーディング技術を使用して、ループ検出の精度と効率が低いという問題を解決することである。
本発明の畳み込み知覚ハッシュアルゴリズムに基づくループ検出方法は、以下のステップを含む。
1)地図を作成するために必要なシーンの画像データセットを作成し、前記画像データセットは、2セットの画像で構成されていて、第1セットの画像はすべてが類似した画像であり、第2セットの画像はすべてが異なる画像であり、画像データセットをトレーニングセットとテストセットに分割し、トレーニングセットには第1セットの画像の一部と第2セットの画像の一部が含まれ、トレーニングセットは、畳み込みニューラルネットワークのトレーニングに使用され、テストセットは、トレーニングされたニューラルネットワークが有効かどうかを検出するために使用される。
2)畳み込みニューラルネットワークの構築とトレーニング、次のステップを含む。
a)同じ構造の2つの畳み込みニューラルネットワークモジュールを構築し、各畳み込みニューラルネットワークモジュールには、畳み込み層(Convolutional layer)、プーリング層(Pooling layer)、全結合層(Fully Connected layer)が含まれる。
b)トレーニングセット内の2つの画像セットから2つの画像をランダムに選択して、入力画像のセットを形成し、同時に構築された2つの畳み込みニューラルネットワークモジュールを入力する。2つの畳み込みニューラルネットワークモジュールの出力は、貪欲法によって2つのハッシュコードに変換され、畳み込みニューラルネットワークモジュールの出力とハッシュコードの関係は次のとおりである。
Figure 0007097641000001
式中、Hはハッシュコード、Oは畳み込みニューラルネットワークの出力、lrはハイパーパラメータ、Lはクロスエントロピーである。
次に、2つの画像の最尤推定を計算する。2つの画像に対応する2つのハッシュコードの最尤関数は次のとおりである。
Figure 0007097641000002
損失関数は最尤関数によって計算され、損失関数は次のように設定される。
Figure 0007097641000003
式中、nはハッシュコードのビット数を表し、iとjは、それぞれ2つの画像を表し、αはハイパーパラメータであり、hは第i枚目の画像に対応するハッシュコードであり、hは第j枚目の画像に対応するハッシュコードであり、si,jは入力された2つの画像が一つの画像のカテゴリに属しているかどうかである。
Figure 0007097641000004
c)損失関数を畳み込みニューラルネットワークに置き換えて、バックプロパゲーションを行い、畳み込みニューラルネットワークをトレーニングし、トレーニングされたニューラルネットワークをテストして、トレーニングされた畳み込みニューラルネットワークモデルを取得する。
3)トレーニングされた畳み込みニューラルネットワークモデルをSLAMシステムに適用し、地図を構築するためのキーフレームを2つのトレーニングされた畳み込みニューラルネットワークモデルの1つに継続的に入力し、キーフレームのハッシュコードを計算し、次に、計算されたハッシュコードのキーフレームを順序付けられていないグラフに保存する。
4)ループ検出:
次の式に従って、現在取得されているキーフレームハッシュコードと以前に保存された各ハッシュコードのハミング距離を計算する。
Figure 0007097641000005
式中、h、hは2つの画像のハッシュコードを表し、
Figure 0007097641000006
は排他的論理和演算を表し、計算して得られた最小ハミング距離を設定されたしきい値と比較し、設定されたしきい値よりも小さい場合、2つの画像は類似したシーンまたは同じシーンであると見なされ、ループが発生したと見なされる。
本発明の有益な効果:
本発明の畳み込み知覚ハッシュアルゴリズムに基づくループ検出方法は、貪欲法により、畳み込みニューラルネットワークの出力とハッシュ値との間の結合問題を解決し、損失関数としてツインネットワーク出力のクロスエントロピーを使用し、畳み込みニューラルネットワークをトレーニングして、トレーニングされた畳み込みニューラルネットワークを取得する。視覚SLAMを介してリアルタイムに地図を作成し、キーフレームを地図データベースとして保存し、キーフレームをトレーニングされた畳み込みニューラルネットワークに入力して、対応するキーフレームのハッシュ値を計算し、地図データベースと比較し、ループバックが発生するかどうかを検出する。本発明は、高精度率及びリコール率を有し、異なるシーンに従ってトレーニングされたネットワークであり、異なるシーンを扱うときの優れた適応性を有し、ループ検出機能を十分に完了し、SLAMが正しい高精度地図を構築するのを支援できる。
畳み込みを意識したハッシュアルゴリズムに基づくループ検出法の流れ図である。 畳み込みニューラルネットワークモジュールの構造図である。 畳み込みネットワークハッシュアルゴリズムの学習プロセス図である。 ループ検出のプロセス図である。
本発明の実施形態は、図面と併せて以下に詳細に説明される。
畳み込み知覚ハッシュアルゴリズムに基づくループ検出方法であって、以下のステップを含む。
1)地図を作成するために必要なシーンの画像データセットを作成する。前記画像データセットは、2セットの画像で構成されていて、第1セットの画像はすべてが類似した画像であり、第2セットの画像はすべてが異なる画像である。画像データセットをトレーニングセットとテストセットに分割し、トレーニングセットには第1セットの画像の一部と第2セットの画像の一部が含まれる。トレーニングセットは、畳み込みニューラルネットワークのトレーニングに使用され、テストセットは、トレーニングされたニューラルネットワークが有効かどうかを検出するために使用される。
本実施形態の画像データセットは20,000のカテゴリを含み、各カテゴリは類似の画像を含む。データセットは、8:2の比率に従ってトレーニングセットとテストセットに分割される。トレーニングセットは畳み込みニューラルネットワークのトレーニングに使用され、テストセットはトレーニングされたニューラルネットワークが有効かどうかを検出するために使用される。
2)畳み込みニューラルネットワークの構築とトレーニングを行う。これらには、次のステップが含まれる。
a)同じ構造の2つの畳み込みニューラルネットワークモジュールを構築する。各畳み込みニューラルネットワークモジュールには、畳み込み層(Convolutional layer)、プーリング層(Pooling layer)、全結合層(Fully Connected layer)が含まれる。
特定の実装では、畳み込みカーネルのサイズ及び畳み込み層の数は、シーンの複雑さに応じて変更できる。畳み込みニューラルネットワークモジュールによって入力される画像サイズは224×224×3ピクセルの画像であり、さまざまなシーンに応じて5~22個の畳み込み層を人工的に選択できる。高次プーリング層は、標準偏差プーリング層として設計されていて、畳み込み層によって出力された特徴を標本共分散行列に変換する。
シンプルなシーンや特徴が少ない場合、5層の畳み込みネットワークを構築し、11×11の畳み込みカーネルを選択できる。複雑なシーンや特徴が多い場合は、深い畳み込みネットワークを構築し、層の数が増えるにつれて、3×3の畳み込みカーネルの比率を増やして、より多くの特徴を抽出できる。同時に、「dropout」技術を使用して、各隠れ層ニューロンの出力を0.2の確率で0に設定し、過剰適合を回避する。
本実施形態では、各畳み込みニューラルネットワークモジュールには、5つの層が含まれ、第1番目の稠密なブロックは、6つの1×1の畳み込みカーネルと6つの3×3の畳み込みカーネルを使用する。稠密なブロック内部の各層のネットワークの出力は、前の層のネットワークの直接出力と、畳み込みカーネルによって畳み込まれた出力で構成され、各稠密なブロックはこの操作計算を受ける。第1番目の稠密なブロックの出力サイズは56×56であり、プーリング層の後、出力サイズは28×28になる。第2番目の稠密なブロックは12個の1×1の畳み込みカーネルと12個の3×3の畳み込みカーネルを使用して出力し、稠密なブロックも上記の出力を経験する。第2番目の稠密なブロックの出力サイズは28×28であり、プーリング層の後で14×14になる。第3番目の稠密なブロックは24個の1×1の畳み込みカーネルと24個の3×3の畳み込みカーネルを使用し、同じ操作を実行して7×7を出力する。第4番目の稠密なブロックは16個の1×1の畳み込みカーネルと16個の3×3の畳み込みカーネルを使用し、最後に全結合層に接続する。
b)トレーニングセット内の2つの画像セットから2つの画像をランダムに選択して、入力画像のセットを形成し、同時に構築された2つの畳み込みニューラルネットワークモジュールを入力する。2つの畳み込みニューラルネットワークモジュールの出力は、貪欲法によって2つのハッシュコードに変換され、畳み込みニューラルネットワークモジュールの出力とハッシュコードの関係は次のとおりである。
Figure 0007097641000007
式中、Hはハッシュコード、Oは畳み込みニューラルネットワークの出力、lrはハイパーパラメータ、Lはクロスエントロピーである。
次に、2つの画像の最尤推定を計算する。2つの画像に対応する2つのハッシュコードの最尤関数は次のとおりである。
Figure 0007097641000008
損失関数は最尤関数によって計算され、損失関数は次のように設定される。
Figure 0007097641000009
式中、nはハッシュコードのビット数を表し、iとjは、それぞれ2つの画像を表し、αはハイパーパラメータであり、hは第i枚目の画像に対応するハッシュコードであり、hは第j枚目の画像に対応するハッシュコードであり、si,jは入力された2つの画像が一つの画像のカテゴリに属しているかどうかである。
Figure 0007097641000010
c)損失関数を畳み込みニューラルネットワークに置き換えて、バックプロパゲーションを行い、畳み込みニューラルネットワークをトレーニングする。トレーニングされたニューラルネットワークをテストして、トレーニングされた畳み込みニューラルネットワークモデルを取得する。
畳み込みネットワークモジュールの出力により、類似画像のハッシュコードのハミング距離が十分に小さく、非類似画像のハミング距離が十分に大きい場合、ネットワークトレーニングが完了したことが証明され、ネットワークモデルが保存される。テストセットの画像を畳み込みネットワークに入力し、類似した画像のハッシュコードのハミング距離がまだ十分に小さいかどうか、及び非類似画像のハッシュコードのハミング距離が十分に大きいかどうかの結果を観察し、それが達成できれば、モデルのトレーニングが完了したことを説明し、モデルを保存する。
3)トレーニングされた畳み込みニューラルネットワークモデルをSLAMシステムに適用し、地図を構築するためのキーフレームを2つのトレーニングされた畳み込みニューラルネットワークモデルの1つに継続的に入力し、キーフレームのハッシュコードを計算し、次に、計算されたハッシュコードのキーフレームを順序付けられていないグラフに保存する。
具体的には、ロボットを起動してSLAM地図の作成を開始する。ロボットの両眼カメラの左右のカメラで写真を撮る。特定の条件に従って、一部の画像は地図を作成するためのキーフレームとして適切に選択される。地図を作成するキーフレームをトレーニング済みの畳み込みネットワークモジュールに入力し、キーフレームのハッシュコードを計算して取得する。計算して得られたハッシュコードのキーフレームを順序付けられていないグラフに格納する。順序付けられていないグラフは、ハッシュコードでソートされたコンテナである。
ロボットが継続的に地図を作成する過程で、前のシーンを通過した場合、その際に撮影した写真も条件に応じてキーフレームとして選択される。
4)ループ検出:
次の式に従って、現在取得されているキーフレームハッシュコードと以前に保存された各ハッシュコードのハミング距離を計算する。
Figure 0007097641000011
式中、h、hは2つの画像のハッシュコードを表し、
Figure 0007097641000012
は排他的論理和演算を表し、計算して得られた最小ハミング距離を設定されたしきい値と比較し、設定されたしきい値よりも小さい場合、2つの画像は類似したシーンまたは同じシーンであると見なされ、ループが発生したと見なされる。ロボットは、これにより蓄積されたエラーを排除し、SLAMによって作成された地図のドリフトとサイズの変化を減らすことができる。
最後に、上記の実施形態は、本発明の技術的解決策を説明するためにのみ使用され、それらを限定するものではないことに留意されたい。本発明は、好ましい実施形態を参照して詳細に説明されているが、当業者は、本発明の技術的解決策の目的及び範囲から逸脱することなく、本発明の技術的解決策を実施できることを理解すべきであり、本発明の技術的解決策の範囲は、本発明の特許請求の範囲によってカバーされるべきである。

Claims (1)

  1. 畳み込み知覚ハッシュアルゴリズムに基づくループ検出方法であって、以下のステップを含み、
    1)地図を作成するために必要なシーンの画像データセットを作成し、前記画像データセットは、2セットの画像で構成されていて、第1セットの画像はすべてが類似した画像であり、第2セットの画像はすべてが異なる画像であり、画像データセットをトレーニングセットとテストセットに分割し、トレーニングセットには第1セットの画像の一部と第2セットの画像の一部が含まれ、トレーニングセットは、畳み込みニューラルネットワークのトレーニングに使用され、テストセットは、トレーニングされたニューラルネットワークが有効かどうかを検出するために使用され、前記画像データセットは複数の画像カテゴリを含み、互いに類似した画像とは、画像同士が同一の画像カテゴリに属していることを意味し、
    2)畳み込みニューラルネットワークの構築とトレーニング、次のステップを含み、
    a)同じ構造の2つの畳み込みニューラルネットワークモジュールを構築し、各畳み込みニューラルネットワークモジュールには、畳み込み層(Convolutional layer)、プーリング層(Pooling layer)、全結合層(Fully Connected layer)が含まれ、
    b)トレーニングセット内の2つの画像セットから2つの画像をランダムに選択して、入力画像のセットを形成し、同時に構築された2つの畳み込みニューラルネットワークモジュールを入力し2つの畳み込みニューラルネットワークモジュールの出力は、2つのハッシュコードに変換され、畳み込みニューラルネットワークモジュールの出力とハッシュコードの関係は次のとおりであり、
    Figure 0007097641000013
    式中、Hはハッシュコード、Oは畳み込みニューラルネットワークの出力、lrはハイパーパラメータ、Lはクロスエントロピーであり、次に、2つの画像の最尤推定を計算し、2つの画像に対応する2つのハッシュコードの最尤関数は次のとおりであり、
    Figure 0007097641000014
    損失関数は最尤関数によって計算され、損失関数は次のように設定され、
    Figure 0007097641000015
    式中、nはハッシュコードのビット数を表し、iとjは、それぞれ2つの画像を表し、αはハイパーパラメータであり、hは第i枚目の画像に対応するハッシュコードであり、hは第j枚目の画像に対応するハッシュコードであり、si,jは入力された2つの画像が一つの画像のカテゴリに属しているかどうかであり、
    Figure 0007097641000016
    c)損失関数を畳み込みニューラルネットワークに置き換えて、バックプロパゲーションを行うことにより、畳み込みニューラルネットワークをトレーニングし、トレーニングされたニューラルネットワークをテストして、トレーニングされた畳み込みニューラルネットワークモデルを取得し、
    3)トレーニングされた畳み込みニューラルネットワークモデルをSLAMシステムに適用し、地図を構築するためのキーフレームを2つのトレーニングされた畳み込みニューラルネットワークモデルの1つに継続的に入力し、キーフレームのハッシュコードを計算し、次に、計算されたハッシュコードのキーフレームを順序付けられていないグラフに保存し、
    4)ループ検出:
    次の式に従って、現在取得されているキーフレームハッシュコードと以前に保存された各ハッシュコードのハミング距離を計算し、
    Figure 0007097641000017
    式中、h、hは2つの画像のハッシュコードを表し、
    Figure 0007097641000018
    は排他的論理和演算を表し、計算して得られた最小ハミング距離を設定されたしきい値と比較し、設定されたしきい値よりも小さい場合、2つの画像は類似したシーンまたは同じシーンであると見なされ、ループが発生したと見なされる、
    ことを特徴とする畳み込み知覚ハッシュアルゴリズムに基づくループ検出方法。
JP2021035168A 2020-07-14 2021-03-05 畳み込み知覚ハッシュアルゴリズムに基づくループ検出方法 Active JP7097641B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010675615.XA CN111832484B (zh) 2020-07-14 2020-07-14 一种基于卷积感知哈希算法的回环检测方法
CN202010675615.X 2020-07-14

Publications (2)

Publication Number Publication Date
JP2022018066A JP2022018066A (ja) 2022-01-26
JP7097641B2 true JP7097641B2 (ja) 2022-07-08

Family

ID=72924137

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021035168A Active JP7097641B2 (ja) 2020-07-14 2021-03-05 畳み込み知覚ハッシュアルゴリズムに基づくループ検出方法

Country Status (2)

Country Link
JP (1) JP7097641B2 (ja)
CN (1) CN111832484B (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112348865B (zh) * 2020-10-30 2023-12-01 深圳市优必选科技股份有限公司 一种回环检测方法、装置、计算机可读存储介质及机器人
CN112381151B (zh) * 2020-11-17 2024-03-22 有米科技股份有限公司 相似视频的确定方法及装置
CN112396167B (zh) * 2020-12-30 2022-07-15 桂林电子科技大学 一种外观相似度与空间位置信息融合的回环检测方法
CN112861609B (zh) * 2020-12-30 2024-04-09 中国电子科技集团公司信息科学研究院 一种多线程的内容关键帧识别效率提高方法
CN112836688B (zh) * 2021-03-26 2023-09-26 广东电网有限责任公司江门供电局 瓦片图像的特征提取方法、装置、电子设备及存储介质
CN114565671A (zh) * 2022-02-21 2022-05-31 北京航空航天大学 一种基于自编码器的回环检测方法
CN115147718B (zh) * 2022-06-21 2024-05-28 北京理工大学 面向无人移动端视觉分析的场景自适应系统及其方法
CN115631319B (zh) * 2022-11-02 2023-06-23 北京科技大学 一种基于交叉注意力网络的回环检测方法
CN115659249B (zh) * 2022-12-28 2023-09-19 成都大汇物联科技有限公司 一种智能测站控制系统异常检测方法
CN118069885B (zh) * 2024-04-19 2024-07-09 山东建筑大学 一种动态视频内容编码检索方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018534710A (ja) 2015-11-05 2018-11-22 フェイスブック,インク. 畳み込みニューラル・ネットワークを使用してコンテンツを処理するシステムおよび方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109658445A (zh) * 2018-12-14 2019-04-19 北京旷视科技有限公司 网络训练方法、增量建图方法、定位方法、装置及设备
CN109815339B (zh) * 2019-01-02 2022-02-08 平安科技(深圳)有限公司 基于TextCNN知识抽取方法、装置、计算机设备及存储介质
CN109783682B (zh) * 2019-01-19 2021-01-15 北京工业大学 一种基于点对相似度的深度非松弛哈希图像检索方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018534710A (ja) 2015-11-05 2018-11-22 フェイスブック,インク. 畳み込みニューラル・ネットワークを使用してコンテンツを処理するシステムおよび方法

Also Published As

Publication number Publication date
CN111832484B (zh) 2023-10-27
JP2022018066A (ja) 2022-01-26
CN111832484A (zh) 2020-10-27

Similar Documents

Publication Publication Date Title
JP7097641B2 (ja) 畳み込み知覚ハッシュアルゴリズムに基づくループ検出方法
AU2019213369B2 (en) Non-local memory network for semi-supervised video object segmentation
CN113936339B (zh) 基于双通道交叉注意力机制的打架识别方法和装置
CN111611847B (zh) 基于尺度注意力空洞卷积网络的视频动作检测方法
CN113807276B (zh) 基于优化的YOLOv4模型的吸烟行为识别方法
US11640714B2 (en) Video panoptic segmentation
CN109271888A (zh) 基于步态的身份识别方法、装置、电子设备
CN111914917A (zh) 一种基于特征金字塔网络和注意力机制的目标检测改进算法
CN110933518B (zh) 一种利用卷积多层注意力网络机制生成面向查询的视频摘要的方法
CN109993269B (zh) 基于注意力机制的单张图像人群计数方法
CN112633220B (zh) 一种基于双向序列化建模的人体姿态估计方法
CN111027555B (zh) 一种车牌识别方法、装置及电子设备
CN112419317B (zh) 一种基于自编码网络的视觉回环检测方法
CN111241326B (zh) 基于注意力金字塔图网络的图像视觉关系指代定位方法
GB2579262A (en) Space-time memory network for locating target object in video content
CN111881731A (zh) 基于人体骨架的行为识别方法、系统、装置及介质
CN112991364A (zh) 基于卷积神经网络跨模态融合的道路场景语义分割方法
CN113313031A (zh) 一种基于深度学习的车道线检测和车辆横向定位方法
CN115359563A (zh) 多人行为识别方法、装置、计算机设备及存储介质
CN111046213A (zh) 一种基于图像识别的知识库构建方法
CN116778346B (zh) 一种基于改进自注意力机制的管线识别方法及系统
CN113313077A (zh) 基于多策略和交叉特征融合的显著物体检测方法
CN113269038A (zh) 一种基于多尺度的行人检测方法
CN114140524B (zh) 一种多尺度特征融合的闭环检测系统及方法
CN115966006A (zh) 基于深度学习模型的跨年龄式人脸识别系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220621

R150 Certificate of patent or registration of utility model

Ref document number: 7097641

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150