JP2021108155A - 画像内のキーポイント位置の認識方法、装置、電子機器及び媒体 - Google Patents

画像内のキーポイント位置の認識方法、装置、電子機器及び媒体 Download PDF

Info

Publication number
JP2021108155A
JP2021108155A JP2021051372A JP2021051372A JP2021108155A JP 2021108155 A JP2021108155 A JP 2021108155A JP 2021051372 A JP2021051372 A JP 2021051372A JP 2021051372 A JP2021051372 A JP 2021051372A JP 2021108155 A JP2021108155 A JP 2021108155A
Authority
JP
Japan
Prior art keywords
feature
key point
map
score
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021051372A
Other languages
English (en)
Other versions
JP7054746B2 (ja
Inventor
シュエ,シュエトン
Xuetong Xue
レン,フイ
Hui Ren
ヤン,ミン
Min Yang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2021108155A publication Critical patent/JP2021108155A/ja
Application granted granted Critical
Publication of JP7054746B2 publication Critical patent/JP7054746B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

【課題】画像における局所エリアのセンター位置を画像のキーポイントとするという定着の欠陥を回避し、修正されたキーポイント位置が局所エリアのセンター位置よりも代表的であることを確保することができ、キーポイントの選択の精度を向上させる画像内のキーポイント位置の認識方法及び装置並びに電子機器及び媒体を提供する。【解決手段】方法は、検出対象画像を取得し、且つ、検出対象画像の特徴マップ及び顕著性マップを取得し、検出対象画像の特徴マップに基づいて検出対象画像のスコア応答マップを生成し、スコア応答マップに基づいて、スコア応答マップにおけるキーポイントの第1のキーポイント位置を取得し、第1のキーポイント位置に基づいて、検出対象画像にマッピングされたキーポイントの第2のキーポイント位置を取得し、顕著性マップに基づいて第2のキーポイント位置を修正する。【選択図】図1

Description

本出願の実施例は、一般的に、画像処理技術の分野に関し、より具体的には、コンピュータビジョン技術の分野に関する。
画像処理の分野では、画像のキーポイント又は特徴点は一般的には、画像内の代表的な又は特徴的なピクセルを指し、同じシーン又はターゲットを含む他の同様の画像において同じ又は同様の不変形式で、画像の意味又は画像内のターゲットの特性を表すことができる。画像の特徴記述子としてキーポイントの画像情報を用いると、一般的には、画像に代わって画像の分析と認識を行うことができる。したがって、画像内のキーポイントを正確に見つけることは、画像処理にとって非常に重要であり、画像内のキーポイントを正確に見つける方法は、コンピュータビジョンの分野における研究の焦点の1つになっている。
本出願は画像内のキーポイント位置の認識方法、装置、電子機器及び媒体を提供する。
第1の態様により提供される画像内のキーポイント位置の認識方法は、検出対象画像を取得し、且つ前記検出対象画像の特徴マップ及び顕著性マップを取得するステップと、前記検出対象画像の特徴マップに基づいて前記検出対象画像のスコア応答マップを生成するステップと、前記スコア応答マップに基づいて、前記スコア応答マップにおけるキーポイントの第1のキーポイント位置を取得するステップと、前記第1のキーポイント位置に基づいて、前記検出対象画像にマッピングされた前記キーポイントの第2のキーポイント位置を取得するステップと、前記顕著性マップに基づいて前記第2のキーポイント位置を修正するステップと、を含む。
第2の態様により提供される画像内のキーポイント位置の認識装置は、検出対象画像を取得し、且つ前記検出対象画像の特徴マップ及び顕著性マップを取得するための画像取得モジュールと、前記検出対象画像の特徴マップに基づいて前記検出対象画像のスコア応答マップを生成するための生成モジュールと、前記スコア応答マップに基づいて、前記スコア応答マップにおけるキーポイントの第1のキーポイント位置を取得するための第1のキーポイント取得モジュールと、前記第1のキーポイント位置に基づいて、前記検出対象画像にマッピングされた前記キーポイントの第2のキーポイント位置を取得するための第2のキーポイント取得モジュールと、前記顕著性マップに基づいて前記第2のキーポイント位置を修正するための修正モジュールと、を含む。
第3の態様により提供される電子機器は、少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサと通信可能に接続されるメモリと、を含み、ここで、前記メモリには前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令は、前記少なくとも1つのプロセッサが第1の態様に記載の画像内のキーポイント位置の認識方法を実行できるように、前記少なくとも1つのプロセッサによって実行される。
第4の態様によれば、コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体をさらに提供し、前記コンピュータ命令は前記コンピュータに第1の態様に記載の画像内のキーポイント位置の認識方法を実行させることに用いられる。
第5の態様によれば、コンピュータプログラムをさらに提供し、前記コンピュータプログラムは前記コンピュータに第1の態様に記載の画像内のキーポイント位置の認識方法を実行させることに用いられる。
本出願により提供される画像内のキーポイント位置の認識方法、装置、電子機器及び媒体は、次の有益な効果を有する。
検出対象画像を取得し、且つ検出対象画像の特徴マップ及び顕著性マップを取得し、検出対象画像の特徴マップに基づいて検出対象画像のスコア応答マップを生成し、スコア応答マップに基づいて、スコア応答マップにおけるキーポイントの第1のキーポイント位置を取得し、第1のキーポイント位置に基づいて、検出対象画像にマッピングされたキーポイントの第2のキーポイント位置を取得し、さらに顕著性マップに基づいて第2のキーポイント位置を修正する。このように、検出対象画像に対応する顕著性マップを取得し、顕著性マップを用い、特徴マップに基づいて決定されたキーポイント位置を修正することにより、画像における局所エリアのセンター位置を画像のキーポイントとするという定着の欠陥を回避し、修正されたキーポイント位置が局所エリアのセンター位置よりも代表的であることを確保することができ、キーポイントの選択の精度を向上させる。
なお、この部分に記載されている内容は、本開示の実施例の肝心な又は重要な特徴を特定することを意図しておらず、本開示の範囲を限定するものでもない。本開示の他の特徴は、以下の説明を通じて容易に理解される。
図面は、本技術案をよりよく理解するために使用され、本出願を限定するものではない。
本発明の実施例1に係る画像内のキーポイント位置の認識方法の概略フローチャートである。 検出対象画像の例示的な図である。 図2(a)に示す検出対象画像に対応する顕著性マップの例示的な図である。 本出願の具体的な実施例に係る画像内のキーポイントの抽出プロセスの例示的な図である。 本発明の実施例2に係る画像内のキーポイント位置の認識方法の概略フローチャートである。 本発明の実施例3に係る画像内のキーポイント位置の認識方法の概略フローチャートである。 本発明の実施例4に係る画像内のキーポイント位置の認識方法の概略フローチャートである。 本発明の実施例5に係る画像内のキーポイント位置の認識方法の概略フローチャートである。 本発明の実施例6に係る画像内のキーポイント位置の認識装置の概略構造図である。 本発明の実施例7に係る画像内のキーポイント位置の認識装置の概略構造図である。 本発明の実施例8に係る画像内のキーポイント位置の認識装置の概略構造図である。 本発明の実施例9に係る画像内のキーポイント位置の認識装置の概略構造図である。 本発明の実施例10に係る画像内のキーポイント位置の認識装置の概略構造図である。 本出願の実施例に係る画像内のキーポイント位置の認識方法を実現するための電子機器のブロック図である。
以下、図面と組み合わせて本出願の例示的な実施例を説明し、理解を容易にするためにその中には本出願の実施例の様々な詳細事項が含まれており、それらは単なる例示的なものと見なされるべきである。したがって、当業者は、本出願の範囲及び精神から逸脱することなく、ここで説明される実施例に対して様々な変更と修正を行うことができる。同様に、わかりやすく且つ簡潔にするために、以下の説明では、周知の機能及び構造の説明を省略する。
以下、図面を参照しながら本出願の画像内のキーポイント位置の認識方法、装置、電子機器及び媒体について説明する。
画像処理では、キーポイントの画像情報は通常、分析と認識のために画像を表すための画像特徴記述子として用いられる。
現在使用されている畳み込みニューラルネットワークに基づくキーポイント抽出方法は、キーポイント抽出を行う時に、まず入力画像に対して解像度が低下した特徴マップを抽出して表示し、また特徴マップ上で一連のポイントを選択して元の入力画像に投影し、これらのポイントは、それぞれ元の入力画像の一連の局所エリアに対応し、元の入力画像の局所エリアのセンターポイントを最終的なキーポイントとする。
しかし、キーポイントは、固定的な位置ではなくて画像の最も代表的な位置を表し、且つ一般的に、画像のコーナー位置がキーポイントとして適切であり、局所エリアのセンター位置は必ずしもコーナー位置とは限らない。そのため、関連技術において、局所エリアのセンターポイントをキーポイントとして決定する方法が合理的ではなく、局所エリアのベストポイントを選択することが困難であるため、選択されたキーポイントの精度は高くない。
上記問題について、本出願は画像内のキーポイント位置の認識方法を開示し、検出対象画像に対応する顕著性マップを取得し、顕著性マップを用い、特徴マップに基づいて決定されたキーポイント位置を修正することにより、画像における局所エリアのセンター位置を画像のキーポイントとするという定着の欠陥を回避し、修正されたキーポイント位置が局所エリアのセンター位置よりも代表的であることを確保することができ、キーポイントの選択の精度を向上させる。
図1は本発明の実施例1に係る画像内のキーポイント位置の認識方法の概略フローチャートであり、当該方法は、本出願により提供される画像内のキーポイント位置の認識装置によって実行されてもよく、本出願により提供される電子機器によって実行されてもよく、ここで、電子機器は、サーバであってもよく、又はデスクトップコンピュータやノートブックコンピュータなどの端末機器であってもよい。以下、本出願により提供される画像内のキーポイント位置の認識装置が本出願により提供される画像内のキーポイント位置の認識方法を実行することを例として本出願を説明する。
図1に示すように、当該画像内のキーポイント位置の認識方法はステップS101〜S105を含む。
S101、検出対象画像を取得し、且つ前記検出対象画像の特徴マップ及び顕著性マップを取得する。
ここで、検出対象画像は、キーポイント認識を必要とする任意の画像であってもよく、検出対象画像は、少なくとも1つのターゲットを含むことができ、例えば、検出対象画像は、車両、建物、動植物などの任意のオブジェクトを含むことができ、本出願により提供される画像内のキーポイント位置の認識方法は、検出対象画像に含まれるオブジェクトを表すことができるキーポイントを認識することができる。
本実施例では、公開された画像データセットから画像を取得して検出対象画像としてもよく、ここで、公開された画像データセットは例えばImagentデータセット、PASCAL VOCデータセット、Labelmeデータセット等であり、又は、ローカルフォトアルバムから画像を取得して検出対象画像としてもよく、又は、1枚の画像を撮像して検出対象画像としてもよく、本出願は検出対象画像を取得する方式について限定しない。
続いて、検出対象画像を取得した後、検出対象画像に対応する特徴マップを取得することができる。
一例として、予めトレーニングされたニューラルネットワークモデルを用いて検出対象画像に特徴抽出操作を行い、検出対象画像に対応する特徴マップを取得してもよい。ここで、ニューラルネットワークモデルはVGGNet(ビジュアルジオメトリグループネットワーク、Visual Geometry Group Network)、AlexNet、ResNet(深い残余ネットワーク、Residual Network)ネットワーク、又はその他の形式の画像特徴抽出に用いることができるニューラルネットワークモデルであってもよい。
上記ニューラルネットワークモデルをトレーニングするとき、まずImageNetなどの大規模データセットを用いて、VGGNet、ResNet、AlexNetなどの畳み込みニューラルネットワークモデルを予めトレーニングしてもよく、トレーニング中に、クロスエントロピー損失関数を用いて、画像をうまく分類できる分類モデルをトレーニングすることによって取得してもよい。その後、モーションの再構築(Structure From Motion、SFM)を用いて、Megadepthデータセットにおいてキーポイントを自動的にマーキングし、予めトレーニングされた分類モデルを微調整する。ここで、予めトレーニングされた分類モデルを微調整する場合、予めトレーニングされた分類モデルをロードした後、Megadepthデータセットにおいてマーク付きのキーポイントを持つ新しいデータを用いて新しいトレーニングを行い、分類モデルを微調整するプロセスでは、トリプレットマージンランキング損失関数(Triplet Margin Ranking Loss)が用いられ、当該損失関数は、メトリック学習で一般的に使用される損失関数であり、トリプレットは、ネットワークに入力された画像が3つの画像で構成され、1つのトリプレットを構成することを意味し、3つの画像は、参照画像(anchor)、ポジティブサンプル(positive)、ネガティブサンプル(negative)に分けられ、ここで、参照画像とポジティブサンプルはシンプルなトリプレットを構成し、参照画像とネガティブサンプルは難しいサンプルを構成し、ネットワークの最適化を通じて、シンプルなトリプルの距離が近づき、難しいトリプルの距離が遠くなる。つまり、トリプレットマージンランキング損失関数を用いて予めトレーニングされた分類モデルを微調整し、当該損失関数は、入力されたペア画像と対応するキーポイントマークの関係にしたがって、ネットワークを調整して、正しいポイントまでの距離を最小化し、間違ったポイントまでの距離を最大化する。微調整された分類モデルを用いて、検出対象画像の特徴抽出を行い、検出対象画像の特徴マップを得ることができる。
例えば、検出対象画像を予めトレーニングされたニューラルネットワークモデルに入力して特徴抽出を行い、ニューラルネットワークモデル内の特定のプーリング層の出力特徴マップを検出対象画像の特徴マップとすることができる。
ピクセルレベルのマーキングが非常に細かいため、手動マーキングが異なると、対応関係に不整合が生じ、エラーが発生する可能性があり、且つ画像データセットの拡大に伴い、マーキング対象画像の割合が多くなり、手動マーキングの時間コストも増えていく。本出願の実施例では、ニューラルネットワークモデルをトレーニングするとき、SFMを介してデータセット上にキーポイントを自動的にマーキングし、手動介入を減らし、マーキングの人的資源及び時間コストを節約し、またキーポイントマーキングの精度を向上させることができる。
さらに、検出対象画像の特徴マップに基づいて検出対象画像の顕著性マップを取得することができる。
深層学習では、バックプロパゲーションアルゴリズムによる勾配逆伝播の実行が一般的であるため、本実施例では、検出対象画像の顕著性マップを取得する際に、検出対象画像の特徴マップを入力とすることができ、標準のバックプロパゲーションアルゴリズムに従って検出対象画像に対する特徴マップの勾配を計算し、検出対象画像と同じ解像度の勾配画像を取得し、勾配画像には、検出対象画像の各ポイントの勾配値が含まれ、当該勾配画像を検出対象画像の顕著性マップとする。
又は、勾配画像におけるポイントをスクリーニングし、勾配画像において条件を満たすポイントを用いて顕著性マップを構成してもよい。具体的には、バックプロパゲーションアルゴリズムに従って勾配画像を得た後、自己適応閾値を用いて勾配画像の勾配値をスクリーニングし、勾配値が自己適応閾値に達するポイントを用いて顕著性マップを構成する。ここで、自己適応閾値は画像エントロピー分割法を用いて算出することができる。自己適応閾値を計算する際に、勾配画像に対して、256個のグレースケールを分割閾値とし、各分割閾値における確率密度関数をそれぞれ計算し、各確率密度関数に基づいて、各分割閾値の下で前景ピクセルと背景ピクセルの累積エントロピーを計算してから、最大エントロピーを見つけ、最大エントロピーに対応する分割閾値を最終閾値、つまり自己適応閾値とする。勾配画像の各勾配値を決定された自己適応閾値と比較し、自己適応閾値より小さい勾配値を除外し、自己適応閾値の勾配値を保持し、保持された勾配値に対応するポイントを用いて検出対象画像の顕著性マップを構成する。
なお、画像エントロピー分割法を用いて自己適応閾値を計算することは、現在、比較的成熟した技術であるため、本実施例では計算プロセスだけについて簡単に説明し、詳しい説明を省略する。
図2(a)は検出対象画像の例示的な図であり、図2(b)は図2(a)に示す検出対象画像に対応する顕著性マップの例示的な図である。図2(a)及び図2(b)と併せて分かるように、図2(b)の顕著性マップの輝度が高いポイントは、図2(a)のターゲットエッジ位置と詳細位置に対応し、つまり、顕著性マップの高い勾配値は、検出対象画像のターゲットエッジ、詳細及びその他の代表的な位置に対応する。
顕著性マップの内容は、検出対象画像のすべてのターゲットエッジの勾配変化であるため、高い勾配値は、検出対象画像のターゲットエッジ、詳細及びその他の代表的な場所に対応するため、勾配画像の自己適応閾値よりも小さい勾配値を除去することにより、得られた顕著性マップのポイントは、検出対象画像のターゲットのエッジ位置と詳細位置のみを反映し、顕著性マップに基づいてキーポイント位置を後で修正することに役立ち、且つ後続のデータ処理量を削減することができる。
ステップ102、検出対象画像の特徴マップに基づいて検出対象画像のスコア応答マップを生成する。
本実施例では、検出対象画像の各特徴点に対して、当該特徴点の近くの他の異なる特徴点と他のチャネルの同じ位置における特徴点と組み合わせて、当該特徴点の応答スコアを算出することができ、特徴マップにおける各特徴点の応答スコアを算出した後、検出対象画像のスコア応答マップを得る。
ここで、スコア応答マップでは、各応答スコアは、特徴マップの特徴点のピクセル強度(数値強度)を意味し、高い数値は高い応答に対応し、高い応答は特徴マップ又は検出対象画像のターゲット位置を反映する。
1つの可能な実現形態として、特徴点の応答スコアを計算するとき、特徴点とその周囲におけるいくつかの他の特徴点のピクセル値に基づいて最大ピクセル値を決定することができ、且つ各チャネルにおける当該特徴点の値を取得し、最大値を選択してから、チャネルにおける最大値とその周囲における最大ピクセル値に基づいて当該特徴点の応答スコアを算出する。
ステップ103、スコア応答マップに基づいて、スコア応答マップにおけるキーポイントの第1のキーポイント位置を取得する。
スコア応答マップにおいて、応答スコアが大きいほど特徴マップのターゲット位置を反応することができ、したがって、本実施例では、スコア応答マップの各応答スコアと予め設定された閾値とを比較し、スコア応答マップの応答スコアが閾値より大きい特徴点の位置を第1のキーポイント位置として決定する。
ステップ104、第1のキーポイント位置に基づいて、検出対象画像にマッピングされたキーポイントの第2のキーポイント位置を取得する。
本実施例では、キーポイントを検出対象画像にマッピングするとき、特徴マップと検出対象画像との間の解像度関係に従ってマッピングし、検出対象画像におけるキーポイントの第2のキーポイント位置を決定することができる。
一例として、特徴マップの解像度を検出対象画像の解像度と比較してもよく、2つの解像度が同じである場合、検出対象画像で第1のキーポイントと同じ位置を見つけることができ、当該位置は、即ち検出対象画像にマッピングされたキーポイントの第2のキーポイント位置である。
一例として、特徴マップの解像度が検出対象画像の解像度と異なる場合、両者の比率関係にしたがって、第1のキーポイント位置に基づいて、検出対象画像におけるキーポイントの第2のキーポイント位置を決定することができる。
ステップ105、顕著性マップに基づいて第2のキーポイント位置を修正する。
本実施例では、検出対象画像におけるキーポイントの第2のキーポイント位置を決定した後、取得された検出対象画像の顕著性マップを用い、第2のキーポイント位置を修正することができる。
一例として、キーポイント位置を修正する場合、検出対象画像上で決定された第2のキーポイント位置に対して、顕著性マップの同じエリアの顕著性値の高低に応じて第2のキーポイント位置を調整することができ、第2のキーポイント位置を当該エリアで顕著性値の最も高い位置まで調整する。
顕著性マップの高い顕著性値は、検出対象画像におけるターゲットのエッジ、及び詳細などの代表的な位置に対応するため、顕著性マップは、修正された位置をより代表的にするために、検出対象画像における第2のキーポイント位置を修正する。
本実施例に係る画像内のキーポイント位置の認識方法は、検出対象画像を取得し、且つ検出対象画像の特徴マップ及び顕著性マップを取得し、検出対象画像の特徴マップに基づいて検出対象画像のスコア応答マップを生成し、スコア応答マップに基づいて、スコア応答マップにおけるキーポイントの第1のキーポイント位置を取得し、第1のキーポイント位置に基づいて、検出対象画像にマッピングされたキーポイントの第2のキーポイント位置を取得し、さらに顕著性マップに基づいて第2のキーポイント位置を修正する。このように、検出対象画像に対応する顕著性マップを取得し、顕著性マップを用い、特徴マップに基づいて決定されたキーポイント位置を修正することにより、画像における局所エリアのセンター位置を画像のキーポイントとするという定着の欠陥を回避し、修正されたキーポイント位置が局所エリアのセンター位置よりも代表的であることを確保することができ、キーポイントの選択の精度を向上させる。
図3は本出願の具体的な実施例に係る画像内のキーポイントの抽出プロセスの例示的な図である。図3に示すように、1つの検出対象画像に対して、まずステップS1を実行し、畳み込みニューラルネットワークを用いて検出対象画像に特徴抽出を行い、画像特徴マップを得、続いてステップS2を実行し、特徴マップに基づいて検出対象画像のスコア応答マップを決定し、またステップS3を実行し、特徴マップに基づいて検出対象画像の顕著性マップを決定する。次に、ステップS4を実行し、スコア応答マップにおける高応答位置を特徴マップのキーポイントとして選択し、その後、ステップS5を実行し、キーポイントの座標を検出対象画像に線形にマッピングし、さらにステップS6を実行し、顕著性マップを用いて検出対象画像上にマッピングされたキーポイントの位置を修正して新しいキーポイントを得、新しいキーポイントは即ち最終的に認識されたキーポイントである。
前述した実施例における検出対象画像の特徴マップに基づいて検出対象画像のスコア応答マップを生成する具体的な実現プロセスをより明確に説明するために、以下は図4と組み合わせて詳細に説明する。
図4は本発明の実施例2に係る画像内のキーポイント位置の認識方法の概略フローチャートである。図4に示すように、図1に示す実施例に基づいて、ステップ102はステップ201〜204を含む。
ステップ201、特徴マップ内の各特徴点の局所応答スコアを取得する。
本実施例では、特徴マップ内の各特徴点に対して、各特徴点の局所応答スコアを取得することができる。
本出願の実施例の1つの可能な実現形態では、各特徴点の局所応答スコアを取得するとき、第iの特徴点(iは正の整数であり、iの値は1からnまでの値であり、nは特徴マップに含まれる特徴点の総数である)に対して、第iの特徴点の複数の隣接する特徴点を取得することができ、例えば、第iの特徴点の周囲における8つの隣接する特徴点を取得し、且つ第iの特徴点の特徴値及び複数の隣接する特徴点の特徴値を取得し、ここで、特徴値はピクセル強度で表すことができ、次に、第iの特徴点の特徴値と複数の隣接する特徴点の特徴値に基づいて第iの特徴点の局所応答スコアを生成する。
例えば、第iの特徴点の特徴値及び複数の隣接する特徴点の特徴値の大きさを比較し、第iの特徴点の局所応答スコアとして最も大きい特徴値を選択する。
最後に、特徴マップ内の特徴点を順次にトラバースして各特徴点の局所応答スコアを取得する。
第iの特徴点の複数の隣接する特徴点を取得し、且つ第iの特徴点の特徴値及び複数の隣接する特徴点の特徴値を取得し、次に、第iの特徴点の特徴値と複数の隣接する特徴点の特徴値に基づいて第iの特徴点の局所応答スコアを生成することにより、各特徴点の局所応答スコアを決定する際には、当該特徴点を考慮するだけでなく、その周囲における他の特徴点も考慮し、局所応答スコアの計算精度を向上させ、さらに、取得されたスコア応答マップの精度を向上させるのに役立つ。
ステップ202、特徴マップ内の各特徴点のチャネル応答スコアを取得する。
本実施例では、特徴マップ内の各特徴点に対して、特徴点の局所応答スコアを取得する上で、特徴点のチャネル応答スコアを取得する。
本出願の実施例の1つの可能な実現形態では、各特徴点のチャネル応答スコアを取得するとき、第iの特徴点に対して、複数のチャネルにおける第iの特徴点の複数の特徴値を取得し、さらに複数のチャネルにおける第iの特徴点の複数の特徴値に基づいて第iの特徴点のチャネル応答スコアを生成する。
特徴マップのサイズをw*h*cと仮定すると、ここで、w、hはそれぞれ長さと幅であり、cはチャネル数であり、したがって、特徴マップの各特徴点に対して、cチャネルにおいて当該特徴点にそれぞれ対応する特徴値を取得し、且つc個の特徴値の大きさを比較し、それから最大の特徴値を選択し、最大の特徴値を当該特徴点のチャネル応答スコアとして決定する。
最後に、前記特徴マップ内の特徴点を順次にトラバースして前記各特徴点のチャネル応答スコアを取得する。
複数のチャネルにおける第iの特徴点の複数の特徴値を取得することにより、複数のチャネルにおける第iの特徴点の複数の特徴値に基づいて第iの特徴点のチャネル応答スコアを生成し、このように、特徴点のチャネル応答スコアを決定する際に、異なるチャネルにおける特徴点の特徴値が考慮され、これは、取得されたスコア応答マップの精度を向上させるのに役立つ。
なお、ステップ201とステップ202の実行順序は特定されず、両者を同時に実行してもよく、順次実行してもよく、本出願の実施例では、ステップ201を実行してからステップ202を実行することのみを例として本出願を説明し、本出願を限定するものではない。
ステップ203、各特徴点の局所応答スコアとチャネル応答スコアに基づいて、各特徴点の応答スコアを計算する。
本実施例では、特徴マップの各特徴点の局所応答スコア及びチャネル応答スコアを取得した後、各特徴点の局所応答スコアとチャネル応答スコアに基づいて、各特徴点の応答スコアを算出する。
一例として、各特徴点の応答スコアを計算するとき、各特徴点の局所応答スコアにチャネル応答スコアを掛けて、各特徴点の応答スコアを生成することができる。このように、局所応答スコアとチャネル応答スコアを用いて特徴点の応答スコアを取得し、算出された応答スコアは、特徴点周囲における他の特徴点を考慮するだけでなく、特徴点が位置しているチャネルも考慮し、取得されたスコア応答マップの精度を向上させるのに役立つ。
他の一例として、各特徴点の応答スコアを計算するとき、局所応答スコアとチャネル応答スコアが特徴点のスコア応答に与える影響の程度に応じて、局所応答スコアとチャネル応答スコアに対応する重みを予め割り当て、さらに、局所応答スコアとチャネル応答スコアに対して加重和計算を行い、特徴点の応答スコアを得る。
ステップ204、各特徴点の応答スコアに基づいて、検出対象画像のスコア応答マップを生成する。
本実施例では、特徴マップにおける各特徴点の応答スコアを取得した後、各特徴点の応答スコアに基づいて、検出対象画像のスコア応答マップを生成することができる。
本実施例に係る画像内のキーポイント位置の認識方法は、特徴マップ内の各特徴点の局所応答スコアを取得し、且つ特徴マップ内の各特徴点のチャネル応答スコアを取得し、各特徴点の局所応答スコアとチャネル応答スコアに基づいて、各特徴点の応答スコアを計算し、さらに各特徴点の応答スコアに基づいて、検出対象画像のスコア応答マップを生成することにより、得られたスコア応答マップにおける各特徴点の応答スコアは、特徴点の周囲における他の特徴点を考慮するだけでなく、特徴点が位置しているチャネルも考慮し、取得されたスコア応答マップの精度を向上させるのに役立つ。
本出願の実施例の1つの可能な実現形態では、前述の実施例のスコア応答マップにおけるキーポイントの第1のキーポイント位置を取得する具体的な実現プロセスをより明確に説明するために、以下、図5と組み合わせて詳細に説明する。
図5は本発明の実施例3に係る画像内のキーポイント位置の認識方法の概略フローチャートである。図5に示すように、図1に示す実施例に基づいて、ステップ103はステップ301及び302を含むことができる。
ステップ301、スコア応答マップにおける各特徴点の応答スコアを取得する。
検出対象画像のスコア応答マップが、特徴マップにおける各特徴点の応答スコアを計算することによって生成されるため、スコア応答マップにおける各特徴点は、特徴マップの同じ位置における特徴点に対応し、したがって、本実施例では、検出対象画像のスコア応答マップから各特徴点の応答スコアを取得することができる。
ステップ302、特徴点の応答スコアが予め設定された閾値より大きい場合、特徴点をキーポイントとし、キーポイントに対応する第1のキーポイント位置を取得する。
ここで、予め設定された閾値は手動で予め設定されてもよく、又は、自己適応計算によって得られてもよく、例えば、一般的に使用されている閾値分割方法によって1つの閾値を算出することができる。
本実施例では、スコア応答マップにおける各特徴点の応答スコアを取得した後、各応答スコアを予め設定された閾値と比較してもよく、ある特徴点の応答スコアが予め設定された閾値より大きい場合、当該特徴点をキーポイントとして決定し、当該特徴点の位置を第1のキーポイント位置として決定する。上記方式により、スコア応答マップにおけるすべての特徴点に対応する第1のキーポイント位置を決定することができる。
ここで、第1のキーポイントの位置は、スコア応答マップの対応するキーポイントの位置座標で表すことができ、例えば、(P,P)として表記してもよく、ここで、Pは、キーポイントがスコア応答マップ上に位置しているピクセルの行の数を表し、Pは、キーポイントがスコア応答マップに位置しているピクセルの列の数を表す。
本実施例に係る画像内のキーポイント位置の認識方法は、スコア応答マップにおける各特徴点の応答スコアを取得し、特徴点の応答スコアが予め設定された閾値より大きい場合、特徴点をキーポイントとし、且つキーポイントに対応する第1のキーポイント位置を取得し、このように、スコア応答マップにおけるキーポイントの選択を実現し、検出対象画像のキーポイント位置を後で決定するための基礎を築く。
画像の特徴マップは元の画像からの特徴抽出によって取得されるため、特徴マップの解像度は一般的には、元の画像の解像度よりも大きくはない。本出願の実施例の1つの可能な実現形態では、特徴マップの解像度は、検出対象画像の解像度よりも小さい。このように、特徴マップの特徴点の数を減らすことができ、特徴マップの1つの特徴点は、検出対象画像の1つのエリア範囲を表すことができ、それにより、後で計算するデータ量を減らすことができる。
さらに、本出願の実施例の1つの可能な実現形態では、キーポイントが検出対象画像における第2のキーポイント位置にマッピングされたことを決定した場合、特徴マップと検出対象画像の解像度の高低に基づいてマッピングすることができ、以下では図6を参照して詳細に説明する。
図6は本発明の実施例4に係る画像内のキーポイント位置の認識方法の概略フローチャートである。図6に示すように、図1に示す実施例に基づいて、ステップ104はステップ401及びステップ402を含むことができる。
ステップ401、特徴マップの解像度と検出対象画像の解像度との比率を取得する。
1枚の画像については、その解像度とは、画像に記憶されている情報の量を意味し、1インチあたりの画像に含まれるピクセルの数である。一般的には、解像度は各方向のピクセル数として表され、例えば、640*480である。既知の画像に対して、その解像度も既知ものである。したがって、本実施例では、特徴マップの解像度と検出対象画像の解像度を別々に取得することができ、特徴マップの解像度と検出対象画像の解像度との間の解像度比を計算することができる。
例として、特徴マップの解像度が160*120であり、検出対象画像の解像度が1280*960であると仮定すると、特徴マップの解像度と検出対象画像の解像度との間の解像度比は1/8である。
ステップ402、第1のキーポイント位置、及び解像度の比率に基づいて第2のキーポイント位置を生成する。
一般的には、特徴マップのサイズは、元の画像の1/8など、元の画像サイズの固定縮尺値であり、スコア応答マップの特徴点は、特徴マップの特徴点に1対1対応し、スコア応答マップにおけるキーポイントの第1のキーポイント位置は、つまり、特徴マップにおけるキーポイントのキーポイント位置であり、したがって、本実施例では、第1のキーポイント位置、及び解像度の比率に基づいて第2のキーポイント位置を生成することができ、第2のキーポイント位置を決定するとき、第1のキーポイント位置と、解像度の比率との積を計算し、得られた結果を、検出対象画像にマッピングされたキーポイントの第2のキーポイント位置とする。
例を挙げて言うと、特徴マップの解像度と検出対象画像の解像度との比率が1/8であり、キーポイントの第1のキーポイント位置が(P,P)であると仮定すると、検出対象画像にマッピングされた同じキーポイントの第2のキーポイント位置は(8*P,8*P)である。
本実施例に係る画像内のキーポイント位置の認識方法は、特徴マップの解像度と検出対象画像の解像度との比率を取得し、第1のキーポイント位置、及び解像度の比率に基づいて第2のキーポイント位置を生成することにより、特徴マップにおけるキーポイントから元の画像へのマッピングを実現し、キーポイントの初期認識を実現し、初期認識されたキーポイント位置を後で修正するための条件を提供する。
本出願の実施例の1つの可能な実現形態では、前述の実施例の顕著性マップに基づいて第2のキーポイント位置を修正する具体的な実現プロセスをより明確に説明するために、以下、図7と組み合わせて詳細に説明する。
図7は本発明の実施例5に係る画像内のキーポイント位置の認識方法の概略フローチャートである。図7に示すように、図1に示す実施例に基づいて、ステップ105はステップ501〜504を含む。
ステップ501、第2のキーポイント位置が位置しているエリアを取得する。
例えば、第2のキーポイント位置の周囲の予め設定された距離内の範囲を1つのエリアとして分割することができ、当該エリアを第2のキーポイント位置が位置しているエリアとして取得する。
さらに例を挙げると、第2のキーポイント位置から最も近い周囲の予め設定された数のポイントで囲まれたエリアを、第2のキーポイント位置が位置しているエリアとして取得することができる。
ステップ502、第2のキーポイント位置が位置しているエリアにおける各特徴点の顕著性値を取得する。
ステップ503、エリアにおいて最大の顕著性値を持つ特徴点の位置を取得し、且つエリアにおいて最大の顕著性値を持つ特徴点の位置を修正位置とする。
ステップ504、第2のキーポイント位置を修正位置に修正する。
本実施例では、検出対象画像に対応する顕著性マップから、第2のキーポイント位置が位置しているエリア内の各特徴点の顕著性値を取得でき、且つ同じエリア内の各特徴点の顕著性値を比較し、同じエリアにおいて最大の顕著性値を持つ特徴点の位置を取得し、第2のキーポイント位置が位置しているエリアにおいて最大の顕著性値を持つ特徴点の位置を、キーポイントの修正位置として決定する。さらに、第2のキーポイント位置を決定された当該修正位置に修正することにより、検出対象画像におけるキーポイント位置の修正を実現し、キーポイント認識の精度を向上させる。
本実施例に係る画像内のキーポイント位置の認識方法は、第2のキーポイント位置が位置しているエリアを取得し、第2のキーポイント位置が位置しているエリアにおける各特徴点の顕著性値を取得し、エリアにおいて最大の顕著性値を持つ特徴点の位置を取得し、且つエリアにおいて最大の顕著性値を持つ特徴点の位置を修正位置とし、さらに第2のキーポイント位置を修正位置に修正することにより、検出対象画像のキーポイント位置の修正を実現し、キーポイント認識の精度を向上させる。
本出願の実施例によれば、本出願は画像内のキーポイント位置の認識装置をさらに提供する。
図8は本発明の実施例6に係る画像内のキーポイント位置の認識装置の概略構造図である。図8に示すように、当該画像内のキーポイント位置の認識装置60は、画像取得モジュール610、生成モジュール620、第1のキーポイント取得モジュール630、第2のキーポイント取得モジュール640及び修正モジュール650を含む。
画像取得モジュール610は、検出対象画像を取得し、且つ検出対象画像の特徴マップ及び顕著性マップを取得することに用いられる。
生成モジュール620は、検出対象画像の特徴マップに基づいて検出対象画像のスコア応答マップを生成することに用いられる。
第1のキーポイント取得モジュール630は、スコア応答マップに基づいて、スコア応答マップにおけるキーポイントの第1のキーポイント位置を取得することに用いられる。
第2のキーポイント取得モジュール640は、第1のキーポイント位置に基づいて、検出対象画像にマッピングされたキーポイントの第2のキーポイント位置を取得することに用いられる。
修正モジュール650は、顕著性マップに基づいて第2のキーポイント位置を修正することに用いられる。
さらに、本出願の実施例の1つの可能な実現形態では、図9に示すように、図8に示す実施例に基づいて、生成モジュール620はさらに、第1の取得ユニット621、第2の取得ユニット622、計算ユニット623及び生成ユニット624を含む。
第1の取得ユニット621は、前記特徴マップ内の各特徴点の局所応答スコアを取得することに用いられる。
1つの可能な実現形態として、第1の取得ユニット621は、第iの特徴点の複数の隣接する特徴点を取得し、且つ前記第iの特徴点の特徴値及び前記複数の隣接する特徴点の特徴値を取得し、また、前記第iの特徴点の特徴値と前記複数の隣接する特徴点の特徴値に基づいて前記第iの特徴点の局所応答スコアを生成し、前記特徴マップ内の特徴点を順次にトラバースして前記各特徴点の局所応答スコアを取得し、ここで、iは正の整数である。
第2の取得ユニット622は、前記特徴マップ内の各特徴点のチャネル応答スコアを取得することに用いられる。
1つの可能な実現形態として、第2の取得ユニット622は、複数のチャネルにおける前記第iの特徴点の複数の特徴値を取得し、さらに前記複数のチャネルにおける前記第iの特徴点の複数の特徴値に基づいて前記第iの特徴点のチャネル応答スコアを生成し、前記特徴マップ内の特徴点を順次にトラバースして前記各特徴点のチャネル応答スコアを取得する。
計算ユニット623は、前記各特徴点の局所応答スコアと前記チャネル応答スコアに基づいて、前記各特徴点の応答スコアを計算することに用いられる。
1つの可能な実現形態として、計算ユニット623は、各特徴点の前記局所応答スコアに前記チャネル応答スコアを掛けて、前記各特徴点の応答スコアを生成する。
生成ユニット624は、前記各特徴点の応答スコアに基づいて、前記検出対象画像のスコア応答マップを生成することに用いられる。
本出願の実施例の1つの可能な実現形態では、図10に示すように、図8に示す実施例に基づいて、第1のキーポイント取得モジュール630は、前記スコア応答マップにおける各特徴点の応答スコアを取得するための応答スコア取得ユニット631と、前記特徴点の応答スコアが予め設定された閾値より大きい場合、前記特徴点を前記キーポイントとし、前記キーポイントに対応する第1のキーポイント位置を取得するための決定ユニット632と、を含む。
本出願の実施例の1つの可能な実現形態では、前記特徴マップの解像度は、前記検出対象画像の解像度よりも小さい。それにより、図11に示すように、図8に示す実施例に基づいて、第2のキーポイント取得モジュール640は、前記特徴マップの解像度と前記検出対象画像の解像度との比率を取得するための比率取得ユニット641と、前記第1のキーポイント位置、及び前記解像度の比率に基づいて前記第2のキーポイント位置を生成するためのマッピングユニット642と、を含む。
本出願の実施例の1つの可能な実現形態では、図12に示すように、図8に示す実施例に基づいて、修正モジュール650は、前記第2のキーポイント位置が位置しているエリアを取得するためのエリア取得ユニット651と、前記第2のキーポイント位置が位置しているエリアにおける各特徴点の顕著性値を取得するための顕著性値取得ユニット652と、前記エリアにおいて最大の顕著性値を持つ特徴点の位置を取得し、且つ前記エリアにおいて最大の顕著性値を持つ特徴点の位置を修正位置とするための修正位置取得ユニット653と、前記第2のキーポイント位置を前記修正位置に修正するための修正ユニット654と、を含む。
なお、前述した画像内のキーポイント位置の認識方法の実施例に対する解釈や説明は、当該実施例の画像内のキーポイント位置の認識装置にも適用されており、その実現原理が類似するものであり、ここでは詳しい説明を省略する。
本実施例に係る画像内のキーポイント位置の認識装置は、検出対象画像を取得し、且つ検出対象画像の特徴マップ及び顕著性マップを取得し、検出対象画像の特徴マップに基づいて検出対象画像のスコア応答マップを生成し、スコア応答マップに基づいて、スコア応答マップにおけるキーポイントの第1のキーポイント位置を取得し、第1のキーポイント位置に基づいて、検出対象画像にマッピングされたキーポイントの第2のキーポイント位置を取得し、さらに顕著性マップに基づいて第2のキーポイント位置を修正する。このように、検出対象画像に対応する顕著性マップを取得し、顕著性マップを用い、特徴マップに基づいて決定されたキーポイント位置を修正することにより、画像における局所エリアのセンター位置を画像のキーポイントとするという定着の欠陥を回避し、修正されたキーポイント位置が局所エリアのセンター位置よりも代表的であることを確保することができ、キーポイントの選択の精度を向上させる。
本出願の実施例によれば、本出願は、電子機器及び読み取り可能な記憶媒体をさらに提供する。
図13に示すのは、本出願の実施例に係る画像内のキーポイント位置の認識方法を実現するための例示的な電子機器のブロック図である。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、メインフレームコンピュータ、及び他の適切なコンピュータなどの様々な形態のデジタルコンピュータを表すことを目的とする。電子機器は、パーソナルデジタルプロセッサ、携帯電話、スマートフォン、ウェアラブルデバイス、他の類似するコンピューティングデバイスなどの様々な形態のモバイル装置を表すこともできる。本明細書で示されるコンポーネント、それらの接続と関係、及びそれらの機能は単なる例であり、本明細書の説明及び/又は要求される本出願の実現を制限することを意図したものではない。
図13に示すように、当該電子機器は、1つ又は複数のプロセッサ701と、メモリ702と、高速インタフェース及び低速インタフェースを含む、各コンポーネントを接続するためのインタフェースと、を含む。各コンポーネントは、異なるバスで相互に接続され、共通のマザーボードに取り付けられるか、又は必要に応じて他の方法で取り付けられてもよい。プロセッサは、電子機器内で実行される命令を処理することができ、当該命令は、外部入力/出力装置(例えば、インタフェースに結合された表示機器など)にGUIの図形情報を表示するためにメモリ内又はメモリに記憶されている命令を含む。他の実施形態では、必要に応じて、複数のプロセッサ及び/又は複数のバスを、複数のメモリと一緒に使用することができる。同様に、複数の電子機器を接続することができ、各電子機器は、一部の必要な操作(例えば、サーバアレイ、1グループのブレードサーバ、又はマルチプロセッサシステムとする)を提供することができる。図13では、1つのプロセッサ701を例とする。
メモリ702は、本出願により提供される非一時的なコンピュータ読み取り可能な記憶媒体である。ここで、前記メモリには、前記少なくとも1つのプロセッサが本出願により提供される画像内のキーポイント位置の認識方法を実行するよう、少なくとも1つのプロセッサによって実行可能な命令が記憶される。本出願の非一時的なコンピュータ読み取り可能な記憶媒体には、コンピュータに本出願により提供される画像内のキーポイント位置の認識方法を実行させるためのコンピュータ命令が記憶されている。
メモリ702は、非一時的なコンピュータ読み取り可能な記憶媒体として、本出願の実施例における画像内のキーポイント位置の認識方法に対応するプログラム命令/モジュール(例えば、図8に示す画像取得モジュール610、生成モジュール620、第1のキーポイント取得モジュール630、第2のキーポイント取得モジュール640及び修正モジュール650)のような、非一時的なソフトウェアプログラム、非一時的なコンピュータ実行可能なプログラム及びモジュールを記憶する。プロセッサ701は、メモリ702に記憶されている非一時的なソフトウェアプログラム、命令及びモジュールを実行することによって、サーバの様々な機能アプリケーション及びデータ処理を実行し、すなわち上記方法の実施例における画像内のキーポイント位置の認識方法を実現する。
メモリ702は、プログラムストレージエリアとデータストレージエリアと、を含むことができ、ここで、プログラムストレージエリアは、オペレーティングシステム、少なくとも1つの機能に必要なアプリケーションプログラムを記憶することができ、データストレージエリアは、画像内のキーポイント位置の認識方法を実行する電子機器の使用によって作成されたデータなどを記憶することができる。また、メモリ702は、高速ランダムアクセスメモリを含むことができ、非一時的なメモリをさらに含むことができ、例えば、少なくとも1つの磁気ディスクストレージデバイス、フラッシュメモリデバイス、又は他の非一時的なソリッドステートストレージデバイスである。いくつかの実施例では、メモリ702は、プロセッサ701に対して遠隔に設定されたメモリを選択的に含むことができ、これらの遠隔メモリは、ネットワークを介して画像内のキーポイント位置の認識方法を実行する電子機器に接続されることができる。上記ネットワークの例は、インターネット、イントラネット、ローカルエリアネットワーク、モバイル通信ネットワーク、及びその組み合わせを含むが、これらに限定されない。
画像内のキーポイント位置の認識方法を実行するための電子機器は、入力装置703と出力装置704とをさらに含むことができる。プロセッサ701、メモリ702、入力装置703、及び出力装置704は、バス又は他の方式を介して接続することができ、図13では、バスを介して接続することを例とする。
入力装置703は、入力された数字又は文字情報を受信し、画像内のキーポイント位置の認識方法を実行する電子機器のユーザ設定及び機能制御に関するキー信号入力を生成することができ、例えば、タッチスクリーン、キーパッド、マウス、トラックパッド、タッチパッド、ポインティングスティック、1つ又は複数のマウスボタン、トラックボール、ジョイスティックなどの入力装置である。出力装置704は、表示機器、補助照明装置(例えば、LED)、及び触覚フィードバック装置(例えば、振動モータ)などを含むことができる。当該表示機器は、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、及びプラズマディスプレイを含むことができるが、これらに限定されない。いくつかの実施形態で、表示機器は、タッチスクリーンであってもよい。
本明細書で説明されるシステムと技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、特定用途向けASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせで実現することができる。これらの様々な実施形態は、1つ又は複数のコンピュータプログラムで実施され、当該1つ又は複数のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを含むプログラム可能なシステムで実行及び/又は解釈することができ、当該プログラマブルプロセッサは、専用又は汎用のプログラマブルプロセッサであってもよく、ストレージシステム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、データ及び命令を当該ストレージシステム、当該少なくとも1つの入力装置、及び当該少なくとも1つの出力装置に伝送することができる。
これらのコンピューティングプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、又はコードとも呼ばれる)は、プログラマブルプロセッサの機械命令を含むことができ、高レベルのプロセス及び/又は対象指向プログラミング言語、及び/又はアセンブリ/機械言語でこれらのコンピューティングプログラムを実施することができる。本明細書で使用されるような、「機械読み取り可能な媒体」及び「コンピュータ読み取り可能な媒体」という用語は、機械命令及び/又はデータをプログラマブルプロセッサに提供するための任意のコンピュータプログラム製品、機器、及び/又は装置(例えば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(PLD))を指し、機械読み取り可能な信号である機械命令を受信する機械読み取り可能な媒体を含む。「機械読み取り可能な信号」という用語は、機械命令及び/又はデータをプログラマブルプロセッサに提供するための任意の信号を指す。
ユーザとのインタラクションを提供するために、ここで説明されるシステム及び技術をコンピュータ上で実施することができ、当該コンピュータは、ユーザに情報を表示するための表示装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)と、キーボード及びポインティング装置(例えば、マウス又はトラックボール)とを有し、ユーザは、当該キーボード及び当該ポインティング装置によって入力をコンピュータに提供することができる。他の種類の装置も、ユーザとのインタラクションを提供することができ、例えば、ユーザに提供されるフィードバックは、任意の形態のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、任意の形態(音響入力と、音声入力と、触覚入力とを含む)でユーザからの入力を受信することができる。
ここで説明されるシステム及び技術は、バックエンドコンポーネントを含むコンピューティングシステム(例えば、データサーバとする)、又はミドルウェアコンポーネントを含むコンピューティングシステム(例えば、アプリケーションサーバ)、又はフロントエンドコンポーネントを含むコンピューティングシステム(例えば、グラフィカルユーザインタフェース又はウェブブラウザを有するユーザコンピュータであり、ユーザは、当該グラフィカルユーザインタフェース又は当該ウェブブラウザによってここで説明されるシステム及び技術の実施形態とインタラクションを行う)、又はこのようなバックエンドコンポーネントと、ミドルウェアコンポーネントと、フロントエンドコンポーネントの任意の組み合わせを含むコンピューティングシステムで実施することができる。任意の形態又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によってシステムのコンポーネントを相互に接続することができる。通信ネットワークの例は、ローカルエリアネットワーク(LAN)と、ワイドエリアネットワーク(WAN)と、インターネットと、を含む。
コンピュータシステムは、クライアント及びサーバを含むことができる。クライアントとサーバは、一般的に、互いに離れており、通常に通信ネットワークを介してインタラクションを行う。対応するコンピュータ上で実行され、且つ互いにクライアント−サーバの関係を有するコンピュータプログラムによって、クライアントとサーバとの関係が生成される。
本出願の実施例の技術案によれば、検出対象画像に対応する顕著性マップを取得し、顕著性マップを用い、特徴マップに基づいて決定されたキーポイント位置を修正することにより、画像における局所エリアのセンター位置を画像のキーポイントとするという定着の欠陥を回避し、修正されたキーポイント位置が局所エリアのセンター位置よりも代表的であることを確保することができ、キーポイントの選択の精度を向上させる。
上記に示される様々な形態のフローを用い、ステップを並べ替え、追加、又は削除することができる。例えば、本出願に記載されている各ステップは、並列に実行されてもよいし、順次的に実行されてもよいし、異なる順序で実行されてもよいが、本出願で開示されている技術案の所望の結果を実現することができれば、本明細書では限定されない。
上記具体的な実施形態は、本出願の保護範囲を制限するものではない。当業者は、設計要件と他の要因に基づいて、様々な修正、組み合わせ、サブコンビネーション、及び代替を行うことができる。本出願の精神と原則内で行われる任意の修正、同等の置換、及び改善などは、いずれも本出願の保護範囲内に含まれるべきである。

Claims (21)

  1. 画像内のキーポイント位置の認識方法であって、
    検出対象画像を取得し、且つ前記検出対象画像の特徴マップ及び顕著性マップを取得するステップと、
    前記検出対象画像の特徴マップに基づいて前記検出対象画像のスコア応答マップを生成するステップと、
    前記スコア応答マップに基づいて、前記スコア応答マップにおけるキーポイントの第1のキーポイント位置を取得するステップと、
    前記第1のキーポイント位置に基づいて、前記検出対象画像にマッピングされた前記キーポイントの第2のキーポイント位置を取得するステップと、
    前記顕著性マップに基づいて前記第2のキーポイント位置を修正するステップと、を含む、
    ことを特徴とする画像内のキーポイント位置の認識方法。
  2. 前記検出対象画像の特徴マップに基づいて前記検出対象画像のスコア応答マップを生成するステップは、
    前記特徴マップ内の各特徴点の局所応答スコアを取得するステップと、
    前記特徴マップ内の各特徴点のチャネル応答スコアを取得するステップと、
    前記各特徴点の局所応答スコアと前記チャネル応答スコアに基づいて、前記各特徴点の応答スコアを計算するステップと、
    前記各特徴点の応答スコアに基づいて、前記検出対象画像のスコア応答マップを生成するステップと、を含む、
    ことを特徴とする請求項1に記載の画像内のキーポイント位置の認識方法。
  3. 前記特徴マップ内の各特徴点の局所応答スコアを取得するステップは、
    第iの特徴点の複数の隣接する特徴点を取得するステップであって、iは正の整数であるステップと、
    前記第iの特徴点の特徴値及び前記複数の隣接する特徴点の特徴値を取得するステップと、
    前記第iの特徴点の特徴値と前記複数の隣接する特徴点の特徴値に基づいて前記第iの特徴点の局所応答スコアを生成し、前記特徴マップ内の特徴点を順次にトラバースして前 記各特徴点の局所応答スコアを取得するステップと、を含む、
    ことを特徴とする請求項2に記載の画像内のキーポイント位置の認識方法。
  4. 前記特徴マップ内の各特徴点のチャネル応答スコアを取得するステップは、
    複数のチャネルにおける前記第iの特徴点の複数の特徴値を取得するステップと、
    前記複数のチャネルにおける前記第iの特徴点の複数の特徴値に基づいて前記第iの特徴点のチャネル応答スコアを生成し、前記特徴マップ内の特徴点を順次にトラバースして前記各特徴点のチャネル応答スコアを取得するステップと、を含む、
    ことを特徴とする請求項3に記載の画像内のキーポイント位置の認識方法。
  5. 前記各特徴点の局所応答スコアと前記チャネル応答スコアに基づいて、前記各特徴点の応答スコアを計算するステップは、
    各特徴点の前記局所応答スコアに前記チャネル応答スコアを掛けて、前記各特徴点の応答スコアを生成するステップを含む、
    ことを特徴とする請求項2に記載の画像内のキーポイント位置の認識方法。
  6. 前記スコア応答マップに基づいて、前記スコア応答マップにおけるキーポイントの第1のキーポイント位置を取得するステップは、
    前記スコア応答マップにおける各特徴点の応答スコアを取得するステップと、
    前記特徴点の応答スコアが予め設定された閾値より大きい場合、前記特徴点を前記キーポイントとし、前記キーポイントに対応する第1のキーポイント位置を取得するステップと、を含む、
    ことを特徴とする請求項1に記載の画像内のキーポイント位置の認識方法。
  7. 前記特徴マップの解像度は、前記検出対象画像の解像度よりも小さい、
    ことを特徴とする請求項1に記載の画像内のキーポイント位置の認識方法。
  8. 前記第1のキーポイント位置に基づいて、前記検出対象画像にマッピングされた前記キーポイントの第2のキーポイント位置を取得するステップは、
    前記特徴マップの解像度と前記検出対象画像の解像度との比率を取得するステップと、
    前記第1のキーポイント位置、及び前記解像度の比率に基づいて前記第2のキーポイント位置を生成するステップと、を含む、
    ことを特徴とする請求項7に記載の画像内のキーポイント位置の認識方法。
  9. 前記顕著性マップに基づいて前記第2のキーポイント位置を修正するステップは、
    前記第2のキーポイント位置が位置しているエリアを取得するステップと、
    前記第2のキーポイント位置が位置しているエリアにおける各特徴点の顕著性値を取得するステップと、
    前記エリアにおいて最大の顕著性値を持つ特徴点の位置を取得し、且つ前記エリアにおいて最大の顕著性値を持つ特徴点の位置を修正位置とするステップと、
    前記第2のキーポイント位置を前記修正位置に修正するステップと、を含む、
    ことを特徴とする請求項1に記載の画像内のキーポイント位置の認識方法。
  10. 画像内のキーポイント位置の認識装置であって、
    検出対象画像を取得し、且つ前記検出対象画像の特徴マップ及び顕著性マップを取得するための画像取得モジュールと、
    前記検出対象画像の特徴マップに基づいて前記検出対象画像のスコア応答マップを生成するための生成モジュールと、
    前記スコア応答マップに基づいて、前記スコア応答マップにおけるキーポイントの第1のキーポイント位置を取得するための第1のキーポイント取得モジュールと、
    前記第1のキーポイント位置に基づいて、前記検出対象画像にマッピングされた前記キーポイントの第2のキーポイント位置を取得するための第2のキーポイント取得モジュールと、
    前記顕著性マップに基づいて前記第2のキーポイント位置を修正するための修正モジュールと、を含む、
    ことを特徴とする画像内のキーポイント位置の認識装置。
  11. 前記生成モジュールは、
    前記特徴マップ内の各特徴点の局所応答スコアを取得するための第1の取得ユニットと、
    前記特徴マップ内の各特徴点のチャネル応答スコアを取得するための第2の取得ユニットと、
    前記各特徴点の局所応答スコアと前記チャネル応答スコアに基づいて、前記各特徴点の応答スコアを計算するための計算ユニットと、
    前記各特徴点の応答スコアに基づいて、前記検出対象画像のスコア応答マップを生成するための生成ユニットと、を含む、
    ことを特徴とする請求項10に記載の画像内のキーポイント位置の認識装置。
  12. 前記第1の取得ユニットは、第iの特徴点の複数の隣接する特徴点を取得し、且つ前記第iの特徴点の特徴値及び前記複数の隣接する特徴点の特徴値を取得し、また、前記第iの特徴点の特徴値と前記複数の隣接する特徴点の特徴値に基づいて前記第iの特徴点の局所応答スコアを生成し、前記特徴マップ内の特徴点を順次にトラバースして前記各特徴点の局所応答スコアを取得し、ここで、iは正の整数である、
    ことを特徴とする請求項11に記載の画像内のキーポイント位置の認識装置。
  13. 前記第2の取得ユニットは、複数のチャネルにおける前記第iの特徴点の複数の特徴値を取得し、さらに前記複数のチャネルにおける前記第iの特徴点の複数の特徴値に基づいて前記第iの特徴点のチャネル応答スコアを生成し、前記特徴マップ内の特徴点を順次にトラバースして前記各特徴点のチャネル応答スコアを取得する、
    ことを特徴とする請求項12に記載の画像内のキーポイント位置の認識装置。
  14. 前記計算ユニットは、各特徴点の前記局所応答スコアに前記チャネル応答スコアを掛けて、前記各特徴点の応答スコアを生成する、
    ことを特徴とする請求項11に記載の画像内のキーポイント位置の認識装置。
  15. 前記第1のキーポイント取得モジュールは、
    前記スコア応答マップにおける各特徴点の応答スコアを取得するための応答スコア取得ユニットと、
    前記特徴点の応答スコアが予め設定された閾値より大きい場合、前記特徴点を前記キーポイントとし、前記キーポイントに対応する第1のキーポイント位置を取得するための決定ユニットと、を含む、
    ことを特徴とする請求項10に記載の画像内のキーポイント位置の認識装置。
  16. 前記特徴マップの解像度は、前記検出対象画像の解像度よりも小さい、
    ことを特徴とする請求項10に記載の画像内のキーポイント位置の認識装置。
  17. 前記第2のキーポイント取得モジュールは、
    前記特徴マップの解像度と前記検出対象画像の解像度との比率を取得するための比率取得ユニットと、
    前記第1のキーポイント位置、及び前記解像度の比率に基づいて前記第2のキーポイント位置を生成するためのマッピングユニットと、を含む、
    ことを特徴とする請求項16に記載の画像内のキーポイント位置の認識装置。
  18. 前記修正モジュールは、
    前記第2のキーポイント位置が位置しているエリアを取得するためのエリア取得ユニットと、
    前記第2のキーポイント位置が位置しているエリアにおける各特徴点の顕著性値を取得するための顕著性値取得ユニットと、
    前記エリアにおいて最大の顕著性値を持つ特徴点の位置を取得し、且つ前記エリアにおいて最大の顕著性値を持つ特徴点の位置を修正位置とするための修正位置取得ユニットと、
    前記第2のキーポイント位置を前記修正位置に修正するための修正ユニットと、を含む、
    ことを特徴とする請求項10に記載の画像内のキーポイント位置の認識装置。
  19. 電子機器であって、
    少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサと通信可能に接続されるメモリと、を含み、ここで、
    前記メモリには前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令は、前記少なくとも1つのプロセッサが請求項1〜9のいずれか一項に記載の画像内のキーポイント位置の認識方法を実行できるように、前記少なくとも1つのプロセッサによって実行される、ことを特徴とする電子機器。
  20. コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータ命令は前記コンピュータに請求項1〜9のいずれか一項に記載の画像内のキーポイント位置の認識方法を実行させることに用いられる、ことを特徴とする非一時的なコンピュータ読み取り可能な記憶媒体。
  21. コンピュータ上で動作しているときに、請求項1〜9のいずれか一項に記載の画像内のキーポイント位置の認識方法を前記コンピュータに実行させる、
    ことを特徴とするコンピュータプログラム。
JP2021051372A 2020-05-29 2021-03-25 画像内のキーポイント位置の認識方法、装置、電子機器及び媒体 Active JP7054746B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010479505.6A CN111709428B (zh) 2020-05-29 2020-05-29 图像中关键点位置的识别方法、装置、电子设备及介质
CN202010479505.6 2020-05-29

Publications (2)

Publication Number Publication Date
JP2021108155A true JP2021108155A (ja) 2021-07-29
JP7054746B2 JP7054746B2 (ja) 2022-04-14

Family

ID=72538891

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021051372A Active JP7054746B2 (ja) 2020-05-29 2021-03-25 画像内のキーポイント位置の認識方法、装置、電子機器及び媒体

Country Status (5)

Country Link
US (1) US11636666B2 (ja)
EP (1) EP3822858A3 (ja)
JP (1) JP7054746B2 (ja)
KR (1) KR102508860B1 (ja)
CN (1) CN111709428B (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111709428B (zh) * 2020-05-29 2023-09-15 北京百度网讯科技有限公司 图像中关键点位置的识别方法、装置、电子设备及介质
CN114511613B (zh) * 2020-11-16 2023-04-18 阿里巴巴集团控股有限公司 关键点检测方法、模型训练方法、装置、设备和存储介质
CN113160291B (zh) * 2021-04-12 2023-02-14 华雁智科(杭州)信息技术有限公司 一种基于图像配准的变化检测方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014056507A (ja) * 2012-09-13 2014-03-27 Omron Corp 画像処理装置、画像処理プログラム、これを記録したコンピュータ読み取り可能な記録媒体、および、画像処理方法
WO2018051459A1 (ja) * 2016-09-15 2018-03-22 三菱電機株式会社 物体検出装置および物体検出方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104616316B (zh) * 2014-05-23 2017-11-10 苏州大学 基于阈值矩阵和特征融合视觉单词的人物行为识别方法
CN104835175B (zh) * 2015-05-26 2019-11-05 西南科技大学 一种基于视觉注意机制的核环境中目标检测方法
US10552709B2 (en) * 2016-10-05 2020-02-04 Ecole Polytechnique Federale De Lausanne (Epfl) Method, system, and device for learned invariant feature transform for computer images
WO2018099557A1 (en) * 2016-11-30 2018-06-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Image processing device and method for producing in real-time a digital composite image from a sequence of digital images
CN108229509B (zh) * 2016-12-16 2021-02-26 北京市商汤科技开发有限公司 用于识别物体类别的方法及装置、电子设备
CN109918975B (zh) * 2017-12-13 2022-10-21 腾讯科技(深圳)有限公司 一种增强现实的处理方法、对象识别的方法及终端
CN108073910B (zh) * 2017-12-29 2021-05-07 百度在线网络技术(北京)有限公司 用于生成人脸特征的方法和装置
CN108038476B (zh) * 2018-01-03 2019-10-11 东北大学 一种基于边缘检测与sift的人脸表情识别特征提取方法
EP3547211B1 (en) * 2018-03-30 2021-11-17 Naver Corporation Methods for training a cnn and classifying an action performed by a subject in an inputted video using said cnn
CN108549863B (zh) * 2018-04-11 2019-11-26 腾讯科技(深圳)有限公司 人体姿态预测方法、装置、设备及存储介质
CN109684911B (zh) * 2018-10-30 2021-05-11 百度在线网络技术(北京)有限公司 表情识别方法、装置、电子设备及存储介质
CN113569798B (zh) * 2018-11-16 2024-05-24 北京市商汤科技开发有限公司 关键点检测方法及装置、电子设备和存储介质
WO2020187705A1 (en) * 2019-03-15 2020-09-24 Retinai Medical Ag Feature point detection
CN111985265B (zh) * 2019-05-21 2024-04-12 华为技术有限公司 图像处理方法和装置
CN110263681B (zh) * 2019-06-03 2021-07-27 腾讯科技(深圳)有限公司 面部表情的识别方法和装置、存储介质、电子装置
CN110378264B (zh) * 2019-07-08 2023-04-18 Oppo广东移动通信有限公司 目标跟踪方法及装置
CN110473259A (zh) * 2019-07-31 2019-11-19 深圳市商汤科技有限公司 位姿确定方法及装置、电子设备和存储介质
JP2022522551A (ja) * 2020-02-03 2022-04-20 ベイジン センスタイム テクノロジー ディベロップメント カンパニー リミテッド 画像処理方法及び装置、電子機器並びに記憶媒体
CN111709428B (zh) * 2020-05-29 2023-09-15 北京百度网讯科技有限公司 图像中关键点位置的识别方法、装置、电子设备及介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014056507A (ja) * 2012-09-13 2014-03-27 Omron Corp 画像処理装置、画像処理プログラム、これを記録したコンピュータ読み取り可能な記録媒体、および、画像処理方法
WO2018051459A1 (ja) * 2016-09-15 2018-03-22 三菱電機株式会社 物体検出装置および物体検出方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
AJI RESINDRA WIDYA ET AL.: "Structure-from-Motion using Dense CNN Features with Keypoint Relocalization", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, JPN6022011157, 10 May 2018 (2018-05-10), pages 1 - 7, ISSN: 0004737837 *
ASSIA BENBIHI ET AL.: "ELF: Embedded Localisation of Features in Pre-Trained CNN", 2019 IEEE/CVF INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV), JPN6022011158, 27 October 2019 (2019-10-27), KR, pages 7939 - 7948, XP033723864, ISSN: 0004737836, DOI: 10.1109/ICCV.2019.00803 *
加藤 雅也: "注視モデルの組み合わせによる画像中の知覚的に顕著な物体の自動識別", 映像情報メディア学会技術報告 VOL.32 NO.10, vol. HI2008-33, ME2008-59, AIT2008-33, JPN6022011156, 19 February 2008 (2008-02-19), JP, pages 33 - 38, ISSN: 0004737838 *

Also Published As

Publication number Publication date
EP3822858A2 (en) 2021-05-19
EP3822858A3 (en) 2021-10-06
CN111709428B (zh) 2023-09-15
CN111709428A (zh) 2020-09-25
US11636666B2 (en) 2023-04-25
JP7054746B2 (ja) 2022-04-14
KR102508860B1 (ko) 2023-03-10
US20210279500A1 (en) 2021-09-09
KR20210065901A (ko) 2021-06-04

Similar Documents

Publication Publication Date Title
JP7054746B2 (ja) 画像内のキーポイント位置の認識方法、装置、電子機器及び媒体
JP7217313B2 (ja) 光学文字識別方法、装置、電子デバイス及び記憶媒体
CN111523468B (zh) 人体关键点识别方法和装置
JP7051267B2 (ja) 画像検出方法、装置、電子設備、記憶媒体、及びプログラム
US9418319B2 (en) Object detection using cascaded convolutional neural networks
US11756332B2 (en) Image recognition method, apparatus, device, and computer storage medium
US20180247183A1 (en) Method and system for generative model learning, and recording medium
JP7278321B2 (ja) 画像におけるテーブル抽出方法、画像におけるテーブル抽出装置、電子機器、コンピュータ読み取り可能な記憶媒体、テーブル抽出モジュールの訓練方法及びコンピュータプログラム
CN112149741B (zh) 图像识别模型的训练方法、装置、电子设备及存储介质
US11915466B2 (en) Method and apparatus for determining target anchor, device and storage medium
JP7273087B2 (ja) 情報抽出方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム
JP7177878B2 (ja) 画像処理方法、画像処理装置、電子機器及び記憶媒体
JP7389824B2 (ja) オブジェクト識別方法と装置、電子機器及び記憶媒体
JP2021197157A (ja) キーポイントの特定方法及び装置、機器、記憶媒体
CN111598149B (zh) 一种基于注意力机制的回环检测方法
WO2023020176A1 (zh) 图像识别方法和装置
JP2021152901A (ja) 画像を生成するための方法及装置
CN111191619A (zh) 车道线虚线段的检测方法、装置、设备和可读存储介质
KR20210008075A (ko) 시각 검색 방법, 장치, 컴퓨터 기기 및 저장 매체 (video search method and apparatus, computer device, and storage medium)
JP2021111400A (ja) ビデオセグメント記述の生成方法、装置、プログラム、電子デバイス及び記憶媒体
CN112990134B (zh) 图像仿真方法、装置、电子设备及存储介质
JP7315639B2 (ja) 紙のデータのデジタル化方法及び装置、電子機器、記憶媒体
TW201939347A (zh) 動作辨識方法以及其系統
CN117372286B (zh) 一种基于Python的图像噪声优化方法及系统
US20240013407A1 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220404

R150 Certificate of patent or registration of utility model

Ref document number: 7054746

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150