JP2022519398A - 画像処理方法、装置及び電子機器 - Google Patents

画像処理方法、装置及び電子機器 Download PDF

Info

Publication number
JP2022519398A
JP2022519398A JP2020542069A JP2020542069A JP2022519398A JP 2022519398 A JP2022519398 A JP 2022519398A JP 2020542069 A JP2020542069 A JP 2020542069A JP 2020542069 A JP2020542069 A JP 2020542069A JP 2022519398 A JP2022519398 A JP 2022519398A
Authority
JP
Japan
Prior art keywords
frame image
feature point
feature
target
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020542069A
Other languages
English (en)
Other versions
JP7121132B2 (ja
Inventor
イーハン ジャン
カイゴー チェン
バイルン ワン
シューアイ イー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sensetime International Pte Ltd
Original Assignee
Sensetime International Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sensetime International Pte Ltd filed Critical Sensetime International Pte Ltd
Publication of JP2022519398A publication Critical patent/JP2022519398A/ja
Application granted granted Critical
Publication of JP7121132B2 publication Critical patent/JP7121132B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本発明の実施例は、画像処理方法、装置及び電子機器を開示する。前記方法は、目標対象を含むキーフレーム画像を取得し、前記目標対象を含む被処理フレーム画像を取得するステップと、前記キーフレーム画像内の特徴点と前記被処理フレーム画像内の特徴点をそれぞれ抽出するステップと、前記キーフレーム画像内の各特徴点と前記被処理フレーム画像内の各特徴点との間のマッチング関係を決定するステップと、マッチング関係を有する前記キーフレーム画像内の特徴点と前記被処理フレーム画像内の特徴点に基づいて変換関係を決定するステップと、前記変換関係に基づいて前記被処理フレーム画像を処理して目標フレーム画像を得るステップと、を含む。【選択図】図1

Description

(関連出願の相互参照)
本願は、2019年12月30日に提出された、出願の名称が「IMAGE PROCESSING METHOD AND APPARATUS,AND ELECTRONIC DEVICE(画像処理方法、装置及び電子機器)」であり、出願番号が10201913798Wであるシンガポール特許出願の優先権を主張し、この特許出願の全ての内容が参照によって本願に組み込まれる。
本発明は、画像処理技術に関するが、それに限定されなく、具体的には、画像処理方法、装置及び電子機器に関する。
画像認識分野において、画像内の目標物体の認識や位置決定はそのうちの課題の1種となっている。しかしながら、ソース画像を取得するカメラが震動による妨害を回避不可能であり、目標物体が画像内で変位して目標物体の認識や位置決定に大きい影響を及ぼしてしまう。
本発明の実施例は、画像処理方法、装置及び電子機器を提供する。
本発明の実施例の技術的解決手段は以下のように実現される。
本発明の実施例は、
目標対象を含むキーフレーム画像を取得し、前記目標対象を含む被処理フレーム画像を取得するステップと、
前記キーフレーム画像内の1つ又は複数の特徴点と前記被処理フレーム画像内の1つ又は複数の特徴点をそれぞれ抽出するステップと、
前記キーフレーム画像内の各特徴点と前記被処理フレーム画像内の各特徴点との間のマッチング関係を決定するステップと、
マッチング関係を有する前記キーフレーム画像内の特徴点と前記被処理フレーム画像内の特徴点に基づいて変換関係を決定するステップと、
前記変換関係に基づいて前記被処理フレーム画像を処理して目標フレーム画像を得るステップと、を含む画像処理方法を提供する。
上記態様では、前記キーフレーム画像内の各特徴点と前記被処理フレーム画像内の各特徴点との間のマッチング関係を決定する前記ステップは、
前記キーフレーム画像内の第1特徴点に関連する第1組の画素点ペアを取得し、前記被処理フレーム画像内の第2特徴点に関連する第2組の画素点ペアを取得するステップであって、前記第1特徴点が前記キーフレーム画像内の1つの特徴点であり、前記第2特徴点が前記被処理フレーム画像内の1つの特徴点であり、前記第1組の画素点ペア内の第1画素点ペアと前記第1特徴点の相対的位置関係が、前記第2組の画素点ペア内の第2画素点ペアと前記第2特徴点の相対的位置関係と一致しており、前記第1組の画素点ペアが少なくとも1組の第1画素点ペアを含み、前記第2組の画素点ペアが少なくとも1組の第2画素点ペアを含むステップと、
第1画素点ペアに含まれる2つの画素点の画素値を比較して第1比較結果を取得し、第2画素点ペアに含まれる2つの画素点の画素値を比較して第2比較結果を取得するステップと、
前記少なくとも1組の第1画素点ペアの対応する少なくとも1つの第1比較結果と前記少なくとも1組の第2画素点ペアの対応する少なくとも1つの第2比較結果に基づいて、前記第1組の画素点ペアと前記第2組の画素点ペアの類似度を決定するステップと、
前記類似度が第1所定閾値に到達した場合に、前記第1特徴点と前記第2特徴点がマッチング関係を満たしたと決定するステップと、を含む。
上記態様では、前記少なくとも1組の第1画素点ペアの対応する少なくとも1つの第1比較結果と前記少なくとも1組の第2画素点ペアの対応する少なくとも1つの第2比較結果に基づいて、前記第1組の画素点ペアと前記第2組の画素点ペアの類似度を決定する前記ステップは、
前記少なくとも1つの第1比較結果に基づいて第1文字列を生成するステップと、
前記少なくとも1つの第2比較結果に基づいて第2文字列を生成するステップと、
前記第1文字列と前記第2文字列に基づいて第1ハミング距離を決定し、前記第1ハミング距離に基づいて前記第1組の画素点ペアと前記第2組の画素点ペアの類似度を決定するステップと、を含む。
上記態様では、マッチング関係を有する前記キーフレーム画像内の特徴点と前記被処理フレーム画像内の特徴点に基づいて変換関係を決定する前記ステップは、特徴点ペア集合から選別して目標特徴点ペア集合を取得するステップであって、各特徴点ペアが、マッチング関係を有する前記キーフレーム画像内の1つの特徴点と前記被処理フレーム画像内の1つの特徴点から構成され、前記特徴点ペア集合が複数組の特徴点ペアを含むステップと、
前記目標特徴点ペア集合内の目標特徴点ペアに基づいて変換関係を決定するステップと、を含む。
上記態様では、特徴点ペア集合から選別して目標特徴点ペア集合を取得する前記ステップは、前記特徴点ペア集合内の各特徴点ペアに含まれる前記キーフレーム画像内の特徴点と前記被処理フレーム画像内の特徴点との間の類似度を取得するステップと、
前記特徴点ペア集合内の全ての特徴点ペアに対応する類似度の最大値を決定し、前記最大値に基づいて第1閾値を決定するステップと、
対応類似度が前記第1閾値より小さい前記特徴点ペア集合内の特徴点ペアを除去して、目標特徴点ペア集合を取得するステップと、を含む。
上記態様では、前記キーフレーム画像内の特徴点と前記被処理フレーム画像内の特徴点をそれぞれ抽出する前記ステップは、
前記キーフレーム画像又は前記被処理フレーム画像内の第1画素点の所定領域範囲内の複数の第2画素点を決定するステップと、
前記複数の第2画素点の階調値が前記第1画素点の階調値と異なるか否かを判断するステップと、
前記複数の第2画素点の階調値が前記第1画素点の階調値と異なる場合に、前記第1画素点が前記キーフレーム画像又は前記被処理フレーム画像内の特徴点であると決定するステップと、を含む。
上記態様では、前記目標特徴点ペア集合内の目標特徴点ペアに基づいて変換関係を決定する前記ステップは、前記目標特徴点ペア集合内の目標特徴点ペアに含まれる前記キーフレーム画像内の特徴点の座標と前記被処理フレーム画像内の特徴点の座標に基づいて変換行列を決定するステップを含む。
上記態様では、前記変換関係に基づいて前記被処理フレーム画像を処理して目標フレーム画像を得る前記ステップは、前記変換行列に基づいて前記被処理フレーム画像内の、前記目標対象を含む目標領域に対して変換し、目標フレーム画像を得るステップを含む。
上記態様では、目標フレーム画像を得た後、前記方法は、前記目標フレーム画像内の特徴点を抽出するステップと、
前記キーフレーム画像内の特徴点と前記目標フレーム画像内の特徴点に基づいて第1損失値を決定するステップであって、前記第1損失値を決定するための前記キーフレーム画像内の特徴点が、前記変換関係を決定するための前記キーフレーム画像内の特徴点と異なるものであるステップと、
前記第1損失値が第2閾値を超えていない場合に、前記得られた目標フレーム画像を保留するステップと、を更に含む。
上記態様では、前記方法は、前記第1損失値が第2閾値を超えた場合に、前記得られた目標フレーム画像を削除するステップを更に含む。
本発明の実施例は、
目標対象を含むキーフレーム画像を取得し、前記目標対象を含む被処理フレーム画像を取得するための画像取得ユニットと、
前記キーフレーム画像内の1つ又は複数の特徴点と前記被処理フレーム画像内の1つ又は複数の特徴点をそれぞれ抽出するための特徴抽出ユニットと、
前記キーフレーム画像内の各特徴点と前記被処理フレーム画像内の各特徴点との間のマッチング関係を決定するためのマッチングユニットと、
マッチング関係を有する前記キーフレーム画像内の特徴点と前記被処理フレーム画像内の特徴点に基づいて変換関係を決定し、前記変換関係に基づいて前記被処理フレーム画像を処理して目標フレーム画像を得るための変換ユニットと、を含む画像処理装置を更に提供する。
上記態様では、前記マッチングユニットは、前記キーフレーム画像内の第1特徴点に関連する第1組の画素点ペアを取得し、前記被処理フレーム画像内の第2特徴点に関連する第2組の画素点ペアを取得するステップであって、前記第1特徴点が前記キーフレーム画像内の1つの特徴点であり、前記第2特徴点が前記被処理フレーム画像内の1つの特徴点であり、前記第1組の画素点ペア内の第1画素点ペアと前記第1特徴点の相対的位置関係が、前記第2組の画素点ペア内の第2画素点ペアと前記第2特徴点の相対的位置関係と一致しており、前記第1組の画素点ペアが少なくとも1組の第1画素点ペアを含み、前記第2組の画素点ペアが少なくとも1組の第2画素点ペアを含むステップと、第1画素点ペアに含まれる2つの画素点の画素値を比較して第1比較結果を取得し、第2画素点ペアに含まれる2つの画素点の画素値を比較して第2比較結果を取得するステップと、前記少なくとも1組の第1画素点ペアの対応する少なくとも1つの第1比較結果と前記少なくとも1組の第2画素点ペアの対応する少なくとも1つの第2比較結果に基づいて、前記第1組の画素点ペアと前記第2組の画素点ペアの類似度を決定するステップと、前記類似度が第1所定閾値に到達した場合に、前記第1特徴点と前記第2特徴点がマッチング関係を満たしたと決定するステップと、を実行するために用いられる。
上記態様では、前記マッチングユニットは、前記少なくとも1組の第1画素点ペアの対応する少なくとも1つの第1比較結果と前記少なくとも1組の第2画素点ペアの対応する少なくとも1つの第2比較結果に基づいて、前記第1組の画素点ペアと前記第2組の画素点ペアの類似度を決定する場合において、前記複数の第1比較結果に基づいて第1文字列を生成するステップと、前記複数の第2比較結果に基づいて第2文字列を生成するステップと、前記第1文字列と前記第2文字列に基づいて第1ハミング距離を決定し、前記第1ハミング距離に基づいて前記第1組の画素点ペアと前記第2組の画素点ペアの類似度を決定するステップと、を実行するために用いられる。
上記態様では、前記装置は、特徴点ペア集合から選別して目標特徴点ペア集合を取得するための選別ユニットを更に含み、各特徴点ペアが、マッチング関係を有する前記キーフレーム画像内の1つの特徴点と前記被処理フレーム画像内の1つの特徴点から構成され、前記特徴点ペア集合が複数組の特徴点ペアを含み、
前記変換ユニットは、マッチング関係を有する前記キーフレーム画像内の特徴点と前記被処理フレーム画像内の特徴点に基づいて変換関係を決定する場合において、前記選別ユニットの取得した前記目標特徴点ペア集合内の目標特徴点ペアに基づいて変換関係を決定するために用いられる。
上記態様では、前記選別ユニットは、前記特徴点ペア集合内の各特徴点ペアに含まれる前記キーフレーム画像内の特徴点と前記被処理フレーム画像内の特徴点との間の類似度を取得するステップと、前記特徴点ペア集合内の全ての特徴点ペアに対応する類似度の最大値を決定し、前記最大値に基づいて第1閾値を決定するステップと、対応類似度が前記第1閾値より小さい前記特徴点ペア集合内の特徴点ペアを除去して、目標特徴点ペア集合を取得するステップと、を実行するために用いられる。
上記態様では、前記特徴抽出ユニットは、前記キーフレーム画像又は前記被処理フレーム画像内の第1画素点の所定領域範囲内の複数の第2画素点を決定するステップと、前記複数の第2画素点の階調値が前記第1画素点の階調値と異なるか否かを判断するステップと、前記複数の第2画素点の階調値が前記第1画素点の階調値と異なる場合に、前記第1画素点が前記キーフレーム画像又は前記被処理フレーム画像内の特徴点であると決定するステップと、を実行するために用いられる。
上記態様では、前記変換ユニットは、前記目標特徴点ペア集合内の目標特徴点ペアに基づいて変換関係を決定する場合において、前記目標特徴点ペア集合内の目標特徴点ペアに含まれる前記キーフレーム画像内の特徴点の座標と前記被処理フレーム画像内の特徴点の座標に基づいて変換行列を決定するために用いられる。
上記態様では、前記変換ユニットは、前記変換関係に基づいて前記被処理フレーム画像を処理して目標フレーム画像を得る場合において、前記変換行列に基づいて前記被処理フレーム画像内の、前記目標対象を含む目標領域に対して変換処理を行い、目標フレーム画像を得るために用いられる。
上記態様では、前記装置は決定ユニットと処理ユニットを更に含み、
前記特徴抽出ユニットは、更に、前記目標フレーム画像内の特徴点を抽出するために用いられ、
前記決定ユニットは、前記キーフレーム画像内の特徴点と前記目標フレーム画像内の特徴点に基づいて第1損失値を決定するために用いられ、前記第1損失値を決定するための前記キーフレーム画像内の特徴点が、前記変換関係を決定するための前記キーフレーム画像内の特徴点と異なるものであり、
前記処理ユニットは、前記第1損失値が第2閾値を超えていない場合に、前記得られた目標フレーム画像を保留するために用いられる。
上記態様では、前記処理ユニットは、更に、前記第1損失値が第2閾値を超えた場合に、前記得られた目標フレーム画像を削除するために用いられる。
本発明の実施例は、コンピュータプログラムが記憶されているコンピュータ可読記憶媒体であって、このプログラムがプロセッサにより実行される時に本発明の実施例に記載の方法のステップを実現するコンピュータ可読記憶媒体を更に提供する。
本発明の実施例は、メモリと、プロセッサと、メモリに記憶され且つプロセッサ上で動作可能なコンピュータプログラムを含み、前記プロセッサが前記プログラムを実行する時に本発明の実施例に記載の方法のステップを実現する電子機器を更に提供する。
本発明の実施例で提供された画像処理方法、装置及び電子機器によれば、前記方法は、目標対象を含むキーフレーム画像を取得し、前記目標対象を含む被処理フレーム画像を取得するステップと、前記キーフレーム画像内の特徴点と前記被処理フレーム画像内の特徴点をそれぞれ抽出するステップと、前記キーフレーム画像内の各特徴点と前記被処理フレーム画像内の各特徴点との間のマッチング関係を決定するステップと、マッチング関係を有する前記キーフレーム画像内の特徴点と前記被処理フレーム画像内の特徴点に基づいて変換関係を決定するステップと、前記変換関係に基づいて前記被処理フレーム画像を処理して目標フレーム画像を得るステップと、を含む。本発明の実施例の技術的解決手段を採用すれば、得られた変換関係によって被処理フレーム画像を処理して、得られた目標フレーム画像内の目標対象の目標領域の視角をキーフレーム画像内の目標対象の目標領域の視角とほぼ一致させ、つまり、目標フレーム画像を得る装置と目標フレーム画像内の目標対象との相対的位置関係を、キーフレーム画像を取得する装置とキーフレーム画像内の目標対象との相対的位置関係とほぼ一致させることで、カメラの震動による妨害又はカメラの変位によって取得された画像内の目標対象が変位するという問題を解決して、目標対象の位置を正確に決定することを実現した。
本発明の実施例の画像処理方法のフローチャート1である。 本発明の実施例の画像処理方法のフローチャート2である。 本発明の実施例の画像処理方法における画素点ペアの選択模式図である。 本発明の実施例の画像処理方法のフローチャート3である。 本発明の実施例の画像処理装置の構成の構造模式図1である。 本発明の実施例の画像処理装置の構成の構造模式図2である。 本発明の実施例の画像処理装置の構成の構造模式図3である。 本発明の実施例の電子機器のハードウェア構成の構造模式図である。
以下、図面及び具体的な実施例を参照しながら本発明を更に詳細に説明する。
本発明の実施例は、画像処理方法を提供する。図1は本発明の実施例の画像処理方法のフローチャート1であり、図1に示すように、前記方法は、
目標対象を含むキーフレーム画像を取得し、前記目標対象を含む被処理フレーム画像を取得するステップ101と、
前記キーフレーム画像内の1つ又は複数の特徴点と前記被処理フレーム画像内の1つ又は複数の特徴点をそれぞれ抽出するステップ102と、
前記キーフレーム画像内の各特徴点と前記被処理フレーム画像内の各特徴点との間のマッチング関係を決定するステップ103と、
マッチング関係を有する前記キーフレーム画像内の特徴点と前記被処理フレーム画像内の特徴点に基づいて変換関係を決定するステップ104と、
前記変換関係に基づいて前記被処理フレーム画像を処理して目標フレーム画像を得るステップ105と、を含む。
本実施例では、前記キーフレーム画像は遮られていない完全且つ鮮明な目標対象を含む画像である。前記被処理フレーム画像は前記目標対象を含む画像である。ここで、前記キーフレーム画像と前記被処理フレーム画像のそれぞれは少なくとも1つの目標対象を含んでもよい。
本実施例では、前記キーフレーム画像と前記被処理フレーム画像は同じ画像取得装置で取得された画像であってもよい。他の実施例では、前記キーフレーム画像と前記被処理フレーム画像は別々の画像取得装置で取得された画像であってもよい。被処理フレーム画像が複数のフレーム画像であってよく、前記複数のフレーム画像のうちの一部のフレーム画像が第1画像取得装置によって取得されてもよく、一部のフレーム画像が第2画像取得装置によって取得されてもよく、第1画像取得装置と第2画像取得装置の配置位置が近く、又は第1画像取得装置と被取得領域の相対的位置関係と第2画像取得装置と被取得領域の相対的位置関係が近いことが理解可能である。
本発明の選択可能な一実施例では、前記キーフレーム画像は前記目標対象の平面図であってもよい。即ち、前記キーフレーム画像を取得する画像取得装置が目標対象の上方に設置され、目標対象の上方に設置された画像取得装置によって複数のフレーム画像を取得し、前記複数のフレーム画像から遮られていない鮮明且つ完全な目標対象を含む画像を選択してキーフレーム画像とする。対応的に、前記被処理フレーム画像は前記目標対象の平面図であってもよい。
一例として、目標対象の上方に設置された画像取得装置によって目標対象を含むビデオを取得し、ビデオから、鮮明で遮られていなく且つ完全な目標対象を含む1フレームの画像を選択してキーフレーム画像とし、ビデオにおけるキーフレーム画像以外の他のフレーム画像を被処理画像とするようにしてもよい。
本発明の選択可能な一実施例では、前記目標対象はゲームテーブルであってよく、そのため、本実施例の画像認識方法は、キーフレーム画像と被処理フレーム画像内の目標対象(例えば、ゲームテーブル)を認識し、被処理フレーム画像内の目標対象をキーフレーム画像内の目標対象の位置に位置合わせ、目標対象の位置決定を実現して、後続の画像検出認識を可能にすることに利用可能であり、ゲームのインテリジェント操作及び監視の研究や開発に適用可能である。前記目標対象がゲームテーブルに限定されず、他の物体を目標対象としてもよいことが理解可能であり、本実施例では限定されない。
本実施例では、前記キーフレーム画像内の特徴点と前記被処理フレーム画像内の特徴点は画像内の角点であってもよい。前記角点は、極値点であり、即ち、ある方面において属性が特に目立つ点であり、例えば、ある属性上で強度が最も大きく又は最も小さい点である。例えば、2本の線又は2本以上の線のエッジの交点、又は画像内の勾配値や勾配方向の変化率が最も大きい点等が挙げられる。角点が画像内の重要な特徴を残させると共に、データ量を効果的に減少することができるので、本実施例では、画像内の角点を抽出し、角点を特徴点として後続のマッチング、変換関係の決定を行うことで、計算速度を向上でき、後続のリアルタイム処理を可能にする。本実施例で抽出される画像内の特徴点が角点に限定されなく、他の種類の特徴点、例えばキーポイント等であってもよいことが理解可能である。
本実施例では、濃淡画像に基づく方法、2値化画像に基づく方法、輪郭曲線に基づく方法等で前記キーフレーム画像内の特徴点と前記被処理フレーム画像内の特徴点を抽出することができる。一実施形態において、濃淡画像に基づく方法で画像内の特徴点を抽出する(例えば、画像内の角点を抽出する)ことを例とすれば、画像内の勾配を計算することで画像内のエッジ特徴点を決定し、エッジ特徴点に基づいてエッジ曲線を決定し、エッジ曲線の曲率を計算して画像内の角点を決定することができる。本実施例が上記手法で画像内の特徴点(例えば、角点)を抽出することに限定されなく、いかなる角点検出手法も本発明の実施例に適用可能であることが理解できる。
本実施例では、キーフレーム画像と被処理フレーム画像において、マッチング関係を有する前記キーフレーム画像内の特徴点と前記被処理フレーム画像内の特徴点は、具体的には、前記キーフレーム画像における第1特徴点の特徴(例えば、ある方面における属性)と前記被処理フレーム画像における前記第2特徴点の特徴(例えば、ある方面における属性)が対応してよく、ここで、キーフレーム画像内の特徴点を第1特徴点(1つ以上あってもよい)としてよく、被処理フレーム画像内の特徴点を第2特徴点(1つ以上あってもよい)としてもよい。
本発明の選択可能な一実施例では、マッチング関係を有する第1特徴点と第2特徴点の座標に基づいて、変換行列を決定してよく、前記変換行列が、前記被処理フレーム画像の取得視角を前記キーフレーム画像の取得視角と同様に変換するためのものである。しかしながら、何らかの原因で、例えば、取得された第1特徴点と第2特徴点が完全にマッチング関係を有するわけではなく、即ち、取得された特徴点ペアに一定の誤差が存在し、更に例えば、決定された変換関係によって、被処理フレーム画像の取得視角をぴったりとキーフレーム画像の取得視角と同様に変換できなく、即ち、決定された変換関係に一定の誤差が存在することがあり、従って、本実施例では、被処理フレーム画像の取得視角をキーフレーム画像の取得視角と同様に変換しようとしているが、変換後の画像がキーフレーム画像の取得視角に近いが一致しない画像に変換される可能性が非常に高いため、変換処理後の画像を目標フレーム画像と称し、前記目標フレーム画像の取得視角が前記キーフレーム画像の取得視角と一致する可能性もあるし、前記キーフレーム画像の取得視角と相違する可能性もある。
本発明の実施例の技術的解決手段を採用すれば、得られた変換関係によって被処理フレーム画像を処理して、得られた目標フレーム画像内の目標対象の目標領域の視角をキーフレーム画像内の目標対象の目標領域の視角とほぼ一致させて、カメラの震動による妨害又はカメラの変位によって取得された画像内の目標対象が変位するという問題を解決して、目標対象の位置を正確に決定することを実現した。
上記実施例によれば、本発明の実施例は、画像処理方法を更に提供する。図2は本発明の実施例の画像処理方法のフローチャート2である。図2に示すように、前記方法は、
目標対象を含むキーフレーム画像を取得し、前記目標対象を含む被処理フレーム画像を取得するステップ201と、
前記キーフレーム画像内の特徴点と前記被処理フレーム画像内の特徴点をそれぞれ抽出するステップ202と、
前記キーフレーム画像内の第1特徴点に関連する第1組の画素点ペアを取得し、前記被処理フレーム画像内の第2特徴点に関連する第2組の画素点ペアを取得するステップ203であって、前記第1特徴点が前記キーフレーム画像内の1つの特徴点であり、前記第2特徴点が前記被処理フレーム画像内の1つの特徴点であり、前記第1組の画素点ペア内の第1画素点ペアと前記第1特徴点の相対的位置関係が、前記第2組の画素点ペア内の第2画素点ペアと前記第2特徴点の相対的位置関係と一致しており、前記第1組の画素点ペアが少なくとも1組の第1画素点ペアを含み、前記第2組の画素点ペアが少なくとも1組の第2画素点ペアを含むステップ203と、
第1画素点ペアに含まれる2つの画素点の画素値を比較して第1比較結果を取得し、第2画素点ペアに含まれる2つの画素点の画素値を比較して第2比較結果を取得するステップ204と、
前記少なくとも1組の第1画素点ペアの対応する少なくとも1つの第1比較結果と前記少なくとも1組の第2画素点ペアの対応する少なくとも1つの第2比較結果に基づいて、前記第1組の画素点ペアと前記第2組の画素点ペアの類似度を決定するステップ205と、
前記類似度が第1所定閾値に到達した場合に、前記第1特徴点と前記第2特徴点がマッチング関係を満たしたと決定するステップ206と、
特徴点ペア集合から選別して目標特徴点ペア集合を取得するステップ207であって、各特徴点ペアが、マッチング関係を有する前記キーフレーム画像内の1つの特徴点と前記被処理フレーム画像内の1つの特徴点から構成され、前記特徴点ペア集合が複数組の特徴点ペアを含むステップ207と、
前記目標特徴点ペア集合内の目標特徴点ペアに基づいて変換関係を決定するステップ208と、
前記変換関係に基づいて前記被処理フレーム画像内の、前記目標対象に対応する目標領域に対して変換処理を行い、目標フレーム画像を得るステップ209と、を含む。
本実施例のステップ201~ステップ202についての詳細な説明は具体的には上記実施例内のステップ101~ステップ102の説明を参照してもよく、ここで詳細な説明を省略する。
本発明の選択可能な一実施例では、本実施例のステップ202において、前記キーフレーム画像内の特徴点と前記被処理フレーム画像内の特徴点をそれぞれ抽出する前記ステップは、前記キーフレーム画像又は前記被処理フレーム画像内の第1画素点の所定領域範囲内の複数の第2画素点を決定するステップと、前記複数の第2画素点の階調値が前記第1画素点の階調値と異なるか否かを判断するステップと、前記複数の第2画素点の階調値が前記第1画素点の階調値と異なる場合に、前記第1画素点が前記キーフレーム画像又は前記被処理フレーム画像内の特徴点であると決定するステップと、を含む。
本実施例では、前記キーフレーム画像と前記被処理フレーム画像内の特徴点の抽出手法として、いずれも上記手法を採用してもよく、即ち、キーフレーム画像と被処理フレーム画像を共に濃淡画像に変換し、各画素点について、選択された画素点を中心して所定画素距離を半径とする所定領域範囲内で、前記所定領域範囲内の他の画素点の階調値が選択された画素点の階調値と異なるか否かを判断する。例えば、キーフレーム画像における任意画素点Pを選択し、画素点Pを中心にして3画素の距離を半径として円を描いて円形領域を得、円形領域内の画素点の階調値が画素点Pの階調値より大きいか又は小さい場合に、画素点Pを1つの特徴点とすることができる。本実施例における前記所定領域範囲が円形領域範囲に限定されなく、他の形状の領域範囲であってもよいことが理解可能である。
前記キーフレーム画像と前記被処理フレーム画像内の特徴点の抽出手法として、いずれも上記手法を採用してもよく、更にそれぞれ異なる特徴点抽出手法を採用してもよいことが理解可能であり、本実施例では限定されない。
本実施例では、被処理フレーム画像内の各特徴点(第2特徴点としてもよい)をキーフレーム画像内の特徴点(第1特徴点としてもよい)とマッチングすることは、具体的には、被処理フレーム画像内の各第2特徴点に関連する第2組の画素点ペアを選択して、キーフレーム画像内の各第1特徴点に関連する第1組の画素点ペアとマッチングすることであり、ここで、前記第1組の画素点ペアと前記第2組の画素点ペアのそれぞれは少なくとも1組の画素点ペアを含んでよく、各画素点ペアが2つの画素点を含んでよい。前記第1組の画素点ペアは、関連する第1特徴点を中心とする所定領域範囲中から選択された少なくとも1組の画素点ペアを含み、対応的に、前記第2組の画素点ペアは、関連する第2特徴点を中心とする前記所定領域範囲中から選択された少なくとも1組の画素点ペアを含む。
ここで、第1組の画素点ペア内の各第1画素点ペアが、前記所定領域範囲中からランダムに選択された画素点ペアであれば、前記第2組の画素点ペア内の各第2画素点ペアとそれに関連する特徴点の相対的位置関係が、前記第1組の画素点ペア内の各画素点ペアとそれに関連する特徴点の相対的位置関係と一致する。
図3は本発明の実施例の画像処理方法における画素点ペアの選択模式図であり、図3に示すように、図3における各格子は1つの画素点を示し、図3における画素点Pを特徴点とし、キーフレーム画像内の第1特徴点Pと称し、特定規則(例えば、ランダム方式)によって第1特徴点Pに関連する第1組の画素点ペアを選択し、図3に示される第1組の画素点ペアは、3組の画素点ペアを含んでよく、前記3組の画素点ペアが、第1特徴点Pを中心として所定画素距離を半径とする円形領域中からランダムに選択されてもよい。対応的に、第1特徴点Pと共にマッチング関係を満たす第2特徴点を決定するために、被処理フレーム画像において、各特徴点について、第1組の画素点ペア内の各画素点ペアとそれに関連する第1特徴点の相対的位置関係と一致する第2組の画素点ペアを決定し、即ち、第1組の画素点ペア内の各画素点ペアとそれに関連する第1特徴点の相対的位置関係によって第2画素点ペアを決定し、つまり、被処理フレーム画像内の各特徴点について、図3に示される画素点ペアとそれに関連する特徴点と同じ相対的位置関係を有する画素点ペアを選択する。例えば、被処理フレーム画像内の各特徴点に対して、例えば、図3に示す方式と同様に、特徴点に対して垂直方向に上に向かって3画素点の間隔をおいた画素点1、垂直方向に下に向かって1画素点の間隔をおいており、水平方向に左に向かって2画素点の間隔をおいた画素点2を選択し、画素点1と画素点2の構成した画素点ペアを被処理フレーム画像内の1組の画素点ペアとする。前記第1組の画素点ペアと前記第2組の画素点ペアにおける対応する第1画素点ペアと第2画素点ペアに同じ選択規則が採用され、即ち第1画素点ペアに含まれる2つの画素点とそれに関連する第1特徴点の相対的位置関係が対応する第2画素点ペアに含まれる2つの画素点とそれに関連する第2特徴点(即ち、被処理フレーム画像内の1つの特徴点)の相対的位置関係と同じであることが理解可能である。
本発明の選択可能な一実施例では、前記第1特徴点は前記キーフレーム画像における前記目標対象を含む目標領域内の特徴点であってよく、対応的に、前記第2特徴点は前記被処理フレーム画像内の、前記目標対象を含む目標領域内の特徴点であってもよい。本実施例では、キーフレーム画像と被処理フレーム画像における目標領域以外の他の領域の特徴点を無視して、目標対象の目標領域内の特徴点に対してマッチングすることができ、データ処理量が低減可能になることが理解できる。
本実施例のステップ204において、第1組の画素点ペア内の少なくとも1組の第1画素点ペアについて、各画素点ペア内の2つの画素点の画素値をそれぞれ比較して、第1組の画素点ペア内の少なくとも1組の第1画素点ペアについて少なくとも1つの第1比較結果を取得することができる。対応的に、第2組の画素点ペア内の少なくとも1組の第2画素点ペアについて少なくとも1つの第2比較結果を取得することができる。いくつかの実施例では、更に第1画素点ペアに含まれる2つの画素点の階調値を比較して、階調値の差で示される第1比較結果を取得してもよく、対応的に、階調値の差で示される第2比較結果を取得してもよい。
一例として、上から下へ、左から右への方向に位置が上又は左に近い画素点の画素値又は階調値を減数とし、位置が下又は右に近い画素点の画素値又は階調値を被減数としてもよい。本実施例における2つの画素点の比較規則が以上に限定されなく、前記第1比較結果と前記第2比較結果に同じ比較規則が採用されることが理解可能である。
本発明の選択可能な一実施例では、本実施例のステップ205において、前記少なくとも1組の第1画素点ペアの対応する少なくとも1つの第1比較結果と前記少なくとも1組の第2画素点ペアの対応する少なくとも1つの第2比較結果に基づいて、前記第1組の画素点ペアと前記第2組の画素点ペアの類似度を決定する前記ステップは、前記少なくとも1つの第1比較結果に基づいて第1文字列を生成するステップと、前記少なくとも1つの第2比較結果に基づいて第2文字列を生成するステップと、前記第1文字列と前記第2文字列に基づいて第1ハミング距離を決定し、前記第1ハミング距離に基づいて前記第1組の画素点ペアと前記第2組の画素点ペアの類似度を決定するステップと、を含む。
本実施例では、第1組の画素点ペアと第2組の画素点ペアをそれぞれ関連する特徴点の特徴記述子としてよく、そして、本実施例では、2つの特徴記述子間の類似度を決定する方式で、対応する第1特徴点と第2特徴点が関連付け関係を満たすか否かを決定することができる。キーフレーム画像と被処理フレーム画像における対応する2つの特徴点の周りの画素点ペアが類似するか否かを決定することで、キーフレーム画像と被処理フレーム画像における対応する2つの特徴点が関連付けられるか否かを決定することが理解可能である。
一例として、第1組の画素点ペアに対応する少なくとも1つの第1比較結果を順に並べ、且つ1つのバイナリ文字列に変換し、対応的に、第2組の画素点ペアに対応する少なくとも1つの第2比較結果を順に並べ、且つもう1つのバイナリ文字列に変換し、取得された2つのバイナリ文字列により前記第1組の画素点ペアと前記第2組の画素点ペアの類似度を決定する。ここで、前記少なくとも1つの第1比較結果の並び順と前記少なくとも1つの第2比較結果の並び順が一致する。図3に示す3組の画素点ペアを例とすれば、3つの第1比較結果と3つの第2比較結果をそれぞれ取得でき、3つの第1比較結果と3つの第2比較結果を同じ並び規則で並べ、例えば、図3に示される「1」に対応する2つの画素点の比較結果を第1比較結果とし、図3に示される「2」に対応する2つの画素点の比較結果を第2比較結果とし、図3に示される「3」に対応する2つの画素点の比較結果を第3比較結果とし、第1比較結果の順位が高い位置であり、第2比較結果の順位が中央位置であり、第3比較結果の順位が低い位置である。本実施例における比較結果の並び規則も以上に限定されなく、前記少なくとも1つの第1比較結果と前記少なくとも1つの第2比較結果に同じ並び規則が採用されることが理解可能である。
本実施例では、一例として、2つのバイナリ文字列間のハミング距離を計算し、前記ハミング距離に基づいて前記第1組の画素点ペアと前記第2組の画素点ペアの類似度を決定するようにしてもよい。本実施例では他の距離によって前記第1組の画素点ペアと前記第2組の画素点ペアの類似度を決定してもよいことが理解可能であり、本実施例では限定されない。
本実施例では、算出された第1組の画素点ペアと第2組の画素点ペアの類似度が第1所定閾値に到達した場合に、第1特徴点と第2特徴点がマッチング関係を満たすと決定可能である。しかしながら、この時に取得されたマッチング関係を満たした第1特徴点と第2特徴点の形成した特徴点ペアが正確でない可能性があり、間違ってマッチングされることがあるので、ステップ207によって、マッチング関係を満たした第1特徴点と第2特徴点を含む特徴点ペアから選別する必要がある。
いくつかの選択可能な実施例では、本実施例のステップ207において、特徴点ペア集合から選別して目標特徴点ペア集合を取得する前記ステップは、前記特徴点ペア集合内の各特徴点ペアに含まれる前記キーフレーム画像内の特徴点と前記被処理フレーム画像内の特徴点との間の類似度を取得するステップと、前記特徴点ペア集合内の全ての特徴点ペアに対応する類似度の最大値を決定し、前記最大値に基づいて第1閾値を決定するステップと、対応類似度が前記第1閾値より小さい前記特徴点ペア集合内の特徴点ペアを除去して、目標特徴点ペア集合を取得するステップと、を含む。
本実施例では、特徴点ペア集合内の各特徴点ペアの類似度を決定してよく、即ち各特徴点ペアに含まれる前記キーフレーム画像内の特徴点と前記被処理フレーム画像内の特徴点との間の類似度を決定してよく、ここで、各特徴点ペアの類似度が即ち上記の第1組の画素点ペアと第2組の画素点ペアの類似度であり、前記特徴点ペア集合内の各特徴点ペアに対応する類似度の最小値を決定する。例えば、特徴点ペア集合はそれぞれA1とA2、B1とB2、C1とC2と称する3組の特徴点ペアを含んでよく、そのうち、B1とB2の類似度が最も大きく、類似度の最大値をkと称し、そのようにkに基づいて第1閾値を決定してよく、前記第1閾値がkより小さく、即ち前記第1閾値が類似度の最大値より小さく、A1とA2の類似度が第1閾値より小さければ、A1とA2が間違ってマッチングされる特徴点ペアであると決定可能であり、特徴点ペア集合からA1とA2を削除し、C1とC2の類似度が前記第1閾値より大きければ、C1とC2が正確にマッチングされる特徴点ペアであることを示す。それに基づいて少なくとも1組の目標特徴点ペアを含んでよい目標特徴点ペア集合を取得する。
いくつかの実施形態では、本実施例内の特徴点ペアに対応する類似度は即ち特徴点ペアにそれぞれに対応する第1組の画素点ペアと第2組の画素点ペアの類似度である。第1組の画素点ペアと第2組の画素点ペアの類似度をハミング距離(例えば、第1ハミング距離)で示す場合に、第1ハミング距離が大きいほど、第1組の画素点ペアと第2組の画素点ペアの類似度が小さいことを示し、第1ハミング距離が小さいほど、第1組の画素点ペアと第2組の画素点ペアの類似度が大きいことを示す。それに基づければ、本実施例では第1組の画素点ペアと第2組の画素点ペアの対応する第1ハミング距離に基づいて第1閾値を決定してもよい。例えば、特徴点ペア集合はそれぞれA1とA2、B1とB2、C1とC2と称する3組の特徴点ペアを含んでよく、そのうち、B1とB2のハミング距離が最も小さく、kと称し、そのように前記第1閾値がkより大きいと決定可能であり、例えば、2kを第1閾値とする。A1とA2に対応するハミング距離が第1閾値(即ち、2k)より大きければ、A1とA2が間違ってマッチングされる特徴点ペアであると決定可能であり、特徴点ペア集合からA1とA2を削除し、C1とC2の類似度が前記第1閾値(即ち、2k)以下であれば、C1とC2が正確にマッチングされる特徴点ペアであることを示す。
本実施例のステップ208において、前記目標特徴点ペア集合内の目標特徴点ペアに基づいて変換関係を決定する前記ステップは、前記目標特徴点ペア集合内の目標特徴点ペアに含まれる前記キーフレーム画像内の特徴点の座標と前記被処理フレーム画像内の特徴点の座標に基づいて変換行列を決定するステップを含む。
本実施例では、目標特徴点ペア集合内の目標特徴点に含まれるキーフレーム画像に対応する第1特徴点の第1座標と被処理フレーム画像に対応する第2特徴点の第2座標に基づいて変換行列を決定してもよい。一実施形態として、前記変換行列はホモグラフィ(Homography)行列であってよく、そのように前記の目標特徴点ペア集合内の目標特徴点ペアに含まれるキーフレーム画像に対応する第1特徴点の第1座標と被処理フレーム画像に対応する第2特徴点の第2座標に基づいて変換行列を決定することは、目標特徴点ペア集合内の目標特徴点ペアに含まれるキーフレーム画像に対応する第1特徴点の第1座標と被処理フレーム画像に対応する第2特徴点の第2座標に対して、1つの平面からもう1つの平面への変換関係を記述するためのホモグラフィ変換を行って、ホモグラフィ行列を取得するようになっている。例えば、キーフレーム画像内の目標対象の1つの特徴点の座標が(x1,y1)であり、被処理フレーム画像内の前記目標対象の同一の特徴点の座標が(x2,y2)であり、そのようホモグラフィ変換によって、座標(x2,y2)を座標(x1,y1)に変換可能である。
本実施例のステップ209において、前記変換関係に基づいて前記被処理フレーム画像を処理して目標フレーム画像を得る前記ステップは、前記変換行列に基づいて前記被処理フレーム画像内の、前記目標対象を含む目標領域に対して変換処理を行って目標フレーム画像を得るステップを含む。
一例として、変換行列をHとし、被処理フレーム画像をqで示し、キーフレーム画像をQで示せば、q=H・Qである。そのように、目標フレーム画像=q・H-1。変換行列によって被処理フレーム画像を変化処理することで、被処理フレーム画像を取得した時の画像取得装置の移動による被処理フレーム画像の取得視角のキーフレーム画像の取得視角との差が除去又は低減されて、目標フレーム画像の取得視角がキーフレーム画像の取得視角と同様又は基本的に同様になる。
本発明の実施例の技術的解決手段を採用すれば、得られた変換関係によって被処理フレーム画像を処理して、目標フレーム画像の取得視角をキーフレーム画像の取得視角と同様又はほぼ一致させて、カメラの震動による妨害又はカメラの変位によって取得された画像内の目標対象が変位するという問題を解決して、目標対象の位置を正確に決定することを実現した。
本発明の実施例は、画像処理方法を更に提供する。図4は本発明の実施例の画像処理方法のフローチャート3であり、図4に示すように、前記方法は、
目標対象を含むキーフレーム画像を取得し、前記目標対象を含む被処理フレーム画像を取得するステップ301と、
前記キーフレーム画像内の特徴点と前記被処理フレーム画像内の特徴点をそれぞれ抽出するステップ302と、
前記キーフレーム画像内の各特徴点と前記被処理フレーム画像内の各特徴点との間のマッチング関係を決定するステップ303と、
マッチング関係を有する前記キーフレーム画像内の特徴点と前記被処理フレーム画像内の特徴点に基づいて変換関係を決定するステップ304と、
前記変換関係に基づいて前記被処理フレーム画像を処理して目標フレーム画像を得るステップ305と、
前記目標フレーム画像内の特徴点を抽出し、前記キーフレーム画像内の特徴点と前記目標フレーム画像内の特徴点に基づいて第1損失値を決定するステップ306であって、前記第1損失値を決定するための前記キーフレーム画像内の特徴点が、前記変換関係を決定するための前記キーフレーム画像内の特徴点と異なるものであるステップ306と、
前記第1損失値が第2閾値を超えていない場合に、前記得られた目標フレーム画像を保留し、前記第1損失値が第2閾値を超えた場合に、前記得られた目標フレーム画像を削除するステップ307と、を含む。
本実施例のステップ301~ステップ305についての詳細な説明は具体的には上記実施例内のステップ101~ステップ105及びステップ201~ステップ207の説明を参照してもよく、ここで詳細な説明を省略する。
本実施例のステップ306において、前記目標フレーム画像内の特徴点の抽出手法については上記述実施例内のキーフレーム画像と被処理フレーム画像内の特徴点の抽出手法の説明を参照してもよく、ここで詳細な説明を省略する。
本実施例では、前記第1損失値を決定するための前記キーフレーム画像内の特徴点が、前記変換関係を決定するための前記キーフレーム画像内の特徴点と異なるものである。一例として、キーフレーム画像から100個の特徴点が抽出され、そのうちの50個の特徴点が選択されて変換関係の決定に利用された場合に、残りの50個の特徴点内の少なくとも一部の特徴点を選択して第1損失値の決定に利用することができる。対応的に、前記目標フレーム画像から抽出された特徴点から、前記キーフレーム画像内の第1損失値の決定のための特徴点に対応する特徴点を選択する。
本実施例のステップ306において、前記キーフレーム画像内の特徴点と前記目標フレーム画像内の特徴点に基づいて第1損失値を決定する前記ステップは、前記キーフレーム画像内の特徴点の座標と前記目標フレーム画像内の特徴点の座標に基づいて、マッチング関係を満たす複数組の特徴点ペアを決定するステップであって、前記複数組の特徴点ペア内の各特徴点ペアは1つの前記キーフレーム画像内の特徴点と1つの前記目標フレーム画像内の特徴点を含むステップと、各特徴点ペアに含まれる2つの特徴点の座標に基づいて第1損失値を決定するステップと、を含む。前記第1損失値は前記目標フレーム画像と前記キーフレーム画像の相違程度を表すことができる。
いくつかの実施例では、各特徴点ペアに含まれる2つの特徴点の座標に基づいて第1損失を決定する前記ステップは、各特徴点ペアに含まれる2つの特徴点の座標に基づいて第1距離を決定するステップと、複数の第1距離の平均値を取得して前記平均値に基づいて第1損失を決定するステップと、を含む。ここで、前記第1距離はオイラー距離、ユークリッド距離等であってよく、本実施例では限定されるものではない。
本実施例では、目標フレーム画像内の目標対象の位置が既にキーフレーム画像内の目標対象の位置と同様又は類似的になったので、目標フレーム画像内の各特徴点の座標とキーフレーム画像内の各特徴点の座標を比較することで、マッチング関係を有する特徴点ペアを取得することができる。他の実施形態では、上記実施例におけるステップ203~ステップ206の記載をもとにマッチング関係を満たす特徴点ペアを決定してもよく、ここで詳細な説明を省略する。
本実施例では、第1損失値が第2閾値を超えた場合に、変換関係(又は変換行列)が間違ったものであり、又は被処理フレーム画像への変化処理が間違ったことを示し、そのため、この目標フレーム画像を削除してもよく、即ち、後続の画像処理過程でこの目標フレーム画像を処理しなくなり、更に、警告情報を出力して、変換が成功したか否かを自動的に判定し且つ対応する目標フレーム画像を処理する目的を達成するようにしてもよい。
本実施例では、第1損失値が第2閾値を超えていなければ、変換関係(又は変換行列)が比較的正確であり、被処理フレーム画像への変換処理が成功したことを示し、そのため、前記目標フレーム画像を保留してもよく、更に、変換関係(又は変換行列)によって被処理フレーム画像内の、他の目標対象に対応する目標領域に対して変換処理を行い、キーフレーム画像における前記他の目標対象に対応する目標領域に対応する位置を得るようにしてもよい。
ゲームテーブルの画像を適応的に変換するシーンに本実施例の画像処理方法を利用する場合に、別々のゲームテーブルに配置されたカメラの位置、角度が完全に同様なものであることを保証できなく、各ゲームテーブルに対応するキーフレーム画像内の目標対象(例えば、ゲームテーブル)に対応する目標領域の位置が完全に同様なものであることも保証できないので、各ゲームテーブルのカメラが配置された後、本実施例の画像処理方法で変換関係(変換行列)を決定して、各カメラが取得した画像を同一のキーフレーム画像の取得視角と同様な視角に変換することで、各カメラが取得した画像を全て目標対象が同じ位置にある画像に変換して、後続の目標対象の検出認識等の各種処理を可能にすることができる。
本発明の実施例は、画像処理装置を更に提供する。図5は本発明の実施例の画像処理装置の構成の構造模式図1であり、図5に示すように、前記装置は、
目標対象を含むキーフレーム画像を取得し、前記目標対象を含む被処理フレーム画像を取得するための画像取得ユニット41と、
前記キーフレーム画像内の特徴点と前記被処理フレーム画像内の特徴点をそれぞれ抽出するための特徴抽出ユニット42と、
前記キーフレーム画像内の各特徴点と前記被処理フレーム画像内の各特徴点との間のマッチング関係を決定するためのマッチングユニット43と、
マッチング関係を有する前記キーフレーム画像内の特徴点と前記被処理フレーム画像内の特徴点に基づいて変換関係を決定し、前記変換関係に基づいて前記被処理フレーム画像を処理して目標フレーム画像を得るための変換ユニット44と、を含む。
本発明の選択可能な一実施例では、前記マッチングユニット43は、前記キーフレーム画像内の第1特徴点に関連する第1組の画素点ペアを取得し、前記被処理フレーム画像内の第2特徴点に関連する第2組の画素点ペアを取得するステップであって、前記第1特徴点が前記キーフレーム画像内の1つの特徴点であり、前記第2特徴点が前記被処理フレーム画像内の1つの特徴点であり、前記第1組の画素点ペア内の第1画素点ペアと前記第1特徴点の相対的位置関係が、前記第2組の画素点ペア内の第2画素点ペアと前記第2特徴点の相対的位置関係と一致しており、前記第1組の画素点ペアが少なくとも1組の第1画素点ペアを含み、前記第2組の画素点ペアが少なくとも1組の第2画素点ペアを含むステップと、第1画素点ペアに含まれる2つの画素点の画素値を比較して第1比較結果を取得し、第2画素点ペアに含まれる2つの画素点の画素値を比較して第2比較結果を取得するステップと、前記少なくとも1組の第1画素点ペアの対応する少なくとも1つの第1比較結果と前記少なくとも1組の第2画素点ペアの対応する少なくとも1つの第2比較結果に基づいて、前記第1組の画素点ペアと前記第2組の画素点ペアの類似度を決定するステップと、前記類似度が第1所定閾値に到達した場合に、前記第1特徴点と前記第2特徴点がマッチング関係を満たしたと決定するステップと、を実行するために用いられる。
本発明の選択可能な一実施例では、前記マッチングユニット43は、前記少なくとも1組の第1画素点ペアの対応する少なくとも1つの第1比較結果と前記少なくとも1組の第2画素点ペアの対応する少なくとも1つの第2比較結果に基づいて、前記第1組の画素点ペアと前記第2組の画素点ペアの類似度を決定する場合において、前記少なくとも1つの第1比較結果に基づいて第1文字列を生成するステップと、前記少なくとも1つの第2比較結果に基づいて第2文字列を生成するステップと、前記第1文字列と前記第2文字列に基づいて第1ハミング距離を決定し、前記第1ハミング距離に基づいて前記第1組の画素点ペアと前記第2組の画素点ペアの類似度を決定するステップと、を実行するために用いられる。
本発明の選択可能な一実施例では、図6に示すように、前記装置は、特徴点ペア集合から選別して目標特徴点ペア集合を取得するための選別ユニット45を更に含み、各特徴点ペアが、マッチング関係を有する前記キーフレーム画像内の1つの特徴点と前記被処理フレーム画像内の1つの特徴点から構成され、前記特徴点ペア集合が複数組の特徴点ペアを含み、
前記変換ユニット44は、マッチング関係を有する前記キーフレーム画像内の特徴点と前記被処理フレーム画像内の特徴点に基づいて変換関係を決定する場合において、前記選別ユニット45の取得した前記目標特徴点ペア集合内の目標特徴点ペアに基づいて変換関係を決定するために用いられる。
本発明の選択可能な一実施例では、前記選別ユニット45は、前記特徴点ペア集合内の各特徴点ペアに含まれる前記キーフレーム画像内の特徴点と前記被処理フレーム画像内の特徴点との間の類似度を取得するステップと、前記特徴点ペア集合内の全ての特徴点ペアに対応する類似度の最大値を決定し、前記最大値に基づいて第1閾値を決定するステップと、対応類似度が前記第1閾値より小さい前記特徴点ペア集合内の特徴点ペアを除去して、目標特徴点ペア集合を取得するステップと、を実行するために用いられる。
本発明の選択可能な一実施例では、前記特徴抽出ユニット42は、前記キーフレーム画像又は前記被処理フレーム画像内の第1画素点の所定領域範囲内の複数の第2画素点を決定するステップと、前記複数の第2画素点の階調値が前記第1画素点の階調値と異なるか否かを判断するステップと、前記複数の第2画素点の階調値が前記第1画素点の階調値と異なる場合に、前記第1画素点が前記キーフレーム画像又は前記被処理フレーム画像内の特徴点であると決定するステップと、を実行するために用いられる。
本発明の選択可能な一実施例では、前記変換ユニット44は、マッチング関係を有する前記キーフレーム画像内の特徴点と前記被処理フレーム画像内の特徴点に基づいて変換関係を決定する場合において、前記目標特徴点ペア集合内の目標特徴点ペアに含まれる前記キーフレーム画像内の特徴点の座標と前記被処理フレーム画像内の特徴点の座標に基づいて変換行列を決定するために用いられる。
本発明の選択可能な一実施例では、前記変換ユニット44は、前記変換関係に基づいて前記被処理フレーム画像を処理して目標フレーム画像を得る場合において、前記変換行列に基づいて前記被処理フレーム画像内の、前記目標対象を含む目標領域に対して変換処理を行い、目標フレーム画像を得るために用いられる。
本発明の選択可能な一実施例では、図7に示すように、前記装置は決定ユニット46と処理ユニット47を更に含み、
前記特徴抽出ユニット42は、更に、前記目標フレーム画像内の特徴点を抽出するために用いられ、
前記決定ユニット46は、前記キーフレーム画像内の特徴点と前記目標フレーム画像内の特徴点に基づいて第1損失値を決定するために用いられ、前記第1損失値を決定するための前記キーフレーム画像内の特徴点が、前記変換関係を決定するための前記キーフレーム画像内の特徴点と異なるものであり、
前記処理ユニット47は、前記第1損失値が第2閾値を超えていない場合に、前記得られた目標フレーム画像を保留するために用いられる。
本発明の選択可能な一実施例では、前記処理ユニット47は、更に、前記第1損失が第2閾値を超えた場合に、前記得られた目標フレーム画像を削除するために用いられる。
本発明の実施例では、前記装置における画像取得ユニット41、特徴抽出ユニット42、マッチングユニット43、変換ユニット44、選別ユニット45、決定ユニット46及び処理ユニット47は、実用上、いずれも中央処理装置(CPU、Central Processing Unit)、ディジタル信号プロセッサ(DSP、Digital Signal Processor)、マイクロコントローラーユニット(MCU、Microcontroller Unit)又はフィールド・プログラマブル・ゲート・アレイ(FPGA、Field-Programmable Gate Array)によって実現することができる。
上記実施例で提供された画像処理装置によって画像処理を行う時に、上述したように分割した各プログラムモジュールを例にして説明したが、実用において、必要に応じて上記処理を異なるプログラムモジュールによって完了するように割り当ててもよく、即ち装置の内部構造を異なるプログラムモジュールに分割して上述した全てまたは一部の処理を完了するようにしてもよいことを説明する必要がある。なお、上記実施例で提供された画像処理装置及び画像処理方法の実施例が同じ構想によるものであり、その具体的な実施過程の詳細については方法の実施例を参照し、ここで重複説明を省略する。
本発明の実施例は、電子機器を更に提供し、図8は本発明の実施例の電子機器のハードウェア構成の構造模式図であり、図8に示すように、前記電子機器50は、メモリ52と、プロセッサ51と、メモリ52に記憶され且つプロセッサ51上で作動可能なコンピュータプログラムと、を含み、前記プロセッサ51が前記プログラムを実行する時に本発明の実施例に記載の画像処理方法のステップを実現する。
本実施例の電子機器50における各コンポーネントがバスシステム53によって接続されてもよいことが理解可能である。バスシステム53がこれらのコンポーネントの間の接続通信を実現するためのものであることが理解可能である。バスシステム53はデータバスに加えて、更に電源バス、制御バス及び状態信号バスを含む。ただし、説明を明瞭にするために、図8において各種のバスがすべてバスシステム53とされている。
メモリ52は揮発性メモリ又は不揮発性メモリであってもよく、揮発性及び不揮発性メモリの両方を含んでもよいことが理解可能である。ここで、不揮発性メモリは、読み出し専用メモリ(ROM、Read Only Memory)、プログラマブル読み出し専用メモリ(PROM、Programmable Read-Only Memory)、消去可能プログラマブル読み出し専用メモリ(EPROM、Erasable Programmable Read-Only Memory)、電気的消去可能なプログラマブル読み出し専用メモリ(EEPROM、Electrically Erasable Programmable Read-Only Memory)、磁気ランダムアクセスメモリ(FRAM、ferromagnetic random access memory)、フラッシュメモリ(Flash Memory)、磁性面メモリ、光ディスク又はシーディーロム(CD-ROM、Compact Disc Read-Only Memory)であってよく、磁性面メモリは磁気ディスクメモリ又は磁気テープメモリであってもよい。揮発性メモリはランダムアクセスメモリ(RAM、Random Access Memory)であってよく、外部キャッシュとして用いられる。例示的なものであり限定する意図がない説明によれば、例えば、スタティックランダムアクセスメモリ(SRAM、Static Random Access Memory)、同期スタティックランダムアクセスメモリ(SSRAM、Synchronous Static Random Access Memory)、ダイナミックランダムアクセスメモリ(DRAM、Dynamic Random Access Memory)、同期ダイナミックランダムアクセスメモリ(SDRAM、Synchronous Dynamic Random Access Memory)、ダブルデータレート同期ダイナミックランダムアクセスメモリ(DDRSDRAM、Double Data Rate Synchronous Dynamic Random Access Memory)、強化型同期ダイナミックランダムアクセスメモリ(ESDRAM、Enhanced Synchronous Dynamic Random Access Memory)、同期接続ダイナミックランダムアクセスメモリ(SLDRAM、SyncLink Dynamic Random Access Memory)、ダイレクトラムバスランダムアクセスメモリ(DRRAM、Direct Rambus Random Access Memory)のような多くの形のRAMが使用可能である。本発明の実施例に記載のメモリ52は、これらのメモリ及び他のいかなる適切なメモリを含むが、それらに限定されない。
上記の本発明の実施例で開示された方法は、プロセッサ51に用いることができ、又はプロセッサ51によって実現することができる。プロセッサ51は信号処理能力を有する集積回路チップであってもよい。実施過程では、上記方法の各ステップはプロセッサ51のハードウェアの集積論理回路又はソフトウェア形態のコマンドによって完成可能である。上記プロセッサ51は共通プロセッサ、DSPまたは他のプログラマブル論理デバイス、離散ゲートまたはトランジスタ論理デバイス、離散ハードウェアコンポーネント等であってもよい。プロセッサ51は、本発明の実施例で開示された各方法、ステップ及び論理ブロック図を実現又は実行することができる。共通プロセッサは、マイクロプロセッサ又はいかなる一般のプロセッサ等であってもよい。本発明の実施例で開示された方法のステップによれば、ハードウェア復号プロセッサにより実行、完成し、又は復号プロセッサ内のハードウェア及びソフトウェアモジュールの組合により実行、完成するように直接体現することができる。ソフトウェアモジュールは記憶媒体にあってもよく、該記憶媒体はメモリ52に位置し、プロセッサ51はメモリ52内の情報を読み取り、そのハードウェアと組み合わせて上記方法のステップを完成する。
例示的な実施例では、電子機器50は、一つ以上の特定用途向け集積回路(ASIC、Application Specific Integrated Circuit)、DSP、プログラマブルロジックデバイス(PLD、Programmable Logic Device)、複雑プログラマブルロジックデバイス(CPLD、Complex Programmable Logic Device)、FPGA、共通プロセッサ、コントローラ、MCU、マイクロプロセッサ(Microprocessor)または他の電子要素によって実現されて、上記方法を実行するために用いることが可能である。
例示的な実施例では、本発明の実施例はさらにコンピュータ読み取り可能な記憶媒体、例えば、電子機器50のプロセッサ51によって実行して、前記方法の前記ステップを完了することができるコンピュータプログラムを含むメモリ52を提供する。コンピュータ読み取り可能な記憶媒体はFRAM、ROM、PROM、EPROM、EEPROM、Flash Memory、磁性面記憶装置、光ディスク、またはCD-ROMなどのメモリであってもよい。
本発明の実施例は、コンピュータプログラムが記憶されているコンピュータ可読記憶媒体であって、このプログラムがプロセッサにより実行される時に本発明の実施例に記載の画像処理方法のステップを実現するコンピュータ可読記憶媒体を更に提供する。
なお、本願が提供するいくつかの実施例では、開示した機器および方法は、他の形態で実現することができることを理解すべきである。以上に記載の機器の実施例は例示的なものに過ぎず、例えば、前記ユニットの分割は、論理機能の分割に過ぎず、実際に実現する場合に別の形態で分割してもよく、例えば、複数のユニットまたはコンポーネントは組み合わせてもよいし、または別のシステムに統合してもよいし、または一部の特徴を省略もしくは実行しなくてもよい。また、図示または説明した各構成要素の結合、または直接結合、または通信接続は、いくつかのインタフェース、機器またはユニットを介した間接結合または通信接続であり得、電気的、機械的または他の形態であり得る。
別々の部材として前述したユニットは物理的に分離されてもされなくてもよく、ユニットとして示された部材は物理的ユニットであってもなくてもよく、一箇所にあっても複数のネットワークユニットに分散してもよく、本実施例の解決手段の目的を達成するには、実際の必要に応じて一部または全てのユニットを選択することができる。
また、本発明の各実施例における各機能ユニットは全て一つの処理ユニットに統合されてもよいし、一つのユニットとして別々に使用されてもよいし、二つ以上で一つのユニットに統合されてもよく、上記統合されたユニットはハードウェアの形で、またはハードウェアとソフトウェアを組み合わせた機能ユニットの形で実現され得る。
当業者であれば、上記各方法の実施例を実現する全てまたは一部のステップはプログラムによって関連ハードウェアに命令を出すことにより完了できることを理解でき、前記プログラムは、携帯型記憶装置、ROM、RAM、磁気ディスクまたは光ディスクなどのプログラムコードを記憶可能である様々な媒体を含むコンピュータ読み取り可能記憶媒体に記憶可能であり、該プログラムは実行される時に、上記各方法の実施例を含むステップを実行する。
あるいは、本発明の上記統合されたユニットはソフトウェア機能モジュールの形で実現されかつ独立した製品として販売または使用される場合、コンピュータ読み取り可能記憶媒体に記憶されてもよい。このような見解をもとに、本発明の実施例の技術的解決手段は実質的にまたは従来技術に寄与する部分がソフトウェア製品の形で実施することができ、該コンピュータソフトウェア製品は記憶媒体に記憶され、コンピュータ機器(パーソナルコンピュータ、サーバ、またはネットワーク機器などであってもよい)に本発明の各実施例に記載の方法の全てまたは一部を実行させる複数の命令を含む。前記記憶媒体は、携帯型記憶装置、ROM、RAM、磁気ディスクまたは光ディスクなどのプログラムコードを記憶可能である様々な媒体を含む。
以上で説明したのは本発明の具体的な実施形態に過ぎず、本発明の保護範囲がそれに限定されるものでなく、本発明に記載された技術範囲内に当業者に容易に想到される変化又は取り替えは、全て本発明の保護範囲に含まれる。従って、本発明の保護範囲は請求項の保護範囲に準ずるべきである。

Claims (21)

  1. 目標対象を含むキーフレーム画像を取得し、前記目標対象を含む被処理フレーム画像を取得するステップと、
    前記キーフレーム画像内の1つ又は複数の特徴点と前記被処理フレーム画像内の1つ又は複数の特徴点をそれぞれ抽出するステップと、
    前記キーフレーム画像内の各特徴点と前記被処理フレーム画像内の各特徴点との間のマッチング関係を決定するステップと、
    マッチング関係を有する前記キーフレーム画像内の特徴点と前記被処理フレーム画像内の特徴点に基づいて変換関係を決定するステップと、
    前記変換関係に基づいて前記被処理フレーム画像を処理して目標フレーム画像を得るステップと、を含むことを特徴とする画像処理方法。
  2. 前記キーフレーム画像内の各特徴点と前記被処理フレーム画像内の各特徴点との間のマッチング関係を決定するステップは、
    前記キーフレーム画像内の第1特徴点に関連する第1組の画素点ペアを取得し、前記被処理フレーム画像内の第2特徴点に関連する第2組の画素点ペアを取得するステップであって、前記第1特徴点が前記キーフレーム画像内の1つの特徴点であり、前記第2特徴点が前記被処理フレーム画像内の1つの特徴点であり、前記第1組の画素点ペア内の第1画素点ペアと前記第1特徴点の相対的位置関係が、前記第2組の画素点ペア内の第2画素点ペアと前記第2特徴点の相対的位置関係と一致しており、前記第1組の画素点ペアが少なくとも1組の第1画素点ペアを含み、前記第2組の画素点ペアが少なくとも1組の第2画素点ペアを含むステップと、
    第1画素点ペアに含まれる2つの画素点の画素値を比較して第1比較結果を取得し、第2画素点ペアに含まれる2つの画素点の画素値を比較して第2比較結果を取得するステップと、
    前記少なくとも1組の第1画素点ペアの対応する少なくとも1つの第1比較結果と前記少なくとも1組の第2画素点ペアの対応する少なくとも1つの第2比較結果に基づいて、前記第1組の画素点ペアと前記第2組の画素点ペアの類似度を決定するステップと、
    前記類似度が第1所定閾値に到達した場合に、前記第1特徴点と前記第2特徴点がマッチング関係を満たしたと決定するステップと、を含むことを特徴とする請求項1に記載の方法。
  3. 前記少なくとも1組の第1画素点ペアの対応する少なくとも1つの第1比較結果と前記少なくとも1組の第2画素点ペアの対応する少なくとも1つの第2比較結果に基づいて、前記第1組の画素点ペアと前記第2組の画素点ペアの類似度を決定する前記ステップは、
    前記少なくとも1つの第1比較結果に基づいて第1文字列を生成するステップと、
    前記少なくとも1つの第2比較結果に基づいて第2文字列を生成するステップと、
    前記第1文字列と前記第2文字列に基づいて第1ハミング距離を決定し、前記第1ハミング距離に基づいて前記第1組の画素点ペアと前記第2組の画素点ペアの類似度を決定するステップと、を含むことを特徴とする請求項2に記載の方法。
  4. マッチング関係を有する前記キーフレーム画像内の特徴点と前記被処理フレーム画像内の特徴点に基づいて変換関係を決定する前記ステップは、
    特徴点ペア集合から選別して目標特徴点ペア集合を取得するステップであって、各特徴点ペアが、マッチング関係を有する前記キーフレーム画像内の1つの特徴点と前記被処理フレーム画像内の1つの特徴点から構成され、前記特徴点ペア集合が複数組の特徴点ペアを含むステップと、
    前記目標特徴点ペア集合内の目標特徴点ペアに基づいて変換関係を決定するステップと、を含むことを特徴とする請求項1~3のいずれか一項に記載の方法。
  5. 特徴点ペア集合から選別して目標特徴点ペア集合を取得する前記ステップは、
    前記特徴点ペア集合内の各特徴点ペアに含まれる前記キーフレーム画像内の特徴点と前記被処理フレーム画像内の特徴点との間の類似度を取得するステップと、
    前記特徴点ペア集合内の全ての特徴点ペアに対応する類似度の最大値を決定し、前記最大値に基づいて第1閾値を決定するステップと、
    対応類似度が前記第1閾値より小さい前記特徴点ペア集合内の特徴点ペアを除去して、目標特徴点ペア集合を取得するステップと、を含むことを特徴とする請求項4に記載の方法。
  6. 前記キーフレーム画像内の特徴点と前記被処理フレーム画像内の特徴点をそれぞれ抽出する前記ステップは、
    前記キーフレーム画像又は前記被処理フレーム画像内の第1画素点の所定領域範囲内の複数の第2画素点を決定するステップと、
    前記複数の第2画素点の階調値が前記第1画素点の階調値と異なるか否かを判断するステップと、
    前記複数の第2画素点の階調値が前記第1画素点の階調値と異なる場合に、前記第1画素点が前記キーフレーム画像又は前記被処理フレーム画像内の特徴点であると決定するステップと、を含むことを特徴とする請求項1~5のいずれか一項に記載の方法。
  7. 前記目標特徴点ペア集合内の目標特徴点ペアに基づいて変換関係を決定する前記ステップは、
    前記目標特徴点ペア集合内の目標特徴点ペアに含まれる前記キーフレーム画像内の特徴点の座標と前記被処理フレーム画像内の特徴点の座標に基づいて変換行列を決定するステップを含むことを特徴とする請求項4に記載の方法。
  8. 前記変換関係に基づいて前記被処理フレーム画像を処理して目標フレーム画像を得る前記ステップは、
    前記変換行列に基づいて前記被処理フレーム画像内の、前記目標対象を含む目標領域に対して変換し、目標フレーム画像を得るステップを含むことを特徴とする請求項7に記載の方法。
  9. 目標フレーム画像を得た後、
    前記目標フレーム画像内の特徴点を抽出するステップと、
    前記キーフレーム画像内の特徴点と前記目標フレーム画像内の特徴点に基づいて第1損失値を決定するステップであって、前記第1損失値を決定するための前記キーフレーム画像内の特徴点が、前記変換関係を決定するための前記キーフレーム画像内の特徴点と異なるものであるステップと、
    前記第1損失値が第2閾値を超えていない場合に、前記得られた目標フレーム画像を保留するステップと、
    前記第1損失値が第2閾値を超えた場合に、前記得られた目標フレーム画像を削除するステップと、を更に含むことを特徴とする請求項1~8のいずれか一項に記載の方法。
  10. 目標対象を含むキーフレーム画像を取得し、前記目標対象を含む被処理フレーム画像を取得するための画像取得ユニットと、
    前記キーフレーム画像内の1つ又は複数の特徴点と前記被処理フレーム画像内の1つ又は複数の特徴点をそれぞれ抽出するための特徴抽出ユニットと、
    前記キーフレーム画像内の各特徴点と前記被処理フレーム画像内の各特徴点との間のマッチング関係を決定するためのマッチングユニットと、
    マッチング関係を有する前記キーフレーム画像内の特徴点と前記被処理フレーム画像内の特徴点に基づいて変換関係を決定し、前記変換関係に基づいて前記被処理フレーム画像を処理して目標フレーム画像を得るための変換ユニットと、を含むことを特徴とする画像処理装置。
  11. 前記マッチングユニットは、
    前記キーフレーム画像内の第1特徴点に関連する第1組の画素点ペアを取得し、前記被処理フレーム画像内の第2特徴点に関連する第2組の画素点ペアを取得するステップであって、前記第1特徴点が前記キーフレーム画像内の1つの特徴点であり、前記第2特徴点が前記被処理フレーム画像内の1つの特徴点であり、前記第1組の画素点ペア内の第1画素点ペアと前記第1特徴点の相対的位置関係が、前記第2組の画素点ペア内の第2画素点ペアと前記第2特徴点の相対的位置関係と一致しており、前記第1組の画素点ペアが少なくとも1組の第1画素点ペアを含み、前記第2組の画素点ペアが少なくとも1組の第2画素点ペアを含むステップと、
    第1画素点ペアに含まれる2つの画素点の画素値を比較して第1比較結果を取得し、第2画素点ペアに含まれる2つの画素点の画素値を比較して第2比較結果を取得するステップと、
    前記少なくとも1組の第1画素点ペアの対応する少なくとも1つの第1比較結果と前記少なくとも1組の第2画素点ペアの対応する少なくとも1つの第2比較結果に基づいて、前記第1組の画素点ペアと前記第2組の画素点ペアの類似度を決定するステップと、
    前記類似度が第1所定閾値に到達した場合に、前記第1特徴点と前記第2特徴点がマッチング関係を満たしたと決定するステップと、を実行するために用いられることを特徴とする請求項10に記載の装置。
  12. 前記マッチングユニットは、前記少なくとも1組の第1画素点ペアの対応する少なくとも1つの第1比較結果と前記少なくとも1組の第2画素点ペアの対応する少なくとも1つの第2比較結果に基づいて、前記第1組の画素点ペアと前記第2組の画素点ペアの類似度を決定する場合において、
    前記少なくとも1つの第1比較結果に基づいて第1文字列を生成するステップと、
    前記少なくとも1つの第2比較結果に基づいて第2文字列を生成するステップと、
    前記第1文字列と前記第2文字列に基づいて第1ハミング距離を決定し、前記第1ハミング距離に基づいて前記第1組の画素点ペアと前記第2組の画素点ペアの類似度を決定するステップと、を実行するために用いられることを特徴とする請求項11に記載の装置。
  13. 特徴点ペア集合から選別して目標特徴点ペア集合を取得するための選別ユニットであって、各特徴点ペアが、マッチング関係を有する前記キーフレーム画像内の1つの特徴点と前記被処理フレーム画像内の1つの特徴点から構成され、前記特徴点ペア集合が複数組の特徴点ペアを含む選別ユニットを更に含み、
    前記変換ユニットは、マッチング関係を有する前記キーフレーム画像内の特徴点と前記被処理フレーム画像内の特徴点に基づいて変換関係を決定する場合において、
    前記選別ユニットの取得した前記目標特徴点ペア集合内の目標特徴点ペアに基づいて変換関係を決定するために用いられることを特徴とする請求項10~12のいずれか一項に記載の装置。
  14. 前記選別ユニットは、
    前記特徴点ペア集合内の各特徴点ペアに含まれる前記キーフレーム画像内の特徴点と前記被処理フレーム画像内の特徴点との間の類似度を取得するステップと、
    前記特徴点ペア集合内の全ての特徴点ペアに対応する類似度の最大値を決定し、前記最大値に基づいて第1閾値を決定するステップと、
    対応類似度が前記第1閾値より小さい前記特徴点ペア集合内の特徴点ペアを除去して、目標特徴点ペア集合を取得するステップと、を実行するために用いられることを特徴とする請求項13に記載の装置。
  15. 前記特徴抽出ユニットは、
    前記キーフレーム画像又は前記被処理フレーム画像内の第1画素点の所定領域範囲内の複数の第2画素点を決定するステップと、
    前記複数の第2画素点の階調値が前記第1画素点の階調値と異なるか否かを判断するステップと、
    前記複数の第2画素点の階調値が前記第1画素点の階調値と異なる場合に、前記第1画素点が前記キーフレーム画像又は前記被処理フレーム画像内の特徴点であると決定するステップと、を実行するために用いられることを特徴とする請求項10~14のいずれか一項に記載の装置。
  16. 前記変換ユニットは、前記目標特徴点ペア集合内の目標特徴点ペアに基づいて変換関係を決定する場合において、
    前記目標特徴点ペア集合内の目標特徴点ペアに含まれる前記キーフレーム画像内の特徴点の座標と前記被処理フレーム画像内の特徴点の座標に基づいて変換行列を決定するために用いられることを特徴とする請求項13に記載の装置。
  17. 前記変換ユニットは、前記変換関係に基づいて前記被処理フレーム画像を処理して目標フレーム画像を得る場合において、
    前記変換行列に基づいて前記被処理フレーム画像内の、前記目標対象を含む目標領域に対して変換処理を行い、目標フレーム画像を得るために用いられることを特徴とする請求項16に記載の装置。
  18. 決定ユニットと処理ユニットを更に含み、
    前記特徴抽出ユニットは、更に、前記目標フレーム画像内の特徴点を抽出するために用いられ、
    前記決定ユニットは、前記キーフレーム画像内の特徴点と前記目標フレーム画像内の特徴点に基づいて第1損失値を決定するためのものであって、前記第1損失値を決定するための前記キーフレーム画像内の特徴点が、前記変換関係を決定するための前記キーフレーム画像内の特徴点と異なるものであり、
    前記処理ユニットは、前記第1損失値が第2閾値を超えていない場合に、前記得られた目標フレーム画像を保留するために用いられ、
    前記処理ユニットは、更に、前記第1損失値が第2閾値を超えた場合に、前記得られた目標フレーム画像を削除するために用いられることを特徴とする請求項10~17のいずれか一項に記載の装置。
  19. コンピュータプログラムが記憶されているコンピュータ可読記憶媒体であって、前記プログラムがプロセッサにより実行される時に請求項1~9のいずれか一項に記載の方法のステップを実現することを特徴とするコンピュータ可読記憶媒体。
  20. メモリと、プロセッサと、メモリに記憶され且つプロセッサ上で動作可能なコンピュータプログラムとを含み、前記プロセッサが前記プログラムを実行する時に請求項1~9のいずれか一項に記載の方法のステップを実現することを特徴とする電子機器。
  21. コンピュータ可読コードを含むコンピュータプログラムであって、前記コンピュータ可読コードが装置上で作動する時に、この装置のプロセッサがコマンドを実行して請求項1~9のいずれか一項に記載の方法のステップを実現するコンピュータプログラム。
JP2020542069A 2019-12-30 2020-04-17 画像処理方法、装置及び電子機器 Active JP7121132B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
SG10201913798W 2019-12-30
SG10201913798WA SG10201913798WA (en) 2019-12-30 2019-12-30 Image processing method and apparatus, and electronic device
PCT/IB2020/053640 WO2021136981A1 (en) 2019-12-30 2020-04-17 Image processing method and apparatus, and electronic device

Publications (2)

Publication Number Publication Date
JP2022519398A true JP2022519398A (ja) 2022-03-24
JP7121132B2 JP7121132B2 (ja) 2022-08-17

Family

ID=76685954

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020542069A Active JP7121132B2 (ja) 2019-12-30 2020-04-17 画像処理方法、装置及び電子機器

Country Status (6)

Country Link
JP (1) JP7121132B2 (ja)
KR (1) KR102421604B1 (ja)
CN (1) CN113228105A (ja)
AU (1) AU2020294190B2 (ja)
SG (1) SG10201913798WA (ja)
WO (1) WO2021136981A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230095613A (ko) * 2021-12-22 2023-06-29 주식회사 포스코 특징점 추적 기반 거동 분석 방법 및 시스템
CN115035356B (zh) * 2022-08-11 2022-12-06 深圳新智联软件有限公司 嵌入式系统中特征点变换方法、装置及设备
CN115936974A (zh) * 2022-11-21 2023-04-07 北京地平线机器人技术研发有限公司 基于单应性变换的图像数据处理方法、装置及介质

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130044342A1 (en) * 2011-08-16 2013-02-21 Ricoh Company, Ltd. Apparatus, system, and method of inspecting image, and recording medium storing image inspection control program
US20130169822A1 (en) * 2011-12-28 2013-07-04 Pelco, Inc. Camera calibration using feature identification
US20140254940A1 (en) * 2013-03-08 2014-09-11 Canon Kabushiki Kaisha Image processing apparatus and image processing method
US20140321705A1 (en) * 2009-12-23 2014-10-30 Metaio Gmbh Method of determining reference features for use in an optical object initialization tracking process and object initialization tracking method
US20150294490A1 (en) * 2014-04-13 2015-10-15 International Business Machines Corporation System and method for relating corresponding points in images with different viewing angles
US20170277989A1 (en) * 2013-02-06 2017-09-28 Alibaba Group Holding Limited Information processing method and system
JP2017187971A (ja) * 2016-04-07 2017-10-12 東芝テック株式会社 画像処理装置
CN108021886A (zh) * 2017-12-04 2018-05-11 西南交通大学 一种无人机重复纹理影像局部显著特征点匹配方法
US20180181816A1 (en) * 2016-12-22 2018-06-28 Texas Instruments Incorporated Handling Perspective Magnification in Optical Flow Proessing
US20180336700A1 (en) * 2017-05-22 2018-11-22 Alibaba Group Holding Limited Image capture direction recognition method and server, surveillance method and system and image capture device
CN110197185A (zh) * 2019-05-23 2019-09-03 北京云星宇交通科技股份有限公司 一种基于尺度不变特征变换算法监测桥下空间的方法和系统

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101677561B1 (ko) * 2010-12-08 2016-11-18 한국전자통신연구원 영상 정합 장치 및 그것의 영상 정합 방법
KR101697512B1 (ko) * 2011-12-15 2017-01-19 한국전자통신연구원 영상 정합 장치 및 방법
KR101524548B1 (ko) * 2012-07-26 2015-06-02 삼성테크윈 주식회사 영상 정합 장치 및 방법
US9147226B2 (en) * 2012-09-10 2015-09-29 Nokia Technologies Oy Method, apparatus and computer program product for processing of images
KR102147520B1 (ko) 2013-07-29 2020-08-25 삼성디스플레이 주식회사 곡면표시장치
KR102170689B1 (ko) * 2014-01-14 2020-10-27 한화테크윈 주식회사 영상 정합을 위한 특징점 샘플링 방법
US10013765B2 (en) * 2016-08-19 2018-07-03 Mitsubishi Electric Research Laboratories, Inc. Method and system for image registrations
US10453204B2 (en) * 2016-12-06 2019-10-22 Adobe Inc. Image alignment for burst mode images
CN109959335B (zh) * 2017-12-22 2021-09-21 北京金风科创风电设备有限公司 测量塔顶位移的方法、装置和系统
CN109064504B (zh) * 2018-08-24 2022-07-15 深圳市商汤科技有限公司 图像处理方法、装置和计算机存储介质
CN109544615B (zh) * 2018-11-23 2021-08-24 深圳市腾讯信息技术有限公司 基于图像的重定位方法、装置、终端及存储介质
CN110033411B (zh) * 2019-04-12 2021-01-12 哈尔滨工业大学 基于无人机的公路施工现场全景图像高效拼接方法
CN110189242B (zh) * 2019-05-06 2023-04-11 阿波罗智联(北京)科技有限公司 图像处理方法和装置
CN110335315B (zh) * 2019-06-27 2021-11-02 Oppo广东移动通信有限公司 一种图像处理方法及装置、计算机可读存储介质

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140321705A1 (en) * 2009-12-23 2014-10-30 Metaio Gmbh Method of determining reference features for use in an optical object initialization tracking process and object initialization tracking method
US20130044342A1 (en) * 2011-08-16 2013-02-21 Ricoh Company, Ltd. Apparatus, system, and method of inspecting image, and recording medium storing image inspection control program
US20130169822A1 (en) * 2011-12-28 2013-07-04 Pelco, Inc. Camera calibration using feature identification
US20170277989A1 (en) * 2013-02-06 2017-09-28 Alibaba Group Holding Limited Information processing method and system
US20140254940A1 (en) * 2013-03-08 2014-09-11 Canon Kabushiki Kaisha Image processing apparatus and image processing method
US20150294490A1 (en) * 2014-04-13 2015-10-15 International Business Machines Corporation System and method for relating corresponding points in images with different viewing angles
JP2017187971A (ja) * 2016-04-07 2017-10-12 東芝テック株式会社 画像処理装置
US20180181816A1 (en) * 2016-12-22 2018-06-28 Texas Instruments Incorporated Handling Perspective Magnification in Optical Flow Proessing
US20180336700A1 (en) * 2017-05-22 2018-11-22 Alibaba Group Holding Limited Image capture direction recognition method and server, surveillance method and system and image capture device
CN108021886A (zh) * 2017-12-04 2018-05-11 西南交通大学 一种无人机重复纹理影像局部显著特征点匹配方法
CN110197185A (zh) * 2019-05-23 2019-09-03 北京云星宇交通科技股份有限公司 一种基于尺度不变特征变换算法监测桥下空间的方法和系统

Also Published As

Publication number Publication date
SG10201913798WA (en) 2021-07-29
CN113228105A (zh) 2021-08-06
KR20210088436A (ko) 2021-07-14
JP7121132B2 (ja) 2022-08-17
AU2020294190A1 (en) 2021-07-15
AU2020294190B2 (en) 2022-05-26
WO2021136981A1 (en) 2021-07-08
KR102421604B1 (ko) 2022-07-15

Similar Documents

Publication Publication Date Title
JP6511149B2 (ja) 指紋重複領域の面積算出方法、それを行う電子機器、コンピュータプログラム、及び、記録媒体
CN107633526B (zh) 一种图像跟踪点获取方法及设备、存储介质
WO2020151750A1 (zh) 图像处理方法及装置
US11354883B2 (en) Image processing method and apparatus, and electronic device
JP2022519398A (ja) 画像処理方法、装置及び電子機器
WO2019033574A1 (zh) 电子装置、动态视频人脸识别的方法、系统及存储介质
CN105894464B (zh) 一种中值滤波图像处理方法和装置
TW201804373A (zh) 識別二維碼位置的方法及其系統
US9025863B2 (en) Depth camera system with machine learning for recognition of patches within a structured light pattern
WO2019201029A1 (zh) 备选框更新方法及装置
WO2019128504A1 (zh) 一种台球比赛中的图像处理方法、装置及终端设备
TW202024992A (zh) 基於多幀臉部圖像的比對方法、裝置和電子設備
CN115526892B (zh) 基于三维重建的图像缺陷去重检测方法和装置
US9947106B2 (en) Method and electronic device for object tracking in a light-field capture
WO2024109772A1 (zh) 一种基于结构光系统的人脸姿态估计方法及装置
US11256949B2 (en) Guided sparse feature matching via coarsely defined dense matches
TWI686770B (zh) 表面擷取方法、裝置及非暫態電腦可讀取記錄媒體
WO2022199395A1 (zh) 人脸活体检测方法、终端设备及计算机可读存储介质
TWI657378B (zh) 複數非線性扭曲鏡頭下之目標追蹤方法及系統
US11023781B2 (en) Method, apparatus and device for evaluating image tracking effectiveness and readable storage medium
JP2015184743A (ja) 画像処理装置および物体認識方法
CN114219831A (zh) 目标跟踪方法、装置、终端设备及计算机可读存储介质
JP2022546880A (ja) オブジェクト関連付け方法及び装置、システム、電子機器、記憶媒体及びコンピュータプログラム
CN111145081A (zh) 基于空间体积特征的三维模型视图投影方法及系统
CN110503109B (zh) 图像特征提取方法和装置、图像处理方法和装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220628

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220804

R150 Certificate of patent or registration of utility model

Ref document number: 7121132

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150