JP2012079004A - Feature point extraction device, image processing device, feature point extraction method, feature point extraction program and the like - Google Patents
Feature point extraction device, image processing device, feature point extraction method, feature point extraction program and the like Download PDFInfo
- Publication number
- JP2012079004A JP2012079004A JP2010222459A JP2010222459A JP2012079004A JP 2012079004 A JP2012079004 A JP 2012079004A JP 2010222459 A JP2010222459 A JP 2010222459A JP 2010222459 A JP2010222459 A JP 2010222459A JP 2012079004 A JP2012079004 A JP 2012079004A
- Authority
- JP
- Japan
- Prior art keywords
- feature point
- point
- candidate
- feature
- score value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、画像に表示される物体を認識する装置及び方法等の技術分野に関する。 The present invention relates to a technical field such as an apparatus and method for recognizing an object displayed in an image.
画像に表示される物体を認識し、当該物体の動きを解析する画像処理技術では、例えば、当該画像から公知のKLT(Kanade Lucas Tomasi)法、Moravecオペレータ、SUSANオペレータ、又はHarrisオペレータ等を用いて特徴点が抽出され、抽出された特徴点に対して、ニュートンラプソン法を用いて追跡処理が行われている。 In an image processing technique for recognizing an object displayed in an image and analyzing the movement of the object, for example, a known KLT (Kanade Lucas Tomasi) method, Moravec operator, SUSAN operator, or Harris operator is used. Feature points are extracted, and tracking processing is performed on the extracted feature points using the Newton-Raphson method.
また、画像からバランスよく特徴点を抽出するための技術として、特許文献1では、入力された画像を所定の部分画像に分割し、各部分画像中からそれぞれ所定の数だけ特徴点を抽出する技術が開示されている。
In addition, as a technique for extracting feature points from an image in a balanced manner,
しかしながら、上述した各方法による特徴点の抽出では、画像における輝度勾配(輝度の差)が大きい画素(評価値が高い値)の周辺が特徴点として抽出されるため、当該画像の評価値が高い値が局所に集中してしまうという問題点があった。 However, in the feature point extraction by the above-described methods, the periphery of a pixel (value having a high evaluation value) having a large luminance gradient (luminance difference) in the image is extracted as the feature point, and thus the evaluation value of the image is high. There was a problem that the values were concentrated locally.
すなわち、上記特徴点の抽出方法では、輝度勾配が大きい画素として表示される人間の服装や画像のエッジ部分等(例えば、画像の輪郭部分や服のチェック柄等)を特徴点として抽出してしまう結果、抽出された特徴点が一点に密集し、画面全体にバランス良く特徴点の抽出が行えず、また、当該特徴点を用いて追跡等の処理を行ったとしても正確な動作解析等が行えないとの問題点があった。 That is, in the above feature point extraction method, human clothes displayed as pixels having a large luminance gradient, edge portions of images, and the like (for example, contour portions of images and check patterns of clothes) are extracted as feature points. As a result, the extracted feature points are concentrated in one point, and feature points cannot be extracted in a well-balanced manner on the entire screen, and accurate operation analysis can be performed even if processing such as tracking is performed using the feature points. There was no problem.
そこで、本発明は上記各問題点に鑑みてなされたもので、その目的の一例は、撮像された画像から正確かつ可用性のある特徴点を抽出する装置及び方法等を提供することである。 Accordingly, the present invention has been made in view of the above problems, and an example of the object thereof is to provide an apparatus and method for extracting accurate and available feature points from a captured image.
上記課題を解決するために、請求項1に記載の発明は、画像に示される特徴点を追跡処理し当該特徴点の動きベクトルを取得するために、入力された前記画像を構成し前記画像における所定の位置情報を有する画素情報から、所定の順序に従って所定の数量の前記特徴点を順次設定する特徴点抽出装置であって、前記画素情報から、特徴点の候補となる候補点を特定する候補点特定手段と、前記候補点の評価値を示すスコア値の入力を受け付けるスコア値入力手段と、前記候補点特定手段によって、新たに特定された候補点が、既に特定された特徴点から予め定められた領域内に存在するか否かを判定する領域判定手段と、前記領域判定手段によって、新たに特定された候補点が、既に特定された特徴点から予め定められた領域内に存在すると判定された場合に、前記新たに特定された候補点と、前記既に特定された特徴点が候補点として特定された際に入力されたスコア値の大きさを判定するスコア値判定手段と、前記スコア値判定手段によって、前記候補点のスコア値が大きいと判定された場合には、前記候補点を前記画像における新たな特徴点として設定する特徴点設定手段と、を備えることを特徴とする。
In order to solve the above-described problem, the invention described in
この発明によれば、撮像された画像から正確かつ可用性のある特徴点を抽出することができる。 According to the present invention, it is possible to extract accurate and available feature points from a captured image.
請求項2に記載の発明は、請求項1に記載の特徴点抽出装置であって、前記画像を所定の領域毎に分割した分割領域を設定する分割領域設定手段と、前記候補点特定手段によって新たに特定された候補点が属する分割領域を基準に、当該基準とされた分割領域から所定の分割領域の範囲内に既に特定された特徴点が存在するか否かを判定する分割領域判定手段と、を備え、前記スコア値判定手段は、前記分割領域判定手段によって、前記基準とされた分割領域から所定の分割領域の範囲内に既に特定された特徴点が存在する領域であって、前記新たに特定された候補点が、前記既に特定された特徴点から予め定められた領域内に存在すると判定された場合には、前記新たに特定された候補点と、前記既に特定された特徴点が候補点として特定された際に入力されたスコア値を比較することを特徴とする。 According to a second aspect of the present invention, there is provided the feature point extracting apparatus according to the first aspect, wherein a divided region setting unit that sets a divided region obtained by dividing the image into predetermined regions, and the candidate point specifying unit. Divided region determination means for determining whether or not a specified feature point already exists within a range of a predetermined divided region from the divided region as a reference, based on the divided region to which the newly identified candidate point belongs. And the score value determining means is an area in which a feature point already specified within a predetermined divided area from the divided area determined by the divided area determining means exists, If it is determined that a newly identified candidate point exists within a predetermined region from the already identified feature point, the newly identified candidate point and the already identified feature point Identified as a candidate point And comparing the input score value when it was.
この発明によれば、特徴点抽出装置の処理負担を軽減しつつ、撮像された画像から正確かつ可用性のある特徴点を抽出することができる。 According to the present invention, it is possible to extract accurate and available feature points from a captured image while reducing the processing load of the feature point extraction device.
請求項3に記載の発明は、請求項1に記載の特徴点抽出装置であって、前記領域判定手段によって、前記新たに特定された候補点が、既に特定された特徴点から予め定められた領域内に存在しないと判定された場合には、前記特徴点判定手段は、前記候補点を前記画像における新たな特徴点として設定することを特徴とする。
The invention according to
請求項4に記載の発明は、請求項2に記載の特徴点抽出装置であって、前記分割領域判定手段によって、前記新たに特定された候補点が属する分割領域を基準に、当該基準とされた分割領域から所定の分割領域の範囲内に既に特定された特徴点が存在しないと判定された場合には、前記特徴点判定手段は、前記候補点を前記画像における新たな特徴点として設定することを特徴とする。
The invention according to
請求項5に記載の発明は、画像に示される特徴点を追跡処理し当該特徴点の動きベクトルを取得する請求項1乃至4の何れか1項に記載の特徴点抽出装置が搭載されたことを特徴とする。
The invention according to
請求項6に記載の発明は、画像に示される特徴点を追跡処理し当該特徴点の動きベクトルを取得するために、入力された前記画像を構成し前記画像における所定の位置情報を有する画素情報から、所定の順序に従って所定の数量の前記特徴点を順次設定する特徴点抽出装置における特徴点抽出方法であって、前記画素情報から、特徴点の候補となる候補点を特定する特徴点候補特定工程と、前記候補点の評価値を示すスコア値の入力を受け付けるスコア値入力工程と、前記特徴点候補特定工程によって、新たに特定された候補点が、既に特定された特徴点から予め定められた領域内に存在するか否かを判定する領域判定工程と、前記領域判定工程によって、新たに特定された候補点が、既に特定された特徴点から予め定められた領域内に存在すると判定された場合に、前記新たに特定された候補点と、前記既に特定された特徴点が候補点として特定された際に入力されたスコア値の大きさを判定するスコア値判定工程と、前記スコア値判定工程によって、前記候補点のスコア値が大きいと判定された場合には、前記候補点を前記画像における新たな特徴点として設定する特徴点設定工程と、を有することを特徴とする。 According to a sixth aspect of the present invention, in order to track a feature point indicated in an image and obtain a motion vector of the feature point, pixel information that constitutes the input image and has predetermined position information in the image A feature point extraction method in a feature point extraction device that sequentially sets a predetermined quantity of the feature points according to a predetermined order, wherein the feature point candidate specification specifies a candidate point that is a candidate for a feature point from the pixel information Newly specified candidate points are determined in advance from the already specified feature points by the step, the score value input step for receiving input of score values indicating the evaluation values of the candidate points, and the feature point candidate specifying step. A region determination step for determining whether or not a region exists in the region, and a candidate point newly identified by the region determination step is present in a region determined in advance from the already identified feature point A score value determining step for determining a magnitude of a score value input when the newly specified candidate point and the already specified feature point are specified as candidate points, A feature point setting step of setting the candidate point as a new feature point in the image when the score value determining step determines that the score value of the candidate point is large. To do.
請求項7に記載の発明は、画像に示される被写体の特徴点を追跡処理し当該被写体の運動解析を行わせるために、入力された前記画像を構成し前記画像における所定の位置情報を有する画素情報から、所定の順序に従って所定の数量の前記特徴点を順次設定する特徴点抽出装置に含まれるコンピュータを、前記画素情報から、特徴点の候補となる候補点を特定する候補点特定手段、前記候補点の評価値を示すスコア値の入力を受け付けるスコア値入力手段、前記候補点特定手段によって、新たに特定された候補点が、既に特定された特徴点から予め定められた領域内に存在するか否かを判定する領域判定手段、前記領域判定手段によって、新たに特定された候補点が、既に特定された特徴点から予め定められた領域内に存在すると判定された場合に、前記新たに特定された候補点と、前記既に特定された特徴点が候補点として特定された際に入力されたスコア値の大きさを判定するスコア値判定手段、前記スコア値判定手段によって、前記候補点のスコア値が大きいと判定された場合には、前記候補点を前記画像における新たな特徴点として設定する特徴点設定手段、として機能させることを特徴とする。 According to a seventh aspect of the present invention, in order to perform tracking processing of a feature point of a subject shown in an image and perform motion analysis of the subject, pixels that constitute the input image and have predetermined position information in the image A candidate point specifying means for specifying a candidate point that is a candidate for a feature point from the pixel information; a computer included in a feature point extracting device that sequentially sets a predetermined quantity of the feature points according to a predetermined order from the information; A score value input unit that receives an input of a score value indicating an evaluation value of a candidate point, and a candidate point newly specified by the candidate point specifying unit exists within a predetermined region from an already specified feature point The area determination means for determining whether or not the area determination means has determined that the newly specified candidate point is within a predetermined area from the already specified feature point In addition, the newly specified candidate point and the score value determining means for determining the magnitude of the score value input when the already specified feature point is specified as the candidate point, the score value determining means Thus, when the score value of the candidate point is determined to be large, the candidate point is made to function as a feature point setting unit that sets the candidate point as a new feature point in the image.
以上のように、本発明によれば、撮像された画像から正確かつ可用性のある特徴点を抽出することができる。 As described above, according to the present invention, accurate and available feature points can be extracted from a captured image.
[1.画像処理装置の構成及び機能概要]
まず、本願の最良の実施形態を添付図面に基づいて説明する。
[1. Overview of image processing apparatus configuration and functions]
First, the best embodiment of the present application will be described with reference to the accompanying drawings.
なお、以下に説明する実施の形態は、画像処理装置に対して本願の特徴点抽出装置を適用した場合の実施形態である。 The embodiment described below is an embodiment when the feature point extraction device of the present application is applied to an image processing device.
なお、本願の画像処理装置は、撮像された画像に表示される物体を認識し、当該物体の動きを解析する画像処理を行うための装置である。具体的に、当該画像処理装置は、撮像された画像から公知のKLT(Kanade Lucas Tomasi)法等を用いて特徴点を抽出し、抽出された特徴点に対して、勾配法又はニュートンラプソン法を用いて追跡処理を実行し(即ち、画像に示される特徴点を追跡処理する)、当該特徴点の動きベクトルを取得することにより上記画像処理を行う機能を有している。 The image processing apparatus of the present application is an apparatus for recognizing an object displayed in a captured image and performing image processing for analyzing the movement of the object. Specifically, the image processing apparatus extracts a feature point from a captured image using a known KLT (Kanade Lucas Tomasi) method or the like, and applies a gradient method or a Newton-Raphson method to the extracted feature point. And performing a tracking process (that is, tracking a feature point shown in an image), and obtaining a motion vector of the feature point, thereby performing the image process.
そして、本願の特徴点抽出装置は、画像処理装置に組み込まれ、撮像された画像から正確かつ可用性のある特徴点を抽出すべく、後述する所定の特徴点を設定する機能を有している。 The feature point extraction device of the present application is incorporated in the image processing device and has a function of setting predetermined feature points to be described later in order to extract accurate and available feature points from the captured image.
まず、本実施形態にかかる画像処理装置の構成及び機能概要について、図1を用いて説明する。 First, the configuration and functional overview of the image processing apparatus according to the present embodiment will be described with reference to FIG.
図1は、本実施形態にかかる画像処理装置の構成を示すブロック図である。 FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus according to the present embodiment.
画像処理装置Sは、光学系エンジン1、入力画像取得部2、フレームバッファ3、特徴点抽出部4、微分画像保持部5、特徴点スコア値選択部6、特徴点閾値記憶部7、特徴点選択部8(本願の特徴点抽出装置の一例)、画像毎の特徴点情報記憶部(領域)9、特徴点動きベクトル抽出部10と、を備える。
The image processing apparatus S includes an
光学系エンジン1では、光学系レンズ1aから取り込まれた光が、図示しない絞り機構等によって調節され、イメージセンサ1b上に光学像(画像)として結像される。かかる画像は、イメージセンサ1bによって電気信号に変換され、入力画像取得部2(カメラI/F2)へ出力されるようになっている。
In the
イメージセンサ1bは、上記結像された光学像を、例えばマトリクス配置されたフォトダイオード等を用いた光電交換機能によって光学像の明るさに比例した電気信号に変換し、入力画像取得部2(カメラI/F)へ出力する。イメージセンサ1bの一例として、例えば、CCD(Charge Couple Semiconductor)イメージセンサやCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサ等が適用される。
The
入力画像取得部2(カメラI/F)は、イメージセンサ1bから出力された信号を処理し、ディスプレイの解像度に応じて、画像を構成する色情報(R,G,Bの何れかの原色成分に対応した電荷等)をもつ画素(ドット)情報(ラスタデータ)を生成し、フレームバッファ3へ出力する機能を有する。
The input image acquisition unit 2 (camera I / F) processes the signal output from the
この解像度の一例としては、VGA(640×480ドット)、SVGA(800×600ドット)、XGA(1024×768ドット)等が適用され、当該解像度に応じて画素情報が生成される。即ち、VGAでは約30万の画素情報が、SVGAでは約40万の画素情報が、XGAでは約78万の画素情報が夫々生成されることとなる。 As an example of this resolution, VGA (640 × 480 dots), SVGA (800 × 600 dots), XGA (1024 × 768 dots) or the like is applied, and pixel information is generated according to the resolution. That is, about 300,000 pieces of pixel information are generated by VGA, about 400,000 pieces of pixel information are generated by SVGA, and about 780,000 pieces of pixel information are generated by XGA.
また、この画素情報には、上記解像度に対応した画像における所定の位置情報(例えば、座標情報等)が付与されている。従って、例えば上記VGAでは、所定の原点を基準にX方向(画像の長手方向)に配列された640ドットの画素が、さらにY方向(画像の縦方向)に480ドット配列されて画像が構成されるため(即ち、640×480ドットの格子状の一つの枠が一つの画素として把握できる)、当該画像を構成する特定の画素の位置は、XY座標にて特定することができる。以下、画素情報に付与された位置情報を単に、「画素の位置」とする。 The pixel information is given predetermined position information (for example, coordinate information) in the image corresponding to the resolution. Therefore, for example, in the VGA described above, an image is formed by arranging 640 dot pixels arranged in the X direction (longitudinal direction of the image) with reference to a predetermined origin and further arranging 480 dots in the Y direction (vertical direction of the image). For this reason (that is, one grid of 640 × 480 dots can be grasped as one pixel), the position of a specific pixel constituting the image can be specified by XY coordinates. Hereinafter, the position information given to the pixel information is simply referred to as “pixel position”.
入力画像取得部2の一例として、例えば、産業用デジタルカメラと画像入力ボードを接続する規格仕様である公知のカメラリンク(Camera Link)に対応したインターフェースが適用される。
As an example of the input
フレームバッファ3は、入力された上記画素情報(ピクセル情報、ビットマップ)を記憶するためのメモリ領域であり、例えばプログラムの制御のもと、当該記憶された画素情報を、外部(例えば、特徴点抽出部4等)へ一括して出力する機能を有する。
The
特徴点抽出部4は、入力された画素情報を特定し、公知のKLT法を用いて、特徴点選択部8によって選択されるべき特徴点の候補となる候補点(以下、単に「候補点」とする。)の評価値を示すスコア値を算出する機能を有する。
The feature
ここで、スコア値とは、上記候補点の評価値として算出されるものであり、上述したKLT法では、上記画素情報の輝度勾配の大きさを示す値として定義されている。即ち、スコア値が大きい場合には上記画素情報の輝度勾配が大きいものとして、スコア値が小さい場合には上記画素情報の輝度勾配が小さいものとして、それぞれ定義されている。従って、スコア値の値によって、上記候補点を評価することができる。 Here, the score value is calculated as an evaluation value of the candidate point, and is defined as a value indicating the magnitude of the luminance gradient of the pixel information in the KLT method described above. That is, when the score value is large, the luminance gradient of the pixel information is defined as large, and when the score value is small, the luminance gradient of the pixel information is defined as small. Therefore, the candidate points can be evaluated based on the score value.
このスコア値の算出方法は、公知の技術であるため詳しい説明は省略するが、特徴点抽出部4は、上記候補点として算出された画素情報に基づいて固有値Gを算出し、かかる固有値Gをスコア値として算出するようになっている。即ち、公知のKLT法においては、輝度勾配として固有値Gを算出し、当該固有値Gが示す値が大きい画素を特徴点の候補点として算出するようになっている。
The score value calculation method is a well-known technique and thus will not be described in detail. However, the feature
そして、詳しくは後述するが、本願の特徴点選択部8は、このように算出された固有値Gの値を評価(即ち固有値Gが示す値の大小関係を比較)し、当該候補点を新たな特徴点として設定するようになっている。 As will be described in detail later, the feature point selection unit 8 of the present application evaluates the value of the eigenvalue G calculated in this way (that is, compares the magnitude relationship of the values indicated by the eigenvalue G), and sets the candidate point as a new value. It is set as a feature point.
この固有値Gの算出方法については公知の手法であるため詳しい説明は省略するが、その一例を以下に説明する。なお、固有値Gの算出方法は以下に限定されることはない。 The calculation method of the eigenvalue G is a well-known method and will not be described in detail, but an example will be described below. Note that the calculation method of the eigenvalue G is not limited to the following.
上記固有値Gの算出方法としては、まず、上記画像点の位置X=(x,y)における空間的な輝度勾配Iのモーメント行列を式(1)とする。 As a method for calculating the eigenvalue G, first, the moment matrix of the spatial luminance gradient I at the position X = (x, y) of the image point is expressed by Equation (1).
なお、本実施形態においては、KLT法を用いて固有値Gによって算出される値λをスコア値とするように構成したがこれに限定されず、例えば、公知のテンプレートマッチングやカラーマッチングによって定量化された値をスコア値として適用するように構成してもよい。 In the present embodiment, the value λ calculated by the eigenvalue G using the KLT method is used as the score value. However, the present invention is not limited to this, and is quantified by, for example, known template matching or color matching. The value may be applied as a score value.
なお、以下の説明においては、スコア値といった場合には、画素情報に基づいて算出された固有値G(λ)を示すものとする。 In the following description, the score value indicates the eigenvalue G (λ) calculated based on the pixel information.
そして、特徴点抽出部4は、算出されたスコア値を微分画像保持部5及び特徴点スコア値選択部6へ出力する。
Then, the feature
微分画像保持部5は、入力された画像の微分画像を保持する機能を有し、この微分画像は、例えば、勾配法を用いた動きベクトルの算出において用いられ、後述する特徴点動きベクトル抽出回路10へ出力する。
The differential
特徴点スコア値選択部6は、特徴点抽出部4から入力されたスコア値から、所定の閾値を超えたスコア値に対応する画素情報を特徴点選択部8へ出力する機能を有する。上記閾値は、任意に構成することができ、例えば、所定のスコア値を閾値(即ち、所定の閾値を超えたものしか特徴点選択部8へ出力しない。)としたり、所定の座標値で囲まれた範囲を閾値とすることもできる。この閾値は、特徴点閾値記憶部7に記憶されている。
The feature point score
このように特徴点選択部8へ出力する画素情報の数量を限定することにより、特徴点選択部8や画像処理装置S全体の処理負担を軽減し、処理の高速化を図ることができる。 By limiting the quantity of pixel information to be output to the feature point selection unit 8 in this way, the processing load on the feature point selection unit 8 and the entire image processing apparatus S can be reduced, and the processing speed can be increased.
なお、特徴点スコア値選択部6を設けず、特徴点抽出部4から入力されたスコア値に対応する画素情報全てを特徴点選択部8へ出力するようにしてもよい。
The feature point score
特徴点選択部8は、本願の候補点特定手段、スコア値入力手段、領域判定手段、スコア値判定手段、特徴点設定手段、分割領域設定手段、及び分割領域判定手段として機能し、特徴点スコア値選択部6から入力された候補点を特定し、当該候補点(新たに特定された候補点)が、既に特定された特徴点から予め定められた領域内に存在せず(即ち、近接する候補点が予め定められた所定の距離以上の距離を有するように存在する)、かつ、スコア値が高い値を示す所定の数量の候補点を特徴点として設定するようになっている。
The feature point selection unit 8 functions as a candidate point specification unit, a score value input unit, a region determination unit, a score value determination unit, a feature point setting unit, a divided region setting unit, and a divided region determination unit of the present application. The candidate point input from the
なお、既に設定された特徴点から予め定められた領域内とは、当該特徴点を基準とした画素の位置から所定のドット分(例えば、10×10ドット分)離れた範囲内を示す。また、上記領域は、設定された特徴点毎に対応した領域を有するようになっている。従って、上記領域は特徴点毎に存在する。 Note that “in a predetermined region from already set feature points” indicates a range that is a predetermined distance (for example, 10 × 10 dots) away from a pixel position with the feature point as a reference. Further, the area has an area corresponding to each set feature point. Therefore, the region exists for each feature point.
以下、既に設定された特徴点から予め定められた領域内を、単に、「既に設定された特徴点の領域」と定義する。 Hereinafter, an area determined in advance from already set feature points is simply defined as “already set feature area”.
一般的な特徴点の抽出方法では、輝度勾配が大きい画素として表示される人間の服装や画像のエッジ部分等を特徴点として抽出してしまう結果、抽出された特徴点が密集し、正確な特徴点の抽出が行えず、また、当該特徴点を用いて追跡等の処理を行ったとしても正確な動作解析等が行えない。 In a general feature point extraction method, human clothes displayed as pixels with a large luminance gradient or edge portions of images are extracted as feature points. As a result, the extracted feature points are dense and accurate features are extracted. Points cannot be extracted, and accurate motion analysis cannot be performed even if processing such as tracking is performed using the feature points.
しかし、特徴点選択部8が備える上記各手段によれば、新たに特定された候補点が、既に設定された特徴点の領域に存在しない場合に、当該候補点を特徴点として特定するため、特徴点が密集することなく、正確な特徴点の抽出が可能である。従って、撮像された画像から正確かつ可用性のある特徴点を抽出することができる。 However, according to each of the means included in the feature point selection unit 8, in order to identify the candidate point as a feature point when the newly identified candidate point does not exist in the already set feature point region, Accurate feature points can be extracted without dense feature points. Therefore, accurate and available feature points can be extracted from the captured image.
このような特徴点選択部8が備える各手段について説明すると、まず、候補点特定手段としての特徴点選択部8は、特徴点スコア値選択部6から入力された画素情報を特徴点の候補となる候補点として特定する。
Each means included in the feature point selection unit 8 will be described. First, the feature point selection unit 8 as the candidate point specification unit uses the pixel information input from the feature point score
また、スコア値入力手段としての特徴点選択部8は、特徴点抽出部4によって算出された、上記特定した候補点に対応するスコア値の入力を受け付ける。特徴点選択部8によって特定された候補点は、上述したように画素情報である。そして、当該画素情報は、特徴点抽出部4によって既にスコア値が算出されている。特徴点選択部8は、この算出されたスコア値の入力を受け付けるわけである。
Further, the feature point selection unit 8 as a score value input unit accepts input of score values corresponding to the identified candidate points calculated by the feature
また、領域判定手段としての特徴点選択部8は、上記新たに特定された候補点が、既に設定された特徴点の領域に存在するか否かを判定する。 Further, the feature point selection unit 8 as the region determination unit determines whether or not the newly specified candidate point exists in the region of the already set feature point.
また、スコア値判定手段としての特徴点選択部8は、上記新たに特定された候補点が、既に設定された特徴点の領域に存在すると判定した場合には、当該新たに特定された候補点と、上記既に特定された特徴点が候補点として特定された際に特徴点抽出部4から入力されたスコア値の大きさを判定する。
In addition, when the feature point selection unit 8 as the score value determination unit determines that the newly specified candidate point exists in the already set feature point region, the newly specified candidate point When the already specified feature point is specified as a candidate point, the magnitude of the score value input from the feature
また、特徴点設定手段としての特徴点選択部8は、上記新たに特定された候補点のスコア値が大きいと判定した場合には、前記候補点を前記画像における新たな特徴点として設定する。 In addition, when the feature point selection unit 8 as the feature point setting unit determines that the score value of the newly specified candidate point is large, the feature point selection unit 8 sets the candidate point as a new feature point in the image.
なお、分割領域設定手段、及び分割領域判定手段の詳細については後述する。 Details of the divided region setting unit and the divided region determining unit will be described later.
画像領域毎の特徴点情報記憶部9は、特徴点選択部8によって特定される特徴点に関する情報が記憶されており、その一例として、特徴点テーブル及び候補点テーブルが記憶されている。
The feature point
ここで、特徴点テーブル及び候補点テーブルについて図2を用いて説明する。 Here, the feature point table and the candidate point table will be described with reference to FIG.
図2(A)は特徴点テーブルの詳細を示す図であり、図2(B)は、候補点テーブルの詳細を示す図である。 FIG. 2A is a diagram illustrating details of the feature point table, and FIG. 2B is a diagram illustrating details of the candidate point table.
図2(A)に示すように、特徴点テーブルは、特徴点選択部8によって設定された特徴点に関する情報が記憶されるようになっており、具体的には、図2(A)に示すように、既に設定された各特徴点(1)〜(100)についてそれぞれ、X座標、Y座標、スコア値、ヒットフラグ、及び登録フラグが対応付けて記憶されている。 As shown in FIG. 2A, the feature point table stores information about the feature points set by the feature point selection unit 8, and specifically, as shown in FIG. As described above, the X coordinate, the Y coordinate, the score value, the hit flag, and the registration flag are stored in association with each of the already set feature points (1) to (100).
各特徴点(1)〜(100)は、特徴点選択部8によって設定された所定の数量の特徴点を示す。即ち、各特徴点(1)〜(100)は、既に設定された特徴点を示す。図2(A)に示す例では、所定の数量として100個の特徴点が既に設定されていることを示しているがこれに限定されず、任意の数量の特徴点を設定できる。 Each of the feature points (1) to (100) indicates a predetermined number of feature points set by the feature point selection unit 8. That is, the feature points (1) to (100) indicate feature points that have already been set. In the example shown in FIG. 2A, it is shown that 100 feature points have already been set as the predetermined quantity, but the present invention is not limited to this, and an arbitrary quantity of feature points can be set.
X座標及びY座標には、特徴点として既に設定された画素の位置が記憶される。また、スコア値は、特徴点として既に設定された画素のスコア値が記憶される。なお、スコア値は、上述したように画像上の1画素における周辺画素との輝度勾配情報から算出される値であり、勾配が急であるほど高い値を示す。 In the X coordinate and Y coordinate, the position of a pixel already set as a feature point is stored. The score value stores the score value of a pixel that has already been set as a feature point. Note that the score value is a value calculated from luminance gradient information with peripheral pixels in one pixel on the image as described above, and indicates a higher value as the gradient is steeper.
ヒットフラグは、特徴点選択部8によって特定された(特徴点スコア値選択部6から入力された特徴点の候補となる)候補点(新たに入力された候補点)が、既に設定された各特徴点(1)〜(100)の領域(特定された各特徴点の領域)に存在するか否かを示すフラグである。 The hit flag is specified by the feature point selection unit 8 (candidate of the feature point input from the feature point score value selection unit 6), each of the candidate points (newly input candidate points) already set. This is a flag indicating whether or not the feature points (1) to (100) are present in the region (the region of each identified feature point).
例えば、特徴点選択部8によって特定された候補点が、既に設定された各特徴点(1)〜(100)の領域の何れかに存在した場合には、当該候補点が存在する既に設定された特徴点(1)〜(100)の領域に対応する各特徴点(1)〜(100)のヒットフラグの値は1が、存在しない場合には0が、それぞれ代入される。 For example, if the candidate point specified by the feature point selection unit 8 exists in any of the already set feature points (1) to (100), the candidate point is already set. 1 is substituted for the value of the hit flag of each of the feature points (1) to (100) corresponding to the regions of the feature points (1) to (100).
登録フラグは、特徴点として設定されているか否かを示すフラグである。登録フラグの値は、特徴点として設定されている場合には1が、特徴点として登録されていない場合には0が、それぞれ代入される。 The registration flag is a flag indicating whether or not it is set as a feature point. As the value of the registration flag, 1 is substituted when it is set as a feature point, and 0 is substituted when it is not registered as a feature point.
なお、図2(A)に示す例では、特徴点選択部8によって、所定の数量の特徴点の全てが設定された状態が示されている。一方、特徴点選択部8によって、所定の数量に満たない数量の特徴点しか設定されていない場合には、特徴点テーブルの特徴点の欄には空欄の箇所が存在することとなる。 In the example shown in FIG. 2A, a state in which all of a predetermined number of feature points are set by the feature point selection unit 8 is shown. On the other hand, when the feature point selection unit 8 has set only feature points of a quantity less than a predetermined quantity, a blank location exists in the feature point column of the feature point table.
図2(B)に示す候補点テーブルは、特徴点選択部8によって新たに特定された候補点に関する情報が記憶されるようになっており、具体的には、図2(B)に示すように、新たに特定された候補点のX座標、Y座標、及び削除フラグ(登録しないフラグ)が対応付けて記憶されている。 The candidate point table shown in FIG. 2 (B) stores information on candidate points newly specified by the feature point selection unit 8, specifically, as shown in FIG. 2 (B). In addition, the X coordinate and Y coordinate of the newly identified candidate point and a deletion flag (not registered flag) are stored in association with each other.
X座標及びY座標には、新たに特定された候補点の画素の位置が記憶される。 In the X coordinate and the Y coordinate, the pixel position of the newly specified candidate point is stored.
削除フラグは、特徴点選択部8によって新たに特定された候補点が特徴点として設定されるか否かを示すフラグである。削除フラグの値は、特徴点選択部8によって新たに特定された候補点が、特徴点として設定される場合には0が、特徴点として設定されない場合には1がそれぞれ代入される。 The deletion flag is a flag indicating whether or not a candidate point newly specified by the feature point selection unit 8 is set as a feature point. As the value of the deletion flag, 0 is substituted when a candidate point newly specified by the feature point selection unit 8 is set as a feature point, and 1 is substituted when it is not set as a feature point.
なお、特徴点に関する情報(上記特徴点テーブル及び候補点テーブル等を含む)は、追跡処理を実行する際に用いられるため、2つの画像(即ち、連続するフレーム分)が保持される。そして、画像領域毎の特徴点情報記憶部9は、記憶された特徴点に関する情報を特徴点動きベクトル抽出部10へ出力する。
Note that information about feature points (including the feature point table and the candidate point table) is used when executing the tracking process, and thus two images (that is, consecutive frames) are held. Then, the feature point
特徴点動きベクトル抽出部10は、画像領域毎の特徴点情報記憶部9から入力された特徴点に関する情報に対して、公知のニュートンラプソン法等を用いて追跡処理を行う機能を有している。追跡処理については公知の技術であるため詳しい説明は省略するが、連続する2つの画像における上記特徴点の移動量を解析する処理をいう。
The feature point motion
なお、フレームバッファ3乃至特徴点動きベクトル抽出部10の一部又は全部の機能を実現するために、フレームバッファ3〜特徴点動きベクトル抽出部10の一部又は全部に、各処理を実行するために設計された専用のハードウェアを適用するができる(所謂、ハードウェアアクセラレーション)。特徴点選択部4等を専用のハードウェアで実現することによって、当該ハードウェア内では回路の並列性を生かして演算を並列に行うことができるため、逐次的な命令実行(例えば、CPUによるソフトウェアの実行)の場合より処理の高速化等が実現されるからである。なお、ソフトウェアの制御のもと、CPU、RAM、及びROM等の制御装置が、フレームバッファ3乃至特徴点動きベクトル抽出部10の一部又は全部が有する機能を実行するようにできることはいうまでもない。
[2.特徴点選択部8の動作]
本動作例における特徴点選択部8は、上述した各手段に加えて、分割領域設定手段、及び分割領域判定手段として機能し、特徴点を特定するようになっている。
In order to implement a part or all of the functions of the
[2. Operation of the feature point selection unit 8]
The feature point selection unit 8 in this operation example functions as a divided region setting unit and a divided region determination unit in addition to the above-described units, and identifies a feature point.
以下に、上述した各手段に加えて、分割領域設定手段、及び分割領域判定手段として機能する特徴点選択部8の動作の概要について、図3及び図4を対比して詳細に説明する。 In the following, an outline of the operation of the feature point selection unit 8 that functions as a divided region setting unit and a divided region determination unit in addition to the above-described units will be described in detail with reference to FIGS.
図3は特徴点選択部8の動作の概要を模式的に表した模式図であり、図4は特徴点選択部8の動作を示すシーケンス図である。 FIG. 3 is a schematic diagram schematically showing an outline of the operation of the feature point selection unit 8, and FIG. 4 is a sequence diagram showing the operation of the feature point selection unit 8.
まず、本動作例に用いられる画像は、前提として、分割領域設定手段としての特徴点選択部8によって、所定の分割領域に分割される。 First, the image used in this operation example is preliminarily divided into predetermined divided areas by the feature point selection unit 8 as divided area setting means.
具体的には、図3に示すように、分割領域設定手段としての特徴点選択部8は、上記画像21を所定の大きさの分割領域毎に分割した分割領域1〜30(図3の1〜30の番号が付与された矩形領域)を設定する。
Specifically, as shown in FIG. 3, the feature point selection unit 8 serving as a divided region setting unit divides the
ここで、画像は、上述したように解像度に応じた画素が配列されており、本動作例における画像は、原点(0,0)を基準に、X方向に640ドットの画素が、Y方向に480ドットの画素が夫々配列されたVGAが採用されている。即ち、当該画像には、(0,0)〜(639,479)の約30万の画素が配列される。そして、各分割領域には、上記画像が有する画素数を当該各分割領域で除した数の画素(一つの分割領域には約1万の画素が配列)が配列されることとなる。本動作例における特徴点選択部8は、上記原点を基準に、座標値に応じて(即ち、(0、0)、(1、0)、・・・(639、0)、(0、1)・・・の順に)、順次新たな候補点を特定するように構成されているが、これに限られず任意の順序に応じて当該候補点を特定することができる。 Here, as described above, pixels according to the resolution are arranged in the image, and the image in this operation example has pixels of 640 dots in the X direction in the Y direction with respect to the origin (0, 0). A VGA in which 480 dot pixels are arranged is employed. That is, about 300,000 pixels (0, 0) to (639, 479) are arranged in the image. In each divided area, the number of pixels obtained by dividing the number of pixels of the image by each divided area (approximately 10,000 pixels are arranged in one divided area) is arranged. The feature point selection unit 8 in this operation example uses the origin as a reference in accordance with coordinate values (that is, (0, 0), (1, 0),... (639, 0), (0, 1 )...)), The new candidate points are sequentially specified. However, the present invention is not limited to this, and the candidate points can be specified in any order.
そして、特徴点選択部8は、特徴点スコア値選択部6から入力された画素情報から特徴点の候補となる候補点を特定する(図4のステップS1)。図3には特定された候補点として候補点24(図3における二重丸)が模式的に示されている。以下、上記特徴点スコア値選択部6から入力された画素情報を、「新たに特定された候補点」と称する。
Then, the feature point selection unit 8 specifies candidate points that are candidate feature points from the pixel information input from the feature point score value selection unit 6 (step S1 in FIG. 4). FIG. 3 schematically shows a candidate point 24 (double circle in FIG. 3) as the identified candidate point. Hereinafter, the pixel information input from the feature point score
そして、特徴点選択部8は、上記特定した候補点の画素の位置から、当該候補点が、上記画面のどの分割領域に存在するのかを特定する(図4のステップS2)。そして特徴点選択部8は、上記候補点テーブルに新たに特定した候補点の画素の位置としての座標値(X座標、及びY座標の値)を記憶する。 Then, the feature point selection unit 8 identifies in which divided area of the screen the candidate point is present from the pixel position of the identified candidate point (step S2 in FIG. 4). Then, the feature point selection unit 8 stores coordinate values (X coordinate and Y coordinate values) as pixel positions of the newly specified candidate points in the candidate point table.
次に、特徴点選択部8は、上記特徴点テーブルのヒットフラグの値、及び上記候補点テーブルの削除フラグの値を初期化(即ち、0を代入)する(図4のステップS3)。 Next, the feature point selection unit 8 initializes the value of the hit flag in the feature point table and the value of the deletion flag in the candidate point table (that is, substitutes 0) (step S3 in FIG. 4).
次に、分割領域判定手段としての特徴点選択部8は、上記特定された候補点が属する分割領域を基準に、当該基準とされた分割領域から所定の分割領域の範囲内に既に設定された特徴点が存在するか否かを判定する(図4のステップS4)。 Next, the feature point selection unit 8 serving as a divided area determination unit is already set within a predetermined divided area from the divided area set as the reference with respect to the divided area to which the identified candidate point belongs. It is determined whether or not a feature point exists (step S4 in FIG. 4).
この当該基準とされた分割領域から所定の分割領域の範囲とは、当該特定された候補点が属する分割領域に、所定の数量の分割領域を加えた範囲をいう。具体的には、図3に示すように、上記基準とされた分割領域から所定の分割領域の範囲は、特定された候補点24が属する分割領域15に、所定の数量として5つの分割領域8,9,10,14、及び16を加えた範囲をいう。以下、上記基準とされた分割領域から所定の分割領域の範囲を、「近傍チェックエリア」と称する。
The range of the predetermined divided area from the reference divided area is a range obtained by adding a predetermined number of divided areas to the divided area to which the identified candidate point belongs. Specifically, as shown in FIG. 3, the range of the predetermined divided area from the reference divided area is divided into five divided areas 8 as a predetermined quantity in the divided
なお、上記近傍チェックエリアとして、図3には、特定された候補点24が属する分割領域15に、所定の数量として5つの分割領域8,9,10,14、及び16を加えた範囲が近傍チェックエリア25として示されることとなる。
As the neighborhood check area, FIG. 3 shows a neighborhood obtained by adding the five divided
そして、特徴点選択部8は、近傍チェックエリアに既に特定された特徴点が存在すると判断した場合には(図4のステップS4:YES)、上記新たに特定された候補点が、既に設定された特徴点の領域に存在するか否かを判定する(図4のステップS5)。 If the feature point selection unit 8 determines that the specified feature point already exists in the neighborhood check area (step S4 in FIG. 4: YES), the newly specified candidate point is already set. It is determined whether or not the feature point exists in the region (step S5 in FIG. 4).
具体的には、図3に示すように、特徴点選択部8は、新たに特定された候補点24が、既に設定された特徴点26〜31の既に設定された特徴点の領域26a〜31a(特徴点を中心とした破線部で示す矩形領域)に存在するか否かを判定する。
Specifically, as illustrated in FIG. 3, the feature point selection unit 8 determines that the newly specified candidate points 24 are
なお、図3に示す例では、新たに特定された候補点24は、何れの既に設定された特徴点の領域26a〜31aにも存在していないことを示している(後述する図4のステップS5:NOの場合)。
In the example shown in FIG. 3, the newly specified
そして、特徴点選択部8は、上記新たに特定された候補点が、既に設定された特徴点の領域に存在すると判定した場合には(図4のステップS5:YES)、特徴点テーブルを参照して、当該候補点が存在する既に設定された特徴点の領域に対応する特徴点のヒットフラグに1を代入する(図4のステップS6)。 When the feature point selection unit 8 determines that the newly specified candidate point exists in the already set feature point region (step S5 in FIG. 4: YES), the feature point selection unit 8 refers to the feature point table. Then, 1 is assigned to the hit flag of the feature point corresponding to the already set feature point region where the candidate point exists (step S6 in FIG. 4).
そして、特徴点選択部8は、上記新たに特定された候補点と、当該候補点が存在する上記既に設定された特徴点の領域に対応する特徴点のスコア値の大きさを判定する(図4のステップS7)。なお、上記既に設定された特徴点の領域に対応する特徴点のスコア値は、当該特徴点が候補点として特定された際に特徴点抽出部4から入力された値を用いるようにしてもよいし、当該段階で新たに算出するようにしてもよい。以下、上記既に設定された特徴点の領域に対応する特徴点のスコア値を、単に「既存の特徴点のスコア値」と称する。
Then, the feature point selection unit 8 determines the magnitude of the score value of the feature point corresponding to the newly specified candidate point and the already set feature point region where the candidate point exists (see FIG. 4 step S7). The score value of the feature point corresponding to the already set feature point region may be the value input from the feature
そして、特徴点選択部8は、既存の特徴点のスコア値が大きいと判断した場合には(図4のステップS7:YES)、上記新たに特定された候補点の削除フラグに1を代入する(図4のステップS8)。この場合、以下の処理において、当該新たに特定された候補点は、新たな特徴点として設定されないこととなる。 When the feature point selection unit 8 determines that the score value of the existing feature point is large (step S7 in FIG. 4: YES), 1 is assigned to the deletion flag of the newly specified candidate point. (Step S8 in FIG. 4). In this case, in the following process, the newly specified candidate point is not set as a new feature point.
一方、特徴点選択部8は、既存の特徴点のスコア値が小さいと判断した場合には(図4のステップS7:NO)、上記新たに特定された候補点の削除フラグには何らの値も代入しない(即ち、0のまま)。この場合、以下の処理において、当該新たに特定された候補点は、新たな特徴点として設定されることとなる。 On the other hand, when the feature point selection unit 8 determines that the score value of the existing feature point is small (step S7: NO in FIG. 4), any value is set as the deletion flag for the newly specified candidate point. Is also not substituted (ie, remains 0). In this case, in the following process, the newly specified candidate point is set as a new feature point.
そして、特徴点選択部8は、近傍チェックエリアに存在する全ての特徴点について上述したステップS4からステップS8までの処理を行ったかを判定し(図4のステップS9)、当該処理を行った場合には(図4のステップS9:YES)、図4のステップS10へ移行する。一方、上記処理が行われていない場合には(図4のステップS9:NO)、当該処理を行うべく図4のステップS4へ移行する。 Then, the feature point selection unit 8 determines whether or not the above-described processing from step S4 to step S8 has been performed for all feature points existing in the neighborhood check area (step S9 in FIG. 4), and the processing is performed. (Step S9 in FIG. 4: YES), the process proceeds to step S10 in FIG. On the other hand, when the above process is not performed (step S9 in FIG. 4: NO), the process proceeds to step S4 in FIG. 4 to perform the process.
図4のステップS10では、特徴点選択部8は、上記新たに特定された候補点の削除フラグの値を判定する。 In step S10 of FIG. 4, the feature point selection unit 8 determines the value of the newly specified candidate point deletion flag.
そして、上記削除フラグの値が0であった場合には(図4のステップS10:0)、特徴点選択部8は、特徴点テーブルを参照して、ヒットフラグが1の値を示す特徴点を検索する(図4のステップS11)。 If the value of the deletion flag is 0 (step S10: 0 in FIG. 4), the feature point selection unit 8 refers to the feature point table, and the feature point having a hit flag value of 1 is referred to. Is searched (step S11 in FIG. 4).
そして、ヒットフラグが1の値を示す特徴点が存在した場合には、特徴点選択部8は、上記新たに特定された候補点を新たな特徴点として設定する。具体的には、特徴点選択部8は、特徴点テーブルに記憶されるヒットフラグが1の値を示す特徴点の値(X座標、Y座標、及びスコア値)を、上記新たに特定された候補点が示すX座標、Y座標、及びスコア値に書き換える(上書き登録する)。そして、特徴点選択部8は処理を終了する。 When a feature point having a value of 1 in the hit flag exists, the feature point selection unit 8 sets the newly specified candidate point as a new feature point. Specifically, the feature point selection unit 8 newly specifies the feature point values (X coordinate, Y coordinate, and score value) that indicate a value of 1 in the hit flag stored in the feature point table. Rewrite the X coordinate, Y coordinate, and score value indicated by the candidate point (overwrite registration). Then, the feature point selection unit 8 ends the process.
また、ヒットフラグが1の値を示す特徴点が存在しなかった場合には、上記新たに特定された候補点を新たな特徴点として設定する(新規登録する)。この場合、特徴点選択部8は、所定の数量に満たない数量の特徴点しか登録しておらず、特徴点テーブルの特徴点の欄には空欄の箇所が存在する。従って、特徴点選択部8は、特徴点テーブルの空欄部分に、上記新たに特定された候補点が示すX座標、Y座標、及びスコア値を記憶する。そして、特徴点選択部8は処理を終了する。 If there is no feature point having a value of 1 for the hit flag, the newly identified candidate point is set as a new feature point (new registration). In this case, the feature point selection unit 8 registers only feature points of a quantity less than a predetermined quantity, and there are blank places in the feature point column of the feature point table. Therefore, the feature point selection unit 8 stores the X coordinate, the Y coordinate, and the score value indicated by the newly specified candidate point in the blank portion of the feature point table. Then, the feature point selection unit 8 ends the process.
一方、上記削除フラグの値が1であった場合には(図4のステップS10:1)、上記新たに特定された候補点は特徴点として登録されず、処理を終了する。 On the other hand, when the value of the deletion flag is 1 (step S10: 1 in FIG. 4), the newly specified candidate point is not registered as a feature point, and the process is terminated.
また、特徴点選択部8は、近傍チェックエリアに既に設定された特徴点が存在しないと判断した場合には(図4のステップS4:NO)、上記新たに特定された候補点は、新たな特徴点として設定されることとなる。 When the feature point selection unit 8 determines that there is no feature point already set in the neighborhood check area (step S4: NO in FIG. 4), the newly identified candidate point is a new one. It will be set as a feature point.
具体的な処理としては、特徴点選択部8は、まずステップS10へ移行する。このとき上記新たに特定された候補点の削除フラグの値は、何らの値も代入されていないため0を示す。従って、特徴点選択部8は、図4のステップS10:0の処理へと移行し、ステップS12又はステップS13の処理を経て、上記新たに特定された候補点は、新たな特徴点として設定されることとなる。 As a specific process, the feature point selection unit 8 first proceeds to step S10. At this time, the value of the newly specified candidate point deletion flag indicates 0 because no value is substituted. Accordingly, the feature point selection unit 8 proceeds to the process of step S10: 0 in FIG. 4, and the newly specified candidate point is set as a new feature point through the process of step S12 or step S13. The Rukoto.
なお、以上説明した実施形態は特許請求の範囲にかかる発明を限定するものではない。そして、上記実施形態の中で説明されている構成の組合せ全てが発明の課題解決に必須の手段であるとは限らない。 In addition, embodiment described above does not limit the invention concerning a claim. And not all combinations of the configurations described in the above embodiments are essential means for solving the problems of the invention.
以上説明したように、本実施形態においては、特徴点選択部8は、特徴点スコア値選択部6から入力された画素情報から特徴点の候補となる候補点を特定し、当該新たに特定された候補点が、既に設定された特徴点の領域に存在すると判定した場合には、上記新たに特定された候補点と、当該候補点が存在する既存の特徴点の領域に対応する特徴点のスコア値の大きさを判定し、新たに特定された候補点のスコア値が大きいと判断した場合には、当該新たに特定された候補点を新たな特徴点として設定するように構成したため、撮像された画像から正確かつ可用性のある特徴点を抽出することができる。
As described above, in the present embodiment, the feature point selection unit 8 specifies candidate points that are candidate feature points from the pixel information input from the feature point score
なお、上述した動作例では、分割領域1〜30は、上記画像21を所定の大きさの分割領域毎に分割されているがこれに限定されず、所定の分割領域に分割されていればよく、例えば、異なる大きさの複数の分割領域に分割するようにしてもよい。
In the above-described operation example, the divided
また、上記近傍チェックエリアは、任意に設定することができる。上述した動作例では、近傍チェックエリアは、上記基準とされた分割領域から5つの分割領域を加えた広さとなっている。しかし、既に設定された特徴点の領域26a〜31aが示す領域を狭い領域で設定した場合には、近傍チェックエリアを狭い領域(例えば、当該基準とされた分割領域から2つの分割領域を加えた広さを近傍チェックエリアとする。)に設定することができる。
The neighborhood check area can be arbitrarily set. In the above-described operation example, the neighborhood check area is a size obtained by adding five divided areas from the divided areas set as the reference. However, when the area indicated by the already set
この場合、近傍チェックエリアを通常よりも狭い範囲で設定することとなるが、特徴点選択部8は、特徴点同士がオーバーラップすることなく、当該特徴点を設定することができる。 In this case, the neighborhood check area is set in a narrower range than usual, but the feature point selection unit 8 can set the feature points without overlapping the feature points.
また、既に設定された特徴点の領域26a〜31aが示す領域を広い領域で設定した場合には、近傍チェックエリアを広い領域(例えば、当該基準とされた分割領域から8つの分割領域を加えた広さを近傍チェックエリアとする。)に設定することができる。
In addition, when the area indicated by the already set
この場合、近傍チェックエリアを通常よりも広い範囲で設定することとなるが、特徴点選択部8は、特徴点同士がオーバーラップすることなく、当該特徴点を設定することができる。 In this case, although the neighborhood check area is set in a wider range than usual, the feature point selection unit 8 can set the feature points without overlapping the feature points.
さらに、ローカルエリア及び近傍チェックエリアを設定しないようにしてもよい。この場合、特徴点選択部8は、上記新たに特定された候補点が、上記画像における全ての既に設定された特徴点の領域に存在するか否かを判定する。そして、特徴点選択部8は、上記新たに特定された候補点が、既に設定された特徴点の領域に存在すると判定した場合には、上記新たに特定された候補点と、当該候補点が存在する既存の特徴点の領域に対応する特徴点のスコア値の大きさを判定する。そして、特徴点選択部8は、新たに特定された候補点のスコア値が大きいと判断した場合には、当該新たに特定された候補点を、新たな特徴点として設定する。 Further, the local area and the neighborhood check area may not be set. In this case, the feature point selection unit 8 determines whether or not the newly specified candidate point exists in all the already set feature point regions in the image. Then, when the feature point selection unit 8 determines that the newly specified candidate point exists in the already set feature point region, the newly specified candidate point and the candidate point are The magnitude of the score value of the feature point corresponding to the existing feature point region is determined. When the feature point selection unit 8 determines that the score value of the newly specified candidate point is large, the feature point selection unit 8 sets the newly specified candidate point as a new feature point.
なお、上記実施形態においては、本願を画像表示装置に対して適用した場合の例を示したが、その他にも例えば、デジタルビデオカメラ、デジタルカメラ、パーソナルコンピュータ又は家庭用等の電子機器等に対しても適用可能である。 In the above embodiment, an example in which the present application is applied to an image display device has been shown. However, for example, for a digital video camera, a digital camera, a personal computer, a home electronic device, etc. Is applicable.
さらに、入力装置、行為認識、画像のブレ補正装置、接近・後退検出、動体検知、動領域検知、動体の状態測定、運動状態の推定、運動能力評価、移動体の速度計測、剛性の評価・推定、及び3次元計測等の様々な用途に適用可能である。 Furthermore, input device, action recognition, image blur correction device, approach / retreat detection, moving object detection, moving area detection, moving object state measurement, movement state estimation, movement ability evaluation, moving body speed measurement, rigidity evaluation / It is applicable to various uses such as estimation and three-dimensional measurement.
1 光学系エンジン
2 入力画像取得部
3 フレームバッファ
4 特徴点抽出部
5 微分画像保持部
6 特徴点スコア値選択部
7 特徴点閾値記憶部
8 特徴点選択部
9 画像領域毎の特徴点情報記憶部(領域)
10 特徴点動きベクトル抽出部
S 画像処理装置
DESCRIPTION OF
10 Feature point motion vector extraction unit S Image processing device
Claims (7)
入力された前記画素情報から特徴点の候補となる候補点を特定する候補点特定手段と、
前記候補点の評価値を示すスコア値の入力を受け付けるスコア値入力手段と、
前記候補点特定手段によって、新たに特定された候補点が、既に特定された特徴点から予め定められた領域内に存在するか否かを判定する領域判定手段と、
前記領域判定手段によって、新たに特定された候補点が、既に特定された特徴点から予め定められた領域内に存在すると判定された場合に、前記新たに特定された候補点と、前記既に特定された特徴点が候補点として特定された際に入力されたスコア値の大きさを判定するスコア値判定手段と、
前記スコア値判定手段によって、前記候補点のスコア値が大きいと判定された場合には、前記候補点を前記画像における新たな特徴点として設定する特徴点設定手段と、
を備えることを特徴とする特徴点抽出装置。 In order to track the feature points shown in the image and acquire the motion vector of the feature points, a predetermined quantity is obtained from the pixel information constituting the input image and having predetermined position information in the image according to a predetermined order. A feature point extraction device for sequentially setting the feature points of
Candidate point specifying means for specifying candidate points as candidate feature points from the input pixel information;
Score value input means for receiving input of a score value indicating the evaluation value of the candidate point;
A region determination unit that determines whether or not the candidate point newly specified by the candidate point specifying unit exists within a predetermined region from the already specified feature point;
When the newly determined candidate point is determined to exist within a predetermined area from the already specified feature point by the area determining means, the newly specified candidate point and the already specified candidate point Score value determination means for determining the magnitude of the score value input when the feature point is identified as a candidate point;
A feature point setting unit that sets the candidate point as a new feature point in the image when the score value determining unit determines that the score value of the candidate point is large;
A feature point extracting apparatus comprising:
前記画像を所定の領域毎に分割した分割領域を設定する分割領域設定手段と、
前記候補点特定手段によって新たに特定された候補点が属する分割領域を基準に、当該基準とされた分割領域から所定の分割領域の範囲内に既に特定された特徴点が存在するか否かを判定する分割領域判定手段と、を備え、
前記スコア値判定手段は、前記分割領域判定手段によって、前記基準とされた分割領域から所定の分割領域の範囲内に既に特定された特徴点が存在する領域であって、前記新たに特定された候補点が、前記既に特定された特徴点から予め定められた領域内に存在すると判定された場合には、前記新たに特定された候補点と、前記既に特定された特徴点が候補点として特定された際に入力されたスコア値を比較することを特徴とする特徴点抽出装置。 The feature point extraction device according to claim 1,
Divided region setting means for setting a divided region obtained by dividing the image into predetermined regions;
Whether or not there is a feature point that has already been specified within the range of the predetermined divided region from the divided region that is the reference, based on the divided region to which the candidate point newly specified by the candidate point specifying unit belongs. A divided region determining means for determining,
The score value determining means is an area in which a feature point that has already been specified within the range of a predetermined divided area from the reference divided area by the divided area determining means, and is newly specified When it is determined that a candidate point exists within a predetermined region from the already specified feature point, the newly specified candidate point and the already specified feature point are specified as candidate points. A feature point extracting device that compares score values inputted when the feature points are input.
前記領域判定手段によって、前記新たに特定された候補点が、既に特定された特徴点から予め定められた領域内に存在しないと判定された場合には、前記特徴点判定手段は、前記候補点を前記画像における新たな特徴点として設定することを特徴とする特徴点抽出装置。 The feature point extraction device according to claim 1,
When it is determined by the area determination means that the newly specified candidate point does not exist within a predetermined area from the already specified feature point, the feature point determination means Is set as a new feature point in the image.
前記分割領域判定手段によって、前記新たに特定された候補点が属する分割領域を基準に、当該基準とされた分割領域から所定の分割領域の範囲内に既に特定された特徴点が存在しないと判定された場合には、前記特徴点判定手段は、前記候補点を前記画像における新たな特徴点として設定することを特徴とする特徴点抽出装置。 The feature point extraction device according to claim 2,
Based on the divided area to which the newly specified candidate point belongs, the divided area determining means determines that there is no feature point already specified within the range of the predetermined divided area from the reference divided area. If so, the feature point determination means sets the candidate point as a new feature point in the image.
入力された前記画素情報から、特徴点の候補となる候補点を特定する特徴点候補特定工程と、
前記候補点の評価値を示すスコア値の入力を受け付けるスコア値入力工程と、
前記特徴点候補特定工程によって、新たに特定された候補点が、既に特定された特徴点から予め定められた領域内に存在するか否かを判定する領域判定工程と、
前記領域判定工程によって、新たに特定された候補点が、既に特定された特徴点から予め定められた領域内に存在すると判定された場合に、前記新たに特定された候補点と、前記既に特定された特徴点が候補点として特定された際に入力されたスコア値の大きさを判定するスコア値判定工程と、
前記スコア値判定工程によって、前記候補点のスコア値が大きいと判定された場合には、前記候補点を前記画像における新たな特徴点として設定する特徴点設定工程と、
を有することを特徴とする特徴点抽出方法。 In order to track the feature points shown in the image and acquire the motion vector of the feature points, a predetermined quantity is obtained from the pixel information constituting the input image and having predetermined position information in the image according to a predetermined order. A feature point extraction method in a feature point extraction apparatus for sequentially setting the feature points,
A feature point candidate specifying step for specifying a candidate point that is a candidate for a feature point from the input pixel information;
A score value input step for receiving an input of a score value indicating an evaluation value of the candidate point;
A region determination step for determining whether or not a candidate point newly specified by the feature point candidate specifying step is present in a predetermined region from the already specified feature point;
When it is determined by the region determination step that a newly identified candidate point exists within a predetermined region from an already identified feature point, the newly identified candidate point and the already identified candidate point A score value determination step for determining the magnitude of the score value input when the feature point that has been identified as a candidate point;
A feature point setting step of setting the candidate point as a new feature point in the image when the score value determining step determines that the score value of the candidate point is large;
A feature point extraction method characterized by comprising:
入力された前記画素情報から、特徴点の候補となる候補点を特定する候補点特定手段、
前記候補点の評価値を示すスコア値の入力を受け付けるスコア値入力手段、
前記候補点特定手段によって、新たに特定された候補点が、既に特定された特徴点から予め定められた領域内に存在するか否かを判定する領域判定手段、
前記領域判定手段によって、新たに特定された候補点が、既に特定された特徴点から予め定められた領域内に存在すると判定された場合に、前記新たに特定された候補点と、前記既に特定された特徴点が候補点として特定された際に入力されたスコア値の大きさを判定するスコア値判定手段、
前記スコア値判定手段によって、前記候補点のスコア値が大きいと判定された場合には、前記候補点を前記画像における新たな特徴点として設定する特徴点設定手段、
として機能させることを特徴とする特徴点抽出プログラム。
In order to track the feature points shown in the image and acquire the motion vector of the feature points, a predetermined quantity is obtained from the pixel information constituting the input image and having predetermined position information in the image according to a predetermined order. A computer included in the feature point extraction device that sequentially sets the feature points of
Candidate point specifying means for specifying candidate points as candidate feature points from the input pixel information;
Score value input means for receiving input of a score value indicating the evaluation value of the candidate point;
A region determination unit for determining whether or not a candidate point newly specified by the candidate point specifying unit exists in a predetermined region from the already specified feature point;
When the newly determined candidate point is determined to exist within a predetermined area from the already specified feature point by the area determining means, the newly specified candidate point and the already specified candidate point Score value determining means for determining the magnitude of the score value input when the feature point is identified as a candidate point;
A feature point setting unit that sets the candidate point as a new feature point in the image when the score value determining unit determines that the score value of the candidate point is large;
Feature point extraction program characterized by functioning as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010222459A JP2012079004A (en) | 2010-09-30 | 2010-09-30 | Feature point extraction device, image processing device, feature point extraction method, feature point extraction program and the like |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010222459A JP2012079004A (en) | 2010-09-30 | 2010-09-30 | Feature point extraction device, image processing device, feature point extraction method, feature point extraction program and the like |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012079004A true JP2012079004A (en) | 2012-04-19 |
Family
ID=46239198
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010222459A Pending JP2012079004A (en) | 2010-09-30 | 2010-09-30 | Feature point extraction device, image processing device, feature point extraction method, feature point extraction program and the like |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012079004A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017130089A (en) * | 2016-01-21 | 2017-07-27 | 日本電気株式会社 | Local feature amount extraction device |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007334625A (en) * | 2006-06-15 | 2007-12-27 | Sony Corp | Image processing method, program of image processing method, recording medium for recording program of image processing method, and image processing apparatus |
-
2010
- 2010-09-30 JP JP2010222459A patent/JP2012079004A/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007334625A (en) * | 2006-06-15 | 2007-12-27 | Sony Corp | Image processing method, program of image processing method, recording medium for recording program of image processing method, and image processing apparatus |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017130089A (en) * | 2016-01-21 | 2017-07-27 | 日本電気株式会社 | Local feature amount extraction device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI419081B (en) | Method and system for providing augmented reality based on marker tracing, and computer program product thereof | |
JP5699788B2 (en) | Screen area detection method and system | |
CN110246124B (en) | Target size measuring method and system based on deep learning | |
JP6491517B2 (en) | Image recognition AR device, posture estimation device, and posture tracking device | |
JP6293386B2 (en) | Data processing apparatus, data processing method, and data processing program | |
US20170163949A1 (en) | Apparatus using a projector, method, and storage medium | |
CN107014819A (en) | A kind of solar panel surface defects detection system and method | |
JP2012145981A5 (en) | ||
JPWO2018051459A1 (en) | Object detection apparatus and object detection method | |
CN109934873B (en) | Method, device and equipment for acquiring marked image | |
CN110598795A (en) | Image difference detection method and device, storage medium and terminal | |
JP2010271921A (en) | Skin area extraction method, skin area extraction device, and skin area extracting program | |
JP2012079004A (en) | Feature point extraction device, image processing device, feature point extraction method, feature point extraction program and the like | |
CN106127826B (en) | It is a kind of for projecting the connected component labeling method of interactive system | |
JP5441737B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP6350331B2 (en) | TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM | |
JPH07146937A (en) | Pattern matching method | |
JP5891751B2 (en) | Inter-image difference device and inter-image difference method | |
TWI450572B (en) | Computing system and method for scanning a boundary of an image of an object | |
JP2022021209A (en) | Inspection support device, inspection support method and inspection support program | |
JP5457976B2 (en) | 3D shape acquisition apparatus and 3D shape acquisition program | |
JP2011175347A (en) | Information processing apparatus and method | |
US10134163B2 (en) | Dynamic detection of an object framework in a mobile device captured image | |
JP2004110543A (en) | Face image processing unit and program | |
JP2020035334A (en) | Image processing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130725 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140320 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140408 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140902 |