JP2012079004A - Feature point extraction device, image processing device, feature point extraction method, feature point extraction program and the like - Google Patents

Feature point extraction device, image processing device, feature point extraction method, feature point extraction program and the like Download PDF

Info

Publication number
JP2012079004A
JP2012079004A JP2010222459A JP2010222459A JP2012079004A JP 2012079004 A JP2012079004 A JP 2012079004A JP 2010222459 A JP2010222459 A JP 2010222459A JP 2010222459 A JP2010222459 A JP 2010222459A JP 2012079004 A JP2012079004 A JP 2012079004A
Authority
JP
Japan
Prior art keywords
feature point
point
candidate
feature
score value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010222459A
Other languages
Japanese (ja)
Inventor
Toshimitsu Osajima
敏光 筬島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2010222459A priority Critical patent/JP2012079004A/en
Publication of JP2012079004A publication Critical patent/JP2012079004A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a device, a method and the like for recognizing an object displayed in an image.SOLUTION: A feature point selection unit 8 specifies a candidate point to be a candidate of a feature point from pixel information input from a feature point score value selection unit 6. The feature point selection unit 8, when determining the newly specified candidate point to exist in the area of an already set feature point, determines the magnitudes of score values of the newly specified candidate point and the feature point corresponding to the area of the existing feature point where the candidate point exists, and when determining the score value of the newly specified candidate point to be higher, sets the newly specified candidate point as a new feature point.

Description

本発明は、画像に表示される物体を認識する装置及び方法等の技術分野に関する。   The present invention relates to a technical field such as an apparatus and method for recognizing an object displayed in an image.

画像に表示される物体を認識し、当該物体の動きを解析する画像処理技術では、例えば、当該画像から公知のKLT(Kanade Lucas Tomasi)法、Moravecオペレータ、SUSANオペレータ、又はHarrisオペレータ等を用いて特徴点が抽出され、抽出された特徴点に対して、ニュートンラプソン法を用いて追跡処理が行われている。   In an image processing technique for recognizing an object displayed in an image and analyzing the movement of the object, for example, a known KLT (Kanade Lucas Tomasi) method, Moravec operator, SUSAN operator, or Harris operator is used. Feature points are extracted, and tracking processing is performed on the extracted feature points using the Newton-Raphson method.

また、画像からバランスよく特徴点を抽出するための技術として、特許文献1では、入力された画像を所定の部分画像に分割し、各部分画像中からそれぞれ所定の数だけ特徴点を抽出する技術が開示されている。   In addition, as a technique for extracting feature points from an image in a balanced manner, Patent Document 1 divides an input image into predetermined partial images, and extracts a predetermined number of characteristic points from each partial image. Is disclosed.

特開平2006−350897号公報JP-A-2006-350897

しかしながら、上述した各方法による特徴点の抽出では、画像における輝度勾配(輝度の差)が大きい画素(評価値が高い値)の周辺が特徴点として抽出されるため、当該画像の評価値が高い値が局所に集中してしまうという問題点があった。   However, in the feature point extraction by the above-described methods, the periphery of a pixel (value having a high evaluation value) having a large luminance gradient (luminance difference) in the image is extracted as the feature point, and thus the evaluation value of the image is high. There was a problem that the values were concentrated locally.

すなわち、上記特徴点の抽出方法では、輝度勾配が大きい画素として表示される人間の服装や画像のエッジ部分等(例えば、画像の輪郭部分や服のチェック柄等)を特徴点として抽出してしまう結果、抽出された特徴点が一点に密集し、画面全体にバランス良く特徴点の抽出が行えず、また、当該特徴点を用いて追跡等の処理を行ったとしても正確な動作解析等が行えないとの問題点があった。   That is, in the above feature point extraction method, human clothes displayed as pixels having a large luminance gradient, edge portions of images, and the like (for example, contour portions of images and check patterns of clothes) are extracted as feature points. As a result, the extracted feature points are concentrated in one point, and feature points cannot be extracted in a well-balanced manner on the entire screen, and accurate operation analysis can be performed even if processing such as tracking is performed using the feature points. There was no problem.

そこで、本発明は上記各問題点に鑑みてなされたもので、その目的の一例は、撮像された画像から正確かつ可用性のある特徴点を抽出する装置及び方法等を提供することである。   Accordingly, the present invention has been made in view of the above problems, and an example of the object thereof is to provide an apparatus and method for extracting accurate and available feature points from a captured image.

上記課題を解決するために、請求項1に記載の発明は、画像に示される特徴点を追跡処理し当該特徴点の動きベクトルを取得するために、入力された前記画像を構成し前記画像における所定の位置情報を有する画素情報から、所定の順序に従って所定の数量の前記特徴点を順次設定する特徴点抽出装置であって、前記画素情報から、特徴点の候補となる候補点を特定する候補点特定手段と、前記候補点の評価値を示すスコア値の入力を受け付けるスコア値入力手段と、前記候補点特定手段によって、新たに特定された候補点が、既に特定された特徴点から予め定められた領域内に存在するか否かを判定する領域判定手段と、前記領域判定手段によって、新たに特定された候補点が、既に特定された特徴点から予め定められた領域内に存在すると判定された場合に、前記新たに特定された候補点と、前記既に特定された特徴点が候補点として特定された際に入力されたスコア値の大きさを判定するスコア値判定手段と、前記スコア値判定手段によって、前記候補点のスコア値が大きいと判定された場合には、前記候補点を前記画像における新たな特徴点として設定する特徴点設定手段と、を備えることを特徴とする。   In order to solve the above-described problem, the invention described in claim 1 is configured to configure the input image to track a feature point indicated in the image and obtain a motion vector of the feature point. A feature point extraction device that sequentially sets a predetermined quantity of the feature points according to a predetermined order from pixel information having predetermined position information, the candidate specifying candidate points that are candidate feature points from the pixel information A point specifying unit, a score value input unit that receives an input of a score value indicating the evaluation value of the candidate point, and a candidate point newly specified by the candidate point specifying unit are determined in advance from feature points that have already been specified. A region determination unit that determines whether or not the region is within the specified region, and a candidate point that is newly specified by the region determination unit exists within a region that is predetermined from the already specified feature point. A score value judging means for judging the magnitude of a score value inputted when the newly identified candidate point and the already identified feature point are identified as a candidate point when determined, And a feature point setting unit that sets the candidate point as a new feature point in the image when the score value determination unit determines that the score value of the candidate point is large.

この発明によれば、撮像された画像から正確かつ可用性のある特徴点を抽出することができる。   According to the present invention, it is possible to extract accurate and available feature points from a captured image.

請求項2に記載の発明は、請求項1に記載の特徴点抽出装置であって、前記画像を所定の領域毎に分割した分割領域を設定する分割領域設定手段と、前記候補点特定手段によって新たに特定された候補点が属する分割領域を基準に、当該基準とされた分割領域から所定の分割領域の範囲内に既に特定された特徴点が存在するか否かを判定する分割領域判定手段と、を備え、前記スコア値判定手段は、前記分割領域判定手段によって、前記基準とされた分割領域から所定の分割領域の範囲内に既に特定された特徴点が存在する領域であって、前記新たに特定された候補点が、前記既に特定された特徴点から予め定められた領域内に存在すると判定された場合には、前記新たに特定された候補点と、前記既に特定された特徴点が候補点として特定された際に入力されたスコア値を比較することを特徴とする。   According to a second aspect of the present invention, there is provided the feature point extracting apparatus according to the first aspect, wherein a divided region setting unit that sets a divided region obtained by dividing the image into predetermined regions, and the candidate point specifying unit. Divided region determination means for determining whether or not a specified feature point already exists within a range of a predetermined divided region from the divided region as a reference, based on the divided region to which the newly identified candidate point belongs. And the score value determining means is an area in which a feature point already specified within a predetermined divided area from the divided area determined by the divided area determining means exists, If it is determined that a newly identified candidate point exists within a predetermined region from the already identified feature point, the newly identified candidate point and the already identified feature point Identified as a candidate point And comparing the input score value when it was.

この発明によれば、特徴点抽出装置の処理負担を軽減しつつ、撮像された画像から正確かつ可用性のある特徴点を抽出することができる。   According to the present invention, it is possible to extract accurate and available feature points from a captured image while reducing the processing load of the feature point extraction device.

請求項3に記載の発明は、請求項1に記載の特徴点抽出装置であって、前記領域判定手段によって、前記新たに特定された候補点が、既に特定された特徴点から予め定められた領域内に存在しないと判定された場合には、前記特徴点判定手段は、前記候補点を前記画像における新たな特徴点として設定することを特徴とする。   The invention according to claim 3 is the feature point extraction device according to claim 1, wherein the newly specified candidate point is predetermined from the already specified feature point by the region determination unit. When it is determined that the image does not exist in the region, the feature point determination means sets the candidate point as a new feature point in the image.

請求項4に記載の発明は、請求項2に記載の特徴点抽出装置であって、前記分割領域判定手段によって、前記新たに特定された候補点が属する分割領域を基準に、当該基準とされた分割領域から所定の分割領域の範囲内に既に特定された特徴点が存在しないと判定された場合には、前記特徴点判定手段は、前記候補点を前記画像における新たな特徴点として設定することを特徴とする。   The invention according to claim 4 is the feature point extraction device according to claim 2, wherein the divided region determination unit sets the reference based on the divided region to which the newly identified candidate point belongs. If it is determined that there is no feature point already specified within the range of the predetermined divided region from the divided region, the feature point determining means sets the candidate point as a new feature point in the image It is characterized by that.

請求項5に記載の発明は、画像に示される特徴点を追跡処理し当該特徴点の動きベクトルを取得する請求項1乃至4の何れか1項に記載の特徴点抽出装置が搭載されたことを特徴とする。   The invention according to claim 5 is equipped with the feature point extraction device according to any one of claims 1 to 4 for tracking the feature points shown in the image and obtaining a motion vector of the feature points. It is characterized by.

請求項6に記載の発明は、画像に示される特徴点を追跡処理し当該特徴点の動きベクトルを取得するために、入力された前記画像を構成し前記画像における所定の位置情報を有する画素情報から、所定の順序に従って所定の数量の前記特徴点を順次設定する特徴点抽出装置における特徴点抽出方法であって、前記画素情報から、特徴点の候補となる候補点を特定する特徴点候補特定工程と、前記候補点の評価値を示すスコア値の入力を受け付けるスコア値入力工程と、前記特徴点候補特定工程によって、新たに特定された候補点が、既に特定された特徴点から予め定められた領域内に存在するか否かを判定する領域判定工程と、前記領域判定工程によって、新たに特定された候補点が、既に特定された特徴点から予め定められた領域内に存在すると判定された場合に、前記新たに特定された候補点と、前記既に特定された特徴点が候補点として特定された際に入力されたスコア値の大きさを判定するスコア値判定工程と、前記スコア値判定工程によって、前記候補点のスコア値が大きいと判定された場合には、前記候補点を前記画像における新たな特徴点として設定する特徴点設定工程と、を有することを特徴とする。   According to a sixth aspect of the present invention, in order to track a feature point indicated in an image and obtain a motion vector of the feature point, pixel information that constitutes the input image and has predetermined position information in the image A feature point extraction method in a feature point extraction device that sequentially sets a predetermined quantity of the feature points according to a predetermined order, wherein the feature point candidate specification specifies a candidate point that is a candidate for a feature point from the pixel information Newly specified candidate points are determined in advance from the already specified feature points by the step, the score value input step for receiving input of score values indicating the evaluation values of the candidate points, and the feature point candidate specifying step. A region determination step for determining whether or not a region exists in the region, and a candidate point newly identified by the region determination step is present in a region determined in advance from the already identified feature point A score value determining step for determining a magnitude of a score value input when the newly specified candidate point and the already specified feature point are specified as candidate points, A feature point setting step of setting the candidate point as a new feature point in the image when the score value determining step determines that the score value of the candidate point is large. To do.

請求項7に記載の発明は、画像に示される被写体の特徴点を追跡処理し当該被写体の運動解析を行わせるために、入力された前記画像を構成し前記画像における所定の位置情報を有する画素情報から、所定の順序に従って所定の数量の前記特徴点を順次設定する特徴点抽出装置に含まれるコンピュータを、前記画素情報から、特徴点の候補となる候補点を特定する候補点特定手段、前記候補点の評価値を示すスコア値の入力を受け付けるスコア値入力手段、前記候補点特定手段によって、新たに特定された候補点が、既に特定された特徴点から予め定められた領域内に存在するか否かを判定する領域判定手段、前記領域判定手段によって、新たに特定された候補点が、既に特定された特徴点から予め定められた領域内に存在すると判定された場合に、前記新たに特定された候補点と、前記既に特定された特徴点が候補点として特定された際に入力されたスコア値の大きさを判定するスコア値判定手段、前記スコア値判定手段によって、前記候補点のスコア値が大きいと判定された場合には、前記候補点を前記画像における新たな特徴点として設定する特徴点設定手段、として機能させることを特徴とする。   According to a seventh aspect of the present invention, in order to perform tracking processing of a feature point of a subject shown in an image and perform motion analysis of the subject, pixels that constitute the input image and have predetermined position information in the image A candidate point specifying means for specifying a candidate point that is a candidate for a feature point from the pixel information; a computer included in a feature point extracting device that sequentially sets a predetermined quantity of the feature points according to a predetermined order from the information; A score value input unit that receives an input of a score value indicating an evaluation value of a candidate point, and a candidate point newly specified by the candidate point specifying unit exists within a predetermined region from an already specified feature point The area determination means for determining whether or not the area determination means has determined that the newly specified candidate point is within a predetermined area from the already specified feature point In addition, the newly specified candidate point and the score value determining means for determining the magnitude of the score value input when the already specified feature point is specified as the candidate point, the score value determining means Thus, when the score value of the candidate point is determined to be large, the candidate point is made to function as a feature point setting unit that sets the candidate point as a new feature point in the image.

以上のように、本発明によれば、撮像された画像から正確かつ可用性のある特徴点を抽出することができる。   As described above, according to the present invention, accurate and available feature points can be extracted from a captured image.

本実施形態にかかる画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus concerning this embodiment. 特徴点テーブル及び候補点テーブルの詳細を示す図である。It is a figure which shows the detail of a feature point table and a candidate point table. 特徴点選択部8の動作の概要を模式的に表した模式図である。FIG. 6 is a schematic diagram schematically showing an outline of the operation of the feature point selection unit 8. 特徴点選択部8の動作を示すシーケンス図である。FIG. 10 is a sequence diagram showing an operation of the feature point selection unit 8.

[1.画像処理装置の構成及び機能概要]
まず、本願の最良の実施形態を添付図面に基づいて説明する。
[1. Overview of image processing apparatus configuration and functions]
First, the best embodiment of the present application will be described with reference to the accompanying drawings.

なお、以下に説明する実施の形態は、画像処理装置に対して本願の特徴点抽出装置を適用した場合の実施形態である。   The embodiment described below is an embodiment when the feature point extraction device of the present application is applied to an image processing device.

なお、本願の画像処理装置は、撮像された画像に表示される物体を認識し、当該物体の動きを解析する画像処理を行うための装置である。具体的に、当該画像処理装置は、撮像された画像から公知のKLT(Kanade Lucas Tomasi)法等を用いて特徴点を抽出し、抽出された特徴点に対して、勾配法又はニュートンラプソン法を用いて追跡処理を実行し(即ち、画像に示される特徴点を追跡処理する)、当該特徴点の動きベクトルを取得することにより上記画像処理を行う機能を有している。   The image processing apparatus of the present application is an apparatus for recognizing an object displayed in a captured image and performing image processing for analyzing the movement of the object. Specifically, the image processing apparatus extracts a feature point from a captured image using a known KLT (Kanade Lucas Tomasi) method or the like, and applies a gradient method or a Newton-Raphson method to the extracted feature point. And performing a tracking process (that is, tracking a feature point shown in an image), and obtaining a motion vector of the feature point, thereby performing the image process.

そして、本願の特徴点抽出装置は、画像処理装置に組み込まれ、撮像された画像から正確かつ可用性のある特徴点を抽出すべく、後述する所定の特徴点を設定する機能を有している。   The feature point extraction device of the present application is incorporated in the image processing device and has a function of setting predetermined feature points to be described later in order to extract accurate and available feature points from the captured image.

まず、本実施形態にかかる画像処理装置の構成及び機能概要について、図1を用いて説明する。   First, the configuration and functional overview of the image processing apparatus according to the present embodiment will be described with reference to FIG.

図1は、本実施形態にかかる画像処理装置の構成を示すブロック図である。   FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus according to the present embodiment.

画像処理装置Sは、光学系エンジン1、入力画像取得部2、フレームバッファ3、特徴点抽出部4、微分画像保持部5、特徴点スコア値選択部6、特徴点閾値記憶部7、特徴点選択部8(本願の特徴点抽出装置の一例)、画像毎の特徴点情報記憶部(領域)9、特徴点動きベクトル抽出部10と、を備える。   The image processing apparatus S includes an optical system engine 1, an input image acquisition unit 2, a frame buffer 3, a feature point extraction unit 4, a differential image holding unit 5, a feature point score value selection unit 6, a feature point threshold storage unit 7, a feature point A selection unit 8 (an example of the feature point extraction device of the present application), a feature point information storage unit (region) 9 for each image, and a feature point motion vector extraction unit 10 are provided.

光学系エンジン1では、光学系レンズ1aから取り込まれた光が、図示しない絞り機構等によって調節され、イメージセンサ1b上に光学像(画像)として結像される。かかる画像は、イメージセンサ1bによって電気信号に変換され、入力画像取得部2(カメラI/F2)へ出力されるようになっている。   In the optical system engine 1, the light taken in from the optical system lens 1a is adjusted by a not-shown diaphragm mechanism or the like and formed as an optical image (image) on the image sensor 1b. Such an image is converted into an electrical signal by the image sensor 1b and output to the input image acquisition unit 2 (camera I / F 2).

イメージセンサ1bは、上記結像された光学像を、例えばマトリクス配置されたフォトダイオード等を用いた光電交換機能によって光学像の明るさに比例した電気信号に変換し、入力画像取得部2(カメラI/F)へ出力する。イメージセンサ1bの一例として、例えば、CCD(Charge Couple Semiconductor)イメージセンサやCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサ等が適用される。   The image sensor 1b converts the imaged optical image into an electrical signal proportional to the brightness of the optical image by a photoelectric exchange function using, for example, photodiodes arranged in a matrix, and the input image acquisition unit 2 (camera I / F). As an example of the image sensor 1b, for example, a charge coupled semiconductor (CCD) image sensor, a complementary metal-oxide semiconductor (CMOS) image sensor, or the like is applied.

入力画像取得部2(カメラI/F)は、イメージセンサ1bから出力された信号を処理し、ディスプレイの解像度に応じて、画像を構成する色情報(R,G,Bの何れかの原色成分に対応した電荷等)をもつ画素(ドット)情報(ラスタデータ)を生成し、フレームバッファ3へ出力する機能を有する。   The input image acquisition unit 2 (camera I / F) processes the signal output from the image sensor 1b, and according to the resolution of the display, the color information (any primary color component of R, G, B) constituting the image Pixel (dot) information (raster data) having a charge etc. corresponding to 1), and a function of outputting the information to the frame buffer 3.

この解像度の一例としては、VGA(640×480ドット)、SVGA(800×600ドット)、XGA(1024×768ドット)等が適用され、当該解像度に応じて画素情報が生成される。即ち、VGAでは約30万の画素情報が、SVGAでは約40万の画素情報が、XGAでは約78万の画素情報が夫々生成されることとなる。   As an example of this resolution, VGA (640 × 480 dots), SVGA (800 × 600 dots), XGA (1024 × 768 dots) or the like is applied, and pixel information is generated according to the resolution. That is, about 300,000 pieces of pixel information are generated by VGA, about 400,000 pieces of pixel information are generated by SVGA, and about 780,000 pieces of pixel information are generated by XGA.

また、この画素情報には、上記解像度に対応した画像における所定の位置情報(例えば、座標情報等)が付与されている。従って、例えば上記VGAでは、所定の原点を基準にX方向(画像の長手方向)に配列された640ドットの画素が、さらにY方向(画像の縦方向)に480ドット配列されて画像が構成されるため(即ち、640×480ドットの格子状の一つの枠が一つの画素として把握できる)、当該画像を構成する特定の画素の位置は、XY座標にて特定することができる。以下、画素情報に付与された位置情報を単に、「画素の位置」とする。   The pixel information is given predetermined position information (for example, coordinate information) in the image corresponding to the resolution. Therefore, for example, in the VGA described above, an image is formed by arranging 640 dot pixels arranged in the X direction (longitudinal direction of the image) with reference to a predetermined origin and further arranging 480 dots in the Y direction (vertical direction of the image). For this reason (that is, one grid of 640 × 480 dots can be grasped as one pixel), the position of a specific pixel constituting the image can be specified by XY coordinates. Hereinafter, the position information given to the pixel information is simply referred to as “pixel position”.

入力画像取得部2の一例として、例えば、産業用デジタルカメラと画像入力ボードを接続する規格仕様である公知のカメラリンク(Camera Link)に対応したインターフェースが適用される。   As an example of the input image acquisition unit 2, for example, an interface corresponding to a known camera link that is a standard specification for connecting an industrial digital camera and an image input board is applied.

フレームバッファ3は、入力された上記画素情報(ピクセル情報、ビットマップ)を記憶するためのメモリ領域であり、例えばプログラムの制御のもと、当該記憶された画素情報を、外部(例えば、特徴点抽出部4等)へ一括して出力する機能を有する。   The frame buffer 3 is a memory area for storing the input pixel information (pixel information, bitmap). For example, under the control of a program, the stored pixel information is stored outside (for example, feature points). A function of outputting the data to the extraction unit 4 and the like in a batch.

特徴点抽出部4は、入力された画素情報を特定し、公知のKLT法を用いて、特徴点選択部8によって選択されるべき特徴点の候補となる候補点(以下、単に「候補点」とする。)の評価値を示すスコア値を算出する機能を有する。   The feature point extraction unit 4 identifies input pixel information and uses a known KLT method to select candidate points (hereinafter simply referred to as “candidate points”) as feature point candidates to be selected by the feature point selection unit 8. And a score value indicating the evaluation value.

ここで、スコア値とは、上記候補点の評価値として算出されるものであり、上述したKLT法では、上記画素情報の輝度勾配の大きさを示す値として定義されている。即ち、スコア値が大きい場合には上記画素情報の輝度勾配が大きいものとして、スコア値が小さい場合には上記画素情報の輝度勾配が小さいものとして、それぞれ定義されている。従って、スコア値の値によって、上記候補点を評価することができる。   Here, the score value is calculated as an evaluation value of the candidate point, and is defined as a value indicating the magnitude of the luminance gradient of the pixel information in the KLT method described above. That is, when the score value is large, the luminance gradient of the pixel information is defined as large, and when the score value is small, the luminance gradient of the pixel information is defined as small. Therefore, the candidate points can be evaluated based on the score value.

このスコア値の算出方法は、公知の技術であるため詳しい説明は省略するが、特徴点抽出部4は、上記候補点として算出された画素情報に基づいて固有値Gを算出し、かかる固有値Gをスコア値として算出するようになっている。即ち、公知のKLT法においては、輝度勾配として固有値Gを算出し、当該固有値Gが示す値が大きい画素を特徴点の候補点として算出するようになっている。   The score value calculation method is a well-known technique and thus will not be described in detail. However, the feature point extraction unit 4 calculates the eigenvalue G based on the pixel information calculated as the candidate point, and the eigenvalue G It is calculated as a score value. That is, in the known KLT method, an eigenvalue G is calculated as a luminance gradient, and pixels having a large value indicated by the eigenvalue G are calculated as candidate points for feature points.

そして、詳しくは後述するが、本願の特徴点選択部8は、このように算出された固有値Gの値を評価(即ち固有値Gが示す値の大小関係を比較)し、当該候補点を新たな特徴点として設定するようになっている。   As will be described in detail later, the feature point selection unit 8 of the present application evaluates the value of the eigenvalue G calculated in this way (that is, compares the magnitude relationship of the values indicated by the eigenvalue G), and sets the candidate point as a new value. It is set as a feature point.

この固有値Gの算出方法については公知の手法であるため詳しい説明は省略するが、その一例を以下に説明する。なお、固有値Gの算出方法は以下に限定されることはない。   The calculation method of the eigenvalue G is a well-known method and will not be described in detail, but an example will be described below. Note that the calculation method of the eigenvalue G is not limited to the following.

上記固有値Gの算出方法としては、まず、上記画像点の位置X=(x,y)における空間的な輝度勾配Iのモーメント行列を式(1)とする。   As a method for calculating the eigenvalue G, first, the moment matrix of the spatial luminance gradient I at the position X = (x, y) of the image point is expressed by Equation (1).

Figure 2012079004
また、モーメント行列Mを式(2)とした場合に、式(2)の固有値λは、Eを単位行列として、式(3)のλに対する解として求められる。
Figure 2012079004
Further, when the moment matrix M is expressed by equation (2), the eigenvalue λ of equation (2) is obtained as a solution to λ of equation (3), where E is a unit matrix.

Figure 2012079004
Figure 2012079004

Figure 2012079004
式(3)の解は、式(4)となる。
Figure 2012079004
The solution of equation (3) is equation (4).

Figure 2012079004
本実施例では、上記λのうち、式(5)を固有値Gとして算出する。
Figure 2012079004
In this embodiment, among the above λ, equation (5) is calculated as the eigenvalue G.

Figure 2012079004
このように算出された固有値Gの値を示すλを用いて、特徴点選択部8は、当該λが示す値の大小関係を比較し、上記特徴点を設定するようになっている。
Figure 2012079004
Using the λ indicating the value of the eigenvalue G calculated in this way, the feature point selection unit 8 compares the magnitude relationships of the values indicated by the λ, and sets the feature point.

なお、本実施形態においては、KLT法を用いて固有値Gによって算出される値λをスコア値とするように構成したがこれに限定されず、例えば、公知のテンプレートマッチングやカラーマッチングによって定量化された値をスコア値として適用するように構成してもよい。   In the present embodiment, the value λ calculated by the eigenvalue G using the KLT method is used as the score value. However, the present invention is not limited to this, and is quantified by, for example, known template matching or color matching. The value may be applied as a score value.

なお、以下の説明においては、スコア値といった場合には、画素情報に基づいて算出された固有値G(λ)を示すものとする。   In the following description, the score value indicates the eigenvalue G (λ) calculated based on the pixel information.

そして、特徴点抽出部4は、算出されたスコア値を微分画像保持部5及び特徴点スコア値選択部6へ出力する。   Then, the feature point extraction unit 4 outputs the calculated score value to the differential image holding unit 5 and the feature point score value selection unit 6.

微分画像保持部5は、入力された画像の微分画像を保持する機能を有し、この微分画像は、例えば、勾配法を用いた動きベクトルの算出において用いられ、後述する特徴点動きベクトル抽出回路10へ出力する。   The differential image holding unit 5 has a function of holding a differential image of the input image, and this differential image is used in, for example, calculation of a motion vector using a gradient method. 10 is output.

特徴点スコア値選択部6は、特徴点抽出部4から入力されたスコア値から、所定の閾値を超えたスコア値に対応する画素情報を特徴点選択部8へ出力する機能を有する。上記閾値は、任意に構成することができ、例えば、所定のスコア値を閾値(即ち、所定の閾値を超えたものしか特徴点選択部8へ出力しない。)としたり、所定の座標値で囲まれた範囲を閾値とすることもできる。この閾値は、特徴点閾値記憶部7に記憶されている。   The feature point score value selection unit 6 has a function of outputting pixel information corresponding to a score value exceeding a predetermined threshold from the score value input from the feature point extraction unit 4 to the feature point selection unit 8. The threshold value can be arbitrarily configured. For example, a predetermined score value is set as a threshold value (that is, only a value exceeding the predetermined threshold value is output to the feature point selection unit 8) or surrounded by a predetermined coordinate value. This range can also be used as a threshold value. This threshold value is stored in the feature point threshold value storage unit 7.

このように特徴点選択部8へ出力する画素情報の数量を限定することにより、特徴点選択部8や画像処理装置S全体の処理負担を軽減し、処理の高速化を図ることができる。   By limiting the quantity of pixel information to be output to the feature point selection unit 8 in this way, the processing load on the feature point selection unit 8 and the entire image processing apparatus S can be reduced, and the processing speed can be increased.

なお、特徴点スコア値選択部6を設けず、特徴点抽出部4から入力されたスコア値に対応する画素情報全てを特徴点選択部8へ出力するようにしてもよい。   The feature point score value selection unit 6 may not be provided, and all pixel information corresponding to the score value input from the feature point extraction unit 4 may be output to the feature point selection unit 8.

特徴点選択部8は、本願の候補点特定手段、スコア値入力手段、領域判定手段、スコア値判定手段、特徴点設定手段、分割領域設定手段、及び分割領域判定手段として機能し、特徴点スコア値選択部6から入力された候補点を特定し、当該候補点(新たに特定された候補点)が、既に特定された特徴点から予め定められた領域内に存在せず(即ち、近接する候補点が予め定められた所定の距離以上の距離を有するように存在する)、かつ、スコア値が高い値を示す所定の数量の候補点を特徴点として設定するようになっている。   The feature point selection unit 8 functions as a candidate point specification unit, a score value input unit, a region determination unit, a score value determination unit, a feature point setting unit, a divided region setting unit, and a divided region determination unit of the present application. The candidate point input from the value selection unit 6 is identified, and the candidate point (newly identified candidate point) does not exist within a predetermined region from the already identified feature point (that is, close to it). The candidate points exist so as to have a distance greater than or equal to a predetermined distance), and a predetermined number of candidate points having a high score value are set as feature points.

なお、既に設定された特徴点から予め定められた領域内とは、当該特徴点を基準とした画素の位置から所定のドット分(例えば、10×10ドット分)離れた範囲内を示す。また、上記領域は、設定された特徴点毎に対応した領域を有するようになっている。従って、上記領域は特徴点毎に存在する。   Note that “in a predetermined region from already set feature points” indicates a range that is a predetermined distance (for example, 10 × 10 dots) away from a pixel position with the feature point as a reference. Further, the area has an area corresponding to each set feature point. Therefore, the region exists for each feature point.

以下、既に設定された特徴点から予め定められた領域内を、単に、「既に設定された特徴点の領域」と定義する。   Hereinafter, an area determined in advance from already set feature points is simply defined as “already set feature area”.

一般的な特徴点の抽出方法では、輝度勾配が大きい画素として表示される人間の服装や画像のエッジ部分等を特徴点として抽出してしまう結果、抽出された特徴点が密集し、正確な特徴点の抽出が行えず、また、当該特徴点を用いて追跡等の処理を行ったとしても正確な動作解析等が行えない。   In a general feature point extraction method, human clothes displayed as pixels with a large luminance gradient or edge portions of images are extracted as feature points. As a result, the extracted feature points are dense and accurate features are extracted. Points cannot be extracted, and accurate motion analysis cannot be performed even if processing such as tracking is performed using the feature points.

しかし、特徴点選択部8が備える上記各手段によれば、新たに特定された候補点が、既に設定された特徴点の領域に存在しない場合に、当該候補点を特徴点として特定するため、特徴点が密集することなく、正確な特徴点の抽出が可能である。従って、撮像された画像から正確かつ可用性のある特徴点を抽出することができる。   However, according to each of the means included in the feature point selection unit 8, in order to identify the candidate point as a feature point when the newly identified candidate point does not exist in the already set feature point region, Accurate feature points can be extracted without dense feature points. Therefore, accurate and available feature points can be extracted from the captured image.

このような特徴点選択部8が備える各手段について説明すると、まず、候補点特定手段としての特徴点選択部8は、特徴点スコア値選択部6から入力された画素情報を特徴点の候補となる候補点として特定する。   Each means included in the feature point selection unit 8 will be described. First, the feature point selection unit 8 as the candidate point specification unit uses the pixel information input from the feature point score value selection unit 6 as a feature point candidate. Is identified as a candidate point.

また、スコア値入力手段としての特徴点選択部8は、特徴点抽出部4によって算出された、上記特定した候補点に対応するスコア値の入力を受け付ける。特徴点選択部8によって特定された候補点は、上述したように画素情報である。そして、当該画素情報は、特徴点抽出部4によって既にスコア値が算出されている。特徴点選択部8は、この算出されたスコア値の入力を受け付けるわけである。   Further, the feature point selection unit 8 as a score value input unit accepts input of score values corresponding to the identified candidate points calculated by the feature point extraction unit 4. The candidate point specified by the feature point selection unit 8 is pixel information as described above. The pixel information has already been scored by the feature point extraction unit 4. The feature point selection unit 8 accepts input of the calculated score value.

また、領域判定手段としての特徴点選択部8は、上記新たに特定された候補点が、既に設定された特徴点の領域に存在するか否かを判定する。   Further, the feature point selection unit 8 as the region determination unit determines whether or not the newly specified candidate point exists in the region of the already set feature point.

また、スコア値判定手段としての特徴点選択部8は、上記新たに特定された候補点が、既に設定された特徴点の領域に存在すると判定した場合には、当該新たに特定された候補点と、上記既に特定された特徴点が候補点として特定された際に特徴点抽出部4から入力されたスコア値の大きさを判定する。   In addition, when the feature point selection unit 8 as the score value determination unit determines that the newly specified candidate point exists in the already set feature point region, the newly specified candidate point When the already specified feature point is specified as a candidate point, the magnitude of the score value input from the feature point extraction unit 4 is determined.

また、特徴点設定手段としての特徴点選択部8は、上記新たに特定された候補点のスコア値が大きいと判定した場合には、前記候補点を前記画像における新たな特徴点として設定する。   In addition, when the feature point selection unit 8 as the feature point setting unit determines that the score value of the newly specified candidate point is large, the feature point selection unit 8 sets the candidate point as a new feature point in the image.

なお、分割領域設定手段、及び分割領域判定手段の詳細については後述する。   Details of the divided region setting unit and the divided region determining unit will be described later.

画像領域毎の特徴点情報記憶部9は、特徴点選択部8によって特定される特徴点に関する情報が記憶されており、その一例として、特徴点テーブル及び候補点テーブルが記憶されている。   The feature point information storage unit 9 for each image area stores information on the feature points specified by the feature point selection unit 8, and as an example thereof, a feature point table and a candidate point table are stored.

ここで、特徴点テーブル及び候補点テーブルについて図2を用いて説明する。   Here, the feature point table and the candidate point table will be described with reference to FIG.

図2(A)は特徴点テーブルの詳細を示す図であり、図2(B)は、候補点テーブルの詳細を示す図である。   FIG. 2A is a diagram illustrating details of the feature point table, and FIG. 2B is a diagram illustrating details of the candidate point table.

図2(A)に示すように、特徴点テーブルは、特徴点選択部8によって設定された特徴点に関する情報が記憶されるようになっており、具体的には、図2(A)に示すように、既に設定された各特徴点(1)〜(100)についてそれぞれ、X座標、Y座標、スコア値、ヒットフラグ、及び登録フラグが対応付けて記憶されている。   As shown in FIG. 2A, the feature point table stores information about the feature points set by the feature point selection unit 8, and specifically, as shown in FIG. As described above, the X coordinate, the Y coordinate, the score value, the hit flag, and the registration flag are stored in association with each of the already set feature points (1) to (100).

各特徴点(1)〜(100)は、特徴点選択部8によって設定された所定の数量の特徴点を示す。即ち、各特徴点(1)〜(100)は、既に設定された特徴点を示す。図2(A)に示す例では、所定の数量として100個の特徴点が既に設定されていることを示しているがこれに限定されず、任意の数量の特徴点を設定できる。   Each of the feature points (1) to (100) indicates a predetermined number of feature points set by the feature point selection unit 8. That is, the feature points (1) to (100) indicate feature points that have already been set. In the example shown in FIG. 2A, it is shown that 100 feature points have already been set as the predetermined quantity, but the present invention is not limited to this, and an arbitrary quantity of feature points can be set.

X座標及びY座標には、特徴点として既に設定された画素の位置が記憶される。また、スコア値は、特徴点として既に設定された画素のスコア値が記憶される。なお、スコア値は、上述したように画像上の1画素における周辺画素との輝度勾配情報から算出される値であり、勾配が急であるほど高い値を示す。   In the X coordinate and Y coordinate, the position of a pixel already set as a feature point is stored. The score value stores the score value of a pixel that has already been set as a feature point. Note that the score value is a value calculated from luminance gradient information with peripheral pixels in one pixel on the image as described above, and indicates a higher value as the gradient is steeper.

ヒットフラグは、特徴点選択部8によって特定された(特徴点スコア値選択部6から入力された特徴点の候補となる)候補点(新たに入力された候補点)が、既に設定された各特徴点(1)〜(100)の領域(特定された各特徴点の領域)に存在するか否かを示すフラグである。   The hit flag is specified by the feature point selection unit 8 (candidate of the feature point input from the feature point score value selection unit 6), each of the candidate points (newly input candidate points) already set. This is a flag indicating whether or not the feature points (1) to (100) are present in the region (the region of each identified feature point).

例えば、特徴点選択部8によって特定された候補点が、既に設定された各特徴点(1)〜(100)の領域の何れかに存在した場合には、当該候補点が存在する既に設定された特徴点(1)〜(100)の領域に対応する各特徴点(1)〜(100)のヒットフラグの値は1が、存在しない場合には0が、それぞれ代入される。   For example, if the candidate point specified by the feature point selection unit 8 exists in any of the already set feature points (1) to (100), the candidate point is already set. 1 is substituted for the value of the hit flag of each of the feature points (1) to (100) corresponding to the regions of the feature points (1) to (100).

登録フラグは、特徴点として設定されているか否かを示すフラグである。登録フラグの値は、特徴点として設定されている場合には1が、特徴点として登録されていない場合には0が、それぞれ代入される。   The registration flag is a flag indicating whether or not it is set as a feature point. As the value of the registration flag, 1 is substituted when it is set as a feature point, and 0 is substituted when it is not registered as a feature point.

なお、図2(A)に示す例では、特徴点選択部8によって、所定の数量の特徴点の全てが設定された状態が示されている。一方、特徴点選択部8によって、所定の数量に満たない数量の特徴点しか設定されていない場合には、特徴点テーブルの特徴点の欄には空欄の箇所が存在することとなる。   In the example shown in FIG. 2A, a state in which all of a predetermined number of feature points are set by the feature point selection unit 8 is shown. On the other hand, when the feature point selection unit 8 has set only feature points of a quantity less than a predetermined quantity, a blank location exists in the feature point column of the feature point table.

図2(B)に示す候補点テーブルは、特徴点選択部8によって新たに特定された候補点に関する情報が記憶されるようになっており、具体的には、図2(B)に示すように、新たに特定された候補点のX座標、Y座標、及び削除フラグ(登録しないフラグ)が対応付けて記憶されている。   The candidate point table shown in FIG. 2 (B) stores information on candidate points newly specified by the feature point selection unit 8, specifically, as shown in FIG. 2 (B). In addition, the X coordinate and Y coordinate of the newly identified candidate point and a deletion flag (not registered flag) are stored in association with each other.

X座標及びY座標には、新たに特定された候補点の画素の位置が記憶される。   In the X coordinate and the Y coordinate, the pixel position of the newly specified candidate point is stored.

削除フラグは、特徴点選択部8によって新たに特定された候補点が特徴点として設定されるか否かを示すフラグである。削除フラグの値は、特徴点選択部8によって新たに特定された候補点が、特徴点として設定される場合には0が、特徴点として設定されない場合には1がそれぞれ代入される。   The deletion flag is a flag indicating whether or not a candidate point newly specified by the feature point selection unit 8 is set as a feature point. As the value of the deletion flag, 0 is substituted when a candidate point newly specified by the feature point selection unit 8 is set as a feature point, and 1 is substituted when it is not set as a feature point.

なお、特徴点に関する情報(上記特徴点テーブル及び候補点テーブル等を含む)は、追跡処理を実行する際に用いられるため、2つの画像(即ち、連続するフレーム分)が保持される。そして、画像領域毎の特徴点情報記憶部9は、記憶された特徴点に関する情報を特徴点動きベクトル抽出部10へ出力する。   Note that information about feature points (including the feature point table and the candidate point table) is used when executing the tracking process, and thus two images (that is, consecutive frames) are held. Then, the feature point information storage unit 9 for each image region outputs information on the stored feature points to the feature point motion vector extraction unit 10.

特徴点動きベクトル抽出部10は、画像領域毎の特徴点情報記憶部9から入力された特徴点に関する情報に対して、公知のニュートンラプソン法等を用いて追跡処理を行う機能を有している。追跡処理については公知の技術であるため詳しい説明は省略するが、連続する2つの画像における上記特徴点の移動量を解析する処理をいう。   The feature point motion vector extraction unit 10 has a function of performing tracking processing on information about feature points input from the feature point information storage unit 9 for each image area using a known Newton-Raphson method or the like. . Since the tracking process is a known technique, a detailed description thereof will be omitted, but it refers to a process of analyzing the movement amount of the feature points in two consecutive images.

なお、フレームバッファ3乃至特徴点動きベクトル抽出部10の一部又は全部の機能を実現するために、フレームバッファ3〜特徴点動きベクトル抽出部10の一部又は全部に、各処理を実行するために設計された専用のハードウェアを適用するができる(所謂、ハードウェアアクセラレーション)。特徴点選択部4等を専用のハードウェアで実現することによって、当該ハードウェア内では回路の並列性を生かして演算を並列に行うことができるため、逐次的な命令実行(例えば、CPUによるソフトウェアの実行)の場合より処理の高速化等が実現されるからである。なお、ソフトウェアの制御のもと、CPU、RAM、及びROM等の制御装置が、フレームバッファ3乃至特徴点動きベクトル抽出部10の一部又は全部が有する機能を実行するようにできることはいうまでもない。
[2.特徴点選択部8の動作]
本動作例における特徴点選択部8は、上述した各手段に加えて、分割領域設定手段、及び分割領域判定手段として機能し、特徴点を特定するようになっている。
In order to implement a part or all of the functions of the frame buffer 3 to the feature point motion vector extraction unit 10, in order to execute each process on part or all of the frame buffer 3 to the feature point motion vector extraction unit 10. It is possible to apply specially designed hardware (so-called hardware acceleration). By implementing the feature point selection unit 4 and the like with dedicated hardware, it is possible to perform operations in parallel by making use of the parallelism of the circuit in the hardware, so that sequential instruction execution (for example, software by the CPU) This is because, for example, a higher processing speed is realized than in the case of (execution). Needless to say, a control device such as a CPU, a RAM, and a ROM can execute the functions of part or all of the frame buffer 3 to the feature point motion vector extraction unit 10 under the control of software. Absent.
[2. Operation of the feature point selection unit 8]
The feature point selection unit 8 in this operation example functions as a divided region setting unit and a divided region determination unit in addition to the above-described units, and identifies a feature point.

以下に、上述した各手段に加えて、分割領域設定手段、及び分割領域判定手段として機能する特徴点選択部8の動作の概要について、図3及び図4を対比して詳細に説明する。   In the following, an outline of the operation of the feature point selection unit 8 that functions as a divided region setting unit and a divided region determination unit in addition to the above-described units will be described in detail with reference to FIGS.

図3は特徴点選択部8の動作の概要を模式的に表した模式図であり、図4は特徴点選択部8の動作を示すシーケンス図である。   FIG. 3 is a schematic diagram schematically showing an outline of the operation of the feature point selection unit 8, and FIG. 4 is a sequence diagram showing the operation of the feature point selection unit 8.

まず、本動作例に用いられる画像は、前提として、分割領域設定手段としての特徴点選択部8によって、所定の分割領域に分割される。   First, the image used in this operation example is preliminarily divided into predetermined divided areas by the feature point selection unit 8 as divided area setting means.

具体的には、図3に示すように、分割領域設定手段としての特徴点選択部8は、上記画像21を所定の大きさの分割領域毎に分割した分割領域1〜30(図3の1〜30の番号が付与された矩形領域)を設定する。   Specifically, as shown in FIG. 3, the feature point selection unit 8 serving as a divided region setting unit divides the image 21 into divided regions 1 to 30 (1 in FIG. 3) divided into predetermined divided regions. (Rectangular region to which the number of ~ 30) is assigned.

ここで、画像は、上述したように解像度に応じた画素が配列されており、本動作例における画像は、原点(0,0)を基準に、X方向に640ドットの画素が、Y方向に480ドットの画素が夫々配列されたVGAが採用されている。即ち、当該画像には、(0,0)〜(639,479)の約30万の画素が配列される。そして、各分割領域には、上記画像が有する画素数を当該各分割領域で除した数の画素(一つの分割領域には約1万の画素が配列)が配列されることとなる。本動作例における特徴点選択部8は、上記原点を基準に、座標値に応じて(即ち、(0、0)、(1、0)、・・・(639、0)、(0、1)・・・の順に)、順次新たな候補点を特定するように構成されているが、これに限られず任意の順序に応じて当該候補点を特定することができる。   Here, as described above, pixels according to the resolution are arranged in the image, and the image in this operation example has pixels of 640 dots in the X direction in the Y direction with respect to the origin (0, 0). A VGA in which 480 dot pixels are arranged is employed. That is, about 300,000 pixels (0, 0) to (639, 479) are arranged in the image. In each divided area, the number of pixels obtained by dividing the number of pixels of the image by each divided area (approximately 10,000 pixels are arranged in one divided area) is arranged. The feature point selection unit 8 in this operation example uses the origin as a reference in accordance with coordinate values (that is, (0, 0), (1, 0),... (639, 0), (0, 1 )...)), The new candidate points are sequentially specified. However, the present invention is not limited to this, and the candidate points can be specified in any order.

そして、特徴点選択部8は、特徴点スコア値選択部6から入力された画素情報から特徴点の候補となる候補点を特定する(図4のステップS1)。図3には特定された候補点として候補点24(図3における二重丸)が模式的に示されている。以下、上記特徴点スコア値選択部6から入力された画素情報を、「新たに特定された候補点」と称する。   Then, the feature point selection unit 8 specifies candidate points that are candidate feature points from the pixel information input from the feature point score value selection unit 6 (step S1 in FIG. 4). FIG. 3 schematically shows a candidate point 24 (double circle in FIG. 3) as the identified candidate point. Hereinafter, the pixel information input from the feature point score value selection unit 6 is referred to as “newly identified candidate points”.

そして、特徴点選択部8は、上記特定した候補点の画素の位置から、当該候補点が、上記画面のどの分割領域に存在するのかを特定する(図4のステップS2)。そして特徴点選択部8は、上記候補点テーブルに新たに特定した候補点の画素の位置としての座標値(X座標、及びY座標の値)を記憶する。   Then, the feature point selection unit 8 identifies in which divided area of the screen the candidate point is present from the pixel position of the identified candidate point (step S2 in FIG. 4). Then, the feature point selection unit 8 stores coordinate values (X coordinate and Y coordinate values) as pixel positions of the newly specified candidate points in the candidate point table.

次に、特徴点選択部8は、上記特徴点テーブルのヒットフラグの値、及び上記候補点テーブルの削除フラグの値を初期化(即ち、0を代入)する(図4のステップS3)。   Next, the feature point selection unit 8 initializes the value of the hit flag in the feature point table and the value of the deletion flag in the candidate point table (that is, substitutes 0) (step S3 in FIG. 4).

次に、分割領域判定手段としての特徴点選択部8は、上記特定された候補点が属する分割領域を基準に、当該基準とされた分割領域から所定の分割領域の範囲内に既に設定された特徴点が存在するか否かを判定する(図4のステップS4)。   Next, the feature point selection unit 8 serving as a divided area determination unit is already set within a predetermined divided area from the divided area set as the reference with respect to the divided area to which the identified candidate point belongs. It is determined whether or not a feature point exists (step S4 in FIG. 4).

この当該基準とされた分割領域から所定の分割領域の範囲とは、当該特定された候補点が属する分割領域に、所定の数量の分割領域を加えた範囲をいう。具体的には、図3に示すように、上記基準とされた分割領域から所定の分割領域の範囲は、特定された候補点24が属する分割領域15に、所定の数量として5つの分割領域8,9,10,14、及び16を加えた範囲をいう。以下、上記基準とされた分割領域から所定の分割領域の範囲を、「近傍チェックエリア」と称する。   The range of the predetermined divided area from the reference divided area is a range obtained by adding a predetermined number of divided areas to the divided area to which the identified candidate point belongs. Specifically, as shown in FIG. 3, the range of the predetermined divided area from the reference divided area is divided into five divided areas 8 as a predetermined quantity in the divided area 15 to which the identified candidate point 24 belongs. , 9, 10, 14, and 16. Hereinafter, the range of the predetermined divided area from the reference divided area is referred to as a “neighbor check area”.

なお、上記近傍チェックエリアとして、図3には、特定された候補点24が属する分割領域15に、所定の数量として5つの分割領域8,9,10,14、及び16を加えた範囲が近傍チェックエリア25として示されることとなる。   As the neighborhood check area, FIG. 3 shows a neighborhood obtained by adding the five divided areas 8, 9, 10, 14, and 16 as a predetermined quantity to the divided area 15 to which the identified candidate point 24 belongs. It will be shown as a check area 25.

そして、特徴点選択部8は、近傍チェックエリアに既に特定された特徴点が存在すると判断した場合には(図4のステップS4:YES)、上記新たに特定された候補点が、既に設定された特徴点の領域に存在するか否かを判定する(図4のステップS5)。   If the feature point selection unit 8 determines that the specified feature point already exists in the neighborhood check area (step S4 in FIG. 4: YES), the newly specified candidate point is already set. It is determined whether or not the feature point exists in the region (step S5 in FIG. 4).

具体的には、図3に示すように、特徴点選択部8は、新たに特定された候補点24が、既に設定された特徴点26〜31の既に設定された特徴点の領域26a〜31a(特徴点を中心とした破線部で示す矩形領域)に存在するか否かを判定する。   Specifically, as illustrated in FIG. 3, the feature point selection unit 8 determines that the newly specified candidate points 24 are regions 26 a to 31 a of already set feature points 26 to 31 of the already set feature points 26 to 31. It is determined whether or not it exists in a (rectangular region indicated by a broken line centering on a feature point).

なお、図3に示す例では、新たに特定された候補点24は、何れの既に設定された特徴点の領域26a〜31aにも存在していないことを示している(後述する図4のステップS5:NOの場合)。   In the example shown in FIG. 3, the newly specified candidate point 24 does not exist in any of the already set feature point regions 26 a to 31 a (step of FIG. 4 described later). S5: In the case of NO).

そして、特徴点選択部8は、上記新たに特定された候補点が、既に設定された特徴点の領域に存在すると判定した場合には(図4のステップS5:YES)、特徴点テーブルを参照して、当該候補点が存在する既に設定された特徴点の領域に対応する特徴点のヒットフラグに1を代入する(図4のステップS6)。   When the feature point selection unit 8 determines that the newly specified candidate point exists in the already set feature point region (step S5 in FIG. 4: YES), the feature point selection unit 8 refers to the feature point table. Then, 1 is assigned to the hit flag of the feature point corresponding to the already set feature point region where the candidate point exists (step S6 in FIG. 4).

そして、特徴点選択部8は、上記新たに特定された候補点と、当該候補点が存在する上記既に設定された特徴点の領域に対応する特徴点のスコア値の大きさを判定する(図4のステップS7)。なお、上記既に設定された特徴点の領域に対応する特徴点のスコア値は、当該特徴点が候補点として特定された際に特徴点抽出部4から入力された値を用いるようにしてもよいし、当該段階で新たに算出するようにしてもよい。以下、上記既に設定された特徴点の領域に対応する特徴点のスコア値を、単に「既存の特徴点のスコア値」と称する。   Then, the feature point selection unit 8 determines the magnitude of the score value of the feature point corresponding to the newly specified candidate point and the already set feature point region where the candidate point exists (see FIG. 4 step S7). The score value of the feature point corresponding to the already set feature point region may be the value input from the feature point extraction unit 4 when the feature point is specified as a candidate point. However, it may be newly calculated at this stage. Hereinafter, the score value of the feature point corresponding to the already set feature point region is simply referred to as “score value of the existing feature point”.

そして、特徴点選択部8は、既存の特徴点のスコア値が大きいと判断した場合には(図4のステップS7:YES)、上記新たに特定された候補点の削除フラグに1を代入する(図4のステップS8)。この場合、以下の処理において、当該新たに特定された候補点は、新たな特徴点として設定されないこととなる。   When the feature point selection unit 8 determines that the score value of the existing feature point is large (step S7 in FIG. 4: YES), 1 is assigned to the deletion flag of the newly specified candidate point. (Step S8 in FIG. 4). In this case, in the following process, the newly specified candidate point is not set as a new feature point.

一方、特徴点選択部8は、既存の特徴点のスコア値が小さいと判断した場合には(図4のステップS7:NO)、上記新たに特定された候補点の削除フラグには何らの値も代入しない(即ち、0のまま)。この場合、以下の処理において、当該新たに特定された候補点は、新たな特徴点として設定されることとなる。   On the other hand, when the feature point selection unit 8 determines that the score value of the existing feature point is small (step S7: NO in FIG. 4), any value is set as the deletion flag for the newly specified candidate point. Is also not substituted (ie, remains 0). In this case, in the following process, the newly specified candidate point is set as a new feature point.

そして、特徴点選択部8は、近傍チェックエリアに存在する全ての特徴点について上述したステップS4からステップS8までの処理を行ったかを判定し(図4のステップS9)、当該処理を行った場合には(図4のステップS9:YES)、図4のステップS10へ移行する。一方、上記処理が行われていない場合には(図4のステップS9:NO)、当該処理を行うべく図4のステップS4へ移行する。   Then, the feature point selection unit 8 determines whether or not the above-described processing from step S4 to step S8 has been performed for all feature points existing in the neighborhood check area (step S9 in FIG. 4), and the processing is performed. (Step S9 in FIG. 4: YES), the process proceeds to step S10 in FIG. On the other hand, when the above process is not performed (step S9 in FIG. 4: NO), the process proceeds to step S4 in FIG. 4 to perform the process.

図4のステップS10では、特徴点選択部8は、上記新たに特定された候補点の削除フラグの値を判定する。   In step S10 of FIG. 4, the feature point selection unit 8 determines the value of the newly specified candidate point deletion flag.

そして、上記削除フラグの値が0であった場合には(図4のステップS10:0)、特徴点選択部8は、特徴点テーブルを参照して、ヒットフラグが1の値を示す特徴点を検索する(図4のステップS11)。   If the value of the deletion flag is 0 (step S10: 0 in FIG. 4), the feature point selection unit 8 refers to the feature point table, and the feature point having a hit flag value of 1 is referred to. Is searched (step S11 in FIG. 4).

そして、ヒットフラグが1の値を示す特徴点が存在した場合には、特徴点選択部8は、上記新たに特定された候補点を新たな特徴点として設定する。具体的には、特徴点選択部8は、特徴点テーブルに記憶されるヒットフラグが1の値を示す特徴点の値(X座標、Y座標、及びスコア値)を、上記新たに特定された候補点が示すX座標、Y座標、及びスコア値に書き換える(上書き登録する)。そして、特徴点選択部8は処理を終了する。   When a feature point having a value of 1 in the hit flag exists, the feature point selection unit 8 sets the newly specified candidate point as a new feature point. Specifically, the feature point selection unit 8 newly specifies the feature point values (X coordinate, Y coordinate, and score value) that indicate a value of 1 in the hit flag stored in the feature point table. Rewrite the X coordinate, Y coordinate, and score value indicated by the candidate point (overwrite registration). Then, the feature point selection unit 8 ends the process.

また、ヒットフラグが1の値を示す特徴点が存在しなかった場合には、上記新たに特定された候補点を新たな特徴点として設定する(新規登録する)。この場合、特徴点選択部8は、所定の数量に満たない数量の特徴点しか登録しておらず、特徴点テーブルの特徴点の欄には空欄の箇所が存在する。従って、特徴点選択部8は、特徴点テーブルの空欄部分に、上記新たに特定された候補点が示すX座標、Y座標、及びスコア値を記憶する。そして、特徴点選択部8は処理を終了する。   If there is no feature point having a value of 1 for the hit flag, the newly identified candidate point is set as a new feature point (new registration). In this case, the feature point selection unit 8 registers only feature points of a quantity less than a predetermined quantity, and there are blank places in the feature point column of the feature point table. Therefore, the feature point selection unit 8 stores the X coordinate, the Y coordinate, and the score value indicated by the newly specified candidate point in the blank portion of the feature point table. Then, the feature point selection unit 8 ends the process.

一方、上記削除フラグの値が1であった場合には(図4のステップS10:1)、上記新たに特定された候補点は特徴点として登録されず、処理を終了する。   On the other hand, when the value of the deletion flag is 1 (step S10: 1 in FIG. 4), the newly specified candidate point is not registered as a feature point, and the process is terminated.

また、特徴点選択部8は、近傍チェックエリアに既に設定された特徴点が存在しないと判断した場合には(図4のステップS4:NO)、上記新たに特定された候補点は、新たな特徴点として設定されることとなる。   When the feature point selection unit 8 determines that there is no feature point already set in the neighborhood check area (step S4: NO in FIG. 4), the newly identified candidate point is a new one. It will be set as a feature point.

具体的な処理としては、特徴点選択部8は、まずステップS10へ移行する。このとき上記新たに特定された候補点の削除フラグの値は、何らの値も代入されていないため0を示す。従って、特徴点選択部8は、図4のステップS10:0の処理へと移行し、ステップS12又はステップS13の処理を経て、上記新たに特定された候補点は、新たな特徴点として設定されることとなる。   As a specific process, the feature point selection unit 8 first proceeds to step S10. At this time, the value of the newly specified candidate point deletion flag indicates 0 because no value is substituted. Accordingly, the feature point selection unit 8 proceeds to the process of step S10: 0 in FIG. 4, and the newly specified candidate point is set as a new feature point through the process of step S12 or step S13. The Rukoto.

なお、以上説明した実施形態は特許請求の範囲にかかる発明を限定するものではない。そして、上記実施形態の中で説明されている構成の組合せ全てが発明の課題解決に必須の手段であるとは限らない。   In addition, embodiment described above does not limit the invention concerning a claim. And not all combinations of the configurations described in the above embodiments are essential means for solving the problems of the invention.

以上説明したように、本実施形態においては、特徴点選択部8は、特徴点スコア値選択部6から入力された画素情報から特徴点の候補となる候補点を特定し、当該新たに特定された候補点が、既に設定された特徴点の領域に存在すると判定した場合には、上記新たに特定された候補点と、当該候補点が存在する既存の特徴点の領域に対応する特徴点のスコア値の大きさを判定し、新たに特定された候補点のスコア値が大きいと判断した場合には、当該新たに特定された候補点を新たな特徴点として設定するように構成したため、撮像された画像から正確かつ可用性のある特徴点を抽出することができる。   As described above, in the present embodiment, the feature point selection unit 8 specifies candidate points that are candidate feature points from the pixel information input from the feature point score value selection unit 6, and is newly specified. If the candidate point is determined to exist in the already set feature point region, the newly identified candidate point and the feature point corresponding to the existing feature point region in which the candidate point exists Since it is configured to determine the magnitude of the score value and determine that the score value of the newly identified candidate point is large, the newly identified candidate point is set as a new feature point. It is possible to extract accurate and available feature points from the obtained images.

なお、上述した動作例では、分割領域1〜30は、上記画像21を所定の大きさの分割領域毎に分割されているがこれに限定されず、所定の分割領域に分割されていればよく、例えば、異なる大きさの複数の分割領域に分割するようにしてもよい。   In the above-described operation example, the divided areas 1 to 30 are obtained by dividing the image 21 into divided areas having a predetermined size. However, the present invention is not limited thereto, and the divided areas 1 to 30 may be divided into predetermined divided areas. For example, the image may be divided into a plurality of divided areas having different sizes.

また、上記近傍チェックエリアは、任意に設定することができる。上述した動作例では、近傍チェックエリアは、上記基準とされた分割領域から5つの分割領域を加えた広さとなっている。しかし、既に設定された特徴点の領域26a〜31aが示す領域を狭い領域で設定した場合には、近傍チェックエリアを狭い領域(例えば、当該基準とされた分割領域から2つの分割領域を加えた広さを近傍チェックエリアとする。)に設定することができる。   The neighborhood check area can be arbitrarily set. In the above-described operation example, the neighborhood check area is a size obtained by adding five divided areas from the divided areas set as the reference. However, when the area indicated by the already set feature point areas 26a to 31a is set as a narrow area, the neighborhood check area is set to a narrow area (for example, two divided areas are added from the reference divided area). The area can be set as a neighborhood check area.)

この場合、近傍チェックエリアを通常よりも狭い範囲で設定することとなるが、特徴点選択部8は、特徴点同士がオーバーラップすることなく、当該特徴点を設定することができる。   In this case, the neighborhood check area is set in a narrower range than usual, but the feature point selection unit 8 can set the feature points without overlapping the feature points.

また、既に設定された特徴点の領域26a〜31aが示す領域を広い領域で設定した場合には、近傍チェックエリアを広い領域(例えば、当該基準とされた分割領域から8つの分割領域を加えた広さを近傍チェックエリアとする。)に設定することができる。   In addition, when the area indicated by the already set feature point areas 26a to 31a is set as a wide area, the neighborhood check area is set to a wide area (for example, eight divided areas are added from the reference divided area). The area can be set as a neighborhood check area.)

この場合、近傍チェックエリアを通常よりも広い範囲で設定することとなるが、特徴点選択部8は、特徴点同士がオーバーラップすることなく、当該特徴点を設定することができる。   In this case, although the neighborhood check area is set in a wider range than usual, the feature point selection unit 8 can set the feature points without overlapping the feature points.

さらに、ローカルエリア及び近傍チェックエリアを設定しないようにしてもよい。この場合、特徴点選択部8は、上記新たに特定された候補点が、上記画像における全ての既に設定された特徴点の領域に存在するか否かを判定する。そして、特徴点選択部8は、上記新たに特定された候補点が、既に設定された特徴点の領域に存在すると判定した場合には、上記新たに特定された候補点と、当該候補点が存在する既存の特徴点の領域に対応する特徴点のスコア値の大きさを判定する。そして、特徴点選択部8は、新たに特定された候補点のスコア値が大きいと判断した場合には、当該新たに特定された候補点を、新たな特徴点として設定する。   Further, the local area and the neighborhood check area may not be set. In this case, the feature point selection unit 8 determines whether or not the newly specified candidate point exists in all the already set feature point regions in the image. Then, when the feature point selection unit 8 determines that the newly specified candidate point exists in the already set feature point region, the newly specified candidate point and the candidate point are The magnitude of the score value of the feature point corresponding to the existing feature point region is determined. When the feature point selection unit 8 determines that the score value of the newly specified candidate point is large, the feature point selection unit 8 sets the newly specified candidate point as a new feature point.

なお、上記実施形態においては、本願を画像表示装置に対して適用した場合の例を示したが、その他にも例えば、デジタルビデオカメラ、デジタルカメラ、パーソナルコンピュータ又は家庭用等の電子機器等に対しても適用可能である。   In the above embodiment, an example in which the present application is applied to an image display device has been shown. However, for example, for a digital video camera, a digital camera, a personal computer, a home electronic device, etc. Is applicable.

さらに、入力装置、行為認識、画像のブレ補正装置、接近・後退検出、動体検知、動領域検知、動体の状態測定、運動状態の推定、運動能力評価、移動体の速度計測、剛性の評価・推定、及び3次元計測等の様々な用途に適用可能である。   Furthermore, input device, action recognition, image blur correction device, approach / retreat detection, moving object detection, moving area detection, moving object state measurement, movement state estimation, movement ability evaluation, moving body speed measurement, rigidity evaluation / It is applicable to various uses such as estimation and three-dimensional measurement.

1 光学系エンジン
2 入力画像取得部
3 フレームバッファ
4 特徴点抽出部
5 微分画像保持部
6 特徴点スコア値選択部
7 特徴点閾値記憶部
8 特徴点選択部
9 画像領域毎の特徴点情報記憶部(領域)
10 特徴点動きベクトル抽出部
S 画像処理装置
DESCRIPTION OF SYMBOLS 1 Optical system engine 2 Input image acquisition part 3 Frame buffer 4 Feature point extraction part 5 Differential image holding part 6 Feature point score value selection part 7 Feature point threshold value storage part 8 Feature point selection part 9 Feature point information storage part for every image area (region)
10 Feature point motion vector extraction unit S Image processing device

Claims (7)

画像に示される特徴点を追跡処理し当該特徴点の動きベクトルを取得するために、入力された前記画像を構成し前記画像における所定の位置情報を有する画素情報から、所定の順序に従って所定の数量の前記特徴点を順次設定する特徴点抽出装置であって、
入力された前記画素情報から特徴点の候補となる候補点を特定する候補点特定手段と、
前記候補点の評価値を示すスコア値の入力を受け付けるスコア値入力手段と、
前記候補点特定手段によって、新たに特定された候補点が、既に特定された特徴点から予め定められた領域内に存在するか否かを判定する領域判定手段と、
前記領域判定手段によって、新たに特定された候補点が、既に特定された特徴点から予め定められた領域内に存在すると判定された場合に、前記新たに特定された候補点と、前記既に特定された特徴点が候補点として特定された際に入力されたスコア値の大きさを判定するスコア値判定手段と、
前記スコア値判定手段によって、前記候補点のスコア値が大きいと判定された場合には、前記候補点を前記画像における新たな特徴点として設定する特徴点設定手段と、
を備えることを特徴とする特徴点抽出装置。
In order to track the feature points shown in the image and acquire the motion vector of the feature points, a predetermined quantity is obtained from the pixel information constituting the input image and having predetermined position information in the image according to a predetermined order. A feature point extraction device for sequentially setting the feature points of
Candidate point specifying means for specifying candidate points as candidate feature points from the input pixel information;
Score value input means for receiving input of a score value indicating the evaluation value of the candidate point;
A region determination unit that determines whether or not the candidate point newly specified by the candidate point specifying unit exists within a predetermined region from the already specified feature point;
When the newly determined candidate point is determined to exist within a predetermined area from the already specified feature point by the area determining means, the newly specified candidate point and the already specified candidate point Score value determination means for determining the magnitude of the score value input when the feature point is identified as a candidate point;
A feature point setting unit that sets the candidate point as a new feature point in the image when the score value determining unit determines that the score value of the candidate point is large;
A feature point extracting apparatus comprising:
請求項1に記載の特徴点抽出装置であって、
前記画像を所定の領域毎に分割した分割領域を設定する分割領域設定手段と、
前記候補点特定手段によって新たに特定された候補点が属する分割領域を基準に、当該基準とされた分割領域から所定の分割領域の範囲内に既に特定された特徴点が存在するか否かを判定する分割領域判定手段と、を備え、
前記スコア値判定手段は、前記分割領域判定手段によって、前記基準とされた分割領域から所定の分割領域の範囲内に既に特定された特徴点が存在する領域であって、前記新たに特定された候補点が、前記既に特定された特徴点から予め定められた領域内に存在すると判定された場合には、前記新たに特定された候補点と、前記既に特定された特徴点が候補点として特定された際に入力されたスコア値を比較することを特徴とする特徴点抽出装置。
The feature point extraction device according to claim 1,
Divided region setting means for setting a divided region obtained by dividing the image into predetermined regions;
Whether or not there is a feature point that has already been specified within the range of the predetermined divided region from the divided region that is the reference, based on the divided region to which the candidate point newly specified by the candidate point specifying unit belongs. A divided region determining means for determining,
The score value determining means is an area in which a feature point that has already been specified within the range of a predetermined divided area from the reference divided area by the divided area determining means, and is newly specified When it is determined that a candidate point exists within a predetermined region from the already specified feature point, the newly specified candidate point and the already specified feature point are specified as candidate points. A feature point extracting device that compares score values inputted when the feature points are input.
請求項1に記載の特徴点抽出装置であって、
前記領域判定手段によって、前記新たに特定された候補点が、既に特定された特徴点から予め定められた領域内に存在しないと判定された場合には、前記特徴点判定手段は、前記候補点を前記画像における新たな特徴点として設定することを特徴とする特徴点抽出装置。
The feature point extraction device according to claim 1,
When it is determined by the area determination means that the newly specified candidate point does not exist within a predetermined area from the already specified feature point, the feature point determination means Is set as a new feature point in the image.
請求項2に記載の特徴点抽出装置であって、
前記分割領域判定手段によって、前記新たに特定された候補点が属する分割領域を基準に、当該基準とされた分割領域から所定の分割領域の範囲内に既に特定された特徴点が存在しないと判定された場合には、前記特徴点判定手段は、前記候補点を前記画像における新たな特徴点として設定することを特徴とする特徴点抽出装置。
The feature point extraction device according to claim 2,
Based on the divided area to which the newly specified candidate point belongs, the divided area determining means determines that there is no feature point already specified within the range of the predetermined divided area from the reference divided area. If so, the feature point determination means sets the candidate point as a new feature point in the image.
請求項1乃至4の何れか1項に記載の特徴点抽出装置が搭載されたことを特徴とする画像に示される特徴点を追跡処理し当該特徴点の動きベクトルを取得する画像処理装置。   An image processing apparatus for tracking a feature point shown in an image, wherein the feature point extraction apparatus according to claim 1 is mounted, and acquiring a motion vector of the feature point. 画像に示される特徴点を追跡処理し当該特徴点の動きベクトルを取得するために、入力された前記画像を構成し前記画像における所定の位置情報を有する画素情報から、所定の順序に従って所定の数量の前記特徴点を順次設定する特徴点抽出装置における特徴点抽出方法であって、
入力された前記画素情報から、特徴点の候補となる候補点を特定する特徴点候補特定工程と、
前記候補点の評価値を示すスコア値の入力を受け付けるスコア値入力工程と、
前記特徴点候補特定工程によって、新たに特定された候補点が、既に特定された特徴点から予め定められた領域内に存在するか否かを判定する領域判定工程と、
前記領域判定工程によって、新たに特定された候補点が、既に特定された特徴点から予め定められた領域内に存在すると判定された場合に、前記新たに特定された候補点と、前記既に特定された特徴点が候補点として特定された際に入力されたスコア値の大きさを判定するスコア値判定工程と、
前記スコア値判定工程によって、前記候補点のスコア値が大きいと判定された場合には、前記候補点を前記画像における新たな特徴点として設定する特徴点設定工程と、
を有することを特徴とする特徴点抽出方法。
In order to track the feature points shown in the image and acquire the motion vector of the feature points, a predetermined quantity is obtained from the pixel information constituting the input image and having predetermined position information in the image according to a predetermined order. A feature point extraction method in a feature point extraction apparatus for sequentially setting the feature points,
A feature point candidate specifying step for specifying a candidate point that is a candidate for a feature point from the input pixel information;
A score value input step for receiving an input of a score value indicating an evaluation value of the candidate point;
A region determination step for determining whether or not a candidate point newly specified by the feature point candidate specifying step is present in a predetermined region from the already specified feature point;
When it is determined by the region determination step that a newly identified candidate point exists within a predetermined region from an already identified feature point, the newly identified candidate point and the already identified candidate point A score value determination step for determining the magnitude of the score value input when the feature point that has been identified as a candidate point;
A feature point setting step of setting the candidate point as a new feature point in the image when the score value determining step determines that the score value of the candidate point is large;
A feature point extraction method characterized by comprising:
画像に示される特徴点を追跡処理し当該特徴点の動きベクトルを取得するために、入力された前記画像を構成し前記画像における所定の位置情報を有する画素情報から、所定の順序に従って所定の数量の前記特徴点を順次設定する特徴点抽出装置に含まれるコンピュータを、
入力された前記画素情報から、特徴点の候補となる候補点を特定する候補点特定手段、
前記候補点の評価値を示すスコア値の入力を受け付けるスコア値入力手段、
前記候補点特定手段によって、新たに特定された候補点が、既に特定された特徴点から予め定められた領域内に存在するか否かを判定する領域判定手段、
前記領域判定手段によって、新たに特定された候補点が、既に特定された特徴点から予め定められた領域内に存在すると判定された場合に、前記新たに特定された候補点と、前記既に特定された特徴点が候補点として特定された際に入力されたスコア値の大きさを判定するスコア値判定手段、
前記スコア値判定手段によって、前記候補点のスコア値が大きいと判定された場合には、前記候補点を前記画像における新たな特徴点として設定する特徴点設定手段、
として機能させることを特徴とする特徴点抽出プログラム。
In order to track the feature points shown in the image and acquire the motion vector of the feature points, a predetermined quantity is obtained from the pixel information constituting the input image and having predetermined position information in the image according to a predetermined order. A computer included in the feature point extraction device that sequentially sets the feature points of
Candidate point specifying means for specifying candidate points as candidate feature points from the input pixel information;
Score value input means for receiving input of a score value indicating the evaluation value of the candidate point;
A region determination unit for determining whether or not a candidate point newly specified by the candidate point specifying unit exists in a predetermined region from the already specified feature point;
When the newly determined candidate point is determined to exist within a predetermined area from the already specified feature point by the area determining means, the newly specified candidate point and the already specified candidate point Score value determining means for determining the magnitude of the score value input when the feature point is identified as a candidate point;
A feature point setting unit that sets the candidate point as a new feature point in the image when the score value determining unit determines that the score value of the candidate point is large;
Feature point extraction program characterized by functioning as
JP2010222459A 2010-09-30 2010-09-30 Feature point extraction device, image processing device, feature point extraction method, feature point extraction program and the like Pending JP2012079004A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010222459A JP2012079004A (en) 2010-09-30 2010-09-30 Feature point extraction device, image processing device, feature point extraction method, feature point extraction program and the like

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010222459A JP2012079004A (en) 2010-09-30 2010-09-30 Feature point extraction device, image processing device, feature point extraction method, feature point extraction program and the like

Publications (1)

Publication Number Publication Date
JP2012079004A true JP2012079004A (en) 2012-04-19

Family

ID=46239198

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010222459A Pending JP2012079004A (en) 2010-09-30 2010-09-30 Feature point extraction device, image processing device, feature point extraction method, feature point extraction program and the like

Country Status (1)

Country Link
JP (1) JP2012079004A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017130089A (en) * 2016-01-21 2017-07-27 日本電気株式会社 Local feature amount extraction device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007334625A (en) * 2006-06-15 2007-12-27 Sony Corp Image processing method, program of image processing method, recording medium for recording program of image processing method, and image processing apparatus

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007334625A (en) * 2006-06-15 2007-12-27 Sony Corp Image processing method, program of image processing method, recording medium for recording program of image processing method, and image processing apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017130089A (en) * 2016-01-21 2017-07-27 日本電気株式会社 Local feature amount extraction device

Similar Documents

Publication Publication Date Title
TWI419081B (en) Method and system for providing augmented reality based on marker tracing, and computer program product thereof
JP5699788B2 (en) Screen area detection method and system
CN110246124B (en) Target size measuring method and system based on deep learning
JP6491517B2 (en) Image recognition AR device, posture estimation device, and posture tracking device
JP6293386B2 (en) Data processing apparatus, data processing method, and data processing program
US20170163949A1 (en) Apparatus using a projector, method, and storage medium
CN107014819A (en) A kind of solar panel surface defects detection system and method
JP2012145981A5 (en)
JPWO2018051459A1 (en) Object detection apparatus and object detection method
CN109934873B (en) Method, device and equipment for acquiring marked image
CN110598795A (en) Image difference detection method and device, storage medium and terminal
JP2010271921A (en) Skin area extraction method, skin area extraction device, and skin area extracting program
JP2012079004A (en) Feature point extraction device, image processing device, feature point extraction method, feature point extraction program and the like
CN106127826B (en) It is a kind of for projecting the connected component labeling method of interactive system
JP5441737B2 (en) Image processing apparatus, image processing method, and image processing program
JP6350331B2 (en) TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM
JPH07146937A (en) Pattern matching method
JP5891751B2 (en) Inter-image difference device and inter-image difference method
TWI450572B (en) Computing system and method for scanning a boundary of an image of an object
JP2022021209A (en) Inspection support device, inspection support method and inspection support program
JP5457976B2 (en) 3D shape acquisition apparatus and 3D shape acquisition program
JP2011175347A (en) Information processing apparatus and method
US10134163B2 (en) Dynamic detection of an object framework in a mobile device captured image
JP2004110543A (en) Face image processing unit and program
JP2020035334A (en) Image processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130725

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140408

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140902