JP6369131B2 - Object recognition apparatus and object recognition method - Google Patents

Object recognition apparatus and object recognition method Download PDF

Info

Publication number
JP6369131B2
JP6369131B2 JP2014109325A JP2014109325A JP6369131B2 JP 6369131 B2 JP6369131 B2 JP 6369131B2 JP 2014109325 A JP2014109325 A JP 2014109325A JP 2014109325 A JP2014109325 A JP 2014109325A JP 6369131 B2 JP6369131 B2 JP 6369131B2
Authority
JP
Japan
Prior art keywords
feature
points
dimensional image
point
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014109325A
Other languages
Japanese (ja)
Other versions
JP2015225453A (en
Inventor
雅臣 飯田
雅臣 飯田
岳 松山
岳 松山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Murata Machinery Ltd
Original Assignee
Murata Machinery Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Murata Machinery Ltd filed Critical Murata Machinery Ltd
Priority to JP2014109325A priority Critical patent/JP6369131B2/en
Publication of JP2015225453A publication Critical patent/JP2015225453A/en
Application granted granted Critical
Publication of JP6369131B2 publication Critical patent/JP6369131B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、物体の位置を認識するための物体認識装置及び物体認識方法であって、特に、無人搬送車がパレットやケース等の物体を搬送する際に、物体の載置位置を認識するための物体認識装置及び物体認識方法に関する。特に、人の顔などの不特定の画像ではなく、パレット等の既定の物体の特定画像を認識する物体認識装置に関する。   The present invention relates to an object recognition apparatus and an object recognition method for recognizing the position of an object, and particularly for recognizing a placement position of an object when an automatic guided vehicle transports an object such as a pallet or a case. The present invention relates to an object recognition apparatus and an object recognition method. In particular, the present invention relates to an object recognition apparatus that recognizes a specific image of a predetermined object such as a palette, not an unspecified image such as a human face.

物体を撮影した画像情報に基づいて、物体の認識を行う物体認識装置は、種々のものが提案されている。
例えば、特許文献1には、位置を変えて設けられた一対のカメラにより撮影された2つの画像データに基づいて、距離情報を備える三次元画像を生成し、これに基づいて物体認識を行う装置が開示されている。
Various object recognition apparatuses that recognize an object based on image information obtained by photographing the object have been proposed.
For example, Patent Document 1 discloses a device that generates a three-dimensional image including distance information based on two image data captured by a pair of cameras provided at different positions, and performs object recognition based on the three-dimensional image. Is disclosed.

また、特許文献2には、TOF(Time Of Flight)カメラにより得られる距離画像(三次元画像)を用いて、特徴点をヒストグラム化して特徴量を算出し、参照パターンとの比較により物体の認識を行う装置が開示されている。
さらに、特許文献3には、物体の二次元画像と距離画像とから物体の三次元座標を算出して、参照パターンとなる三次元モデルのデータを当てはめて、物体の認識を行う装置が開示されている。
Further, Patent Document 2 uses a distance image (three-dimensional image) obtained by a TOF (Time Of Flight) camera to calculate a feature amount by making a histogram of feature points, and recognizes an object by comparison with a reference pattern. An apparatus for performing is disclosed.
Further, Patent Document 3 discloses an apparatus for recognizing an object by calculating the three-dimensional coordinates of the object from the two-dimensional image of the object and the distance image, and applying the data of the three-dimensional model as a reference pattern. ing.

特開平09−218014号公報JP 09-218041 A 国際公開第2010/140613号パンフレットInternational Publication No. 2010/140613 Pamphlet 特開2012−123781号公報JP 2012-123781 A

二次元画像から物体の認識を行う場合には、各画素の輝度値パターンに基づいて物体の認識を行える。この場合、認識対象となる物体の形状が単純パターンであれば、誤認識を生じやすく、照明条件によっても誤認識が生じる。さらに、二次元画像上におけるパターンが、実際のどのような大きさであるかを判別することが困難である。特に、カメラの撮影方向が斜めである場合には、二次元画像上のパターンを正確に認識することが困難である。   When the object is recognized from the two-dimensional image, the object can be recognized based on the luminance value pattern of each pixel. In this case, if the shape of the object to be recognized is a simple pattern, erroneous recognition is likely to occur, and erroneous recognition also occurs depending on illumination conditions. Furthermore, it is difficult to determine the actual size of the pattern on the two-dimensional image. In particular, when the shooting direction of the camera is oblique, it is difficult to accurately recognize the pattern on the two-dimensional image.

このため、特許文献1〜3の物体認識装置では、物体を撮影した三次元画像から、物体の特徴点を抽出して、物体の認識を行っている。しかし、パターンマッチングを行うための特徴点の候補を多数抽出する必要があり、演算負荷が大きくなる。また、背景に含まれる特徴点や、対象となる物体と類似する特徴点を有する物体が画像情報に含まれる場合には、誤認識するおそれがある。また、画像全体に比して物体が小さい場合にも、誤認識を生じるおそれがある。
特許文献3に記載されているように、二次元画像において抽出した物体の画像特徴に、三次元画像により三次元座標を算出して、三次元モデルデータとの照合を行った場合には、多数の特徴点を抽出する際の演算負荷が大きくなる。このような演算負荷を低減するためには、パターンマッチングを行うための特徴点の候補を少なくすることが考えられるが、その場合、パターンマッチングの精度が低下するという問題がある。
For this reason, in the object recognition apparatus of patent documents 1-3, the feature point of an object is extracted from the three-dimensional image which image | photographed the object, and the object is recognized. However, it is necessary to extract a large number of feature point candidates for pattern matching, which increases the calculation load. In addition, when the image information includes a feature point included in the background or an object having a feature point similar to the target object, there is a risk of erroneous recognition. In addition, erroneous recognition may occur even when the object is smaller than the entire image.
As described in Patent Document 3, when image features of an object extracted from a two-dimensional image are calculated using a three-dimensional image and collated with three-dimensional model data, there are many The calculation load when extracting the feature points becomes large. In order to reduce such a calculation load, it is conceivable to reduce the number of feature point candidates for performing pattern matching. However, in this case, there is a problem that the accuracy of pattern matching is lowered.

本発明の課題は、物体認識装置において、物体認識の精度を低下させることなく、演算負荷を低減することにある。   An object of the present invention is to reduce a calculation load in an object recognition apparatus without reducing the accuracy of object recognition.

以下に、課題を解決するための手段として複数の態様を説明する。これら態様は、必要に応じて任意に組み合せることができる。
本発明の一見地による物体認識装置は、モデル保存部と、三次元画像入力部と、画像特徴点検出部と、特徴量算出部と、パターンマッチング部とを備える。モデル保存部は、認識対象である物体表面の点の集合及び各点を結んで構成される線分の集合によって定義される物体の幾何的特徴を表すモデルのデータを保存する。三次元画像入力部は、物体が含まれる三次元画像を入力する。画像特徴点検出部は、三次元画像における特徴点を検出する。特徴量算出部は、三次元画像上の各点における特徴量を算出する。パターンマッチング部は、画像特徴点検出部で検出された特徴点と、特徴点に対して特定の幾何的条件を満たす補間点とにおける特徴量に基づいて、モデルのデータとの類似度を比較することで物体の認識を行う。
物体の形状によっては、モデル上の特徴点ではない点に、物体の特徴を表す点としての属性を与えることができる。このような点を、特徴点と特定の幾何的条件を満たす補間点とすることで、パターンマッチングを行う際の特徴点のダウンサンプリングが可能となり、その結果、背景に存在する他の特徴点と識別して、物体の認識を確実に行うことができる。また、これにより、パターンマッチング処理の演算負荷を軽減できる。
Hereinafter, a plurality of modes will be described as means for solving the problems. These aspects can be arbitrarily combined as necessary.
An object recognition apparatus according to an aspect of the present invention includes a model storage unit, a three-dimensional image input unit, an image feature point detection unit, a feature amount calculation unit, and a pattern matching unit. The model storage unit stores model data representing a geometric feature of an object defined by a set of points on the object surface to be recognized and a set of line segments formed by connecting the points. The three-dimensional image input unit inputs a three-dimensional image including an object. The image feature point detection unit detects feature points in the three-dimensional image. The feature amount calculation unit calculates a feature amount at each point on the three-dimensional image. The pattern matching unit compares the similarity between the feature points detected by the image feature point detection unit and the model data based on the feature amounts between the feature points and the interpolation points satisfying a specific geometric condition. The object is recognized.
Depending on the shape of the object, an attribute as a point representing the feature of the object can be given to a point that is not a feature point on the model. By making such a point an interpolation point that satisfies a specific geometric condition with the feature point, it is possible to downsample the feature point when performing pattern matching, and as a result, other feature points existing in the background It is possible to identify and reliably recognize the object. Thereby, the calculation load of the pattern matching process can be reduced.

パターンマッチング部は、画像特徴点検出部で検出された特徴点から、所定の幾何的条件を満たす所定数の特徴点をマッチング候補点として抽出してもよい。
物体の特徴を表す特徴点の幾何的条件を設定することにより、三次元画像から検出した特徴点から、マッチングを行うためのマッチング候補点をダウンサンプリングすることが容易であり、この結果、演算負荷を低減できる。
The pattern matching unit may extract a predetermined number of feature points satisfying a predetermined geometric condition as matching candidate points from the feature points detected by the image feature point detection unit.
By setting the geometric conditions of the feature points representing the features of the object, it is easy to downsample the matching candidate points for matching from the feature points detected from the three-dimensional image. Can be reduced.

補間点は、1対又は複数対の特徴点の中間点であってもよい。
物体のエッジが断続するような部分では、検出される特徴点の間に、物体上の特徴点ではない点が存在することになる。このような点は、画像上に存在する物体を認識する際に、有効な情報となり得る。このため、特徴点の中間点を補間点としてマッチング候補点とすることで、マッチング精度を向上できる。
The interpolation point may be an intermediate point between one or more pairs of feature points.
In the part where the edge of the object is intermittent, there is a point that is not a feature point on the object between the detected feature points. Such a point can be effective information when recognizing an object present on the image. For this reason, matching accuracy can be improved by using an intermediate point of the feature points as an interpolation point as a matching candidate point.

パターンマッチング部は、特徴量算出部が作成するマッチング候補点のヒストグラムに基づいて、物体の認識を行ってもよい。
特徴量の算出には、公知の技術を用いることが可能であり、例えば、法線方向ヒストグラム、距離ヒストグラム、輝度レベルのヒストグラムなどを用いることが可能であり、より具体的には、FPFH(Fast Point Feature Histograms)を用いることができる。
物体は、3個の特徴点を有するパレットであってもよい。その場合、所定の幾何的条件を満たす所定数の特徴点とは、3個の特徴点のなす角度が所定範囲内である3個の特徴点である。
The pattern matching unit may recognize an object based on a histogram of matching candidate points created by the feature amount calculation unit.
For calculating the feature amount, a known technique can be used. For example, a normal direction histogram, a distance histogram, a luminance level histogram, and the like can be used. More specifically, FPFH (Fast Point Feature Histograms) can be used.
The object may be a pallet having three feature points. In this case, the predetermined number of feature points satisfying a predetermined geometric condition are three feature points whose angles formed by the three feature points are within a predetermined range.

三次元画像入力部は、TOF(Time Of Flight)カメラ、又はステレオカメラを有していてもよい。
この場合、TOFカメラ、又はステレオカメラを用いて撮影される物体の距離画像を三次元画像として入力できる。TOFカメラ及びステレオカメラにより撮影された距離画像を用いて特徴点を検出する技術については、公知のものを用いることができる。
The three-dimensional image input unit may include a TOF (Time Of Flight) camera or a stereo camera.
In this case, a distance image of an object photographed using a TOF camera or a stereo camera can be input as a three-dimensional image. As a technique for detecting a feature point using a distance image photographed by a TOF camera and a stereo camera, a known technique can be used.

画像特徴点検出部は、Harris処理、又はSIFT(Scale Invariant Feature Transform)処理することにより、特徴点を検出してもよい。また、ISS(Intrinsic Shape Signatures)でもよい。
特徴点の検出方法は、画像の各画素について、色や輝度変化が大きくなる点を検出できればよく、Harris作用素、又はSIFT作用素を用いる方法の他に、公知の技術を用いることができる。
The image feature point detection unit may detect feature points by performing Harris processing or SIFT (Scale Invariant Feature Transform) processing. Also, ISS (Intrinsic Shape Signatures) may be used.
The feature point detection method only needs to be able to detect a point at which a color or luminance change increases for each pixel of the image, and a known technique can be used in addition to the method using the Harris operator or SIFT operator.

物体認識装置は、三次元画像とほぼ同一視点で撮影された物体を含む二次元画像を入力する二次元画像入力部と、二次元画像における物体の画像特徴を検出する二次元画像処理部とをさらに備えていてもよい。
画像特徴点検出部が特徴点の検出を行うのは、三次元画像において、二次元画像処理部において検出された物体の画像特徴に対応する領域のみであってもよい。
この場合、二次元画像により特定された物体の画像特徴に対応する領域において、特徴点を検出していることから、通常の三次元画像からの特徴点の抽出に比して、演算負荷を軽減でき、高速化が可能になる。
特徴量算出部は、三次元画像において前記領域にある特徴点における特徴量を算出し、パターンマッチング部は、三次元画像において前記領域にある前記特徴点の前記特徴量を用いてもよい。
The object recognition device includes a two-dimensional image input unit that inputs a two-dimensional image including an object photographed from substantially the same viewpoint as the three-dimensional image, and a two-dimensional image processing unit that detects an image feature of the object in the two-dimensional image. Furthermore, you may provide.
The image feature point detection unit may detect the feature point only in a region corresponding to the image feature of the object detected by the two-dimensional image processing unit in the three-dimensional image.
In this case, since the feature points are detected in the region corresponding to the image features of the object specified by the two-dimensional image, the calculation load is reduced compared to the extraction of the feature points from the normal three-dimensional image. Can be speeded up.
The feature amount calculation unit may calculate a feature amount at a feature point in the region in the three-dimensional image, and the pattern matching unit may use the feature amount of the feature point in the region in the three-dimensional image.

本発明の他の見地に係る物体認識方法は、以下のステップを備えている。
◎認識対象である物体表面の点の集合及び各点を結んで構成される線分の集合によって定義される物体の幾何的特徴を表すモデルのデータを保存するステップ
◎物体が含まれる三次元画像を入力するステップ
◎三次元画像における特徴点を検出するステップ
◎特徴点と、特徴点に対して特定の幾何的条件を満たす補間点とにおける特徴量を算出するステップ
◎特徴量に基づいて、モデルのデータとの類似度を比較して物体の認識を行うステップ
この場合、CPU、ROM、RAMを備えるマイクロプロセッサにより、各ステップを備えるプログラムを実行することにより、サンプリング数の少ない特徴点から物体の認識を行うことができ、その結果、演算負荷を軽減できる。
An object recognition method according to another aspect of the present invention includes the following steps.
◎ Step of saving model data representing geometric features of an object defined by a set of points on the object surface to be recognized and a set of line segments connecting the points ◎ 3D image containing the object ◎ Step of detecting feature point in 3D image ◎ Step of calculating feature amount between feature point and interpolation point satisfying specific geometric condition for feature point ◎ Model based on feature amount In this case, by executing a program including each step by a microprocessor including a CPU, a ROM, and a RAM, the object is detected from a feature point with a small number of samplings. Recognition can be performed, and as a result, the calculation load can be reduced.

本発明によれば、物体認識の精度を低下させることなく、演算負荷を低減することが可能な物体認識装置を提供できる。   ADVANTAGE OF THE INVENTION According to this invention, the object recognition apparatus which can reduce a calculation load can be provided, without reducing the accuracy of object recognition.

物体認識装置を搭載する無人フォークリフトの説明図。Explanatory drawing of the unmanned forklift which mounts an object recognition apparatus. 物体認識装置の概略構成を示すブロック図。The block diagram which shows schematic structure of an object recognition apparatus. 物体認識処理の概略構成を示すフローチャート。The flowchart which shows schematic structure of an object recognition process. 三次元画像入力部の一例を示すブロック図。The block diagram which shows an example of a three-dimensional image input part. スケールσとDoGフィルタ出力値の一例を示す特性図。The characteristic figure which shows an example of scale (sigma) and DoG filter output value. SIFT特徴量を用いて検出した特徴点の説明図。Explanatory drawing of the feature point detected using the SIFT feature-value. Harris特徴点の検出方法に関する説明図。Explanatory drawing regarding the detection method of a Harris feature point. Harris作用素を用いて検出した特徴点の説明図。Explanatory drawing of the feature point detected using the Harris operator. 画像特徴量検出処理〜パターンマッチング処理のフローチャート。The flowchart of an image feature-value detection process-pattern matching process. 特徴点間の幾何的条件を示す説明図。Explanatory drawing which shows the geometric conditions between feature points. 幾何的条件を適用して抽出したマッチング候補点の説明図。Explanatory drawing of the matching candidate point extracted by applying geometric conditions. 特徴点と補間点との関係を示す説明図。Explanatory drawing which shows the relationship between a feature point and an interpolation point. FPFHによる特徴量算出方法の説明図。Explanatory drawing of the feature-value calculation method by FPFH. FPFHによる特徴量算出方法の説明図。Explanatory drawing of the feature-value calculation method by FPFH. FPFH特徴量を示すグラフ。The graph which shows FPFH feature-value. マッチング候補点のFPFH特徴量の説明図。Explanatory drawing of the FPFH feature-value of a matching candidate point.

(1)概略構成
図1は、物体認識装置を搭載する無人フォークリフトの説明図である。
無人フォークリフト2は、内部に設置された制御部(図示せず)の制御に基づいて自律走行可能な本体部21を備えている。
本体部21の前面には、上下移動可能に配置された1対のフォーク23,24を備えており、パレット3をリフトアップして搬送可能となっている。
さらに、本体部21は、物体認識装置22を備えている。物体認識装置22は、少なくとも本体部21の前方の画像情報を取得できるカメラ(詳細は後述する)を備えている。物体認識装置22は、カメラにより撮影された画像情報に基づく三次元画像から、認識対象であるパレット3を認識する。物体認識装置22のカメラをフォーク23,23の先端部に設けても良い。
(1) Schematic Configuration FIG. 1 is an explanatory diagram of an unmanned forklift equipped with an object recognition device.
The unmanned forklift 2 includes a main body 21 that can autonomously travel based on the control of a control unit (not shown) installed therein.
The front surface of the main body 21 is provided with a pair of forks 23 and 24 arranged to be movable up and down, and the pallet 3 can be lifted up and conveyed.
Furthermore, the main body 21 includes an object recognition device 22. The object recognition device 22 includes a camera (details will be described later) that can acquire at least image information in front of the main body 21. The object recognition device 22 recognizes the palette 3 that is a recognition target from a three-dimensional image based on image information captured by the camera. You may provide the camera of the object recognition apparatus 22 in the front-end | tip part of the forks 23 and 23. FIG.

パレット3は、例えば、図示したように、フォーク23,24が挿入可能な差し込み口31,32が設けられている。パレット3の差し込み口31,32が形成される面には、差し込み口31,32を挟む垂直面33,34,35が形成されている。
物体認識装置22は、無人フォークリフト2に対向する面に形成された垂直面33〜35の特徴点を検出することによって、パレット3をその位置、形状及び大きさを含め認識・識別できる。
The pallet 3 is provided with insertion ports 31 and 32 into which the forks 23 and 24 can be inserted, for example, as illustrated. On the surface of the pallet 3 where the insertion ports 31 and 32 are formed, vertical surfaces 33, 34 and 35 sandwiching the insertion ports 31 and 32 are formed.
The object recognition device 22 can recognize and identify the pallet 3 including its position, shape and size by detecting feature points of the vertical surfaces 33 to 35 formed on the surface facing the unmanned forklift 2.

無人フォークリフト2は、例えば、倉庫内において物品が載置されるパレット3を搬送する。無人フォークリフト2の制御部は、倉庫内の環境上における自己の現在位置を把握し、搬送対象であるパレット3の近傍を目的位置として、走行経路を決定して走行制御する。物体認識装置22は、目的位置において、カメラにより撮影された画像方向に基づいて、パレット3の位置、形状及び大きさを認識・識別する。無人フォークリフト2の制御部は、フォーク23,24をパレット3の差し込み口31,32に差し込んでパレット3を持ち上げ、次の目的位置に移動する。
パレット3の上面には、物品が載置されている場合と物品が載置されていない場合があり、物体認識装置22は、そのいずれの場合にもパレット3を認識できるようにする。
The unmanned forklift 2 transports, for example, a pallet 3 on which articles are placed in a warehouse. The control unit of the unmanned forklift 2 grasps its own current position in the environment in the warehouse, determines the travel route with the vicinity of the pallet 3 to be transported as the target position, and performs travel control. The object recognition device 22 recognizes and identifies the position, shape, and size of the pallet 3 based on the image direction taken by the camera at the target position. The control unit of the unmanned forklift 2 inserts the forks 23 and 24 into the insertion ports 31 and 32 of the pallet 3 to lift the pallet 3 and move it to the next target position.
There are cases where an article is placed on the upper surface of the pallet 3 and cases where no article is placed, and the object recognition device 22 makes it possible to recognize the pallet 3 in either case.

図2は、物体認識装置の概略構成を示すブロック図である。
物体認識装置22は、三次元画像入力部41と、画像特徴点検出部42と、特徴量算出部43と、パターンマッチング部44と、モデル保存部45とを備える。
三次元画像入力部41は、物体の三次元画像を入力する。例えば、三次元画像入力部41は、位置が異なる2つのカメラを有するステレオカメラを含んでいてもよく、その場合は、2つの二次元画像の視差により、二次元画像上の特徴点に距離データ処理がなされた距離画像を三次元画像として入力する。この他にも、TOFカメラ、又は距離センサで得られる距離データに基づいて生成される距離画像が、三次元画像として入力できる。
FIG. 2 is a block diagram illustrating a schematic configuration of the object recognition apparatus.
The object recognition device 22 includes a three-dimensional image input unit 41, an image feature point detection unit 42, a feature amount calculation unit 43, a pattern matching unit 44, and a model storage unit 45.
The three-dimensional image input unit 41 inputs a three-dimensional image of an object. For example, the three-dimensional image input unit 41 may include a stereo camera having two cameras at different positions. In this case, distance data is displayed on feature points on the two-dimensional image due to the parallax between the two two-dimensional images. The processed distance image is input as a three-dimensional image. In addition, a distance image generated based on distance data obtained by a TOF camera or a distance sensor can be input as a three-dimensional image.

画像特徴点検出部42は、三次元画像に対して特徴点を検出する。具体的には、画像特徴点検出部42は、三次元画像の各画素について、色や濃淡変化が激しい点を検出することで、特徴点を検出できる。このことから、画像特徴点検出部42は、例えば、Harrris作用素を用いた方法により、特徴点を検出できる。画像特徴点検出部42は、この他に、SIFT作用素を用いた方法により特徴点を検出でき、その他、公知の技術を用いて特徴点の検出を行える。   The image feature point detector 42 detects feature points for the three-dimensional image. Specifically, the image feature point detection unit 42 can detect a feature point by detecting a point where the color or shading changes drastically for each pixel of the three-dimensional image. From this, the image feature point detection unit 42 can detect the feature points by, for example, a method using a Harris operator. In addition to this, the image feature point detection unit 42 can detect a feature point by a method using a SIFT operator, and can detect a feature point using a known technique.

特徴量算出部43は、三次元画像上の各点における特徴量を算出する。特に、特徴量算出部43は、パターンマッチングを行う際のマッチング候補点について、特徴量を算出する。特徴量は、各点における法線方向ベクトルが、周辺特徴点の法線ベクトルとなす角度に基づいて生成される法線方向ヒストグラムにより算出できる。具体的には、FPFH(Fast Point Feature Histgrams)を用いることができる。また、入力される画像情報が三次元画像であることから、特徴量算出部43は、距離データに基づく各点における距離ヒストグラムを作成できる。この他にも、各画素の輝度に基づいて輝度ヒストグラムを作成して、各点の特徴量を算出することが可能である。   The feature amount calculation unit 43 calculates the feature amount at each point on the three-dimensional image. In particular, the feature amount calculation unit 43 calculates feature amounts for matching candidate points when pattern matching is performed. The feature amount can be calculated by a normal direction histogram generated based on an angle formed by a normal direction vector at each point and a normal vector of a peripheral feature point. Specifically, FPFH (Fast Point Feature Histograms) can be used. Further, since the input image information is a three-dimensional image, the feature amount calculation unit 43 can create a distance histogram at each point based on the distance data. In addition to this, it is possible to create a luminance histogram based on the luminance of each pixel and calculate the feature amount of each point.

パターンマッチング部44は、画像特徴点検出部42で検出された特徴点に基づいて、三次元画像上のマッチング候補点を抽出し、抽出されたマッチング候補点の特徴量と、モデルのデータとの類似度を比較することにより、物体の認識を行う。
例えば、パターンマッチング部44は、画像特徴点検出部42により検出された特徴点のうちから、特定の幾何的関係にある1又は複数の特徴点対を抽出する。例えば、パレット3の垂直面33〜35が、床面と接するエッジに複数の特徴点がある場合、各垂直面33〜35上に位置する特徴点は、ほぼ直線上にあると考えられる。したがって、3点の特徴点の中央に位置する特徴点と他の2つの特徴点を結ぶ線分がほぼ180度の角度となる。また、パレット3が規格に合致するものであれば、3点の特徴点の距離は所定範囲となる。
したがって、パターンマッチング部44は、所定範囲の距離だけ離間し、各点を結ぶ線分がなす角度が所定範囲であれば、この3点の特徴点をマッチング候補点とする。さらに、パターンマッチング部44は、中央に位置する特徴点と、他の2つの特徴点との間の中間点を、それぞれパターンマッチングの候補点とする。パターンマッチング部44は、このようにして、パターンマッチングを行うためのマッチング候補点を選択することによって、特徴点のダウンサンプリングを行う。
The pattern matching unit 44 extracts matching candidate points on the three-dimensional image based on the feature points detected by the image feature point detection unit 42, and calculates the feature amount of the extracted matching candidate points and the model data. The object is recognized by comparing the similarities.
For example, the pattern matching unit 44 extracts one or a plurality of feature point pairs having a specific geometric relationship from the feature points detected by the image feature point detection unit 42. For example, when the vertical surfaces 33 to 35 of the pallet 3 have a plurality of feature points at the edges in contact with the floor surface, the feature points located on the vertical surfaces 33 to 35 are considered to be substantially on a straight line. Therefore, a line segment connecting the feature point located at the center of the three feature points and the other two feature points forms an angle of approximately 180 degrees. If the pallet 3 conforms to the standard, the distance between the three feature points falls within a predetermined range.
Therefore, the pattern matching unit 44 sets the feature points of these three points as matching candidate points if they are separated by a distance within a predetermined range and the angle formed by the line segments connecting the points is within the predetermined range. Furthermore, the pattern matching unit 44 sets a middle point between the feature point located at the center and the other two feature points as a pattern matching candidate point. In this way, the pattern matching unit 44 down-samples the feature points by selecting the matching candidate points for performing pattern matching.

次に、パターンマッチング部44は、マッチング候補点について、それぞれ特徴量算出部43で算出される特徴量を、モデル保存部45に保存されたモデルのデータと比較する。このようにして、物体の認識が行われる。
モデル保存部45は、物体の幾何的特徴を表す二次元モデルのデータを保存する。二次元モデルのデータは、三次元画像に撮影された物体を認識する際に、物体の位置や姿勢を算出する際に用いられるものであり、例えば、点の集合及び各点を結んで構成される線分の集合によって定義される。具体的には、基本のモデルのデータは、1)特徴点3点の隣り合う点間の距離範囲、2)3点の両端の点間の距離範囲、3)3点の特徴点の間をなす角度範囲、4)各特徴点・補間点のFPFHヒストグラムの次元(角度)ごとの平均及び分散である。
また、二次元モデルのデータは、物体の三次元画像から得られる特徴点と、その特徴点の中間点における特徴量とすることもできる。この場合、特徴点を検出する方法は画像特徴点検出部42と同一の方法とし、各点の特徴量を算出する方法は、特徴量算出部43と同一の方法とする。
モデル保存部45は、EEPROM、RAM、ハードディスク、その他の記憶装置の所定の領域で構成される。
Next, the pattern matching unit 44 compares the feature amount calculated by the feature amount calculation unit 43 with the model data stored in the model storage unit 45 for each of the matching candidate points. In this way, object recognition is performed.
The model storage unit 45 stores two-dimensional model data representing the geometric characteristics of the object. The data of the two-dimensional model is used when calculating the position and orientation of an object when recognizing an object photographed in a three-dimensional image, and is composed of, for example, a set of points and points. Defined by a set of line segments. Specifically, the basic model data includes 1) a distance range between adjacent points of 3 feature points, 2) a distance range between points at both ends of 3 points, and 3) a distance between 3 feature points. Angle range to be formed 4) Average and variance for each dimension (angle) of the FPFH histogram of each feature point / interpolation point.
In addition, the data of the two-dimensional model can be a feature point obtained from a three-dimensional image of an object and a feature amount at an intermediate point between the feature points. In this case, the feature point detection method is the same method as the image feature point detection unit 42, and the feature amount calculation method of each point is the same method as the feature amount calculation unit 43.
The model storage unit 45 includes a predetermined area of an EEPROM, RAM, hard disk, or other storage device.

(2)処理の概略構成
図3は、物体認識処理の概略構成を示すフローチャートである。
物体認識装置22は、CPU、ROM、RAMなどを含むマイクロプロセッサで構成される制御部が、所定のプログラムを実行することにより、画像情報から物体認識を行う。
ステップS301において、制御部は、二次元モデルのデータを保存する。制御部は、認識対象である物体表面の点の集合及び各点を結んで構成される線分の集合によって定義される二次元モデルのデータを、モデル保存部45に保存する。
(2) Schematic Configuration of Processing FIG. 3 is a flowchart showing a schematic configuration of object recognition processing.
The object recognition apparatus 22 performs object recognition from image information by a control unit configured by a microprocessor including a CPU, a ROM, a RAM, and the like executing a predetermined program.
In step S301, the control unit stores data of the two-dimensional model. The control unit stores, in the model storage unit 45, data of a two-dimensional model defined by a set of points on the object surface to be recognized and a set of line segments formed by connecting the points.

ステップS302において、三次元画像入力部41は、物体の三次元画像を入力する。前述したように、三次元画像入力部41は、ステレオカメラ51が撮影した距離情報を含む三次元画像を入力できる。   In step S302, the three-dimensional image input unit 41 inputs a three-dimensional image of an object. As described above, the three-dimensional image input unit 41 can input a three-dimensional image including distance information captured by the stereo camera 51.

ステップS303において、画像特徴点検出部42は、三次元画像に対して特徴点を検出する。具体的には、画像特徴点検出部42は、Harrris作用素を用いて、三次元画像上の特徴点を検出する。前述したように、特徴点の検出は、三次元画像の各画素について、色や濃淡が変化する点を特徴点として検出できればよく、SIFT作用素による特徴点検出、その他、公知の技術を用いた検出が可能である。
また、パターンマッチング部44が、所定の幾何的条件を満たす所定数の特徴点をマッチング候補点として抽出し、さらに抽出された特徴点に対して特定の幾何的条件を満たす補間点を決定する。
In step S303, the image feature point detector 42 detects feature points in the three-dimensional image. Specifically, the image feature point detection unit 42 detects feature points on a three-dimensional image using a Harris operator. As described above, the feature points need only be detected at each pixel of the three-dimensional image as a feature point at which the color or shading changes, and can be detected using a SIFT operator or other known techniques. Is possible.
The pattern matching unit 44 extracts a predetermined number of feature points that satisfy a predetermined geometric condition as matching candidate points, and further determines an interpolation point that satisfies a specific geometric condition for the extracted feature points.

ステップS304において、特徴量算出部43は、検出された特徴点と、補間点とにおける特徴量を算出する。
特徴量算出部43は、マッチング候補点に関して、FPFHにより法線方向ヒストグラムを作成し、各点における特徴量を算出する。
In step S304, the feature amount calculation unit 43 calculates feature amounts at the detected feature points and interpolation points.
The feature amount calculation unit 43 creates a normal direction histogram by FPFH for the matching candidate points, and calculates the feature amount at each point.

ステップS305において、パターンマッチング部44は、特徴点及び補間点により構成されるマッチング候補点のグループと、二次元モデルのデータとの類似度を求めることにより、パターンマッチングを行う。パターンマッチング部44は、幾何的条件を満たす特徴点を抽出し、抽出された特徴点に関連する補間点をマッチング候補点として、二次元モデルのデータと比較する。したがって、パターンマッチングにおける演算負荷を軽減でき、演算速度を向上できる。   In step S <b> 305, the pattern matching unit 44 performs pattern matching by obtaining a similarity between a group of matching candidate points configured by feature points and interpolation points and data of the two-dimensional model. The pattern matching unit 44 extracts feature points that satisfy the geometric condition and compares the extracted interpolation points related to the extracted feature points with the data of the two-dimensional model as matching candidate points. Therefore, the calculation load in pattern matching can be reduced and the calculation speed can be improved.

(3)三次元画像入力
三次元画像入力部41の具体例について、その一例を以下に説明する。
図4は、三次元画像入力部の一例を示すブロック図である。
図4に示す三次元画像入力部41は、ステレオカメラ51からの画像情報に基づいて、距離情報を有する三次元画像を生成する。
(3) Three-dimensional image input A specific example of the three-dimensional image input unit 41 will be described below.
FIG. 4 is a block diagram illustrating an example of a three-dimensional image input unit.
The three-dimensional image input unit 41 illustrated in FIG. 4 generates a three-dimensional image having distance information based on the image information from the stereo camera 51.

ステレオカメラ51は、二次元画像を撮影する2つのカメラが異なる位置に配置される。ステレオカメラ51は、例えば、無人フォークリフト2の前面に取り付けられ、少なくとも、フォーク23,24の前方位置の2次元画像を撮影する。
無人フォークリフト2に対する2つのカメラの位置及び向きに関するパラメータは、予め設定されており、物体認識装置1の所定の記憶領域に記憶されている。
In the stereo camera 51, two cameras that take a two-dimensional image are arranged at different positions. The stereo camera 51 is attached to the front surface of the unmanned forklift 2, for example, and takes at least a two-dimensional image of the front positions of the forks 23 and 24.
Parameters relating to the position and orientation of the two cameras with respect to the unmanned forklift 2 are set in advance and stored in a predetermined storage area of the object recognition apparatus 1.

フレームメモリ52は、ステレオカメラ51により撮影された2つの二次元画像情報を記憶する。フレームメモリ52に記憶される二次元画像情報は、画像バス53を介して、二次元特徴点抽出部54に提供される。
二次元特徴点抽出部54は、2つの二次元画像情報のそれぞれについて、輝度情報に基づく二次元特徴点を検出する。また、パレット3の垂直面33〜35に、所定のパターンが形成されている場合には、この所定のパターンに沿って二次元特徴点を検出することもできる。この場合、二次元特徴点抽出部54は、2つの二次元画像情報を同一方向に追跡して、所定のパターンの外周の曲がり点を検出して、これを二次元特徴点とすることができる。
The frame memory 52 stores two two-dimensional image information photographed by the stereo camera 51. The two-dimensional image information stored in the frame memory 52 is provided to the two-dimensional feature point extraction unit 54 via the image bus 53.
The two-dimensional feature point extraction unit 54 detects a two-dimensional feature point based on luminance information for each of the two two-dimensional image information. When a predetermined pattern is formed on the vertical surfaces 33 to 35 of the pallet 3, two-dimensional feature points can be detected along the predetermined pattern. In this case, the two-dimensional feature point extraction unit 54 can track two pieces of two-dimensional image information in the same direction, detect a turning point on the outer periphery of a predetermined pattern, and use this as a two-dimensional feature point. .

対応付け処理部55は、二次元特徴点抽出部54により抽出された二次元特徴点の対応関係の候補を発生させる。対応付け処理部55は、各対応関係の候補に対して、変換行列を発生させ、この変換誤差を求めて、変換誤差が最小となる対応関係の候補を抽出する。   The association processing unit 55 generates a candidate for the correspondence relationship between the two-dimensional feature points extracted by the two-dimensional feature point extracting unit 54. The association processing unit 55 generates a transformation matrix for each correspondence relationship candidate, obtains the conversion error, and extracts a correspondence relationship candidate that minimizes the conversion error.

座標算出部56は、対応付け処理部55により抽出された対応関係の候補の各特徴点の座標を算出する。例えば、ステレオカメラ51による2つの二次元画像情報は、位置の異なるカメラにより同一点を撮影したものであることから、特徴点までの距離情報を得ることが可能である。座標算出部56は、対応付け処理部55により対応付けられた2つの二次元画像情報の特徴点に基づいて、各特徴点の3次元座標を発生させて、距離情報を備える三次元画像情報を生成する。   The coordinate calculation unit 56 calculates the coordinates of each feature point of the correspondence candidate extracted by the association processing unit 55. For example, since the two two-dimensional image information obtained by the stereo camera 51 is obtained by photographing the same point with cameras having different positions, it is possible to obtain distance information to the feature point. The coordinate calculation unit 56 generates three-dimensional coordinates of each feature point based on the feature points of the two two-dimensional image information associated by the association processing unit 55, and obtains the three-dimensional image information including the distance information. Generate.

三次元画像は、TOF(Time Of Flight)カメラにより撮影された画像情報を用いることができる。TOFカメラは、カメラの周囲に設けられたLEDにより赤外光を照射し、対象物から反射した反射光が、カメラで観測されるまでの時間を計測することで、対象物まで距離を測定する。TOFカメラでは、画像を構成する各画素の距離を測定でき、各画素のカメラからの距離に応じて異なる輝度で表示される距離画像を生成する。
前述したステレオカメラ51を用いた場合には、2つの二次元画像の対応付け処理を行う必要があったが、TOFカメラにより撮影された画像情報を用いることで、処理コストを削減し、処理時間を削減してリアルタイム処理が可能となる。
Image information captured by a TOF (Time Of Flight) camera can be used as the three-dimensional image. A TOF camera measures the distance to an object by irradiating infrared light with LEDs provided around the camera and measuring the time until reflected light reflected from the object is observed by the camera. . The TOF camera can measure the distance of each pixel constituting the image, and generates a distance image displayed with different luminances according to the distance of each pixel from the camera.
When the above-described stereo camera 51 is used, it is necessary to perform processing for associating two two-dimensional images. However, by using image information captured by the TOF camera, the processing cost is reduced and the processing time is reduced. Real-time processing is possible by reducing

(4)画像特徴点検出
画像特徴点検出部42において、入力される3次元画像情報から特徴点を検出する方法は、公知の方法を用いることができる。
例えば、SIFT作用素を用いた特徴点の検出方法では、拡大又は縮小を行った際に、形状が急激に変化するスケールの極値を利用する。
(4) Image Feature Point Detection A known method can be used as a method for detecting a feature point from input three-dimensional image information in the image feature point detection unit 42.
For example, in a feature point detection method using a SIFT operator, an extreme value of a scale whose shape changes rapidly when enlargement or reduction is performed is used.

SIFT作用素を用いた特徴点の検出方法では、様々なスケールのLoG(Laplacian of Gaussian)フィルタをかけたとき、特徴点として用いるのに適切なスケールの極値をもつことを利用する。実際には、LoGフィルタの代わりに、標準偏差を様々に変えたガウス関数を用いて画像を平滑化し、その差を計算するDoG(Difference of Gaussian)フィルタを用いて、LoGフィルタに近似させる。   In the feature point detection method using the SIFT operator, when a LoG (Laplacian of Gaussian) filter of various scales is applied, the feature point has an extreme value suitable for use as a feature point. Actually, instead of the LoG filter, the image is smoothed using a Gaussian function with various standard deviations, and a DoG (Difference of Gaussian) filter that calculates the difference is approximated to the LoG filter.

図5は、スケールσとDoGフィルタ出力値の一例を示す特性図である。
図5(a)に示すような、所定のパターンが形成された画像情報について、スケールσを変更してDoGフィルタの出力値を検出した特性図が、図5(b)である。
図示した例では、DoGフィルタの出力値が最も大きくなるスケールσの極値が、10.15程度であることがわかる。
画像特徴点検出部42は、図5(a)の画像情報上の特徴点の候補位置と、図5(b)で得られるスケールσとを決定する。
このことにより、画像特徴点検出部42は、スケール変化に対して、不変の特徴量をもつ特徴点を選択することができる。
FIG. 5 is a characteristic diagram showing an example of the scale σ and the DoG filter output value.
FIG. 5B is a characteristic diagram in which the scale σ is changed and the output value of the DoG filter is detected for image information on which a predetermined pattern is formed as shown in FIG.
In the illustrated example, it can be seen that the extreme value of the scale σ at which the output value of the DoG filter is the largest is about 10.15.
The image feature point detector 42 determines the candidate position of the feature point on the image information in FIG. 5A and the scale σ obtained in FIG.
Thus, the image feature point detection unit 42 can select a feature point having an invariant feature amount with respect to a scale change.

図6は、SIFT特徴量を用いて検出した特徴点の説明図である。
図6では、垂直面33〜35及び差し込み口31〜32を含むパレット3の前面61に特徴点が多く現れている。特に、第1領域62及び第2領域63に示すように、パレット3が床面と接するエッジ部分であって、差し込み口31〜32の近傍に特徴点が多く現れる。
スケールを変えた場合や、画像を回転させて、SIFT特徴量の算出を行った結果、同様にして、パレット3が床面と接するエッジ部分に多くの特徴点が現れる。
FIG. 6 is an explanatory diagram of feature points detected using SIFT feature values.
In FIG. 6, many characteristic points appear on the front surface 61 of the pallet 3 including the vertical surfaces 33 to 35 and the insertion ports 31 to 32. In particular, as shown in the first region 62 and the second region 63, the pallet 3 is an edge portion in contact with the floor surface, and many feature points appear in the vicinity of the insertion ports 31 to 32.
As a result of changing the scale or rotating the image and calculating the SIFT feature value, many feature points appear in the edge portion where the pallet 3 is in contact with the floor surface in the same manner.

画像特徴点検出方法として、Harris作用素を用いる方法が知られている。
Harris作用素を用いる特徴点の検出方法では、所定領域内の画像を微少シフトさせた場合に、輝度値差の二乗和(SSD:Sum of Squared Difference)が大きくなる点を検出する。
図7は、Harris特徴点の検出方法に関する説明図である。
画像70上に物体画像71が存在するとして、画像70上に設定される所定領域72を微少シフトさせる場合を考える。
図7(a)に示すように、所定領域72が物体画像71上に設定されている場合、画像70の微少シフトによる輝度値の変化が少ない。したがって、この場合には、どの方向に移動させても、特徴点を検出することは難しい。
As an image feature point detection method, a method using a Harris operator is known.
In the feature point detection method using the Harris operator, a point at which the sum of squares (SSD: Sum of Squared Difference) of luminance value differences increases when an image in a predetermined region is slightly shifted is detected.
FIG. 7 is an explanatory diagram relating to a Harris feature point detection method.
Consider a case where the predetermined area 72 set on the image 70 is slightly shifted on the assumption that the object image 71 exists on the image 70.
As shown in FIG. 7A, when the predetermined area 72 is set on the object image 71, the change in the luminance value due to the slight shift of the image 70 is small. Therefore, in this case, it is difficult to detect feature points regardless of the direction of movement.

図7(b)に示すように、所定領域72が物体画像71のエッジ上に設定されている場合、図の上下方向への移動に対しては、輝度値の変化は少ないが、図の左右方向への移動に対しては、輝度値の変化が大きくなる。したがって、図の左右方向に画像70を移動させて、縦方向のエッジを特徴点として検出できる。
また、図7(c)に示すように、所定領域72が物体画像71のコーナー付近に設定されている場合、画像70をいずれの方向に移動させても、輝度値の変化が大きくなる。したがって、認識対象である物体のコーナー位置を特徴点として検出できる。
As shown in FIG. 7B, when the predetermined area 72 is set on the edge of the object image 71, the luminance value changes little with respect to the vertical movement of the figure, but the right and left of the figure With respect to movement in the direction, the change in luminance value becomes large. Therefore, it is possible to detect the edge in the vertical direction as a feature point by moving the image 70 in the left-right direction in the figure.
Further, as shown in FIG. 7C, when the predetermined area 72 is set near the corner of the object image 71, the change in the luminance value becomes large regardless of the direction in which the image 70 is moved. Therefore, the corner position of the recognition target object can be detected as the feature point.

このようなHarris作用素を用いる特徴点の検出方法によれば、図7(d)に示すように、床面73上に物体74が載置されている場合に、床面73と接するコーナー75を特徴点として検出できる。例えば、コーナー75を含む所定領域76を微少シフトして、輝度値の二乗和に基づいて、特徴点を検出できる。   According to the feature point detection method using such a Harris operator, when the object 74 is placed on the floor surface 73, as shown in FIG. It can be detected as a feature point. For example, the predetermined area 76 including the corner 75 can be slightly shifted, and the feature point can be detected based on the sum of squares of the luminance values.

図8は、Harris作用素を用いて検出した特徴点の説明図である。
図8では、垂直面33〜35及び差し込み口31〜32を含むパレット3の前面81に特徴点が多く現れる。特に、第1領域82、第2領域83、第3領域84に示すように、パレット3の垂直面33〜35が床面と接するエッジ部分に特徴点が多く現れる。
スケールを変えた場合や、画像を回転させて、Harris特徴量の算出を行った結果、同様にして、垂直面33〜35が床面と接するエッジ部分に多くの特徴点が現れる。
このことから、三次元画像情報から検出した特徴点のうちから、所定の幾何的条件を満たす特徴点のグループをマッチング候補点として抽出すれば、効率良くパターンマッチングを行うことができる。
FIG. 8 is an explanatory diagram of feature points detected using a Harris operator.
In FIG. 8, many feature points appear on the front surface 81 of the pallet 3 including the vertical surfaces 33 to 35 and the insertion ports 31 to 32. In particular, as shown in the first region 82, the second region 83, and the third region 84, many feature points appear at the edge portions where the vertical surfaces 33 to 35 of the pallet 3 are in contact with the floor surface.
As a result of calculating the Harris feature amount when the scale is changed or by rotating the image, many feature points appear in the edge portions where the vertical surfaces 33 to 35 are in contact with the floor surface in the same manner.
Therefore, if a group of feature points satisfying a predetermined geometric condition is extracted from the feature points detected from the three-dimensional image information as matching candidate points, pattern matching can be performed efficiently.

(5)画像特徴点検出〜パターンマッチング処理
パターンマッチング部44は、画像特徴点検出部42により検出された特徴点に基づいて、マッチング候補点の特徴量を二次元モデルのデータの特徴量と比較して、画像上の物体の認識・識別を行う。この画像特徴量検出処理〜パターンマッチング処理を以下に詳述する。
図9は、画像特徴量検出処理〜パターンマッチング処理のフローチャートである。図9では、三次元画像情報が入力された後の処理を示すものであり、図3のステップS303〜ステップS305に対応する処理を示す。
ステップS901において、画像特徴点検出部42は、三次元画像上の点群から特徴点を検出する。具体的には、画像特徴点検出部42が、Harris作用素を用いた特徴点の検出方法を用いて、三次元画像上の特徴点を抽出する。
(5) Image feature point detection to pattern matching process The pattern matching unit 44 compares the feature amount of the matching candidate point with the feature amount of the data of the two-dimensional model based on the feature point detected by the image feature point detection unit 42. Then, the object on the image is recognized and identified. This image feature amount detection process to pattern matching process will be described in detail below.
FIG. 9 is a flowchart of image feature amount detection processing to pattern matching processing. FIG. 9 shows processing after the three-dimensional image information is input, and shows processing corresponding to steps S303 to S305 in FIG.
In step S901, the image feature point detector 42 detects a feature point from a point group on the three-dimensional image. Specifically, the image feature point detection unit 42 extracts feature points on the three-dimensional image using a feature point detection method using a Harris operator.

ステップS902において、パターンマッチング部44は、幾何的条件によるマッチング候補点の抽出を行う。例えば、パレット3の前面に位置する垂直面33〜35に対応する3点の特徴点を抽出する場合、各特徴点の間隔が所定の規格に合致するような距離であり、各特徴点を結ぶ線分の角度が所定範囲であるような幾何的条件が設定される。   In step S902, the pattern matching unit 44 extracts matching candidate points based on geometric conditions. For example, when extracting three feature points corresponding to the vertical surfaces 33 to 35 positioned in front of the pallet 3, the distance between the feature points is a distance that matches a predetermined standard, and the feature points are connected. A geometric condition is set such that the angle of the line segment is within a predetermined range.

図10は、特徴点間の幾何的条件を示す説明図である。
前述したように、パレット3を撮影した3次元画像情報にHarris作用素を用いた特徴点の検出を行う場合、パレット3の前面下部に位置する3点を特徴点として抽出できる。
3つの特徴点は、それぞれ、パレット3の垂直面33〜35が床面と接するエッジに対応して現れる。したがって、3つの特徴点は、ほぼ直線上に並んで現われる。
このことから、第1特徴点と第2特徴点とを結ぶ線分と、第1特徴点と第3特徴点とを結ぶ線分とが、180度に近い角度範囲であるような3つの特徴点を抽出することで、パレット3の前面形状に対応する特徴点を抽出できる。
FIG. 10 is an explanatory diagram showing geometric conditions between feature points.
As described above, when the feature points are detected using the Harris operator on the three-dimensional image information obtained by photographing the palette 3, the three points located at the lower front of the palette 3 can be extracted as the feature points.
The three feature points appear corresponding to the edges where the vertical surfaces 33 to 35 of the pallet 3 are in contact with the floor surface. Therefore, the three feature points appear side by side on a substantially straight line.
From this, three features such that the line segment connecting the first feature point and the second feature point and the line segment connecting the first feature point and the third feature point are in an angle range close to 180 degrees. By extracting the points, feature points corresponding to the front shape of the pallet 3 can be extracted.

図10に示すように、3つの特徴点のうち、中央に位置する特徴点を第1特徴点91とし、その両側に第2特徴点92、第3特徴点93があるとする。
第1特徴点91と第2特徴点92との距離α1、第1特徴点91と第3特徴点93との距離α2、第2特徴点92と第3特徴点93との距離をβとする。また、第1特徴点91と第2特徴点92とを結ぶ線分94と、第1特徴点91と第3特徴点93とを結ぶ線分95とがなす角度をθとする。
As shown in FIG. 10, it is assumed that the feature point located at the center among the three feature points is the first feature point 91, and the second feature point 92 and the third feature point 93 are on both sides thereof.
The distance α1 between the first feature point 91 and the second feature point 92, the distance α2 between the first feature point 91 and the third feature point 93, and the distance between the second feature point 92 and the third feature point 93 are β. . Further, an angle formed by a line segment 94 connecting the first feature point 91 and the second feature point 92 and a line segment 95 connecting the first feature point 91 and the third feature point 93 is defined as θ.

パレット3が規格に合致したサイズである場合、第1特徴点91〜第3特徴点93間の距離α1、α2、βの値は、所定範囲内となる。例えば、日本で多く使用されているT11型のパレットのサイズは、1100×1100×144(mm)である。したがって、距離α1、α2の値は約500(mm)、距離βの値は約1000(mm)であると考えられる。
このことから、距離α1、α2が340(mm)〜600(mm)の範囲、距離βが800(mm)〜1050(mm)の範囲という幾何的条件を設定できる。
When the size of the pallet 3 conforms to the standard, the values of the distances α1, α2, and β between the first feature point 91 to the third feature point 93 are within a predetermined range. For example, the size of a T11 type pallet that is often used in Japan is 1100 × 1100 × 144 (mm). Therefore, it is considered that the values of the distances α1 and α2 are about 500 (mm) and the value of the distance β is about 1000 (mm).
From this, it is possible to set the geometric conditions such that the distances α1 and α2 are in the range of 340 (mm) to 600 (mm) and the distance β is in the range of 800 (mm) to 1050 (mm).

また、第1特徴点91〜第3特徴点93はほぼ直線上にあることから、角度θはほぼ180度になる。したがって、cosθの値が−0.95以下であるという幾何的条件を設定できる。
このような幾何的条件を設定することにより、パレット3の参照パターンとパターンマッチングするための3つの特徴点を安定して抽出できる。
Further, since the first feature point 91 to the third feature point 93 are substantially on a straight line, the angle θ is approximately 180 degrees. Therefore, the geometric condition that the value of cos θ is −0.95 or less can be set.
By setting such a geometric condition, three feature points for pattern matching with the reference pattern of the palette 3 can be stably extracted.

図11は、幾何的条件を適用して抽出したマッチング候補点の説明図である。
このような幾何的条件を適用することにより、図11に示すように、パレット3の垂直面33〜35の下端エッジに対応するマッチング候補点101〜103を抽出できる。
ただし、パレット3が存在していない第1領域105、第2領域106においても、同様の特徴を有するマッチング候補が存在している。
第1領域105及び第2領域106に存在するマッチング候補を排除するためには、特徴点に対して特定の幾何的条件を満たす補間点を設定する。
ステップS903において、パターンマッチング部44は、マッチング候補として抽出された特徴点に基づいて、特徴点に対して特定の幾何的条件を満たす補間点を決定する。
FIG. 11 is an explanatory diagram of matching candidate points extracted by applying a geometric condition.
By applying such a geometric condition, matching candidate points 101 to 103 corresponding to the lower edge of the vertical surfaces 33 to 35 of the pallet 3 can be extracted as shown in FIG.
However, in the first area 105 and the second area 106 where the pallet 3 does not exist, matching candidates having similar characteristics exist.
In order to eliminate matching candidates existing in the first region 105 and the second region 106, interpolation points that satisfy a specific geometric condition are set for the feature points.
In step S903, the pattern matching unit 44 determines an interpolation point that satisfies a specific geometric condition for the feature point based on the feature point extracted as a matching candidate.

図12は、特徴点と補間点との関係を示す説明図である。
図12では、図1におけるパレット3を撮影した画像をパレット111として示し、垂直面33〜35に対応する画像を垂直面112〜114として示す。
図12に示す画像では、床面110上にパレット111が載置されており、パレット111の前面に垂直面112,113,114を有している。この垂直面112,113,114と、床面110の一部により形成される折れ曲がった折曲面に対応する第1領域115,第2領域116,第3領域117が存在している。特徴点118,119,120は、第1領域115,第2領域116,第3領域117において、垂直面112,113,114と床面110とが接する位置に現れる。
FIG. 12 is an explanatory diagram showing the relationship between feature points and interpolation points.
In FIG. 12, an image obtained by photographing the palette 3 in FIG. 1 is shown as a palette 111, and images corresponding to the vertical surfaces 33 to 35 are shown as vertical surfaces 112 to 114.
In the image shown in FIG. 12, the pallet 111 is placed on the floor surface 110 and has vertical surfaces 112, 113, 114 on the front surface of the pallet 111. There are a first region 115, a second region 116, and a third region 117 corresponding to the bent surface formed by the vertical surfaces 112, 113, and 114 and a part of the floor surface 110. The feature points 118, 119, and 120 appear at positions where the vertical surfaces 112, 113, and 114 and the floor surface 110 are in contact with each other in the first region 115, the second region 116, and the third region 117.

第1領域115及び第2領域116の中間、第2領域116及び第3領域117の中間には、それぞれ床面110からパレット111の内方に連続する平面に対応する第4領域121,第5領域122が存在する。この第4領域121及び第5領域122に、それぞれ補間点123、124を設定する。
制御部は、特徴点118,119,120と、補間点123,124とをマッチング候補点として抽出する。
In the middle of the first area 115 and the second area 116 and in the middle of the second area 116 and the third area 117, the fourth area 121 and the fifth area corresponding to the plane continuous from the floor surface 110 to the inside of the pallet 111, respectively. Region 122 exists. Interpolation points 123 and 124 are set in the fourth area 121 and the fifth area 122, respectively.
The control unit extracts the feature points 118, 119, and 120 and the interpolation points 123 and 124 as matching candidate points.

ステップS904において、特徴量算出部43は、マッチング候補点のそれぞれについて、特徴量を算出する。特徴量の算出は、各マッチング候補点について、法線方向ベクトルが、周辺特徴点の法線ベクトルとなす角度に基づいて生成される法線方向ヒストグラムにより算出できる。具体的には、FPFH(Fast Point Feature Histgrams)を用いることができる。   In step S904, the feature amount calculation unit 43 calculates a feature amount for each of the matching candidate points. The feature amount can be calculated from a normal direction histogram generated for each matching candidate point based on an angle between the normal direction vector and the normal vector of the peripheral feature points. Specifically, FPFH (Fast Point Feature Histograms) can be used.

図13及び図14は、FPFHによる特徴量算出方法の説明図である。
図13に示すように、対象となる特徴点Psに対して、近傍点Pk1〜Pk5、P6〜P11を設定する。
図14に示すように、特徴点Psの法線nsと、近傍点Ptの法線ntとの3次元座標u,v,wに対する角度差α、φ、θを求める。
特徴点Psの法線nsと、11個の近傍点Ptの法線ntとの角度差α、φ、θにより、180度を11分割したヒストグラムを3つ並べて、33次元のヒストグラムを構成する。
13 and 14 are explanatory diagrams of a feature amount calculation method using FPFH.
As shown in FIG. 13, the neighboring points Pk1 to Pk5 and P6 to P11 are set for the target feature point Ps.
As shown in FIG. 14, angle differences α, φ, and θ with respect to the three-dimensional coordinates u, v, and w between the normal line ns of the feature point Ps and the normal line nt of the neighboring point Pt are obtained.
Three histograms obtained by dividing 11 degrees of 180 degrees by the angle differences α, φ, θ between the normal line ns of the feature point Ps and the normal lines nt of 11 neighboring points Pt are arranged to form a 33-dimensional histogram.

図15は、FPFH特徴量を示すグラフである。
前述したようにしてFPFHによる特徴量をグラフ化すると、図15に示すように、角度差α、φ、θについて、頻度(%)が縦軸に現れる。
このようにして、制御部は、マッチング候補点として抽出した特徴点118,119,120と、補間点123,124とにおけるFPFH特徴量を算出する。
FIG. 15 is a graph showing the FPFH feature amount.
When the feature amount by FPFH is graphed as described above, the frequency (%) appears on the vertical axis for the angle differences α, φ, θ as shown in FIG.
In this way, the control unit calculates the FPFH feature quantity at the feature points 118, 119, 120 extracted as matching candidate points and the interpolation points 123, 124.

ステップS905において、制御部は、モデル保存部45に記憶されている二次元モデルのデータを読み出す。
FPFH特徴量を用いたパターンマッチングを行う場合、認識対象である物体の撮影した画像に基づいて、FPFH特徴量を予め算出して、これを二次元モデルのデータとしてモデル保存部45に記載する。
In step S905, the control unit reads the data of the two-dimensional model stored in the model storage unit 45.
When performing pattern matching using the FPFH feature value, the FPFH feature value is calculated in advance based on a captured image of the object that is the recognition target, and is stored in the model storage unit 45 as data of a two-dimensional model.

FPFH特徴量の算出は、例えば、パレット3を距離や角度を変更した様々な条件で撮影した所定数の画像から行われる。さらに、算出されたFPFH特徴量の平均値と分散値を算出し、これを特徴点のモデルとする。FPFH特徴量の平均値を33個、分散値を33個の計66個の値を1つの特徴点のモデルとする場合、パレット3の前面に位置する3つの特徴点118,119,120について、198個の値をパレット3の特徴として、モデル保存部45に記憶する。   The calculation of the FPFH feature amount is performed from, for example, a predetermined number of images obtained by photographing the pallet 3 under various conditions in which the distance and angle are changed. Furthermore, an average value and a variance value of the calculated FPFH feature values are calculated and used as a feature point model. When the average value of the FPFH feature value is 33 and the variance value is 33, and a total of 66 values are used as a model of one feature point, the three feature points 118, 119, and 120 located in front of the pallet 3 198 values are stored in the model storage unit 45 as features of the palette 3.

また、特徴点118,119,120の中間点である補間点123,124についても、同様に、FPFH特徴量が算出され、モデル保存部45に保存される。
図16は、マッチング候補点のFPFH特徴量の説明図である。
図16(a)は、パレット3の前面における中心に位置する特徴点119のFPFH特徴量を示している。特徴点119では、パレット3の前面中央に位置していることから、近傍点との法線方向の角度差が安定している。
図16(b)は、パレット3の前面における左右に位置する特徴点118,120のFPFH特徴量を示している。特徴点118,120では、パレット3の側面にある特徴点の影響を受けて、近傍点との法線方向の角度差が安定しておらず、角度差θに対応する右側のグラフにおける分散値が大きくなっている。
図16(c)は、角がない平面に位置する補間点123,124のFPFH特徴量であって、角度差φに対応する中央のグラフにおけるバラツキが小さくなっている。
Similarly, for the interpolation points 123 and 124 that are intermediate points between the feature points 118, 119, and 120, the FPFH feature amount is calculated and stored in the model storage unit 45.
FIG. 16 is an explanatory diagram of the FPFH feature amount of the matching candidate point.
FIG. 16A shows the FPFH feature quantity of the feature point 119 located at the center of the front surface of the pallet 3. Since the feature point 119 is located at the center of the front surface of the pallet 3, the angle difference in the normal direction from the neighboring points is stable.
FIG. 16B shows the FPFH feature values of the feature points 118 and 120 located on the left and right of the front surface of the pallet 3. The feature points 118 and 120 are affected by the feature points on the side surface of the pallet 3, and the angle difference in the normal direction from the neighboring points is not stable. Is getting bigger.
FIG. 16C shows the FPFH feature values of the interpolation points 123 and 124 located on a plane having no corners, and the variation in the central graph corresponding to the angle difference φ is small.

ステップS905では、パターンマッチング部44は、モデル保存部45に保存されている3つの特徴点と2つの補間点のFPFH特徴量を読み出す。
ステップS906において、パターンマッチング部44は、マッチング候補点の特徴量と、二次元モデルの特徴量とを照合する。具体的には、読み出された二次元モデルのFPFH特徴量と、特徴量算出部43により算出されたマッチング候補点のFPFH特徴量との差分を算出し、差分の最も小さいマッチング候補点のグループを選択する。
In step S905, the pattern matching unit 44 reads out the FPFH feature amounts of the three feature points and the two interpolation points stored in the model storage unit 45.
In step S906, the pattern matching unit 44 collates the feature amount of the matching candidate point with the feature amount of the two-dimensional model. Specifically, the difference between the read FPFH feature quantity of the two-dimensional model and the FPFH feature quantity of the matching candidate point calculated by the feature quantity calculation unit 43 is calculated, and the group of matching candidate points having the smallest difference is calculated. Select.

ステップS907において、パターンマッチング部44は、認識結果(物品の位置)を出力する。具体的には、二次元モデルのデータに最も類似すると判断されたマッチング候補点のグループについて、各特徴点の三次元座標を用いて、物体の位置を計算する。   In step S907, the pattern matching unit 44 outputs a recognition result (article position). Specifically, for the group of matching candidate points determined to be most similar to the data of the two-dimensional model, the position of the object is calculated using the three-dimensional coordinates of each feature point.

以上のようにした手順で、三次元画像に撮影されたパレット3の画像の位置を認識できる。この場合、パターンマッチングを行うためのマッチング候補点を、所定の幾何的条件を満たす特徴点により抽出していることから、演算負荷を低減することが可能となる。
また、特徴点に対して、所定の幾何的条件を満たす補間点をマッチング候補点として設定しているので、パターンマッチングの精度を向上できる。
With the procedure as described above, the position of the image of the palette 3 photographed in the three-dimensional image can be recognized. In this case, since the matching candidate points for performing the pattern matching are extracted by the feature points that satisfy a predetermined geometric condition, it is possible to reduce the calculation load.
In addition, since the interpolation points satisfying a predetermined geometric condition are set as the matching candidate points for the feature points, the accuracy of pattern matching can be improved.

(6)実施形態の特徴
物体認識装置(例えば、物体認識装置22)は、モデル保存部(例えば、モデル保存部45)と、三次元画像入力部(例えば、三次元画像入力部41)と、画像特徴点検出部(例えば、画像特徴点検出部42)と、特徴量算出部(例えば、特徴量算出部43)と、パターンマッチング部(例えば、パターンマッチング部44)とを備える。モデル保存部(モデル保存部45)は、認識対象である物体表面の点の集合及び各点を結んで構成される線分の集合によって定義される物体(例えば、パレット3)の幾何的特徴を表すモデルのデータを保存する。三次元画像入力部(三次元画像入力部41)は、物体が含まれる三次元画像を入力する。画像特徴点検出部(画像特徴点検出部42)は、三次元画像における特徴点(例えば、特徴点118,119,120)を検出する。特徴量算出部(特徴量算出部43)は、三次元画像上の各点における特徴量(例えば、FPFH特徴量)を算出する。パターンマッチング部(パターンマッチング部44)は、画像特徴点検出部(画像特徴点検出部42)で検出された特徴点(特徴点118,119,120)と、特徴点(特徴点118,119,120)に対して特定の幾何的条件(特徴点の中間点)を満たす補間点(補間点123,124)とにおける特徴量に基づいて、モデルのデータとの類似度を比較することで物体の認識を行う。
物体の形状によっては、モデル上の特徴点ではない点に、物体の特徴を表す点が出現する場合がある。このような点を、特徴点と特定の幾何的条件を満たす補間点とすることで、パターンマッチングを行う際の特徴点のダウンサンプリングが可能となり、その結果、背景に存在する他の特徴点と識別して、物体の認識を確実に行うことができる。また、これにより、パターンマッチング処理の演算負荷を軽減できる。
(6) Features of Embodiment The object recognition device (for example, the object recognition device 22) includes a model storage unit (for example, model storage unit 45), a three-dimensional image input unit (for example, three-dimensional image input unit 41), An image feature point detection unit (for example, image feature point detection unit 42), a feature amount calculation unit (for example, feature amount calculation unit 43), and a pattern matching unit (for example, pattern matching unit 44) are provided. The model storage unit (model storage unit 45) determines the geometric features of an object (for example, palette 3) defined by a set of points on the surface of the object to be recognized and a set of line segments connecting the points. Save the model data that you want to represent. The 3D image input unit (3D image input unit 41) inputs a 3D image including an object. The image feature point detector (image feature point detector 42) detects feature points (for example, feature points 118, 119, 120) in the three-dimensional image. The feature amount calculation unit (feature amount calculation unit 43) calculates a feature amount (for example, FPFH feature amount) at each point on the three-dimensional image. The pattern matching unit (pattern matching unit 44) includes feature points (feature points 118, 119, 120) detected by the image feature point detection unit (image feature point detection unit 42) and feature points (feature points 118, 119, 120) based on the feature quantity at the interpolation points (interpolation points 123 and 124) satisfying a specific geometric condition (intermediate point of the feature points) with respect to the model data, Recognize.
Depending on the shape of the object, a point representing the feature of the object may appear at a point that is not a feature point on the model. By making such a point an interpolation point that satisfies a specific geometric condition with the feature point, it is possible to downsample the feature point when performing pattern matching, and as a result, other feature points existing in the background It is possible to identify and reliably recognize the object. Thereby, the calculation load of the pattern matching process can be reduced.

(7)他の実施形態
以上、本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、発明の要旨を逸脱しない範囲で種々の変更が可能である。特に、本明細書に書かれた複数の実施形態及び変形例は必要に応じて任意に組み合せ可能である。
(7) Other Embodiments Although one embodiment of the present invention has been described above, the present invention is not limited to the above embodiment, and various modifications can be made without departing from the scope of the invention. In particular, a plurality of embodiments and modifications described in this specification can be arbitrarily combined as necessary.

前記実施形態では、画像特徴点検出部42は得られた三次元画像の全ての領域において特徴点を検出していた。しかし、同時に得られる二次元画像に基づいて、三次元画像の領域を予め限定していてもよい。例えば、ステレオカメラ51のいずれか1つのカメラは、三次元画像とほぼ同一視点で撮影されたパレット3を含む二次元画像を入力する二次元画像入力部として機能する。また、二次元画像処理部(図示せず)が、二次元画像におけるパレットの画像特徴を抽出する。この抽出動作は高速に行われる。続いて、二次元画像処理部は、抽出されたパレットのカメラ座標(水平方向、垂直方向)をキャリブレーションによって、カメラ位置を原点とする現実世界の座標に変換する。
画像特徴点検出部42は、三次元画像に対して、二次元画像処理部によって絞られたパレットの画像特徴に対応する領域について、特徴点を検出する。この場合、二次元画像により特定された物体の画像特徴に対応する領域において特徴点を検出していることから、通常の三次元画像からの特徴点の抽出に比して演算負荷を軽減でき、高速化が可能になる。
特徴量算出部43は、三次元画像において前記領域にある特徴点における特徴量を算出する。パターンマッチング部44は、三次元画像において前記領域にある特徴点の特徴量を用いる。
なお、二次元画像を取得するカメラは、三次元画像を取得するカメラと別に設けられていてもよい。
In the embodiment, the image feature point detection unit 42 detects feature points in all the regions of the obtained three-dimensional image. However, based on the two-dimensional image obtained at the same time, the region of the three-dimensional image may be limited in advance. For example, any one of the stereo cameras 51 functions as a two-dimensional image input unit that inputs a two-dimensional image including the palette 3 photographed from substantially the same viewpoint as the three-dimensional image. In addition, a two-dimensional image processing unit (not shown) extracts the image features of the palette in the two-dimensional image. This extraction operation is performed at high speed. Subsequently, the two-dimensional image processing unit converts the camera coordinates (horizontal direction and vertical direction) of the extracted palette into real-world coordinates with the camera position as the origin by calibration.
The image feature point detection unit 42 detects a feature point in the region corresponding to the image feature of the palette narrowed down by the two-dimensional image processing unit with respect to the three-dimensional image. In this case, since the feature point is detected in the region corresponding to the image feature of the object specified by the two-dimensional image, the calculation load can be reduced compared to the extraction of the feature point from the normal three-dimensional image, High speed is possible.
The feature amount calculation unit 43 calculates feature amounts at feature points in the region in the three-dimensional image. The pattern matching unit 44 uses feature amounts of feature points in the region in the three-dimensional image.
Note that the camera that acquires the two-dimensional image may be provided separately from the camera that acquires the three-dimensional image.

補間点は、少なくとも2個の特徴点に特定の幾何的条件を満たす点であれば何でもよく、2個の特徴点の中間点でなくてもよい。例えば、SIFTのオリエンテーション又はISSの主方向を使って、それらの極値、変曲点としてもよく、又は2個の特徴点の方向の線分に交差する線分の一点であってもよい。   The interpolation point may be any point as long as it satisfies a specific geometric condition for at least two feature points, and may not be an intermediate point between the two feature points. For example, the orientation of SIFT or the main direction of ISS may be used as those extreme values, inflection points, or one point of a line segment intersecting the line segment in the direction of two feature points.

本発明は、三次元画像から物体を認識する認識装置に適用でき、例えば、無人搬送車や無人フォークリフトなどに搭載される物体認識装置に適用可能である。   The present invention can be applied to a recognition device that recognizes an object from a three-dimensional image.

2 無人フォークリフト
3 パレット
21 本体部
22 物体認識装置
31 差し込み口
32 差し込み口
33 垂直面
34 垂直面
35 垂直面
41 三次元画像入力部
42 画像特徴点検出部
43 特徴量算出部
44 パターンマッチング部
45 モデル保存部
51 ステレオカメラ
52 フレームメモリ
53 画像バス
54 二次元特徴点検出部
55 対応付け処理部
56 座標算出部
61 前面
62 第1領域
63 第2領域
70 画像
71 物体画像
72 所定領域
73 床面
74 物体
75 コーナー
76 所定領域
81 前面
82 第1領域
83 第2領域
84 第3領域
91 第1特徴点
92 第2特徴点
93 第3特徴点
110 床面
111 パレット
112 垂直面
113 垂直面
114 垂直面
115 第1領域
116 第2領域
117 第3領域
118 特徴点
119 特徴点
120 特徴点
121 第4領域
122 第5領域
123 補間点
124 補間点
2 Unmanned Forklift 3 Pallet 21 Main Body 22 Object Recognition Device 31 Insertion Port 32 Insertion Port 33 Vertical Surface 34 Vertical Surface 35 Vertical Surface 41 Three-dimensional Image Input Unit 42 Image Feature Point Detection Unit 43 Feature Quantity Calculation Unit 44 Pattern Matching Unit 45 Model Storage unit 51 Stereo camera 52 Frame memory 53 Image bus 54 Two-dimensional feature point detection unit 55 Association processing unit 56 Coordinate calculation unit 61 Front surface 62 First region 63 Second region 70 Image 71 Object image 72 Predetermined region 73 Floor surface 74 Object 75 Corner 76 Predetermined region 81 Front surface 82 First region 83 Second region 84 Third region 91 First feature point 92 Second feature point 93 Third feature point 110 Floor surface 111 Pallet 112 Vertical surface 113 Vertical surface 114 Vertical surface 115 First 1 area 116 2nd area 117 3rd area 118 Feature point 119 Feature point 120 Feature points 121 the fourth area 122 fifth region 123 interpolation points 124 interpolation points

Claims (12)

認識対象である物体表面の点の集合及び各点を結んで構成される線分の集合によって定義される物体の幾何的特徴を表すモデルのデータを保存するモデル保存部と、
前記物体が含まれる三次元画像を入力する三次元画像入力部と、
前記三次元画像における特徴点を検出する画像特徴点検出部と、
前記三次元画像上の各点における特徴量を算出する特徴量算出部と、
前記画像特徴点検出部で検出された特徴点と、前記特徴点に対して特定の幾何的条件を満たす補間点とをパターンマッチングのためのマッチング候補点のグループとし、各グループに含まれるマッチング候補点の特徴量に基づいて、前記モデルのデータとの類似度を比較することで前記物体の認識を行うパターンマッチング部と、
を備える物体認識装置。
A model storage unit that stores model data representing geometric features of the object defined by a set of points on the surface of the object to be recognized and a set of line segments connecting the points;
A three-dimensional image input unit for inputting a three-dimensional image including the object;
An image feature point detector for detecting feature points in the three-dimensional image;
A feature amount calculation unit for calculating a feature amount at each point on the three-dimensional image;
The feature points detected by the image feature point detection unit and interpolation points that satisfy a specific geometric condition for the feature points are grouped as matching candidate points for pattern matching, and matching candidates included in each group A pattern matching unit that recognizes the object by comparing the similarity with the data of the model based on the feature amount of the point;
An object recognition apparatus comprising:
前記補間点は、1対又は複数対の特徴点の中間点である、請求項1に記載の物体認識装置。The object recognition apparatus according to claim 1, wherein the interpolation point is an intermediate point between one or more pairs of feature points. 前記パターンマッチング部は、前記画像特徴点検出部で検出された特徴点から、所定の幾何的条件を満たす所定数の特徴点を前記マッチング候補点として抽出する、請求項1又は2に記載の物体認識装置。The object according to claim 1, wherein the pattern matching unit extracts a predetermined number of feature points satisfying a predetermined geometric condition as the matching candidate points from the feature points detected by the image feature point detection unit. Recognition device. 前記パターンマッチング部は、前記特徴量算出部が前記マッチング候補点のそれぞれについて作成されるヒストグラムに基づいて、前記物体の認識を行う、請求項1〜3のいずれかに記載の物体認識装置。   The object recognition apparatus according to claim 1, wherein the pattern matching unit recognizes the object based on a histogram created by the feature amount calculation unit for each of the matching candidate points. 前記特徴量算出部は、FPFH(First Point Feature Histogram)により記述されるヒストグラムを作成する、請求項4に記載の物体認識装置。   The object recognition apparatus according to claim 4, wherein the feature amount calculation unit creates a histogram described by FPFH (First Point Feature History). 前記物体は、3個の特徴点を有するパレットであり、
前記所定の幾何的条件を満たす所定数の特徴点とは、3個の特徴点の特徴点のなす角度が所定範囲内である3個の特徴点である、請求項3に記載の物体認識装置。
The object is a pallet having three feature points;
The object recognition apparatus according to claim 3 , wherein the predetermined number of feature points satisfying the predetermined geometric condition are three feature points whose angles formed by the feature points of the three feature points are within a predetermined range. .
前記三次元画像入力部は、TOF(Time Of Flight)カメラ、又はステレオカメラを有する、請求項1〜6のいずれかに記載の物体認識装置。   The object recognition apparatus according to claim 1, wherein the three-dimensional image input unit includes a TOF (Time Of Flight) camera or a stereo camera. 前記画像特徴点検出部は、Harris処理、又はSIFT(Scale Invariant Feature Transform)処理することにより、前記特徴点を検出する、請求項1〜7のいずれかに記載の物体認識装置。   The object recognition apparatus according to claim 1, wherein the image feature point detection unit detects the feature points by performing Harris processing or SIFT (Scale Invariant Feature Transform) processing. 前記三次元画像とほぼ同一視点で撮影された前記物体を含む二次元画像を入力する二次元画像入力部と、
前記二次元画像における前記物体の画像特徴を検出する二次元画像処理部と、
をさらに備えている、請求項1〜8のいずれかに記載の物体認識装置。
A two-dimensional image input unit for inputting a two-dimensional image including the object photographed from substantially the same viewpoint as the three-dimensional image;
A two-dimensional image processing unit for detecting an image feature of the object in the two-dimensional image;
The object recognition apparatus according to claim 1, further comprising:
前記画像特徴点検出部が前記特徴点の検出を行うのは、前記三次元画像において、前記二次元画像処理部において検出された前記物体の画像特徴に対応する領域のみである、請求項9に記載の物体認識装置。   The image feature point detection unit detects the feature point only in a region corresponding to the image feature of the object detected by the two-dimensional image processing unit in the three-dimensional image. The object recognition apparatus described. 前記特徴量算出部は、前記三次元画像において前記領域にある前記特徴点における特徴量を算出し、
前記パターンマッチング部は、前記三次元画像において前記領域にある前記特徴点の前記特徴量を用いる、請求項10に記載の物体認識装置。
The feature amount calculation unit calculates a feature amount at the feature point in the region in the three-dimensional image,
The object recognition apparatus according to claim 10, wherein the pattern matching unit uses the feature amount of the feature point in the region in the three-dimensional image.
認識対象である物体表面の点の集合及び各点を結んで構成される線分の集合によって定義される物体の幾何的特徴を表すモデルのデータを保存するステップと、
物体が含まれる三次元画像を入力するステップと、
前記三次元画像における特徴点を検出するステップと、
前記特徴点と、前記特徴点に対して特定の幾何的条件を満たす補間点とにおける特徴量を算出するステップと、
前記特徴量に基づいて、前記モデルのデータとの類似度を比較して物体の認識を行うステップと、
を備える物体認識方法。
Storing model data representing geometric features of the object defined by a set of points on the object surface to be recognized and a set of line segments connecting the points;
Inputting a three-dimensional image including the object;
Detecting feature points in the three-dimensional image;
Calculating a feature amount at the feature point and an interpolation point that satisfies a specific geometric condition for the feature point;
Recognizing an object by comparing the similarity with the model data based on the feature amount; and
An object recognition method comprising:
JP2014109325A 2014-05-27 2014-05-27 Object recognition apparatus and object recognition method Active JP6369131B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014109325A JP6369131B2 (en) 2014-05-27 2014-05-27 Object recognition apparatus and object recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014109325A JP6369131B2 (en) 2014-05-27 2014-05-27 Object recognition apparatus and object recognition method

Publications (2)

Publication Number Publication Date
JP2015225453A JP2015225453A (en) 2015-12-14
JP6369131B2 true JP6369131B2 (en) 2018-08-08

Family

ID=54842157

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014109325A Active JP6369131B2 (en) 2014-05-27 2014-05-27 Object recognition apparatus and object recognition method

Country Status (1)

Country Link
JP (1) JP6369131B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023238999A1 (en) * 2022-06-07 2023-12-14 현대자동차주식회사 Smart distribution vehicle and control method therefor

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6721998B2 (en) * 2016-02-23 2020-07-15 村田機械株式会社 Object state identification method, object state identification device, and transport vehicle
JP6649796B2 (en) * 2016-02-23 2020-02-19 村田機械株式会社 Object state specifying method, object state specifying apparatus, and carrier
JP2017178567A (en) * 2016-03-30 2017-10-05 株式会社豊田中央研究所 Fork lift
JP2017201493A (en) * 2016-05-06 2017-11-09 村田機械株式会社 Columnar object recognition method, columnar object recognition apparatus, and unmanned traveling vehicle
JP6889865B2 (en) * 2017-09-22 2021-06-18 オムロン株式会社 Template creation device, object recognition processing device, template creation method and program
JP7300646B2 (en) * 2018-08-07 2023-06-30 住友ナコ フォ-クリフト株式会社 Conveyor
JP7049983B2 (en) * 2018-12-26 2022-04-07 株式会社日立製作所 Object recognition device and object recognition method
US11972589B2 (en) * 2019-01-09 2024-04-30 Fuji Corporation Image processing device, work robot, substrate inspection device, and specimen inspection device
CN113673276A (en) * 2020-05-13 2021-11-19 广东博智林机器人有限公司 Target object identification docking method and device, electronic equipment and storage medium
JP7569225B2 (en) 2021-01-21 2024-10-17 住友重機械工業株式会社 Loading support device, transport device, loading support method, and loading support program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5521676B2 (en) * 2010-03-19 2014-06-18 富士通株式会社 Image processing apparatus and image processing program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023238999A1 (en) * 2022-06-07 2023-12-14 현대자동차주식회사 Smart distribution vehicle and control method therefor

Also Published As

Publication number Publication date
JP2015225453A (en) 2015-12-14

Similar Documents

Publication Publication Date Title
JP6369131B2 (en) Object recognition apparatus and object recognition method
US9635346B2 (en) Autonomous vehicle, and object recognizing method in autonomous vehicle
US10347005B2 (en) Object state identification method, object state identification apparatus, and carrier
US8947508B2 (en) Image processing apparatus
EP3249579B1 (en) Object recognition apparatus, objection recognition method, and program
US10163225B2 (en) Object state identification method, object state identification apparatus, and carrier
EP3563345B1 (en) Automatic detection, counting, and measurement of lumber boards using a handheld device
US20140177915A1 (en) Method and apparatus for detecting object
US9020251B2 (en) Image processing apparatus and method
CN107388960A (en) A kind of method and device for determining object volume
US9576363B2 (en) Object picking system, object detecting device, object detecting method
KR20160003776A (en) Posture estimation method and robot
KR102073468B1 (en) System and method for scoring color candidate poses against a color image in a vision system
JP6245880B2 (en) Information processing apparatus, information processing method, and program
CN104268853A (en) Infrared image and visible image registering method
JP2017199289A5 (en)
Sansoni et al. Optoranger: A 3D pattern matching method for bin picking applications
US11216905B2 (en) Automatic detection, counting, and measurement of lumber boards using a handheld device
Varga et al. Vision-based autonomous load handling for automated guided vehicles
JP6526527B2 (en) Identification device and authentication system
CN116309882A (en) Tray detection and positioning method and system for unmanned forklift application
CN113128346B (en) Target identification method, system and device for crane construction site and storage medium
US20150063637A1 (en) Image recognition method and robot
KR101717222B1 (en) System for detecting gaze and method therefor
JP6540577B2 (en) Object recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180612

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180625

R150 Certificate of patent or registration of utility model

Ref document number: 6369131

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250