JP2015173344A - object recognition device - Google Patents
object recognition device Download PDFInfo
- Publication number
- JP2015173344A JP2015173344A JP2014047948A JP2014047948A JP2015173344A JP 2015173344 A JP2015173344 A JP 2015173344A JP 2014047948 A JP2014047948 A JP 2014047948A JP 2014047948 A JP2014047948 A JP 2014047948A JP 2015173344 A JP2015173344 A JP 2015173344A
- Authority
- JP
- Japan
- Prior art keywords
- code
- object recognition
- light source
- recognition apparatus
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003860 storage Methods 0.000 claims abstract description 33
- 230000004397 blinking Effects 0.000 claims abstract description 28
- 238000003384 imaging method Methods 0.000 claims abstract description 6
- 238000012795 verification Methods 0.000 claims description 21
- 238000011156 evaluation Methods 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 claims description 5
- 230000007423 decrease Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 abstract description 14
- 230000001360 synchronised effect Effects 0.000 abstract 1
- 238000000034 method Methods 0.000 description 45
- 238000010586 diagram Methods 0.000 description 29
- 230000008859 change Effects 0.000 description 18
- 238000004519 manufacturing process Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000001678 irradiating effect Effects 0.000 description 5
- 238000009826 distribution Methods 0.000 description 4
- 238000005286 illumination Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 230000000694 effects Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004615 ingredient Substances 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
Images
Abstract
Description
本発明は、認識させたい物体(認識対象物)をあらかじめ登録しておき、その存在箇所をカメラ撮影画像の中から認識する物体認識装置に関する。 The present invention relates to an object recognition apparatus in which an object (recognition target object) to be recognized is registered in advance, and an existing location is recognized from a camera-captured image.
認識対象の物体の特定のパターンをあらかじめ登録しておき、その存在の有無や位置を画像中から検出する処理は、画像処理の基礎技術の一つであり、画像認識や画像検査等で広く応用されている。ここで、あらかじめ登録しておくパターンのことをテンプレートと呼び、テンプレートと画像を照合する処理をテンプレートマッチングあるいはパターンマッチングと呼ぶ。認識対象物が写っている入力画像のことを参照画像と呼ぶ。 The process of registering a specific pattern of an object to be recognized in advance and detecting its presence and position from the image is one of the basic techniques of image processing, and is widely applied in image recognition and image inspection. Has been. Here, a pattern registered in advance is referred to as a template, and a process of matching a template with an image is referred to as template matching or pattern matching. An input image in which a recognition target is shown is called a reference image.
テンプレートマッチングでは、参照画像上でテンプレート画像を走査(スキャン)しながら類似度または相違度を評価し、認識対象物の位置を検出する。この評価尺度としては、SAD(Sum of Absolute Difference)やSSD(Sum of Squared Difference)が用いられることが多い(例えば、非特許文献1参照)。これらはいずれも、画像の輝度値に基づいた評価尺度である。 In template matching, the similarity or difference is evaluated while scanning the template image on the reference image, and the position of the recognition object is detected. As this evaluation scale, SAD (Sum of Absolute Difference) or SSD (Sum of Squared Difference) is often used (for example, see Non-Patent Document 1). These are all evaluation scales based on the luminance value of the image.
画像の輝度値ではなく、エッジ(輪郭)の形状の類似度に基づいたテンプレートマッチングアルゴリズムとしてチャンファ・マッチング(chamfer matching)が提案されている(非特許文献2参照)。照合の前処理として、参照画像に対してソーベル(Sobel)フィルタやキャニー(Canny)のエッジ検出器などを適用し、画像中のエッジを抽出する。そして、テンプレートのエッジと参照画像のエッジを照合することにより、物体を認識する。 Chamfer matching has been proposed as a template matching algorithm based on the similarity of the shape of an edge (contour) rather than the luminance value of an image (see Non-Patent Document 2). As preprocessing for collation, a Sobel filter, a Canny edge detector, or the like is applied to the reference image to extract edges in the image. Then, the object is recognized by collating the edge of the template with the edge of the reference image.
特許文献1では、能動的な制御が可能な光源を複数利用して物体の輪郭を抽出する方法が開示されている。カメラの周囲に取り付けた複数の光源を1つずつ点滅させ、それに同期してカメラで対象物の画像を取得する。すると、立体形状が存在する箇所で影が発生したり消滅したりする。この影の明滅は照明の照射方向と対象物の物理形状に依存することから、この影の明滅の変化を各画像で調べることにより、対象物の奥行きの不連続点、すなわち物理形状の輪郭をエッジとして抽出することができる。
カメラで撮影した画像の輝度値は、物体の形状だけでなく、物体表面のテクスチャの濃淡や反射率、照明条件などにも依存する。このため、輝度値に基づくテンプレートマッチングによって物体を認識しようとすると、物体の形状以外の要因によって認識性能が低下する可能性がある。チャンファ・マッチング(chamfer matching)による物体認識でも同様に、物体の形状以外の要因により、検出したい物体の輪郭がエッジとして抽出されない場合、または物体表面のテクスチャなど、輪郭以外の部分が偽の輪郭として抽出される場合がある。このような状況では、チャンファ・マッチングの認識精度が大きく低下することが知られている。 The luminance value of an image photographed by the camera depends not only on the shape of the object but also on the density of the texture of the object surface, the reflectance, the illumination conditions, and the like. For this reason, when trying to recognize an object by template matching based on a luminance value, there is a possibility that the recognition performance is deteriorated due to factors other than the shape of the object. Similarly, in object recognition by chamfer matching, if the contour of the object to be detected is not extracted as an edge due to factors other than the shape of the object, or a portion other than the contour, such as the texture of the object surface, is a false contour May be extracted. In such a situation, it is known that the recognition accuracy of chamfer matching is greatly reduced.
光源の能動的な制御により物体の輪郭を抽出する方法は、物体の認識までは考慮されていないため、物体の認識については別の手段、例えばチャンファ・マッチングなどと組み合わせる必要がある。すなわち、光の照射方向を変えて物体を撮影した複数の画像は、物体の立体形状に関する有用な情報を持っているにもかかわらず、その情報をマッチング処理に直接利用するといったことは行われていなかった。 The method of extracting the contour of the object by active control of the light source does not take into account the recognition of the object. Therefore, it is necessary to combine the object recognition with another means such as chamfer matching. That is, a plurality of images obtained by photographing an object by changing the direction of light irradiation have useful information regarding the three-dimensional shape of the object, but the information is directly used for matching processing. There wasn't.
さらに、前述の一般的なテンプレートマッチングの枠組みでは、テンプレートの位置(さらに場合によっては大きさや角度)を変えながら、参照画像との間の類似度または相違度を評価し、最も類似度が高いテンプレートの位置(および大きさ、角度)を求める。このとき、テンプレートは2次元平面パターンとして取り扱われる。一方、認識対象物が奥行きを持った立体物の場合、カメラと認識対象物の相対的な位置関係がわずかにずれただけでも、カメラから対象物を見たときの見えが大きく変化することがある。具体的には、認識対象物の奥行きがワーキングディスタンス(カメラと認識対象物の間の距離)に近づくほど、位置関係の変化による見えの変化が大きくなる。このような立体物を一般的なテンプレートマッチングの枠組みで検出するためには、多様な見えの変化に対応する大量のテンプレートを保持しておき、テンプレートを切り替えながらマッチング処理を繰り返せばよいが、演算処理コストが膨大になるという問題がある。 Furthermore, in the above-described general template matching framework, a template having the highest similarity is evaluated by changing the position of the template (and, in some cases, the size and angle) while evaluating the similarity or dissimilarity with the reference image. Find the position (and size, angle) of. At this time, the template is handled as a two-dimensional plane pattern. On the other hand, when the recognition target is a three-dimensional object having a depth, even when the relative positional relationship between the camera and the recognition target is slightly shifted, the appearance when the target is viewed from the camera may change greatly. is there. Specifically, as the depth of the recognition target object approaches the working distance (distance between the camera and the recognition target object), the change in appearance due to the change in the positional relationship increases. In order to detect such a three-dimensional object using a general template matching framework, it is sufficient to hold a large number of templates corresponding to various changes in appearance and repeat the matching process while switching the templates. There is a problem that the processing cost becomes enormous.
本発明の目的は以上の問題点を解決し、従来技術に比較して高い認識精度を有し、演算処理コストを低減でき、対象物の見えの変化に対する頑健性を高めた高精度な物体認識装置を提供することにある。 The object of the present invention is to solve the above-mentioned problems, have high recognition accuracy compared to the prior art, reduce the processing cost, and highly accurate object recognition with improved robustness against changes in the appearance of the object To provide an apparatus.
本発明の一態様に係る物体認識装置は、認識対象物を撮影するカメラと、カメラの周辺に複数個配置され各々が独立して選択的に明滅する光源と、各光源の明滅を制御して当該各光源の明滅に同期してあるいは非同期でカメラに撮像トリガ信号を送出し符号生成部に光源ID情報を送出する制御部と、各光源の点灯または消灯時にカメラで撮影された各画像の輝度値から符号を生成する符号生成部と、所定の基準物体の情報を格納したテンプレート記憶部と、認識対象物を撮影した画像群から生成した符号をテンプレート記憶部に格納した情報から生成した符号と照合し照合結果を出力する符号照合部とを備えることを特徴とする。 An object recognition apparatus according to an aspect of the present invention includes a camera that captures a recognition target, a plurality of light sources that are arranged around the camera and each selectively flashes independently, and controls the flashing of each light source. A control unit that sends an imaging trigger signal to the camera in synchronization or asynchronously with the blinking of each light source and sends light source ID information to the code generation unit, and the luminance of each image taken by the camera when each light source is turned on or off A code generation unit that generates a code from a value, a template storage unit that stores information on a predetermined reference object, and a code that is generated from information stored in the template storage unit that is generated from an image group obtained by photographing a recognition object And a code collating unit that collates and outputs a collation result.
本発明では、カメラの周辺に配置された複数の光源の明滅を変化させながら画像を取得し、取得した複数の画像の画素値から符号を生成する。この符号は、物体の立体形状に関する情報を持っていることから、この符号の照合、すなわちテンプレートマッチングを実行することにより、従来技術に比較して、高精度、高速かつ外乱に対して頑健に物体を認識することができる。 In the present invention, an image is acquired while changing the blinking of a plurality of light sources arranged around the camera, and a code is generated from the pixel values of the acquired images. Since this code has information related to the three-dimensional shape of the object, by executing this code collation, that is, template matching, the object is more accurate, faster, and more robust against disturbance than the prior art. Can be recognized.
以下、本発明に係る実施形態について図面を参照して説明する。なお、以下の各実施形態において、同様の構成要素については同一の符号を付している。本発明に係る実施形態では、物体に対して異なる方向から光を照射しながら画像を取得し、これらの画像から生成した符号を用いたマッチングを行うことにより、従来技術に比較して、対象物の見えの変化に対する頑健性を高めた高精度な物体認識装置を提供する。 Hereinafter, embodiments according to the present invention will be described with reference to the drawings. In addition, in each following embodiment, the same code | symbol is attached | subjected about the same component. In the embodiment according to the present invention, an object is obtained by irradiating light from different directions on an object, and matching is performed using codes generated from these images, so that the object is compared with the related art. A highly accurate object recognition device with improved robustness against changes in the appearance of the object.
実施の形態1.
図1は、実施の形態1に係る物体認識装置100の構成を示している。図1において、実施の形態1に係る物体認識装置100は、カメラ101と、複数N個の光源102−1〜102−Nと、制御部103と、符号生成部104と、テンプレート記憶部105と、符号照合部106とを備えて構成される。これらの構成部分について、以下に詳細説明する。
FIG. 1 shows a configuration of an
図1において、カメラ101は、制御部103からの制御信号を受信すると、認識対象物の画像を撮影し、撮影した画像の画像データを符号生成部104に送出する。光源102−1〜102−Nは上記認識対象物に光を照射する。光源102−1〜102−Nはそれぞれ、制御部103からの制御信号を受けて1個ずつ順次独立して選択的に明滅する。すなわち、N個の光源102−1〜102−Nのうち2個以上が同時に点灯することはないものとする。ここでは、N個の光源102に対し1番からN番まで順番に付番し、以降この番号を光源IDと呼ぶこととする。
In FIG. 1, when receiving a control signal from the
制御部103は例えばディジタル計算機などのコントローラであって、N個の光源102−1〜102−Nのうち1つに対して制御信号を送出し、これと同時にカメラ101に対して制御信号を送出し、また符号生成部104に対して光源ID情報を送出する。この動作をN個の光源102−1〜102−Nのそれぞれに対して1個ずつ順次選択的に行う。符号生成部104は、カメラ101から受信したN枚の画像データから符号を生成する。なお、符号生成部104は、各光源102−1〜102−Nの光源IDと、その光源102−1〜102−Nからの光の照射方向とを対応付ける、図2に示すような光源方向情報テーブルを内部メモリ104mに保持しているものとする。この光源方向情報テーブルの情報は、後に述べる符号生成部104の内部処理で使用する。以降、光源からの光の照射方向のことを光源方向と呼ぶこととする。なお、光の照射方向は、例えば図3に示すように、カメラ101を中心として、各光源102−1〜102−Nの位置の角度を示す。
The
テンプレート記憶部105は、認識対象物のテンプレート符号を記憶する。物体認識装置100で認識させたい認識対象物の符号をあらかじめ生成しておき、テンプレート符号として保持しておく。符号照合部106は、テンプレート記憶部105に記憶されているテンプレート符号を読み出し、符号生成部104で生成された参照画像の符号との照合、すなわちテンプレートマッチング処理を行う。テンプレート符号と参照画像の符号を照合することにより、参照画像中での認識対象物の位置を認識し、当該認識結果を出力する。
The
図3は、実施の形態1に係る物体認識装置100の外観と、各光源102−1〜102−Nに光源IDを割り当てた一例を示した模式図である。図3の例では、N=8であり、8個の光源102−1〜102−8がカメラ101の光軸から等距離、かつ互いに等間隔になるように配置されている。それぞれの光源102−1〜102−8の光源IDは、カメラ101の上方の光源102−1から、時計回りに順番に付番してある。なお、N個の光源102−1〜102−8の配置は、図3のように必ずしも等間隔である必要はなく、カメラ101の光軸から等距離である必要もない。また、図3の例のようにカメラ101と光源102−1〜102−8を一体化した筐体とする必要はなく、別個の筐体としてもよい。
FIG. 3 is a schematic diagram illustrating an appearance of the
図4は、平面の背景201の上に認識対象物の直方体202を配置したシーンにおいて、シーンの真上から物体認識装置100で直方体202を撮影する様子を示した模式図である。このような状況で、物体認識装置100に備えられる光源102−1〜102−Nの明滅を順次選択的に切り替えながら撮影した画像の模式図を図5A及び図5Bに示す。図5Aでは、直方体202に対して画像の上方向から光を照射した場合の例を示し、図5Bでは、左下方向から光を照射した場合の撮影画像の場合の例を示している。直方体202に光を照射することにより、直方体202の背面にある平面の背景201に影203が生じる。光源102による光の照射方向を変化させることにより、直方体202の周囲に現れる影203の位置が変化する。
FIG. 4 is a schematic diagram showing a state in which the cuboid 202 is photographed by the
次に、本発明の実施の形態1に係る物体認識装置100が物体認識を行う流れを説明する。
Next, the flow in which the
はじめに、物体認識装置100で認識させたい対象物をテンプレートとして登録するため、基準となる物体を用いてテンプレート符号を生成する。
First, in order to register an object to be recognized by the
カメラ101の視野内に認識対象物(基準物体)を配置し、制御部103の制御によりN個の光源102−1〜102−Nを1個ずつ順次選択的に点灯させながら、カメラ101で画像データをN枚取得する。N枚の画像データを撮影している間、カメラ101と認識対象物の相対的な位置関係は不変であることとする。こうして得られたN枚の画像データから、符号生成部104で符号を生成する。生成した符号は、テンプレート記憶部105へ送出され、テンプレート符号としてテンプレート記憶部105で記憶される。
An object to be recognized (reference object) is placed in the field of view of the
物体認識を行う際の流れは、符号生成部104での符号生成までは同じである。すなわち、カメラ101の視野に認識対象シーンを配置し、光源102−1〜102−Nの明滅を順次選択的に切り替えながらN枚の参照画像を撮影し、符号生成部104で符号を生成する。その後、テンプレート記憶部105に記憶されている符号と、N枚の参照画像から生成された符号との照合を符号照合部106で実行し、物体の位置を認識する。
The flow for performing object recognition is the same up to code generation in the
以上が、物体認識装置100がテンプレートを事前登録する流れと、物体認識を実行する流れである。
The above is a flow in which the
次に、符号生成部104による符号の生成手順について説明する。
Next, a code generation procedure by the
まず、カメラ101の視野内に対象物を配置し、N個の光源102−1−1〜102−Nを1個ずつ順次選択的に点灯させながらカメラ101で画像を取得する。こうして得られたN枚の画像データをそれぞれI1からINとおく。その後、画像データI1からINのそれぞれに対し、光源方向に沿う方向の輝度勾配の強度(隣接画素間の輝度の差の絶対値をいい、「輝度勾配強度」という。)を計算し、輝度勾配の画像データ(以下、「輝度勾配画像データ」という。)I1’からIN’を求める。ここで光源方向は、図2に示すような光源方向情報テーブルを参照することにより得られる。カメラ101で撮影した画像(a)とその輝度勾配画像(b)の模式図を図6A及び図6Bに示す。図6A及び図6Bではそれぞれ、図5A及び図5Bと同様に2方向の光源方向についての輝度勾配画像の模式図を示している。例えば、左下から光を照射したときの画像の輝度勾配画像は、左下の画素の輝度の差の絶対値を表現した画像である。
First, an object is placed in the field of view of the
輝度勾配画像において勾配強度が大きくなるのは、光の照射によって明るく照らされた領域と影の領域の境界部分であり、この部分にエッジが現れる。このエッジは、対象物の奥行きが急激に変化する箇所、すなわち物理形状の輪郭に沿って現れる。したがって、異なる方向から光を当てたときの輝度勾配強度の違いは、対象物の奥行き形状がどの向きに変化しているかという情報を与えているとみることができる。符号生成部104によって生成される符号は、画素毎にN次元ベクトルで表現する。光源IDがkの輝度勾配画像データI’kの、座標(x,y)の輝度勾配強度をI’k(x,y)とすると、座標(x,y)に割り当てる符号u(x,y)を次式で表す。
In the luminance gradient image, the gradient intensity increases at the boundary portion between the region brightly illuminated by the light irradiation and the shadow region, and an edge appears in this portion. This edge appears along the part where the depth of the object changes rapidly, that is, along the contour of the physical shape. Therefore, it can be considered that the difference in intensity gradient when light is applied from different directions provides information on the direction in which the depth shape of the object is changing. The code generated by the
ここで、記号Tは転置を表す。画像内の全ての画素について、上記のように符号を生成する。以上が、符号生成部104が撮影画像から符号を生成する手順である。
Here, the symbol T represents transposition. Codes are generated as described above for all pixels in the image. The above is the procedure in which the
図7は、カメラ101により撮影されたN枚の画像データから、符号生成部104が生成した符号を濃淡画像として表現した模式図を示している。撮影した物体を基準物体として登録する事前登録の段階では、認識対象物を含む範囲(点線で図示)を符号から切り出し、テンプレート記憶部105へ格納しておく。
FIG. 7 is a schematic diagram in which the code generated by the
次に、符号照合部106において符号を照合することにより物体の位置を認識する手順について説明する。前に述べたように、符号照合部106では、認識対象シーンの撮影画像(参照画像)から生成された符号を、テンプレート記憶部105に記憶されている符号と照合し、符号の相違度が最小となる位置を求める。
Next, a procedure for recognizing the position of the object by collating the code in the
いま、参照画像から求められた勾配強度により構成される、座標(i,j)の画像データの符号をs(i,j)とおく。また、テンプレート記憶部105に記憶されている、座標(i,j)のテンプレート符号をt(i,j)とし、そのサイズを横W画素、縦H画素とおく。このとき相違度は、2つの符号ベクトルの内積を<,>と表記すると、内積の総和、すなわち次式により求める。
Now, let s (i, j) be the sign of image data at coordinates (i, j), which is composed of the gradient strength obtained from the reference image. The template code of coordinates (i, j) stored in the
そして、認識対象物の物体の位置は、上記の式(1)を最小にする座標(x,y)として求める。なお、認識対象物の画像上での大きさ(スケール)が事前登録時と物体認識時とで変化する場合は、符号照合部106においてテンプレート符号のスケールを変動させ、相違度を評価すればよい。例えば、テンプレート符号t(i,j)を成分t1(i,j),t2(i,j),…に分割し、成分毎に2次元最近傍法やスプライン補間法などを用いて拡大・縮小することにより、異なるスケールのテンプレート符号が得られる。これらのテンプレート符号を切り替えながら照合を繰り返し、相違度が最小となる位置とスケールを求める。
Then, the position of the object of the recognition target is obtained as coordinates (x, y) that minimizes the above equation (1). If the size (scale) of the recognition target object on the image changes between pre-registration and object recognition, the
以上のように構成された実施の形態1によれば、符号生成部104で生成される符号は、異なる方向から光を当てたときの輝度勾配強度に関する情報を持つことになる。この輝度勾配は、光を当てる方向と対象物の物理形状に依存する。すなわち符号生成部104では、対象物の物理形状に関する有効な情報を画素毎に符号として割り当てるため、この符号を用いてテンプレートマッチングを行えば、物体の立体形状情報に基づいた高精度な物体認識を実現することが可能となる。
According to the first embodiment configured as described above, the code generated by the
以上の実施の形態において、各光源102−1〜102−Nの明滅を制御して当該各光源102−1〜102−Nの明滅に同期してカメラ101に撮像トリガ信号を送出しているが、本発明はこれに限らず、当該各光源102−1〜102−Nの明滅に非同期で(ただし、各光源102−1〜102−Nとの対応は必要)カメラ101に撮像トリガ信号を送出してもよい。
In the above embodiment, the blinking of each of the light sources 102-1 to 102-N is controlled and an imaging trigger signal is sent to the
実施の形態2.
実施の形態1に係る物体認識装置100に備えられる符号生成部104は、実施の形態2において、輝度勾配強度の順位を符号として生成するようにしてもよい。実施の形態1に係る物体認識装置100が備える符号生成部104との違いは、カメラ101により撮影されたN枚の画像データから勾配強度を算出した後、勾配強度の順位を求める点である。
The
図8は、N=8の場合について、ある座標の輝度勾配強度とその順位の一例を示した図である。輝度勾配強度の大きい光源方向に対応する光源IDから順番に、1から8まで順位付けを行う。実施の形態2に係る符号生成部104によって生成される符号は、画素毎にN次元ベクトルで表現する。座標(x,y)の画像データにおいて、光源IDがkの勾配強度の順位をrk(x,y)(ただし
画像データ内の全ての画素について、上記のように符号を生成する。以上が、符号生成部104が撮影画像から符号を生成する手順である。
Codes are generated as described above for all pixels in the image data. The above is the procedure in which the
符号照合部106による符号の照合は、輝度勾配強度の順位の差を相違度として評価することにより実行する。いま、参照画像データから求められた輝度勾配強度により構成される、座標(i,j)の画像データにおける符号を次式で表す。
The verification of the code by the
また、テンプレート記憶部105に記憶されている、座標(i,j)のテンプレート符号を次式で表す。
The template code of coordinates (i, j) stored in the
そのサイズを横W画素、縦H画素とおく。このときの相違度は、輝度勾配強度の順位の差の総和、すなわち次式として求める。 The size is set to horizontal W pixels and vertical H pixels. The degree of difference at this time is obtained as the sum of the differences in the order of the luminance gradient intensities, that is, the following equation.
そして、認識対象物の物体の位置は、上記の式(2)を最小にする座標(x,y)として求める。なお、認識対象物の画像上での大きさ(スケール)が事前登録時と物体認識時とで変化する場合は、実施の形態1に係る符号照合部106と同様に、テンプレート符号のスケールを変動させ、相違度を評価すればよい。
Then, the position of the object of the recognition target is obtained as coordinates (x, y) that minimizes the above equation (2). When the size (scale) of the recognition target object on the image changes between pre-registration and object recognition, the scale of the template code varies as in the
以上のように構成された実施の形態2によれば、符号生成部104で生成される符号は勾配強度の順位であるため、勾配強度の順位が入れ替わらない範囲での勾配強度の変動に対して頑健な物体認識を実現することができる。
According to the second embodiment configured as described above, since the code generated by the
実施の形態3.
実施の形態1に係る物体認識装置100に備えられる符号生成部104は、実施の形態3において、輝度勾配強度の順位を2段階に分類した結果を表現した二値符号を生成し、符号照合部106は符号生成部104で生成された二値符号をハミング距離によって照合するように構成してもよい。
The
実施の形態3に係る符号生成部104によって生成される符号は、画素毎にNビットの二進数で表現する。各画素の符号を構成するNビットを、それぞれ光源IDの1からNに対応させる。実施の形態2に係る符号生成部104によって生成される符号との違いは、画素毎の輝度勾配強度の順位を求めた後、順位を上位と下位の2段階に分類し、その結果を二値符号とする点である。輝度勾配強度の順位が上位に含まれる光源IDは、対応する二値符号のビットを1にセットし、下位に含まれる光源IDは、対応する二値符号のビットを0にセットする。このような手順により、画像データ内の全ての画素について、Nビットからなる二値符号を生成する。
The code generated by the
図9は、N=8の場合について、ある画素の輝度勾配強度とその順位、さらに順位を2段階に分類して二値符号を生成した例を示している。勾配強度の順位rkを求めるまでの処理の流れは、図8と同様である。本実施の形態では、勾配強度の順位を求めた後、順位が上位4つの光源ID(2,3,4,6)について、対応するビットに1をセットし、下位4つの光源ID(1,5,7,8)について、対応するビットに0をセットする。こうして得られた8ビットが、この画素の二値符号となる。符号照合部106による符号の照合は、参照画像から生成した符号とテンプレート符号とのハミング距離に基づいて相違度を評価することにより実行する。ハミング距離とは、ビット長が同じ2つの2進数を比較したときの、値が異なっているビットの個数である。
FIG. 9 shows an example in which a binary code is generated by classifying a luminance gradient intensity of a pixel, its rank, and further rank into two stages for N = 8. The flow of processing until the gradient strength rank rk is obtained is the same as that shown in FIG. In this embodiment, after obtaining the rank of the gradient intensity, 1 is set in the corresponding bit for the upper four light source IDs (2, 3, 4, 6), and the lower four light source IDs (1, For 5, 7, 8), set the corresponding bit to 0. The 8 bits thus obtained becomes the binary code of this pixel. Code verification by the
図10は、ある画素について、テンプレートの二値符号と参照画像から生成した二値符号からハミング距離を求める一例を示している。値が一致している部分には○を、異なっている部分には×を記している。図10の例の場合、値が異なっているビットは4個であるため、この画素のハミング距離は4である。 FIG. 10 shows an example of obtaining the Hamming distance for a certain pixel from the binary code of the template and the binary code generated from the reference image. A portion where the values are the same is marked with a circle, and a portion where the values are different is marked with a cross. In the case of the example in FIG. 10, the number of bits having different values is four, so the hamming distance of this pixel is four.
いま、参照画像データから生成された符号をSとおく。また、テンプレート記憶部105に記憶されているテンプレート符号をTとし、そのサイズをW×Hとおく。2つの2進数b1,b2の間のハミング距離をH(b1,b2)と表記すると、相違度はハミング距離の総和、すなわち次式により求める。
Now, let S be a code generated from the reference image data. In addition, the template code stored in the
そして、認識対象物の物体の位置は、上記の式(3)を最小にする座標(x,y)として求める。なお、ハミング距離H(b1,b2)は以下の手順で高速に求めることができる。あらかじめ、10進数a(0≦a<2N)を2進数に変換した際に値が1となる桁の数をサイズ2Nのテーブルt(a)に格納しておく。例えば、10進数151を2進数に変換すると10010111であり、1となる桁の数は5であるから、t(151)=5である。
Then, the position of the object of the recognition target is obtained as coordinates (x, y) that minimizes the above equation (3). The Hamming distance H (b 1 , b 2 ) can be obtained at high speed by the following procedure. The number of digits whose value is 1 when the decimal number a (0 ≦ a <2 N ) is converted into a binary number is stored in the table t (a) of
いま、2進数b1とb2の排他的論理和を10進数化した値をXOR10(b1,b2)と表すとすると、2つの2進数b1,b2の間のハミング距離は、テーブルt(・)の参照により次式によって求められる。 If a value obtained by converting the exclusive OR of the binary numbers b 1 and b 2 into a decimal number is expressed as XOR 10 (b 1 , b 2 ), the Hamming distance between the two binary numbers b 1 and b 2 is By referring to the table t (·), the following equation is obtained.
このように、あらかじめテーブルを作成しておくことにより、ハミング距離を高速に計算することが可能となる。 Thus, by creating a table in advance, it is possible to calculate the Hamming distance at high speed.
また、認識対象物の画像上での大きさ(スケール)が事前登録時と物体認識時とで変化する場合は、符号照合部106においてテンプレート符号T(i,j)のスケールを変動させ、相違度を評価すればよい。例えば、T(i,j)を2次元最近傍法によって拡大・縮小することにより、大きさの異なるテンプレートが得られる。これらのテンプレートを切り替えながら照合を繰り返し、相違度が最小となる位置とスケールを求める。
In addition, when the size (scale) of the recognition target object on the image changes between pre-registration and object recognition, the scale of the template code T (i, j) is changed in the
以上のように構成された実施の形態3によれば、符号生成部104で生成される符号は、勾配強度順位を上位と下位の2段階に分類した結果を二値化したものであるから、物体の位置ずれやノイズなどの外乱に起因する勾配強度の変動だけでなく、順位の入れ替わりに対しても頑健に物体認識を行うことができる。
According to the third embodiment configured as described above, the code generated by the
さらに、符号照合部106による相違度の評価はハミング距離に基づくことから、ビット演算とテーブルの参照に基づく演算として実現できるので、ディジタル計算機上で高速に符号の照合を実行することができる。
Furthermore, since the evaluation of the degree of difference by the
実施の形態4.
実施の形態1に係る物体認識装置100に備えられる符号生成部104は、実施の形態4において、輝度勾配強度の順位を上位、中位及び下位の3段階に分類した結果を表現した三値符号を生成し、符号照合部106は符号生成部104で生成された三値符号を照合するように構成してもよい。実施の形態4に係る符号生成部104によって生成される符号は、1画素につきN桁の三値符号で表現する。
The
図11は、N=8の場合について、ある座標の輝度勾配強度からN桁の三値符号を生成する流れの一例を示した図である。輝度勾配強度の順位rkを求めるまでの処理の流れは、図8および図9と同様である。本実施の形態では、輝度勾配強度の順位を求めた後、順位が上位2つの光源ID(2,3)について、対応する桁に1をセットし、中位4つの光源ID(1,4,5,6)について、符号*をセットし、下位2つの光源ID(7,8)について、対応するビットに0をセットする。図11では、上位、中位及び下位に分類する光源IDの数をそれぞれ2,4,2としているが、上位、中位及び下位のそれぞれに分類する数の配分はこの限りではない。 FIG. 11 is a diagram illustrating an example of a flow of generating an N-digit ternary code from a luminance gradient intensity at a certain coordinate in the case of N = 8. The flow of processing until the luminance gradient strength rank rk is obtained is the same as that shown in FIGS. In the present embodiment, after obtaining the rank of the luminance gradient intensity, 1 is set in the corresponding digit for the two light source IDs (2, 3) with the highest rank, and the middle four light source IDs (1, 4, 4). 5 and 6), the symbol * is set, and for the lower two light source IDs (7 and 8), the corresponding bits are set to 0. In FIG. 11, the numbers of light source IDs classified into upper, middle, and lower levels are 2, 4, and 2, respectively, but the distribution of the numbers classified into upper, middle, and lower levels is not limited to this.
次に、本発明の実施の形態4に係る符号生成部104により生成される三値符号を、符号照合部106で照合する手順を説明する。本発明の実施の形態3に係る符号照合部106での照合との相違点は、順位が中位に分類された光源IDに対応する符号*を、ワイルドカードとみなす点である。ワイルドカードとは、どの符号とも一致する(相違度が0となる)符号のことである。
Next, a procedure for collating the ternary code generated by the
図12は、ある画素について、テンプレートの三値符号と参照画像から生成した三値符号を照合する一例を示している。値が一致している部分には○を、異なっている部分には×を記している。前に述べたように、ワイルドカードの符号*は、どの符号とも一致する符号として定義する。図9の例の場合、値が異なっているビットの個数は2であるので、この画素の相違度は2である。 FIG. 12 shows an example of collating a ternary code of a template with a ternary code generated from a reference image for a certain pixel. A portion where the values are the same is marked with a circle, and a portion where the values are different is marked with a cross. As described above, the wildcard code * is defined as a code that matches any code. In the case of the example in FIG. 9, the number of bits having different values is 2, so the degree of difference between the pixels is 2.
本発明の実施の形態3に係る物体認識装置100に備えられる符号照合部106では、ハミング距離に基づいて相違度を定義した。本実施の形態では、この相違度の考え方を図12のように三値符号へと拡張し、これを拡張ハミング距離と呼ぶこととする。参照画像から生成された三値符号をS’、テンプレート記憶部105に記憶されているテンプレート三値符号をT’とおき、そのサイズをW×Hとする。2つの三値符号s1,s2の拡張ハミング距離をH’(s1,s2)と表記すると、物体の位置は次式を最小にする座標(x,y)として得られる。
In the
認識対象物の画像上での大きさ(スケール)が事前登録時と物体認識時とで変化する場合は、実施の形態3に係る符号照合部106と同様に、テンプレート符号のスケールを変動させ、相違度を評価すればよい。
When the size (scale) of the recognition target object on the image changes between pre-registration and object recognition, the scale of the template code is changed as in the
以上のように構成された実施の形態4によれば、符号生成部104で生成される符号は、勾配強度の順位が中位の光源IDにワイルドカードとなる符号、すなわちどの符号とも一致するような符号を割り当てるため、中位(N/2番目前後)での勾配強度の順位の入れ替わりが生じても、相違度の評価に影響を与えることなく、頑健に物体認識を行うことができるようになる。
According to the fourth embodiment configured as described above, the code generated by the
実施の形態5.
実施の形態1に係る物体認識装置100に備えられる符号生成部104は、実施の形態5において、輝度勾配が最大となる光源方向を求め、この方向を符号化するようにし、符号照合部106では勾配の方向(角度)の差に基づいて相違度を評価するように構成してもよい。
The
図13は、N=8の場合について、ある座標の輝度勾配強度から光源方向符号を生成する流れの一例を示した図である。ここで、輝度勾配強度を求めるまでの流れは、図8、図9、図11と同様である。本実施の形態に係る符号生成部104では、勾配強度が最大となる光源方向を求め、これに対応する光源IDをこの画素の符号(光源方向符号)とする。
FIG. 13 is a diagram illustrating an example of a flow of generating a light source direction code from a luminance gradient intensity at a certain coordinate in the case of N = 8. Here, the flow until the luminance gradient intensity is obtained is the same as that shown in FIGS. In the
符号照合部106では、参照画像から生成した符号とテンプレート符号との光源方向の角度差に基づいて相違度を評価する。参照画像から生成された符号をS”、テンプレート記憶部105に記憶されているテンプレート符号をT”とし、そのサイズをW×Hとおく。参照画像の座標(i,j)における光源方向、すなわち符号S”(i,j)をキーとして図2に示す内部メモリ104m内の光源方向情報テーブルを参照し、対応する光源方向を求める。これをθs(i,j)と表す。同様に、テンプレート符号の座標(i,j)における光源方向、すなわち符号T”(i,j)をキーとして図2に示す光源方向情報テーブルを参照し、得られる光源方向をθt(i,j)と表記する。すると、物体の位置は参照画像の光源方向θsとテンプレートの光源方向θtの角度差の総和、すなわち次式を最小にする座標(x,y)として得られる。
The
ここで、%は剰余を表す演算子とする。また、min(X,Y)はXとYのうち小さい方を選択する最小値選択関数を意味する。認識対象物の画像上での大きさ(スケール)が事前登録時と物体認識時とで変化する場合は、実施の形態3で述べた手順と同様に、符号照合部106においてテンプレート符号のスケールを変動させ、相違度を評価すればよい。
Here,% is an operator representing a remainder. Also, min (X, Y) means a minimum value selection function that selects the smaller of X and Y. When the size (scale) of the recognition target object on the image changes between pre-registration and object recognition, the
以上のように構成された実施の形態5によれば、符号生成部104での符号生成処理は、画素ごとにN個の輝度勾配強度の数値のうち最も輝度勾配強度が大きい光源IDを選択するだけで済むため、高速に符号を生成することができる。また、符号生成部104で生成される符号は各画素につきlog2Nビットで表現できるため、コンパクトな符号とすることができる。
According to the fifth embodiment configured as described above, the code generation processing in the
実施の形態6.
本発明の実施の形態1に係る物体認識装置100に備えられる符号生成部104は、実施の形態6において、各光源を点灯して撮影した画像データについて輝度勾配の方向を画素毎に求めて符号を構成し、符号照合部106では輝度勾配の方向(角度)の差に基づいて相違度を評価するように構成してもよい。本実施の形態に係る符号生成部104が符号を生成する符号は、画素毎にN次元ベクトルで表現する。符号を生成する流れは以下の通りである。
The
本実施の形態において、説明を簡単にするため、物体認識装置100が備える光源102−1〜102−8は、図3に示すように同心円状に等間隔に配置されているものとする。光源102−1〜102−8の配置が等間隔ではない場合についても、以下に述べる処理に対して各光源102−1〜102−8の間隔に応じて適宜必要な変更を加えれば実現が可能である。あらかじめ、全周360度を(360/N)度ずつに等間隔に分割し、それぞれの範囲に0からN−1までの符号を割り当て、これを勾配方向特徴量とする。
In the present embodiment, in order to simplify the description, it is assumed that the light sources 102-1 to 102-8 included in the
まず、物体認識装置が備えるN個の光源102−1〜102−Nを1個ずつ順次選択的に点灯させながら、カメラ101で画像の画像データを取得する。こうして得られたN枚の画像データをそれぞれ、I1からINとおく。その後、画像データI1からINのそれぞれに対し、画素毎に輝度勾配の方向を求める。画像データIのx軸方向(横方向)の輝度勾配をI’x、y軸方向(縦方向)の輝度勾配をI’yとすると、座標(x,y)の勾配方向は次式によって求められる。
First, image data of an image is acquired by the
ここで、関数「atan2」は4象限表現の逆正接関数を表し、C言語等の一般的なプログラミング言語では標準で用意されている。こうして得られた勾配方向情報をN段階に量子化することにより、勾配方向特徴量を求め、これを座標(x,y)における画像データの符号とする。 Here, the function “atan2” represents an arctangent function having a four-quadrant expression, and is prepared as a standard in a general programming language such as C language. By quantizing the gradient direction information obtained in this way into N stages, the gradient direction feature quantity is obtained and used as the code of the image data at the coordinates (x, y).
図14は、N=8の場合について、ある画素の輝度勾配の方向と、それに対応する輝度勾配方向特徴量を示している。輝度勾配方向と特徴量の対応関係は、図14の右側に示している。光源IDがkの光源102−kを点灯させたときの撮影画像データIkの、座標(x,y)の画像データにおける勾配方向特徴量を
画像内の全ての画素について、上記のように符号を生成する。以上が、符号生成部104が撮影画像から符号を生成する手順である。符号照合部106による符号の照合は、輝度勾配方向(角度)の差を相違度として評価することにより実行する。いま、参照画像データから求められた輝度勾配方向の特徴量により構成される、座標(i,j)の画像データにおける符号を次式で表す。
Codes are generated as described above for all pixels in the image. The above is the procedure in which the
また、テンプレート記憶部105に記憶されている、座標(i,j)の画像データのテンプレート符号を次式で表す。
Further, the template code of the image data at the coordinates (i, j) stored in the
そのサイズを横W画素、縦H画素とおく。このとき相違度は、勾配方向の差の総和、すなわち次式として求める。 The size is set to horizontal W pixels and vertical H pixels. At this time, the degree of difference is obtained as a sum of differences in the gradient direction, that is, as the following equation.
そして、物体の位置は、上記の式(4)を最小にする座標(x,y)として求める。 And the position of an object is calculated | required as a coordinate (x, y) which minimizes said Formula (4).
なお、認識対象物の画像データ上での大きさ(スケール)が事前登録時と物体認識時とで変化する場合は、符号照合部106においてテンプレート符号のスケールを変動させ、相違度を評価すればよい。例えば、テンプレート符号
以上のように構成された実施の形態6によれば、輝度勾配強度やその順位は、照明などの環境や物体表面の状態などの要因で変動することがある。しかし、輝度勾配の方向は物体の形状に強く依存し、環境による変動が起こりにくいという特徴があるため、このような構成により物体認識装置の認識精度を向上させることができる。 According to the sixth embodiment configured as described above, the luminance gradient strength and its order may vary due to factors such as the environment such as illumination and the state of the object surface. However, since the direction of the luminance gradient is strongly dependent on the shape of the object and has a feature that it is less likely to fluctuate due to the environment, such a configuration can improve the recognition accuracy of the object recognition apparatus.
実施の形態7.
本発明の実施の形態1から6に係る物体認識装置100に備えられる符号照合部106においては、物体のスケールの変化に対応するため、テンプレート符号を拡大又は縮小するという方法を採っていた。これとは別の方法として、実施の形態7では、N個の光源102−1〜102−Nのそれぞれを点灯させたときの撮影画像をテンプレート記憶部に保持しておき、これらN枚の画像データを照合の際に拡大又は縮小しながら符号を生成するように構成してもよい。
The
図15は、本発明の実施の形態7に係る物体認識装置100の構成を示している。実施の形態7に係る物体認識装置100は、図1の実施の形態1に係る物体認識装置100に比較して、N個の光源102−1〜102−Nをそれぞれ順次選択的に点灯させて撮影したN枚の輝度画像データを制御部103からの制御信号に基づいてテンプレート記憶部105に格納する点が異なる。符号生成部104は、制御部103からの光源IDと、カメラ101からの画像データと、テンプレート記憶部105からのテンプレート画像データに基づいて、テンプレート画像データに対する符号を生成するとともに、参照画像データの符号を生成して符号照合部106に出力する。符号照合部106は、テンプレート画像データと参照画像データの各符号を照合するときに、テンプレート記憶部105から読み出したN枚のテンプレート画像データから符号生成部104にて生成した符号と、認識対象物を撮影した参照画像から符号生成部104にて生成した符号とを照合する。
FIG. 15 shows the configuration of an
認識対象物の画像上での大きさ(スケール)が事前登録時と物体認識時とで変化する場合は、符号生成部104はテンプレート記憶部105から読み込んだN枚のテンプレート画像を拡大又は縮小する。これらのテンプレート画像データは輝度画像であるため、拡大又は縮小には画像の拡大又は縮小の手法として一般的に用いられている2次元スプライン補間法などの滑らかな補間法を用いることができる。当該補間法によって拡大又は縮小したN枚の画像データから符号を生成し、これをテンプレート画像データの符号とする。N枚の画像データから符号を生成する手順については、実施の形態1から6に係る物体認識装置100が備える符号生成部104の手順と同様である。また、参照画像データに対する符号の生成、およびその後に実行するテンプレート画像データの符号との照合についても、実施の形態1から6における手順と同様である。
When the size (scale) of the recognition target object on the image changes between pre-registration and object recognition, the
以上のように構成された実施の形態7によれば、テンプレート記憶部105はN枚の輝度画像データの形式で基準物体の情報を保持することから、輝度画像に対する滑らかな補間による拡大又は縮小が行える。滑らかな拡大又は縮小を行った画像から生成した符号を用いて照合を行うため、物体のスケール変化に対する認識処理の信頼性を向上させることができる。
According to the seventh embodiment configured as described above, the
実施の形態8.
本発明の実施の形態1から7に係る物体認識装置100に備えられる符号生成部104は、実施の形態8において、テンプレート記憶部105へ記憶するテンプレート画像データの符号を生成する際、各実施の形態において生成する符号に加えて、画素毎に符号を有効化または無効化する情報、いわゆるマスク情報を生成するようにし、符号照合部106はマスク情報を参照し符号が有効な画素のみについて、参照画像データから生成した符号とテンプレート画像データの符号とを照合するように構成してもよい。
The
はじめに、マスク情報を生成する方法として、輝度勾配強度に基づく方法について説明する。 First, a method based on luminance gradient strength will be described as a method for generating mask information.
各撮影画像データから算出される輝度勾配強度は、物体の立体形状に由来する輪郭の部分で大きな値を取る傾向となる。そこで、輝度勾配強度に基づいて、符号の有効または無効を画素毎に設定する。具体的には、符号生成部104は、二値のマスク情報m(x,y)を生成するようにし、座標(x,y)の符号が有効ならばマスク情報m(x,y)=1、無効ならばマスク情報m(x,y)=0とする。各座標の符号の有効または無効は、例えば以下のように判定する。
The luminance gradient intensity calculated from each captured image data tends to take a large value at the contour portion derived from the three-dimensional shape of the object. Therefore, the validity or invalidity of the code is set for each pixel based on the luminance gradient intensity. Specifically, the
1つの方法は、N枚の撮影画像データIk(kは1からN)の輝度勾配画像データI’kを求め、座標(x,y)の画像データにおける勾配強度I’k(x,y)の最大値があるしきい値τaよりも大きいようなkが少なくとも1つ存在すれば、すなわち
別の方法では、座標(x,y)の画像データにおける勾配強度I’k(x,y)の最大値と最小値の差があるしきい値τbよりも大きいようなkが少なくとも1つ存在すれば、すなわち
なお、上記のように輝度勾配強度の値またはその差をしきい値で判定する方法の他に、画素数全体に占める有効画素の数がある一定の割合になるよう、勾配強度の値またはその差の大きさが上位の画素から選択するようにしてもよい。 In addition to the method of determining the value of the luminance gradient intensity or its difference with the threshold value as described above, the gradient intensity value or its value is set so that the number of effective pixels in the total number of pixels is a certain ratio. You may make it select the magnitude | size of a difference from a high-order pixel.
次いで、マスク情報を生成する別の方法として、各画素の安定度に基づく方法について以下説明する。 Next, a method based on the stability of each pixel will be described below as another method for generating mask information.
図16は、物体認識装置100が図4のようなシーンで認識対象物を撮影した時の撮影画像の模式図である。ここで、背景201は、認識対象物の直方体202が持つ奥行きに対して十分に平坦であり、平面とみなすこととする。図16において、点(x1,y1)は認識対象物の直方体202と背景201の境界に位置する点とし、点(x2,y2)は背景201に位置する点とする。また、物体認識装置100に対し、図3に示すように隣接の位置関係にある光源に対して1から8まで順番に光源IDを割り当ててあるものとする(図3においては、N=8)。
FIG. 16 is a schematic diagram of a captured image when the
さて、カメラ101から見て、認識対象物の直方体202の左下側から光を照射したとき、直方体202の右上側に影が生じるため、このときの撮影画像データの点(x1,y1)の勾配強度は大きくなる。直方体202の下側から光を照射したときは上側に影が生じ、右下側から光を照射したときは左上側に影が生じることから、同様に点(x1,y1)の輝度勾配強度は大きくなる。すなわち、各光源IDに対応する勾配強度は、図17の上段に示すように、隣接しているもの同士で互いに大きい値、または互いに小さい値を取る傾向になる。ここで、光源IDが1である光源102−1と光源IDが8である光源102−8は隣接しているとみなす。一方、光源102−1〜102−8を選択的に切り替えても、点(x2,y2)の近傍では影の発生又は消滅が生じないため、図17の下段に示すように点(x2,y2)の勾配強度はランダムな値、例えば単にノイズによる勾配の大小変化が生じるのみとなる。このように、隣接する光源同士で勾配強度の大きさが近いかどうかを安定度の指標として用いる。
Now, as viewed from the
また、安定度は、例えば以下のような演算で定義する。点(x1,y1)の輝度勾配強度が図18の上段に示すように得られているとする。 The stability is defined by the following calculation, for example. It is assumed that the luminance gradient strength of the point (x 1 , y 1 ) is obtained as shown in the upper part of FIG.
はじめに、勾配強度の順位を2段階に分類した二値符号であるNビットの2進数bを生成する。次に、2進数bを1ビット左にローテートした2進数b’を生成する。ここで、2進数の左ローテートとは、ビットシフトによりあふれた最上位ビットを最下位ビットに移す演算である。この後、2進数bとb’の間で値が一致するビットの個数、すなわち2進数bとb’のハミング距離を光源数Nから引いた数を求め、これを安定度として用いる。なお、2つの2進数b,b’のハミング距離は、実施の形態3で述べた方法により高速に求めることができる。 First, an N-bit binary number b which is a binary code in which the gradient strength is classified into two stages is generated. Next, a binary number b 'is generated by rotating the binary number b to the left by one bit. Here, the binary left rotate is an operation to move the most significant bit overflowed by the bit shift to the least significant bit. Thereafter, the number of bits having the same value between the binary numbers b and b ', that is, the number obtained by subtracting the Hamming distance between the binary numbers b and b' from the light source number N is obtained and used as the stability. The hamming distance between the two binary numbers b and b 'can be obtained at high speed by the method described in the third embodiment.
こうして得られた安定度があらかじめ設定されたしきい値よりも大きければ、マスク情報m(x,y)=1、そうでなければマスク情報m(x,y)=0とする。あるいは、画素数全体に占める有効画素の数がある一定の割合になるように安定度が上位の画素から選択するようにしてもよい。 If the stability obtained in this way is greater than a preset threshold value, mask information m (x, y) = 1, otherwise mask information m (x, y) = 0. Alternatively, the stability may be selected from the higher-order pixels so that the number of effective pixels in the total number of pixels is a certain ratio.
次いで、本実施の形態における各構成要素の説明に戻る。 Next, the description returns to each component in the present embodiment.
テンプレート記憶部105では、符号生成部104で生成した符号と、前述の手順により求めたマスク情報m(x,y)とを記憶する。符号照合部106では、相違度の評価にマスク情報m(x,y)を導入する。例えば、本発明の実施の形態1に係る符号照合部106の相違度の評価式に対し、以下のようにマスク情報を組み込む。すなわち次式を最小にするような座標(x,y)を、物体の位置として出力する。
The
本発明の実施の形態2から7に係る符号照合部106における相違度の評価式についても同様に、画素毎の相違度の評価式にマスク情報m(x,y)を組み込むことができる。
Similarly, the mask information m (x, y) can be incorporated into the evaluation formula for the degree of difference for each pixel in the evaluation formula for the degree of difference in the
以上のように構成された実施の形態8によれば、符号生成部104では輝度勾配強度が大きい画素、または安定度が高い画素のみを有効にするようなマスク情報を生成し、符号照合部106ではマスク情報m(x,y)に基づいて有効な画素のみを用いて符号の相違度を評価する。輝度勾配強度または安定度は物体の立体形状に由来する輪郭の部分で大きくなることから、このような画素のみを有効化して符号の照合に用いることにより、認識精度の向上とマッチング処理の高速化の両立を実現することができる。
According to the eighth embodiment configured as described above, the
実施の形態9.
本発明の実施の形態1から8に係る物体認識装置100に備えられる光源102は、実施の形態9において、2つ以上の複数の同心多重円を含む同心多重円状に配置してもよい。さらには、物体認識装置100が備える複数の光源のうち、符号の生成および照合の目的に最適な光源を事前に選択する最適化機能を持たせてもよい。
The
図19は、二重の同心円状に光源を8個ずつ配置した例である。内側(カメラ101に近い側)の光源として光源102−11から102−18を、外側の光源として光源102−21から102−28を配置している。 FIG. 19 shows an example in which eight light sources are arranged in double concentric circles. Light sources 102-11 to 102-18 are disposed as light sources on the inner side (side closer to the camera 101), and light sources 102-21 to 102-28 are disposed as outer light sources.
まず、光源102−11〜102−28を多重円状に配置することによる効果を以下に説明する。図20A、図20B及び図20Cは、カメラ101と光源(102−1〜102−8のうちの1つである102)の位置関係が影203の現れ方に与える影響を示した図である。図20Aに示すように、認識対象物の直方体202が背景201に接触していてかつカメラ101と光源102の距離が近い場合、光の照射によってできる影203の大きさが小さくなる。影203が小さすぎると、画像中の直方体202と影203の境界部分で大きな輝度勾配強度が得られない可能性がある。そこで、図20Bに示すようにカメラ101から離れた光源102を用いれば、光の照射によってできる影203の大きさも大きくなるため、直方体202と影203の境界部分で明瞭な輝度勾配が得られる。
First, the effect obtained by arranging the light sources 102-11 to 102-28 in multiple circles will be described below. 20A, 20B, and 20C are diagrams illustrating the influence of the positional relationship between the
しかしながら、図20Cに示すように認識対象物の直方体202が背景201から物理的に離れている場合、カメラ101と光源102と認識対象物の直方体202との間の位置関係によっては、認識対象物の直方体202から離れた位置に影203が現れることがある。このような場合の撮影画像は、認識対象物の直方体202と背景201との間に明瞭な輝度勾配が現れず、反対に認識対象ではない背景201に生じる影203の付近に大きな輝度勾配が生じる。したがって、図20Cの配置条件では、カメラ101と光源102の距離を近づけた方がよいということになる。
However, when the
すなわち、カメラ101と光源102の間の最適な距離は、認識対象物の形状やカメラ101の位置といった条件に応じて適切に設定することが望ましい。物体の認識に最適な光源102を選択するためには、各光源102−1〜102−8を点灯させて撮影した画像を目視で確認する方法の他、各光源102−1〜102−8を順次独立して選択的に明滅させた時に発生する影203の大きさや位置、輝度勾配強度を画像から解析する方法が考えられる。
That is, it is desirable that the optimum distance between the
次に、最適な光の照射方向について述べる。認識対象物の形状によっては、ある特定の光源方向では明瞭な輝度勾配が生じないことがある。これは、例えば光源102−1〜102−8の照射方向の形状変化が丸みをもっていて、奥行きが緩やかに変化するような場合などに起こりうる。 Next, the optimum light irradiation direction will be described. Depending on the shape of the recognition object, a clear luminance gradient may not occur in a specific light source direction. This may occur, for example, when the shape change in the irradiation direction of the light sources 102-1 to 102-8 is round and the depth changes gently.
そこで、複数M個の光源(M>N)102−1〜102−Mを持った物体認識装置を利用する。基準物体を用いてテンプレートを作成する段階では、M個の光源102−1〜102−Mの明滅を順次選択的に切り替えて撮影したM枚の画像データ間で、例えば輝度勾配強度を比較し、N枚の画像データを選択する。輝度勾配強度の評価尺度としては、例えばある撮影画像Ikの輝度勾配強度の最大値と最小値の差や、輝度勾配強度の分散などを用いることができる。このようにして選択された最適なN枚に対応するN個の光源102−1〜102−Nに対して、光源IDを1からNまで割り当てる。この後の処理は全て、選択されたN個の光源102−1〜102−Nに対応するN枚の撮影画像データを利用すればよい。
Therefore, an object recognition apparatus having a plurality of M light sources (M> N) 102-1 to 102-M is used. In the step of creating a template using the reference object, for example, the brightness gradient intensity is compared between M image data captured by selectively switching the blinking of the M light sources 102-1 to 102-M sequentially, N pieces of image data are selected. As an evaluation scale for luminance gradient strength, for example, the difference between the maximum and minimum luminance gradient strengths of a certain captured image Ik , the variance of luminance gradient strength, and the like can be used.
符号生成部104では、N枚の画像データからテンプレート符号を作成し、テンプレート記憶部105に格納する。物体認識時には、符号照合部106は、N枚の画像データを用いて符号生成部104で生成された参照画像データの符号と、テンプレート記憶部105に格納されているテンプレート画像データの符号とを照合する。符号の照合については、本発明の実施の形態1から7に係る符号照合部106の手順を用いることができる。
The
以上のように構成された実施の形態9によれば、複数の光源102−11〜102−28を同心多重円状に配置することによって、一つの方向から対象物に光線を照射する場合にカメラ光軸と各光源光軸のなす角度を調整することができるため、対象物の起伏によって生じる影の大きさを適切に設定することができ、物体の認識に用いる符号を精度良く生成することができる。 According to the ninth embodiment configured as described above, a plurality of light sources 102-11 to 102-28 are arranged in a concentric multiple circle shape, so that the camera is irradiated with light from one direction. Since the angle between the optical axis and each light source optical axis can be adjusted, the size of the shadow caused by the undulation of the object can be set appropriately, and the code used for object recognition can be generated with high accuracy. it can.
さらに、事前に配置した照射角度が異なる多数の光源をもとに、方向による明暗差が大きくなる配置の組み合わせを求めて、その配置にある光源102のみを点滅制御することによって、明暗差に敏感な認識を実現し、マッチングの信頼性を向上させることができる。
Furthermore, based on a large number of light sources with different illumination angles arranged in advance, a combination of arrangements in which the light / dark difference depending on the direction becomes large is obtained, and only the
実施の形態10.
本発明の実施の形態1から9に係る物体認識装置100に備えられる光源102は、実施の形態10において、発光輝度を能動的に制御することが可能とし、物体認識装置100は、カメラ101で撮影した画像の明るさに応じて光源102の発光輝度を調整して再撮影するようにしてもよい。あるいは、カメラ101がシャッタースピードとゲインの少なくともいずれか一方の能動的な制御が可能とし、物体認識装置100は、カメラ101で撮影した画像の明るさに応じてカメラ101のシャッタースピードおよびゲインを調整して再撮影するようにしてもよい。
The
本発明の実施形態に係る物体認識装置100は、各光源102−1〜102−Nを順次選択的に点灯させたときの撮影画像の輝度勾配強度や方向に基づいて符号を生成し、この符号を用いて物体認識を行う。つまり、高精度な物体認識を行うためには符号が正確に生成されること、すなわち十分大きな輝度勾配が得られることが重要である。このためには、光源102の発光輝度、またはカメラ101のシャッタースピードとゲインといったパラメータを適切に設定し、画素値の飽和を抑制しながら高いコントラストを得る必要がある。
The
光源102−1〜102−Nの発光輝度、またはカメラ101のシャッタースピード・ゲインの調整は次のように行う。基準物体を用いてテンプレートを作成する段階で、適当なパラメータを設定し、一度撮影してみる。撮影した画像データに対し、輝度値の分布を調べる。輝度値が飽和している場合は画像が明るすぎるため、光源102−1〜102−Nの発光輝度を下げるか、カメラ101のシャッタースピードを早くするか、もしくはカメラ101のゲインを下げた上で再撮影する。反対に、輝度値が小さい方に偏っている場合は画像が暗すぎるため、光源102−1〜102−Nの発光輝度を上げるか、カメラ101のシャッタースピードを遅くするか、もしくはカメラ101のゲインを上げた上で再撮影する。再撮影した画像に対して前述の手順を繰り返し、輝度値の分布が適切と判断されるまで繰り返す。このようにして、適切なパラメータ設定を求める。
Adjustment of the light emission luminance of the light sources 102-1 to 102-N or the shutter speed and gain of the
以上のように構成された実施の形態10によれば、物体認識装置100は光源102−1〜102−Nの輝度やカメラ101のシャッタースピード、ゲインといったパラメータを能動的に制御し、適切な輝度分布を持った画像を得ることができるため、認識処理の信頼性が向上する。
According to the tenth embodiment configured as described above, the
実施の形態のまとめ.
以上のように説明した各実施の形態の態様及びその効果は以下の通りである。
Summary of embodiment.
The aspects and effects of the embodiments described above are as follows.
第1の態様に係る物体認識装置は、
認識対象物を撮影するカメラと、
前記カメラの周辺に複数個配置され各々が独立して選択的に明滅する光源と、
前記各光源の明滅を制御して当該各光源の明滅に同期してあるいは非同期でカメラに撮像トリガ信号を送出し符号生成部に光源ID情報を送出する制御部と、
前記各光源の点灯または消灯時にカメラで撮影された各画像の輝度値から符号を生成する符号生成部と、
所定の基準物体の情報を格納したテンプレート記憶部と、
前記認識対象物を撮影した画像群から生成した符号を前記テンプレート記憶部に格納した情報から生成した符号と照合し照合結果を出力する符号照合部とを備えたことを特徴とする。
An object recognition apparatus according to a first aspect is:
A camera that captures the recognition object;
A plurality of light sources arranged around the camera and each selectively flashing independently;
A control unit for controlling the blinking of each light source to send an imaging trigger signal to the camera synchronously or asynchronously with the blinking of each light source, and to send light source ID information to the code generation unit;
A code generation unit that generates a code from the luminance value of each image captured by the camera when each of the light sources is turned on or off;
A template storage unit storing information of a predetermined reference object;
A code collation unit that collates a code generated from an image group obtained by photographing the recognition object with a code generated from information stored in the template storage unit and outputs a collation result is provided.
この構成により、認識対象物が奥行きを有していてカメラの視点の変化による画像中の見えの変化が大きい場合でも高精度にテンプレートマッチングを実行することができる。 With this configuration, template matching can be performed with high accuracy even when the recognition target has a depth and the change in appearance in the image due to the change in the viewpoint of the camera is large.
第2の態様に係る物体認識装置は、第1の態様に係る物体認識装置において、前記符号生成部によって生成される符号は、前記光源の明滅を選択的に切り替えて撮影した画像の輝度値から算出される勾配の強度を表現したものであることを特徴とする。 The object recognition device according to the second aspect is the object recognition device according to the first aspect, wherein the code generated by the code generation unit is based on a luminance value of an image captured by selectively switching blinking of the light source. It is characterized by expressing the calculated gradient strength.
この構成により、認識対象物の深度情報(カメラから見て奥行き方向の形状情報)を用いたテンプレートマッチングが実現できるため、認識精度が向上する。 With this configuration, template matching using depth information of the recognition object (shape information in the depth direction when viewed from the camera) can be realized, so that recognition accuracy is improved.
第3の態様に係る物体認識装置は、第1または第2の態様に係る物体認識装置において、前記符号生成部によって生成される符号は、前記光源の明滅を選択的に切り替えて撮影した画像の輝度値から算出される輝度勾配の強度の順位を表現したものであることを特徴とする。 In the object recognition device according to the third aspect, in the object recognition device according to the first or second aspect, the code generated by the code generation unit is an image of an image captured by selectively switching blinking of the light source. It is characterized by expressing the order of the intensity of the brightness gradient calculated from the brightness value.
この構成により、勾配強度の変動に対して頑健にテンプレートマッチングを実行できる。 With this configuration, template matching can be executed robustly against fluctuations in gradient strength.
第4の態様に係る物体認識装置は、第1〜第3の態様のいずれか1つに係る物体認識装置において、前記符号生成部は、ビット数が光源の数に一致しかつ各ビットが光源に対応するような二値符号を画素毎に生成し、前記光源の明滅を選択的に切り替えて撮影した画像の各々に対して輝度勾配を算出して、当該輝度勾配の強度が上位に分類された光源に対応するビットと下位に分類された光源に対応するビットにそれぞれ異なるビット値を割り当てることを特徴とする。 The object recognition device according to a fourth aspect is the object recognition device according to any one of the first to third aspects, wherein the code generation unit has the number of bits equal to the number of light sources and each bit is a light source. Is generated for each pixel, a luminance gradient is calculated for each of the images captured by selectively switching the light source to blink, and the intensity of the luminance gradient is classified into a higher rank. Different bit values are assigned to the bits corresponding to the light sources and the bits corresponding to the light sources classified in the lower order.
この構成により、テンプレートマッチングをビット演算として高速に実行することができる。さらに、勾配強度を二値化することにより、勾配強度の順位変動に対する頑健性が向上する。 With this configuration, template matching can be executed at high speed as a bit operation. Further, by binarizing the gradient strength, the robustness against the gradient strength rank fluctuation is improved.
第5の態様に係る物体認識装置は、第1〜第4の態様のいずれか1つに係る物体認識装置において、前記符号照合部は、前記符号生成部によって入力画像群から生成された二値符号と、あらかじめテンプレートとして登録した二値符号との間のハミング距離によって相違度を算出することを特徴とする。 An object recognition device according to a fifth aspect is the object recognition device according to any one of the first to fourth aspects, wherein the code matching unit is a binary generated from an input image group by the code generation unit. The degree of difference is calculated based on the Hamming distance between the code and a binary code registered in advance as a template.
この構成により、テーブルの参照によって画素毎の相違度を求めることができるため、符号照合処理を高速に実行することができる。 With this configuration, the degree of difference for each pixel can be obtained by referring to the table, so that the code matching process can be executed at high speed.
第6の態様に係る物体認識装置は、第1〜第5の態様のいずれか1つに係る物体認識装置において、前記符号生成部は、桁数が光源の数に一致する三値符号を画素毎に生成し、当該三値符号は、前記光源の明滅を選択的に切り替えて撮影した画像各々に対して輝度勾配を算出して当該輝度勾配の強度を上位、中位及び下位の3段階に分類した結果を表現したものとすることを特徴とする。 The object recognition device according to a sixth aspect is the object recognition device according to any one of the first to fifth aspects, wherein the code generation unit uses a ternary code whose number of digits matches the number of light sources as a pixel. The ternary code is generated every time, and the luminance gradient is calculated for each image captured by selectively switching the light source to blink, and the intensity of the luminance gradient is divided into the upper, middle and lower levels. It is characterized by expressing the classified result.
この構成と第7の態様に係る物体認識装置との組み合わせにより、勾配強度の順位が入れ替わっても相違度に影響を与えずに済むため、認識のロバスト性が向上する。 The combination of this configuration and the object recognition apparatus according to the seventh aspect does not affect the degree of difference even if the order of the gradient strength is changed, so that the recognition robustness is improved.
第7の態様に係る物体認識装置は、第6の態様に係る物体認識装置において、前記符号照合部は、前記符号生成部によって入力画像群から生成された三値符号とテンプレートの三値符号の照合により相違度を算出するものであり、前記輝度勾配の強度の上位同士または下位同士の符号がそれぞれ一致した場合に相違度の評価値を下げ、中位の符号については相違度の算出に寄与させないことを特徴とする。 The object recognition device according to a seventh aspect is the object recognition device according to the sixth aspect, wherein the code matching unit includes a ternary code generated from an input image group by the code generation unit and a ternary code of a template. The degree of difference is calculated by collation, and the evaluation value of the degree of difference is lowered when the codes of the upper and lower levels of the intensity of the luminance gradient match each other, and the medium code contributes to the calculation of the degree of difference. It is characterized by not letting it.
この構成により、テンプレートと参照画像との間で勾配強度順位の入れ替わりが発生した場合でも、上位と下位の入れ替わりが生じない限り相違度に影響を及ぼさないため、ロバストなマッチングが実現できる。 With this configuration, even when a change in gradient strength ranking occurs between the template and the reference image, robustness matching can be realized because the difference is not affected unless the higher order and the lower order are changed.
第8の態様に係る物体認識装置は、第1〜第7の態様のいずれか1つに係る物体認識装置において、前記符号生成部は、前記符号を画素毎に生成し、前記光源の明滅を選択的に切り替えて撮影した画像各々から算出した輝度勾配の強度のうち最も大きい方向をその画素の方向として符号化することを特徴とする。 The object recognition device according to an eighth aspect is the object recognition device according to any one of the first to seventh aspects, wherein the code generation unit generates the code for each pixel, and blinks the light source. It is characterized in that the largest direction of the intensity of the luminance gradient calculated from each of the images photographed by selectively switching is encoded as the direction of the pixel.
この構成により、1画素あたりの符号のサイズがlog2Nビットのコンパクトな符号とすることができる。 With this configuration, the code size per pixel can be a compact code of log 2 N bits.
第9の態様に係る物体認識装置は、第1〜第7の態様のいずれか1つに係る物体認識装置において、前記符号生成部は、次元数が前記光源の数に一致する符号を画素毎に生成し、前記光源の明滅を選択的に切り替えて撮影した画像各々から算出した輝度勾配の方向を前記符号の各次元に割り当てる特徴量とすることを特徴とする。 The object recognition device according to a ninth aspect is the object recognition device according to any one of the first to seventh aspects, wherein the code generation unit assigns a code whose number of dimensions matches the number of the light sources for each pixel. The direction of the luminance gradient calculated from each of the images captured by selectively switching the blinking of the light source is used as a feature amount assigned to each dimension of the code.
この構成により、光の照射方向を変えても輝度勾配の方向が変化しないことを利用した、環境や認識対象物のばらつきに強い符号を生成できる。 With this configuration, it is possible to generate a code that is strong against variations in the environment and the recognition target, using the fact that the direction of the luminance gradient does not change even when the light irradiation direction is changed.
第10の態様に係る物体認識装置は、第8又は第9の態様に係る物体認識装置において、前記符号照合部は前記輝度勾配の方向の差が小さいほど一致度が高くなるような評価基準によって符号の照合を行うことを特徴とする。 An object recognition apparatus according to a tenth aspect is the object recognition apparatus according to the eighth or ninth aspect, wherein the code matching unit is based on an evaluation criterion such that the smaller the difference in the direction of the luminance gradient, the higher the matching degree. It is characterized by performing code verification.
この構成により、環境や認識対象物のばらつきにより輝度勾配強度やその順位は変動しやすいが、勾配の方向は変わりにくいという性質を利用することにより、認識精度を向上させることができる。 With this configuration, it is possible to improve the recognition accuracy by using the property that the luminance gradient strength and its order are likely to change due to variations in the environment and the recognition object, but the gradient direction is difficult to change.
第11の態様に係る物体認識装置は、第1〜第9の態様のいずれか1つに係る物体認識装置において、前記符号生成部は、前記各光源の明滅を選択的に切り替えて撮影した画像の輝度値に基づいて、画素毎に符号の有効または無効を判定し、有効または無効に関する情報を生成することを特徴とする。 An object recognition apparatus according to an eleventh aspect is the object recognition apparatus according to any one of the first to ninth aspects, wherein the code generation unit is an image captured by selectively switching blinking of each light source. On the basis of the luminance value, the validity or invalidity of the code is determined for each pixel, and information regarding validity or invalidity is generated.
この構成により、照合に有効な画素のみを選択することにより、マッチングの高精度化と高速化を両立することができる。 With this configuration, it is possible to achieve both high precision and high speed of matching by selecting only pixels that are effective for matching.
第12の態様に係る物体認識装置は、第10の態様に係る物体認識装置において、前記符号生成部は、前記各光源の明滅を選択的に切り替えて撮影した画像の輝度勾配の強度の大きさに基づいて、画素毎に符号の有効または無効を判定し、有効または無効に関する情報を生成することを特徴とする。 An object recognition apparatus according to a twelfth aspect is the object recognition apparatus according to the tenth aspect, wherein the code generation unit is a magnitude of intensity of a luminance gradient of an image captured by selectively switching blinking of each light source. Based on the above, the validity or invalidity of the code is determined for each pixel, and information regarding validity or invalidity is generated.
この構成により、物理形状に由来する輪郭の部分では勾配強度が大きくなることから、勾配強度の大きい画素のみを選択して符号の照合に利用することにより、マッチングの高精度化と高速化を両立することができる。 With this configuration, the gradient strength increases at the contour portion derived from the physical shape, so only high-gradient pixels can be selected and used for code matching to achieve both high accuracy and high speed matching. can do.
第13の態様に係る物体認識装置は、第10の態様に係る物体認識装置において、前記符号生成部は、同一対象物を撮影した複数の画像をもとに計算した各画素の安定度に基づいて、画素毎に符号の有効または無効を判定し、有効または無効に関する情報を生成することを特徴とする。 An object recognition apparatus according to a thirteenth aspect is the object recognition apparatus according to the tenth aspect, wherein the code generation unit is based on the stability of each pixel calculated based on a plurality of images obtained by photographing the same object. Thus, the validity or invalidity of the code is determined for each pixel, and information regarding validity or invalidity is generated.
この構成により、同一対象物を撮影した複数のテンプレート画像から各画素の安定度合いを推定し、安定度が高い画素を有効、低い画素を無効と判定して有効な画素のみを選択して符号の照合に利用することにより、マッチングの高精度化と高速化を両立することができる。 With this configuration, the degree of stability of each pixel is estimated from a plurality of template images obtained by photographing the same object, and a pixel having a high stability is determined to be valid and a low pixel is determined to be invalid. By using it for collation, both high precision and high speed of matching can be achieved.
第14の態様に係る物体認識装置は、第1〜第12の態様のいずれか1つに係る物体認識装置において、前記符号照合部は、前記符号生成部が有効と設定した画素のみについて入力画像の符号とテンプレート符号とを照合することを特徴とする。 In the object recognition device according to a fourteenth aspect, in the object recognition device according to any one of the first to twelfth aspects, the code matching unit is configured to input images only for pixels set to be valid by the code generation unit. And a template code are collated.
この構成により、光の照射方向を変えても輝度勾配が変化しない、安定した画素のみをマッチングに用いる。すなわち強度変化が不安定な画素をマスクすることにより、マッチング精度の向上と処理の高速化を同時に実現する。 With this configuration, only stable pixels whose luminance gradient does not change even when the light irradiation direction is changed are used for matching. That is, by masking pixels whose intensity changes are unstable, improvement of matching accuracy and speeding up of processing are realized at the same time.
第15の態様に係る物体認識装置は、第1〜第14の態様のいずれか1つに係る物体認識装置において、前記複数個配置された光源を、複数の同心多重円状に配置することを特徴とする。 An object recognition device according to a fifteenth aspect is the object recognition device according to any one of the first to fourteenth aspects, wherein the plurality of light sources arranged are arranged in a plurality of concentric multiple circles. Features.
この構成により、複数の光源を同心多重円状に配置することによって、一つの方向から対象物に光線を照射する場合にカメラ光軸と各光源光軸のなす角度を調整することができ、対象物の起伏によって生じる影の大きさを適切に設定することができる。 With this configuration, by arranging a plurality of light sources in a concentric multiple circle shape, the angle between the camera optical axis and each light source optical axis can be adjusted when irradiating a light beam on the object from one direction. The size of the shadow caused by the undulation of the object can be set appropriately.
第16の態様に係る物体認識装置は、第1〜第15の態様のいずれか1つに係る物体認識装置において、前記符号生成部が行う符号の生成、および前記符号照合部が行う符号の照合において、使用する光源の数と方向を事前に最適化する機能を有することを特徴とする。
The object recognition device according to a sixteenth aspect is the object recognition device according to any one of the first to fifteenth aspects, wherein the code generation performed by the code generation unit and the code verification performed by the
この構成により、事前に配置した照射角度が異なる多数の光源をもとに、方向による明暗差が大きくなる配置の組み合わせを求めて、その配置にある光源のみを点滅制御することによって、明暗差に敏感な認識を実現し、マッチングの信頼性が向上する。 With this configuration, based on a large number of light sources with different irradiation angles arranged in advance, a combination of arrangements in which the difference in brightness depends on the direction is obtained, and only the light sources in that arrangement are controlled to blink, thereby reducing the difference in brightness. Sensitive recognition is realized and matching reliability is improved.
第17の態様に係る物体認識装置は、第1〜第16の態様のいずれか1つに係る物体認識装置において、発光輝度を能動的に制御することが可能な光源を複数備え、事前に撮影された画像中の各画素の明るさを調べ、明るさに応じて前記各光源の発光輝度を制御して再撮影することを特徴とする。 An object recognition device according to a seventeenth aspect is the object recognition device according to any one of the first to sixteenth aspects, and includes a plurality of light sources capable of actively controlling light emission luminance, and is photographed in advance. The brightness of each pixel in the obtained image is checked, and the image is re-photographed by controlling the light emission luminance of each light source according to the brightness.
この構成により、計測前に一度撮影してみて、明るすぎる場合には光源の強さを弱め、暗すぎる場合には強めるように制御することによって、適切な明るさ範囲を持つ画像を得ることができ、計測の信頼性が向上する。 With this configuration, it is possible to obtain an image with an appropriate brightness range by taking a picture once before measurement and controlling to reduce the intensity of the light source if it is too bright and to increase if it is too dark. This improves the reliability of measurement.
第18の態様に係る物体認識装置は、第1〜第17の態様のいずれか1つに係る物体認識装置において、前記カメラはシャッタースピードとゲインの少なくともいずれか一方の能動的な制御が可能なカメラであって、事前に撮影された画像中の各画素の明るさを調べ、明るさに応じて前記カメラのシャッタースピードおよびゲインを制御して再撮影することを特徴とする。 An object recognition device according to an eighteenth aspect is the object recognition device according to any one of the first to seventeenth aspects, wherein the camera can actively control at least one of shutter speed and gain. A camera is characterized in that the brightness of each pixel in an image photographed in advance is checked, and the shutter speed and gain of the camera are controlled according to the brightness, and re-photographing is performed.
この構成により、計測前に一度撮影してみて、明るすぎる場合にはカメラのシャッタースピードを早くするかゲインを下げ、暗すぎる場合にはシャッタースピードを遅くするかゲインを上げるように制御することによって、適切な明るさ範囲を持つ画像を得ることができ、計測の信頼性が向上する。 With this configuration, you can take a picture before measurement, and if it is too bright, control the camera to increase the shutter speed or decrease the gain, and if it is too dark, control the shutter speed to decrease or increase the gain. Thus, an image having an appropriate brightness range can be obtained, and measurement reliability is improved.
本発明は、認識させたい物体(認識対象物)をあらかじめ登録しておき、その存在箇所をカメラ撮影画像の中から認識する物体認識装置を提供することができる。これにより、従来技術に比較して、対象物の見えの変化に対する頑健性を高めた高精度な物体認識装置を提供する。 The present invention can provide an object recognition apparatus that registers an object (recognition target object) to be recognized in advance and recognizes an existing location from a camera-captured image. This provides a highly accurate object recognition device that is more robust against changes in the appearance of the object than the prior art.
100 物体認識装置、101 カメラ、102,102−1〜102−28,102−N 光源、103 制御部、104 符号生成部、105 テンプレート記憶部、106 符号照合部、201 背景、202 直方体、203 影。
DESCRIPTION OF
Claims (18)
前記カメラの周辺に複数個配置され各々が独立して選択的に明滅する光源と、
前記各光源の明滅を制御して当該各光源の明滅に同期してあるいは非同期でカメラに撮像トリガ信号を送出し符号生成部に光源ID情報を送出する制御部と、
前記各光源の点灯または消灯時にカメラで撮影された各画像の輝度値から符号を生成する符号生成部と、
所定の基準物体の情報を格納したテンプレート記憶部と、
前記認識対象物を撮影した画像群から生成した符号を前記テンプレート記憶部に格納した情報から生成した符号と照合し照合結果を出力する符号照合部とを備えたことを特徴とする物体認識装置。 A camera that captures the recognition object;
A plurality of light sources arranged around the camera and each selectively flashing independently;
A control unit for controlling the blinking of each light source to send an imaging trigger signal to the camera synchronously or asynchronously with the blinking of each light source, and to send light source ID information to the code generation unit;
A code generation unit that generates a code from the luminance value of each image captured by the camera when each of the light sources is turned on or off;
A template storage unit storing information of a predetermined reference object;
An object recognition apparatus comprising: a code collation unit that collates a code generated from an image group obtained by photographing the recognition object with a code generated from information stored in the template storage unit and outputs a collation result.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014047948A JP6104198B2 (en) | 2014-03-11 | 2014-03-11 | Object recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014047948A JP6104198B2 (en) | 2014-03-11 | 2014-03-11 | Object recognition device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015173344A true JP2015173344A (en) | 2015-10-01 |
JP6104198B2 JP6104198B2 (en) | 2017-03-29 |
Family
ID=54260429
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014047948A Expired - Fee Related JP6104198B2 (en) | 2014-03-11 | 2014-03-11 | Object recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6104198B2 (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017076033A (en) * | 2015-10-14 | 2017-04-20 | キヤノン株式会社 | Processor, processing system, imaging apparatus, processing method, program, and recording medium |
WO2017099517A1 (en) * | 2015-12-11 | 2017-06-15 | 삼성전자 주식회사 | Imaging device and operation method for imaging device |
WO2019058633A1 (en) * | 2017-09-25 | 2019-03-28 | 株式会社Screenホールディングス | Image processing method, image processing device, and inspection method |
CN109543705A (en) * | 2017-09-22 | 2019-03-29 | 欧姆龙株式会社 | Template creating device and method, object identification processing unit and recording medium |
WO2020065798A1 (en) * | 2018-09-26 | 2020-04-02 | 日本電気株式会社 | Individual identification system |
JP2020154946A (en) * | 2019-03-22 | 2020-09-24 | 富士ゼロックス株式会社 | Object recognition device |
US11044403B2 (en) | 2015-12-11 | 2021-06-22 | Samsung Electronics Co., Ltd. | Imaging device that continuously monitor a subject while reducing power consumption needed to illuminate the subject |
US20220036530A1 (en) * | 2018-11-29 | 2022-02-03 | Nec Corporation | Individual identification apparatus |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000298726A (en) * | 1999-04-14 | 2000-10-24 | Shimadzu Corp | Appearance inspecting device |
JP2001317916A (en) * | 2000-05-10 | 2001-11-16 | Fuji Mach Mfg Co Ltd | Edge detection method and apparatus |
JP2007206797A (en) * | 2006-01-31 | 2007-08-16 | Omron Corp | Image processing method and image processor |
-
2014
- 2014-03-11 JP JP2014047948A patent/JP6104198B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000298726A (en) * | 1999-04-14 | 2000-10-24 | Shimadzu Corp | Appearance inspecting device |
JP2001317916A (en) * | 2000-05-10 | 2001-11-16 | Fuji Mach Mfg Co Ltd | Edge detection method and apparatus |
JP2007206797A (en) * | 2006-01-31 | 2007-08-16 | Omron Corp | Image processing method and image processor |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017076033A (en) * | 2015-10-14 | 2017-04-20 | キヤノン株式会社 | Processor, processing system, imaging apparatus, processing method, program, and recording medium |
WO2017099517A1 (en) * | 2015-12-11 | 2017-06-15 | 삼성전자 주식회사 | Imaging device and operation method for imaging device |
US11044403B2 (en) | 2015-12-11 | 2021-06-22 | Samsung Electronics Co., Ltd. | Imaging device that continuously monitor a subject while reducing power consumption needed to illuminate the subject |
CN109543705A (en) * | 2017-09-22 | 2019-03-29 | 欧姆龙株式会社 | Template creating device and method, object identification processing unit and recording medium |
CN109543705B (en) * | 2017-09-22 | 2023-05-12 | 欧姆龙株式会社 | Template creation device and method, object recognition processing device, and recording medium |
WO2019058633A1 (en) * | 2017-09-25 | 2019-03-28 | 株式会社Screenホールディングス | Image processing method, image processing device, and inspection method |
WO2020065798A1 (en) * | 2018-09-26 | 2020-04-02 | 日本電気株式会社 | Individual identification system |
JPWO2020065798A1 (en) * | 2018-09-26 | 2021-09-30 | 日本電気株式会社 | Individual identification system |
US20220044059A1 (en) * | 2018-09-26 | 2022-02-10 | NEC Ccorporation | Individual identification system |
JP7081677B2 (en) | 2018-09-26 | 2022-06-07 | 日本電気株式会社 | Individual identification system |
US11651582B2 (en) | 2018-09-26 | 2023-05-16 | Nec Corporation | Individual identification system |
US20220036530A1 (en) * | 2018-11-29 | 2022-02-03 | Nec Corporation | Individual identification apparatus |
US11854185B2 (en) * | 2018-11-29 | 2023-12-26 | Nec Corporation | Individual identification apparatus |
JP2020154946A (en) * | 2019-03-22 | 2020-09-24 | 富士ゼロックス株式会社 | Object recognition device |
Also Published As
Publication number | Publication date |
---|---|
JP6104198B2 (en) | 2017-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6104198B2 (en) | Object recognition device | |
US9665803B2 (en) | Image processing apparatus and image processing method | |
Phan et al. | FACE spoofing detection using LDP-TOP | |
CN110546651B (en) | Method, system and computer readable medium for identifying objects | |
JP2013522754A (en) | Iris recognition apparatus and method using a plurality of iris templates | |
TW201437925A (en) | Object identification device, method, and storage medium | |
TW201419169A (en) | Object discrimination device, object discrimination method, and program | |
JP5342413B2 (en) | Image processing method | |
JP6405124B2 (en) | Inspection device, inspection method, and program | |
JP2018096908A (en) | Inspection device and inspection method | |
KR101769741B1 (en) | Method and apparatus for recognizing iris through pupil detection | |
JP6585793B2 (en) | Inspection device, inspection method, and program | |
JP5772675B2 (en) | Gray image edge extraction method, edge extraction device, and gray image edge extraction program | |
US10223583B2 (en) | Object detection apparatus | |
JP2019144703A (en) | Reading system, reading method, program, and storage medium | |
KR101741758B1 (en) | A Real-time Face Tracking Method Robust to Occlusion Based on Improved CamShift with Depth Information | |
CN109063774B (en) | Image tracking effect evaluation method, device and equipment and readable storage medium | |
JP2015045919A (en) | Image recognition method and robot | |
JP4550768B2 (en) | Image detection method and image detection apparatus | |
US20210149948A1 (en) | Generation of object databases | |
Jazayeri et al. | Interest operators in close-range object reconstruction | |
JP6540577B2 (en) | Object recognition device | |
JP5051671B2 (en) | Information processing apparatus, information processing method, and program | |
KR101796551B1 (en) | Speedy calculation method and system of depth information strong against variable illumination | |
JP2015184944A (en) | Person detection device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20160222 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170104 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170131 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170228 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6104198 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |