JP2015173344A - object recognition device - Google Patents

object recognition device Download PDF

Info

Publication number
JP2015173344A
JP2015173344A JP2014047948A JP2014047948A JP2015173344A JP 2015173344 A JP2015173344 A JP 2015173344A JP 2014047948 A JP2014047948 A JP 2014047948A JP 2014047948 A JP2014047948 A JP 2014047948A JP 2015173344 A JP2015173344 A JP 2015173344A
Authority
JP
Japan
Prior art keywords
code
object recognition
light source
recognition apparatus
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014047948A
Other languages
Japanese (ja)
Other versions
JP6104198B2 (en
Inventor
清高 渡邊
Kiyotaka Watanabe
清高 渡邊
関 真規人
Makito Seki
真規人 関
橋本 学
Manabu Hashimoto
橋本  学
泰憲 櫻本
Yasunori Sakuramoto
泰憲 櫻本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Umemura Educational Institutions
Mitsubishi Electric Building Solutions Corp
Original Assignee
Mitsubishi Electric Corp
Mitsubishi Electric Building Techno Service Co Ltd
Umemura Educational Institutions
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp, Mitsubishi Electric Building Techno Service Co Ltd, Umemura Educational Institutions filed Critical Mitsubishi Electric Corp
Priority to JP2014047948A priority Critical patent/JP6104198B2/en
Publication of JP2015173344A publication Critical patent/JP2015173344A/en
Application granted granted Critical
Publication of JP6104198B2 publication Critical patent/JP6104198B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an object recognition device with high accuracy having higher recognition accuracy compared with that of a prior art, which can reduce the arithmetic processing cost and has enhanced robustness against appearance changes of an object.SOLUTION: An object recognition device comprises: a camera which captures an image of a recognition object; a plurality of light sources which are arranged in the periphery of the camera, and each of which blinks independently in a selective manner; a control unit which controls the blinking of each of the light sources so as to send an imaging trigger signal to the camera in synchronous or asynchronous with the blinking of the light source, thereby sending light source ID information to a code generation unit; the code generation unit which generates a code on the basis of a luminance value of each image captured by the camera upon turning on or off each of the light sources; a template storage unit which stores information on a predetermined reference object; and a code collation unit which collates a code generated from an image group obtained when capturing the images of the recognition object with a code generated from the information stored in the template storage unit so as to output a collation result.

Description

本発明は、認識させたい物体(認識対象物)をあらかじめ登録しておき、その存在箇所をカメラ撮影画像の中から認識する物体認識装置に関する。   The present invention relates to an object recognition apparatus in which an object (recognition target object) to be recognized is registered in advance, and an existing location is recognized from a camera-captured image.

認識対象の物体の特定のパターンをあらかじめ登録しておき、その存在の有無や位置を画像中から検出する処理は、画像処理の基礎技術の一つであり、画像認識や画像検査等で広く応用されている。ここで、あらかじめ登録しておくパターンのことをテンプレートと呼び、テンプレートと画像を照合する処理をテンプレートマッチングあるいはパターンマッチングと呼ぶ。認識対象物が写っている入力画像のことを参照画像と呼ぶ。   The process of registering a specific pattern of an object to be recognized in advance and detecting its presence and position from the image is one of the basic techniques of image processing, and is widely applied in image recognition and image inspection. Has been. Here, a pattern registered in advance is referred to as a template, and a process of matching a template with an image is referred to as template matching or pattern matching. An input image in which a recognition target is shown is called a reference image.

テンプレートマッチングでは、参照画像上でテンプレート画像を走査(スキャン)しながら類似度または相違度を評価し、認識対象物の位置を検出する。この評価尺度としては、SAD(Sum of Absolute Difference)やSSD(Sum of Squared Difference)が用いられることが多い(例えば、非特許文献1参照)。これらはいずれも、画像の輝度値に基づいた評価尺度である。   In template matching, the similarity or difference is evaluated while scanning the template image on the reference image, and the position of the recognition object is detected. As this evaluation scale, SAD (Sum of Absolute Difference) or SSD (Sum of Squared Difference) is often used (for example, see Non-Patent Document 1). These are all evaluation scales based on the luminance value of the image.

画像の輝度値ではなく、エッジ(輪郭)の形状の類似度に基づいたテンプレートマッチングアルゴリズムとしてチャンファ・マッチング(chamfer matching)が提案されている(非特許文献2参照)。照合の前処理として、参照画像に対してソーベル(Sobel)フィルタやキャニー(Canny)のエッジ検出器などを適用し、画像中のエッジを抽出する。そして、テンプレートのエッジと参照画像のエッジを照合することにより、物体を認識する。   Chamfer matching has been proposed as a template matching algorithm based on the similarity of the shape of an edge (contour) rather than the luminance value of an image (see Non-Patent Document 2). As preprocessing for collation, a Sobel filter, a Canny edge detector, or the like is applied to the reference image to extract edges in the image. Then, the object is recognized by collating the edge of the template with the edge of the reference image.

特許文献1では、能動的な制御が可能な光源を複数利用して物体の輪郭を抽出する方法が開示されている。カメラの周囲に取り付けた複数の光源を1つずつ点滅させ、それに同期してカメラで対象物の画像を取得する。すると、立体形状が存在する箇所で影が発生したり消滅したりする。この影の明滅は照明の照射方向と対象物の物理形状に依存することから、この影の明滅の変化を各画像で調べることにより、対象物の奥行きの不連続点、すなわち物理形状の輪郭をエッジとして抽出することができる。   Patent Document 1 discloses a method for extracting the contour of an object using a plurality of light sources capable of active control. A plurality of light sources attached around the camera are blinked one by one, and an image of the object is acquired by the camera in synchronization therewith. Then, a shadow is generated or disappears at a place where the three-dimensional shape exists. Since this shadow flickering depends on the illumination direction and the physical shape of the object, the discontinuity of the depth of the object, that is, the contour of the physical shape, can be determined by examining the change in the flickering of each shadow in each image. It can be extracted as an edge.

特開2004−288185号公報JP 2004-288185 A

奥富正俊ほか編著,「ディジタル画像処理」,12.1節パターンの検出,pp.202−204,CG−ARTS協会,2004年Edited by Masatoshi Okutomi et al., “Digital Image Processing”, Section 12.1 Pattern Detection, pp. 202-204, CG-ARTS Association, 2004 G. Borgefors et al.,“Hierarchical chamfer matching: a parametric edge matching algorithm”, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.10, No.6, pp.849−865, 1988.G. Borgfors et al. , “Hierarchical campaign matching: a parametric edge matching algorithm”, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 10, no. 6, pp. 849-865, 1988.

カメラで撮影した画像の輝度値は、物体の形状だけでなく、物体表面のテクスチャの濃淡や反射率、照明条件などにも依存する。このため、輝度値に基づくテンプレートマッチングによって物体を認識しようとすると、物体の形状以外の要因によって認識性能が低下する可能性がある。チャンファ・マッチング(chamfer matching)による物体認識でも同様に、物体の形状以外の要因により、検出したい物体の輪郭がエッジとして抽出されない場合、または物体表面のテクスチャなど、輪郭以外の部分が偽の輪郭として抽出される場合がある。このような状況では、チャンファ・マッチングの認識精度が大きく低下することが知られている。   The luminance value of an image photographed by the camera depends not only on the shape of the object but also on the density of the texture of the object surface, the reflectance, the illumination conditions, and the like. For this reason, when trying to recognize an object by template matching based on a luminance value, there is a possibility that the recognition performance is deteriorated due to factors other than the shape of the object. Similarly, in object recognition by chamfer matching, if the contour of the object to be detected is not extracted as an edge due to factors other than the shape of the object, or a portion other than the contour, such as the texture of the object surface, is a false contour May be extracted. In such a situation, it is known that the recognition accuracy of chamfer matching is greatly reduced.

光源の能動的な制御により物体の輪郭を抽出する方法は、物体の認識までは考慮されていないため、物体の認識については別の手段、例えばチャンファ・マッチングなどと組み合わせる必要がある。すなわち、光の照射方向を変えて物体を撮影した複数の画像は、物体の立体形状に関する有用な情報を持っているにもかかわらず、その情報をマッチング処理に直接利用するといったことは行われていなかった。   The method of extracting the contour of the object by active control of the light source does not take into account the recognition of the object. Therefore, it is necessary to combine the object recognition with another means such as chamfer matching. That is, a plurality of images obtained by photographing an object by changing the direction of light irradiation have useful information regarding the three-dimensional shape of the object, but the information is directly used for matching processing. There wasn't.

さらに、前述の一般的なテンプレートマッチングの枠組みでは、テンプレートの位置(さらに場合によっては大きさや角度)を変えながら、参照画像との間の類似度または相違度を評価し、最も類似度が高いテンプレートの位置(および大きさ、角度)を求める。このとき、テンプレートは2次元平面パターンとして取り扱われる。一方、認識対象物が奥行きを持った立体物の場合、カメラと認識対象物の相対的な位置関係がわずかにずれただけでも、カメラから対象物を見たときの見えが大きく変化することがある。具体的には、認識対象物の奥行きがワーキングディスタンス(カメラと認識対象物の間の距離)に近づくほど、位置関係の変化による見えの変化が大きくなる。このような立体物を一般的なテンプレートマッチングの枠組みで検出するためには、多様な見えの変化に対応する大量のテンプレートを保持しておき、テンプレートを切り替えながらマッチング処理を繰り返せばよいが、演算処理コストが膨大になるという問題がある。   Furthermore, in the above-described general template matching framework, a template having the highest similarity is evaluated by changing the position of the template (and, in some cases, the size and angle) while evaluating the similarity or dissimilarity with the reference image. Find the position (and size, angle) of. At this time, the template is handled as a two-dimensional plane pattern. On the other hand, when the recognition target is a three-dimensional object having a depth, even when the relative positional relationship between the camera and the recognition target is slightly shifted, the appearance when the target is viewed from the camera may change greatly. is there. Specifically, as the depth of the recognition target object approaches the working distance (distance between the camera and the recognition target object), the change in appearance due to the change in the positional relationship increases. In order to detect such a three-dimensional object using a general template matching framework, it is sufficient to hold a large number of templates corresponding to various changes in appearance and repeat the matching process while switching the templates. There is a problem that the processing cost becomes enormous.

本発明の目的は以上の問題点を解決し、従来技術に比較して高い認識精度を有し、演算処理コストを低減でき、対象物の見えの変化に対する頑健性を高めた高精度な物体認識装置を提供することにある。   The object of the present invention is to solve the above-mentioned problems, have high recognition accuracy compared to the prior art, reduce the processing cost, and highly accurate object recognition with improved robustness against changes in the appearance of the object To provide an apparatus.

本発明の一態様に係る物体認識装置は、認識対象物を撮影するカメラと、カメラの周辺に複数個配置され各々が独立して選択的に明滅する光源と、各光源の明滅を制御して当該各光源の明滅に同期してあるいは非同期でカメラに撮像トリガ信号を送出し符号生成部に光源ID情報を送出する制御部と、各光源の点灯または消灯時にカメラで撮影された各画像の輝度値から符号を生成する符号生成部と、所定の基準物体の情報を格納したテンプレート記憶部と、認識対象物を撮影した画像群から生成した符号をテンプレート記憶部に格納した情報から生成した符号と照合し照合結果を出力する符号照合部とを備えることを特徴とする。   An object recognition apparatus according to an aspect of the present invention includes a camera that captures a recognition target, a plurality of light sources that are arranged around the camera and each selectively flashes independently, and controls the flashing of each light source. A control unit that sends an imaging trigger signal to the camera in synchronization or asynchronously with the blinking of each light source and sends light source ID information to the code generation unit, and the luminance of each image taken by the camera when each light source is turned on or off A code generation unit that generates a code from a value, a template storage unit that stores information on a predetermined reference object, and a code that is generated from information stored in the template storage unit that is generated from an image group obtained by photographing a recognition object And a code collating unit that collates and outputs a collation result.

本発明では、カメラの周辺に配置された複数の光源の明滅を変化させながら画像を取得し、取得した複数の画像の画素値から符号を生成する。この符号は、物体の立体形状に関する情報を持っていることから、この符号の照合、すなわちテンプレートマッチングを実行することにより、従来技術に比較して、高精度、高速かつ外乱に対して頑健に物体を認識することができる。   In the present invention, an image is acquired while changing the blinking of a plurality of light sources arranged around the camera, and a code is generated from the pixel values of the acquired images. Since this code has information related to the three-dimensional shape of the object, by executing this code collation, that is, template matching, the object is more accurate, faster, and more robust against disturbance than the prior art. Can be recognized.

本発明の実施の形態1に係る物体認識装置の構成を示すブロック図である。It is a block diagram which shows the structure of the object recognition apparatus which concerns on Embodiment 1 of this invention. 図1に示す物体認識装置に備わる符号生成部が保持する光源方向情報テーブルの一例を示した説明図である。It is explanatory drawing which showed an example of the light source direction information table which the code | symbol production | generation part with which the object recognition apparatus shown in FIG. 図1に示す物体認識装置の外観の一例を示した模式図である。It is the schematic diagram which showed an example of the external appearance of the object recognition apparatus shown in FIG. 図1に示す物体認識装置により直方体を撮影する際の構成を示した模式図である。It is the schematic diagram which showed the structure at the time of image | photographing a rectangular parallelepiped with the object recognition apparatus shown in FIG. 図1に示す物体認識装置を用い、図3に示す構成で直方体を上から光を照射して撮影した際にカメラで撮影される画像の一例を示した模式図である。It is the schematic diagram which showed an example of the image image | photographed with a camera, when using the object recognition apparatus shown in FIG. 1 and image | photographing a rectangular parallelepiped by irradiating light from the top with the structure shown in FIG. 図1に示す物体認識装置を用い、図3に示す構成で直方体を上から光を照射して撮影した際にカメラで撮影される画像の一例を示した模式図である。It is the schematic diagram which showed an example of the image image | photographed with a camera, when using the object recognition apparatus shown in FIG. 1 and image | photographing a rectangular parallelepiped by irradiating light from the top with the structure shown in FIG. 図1に示す物体認識装置に備わる符号生成部によって生成される輝度勾配の画像の一例を示した図であって、(a)は上から光を照射した画像の斜視図であり、(b)はそのときの輝度勾配の画像の模式図である。It is the figure which showed an example of the image of the brightness | luminance gradient produced | generated by the code | symbol production | generation part with which the object recognition apparatus shown in FIG. 1 is equipped, Comprising: (a) is a perspective view of the image irradiated with light from the top, (b) FIG. 4 is a schematic diagram of an image of a luminance gradient at that time. 図1に示す物体認識装置に備わる符号生成部によって生成される輝度勾配の画像の一例を示した図であって、(a)は左下から光を照射した画像の斜視図であり、(b)はそのときの輝度勾配の画像の模式図である。It is the figure which showed an example of the image of the brightness | luminance gradient produced | generated by the code | symbol production | generation part with which the object recognition apparatus shown in FIG. 1 is equipped, Comprising: (a) is a perspective view of the image irradiated with light from the lower left, (b) FIG. 4 is a schematic diagram of an image of a luminance gradient at that time. 図1に示す物体認識装置に備わる符号生成部によって生成される符号を示した模式図である。It is the schematic diagram which showed the code | symbol produced | generated by the code | symbol production | generation part with which the object recognition apparatus shown in FIG. 1 is equipped. 本発明の実施の形態2に係る物体認識装置に備わる符号生成部が、符号を生成する流れの一例を示した模式図である。It is the schematic diagram which showed an example of the flow which the code | symbol production | generation part with which the object recognition apparatus which concerns on Embodiment 2 of this invention is equipped produces | generates a code | symbol. 本発明の実施の形態3に係る物体認識装置に備わる符号生成部が、符号を生成する流れの一例を示した模式図である。It is the schematic diagram which showed an example of the flow which the code | symbol production | generation part with which the object recognition apparatus which concerns on Embodiment 3 of this invention is equipped produces | generates a code | symbol. 本発明の実施の形態3に係る物体認識装置に備わる符号生成部が、符号を照合し相違度を計算する一例を示した模式図である。It is the schematic diagram which showed an example in which the code | symbol production | generation part with which the object recognition apparatus which concerns on Embodiment 3 of this invention is equipped collates a code | symbol and calculates a difference degree. 本発明の実施の形態4に係る物体認識装置に備わる符号生成部が、三値符号を生成する流れの一例を示した模式図である。It is the schematic diagram which showed an example of the flow which the code generation part with which the object recognition apparatus which concerns on Embodiment 4 of this invention is equipped produces | generates a ternary code. 本発明の実施の形態4に係る物体認識装置に備わる符号照合部が、三値符号を照合し相違度を計算する一例を示した模式図である。It is the schematic diagram which showed an example in which the code | symbol collation part with which the object recognition apparatus which concerns on Embodiment 4 of this invention is equipped collates ternary code and calculates a difference degree. 本発明の実施の形態5に係る物体認識装置に備わる符号生成部が、勾配方向符号を生成する流れの一例を示した模式図である。It is the schematic diagram which showed an example of the flow which the code | symbol production | generation part with which the object recognition apparatus which concerns on Embodiment 5 of this invention is equipped produces | generates a gradient direction code | symbol. 本発明の実施の形態6に係る物体認識装置に備わる符号生成部が、勾配方向特徴量に基づく符号を生成する流れの一例を示した模式図である。It is the schematic diagram which showed an example of the flow which the code | symbol production | generation part with which the object recognition apparatus which concerns on Embodiment 6 of this invention is equipped produces | generates the code | symbol based on a gradient direction feature-value. 本発明の実施の形態7に係る物体認識装置の構成を示すブロック図である。It is a block diagram which shows the structure of the object recognition apparatus which concerns on Embodiment 7 of this invention. 本発明の実施の形態8に係る物体認識装置により直方体を撮影する際の画像、および画像中の注目点を表す模式図である。It is a schematic diagram showing the image at the time of image | photographing a rectangular parallelepiped with the object recognition apparatus which concerns on Embodiment 8 of this invention, and the attention point in an image. 図16に示す2つの注目点に対応する勾配強度を表す説明図である。It is explanatory drawing showing the gradient intensity | strength corresponding to two attention points shown in FIG. 本発明の実施の形態8に係る物体認識装置に備わる符号生成部が、勾配強度順位の二値符号に基づいて安定度を求める手順を示す説明図である。It is explanatory drawing which shows the procedure in which the code | symbol production | generation part with which the object recognition apparatus which concerns on Embodiment 8 of this invention is equipped calculates | requires stability based on the binary code | symbol of a gradient strength order. 図1に示す物体認識装置の光源を、同心多重円状に配置した場合の外観の一例を示した模式図である。It is the schematic diagram which showed an example of the external appearance at the time of arrange | positioning the light source of the object recognition apparatus shown in FIG. 1 in concentric multiple circle shape. 本発明の実施の形態9に係る物体認識装置において、カメラと光源・物体の位置関係により影が生じる範囲が異なることを示す図であって、カメラと光源の位置が近い場合の説明図である。In the object recognition apparatus concerning Embodiment 9 of this invention, it is a figure which shows that the range which a shadow produces differs with the positional relationship of a camera, a light source, and an object, Comprising: It is explanatory drawing when the position of a camera and a light source is near. . 本発明の実施の形態9に係る物体認識装置において、カメラと光源・物体の位置関係により影が生じる範囲が異なることを示す図であって、カメラと光源の位置が離れている場合の説明図である。In the object recognition apparatus concerning Embodiment 9 of this invention, it is a figure which shows that the range which a shadow produces differs with the positional relationship of a camera and a light source and an object, Comprising: Explanatory drawing when the position of a camera and a light source is separated It is. 本発明の実施の形態9に係る物体認識装置において、カメラと光源・物体の位置関係により影が生じる範囲が異なることを示す図であって、物体と背景の位置が離れている場合の説明図である。In the object recognition apparatus concerning Embodiment 9 of this invention, it is a figure which shows that the range which produces a shadow by the positional relationship of a camera, a light source, and an object is different, Comprising: Explanatory drawing when the position of an object and a background is separated It is.

以下、本発明に係る実施形態について図面を参照して説明する。なお、以下の各実施形態において、同様の構成要素については同一の符号を付している。本発明に係る実施形態では、物体に対して異なる方向から光を照射しながら画像を取得し、これらの画像から生成した符号を用いたマッチングを行うことにより、従来技術に比較して、対象物の見えの変化に対する頑健性を高めた高精度な物体認識装置を提供する。   Hereinafter, embodiments according to the present invention will be described with reference to the drawings. In addition, in each following embodiment, the same code | symbol is attached | subjected about the same component. In the embodiment according to the present invention, an object is obtained by irradiating light from different directions on an object, and matching is performed using codes generated from these images, so that the object is compared with the related art. A highly accurate object recognition device with improved robustness against changes in the appearance of the object.

実施の形態1.
図1は、実施の形態1に係る物体認識装置100の構成を示している。図1において、実施の形態1に係る物体認識装置100は、カメラ101と、複数N個の光源102−1〜102−Nと、制御部103と、符号生成部104と、テンプレート記憶部105と、符号照合部106とを備えて構成される。これらの構成部分について、以下に詳細説明する。
Embodiment 1 FIG.
FIG. 1 shows a configuration of an object recognition apparatus 100 according to the first embodiment. In FIG. 1, an object recognition apparatus 100 according to Embodiment 1 includes a camera 101, a plurality of N light sources 102-1 to 102-N, a control unit 103, a code generation unit 104, and a template storage unit 105. The code verification unit 106 is configured. These components will be described in detail below.

図1において、カメラ101は、制御部103からの制御信号を受信すると、認識対象物の画像を撮影し、撮影した画像の画像データを符号生成部104に送出する。光源102−1〜102−Nは上記認識対象物に光を照射する。光源102−1〜102−Nはそれぞれ、制御部103からの制御信号を受けて1個ずつ順次独立して選択的に明滅する。すなわち、N個の光源102−1〜102−Nのうち2個以上が同時に点灯することはないものとする。ここでは、N個の光源102に対し1番からN番まで順番に付番し、以降この番号を光源IDと呼ぶこととする。   In FIG. 1, when receiving a control signal from the control unit 103, the camera 101 captures an image of the recognition target object and sends image data of the captured image to the code generation unit 104. The light sources 102-1 to 102-N irradiate the recognition target with light. Each of the light sources 102-1 to 102-N receives the control signal from the control unit 103 and sequentially and selectively blinks one by one. That is, it is assumed that two or more of the N light sources 102-1 to 102-N are not lit simultaneously. Here, N light sources 102 are numbered in order from No. 1 to N, and these numbers are hereinafter referred to as light source IDs.

制御部103は例えばディジタル計算機などのコントローラであって、N個の光源102−1〜102−Nのうち1つに対して制御信号を送出し、これと同時にカメラ101に対して制御信号を送出し、また符号生成部104に対して光源ID情報を送出する。この動作をN個の光源102−1〜102−Nのそれぞれに対して1個ずつ順次選択的に行う。符号生成部104は、カメラ101から受信したN枚の画像データから符号を生成する。なお、符号生成部104は、各光源102−1〜102−Nの光源IDと、その光源102−1〜102−Nからの光の照射方向とを対応付ける、図2に示すような光源方向情報テーブルを内部メモリ104mに保持しているものとする。この光源方向情報テーブルの情報は、後に述べる符号生成部104の内部処理で使用する。以降、光源からの光の照射方向のことを光源方向と呼ぶこととする。なお、光の照射方向は、例えば図3に示すように、カメラ101を中心として、各光源102−1〜102−Nの位置の角度を示す。   The control unit 103 is a controller such as a digital computer, for example, which sends a control signal to one of the N light sources 102-1 to 102-N and simultaneously sends a control signal to the camera 101. In addition, the light source ID information is sent to the code generation unit 104. This operation is sequentially performed one by one for each of the N light sources 102-1 to 102-N. The code generation unit 104 generates a code from N pieces of image data received from the camera 101. Note that the code generation unit 104 associates the light source ID of each of the light sources 102-1 to 102-N with the irradiation direction of light from the light sources 102-1 to 102-N, as illustrated in FIG. Assume that the table is held in the internal memory 104m. Information in the light source direction information table is used in internal processing of the code generation unit 104 described later. Hereinafter, the irradiation direction of light from the light source is referred to as a light source direction. Note that the light irradiation direction indicates the angle of the position of each of the light sources 102-1 to 102-N around the camera 101 as shown in FIG. 3, for example.

テンプレート記憶部105は、認識対象物のテンプレート符号を記憶する。物体認識装置100で認識させたい認識対象物の符号をあらかじめ生成しておき、テンプレート符号として保持しておく。符号照合部106は、テンプレート記憶部105に記憶されているテンプレート符号を読み出し、符号生成部104で生成された参照画像の符号との照合、すなわちテンプレートマッチング処理を行う。テンプレート符号と参照画像の符号を照合することにより、参照画像中での認識対象物の位置を認識し、当該認識結果を出力する。   The template storage unit 105 stores the template code of the recognition target object. A code of a recognition object to be recognized by the object recognition apparatus 100 is generated in advance and held as a template code. The code matching unit 106 reads the template code stored in the template storage unit 105 and performs matching with the code of the reference image generated by the code generation unit 104, that is, template matching processing. By collating the template code with the code of the reference image, the position of the recognition object in the reference image is recognized, and the recognition result is output.

図3は、実施の形態1に係る物体認識装置100の外観と、各光源102−1〜102−Nに光源IDを割り当てた一例を示した模式図である。図3の例では、N=8であり、8個の光源102−1〜102−8がカメラ101の光軸から等距離、かつ互いに等間隔になるように配置されている。それぞれの光源102−1〜102−8の光源IDは、カメラ101の上方の光源102−1から、時計回りに順番に付番してある。なお、N個の光源102−1〜102−8の配置は、図3のように必ずしも等間隔である必要はなく、カメラ101の光軸から等距離である必要もない。また、図3の例のようにカメラ101と光源102−1〜102−8を一体化した筐体とする必要はなく、別個の筐体としてもよい。   FIG. 3 is a schematic diagram illustrating an appearance of the object recognition apparatus 100 according to Embodiment 1 and an example in which a light source ID is assigned to each of the light sources 102-1 to 102-N. In the example of FIG. 3, N = 8, and the eight light sources 102-1 to 102-8 are arranged so as to be equidistant from the optical axis of the camera 101 and equidistant from each other. The light source IDs of the respective light sources 102-1 to 102-8 are numbered in order from the light source 102-1 above the camera 101 in the clockwise direction. Note that the arrangement of the N light sources 102-1 to 102-8 does not necessarily need to be equidistant as shown in FIG. 3 and need not be equidistant from the optical axis of the camera 101. Moreover, it is not necessary to make it the housing | casing which integrated the camera 101 and the light sources 102-1 to 102-8 like the example of FIG. 3, and it is good also as a separate housing | casing.

図4は、平面の背景201の上に認識対象物の直方体202を配置したシーンにおいて、シーンの真上から物体認識装置100で直方体202を撮影する様子を示した模式図である。このような状況で、物体認識装置100に備えられる光源102−1〜102−Nの明滅を順次選択的に切り替えながら撮影した画像の模式図を図5A及び図5Bに示す。図5Aでは、直方体202に対して画像の上方向から光を照射した場合の例を示し、図5Bでは、左下方向から光を照射した場合の撮影画像の場合の例を示している。直方体202に光を照射することにより、直方体202の背面にある平面の背景201に影203が生じる。光源102による光の照射方向を変化させることにより、直方体202の周囲に現れる影203の位置が変化する。   FIG. 4 is a schematic diagram showing a state in which the cuboid 202 is photographed by the object recognition device 100 from directly above the scene in a scene in which the cuboid 202 of the recognition target object is arranged on the flat background 201. FIG. 5A and FIG. 5B are schematic diagrams of images taken in this situation while selectively switching the blinking of the light sources 102-1 to 102-N included in the object recognition apparatus 100 sequentially. FIG. 5A shows an example in the case where light is irradiated from above the image to the rectangular parallelepiped 202, and FIG. 5B shows an example in the case of a captured image in which light is irradiated from the lower left direction. By irradiating the rectangular parallelepiped 202 with light, a shadow 203 is generated on the flat background 201 on the back of the rectangular parallelepiped 202. By changing the light irradiation direction of the light source 102, the position of the shadow 203 appearing around the rectangular parallelepiped 202 changes.

次に、本発明の実施の形態1に係る物体認識装置100が物体認識を行う流れを説明する。   Next, the flow in which the object recognition apparatus 100 according to Embodiment 1 of the present invention performs object recognition will be described.

はじめに、物体認識装置100で認識させたい対象物をテンプレートとして登録するため、基準となる物体を用いてテンプレート符号を生成する。   First, in order to register an object to be recognized by the object recognition apparatus 100 as a template, a template code is generated using a reference object.

カメラ101の視野内に認識対象物(基準物体)を配置し、制御部103の制御によりN個の光源102−1〜102−Nを1個ずつ順次選択的に点灯させながら、カメラ101で画像データをN枚取得する。N枚の画像データを撮影している間、カメラ101と認識対象物の相対的な位置関係は不変であることとする。こうして得られたN枚の画像データから、符号生成部104で符号を生成する。生成した符号は、テンプレート記憶部105へ送出され、テンプレート符号としてテンプレート記憶部105で記憶される。   An object to be recognized (reference object) is placed in the field of view of the camera 101, and images are captured by the camera 101 while sequentially turning on the N light sources 102-1 to 102-N one by one under the control of the control unit 103. Acquire N data. It is assumed that the relative positional relationship between the camera 101 and the recognition target object remains unchanged while N pieces of image data are captured. The code generation unit 104 generates a code from the N pieces of image data thus obtained. The generated code is sent to the template storage unit 105 and stored in the template storage unit 105 as a template code.

物体認識を行う際の流れは、符号生成部104での符号生成までは同じである。すなわち、カメラ101の視野に認識対象シーンを配置し、光源102−1〜102−Nの明滅を順次選択的に切り替えながらN枚の参照画像を撮影し、符号生成部104で符号を生成する。その後、テンプレート記憶部105に記憶されている符号と、N枚の参照画像から生成された符号との照合を符号照合部106で実行し、物体の位置を認識する。   The flow for performing object recognition is the same up to code generation in the code generation unit 104. That is, a recognition target scene is arranged in the field of view of the camera 101, N reference images are photographed while sequentially switching the blinking of the light sources 102-1 to 102-N, and a code generation unit 104 generates a code. Thereafter, the code collation unit 106 performs collation between the code stored in the template storage unit 105 and the code generated from the N reference images, and recognizes the position of the object.

以上が、物体認識装置100がテンプレートを事前登録する流れと、物体認識を実行する流れである。   The above is a flow in which the object recognition apparatus 100 pre-registers a template and a flow in which object recognition is executed.

次に、符号生成部104による符号の生成手順について説明する。   Next, a code generation procedure by the code generation unit 104 will be described.

まず、カメラ101の視野内に対象物を配置し、N個の光源102−1−1〜102−Nを1個ずつ順次選択的に点灯させながらカメラ101で画像を取得する。こうして得られたN枚の画像データをそれぞれIからIとおく。その後、画像データIからIのそれぞれに対し、光源方向に沿う方向の輝度勾配の強度(隣接画素間の輝度の差の絶対値をいい、「輝度勾配強度」という。)を計算し、輝度勾配の画像データ(以下、「輝度勾配画像データ」という。)I’からI’を求める。ここで光源方向は、図2に示すような光源方向情報テーブルを参照することにより得られる。カメラ101で撮影した画像(a)とその輝度勾配画像(b)の模式図を図6A及び図6Bに示す。図6A及び図6Bではそれぞれ、図5A及び図5Bと同様に2方向の光源方向についての輝度勾配画像の模式図を示している。例えば、左下から光を照射したときの画像の輝度勾配画像は、左下の画素の輝度の差の絶対値を表現した画像である。 First, an object is placed in the field of view of the camera 101, and an image is acquired by the camera 101 while selectively turning on the N light sources 102-1-1 to 102-N one by one. The N pieces of image data thus obtained are set as I 1 to I N , respectively. Thereafter, for each of the image data I 1 to I N , the intensity of the luminance gradient in the direction along the light source direction (the absolute value of the luminance difference between adjacent pixels is referred to as “luminance gradient intensity”) is calculated. image data of the brightness gradient (hereinafter, referred to as "intensity gradient image data".) Request 'I N from' I 1. Here, the light source direction is obtained by referring to a light source direction information table as shown in FIG. 6A and 6B are schematic diagrams of an image (a) photographed by the camera 101 and a luminance gradient image (b) thereof. 6A and 6B are schematic diagrams of luminance gradient images for two light source directions, respectively, as in FIGS. 5A and 5B. For example, the luminance gradient image of an image when light is irradiated from the lower left is an image expressing the absolute value of the luminance difference of the lower left pixel.

輝度勾配画像において勾配強度が大きくなるのは、光の照射によって明るく照らされた領域と影の領域の境界部分であり、この部分にエッジが現れる。このエッジは、対象物の奥行きが急激に変化する箇所、すなわち物理形状の輪郭に沿って現れる。したがって、異なる方向から光を当てたときの輝度勾配強度の違いは、対象物の奥行き形状がどの向きに変化しているかという情報を与えているとみることができる。符号生成部104によって生成される符号は、画素毎にN次元ベクトルで表現する。光源IDがkの輝度勾配画像データI’の、座標(x,y)の輝度勾配強度をI’(x,y)とすると、座標(x,y)に割り当てる符号u(x,y)を次式で表す。 In the luminance gradient image, the gradient intensity increases at the boundary portion between the region brightly illuminated by the light irradiation and the shadow region, and an edge appears in this portion. This edge appears along the part where the depth of the object changes rapidly, that is, along the contour of the physical shape. Therefore, it can be considered that the difference in intensity gradient when light is applied from different directions provides information on the direction in which the depth shape of the object is changing. The code generated by the code generation unit 104 is expressed by an N-dimensional vector for each pixel. If the luminance gradient intensity at the coordinates (x, y) of the luminance gradient image data I ′ k with the light source ID k is I ′ k (x, y), the code u (x, y) assigned to the coordinates (x, y). ) Is expressed by the following equation.

Figure 2015173344
Figure 2015173344

ここで、記号Tは転置を表す。画像内の全ての画素について、上記のように符号を生成する。以上が、符号生成部104が撮影画像から符号を生成する手順である。   Here, the symbol T represents transposition. Codes are generated as described above for all pixels in the image. The above is the procedure in which the code generation unit 104 generates a code from the captured image.

図7は、カメラ101により撮影されたN枚の画像データから、符号生成部104が生成した符号を濃淡画像として表現した模式図を示している。撮影した物体を基準物体として登録する事前登録の段階では、認識対象物を含む範囲(点線で図示)を符号から切り出し、テンプレート記憶部105へ格納しておく。   FIG. 7 is a schematic diagram in which the code generated by the code generation unit 104 is expressed as a grayscale image from N pieces of image data captured by the camera 101. In a pre-registration stage in which a photographed object is registered as a reference object, a range including a recognition target object (illustrated by a dotted line) is cut out from the code and stored in the template storage unit 105.

次に、符号照合部106において符号を照合することにより物体の位置を認識する手順について説明する。前に述べたように、符号照合部106では、認識対象シーンの撮影画像(参照画像)から生成された符号を、テンプレート記憶部105に記憶されている符号と照合し、符号の相違度が最小となる位置を求める。   Next, a procedure for recognizing the position of the object by collating the code in the code collating unit 106 will be described. As described above, the code collating unit 106 collates the code generated from the captured image (reference image) of the recognition target scene with the code stored in the template storage unit 105 and minimizes the difference between the codes. Find the position where.

いま、参照画像から求められた勾配強度により構成される、座標(i,j)の画像データの符号をs(i,j)とおく。また、テンプレート記憶部105に記憶されている、座標(i,j)のテンプレート符号をt(i,j)とし、そのサイズを横W画素、縦H画素とおく。このとき相違度は、2つの符号ベクトルの内積を<,>と表記すると、内積の総和、すなわち次式により求める。   Now, let s (i, j) be the sign of image data at coordinates (i, j), which is composed of the gradient strength obtained from the reference image. The template code of coordinates (i, j) stored in the template storage unit 105 is t (i, j), and the size is set to horizontal W pixels and vertical H pixels. At this time, when the inner product of two code vectors is expressed as <,>, the degree of difference is obtained by the sum of the inner products, that is, the following equation.

Figure 2015173344
Figure 2015173344

そして、認識対象物の物体の位置は、上記の式(1)を最小にする座標(x,y)として求める。なお、認識対象物の画像上での大きさ(スケール)が事前登録時と物体認識時とで変化する場合は、符号照合部106においてテンプレート符号のスケールを変動させ、相違度を評価すればよい。例えば、テンプレート符号t(i,j)を成分t(i,j),t(i,j),…に分割し、成分毎に2次元最近傍法やスプライン補間法などを用いて拡大・縮小することにより、異なるスケールのテンプレート符号が得られる。これらのテンプレート符号を切り替えながら照合を繰り返し、相違度が最小となる位置とスケールを求める。 Then, the position of the object of the recognition target is obtained as coordinates (x, y) that minimizes the above equation (1). If the size (scale) of the recognition target object on the image changes between pre-registration and object recognition, the code matching unit 106 may change the scale of the template code and evaluate the degree of difference. . For example, the template code t (i, j) is divided into components t 1 (i, j), t 2 (i, j),... And expanded by using a two-dimensional nearest neighbor method or a spline interpolation method for each component. -Template codes with different scales can be obtained by reduction. Matching is repeated while switching these template codes, and the position and scale at which the degree of difference is minimized are obtained.

以上のように構成された実施の形態1によれば、符号生成部104で生成される符号は、異なる方向から光を当てたときの輝度勾配強度に関する情報を持つことになる。この輝度勾配は、光を当てる方向と対象物の物理形状に依存する。すなわち符号生成部104では、対象物の物理形状に関する有効な情報を画素毎に符号として割り当てるため、この符号を用いてテンプレートマッチングを行えば、物体の立体形状情報に基づいた高精度な物体認識を実現することが可能となる。   According to the first embodiment configured as described above, the code generated by the code generation unit 104 has information regarding the intensity gradient intensity when light is applied from different directions. This luminance gradient depends on the direction of light and the physical shape of the object. That is, in the code generation unit 104, effective information regarding the physical shape of the target object is assigned as a code for each pixel. If template matching is performed using this code, highly accurate object recognition based on the solid shape information of the object is performed. It can be realized.

以上の実施の形態において、各光源102−1〜102−Nの明滅を制御して当該各光源102−1〜102−Nの明滅に同期してカメラ101に撮像トリガ信号を送出しているが、本発明はこれに限らず、当該各光源102−1〜102−Nの明滅に非同期で(ただし、各光源102−1〜102−Nとの対応は必要)カメラ101に撮像トリガ信号を送出してもよい。   In the above embodiment, the blinking of each of the light sources 102-1 to 102-N is controlled and an imaging trigger signal is sent to the camera 101 in synchronization with the blinking of each of the light sources 102-1 to 102-N. The present invention is not limited to this, and an imaging trigger signal is sent to the camera 101 asynchronously with the blinking of each of the light sources 102-1 to 102-N (however, correspondence with each of the light sources 102-1 to 102-N is necessary). May be.

実施の形態2.
実施の形態1に係る物体認識装置100に備えられる符号生成部104は、実施の形態2において、輝度勾配強度の順位を符号として生成するようにしてもよい。実施の形態1に係る物体認識装置100が備える符号生成部104との違いは、カメラ101により撮影されたN枚の画像データから勾配強度を算出した後、勾配強度の順位を求める点である。
Embodiment 2. FIG.
The code generation unit 104 provided in the object recognition apparatus 100 according to Embodiment 1 may generate the order of the luminance gradient strength as a code in Embodiment 2. The difference from the code generation unit 104 provided in the object recognition apparatus 100 according to Embodiment 1 is that the gradient strength is calculated from N pieces of image data captured by the camera 101 and then the rank of the gradient strength is obtained.

図8は、N=8の場合について、ある座標の輝度勾配強度とその順位の一例を示した図である。輝度勾配強度の大きい光源方向に対応する光源IDから順番に、1から8まで順位付けを行う。実施の形態2に係る符号生成部104によって生成される符号は、画素毎にN次元ベクトルで表現する。座標(x,y)の画像データにおいて、光源IDがkの勾配強度の順位をr(x,y)(ただし

Figure 2015173344
)と表記すると、座標(x,y)に割り当てる符号r(x,y)を次式で表す。 FIG. 8 is a diagram showing an example of the luminance gradient strength of a certain coordinate and its rank in the case of N = 8. Ranking is performed from 1 to 8 in order from the light source ID corresponding to the direction of the light source having the high intensity gradient intensity. The code generated by the code generation unit 104 according to Embodiment 2 is expressed by an N-dimensional vector for each pixel. The image data of the coordinates (x, y), the ranking source ID is the gradient strength of k r k (x, y) ( although
Figure 2015173344
), The code r (x, y) assigned to the coordinates (x, y) is expressed by the following equation.

Figure 2015173344
Figure 2015173344

画像データ内の全ての画素について、上記のように符号を生成する。以上が、符号生成部104が撮影画像から符号を生成する手順である。   Codes are generated as described above for all pixels in the image data. The above is the procedure in which the code generation unit 104 generates a code from the captured image.

符号照合部106による符号の照合は、輝度勾配強度の順位の差を相違度として評価することにより実行する。いま、参照画像データから求められた輝度勾配強度により構成される、座標(i,j)の画像データにおける符号を次式で表す。   The verification of the code by the code verification unit 106 is executed by evaluating the difference in the order of the brightness gradient intensities as the degree of difference. Now, the sign in the image data of the coordinates (i, j), which is constituted by the luminance gradient strength obtained from the reference image data, is expressed by the following equation.

Figure 2015173344
Figure 2015173344

また、テンプレート記憶部105に記憶されている、座標(i,j)のテンプレート符号を次式で表す。   The template code of coordinates (i, j) stored in the template storage unit 105 is expressed by the following equation.

Figure 2015173344
Figure 2015173344

そのサイズを横W画素、縦H画素とおく。このときの相違度は、輝度勾配強度の順位の差の総和、すなわち次式として求める。   The size is set to horizontal W pixels and vertical H pixels. The degree of difference at this time is obtained as the sum of the differences in the order of the luminance gradient intensities, that is, the following equation.

Figure 2015173344
Figure 2015173344

そして、認識対象物の物体の位置は、上記の式(2)を最小にする座標(x,y)として求める。なお、認識対象物の画像上での大きさ(スケール)が事前登録時と物体認識時とで変化する場合は、実施の形態1に係る符号照合部106と同様に、テンプレート符号のスケールを変動させ、相違度を評価すればよい。   Then, the position of the object of the recognition target is obtained as coordinates (x, y) that minimizes the above equation (2). When the size (scale) of the recognition target object on the image changes between pre-registration and object recognition, the scale of the template code varies as in the code matching unit 106 according to the first embodiment. And evaluate the degree of difference.

以上のように構成された実施の形態2によれば、符号生成部104で生成される符号は勾配強度の順位であるため、勾配強度の順位が入れ替わらない範囲での勾配強度の変動に対して頑健な物体認識を実現することができる。   According to the second embodiment configured as described above, since the code generated by the code generation unit 104 is the rank of the gradient strength, the gradient strength varies within a range in which the gradient strength rank does not change. And robust object recognition.

実施の形態3.
実施の形態1に係る物体認識装置100に備えられる符号生成部104は、実施の形態3において、輝度勾配強度の順位を2段階に分類した結果を表現した二値符号を生成し、符号照合部106は符号生成部104で生成された二値符号をハミング距離によって照合するように構成してもよい。
Embodiment 3 FIG.
The code generation unit 104 included in the object recognition apparatus 100 according to the first embodiment generates a binary code that represents the result of classifying the luminance gradient strength into two stages in the third embodiment, and the code matching unit. 106 may be configured to collate the binary code generated by the code generation unit 104 based on the Hamming distance.

実施の形態3に係る符号生成部104によって生成される符号は、画素毎にNビットの二進数で表現する。各画素の符号を構成するNビットを、それぞれ光源IDの1からNに対応させる。実施の形態2に係る符号生成部104によって生成される符号との違いは、画素毎の輝度勾配強度の順位を求めた後、順位を上位と下位の2段階に分類し、その結果を二値符号とする点である。輝度勾配強度の順位が上位に含まれる光源IDは、対応する二値符号のビットを1にセットし、下位に含まれる光源IDは、対応する二値符号のビットを0にセットする。このような手順により、画像データ内の全ての画素について、Nビットからなる二値符号を生成する。   The code generated by the code generation unit 104 according to Embodiment 3 is expressed by an N-bit binary number for each pixel. The N bits constituting the code of each pixel correspond to the light source IDs 1 to N, respectively. The difference from the code generated by the code generation unit 104 according to the second embodiment is that the rank of the luminance gradient strength for each pixel is obtained, and then the rank is classified into two stages, upper and lower, and the result is binarized. It is a point used as a sign. The light source ID that includes the rank of the luminance gradient intensity at the upper level sets the corresponding binary code bit to 1, and the light source ID that is included at the lower level sets the corresponding binary code bit to 0. By such a procedure, a binary code consisting of N bits is generated for all the pixels in the image data.

図9は、N=8の場合について、ある画素の輝度勾配強度とその順位、さらに順位を2段階に分類して二値符号を生成した例を示している。勾配強度の順位rを求めるまでの処理の流れは、図8と同様である。本実施の形態では、勾配強度の順位を求めた後、順位が上位4つの光源ID(2,3,4,6)について、対応するビットに1をセットし、下位4つの光源ID(1,5,7,8)について、対応するビットに0をセットする。こうして得られた8ビットが、この画素の二値符号となる。符号照合部106による符号の照合は、参照画像から生成した符号とテンプレート符号とのハミング距離に基づいて相違度を評価することにより実行する。ハミング距離とは、ビット長が同じ2つの2進数を比較したときの、値が異なっているビットの個数である。 FIG. 9 shows an example in which a binary code is generated by classifying a luminance gradient intensity of a pixel, its rank, and further rank into two stages for N = 8. The flow of processing until the gradient strength rank rk is obtained is the same as that shown in FIG. In this embodiment, after obtaining the rank of the gradient intensity, 1 is set in the corresponding bit for the upper four light source IDs (2, 3, 4, 6), and the lower four light source IDs (1, For 5, 7, 8), set the corresponding bit to 0. The 8 bits thus obtained becomes the binary code of this pixel. Code verification by the code verification unit 106 is performed by evaluating the degree of difference based on the Hamming distance between the code generated from the reference image and the template code. The Hamming distance is the number of bits having different values when two binary numbers having the same bit length are compared.

図10は、ある画素について、テンプレートの二値符号と参照画像から生成した二値符号からハミング距離を求める一例を示している。値が一致している部分には○を、異なっている部分には×を記している。図10の例の場合、値が異なっているビットは4個であるため、この画素のハミング距離は4である。   FIG. 10 shows an example of obtaining the Hamming distance for a certain pixel from the binary code of the template and the binary code generated from the reference image. A portion where the values are the same is marked with a circle, and a portion where the values are different is marked with a cross. In the case of the example in FIG. 10, the number of bits having different values is four, so the hamming distance of this pixel is four.

いま、参照画像データから生成された符号をSとおく。また、テンプレート記憶部105に記憶されているテンプレート符号をTとし、そのサイズをW×Hとおく。2つの2進数b,bの間のハミング距離をH(b,b)と表記すると、相違度はハミング距離の総和、すなわち次式により求める。 Now, let S be a code generated from the reference image data. In addition, the template code stored in the template storage unit 105 is T, and its size is W × H. When the Hamming distance between two binary numbers b 1 and b 2 is expressed as H (b 1 , b 2 ), the degree of difference is obtained by the sum of the Hamming distances, that is, the following equation.

Figure 2015173344
Figure 2015173344

そして、認識対象物の物体の位置は、上記の式(3)を最小にする座標(x,y)として求める。なお、ハミング距離H(b,b)は以下の手順で高速に求めることができる。あらかじめ、10進数a(0≦a<2)を2進数に変換した際に値が1となる桁の数をサイズ2のテーブルt(a)に格納しておく。例えば、10進数151を2進数に変換すると10010111であり、1となる桁の数は5であるから、t(151)=5である。 Then, the position of the object of the recognition target is obtained as coordinates (x, y) that minimizes the above equation (3). The Hamming distance H (b 1 , b 2 ) can be obtained at high speed by the following procedure. The number of digits whose value is 1 when the decimal number a (0 ≦ a <2 N ) is converted into a binary number is stored in the table t (a) of size 2 N in advance. For example, when the decimal number 151 is converted into a binary number, it is 10010111, and the number of digits that become 1 is 5, so t (151) = 5.

いま、2進数bとbの排他的論理和を10進数化した値をXOR10(b,b)と表すとすると、2つの2進数b,bの間のハミング距離は、テーブルt(・)の参照により次式によって求められる。 If a value obtained by converting the exclusive OR of the binary numbers b 1 and b 2 into a decimal number is expressed as XOR 10 (b 1 , b 2 ), the Hamming distance between the two binary numbers b 1 and b 2 is By referring to the table t (·), the following equation is obtained.

Figure 2015173344
Figure 2015173344

このように、あらかじめテーブルを作成しておくことにより、ハミング距離を高速に計算することが可能となる。   Thus, by creating a table in advance, it is possible to calculate the Hamming distance at high speed.

また、認識対象物の画像上での大きさ(スケール)が事前登録時と物体認識時とで変化する場合は、符号照合部106においてテンプレート符号T(i,j)のスケールを変動させ、相違度を評価すればよい。例えば、T(i,j)を2次元最近傍法によって拡大・縮小することにより、大きさの異なるテンプレートが得られる。これらのテンプレートを切り替えながら照合を繰り返し、相違度が最小となる位置とスケールを求める。   In addition, when the size (scale) of the recognition target object on the image changes between pre-registration and object recognition, the scale of the template code T (i, j) is changed in the code matching unit 106 to make a difference. The degree should be evaluated. For example, templates with different sizes can be obtained by enlarging / reducing T (i, j) by the two-dimensional nearest neighbor method. Matching is repeated while switching between these templates, and the position and scale at which the degree of difference is minimized are obtained.

以上のように構成された実施の形態3によれば、符号生成部104で生成される符号は、勾配強度順位を上位と下位の2段階に分類した結果を二値化したものであるから、物体の位置ずれやノイズなどの外乱に起因する勾配強度の変動だけでなく、順位の入れ替わりに対しても頑健に物体認識を行うことができる。   According to the third embodiment configured as described above, the code generated by the code generation unit 104 is a binarized result of classifying the gradient strength rank into two stages, upper and lower, It is possible to perform object recognition robustly not only with respect to fluctuations in gradient strength caused by disturbances such as object position deviation and noise, but also with respect to changing the order.

さらに、符号照合部106による相違度の評価はハミング距離に基づくことから、ビット演算とテーブルの参照に基づく演算として実現できるので、ディジタル計算機上で高速に符号の照合を実行することができる。   Furthermore, since the evaluation of the degree of difference by the code matching unit 106 is based on the Hamming distance, it can be realized as a calculation based on a bit calculation and a table reference, so that a code check can be executed at high speed on a digital computer.

実施の形態4.
実施の形態1に係る物体認識装置100に備えられる符号生成部104は、実施の形態4において、輝度勾配強度の順位を上位、中位及び下位の3段階に分類した結果を表現した三値符号を生成し、符号照合部106は符号生成部104で生成された三値符号を照合するように構成してもよい。実施の形態4に係る符号生成部104によって生成される符号は、1画素につきN桁の三値符号で表現する。
Embodiment 4 FIG.
The code generation unit 104 provided in the object recognition apparatus 100 according to the first embodiment is a ternary code that represents the result of classifying the luminance gradient strength into the upper, middle, and lower levels in the fourth embodiment. The code verification unit 106 may be configured to verify the ternary code generated by the code generation unit 104. The code generated by the code generation unit 104 according to the fourth embodiment is expressed by an N-digit ternary code per pixel.

図11は、N=8の場合について、ある座標の輝度勾配強度からN桁の三値符号を生成する流れの一例を示した図である。輝度勾配強度の順位rを求めるまでの処理の流れは、図8および図9と同様である。本実施の形態では、輝度勾配強度の順位を求めた後、順位が上位2つの光源ID(2,3)について、対応する桁に1をセットし、中位4つの光源ID(1,4,5,6)について、符号*をセットし、下位2つの光源ID(7,8)について、対応するビットに0をセットする。図11では、上位、中位及び下位に分類する光源IDの数をそれぞれ2,4,2としているが、上位、中位及び下位のそれぞれに分類する数の配分はこの限りではない。 FIG. 11 is a diagram illustrating an example of a flow of generating an N-digit ternary code from a luminance gradient intensity at a certain coordinate in the case of N = 8. The flow of processing until the luminance gradient strength rank rk is obtained is the same as that shown in FIGS. In the present embodiment, after obtaining the rank of the luminance gradient intensity, 1 is set in the corresponding digit for the two light source IDs (2, 3) with the highest rank, and the middle four light source IDs (1, 4, 4). 5 and 6), the symbol * is set, and for the lower two light source IDs (7 and 8), the corresponding bits are set to 0. In FIG. 11, the numbers of light source IDs classified into upper, middle, and lower levels are 2, 4, and 2, respectively, but the distribution of the numbers classified into upper, middle, and lower levels is not limited to this.

次に、本発明の実施の形態4に係る符号生成部104により生成される三値符号を、符号照合部106で照合する手順を説明する。本発明の実施の形態3に係る符号照合部106での照合との相違点は、順位が中位に分類された光源IDに対応する符号*を、ワイルドカードとみなす点である。ワイルドカードとは、どの符号とも一致する(相違度が0となる)符号のことである。   Next, a procedure for collating the ternary code generated by the code generation unit 104 according to Embodiment 4 of the present invention with the code verification unit 106 will be described. The difference from the collation in the code collation unit 106 according to Embodiment 3 of the present invention is that the code * corresponding to the light source ID classified in the middle rank is regarded as a wild card. A wild card is a code that matches any code (the degree of difference is 0).

図12は、ある画素について、テンプレートの三値符号と参照画像から生成した三値符号を照合する一例を示している。値が一致している部分には○を、異なっている部分には×を記している。前に述べたように、ワイルドカードの符号*は、どの符号とも一致する符号として定義する。図9の例の場合、値が異なっているビットの個数は2であるので、この画素の相違度は2である。   FIG. 12 shows an example of collating a ternary code of a template with a ternary code generated from a reference image for a certain pixel. A portion where the values are the same is marked with a circle, and a portion where the values are different is marked with a cross. As described above, the wildcard code * is defined as a code that matches any code. In the case of the example in FIG. 9, the number of bits having different values is 2, so the degree of difference between the pixels is 2.

本発明の実施の形態3に係る物体認識装置100に備えられる符号照合部106では、ハミング距離に基づいて相違度を定義した。本実施の形態では、この相違度の考え方を図12のように三値符号へと拡張し、これを拡張ハミング距離と呼ぶこととする。参照画像から生成された三値符号をS’、テンプレート記憶部105に記憶されているテンプレート三値符号をT’とおき、そのサイズをW×Hとする。2つの三値符号s,sの拡張ハミング距離をH’(s,s)と表記すると、物体の位置は次式を最小にする座標(x,y)として得られる。 In the code matching unit 106 provided in the object recognition apparatus 100 according to Embodiment 3 of the present invention, the degree of difference is defined based on the Hamming distance. In the present embodiment, the concept of the degree of difference is extended to a ternary code as shown in FIG. 12, and this is called an extended Hamming distance. The ternary code generated from the reference image is S ′, the template ternary code stored in the template storage unit 105 is T ′, and the size is W × H. When the extended Hamming distance of the two ternary codes s 1 and s 2 is expressed as H ′ (s 1 , s 2 ), the position of the object is obtained as coordinates (x, y) that minimize the following expression.

Figure 2015173344
Figure 2015173344

認識対象物の画像上での大きさ(スケール)が事前登録時と物体認識時とで変化する場合は、実施の形態3に係る符号照合部106と同様に、テンプレート符号のスケールを変動させ、相違度を評価すればよい。   When the size (scale) of the recognition target object on the image changes between pre-registration and object recognition, the scale of the template code is changed as in the code matching unit 106 according to the third embodiment, What is necessary is just to evaluate a difference degree.

以上のように構成された実施の形態4によれば、符号生成部104で生成される符号は、勾配強度の順位が中位の光源IDにワイルドカードとなる符号、すなわちどの符号とも一致するような符号を割り当てるため、中位(N/2番目前後)での勾配強度の順位の入れ替わりが生じても、相違度の評価に影響を与えることなく、頑健に物体認識を行うことができるようになる。   According to the fourth embodiment configured as described above, the code generated by the code generation unit 104 matches a code that becomes a wild card with respect to the light source ID having the middle gradient intensity, that is, matches any code. Therefore, object recognition can be performed robustly without affecting the evaluation of the degree of difference even when the gradient strength changes in the middle order (around N / 2). Become.

実施の形態5.
実施の形態1に係る物体認識装置100に備えられる符号生成部104は、実施の形態5において、輝度勾配が最大となる光源方向を求め、この方向を符号化するようにし、符号照合部106では勾配の方向(角度)の差に基づいて相違度を評価するように構成してもよい。
Embodiment 5 FIG.
The code generation unit 104 provided in the object recognition apparatus 100 according to the first embodiment obtains the light source direction that maximizes the luminance gradient in the fifth embodiment, encodes this direction, and the code verification unit 106 You may comprise so that a dissimilarity may be evaluated based on the difference of the direction (angle) of a gradient.

図13は、N=8の場合について、ある座標の輝度勾配強度から光源方向符号を生成する流れの一例を示した図である。ここで、輝度勾配強度を求めるまでの流れは、図8、図9、図11と同様である。本実施の形態に係る符号生成部104では、勾配強度が最大となる光源方向を求め、これに対応する光源IDをこの画素の符号(光源方向符号)とする。   FIG. 13 is a diagram illustrating an example of a flow of generating a light source direction code from a luminance gradient intensity at a certain coordinate in the case of N = 8. Here, the flow until the luminance gradient intensity is obtained is the same as that shown in FIGS. In the code generation unit 104 according to the present embodiment, the light source direction that maximizes the gradient intensity is obtained, and the corresponding light source ID is used as the code of this pixel (light source direction code).

符号照合部106では、参照画像から生成した符号とテンプレート符号との光源方向の角度差に基づいて相違度を評価する。参照画像から生成された符号をS”、テンプレート記憶部105に記憶されているテンプレート符号をT”とし、そのサイズをW×Hとおく。参照画像の座標(i,j)における光源方向、すなわち符号S”(i,j)をキーとして図2に示す内部メモリ104m内の光源方向情報テーブルを参照し、対応する光源方向を求める。これをθ(i,j)と表す。同様に、テンプレート符号の座標(i,j)における光源方向、すなわち符号T”(i,j)をキーとして図2に示す光源方向情報テーブルを参照し、得られる光源方向をθ(i,j)と表記する。すると、物体の位置は参照画像の光源方向θとテンプレートの光源方向θの角度差の総和、すなわち次式を最小にする座標(x,y)として得られる。 The code matching unit 106 evaluates the degree of difference based on the angle difference in the light source direction between the code generated from the reference image and the template code. The code generated from the reference image is S ″, the template code stored in the template storage unit 105 is T ″, and the size is W × H. The corresponding light source direction is obtained by referring to the light source direction information table in the internal memory 104m shown in FIG. 2 using the light source direction at the coordinates (i, j) of the reference image, that is, the code S ″ (i, j) as a key. 2 is represented as θ s (i, j) .Similarly, the light source direction at the coordinates (i, j) of the template code, ie, the light source direction information table shown in FIG. The obtained light source direction is expressed as θ t (i, j). Then, the position of the object is obtained as a sum of angular differences between the light source direction θ s of the reference image and the light source direction θ t of the template, that is, coordinates (x, y) that minimize the following equation.

Figure 2015173344
Figure 2015173344

ここで、%は剰余を表す演算子とする。また、min(X,Y)はXとYのうち小さい方を選択する最小値選択関数を意味する。認識対象物の画像上での大きさ(スケール)が事前登録時と物体認識時とで変化する場合は、実施の形態3で述べた手順と同様に、符号照合部106においてテンプレート符号のスケールを変動させ、相違度を評価すればよい。   Here,% is an operator representing a remainder. Also, min (X, Y) means a minimum value selection function that selects the smaller of X and Y. When the size (scale) of the recognition target object on the image changes between pre-registration and object recognition, the code matching unit 106 sets the scale of the template code in the same manner as described in the third embodiment. It can be varied and the degree of difference can be evaluated.

以上のように構成された実施の形態5によれば、符号生成部104での符号生成処理は、画素ごとにN個の輝度勾配強度の数値のうち最も輝度勾配強度が大きい光源IDを選択するだけで済むため、高速に符号を生成することができる。また、符号生成部104で生成される符号は各画素につきlogNビットで表現できるため、コンパクトな符号とすることができる。 According to the fifth embodiment configured as described above, the code generation processing in the code generation unit 104 selects the light source ID having the highest luminance gradient intensity among the N luminance gradient intensity values for each pixel. Therefore, the code can be generated at high speed. Further, since the code generated by the code generation unit 104 can be expressed by log 2 N bits for each pixel, it can be a compact code.

実施の形態6.
本発明の実施の形態1に係る物体認識装置100に備えられる符号生成部104は、実施の形態6において、各光源を点灯して撮影した画像データについて輝度勾配の方向を画素毎に求めて符号を構成し、符号照合部106では輝度勾配の方向(角度)の差に基づいて相違度を評価するように構成してもよい。本実施の形態に係る符号生成部104が符号を生成する符号は、画素毎にN次元ベクトルで表現する。符号を生成する流れは以下の通りである。
Embodiment 6 FIG.
The code generation unit 104 provided in the object recognition apparatus 100 according to Embodiment 1 of the present invention obtains the direction of the luminance gradient for each pixel in the image data obtained by lighting each light source in Embodiment 6, and performs encoding. The code matching unit 106 may be configured to evaluate the degree of difference based on the difference in the direction (angle) of the luminance gradient. The code generated by the code generation unit 104 according to the present embodiment is expressed by an N-dimensional vector for each pixel. The flow for generating the code is as follows.

本実施の形態において、説明を簡単にするため、物体認識装置100が備える光源102−1〜102−8は、図3に示すように同心円状に等間隔に配置されているものとする。光源102−1〜102−8の配置が等間隔ではない場合についても、以下に述べる処理に対して各光源102−1〜102−8の間隔に応じて適宜必要な変更を加えれば実現が可能である。あらかじめ、全周360度を(360/N)度ずつに等間隔に分割し、それぞれの範囲に0からN−1までの符号を割り当て、これを勾配方向特徴量とする。   In the present embodiment, in order to simplify the description, it is assumed that the light sources 102-1 to 102-8 included in the object recognition apparatus 100 are arranged at equal intervals in a concentric manner as shown in FIG. Even in the case where the arrangement of the light sources 102-1 to 102-8 is not equidistant, the processing described below can be realized by appropriately making necessary changes according to the intervals of the light sources 102-1 to 102-8. It is. In advance, the entire circumference of 360 degrees is divided into equal intervals of (360 / N) degrees, and codes from 0 to N-1 are assigned to the respective ranges, which are used as gradient direction feature quantities.

まず、物体認識装置が備えるN個の光源102−1〜102−Nを1個ずつ順次選択的に点灯させながら、カメラ101で画像の画像データを取得する。こうして得られたN枚の画像データをそれぞれ、IからIとおく。その後、画像データIからIのそれぞれに対し、画素毎に輝度勾配の方向を求める。画像データIのx軸方向(横方向)の輝度勾配をI’、y軸方向(縦方向)の輝度勾配をI’とすると、座標(x,y)の勾配方向は次式によって求められる。 First, image data of an image is acquired by the camera 101 while selectively turning on the N light sources 102-1 to 102-N included in the object recognition device one by one sequentially. The N pieces of image data obtained in this way are set as I 1 to I N , respectively. Thereafter, the direction of the luminance gradient is determined for each pixel for each of the image data I 1 to I N. Assuming that the luminance gradient in the x-axis direction (lateral direction) of the image data I is I ′ x and the luminance gradient in the y-axis direction (vertical direction) is I ′ y , the gradient direction of the coordinates (x, y) is obtained by the following equation. It is done.

Figure 2015173344
Figure 2015173344

ここで、関数「atan2」は4象限表現の逆正接関数を表し、C言語等の一般的なプログラミング言語では標準で用意されている。こうして得られた勾配方向情報をN段階に量子化することにより、勾配方向特徴量を求め、これを座標(x,y)における画像データの符号とする。   Here, the function “atan2” represents an arctangent function having a four-quadrant expression, and is prepared as a standard in a general programming language such as C language. By quantizing the gradient direction information obtained in this way into N stages, the gradient direction feature quantity is obtained and used as the code of the image data at the coordinates (x, y).

図14は、N=8の場合について、ある画素の輝度勾配の方向と、それに対応する輝度勾配方向特徴量を示している。輝度勾配方向と特徴量の対応関係は、図14の右側に示している。光源IDがkの光源102−kを点灯させたときの撮影画像データIの、座標(x,y)の画像データにおける勾配方向特徴量を

Figure 2015173344
(ただし
Figure 2015173344
)と表記すると、座標(x,y)の画像データに割り当てる符号
Figure 2015173344
を次式で表す。 FIG. 14 shows the luminance gradient direction of a certain pixel and the luminance gradient direction feature amount corresponding to N = 8. The correspondence relationship between the luminance gradient direction and the feature amount is shown on the right side of FIG. The gradient direction feature amount in the image data of coordinates (x, y) of the photographed image data I k when the light source 102-k with the light source ID k is turned on.
Figure 2015173344
(However,
Figure 2015173344
) Is a code assigned to image data at coordinates (x, y)
Figure 2015173344
Is expressed by the following equation.

Figure 2015173344
Figure 2015173344

画像内の全ての画素について、上記のように符号を生成する。以上が、符号生成部104が撮影画像から符号を生成する手順である。符号照合部106による符号の照合は、輝度勾配方向(角度)の差を相違度として評価することにより実行する。いま、参照画像データから求められた輝度勾配方向の特徴量により構成される、座標(i,j)の画像データにおける符号を次式で表す。   Codes are generated as described above for all pixels in the image. The above is the procedure in which the code generation unit 104 generates a code from the captured image. Code verification by the code verification unit 106 is performed by evaluating the difference in luminance gradient direction (angle) as the degree of difference. Now, the sign in the image data of the coordinates (i, j), which is constituted by the feature quantity in the luminance gradient direction obtained from the reference image data, is expressed by the following equation.

Figure 2015173344
Figure 2015173344

また、テンプレート記憶部105に記憶されている、座標(i,j)の画像データのテンプレート符号を次式で表す。   Further, the template code of the image data at the coordinates (i, j) stored in the template storage unit 105 is expressed by the following equation.

Figure 2015173344
Figure 2015173344

そのサイズを横W画素、縦H画素とおく。このとき相違度は、勾配方向の差の総和、すなわち次式として求める。   The size is set to horizontal W pixels and vertical H pixels. At this time, the degree of difference is obtained as a sum of differences in the gradient direction, that is, as the following equation.

Figure 2015173344
Figure 2015173344

そして、物体の位置は、上記の式(4)を最小にする座標(x,y)として求める。   And the position of an object is calculated | required as a coordinate (x, y) which minimizes said Formula (4).

なお、認識対象物の画像データ上での大きさ(スケール)が事前登録時と物体認識時とで変化する場合は、符号照合部106においてテンプレート符号のスケールを変動させ、相違度を評価すればよい。例えば、テンプレート符号

Figure 2015173344
を成分
Figure 2015173344
に分割し、成分毎に2次元最近傍法を用いて拡大又は縮小することにより、異なるスケールのテンプレート符号が得られる。これらのテンプレート符号を切り替えながら照合を繰り返し、相違度が最小となる位置とスケールを求める。 If the size (scale) of the recognition target object on the image data changes between pre-registration and object recognition, the code collating unit 106 may change the scale of the template code and evaluate the degree of difference. Good. For example, template code
Figure 2015173344
The ingredients
Figure 2015173344
The template codes of different scales can be obtained by dividing the image into two and enlarging or reducing each component using the two-dimensional nearest neighbor method. Matching is repeated while switching these template codes, and the position and scale at which the degree of difference is minimized are obtained.

以上のように構成された実施の形態6によれば、輝度勾配強度やその順位は、照明などの環境や物体表面の状態などの要因で変動することがある。しかし、輝度勾配の方向は物体の形状に強く依存し、環境による変動が起こりにくいという特徴があるため、このような構成により物体認識装置の認識精度を向上させることができる。   According to the sixth embodiment configured as described above, the luminance gradient strength and its order may vary due to factors such as the environment such as illumination and the state of the object surface. However, since the direction of the luminance gradient is strongly dependent on the shape of the object and has a feature that it is less likely to fluctuate due to the environment, such a configuration can improve the recognition accuracy of the object recognition apparatus.

実施の形態7.
本発明の実施の形態1から6に係る物体認識装置100に備えられる符号照合部106においては、物体のスケールの変化に対応するため、テンプレート符号を拡大又は縮小するという方法を採っていた。これとは別の方法として、実施の形態7では、N個の光源102−1〜102−Nのそれぞれを点灯させたときの撮影画像をテンプレート記憶部に保持しておき、これらN枚の画像データを照合の際に拡大又は縮小しながら符号を生成するように構成してもよい。
Embodiment 7 FIG.
The code verification unit 106 provided in the object recognition apparatus 100 according to Embodiments 1 to 6 of the present invention employs a method of enlarging or reducing the template code in order to cope with a change in the scale of the object. As another method, in the seventh embodiment, a captured image when each of the N light sources 102-1 to 102-N is turned on is held in the template storage unit, and these N images are stored. The code may be generated while enlarging or reducing the data when collating.

図15は、本発明の実施の形態7に係る物体認識装置100の構成を示している。実施の形態7に係る物体認識装置100は、図1の実施の形態1に係る物体認識装置100に比較して、N個の光源102−1〜102−Nをそれぞれ順次選択的に点灯させて撮影したN枚の輝度画像データを制御部103からの制御信号に基づいてテンプレート記憶部105に格納する点が異なる。符号生成部104は、制御部103からの光源IDと、カメラ101からの画像データと、テンプレート記憶部105からのテンプレート画像データに基づいて、テンプレート画像データに対する符号を生成するとともに、参照画像データの符号を生成して符号照合部106に出力する。符号照合部106は、テンプレート画像データと参照画像データの各符号を照合するときに、テンプレート記憶部105から読み出したN枚のテンプレート画像データから符号生成部104にて生成した符号と、認識対象物を撮影した参照画像から符号生成部104にて生成した符号とを照合する。   FIG. 15 shows the configuration of an object recognition apparatus 100 according to Embodiment 7 of the present invention. The object recognition device 100 according to the seventh embodiment sequentially turns on the N light sources 102-1 to 102-N sequentially in comparison with the object recognition device 100 according to the first embodiment in FIG. The difference is that N pieces of captured luminance image data are stored in the template storage unit 105 based on a control signal from the control unit 103. The code generation unit 104 generates a code for the template image data based on the light source ID from the control unit 103, the image data from the camera 101, and the template image data from the template storage unit 105. A code is generated and output to the code verification unit 106. The code collating unit 106, when collating each code of the template image data and the reference image data, the code generated by the code generating unit 104 from the N template image data read from the template storage unit 105, and the recognition target object The code generated by the code generation unit 104 from the reference image obtained by capturing the image is collated.

認識対象物の画像上での大きさ(スケール)が事前登録時と物体認識時とで変化する場合は、符号生成部104はテンプレート記憶部105から読み込んだN枚のテンプレート画像を拡大又は縮小する。これらのテンプレート画像データは輝度画像であるため、拡大又は縮小には画像の拡大又は縮小の手法として一般的に用いられている2次元スプライン補間法などの滑らかな補間法を用いることができる。当該補間法によって拡大又は縮小したN枚の画像データから符号を生成し、これをテンプレート画像データの符号とする。N枚の画像データから符号を生成する手順については、実施の形態1から6に係る物体認識装置100が備える符号生成部104の手順と同様である。また、参照画像データに対する符号の生成、およびその後に実行するテンプレート画像データの符号との照合についても、実施の形態1から6における手順と同様である。   When the size (scale) of the recognition target object on the image changes between pre-registration and object recognition, the code generation unit 104 enlarges or reduces the N template images read from the template storage unit 105. . Since these template image data are luminance images, a smooth interpolation method such as a two-dimensional spline interpolation method generally used as a method for enlarging or reducing an image can be used for enlarging or reducing. A code is generated from N pieces of image data enlarged or reduced by the interpolation method, and this is used as the code of the template image data. The procedure for generating the code from the N pieces of image data is the same as the procedure of the code generation unit 104 provided in the object recognition apparatus 100 according to Embodiments 1 to 6. Further, the generation of the code for the reference image data and the collation with the code of the template image data executed thereafter are the same as the procedures in the first to sixth embodiments.

以上のように構成された実施の形態7によれば、テンプレート記憶部105はN枚の輝度画像データの形式で基準物体の情報を保持することから、輝度画像に対する滑らかな補間による拡大又は縮小が行える。滑らかな拡大又は縮小を行った画像から生成した符号を用いて照合を行うため、物体のスケール変化に対する認識処理の信頼性を向上させることができる。   According to the seventh embodiment configured as described above, the template storage unit 105 holds the information of the reference object in the form of N pieces of luminance image data, so that the luminance image can be enlarged or reduced by smooth interpolation. Yes. Since collation is performed using a code generated from a smooth enlarged or reduced image, it is possible to improve the reliability of recognition processing for a scale change of an object.

実施の形態8.
本発明の実施の形態1から7に係る物体認識装置100に備えられる符号生成部104は、実施の形態8において、テンプレート記憶部105へ記憶するテンプレート画像データの符号を生成する際、各実施の形態において生成する符号に加えて、画素毎に符号を有効化または無効化する情報、いわゆるマスク情報を生成するようにし、符号照合部106はマスク情報を参照し符号が有効な画素のみについて、参照画像データから生成した符号とテンプレート画像データの符号とを照合するように構成してもよい。
Embodiment 8 FIG.
The code generation unit 104 included in the object recognition apparatus 100 according to Embodiments 1 to 7 of the present invention generates a code for template image data stored in the template storage unit 105 in Embodiment 8, and In addition to the code generated in the form, information for enabling or disabling the code for each pixel, so-called mask information, is generated, and the code matching unit 106 refers to the mask information and refers to only the pixel for which the code is valid. You may comprise so that the code | symbol produced | generated from image data and the code | symbol of template image data may be collated.

はじめに、マスク情報を生成する方法として、輝度勾配強度に基づく方法について説明する。   First, a method based on luminance gradient strength will be described as a method for generating mask information.

各撮影画像データから算出される輝度勾配強度は、物体の立体形状に由来する輪郭の部分で大きな値を取る傾向となる。そこで、輝度勾配強度に基づいて、符号の有効または無効を画素毎に設定する。具体的には、符号生成部104は、二値のマスク情報m(x,y)を生成するようにし、座標(x,y)の符号が有効ならばマスク情報m(x,y)=1、無効ならばマスク情報m(x,y)=0とする。各座標の符号の有効または無効は、例えば以下のように判定する。   The luminance gradient intensity calculated from each captured image data tends to take a large value at the contour portion derived from the three-dimensional shape of the object. Therefore, the validity or invalidity of the code is set for each pixel based on the luminance gradient intensity. Specifically, the code generation unit 104 generates binary mask information m (x, y). If the code of the coordinates (x, y) is valid, the mask information m (x, y) = 1. If invalid, mask information m (x, y) = 0. The validity or invalidity of the code of each coordinate is determined as follows, for example.

1つの方法は、N枚の撮影画像データI(kは1からN)の輝度勾配画像データI’を求め、座標(x,y)の画像データにおける勾配強度I’(x,y)の最大値があるしきい値τよりも大きいようなkが少なくとも1つ存在すれば、すなわち

Figure 2015173344
が成り立てばマスク情報m(x,y)=1とし、そうでなければマスク情報m(x,y)=0とする。 One method is to obtain luminance gradient image data I ′ k of N pieces of photographed image data I k (k is 1 to N), and gradient intensity I ′ k (x, y) in the image data at coordinates (x, y). ) If there is at least one k that is greater than a certain threshold τ a , that is,
Figure 2015173344
If the above holds, mask information m (x, y) = 1 is set, otherwise mask information m (x, y) = 0 is set.

別の方法では、座標(x,y)の画像データにおける勾配強度I’(x,y)の最大値と最小値の差があるしきい値τよりも大きいようなkが少なくとも1つ存在すれば、すなわち

Figure 2015173344
が成り立てばマスク情報m(x,y)=1とし、そうでなければマスク情報m(x,y)=0とする。 In another method, at least one k such that the difference between the maximum value and the minimum value of the gradient intensity I ′ k (x, y) in the image data at the coordinates (x, y) is greater than a threshold value τ b. If it exists, ie
Figure 2015173344
If the above holds, mask information m (x, y) = 1 is set, otherwise mask information m (x, y) = 0 is set.

なお、上記のように輝度勾配強度の値またはその差をしきい値で判定する方法の他に、画素数全体に占める有効画素の数がある一定の割合になるよう、勾配強度の値またはその差の大きさが上位の画素から選択するようにしてもよい。   In addition to the method of determining the value of the luminance gradient intensity or its difference with the threshold value as described above, the gradient intensity value or its value is set so that the number of effective pixels in the total number of pixels is a certain ratio. You may make it select the magnitude | size of a difference from a high-order pixel.

次いで、マスク情報を生成する別の方法として、各画素の安定度に基づく方法について以下説明する。   Next, a method based on the stability of each pixel will be described below as another method for generating mask information.

図16は、物体認識装置100が図4のようなシーンで認識対象物を撮影した時の撮影画像の模式図である。ここで、背景201は、認識対象物の直方体202が持つ奥行きに対して十分に平坦であり、平面とみなすこととする。図16において、点(x,y)は認識対象物の直方体202と背景201の境界に位置する点とし、点(x,y)は背景201に位置する点とする。また、物体認識装置100に対し、図3に示すように隣接の位置関係にある光源に対して1から8まで順番に光源IDを割り当ててあるものとする(図3においては、N=8)。 FIG. 16 is a schematic diagram of a captured image when the object recognition apparatus 100 captures a recognition target object in the scene as shown in FIG. Here, it is assumed that the background 201 is sufficiently flat with respect to the depth of the rectangular parallelepiped 202 of the recognition target and is regarded as a plane. In FIG. 16, a point (x 1 , y 1 ) is a point located at the boundary between the rectangular parallelepiped 202 of the recognition object and the background 201, and a point (x 2 , y 2 ) is a point located in the background 201. Further, it is assumed that light source IDs are assigned to the object recognition apparatus 100 in order from 1 to 8 with respect to adjacent light sources as shown in FIG. 3 (N = 8 in FIG. 3). .

さて、カメラ101から見て、認識対象物の直方体202の左下側から光を照射したとき、直方体202の右上側に影が生じるため、このときの撮影画像データの点(x,y)の勾配強度は大きくなる。直方体202の下側から光を照射したときは上側に影が生じ、右下側から光を照射したときは左上側に影が生じることから、同様に点(x,y)の輝度勾配強度は大きくなる。すなわち、各光源IDに対応する勾配強度は、図17の上段に示すように、隣接しているもの同士で互いに大きい値、または互いに小さい値を取る傾向になる。ここで、光源IDが1である光源102−1と光源IDが8である光源102−8は隣接しているとみなす。一方、光源102−1〜102−8を選択的に切り替えても、点(x,y)の近傍では影の発生又は消滅が生じないため、図17の下段に示すように点(x,y)の勾配強度はランダムな値、例えば単にノイズによる勾配の大小変化が生じるのみとなる。このように、隣接する光源同士で勾配強度の大きさが近いかどうかを安定度の指標として用いる。 Now, as viewed from the camera 101, recognized when irradiated with light from the lower left side of the cuboid 202 of the object, since the shade is generated in the upper right side of the rectangular parallelepiped 202, the point of the captured image data at this time (x 1, y 1) The gradient strength of increases. When light is irradiated from the lower side of the rectangular parallelepiped 202, a shadow is generated on the upper side, and when light is irradiated from the lower right side, a shadow is generated on the upper left side. Similarly, the luminance gradient of the point (x 1 , y 1 ) Strength increases. That is, as shown in the upper part of FIG. 17, the gradient intensities corresponding to the respective light source IDs tend to take a large value or a small value between adjacent ones. Here, it is assumed that the light source 102-1 having the light source ID 1 and the light source 102-8 having the light source ID 8 are adjacent to each other. On the other hand, even if the light sources 102-1 to 102-8 are selectively switched, no shadow is generated or disappears in the vicinity of the point (x 2 , y 2 ). Therefore, the point (x The gradient strength of 2 , y 2 ) is a random value, for example, only a gradient change due to noise occurs. As described above, whether or not the gradient intensity is close between adjacent light sources is used as an index of stability.

また、安定度は、例えば以下のような演算で定義する。点(x,y)の輝度勾配強度が図18の上段に示すように得られているとする。 The stability is defined by the following calculation, for example. It is assumed that the luminance gradient strength of the point (x 1 , y 1 ) is obtained as shown in the upper part of FIG.

はじめに、勾配強度の順位を2段階に分類した二値符号であるNビットの2進数bを生成する。次に、2進数bを1ビット左にローテートした2進数b’を生成する。ここで、2進数の左ローテートとは、ビットシフトによりあふれた最上位ビットを最下位ビットに移す演算である。この後、2進数bとb’の間で値が一致するビットの個数、すなわち2進数bとb’のハミング距離を光源数Nから引いた数を求め、これを安定度として用いる。なお、2つの2進数b,b’のハミング距離は、実施の形態3で述べた方法により高速に求めることができる。   First, an N-bit binary number b which is a binary code in which the gradient strength is classified into two stages is generated. Next, a binary number b 'is generated by rotating the binary number b to the left by one bit. Here, the binary left rotate is an operation to move the most significant bit overflowed by the bit shift to the least significant bit. Thereafter, the number of bits having the same value between the binary numbers b and b ', that is, the number obtained by subtracting the Hamming distance between the binary numbers b and b' from the light source number N is obtained and used as the stability. The hamming distance between the two binary numbers b and b 'can be obtained at high speed by the method described in the third embodiment.

こうして得られた安定度があらかじめ設定されたしきい値よりも大きければ、マスク情報m(x,y)=1、そうでなければマスク情報m(x,y)=0とする。あるいは、画素数全体に占める有効画素の数がある一定の割合になるように安定度が上位の画素から選択するようにしてもよい。   If the stability obtained in this way is greater than a preset threshold value, mask information m (x, y) = 1, otherwise mask information m (x, y) = 0. Alternatively, the stability may be selected from the higher-order pixels so that the number of effective pixels in the total number of pixels is a certain ratio.

次いで、本実施の形態における各構成要素の説明に戻る。   Next, the description returns to each component in the present embodiment.

テンプレート記憶部105では、符号生成部104で生成した符号と、前述の手順により求めたマスク情報m(x,y)とを記憶する。符号照合部106では、相違度の評価にマスク情報m(x,y)を導入する。例えば、本発明の実施の形態1に係る符号照合部106の相違度の評価式に対し、以下のようにマスク情報を組み込む。すなわち次式を最小にするような座標(x,y)を、物体の位置として出力する。   The template storage unit 105 stores the code generated by the code generation unit 104 and the mask information m (x, y) obtained by the above-described procedure. The code matching unit 106 introduces mask information m (x, y) for evaluation of the degree of difference. For example, mask information is incorporated into the evaluation expression for the degree of difference of the code matching unit 106 according to Embodiment 1 of the present invention as follows. That is, coordinates (x, y) that minimize the following expression are output as the position of the object.

Figure 2015173344
Figure 2015173344

本発明の実施の形態2から7に係る符号照合部106における相違度の評価式についても同様に、画素毎の相違度の評価式にマスク情報m(x,y)を組み込むことができる。   Similarly, the mask information m (x, y) can be incorporated into the evaluation formula for the degree of difference for each pixel in the evaluation formula for the degree of difference in the code matching unit 106 according to Embodiments 2 to 7 of the present invention.

以上のように構成された実施の形態8によれば、符号生成部104では輝度勾配強度が大きい画素、または安定度が高い画素のみを有効にするようなマスク情報を生成し、符号照合部106ではマスク情報m(x,y)に基づいて有効な画素のみを用いて符号の相違度を評価する。輝度勾配強度または安定度は物体の立体形状に由来する輪郭の部分で大きくなることから、このような画素のみを有効化して符号の照合に用いることにより、認識精度の向上とマッチング処理の高速化の両立を実現することができる。   According to the eighth embodiment configured as described above, the code generation unit 104 generates mask information that enables only pixels with high luminance gradient strength or pixels with high stability, and the code verification unit 106 Then, based on the mask information m (x, y), only the effective pixels are used to evaluate the code dissimilarity. Since the intensity gradient strength or stability increases at the contour portion derived from the three-dimensional shape of the object, only such pixels are enabled and used for code verification, improving recognition accuracy and speeding up the matching process. Can be realized.

実施の形態9.
本発明の実施の形態1から8に係る物体認識装置100に備えられる光源102は、実施の形態9において、2つ以上の複数の同心多重円を含む同心多重円状に配置してもよい。さらには、物体認識装置100が備える複数の光源のうち、符号の生成および照合の目的に最適な光源を事前に選択する最適化機能を持たせてもよい。
Embodiment 9 FIG.
The light sources 102 provided in the object recognition apparatus 100 according to Embodiments 1 to 8 of the present invention may be arranged in a concentric multiple circle shape including two or more concentric multiple circles in the ninth embodiment. Furthermore, an optimization function for selecting in advance a light source optimal for the purpose of code generation and collation from among a plurality of light sources provided in the object recognition apparatus 100 may be provided.

図19は、二重の同心円状に光源を8個ずつ配置した例である。内側(カメラ101に近い側)の光源として光源102−11から102−18を、外側の光源として光源102−21から102−28を配置している。   FIG. 19 shows an example in which eight light sources are arranged in double concentric circles. Light sources 102-11 to 102-18 are disposed as light sources on the inner side (side closer to the camera 101), and light sources 102-21 to 102-28 are disposed as outer light sources.

まず、光源102−11〜102−28を多重円状に配置することによる効果を以下に説明する。図20A、図20B及び図20Cは、カメラ101と光源(102−1〜102−8のうちの1つである102)の位置関係が影203の現れ方に与える影響を示した図である。図20Aに示すように、認識対象物の直方体202が背景201に接触していてかつカメラ101と光源102の距離が近い場合、光の照射によってできる影203の大きさが小さくなる。影203が小さすぎると、画像中の直方体202と影203の境界部分で大きな輝度勾配強度が得られない可能性がある。そこで、図20Bに示すようにカメラ101から離れた光源102を用いれば、光の照射によってできる影203の大きさも大きくなるため、直方体202と影203の境界部分で明瞭な輝度勾配が得られる。   First, the effect obtained by arranging the light sources 102-11 to 102-28 in multiple circles will be described below. 20A, 20B, and 20C are diagrams illustrating the influence of the positional relationship between the camera 101 and the light source (102, which is one of 102-1 to 102-8), on the appearance of the shadow 203. FIG. As shown in FIG. 20A, when the rectangular parallelepiped 202 of the recognition object is in contact with the background 201 and the distance between the camera 101 and the light source 102 is short, the size of the shadow 203 formed by light irradiation becomes small. If the shadow 203 is too small, there is a possibility that a large luminance gradient strength cannot be obtained at the boundary between the rectangular parallelepiped 202 and the shadow 203 in the image. Therefore, as shown in FIG. 20B, when the light source 102 that is distant from the camera 101 is used, the size of the shadow 203 that can be generated by the light irradiation increases, so that a clear luminance gradient is obtained at the boundary between the rectangular parallelepiped 202 and the shadow 203.

しかしながら、図20Cに示すように認識対象物の直方体202が背景201から物理的に離れている場合、カメラ101と光源102と認識対象物の直方体202との間の位置関係によっては、認識対象物の直方体202から離れた位置に影203が現れることがある。このような場合の撮影画像は、認識対象物の直方体202と背景201との間に明瞭な輝度勾配が現れず、反対に認識対象ではない背景201に生じる影203の付近に大きな輝度勾配が生じる。したがって、図20Cの配置条件では、カメラ101と光源102の距離を近づけた方がよいということになる。   However, when the rectangular parallelepiped 202 of the recognition target is physically separated from the background 201 as shown in FIG. 20C, depending on the positional relationship among the camera 101, the light source 102, and the rectangular parallelepiped 202 of the recognition target, the recognition target A shadow 203 may appear at a position away from the rectangular parallelepiped 202. In the captured image in such a case, a clear luminance gradient does not appear between the rectangular parallelepiped 202 of the recognition target object and the background 201, and on the contrary, a large luminance gradient occurs in the vicinity of the shadow 203 generated in the background 201 that is not the recognition target. . Therefore, in the arrangement condition of FIG. 20C, it is better to make the distance between the camera 101 and the light source 102 closer.

すなわち、カメラ101と光源102の間の最適な距離は、認識対象物の形状やカメラ101の位置といった条件に応じて適切に設定することが望ましい。物体の認識に最適な光源102を選択するためには、各光源102−1〜102−8を点灯させて撮影した画像を目視で確認する方法の他、各光源102−1〜102−8を順次独立して選択的に明滅させた時に発生する影203の大きさや位置、輝度勾配強度を画像から解析する方法が考えられる。   That is, it is desirable that the optimum distance between the camera 101 and the light source 102 is appropriately set according to conditions such as the shape of the recognition object and the position of the camera 101. In order to select the optimal light source 102 for object recognition, each of the light sources 102-1 to 102-8 is selected in addition to a method of visually confirming a photographed image by turning on the light sources 102-1 to 102-8. A method is conceivable in which the size and position of the shadow 203 and the intensity gradient intensity that are generated when the blinking is performed selectively and sequentially are analyzed from the image.

次に、最適な光の照射方向について述べる。認識対象物の形状によっては、ある特定の光源方向では明瞭な輝度勾配が生じないことがある。これは、例えば光源102−1〜102−8の照射方向の形状変化が丸みをもっていて、奥行きが緩やかに変化するような場合などに起こりうる。   Next, the optimum light irradiation direction will be described. Depending on the shape of the recognition object, a clear luminance gradient may not occur in a specific light source direction. This may occur, for example, when the shape change in the irradiation direction of the light sources 102-1 to 102-8 is round and the depth changes gently.

そこで、複数M個の光源(M>N)102−1〜102−Mを持った物体認識装置を利用する。基準物体を用いてテンプレートを作成する段階では、M個の光源102−1〜102−Mの明滅を順次選択的に切り替えて撮影したM枚の画像データ間で、例えば輝度勾配強度を比較し、N枚の画像データを選択する。輝度勾配強度の評価尺度としては、例えばある撮影画像Iの輝度勾配強度の最大値と最小値の差や、輝度勾配強度の分散などを用いることができる。このようにして選択された最適なN枚に対応するN個の光源102−1〜102−Nに対して、光源IDを1からNまで割り当てる。この後の処理は全て、選択されたN個の光源102−1〜102−Nに対応するN枚の撮影画像データを利用すればよい。 Therefore, an object recognition apparatus having a plurality of M light sources (M> N) 102-1 to 102-M is used. In the step of creating a template using the reference object, for example, the brightness gradient intensity is compared between M image data captured by selectively switching the blinking of the M light sources 102-1 to 102-M sequentially, N pieces of image data are selected. As an evaluation scale for luminance gradient strength, for example, the difference between the maximum and minimum luminance gradient strengths of a certain captured image Ik , the variance of luminance gradient strength, and the like can be used. Light source IDs 1 to N are assigned to the N light sources 102-1 to 102-N corresponding to the optimal N pieces selected in this way. All the subsequent processes may use N pieces of captured image data corresponding to the selected N light sources 102-1 to 102-N.

符号生成部104では、N枚の画像データからテンプレート符号を作成し、テンプレート記憶部105に格納する。物体認識時には、符号照合部106は、N枚の画像データを用いて符号生成部104で生成された参照画像データの符号と、テンプレート記憶部105に格納されているテンプレート画像データの符号とを照合する。符号の照合については、本発明の実施の形態1から7に係る符号照合部106の手順を用いることができる。   The code generation unit 104 creates a template code from the N pieces of image data and stores the template code in the template storage unit 105. At the time of object recognition, the code collation unit 106 collates the code of the reference image data generated by the code generation unit 104 using the N pieces of image data and the code of the template image data stored in the template storage unit 105. To do. For code verification, the procedure of the code verification unit 106 according to Embodiments 1 to 7 of the present invention can be used.

以上のように構成された実施の形態9によれば、複数の光源102−11〜102−28を同心多重円状に配置することによって、一つの方向から対象物に光線を照射する場合にカメラ光軸と各光源光軸のなす角度を調整することができるため、対象物の起伏によって生じる影の大きさを適切に設定することができ、物体の認識に用いる符号を精度良く生成することができる。   According to the ninth embodiment configured as described above, a plurality of light sources 102-11 to 102-28 are arranged in a concentric multiple circle shape, so that the camera is irradiated with light from one direction. Since the angle between the optical axis and each light source optical axis can be adjusted, the size of the shadow caused by the undulation of the object can be set appropriately, and the code used for object recognition can be generated with high accuracy. it can.

さらに、事前に配置した照射角度が異なる多数の光源をもとに、方向による明暗差が大きくなる配置の組み合わせを求めて、その配置にある光源102のみを点滅制御することによって、明暗差に敏感な認識を実現し、マッチングの信頼性を向上させることができる。   Furthermore, based on a large number of light sources with different illumination angles arranged in advance, a combination of arrangements in which the light / dark difference depending on the direction becomes large is obtained, and only the light source 102 in the arrangement is controlled to blink, thereby being sensitive to the light / dark difference. Recognition can be realized, and the reliability of matching can be improved.

実施の形態10.
本発明の実施の形態1から9に係る物体認識装置100に備えられる光源102は、実施の形態10において、発光輝度を能動的に制御することが可能とし、物体認識装置100は、カメラ101で撮影した画像の明るさに応じて光源102の発光輝度を調整して再撮影するようにしてもよい。あるいは、カメラ101がシャッタースピードとゲインの少なくともいずれか一方の能動的な制御が可能とし、物体認識装置100は、カメラ101で撮影した画像の明るさに応じてカメラ101のシャッタースピードおよびゲインを調整して再撮影するようにしてもよい。
Embodiment 10 FIG.
The light source 102 provided in the object recognition apparatus 100 according to Embodiments 1 to 9 of the present invention can actively control the light emission luminance in Embodiment 10, and the object recognition apparatus 100 is a camera 101. Re-photographing may be performed by adjusting the light emission luminance of the light source 102 according to the brightness of the photographed image. Alternatively, the camera 101 can actively control at least one of shutter speed and gain, and the object recognition apparatus 100 adjusts the shutter speed and gain of the camera 101 according to the brightness of the image captured by the camera 101. Then, re-shooting may be performed.

本発明の実施形態に係る物体認識装置100は、各光源102−1〜102−Nを順次選択的に点灯させたときの撮影画像の輝度勾配強度や方向に基づいて符号を生成し、この符号を用いて物体認識を行う。つまり、高精度な物体認識を行うためには符号が正確に生成されること、すなわち十分大きな輝度勾配が得られることが重要である。このためには、光源102の発光輝度、またはカメラ101のシャッタースピードとゲインといったパラメータを適切に設定し、画素値の飽和を抑制しながら高いコントラストを得る必要がある。   The object recognition apparatus 100 according to the embodiment of the present invention generates a code based on the luminance gradient strength and direction of the captured image when each of the light sources 102-1 to 102-N is selectively turned on sequentially. Object recognition is performed using. That is, in order to perform highly accurate object recognition, it is important that codes are generated accurately, that is, a sufficiently large luminance gradient is obtained. For this purpose, it is necessary to appropriately set parameters such as the light emission luminance of the light source 102 or the shutter speed and gain of the camera 101 to obtain high contrast while suppressing saturation of pixel values.

光源102−1〜102−Nの発光輝度、またはカメラ101のシャッタースピード・ゲインの調整は次のように行う。基準物体を用いてテンプレートを作成する段階で、適当なパラメータを設定し、一度撮影してみる。撮影した画像データに対し、輝度値の分布を調べる。輝度値が飽和している場合は画像が明るすぎるため、光源102−1〜102−Nの発光輝度を下げるか、カメラ101のシャッタースピードを早くするか、もしくはカメラ101のゲインを下げた上で再撮影する。反対に、輝度値が小さい方に偏っている場合は画像が暗すぎるため、光源102−1〜102−Nの発光輝度を上げるか、カメラ101のシャッタースピードを遅くするか、もしくはカメラ101のゲインを上げた上で再撮影する。再撮影した画像に対して前述の手順を繰り返し、輝度値の分布が適切と判断されるまで繰り返す。このようにして、適切なパラメータ設定を求める。   Adjustment of the light emission luminance of the light sources 102-1 to 102-N or the shutter speed and gain of the camera 101 is performed as follows. At the stage of creating a template using a reference object, set appropriate parameters and try shooting once. The luminance value distribution is examined for the captured image data. If the brightness value is saturated, the image is too bright, so the light emission brightness of the light sources 102-1 to 102-N is lowered, the shutter speed of the camera 101 is increased, or the gain of the camera 101 is lowered. Re-shoot. On the other hand, if the luminance value is biased toward a smaller value, the image is too dark, so the light emission luminance of the light sources 102-1 to 102-N is increased, the shutter speed of the camera 101 is decreased, or the gain of the camera 101 is increased. Raise the value and re-shoot. The above-described procedure is repeated for the re-captured image until the luminance value distribution is determined to be appropriate. In this way, an appropriate parameter setting is obtained.

以上のように構成された実施の形態10によれば、物体認識装置100は光源102−1〜102−Nの輝度やカメラ101のシャッタースピード、ゲインといったパラメータを能動的に制御し、適切な輝度分布を持った画像を得ることができるため、認識処理の信頼性が向上する。   According to the tenth embodiment configured as described above, the object recognition apparatus 100 actively controls parameters such as the luminance of the light sources 102-1 to 102-N and the shutter speed and gain of the camera 101 to obtain appropriate luminance. Since an image having a distribution can be obtained, the reliability of the recognition process is improved.

実施の形態のまとめ.
以上のように説明した各実施の形態の態様及びその効果は以下の通りである。
Summary of embodiment.
The aspects and effects of the embodiments described above are as follows.

第1の態様に係る物体認識装置は、
認識対象物を撮影するカメラと、
前記カメラの周辺に複数個配置され各々が独立して選択的に明滅する光源と、
前記各光源の明滅を制御して当該各光源の明滅に同期してあるいは非同期でカメラに撮像トリガ信号を送出し符号生成部に光源ID情報を送出する制御部と、
前記各光源の点灯または消灯時にカメラで撮影された各画像の輝度値から符号を生成する符号生成部と、
所定の基準物体の情報を格納したテンプレート記憶部と、
前記認識対象物を撮影した画像群から生成した符号を前記テンプレート記憶部に格納した情報から生成した符号と照合し照合結果を出力する符号照合部とを備えたことを特徴とする。
An object recognition apparatus according to a first aspect is:
A camera that captures the recognition object;
A plurality of light sources arranged around the camera and each selectively flashing independently;
A control unit for controlling the blinking of each light source to send an imaging trigger signal to the camera synchronously or asynchronously with the blinking of each light source, and to send light source ID information to the code generation unit;
A code generation unit that generates a code from the luminance value of each image captured by the camera when each of the light sources is turned on or off;
A template storage unit storing information of a predetermined reference object;
A code collation unit that collates a code generated from an image group obtained by photographing the recognition object with a code generated from information stored in the template storage unit and outputs a collation result is provided.

この構成により、認識対象物が奥行きを有していてカメラの視点の変化による画像中の見えの変化が大きい場合でも高精度にテンプレートマッチングを実行することができる。   With this configuration, template matching can be performed with high accuracy even when the recognition target has a depth and the change in appearance in the image due to the change in the viewpoint of the camera is large.

第2の態様に係る物体認識装置は、第1の態様に係る物体認識装置において、前記符号生成部によって生成される符号は、前記光源の明滅を選択的に切り替えて撮影した画像の輝度値から算出される勾配の強度を表現したものであることを特徴とする。   The object recognition device according to the second aspect is the object recognition device according to the first aspect, wherein the code generated by the code generation unit is based on a luminance value of an image captured by selectively switching blinking of the light source. It is characterized by expressing the calculated gradient strength.

この構成により、認識対象物の深度情報(カメラから見て奥行き方向の形状情報)を用いたテンプレートマッチングが実現できるため、認識精度が向上する。   With this configuration, template matching using depth information of the recognition object (shape information in the depth direction when viewed from the camera) can be realized, so that recognition accuracy is improved.

第3の態様に係る物体認識装置は、第1または第2の態様に係る物体認識装置において、前記符号生成部によって生成される符号は、前記光源の明滅を選択的に切り替えて撮影した画像の輝度値から算出される輝度勾配の強度の順位を表現したものであることを特徴とする。   In the object recognition device according to the third aspect, in the object recognition device according to the first or second aspect, the code generated by the code generation unit is an image of an image captured by selectively switching blinking of the light source. It is characterized by expressing the order of the intensity of the brightness gradient calculated from the brightness value.

この構成により、勾配強度の変動に対して頑健にテンプレートマッチングを実行できる。   With this configuration, template matching can be executed robustly against fluctuations in gradient strength.

第4の態様に係る物体認識装置は、第1〜第3の態様のいずれか1つに係る物体認識装置において、前記符号生成部は、ビット数が光源の数に一致しかつ各ビットが光源に対応するような二値符号を画素毎に生成し、前記光源の明滅を選択的に切り替えて撮影した画像の各々に対して輝度勾配を算出して、当該輝度勾配の強度が上位に分類された光源に対応するビットと下位に分類された光源に対応するビットにそれぞれ異なるビット値を割り当てることを特徴とする。   The object recognition device according to a fourth aspect is the object recognition device according to any one of the first to third aspects, wherein the code generation unit has the number of bits equal to the number of light sources and each bit is a light source. Is generated for each pixel, a luminance gradient is calculated for each of the images captured by selectively switching the light source to blink, and the intensity of the luminance gradient is classified into a higher rank. Different bit values are assigned to the bits corresponding to the light sources and the bits corresponding to the light sources classified in the lower order.

この構成により、テンプレートマッチングをビット演算として高速に実行することができる。さらに、勾配強度を二値化することにより、勾配強度の順位変動に対する頑健性が向上する。   With this configuration, template matching can be executed at high speed as a bit operation. Further, by binarizing the gradient strength, the robustness against the gradient strength rank fluctuation is improved.

第5の態様に係る物体認識装置は、第1〜第4の態様のいずれか1つに係る物体認識装置において、前記符号照合部は、前記符号生成部によって入力画像群から生成された二値符号と、あらかじめテンプレートとして登録した二値符号との間のハミング距離によって相違度を算出することを特徴とする。   An object recognition device according to a fifth aspect is the object recognition device according to any one of the first to fourth aspects, wherein the code matching unit is a binary generated from an input image group by the code generation unit. The degree of difference is calculated based on the Hamming distance between the code and a binary code registered in advance as a template.

この構成により、テーブルの参照によって画素毎の相違度を求めることができるため、符号照合処理を高速に実行することができる。   With this configuration, the degree of difference for each pixel can be obtained by referring to the table, so that the code matching process can be executed at high speed.

第6の態様に係る物体認識装置は、第1〜第5の態様のいずれか1つに係る物体認識装置において、前記符号生成部は、桁数が光源の数に一致する三値符号を画素毎に生成し、当該三値符号は、前記光源の明滅を選択的に切り替えて撮影した画像各々に対して輝度勾配を算出して当該輝度勾配の強度を上位、中位及び下位の3段階に分類した結果を表現したものとすることを特徴とする。   The object recognition device according to a sixth aspect is the object recognition device according to any one of the first to fifth aspects, wherein the code generation unit uses a ternary code whose number of digits matches the number of light sources as a pixel. The ternary code is generated every time, and the luminance gradient is calculated for each image captured by selectively switching the light source to blink, and the intensity of the luminance gradient is divided into the upper, middle and lower levels. It is characterized by expressing the classified result.

この構成と第7の態様に係る物体認識装置との組み合わせにより、勾配強度の順位が入れ替わっても相違度に影響を与えずに済むため、認識のロバスト性が向上する。   The combination of this configuration and the object recognition apparatus according to the seventh aspect does not affect the degree of difference even if the order of the gradient strength is changed, so that the recognition robustness is improved.

第7の態様に係る物体認識装置は、第6の態様に係る物体認識装置において、前記符号照合部は、前記符号生成部によって入力画像群から生成された三値符号とテンプレートの三値符号の照合により相違度を算出するものであり、前記輝度勾配の強度の上位同士または下位同士の符号がそれぞれ一致した場合に相違度の評価値を下げ、中位の符号については相違度の算出に寄与させないことを特徴とする。   The object recognition device according to a seventh aspect is the object recognition device according to the sixth aspect, wherein the code matching unit includes a ternary code generated from an input image group by the code generation unit and a ternary code of a template. The degree of difference is calculated by collation, and the evaluation value of the degree of difference is lowered when the codes of the upper and lower levels of the intensity of the luminance gradient match each other, and the medium code contributes to the calculation of the degree of difference. It is characterized by not letting it.

この構成により、テンプレートと参照画像との間で勾配強度順位の入れ替わりが発生した場合でも、上位と下位の入れ替わりが生じない限り相違度に影響を及ぼさないため、ロバストなマッチングが実現できる。   With this configuration, even when a change in gradient strength ranking occurs between the template and the reference image, robustness matching can be realized because the difference is not affected unless the higher order and the lower order are changed.

第8の態様に係る物体認識装置は、第1〜第7の態様のいずれか1つに係る物体認識装置において、前記符号生成部は、前記符号を画素毎に生成し、前記光源の明滅を選択的に切り替えて撮影した画像各々から算出した輝度勾配の強度のうち最も大きい方向をその画素の方向として符号化することを特徴とする。   The object recognition device according to an eighth aspect is the object recognition device according to any one of the first to seventh aspects, wherein the code generation unit generates the code for each pixel, and blinks the light source. It is characterized in that the largest direction of the intensity of the luminance gradient calculated from each of the images photographed by selectively switching is encoded as the direction of the pixel.

この構成により、1画素あたりの符号のサイズがlogNビットのコンパクトな符号とすることができる。 With this configuration, the code size per pixel can be a compact code of log 2 N bits.

第9の態様に係る物体認識装置は、第1〜第7の態様のいずれか1つに係る物体認識装置において、前記符号生成部は、次元数が前記光源の数に一致する符号を画素毎に生成し、前記光源の明滅を選択的に切り替えて撮影した画像各々から算出した輝度勾配の方向を前記符号の各次元に割り当てる特徴量とすることを特徴とする。   The object recognition device according to a ninth aspect is the object recognition device according to any one of the first to seventh aspects, wherein the code generation unit assigns a code whose number of dimensions matches the number of the light sources for each pixel. The direction of the luminance gradient calculated from each of the images captured by selectively switching the blinking of the light source is used as a feature amount assigned to each dimension of the code.

この構成により、光の照射方向を変えても輝度勾配の方向が変化しないことを利用した、環境や認識対象物のばらつきに強い符号を生成できる。   With this configuration, it is possible to generate a code that is strong against variations in the environment and the recognition target, using the fact that the direction of the luminance gradient does not change even when the light irradiation direction is changed.

第10の態様に係る物体認識装置は、第8又は第9の態様に係る物体認識装置において、前記符号照合部は前記輝度勾配の方向の差が小さいほど一致度が高くなるような評価基準によって符号の照合を行うことを特徴とする。   An object recognition apparatus according to a tenth aspect is the object recognition apparatus according to the eighth or ninth aspect, wherein the code matching unit is based on an evaluation criterion such that the smaller the difference in the direction of the luminance gradient, the higher the matching degree. It is characterized by performing code verification.

この構成により、環境や認識対象物のばらつきにより輝度勾配強度やその順位は変動しやすいが、勾配の方向は変わりにくいという性質を利用することにより、認識精度を向上させることができる。   With this configuration, it is possible to improve the recognition accuracy by using the property that the luminance gradient strength and its order are likely to change due to variations in the environment and the recognition object, but the gradient direction is difficult to change.

第11の態様に係る物体認識装置は、第1〜第9の態様のいずれか1つに係る物体認識装置において、前記符号生成部は、前記各光源の明滅を選択的に切り替えて撮影した画像の輝度値に基づいて、画素毎に符号の有効または無効を判定し、有効または無効に関する情報を生成することを特徴とする。   An object recognition apparatus according to an eleventh aspect is the object recognition apparatus according to any one of the first to ninth aspects, wherein the code generation unit is an image captured by selectively switching blinking of each light source. On the basis of the luminance value, the validity or invalidity of the code is determined for each pixel, and information regarding validity or invalidity is generated.

この構成により、照合に有効な画素のみを選択することにより、マッチングの高精度化と高速化を両立することができる。   With this configuration, it is possible to achieve both high precision and high speed of matching by selecting only pixels that are effective for matching.

第12の態様に係る物体認識装置は、第10の態様に係る物体認識装置において、前記符号生成部は、前記各光源の明滅を選択的に切り替えて撮影した画像の輝度勾配の強度の大きさに基づいて、画素毎に符号の有効または無効を判定し、有効または無効に関する情報を生成することを特徴とする。   An object recognition apparatus according to a twelfth aspect is the object recognition apparatus according to the tenth aspect, wherein the code generation unit is a magnitude of intensity of a luminance gradient of an image captured by selectively switching blinking of each light source. Based on the above, the validity or invalidity of the code is determined for each pixel, and information regarding validity or invalidity is generated.

この構成により、物理形状に由来する輪郭の部分では勾配強度が大きくなることから、勾配強度の大きい画素のみを選択して符号の照合に利用することにより、マッチングの高精度化と高速化を両立することができる。   With this configuration, the gradient strength increases at the contour portion derived from the physical shape, so only high-gradient pixels can be selected and used for code matching to achieve both high accuracy and high speed matching. can do.

第13の態様に係る物体認識装置は、第10の態様に係る物体認識装置において、前記符号生成部は、同一対象物を撮影した複数の画像をもとに計算した各画素の安定度に基づいて、画素毎に符号の有効または無効を判定し、有効または無効に関する情報を生成することを特徴とする。   An object recognition apparatus according to a thirteenth aspect is the object recognition apparatus according to the tenth aspect, wherein the code generation unit is based on the stability of each pixel calculated based on a plurality of images obtained by photographing the same object. Thus, the validity or invalidity of the code is determined for each pixel, and information regarding validity or invalidity is generated.

この構成により、同一対象物を撮影した複数のテンプレート画像から各画素の安定度合いを推定し、安定度が高い画素を有効、低い画素を無効と判定して有効な画素のみを選択して符号の照合に利用することにより、マッチングの高精度化と高速化を両立することができる。 With this configuration, the degree of stability of each pixel is estimated from a plurality of template images obtained by photographing the same object, and a pixel having a high stability is determined to be valid and a low pixel is determined to be invalid. By using it for collation, both high precision and high speed of matching can be achieved.

第14の態様に係る物体認識装置は、第1〜第12の態様のいずれか1つに係る物体認識装置において、前記符号照合部は、前記符号生成部が有効と設定した画素のみについて入力画像の符号とテンプレート符号とを照合することを特徴とする。   In the object recognition device according to a fourteenth aspect, in the object recognition device according to any one of the first to twelfth aspects, the code matching unit is configured to input images only for pixels set to be valid by the code generation unit. And a template code are collated.

この構成により、光の照射方向を変えても輝度勾配が変化しない、安定した画素のみをマッチングに用いる。すなわち強度変化が不安定な画素をマスクすることにより、マッチング精度の向上と処理の高速化を同時に実現する。   With this configuration, only stable pixels whose luminance gradient does not change even when the light irradiation direction is changed are used for matching. That is, by masking pixels whose intensity changes are unstable, improvement of matching accuracy and speeding up of processing are realized at the same time.

第15の態様に係る物体認識装置は、第1〜第14の態様のいずれか1つに係る物体認識装置において、前記複数個配置された光源を、複数の同心多重円状に配置することを特徴とする。   An object recognition device according to a fifteenth aspect is the object recognition device according to any one of the first to fourteenth aspects, wherein the plurality of light sources arranged are arranged in a plurality of concentric multiple circles. Features.

この構成により、複数の光源を同心多重円状に配置することによって、一つの方向から対象物に光線を照射する場合にカメラ光軸と各光源光軸のなす角度を調整することができ、対象物の起伏によって生じる影の大きさを適切に設定することができる。   With this configuration, by arranging a plurality of light sources in a concentric multiple circle shape, the angle between the camera optical axis and each light source optical axis can be adjusted when irradiating a light beam on the object from one direction. The size of the shadow caused by the undulation of the object can be set appropriately.

第16の態様に係る物体認識装置は、第1〜第15の態様のいずれか1つに係る物体認識装置において、前記符号生成部が行う符号の生成、および前記符号照合部が行う符号の照合において、使用する光源の数と方向を事前に最適化する機能を有することを特徴とする。   The object recognition device according to a sixteenth aspect is the object recognition device according to any one of the first to fifteenth aspects, wherein the code generation performed by the code generation unit and the code verification performed by the code verification unit 1 has a function of optimizing the number and directions of light sources to be used in advance.

この構成により、事前に配置した照射角度が異なる多数の光源をもとに、方向による明暗差が大きくなる配置の組み合わせを求めて、その配置にある光源のみを点滅制御することによって、明暗差に敏感な認識を実現し、マッチングの信頼性が向上する。   With this configuration, based on a large number of light sources with different irradiation angles arranged in advance, a combination of arrangements in which the difference in brightness depends on the direction is obtained, and only the light sources in that arrangement are controlled to blink, thereby reducing the difference in brightness. Sensitive recognition is realized and matching reliability is improved.

第17の態様に係る物体認識装置は、第1〜第16の態様のいずれか1つに係る物体認識装置において、発光輝度を能動的に制御することが可能な光源を複数備え、事前に撮影された画像中の各画素の明るさを調べ、明るさに応じて前記各光源の発光輝度を制御して再撮影することを特徴とする。   An object recognition device according to a seventeenth aspect is the object recognition device according to any one of the first to sixteenth aspects, and includes a plurality of light sources capable of actively controlling light emission luminance, and is photographed in advance. The brightness of each pixel in the obtained image is checked, and the image is re-photographed by controlling the light emission luminance of each light source according to the brightness.

この構成により、計測前に一度撮影してみて、明るすぎる場合には光源の強さを弱め、暗すぎる場合には強めるように制御することによって、適切な明るさ範囲を持つ画像を得ることができ、計測の信頼性が向上する。   With this configuration, it is possible to obtain an image with an appropriate brightness range by taking a picture once before measurement and controlling to reduce the intensity of the light source if it is too bright and to increase if it is too dark. This improves the reliability of measurement.

第18の態様に係る物体認識装置は、第1〜第17の態様のいずれか1つに係る物体認識装置において、前記カメラはシャッタースピードとゲインの少なくともいずれか一方の能動的な制御が可能なカメラであって、事前に撮影された画像中の各画素の明るさを調べ、明るさに応じて前記カメラのシャッタースピードおよびゲインを制御して再撮影することを特徴とする。   An object recognition device according to an eighteenth aspect is the object recognition device according to any one of the first to seventeenth aspects, wherein the camera can actively control at least one of shutter speed and gain. A camera is characterized in that the brightness of each pixel in an image photographed in advance is checked, and the shutter speed and gain of the camera are controlled according to the brightness, and re-photographing is performed.

この構成により、計測前に一度撮影してみて、明るすぎる場合にはカメラのシャッタースピードを早くするかゲインを下げ、暗すぎる場合にはシャッタースピードを遅くするかゲインを上げるように制御することによって、適切な明るさ範囲を持つ画像を得ることができ、計測の信頼性が向上する。   With this configuration, you can take a picture before measurement, and if it is too bright, control the camera to increase the shutter speed or decrease the gain, and if it is too dark, control the shutter speed to decrease or increase the gain. Thus, an image having an appropriate brightness range can be obtained, and measurement reliability is improved.

本発明は、認識させたい物体(認識対象物)をあらかじめ登録しておき、その存在箇所をカメラ撮影画像の中から認識する物体認識装置を提供することができる。これにより、従来技術に比較して、対象物の見えの変化に対する頑健性を高めた高精度な物体認識装置を提供する。   The present invention can provide an object recognition apparatus that registers an object (recognition target object) to be recognized in advance and recognizes an existing location from a camera-captured image. This provides a highly accurate object recognition device that is more robust against changes in the appearance of the object than the prior art.

100 物体認識装置、101 カメラ、102,102−1〜102−28,102−N 光源、103 制御部、104 符号生成部、105 テンプレート記憶部、106 符号照合部、201 背景、202 直方体、203 影。   DESCRIPTION OF SYMBOLS 100 Object recognition apparatus, 101 Camera, 102, 102-1 to 102-28, 102-N Light source, 103 Control part, 104 Code generation part, 105 Template storage part, 106 Code collation part, 201 Background, 202 Cuboid, 203 Shadow .

Claims (18)

認識対象物を撮影するカメラと、
前記カメラの周辺に複数個配置され各々が独立して選択的に明滅する光源と、
前記各光源の明滅を制御して当該各光源の明滅に同期してあるいは非同期でカメラに撮像トリガ信号を送出し符号生成部に光源ID情報を送出する制御部と、
前記各光源の点灯または消灯時にカメラで撮影された各画像の輝度値から符号を生成する符号生成部と、
所定の基準物体の情報を格納したテンプレート記憶部と、
前記認識対象物を撮影した画像群から生成した符号を前記テンプレート記憶部に格納した情報から生成した符号と照合し照合結果を出力する符号照合部とを備えたことを特徴とする物体認識装置。
A camera that captures the recognition object;
A plurality of light sources arranged around the camera and each selectively flashing independently;
A control unit for controlling the blinking of each light source to send an imaging trigger signal to the camera synchronously or asynchronously with the blinking of each light source, and to send light source ID information to the code generation unit;
A code generation unit that generates a code from the luminance value of each image captured by the camera when each of the light sources is turned on or off;
A template storage unit storing information of a predetermined reference object;
An object recognition apparatus comprising: a code collation unit that collates a code generated from an image group obtained by photographing the recognition object with a code generated from information stored in the template storage unit and outputs a collation result.
前記符号生成部によって生成される符号は、前記光源の明滅を選択的に切り替えて撮影した画像の輝度値から算出される勾配の強度を表現したものであることを特徴とする、請求項1に記載の物体認識装置。   The code generated by the code generation unit represents intensity of a gradient calculated from a luminance value of an image captured by selectively switching blinking of the light source. The object recognition apparatus described. 前記符号生成部によって生成される符号は、前記光源の明滅を選択的に切り替えて撮影した画像の輝度値から算出される輝度勾配の強度の順位を表現したものであることを特徴とする、請求項1または2に記載の物体認識装置。   The code generated by the code generation unit represents a rank of intensity of a luminance gradient calculated from a luminance value of an image captured by selectively switching blinking of the light source. Item 3. The object recognition apparatus according to Item 1 or 2. 前記符号生成部は、ビット数が光源の数に一致しかつ各ビットが光源に対応するような二値符号を画素毎に生成し、前記光源の明滅を選択的に切り替えて撮影した画像の各々に対して輝度勾配を算出して、当該輝度勾配の強度が上位に分類された光源に対応するビットと下位に分類された光源に対応するビットにそれぞれ異なるビット値を割り当てることを特徴とする、請求項1から3のいずれか1項に記載の物体認識装置。   The code generation unit generates a binary code for each pixel in which the number of bits matches the number of light sources and each bit corresponds to a light source, and each of the images photographed by selectively switching blinking of the light sources A brightness gradient is calculated with respect to the bit, and different bit values are assigned to the bit corresponding to the light source classified as the higher level and the bit corresponding to the light source classified as the lower level, respectively. The object recognition apparatus of any one of Claim 1 to 3. 前記符号照合部は、前記符号生成部によって入力画像群から生成された二値符号と、あらかじめテンプレートとして登録した二値符号との間のハミング距離によって相違度を算出することを特徴とする、請求項1から4のいずれか1項に記載の物体認識装置。   The code collating unit calculates a degree of difference based on a Hamming distance between a binary code generated from an input image group by the code generating unit and a binary code registered in advance as a template. Item 5. The object recognition device according to any one of Items 1 to 4. 前記符号生成部は、桁数が光源の数に一致する三値符号を画素毎に生成し、当該三値符号は、前記光源の明滅を選択的に切り替えて撮影した画像各々に対して輝度勾配を算出して当該輝度勾配の強度を上位、中位及び下位の3段階に分類した結果を表現したものとすることを特徴とする、請求項1から5のいずれか1項に記載の物体認識装置。   The code generation unit generates, for each pixel, a ternary code whose number of digits matches the number of light sources, and the ternary code is a luminance gradient for each image captured by selectively switching blinking of the light source. The object recognition according to any one of claims 1 to 5, characterized in that the result of calculating the intensity gradient and classifying the intensity of the luminance gradient into upper, middle and lower levels is expressed. apparatus. 前記符号照合部は、前記符号生成部によって入力画像群から生成された三値符号とテンプレートの三値符号の照合により相違度を算出するものであり、前記輝度勾配の強度の上位同士または下位同士の符号がそれぞれ一致した場合に相違度の評価値を下げ、中位の符号については相違度の算出に寄与させないことを特徴とする、請求項6に記載の物体認識装置。   The code collating unit calculates the degree of difference by collating the ternary code generated from the input image group by the code generating unit and the ternary code of the template. The object recognition apparatus according to claim 6, wherein the evaluation value of the dissimilarity is lowered when the codes of each match, and the middle code is not contributed to the calculation of the dissimilarity. 前記符号生成部は、前記符号を画素毎に生成し、前記光源の明滅を選択的に切り替えて撮影した画像各々から算出した輝度勾配の強度のうち最も大きい方向をその画素の方向として符号化することを特徴とする、請求項1から7のいずれか1項に記載の物体認識装置。   The code generation unit generates the code for each pixel, and encodes the largest direction of the intensity of the luminance gradient calculated from each of the images photographed by selectively switching the blinking of the light source as the direction of the pixel. The object recognition apparatus according to any one of claims 1 to 7, wherein the object recognition apparatus is characterized in that: 前記符号生成部は、次元数が前記光源の数に一致する符号を画素毎に生成し、前記光源の明滅を選択的に切り替えて撮影した画像各々から算出した輝度勾配の方向を前記符号の各次元に割り当てる特徴量とすることを特徴とする、請求項1から7のいずれか1項に記載の物体認識装置。   The code generation unit generates a code having a number of dimensions that matches the number of the light sources for each pixel, and indicates the direction of the luminance gradient calculated from each image captured by selectively switching blinking of the light sources. The object recognition apparatus according to any one of claims 1 to 7, wherein a feature amount assigned to a dimension is used. 前記符号照合部は前記輝度勾配の方向の差が小さいほど一致度が高くなるような評価基準によって符号の照合を行うことを特徴とする、請求項8または9に記載の物体認識装置。   10. The object recognition apparatus according to claim 8, wherein the code matching unit performs code matching based on an evaluation criterion such that the degree of coincidence increases as the difference in the direction of the luminance gradient decreases. 前記符号生成部は、前記各光源の明滅を選択的に切り替えて撮影した画像の輝度値に基づいて、画素毎に符号の有効または無効を判定し、有効または無効に関する情報を生成することを特徴とする、請求項1から9のいずれか1項に記載の物体認識装置。   The code generation unit determines whether the code is valid or invalid for each pixel based on a luminance value of an image captured by selectively switching blinking of each light source, and generates information regarding validity or invalidity. The object recognition device according to any one of claims 1 to 9. 前記符号生成部は、前記各光源の明滅を選択的に切り替えて撮影した画像の輝度勾配の強度の大きさに基づいて、画素毎に符号の有効または無効を判定し、有効または無効に関する情報を生成することを特徴とする、請求項10に記載の物体認識装置。   The code generation unit determines whether the code is valid or invalid for each pixel based on the magnitude of the intensity of the luminance gradient of the image photographed by selectively switching the blinking of each light source, and information on validity or invalidity The object recognition apparatus according to claim 10, wherein the object recognition apparatus generates the object recognition apparatus. 前記符号生成部は、同一対象物を撮影した複数の画像をもとに計算した各画素の安定度に基づいて、画素毎に符号の有効または無効を判定し、有効または無効に関する情報を生成することを特徴とする、請求項10に記載の物体認識装置。   The code generation unit determines whether the code is valid or invalid for each pixel based on the stability of each pixel calculated based on a plurality of images obtained by photographing the same object, and generates information regarding validity or invalidity. The object recognition apparatus according to claim 10. 前記符号照合部は、前記符号生成部が有効と設定した画素のみについて入力画像の符号とテンプレート符号とを照合することを特徴とする、請求項1から12のいずれか1項に記載の物体認識装置。   The object recognition according to any one of claims 1 to 12, wherein the code collating unit collates a code of an input image with a template code only for pixels that are set to be valid by the code generating unit. apparatus. 前記複数個配置された光源を、複数の同心多重円状に配置することを特徴とする、請求項1から14のいずれか1項に記載の物体認識装置。   The object recognition apparatus according to claim 1, wherein the plurality of light sources are arranged in a plurality of concentric multiple circles. 前記符号生成部が行う符号の生成、および前記符号照合部が行う符号の照合において、使用する光源の数と方向を事前に最適化する機能を有することを特徴とする、請求項1から15のいずれか1項に記載の物体認識装置。   The code generation performed by the code generation unit and the code verification performed by the code verification unit have a function of optimizing the number and directions of light sources to be used in advance. The object recognition apparatus of any one of Claims. 発光輝度を能動的に制御することが可能な光源を複数備え、事前に撮影された画像中の各画素の明るさを調べ、明るさに応じて前記各光源の発光輝度を制御して再撮影することを特徴とする、請求項1から16のいずれか1項に記載の物体認識装置。   Equipped with multiple light sources that can actively control the emission brightness, check the brightness of each pixel in the pre-captured image, and control the emission brightness of each light source according to the brightness and re-shoot The object recognition apparatus according to any one of claims 1 to 16, wherein 前記カメラはシャッタースピードとゲインの少なくともいずれか一方の能動的な制御が可能なカメラであって、事前に撮影された画像中の各画素の明るさを調べ、明るさに応じて前記カメラのシャッタースピードおよびゲインを制御して再撮影することを特徴とする、請求項1から17のいずれか1項に記載の物体認識装置。   The camera is a camera capable of actively controlling at least one of shutter speed and gain, and examines the brightness of each pixel in an image captured in advance, and the shutter of the camera according to the brightness. 18. The object recognition apparatus according to claim 1, wherein re-photographing is performed while controlling speed and gain.
JP2014047948A 2014-03-11 2014-03-11 Object recognition device Expired - Fee Related JP6104198B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014047948A JP6104198B2 (en) 2014-03-11 2014-03-11 Object recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014047948A JP6104198B2 (en) 2014-03-11 2014-03-11 Object recognition device

Publications (2)

Publication Number Publication Date
JP2015173344A true JP2015173344A (en) 2015-10-01
JP6104198B2 JP6104198B2 (en) 2017-03-29

Family

ID=54260429

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014047948A Expired - Fee Related JP6104198B2 (en) 2014-03-11 2014-03-11 Object recognition device

Country Status (1)

Country Link
JP (1) JP6104198B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017076033A (en) * 2015-10-14 2017-04-20 キヤノン株式会社 Processor, processing system, imaging apparatus, processing method, program, and recording medium
WO2017099517A1 (en) * 2015-12-11 2017-06-15 삼성전자 주식회사 Imaging device and operation method for imaging device
WO2019058633A1 (en) * 2017-09-25 2019-03-28 株式会社Screenホールディングス Image processing method, image processing device, and inspection method
CN109543705A (en) * 2017-09-22 2019-03-29 欧姆龙株式会社 Template creating device and method, object identification processing unit and recording medium
WO2020065798A1 (en) * 2018-09-26 2020-04-02 日本電気株式会社 Individual identification system
JP2020154946A (en) * 2019-03-22 2020-09-24 富士ゼロックス株式会社 Object recognition device
US11044403B2 (en) 2015-12-11 2021-06-22 Samsung Electronics Co., Ltd. Imaging device that continuously monitor a subject while reducing power consumption needed to illuminate the subject
US20220036530A1 (en) * 2018-11-29 2022-02-03 Nec Corporation Individual identification apparatus

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000298726A (en) * 1999-04-14 2000-10-24 Shimadzu Corp Appearance inspecting device
JP2001317916A (en) * 2000-05-10 2001-11-16 Fuji Mach Mfg Co Ltd Edge detection method and apparatus
JP2007206797A (en) * 2006-01-31 2007-08-16 Omron Corp Image processing method and image processor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000298726A (en) * 1999-04-14 2000-10-24 Shimadzu Corp Appearance inspecting device
JP2001317916A (en) * 2000-05-10 2001-11-16 Fuji Mach Mfg Co Ltd Edge detection method and apparatus
JP2007206797A (en) * 2006-01-31 2007-08-16 Omron Corp Image processing method and image processor

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017076033A (en) * 2015-10-14 2017-04-20 キヤノン株式会社 Processor, processing system, imaging apparatus, processing method, program, and recording medium
WO2017099517A1 (en) * 2015-12-11 2017-06-15 삼성전자 주식회사 Imaging device and operation method for imaging device
US11044403B2 (en) 2015-12-11 2021-06-22 Samsung Electronics Co., Ltd. Imaging device that continuously monitor a subject while reducing power consumption needed to illuminate the subject
CN109543705A (en) * 2017-09-22 2019-03-29 欧姆龙株式会社 Template creating device and method, object identification processing unit and recording medium
CN109543705B (en) * 2017-09-22 2023-05-12 欧姆龙株式会社 Template creation device and method, object recognition processing device, and recording medium
WO2019058633A1 (en) * 2017-09-25 2019-03-28 株式会社Screenホールディングス Image processing method, image processing device, and inspection method
WO2020065798A1 (en) * 2018-09-26 2020-04-02 日本電気株式会社 Individual identification system
JPWO2020065798A1 (en) * 2018-09-26 2021-09-30 日本電気株式会社 Individual identification system
US20220044059A1 (en) * 2018-09-26 2022-02-10 NEC Ccorporation Individual identification system
JP7081677B2 (en) 2018-09-26 2022-06-07 日本電気株式会社 Individual identification system
US11651582B2 (en) 2018-09-26 2023-05-16 Nec Corporation Individual identification system
US20220036530A1 (en) * 2018-11-29 2022-02-03 Nec Corporation Individual identification apparatus
US11854185B2 (en) * 2018-11-29 2023-12-26 Nec Corporation Individual identification apparatus
JP2020154946A (en) * 2019-03-22 2020-09-24 富士ゼロックス株式会社 Object recognition device

Also Published As

Publication number Publication date
JP6104198B2 (en) 2017-03-29

Similar Documents

Publication Publication Date Title
JP6104198B2 (en) Object recognition device
US9665803B2 (en) Image processing apparatus and image processing method
Phan et al. FACE spoofing detection using LDP-TOP
CN110546651B (en) Method, system and computer readable medium for identifying objects
JP2013522754A (en) Iris recognition apparatus and method using a plurality of iris templates
TW201437925A (en) Object identification device, method, and storage medium
TW201419169A (en) Object discrimination device, object discrimination method, and program
JP5342413B2 (en) Image processing method
JP6405124B2 (en) Inspection device, inspection method, and program
JP2018096908A (en) Inspection device and inspection method
KR101769741B1 (en) Method and apparatus for recognizing iris through pupil detection
JP6585793B2 (en) Inspection device, inspection method, and program
JP5772675B2 (en) Gray image edge extraction method, edge extraction device, and gray image edge extraction program
US10223583B2 (en) Object detection apparatus
JP2019144703A (en) Reading system, reading method, program, and storage medium
KR101741758B1 (en) A Real-time Face Tracking Method Robust to Occlusion Based on Improved CamShift with Depth Information
CN109063774B (en) Image tracking effect evaluation method, device and equipment and readable storage medium
JP2015045919A (en) Image recognition method and robot
JP4550768B2 (en) Image detection method and image detection apparatus
US20210149948A1 (en) Generation of object databases
Jazayeri et al. Interest operators in close-range object reconstruction
JP6540577B2 (en) Object recognition device
JP5051671B2 (en) Information processing apparatus, information processing method, and program
KR101796551B1 (en) Speedy calculation method and system of depth information strong against variable illumination
JP2015184944A (en) Person detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20160222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170228

R150 Certificate of patent or registration of utility model

Ref document number: 6104198

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees