JPH05157518A - Object recognizing apparatus - Google Patents

Object recognizing apparatus

Info

Publication number
JPH05157518A
JPH05157518A JP3349963A JP34996391A JPH05157518A JP H05157518 A JPH05157518 A JP H05157518A JP 3349963 A JP3349963 A JP 3349963A JP 34996391 A JP34996391 A JP 34996391A JP H05157518 A JPH05157518 A JP H05157518A
Authority
JP
Japan
Prior art keywords
image
edge
contour
vertex
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3349963A
Other languages
Japanese (ja)
Inventor
Tomoaki Nakano
倫明 中野
Arata Yamamoto
新 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP3349963A priority Critical patent/JPH05157518A/en
Publication of JPH05157518A publication Critical patent/JPH05157518A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To improve the recognizing accuracy of the position/posture of an object. CONSTITUTION:There are provided a characteristic part extracting means 20 for extracting a characteristic part of an object in an edge image, a first-dimensional position/posture operating means 30 for obtaining the first-dimensional position/posture of the object in the real space based on the position where the characteristic part is present on the image surface, and retrieving area setting means 50, 60 for movably setting the retrieving area. The setting means 50, 60 imagine an outline of the object on the image surface on the basis of the first-dimensional position/posture, and sets the retrieving area along the outline on the image surface which has a predetermined length along the outline in a small width centering the position where the outline exists. Moreover, there are provided a precise edge extracting means 70 and a position/ posture operating means 80. The precise edge extracting means 70 re-processes the dark-and-light image for every retrieving area set movably along the outline, extracts a correct edge of the image of the object, thereby to extract a precise edge corresponding to the outline of the whole object. The position/posture operating means 80 operates the position/posture of the object in the real space from the existing position of the precise edge on the image surface.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、物体を撮像して得られ
る画像から物体の実空間における位置・姿勢を精密に求
める物体認識装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object recognizing device for accurately obtaining the position / orientation of an object in real space from an image obtained by picking up an image of the object.

【0002】[0002]

【従来の技術】物体の実空間における位置・姿勢を認識
する方法として、投光法(特開昭62-71806号公報) と、
立体視法(両眼視:特開昭62-284479 号公報、運動視:
特開昭63-142469 号公報) とが存在する。又、撮像装置
を1台のテレビカメラとした単眼視法(特開昭62-22638
9 号公報) が存在する。
2. Description of the Related Art As a method for recognizing the position / orientation of an object in a real space, a projection method (Japanese Patent Laid-Open No. 62-71806),
Stereoscopic method (Binocular: JP-A-62-284479, motion vision:
JP-A-63-142469). In addition, a monocular method using a single TV camera as an image pickup device (Japanese Patent Laid-Open No. 62-22638).
No. 9 bulletin) exists.

【0003】[0003]

【発明が解決しようとする課題】しかし、投光法では、
遠距離の物体認識は困難であり、高速処理が実行できな
い。又、立体視法では複数の画像間の対応付を行う必要
がある。しかし、複雑な背景中の物体の対応付けが難し
いため、その対応付けに時間がかかる。更に、投光法、
立体視法共に撮像装置や処理装置が複雑になるという問
題がある。
However, in the projection method,
Object recognition at a long distance is difficult, and high-speed processing cannot be executed. Further, in the stereoscopic method, it is necessary to associate a plurality of images. However, since it is difficult to associate objects in a complicated background, it takes time to associate them. Furthermore, the floodlight method,
In both the stereoscopic method, there is a problem that the image pickup device and the processing device are complicated.

【0004】又、単眼視法では、認識対象物体の位置・
姿勢の変化を2次元平面内に限定したり、照明条件を制
限した場合には適用できるが、物体の位置・姿勢が3次
元的に変化し、撮像した画像における物体の寸法や形状
が異なったり、照明条件が変わって、物体と背景とのコ
ントラストが変化する場合には、物体を精度良く認識す
ることができないという問題がある。
In the monocular method, the position of the object to be recognized
It can be applied when the change in posture is limited to a two-dimensional plane or when the lighting conditions are limited, but the position and posture of the object changes three-dimensionally, and the size and shape of the object in the captured image are different. However, when the lighting condition changes and the contrast between the object and the background changes, there is a problem that the object cannot be recognized accurately.

【0005】本発明は上記課題を解決するために成され
たものであり、その目的は、単眼視法において、認識物
体の輪郭の位置によって照明条件が変化したり、背景に
対するコントラストが変化したような場合であっても、
認識物体全体の輪郭を精度良く抽出することで、物体の
実空間における位置・姿勢を精度良く認識できるように
することである。
The present invention has been made to solve the above problems, and an object thereof is that in monocular vision, it seems that the illumination condition changes or the contrast with respect to the background changes depending on the position of the contour of the recognition object. Even if
By accurately extracting the contour of the entire recognition object, the position / orientation of the object in the real space can be accurately recognized.

【0006】[0006]

【課題を解決するための手段】上記課題を解決するため
の本発明の構成は、図20に示すように、濃淡画像撮像
手段、エッジ画像生成手段、エッジ画像において物体の
全体の輪郭に対する相対的関係が既知な物体の特徴部を
抽出する特徴部抽出手段と、特徴部の画像面上における
存在位置に基づいて物体の実空間における一次的な位置
・姿勢を求める一次的位置・姿勢演算手段と、物体の一
次的な位置・姿勢に基づいて、物体の輪郭を画像面上に
仮想し、その輪郭の存在位置を中心にして微小幅でその
輪郭に沿って所定長さを有する探索領域を画像面上に輪
郭に沿って可動的に設定する探索領域設定手段と、輪郭
に沿って可動的に設定される探索領域毎に、濃淡画像又
は濃淡画像の微分画像を再処理して物体画像の正確なエ
ッジを抽出することにより、物体全体の輪郭に該当する
精密エッジを抽出する精密エッジ抽出手段と、精密エッ
ジの画像面上の存在位置から物体の実空間における位置
・姿勢を演算する位置・姿勢演算手段とを設けたことで
ある。
As shown in FIG. 20, the structure of the present invention for solving the above-mentioned problems is a grayscale image capturing means, an edge image generating means, and a relative relative to the entire contour of an object in an edge image. A characteristic part extracting means for extracting a characteristic part of an object having a known relationship, and a primary position / orientation calculating means for obtaining a primary position / orientation in the real space of the object based on the existing position of the characteristic part on the image plane. , Based on the primary position / orientation of the object, the contour of the object is hypothesized on the image plane, and a search area is imaged with a minute width centered on the position of the contour and having a predetermined length along the contour. A search area setting means for movably setting along a contour on a surface, and an accurate object image by reprocessing a grayscale image or a differential image of a grayscale image for each search area movably set along a contour Can be extracted By this, there are provided a precision edge extracting means for extracting a precision edge corresponding to the contour of the entire object, and a position / orientation computing means for computing the position / orientation of the object in the real space from the existing position of the precision edge on the image plane. That is.

【0007】[0007]

【作用】物体の撮像により濃淡画像が得られ、その濃淡
画像の微分画像を2値化することでエッジ画像が得られ
る。エッジ画像において、物体の特徴部が抽出される。
その特徴部と物体の全体の輪郭に対する相対的関係が既
知であるので、その特徴部の画像面上の存在位置に基づ
いて物体の実空間における一次的な位置・姿勢を演算す
ることができる。
A grayscale image is obtained by picking up an object, and an edge image is obtained by binarizing a differential image of the grayscale image. The feature of the object is extracted from the edge image.
Since the relative relationship between the characteristic portion and the contour of the entire object is known, the primary position / orientation of the object in the real space can be calculated based on the existing position of the characteristic portion on the image plane.

【0008】又、物体の実空間における一次的な位置・
姿勢から、物体の輪郭の画像面上における存在位置を特
定することができる。この輪郭の画像面上の存在位置
は、変換誤差、特徴部抽出誤差等により、誤差が存在す
る。従って、これらの誤差を考慮することで、物体の輪
郭の存在位置は誤差幅の領域として特定される。その誤
差幅の領域内の1つの存在位置に対して、輪郭を中心と
して微小幅で所定長さの探索領域が画面上に可動的に設
定される。
Also, the primary position of the object in the real space
From the posture, the existence position of the contour of the object on the image plane can be specified. The existence position of this contour on the image surface has an error due to a conversion error, a feature part extraction error, and the like. Therefore, by considering these errors, the existing position of the contour of the object is specified as the error width region. For one existing position in the area of the error width, a search area having a minute width and a predetermined length centering on the contour is movably set on the screen.

【0009】その可動的に設定される1つの探索領域内
で、濃淡画像又はその微分画像が再処理される。この
時、狭い探索領域内に限定して画像処理ができるので、
物体全体では、明暗差、背景とのコントラストの場所依
存性が存在しても、その探索領域内ではそれらの量を一
定とすることができる。よって、例えば、エッジ抽出処
理に当たって、微分のためのエッジ強調フィルタや2値
化のしきい値をその探索領域毎に決定することが可能と
なる。この結果、正確なエッジ検出が可能となる。これ
らの精密エッジの画像上の存在位置から物体の実空間に
おける位置・姿勢を精密に認識することが可能となる。
Within the movably set search area, the grayscale image or its differential image is reprocessed. At this time, since image processing can be limited to a narrow search area,
Even if there is a location dependence of the contrast between the contrast and the background with respect to the brightness of the entire object, the amount thereof can be made constant within the search area. Therefore, for example, in the edge extraction processing, it is possible to determine the edge emphasis filter for differentiation and the threshold value for binarization for each search area. As a result, accurate edge detection is possible. It is possible to accurately recognize the position / orientation of the object in the real space from the existing positions of these precision edges on the image.

【0010】[0010]

【発明の効果】本発明は、画像面上における物体の特徴
部の存在位置を求め、その情報から物体の実空間におけ
る一次的な位置・姿勢を求め、その一次的な位置・姿勢
に基づいて、物体の輪郭を画像面上に写像して、その輪
郭の存在位置を中心として可動的に設定された小面積の
探索領域を設定し、その輪郭に沿って動く探索領域毎に
濃淡画像又はその微分画像を再処理してエッジを検出
し、そのエッジの画像面上の存在位置に基づいて、物体
の実空間における位置・姿勢を認識するようにした装置
である。従って、本発明では、探索領域毎に濃淡画像又
はその微分画像を再処理するための条件を変更すること
が可能となるので、明暗分布、背景と物体画像とのコン
トラストに位置による分布があっても、エッジ検出が精
密に行われることになる。この結果、画像面上における
精密なエッジの存在位置に基づいて物体の実空間の位置
・姿勢が求められるため、認識された位置・姿勢がより
正確となる。
According to the present invention, the existing position of the feature portion of the object on the image plane is obtained, the primary position / orientation of the object in the real space is obtained from the information, and based on the primary position / orientation. , The contour of the object is mapped on the image plane, a search area of a small area that is movably set around the existence position of the contour is set, and a grayscale image or its for each search area that moves along the contour. This is a device that reprocesses the differential image to detect an edge, and recognizes the position / orientation of the object in the real space based on the existing position of the edge on the image plane. Therefore, in the present invention, since it is possible to change the conditions for reprocessing the grayscale image or its differential image for each search region, there is a light-dark distribution and a distribution between the background and the object image depending on the position. Also, the edge detection will be performed accurately. As a result, the position / orientation of the object in the real space is obtained based on the accurate position of the edge on the image plane, and thus the recognized position / orientation becomes more accurate.

【0011】[0011]

【実施例】以下、本発明を具体的な一実施例に基づいて
説明する。図1は本実施例に係る装置の全体の構成を示
しており、図2〜図5は図1に示された各装置の詳細な
構成を示している。 1)実施例装置の構成 1.濃淡画像撮像装置 濃淡画像撮像装置10は物体Aを撮像して濃淡画像を生
成する装置である。その装置10は物体Aを撮像するテ
レビカメラ11、テレビカメラ11の出力する映像信号
を各画素毎にサンプリングしてディジタル値に変換する
A/D変換回路12、ディジタル値を画素毎に記憶する
画像メモリ13とで構成されている。
EXAMPLES The present invention will be described below based on a specific example. FIG. 1 shows the overall configuration of the apparatus according to this embodiment, and FIGS. 2 to 5 show the detailed configuration of each apparatus shown in FIG. 1) Configuration of Example Device 1. Grayscale Image Capturing Device The grayscale image capturing device 10 is a device that captures an image of the object A and generates a grayscale image. The apparatus 10 includes a television camera 11 that captures an image of an object A, an A / D conversion circuit 12 that samples a video signal output from the television camera 11 for each pixel and converts the image signal into a digital value, and an image that stores the digital value for each pixel. And a memory 13.

【0012】2.特徴部抽出装置 特徴部抽出装置20は画像メモリ13に記憶された濃淡
画像の微分画像を求め、所定のしきい値に対して2値化
して得られるエッジ画像を生成し、そのエッジ画像から
物体Aの画像における所定の特徴部を抽出する装置であ
る。
2. Characteristic Part Extraction Device The characteristic part extraction device 20 obtains a differential image of a grayscale image stored in the image memory 13, generates an edge image obtained by binarizing the image with respect to a predetermined threshold value, and generates an object from the edge image. This is a device for extracting a predetermined characteristic part in the image A.

【0013】その装置20は濃淡画像を走査してゾーベ
ルオペレータにより微分画像を得るエッジ強調回路2
1、微分画像を記憶する画像メモリ22、微分画像を所
定のしきい値に対して2値化する2値化回路23、その
2値化により得られたエッジ画像を記憶する画像メモリ
24、エッジ画像において連続線や連続していると考え
られる部分毎に区分けするラベリング回路25、ラベリ
ングにより群別化された部分毎にその部分が特徴部であ
るか否かを判定する特徴部判定回路26とで構成されて
いる。
The apparatus 20 is an edge enhancement circuit 2 for scanning a grayscale image and obtaining a differential image by a Sobel operator.
1. An image memory 22 for storing a differential image, a binarization circuit 23 for binarizing the differential image with respect to a predetermined threshold, an image memory 24 for storing an edge image obtained by the binarization, an edge A labeling circuit 25 that divides the image into continuous lines or portions that are considered to be continuous; and a characteristic portion determination circuit 26 that determines whether or not each portion grouped by labeling is a characteristic portion. It is composed of.

【0014】3.特徴部位置・姿勢演算装置 特徴部位置・姿勢演算装置30は画像面上における物体
の特徴部の位置・姿勢を演算し、この特徴部の位置・姿
勢から物体の実空間における一次的位置・姿勢を演算す
る装置である。特徴部位置・姿勢演算装置30は、検出
された特徴部の画像面上における存在位置を求める特徴
部位置演算回路31、特徴部の寸法を演算する特徴部サ
イズ演算回路32、特徴部の寸法の予測誤差を演算する
サイズ予測誤差演算回路33、特徴部の慣性主軸方向を
演算する特徴部慣性主軸方向演算回路34、主軸方向の
予測誤差を演算する主軸方向予測誤差演算回路35とで
構成されている。
3. Characteristic Position / Posture Calculator The characteristic position / posture calculator 30 calculates the position / posture of the characteristic part of the object on the image plane, and based on the position / posture of this characteristic part, the primary position / posture of the object in the real space. Is a device for calculating. The characteristic part position / orientation calculation device 30 includes a characteristic part position calculation circuit 31 for obtaining the detected position of the detected characteristic part on the image plane, a characteristic part size calculation circuit 32 for calculating the size of the characteristic part, and a characteristic part size calculation circuit 32. A size prediction error calculation circuit 33 that calculates a prediction error, a characteristic part inertial spindle direction calculation circuit 34 that calculates the inertial axis direction of a characteristic part, and a spindle direction prediction error calculation circuit 35 that calculates a prediction error in the spindle direction. There is.

【0015】4.モデル記憶装置 モデル記憶装置40は物体の各頂点の特徴部の中心位置
に対する相対位置を記憶した相対位置メモリ41、認識
対象物体の3次元モデル、即ち、物体の頂点間を結ぶ線
分が直線か円弧か等の輪郭線形状を特定できるデータを
記憶した物体形状メモリ42とで構成されている。
4. Model storage device The model storage device 40 stores a relative position memory 41 that stores the relative position of each vertex of the object with respect to the center position of the feature portion, a three-dimensional model of the recognition target object, that is, whether the line segments connecting the vertices of the object are straight lines The object shape memory 42 stores data that can specify the contour shape such as an arc.

【0016】5.モデル写像装置 モデル写像装置50は、物体の一次的位置・姿勢を用い
てモデルを画像面上に写像して、物体の像の画像面上に
おける存在位置を予測する装置である。モデル写像装置
50は、特徴部の重心位置と3次元モデルの各頂点との
相対的位置及びカメラパラメータから3次元モデルを画
像面上に写像して各頂点の画像面上における位置を演算
する頂点座標演算回路51、特徴部の検出された寸法を
考慮して3次元モデルの画像面上における各頂点の位置
を変更するサイズ較正頂点座標変更回路52、物体の回
転角を考慮して3次元モデルの画像面上における各頂点
の位置を変更する回転較正頂点座標変更回路53、3次
元モデルの画像面上における各頂点の座標を記憶する頂
点座標メモリ55、その各頂点座標の誤差を演算する頂
点座標誤差演算回路54、各頂点座標の存在可能範囲を
記憶する座標誤差メモリ56とで構成されている。
5. Model Mapping Device The model mapping device 50 is a device that maps the model on the image plane using the primary position / orientation of the object and predicts the existing position of the image of the object on the image plane. The model mapping device 50 maps the three-dimensional model onto the image plane from the relative position between the center of gravity of the feature and each vertex of the three-dimensional model and the camera parameters, and calculates the position of each vertex on the image plane. A coordinate calculation circuit 51, a size calibration vertex coordinate changing circuit 52 for changing the position of each vertex on the image plane of the three-dimensional model in consideration of the detected dimensions of the characteristic portion, a three-dimensional model considering the rotation angle of the object. Rotation calibration vertex coordinate changing circuit 53 for changing the position of each vertex on the image plane of the above, a vertex coordinate memory 55 for storing the coordinates of each vertex on the image plane of the three-dimensional model, and a vertex for calculating the error of each vertex coordinate. It comprises a coordinate error calculation circuit 54 and a coordinate error memory 56 for storing the possible range of each vertex coordinate.

【0017】6.探索領域設定装置 探索領域設定装置60は物体の3次元モデルの画像面上
への写像から物体の輪郭のエッジの存在領域を予測し、
その存在領域において小さい面積の多数の探索領域を設
定する装置である。探索領域設定装置60は3次元モデ
ルの画像面上における頂点座標と座標誤差とから頂点座
標の候補を演算する頂点候補演算回路61、頂点候補間
において探索領域を設定する位置を決定する探索領域位
置決定回路62、その位置座標を記憶する探索領域位置
メモリ63、頂点候補間の近似線分を求める近似線分演
算回路64、その近似線分を頂点座標の存在領域に対応
させて平行移動させて複数の線分を発生させる線分平行
移動回路65、探索領域の幅、長さ、形状等を決定する
探索領域形状メモリ66から構成されている。
6. Search Area Setting Device The search area setting device 60 predicts the existence area of the edge of the contour of the object from the mapping of the three-dimensional model of the object onto the image plane,
This is a device for setting a large number of search areas having a small area in the existing area. The search area setting device 60 is a vertex candidate calculation circuit 61 that calculates a vertex coordinate candidate from the vertex coordinates and coordinate errors on the image plane of the three-dimensional model, and a search area position that determines a position to set a search area between the vertex candidates. A determination circuit 62, a search area position memory 63 that stores the position coordinates thereof, an approximate line segment calculation circuit 64 that obtains an approximate line segment between vertex candidates, and the approximate line segment is moved in parallel in correspondence with the existence area of the vertex coordinates. It is composed of a line segment translation circuit 65 for generating a plurality of line segments, and a search region shape memory 66 for determining the width, length, shape, etc. of the search region.

【0018】7.精密エッジ抽出装置 精密エッジ抽出装置70は探索領域毎に濃淡画像を再処
理して物体の輪郭の正確なエッジの存在位置を検出する
装置である。精密エッジ抽出装置70はその探索領域に
おいて濃淡画像を再処理するためのエッジ強調フィルタ
を選択するエッジ強調フィルタ選択回路71、選択され
たエッジ強調フィルタにより濃淡画像から微分画像を演
算するエッジ強調回路72、微分画像を記憶する画像メ
モリ73、微分画像を2値化するためのしきい値を決定
するしきい値決定回路74、しきい値に基づいて微分画
像を2値化する2値化回路75、2値化された画像、即
ち、精密エッジ画像を記憶する画像メモリ76とで構成
されている。
7. Precision Edge Extraction Device The precision edge extraction device 70 is a device that reprocesses the grayscale image for each search area to detect the exact position of the edge of the contour of the object. The precision edge extraction device 70 is an edge enhancement filter selection circuit 71 that selects an edge enhancement filter for reprocessing the grayscale image in the search area, and an edge enhancement circuit 72 that calculates a differential image from the grayscale image by the selected edge enhancement filter. , An image memory 73 for storing a differential image, a threshold value determining circuit 74 for determining a threshold value for binarizing the differential image, and a binarizing circuit 75 for binarizing the differential image based on the threshold value. The image memory 76 stores a binarized image, that is, a precision edge image.

【0019】8.位置・姿勢演算装置 位置・姿勢演算装置80は精密エッジ画像から物体の画
像面上における各頂点の精密な位置を演算し、その各頂
点の精密な位置情報から物体の実空間における物体の位
置・姿勢を演算する回路である。位置・姿勢演算装置8
0は精密エッジ画像において、連続線と見なせる部分毎
に群別するためにエッジ線を連結処理するエッジ線連結
回路81、連結されたエッジ線から物体の輪郭である1
つの近似直線等を求めるエッジ線近似回路82、近似直
線の交点の座標から物体の頂点の画像面上での精密な位
置を演算する頂点座標演算回路83、画像面上の座標か
ら実空間における座標を演算するための変換行列を記憶
した座標変換テーブルメモリ84、物体の各頂点の実空
間における位置座標を演算する頂点3次元位置演算回路
85、頂点の位置座標から物体の実空間における姿勢を
演算する姿勢演算回路86とで構成されている。
8. Position / Posture Calculator The position / posture calculator 80 calculates the precise position of each vertex on the image plane of the object from the precision edge image, and the precise position information of each vertex calculates the position of the object in the real space of the object. This is a circuit that calculates the posture. Position / orientation calculator 8
In the precision edge image, 0 is an edge line connection circuit 81 that connects edge lines in order to classify each portion that can be regarded as a continuous line, and the outline of the object from the connected edge lines 1
Edge line approximation circuit 82 for obtaining two approximate straight lines, a vertex coordinate calculation circuit 83 for calculating a precise position on the image plane of the vertex of the object from the coordinates of the intersections of the approximate straight lines, and coordinates in the real space from the coordinates on the image plane. A coordinate conversion table memory 84 storing a conversion matrix for calculating a, a vertex three-dimensional position calculation circuit 85 for calculating the position coordinates of each vertex of the object in the real space, and a posture of the object in the real space from the position coordinates of the vertices And a posture calculation circuit 86 that operates.

【0020】2)実施例装置の作動 次に本実施例装置の作動を説明する。図6、図7は本装
置の処理手順を示している。 1.濃淡画像の生成 ステップ100において、物体Aの画像面上における大
きさを最適とするように物体Aとテレビカメラ11との
距離に応じてテレビカメラ11のズーム倍率(レンズパ
ラメータ)が制御される。ステップ102では、物体A
を撮像するに最適なように物体Aとテレビカメラ11と
の相対位置関係に応じて、テレビカメラ11の位置・姿
勢が制御される。
2) Operation of the apparatus of this embodiment Next, the operation of the apparatus of this embodiment will be described. 6 and 7 show the processing procedure of this apparatus. 1. Generation of Grayscale Image In step 100, the zoom magnification (lens parameter) of the television camera 11 is controlled according to the distance between the object A and the television camera 11 so that the size of the object A on the image plane is optimized. In step 102, the object A
The position / orientation of the television camera 11 is controlled according to the relative positional relationship between the object A and the television camera 11 so as to be optimal for capturing the image.

【0021】ステップ104では、テレビカメラ11が
駆動されて物体Aが撮影される。そして、A/D変換回
路12によりテレビカメラ11から出力される映像信号
のレベルが画像面上の各画素毎にサンプリングされてデ
ィジタル化される。このディジタル値は画素アドレスに
対応して画像メモリ13に記憶される。このようにし
て、画像メモリ13にディジタル化された濃淡画像が記
憶される。
In step 104, the television camera 11 is driven and the object A is photographed. Then, the level of the video signal output from the television camera 11 is sampled for each pixel on the image surface and digitized by the A / D conversion circuit 12. This digital value is stored in the image memory 13 in correspondence with the pixel address. In this way, the digitized grayscale image is stored in the image memory 13.

【0022】2.特徴部の抽出 ステップ106では、エッジ強調回路27により画像メ
モリ13に記憶されている濃淡画像が微分されて微分画
像(「エッジ強調画像」ともいう)が生成される。この
微分画像は画像面を走査して濃淡画像にゾーベルオペレ
ータを作用させることによって求めることができる。こ
の微分画像は画像メモリ22に記憶される。ステップ1
08では、2値化回路23により画像メモリ22に記憶
されている微分画像が所定のしきい値を基準として2値
化される。この2値化された画像はエッジ画像として画
像メモリ24に記憶される。
2. In the feature extraction step 106, the grayscale image stored in the image memory 13 is differentiated by the edge enhancement circuit 27 to generate a differential image (also referred to as “edge enhanced image”). This differential image can be obtained by scanning the image plane and applying a Sobel operator to the grayscale image. This differential image is stored in the image memory 22. Step 1
At 08, the binarization circuit 23 binarizes the differential image stored in the image memory 22 with a predetermined threshold value as a reference. This binarized image is stored in the image memory 24 as an edge image.

【0023】ステップ110では、ラベリング回路25
によって、エッジ画像において、連続していると思われ
る各図形毎にエッジが集合されて、各集合毎にラベリン
グされる。このようなクラスタリングは、通常行われて
いるエッジの連続性の探索により実行することができ
る。ステップ112では、特徴部判定回路26によりラ
ベリングされたエッジ画像において特徴部の抽出が行わ
れる。
In step 110, the labeling circuit 25
Thus, in the edge image, edges are collected for each figure that seems to be continuous, and labeling is performed for each set. Such clustering can be performed by a search for edge continuity that is normally performed. In step 112, the characteristic part is extracted from the edge image labeled by the characteristic part determination circuit 26.

【0024】本物体認識装置は、例えば、物体Aとして
図8に示すような多層積みされたパレット(図8では2
層積み)を無人フォークリフト車で取り出して搬送させ
る場合に、パレットの存在位置及びフォークの挿入位置
を認識する場合に用いられる。尚、物体Aの高さ方向の
設置位置は既知であるとする。特徴部はフォークが挿入
される部分W1、W2で定義されている。この特徴部W
1、W2は濃淡画像においてコントラストが強く出るた
めに、エッジ画像において物体Aの他の部分に比べてエ
ッジが比較的に明確に現れる。よって、この特徴部W
1、W2は認識が容易となる。
The object recognition apparatus of the present invention is, for example, a multi-layered pallet as shown in FIG.
It is used to recognize the existing position of the pallet and the insertion position of the fork when the unstacked forklift truck is used to take out and convey the (stacked). The installation position of the object A in the height direction is known. The characteristic portion is defined by the portions W1 and W2 into which the fork is inserted. This feature W
Since 1 and W2 have a strong contrast in the grayscale image, the edge appears relatively clearly in the edge image as compared with other portions of the object A. Therefore, this characteristic part W
1 and W2 are easy to recognize.

【0025】特徴部W1、W2は、図9に示すように、
画像面上において、物体Aの像の各面は、物体Aとテレ
ビカメラ11との成す角により、長方形又は平行四辺形
に現れる。特徴部が長方形に現れる場合の縦幅と横幅の
比、代表的な斜め方向から物体Aを撮像した場合に画像
面上に現れる特徴部の平行四辺形の縦幅と横幅の比を基
準値として予め演算しておく。そして、図10に示すよ
うに、ラベリングされた図形から平行四辺形を抽出し、
その平行四辺形の横幅Hi と縦幅Vi とを検出して比H
i/Vi を演算し、その比が基準値に対して所定の誤差範
囲に存在しているものを特徴部W1、W2と決定する。
尚、撮影の距離、角度に応じて変形される特徴部の画像
をモデルとして種々記憶しておき、ラベリングされた図
形とモデルとを照合することで特徴部を判定しても良
い。
The characteristic portions W1 and W2 are, as shown in FIG.
On the image plane, each surface of the image of the object A appears as a rectangle or a parallelogram depending on the angle between the object A and the television camera 11. Using the ratio of the vertical width and the horizontal width when the feature appears in a rectangle, the ratio of the vertical width and the horizontal width of the parallelogram of the feature that appears on the image surface when the object A is imaged from a typical oblique direction, as a reference value. Calculate in advance. Then, as shown in FIG. 10, a parallelogram is extracted from the labeled figure,
The horizontal width Hi and the vertical width Vi of the parallelogram are detected and the ratio H
i / Vi is calculated, and those having a ratio within a predetermined error range with respect to the reference value are determined as characteristic portions W1 and W2.
It should be noted that various images of the characteristic portion that are deformed according to the shooting distance and angle may be stored as a model, and the characteristic portion may be determined by collating the labeled figure with the model.

【0026】3.一次的位置・方位の演算 ステップ114では、図11に示すように、検出された
特徴部W1、W2におけるそれぞれの重心G1,G2の
画像面上における座標(U1,V1),(U2,V2)が特徴部位置演
算回路31により演算される。重心位置は平行四辺形の
対角線の交点として求められる。この特徴部の重心の実
空間における高さ(Y成分)は既知としている。
3. Calculation of primary position / azimuth In step 114, as shown in FIG. 11, coordinates (U1, V1), (U2, V2) on the image plane of the respective centers of gravity G1, G2 of the detected feature portions W1, W2. Is calculated by the characteristic portion position calculation circuit 31. The position of the center of gravity is obtained as the intersection of the diagonal lines of the parallelogram. The height (Y component) of the center of gravity of this feature in real space is known.

【0027】ステップ116では、図11に示すよう
に、特徴部慣性主軸方向演算回路34により特徴部の慣
性主軸Mに平行な主軸単位ベクトルDM=(DM,U,M,V)
が演算される。この慣性主軸は力学で定義されている軸
と同一であり、画像面上において、特徴部図形のU軸、
V軸の回りの慣性モーメント、U軸、V軸についての慣
性乗積を演算して慣性楕円を演算し、その楕円の主軸と
して求められる。
In step 116, as shown in FIG. 11, a spindle unit vector D M = (D M, U, D M, V ) parallel to the inertial spindle M of the feature portion by the feature portion inertial spindle direction arithmetic circuit 34.
Is calculated. This principal axis of inertia is the same as the axis defined in the mechanics, and the U axis of the feature figure on the image plane,
An inertial ellipse is calculated by calculating a moment of inertia around the V-axis, a product of inertias about the U-axis and the V-axis, and is obtained as a main axis of the ellipse.

【0028】ステップ118では、特徴部サイズ演算回
路32により特徴部のサイズが演算される。図11に示
すように、画像面上において慣性主軸Mに沿って特徴部
W1,W2に外接する平行四辺形H1,H2を求め、そ
の幅と高さを特徴部のサイズとする。
In step 118, the size of the characteristic portion is calculated by the characteristic portion size calculation circuit 32. As shown in FIG. 11, parallelograms H1 and H2 circumscribing the characteristic portions W1 and W2 along the principal axis of inertia M on the image plane are obtained, and their width and height are set as the characteristic portion size.

【0029】ステップ120では、主軸方向予測誤差演
算回路35とサイズ予測誤差演算回路33により、方向
予測誤差とサイズ予測誤差とが演算される。主軸方向予
測誤差演算回路35では、重心G1,G2を結ぶ線分に
平行な単位ベクトルDG
In step 120, the main-axis direction prediction error calculation circuit 35 and the size prediction error calculation circuit 33 calculate the direction prediction error and the size prediction error. In the main-axis direction prediction error calculation circuit 35, the unit vector D G parallel to the line segment connecting the centers of gravity G1 and G2

【数1】 DG =(U2-U1,V2-V1)/{(U2-U1)2+(V2-V1)21/2 の主軸単位ベクトルDM に対する変位ベクトルΔDGM=
G-DMにより方向予測誤差が演算される。サイズ予測
誤差演算回路33では、方向予測誤差ΔDGMによって平
行四辺形の姿勢のばらつきが求められ、その姿勢のばら
つきからサイズ予測誤差ΔHi,ΔVi が演算される。
尚、方向予測誤差は慣性楕円体の長軸と短軸との比率か
ら求めても良い。
[Formula 1] D G = (U2-U1, V2-V1) / {(U2-U1) 2 + (V2-V1) 2 } 1/2 displacement vector ΔD GM = with respect to the spindle unit vector D M
The directional prediction error is calculated by D G -D M. In the size prediction error calculation circuit 33, the variation in the orientation of the parallelogram is obtained from the direction prediction error ΔD GM , and the size estimation errors ΔHi and ΔVi are calculated from the variation in the orientation.
The direction prediction error may be obtained from the ratio between the major axis and the minor axis of the inertial ellipsoid.

【0030】ステップ122では、頂点座標演算回路5
1により、重心G1,G2の画像面上における座標(U
1,V1),(U2,V2)から、カメラパラメータ(変換行列)を
用いて、重心G1,G2の実空間における座標(X1,Y1,Z
1),(X2,Y2,Z2) が求められる。この時、テレビカメラ1
1と物体Aまでの距離および高さ、画像の倍率、撮像角
等もカメラパラメータとして考慮されている。実空間に
おける座標(X,Y,Z) と画像面上における座標(U,V) と
は、実空間におけるY 座標に応じたカメラパラメータを
用いて、相互変換できることが知られている。この時
に、特徴部W1,W2の重心G1,G2のY成分Y1,Y2
は既知であり( 本実施例では、Y1=Y2)、このY成分に応
じたカメラパラメータが用いられる。回転較正頂点座標
変更回路53により、主軸単位ベクトルDM を座標変換
して実空間における姿勢ベクトルDR =(DRX, RY,
RZ) が演算される。本実施例における物体Aの姿勢は、
物体Aが水平面(X−Z面に平行な面)上に置かれてい
るものとして、Y軸の回りの回転角だけが未知であると
している。従って、DRY=0である。
In step 122, the vertex coordinate calculation circuit 5
1, the coordinates of the centers of gravity G1 and G2 on the image plane (U
1, V1), (U2, V2), using camera parameters (conversion matrix), the coordinates (X1, Y1, Z) of the centers of gravity G1, G2 in the real space
1), (X2, Y2, Z2) is calculated. At this time, TV camera 1
The distance and height between 1 and the object A, the magnification of the image, the imaging angle, etc. are also considered as camera parameters. It is known that the coordinates (X, Y, Z) in the real space and the coordinates (U, V) on the image plane can be mutually converted by using the camera parameter according to the Y coordinate in the real space. At this time, the Y components Y1 and Y2 of the centers of gravity G1 and G2 of the characteristic portions W1 and W2
Is known (Y1 = Y2 in this embodiment), and a camera parameter corresponding to this Y component is used. The rotation calibration vertex coordinate changing circuit 53 performs coordinate transformation of the main-axis unit vector D M to obtain a posture vector D R = (D RX, D RY, D in real space.
RZ ) is calculated. The posture of the object A in this embodiment is
Assuming that the object A is placed on a horizontal plane (a plane parallel to the XZ plane), only the rotation angle around the Y axis is unknown. Therefore, D RY = 0.

【0031】相対位置メモリ41には、図12に示すよ
うに、物体Aが正規姿勢をとるとき( 姿勢ベクトルDR
=(0,0,1)) の特徴部の各重心G1,G2の中点G0=(X
0,Y0,Z0)=((X1+X2)/2,Y1,(Z1+Z2)/2)を原点とする物体
Aの各頂点までの位置ベクトルD1,2,3,4,5,
6,7,8 が記憶されている。これらの位置ベクトルと
中点G0の座標と姿勢ベクトルDR を用いて、各頂点の
実空間での座標が決定される。これらの座標変換は、良
く知られたように、中点G0を通るY軸に平行な軸の回
りの回転変換と実空間座標の原点Oと中点G0間の平行
移動変換により実行される。又、物体形状メモリ42に
は、物体Aの各頂点を結ぶ線分の形状が記憶されてい
る。
As shown in FIG. 12, the relative position memory 41 stores, when the object A takes a normal posture (the posture vector D R
= (0,0,1)) midpoint G0 = (X
0, Y0, Z0) = ( (X1 + X2) / 2, Y1, (Z1 + Z2) / 2 position vector D 1 of the a) to each vertex of the object A to be the origin, D 2, D 3, D 4 , D 5, D
6, D 7, D 8 are stored. The coordinates of each vertex in the real space are determined using these position vector, the coordinates of the midpoint G0, and the posture vector D R. As well known, these coordinate transformations are performed by rotational transformation about an axis parallel to the Y axis passing through the midpoint G0 and translation transformation between the origin O of the real space coordinates and the midpoint G0. In addition, the object shape memory 42 stores the shape of a line segment connecting each vertex of the object A.

【0032】又、サイズ較正頂点座標変更回路52によ
り、特徴部の画像面上におけるサイズから、距離および
高さ、画像の倍率、撮像角を考慮して、実空間における
サイズが求められる。この特徴部の実空間におけるサイ
ズは既知であるので、このサイズの比率から倍率誤差や
撮像角誤差が予測される。この誤差に応じて、頂点座標
が補正される。次に、頂点座標演算回路51により、図
13に示すように、実空間での物体Aの各頂点座標は、
カメラパラメータを用いて、画像面上の座標に変換され
る。これらの画像面上における各頂点座標は、頂点座標
メモリ55に記憶される。ステップ124では、頂点座
標誤差演算回路54によって、方向予測誤差ΔDGMとサ
イズ予測誤差ΔHi,ΔVi とに基づいて、画像面上にお
ける各頂点座標の誤差が演算される。即ち、姿勢の予測
誤差と倍率の予測誤差によって、各頂点座標の存在位置
がばらつく。この時の各頂点座標の存在可能範囲E1,
E2等が、図14に示すように決定され、座標誤差メモ
リ56に記憶される。
Further, the size calibration vertex coordinate changing circuit 52 obtains the size in the real space from the size of the feature on the image plane in consideration of the distance and height, the magnification of the image, and the imaging angle. Since the size of this feature portion in the real space is known, the magnification error and the imaging angle error are predicted from the ratio of this size. The vertex coordinates are corrected according to this error. Next, as shown in FIG. 13, each vertex coordinate of the object A in the real space is calculated by the vertex coordinate calculation circuit 51.
It is transformed into coordinates on the image plane using the camera parameters. The vertex coordinates on these image planes are stored in the vertex coordinate memory 55. In step 124, the vertex coordinate error calculation circuit 54 calculates the error of each vertex coordinate on the image plane based on the direction prediction error ΔD GM and the size prediction errors ΔHi and ΔVi. That is, the existence position of each vertex coordinate varies depending on the posture prediction error and the magnification prediction error. Existable range E1, of each vertex coordinate at this time
E2 and the like are determined as shown in FIG. 14 and stored in the coordinate error memory 56.

【0033】4.探索領域の設定 ステップ126では、頂点候補演算回路61により、頂
点座標及び座標誤差を用いて頂点候補が決定される。例
えば、図14に示すように、第1頂点T1 と第2頂点T
2 に関する存在可能範囲E1と存在可能範囲E2におい
て、例えば、上段、中段、下段の3箇所において、第1
頂点T1 に対して頂点候補T11, 12, 13の座標が決
定され、第2頂点T2 に対して頂点候補T21, 22,
23の座標が決定される。
4. In step 126 of setting a search area, the vertex candidate calculation circuit 61 determines a vertex candidate using the vertex coordinates and coordinate error. For example, as shown in FIG. 14, the first vertex T 1 and the second vertex T 1
In the possible range E1 and the possible range E2 related to 2, for example, at the three locations of the upper stage, the middle stage, and the lower stage, the first
Vertex candidate T 11 relative to the apex T 1, the coordinates of the T 12, T 13 is determined, the vertex candidate T 21 to the second vertex T 2, T 22, T
Twenty-three coordinates are determined.

【0034】ステップ128では、探索領域位置決定回
路62により、図15に示すように、第1頂点の頂点候
補T11, 12, 13と第2頂点の頂点候補T21, 22,
23とを、それぞれ、物体形状メモリ42に記憶されて
いる第1頂点と第2頂点とを結ぶ線分形状によって連結
した線分が想定され、その線分上で探索領域の設定され
る位置F1,2 …F6 等の座標が決定される。その座標
は探索領域位置メモリ63に記憶される。
In step 128, the search area position determining circuit 62 causes the first vertex apex candidates T 11, T 12, T 13 and the second apex vertex candidates T 21, T 22, as shown in FIG.
T 23 and T 23 are assumed to be connected by a line segment shape connecting the first vertex and the second vertex stored in the object shape memory 42, respectively, and a position where the search area is set on the line segment is assumed. The coordinates of F 1, F 2, ... F 6 etc. are determined. The coordinates are stored in the search area position memory 63.

【0035】ステップ130では、近似線分演算回路6
4により、各頂点間を物体形状メモリ42に記憶されて
いる頂点間線分形状で結んだ線分を近似する近似線分が
演算される。そして、ステップ132で、図16に示す
ように、近似線分L0 が決定され、その近似線分L0
両側に頂点座標の予測誤差に応じて決定される幅ΔHだ
け平行移動させて、探索領域Sの形状が決定される。こ
の探索領域Sの形状に関するデータは探索領域形状メモ
リ66に記憶される。
In step 130, the approximate line segment calculation circuit 6
4, an approximate line segment that approximates the line segment connecting the vertices with the inter-vertex line segment shape stored in the object shape memory 42 is calculated. Then, in step 132, as shown in FIG. 16, the approximate line segment L 0 is determined, and the approximate line segment L 0 is translated to both sides by the width ΔH determined according to the prediction error of the vertex coordinates. The shape of the search area S is determined. Data regarding the shape of the search area S is stored in the search area shape memory 66.

【0036】次に、エッジ強調フィルタ選択回路71に
より、物体形状メモリ42に記憶されている頂点間線分
形状から線分の種類を判定し、その線分の存在方向と形
状を考慮して、最もエッジの検出が容易なように、エッ
ジ強調フィルタが選択される。即ち、線分が何方の方向
を向いているかによってオペレータの種類が異なる。こ
のオペレータの種類が選択される。
Next, the edge emphasis filter selection circuit 71 determines the type of line segment from the inter-vertex line segment shape stored in the object shape memory 42, and considers the existing direction and shape of the line segment, The edge enhancement filter is selected so that the edge can be detected most easily. That is, the type of operator differs depending on which direction the line segment faces. This operator type is selected.

【0037】次に、ステップ134で、エッジ強調回路
72により、探索領域位置メモリ63に記憶されている
探索領域の中心位置を順次読出し、その各位置に対して
探索領域形状メモリ66に記憶されている探索領域形状
に基づいて、図18に示すように、画像面上に探索領域
が移動的に設定される。そして、エッジ強調回路72が
作動して、各探索領域毎に画像メモリ13に記憶されて
いる濃淡画像の微分画像が演算され、その微分画像は画
像メモリ73に記憶される。
Next, at step 134, the center position of the search area stored in the search area position memory 63 is sequentially read out by the edge emphasizing circuit 72 and stored in the search area shape memory 66 for each position. Based on the existing search area shape, the search area is movably set on the image plane as shown in FIG. Then, the edge emphasizing circuit 72 operates to calculate the differential image of the grayscale image stored in the image memory 13 for each search area, and the differential image is stored in the image memory 73.

【0038】次に、ステップ136で、しきい値決定回
路74により、各探索領域毎に、その探索領域に含まれ
ている微分画像の明度の度数分布が演算され、エッジ検
出に最適なしきい値が決定される。例えば、明度の度数
分布は図17に示すようであったとすると、明るい方の
画素数が多い部分がエッジと考えられる。よって、その
ピークの現れる前のレベルをしきい値にすることで、精
度良くエッジを分離することができる。次に、2値化回
路75により、各探索領域毎に決定されたしきい値を用
いて各探索領域の微分画像が2値化される。この画像は
図18に示すような精密エッジ画像として画像メモリ7
6に記憶される。
Next, in step 136, the threshold value determining circuit 74 calculates, for each search area, the frequency distribution of the brightness of the differential image included in the search area, and the threshold value optimum for edge detection is calculated. Is determined. For example, if the frequency distribution of brightness is as shown in FIG. 17, it can be considered that the portion where the number of bright pixels is large is an edge. Therefore, by setting the level before the peak appears as a threshold value, the edges can be separated with high accuracy. Next, the binarization circuit 75 binarizes the differential image of each search area using the threshold value determined for each search area. This image is used as a precision edge image as shown in FIG.
6 is stored.

【0039】次に、ステップ138で、エッジ線連結回
路81により、途切れ途切れのエッジ線が連結される。
これは、方向が所定の範囲で一致している線分、端点間
の距離が所定の範囲に存在する線分等が連続エッジと見
做されて連結される。次に、ステップ140で、エッジ
線近似回路82により、連結エッジ線分や、近接した連
結エッジ線分l1,1 等を考慮して、図19に示すよう
に、エッジ線分を近似する近似線分L1 等が求められ
る。この近似線分は各エッジ線分に対して最小二乗近似
によって求められる。このようにして、図19に示すよ
うに、画像面上において物体Aの全ての輪郭線L1,2,
3 等が決定される。
Next, in step 138, the edge line connecting circuit 81 connects the interrupted edge lines.
In this case, line segments whose directions match in a predetermined range, line segments whose distances between end points are in a predetermined range, and the like are regarded as continuous edges and are connected. Next, at step 140, the edge line approximation circuit 82 approximates the edge line segment as shown in FIG. 19 in consideration of the connected edge line segment and the adjacent connected edge line segments l 1, l 1, etc. The approximate line segment L 1 and the like are obtained. This approximate line segment is obtained by least-squares approximation for each edge line segment. In this way, as shown in FIG. 19, all the contour lines L 1, L 2, of the object A on the image plane .
L 3 etc. are determined.

【0040】ステップ142で、頂点座標演算回路83
により、図19に示すように、各輪郭線の交点T1 =(U
T1, T1) , 2 =(UT2, T2) 等の座標が演算され
る。次に、ステップ144で、頂点3次元位置演算回路
85により、位置変換テーブルメモリ84に記憶されて
いる画像面上の座標と実空間における座標とを関連づけ
たテーブルに基づいて、各頂点の実空間における座標R
1=(XT1, T1, T1) , 2 =(XT2, T2, T2) が
演算される。次に、ステップ146で、姿勢演算回路8
6により、各頂点から物体の位置、例えば、第1頂点T
1 の実空間における座標によって物体の位置が決定さ
れ、第1頂点T1 から第2頂点T2 へ向いたベクトルか
ら、そのベクトルとZ軸との成す角求められる。この角
により、物体Aの姿勢が決定される。物体Aの実空間に
おける位置・姿勢が決定されれば、特徴部であるフォー
クの挿入部W1、W2の位置が決定されるので、フォー
クリフト等により物体Aを把持することが可能となる。
In step 142, the vertex coordinate calculation circuit 83
Thus, as shown in FIG. 19, the intersection T 1 = (U
Coordinates such as T1, V T1 ) and T 2 = (U T2, V T2 ) are calculated. Next, in step 144, the vertex three-dimensional position calculation circuit 85 uses the table in which the coordinates on the image plane and the coordinates in the real space stored in the position conversion table memory 84 are associated with each other to determine the real space of each vertex. Coordinate R at
1 = (X T1, Y T1, Z T1 ) and R 2 = (X T2, Y T2, Z T2 ) are calculated. Next, in step 146, the posture calculation circuit 8
6, the position of the object from each vertex, for example, the first vertex T
The position of the object is determined by the coordinates of 1 in the real space, and from the vector directed from the first vertex T 1 to the second vertex T 2 , the angle between the vector and the Z axis is obtained. The angle determines the posture of the object A. When the position / orientation of the object A in the real space is determined, the positions of the insertion portions W1 and W2 of the forks, which are the characteristic parts, are determined, so that the object A can be gripped by the forklift or the like.

【0041】上記実施例では、特徴部W1,W2に物体
Aの画像においてコントラストが強く現れる部分を用い
ているが、物体に認識容易なマークを貼付して、このマ
ークを特徴部としても良い。又、精密エッジ抽出装置7
0では、探索領域において、画像メモリ13に格納され
ている濃淡画像の代わりに、画像メモリ22に格納され
ているエッジ強調画像をそのまま用いて、しきい値決定
回路74以降の処理を行うことにより、精密なエッジ画
像を演算しても良い。この場合には、上記実施例に比べ
て処理時間を短縮できるという利点がある。又、3次元
モデルは物体Aをテレビカメラ11で撮像する代表的角
度に対して、物体Aの複数の画像としても良い。この場
合には、3次元モデルが画像面上のデータで与えられる
ので、画像面上の物体の存在位置を高速に決定すること
ができる。又、この場合には、画像面上の基準写像モデ
ルを撮像倍率、方位、撮像角等により補正して表示する
ことになる。上記実施例では、物体の輪郭は直線で表さ
れているので、探索領域も長方形である。しかし、円柱
状物体の場合には、輪郭が楕円曲線で現れる。この場合
には、探索領域の形状もその楕円曲線に沿った変形短冊
形状となる。
In the above-described embodiment, the characteristic portions W1 and W2 are the portions in which the contrast is strong in the image of the object A. However, a mark that is easy to recognize may be attached to the object and this mark may be used as the characteristic portion. Also, the precision edge extraction device 7
In the case of 0, in the search area, the edge emphasis image stored in the image memory 22 is used as it is instead of the grayscale image stored in the image memory 13, and the processes after the threshold value determination circuit 74 are performed. Alternatively, a precise edge image may be calculated. In this case, there is an advantage that the processing time can be shortened as compared with the above embodiment. Further, the three-dimensional model may be a plurality of images of the object A with respect to a typical angle at which the object A is imaged by the television camera 11. In this case, since the three-dimensional model is given by the data on the image plane, the existence position of the object on the image plane can be determined at high speed. Further, in this case, the reference mapping model on the image plane is corrected and displayed according to the imaging magnification, azimuth, imaging angle, and the like. In the above embodiment, since the outline of the object is represented by a straight line, the search area is also a rectangle. However, in the case of a cylindrical object, the contour appears as an elliptic curve. In this case, the shape of the search area is also a deformed strip shape along the elliptic curve.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の具体的な一実施例に係る物体認識装置
の全体の構成を示したブロック図。
FIG. 1 is a block diagram showing the overall configuration of an object recognition device according to a specific embodiment of the present invention.

【図2】図1に示す実施例装置の各装置の詳細な構成を
示したブロック図。
FIG. 2 is a block diagram showing a detailed configuration of each device of the embodiment device shown in FIG.

【図3】図1に示す実施例装置の各装置の詳細な構成を
示したブロック図。
FIG. 3 is a block diagram showing a detailed configuration of each device of the embodiment device shown in FIG.

【図4】図1に示す実施例装置の各装置の詳細な構成を
示したブロック図。
FIG. 4 is a block diagram showing a detailed configuration of each device of the embodiment device shown in FIG.

【図5】図1に示す実施例装置の各装置の詳細な構成を
示したブロック図。
5 is a block diagram showing a detailed configuration of each device of the embodiment device shown in FIG.

【図6】図1に示す実施例装置の作動を説明するフロー
チャート。
FIG. 6 is a flowchart explaining the operation of the embodiment apparatus shown in FIG.

【図7】図1に示す実施例装置の作動を説明するフロー
チャート。
FIG. 7 is a flow chart for explaining the operation of the embodiment apparatus shown in FIG.

【図8】本実施例装置で認識される物体の形状及び実空
間における配置を示した説明図。
FIG. 8 is an explanatory diagram showing the shape of an object recognized by the device of this embodiment and the arrangement in the real space.

【図9】物体のエッジ画像を示した説明図。FIG. 9 is an explanatory diagram showing an edge image of an object.

【図10】エッジ画像において特徴部の抽出方法を示し
た説明図。
FIG. 10 is an explanatory diagram showing a method of extracting a characteristic portion in an edge image.

【図11】エッジ画像において特徴部の抽出方法を示し
た説明図。
FIG. 11 is an explanatory diagram showing a method of extracting a characteristic portion from an edge image.

【図12】実空間における物体の3次元モデルの特定方
法を示した説明図。
FIG. 12 is an explanatory diagram showing a method of specifying a three-dimensional model of an object in a real space.

【図13】画像面上の特徴部の認定により求められた物
体の一次的位置・姿勢から求められた物体の画像面上に
おける頂点の存在位置を示した説明図。
FIG. 13 is an explanatory diagram showing the existing positions of vertices on the image surface of the object obtained from the primary position / orientation of the object obtained by recognizing the characteristic portion on the image surface.

【図14】方向予測誤差、サイズ予測誤差を考慮した画
像面上における物体の頂点の存在可能範囲を示した説明
図。
FIG. 14 is an explanatory diagram showing a possible existence range of vertices of an object on an image plane in consideration of a directional prediction error and a size prediction error.

【図15】探索領域位置の決定方法を示した説明図。FIG. 15 is an explanatory diagram showing a method of determining a search area position.

【図16】探索領域の形状の決定方法を示した説明図。FIG. 16 is an explanatory diagram showing a method of determining the shape of a search area.

【図17】探索領域における微分画像を2値化する時の
しきい値の決定方法を示した説明図。
FIG. 17 is an explanatory diagram showing a method of determining a threshold value when binarizing a differential image in a search area.

【図18】各探索領域において検出された精密エッジ画
像を示した説明図。
FIG. 18 is an explanatory diagram showing precision edge images detected in each search region.

【図19】精密エッジ画像において、輪郭線、頂点を演
算する方法を示した説明図。
FIG. 19 is an explanatory diagram showing a method of calculating contour lines and vertices in a precision edge image.

【図20】本発明の全体の構成を示したブロック図。FIG. 20 is a block diagram showing the overall configuration of the present invention.

【符号の説明】[Explanation of symbols]

A…物体 W1,W2…特徴部 G1,G2…重心 G0…重心の中点 D1 〜D8 …3次元モデルにおける頂点の相対位置ベク
トル E1…第1頂点の存在可能範囲 E2…第2頂点の存在可能範囲 F1 〜F6 …探索領域の設定位置 S…探索領域 T1 …第1頂点 T2 …第2頂点 T11…第1頂点の第1候補 T12…第1頂点の第2候補 T13…第1頂点の第3候補 T21…第2頂点の第1候補 T22…第2頂点の第2候補 T23…第2頂点の第3候補 l1 〜l5 …連結エッジ L0 …近似線分 L1 〜L3 …輪郭線
A ... object W1, W2 ... features G1, G2 ... centroid G0 ... existence range E2 ... second vertex relative position vector E1 ... first vertex of the vertex at the midpoint D 1 to D 8 ... 3 dimensional model of the center of gravity Existence possible range F 1 to F 6 ... Setting position of search area S ... Search area T 1 ... First vertex T 2 ... Second vertex T 11 ... First candidate of first vertex T 12 ... Second candidate of first vertex T 13 ... Third candidate of first vertex T 21 ... First candidate of second vertex T 22 ... Second candidate of second vertex T 23 ... Third candidate of second vertex l 1 to l 5 ... Connected edge L 0 … Approximate line segment L 1 to L 3 … Contour line

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 物体をカメラで撮像することにより画像
面上に形成された物体画像から物体の位置及び姿勢を認
識する物体認識装置において、 前記カメラによる前記物体の撮像により、前記物体の濃
淡画像を前記画像面上に得る濃淡画像撮像手段と、 前記濃淡画像の微分画像を2値化したエッジ画像を前記
画像面上に生成するエッジ画像生成手段と、 前記エッジ画像において、物体の全体の輪郭に対する相
対的関係が既知な物体の特徴部を抽出する特徴部抽出手
段と、 前記特徴部の前記画像面上における存在位置に基づいて
前記物体の実空間における一次的な位置・姿勢を求める
一次的位置・姿勢演算手段と、 前記物体の一次的な位置・姿勢に基づいて、前記物体の
輪郭を前記画像面上に仮想し、その輪郭の存在位置を中
心にして微小幅でその輪郭に沿って所定長さを有する探
索領域を前記画像面上に輪郭に沿って可動的に設定する
探索領域設定手段と、 輪郭に沿って可動的に設定される前記探索領域毎に、前
記濃淡画像又は微分画像を再処理して物体画像の正確な
エッジを抽出することにより、物体全体の輪郭に該当す
る精密エッジを抽出する精密エッジ抽出手段と、 前記精密エッジの前記画像面上の存在位置から前記物体
の実空間における位置・姿勢を演算する位置・姿勢演算
手段と、 を有することを特徴とする物体認識装置。
1. An object recognition apparatus for recognizing the position and orientation of an object from an object image formed on an image plane by imaging the object with a camera, wherein a grayscale image of the object is obtained by imaging the object with the camera. A grayscale image capturing means for obtaining on the image plane, an edge image generating means for binarizing an edge image obtained by binarizing a differential image of the grayscale image on the image plane, and a contour of an entire object in the edge image. A characteristic part extracting means for extracting a characteristic part of an object whose relative relation to is known, and a primary position / posture for obtaining a primary position / orientation in the real space of the object based on the existing position of the characteristic part on the image plane. Based on the position / orientation calculation means and the primary position / orientation of the object, the contour of the object is hypothesized on the image plane, and the position where the contour is present is centered with a very small width. Search area setting means for movably setting a search area having a predetermined length along the contour on the image surface along the contour; and for each search area movably set along the contour, Precision edge extraction means for extracting a precise edge corresponding to the contour of the entire object by reprocessing the grayscale image or the differential image to extract an accurate edge of the object image, and the presence of the precise edge on the image surface. An object recognition device, comprising: a position / orientation calculating means for calculating the position / orientation of the object in the real space from the position.
JP3349963A 1991-12-09 1991-12-09 Object recognizing apparatus Pending JPH05157518A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3349963A JPH05157518A (en) 1991-12-09 1991-12-09 Object recognizing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3349963A JPH05157518A (en) 1991-12-09 1991-12-09 Object recognizing apparatus

Publications (1)

Publication Number Publication Date
JPH05157518A true JPH05157518A (en) 1993-06-22

Family

ID=18407296

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3349963A Pending JPH05157518A (en) 1991-12-09 1991-12-09 Object recognizing apparatus

Country Status (1)

Country Link
JP (1) JPH05157518A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002117390A (en) * 2000-10-05 2002-04-19 Olympus Optical Co Ltd Information processing device
JP2008286756A (en) * 2007-05-21 2008-11-27 Canon Inc Position attitude measuring device and control method for it
JP2009003964A (en) * 2001-11-16 2009-01-08 Mitsutoyo Corp Machine vision system operating method
WO2012056636A1 (en) 2010-10-27 2012-05-03 株式会社コナミデジタルエンタテインメント Image display apparatus, game program, and method of controlling game
JP2013106154A (en) * 2011-11-11 2013-05-30 Pfu Ltd Image processing apparatus, line detection method, and computer program
JP2014190962A (en) * 2013-03-28 2014-10-06 Pasco Corp Data analysis device, data analysis method, and program
JP2018146553A (en) * 2017-03-09 2018-09-20 株式会社明電舎 Slide surface width detection device and method for trolley wire
WO2020189154A1 (en) 2019-03-19 2020-09-24 株式会社豊田自動織機 Item detection device, item detection method, and industrial vehicle
US11427449B2 (en) 2018-06-29 2022-08-30 Mitsubishi Heavy Industries, Ltd. Forklift apparatus, forklift control method, and non-transitory computer-readable medium

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002117390A (en) * 2000-10-05 2002-04-19 Olympus Optical Co Ltd Information processing device
JP2009003964A (en) * 2001-11-16 2009-01-08 Mitsutoyo Corp Machine vision system operating method
JP2009037634A (en) * 2001-11-16 2009-02-19 Mitsutoyo Corp Operation method of machine vision system and case-specific boundary positioning system
JP2008286756A (en) * 2007-05-21 2008-11-27 Canon Inc Position attitude measuring device and control method for it
WO2012056636A1 (en) 2010-10-27 2012-05-03 株式会社コナミデジタルエンタテインメント Image display apparatus, game program, and method of controlling game
JP2013106154A (en) * 2011-11-11 2013-05-30 Pfu Ltd Image processing apparatus, line detection method, and computer program
JP2014190962A (en) * 2013-03-28 2014-10-06 Pasco Corp Data analysis device, data analysis method, and program
JP2018146553A (en) * 2017-03-09 2018-09-20 株式会社明電舎 Slide surface width detection device and method for trolley wire
US11427449B2 (en) 2018-06-29 2022-08-30 Mitsubishi Heavy Industries, Ltd. Forklift apparatus, forklift control method, and non-transitory computer-readable medium
WO2020189154A1 (en) 2019-03-19 2020-09-24 株式会社豊田自動織機 Item detection device, item detection method, and industrial vehicle

Similar Documents

Publication Publication Date Title
JP4865557B2 (en) Computer vision system for classification and spatial localization of bounded 3D objects
JP5699788B2 (en) Screen area detection method and system
JP2919284B2 (en) Object recognition method
JPS62267610A (en) Detecting system for rotational angle of object pattern
JPH0676062A (en) Picture processor
Tabata et al. High-speed 3D sensing with three-view geometry using a segmented pattern
CN110926330B (en) Image processing apparatus, image processing method, and program
CN112346073A (en) Dynamic vision sensor and laser radar data fusion method
KR101818984B1 (en) Face Recognition System using Depth Information
JP2018091656A (en) Information processing apparatus, measuring apparatus, system, calculating method, program, and article manufacturing method
JPH05157518A (en) Object recognizing apparatus
CN112329880A (en) Template fast matching method based on similarity measurement and geometric features
CN111444768A (en) Method for discovering tiny obstacles for reflective ground scene
CN115112098A (en) Monocular vision one-dimensional two-dimensional measurement method
JPH1055446A (en) Object recognizing device
JPH11194027A (en) Three-dimensional coordinate measuring instrument
JPH0875454A (en) Range finding device
JPH10283478A (en) Method for extracting feature and and device for recognizing object using the same method
JP3419968B2 (en) Image recognition device and method
JP2005091181A (en) Image processor
CN112907453B (en) Image correction method for inner structure of notebook computer
Vuori et al. Three-dimensional imaging system with structured lighting and practical constraints
KR101092133B1 (en) Method of Detecting Area and Measuring Distance of Container
JPH0410074A (en) Picture pattern inclination detecting method
JP2993611B2 (en) Image processing method