JPH10160464A - Apparatus and method for recognizing position and posture of object to be recognized - Google Patents

Apparatus and method for recognizing position and posture of object to be recognized

Info

Publication number
JPH10160464A
JPH10160464A JP32412196A JP32412196A JPH10160464A JP H10160464 A JPH10160464 A JP H10160464A JP 32412196 A JP32412196 A JP 32412196A JP 32412196 A JP32412196 A JP 32412196A JP H10160464 A JPH10160464 A JP H10160464A
Authority
JP
Japan
Prior art keywords
image
model
recognition target
projection
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP32412196A
Other languages
Japanese (ja)
Inventor
Shigeru Tamura
尉 田村
Hisashi Kazama
久 風間
Kyoichi Okamoto
恭一 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Tokyo Electric Power Co Holdings Inc
Original Assignee
Toshiba Corp
Tokyo Electric Power Co Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Tokyo Electric Power Co Inc filed Critical Toshiba Corp
Priority to JP32412196A priority Critical patent/JPH10160464A/en
Publication of JPH10160464A publication Critical patent/JPH10160464A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To recognize or measure three-dimensional position and posture of an object of a specific shape such as a column or the like from a camera image of the object, by obtaining position and posture information on the object from a most fit projected image through a specific process. SOLUTION: The image characteristic is extracted from a photographed image of an object to be recognized of a specific shape by a slit pattern- extracting means 4, a meridian-extracting means 5, a characteristic line-applying means 6, etc. A model projected image-generating means 7 calculates a projected image of a three-dimensional model of the object to be recognized. The model projected image-generating means 7 corrects position and posture of the three dimensional model in accordance with an extracted result by the slit pattern- extracting means 4 and an extracted result by the meridian-extracting means 5, transmits projected images of various positions and postures of the three dimensional model to the applying means 6, and obtains and outputs information of the position and posture of the three-dimensional model judged as best fit. Accordingly, the three-dimensional position and posture of the object can be recognized or measured.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、例えば配電作業ロ
ボットや知能ロボット制御において、碍子などの作業対
象を認識対象物体とし、その位置姿勢を画像により認識
するための位置姿勢認識装置および位置姿勢認識方法に
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a position / posture recognition device and a position / posture recognition apparatus for controlling a power distribution work robot or an intelligent robot, for example, by setting a work target such as an insulator as a recognition target object and recognizing the position / posture of the object by an image. About the method.

【0002】[0002]

【従来の技術】ロボット技術の発展に伴い、産業分野の
みならず、様々な分野でロボットが活躍するようになっ
た。そして、近年では、高所など危険な環境下における
設備の部品交換、保守等作業をロボットに代行させる研
究が活発に行われている。
2. Description of the Related Art With the development of robot technology, robots have been active in various fields as well as in the industrial field. In recent years, research has been actively conducted to substitute robots for parts replacement and maintenance of equipment in dangerous environments such as high places.

【0003】このような危険な環境下における設備の部
品交換、保守などの作業を行うためのロボット(危険環
境下用の作業ロボット)は、ロボットの動作制御を人間
の手による遠隔操作により行う方式がとられているが、
人手を要し、かつ、操作に熟練を要するなどの扱いの面
での課題を抱えることから、当該作業ロボットにTVカ
メラを搭載し、その画像を用いて自律的に対象物体を認
識し、作業を行うことができるようにする自律型作業ロ
ボッートの実現が強く望まれている。
A robot (work robot for a dangerous environment) for performing operations such as replacement of parts of a facility or maintenance in such a dangerous environment is a system in which the operation of the robot is remotely controlled by a human hand. Has been taken,
Since there is a problem in handling such as requiring human labor and skill in operation, the work robot is equipped with a TV camera, and autonomously recognizes a target object using the image and performs work. There is a strong demand for the realization of an autonomous work robot capable of performing the task.

【0004】自律型作業ロボットの実現には、作業対象
の3次元的な位置および姿勢を、入力画像から画像処理
により認識する位置姿勢認識装置が不可欠である。対象
物体の形状が既知であれば、単眼視のカメラによっても
物体の位置および姿勢が測定可能であることから、単眼
視の物体認識の研究が盛んに行われている。
In order to realize an autonomous work robot, a position and orientation recognition device for recognizing a three-dimensional position and orientation of a work target from an input image by image processing is indispensable. If the shape of the target object is known, the position and orientation of the object can be measured even by a monocular camera, and studies on monocular object recognition are being actively conducted.

【0005】特に人工物体には円柱形状の物体や、ま
た、回転対称(点対象)な形状ではあるが、単なる円柱
形状でなく、円柱または円錐台をその軸方向に積み重ね
ることによってできる形状、つまり、軸方向に膨らみや
窪みを持つような形状(例えば、瓢箪型など)の物体
が、数多く存在する。このような形状を本明細書では以
後、「一般化された円柱」と呼ぶことにする。
[0005] In particular, the artificial object has a cylindrical shape or a rotationally symmetric (point-symmetric) shape, but is not merely a cylindrical shape, but a shape formed by stacking cylinders or truncated cones in the axial direction. There are many objects having a shape (for example, a gourd shape) having a swelling or depression in the axial direction. Such a shape is hereinafter referred to as a “generalized cylinder”.

【0006】そして、これらの「一般化された円柱」形
状の位置および姿勢の認識は、自律型作業ロボットを実
現するための重要な要素である。自律型作業ロボットの
一つの利用例として、例えば、電柱上の配電線工事を行
なうロボットを考えてみると、ロボットが作業を行なう
ために認識すべき対象の形状は、限られたものである。
[0006] Recognition of the position and orientation of these "generalized cylinders" is an important factor for realizing an autonomous work robot. As an example of the use of the autonomous work robot, for example, consider a robot performing distribution line construction on a utility pole, and the shape of an object to be recognized by the robot in order to perform work is limited.

【0007】その中で、最も重要な認識対象と考えられ
る装柱や碍子は、一般化された円柱形状の物体である。
そして、単眼視カメラにより撮影したこのような例え
ば、電柱上の碍子の如き既知対象についての画像情報に
基づいて、物体の3次元位置および姿勢を認識するため
の方法としては、投影像を図形としてとらえ、図形的な
パターンマッチング手法を応用する方法がある。
[0007] Among them, the pillars and insulators considered to be the most important recognition objects are generalized cylindrical objects.
As a method for recognizing the three-dimensional position and orientation of an object based on image information about a known object such as an insulator on a telephone pole, which is captured by a monocular camera, a projected image is represented as a graphic. There is a method of applying a graphic pattern matching method.

【0008】この場合、対象物体の投影像の形状と、予
め記憶されている対象物体の見え方のパターンとを比較
することによって、物体の位置と姿勢を認識する。しか
しながら、「一般化された円柱」形状の物体が、3次元
的に自由に位置と姿勢を変えることができる場合は、対
象の見え方にはつぎの5種の変化要素がある。すなわ
ち、“大きさ”、“画面上の傾き”、“奥行き方向の傾
き”、“中心の軸方向の位置”、“中心の軸と垂直方向
の位置”の計5種の変化要素である。
In this case, the position and orientation of the object are recognized by comparing the shape of the projected image of the object with the previously stored pattern of the appearance of the object. However, when an object having a “generalized cylinder” shape can freely change its position and orientation three-dimensionally, there are the following five types of changing factors in the appearance of the object. That is, there are a total of five types of change factors: “size”, “inclination on the screen”, “inclination in the depth direction”, “position in the center axis direction”, and “position in the direction perpendicular to the center axis”.

【0009】そして、全ての変化要素を考慮すると見え
方のパターンは無限となってしまうため、図形的なパタ
ーンマッチング手法を用いる場合は、“大きさを固定す
る”、あるいは、“奥行き方向の回転を固定する”など
の方法で、用意するパターンを制限する必要があった。
[0009] When all the changing factors are considered, the pattern of appearance becomes infinite. Therefore, when a graphic pattern matching method is used, “fix the size” or “rotate in the depth direction” It was necessary to limit the patterns to be prepared by a method such as "fixing".

【0010】このため、物体の3次元位置及び姿勢を認
識する他の手法としては、画像中から対象物体の形状の
特徴を示す2次元の画像特徴点を抽出し、組合せの手法
を用いて対象物体の特徴点と対応づけ、物体の3次元位
置及び姿勢を認識する手法がよく用いられる。
[0010] Therefore, as another method for recognizing the three-dimensional position and orientation of an object, a two-dimensional image feature point indicating the shape characteristic of the target object is extracted from the image, and the target is extracted using a combination method. A method of correlating with a feature point of an object and recognizing the three-dimensional position and orientation of the object is often used.

【0011】しかしながら、「一般化された円柱」形状
の物体を、その形状の特徴点を抽出して認識しようとす
る場合には、対象物である当該「一般化された円柱」形
状の物体が表面滑らかな形状であるが故に、特徴点とな
り得る突起物や角の点が存在せず、従って、画像中から
特徴点を抽出することが困難であるという問題がある。
However, when an object having a “generalized cylinder” shape is to be recognized by extracting feature points of the shape, the object having the “generalized cylinder” shape is to be recognized. Since the surface has a smooth shape, there are no protrusions or corner points that can be feature points, and therefore, there is a problem that it is difficult to extract feature points from an image.

【0012】特徴点を抽出するのでなく、特徴的な直
線、あるいは特徴的な曲線を抽出し、認識対象物体との
対応に基づいて認識を行う手法もある。この手法は、例
えば、対象物体が円柱形状の場合は、楕円形状や平行線
を抽出し、その形状から物体の認識を行うといったもの
である。
There is also a method in which a characteristic straight line or a characteristic curve is extracted instead of extracting feature points, and recognition is performed based on correspondence with a recognition target object. In this method, for example, when the target object has a cylindrical shape, an elliptical shape or a parallel line is extracted, and the object is recognized from the shape.

【0013】この場合、正確な測定を行うためには、楕
円形状は全円周状に輪郭線が抽出されることが望まし
い。しかし、円柱形状の上下に物体が接している場合に
は、全円周状の輪郭線は抽出することができず、楕円弧
の一部として抽出されることが多く、正確な位置と姿勢
の測定は困難になる。また、「円柱」または「一般化さ
れた円柱」の場合、両側の輪郭線は物体固有の稜線とし
て現れる輪郭線ではなく、遮蔽輪郭線と呼ばれる輪郭線
であって、特に対象物体領域と背景領域の差が明確でな
い場合には、楕円形状の輪郭線を抽出する画像処理をそ
のまま利用しても抽出は難しい。
In this case, in order to perform accurate measurement, it is desirable that the contour of the elliptical shape be extracted along the entire circumference. However, when an object is in contact with the top and bottom of the cylinder, the entire circumferential contour cannot be extracted, and is often extracted as part of an elliptical arc. Becomes difficult. In the case of "cylinder" or "generalized cylinder", the contours on both sides are not contours appearing as ridges peculiar to the object, but are contours called occlusion contours. If the difference is not clear, it is difficult to extract even if image processing for extracting an elliptical contour line is used as it is.

【0014】このために、例えば、特公平6−5628
7号公報(後藤:円柱形状物の位置検出装置)では、認
識する物体として円柱形状に対象を限定して、円柱軸に
対して斜め上の方向から、能動的な照明を投射し、上方
に取り付けたカメラから円柱形状物体の投影像を撮影す
ることで、遮蔽輪郭線を影として能動的に抽出すると云
った手法を採用している。そして、その投影像の形状か
ら3次元的な位置を検出するようにしている。
For this purpose, for example, Japanese Patent Publication No. 6-5628
In Japanese Patent Publication No. 7 (Goto: position detection device for a cylindrical object), an object to be recognized is limited to a columnar object, and active illumination is projected from an obliquely upward direction with respect to the cylinder axis, and upward. A technique is employed in which a projection image of a cylindrical object is photographed from an attached camera to actively extract a shielding contour as a shadow. Then, a three-dimensional position is detected from the shape of the projected image.

【0015】しかし、この方法では、物体とカメラの位
置関係が極めて限定されている。そのため、対象物とカ
メラが離れた位置関係にある場合は、当該方法を適用す
ることは不可能である。例えば、電柱上の配電線工事を
行なう自律型作業ロボットのための物体認識に画像処理
技術を利用しようとする場合は、認識対象の物体とカメ
ラの位置関係はそもそも未知であるし、認識対象の物体
に対するカメラの位置は物体の上方方向にあるのではな
く、横方向にあって、しかも、認識対象物体から離れた
所から横方向の撮影視野を以て撮影する場合が多いと考
えられるからである。
However, in this method, the positional relationship between the object and the camera is extremely limited. Therefore, when the object and the camera are in a distant positional relationship, it is impossible to apply the method. For example, when trying to use image processing technology for object recognition for an autonomous work robot performing distribution line construction on a telephone pole, the positional relationship between the object to be recognized and the camera is unknown at first, and This is because the position of the camera with respect to the object is not in the upper direction of the object, but in the horizontal direction, and it is considered that the camera is often taken from a location distant from the recognition target object with a horizontal field of view.

【0016】[0016]

【発明が解決しようとする課題】電柱上の配電線工事を
行なう用途のロボットを実現する上で、認識できなけれ
ばならない対象物の一つに例えば碍子があるが、当該碍
子などのような「一般化された円柱」形状の物体をカメ
ラでとらえてその画像から認識しようとする場合、図形
的なパターンマッチングの手法や、画像の特徴点、特徴
線の抽出と組合わせを利用する方法、あるいは能動的な
光を照射する方法などの画像認識技術の適用が考えられ
る。
One of the objects that must be recognized in order to realize a robot for use in performing distribution line construction on a power pole is, for example, an insulator. When capturing an object with the shape of a `` generalized cylinder '' using a camera and recognizing it from the image, a method using a graphic pattern matching method, a method using extraction and combination of feature points and feature lines of the image, or Application of an image recognition technology such as a method of irradiating active light can be considered.

【0017】しかしながら、従来における図形的なパタ
ーンマッチング手法を用いると、用意しなければならな
いパターンが膨大になり、また、特徴点の抽出と組合せ
の手法を用いると、認識対象が「一般化された円柱」形
状の物体である場合には画像中から特徴点や特徴線の抽
出が困難であり、能動的な光を照射する方法ではカメラ
位置が認識対象の上方にある必要があって、用途が限定
されるという問題があった。
However, if the conventional graphic pattern matching method is used, the number of patterns to be prepared becomes enormous, and if the method of extracting and combining feature points is used, the recognition target is "generalized." It is difficult to extract feature points and feature lines from images in the case of an object with a “cylindrical” shape, and the method of irradiating active light requires that the camera position be above the recognition target. There was a problem of being limited.

【0018】従って、電柱上の配電線工事を行なう用途
の自律型作業ロボットを実現する上で、認識できなけれ
ばならない碍子の認識技術の早急な確立が嘱望されてい
る。そこで、この発明の目的とするところは、「円柱」
形状および「一般化された円柱」形状物体について、そ
の位置と姿勢をカメラ画像から測定できるようにする位
置姿勢認識装置および位置姿勢認識方法を提供すること
にある。
Therefore, in order to realize an autonomous work robot for use in performing distribution line work on utility poles, there is an urgent need to establish an insulator recognition technique that must be able to be recognized. Therefore, the purpose of the present invention is to use a "column"
It is an object of the present invention to provide a position and orientation recognition apparatus and a position and orientation recognition method that enable the position and orientation of a shape and a “generalized cylinder” shape object to be measured from a camera image.

【0019】[0019]

【課題を解決するための手段】上記目的を達成するため
に本発明は、特定形状の認識対象物体を撮像した画像を
入力する画像入力手段と、前記特定形状の認識対象物体
に能動的にスリット光を照射するスリット光照射装置
と、前記画像入力手段から得た画像から画像処理により
スリット光の投影パターンを抽出するスリットパターン
抽出手段と、前記画像入力手段から得た画像と、スリッ
トパターン抽出手段から得た情報から、前記認識対象物
体のスリット光の投影パターンに交差する輪郭線を抽出
する経線抽出手段と、前記特定形状の認識対象物体の3
次元モデルを保有し、この3次元モデルの投影像を算出
すると共に、当てはまり程度を示す情報に基づいて3次
元モデルの3次元的位置姿勢を修正して前記認識対象物
体と比較照合するための投影像を得るモデル投影像生成
手段と、前記画像入力手段から得た画像から、前記認識
対象物体の画像特徴と、前記モデル投影像生成手段によ
り得られた投影像を照合比較して当てはめの程度を判別
し、前記認識対象モデルの位置姿勢を修正して、前記認
識対象物体の形状から生する特徴線を当てはめる特徴線
当てはめ手段と、前記当てはめ程度の最良の3次元モデ
ル投影像の位置・姿勢情報を、前記モデル投影像生成手
段より得て出力する結果出力手段とを具備することを特
徴とする。
SUMMARY OF THE INVENTION In order to achieve the above object, the present invention provides an image input means for inputting an image of a specific shape of a recognition target object, and a slit for actively inputting the specific shape of the recognition target object. A slit light irradiation device that irradiates light, a slit pattern extraction unit that extracts a projection pattern of slit light by image processing from an image obtained from the image input unit, an image obtained from the image input unit, and a slit pattern extraction unit Meridian extraction means for extracting a contour intersecting the projection pattern of the slit light of the object to be recognized from the information obtained from the object;
A projection for holding a three-dimensional model, calculating a projection image of the three-dimensional model, correcting the three-dimensional position and orientation of the three-dimensional model based on information indicating the degree of fitting, and comparing the three-dimensional model with the recognition target object. A model projection image generating means for obtaining an image, and comparing the image characteristics of the recognition target object with the projection image obtained by the model projection image generating means from the image obtained from the image input means to determine the degree of fitting. Discriminating and correcting the position and orientation of the recognition target model to fit a characteristic line generated from the shape of the recognition target object; and feature / position information of the best three-dimensional model projection image of the fitting degree. And a result output means for obtaining and outputting the result from the model projection image generating means.

【0020】本発明では、認識対象を撮像する撮像手段
から得られる画像の画像特徴と、用意した前記認識対象
の3次元モデルの投影像を比較し、その当てはまりの程
度を検証して、この検証結果に応じ前記モデルの位置姿
勢を逐次修正して得た投影像と前記画像特徴とを再び照
合して当てはまりの程度を検証し、最も良く当てはまる
投影像を求めてその求めた最も良く当てはまる投影像か
ら前記認識対象の位置と姿勢の情報を求めることによ
り、認識対象物体の3次元的な位置と姿勢を認識する。
In the present invention, the image feature of the image obtained from the image pickup means for picking up the recognition target is compared with the projection image of the prepared three-dimensional model of the recognition target, and the degree of fitting is verified. The projection image obtained by sequentially correcting the position and orientation of the model according to the result is again compared with the image feature to verify the degree of fitting, the best fitting projection image is obtained, and the best fitting projection image obtained is obtained. , The information on the position and orientation of the recognition target is obtained to recognize the three-dimensional position and orientation of the recognition target object.

【0021】具体的には特定形状の認識対象物体を撮像
した画像から、スリットパターン抽出手段、経線抽出手
段、特徴線当てはめ手段などで、その認識対象物体の画
像特徴を抽出し、また、モデル投影像生成手段は、保有
している前記特定形状の認識対象物体の3次元モデルを
用いて、この3次元モデルの投影像を算出すると共に、
当てはまり判断手段の判別した当てはまり程度に基づい
て3次元モデルの3次元的な位置と姿勢を修正して前記
認識対象物体と比較照合するための投影像を得る。
More specifically, the image feature of the object to be recognized is extracted from an image of the object to be recognized having a specific shape by slit pattern extracting means, meridian extracting means, characteristic line fitting means, etc., and model projection is performed. The image generating means calculates a projection image of the three-dimensional model using the held three-dimensional model of the recognition target object having the specific shape,
The three-dimensional position and orientation of the three-dimensional model are corrected based on the degree of fit determined by the fit determining means to obtain a projection image for comparison and collation with the recognition target object.

【0022】また、抽出の困難な輪郭線に関してはスリ
ット光を照射し、そのスリットパターンの形状から、ス
リットパターンに交差する輪郭線の位置を抽出すること
で、安定かつ確実にその輪郭線の位置を抽出する。
In addition, a contour line that is difficult to extract is irradiated with slit light, and the position of the contour line that intersects the slit pattern is extracted from the shape of the slit pattern. Is extracted.

【0023】前記モデル投影像生成手段は、スリットパ
ターン抽出手段の抽出結果にしたがって3次元モデルの
位置と姿勢を修正し、経線抽出手段の抽出結果にしたが
って3次元モデルの位置と姿勢を修正し、特徴線当ては
め手段に3次元モデルの各種の位置と姿勢の投影像を送
信し、最良の当てはめ程度に判別された3次元モデルの
位置と姿勢の情報を得て出力する。
The model projection image generating means corrects the position and orientation of the three-dimensional model according to the extraction result of the slit pattern extracting means, and corrects the position and attitude of the three-dimensional model according to the extraction result of the meridian extracting means. The projection images of the various positions and postures of the three-dimensional model are transmitted to the feature line fitting means, and information on the position and posture of the three-dimensional model determined to have the best fit is obtained and output.

【0024】このように、認識対象を撮像した画像情報
を得て、この画像情報から得られる画像の画像特徴を抽
出し、この抽出した画像特徴を、用意した前記認識対象
の3次元モデールの投影像と比較して、その当てはまり
の程度を検証し、前記モデルの位置と姿勢を逐次修正し
て、最も良く当てはまる投影像を求め、その求めた最も
良く当てはまる投影像から位置と姿勢を求めるようにし
て、認識対象物体の3次元的な位置と姿勢を認識するよ
うにした。
As described above, image information obtained by capturing an image of a recognition target is obtained, image characteristics of an image obtained from the image information are extracted, and the extracted image characteristics are used to project the prepared three-dimensional model of the recognition target. In comparison with the image, the degree of the fit is verified, the position and orientation of the model are sequentially corrected, the best fit projection image is obtained, and the position and orientation are obtained from the obtained best fit projection image. Thus, the three-dimensional position and orientation of the recognition target object are recognized.

【0025】従って、「円柱」形状や「一般化された円
柱」形状の認識対象物体について、その位置と姿勢を画
像から測定できるようになり、自律型の作業ロボットの
実現に道が開かれる。
Therefore, the position and orientation of the object to be recognized having a "cylindrical" shape or a "generalized cylindrical" shape can be measured from the image, opening the way to the realization of an autonomous work robot.

【0026】[0026]

【発明の実施の形態】本発明では、認識対象を撮像する
撮像手段から得られる画像の画像特徴と、用意した前記
認識対象の3次元モデルの投影像を比較し、その当ては
まりの程度を検証して、この検証結果に応じ前記モデル
の位置姿勢を逐次修正して得た投影像と前記画像特徴と
を再び照合して当てはまりの程度を検証し、最も良く当
てはまる投影像を求めてその求めた最も良く当てはまる
投影像から前記認識対象の位置と姿勢の情報を求めるこ
とにより、認識対象物体の3次元的な位置と姿勢を認識
するようにする。
DESCRIPTION OF THE PREFERRED EMBODIMENTS In the present invention, image characteristics of an image obtained from an image pickup means for imaging a recognition target are compared with a projection image of a prepared three-dimensional model of the recognition target, and the degree of the fitting is verified. Then, the projected image obtained by sequentially correcting the position and orientation of the model according to the verification result is again compared with the image feature to verify the degree of fit, the best fit projected image is obtained and the obtained best image is obtained. By obtaining information on the position and orientation of the recognition target from a projection image that fits well, the three-dimensional position and orientation of the recognition target object are recognized.

【0027】具体的には認識対象物体を特定形状のもの
とし、その認識対象物体を撮像した画像から、スリット
パターン抽出手段、経線抽出手段、特徴線当てはめ手段
などで、その認識対象物体の画像特徴を抽出する。ま
た、モデル投影像生成手段は、保有している前記特定形
状の認識対象物体の3次元モデルを用いて、この3次元
モデルの投影像を算出すると共に、当てはまり判断手段
の判別した当てはまり程度に基づいて3次元モデルの3
次元的な位置と姿勢を修正して前記認識対象物体と比較
照合するための投影像を得る。
More specifically, the object to be recognized has a specific shape, and the image feature of the object to be recognized is extracted from an image of the object to be recognized by slit pattern extracting means, meridian extracting means, feature line fitting means and the like. Is extracted. The model projection image generation means calculates a projection image of the three-dimensional model using the held three-dimensional model of the recognition target object having the specific shape, and based on the degree of fit determined by the fit determination means. 3D model 3
A dimensional position and orientation are corrected to obtain a projection image for comparison and collation with the recognition target object.

【0028】また、抽出の困難な輪郭線に関してはスリ
ット光を照射し、そのスリットパターンの形状から、ス
リットパターンに交差する輪郭線の位置を抽出すること
で、安定かつ確実にその輪郭線の位置を抽出する。
In addition, a contour line that is difficult to extract is irradiated with slit light, and the position of the contour line that intersects the slit pattern is extracted from the shape of the slit pattern. Is extracted.

【0029】前記モデル投影像生成手段は、スリットパ
ターン抽出手段の抽出結果にしたがって3次元モデルの
位置と姿勢を修正し、経線抽出手段の抽出結果にしたが
って3次元モデルの位置と姿勢を修正し、特徴線当ては
め手段に3次元モデルの各種の位置と姿勢の投影像を送
信し、最良の当てはめ程度に判別された3次元モデルの
位置と姿勢の情報を得て出力する。
The model projection image generating means corrects the position and orientation of the three-dimensional model according to the extraction result of the slit pattern extracting means, and corrects the position and attitude of the three-dimensional model according to the extraction result of the meridian extracting means. The projection images of the various positions and postures of the three-dimensional model are transmitted to the feature line fitting means, and information on the position and posture of the three-dimensional model determined to have the best fit is obtained and output.

【0030】このように、認識対象を撮像した画像情報
を得て、この画像情報から得られる画像の画像特徴を抽
出し、この抽出した画像特徴を、用意した前記認識対象
の3次元モデールの投影像と比較して、その当てはまり
の程度を検証し、前記モデルの位置と姿勢を逐次修正し
て、最も良く当てはまる投影像を求め、その求めた最も
良く当てはまる投影像から位置と姿勢を求めるようにす
ることにより、認識対象物体の3次元的な位置と姿勢を
認識するようにした。
As described above, image information obtained by capturing an image of a recognition target is obtained, image characteristics of an image obtained from the image information are extracted, and the extracted image characteristics are projected onto the prepared three-dimensional model of the recognition target. Compared with the image, verifying the degree of the fit, sequentially correcting the position and orientation of the model, finding the best fit projection image, and finding the position and orientation from the found best fit projection image. By doing so, the three-dimensional position and orientation of the recognition target object are recognized.

【0031】従って、「円柱」形状や「一般化された円
柱」形状の認識対象物体について、その位置と姿勢を画
像から測定できるようになり、自律型の作業ロボットの
実現に道が開かれる。以下、本発明の具体例について、
図面を参照して説明する。
Therefore, the position and orientation of an object to be recognized having a "cylindrical" shape or a "generalized cylindrical" shape can be measured from an image, opening the way to the realization of an autonomous work robot. Hereinafter, specific examples of the present invention,
This will be described with reference to the drawings.

【0032】(具体例)図1は本発明の位置姿勢認識装
置を適用した円柱形状物体認識装置の概略構成ブロック
図である。まず、図1に示す本装置の構成を説明する。
円柱形状物体認識装置は、TVカメラ1、スリット光照
射手段2、画像入力部3、スリットパターン抽出手段
4、経線抽出手段5、特徴線当てはめ手段6、モデル投
影像生成手段7、結果出力手段8からなる。
FIG. 1 is a schematic block diagram of a columnar object recognition apparatus to which the position and orientation recognition apparatus of the present invention is applied. First, the configuration of the present apparatus shown in FIG. 1 will be described.
The columnar object recognition device includes a TV camera 1, a slit light irradiating unit 2, an image input unit 3, a slit pattern extracting unit 4, a meridian extracting unit 5, a characteristic line fitting unit 6, a model projection image generating unit 7, and a result outputting unit 8. Consists of

【0033】このうちTVカメラ1は、ビデオカメラな
どの撮像装置であって、認識対象である円柱状物体が入
力されるように設置され、対象物体の近傍領域を撮影し
てその撮影した像を画像信号として出力するものであ
る。
The TV camera 1 is an image pickup device such as a video camera, and is installed so that a columnar object to be recognized is input. The TV camera 1 photographs a region near the target object and converts the photographed image. It is output as an image signal.

【0034】スリット光照射手段2は、パターン形状が
十字型の光を、認識対象物の表面に投影するための装置
であり、スリット光の照射パターンが十字型になるよう
なスリッ卜装置が取り付けられていて、対象物体の輪郭
線のうちで画像処理だけでは抽出が困難な輪郭線を横切
ってパターン形状十字型の光を照射するように、カメラ
近傍位置に配置されている。スリット光照射手段2によ
り認識対象物体の表面に投影された十字型パターン形状
の光の像は当然、TVカメラ1で撮像できる位置関係に
なるようにTVカメラ1とスリット光照射手段2の配置
関係は保たれるものとする。
The slit light irradiating means 2 is a device for projecting cross-shaped light on the surface of the object to be recognized, and is provided with a slit device so that the slit light irradiation pattern becomes cross-shaped. It is arranged in the vicinity of the camera so as to irradiate cross-shaped light in a pattern shape across the contour of the target object that is difficult to extract by image processing alone. Of course, the positional relationship between the TV camera 1 and the slit light irradiating means 2 is such that the image of the light of the cross-shaped pattern projected on the surface of the recognition target object by the slit light irradiating means 2 has a positional relationship that can be imaged by the TV camera 1. Shall be kept.

【0035】スリット光照射手段2は、白熱灯、水銀灯
など比較的強力な照明装置を用いて構成すれば何でも良
いが、本具体例ではレーザスリット光照射装置を使用す
ることとして説明する。
The slit light irradiating means 2 may be formed by using a relatively powerful illuminating device such as an incandescent lamp or a mercury lamp. In this embodiment, the description will be made assuming that a laser slit light irradiating device is used.

【0036】画像入力部3は、TVカメラ1から送信さ
れる画像信号をディジタル化して入力するためのもので
あり、また、スリット光照射手段2の照射スイッチを制
御してスリット光が照射された時点の画像や、スリット
光が照射されていない時点の画像を選択して入力する機
能を有する。
The image input section 3 is for digitizing and inputting an image signal transmitted from the TV camera 1, and controls the irradiation switch of the slit light irradiation means 2 to irradiate the slit light. It has a function of selecting and inputting an image at the time or an image at the time when the slit light is not irradiated.

【0037】スリットパターン抽出手段4は、画像入力
部3から送信されるスリット光が照射された時点でのデ
ィジタル画像と、スリット光が照射されていない時点で
のディジタル画像を処理し(処理の方法は後で詳しく説
明する)、画像中のスリットパターンを抽出し、その位
置情報をモデル投影像生成手段7から受信し、スリット
光が照射されていない時点のディジタル画像を画像入力
部3から受信し、その位置情報を用いて画像に対して画
像処理を施すことにより、スリットパターンに交差する
輪郭線を抽出する機能を有し、抽出結果をメモリ上に保
持したモデル投影像生成手段7の要求に対してデータを
送信する機能を有する。
The slit pattern extracting means 4 processes the digital image transmitted from the image input unit 3 when the slit light is irradiated and the digital image obtained when the slit light is not irradiated (processing method). Will be described later in detail), a slit pattern in the image is extracted, the position information is received from the model projection image generating means 7, and a digital image at the time when the slit light is not irradiated is received from the image input unit 3. Has a function of extracting a contour line intersecting the slit pattern by performing image processing on the image using the position information, and in response to a request from the model projection image generation means 7 which holds the extraction result in a memory. It has a function of transmitting data to the server.

【0038】特徴線当てはめ手段6は、画像入力部3か
ら送信されるスリット光が照射されていない時点のディ
ジタル画像の画像特徴を抽出し、モデル投影像生成手段
7から送信される認識対象物体の3次元モデルの対応す
る特徴線の投影位置と、前記画像特徴を比較し(処理の
方法は後で詳しく説明する)、最適な当てはめ位置を算
出する機能を有する。
The feature line fitting means 6 extracts the image features of the digital image at the time when the slit light transmitted from the image input unit 3 is not irradiated, and extracts the recognition target object transmitted from the model projection image generating means 7. It has a function of comparing the projected position of the corresponding feature line of the three-dimensional model with the image feature (the processing method will be described later in detail), and calculating an optimal fitting position.

【0039】モデル投影像生成手段7は、認識対象物体
の3次元モデルの構造データと位置と姿勢のデータを保
有し、モデルの投影像を生成する。また、スリットパタ
ーン抽出手段4や経線抽出手段5から送信されるモデル
の2次元的な存在位置を示すデータからモデルの3次元
位置を逆算し、認識対象物体の3次元モデルの位置と姿
勢のデータを修正する機能も有する。
The model projection image generation means 7 holds the structure data of the three-dimensional model of the object to be recognized and the data of the position and orientation, and generates a projection image of the model. Further, the three-dimensional position of the model is calculated back from the data indicating the two-dimensional existence position of the model transmitted from the slit pattern extracting means 4 and the meridian extracting means 5, and the position and orientation data of the three-dimensional model of the object to be recognized are obtained. It also has the function of correcting

【0040】結果出力手段8は、最終的な認識結果を出
力する機能を有し、例えば認識物体の3次元的な位置と
姿勢を数値として出力したり、入力された画像の上に認
識結果に基づいてモデル投影像を上書き表示したりす
る。
The result output means 8 has a function of outputting a final recognition result. For example, it outputs a three-dimensional position and orientation of the recognition object as numerical values, or outputs the recognition result on an input image. For example, the model projection image is overwritten and displayed based on the model.

【0041】以上のような構成の本発明の動作を説明す
る。本システムをロボットの視覚システムとして搭載し
た自律型作業ロボットの動作環境として、電柱上の配電
線工事を例に挙げて説明する。この動作環境では自律型
作業ロボットは作業対象物体の認識と位置特定をするこ
とが必要になる。電柱上には例えば、碍子など「一般化
された円柱」形状の物体が数多く存在し、その位置特定
をすることになる。
The operation of the present invention having the above configuration will be described. As an operating environment of an autonomous work robot equipped with this system as a robot visual system, distribution line construction on a utility pole will be described as an example. In this operating environment, the autonomous work robot needs to recognize and position the work object. On a utility pole, for example, there are a number of "generalized cylinder" -shaped objects such as insulators, and their positions are specified.

【0042】電柱が地面に垂直に立っているとすれば、
画像入力用のTVカメラ1を水平を保って撮影すること
により得た画像では、地面に対して縦方向に取り付けら
れた碍子は縦に撮影される。碍子など円柱形状の物体が
認識対象の場合には、画像処理だけを用いたのでは円柱
の軸方向の輪郭線(両脇の縦方向の輪郭線)の抽出は難
しい。
If the telephone pole is standing perpendicular to the ground,
In an image obtained by shooting the image input TV camera 1 while keeping it horizontal, the insulator attached vertically to the ground is shot vertically. When a columnar object such as an insulator is a recognition target, it is difficult to extract the axial contour of the cylinder (vertical contours on both sides) by using only image processing.

【0043】この時はスリットパターンが円柱の両脇の
輪郭線を横切るようにスリット照射装置(スリット光照
射手段2)を設置することになる。自律型作業ロボット
は作業車の高所作業台の上に搭載される。高所作業台は
屈伸操作可能なアームを持つものであり、アームの基部
が作業車上に旋回操作可能に保持され、アームの自由端
側には作業者が乗る籠が取り付けてあるものが一般的で
あるが、作業ロボットをアーム先端に搭載して作業させ
る場合には籠を除去した構成であって差支えない。
At this time, the slit irradiating device (slit light irradiating means 2) is installed so that the slit pattern crosses the outline on both sides of the cylinder. The autonomous work robot is mounted on an aerial work platform of a work vehicle. An aerial work platform has an arm that can be bent and stretched.The base of the arm is held so that it can be turned on a work vehicle, and a basket on which a worker rides is attached to the free end of the arm. However, when the work robot is mounted on the tip of the arm to work, the basket may be removed without any problem.

【0044】高所作業台の操作は操作者によってなされ
る。操作者はまず当該作業車を電柱のそばに設置し、高
所作業台の自由端部側を電柱の側に上げる。そして、ロ
ボットの可動範囲や、障害物による影響を考慮しなが
ら、適切な位置に作業ロボットが来るようにアーム先端
位置を位置調整する。周囲環境は場所によって異なるか
ら、作業のたびに全く同じ位置にロボットを設置すると
いうことは不可能であるし、また、電柱上の配置も場所
によって異なる。
The operation of the aerial work platform is performed by an operator. First, the operator places the work vehicle near a utility pole, and raises the free end of the work platform at a high position toward the utility pole. Then, the position of the arm tip is adjusted so that the work robot comes to an appropriate position while considering the movable range of the robot and the influence of obstacles. Since the surrounding environment varies from place to place, it is impossible to install a robot at exactly the same position every time work is performed, and the arrangement on the utility pole also varies from place to place.

【0045】しかし、行なう作業は予め決まっているか
ら、認識が必要な作業対象物体が何であるかは事前に決
めることができるし、その物体が画面に収まるように、
ロボットの位置と姿勢を設定することができる。またこ
のとき、スリットが認識対象に照射されるようにロボッ
トの位置を設置することも可能である。
However, since the work to be performed is predetermined, it is possible to determine in advance what work object needs to be recognized, and to make the object fit on the screen,
The position and posture of the robot can be set. At this time, it is also possible to set the position of the robot so that the slit is irradiated on the recognition target.

【0046】このような場合では、本認識システムが認
識すべき対象は画面の中に収まっていることを前提とす
ることができるし、また、その対象物体の存在し得る空
間的な範囲も仮定することができる。
In such a case, the object to be recognized by the present recognition system can be assumed to be within the screen, and the spatial range in which the object can exist is also assumed. can do.

【0047】なぜなら、前述したようにロボットの可動
範囲に関連して、作業ロボットと対象との位置関係が、
ある範囲に収まるように操作者が作業ロボットを設置す
るからである。
Because, as described above, the positional relationship between the working robot and the object is related to the movable range of the robot.
This is because the operator sets the work robot so as to be within a certain range.

【0048】図2は本発明を用いて構成した碍子認識の
ための位置姿勢認識装置の全体的な処理手順である。ま
た、図3〜図7に処理の流れを説明するための処理の移
り変わりの様子を示したその時々の画像の状態を模式図
で示しておく。
FIG. 2 is an overall processing procedure of the position and orientation recognition apparatus for insulator recognition constructed according to the present invention. FIGS. 3 to 7 are schematic diagrams showing the state of the image at each time showing the transition of the process for explaining the flow of the process.

【0049】碍子認識のための位置姿勢認識装置は、ス
リット光照射手段2によるスリット光を碍子に照射した
状態と、照射しない状態の各画像をTVカメラ1から取
り込む画像入力ステップ(図2のステップS21)、ス
リット照射画像に対してスリットパターン抽出処理を行
うスリットパターン抽出手段4でのスリットパターン抽
出処理(図2のステップS22)、パターンの端点を見
付けることで画像上における碍子の遮蔽輪郭線を見付け
る処理であるモデル投影像生成手段7での端点位置当て
はめ処理(図2のステップS23)、これにより取得し
た端点位置を元にして経線抽出をする経線抽出手段5で
の経線抽出処理(図2のステップS24)、抽出した経
線を用いて認識対象モデルの3次元的な位置と姿勢を経
線に当てはまるように修正するモデル投影像生成手段7
での経線当てはめ処理(図2のステップS25)、“円
柱形状物体の中心軸の方向の位置”と、“奥行き方向の
回転角”という2種のパラメータを決めるための処理で
ある特徴線の当てはめ手段6による特徴線の当てはめ処
理(図2のステップS26)、これらの処理を経て得ら
れた結果(“大きさ”、“画面上の傾き”、“奥行き方
向の傾き”、“中心の軸方向の位置”、“中心の軸と垂
直方向の位置”の計5種の変化要素の確定情報)を出力
する結果出力手段8での処理である出力処理(図2のス
テップS27)という手順を踏み、最終結果を得る。順
を追って処理の詳細を説明する。
The position / posture recognizing device for insulator recognition includes an image input step (step in FIG. 2) in which the slit light irradiating means 2 irradiates the insulator with the slit light and irradiates each image with the slit light from the TV camera 1. S21), slit pattern extraction processing by the slit pattern extraction means 4 for performing slit pattern extraction processing on the slit irradiation image (step S22 in FIG. 2), and by finding the end points of the pattern, the shielding contour of the insulator on the image is determined. The end point position fitting processing (step S23 in FIG. 2) in the model projection image generating means 7 which is the finding processing, and the meridian extraction processing in the meridian extracting means 5 for extracting the meridian based on the obtained end point positions (FIG. 2) In step S24), the three-dimensional position and orientation of the recognition target model are applied to the meridians using the extracted meridians. Model projection image generation means 7 for modifying the
2 (step S25 in FIG. 2), which is a process for determining two types of parameters, "position of the cylindrical object in the direction of the central axis" and "rotation angle in the depth direction". The characteristic line fitting processing by means 6 (step S26 in FIG. 2), the results obtained through these processings (“size”, “screen tilt”, “depth tilt”, “center axial direction” , And a position in the vertical direction with respect to the central axis), which is output processing (step S27 in FIG. 2) which is processing by the result output means 8 for outputting a total of five types of variable element determination information. , Get the final result. The details of the processing will be described step by step.

【0050】〔画像入力(ステップS21)〕まず認識
対象となる碍子が撮影されるように当該碍子にTVカメ
ラ1を向け、この位置でTVカメラ1により当該碍子を
撮像して当該碍子の3種類の画像を取り込む(画像入
力;ステップS21)。ここで言う3種類の画像とは、
1つはスリット光照射手段2を用いずに自然のまま撮像
した画像であり、残りはスリット光照射手段2を用いて
十字型パターンのスリット光を対象物に照射した状態で
撮像した画像である。これにより、3種類の画像の内、
2種類は対象物にスリット光を照射した状態の画像が得
られる。
[Image Input (Step S21)] First, the TV camera 1 is pointed at the insulator so that the insulator to be recognized is photographed, and the insulator is imaged by the TV camera 1 at this position, and three types of the insulator are obtained. (Image input; step S21). The three types of images here are:
One is an image captured as it is without using the slit light irradiating means 2, and the other is an image captured in a state where the slit light of the cross-shaped pattern is irradiated on the object using the slit light irradiating means 2. . Thereby, of the three types of images,
In the two types, images in a state where the slit light is applied to the object can be obtained.

【0051】スリット光照射状態の2種の画像は、対象
物に対する十字型パターンのスリット光の位置がそれぞ
れ異なるものとする。そのために、撮像にあたってはス
リット光照射手段2には対象物に対して異なる二カ所の
位置からスリット光を照射させるようにする。例えば、
TVカメラ1の位置から対象物に向かう方向に対して右
下に30cm離れた位置からと、左下へカメラから30
cm離れた位置からの2地点から照射すると言った具合
である。
It is assumed that the two images in the slit light irradiation state have different positions of the slit light of the cross-shaped pattern with respect to the object. For this purpose, upon imaging, the slit light irradiating means 2 irradiates the object with slit light from two different positions. For example,
From the position of the TV camera 1 toward the target from the position 30 cm to the lower right and 30 cm to the lower left from the camera.
It is said that irradiation is performed from two points from a position separated by a distance of 1 cm.

【0052】従って、このようにするにはスリット光照
射手段2は例えば二台使用し、その設置位置はカメラ光
軸に対して左右に一つずつになるようにすれば良い(ス
リット光照射手段固定支持方式)。もちろん、左右移動
機構を設けて、カメラ光軸に対して左右、異なる位置か
ら対象物にスリット光を投影できる構成とすればスリッ
ト光照射手段2は一台でも間に合う(スリット光照射手
段移動方式)。
Therefore, in order to achieve this, for example, two slit light irradiating means 2 are used, and their installation positions may be one each on the left and right with respect to the camera optical axis (slit light irradiating means 2). Fixed support method). Of course, if a configuration is provided in which a left-right moving mechanism is provided so that slit light can be projected onto the object from different positions on the left and right with respect to the camera optical axis, even one slit light irradiating means 2 can be used (slit light irradiating means moving method) .

【0053】いずれの構成でも差支えないが、要はカメ
ラの視点は変えず、スリット光は時点を変えて異なる二
つの位置から別々に照射させることができる構成をとる
ことである。このような異なる二つの位置からスリット
光を照射させなければならない理由は、認識対象(ここ
では碍子)の右側の縦の輪郭緑(右の経線)と、左側の
縦の輪郭線(左の経線)の位置を個別に抽出できるよう
にするためである。
Although any structure may be used, the point is that the viewpoint of the camera is not changed, and the slit light can be irradiated separately from two different positions at different times. The reason why the slit light must be irradiated from these two different positions is that the vertical contour green (right meridian) on the right side of the object to be recognized (here, the insulator) and the vertical contour line on the left (left meridian) ) Can be individually extracted.

【0054】そのためには、二台のスリット光照射手段
2には、時間をおいて認識対象物に交互に十字型のパタ
ーンを照射させ、それぞれの十字型パターン投射状態の
画像をTVカメラ1により撮像するように、システムを
制御する。
For this purpose, the two slit light irradiating means 2 alternately irradiate the object to be recognized with a cross-shaped pattern at a time interval, and an image of each cross-shaped pattern projected state is obtained by the TV camera 1. Control the system to take an image.

【0055】前述のように、ロボットの可動範囲等に関
連してロボットと対象との位置関係が、ある範囲に収ま
るように、操作者がロボットを設置するわけであるか
ら、レーザスリット光が対象物に照射されるようにシス
テムが設置されることは十分可能なことである。また、
万一、スリット光が当たらない場合でも、操作者がロボ
ットやTVカメラなどの位置を修正すれば良いのであ
る。
As described above, since the operator installs the robot so that the positional relationship between the robot and the object is within a certain range in relation to the movable range of the robot and the like, the laser slit light is applied to the object. It is quite possible for the system to be set up so that the object is illuminated. Also,
Even if the slit light does not hit, the operator only needs to correct the position of the robot or the TV camera.

【0056】TVカメラ1でこのような画像をそれぞれ
撮像することにより得られた画像信号を、画像入力部3
は取り込み、それぞれディジタル画像に変換する。すな
わち、画像入力部3はスリット光を照射しないで撮影し
た画像(以降の説明では「スリット無し画像」と呼
ぶ)、左側からスリット光を照射した画像(以降の説明
では「左側スリット照射画像」と呼ぶ)、右側からスリ
ット光を照射した画像(以降の説明では「右側スリット
照射画像」と呼ぶ)の3種の画像を取り込み、それぞれ
ディジタル画像に変換することになる。
An image signal obtained by capturing each of such images with the TV camera 1 is input to the image input unit 3.
Captures and converts each into a digital image. That is, the image input unit 3 outputs an image photographed without irradiating slit light (hereinafter, referred to as an “image without slit”) and an image irradiated with slit light from the left side (hereinafter, “left slit irradiated image”). ) And an image illuminated with slit light from the right side (hereinafter referred to as “right slit illuminated image”), and these are converted into digital images.

【0057】上述の3種の画像を入力する間、画像入力
用のTVカメラ1は空間的に動いてはいけない。ただ
し、TVカメラ1を機械的に動かす必要がある場合は、
移動パラメータを用いて3種の画像間の画素位置の対応
を算出できるように構成しておけばよい。また、TVカ
メラ1が空間的に動かない場合でも、3種の画像を撮影
する時間に差があった場合は、背景によっては背景に差
が現われる場合があるが、数秒程度のずれ(通常ディジ
タル画像を複数枚撮影するには十分な時間)による背景
の差は、この後で説明するスリットパターン抽出処理で
対応可能であり、差を吸収できる。
During the input of the above three types of images, the image input TV camera 1 must not move spatially. However, if it is necessary to move the TV camera 1 mechanically,
What is necessary is just to comprise so that correspondence of the pixel position between three types of images can be calculated using a movement parameter. Also, even when the TV camera 1 does not move spatially, if there is a difference in the time to shoot three types of images, a difference may appear in the background depending on the background, but a difference of about several seconds (usually a digital A background difference due to a time sufficient for capturing a plurality of images) can be dealt with by a slit pattern extraction process described later, and the difference can be absorbed.

【0058】図3がスリット無し画像の模式図、図4が
スリット照射画像の模式図である。スリット光照射装置
2として、レーザプロジェクタを使用した場合は、照射
パターンが明瞭に撮影されるように、レーザ波長を透過
域とするような干渉フイルタをTVカメラ1のレンズの
前面に取り付けるなどの処置を講じておいても良い。
FIG. 3 is a schematic diagram of an image without a slit, and FIG. 4 is a schematic diagram of an image irradiated with a slit. When a laser projector is used as the slit light irradiating device 2, measures such as mounting an interference filter having a laser wavelength transmission region on the front surface of the lens of the TV camera 1 so that an irradiation pattern is clearly photographed. May be taken.

【0059】〔スリットパターン抽出処理(ステップS
22)〕次に、左右のスリット照射画像に対してスリッ
トパターン抽出処理を行う(図2のステップS22)。
[Slit pattern extraction processing (step S
22)] Next, slit pattern extraction processing is performed on the left and right slit irradiation images (step S22 in FIG. 2).

【0060】図8に、スリットパターン抽出処理の処理
手続きの詳細を示す。スリット照射画像は、スリット無
し画像と比べてスリットパターンが照射された部分の画
素の輝度値が明るいことになる。従って、スリット照射
画像の輝度値からスリット無し画像の対応する面素の輝
度値の差をとれば、スリットパターンの部分だけが現わ
れることになる。この画素の輝度値の差をとった画像
(以後の説明では差分画像と呼ぶ)を作り、スリットパ
ターンの部分を抜き出すことで、認識対象物体の端点位
置を抽出する。
FIG. 8 shows the details of the processing procedure of the slit pattern extraction processing. In the slit irradiation image, the luminance value of the pixel of the portion irradiated with the slit pattern is brighter than the image without the slit. Therefore, if the difference between the luminance values of the corresponding surface elements of the image without slits is calculated from the luminance value of the slit irradiation image, only the slit pattern portion appears. An image (hereinafter, referred to as a difference image) in which the difference between the luminance values of the pixels is obtained is created, and an end point position of the recognition target object is extracted by extracting a slit pattern portion.

【0061】そこで、まず、左右のスリット照射画像と
スリット無し画像との差分画像を作り、以後の処理では
差分画像を用いる(図8のステップS81a、ステップ
S81b)。ここで行なう差分演算は画像間の差の絶対
値をとるのでなく、以下の演算とする。
Therefore, first, a difference image between the left and right slit irradiation images and the non-slit image is created, and the difference image is used in the subsequent processing (steps S81a and S81b in FIG. 8). The difference calculation performed here is not the absolute value of the difference between the images but is the following calculation.

【0062】座標(x,y)の画素のスリット照射画像
の面素値をP(x,y)、スリット無し画像の対応する
面素の面素値をP´(x,y)としたとき、差分画像の
画素値を以下の演算で求める。
When the surface element value of the slit irradiation image of the pixel at the coordinates (x, y) is P (x, y) and the surface element value of the corresponding surface element of the image without slit is P ′ (x, y) , The pixel value of the difference image is obtained by the following calculation.

【0063】 P(x,y)−P'(x,y) P(x,y)>=P'(x,y) のとき 0 P'(x,y) >P(x,y)のとき 次に、差分画像を2値化する。2値化しきい値の決定
は、例えば、大津の判別分析法(例えば、「画像解析ハ
ンドブック」東京大学出版会,1991年,高木幹雄
下田陽久監修等参照)を用いる(図8のステップS82
a、ステップS82b)。次に、8連結でラベリング処
理(2値化された画素を連続領域に分割する処理)を行
い、各ラベルに分割する(図8のステップS83a、ス
テップS83b)。
P (x, y) −P ′ (x, y) When P (x, y)> = P ′ (x, y) 0 P ′ (x, y)> P (x, y) Next, the difference image is binarized. The binarization threshold is determined, for example, by the Otsu discriminant analysis method (eg, “Image Analysis Handbook”, University of Tokyo Press, 1991, Mikio Takagi
(See, for example, supervision by Y. Shimoda) (step S82 in FIG. 8).
a, Step S82b). Next, a labeling process (a process of dividing a binarized pixel into a continuous area) is performed by eight concatenation, and the label is divided into labels (steps S83a and S83b in FIG. 8).

【0064】差分画像から抽出されたラベルには背景の
変化が含まれる可能性がある。例えば、樹木の葉の揺れ
や画面のちらつきなどである。これらのラベルから、ス
リット光で作られた十字パターンを判別する必要があ
る。このためには、例えば、以下のような方法で十字パ
ターンを識別する。
The label extracted from the difference image may include a change in the background. For example, it is a swing of a tree leaf or a flicker of a screen. From these labels, it is necessary to determine the cross pattern made by the slit light. For this purpose, for example, the cross pattern is identified by the following method.

【0065】[十字パターン識別] (i) 小さな面積のノイズラベルの除去 スリット光により生じたラベルは画素数(面積)が十分
大きいので、抽出したラべルの面素数をある閾値を以て
大小2種のいずれに属するか判別し、その結果、小さい
ラベルと判別されたラベルは除去する。判別閾値の決定
は差分処理と同様に、大津の判別分析法を用いれば良
い。
[Cross-Cross Pattern Discrimination] (i) Removal of Noise Label with Small Area Since the label generated by the slit light has a sufficiently large number of pixels (area), the number of surface elements of the extracted label is set to two types, large and small, with a certain threshold. Is determined, and the label determined to be a small label as a result is removed. The determination of the discrimination threshold may be performed using Otsu's discriminant analysis method, similarly to the difference processing.

【0066】(ii)ラベル密度が大きいノイズラベルの除
去 ラベルに含まれる画素数を、ラベルに外接する多角形の
面積で割った値をラベル密度と定義すると、十字型のラ
ベルはこのラベル密度が小さい。一方、ノイズとして現
れる円形の固まりや、矩形のノイズラベルはラベル密度
が大きいので、ラベル密度の大小を以て判断すれば十字
型と識別が可能である。そこで、ラベル密度の高いラベ
ルを除去する。
(Ii) Removal of Noise Label with Large Label Density The value obtained by dividing the number of pixels included in the label by the area of the polygon circumscribing the label is defined as the label density. small. On the other hand, since a cluster of circles appearing as noise or a rectangular noise label has a high label density, it can be identified as a cross shape by judging from the magnitude of the label density. Therefore, labels having a high label density are removed.

【0067】(iii)外接する多角形の面積が最大のラベ
ルを抽出 以上の(i) ,(ii)の処理を通過した候補が複数ある場合
は、第三段階として外接する多角形の面積が最大のラベ
ルを抽出する。
(Iii) Extract a label with the largest area of the circumscribing polygon If there are a plurality of candidates that have passed the above processes (i) and (ii), the area of the circumscribing polygon is Extract the largest label.

【0068】以上の処理で十字パターンが抽出される
(図8のステップS84a、ステップS84b)。 〔端点位置当てはめ処理(図8のステップS23)〕ス
リットパターン抽出処理が終わると、次に端点位置当て
はめ処理に移る。端点位置当てはめは、十字パターンの
端点を見付けることで画像上における碍子の遮蔽輪郭線
を見付ける処理である。
The cross pattern is extracted by the above processing (steps S84a and S84b in FIG. 8). [End Point Position Fitting Process (Step S23 in FIG. 8)] After the slit pattern extraction process is completed, the process proceeds to the end point position fitting process. The end point position fitting is a process of finding a shielding contour of an insulator on an image by finding an end point of a cross pattern.

【0069】既に説明したような十字パターン抽出処理
において、ラベル密度を算出するための多角形として有
効な最も簡単な図形は、外接する長方形である。図17
は外接する長方形でラベル密度を計算する場合の摸式図
を示している。このラベルに外接する多角形は長方形に
限られたものではなく、例えば抽出されたラベルを外接
する凸の多角形とすることもできる。図18は抽出され
たラベルを外接する凸の多角形とした場合の模式図を示
している。
In the cross pattern extraction processing as described above, the simplest figure effective as a polygon for calculating the label density is a circumscribed rectangle. FIG.
Shows a schematic diagram when calculating the label density with a circumscribed rectangle. The polygon circumscribing this label is not limited to a rectangle, and may be, for example, a convex polygon circumscribing the extracted label. FIG. 18 is a schematic diagram when the extracted labels are circumscribed convex polygons.

【0070】以上の処理で抽出されたラベルの左端位置
と、右端位置を測定する。左側の差分画像を処理する場
合は、この領域の左端位置を抽出し、右側の差分画像を
処理する場合はこの領域の右端位置を抽出する(図8の
ステップS85a、ステップS85b)。
The left end position and the right end position of the label extracted by the above processing are measured. When processing the difference image on the left side, the left end position of this region is extracted, and when processing the difference image on the right side, the right end position of this region is extracted (steps S85a and S85b in FIG. 8).

【0071】以上の処理を左右の差分画像に対して行な
う。抽出された左右の端点位置から以下の二つの値を求
める。 (1)スリット光の左右の端点の幅を計算し、認識対象
物体の奥行き位置を計算する(図8のステップS8
6)。
The above processing is performed on the left and right difference images. The following two values are obtained from the extracted left and right end point positions. (1) The width of the left and right end points of the slit light is calculated, and the depth position of the recognition target object is calculated (step S8 in FIG. 8).
6).

【0072】(2)左右の端点の中心位置を計算し、認
識対象物体の重心位置とみなす。この重心位置から認識
対象物体の3次元の位置を計算する(図8のステップS
87)。
(2) The center positions of the left and right end points are calculated and regarded as the position of the center of gravity of the object to be recognized. The three-dimensional position of the recognition target object is calculated from the position of the center of gravity (step S in FIG. 8).
87).

【0073】本具体例で扱っている認識対象物体は、図
3に示すような電柱上の碍子であり、この碍子の経線は
遮蔽輪郭線と呼ばれ、物体の稜線や角の線のように物体
自身が保有する線でなく、対象が画像に投影されること
で現われる線であるので、背景や照明の条件によっては
画像処理だけでは抽出が困難な線である。
The object to be recognized in this example is an insulator on a telephone pole as shown in FIG. 3, and the meridian of this insulator is called a shielding contour, and is like a ridgeline or a corner line of the object. Since it is not a line held by the object itself but a line that appears when the target is projected on the image, it is a line that is difficult to extract by image processing alone depending on the background and lighting conditions.

【0074】しかし、このようにスリット光を照射した
像と照射しない像との差分画像からスリットパターンを
抜き出し、その抜き出したスリットパターンの端点位置
を抽出することで、従来、抽出が困難であった遮蔽輪郭
線を正確に求めることが可能になる。なお、ここで求め
た二つの値はこの後の処理を行うための暫定値であり、
以後の処理で正確な値に修正される。
However, extracting the slit pattern from the difference image between the image irradiated with the slit light and the image not irradiated as described above and extracting the end point position of the extracted slit pattern has conventionally been difficult. It is possible to accurately determine the shielding contour. Note that the two values obtained here are provisional values for performing subsequent processing,
It is corrected to an accurate value in the subsequent processing.

【0075】なお、図8のステップS86とステップS
87では、画像中の位置の情報から認識対象物体の3次
元的な位置と姿勢を計算する手続きが含まれている。ま
た、この後の処理でも、認識対象物体の投影像を求めた
り、投影位置の情報から認識対象物体の3次元的な位置
と姿勢を計算する手続きが多く現われる。そこで、これ
らの計算方法について、ここでまとめて詳しく説明す
る。なお、これらの計算は、モデル投影像生成手段7の
内部で処理される。
Note that step S86 and step S86 in FIG.
87 includes a procedure for calculating the three-dimensional position and orientation of the recognition target object from the information on the position in the image. Also in the subsequent processing, there are many procedures for obtaining a projection image of the recognition target object and calculating the three-dimensional position and orientation of the recognition target object from information on the projection position. Therefore, these calculation methods will be collectively described in detail here. Note that these calculations are processed inside the model projection image generating means 7.

【0076】[計算方法]図9はモデル投影像生成手段
7の内部構成図である。図に示すように、モデル投影像
生成手段7は、モデル位置算出手段91、モデルの位置
及び姿勢パラメータ記憶手段92、モデルの構造パラメ
ータ記憶手段93、モデルの3次元位置算出手段94、
カメラパラメータ記憶手段95、モデルの投影位置算出
手段96からなる。
[Calculation Method] FIG. 9 is a diagram showing the internal configuration of the model projection image generating means 7. As shown in the figure, the model projection image generation means 7 includes a model position calculation means 91, a model position and orientation parameter storage means 92, a model structure parameter storage means 93, a model three-dimensional position calculation means 94,
It comprises a camera parameter storage means 95 and a model projection position calculation means 96.

【0077】これらのうち、モデル位置算出手段91
は、スリットパターン抽出手段4や経線抽出手段5か
ら、認識対象の画像中の位置に関するデータを受けて、
これらとカメラパラメータ記憶手段95に保持されてい
るカメラパラメータを用い、モデルの3次元的な位置と
姿勢を計算するものである。
Of these, the model position calculating means 91
Receives data on the position in the image to be recognized from the slit pattern extracting means 4 and the meridian extracting means 5,
Using these and the camera parameters stored in the camera parameter storage means 95, the three-dimensional position and orientation of the model are calculated.

【0078】また、モデルの位置及び姿勢パラメータ記
憶手段92は、モデル位置算出手段91により計算され
たモデルの3次元的な位置と姿勢のパラメータを保持す
るものである。また、モデルの構造パラメータ記憶手段
93は、モデルMの位置情報を各頂点の3次元座標とし
て記憶保持させたものであり、モデルの3次元位置算出
手段94は、モデルの任意の位置と姿勢における各構成
点(図10の例で言えば、各頂点)の3次元的な位置を
計算するためのものである。
The model position and orientation parameter storage unit 92 holds the three-dimensional position and orientation parameters of the model calculated by the model position calculation unit 91. The model structural parameter storage unit 93 stores and holds the position information of the model M as the three-dimensional coordinates of each vertex. The model three-dimensional position calculation unit 94 stores the model M at the arbitrary position and orientation in the model. This is for calculating the three-dimensional position of each constituent point (each vertex in the example of FIG. 10).

【0079】モデルの3次元的な位置と姿勢のパラメー
タは、3次元的な変換行列(4行4列の行列)で表現で
きるので、モデルの各構成点に対して変換行列を乗算す
れば、モデルの任意の位置と姿勢における各構成点の3
次元的な位置を計算できることを利用している。
The parameters of the three-dimensional position and orientation of the model can be represented by a three-dimensional transformation matrix (matrix of 4 rows and 4 columns). 3 for each component point at any position and orientation of the model
It utilizes the ability to calculate dimensional position.

【0080】カメラパラメータ記憶手段95は、前記T
Vカメラ1と画像入力部3からなる本システムのカメラ
入力系のカメラ・パラメータを記憶させたものであり、
モデルの投影位置算出手段96は、カメラパラメータ記
憶手段95に記憶されているカメラ入力系のカメラ・パ
ラメータと、モデルの3次元位置算出手段94により求
められたモデルの任意の位置と姿勢における各構成点の
3次元的な位置とからモデルの投影位置を算出するもの
である。
The camera parameter storage means 95 stores the T
The camera parameters of a camera input system of the present system including a V camera 1 and an image input unit 3 are stored.
The model projection position calculation means 96 includes the camera parameters of the camera input system stored in the camera parameter storage means 95 and the respective configurations at arbitrary positions and orientations of the model obtained by the model three-dimensional position calculation means 94. The projection position of the model is calculated from the three-dimensional position of the point.

【0081】本具体例においてはモデル投影像生成部7
は、認識対象物体の3次元モデルを例えば、図10に符
号Mを付して示すようなワイヤフレームモデルとして保
有する。この図10に示した例は、認識対象物体が配電
構造物の碍子である場合に、この認識対象物体のモデル
を、正30角形の角錐台の組合せとして近似しているこ
とを示している。
In this specific example, the model projection image generation unit 7
Holds a three-dimensional model of the object to be recognized, for example, as a wireframe model as indicated by reference numeral M in FIG. The example shown in FIG. 10 indicates that when the recognition target object is an insulator of a power distribution structure, the model of the recognition target object is approximated as a combination of regular 30-sided truncated pyramids.

【0082】ワイヤフレームモデルMの位置情報は各頂
点の3次元座標として、モデルの構造パラメータ記憶手
段93に保有される。また、TVカメラ1と画像入力部
3からなるカメラ入力系のカメラ・パラメータは予め測
定し、カメラパラメータ記憶手段95に記憶する。
The position information of the wire frame model M is held in the model structure parameter storage means 93 as three-dimensional coordinates of each vertex. Further, camera parameters of the camera input system including the TV camera 1 and the image input unit 3 are measured in advance and stored in the camera parameter storage unit 95.

【0083】カメラ・パラメータは3次元空間中の座標
(X,Y.Z)から、画面上の投影位置(x、y)への
投影関係を表すパラメータである。例えば、以下の式
(1)、式(2)は12個の定数{pi}i=1,2,
… …,12により、投影関係を表現している。
The camera parameters are parameters representing the projection relationship from the coordinates (X, YZ) in the three-dimensional space to the projection position (x, y) on the screen. For example, the following Expressions (1) and (2) represent twelve constants {pi} i = 1, 2,
.., 12 represent the projection relationship.

【0084】[0084]

【数1】 (Equation 1)

【0085】これらのパラメータ{pi}i=1,2,
… …,12を求めるには、3次元座標が既知の点を6
点以上撮影し、その投影位置を測定して、式(1)、式
(2)を線形方程式とみなし、最小自乗法によって求め
れば良い。あるいは、カメラ位置ベクトルC(ここで言
うカメラ位置は、カメラの焦点の位置のことを示す)、
焦点距離F、カメラの光軸方向べクトルA、画像中心位
置(xo ,yo )が与えられても、以下の式からパラメ
ータ{pi}i=1,2,… …,12を求めることが
できる。
These parameters {pi} i = 1,2,2
……, 12 are determined by calculating points whose three-dimensional coordinates are known
It is sufficient to take images of points or more, measure the projection position, and consider the equations (1) and (2) as linear equations and obtain them by the least square method. Alternatively, a camera position vector C (here, the camera position indicates the position of the camera focal point),
Given the focal length F, the vector A in the optical axis direction of the camera, and the image center position (xo, yo), the parameters {pi} i = 1, 2,..., 12 can be obtained from the following equation. .

【0086】まず、カメラの光軸方向ベクトルAから、
カメラ受光素子面のX方向ベクトルUo とY方向ベクト
ルVo を決める。これらは、ベクトルUo 、ベクトル
A、ベクトルVo が右手系の直交座標系となるように定
めれば良い。このとき、パラメータは以下の式で算出さ
れる。なお、以下の式ではべクトル要素については、要
素符号上に矢印のべクトル符号を付して表わす。
First, from the optical axis direction vector A of the camera,
An X direction vector Uo and a Y direction vector Vo of the camera light receiving element surface are determined. These may be determined so that the vector Uo, the vector A, and the vector Vo form a right-handed rectangular coordinate system. At this time, the parameters are calculated by the following equations. In the following equations, the vector elements are represented by adding the vector signs of arrows on the element codes.

【0087】[0087]

【数2】 (Equation 2)

【0088】ここで(・,・)はベクトルの内積を示
す。これらの12個のパラメータから物理的なカメラの
パラメータに変換することも容易である。カメラ位置ベ
クトルC、焦点距離F、カメラの光軸方向ベクトルA、
画像中心位置(xo ,yo )は以下の式により求めるこ
とができる。
Here, (•, •) indicates the inner product of the vectors. It is easy to convert these 12 parameters into physical camera parameters. Camera position vector C, focal length F, camera optical axis direction vector A,
The image center position (xo, yo) can be obtained by the following equation.

【0089】[0089]

【数3】 (Equation 3)

【0090】本具体例では、以下、カメラ・パラメータ
は式(1)、式(2)の表現に基づき説明を行う。さ
て、スリットパターン抽出手段4や経線抽出手段5か
ら、認識対象の画像中の位置に関するデータがモデル投
影像生成手段7に送信されると、モデル投影像生成手段
7では、これらをモデル位置算出手段91に与える。モ
デル位置算出手段91はこれら認識対象の画像中の位置
に関するデータとカメラパラメータ記憶手段95に保有
されるカメラパラメータとを用いて、モデルの3次元的
な位置と姿勢を計算する。この計算方法は後で詳しく説
明する。
In this specific example, the camera parameters will be described below based on expressions (1) and (2). When data relating to the position in the image to be recognized is transmitted from the slit pattern extracting means 4 and the meridian extracting means 5 to the model projection image generating means 7, the model projection image generating means 7 converts the data into a model position calculating means. Give to 91. The model position calculation means 91 calculates the three-dimensional position and orientation of the model using the data on the position of the recognition target in the image and the camera parameters stored in the camera parameter storage means 95. This calculation method will be described later in detail.

【0091】モデル位置算出手段91により計算された
モデルの3次元的な位置と姿勢のパラメータは、モデル
の位置及び姿勢パラメータ記憶手段92に記憶される。
モデルの3次元的な位置と姿勢のパラメータは、3次元
的な変換行列(4行4列の行列)で表現できるので、モ
デルの各構成点に対して変換行列を乗算すれば、モデル
の任意の位置と姿勢の時の各構成点(図10の例で言え
ば、各頂点)の3次元的な位置が計算できる。この処理
はモデルの3次元位置算出手段94によりなされる。
The three-dimensional position and orientation parameters of the model calculated by the model position calculating means 91 are stored in the model position and attitude parameter storage means 92.
Since the parameters of the three-dimensional position and orientation of the model can be expressed by a three-dimensional transformation matrix (matrix of 4 rows and 4 columns), multiplication of the transformation matrix for each component point of the model makes it possible to obtain an arbitrary model of the model. The three-dimensional position of each constituent point (each vertex in the example of FIG. 10) at the time of the position and posture can be calculated. This process is performed by the model three-dimensional position calculating means 94.

【0092】このときモデル投影像は以下の手順で算出
される。まず、モデルの3次元位置算出手段94で算出
された各構成点{Pi}i=1,2,…Nについて、式
(1)、式(2)に基づいて、各構成点の投影位置{p
i}i=1,2,…Nを求める。
At this time, the model projection image is calculated according to the following procedure. First, for each of the constituent points {Pi} i = 1, 2,... N calculated by the model three-dimensional position calculating means 94, the projected position of each of the constituent points is calculated based on Equations (1) and (2). p
i} i = 1, 2,... N are obtained.

【0093】次に、一各構成点の投影位置の間を画像中
で直線近似することにより、各辺の投影像を求める。こ
のようにして生成された認識対象モデルの投影像(この
時点では全ての線が描かれている)から、画像上の最も
外側の線を選択し、外輪郭線を生成する。
Next, a projected image of each side is obtained by approximating a straight line in the image between the projected positions of the respective constituent points. From the projection image of the recognition target model generated in this manner (all lines are drawn at this time), the outermost line on the image is selected, and an outer contour line is generated.

【0094】画像認識により碍子を識別し、その姿勢や
位置を識別し易くするために、自律型の作業ロボットに
作業をさせようとする配線設備の場合、図3の如く、碍
子の下部側外周面には予め、帯状リング型の塗色帯を形
成したものを使用することがある。すなわち、本具体例
では認識対象を図3に示したような碍子であった場合、
このような碍子の認識には塗色帯の位置の情報が重要な
役割を果たしてくれる。
In order to identify the insulator by image recognition and to make it easy to identify its posture and position, in the case of a wiring facility in which an autonomous work robot is to work, as shown in FIG. In some cases, a surface in which a band-shaped ring-shaped coating color band is formed in advance is used. That is, in this specific example, when the recognition target is an insulator as shown in FIG.
Information on the position of the paint band plays an important role in recognition of such insulators.

【0095】そのため、このような認識対象物体の表面
に認識に重要な役割を果たす線が存在するならば、本発
明においてはその線も外輪郭線として抽出して利用する
ようにする。図11は、このようにして生成された認識
対象モデルの投影像を示している。本具体例では図3に
示すような碍子を認識対象としているため、碍子上部の
くびれの形状を表現するために、円周方向にも多数の線
を用いて表現した。
Therefore, if there is a line that plays an important role in recognition on the surface of such a recognition target object, in the present invention, the line is also extracted and used as an outer contour line. FIG. 11 shows a projection image of the recognition target model generated in this manner. In this specific example, since the insulator as shown in FIG. 3 is to be recognized, a large number of lines are also used in the circumferential direction to express the shape of the constriction on the upper part of the insulator.

【0096】しかし、認識対象物体が円柱形状に近い単
純な形状であれば、円周方向には少数の線(つまり少数
の構成点)で形状を表現できるし、最も簡単な場合には
単純な正多角柱で表現できることになる。このことは大
きな意味を持つ。すなわち、複雑な形状の物体の外輪郭
線を式(1)、式(2)の投影に従って厳密に求めるに
は、非常に多くの計算量を必要とする。しかし、このよ
うに構成点と直線近似でモデルを近似することによっ
て、少ない計算量で認識対象物体の近似輪郭投影像を生
成できるようになる。つまり、楽にしかも短時間のうち
に、認識対象物体の近似輪郭投影像を生成できる。
However, if the object to be recognized has a simple shape close to a cylindrical shape, the shape can be expressed by a small number of lines (that is, a small number of constituent points) in the circumferential direction. It can be expressed by regular polygonal prism. This has significant implications. That is, an extremely large amount of calculation is required to strictly determine the outer contour of an object having a complicated shape according to the projections of Expressions (1) and (2). However, by approximating the model with the component points and the linear approximation in this way, an approximate contour projection image of the recognition target object can be generated with a small amount of calculation. That is, an approximate contour projected image of the recognition target object can be generated easily and in a short time.

【0097】また、モデル投影像生成部7では、モデル
を3次元座標の情報として保有している。そのため、モ
デルを空間的に移動させたり、回転させたりすることが
容易であり、モデルの見え方の5種の変化要素(図12
参照)それぞれに応じた投影像を、容易に生成すること
ができる。
The model projection image generation section 7 holds the model as three-dimensional coordinate information. Therefore, it is easy to spatially move or rotate the model, and five kinds of change factors of the appearance of the model (FIG. 12).
(See Reference.) A projection image corresponding to each can be easily generated.

【0098】例えば、画面上の傾きθに対応した回転
を、モデルに与えるためには、式(9)によって求まる
視点位置から、現在の認識対象物体の中心位置を通る3
次元ベクトルJを求め、その軸まわりにθの回転を与え
れば良い。
For example, in order to give the model a rotation corresponding to the tilt θ on the screen, the rotation from the viewpoint position obtained by the equation (9) to the center position of the current object to be recognized is performed.
What is necessary is just to find the dimensional vector J and give a rotation of θ about its axis.

【0099】モデルの構成点の数を増やして無限大の数
に近づけて行けば、各頂点間の画面上での距離が1画素
未満になる。この場合は、画面上の当てはめに関して
は、曲線で構成された厳密なモデルの投影像と当てはめ
を行っていることに等しくなる。
If the number of model points is increased to approach an infinite number, the distance between vertices on the screen becomes less than one pixel. In this case, the fitting on the screen is equivalent to performing the fitting with the projected image of the strict model constituted by the curve.

【0100】従って、モデルを構成する点の数は、多け
れば多いほど近似の精度が上がるようになるが、その反
面、処理のための計算量が増えることになり、逆に構成
点が少なければ近似の精度が下がることになるが、計算
量は減ることになる。
Therefore, as the number of points constituting the model increases, the approximation accuracy increases. However, on the other hand, the amount of calculation for processing increases. The accuracy of the approximation will decrease, but the amount of calculation will decrease.

【0101】そこで、これらの条件を考慮して適正な値
を採用することとなるが、本具体例ではそれを30角形
で近似して最適構成としている。但し、これに限られる
ものではないことを断っておく。
Therefore, an appropriate value will be adopted in consideration of these conditions. In the present embodiment, the optimum value is approximated by a 30-sided polygon. However, it should be noted that the present invention is not limited to this.

【0102】以上のように、モデル投影像生成部7は、
3次元的な位置と姿勢を持ったモデルを保有し、その投
影像を入力系のカメラ・パラメータに従って生成するた
め、もし、モデル投影像生成部7の輪郭投影像と、入力
画像の認識対象の像の輪郭線か一致するならば、認識対
象の実際の位置と姿勢は、モデル投影像生成部7のモデ
ルの位置と姿勢(モデル投影像生成部7ではモデルの位
置を3次元的に保有している)に一致する筈であり、3
次元的な測定が可能となる。
As described above, the model projection image generation unit 7
In order to hold a model having a three-dimensional position and orientation and to generate a projection image according to the camera parameters of the input system, if the model projection image generation unit 7 generates a contour projection image and a recognition target of the input image, If the contours of the image match, the actual position and orientation of the recognition target are the position and orientation of the model of the model projection image generation unit 7 (the model projection image generation unit 7 holds the model position in three dimensions. ), And 3
Dimensional measurement becomes possible.

【0103】このような概念に基づいて、モデル投影像
生成手段7は認識対象物体のモデルの投影像を生成す
る。さて、いま例として挙げている円柱形状が投影され
た場合に、それが認識対象の円柱形状物体の投影であっ
たとして、該円柱形状物体をその軸の方向から見た時
の、カメラと認識対象との位置関係を図に示すと図13
の如きとなる。
Based on such a concept, the model projection image generation means 7 generates a projection image of the model of the recognition target object. Now, when the cylindrical shape described as an example is projected, it is assumed that it is a projection of a cylindrical object to be recognized, and the cylindrical object is recognized as a camera when viewed from the direction of its axis. FIG. 13 shows the positional relationship with the object.
It becomes like.

【0104】ここで、図13の円の半径Rは円柱形状の
半径Rである。円柱形状の画像中の両側の縦線の位置A
´及びB´が既知であれば、カメラの焦点Fと光軸の方
向は式(9)〜式(12)にて求まっていることから、
中心角2θは正しく求めることができる。三角形ACF
と三角形BCFは合同であるから、カメラから物体まで
の距離dは式(13)により求めることができる。
Here, the radius R of the circle in FIG. 13 is the radius R of the columnar shape. Position A of vertical lines on both sides in cylindrical image
If 'and B' are known, the focal point F and the direction of the optical axis of the camera are determined by Expressions (9) to (12).
The central angle 2θ can be determined correctly. Triangle ACF
And the triangle BCF are congruent, so that the distance d from the camera to the object can be obtained by equation (13).

【0105】[0105]

【数4】 (Equation 4)

【0106】以上の方法を用いることで、円柱形状の左
右の端点の幅から、認識対象物体の奥行き位置を計算で
きる。また、画像中の位置と物体の奥行き位置が既知の
ときに、物体の3次元の位置を計算する方法を以下に説
明する。
By using the above method, the depth position of the recognition target object can be calculated from the width of the left and right end points of the columnar shape. A method of calculating the three-dimensional position of the object when the position in the image and the depth position of the object are known will be described below.

【0107】今、図14に示すように、カメラ焦点位置
ベクトルFからカメラ光軸ベクトルAの光軸方向にdだ
け離れた位置に、カメラ光軸べクトルAに垂直な平面Q
を仮定する。カメラ焦点位置ベクトルFの要素をF=
(Fx,Fy,FZ)、カメラ光軸ベクトルAの要素を
A=(Ax,Ay,Az)とすると、平面Q上にある光
軸上の直線の点の位置ベクトルH=(Hx,Hy,H
z)は、以下の式で表わされる。 (Hx,Hy,Hz)=(Fx+Axd,Fy+Ayd,FZ+AZd) …(14) また、点Hを通り、光軸ベクトルAに垂直な平面Qの方
程式は、以下の式で与えられる。
Now, as shown in FIG. 14, a plane Q perpendicular to the camera optical axis vector A is located at a position away from the camera focal position vector F by d in the optical axis direction of the camera optical axis vector A.
Is assumed. The element of the camera focal position vector F is represented by F =
Assuming that (Fx, Fy, FZ) and the element of the camera optical axis vector A are A = (Ax, Ay, Az), the position vector H = (Hx, Hy, H
z) is represented by the following equation. (Hx, Hy, Hz) = (Fx + Axd, Fy + Ayd, FZ + AZd) (14) The equation of a plane Q passing through the point H and perpendicular to the optical axis vector A is given by the following equation.

【0108】 (X−Hx)Ax+(Y−Hy)Ay+(Z−Hz)AZ=0 …(15) 一方、面面中の認識対象物体の中心位置はC(xc,y
c)で与えられ、カメラから認識対象物体までの距離が
dであると仮定したとする。このとき、認識対象物体の
空間中の中心位置(X,Y,Z)は式(1)、式(2)
の投影の方程式を満たし、かつ、前述の平面Q上に存在
するために式(14)、式(15)を満たす必要があ
る。よって、これらの式を組み合わせると、以下の連立
方程式が導かれる。
(X−Hx) Ax + (Y−Hy) Ay + (Z−Hz) AZ = 0 (15) On the other hand, the center position of the recognition target object on the surface is C (xc, y
Suppose that the distance from the camera to the object to be recognized is d, given by c). At this time, the center position (X, Y, Z) of the recognition target object in the space is expressed by Expressions (1) and (2).
It is necessary to satisfy Expressions (14) and (15) in order to satisfy the projection equation and to be on the above-described plane Q. Therefore, combining these equations leads to the following simultaneous equations.

【0109】[0109]

【数5】 (Equation 5)

【0110】式(16)の連立方程式を解くことによ
り、カメラから物体までの距離がdであり、面面上の投
影位置が(xc,yc)であるための3次元位置(X,
Y,Z)が求められる。また、後の処理で必要になる、
モデルの“画面上の傾き”を修正する方法をここで説明
しておく。
By solving the simultaneous equations of the equation (16), the three-dimensional position (X, y) is set so that the distance from the camera to the object is d and the projection position on the surface is (xc, yc).
Y, Z) are required. Also, it will be necessary for later processing,
A method for correcting the "tilt on the screen" of the model will now be described.

【0111】[モデルの“画面上の傾き”修正法]ま
ず、モデルの投影像の画面上の傾きを算出する。これは
例えば認識対象モデルの上端面中心位置の投影位置と、
下端面中心位置の投影位置を結ぶ線の画面上の傾きを調
べれば良い。
[Method of Correcting "Inclination on Model" of Model] First, the inclination of the projected image of the model on the screen is calculated. This is, for example, the projection position of the center position of the upper end face of the recognition target model,
What is necessary is just to check the inclination on the screen of the line connecting the projection position of the lower end face center position.

【0112】次に、現在のモデルの投影像の画面上の傾
きと、変更先の面面上の傾きの差を算出する。式(1
0)で求めた光軸を回転軸として、認識対象モデルをこ
の角度だけ回転させれば、画面上の傾きが変更先の角度
に一致する。このようにして、モデルの“画面上の傾
き”修正を行うことができる。
Next, the difference between the inclination on the screen of the projection image of the current model and the inclination on the surface to be changed is calculated. Equation (1
If the recognition target model is rotated by this angle using the optical axis obtained in step 0) as the rotation axis, the inclination on the screen matches the angle of the change destination. In this way, the "tilt on the screen" of the model can be corrected.

【0113】さて、種々説明したが、モデル投影像生成
手段7では、画面上の位置情報をもとに、上述のように
してモデルの3次元位置を計算し、修正する機能を有す
る。以上の結果を元に、モデルの投影像の縦方向の輪郭
線の位置が、スリットパターン抽出処理(図2のステッ
プS22)により抽出された十字スリットの端点位置に
合うように、モデル投影像生成手段7のモデルの位置パ
ラメータを修正する(図2のステップS23)。以上で
図2のステップS23での処理である端点位置当てはめ
処理が終了する。そして、この端点位置当てはめ処理が
終了すると、次に経線抽出処理(図2のステップS2
4)に入る。これは次のような処理である。
As described above, the model projection image generating means 7 has a function of calculating and correcting the three-dimensional position of the model based on the position information on the screen as described above. Based on the above results, the model projection image generation is performed such that the position of the vertical contour line of the projection image of the model matches the end position of the cross slit extracted by the slit pattern extraction processing (step S22 in FIG. 2). The position parameter of the model of the means 7 is corrected (step S23 in FIG. 2). Thus, the end point position fitting process, which is the process in step S23 in FIG. 2, is completed. Then, when the end point position fitting processing is completed, the meridian extraction processing (step S2 in FIG. 2)
Enter 4). This is the following processing.

【0114】〔経線抽出処理(ステップS24)〕経線
抽出処理(図2のステップS24)について説明する。
図15は経線抽出処理の処理手順を示している。本発明
において用いる「経線」とは、本具体例で認識対象とし
ている円柱形状のモデルが画面に投影された場合に現わ
れる両側の縦の輪郭線のことである。
[Meridian Extraction Process (Step S24)] The meridian extraction process (step S24 in FIG. 2) will be described.
FIG. 15 shows a processing procedure of the meridian extraction processing. The “meridians” used in the present invention are vertical contour lines on both sides that appear when a cylindrical model to be recognized in this specific example is projected on a screen.

【0115】この輪郭線は円柱形状の軸に平行に現われ
るので、経線を基準にした方向は、以後「軸方向」、
「軸と垂直な方向」などと記述する。さて、これまでの
処理で認識対象物体のおおまかな3次元位置が求められ
たので、認識対象物体の輪郭線がどのような位置に投影
されるかがわかる。
Since this contour line appears parallel to the axis of the columnar shape, the direction based on the meridian is hereinafter referred to as “axial direction”.
Described as "direction perpendicular to the axis." Now, since the approximate three-dimensional position of the recognition target object has been obtained by the processing up to this point, it is possible to know at what position the contour of the recognition target object is projected.

【0116】この推定位置を含むように、図5に示す如
きの経線抽出領域alを設定する。この領域alの大き
さは例えば、高さ200画素、幅100画素と言った具
合に事前に決めてしまっても良いが、認識対象モデルの
投影像の大きさに従ってその都度、設定するようにして
も良い。それには例えば、以下のようにする。モデル投
影像生成手段7が生成したモデルの経線の投影像の長さ
を基準にして、その長さ1.0倍を横幅、その長さ1.
5倍を高さとして経線の投影位置が中心になるように長
方形を設定する。
A meridian extraction area al as shown in FIG. 5 is set so as to include the estimated position. The size of this area al may be determined in advance, for example, as high as 200 pixels and width as 100 pixels, but may be set each time according to the size of the projected image of the recognition target model. Is also good. For example, the following is performed. On the basis of the length of the projected image of the meridian of the model generated by the model projection image generating means 7, the length is 1.0 times the width, and the length is 1.
The rectangle is set so that the projection position of the meridian is at the center with the height set to 5 times.

【0117】スリットパターンの抽出により求めた端点
位置は、上下位置に関しては認識対象のどこに対応する
のかは未知であり、認識対象は画面上で約10度未満の
傾きがある可能性がある。
It is not known where the end point position obtained by extracting the slit pattern corresponds to the vertical position of the recognition target, and the recognition target may have an inclination of less than about 10 degrees on the screen.

【0118】しかし、図5の如く、経線を含むように広
めの経線抽出領域を設定することにより、端点位置から
のずれや角度のずれがあったとしても、認識可能にする
ことができる。
However, as shown in FIG. 5, by setting a wide meridian extraction area so as to include the meridian, it is possible to recognize even if there is a deviation from the end point position or a deviation in the angle.

【0119】左右の経線に対してこの領域を設定し、図
15に示す如きの経線抽出処理を行う。まず、領域内の
各画素に対して画像処理により、軸方向(画面上の縦方
向)のエッジに指向性を持ったエッジ抽出処理を施す。
先にモデル投影像の生成をしたことから、認識対象物体
の経線の“方向”も同時に推定されている。従って、こ
こで、方向に指向性を持ったエッジの抽出処理を行なう
ことができる。この結果、領域内の各面素に縦方向のエ
ッジ強度の値が算出される(図15のステップS15
1)。
This area is set for the left and right meridians, and a meridian extraction process as shown in FIG. 15 is performed. First, an edge extraction process having directivity is performed on edges in the axial direction (vertical direction on the screen) by image processing on each pixel in the region.
Since the model projection image is generated first, the “direction” of the meridian of the recognition target object is also estimated at the same time. Therefore, an edge extraction process having directivity in the direction can be performed here. As a result, the value of the edge strength in the vertical direction is calculated for each surface element in the region (step S15 in FIG. 15).
1).

【0120】次にエッジ抽出を行った部分領域の上端及
び下端からそれぞれ各一点を選択し、この選択した両点
の一方を始点位置とする(図15のステップS15
2)。また、もう一方を終点位置とする(図15のステ
ップS153)。
Next, one point is selected from each of the upper end and the lower end of the partial area from which the edge has been extracted, and one of the two selected points is set as a start point position (step S15 in FIG. 15).
2). The other is set as the end point position (step S153 in FIG. 15).

【0121】この始点位置と終点位置とを直線で結び、
その直線上の画素のエッジ強度を積算する(図15のス
テップS154)。部分領域の上端及び下端には、その
端部位置での構成画素数分の点が存在する。従って、上
端と下端の各点について考えられる組合せ全てについて
同様な処理を行う。
The start point position and the end point position are connected by a straight line,
The edge intensities of the pixels on the straight line are integrated (step S154 in FIG. 15). At the upper end and the lower end of the partial area, there are points for the number of constituent pixels at the end positions. Therefore, similar processing is performed for all possible combinations of the upper and lower points.

【0122】積算値の解析のために、まず、積算に用い
た上端の画素数をM、下端の面素数をNとすると、M×
Nの記憶領域を確保する。この記憶領域は部分領域の上
端および下端の各位置を結ぶ組み合わせそれぞれが、そ
れぞれ特定の1配列要素に該当することになるので、M
×Nの記憶領域のうち、それぞれの直線に対応する配列
要素の位置に、その直線上の面素のエッジ強度の値を加
算してデータを置く作業を行う(図15のステップS1
55)。
For analyzing the integrated value, first, assuming that the number of pixels at the upper end used for the integration is M and the number of surface primes at the lower end is N, M × M
N storage areas are secured. In this storage area, each combination connecting the positions of the upper end and the lower end of the partial area corresponds to one specific array element.
In the × N storage area, an operation of adding the value of the edge strength of the surface element on the straight line to the position of the array element corresponding to each straight line and placing the data is performed (step S1 in FIG. 15).
55).

【0123】つまり、それぞれの直線に対応する配列要
素の位置に、その直線が通る画素のエッジ強度の値を投
票するわけである。このようにしてM×Nの記憶領域に
投票値を書き込むと、その結果、2次元配列にヒストグ
ラムが得られることになる。エッジの面素であれば、そ
の面素位置の画素はエッジ強度が大きいから、投票結果
のうち、大きい投票値を示す画素対応の直線がエッジで
ある可能性が高い。
That is, the value of the edge strength of the pixel passing through the straight line is voted at the position of the array element corresponding to each straight line. When the voting value is written in the M × N storage area in this manner, a histogram is obtained in a two-dimensional array. In the case of an edge surface element, the pixel at that surface element position has a high edge intensity, and therefore, it is highly possible that, of the voting results, a straight line corresponding to a pixel indicating a large vote value is an edge.

【0124】そこで、このM×Nの領域内で2次元的な
局所的極大値の位置を、積算値の高い順に予め決めた個
数だけ選び、経線の候補とする(図15のステップS1
58)。そして、経線の始点位置と終点位置の逆算によ
り、その経線候補の位置を求める(図15のステップS
159)。
Therefore, in the M × N area, a predetermined number of two-dimensional local maximal positions are selected in descending order of the integrated value and are set as meridian candidates (step S1 in FIG. 15).
58). Then, the position of the meridian candidate is obtained by back calculation of the start point position and the end point position of the meridian (step S in FIG. 15).
159).

【0125】同様な処理を像の左右両方の経線に対して
行い、両側の経線候補を求め、その位置を知る。これら
の経線候補の中からスリットパターン抽出処理で求めた
端点位置を通り、かつ、“左右の経線は平行である”と
いう事実を満足する、最も積算値の大きい経線候補を選
択することで、経線位置が決定される(図15のステッ
プS1510)。
A similar process is performed on both the left and right meridians of the image, meridian candidates on both sides are obtained, and their positions are known. By selecting the meridian candidate having the largest integrated value from these meridian candidates, passing through the end point position obtained by the slit pattern extraction process and satisfying the fact that "the left and right meridians are parallel", The position is determined (step S1510 in FIG. 15).

【0126】ここで本具体例で説明した線の抽出方法で
は、抽出される線はディジタル直線(方程式で直線を表
現した場合には線の位置は実数空間上に定義されるが、
ディジタル直線の場合は線の位置は画素の大きさに量子
化された位置になる)である。そして、ディジタル直線
であるがため、「スリットパターン抽出処理で求めた端
点位置を通る」線を選択するという処理は、実際には、
「抽出したディジタル直線と求めた端点位置の距離が予
め決めた面素数(例えば2画素以内などと決めておく)
より小さい線を選択する」、ということになる。
In the line extraction method described in this embodiment, the line to be extracted is a digital straight line (when a straight line is expressed by an equation, the position of the line is defined in a real space.
In the case of a digital straight line, the position of the line is a position quantized to the pixel size.) And since it is a digital straight line, the process of selecting a line “passing through the end point position obtained by the slit pattern extraction process” is actually
"The distance between the extracted digital straight line and the calculated end point position is a predetermined surface prime number (for example, determined to be within 2 pixels)
Select a smaller line. "

【0127】〔経線当てはめ処理(ステップS25)〕
以上のような手統きでモデルの経線が求められると、図
2のステップS23の端点位置当てはめ処理のところで
説明した方法を用いて、認識対象モデルの3次元的な位
置と姿勢を経線に当てはまるように修正する(経線当て
はめ処理;ステップS25)。
[Meridian Fitting Process (Step S25)]
When the meridians of the model are obtained by the above-described maneuver, the three-dimensional position and orientation of the recognition target model are applied to the meridians using the method described in the end point position fitting process in step S23 in FIG. (Meridian fitting process; step S25).

【0128】ここまでの処理で、モデルの見え方の5種
の変化要素のうち、3つ分の変化要素が決まる。そし
て、残されたパラメータは“中心の軸方向の位置”と、
“奥行き方向の回転角”の2種となる(5種の見え方の
変化要素については、図12の説明図を参照)。
By the processing so far, three change elements out of the five kinds of change elements of the appearance of the model are determined. The remaining parameters are "position of the center in the axial direction",
There are two types of “rotation angle in the depth direction” (for the five types of appearance change factors, see the explanatory diagram of FIG. 12).

【0129】〔特徴線の当てはめ処理(ステップS2
6)〕次に特徴線当てはめ手段6による処理である図2
のステップS26での特徴線当てはめ処理に移る。図1
6は、特徴線の当てはめ処理の処理手順を示している。
[Characteristic Line Fitting Process (Step S2)
6)] Next, FIG. 2 showing processing by the characteristic line fitting means 6
The process proceeds to the feature line fitting process in step S26. FIG.
6 shows a processing procedure of the characteristic line fitting processing.

【0130】本具体例では碍子を認識対象として説明し
ているが、碍子の場合、特徴線は塗色帯の上下にある線
である。塗色帯は碍子の胴体を周回するように塗られて
いるので、面面中では楕円形状に投影される。この特徴
線の当てはめ処理により、モデル投影像の上下の楕円状
の輪郭線を画像中のエッジ抽出結果に当てはめる処理と
照合の処理が行われる。ステップS26での当てはめ
は、前ステップまでの処理で残された2種のパラメータ
を決めるための処理である。
In this specific example, the insulator is described as an object to be recognized. In the case of the insulator, the characteristic lines are lines above and below the colored band. Since the painted band is painted around the body of the insulator, it is projected in an elliptical shape on the surface. By this feature line fitting process, a process of fitting upper and lower elliptical contour lines of the model projection image to an edge extraction result in the image and a matching process are performed. The fitting in step S26 is processing for determining two types of parameters left in the processing up to the previous step.

【0131】つまり、残された2種のパラメータ(求ま
っていない2種のパラメータ)は、“円柱形状物体の中
心軸の方向の位置”と、“奥行き方向の回転角”であ
り、これらの2種のパラメータに応じてさまざまな種類
のモデル投影像を生成し、当てはまり検証を行うこと
で、当該2種のパラメータを決めることができる。
That is, the remaining two parameters (two parameters that have not been determined) are “the position of the columnar object in the direction of the central axis” and “the rotation angle in the depth direction”. The two types of parameters can be determined by generating various types of model projection images according to the types of parameters and performing the verification of the fit.

【0132】処理の具体的内容は次の通りである。認識
対象モデルは、この2種のパラメータに応じてモデル位
置と姿勢を変化させる。第1は、円柱形状物体の軸方向
の並進移動である。物体の軸方向は、端点位置当てはめ
処理の部分で説明したのと同様にして、物体中心を通り
カメラ光軸に垂直な平面Q′を求め、その平面に対する
物体の一軸の投影をとることにより求められる。第2
は、奥行き方向の回転であり、この回転軸は、前述の平
面Q′上にあり、物体中心を通り前記並進方向に垂直な
軸として設定される。
The specific contents of the processing are as follows. The recognition target model changes the model position and orientation according to the two parameters. The first is an axial translation of a cylindrical object. The axial direction of the object is obtained by obtaining a plane Q 'passing through the center of the object and perpendicular to the camera optical axis and projecting one axis of the object to the plane in the same manner as described in the end point position fitting process. Can be Second
Is the rotation in the depth direction, and this rotation axis is set on the plane Q ′ described above and passes through the center of the object and is set as an axis perpendicular to the translation direction.

【0133】これら2種のパラメータを2次元的に変化
させて、モデル投影像と画像特徴との当てはまり検証を
行い、最適な当てはめ位置と角度を求める。パラメータ
の変化範囲と、分割数は以下のようにして設定する。パ
ラメータの変化範囲は認識対象物体の投影像が存在し得
る全ての領域である。実際には物体の存在する姿勢や位
置はある範囲で仮定できる場合が多い。例えば、極端に
上や下からカメラが物体を撮影することが無いならば、
回転角は180度の範囲に存在領域を限定することがで
きる。
By changing these two parameters two-dimensionally, the fit between the model projection image and the image feature is verified, and the optimum fit position and angle are obtained. The parameter change range and the number of divisions are set as follows. The parameter change range is the entire area where the projected image of the recognition target object can exist. In practice, it is often possible to assume the posture and position where the object exists within a certain range. For example, if the camera never shoots an object from above or below,
The existence region can be limited to a rotation angle of 180 degrees.

【0134】また、カメラが物体を“見上げている”
か、“見下ろしている”か、“ほぼ横方向から見てい
る”かの区別ができるのならば、せいぜい90度の範囲
に変化領域を設定すれば十分である。
The camera is "looking up" at an object.
If it is possible to distinguish between "looking down" and "looking substantially from the side", it is sufficient to set the change area within a range of at most 90 degrees.

【0135】一方、物体の軸方向の位置は画面中からは
み出した領域まで位置を変化させる必要は無く、画面の
大きさによって変化範囲を限定できる。以上のように、
これら2種のパラメータは変化範囲を限定できるもので
ある。パラメータの分割数は画像中の投影像の位置変化
が1画素未満になるように設定すれば良い。それより細
かい位置や姿勢の変化は、画像中の当てはめに関係しな
い。従って、分割数は有限個に限定することができる。
On the other hand, it is not necessary to change the position of the object in the axial direction to an area protruding from the screen, and the change range can be limited by the size of the screen. As mentioned above,
These two parameters can limit the range of change. The number of divisions of the parameter may be set so that the change in the position of the projected image in the image is less than one pixel. Finer changes in position and orientation are not related to the fit in the image. Therefore, the number of divisions can be limited to a finite number.

【0136】以上より、パラメータの変化範囲と分割数
は決まるので、それら2種のパラメータについて全ての
組み合わせでモデル投影像を生成し、当てはめ検証を行
う。当てはめ検証は次のようにする。当てはめ検証には
判断の尺度が必要となるがここでは以下のような尺度を
採用する。
As described above, since the parameter change range and the number of divisions are determined, a model projection image is generated for all combinations of these two parameters, and fitting verification is performed. The fitting verification is performed as follows. A criterion for judgment is required for the fitting verification. Here, the following criterion is adopted.

【0137】いま、モデル投影像の外輪郭線上の画素位
置が{Ci(cix,ciy)}i=1,2,…,Mで
あるとする。また、画素位置(cix,clx)のエッ
ジ強度が{E(cix,ciy)}i=1,2,…Mで
あるとする。このとき、当てはめ尺度を次式で定義す
る。
Now, it is assumed that the pixel positions on the outer contour line of the model projection image are {Ci (cix, ciy)} i = 1, 2,..., M. Further, it is assumed that the edge intensity at the pixel position (cix, clx) is {E (cix, ciy)} i = 1, 2,. At this time, the fitting scale is defined by the following equation.

【0138】[0138]

【数6】 (Equation 6)

【0139】すなわち、エッジ強度の値をそのまま積算
して、その値が高いものほど良く当てはまっていると判
断するのである。この当てはめ尺度の積算は、モデル投
影像生成手段7から送信されたモデルの外輪郭線全体の
画素に対して行っても良いが、このステップS26では
本具体例の場合、楕円形状の輪郭線だけに注目している
ことから、楕円形状の輪郭線だけに対して、当てはめ尺
度の積算を行うことも可能である。
That is, the values of the edge intensities are integrated as they are, and the higher the value is, the better the judgment is made. This integration of the fitting scale may be performed on the pixels of the entire outer contour line of the model transmitted from the model projection image generating means 7. However, in this step S26, only the elliptical contour line is used. Therefore, it is also possible to perform the integration of the fitting scale only on the elliptical outline.

【0140】また、エッジ強度を積算する面素を、式
(17)に示すように、モデル投影像の外輪郭線の画素
位置だけでなく、例えば、外輪郭線の画素位置から1画
素以内の近傍領域(つまり、当該画素の上下左右の4画
素と斜め位置の関係になる4面素、当該面素を含めて9
画素分の領域)のエッジ積算値を積算するようにしても
良い。
Further, as shown in equation (17), the surface element for integrating the edge strength is determined not only by the pixel position of the outer contour line of the model projection image but also by a pixel within one pixel from the pixel position of the outer contour line. Neighboring region (that is, four pixels in an oblique position with respect to the four pixels at the top, bottom, left and right of the pixel,
The edge integration value of the pixel area may be integrated.

【0141】このように、近傍領域の値も積算すると、
装置が保有するモデルと実際の認識対象の大きさや、形
の僅かな違いや、画像のボケに対応できるようになる。
以上の手続きを、特徴線の当てはめ処理の処理手順であ
る図16のフローチャートに従って説明する。まず、当
てはめ試行する2種のパラメータの範囲と分割数を決め
る。この範囲で認識対象モデルの投影像を生成した時に
画像中に特徴線(本具体例の場合は帯線)が現われる領
域を算出する。これはパラメータの最大値と最小値の組
合せでそれぞれ投影像を作り、それらの投影像が含まれ
るような大きめの領域を設定すれば良い(ステップS1
61)。
As described above, when the values of the neighboring areas are also integrated,
It is possible to deal with slight differences in the size and shape of the model held by the apparatus and the actual recognition target, and blurring of the image.
The above procedure will be described with reference to the flowchart of FIG. 16, which is a processing procedure of the characteristic line fitting processing. First, the range and the number of divisions of the two parameters to be subjected to the fitting are determined. When a projection image of the recognition target model is generated in this range, a region where a characteristic line (a band in this specific example) appears in the image is calculated. In this case, projection images are respectively formed by combinations of the maximum value and the minimum value of the parameter, and a large area that includes the projection images may be set (step S1).
61).

【0142】次に、その領域内部にエッジ抽出処理を施
す。この場合のエッジ抽出は、図15で説明した経線抽
出処理のステップS151と違って、方向指向性を持た
ないエッジ抽出処理を行なう。例えばラプラシアン・ガ
ウシアンフィルタを用いれば良い(ステップ162)。
Next, edge extraction processing is performed on the inside of the area. In the edge extraction in this case, unlike step S151 of the meridian extraction process described with reference to FIG. 15, an edge extraction process having no directionality is performed. For example, a Laplacian-Gaussian filter may be used (step 162).

【0143】次に、変化させる2種のパラメータのうち
の一つ“奥行き方向の回転角”(チルト角)を変化領域
内の1つの値として設定する(ステップS163)。さ
らに、もう一方のパラメータの“円柱形状物体の中心軸
の方向の位置”(軸方向の位置)を設定する(ステップ
S164)。
Next, one of the two parameters to be changed, “the rotation angle in the depth direction” (tilt angle), is set as one value in the change area (step S163). Further, the other parameter "position in the direction of the central axis of the cylindrical object" (position in the axial direction) is set (step S164).

【0144】設定したパラメータに基づき、認識対象モ
デルの輪郭投影像を生成する(ステップS165)。式
(17)に基づいて、特徴線上の(本実施例の場合は楕
円部の輪郭線の)エッジ強度を積算する(ステップS1
66)。この当てはめ尺度を、経線抽出処理で行なった
のと同様に2次元配列に記憶する(ステップS16
7)。
A contour projection image of the recognition target model is generated based on the set parameters (step S165). Based on the equation (17), the edge strength on the characteristic line (of the contour line of the elliptical portion in the present embodiment) is integrated (step S1).
66). This fitting measure is stored in a two-dimensional array in the same manner as in the meridian extraction processing (step S16).
7).

【0145】2つのパラメータの変化範囲全体の当ては
め尺度の計算が終了したら、2次元的に記憶されたエッ
ジ強度の積算値から、2次元的な局所的極大値の位置を
選択する(ステップS1610)。
When the calculation of the fitting scale for the entire change range of the two parameters is completed, the position of the two-dimensional local maximum is selected from the integrated value of the edge strength stored two-dimensionally (step S1610). .

【0146】そして、この局所的極大値のチルト角と軸
方向の位置を逆算し、これを最も良く当てはまったチル
ト角と軸方向の位置とする(ステップS1611)。以
上の手続きにより、認識対象モデルの3次元的な位置と
姿勢を求めたことになり、図2のステップS26の処理
は終了する。
Then, the tilt angle of the local maximum value and the position in the axial direction are calculated backward, and this is set as the tilt angle and the axial position best applied (step S1611). With the above procedure, the three-dimensional position and orientation of the recognition target model have been obtained, and the processing in step S26 in FIG. 2 ends.

【0147】〔出力処理(ステップS27)〕このよう
にして、図2のステップS26の処理である特徴線の当
てはめ処理による最適な位置と姿勢の選択が終わると、
次に出力処理であるステップS27の処理を行うことに
よって、最終的な認識結果を結果出力手段8が出力し、
全体の処理が終了する。
[Output Processing (Step S27)] As described above, when the selection of the optimum position and orientation by the characteristic line fitting processing of step S26 in FIG. 2 is completed,
Next, by performing the process of step S27, which is an output process, the result output unit 8 outputs the final recognition result,
The whole process ends.

【0148】以上、本発明の詳細を説明したが、要する
に本発明は、認識対象を撮像する撮像手段から得られる
画像の画像特徴と、用意した前記認識対象の3次元モデ
ルの投影像を比較し、その当てはまりの程度を検証し
て、この検証結果に応じ前記モデルの位置姿勢を逐次修
正して得た投影像と前記画像特徴とを再び照合して当て
はまりの程度を検証し、最も良く当てはまる投影像を求
めてその求めた最も良く当てはまる投影像から前記認識
対象の位置と姿勢の情報を求めることにより、認識対象
物体の3次元的な位置と姿勢を認識するようにしたもの
である。
The details of the present invention have been described above. In short, the present invention compares the image characteristics of the image obtained from the image pickup means for picking up the recognition target with the projection image of the prepared three-dimensional model of the recognition target. The degree of fit is verified, and the projected image obtained by sequentially correcting the position and orientation of the model according to the verification result is again compared with the image feature to verify the degree of fit, and the best fit projection is obtained. The three-dimensional position and orientation of the recognition target object are recognized by obtaining information on the position and posture of the recognition target from the projected image that best fits the obtained image.

【0149】具体的には特定形状の認識対象物体を撮像
した画像から、スリットパターン抽出手段、経線抽出手
段、特徴線当てはめ手段などで、その認識対象物体の画
像特徴を抽出し、また、モデル投影像生成手段は、保有
している前記特定形状の認識対象物体の3次元モデルを
用いて、この3次元モデルの投影像を算出すると共に、
当てはまり判断手段の判別した当てはまり程度に基づい
て3次元モデルの3次元的な位置と姿勢を修正して前記
認識対象物体と比較照合するための投影像を得る。
More specifically, the image feature of the object to be recognized is extracted from an image of the object to be recognized having a specific shape by slit pattern extracting means, meridian extracting means, characteristic line fitting means, and the like. The image generating means calculates a projection image of the three-dimensional model using the held three-dimensional model of the recognition target object having the specific shape,
The three-dimensional position and orientation of the three-dimensional model are corrected based on the degree of fit determined by the fit determining means to obtain a projection image for comparison and collation with the recognition target object.

【0150】また、抽出の困難な輪郭線に関してはスリ
ット光を照射し、そのスリットパターンの形状から、ス
リットパターンに交差する輪郭線の位置を抽出すること
で、安定かつ確実にその輪郭線の位置を抽出する。
Further, for a contour line that is difficult to extract, a slit light is irradiated, and the position of the contour line that intersects the slit pattern is extracted from the shape of the slit pattern. Is extracted.

【0151】前記モデル投影像生成手段は、スリットパ
ターン抽出手段の抽出結果にしたがって3次元モデルの
位置と姿勢を修正し、経線抽出手段の抽出結果にしたが
って3次元モデルの位置と姿勢を修正し、特徴線当ては
め手段に3次元モデルの各種の位置と姿勢の投影像を送
信し、最良の当てはめ程度に判別された3次元モデルの
位置と姿勢の情報を得て出力する。
The model projection image generation means corrects the position and orientation of the three-dimensional model according to the extraction result of the slit pattern extraction means, and corrects the position and orientation of the three-dimensional model according to the extraction result of the meridian extraction means. The projection images of the various positions and postures of the three-dimensional model are transmitted to the feature line fitting means, and information on the position and posture of the three-dimensional model determined to have the best fit is obtained and output.

【0152】このように、認識対象を撮像した画像情報
を得て、この画像情報から得られる画像の画像特徴を抽
出し、この抽出した画像特徴を、用意した前記認識対象
の3次元モデルの投影像と比較して、その当てはまりの
程度を検証し、前記モデルの位置と姿勢を逐次修正し
て、最も良く当てはまる投影像を求め、その求めた最も
良く当てはまる投影像から位置と姿勢を求めるようにし
て、認識対象物体の3次元的な位置と姿勢を認識するよ
うにした。
As described above, the image information obtained by capturing the recognition target is obtained, the image features of the image obtained from the image information are extracted, and the extracted image features are projected onto the projection of the prepared three-dimensional model of the recognition target. In comparison with the image, the degree of the fit is verified, the position and orientation of the model are successively corrected, the best fit projection image is obtained, and the position and orientation are obtained from the best fit projection image obtained. Thus, the three-dimensional position and orientation of the recognition target object are recognized.

【0153】従って、「円柱」形状や「一般化された円
柱」形状の認識対象物体について、その位置と姿勢を画
像から測定できるようになり、自律型の作業ロボットの
実現に道が開かれる。
Therefore, the position and orientation of the object to be recognized having the “cylindrical” shape or the “generalized cylindrical” shape can be measured from the image, opening the way to the realization of an autonomous work robot.

【0154】なお、本発明は上述した具体例に限定され
るものではなく、種々変形して実施し得る。また、本発
明において実施形態に記載した手法は、コンピュータに
実行させることのできるプログラムとして、磁気ディス
ク(フロッピーディスク、ハードディスクなど)、光デ
ィスク(CD−ROM、DVDなど)、半導体メモリな
どの記録媒体に格納して頒布することもできる。
It should be noted that the present invention is not limited to the specific examples described above, but can be implemented with various modifications. In addition, the method described in the embodiments of the present invention can be executed on a recording medium such as a magnetic disk (floppy disk, hard disk, etc.), an optical disk (CD-ROM, DVD, etc.), a semiconductor memory, or the like, as a program that can be executed by a computer. It can also be stored and distributed.

【0155】[0155]

【発明の効果】以上説明したように、本発明によれば、
特定形状、例えば「円柱」形状や「一般化された円柱」
形状の認識対象物体に対して、何らマーカをつけること
なく、その認識対象物体の画像から物体の3次元的な位
置と姿勢を認識または測定することが可能であり、自律
ロボットの視覚の役割を担うことが可能になって、配電
設備などの作業のための自律ロボットの実現を可能にす
るなど、その実用的効果は多大である。
As described above, according to the present invention,
Specific shapes, such as "cylinder" shapes and "generalized cylinders"
It is possible to recognize or measure the three-dimensional position and orientation of an object from the image of the object without recognizing the shape of the object without any marker. Its practical effects are enormous, such as being able to carry on and enabling the realization of autonomous robots for operations such as power distribution facilities.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を説明するための図であって、本発明の
一具体例の全体構成を示すブロック図。
FIG. 1 is a diagram for explaining the present invention, and is a block diagram showing an entire configuration of a specific example of the present invention.

【図2】本発明を説明するための図であって、本発明シ
ステムの動作例を示すフローチャート。
FIG. 2 is a diagram for explaining the present invention, and is a flowchart showing an operation example of the system of the present invention.

【図3】本発明システムにおける処理の移り変わりの様
子を説明するための図であって、取り込んだスリットな
し画像の状態を示す模式図。
FIG. 3 is a diagram for explaining a transition of processing in the system of the present invention, and is a schematic diagram showing a state of a captured image without a slit.

【図4】本発明システムにおける処理の移り変わりの様
子を説明するための図であって、取り込んだスリット照
射画像の状態を示す模式図。
FIG. 4 is a diagram for explaining a transition of processing in the system of the present invention, and is a schematic diagram showing a state of a captured slit irradiation image.

【図5】本発明システムにおける処理の移り変わりの様
子を説明するための図であって、経線抽出処理のために
設定する経線抽出領域を付与した状態での模式図。
FIG. 5 is a diagram for explaining a transition of processing in the system of the present invention, and is a schematic diagram in a state where a meridian extraction area set for meridian extraction processing is added.

【図6】本発明システムにおける処理の移り変わりの様
子を説明するための図であって、経線抽出処理により抽
出した経線を含む状態での模式図。
FIG. 6 is a diagram for explaining a transition of processing in the system of the present invention, and is a schematic diagram including a meridian extracted by meridian extraction processing.

【図7】本発明システムにおける処理の移り変わりの様
子を説明するための図であって、最終的な当てはめ結果
の模式図。
FIG. 7 is a diagram for explaining a transition of processing in the system of the present invention, and is a schematic diagram of a final fitting result.

【図8】本発明を説明するための図であって、レーザパ
ターン抽出処理の処理手順を示すフローチャート。
FIG. 8 is a diagram for explaining the present invention, and is a flowchart showing a processing procedure of laser pattern extraction processing.

【図9】本発明を説明するための図であって、本発明シ
ステムにおけるモデル投影像生成手段の構成図。
FIG. 9 is a diagram for explaining the present invention, and is a configuration diagram of a model projection image generating unit in the system of the present invention.

【図10】本発明を説明するための図であって、本発明
システムにおけるモデルの例を示す図。
FIG. 10 is a diagram for explaining the present invention, showing an example of a model in the system of the present invention.

【図11】本発明を説明するための図であって、生成さ
れたモデル投影像の例を示す図。
FIG. 11 is a diagram for explaining the present invention, showing an example of a generated model projection image.

【図12】本発明を説明するための図であって、円柱モ
デルの見え方の5種類の変化要素の説明をする図。
FIG. 12 is a diagram for explaining the present invention, and is a diagram for explaining five types of changing factors of how a cylindrical model looks.

【図13】本発明を説明するための図であって、円柱モ
デルの奥行きを算出する方法の説明図。
FIG. 13 is a diagram for explaining the present invention, and is an explanatory diagram of a method for calculating the depth of a cylindrical model.

【図14】本発明を説明するための図であって、2次元
位置から3次元位置の変換に関する説明のための図。
FIG. 14 is a diagram for explaining the present invention, and is a diagram for explaining conversion from a two-dimensional position to a three-dimensional position.

【図15】本発明を説明するための図であって、本発明
システムにおける経線抽出処理の手順を説明するための
図。
FIG. 15 is a diagram for explaining the present invention, and for explaining a procedure of meridian extraction processing in the system of the present invention.

【図16】本発明を説明するための図であって、本発明
システムにおける特徴線の当てはめ処理の手順を説明す
るための図。
FIG. 16 is a diagram for explaining the present invention, and is a diagram for explaining a procedure of a characteristic line fitting process in the system of the present invention.

【図17】本発明を説明するための図であって、本発明
システムにおけるラベル密度計算の説明をするための模
式図。
FIG. 17 is a diagram for explaining the present invention, and is a schematic diagram for explaining label density calculation in the system of the present invention.

【図18】本発明を説明するための図であって、ラベル
に外接する凸の多角形を使用してラベル密度計算を行う
方法の説明図。
FIG. 18 is a diagram for explaining the present invention, and is an explanatory diagram of a method of performing label density calculation using a convex polygon circumscribing a label.

【符号の説明】[Explanation of symbols]

1…TVカメラ 2…スリット光照射手段 3…画像入力部 4…スリットパターン抽出手段 5…経線抽出手段 6…特徴線当てはめ手段 7…モデル投影像生成部 8…結果出力手段 91…モデル位置算出手段 92…モデルの位置及び姿勢パラメータ記憶手段 93…モデルの構造パラメータ記憶手段 94…モデルの3次元位置算出手段 95…カメラパラメータ記憶手段 DESCRIPTION OF SYMBOLS 1 ... TV camera 2 ... Slit light irradiation means 3 ... Image input part 4 ... Slit pattern extraction means 5 ... Meridian extraction means 6 ... Feature line fitting means 7 ... Model projection image generation part 8 ... Result output means 91 ... Model position calculation means 92: Model position and orientation parameter storage means 93: Model structure parameter storage means 94: Model three-dimensional position calculation means 95: Camera parameter storage means

───────────────────────────────────────────────────── フロントページの続き (72)発明者 岡本 恭一 大阪府大阪市北区大淀中1丁目1番30号 株式会社東芝関西支社内 ──────────────────────────────────────────────────続 き Continued on the front page (72) Kyoichi Okamoto, Inventor 1-1-1 Oyodonaka, Kita-ku, Osaka-shi, Osaka

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】特定形状の認識対象物体にスリット光を照
射するスリット光照射手段と、 前記特定形状の認識対象物体の画像を入力する画像入力
手段と、 前記画像入力手段から得た画像から画像処理によりスリ
ット光の投影パターンを抽出するスリットパターン抽出
手段と、 前記画像入力手段から得た画像と、スリットパターン抽
出手段から得た情報から、スリット光の投影パターンに
交差する前記認識対象物体の輪郭線を抽出する経線抽出
手段と、 前記特定形状の認識対象物体の3次元モデルを保有し、
この3次元モデルの投影像を算出すると共に、当てはま
り程度を示す情報に基づいて3次元モデルの3次元的位
置・姿勢を修正することにより前記認識対象物体との比
較照合用の投影像を得るモデル投影像生成手段と、 前記画像入力手段から得た画像から、前記認識対象物体
の画像特徴と、前記モデル投影像生成手段により得られ
た投影像を照合比較して当てはめの程度を判別し、前記
認識対象モデルの位置姿勢を修正して、前記認識対象物
体の形状から生ずる特徴線を当てはめる特徴線当てはめ
手段と、 前記当てはめ程度の最良の3次元モデル投影像の位置・
姿勢情報を、前記モデル投影像生成手段より得て出力す
る結果出力手段と、を具備することを特徴とする認識対
象物体の位置姿勢認識装置。
1. A slit light irradiating means for irradiating slit light to a specific shape recognition target object, an image input means for inputting an image of the specific shape recognition target object, and an image from an image obtained from the image input means A slit pattern extracting means for extracting a projection pattern of the slit light by processing; an image obtained from the image input means; and information obtained from the slit pattern extracting means, the contour of the object to be recognized intersecting the projection pattern of the slit light. Holding a meridian extracting means for extracting a line, and a three-dimensional model of the recognition target object having the specific shape;
A model that calculates a projection image of the three-dimensional model and corrects a three-dimensional position and orientation of the three-dimensional model based on information indicating the degree of fitting to obtain a projection image for comparison and collation with the recognition target object. Projection image generation means, From the image obtained from the image input means, the image features of the recognition target object, the projected image obtained by the model projection image generation means is compared and compared to determine the degree of fitting, A feature line fitting means for correcting the position and orientation of the recognition target model to fit a feature line generated from the shape of the recognition target object; and a position and a best three-dimensional model projection image of the fitting degree.
And a result output unit that obtains and outputs the posture information from the model projection image generation unit and outputs the position information.
【請求項2】円柱形状もしくは、円柱または円錐台をそ
の軸方向に積み重ねることによってできる形状の認識対
象物体を撮像した画像を入力する画像入力手段と、 前記特定形状の認識対象物体の軸方向に沿った方向に延
びる輪郭線に交差するように、スリット光を照射するス
リット光照射手段と、前記画像入力手段から得た画像か
ら画像処理によりスリット光の投影パターンを抽出する
スリットパターン抽出手段と、 前記画像入力手段から得た画像と、スリットパターン抽
出手段から得た情報から、スリット光の投影パターンに
交差する前記認識対象物体の輪郭線を抽出する経線抽出
手段と、前記特定形状の認識対象物体の3次元モデルを
保有し、この3次元モデルの投影像を算出すると共に、
当てはまり程度を示す情報に基づいて3次元モデルの3
次元的位置姿勢を修正して前記認識対象物体と比較照合
するための投影像を得るモデル投影像生成手段と、 前記画像入力手段から得た画像から、前記認識対象物体
の画像特徴と、前記モデル投影像生成手段により得られ
た投影像を照合比較して当てはめの程度を判別し、前記
認識対象モデル位置姿勢を修正して前記認識対象物体の
形状から生ずる特徴線を当てはめる特徴線当てはめ手段
と、 前記当てはめ程度の最良の3次元モデル投影像の位置・
姿勢情報を、前記モデル投影像生成手段より得て出力す
る結果出力手段と、を具備することを特徴とする認識対
象物体の位置姿勢認識装置。
2. An image input means for inputting an image of an object to be recognized having a cylindrical shape or a shape formed by stacking cylinders or truncated cones in the axial direction thereof; Slit light irradiating means for irradiating slit light so as to intersect with a contour extending in the direction along, a slit pattern extracting means for extracting a projection pattern of slit light by image processing from an image obtained from the image input means, Meridian extraction means for extracting a contour line of the recognition target object intersecting a projection pattern of slit light from an image obtained from the image input means and information obtained from the slit pattern extraction means; and a recognition target object having the specific shape. And a projected image of the three-dimensional model is calculated.
Based on the information indicating the degree of fit, the 3D model 3
A model projection image generating unit that obtains a projection image for correcting a three-dimensional position and orientation to compare and match with the recognition target object, an image feature of the recognition target object from an image obtained from the image input unit, and the model A feature line fitting unit that determines the degree of fitting by comparing and comparing the projection images obtained by the projection image generating unit, corrects the recognition target model position and orientation, and fits a feature line resulting from the shape of the recognition target object, The position of the best three-dimensional model projection image of the fitting degree
And a result output unit that obtains and outputs the posture information from the model projection image generation unit and outputs the position information.
【請求項3】請求項1記載の認識対象物体位置姿勢認識
装置において、 前記スリット光照射手段は、少なくとも2本の交差する
線で構成された形状のスリット光を照射する構成とする
と共に、前記スリットパターン抽出手段は、スリット光
の投影パターンに対応する画素の候補となる面素を連結
領域として分割し、各連結領域に外接する形状の面積に
対する、当該連結領域が包含する画素数の比が判断のた
めの値より、小さい値を持つ連結領域の中で、外接形状
の面積が最大の連結領域を選択することにより、スリッ
ト光の投影パターンを抽出するようにしたことを特徴と
する認識対象物体位置姿勢認識装置。
3. The apparatus for recognizing the position and orientation of a recognition target object according to claim 1, wherein said slit light irradiating means is configured to irradiate slit light having a shape constituted by at least two intersecting lines. The slit pattern extracting unit divides a surface element that is a candidate for a pixel corresponding to the projection pattern of the slit light as a connected region, and a ratio of the number of pixels included in the connected region to an area of a shape circumscribing each connected region is determined. A recognition target characterized in that a projection pattern of slit light is extracted by selecting a connection area having a maximum circumscribed shape area from connection areas having values smaller than a value for determination. Object position and orientation recognition device.
【請求項4】請求項3記載の認識対象物体位置姿勢認識
装置において、 前記スリットパターン抽出手段における前記連結領域に
外接する形状は、連結領域に外接する矩形としたことを
特徴とする認識対象物体の位置姿勢認識装置。
4. The recognition target object position / posture recognition apparatus according to claim 3, wherein a shape circumscribing the connection region in the slit pattern extracting means is a rectangle circumscribing the connection region. Position and orientation recognition device.
【請求項5】スリット光を照射してなる認識対象を撮像
した画像情報と、スリット光を照射しない前記認識対象
の画像の情報とからスリット光の照射パターンを抽出
し、前記認識対象の形状から生ずる特徴点または特徴線
の、スリット光の照射パターンに交差する位置の情報を
抽出し、その情報に基づいて用意した前記認識対象の位
置姿勢を修正し、入力した画像情報から抽出した画像特
徴と、前記認識対象の3次元モデルの投影像と比較して
当てはまりの程度を検証し、前記モデルの位置姿勢を逐
次修正して、最も良く当てはまる投影像を求め、その求
めた最も良く当てはまる投影像から位置と姿勢を求める
ようにすることにより、認識対象物体の3次元的な位置
と姿勢を認識することを特徴とする認識対象物体の位置
姿勢認識方法。
5. A slit light irradiation pattern is extracted from image information of an image of a recognition target formed by irradiating slit light and information of the image of the recognition target not irradiated with slit light. The resulting feature points or feature lines, extract the information of the position intersecting the slit light irradiation pattern, correct the position and orientation of the recognition target prepared based on the information, and extract the image features extracted from the input image information. The degree of fitting is verified by comparing with the projected image of the three-dimensional model to be recognized, and the position and orientation of the model are sequentially corrected to obtain the best fitting projected image. From the obtained best fitting projected image, A method for recognizing a position and orientation of a recognition target object, characterized by recognizing a three-dimensional position and posture of the recognition target object by obtaining the position and posture.
JP32412196A 1996-12-04 1996-12-04 Apparatus and method for recognizing position and posture of object to be recognized Pending JPH10160464A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32412196A JPH10160464A (en) 1996-12-04 1996-12-04 Apparatus and method for recognizing position and posture of object to be recognized

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32412196A JPH10160464A (en) 1996-12-04 1996-12-04 Apparatus and method for recognizing position and posture of object to be recognized

Publications (1)

Publication Number Publication Date
JPH10160464A true JPH10160464A (en) 1998-06-19

Family

ID=18162396

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32412196A Pending JPH10160464A (en) 1996-12-04 1996-12-04 Apparatus and method for recognizing position and posture of object to be recognized

Country Status (1)

Country Link
JP (1) JPH10160464A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010096515A (en) * 2008-10-14 2010-04-30 Toshiba Corp Automatic analyzer, and method for reading discrimination information attached to container in the automatic analyzer
JP2010218016A (en) * 2009-03-13 2010-09-30 Omron Corp Registration method for model data for optical recognition processing, and optical sensor
JP2011112402A (en) * 2009-11-24 2011-06-09 Omron Corp Method for displaying measurement effective area in three-dimensional visual sensor and three-dimensional visual sensor
US8447097B2 (en) 2009-03-12 2013-05-21 Omron Corporation Calibration apparatus and method for assisting accuracy confirmation of parameter for three-dimensional measurement
US8559704B2 (en) 2009-03-12 2013-10-15 Omron Corporation Three-dimensional vision sensor
US8565515B2 (en) 2009-03-12 2013-10-22 Omron Corporation Three-dimensional recognition result displaying method and three-dimensional visual sensor
JP2014002033A (en) * 2012-06-18 2014-01-09 Canon Inc Image process device and image process method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010096515A (en) * 2008-10-14 2010-04-30 Toshiba Corp Automatic analyzer, and method for reading discrimination information attached to container in the automatic analyzer
US8447097B2 (en) 2009-03-12 2013-05-21 Omron Corporation Calibration apparatus and method for assisting accuracy confirmation of parameter for three-dimensional measurement
US8559704B2 (en) 2009-03-12 2013-10-15 Omron Corporation Three-dimensional vision sensor
US8565515B2 (en) 2009-03-12 2013-10-22 Omron Corporation Three-dimensional recognition result displaying method and three-dimensional visual sensor
JP2010218016A (en) * 2009-03-13 2010-09-30 Omron Corp Registration method for model data for optical recognition processing, and optical sensor
US8654193B2 (en) 2009-03-13 2014-02-18 Omron Corporation Method for registering model data for optical recognition processing and optical sensor
JP2011112402A (en) * 2009-11-24 2011-06-09 Omron Corp Method for displaying measurement effective area in three-dimensional visual sensor and three-dimensional visual sensor
JP2014002033A (en) * 2012-06-18 2014-01-09 Canon Inc Image process device and image process method

Similar Documents

Publication Publication Date Title
CN111126304B (en) Augmented reality navigation method based on indoor natural scene image deep learning
Cop et al. Delight: An efficient descriptor for global localisation using lidar intensities
CN107766859B (en) Mobile robot positioning method and device and mobile robot
US20200279396A1 (en) Method of influencing virtual objects of augmented reality
Singh et al. Bigbird: A large-scale 3d database of object instances
JP4794708B2 (en) 3D position and orientation sensing device
CN110599546A (en) Method, system, device and storage medium for acquiring three-dimensional space data
CN110142785A (en) A kind of crusing robot visual servo method based on target detection
JP6074272B2 (en) Image processing apparatus and image processing method
CN103702607A (en) Calibration and transformation of a camera system's coordinate system
JP2004334819A (en) Stereo calibration device and stereo image monitoring device using same
CN110926330B (en) Image processing apparatus, image processing method, and program
CN111627072A (en) Method and device for calibrating multiple sensors and storage medium
JP2018060296A (en) Image processing apparatus, image processing system, and image processing method
CN102986372A (en) Picking object recognizing, classifying and space positioning device and picking object recognizing, classifying and space positioning method based on panoramic stereoscopic vision
CN109752855A (en) A kind of method of hot spot emitter and detection geometry hot spot
Yan et al. Joint camera intrinsic and lidar-camera extrinsic calibration
CN107527368B (en) Three-dimensional space attitude positioning method and device based on two-dimensional code
JP3690581B2 (en) POSITION DETECTION DEVICE AND METHOD THEREFOR, PLAIN POSITION DETECTION DEVICE AND METHOD THEREOF
KR20130114899A (en) Image sensing method using dual camera and apparatus thereof
US20220060677A1 (en) Wide viewing angle stereo camera apparatus and depth image processing method using the same
CN110796700A (en) Multi-object grabbing area positioning method based on convolutional neural network
JPH10160464A (en) Apparatus and method for recognizing position and posture of object to be recognized
Shen et al. A multi-view camera-projector system for object detection and robot-human feedback
CN107633537B (en) Camera calibration method based on projection