JPH09178426A - Position posture recognition device of object to be recognized and position posture recognition method - Google Patents
Position posture recognition device of object to be recognized and position posture recognition methodInfo
- Publication number
- JPH09178426A JPH09178426A JP7339226A JP33922695A JPH09178426A JP H09178426 A JPH09178426 A JP H09178426A JP 7339226 A JP7339226 A JP 7339226A JP 33922695 A JP33922695 A JP 33922695A JP H09178426 A JPH09178426 A JP H09178426A
- Authority
- JP
- Japan
- Prior art keywords
- image
- model
- recognition target
- projection image
- orientation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 112
- 238000012795 verification Methods 0.000 claims abstract description 75
- 238000001514 detection method Methods 0.000 claims abstract description 10
- 238000000605 extraction Methods 0.000 claims description 79
- 238000012545 processing Methods 0.000 abstract description 65
- 238000005070 sampling Methods 0.000 abstract 4
- 238000010586 diagram Methods 0.000 description 38
- 230000008569 process Effects 0.000 description 38
- 230000008859 change Effects 0.000 description 24
- 239000013598 vector Substances 0.000 description 21
- 239000012212 insulator Substances 0.000 description 17
- 238000000926 separation method Methods 0.000 description 16
- 238000004364 calculation method Methods 0.000 description 13
- 230000003287 optical effect Effects 0.000 description 12
- 230000036544 posture Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 8
- 230000010354 integration Effects 0.000 description 8
- 239000000284 extract Substances 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 6
- 238000005259 measurement Methods 0.000 description 5
- 239000003973 paint Substances 0.000 description 5
- 238000009826 distribution Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 238000004886 process control Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 229920006395 saturated elastomer Polymers 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 239000011248 coating agent Substances 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 241000894007 species Species 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、例えば知能ロボッ
ト制御などにおいて、円柱円錐状物体の作業対象やその
位置姿勢を画像により認識するための位置姿勢認識装置
および位置姿勢認識方法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a position / orientation recognizing device and a position / orientation recognizing method for recognizing a work target of a cylindrical cone-shaped object and its position / orientation by an image in, for example, intelligent robot control.
【0002】[0002]
【従来の技術】ロボット技術の発展に伴い、産業分野の
みならず、様々な分野でロボットが活躍するようになっ
た。そして、近年では、高所など危険な環境下における
設備の部品交換、保守などの作業をロボットに代行させ
る研究が活発に行われている。2. Description of the Related Art With the development of robot technology, robots have come to be used not only in industrial fields but also in various fields. In recent years, research has been actively conducted in which robots perform work such as parts replacement and maintenance of equipment in dangerous environments such as high places.
【0003】このような危険な環境下における設備の部
品交換、保守などの作業を行うためのロボット(危険環
境下用の作業ロボット)は、ロボットの動作制御を人間
の手による遠隔操作により行う方式が採られているが、
人手を要し、かつ、操作に熟練を要する等の扱いの面で
課題を抱えることから、当該作業ロボットにTVカメラ
を搭載し、自律的に対象物体を認識し、作業を行うこと
ができるようにする自律型作業ロボットの実現が強く望
まれている。A robot (work robot for dangerous environment) for performing work such as parts replacement and maintenance of equipment in such a dangerous environment is a system in which operation of the robot is remotely controlled by human hands. Is taken,
Since there is a problem in terms of handling, such as requiring labor and requiring skill in operation, it is possible to mount a TV camera on the work robot, autonomously recognize a target object, and perform work. There is a strong demand for the realization of autonomous work robots.
【0004】自律型作業ロボットの実現には、作業対象
の3次元的な位置および姿勢を、入力画像から画像処理
により認識する位置姿勢認識装置が不可欠である。対象
物体の形状が既知であれば、単眼視のカメラによっても
物体の位置および姿勢が測定可能であることから、単眼
視の物体認識の研究が盛んに行われている。In order to realize an autonomous work robot, a position and orientation recognition device for recognizing a three-dimensional position and orientation of a work target from an input image by image processing is indispensable. If the shape of the target object is known, the position and orientation of the object can be measured even by a monocular camera, and studies on monocular object recognition are being actively conducted.
【0005】特に人工物体には円柱状または円錐状の形
状をしたものが数多く存在し、その位置および姿勢の認
識は、自律型作業ロボットを実現するための重要な要素
である。In particular, there are many artificial objects having a columnar shape or a conical shape, and the recognition of their positions and postures is an important factor for realizing an autonomous work robot.
【0006】自律型作業ロボットの一つの利用例とし
て、例えば、電柱上の配電線工事を行なうロボットを考
えてみると、ロボットが作業を行なうために認識すべき
対象の形状は限られたものである。その中で、最も重要
な認識対象と考えられる装柱や碍子は、円柱状または円
錐状の形状である。As one application example of the autonomous work robot, for example, consider a robot that performs distribution line work on a utility pole. The shape of an object to be recognized by the robot for work is limited. is there. Among them, the pillars and insulators that are considered to be the most important recognition targets have a cylindrical or conical shape.
【0007】単眼視カメラにより撮影したこのような例
えば、電柱上の碍子の如き既知対象の画像情報に基づい
て、物体の3次元位置および姿勢を認識するための方法
としては、画像中から対象物体の形状の特徴を示す2次
元の画像特徴点を抽出し、対象物体の特徴点との対応か
ら物体の3次元位置及び姿勢を認識する手法がよく用い
られる。As a method for recognizing a three-dimensional position and orientation of an object based on image information of a known object such as an insulator on a telephone pole, which is photographed by a monocular camera, a target object is selected from the image. A method of extracting a two-dimensional image feature point indicating the feature of the shape and recognizing the three-dimensional position and orientation of the object from the correspondence with the feature point of the target object is often used.
【0008】しかしながら、特徴点を抽出して円柱また
は円錐状形状の物体を認識する場合には、対象物体が滑
らかであるため、突起物や角の点が存在せず、画像中か
ら特徴点を抽出することが困難であるという問題があ
る。However, when recognizing an object having a cylindrical or conical shape by extracting the characteristic points, the target object is smooth, so that there are no protrusions or corner points, and the characteristic points are extracted from the image. There is a problem that it is difficult to extract.
【0009】特徴点を抽出するのでなく、特徴的な直
線、あるいは特徴的な曲線を抽出し、認識対象物体との
対応に基づいて認識を行う手法もある。例えば対象物体
が円柱形状の場合は、楕円形状や平行線を抽出しその形
状から物体の認識を行う。There is also a method of extracting characteristic straight lines or characteristic curves instead of extracting characteristic points and performing recognition based on the correspondence with the recognition target object. For example, when the target object has a cylindrical shape, an elliptical shape or parallel lines are extracted and the object is recognized from the shape.
【0010】この場合正確な測定を行うためには、楕円
形状は全円周状に輪郭線が抽出されることが望ましい。
しかし、円柱形状の上下に物体が接している場合には、
全円周状の輪郭線は抽出することができず、楕円弧の一
部として抽出されることが多く、正確な位置と姿勢の測
定は困難になる。In this case, in order to perform accurate measurement, it is desirable that the contour line of the elliptical shape is extracted in the entire circumference.
However, if objects are in contact with the top and bottom of the cylinder,
It is not possible to extract the contour line of the entire circumference, but it is often extracted as a part of an elliptic arc, which makes it difficult to accurately measure the position and orientation.
【0011】また円柱または円錐の両側の輪郭線は物体
固有の稜線として現れる輪郭線ではなく、遮蔽輪郭線と
呼ばれる輪郭線であり、特に対象物体領域と背景領域の
差が明確でない場合には、楕円形状の輪郭線を抽出する
画像処理をそのまま利用しても抽出は難しい。Further, the contour lines on both sides of the cylinder or the cone are not contour lines appearing as ridgelines peculiar to the object, but are contour lines called shielding contour lines. Especially, when the difference between the target object region and the background region is not clear, Even if the image processing for extracting the elliptical contour line is used as it is, the extraction is difficult.
【0012】またこれらの、特徴点および特徴線の組合
せを利用する方法では、画面中から候補となる特徴点お
よび特徴線が多数抽出されると、試みるべき組合せの数
が膨大になりやすく、処理に時間がかかるという問題が
ある。輪郭線の抽出を確実にするためには、画像処理に
より多数の候補を用意することになるため、認識対象に
無関係な候補に対しても組合せを試みる必要があり、そ
の分、処理が冗長である。[0012] In addition, in these methods using a combination of feature points and feature lines, if a large number of candidate feature points and feature lines are extracted from the screen, the number of combinations to be tried tends to be enormous, resulting in a process. There is a problem that it takes time. In order to ensure the extraction of contour lines, a large number of candidates are prepared by image processing, so it is necessary to try combinations even for candidates that are unrelated to the recognition target, and the processing is redundant accordingly. is there.
【0013】円柱形状に対象を限定して物体を認識する
ための方法として、特公平6−56287号公報(後
藤:円柱形状物の位置検出装置)や特公平6−4817
3号公報(稲本:円筒計測方法)に示される技術が既に
知られている。As a method for recognizing an object by limiting an object to a cylindrical shape, Japanese Patent Publication No. 6-56287 (Goto: Position detecting device for cylindrical object) and Japanese Patent Publication No. 6-4817.
The technique disclosed in Japanese Patent Publication No. 3 (Inamoto: Cylindrical measurement method) is already known.
【0014】これらの方法では、対象物体に対し画像処
理に適した特徴を人為的に与えることによって、処理を
容易にしている。例えば、特公平6−56287号公報
に示される円柱形状物の位置検出の技術は、能動的な照
明を投射することによって影を生成し、投影像の条件を
限定する方法であり、特公平6−48173号公報に示
される円筒計測技術は、対象にマーカを塗装する方法で
ある。In these methods, the processing is facilitated by artificially giving the target object a characteristic suitable for image processing. For example, the technique for detecting the position of a cylindrical object disclosed in Japanese Patent Publication No. 6-56287 is a method of generating a shadow by projecting active illumination and limiting conditions of a projected image. The cylinder measuring technique disclosed in Japanese Patent Publication No. 48173 is a method of coating a marker on an object.
【0015】しかしながら、自律型作業ロボットにおい
て要求される物体の3次元的な位置及び姿勢を認識させ
るための技術としては、自然な環境下で撮影された画像
に対してその認識が行えるものであることが望ましく、
また対象には人為的に手を加えないようにする方が望ま
しい。However, as a technique for recognizing the three-dimensional position and orientation of an object required by an autonomous work robot, it is possible to recognize the image taken in a natural environment. Desirable,
In addition, it is desirable not to artificially modify the subject.
【0016】物体の3次元位置及び姿勢を認識する他の
手法としては、投影像を図形としてとらえ、図形的なパ
ターンマッチング手法を応用する方法がある。この場
合、対象物体の投影像の形状と、予め記憶されている対
象物体の見え方のパターンとを比較することによって、
物体の位置と姿勢を認識する。As another method for recognizing the three-dimensional position and orientation of an object, there is a method of capturing a projected image as a figure and applying a pattern matching method in a figure. In this case, by comparing the shape of the projected image of the target object with the pattern of the appearance of the target object stored in advance,
Recognize the position and orientation of an object.
【0017】しかしながら、円柱または円錐形状の物体
が3次元的に自由に位置と姿勢が変化できる場合は、対
象の見え方にはつぎの5種の変化要素がある。すなわ
ち、“大きさ”、“画面上の傾き”、“奥行き方向の傾
き”、“中心の軸方向の位置”、“中心の軸と垂直方向
の位置”の計5種の変化要素である。そして、全ての変
化要素を考慮すると見え方のパターンは無限であるた
め、図形的なパターンマッチング手法を用いる場合は、
大きさを固定する、あるいは、奥行き方向の回転を固定
するなどの方法で、用意するパターンを制限する必要が
あった。However, when an object having a cylindrical or conical shape can freely change its position and orientation in a three-dimensional manner, the appearance of the object has the following five types of change elements. That is, there are a total of five types of change factors: “size”, “inclination on the screen”, “inclination in the depth direction”, “position in the center axis direction”, and “position in the direction perpendicular to the center axis”. And, considering all the changing elements, the pattern of appearance is infinite, so when using the graphical pattern matching method,
It was necessary to limit the prepared pattern by fixing the size or fixing the rotation in the depth direction.
【0018】[0018]
【発明が解決しようとする課題】自律型作業ロボットを
実現するためには、ロボット自身がとらえた画像から物
体の3次元的な位置及び姿勢を認識させて、その情報を
もとに必要な制御を実施する構成とすることが考えられ
るが、物体の3次元的な位置及び姿勢を認識させるため
の技術としては、自然な環境下で撮影された画像に対し
てその認識が行えるものであることが望ましい。In order to realize an autonomous work robot, the three-dimensional position and orientation of an object are recognized from an image captured by the robot itself, and necessary control is performed based on the information. However, the technique for recognizing the three-dimensional position and orientation of the object is to be able to recognize an image taken in a natural environment. Is desirable.
【0019】このような条件に当てはまる手法として
は、投影像を図形としてとらえ、図形的なパターンマッ
チング手法を応用する方法があるが、この場合、対象物
体の投影像の形状と、予め記憶されている対象物体の見
え方のパターンとを比較することによって、物体の位置
と姿勢を認識することから、用意しなければならない対
象物体の見え方のパターンは無限になり、現実性に乏し
い。そこで、条件を限定することになるが、それでは実
際の応用ができなくなる。As a method applicable to such a condition, there is a method of capturing a projected image as a figure and applying a pattern matching method in a graphic form. In this case, the shape of the projected image of the target object is stored in advance. Since the position and orientation of the object are recognized by comparing the appearance pattern of the target object that is present, the pattern of the appearance of the target object that must be prepared becomes infinite, which is not realistic. Therefore, the conditions will be limited, but it will not be practically applicable.
【0020】すなわち、円柱または円錐形状の物体に絞
って、パターンマッチング手法を適用することを考えて
みても、円柱または円錐形状の物体が3次元的に自由に
位置と姿勢が変化できる場合は、対象の見え方には、
“大きさ”、“画面上の傾き”、“奥行き方向の傾
き”、“中心の軸方向の位置”、“中心の軸と垂直方向
の位置”の計5種の変化要素があり、これら全ての変化
要素を考慮すると見え方のパターンは無限であるため、
図形的なパターンマッチング手法を用いる場合は、大き
さを固定する、あるいは、奥行き方向の回転を固定する
などの方法で、用意するパターンを制限することにな
る。しかし、このような制限を加えると、実際のロボッ
トがとらえる画像は、このような枠に縛られてはいない
から、パターン照合しても合うことが少なくなり、実質
的に利用できないことになる。That is, even when considering applying the pattern matching method to a cylindrical or conical object, if the cylindrical or conical object can freely change its position and orientation three-dimensionally, To see the subject,
There are a total of five types of change factors: “size”, “screen tilt”, “depth tilt”, “center axis position”, and “center axis vertical position”. The pattern of appearance is infinite considering the changing elements of
When the graphic pattern matching method is used, the prepared pattern is limited by fixing the size or fixing the rotation in the depth direction. However, if such a restriction is added, the image captured by the actual robot is not bound to such a frame, and therefore the pattern matching is less likely to occur, and the image cannot be practically used.
【0021】作業ロボットとして、特定部品の着脱等の
ように、用途を特定したロボットの場合、扱う対象物の
形状は決まったものでよく、特に人工的な製造物を対象
とする場合、円柱または円錐形状のものが、その位置と
姿勢をカメラ画像から測定できれば自律型作業ロボット
の実現が夢ではなくなる。In the case of a robot whose purpose is specified such as attachment and detachment of specific parts as the work robot, the shape of the object to be handled may be fixed, and particularly when targeting an artificial product, a cylinder or If a cone-shaped object can measure its position and orientation from camera images, realizing an autonomous work robot is not a dream.
【0022】そこで、この発明の目的とするところは、
円柱または円錐、円錐台形状物体について、その位置と
姿勢をカメラ画像から測定できるようにした位置姿勢認
識装置および位置姿勢認識方法を提供することにある。Therefore, the object of the present invention is to
A position / orientation recognizing apparatus and a position / orientation recognizing method capable of measuring the position and orientation of a cylinder, a cone, or a truncated cone-shaped object from a camera image.
【0023】[0023]
【課題を解決するための手段】上記目的を達成するため
に本発明は、特定形状の認識対象物体を撮像した画像を
入力する入力手段と、前記特定形状の認識対象物体の3
次元モデルを保有し、この3次元モデルの投影像を算出
すると共に、当てはまり程度の情報に基づいて3次元モ
デルの3次元的位置姿勢を修正して前記認識対象物体と
比較照合するための投影像を得るモデル投影像生成手段
と、前記入力手段から得た画像から、また前記モデル投
影像生成手段にて得た投影像からその認識対象物体の画
像特徴を抽出する画像特徴抽出手段と、この画像特徴抽
出手段により得られた認識対象物体の画像特徴と、前記
モデル投影像生成手段により得られた投影像を照合比較
して当てはまりの程度を判別し、前記当てはまり程度を
示す情報を得る当てはまり判断手段と、この当てはまり
判断手段の判別した前記当てはまり程度の最良の3次元
モデル投影像の位置・姿勢情報を、前記モデル投影像生
成手段より得て出力する出力手段とを具備することを特
徴とする。In order to achieve the above object, the present invention provides an input means for inputting an image of an object to be recognized having a specific shape, and an object to be recognized having the specific shape.
A projection image for holding a three-dimensional model, calculating a projection image of this three-dimensional model, correcting the three-dimensional position and orientation of the three-dimensional model based on the information on the degree of fitting, and comparing and collating with the recognition target object. Model projection image generating means, image feature extracting means for extracting image features of the recognition target object from the image obtained from the input means, and from the projection image obtained by the model projection image generating means, and this image A fit determination means for determining the degree of fit by comparing and comparing the image feature of the recognition target object obtained by the feature extraction means with the projection image obtained by the model projection image generation means, and obtaining information indicating the degree of fit. And the model projection image generation means obtains the position / orientation information of the best three-dimensional model projection image of the degree of fit determined by the fit determination means. Characterized by comprising an output means for.
【0024】また、特定形状の認識対象物体を撮像した
画像を入力する入力手段と、前記特定形状の認識対象物
体の3次元モデルを保有し、この3次元モデルの投影像
を算出すると共に、当てはまり程度の情報に基づいて3
次元モデルの3次元的位置姿勢を修正して前記認識対象
物体と比較照合するための投影像を得るモデル投影像生
成手段と、前記入力手段から得た画像から、また前記モ
デル投影像生成手段にて得た投影像からその認識対象物
体の画像特徴を抽出する画像特徴抽出手段と、この画像
特徴抽出手段により得られた認識対象物体の画像特徴か
ら直線情報を抽出する手段と、前記画像特徴抽出手段に
より得られた認識対象物体の画像特徴のうち、前記直線
検出手段の検出した直線部の情報と、前記モデル投影像
生成手段により得られた投影像を照合比較して当てはま
りの程度を判別し、前記当てはまり程度を示す情報を得
る当てはまり判断手段と、この当てはまり判断手段の判
別した前記当てはまり程度の最良の3次元モデル投影像
の位置・姿勢情報を、前記モデル投影像生成手段より得
て出力する出力手段とを具備することを特徴とする。Further, input means for inputting an image of an object to be recognized having a specific shape and a three-dimensional model of the object to be recognized having the specific shape are held, and a projection image of this three-dimensional model is calculated and is applicable. 3 based on degree information
A model projection image generation means for correcting the three-dimensional position and orientation of the three-dimensional model to obtain a projection image for comparison and collation with the recognition target object; and an image obtained from the input means, and to the model projection image generation means. Image feature extraction means for extracting the image feature of the recognition target object from the obtained projection image, means for extracting straight line information from the image feature of the recognition target object obtained by the image feature extraction means, and the image feature extraction Among the image characteristics of the recognition target object obtained by the means, the information of the straight line portion detected by the straight line detection means and the projection image obtained by the model projection image generation means are collated and compared to determine the degree of fitting. , Fit determination means for obtaining information indicating the fit degree, and position / orientation information of the best three-dimensional model projected image of the fit degree determined by the fit determination means , Characterized by comprising an output means for outputting the obtained from the model projection image generation means.
【0025】[0025]
【発明の実施の形態】本発明では、認識対象を撮像する
撮像手段から得られる画像の画像特徴と、用意した前記
認識対象の3次元モデルの投影像を比較し、その当ては
まりの程度を検証して、この検証結果に応じ前記モデル
の位置姿勢を逐次修正して得た投影像と前記画像特徴と
を再び照合して当てはまりの程度を検証し、最も良く当
てはまる投影像を求めて、その求めた最も良く当てはま
る投影像から前記認識対象の位置と姿勢の情報を求める
ことにより、認識対象物体の3次元的な位置と姿勢を認
識する。BEST MODE FOR CARRYING OUT THE INVENTION In the present invention, the image feature of an image obtained from an image pickup means for picking up a recognition target is compared with the prepared projection image of a three-dimensional model of the recognition target to verify the degree of fitting. Then, the projection image obtained by sequentially correcting the position and orientation of the model according to the verification result and the image feature are collated again to verify the degree of fit, and the projection image that best fits is obtained and obtained. The three-dimensional position and orientation of the recognition target object is recognized by obtaining information on the position and orientation of the recognition target from the projection image that best fits.
【0026】具体的には、画像特徴抽出手段は特定形状
の認識対象物体を撮像した画像からその認識対象物体の
画像特徴を抽出する。また、モデル投影像生成手段は、
保有している前記特定形状の認識対象物体の3次元モデ
ルを用いて、この3次元モデルの投影像を算出すると共
に、当てはまり判断手段の判別した当てはまり程度に基
づいて3次元モデルの3次元的位置姿勢を修正して前記
認識対象物体と比較照合するための投影像を得る。そし
て、当てはまり判断手段は、前記画像特徴抽出手段によ
り得られた認識対象物体の画像特徴と、前記モデル投影
像生成手段により得られた投影像を照合比較して当ては
まりの程度を判別する。Specifically, the image feature extracting means extracts the image feature of the recognition target object from the image of the recognition target object having the specific shape. Further, the model projection image generation means,
The projection image of this three-dimensional model is calculated using the held three-dimensional model of the recognition target object of the specific shape, and the three-dimensional position of the three-dimensional model is calculated based on the degree of fitting determined by the fitting determining means. A projection image for correcting the posture and comparing and collating with the recognition target object is obtained. Then, the fit determination means compares the image feature of the recognition target object obtained by the image feature extraction means with the projection image obtained by the model projection image generation means to determine the degree of fit.
【0027】そして、出力手段は当てはまり判断手段の
判別した当てはまりの程度の判別結果のうち、当てはま
り程度の最良の3次元モデル投影像の位置・姿勢情報を
モデル投影像生成手段より得て出力する。Then, the output means obtains and outputs from the model projection image generation means the position / orientation information of the best three-dimensional model projection image of the fitting degree among the judgment results of the fitting degree judged by the fitting judgment means.
【0028】また、直線部抽出手段を設けた場合、直線
部抽出手段は、前記画像特徴抽出手段により得られた認
識対象物体の画像特徴から直線部を抽出し、当てはまり
判断手段は、この直線部の画像特徴と、前記モデル投影
像生成手段により得られた投影像を照合比較して当ては
まりの程度を判別する。Further, when the straight line portion extracting means is provided, the straight line portion extracting means extracts the straight line portion from the image feature of the recognition target object obtained by the image feature extracting means, and the fitting determining means determines the straight line portion. The image feature and the projection image obtained by the model projection image generating means are collated and compared to determine the degree of fitting.
【0029】そして、出力手段は当てはまり判断手段の
判別した当てはまりの程度の判別結果のうち、当てはま
り程度の最良の3次元モデル投影像の位置・姿勢情報を
モデル投影像生成手段より得て出力する。Then, the output means obtains and outputs from the model projection image generation means the position / orientation information of the best three-dimensional model projection image of the fitting degree among the judgment results of the fitting degree judged by the fitting judgment means.
【0030】このように、認識対象を撮像した画像情報
を得て、この画像情報から得られる画像の画像特徴を抽
出し、この抽出した画像特徴を、用意した前記認識対象
の3次元モデルの投影像と比較して、その当てはまりの
程度を検証し、前記モデルの位置姿勢を逐次修正して、
最も良く当てはまる投影像を求め、その求めた最も良く
当てはまる投影像から位置と姿勢を求めるようにするこ
とにより、認識対象物体の3次元的な位置と姿勢を認識
するようにした。In this way, the image information of the image of the recognition target is obtained, the image feature of the image obtained from this image information is extracted, and the extracted image feature is projected onto the prepared three-dimensional model of the recognition target. Compare the image, verify the degree of fit, sequentially correct the position and orientation of the model,
The three-dimensional position and orientation of the recognition target object is recognized by obtaining the projection image that best fits and obtaining the position and orientation from the obtained projection image that best fits.
【0031】従って、円柱または円錐、円錐台形状の認
識対象物体について、その位置と姿勢を画像から測定で
きるようになり、自律型の作業ロボットの実現に道が開
かれる。Therefore, it becomes possible to measure the position and orientation of an object to be recognized in the shape of a cylinder, a cone, or a truncated cone from an image, which opens the way to the realization of an autonomous work robot.
【0032】以下、本発明の具体例について、図面を参
照して説明する。Specific examples of the present invention will be described below with reference to the drawings.
【0033】(具体例1)図1は本発明の円柱状物体の
位置姿勢認識装置を適用した、円柱形状認識装置の概略
構成、及び情報の流れを示している。(Specific Example 1) FIG. 1 shows a schematic configuration of a columnar shape recognizing device to which the position / orientation recognizing device for a cylindrical object of the present invention is applied, and a flow of information.
【0034】なお、本具体例では円柱状物体の認識装置
の例について説明し、円錐状物体及び円錐台状物体の例
については具体例4で説明する。In this example, an example of a columnar object recognizing device will be described, and examples of a conical object and a truncated cone object will be described in Example 4.
【0035】まず、図1に示す本装置の構成を説明す
る。First, the configuration of the present apparatus shown in FIG. 1 will be described.
【0036】円柱形状認識用の位置姿勢認識装置は、T
Vカメラ1、画像入力部2、画像特徴抽出部3、直線検
出部4、カメラパラメータ記憶部5、モデル投影像生成
部6、当てはまり検証部7、認識処理制御部8、結果出
力部9からなる。A position / orientation recognizing device for recognizing a cylindrical shape is
The V camera 1, the image input unit 2, the image feature extraction unit 3, the straight line detection unit 4, the camera parameter storage unit 5, the model projection image generation unit 6, the fitting verification unit 7, the recognition processing control unit 8, and the result output unit 9. .
【0037】これらのうち、TVカメラ1は、認識対象
である円柱形状物体が入力されるように設置され、対象
物体の近傍領域を撮影してその撮影した像を画像信号と
して出力するものである。Of these, the TV camera 1 is installed so that a cylindrical object to be recognized is input, photographs a region near the target object, and outputs the photographed image as an image signal. .
【0038】また、画像入力部2は、TVカメラ1から
送信される画像信号をディジタル化して入力するための
ものであり、画像特徴抽出部3は、画像入力部2から得
られたディジタル画像や、あるいはモデル投影像生成部
6から得られたディジタル画像に対して、認識処理制御
部8の要求する画像領域内の画像特徴を抽出し、抽出結
果を画像保持メモリ上に保持させたり、モデル投影像生
成部6の生成するモデル投影像から画像特徴を抽出する
機能を有するものである。The image input section 2 is for digitizing and inputting the image signal transmitted from the TV camera 1, and the image feature extraction section 3 is for the digital image obtained from the image input section 2 and Alternatively, the image feature in the image area required by the recognition processing control unit 8 is extracted from the digital image obtained from the model projection image generation unit 6, and the extraction result is held in the image holding memory, or the model projection is performed. It has a function of extracting image features from the model projection image generated by the image generation unit 6.
【0039】また、直線検出部4は画像特徴抽出部3の
抽出結果から、円柱円錐形状物体の円柱軸方向の輪郭線
候補、及び円錐状物体の経線候補となる直線を検出し、
モデル投影像生成部6にその位置情報を送信する機能を
有するものであり、カメラパラメータ記憶部5は、モデ
ル投影像生成部6がモデル投影像を生成する際に必要な
TVカメラ1と画像入力部2からなるカメラ系のカメラ
・パラメータを記憶するものである。すなわち、モデル
投影像生成部6はTVカメラ1がとらえた被写体画像と
同じ位置関係を以て画面(被写体画像の画面)上にモデ
ル投影像を生成する必要があるので、その投影に必要な
演算処理のためのパラメータが必要であるが、これがカ
メラ・パラメータであり、カメラ系の3次元空間中の位
置関係を示す座標(X,Y,Z)を、画面上の投影位置
(x,y)へ移す際の投影関係を表すパラメータであ
る。Further, the straight line detecting section 4 detects straight lines which are the contour line candidates in the cylindrical axis direction of the cylindrical conical object and the meridian candidates of the conical object from the extraction result of the image feature extracting section 3,
The camera parameter storage unit 5 has a function of transmitting the position information to the model projection image generation unit 6, and the camera parameter storage unit 5 inputs the TV camera 1 and the image which are necessary when the model projection image generation unit 6 generates the model projection image. The camera parameters of the camera system including the unit 2 are stored. That is, the model projection image generation unit 6 needs to generate a model projection image on the screen (screen of the subject image) with the same positional relationship as the subject image captured by the TV camera 1, so that the calculation process necessary for the projection is performed. , Which is a camera parameter, and moves the coordinates (X, Y, Z) indicating the positional relationship in the three-dimensional space of the camera system to the projected position (x, y) on the screen. This is a parameter indicating the projection relationship at the time.
【0040】モデル投影像生成部6は、認識対象物体の
3次元モデルを保有し、カメラ・パラメータ記憶部5の
カメラ・パラメータに従い認識対象物体の投影像の姿勢
や大きさ等を近似させたモデル投影像を生成し、また、
直線検出部4の検出結果や、画像特徴抽出部3の抽出結
果と、入力画像とを、当てはまり検証部7が対比できる
ように位置合わせや画面上の傾き等を修正して修正モデ
ル投影像を生成する等の機能を有する。The model projection image generation unit 6 holds a three-dimensional model of the recognition target object, and approximates the posture, size, etc. of the projection image of the recognition target object according to the camera parameters of the camera parameter storage unit 5. Produces a projected image,
The detection result of the straight line detection unit 4, the extraction result of the image feature extraction unit 3, and the input image are corrected so that the verification unit 7 can compare the alignment and the tilt on the screen to obtain the corrected model projection image. It has functions such as generating.
【0041】当てはまり検証部7は、モデル投影像生成
部6の生成したモデル投影像と、入力画像から画像特徴
抽出部3が抽出した結果(特徴抽出像)とを比較して一
致するモデル投影像を見付ける機能を有するものであ
る。また、認識処理制御部8は、本発明の制御の中枢を
担うものであって、一連の認識処理手続き制御を行うも
のである。認識処理手続きについては後で詳述する。The fitting verification unit 7 compares the model projection image generated by the model projection image generation unit 6 with the result (feature extraction image) extracted by the image feature extraction unit 3 from the input image, and matches the model projection image. It has the function of finding. The recognition processing control unit 8 plays a central role in the control of the present invention and performs a series of recognition processing procedure control. The recognition processing procedure will be described in detail later.
【0042】結果出力部9は、当てはまり検証部7が、
モデル投影像生成部6の生成したモデル投影像と、画像
特徴抽出部3の抽出した特徴抽出像が、一致すると判定
したモデル投影像の持つ位置(3次元位置)や姿勢の情
報を、認識結果の情報として出力する機能を有するもの
である。The result output unit 9 is a fitting verification unit 7,
The model projection image generated by the model projection image generation unit 6 and the feature extraction image extracted by the image feature extraction unit 3 are the recognition results based on the position (three-dimensional position) and posture information of the model projection image determined to match. It has a function of outputting as information.
【0043】ここで、各部の詳細な構成を説明する。Here, the detailed structure of each section will be described.
【0044】TVカメラ1と画像入力部2からなるカメ
ラ入力系のカメラ・パラメータは予め測定し、カメラパ
ラメータ記憶部5に記憶する。カメラ・パラメータは、
3次元空間中の座標(X,Y,Z)から、画面上の投影
位置(x,y)への投影関係を表すパラメータである。
例えば、以下の式(1)、式(2)は12個の定数{p
i}i=1,2,…,12により、投影関係を表現して
いる。The camera parameters of the camera input system consisting of the TV camera 1 and the image input section 2 are measured in advance and stored in the camera parameter storage section 5. The camera parameters are
It is a parameter indicating the projection relationship from the coordinates (X, Y, Z) in the three-dimensional space to the projection position (x, y) on the screen.
For example, the following formulas (1) and (2) have 12 constants {p
i } i = 1, 2, ..., 12 expresses the projection relationship.
【0045】[0045]
【数1】 [Equation 1]
【0046】これらのパラメータ{pi}i=1,2,
…,12を求めるには、3次元座標が既知の点を6点以
上撮影し、その投影位置を測定して、式(1)、式
(2)を線形方程式とみなし、最小自乗法によって求め
れば良い。These parameters {p i } i = 1, 2,
..., 12 can be obtained by taking 6 or more points with known three-dimensional coordinates, measuring their projected positions, and considering equations (1) and (2) as linear equations and obtaining them by the least squares method. Good.
【0047】あるいは、カメラ位置ベクトルC(ここで
言うカメラ位置は、カメラの焦点の位置のことを示
す)、焦点距離F、カメラの光軸方向ベクトルA、画像
中心位置(x0 ,y0 )が与えられても、以下の式から
パラメータ{pi}i=1,2,…,12を求めること
ができる。Alternatively, the camera position vector C (the camera position here indicates the position of the focal point of the camera), the focal length F, the optical axis direction vector A of the camera, and the image center position (x 0 , y 0 ). Even if is given, the parameters {p i } i = 1, 2, ..., 12 can be obtained from the following expressions.
【0048】まず、カメラの光軸方向ベクトルAから、
カメラ受光素子面のX方向ベクトルU0 とY方向ベクト
ルV0 を決める。これらは、ベクトルU0 、ベクトル
A、ベクトルV0 が右手系の直交座標系となるように定
めれば良い。このときパラメータは以下の式で算出され
る。なお、以下の式ではベクトル要素については、要素
符号上に矢印のベクトル符号を付して表わす。First, from the optical axis direction vector A of the camera,
An X direction vector U 0 and a Y direction vector V 0 of the camera light receiving element surface are determined. These may be determined so that the vector U 0 , the vector A, and the vector V 0 are in the right-handed orthogonal coordinate system. At this time, the parameter is calculated by the following formula. It should be noted that in the following equations, vector elements are represented by adding an arrow vector code on the element code.
【0049】[0049]
【数2】 [Equation 2]
【0050】ここで(・,・)はベクトルの内積を示
す。Here, (.,.) Indicates the inner product of the vectors.
【0051】これらの12個のパラメータから物理的な
カメラのパラメータに変換することも容易である。カメ
ラ位置ベクトルC、焦点距離F、カメラの光軸方向ベク
トルA、画像中心位置(x0 ,y0 )は以下の式により
求めることができる。It is also easy to convert these 12 parameters into physical camera parameters. The camera position vector C, the focal length F, the optical axis direction vector A of the camera, and the image center position (x 0 , y 0 ) can be calculated by the following equations.
【0052】[0052]
【数3】 ● 本具体例では以下、カメラ・パラメータは式
(1)、式(2)の表現に基づき説明を行う。(Equation 3) In this specific example, the camera parameters will be described below based on the expressions (1) and (2).
【0053】つぎに、画像特徴抽出部3について説明す
る。Next, the image feature extraction unit 3 will be described.
【0054】画像特徴抽出部3は、画像入力部2を介し
て得られたディジタル画像に対してエッジ抽出処理を行
うことにより、入力画像をエッジ強度画像に変換し、こ
れを特徴抽出像として出力したり、あるいはモデル投影
像生成部6が生成したモデル投影像からエッジを検出し
て、これを特徴抽出像として出力したりする。ここで入
力画像をエッジ強度画像へ変換する際に、画像全体に処
理を施す必要はなく、直線検出部4や、当てはまり検証
部7が必要とする部分画像についてのみ処理を施せば良
い。The image feature extraction unit 3 converts the input image into an edge intensity image by performing edge extraction processing on the digital image obtained through the image input unit 2, and outputs this as a feature extraction image. Alternatively, the edge is detected from the model projection image generated by the model projection image generation unit 6, and this is output as a feature extraction image. Here, when converting the input image into the edge strength image, it is not necessary to perform processing on the entire image, and it is sufficient to perform processing only on the partial image required by the straight line detection unit 4 and the fitting verification unit 7.
【0055】エッジの抽出方法は、当てはまり検証部7
が当てはめようとする外輪郭線の位置と方向に合わせ
て、適切な抽出手法を適用することができる。The edge extraction method is applicable to the verification unit 7
An appropriate extraction method can be applied according to the position and direction of the outer contour line to be fitted.
【0056】例えば、円柱形状物体の円柱軸方向の輪郭
線の当てはめを試行する際には、一般に入力用のTVカ
メラ1は地面に水平な角度に取り付けられるという仮定
のもとで、画像中の縦方向のエッジを抽出することが望
まれる。この場合は、仮定した方向のエッジに指向性を
持ったエッジ抽出手法を適用すれば良い。また、例え
ば、円柱形状物体の上下の外輪郭線、すなわち楕円弧の
一部として抽出される輪郭線の当てはめを試行する際に
は、方向の指向性を持たないエッジ抽出手法を適用する
と良い。For example, when trying to fit the contour line of the cylindrical object in the direction of the cylinder axis, generally, it is assumed that the input TV camera 1 is attached to the ground at an angle horizontal to the image. It is desired to extract vertical edges. In this case, an edge extraction method having directivity may be applied to the edge in the assumed direction. Further, for example, when trying to fit the upper and lower outer contour lines of the cylindrical object, that is, the contour lines extracted as a part of the elliptic arc, it is preferable to apply an edge extraction method having no directivity in the direction.
【0057】方向のエッジに指向性を持った、エッジ抽
出手法は例えば以下の手法がある。The edge extraction method having directivity at the edge of the direction includes, for example, the following methods.
【0058】いま、円柱形状物体の画像30において、
注目している画素31に対して図7に示すように、仮定
した境界線32の左右に領域(A),(B)をとる。3
3が領域(A)、34が領域(B)である。境界線32
が画面上で傾きがある場合は、座標交換を施して、境界
線32の左側に領域(A),右側に領域(B)を設定す
れば良い。符号33を付した左側の領域(A)と、符号
34を付した右側の領域(B)の画素数は同じである必
要はない。Now, in the image 30 of the cylindrical object,
As shown in FIG. 7, regions (A) and (B) are set to the left and right of the assumed boundary line 32 for the pixel 31 of interest. 3
3 is the area (A), and 34 is the area (B). Border line 32
If there is an inclination on the screen, the coordinates may be exchanged to set the area (A) on the left side and the area (B) on the right side of the boundary line 32. The number of pixels in the left area (A) labeled with reference numeral 33 and the number of pixels in the right area (B) labeled with reference numeral 34 do not have to be the same.
【0059】ここで、図7に示すように、全領域内の画
素数をNT 、全領域内の平均輝度をmT 、全領域内の分
散をσT 、符号33で示す領域(A)内の画素数を
NA 、同じく領域(A)内の平均輝度をmA 、符号34
で示す領域(B)内の画素数をNB 、同じく領域(B)
内の平均輝度をmB 、位置iの輝度をPi とし、領域
(A),(B)間の分離度ηを次式で定義する。Here, as shown in FIG. 7, the number of pixels in the entire region is N T , the average luminance in the entire region is m T , the variance in the entire region is σ T , and the region indicated by reference numeral 33 (A). The number of pixels in the area is N A , the average luminance in the area (A) is m A , and reference numeral 34
Area indicated by the number of pixels in (B) the N B, also the region (B)
Let m B be the average luminance in the inside and P i be the luminance at the position i, and the separation degree η between the regions (A) and (B) is defined by the following equation.
【0060】[0060]
【数4】 (Equation 4)
【0061】各画素について、この分離度ηを計算し、
その値が大きい所をエッジ位置とすることにより、方向
の指向性をもったエッジ抽出手法とすることができる。This separation η is calculated for each pixel,
An edge extraction method having directivity in a direction can be performed by setting a position having a large value as an edge position.
【0062】例えば、円柱形状物体の円柱軸方向の輪郭
線のような、物体の遮蔽輪郭線の場合、領域(A),
(B)を縦方向に長い形状に設定し、分離度ηを計算す
ることによって、従来では抽出の困難であったエッジを
抽出することができるようになる。For example, in the case of a occluded contour line of an object, such as a contour line of a cylindrical object in the cylinder axis direction, the area (A),
By setting (B) to a shape that is long in the vertical direction and calculating the degree of separation η, it becomes possible to extract edges that were difficult to extract in the past.
【0063】一方、円柱形状物体の上下の輪郭線、すな
わち楕円弧の一部を抽出する場合は、方向の指向性を持
たないエッジ抽出法を用いる。例えば、図8(a),
(b)に示すようなX方向用およびY方向用の二種類の
マスクを用意し、これらのマスクを用いて注目画素に対
してのマスク演算を行い、その自乗和を計算することに
よってエッジ強度を求めることができる。On the other hand, when extracting the upper and lower contour lines of a cylindrical object, that is, a part of an elliptic arc, an edge extraction method having no directivity in the direction is used. For example, FIG.
Edge strength is calculated by preparing two types of masks for the X direction and the Y direction as shown in (b), performing a mask operation on the pixel of interest using these masks, and calculating the sum of squares thereof. Can be asked.
【0064】この場合は、X方向マスクに対するマスク
演算値と、Y方向マスクに対するマスク演算値の強度比
を利用することで、エッジの方向を求めることもでき
る。このエッジ方向の情報の使い方については、後に示
す具体例2において説明する。In this case, the edge direction can be obtained by using the intensity ratio of the mask calculation value for the X-direction mask and the mask calculation value for the Y-direction mask. How to use the information on the edge direction will be described in a specific example 2 described later.
【0065】なお、以後の説明に於いては、円柱形状物
体の円柱軸方向の外輪郭線のことを経線と表現し、画像
中の経線エッジ、画像中の経線候補、などと表現する。In the following description, the outer contour line of the cylindrical object in the cylinder axis direction will be expressed as a meridian, and will be expressed as a meridian edge in the image, a meridian candidate in the image, or the like.
【0066】直線検出部4は、画像特徴抽出部3の抽出
した特徴抽出像であるエッジ強度画像出力から認識対象
の円柱形状物体の経線候補となる直線を検出する。The straight line detector 4 detects straight lines which are candidates for the meridian of the cylindrical object to be recognized from the edge intensity image output which is the feature extraction image extracted by the image feature extractor 3.
【0067】詳しい手続きについては処理の流れの説明
の中で詳述する。Detailed procedures will be described in detail in the description of the processing flow.
【0068】モデル投影像生成部6について説明する。The model projection image generator 6 will be described.
【0069】本具体例においてはモデル投影像生成部6
は、認識対象物体の3次元モデルを例えば、図9に符号
Mを付して示すような多角柱のワイヤフレームモデルと
して保有する。この図9に示した例は、認識対象物体が
円柱状である場合に、この認識対象物体のモデルを、円
柱を正20角柱としたモデルMで近似していることを示
している。モデルMの位置情報は各頂点の3次元座標と
して保有される。In this example, the model projection image generation unit 6
Holds a three-dimensional model of the recognition target object, for example, as a wireframe model of a polygonal prism as indicated by reference numeral M in FIG. The example shown in FIG. 9 shows that when the recognition target object has a cylindrical shape, the model of the recognition target object is approximated by the model M in which the cylinder is a regular cuboid. The position information of the model M is held as three-dimensional coordinates of each vertex.
【0070】このときモデル投影像は以下の手順で算出
される。At this time, the model projection image is calculated by the following procedure.
【0071】まず、モデルの多角柱の各頂点{Pi}i
=1,2,…,Nに対して式(1)、式(2)に基づい
て、各頂点の投影位置{pi}i=1,2,...,N
を求める。次に、各頂点の投影位置の間を画像中で直線
近似することにより各辺の投影像を求める。First, each vertex {P i } i of the polygonal column of the model
= 1, 2, ..., N, the projection positions {p i } i = 1, 2 ,. . . , N
Ask for. Next, the projection image of each side is obtained by linearly approximating between the projection positions of each vertex in the image.
【0072】本具体例では、認識対象物体の外輪郭線と
モデルの投影像の外輪郭線を当てはまり照合するので、
この場合は生成されたモデル投影像から画像上の外輪郭
線を選択することによって、モデル投影像の外輪郭線を
求める。In this specific example, the outer contour line of the object to be recognized and the outer contour line of the projected image of the model are fitted and collated, so that
In this case, the outer contour line of the model projection image is obtained by selecting the outer contour line on the image from the generated model projection image.
【0073】円柱形状物体の外輪郭線を式(1)、式
(2)の投影に従って厳密に求めるには、非常に多くの
計算量を必要とするが、このように多角柱でモデルを近
似することによって、少ない計算量で円柱形状の近似輪
郭投影像を生成することができるようになる。To obtain the outer contour line of the cylindrical object exactly according to the projections of the equations (1) and (2) requires a very large amount of calculation, but the model is approximated by a polygonal cylinder in this way. By doing so, it becomes possible to generate a cylindrical approximate contour projection image with a small amount of calculation.
【0074】また、モデル投影像生成部6では、モデル
を3次元座標の情報として保有している。そのため、モ
デルを空間的に移動回転させることが容易であり、モデ
ルの見え方の5種の変化要素(図10参照)それぞれに
応じた投影像は容易に生成することができる。Further, the model projection image generating section 6 holds the model as information on three-dimensional coordinates. Therefore, it is easy to spatially move and rotate the model, and it is possible to easily generate a projected image corresponding to each of the five types of changing elements (see FIG. 10) of how the model looks.
【0075】例えば、画面上の傾きθに対応した回転を
モデルに与えるには、式(9)によって求まる視点位置
から、現在の認識対象物体の中心位置を通る3次元ベク
トルJを求めその軸まわりにθの回転を与えれば良い。For example, in order to give the model a rotation corresponding to the inclination θ on the screen, a three-dimensional vector J passing through the current center position of the object to be recognized is obtained from the viewpoint position obtained by the equation (9), and its axis is rotated. The rotation of θ should be given to.
【0076】モデルの角数を無限に近づけて行けば、各
頂点間の画面上での距離が1画素未満になる。この場合
は、画面上の当てはめに関しては、厳密な円柱モデルの
投影像と当てはめを行っていることに等しくなる。If the number of corners of the model is approached infinitely, the distance between the vertices on the screen becomes less than 1 pixel. In this case, the fitting on the screen is equivalent to fitting the projection image of a strict cylindrical model.
【0077】モデルの近似角数は、多ければ多いほど近
似の精度が上がるようになるが、反面、処理のための計
算量が増えることになり、逆に近似角数が少なければ近
似の精度が下がることになるが、計算量は減ることにな
る。そこで、これらの条件を考慮して本具体例では20
角形で近似している。但し、これに限られるものではな
いことを断っておく。As the approximate angle of the model increases, the accuracy of the approximation increases, but on the other hand, the amount of calculation for processing increases. Conversely, if the approximate angle of the model decreases, the accuracy of the approximation increases. It will decrease, but the calculation amount will decrease. Therefore, in consideration of these conditions, in this specific example, 20
It is approximated by a polygon. However, it should be noted that it is not limited to this.
【0078】以上のように、モデル投影像生成部6は、
3次元的な位置と姿勢を持ったモデルを保有し、その投
影像を入力系のカメラ・パラメータに従って生成するた
め、もしモデル投影像生成部6の輪郭投影像と、画像特
徴抽出部3の抽出したエッジ位置が一致するならば、認
識対象の実際の位置と姿勢は、モデル投影像生成部6の
モデルの位置と姿勢に一致するはずであり、3次元的な
測定が可能となる。As described above, the model projection image generator 6
Since a model having a three-dimensional position and orientation is held and its projected image is generated according to the camera parameters of the input system, the contour projected image of the model projected image generation unit 6 and the extraction of the image feature extraction unit 3 are performed. If the edge positions coincide with each other, the actual position and orientation of the recognition target should coincide with the position and orientation of the model of the model projection image generation unit 6, and three-dimensional measurement is possible.
【0079】本具体例では、円柱モデルを多角柱モデル
で近似する方法によってモデル投影像生成部6のモデル
投影像生成する手法を説明したが、円柱の稜線を陰関数
で表現して式(1)、式(2)の変換式により、円柱形
状の画像上での関数形を解くことにより、輪郭投影像
(モデル投影像)を求めるようにすることもできる。In this example, the method of generating the model projection image of the model projection image generation unit 6 by the method of approximating the cylinder model with the polygonal cylinder model has been described. ), By solving the function form on the cylindrical image by the conversion formula of the formula (2), the contour projection image (model projection image) can be obtained.
【0080】当てはまり検証部7はモデル投影像生成部
6が生成したモデル投影像が画像特徴抽出部3で得た特
徴抽出像と一致するか検証をするものであるが、この検
証は上記特徴抽出像に対するモデル投影像の当てはまり
尺度を算出し、モデル投影像の投影位置と両者の一致度
を求める。The fitting verification unit 7 verifies whether the model projection image generated by the model projection image generation unit 6 matches the feature extraction image obtained by the image feature extraction unit 3. This verification is performed by the above feature extraction. The fitting scale of the model projection image to the image is calculated, and the projection position of the model projection image and the degree of coincidence between the two are obtained.
【0081】そのためにはまず初めに、モデル投影像生
成部6の生成したモデル投影像における外輪郭線上の各
画素位置の、画像特徴量を積算することによって当ては
まり尺度を算出する。そして、当てはまり尺度の最も良
好なモデル投影像を選択して認識結果とする。なお、こ
の当てはまり尺度の設定方法には幾つかの方法が考えら
れるので、後であらためてふれることにする。For that purpose, first, the fitting scale is calculated by integrating the image feature amount of each pixel position on the outer contour line in the model projection image generated by the model projection image generation unit 6. Then, the model projection image with the best fitting scale is selected as the recognition result. There are several possible methods for setting this fitting scale, so we will discuss it later.
【0082】このような一連の動作を、認識処理制御部
8による制御管理下で実施されることで、認識処理制御
部8の働きについては、処理の流れとともに説明する。By performing such a series of operations under the control and management of the recognition processing control unit 8, the operation of the recognition processing control unit 8 will be described together with the flow of processing.
【0083】結果出力部9は当てはまり検証部7の認識
結果をユーザの設定した形式(例えば画像上への当ては
まり結果の表示、または位置と姿勢を示す数値データ)
として出力する。つまり、数値データを出力として得た
い場合には、当てはまり尺度の最も良好なモデル投影像
がわかれば、そのモデルの位置や姿勢等はモデル投影像
生成部6がデータとして既に持っているので、これを引
き出してデータ出力することが可能であり、結果出力部
9はこのようにすることで、認識結果をデータ出力で
き、自律型の作業ロボットの認識対象に対する位置や姿
勢の認識情報として利用できる構成となる。The result output unit 9 is a format in which the recognition result of the fitting verification unit 7 is set by the user (for example, displaying the fitting result on an image, or numerical data indicating the position and orientation).
Output as In other words, in the case of obtaining numerical data as an output, if the model projection image with the best fitting scale is known, the model projection image generation unit 6 already has the model position, orientation, etc. as data. By outputting the recognition result, the result output unit 9 can output the recognition result as data and can be used as recognition information of the position and orientation of the recognition target of the autonomous work robot. Becomes
【0084】以上のような構成の本システムの動作を説
明する。The operation of the present system having the above configuration will be described.
【0085】本システムを搭載した自律型作業ロボット
の動作環境として電柱上の配電線工事を例に挙げて説明
する。この動作環境では自律型作業ロボットは作業対象
物体の認識と位置特定をすることが必要になる。電柱上
には例えば、碍子など円柱上の物体が数多く存在し、そ
の位置特定をすることになる。As an operating environment of the autonomous work robot equipped with the present system, distribution line construction on a utility pole will be described as an example. In this operating environment, the autonomous work robot needs to recognize and position the work object. For example, a large number of cylindrical objects such as insulators exist on the electric pole, and the position of the object is to be specified.
【0086】自律型作業ロボットは作業車の高所作業台
の上に搭載される。操作者はまず作業車を電柱のそばに
設置し、高所作業台を電柱の側に上げる。そして、ロボ
ットの可動範囲や、障害物による影響を考慮しながら、
適切な位置にロボットを設置する。周囲環境は場所によ
って異なるから、作業のたびに全く同じ位置にロボット
を設置するということは不可能であるし、また、電柱上
の配置も場所によって異なる。しかし、行なう作業は予
め決まっているから、認識が必要な作業対象物体が何で
あるかは事前に決めることができるし、その物体が画面
に収まるように、ロボットの位置と姿勢を設定すること
ができる。The autonomous work robot is mounted on the aerial work platform of the work vehicle. First, the operator installs the work vehicle near the power pole and raises the work platform above the power pole. Then, considering the range of motion of the robot and the influence of obstacles,
Place the robot in the proper position. Since the surrounding environment varies from place to place, it is not possible to install the robot at the exact same position for each work, and the placement on the utility pole also differs from place to place. However, since the work to be performed is predetermined, it is possible to decide in advance what the work target object needs to be recognized, and it is possible to set the position and posture of the robot so that the object fits on the screen. it can.
【0087】このような場合では、本認識システムが認
識すべき対象は画面の中に収まっていることを前提とす
ることができるし、また、その対象物体の存在し得る空
間的な範囲も仮定することができる。なぜなら、前述し
たようにロボットの可動範囲に関連して、ロボットと対
象との位置関係がある範囲に収まるように、操作者がロ
ボットを設置するからである。In such a case, it is possible to assume that the object to be recognized by the recognition system is within the screen, and also the spatial range in which the object can exist. can do. This is because, as described above, the operator installs the robot so that the positional relationship between the robot and the target is within a certain range in relation to the movable range of the robot.
【0088】図2は本具体例のフローチャートであり、
全体の処理の流れを示したものである。また、図3乃至
図6は、図2のフローチャートに従って本システムを電
柱上の碍子の位置特定装置に適用した場合の処理経過の
概念図である。なお、この図3乃至図6では図解のため
に碍子に関係した輪郭線だけが明瞭に描かれているが、
実際の入力画像ではこれほど明瞭に輪郭線が抽出される
ことは無いし、また、碍子の輪郭線以外の線が多数抽出
されることを予め断っておく。また、碍子には胴回りに
塗色帯(塗料で形成した帯)を付したものもあり、この
場合、円柱形状の碍子の胴回りに付された塗色帯が円弧
状の輪郭線として画像中で認識できるような画像状態と
なる。FIG. 2 is a flow chart of this specific example.
It shows the flow of the entire processing. Further, FIGS. 3 to 6 are conceptual diagrams of processing progress when the present system is applied to an insulator position specifying device on a telephone pole according to the flowchart of FIG. It should be noted that in FIGS. 3 to 6, only the contour lines related to the insulator are clearly drawn for the sake of illustration.
It should be noted in advance that in the actual input image, the contour line is not so clearly extracted, and a large number of lines other than the contour line of the insulator are extracted. In addition, some insulators have a colored band (band formed of paint) around the waist. In this case, the colored band around the waist of a cylindrical insulator is shown as an arc-shaped contour line in the image. The image state becomes recognizable.
【0089】以下の処理制御の流れは、認識処理制御部
8によってコントロールされ、各構成要素が当該認識処
理制御部8による管理下でそれぞれの動作を実施するこ
とで目的の結果を得る。詳細を順に説明する。The flow of the following processing control is controlled by the recognition processing control unit 8 and each component carries out its operation under the control of the recognition processing control unit 8 to obtain a desired result. The details will be described in order.
【0090】認識処理は画像取り込みから開始される。
すなわち、ステップS101で画像入力処理が行われる
が、これはTVカメラ1で撮像されて出力される映像信
号を画像入力部2がディジタル化して取り込む処理であ
る。この結果、TVカメラ1で撮像された画像が図3の
如き画像であったとすると、この画像は画像入力部2で
ディジタル化されて画像特徴抽出部3に入力される。The recognition process is started from image capturing.
That is, the image input process is performed in step S101, which is a process in which the image input unit 2 digitizes and captures the video signal captured and output by the TV camera 1. As a result, if the image captured by the TV camera 1 is an image as shown in FIG. 3, this image is digitized by the image input unit 2 and input to the image feature extraction unit 3.
【0091】画像が取り込まれると次にステップS10
2において初期位置推定処理が行われる。この初期位置
推定処理機能は認識処理制御部8の持つ機能であり、認
識処理制御部8が取り込まれた画像に対してのカメラ
(TVカメラ1)と認識対象との間の3次元的な(推
定)位置関係の情報をモデル投影像生成部6に与える結
果、モデル投影像生成部6では認識対象物体の初期位置
と姿勢を決めることができる。When the image is captured, step S10 is performed next.
At 2, the initial position estimation process is performed. This initial position estimation processing function is a function of the recognition processing control unit 8, and the recognition processing control unit 8 performs three-dimensional (3D) between the camera (TV camera 1) and the recognition target for the image captured. (Estimation) As a result of providing information on the positional relationship to the model projection image generation unit 6, the model projection image generation unit 6 can determine the initial position and orientation of the recognition target object.
【0092】この初期位置と姿勢はいろいろな設定方法
がある。例えば、カメラと認識対象物体の概略位置関係
が既知であれば、そこから物体の3次元的な位置と姿勢
を推定すれば良い。あるいは、人間によって例えば画像
中からマウスによって指示する方法で設定しても良い。
一般に画像中には認識対象と同様な形状の物体が複数存
在すると考えられる。例えば、前述した配電線工事向け
の自律型作業ロボットであれば、数多くの碍子が撮影さ
れていると考えられる。There are various setting methods for the initial position and posture. For example, if the approximate positional relationship between the camera and the recognition target object is known, the three-dimensional position and orientation of the object may be estimated from that. Alternatively, the setting may be made by a human, for example, a method of pointing from the image with a mouse.
Generally, it is considered that a plurality of objects having the same shape as the recognition target exist in the image. For example, in the case of the above-mentioned autonomous work robot for distribution line construction, it is considered that many insulators are photographed.
【0093】このような場合は、取り込んだ画像をディ
スプレイに表示して、人間がその表示画像中からマウス
などのポインティングデバイス等で本当の認識対象を選
択してシステムに指示するといった状況が考えられ、画
面中の位置が何らかの方法で得られる状況は多い。従っ
て、これらの人為的な指示操作により情報を認識処理制
御部8に与えることで、認識処理制御部8がカメラに対
する対象の推定初期位置の情報を発生してモデル投影像
生成部6に与えることができる。In such a case, a situation in which the captured image is displayed on the display, and a human selects a real recognition target from the displayed image with a pointing device such as a mouse and gives an instruction to the system is conceivable. In many cases, the position on the screen can be obtained by some method. Therefore, by giving information to the recognition processing control unit 8 by these artificial instruction operations, the recognition processing control unit 8 generates information on the estimated initial position of the object with respect to the camera and gives it to the model projection image generation unit 6. You can
【0094】しかし、これらの事前情報が全く利用でき
ない状況も考えられる。このような場合、認識対象が例
えば画像の中心にあると設定すれば良い。However, there may be a situation in which such prior information cannot be used at all. In such a case, the recognition target may be set to be, for example, the center of the image.
【0095】なお、画像中の位置で初期位置を推定して
設定する場合は2次元的位置の情報から3次元位置と姿
勢の情報に変換し、初期位置と姿勢を推定する必要があ
るので、次にこれを説明する。When the initial position is estimated and set from the position in the image, it is necessary to convert the information of the two-dimensional position into the information of the three-dimensional position and the posture and to estimate the initial position and the posture. This will be explained next.
【0096】画像中の2次元位置情報から3次元位置に
変換するためには、不足する奥行き方向位置のデータを
予め設定しておき、カメラ・パラメータに基づいて、以
下の手続きにより3次元位置座標を計算する。In order to convert the two-dimensional position information in the image into the three-dimensional position, the data of the insufficient depth direction position is set in advance, and the three-dimensional position coordinate is calculated by the following procedure based on the camera parameters. To calculate.
【0097】いま、図11に示すようにカメラ焦点位置
ベクトルFからカメラ光軸ベクトルAの光軸方向にdだ
け離れた位置に、カメラ光軸ベクトルAに垂直な平面Q
を仮定する。カメラ焦点位置ベクトルFの要素をF=
(Fx ,Fy ,FZ )、カメラ光軸ベクトルAの要素を
A=(Ax ,Ay ,AZ )とすると、平面Q上にある光
軸上の直線の点の位置ベクトルH=(Hx ,Hy ,
HZ )は以下の式で表される。Now, as shown in FIG. 11, a plane Q perpendicular to the camera optical axis vector A is located at a position away from the camera focus position vector F by d in the optical axis direction of the camera optical axis vector A.
Suppose The element of the camera focus position vector F is F =
(F x , F y , F Z ), and letting the elements of the camera optical axis vector A be A = (A x , A y , AZ ), the position vector H of a straight line point on the optical axis on the plane Q = (H x , H y ,
H Z ) is represented by the following formula.
【0098】 (Hx ,Hy ,HZ )=(Fx +Ax d,Fy +Ay d,FZ +AZ d) … (16) また、点Hを通り光軸ベクトルAに垂直な平面Qの方程
式は、以下の式で与えられる。(H x , H y , H Z ) = (F x + A x d, F y + A y d, F Z + AZ d) (16) Further, the point H is perpendicular to the optical axis vector A. The equation of the plane Q is given by the following equation.
【0099】 (X−Hx )Ax +(Y−Hy )Ay +(Z−HZ )AZ =0 … (17) 一方、画面中の認識対象物体の中心位置はC(xc,y
c)で与えられ、カメラから認識対象物体までの距離が
dであると仮定したとする。このとき認識対象物体の空
間中の中心位置(X,Y,Z)は式(1)、式(2)の
投影の方程式を満たし、かつ、前述の平面Q上に存在す
るために式(16)、式(17)を満たす必要がある。
よって、これらの式を組み合わせると、以下の連立方程
式が導かれる。(X−H x ) A x + (Y−H y ) A y + (Z−H Z ) A Z = 0 (17) On the other hand, the center position of the recognition target object on the screen is C (x c , y
It is assumed that the distance from the camera to the object to be recognized is d given by c ). At this time, since the center position (X, Y, Z) of the recognition target object in space satisfies the projection equations of the equations (1) and (2) and exists on the plane Q, the equation (16 ) And equation (17) must be satisfied.
Therefore, by combining these equations, the following simultaneous equations are derived.
【0100】[0100]
【数5】 (Equation 5)
【0101】式(18)の連立方程式を解くことによ
り、カメラから物体までの距離がdであり、画面上の投
影位置が(xc,yc)であるための3次元位置(X,
Y,Z)が求められる。By solving the simultaneous equations of equation (18), the distance from the camera to the object is d, and the projection position on the screen is (x c , y c ).
Y, Z) is required.
【0102】以上の手続きにより、認識対象物体の初期
推定位置と姿勢を設定することができる。By the above procedure, the initial estimated position and orientation of the recognition target object can be set.
【0103】認識対象物体の初期推定位置と姿勢を設定
する初期位置推定処理が終わると、次にステップS10
3の軸方向エッジ抽出処理に入る。ステップS103で
は、認識対象モデルの初期推定位置の投影像を生成し、
その投影像の軸方向のエッジを抽出する処理を行う。When the initial position estimating process for setting the initial estimated position and orientation of the object to be recognized is completed, the next step S10 is performed.
3, the axial edge extraction processing is started. In step S103, a projection image of the initial estimated position of the recognition target model is generated,
The process of extracting the axial edge of the projected image is performed.
【0104】すなわち、認識対象物体の初期推定位置と
姿勢が設定されたことにより、この認識対象物体の現在
の状態に対応するモデル投影像を作成可能になるので、
モデル投影像生成部6はカメラパラメータ記憶部5に記
憶してあるカメラ・パラメータと、予め用意してある認
識対象物体の近似モデルを用いて初期位置での認識対象
物体の投影像を認識対象モデルの投影像(認識対象物体
をモデル化したもの)として作成し、次にこの作成した
投影像を画像特徴抽出部3に与えることによって、画像
特徴抽出部3はこの投影像の軸方向のエッジを抽出処理
する。That is, since the initial estimated position and orientation of the recognition target object are set, a model projection image corresponding to the current state of the recognition target object can be created.
The model projection image generation unit 6 uses the camera parameters stored in the camera parameter storage unit 5 and the approximate model of the recognition target object prepared in advance to calculate the projection image of the recognition target object at the initial position. Of the object to be recognized (modeled from the object to be recognized), and then the created projection image is given to the image feature extraction unit 3, whereby the image feature extraction unit 3 determines the edge of the projection image in the axial direction. Extract processing.
【0105】このときエッジを抽出する領域は、図4に
示す点線で囲んだ領域a1であり、これは推定したモデ
ル投影像の経線投影位置近傍の小領域とすれば良い。推
定したモデル投影像の経線の“方向”も同時に推定でき
るので、その方向に指向性をもったエッジ抽出方法を適
用する。方向に指向性を持ったエッジの抽出方法は前述
した。At this time, the area from which the edge is extracted is the area a1 surrounded by the dotted line shown in FIG. 4, which may be a small area near the meridian projection position of the estimated model projection image. Since the “direction” of the meridian of the estimated model projection image can also be estimated at the same time, an edge extraction method having directivity in that direction is applied. The method of extracting edges having directivity in the direction has been described above.
【0106】エッジ抽出を施す小領域の大きさは、予め
縦横の画素数で設定しても良いし、認識対象モデルの投
影像の大きさに従って設定しても良い。例えば、領域の
縦方向の大きさは推定経線長の2倍、領域の横方向の長
さは投影像の横幅の2分の1などと決めれば良い。処理
は投影像の左右それぞれの経線の中心位置を中心として
小領域を設定し、それぞれに対して行う。The size of the small area to be subjected to edge extraction may be set in advance by the number of vertical and horizontal pixels, or may be set according to the size of the projected image of the recognition target model. For example, the size of the region in the vertical direction may be set to twice the estimated meridian length, and the length of the region in the horizontal direction may be set to ½ of the horizontal width of the projected image. The processing is performed for each of the small areas set around the center positions of the right and left meridians of the projected image.
【0107】こうしてエッジ抽出処理が終わると、次に
経線候補抽出処理ステップであるステップS104の処
理に移る。ステップS104では、ステップS103の
処理において画像特徴抽出部3が抽出したエッジ画像か
ら、直線検出部4が経線候補の抽出を行う。When the edge extraction process is completed in this way, the process moves to step S104 which is the meridian candidate extraction process step. In step S104, the straight line detection unit 4 extracts meridian candidates from the edge image extracted by the image feature extraction unit 3 in the process of step S103.
【0108】経線候補の抽出は経線位置の抽出から始め
る。The extraction of meridian candidates starts with the extraction of the meridian position.
【0109】経線位置の抽出は、図12(c)にフロー
チャートで示す如く、以下のようにして行う。まず、エ
ッジ抽出を行った領域に対して、図12(a)に示すよ
うに、部分領域81に分割する。そして、これをフィル
タ処理する(図12(c)のステップS81)。次にエ
ッジ抽出を行った部分領域81の上端及び下端からそれ
ぞれ各一点を選択し、この選択した両点の一方を始点8
2、他方を終点83とし、この始点82と終点83とを
直線84で結び、その直線84上の画素のエッジ強度を
積算する(図12(c)のステップS82)。Extraction of the meridian position is performed as follows, as shown in the flow chart of FIG. First, the area where the edge extraction has been performed is divided into partial areas 81 as shown in FIG. Then, this is filtered (step S81 in FIG. 12C). Next, one point is selected from each of the upper end and the lower end of the partial area 81 for which edge extraction has been performed, and one of these selected points is used as the start point 8
2, the other end point 83, the start point 82 and the end point 83 are connected by a straight line 84, and the edge strength of the pixels on the straight line 84 is integrated (step S82 in FIG. 12C).
【0110】部分領域81の上端及び下端には、その端
部位置での構成画素数分の点が存在する。従って、上端
と下端の各点について考えられる組合せ全てについて同
様な処理を行う。At the upper end and the lower end of the partial area 81, there are points corresponding to the number of constituent pixels at the end position. Therefore, similar processing is performed for all possible combinations of the upper and lower points.
【0111】直線84上の画素のエッジ強度の積算は図
12(b)のようにして行う。すなわち、積算に用いた
上端の画素数をM、下端の画素数をNとすると、M×N
の記憶領域を確保する。この記憶領域は部分領域81の
上端および下端の各位置を結ぶ組み合わせそれぞれがそ
れぞれ特定の1配列要素に該当することになるので、M
×Nの記憶領域のうち、それぞれの直線84対応の配列
要素の位置にその直線84上の画素のエッジ強度の値を
加算してデータを置く作業を行う。つまり、それぞれの
直線84に対応する配列要素の位置に、その直線84が
通る画素のエッジ強度の値を投票するわけである。この
ようにしてM×Nの記憶領域に投票値が書き込むとその
結果、図12(b)のようなヒストグラムが得られるこ
とになる(図12(c)のステップS83)。The edge strengths of the pixels on the straight line 84 are integrated as shown in FIG. That is, if the number of pixels at the upper end used for integration is M and the number of pixels at the lower end is N, then M × N
Secure storage area for. In this storage area, each combination connecting the positions of the upper end and the lower end of the partial area 81 corresponds to a specific one array element.
In the xN storage area, the value of the edge strength of the pixel on the straight line 84 is added to the position of the array element corresponding to each straight line 84, and the data is placed. That is, the value of the edge strength of the pixel passing through the straight line 84 is voted for the position of the array element corresponding to each straight line 84. When the voting value is written in the M × N storage area in this way, as a result, a histogram as shown in FIG. 12B is obtained (step S83 in FIG. 12C).
【0112】エッジの画素であればその画素位置の画素
はエッジ強度が大きいから、図12(b)の投票結果の
うち、大きい投票値を示す画素対応の直線がエッジであ
る可能性が高い。If the pixel is an edge pixel, the pixel at that pixel position has a high edge strength. Therefore, in the voting result of FIG. 12B, the straight line corresponding to the pixel having a large voting value is likely to be an edge.
【0113】そこで、このM×Nの領域内で2次元的な
局所的極大値の位置を、積算値の高い順に予め決めた個
数だけ選び、経線の候補とする(図12(c)のステッ
プS84)。そして、経線の始点位置と終点位置の逆算
により、その経線候補の位置を知る(図12(c)のス
テップS84)。同様な処理を像の左右両方の経線に対
して行い、両側の経線候補を求め、その位置を知る。Therefore, a predetermined number of positions of the two-dimensional local maximum values in this M × N region are selected in descending order of the integrated value, and they are used as meridian candidates (step in FIG. 12C). S84). Then, the position of the meridian candidate is known by the backward calculation of the starting point position and the ending point position of the meridian (step S84 in FIG. 12C). The same process is performed on both the left and right meridians of the image, the meridian candidates on both sides are obtained, and their positions are known.
【0114】このようにして求めた碍子両側の経線候補
の状態例を示すと図5の如きであり、図5のb1〜bn
が求めた経線候補である。An example of the states of the meridian candidates on both sides of the insulator thus obtained is as shown in FIG. 5, and b1 to bn in FIG.
Is a meridian candidate sought by.
【0115】像の左右両方の経線の候補を知ったなら
ば、これら両側の経線候補の組み合わせについて、当て
はまり検証のためのモデル投影像の位置修正と、その当
てはまり検証を行う。When the candidates for both the right and left meridians of the image are known, the position correction of the model projection image for fitting verification and the fitting verification are performed for the combination of these meridian candidates on both sides.
【0116】このとき左右の経線候補が多数存在する場
合は、“左右の経線は平行である”という事実があるか
ら、この知識を利用し、それらの角度がある一定値以下
となる組合せについてのみ、当てはまり検証のためのモ
デル投影像の位置修正と、その当てはまり検証を行うよ
うにすれば、冗長な処理を省くことができる。At this time, if there are a large number of left and right meridian candidates, there is a fact that "the left and right meridians are parallel". Therefore, this knowledge is used, and only those combinations whose angles are less than a certain value are used. By correcting the position of the model projection image for the fitting verification and performing the fitting verification, redundant processing can be omitted.
【0117】また、モデルの存在する範囲がある程度わ
かっているのなら、左右の経線候補の幅が極端に広い組
み合わせや、極端に狭い組み合わせも省略可能であり、
冗長な処理を省くことができる。Also, if the range in which the model exists is known to some extent, it is possible to omit a combination in which the widths of the left and right meridian candidates are extremely wide, or an extremely narrow combination.
Redundant processing can be omitted.
【0118】当てはまり検証のためのモデル投影像の位
置修正と、その当てはまり検証は次のステップS105
からステップS109までの処理である。The position correction of the model projection image for the fitting verification and the fitting verification are performed in the next step S105.
It is the processing from to step S109.
【0119】まず、ステップS105においては、経線
の組み合わせ作成処理を行う。ここでの処理において
は、求めた左右の経線候補から、左右それぞれ一本ずつ
の組合せを作る。そして、これにより得られた全ての組
合せに対してステップS106からステップS109ま
での処理を繰り返す。First, in step S105, a combination of meridians is created. In the process here, one combination is created for each of the left and right meridian candidates thus obtained. Then, the processing from step S106 to step S109 is repeated for all the combinations thus obtained.
【0120】ステップS106の処理はモデル位置修正
処理であり、このステップS106では、左右の経線の
組合せに対して、それぞれモデルの位置を修正する。The processing in step S106 is model position correction processing. In step S106, the position of the model is corrected for each combination of left and right meridians.
【0121】円柱形状が投影された場合に、それが認識
対象の円柱形状物体の投影であったとして、該円柱形状
物体をその軸の方向から見た時の、カメラと認識対象と
の位置関係を図に示すと図13の如きとなる。When a cylindrical shape is projected, assuming that it is a projection of the cylindrical object to be recognized, the positional relationship between the camera and the recognized object when the cylindrical object is viewed from the direction of its axis. 13 is shown in FIG.
【0122】ここで、図13の円の半径Rは円柱形状の
半径Rである。左右の経線の組合せを設定すれば、画像
中の経線の位置A’及びB’は既知となり、一方、カメ
ラの焦点Fと光軸の方向は式(9)〜式(12)にて求
まっていることから、中心角2θは正しく求めることが
できる。三角形ACFと三角形BCFは合同であるか
ら、カメラから物体までの距離dは式(19)により求
めることができる。Here, the radius R of the circle in FIG. 13 is the radius R of the cylindrical shape. By setting the combination of the left and right meridians, the positions A'and B'of the meridians in the image become known, while the focal point F of the camera and the direction of the optical axis can be obtained from equations (9) to (12). Therefore, the central angle 2θ can be correctly obtained. Since the triangle ACF and the triangle BCF are congruent, the distance d from the camera to the object can be calculated by the equation (19).
【0123】[0123]
【数6】 (Equation 6)
【0124】左右の経線の中心位置が認識対象の画像中
の中心位置と考えることにより、奥行きdを用いて、ス
テップS102と同様に、式(18)から認識対象の3
次元座標を求めることができる。認識対象の3次元座標
が得られれば、これを用いてモデルの位置を認識対象に
位置合わせできる。By considering the center position of the left and right meridians to be the center position in the image of the recognition target, the depth d is used to calculate the 3 of the recognition target from the equation (18) as in step S102.
Dimensional coordinates can be obtained. Once the three-dimensional coordinates of the recognition target are obtained, the position of the model can be aligned with the recognition target using this.
【0125】これで円柱または円錐形状の物体が3次元
的に自由に位置と姿勢が変化できる場合の対象の見え方
の5種の変化要素のうち、“大きさ”が合い、“中心の
軸と垂直方向の位置”が合う。As a result, of the five types of change factors of the appearance of the object when the position and orientation of a cylindrical or conical object can be freely changed three-dimensionally, the "size" matches and the "center axis" And the vertical position ”.
【0126】位置を合わせたモデルは、“画面上の傾
き”を以下の手続きで当てはめる。In the model in which the positions are matched, "inclination on the screen" is applied by the following procedure.
【0127】まず、新しい投影像の画面上の傾きを算出
する。これは例えば認識対象の上端面中心位置の投影位
置と、下端面中心位置の投影位置を結ぶ線の画面上の傾
きを調べれば良い。ここで、求めた左右の経線の傾きの
平均と、投影像の画面上の傾きに差がある場合には、式
(11)で求めた光軸を回転軸として認識対象モデルを
回転し、傾きを一致させる。これで対象の見え方にの5
種の変化要素のうち、“画面上の傾き”が合う。First, the inclination of the new projected image on the screen is calculated. For this purpose, for example, the inclination on the screen of the line connecting the projection position of the center position of the upper end surface of the recognition target and the projection position of the center position of the lower end surface may be checked. Here, when there is a difference between the average inclination of the left and right meridians thus obtained and the inclination of the projected image on the screen, the recognition target model is rotated with the optical axis obtained by the equation (11) as the rotation axis, To match. With this, 5
Among the changing factors of the species, the "inclination on the screen" matches.
【0128】ここまでの処理で、モデルの見え方の5種
の変化要素のうち、3つ分の変化要素が決まる。そし
て、残されたパラメータは、“中心の軸方向の位置”
と、“奥行き方向の回転角”の2種となる。By the processing so far, three change elements out of the five kinds of change elements of the appearance of the model are determined. And the remaining parameters are "position in the axial direction of the center"
And "rotation angle in the depth direction".
【0129】次にステップS107の楕円部のエッジ抽
出処理に移る。ステップS107では、修正した認識対
象モデル位置の投影像を作成し、その投影像の上端面、
下端面エッジ付近領域の画像特徴を抽出する。この場合
は、円柱形状物体の楕円形状の輪郭線の抽出することに
なるので、ここではステップS103での処理と異な
り、方向の指向性を持たないエッジ抽出手法を適用す
る。Next, the edge extraction processing of the elliptic portion in step S107 is performed. In step S107, a projection image of the corrected recognition target model position is created, and the upper end surface of the projection image,
Image features in the region near the bottom edge are extracted. In this case, since the elliptical contour line of the cylindrical object is extracted, an edge extraction method having no directionality is applied here, unlike the processing in step S103.
【0130】次にステップS108のモデル当てはめ・
照合処理に移る。この処理は当てはまり検証部7により
実施される。認識処理制御部8の管理下で当てはまり検
証部7がステップS108の処理を実施することによ
り、モデル投影像の上下の楕円上の輪郭線を画像中のエ
ッジ抽出結果に当てはめる処理と照合の処理が行われ
る。Next, the model fitting in step S108
Move to verification processing. This process is performed by the applicable verification unit 7. By applying the process of step S108 under the control of the recognition process control unit 8, the process of applying the contour lines on the upper and lower ellipses of the model projection image to the edge extraction result in the image and the process of matching are performed. Done.
【0131】ステップS108での当てはめは、前ステ
ップまでの処理で残された2種のパラメータを決めるた
めの処理である。つまり、残された2種のパラメータ
(求まっていない2種のパラメータ)は、“円柱形状物
体の中心軸の方向の位置”と、“奥行き方向の回転角”
であり、これらの2種のパラメータに応じてさまざまな
種類のモデル投影像を生成し、当てはまり検証を行うこ
とで当該2種のパラメータを決めることができる。The fitting in step S108 is a process for determining the two types of parameters remaining in the processes up to the previous step. In other words, the two remaining parameters (two undetermined parameters) are the "position in the direction of the central axis of the cylindrical object" and the "rotation angle in the depth direction".
It is possible to determine the two types of parameters by generating various types of model projection images according to these two types of parameters and performing fitting verification.
【0132】処理の具体的内容は次の通りである。認識
対象モデルは、この2種のパラメータに応じてモデル位
置と姿勢を変化させる。第1は、円柱形状物体の軸方向
の並進移動である。物体の軸方向は、ステップS102
の式(16)、式(2)と同様にして、物体中心を通り
カメラ光軸に垂直な平面Q’を求め、その平面に対する
物体の軸の投影をとることにより求められる。第2は、
奥行き方向の回転であり、この回転軸は、前述の平面
Q’上にあり、物体中心を通り前記並進方向に垂直な軸
として設定される。The specific contents of the processing are as follows. The recognition target model changes the model position and posture according to these two types of parameters. The first is an axial translation of a cylindrical object. The axial direction of the object is determined in step S102.
Similar to the equations (16) and (2), a plane Q ′ passing through the center of the object and perpendicular to the camera optical axis is obtained, and the axis of the object is projected on the plane. Second,
This is rotation in the depth direction, and this rotation axis is set as an axis that lies on the above-mentioned plane Q ′ and passes through the center of the object and is perpendicular to the translation direction.
【0133】これら2種のパラメータを2次元的に変化
させて、モデル投影像と画像特徴との当てはまり検証を
行い、最適な当てはまり位置と角度を求める。By changing these two types of parameters two-dimensionally, the fitting projection between the model projected image and the image feature is verified, and the optimum fitting position and angle are obtained.
【0134】パラメータの変化範囲と、分割数は以下の
ようにして設定する。パラメータの変化範囲は認識対象
物体の投影像が存在し得る全ての領域である。実際には
ステップS102で認識対象物体の初期位置と姿勢を設
定できたように、物体の存在する姿勢や位置はある範囲
で仮定できる場合が多い。The parameter change range and the number of divisions are set as follows. The parameter change range is the entire area where the projected image of the recognition target object can exist. In reality, as in the case where the initial position and orientation of the recognition target object could be set in step S102, the orientation and position of the object can often be assumed within a certain range.
【0135】例えば、極端に上や下からカメラが物体を
撮影することが無いならば、回転角は180度の範囲に
存在領域を限定することができる。また、カメラが物体
を“見上げている”か、“見下ろしている”か、“ほぼ
横方向から見ている”かの区別ができるのならば、せい
ぜい90度の範囲に変化領域を設定すれば十分である。For example, if the camera does not photograph an object from extremely above or below, the rotation angle can limit the existing region within the range of 180 degrees. If the camera can distinguish whether it is "looking up", "looking down", or "looking from sideways", set the change area within a range of at most 90 degrees. It is enough.
【0136】一方、物体の軸方向の位置は画面中からは
み出した領域まで位置を変化させる必要は無く、画面の
大きさによって変化範囲を限定できる。On the other hand, it is not necessary to change the position of the object in the axial direction to the area outside the screen, and the range of change can be limited depending on the size of the screen.
【0137】以上のように、これら2種のパラメータは
変化範囲を限定できるものである。As described above, these two types of parameters can limit the change range.
【0138】パラメータの分割数は画像中の投影像の位
置変化が1画素未満になるように設定すれば良い。それ
より細かい位置や姿勢の変化は、画像中の当てはめに関
係しない。従って分割数は有限個に限定することができ
る。The number of divisions of the parameters may be set so that the position change of the projected image in the image is less than 1 pixel. Finer changes in position and orientation are not relevant to the fit in the image. Therefore, the number of divisions can be limited to a finite number.
【0139】以上より、パラメータの変化範囲と分割数
は決まるので、それら2種のパラメータについて全ての
組み合わせでモデル投影像を生成し、当てはまり検証を
行う。From the above, the change range of the parameters and the number of divisions are determined. Therefore, model projection images are generated for all the combinations of these two types of parameters, and the fitting verification is performed.
【0140】当てはまり検証は次のようにする。当ては
まり検証には判断の尺度が必要となるが、ここでは以下
のような尺度を採用する。The applicable verification is as follows. A scale of judgment is required for the applicable verification, but the following scale is adopted here.
【0141】いま、モデル投影像の外輪郭線上の画素位
置が{Ci(cix,ciy)}i=1,2,…,Mで
あるとする。また、画像特徴抽出部3の出力するエッジ
画像の、画素位置(cix,ciy)のエッジ強度が
{E(cix,ciy)}i=1,2,…Mであるとす
る。このとき、当てはまりの尺度を次式で定義する。It is now assumed that the pixel positions on the outer contour line of the model projection image are {C i (c ix , c iy )} i = 1, 2, ..., M. In addition, it is assumed that the edge strength of the pixel position (c ix , c iy ) of the edge image output by the image feature extraction unit 3 is {E (c ix , c iy )} i = 1, 2 ,. At this time, the scale of the fit is defined by the following equation.
【0142】[0142]
【数7】 (Equation 7)
【0143】すなわち、エッジ強度の値をそのまま積算
して、その値が高いものほど良く当てはまっていると判
断するのである。That is, the values of the edge strength are integrated as they are, and it is judged that the higher the value, the better the fit.
【0144】この当てはまり尺度の積算は、モデル投影
像生成部6から送信されたモデルの外輪郭線全体の画素
に対して行っても良いが、このステップS108では楕
円形状の輪郭線だけに注目していることから、楕円形上
の輪郭線だけに対して、当てはまり尺度の積算を行うこ
とも可能である。This integration of the fitting scale may be performed for all the pixels of the outer contour line of the model transmitted from the model projection image generation unit 6, but in this step S108, attention is paid only to the elliptical contour line. Therefore, it is also possible to integrate the fitting scale only for the contour line on the ellipse.
【0145】以上のステップS106からステップS1
08までの手続きにより、左右1組の経線候補に対して
マッチするモデルの3次元位置と姿勢を求めた。この手
続きを、ステップS105で作成した全ての経線候補の
組合せについて同様に行う。The above steps S106 to S1
By the procedure up to 08, the three-dimensional position and orientation of the model that matched one pair of left and right meridian candidates were obtained. This procedure is similarly performed for all combinations of meridian candidates created in step S105.
【0146】そして、全ての経線候補の組合せについて
終了したならば(ステップS109)、次にステップS
110の処理(最適な位置と姿勢の選択処理)に移る。
そして、ここでの処理により、これまで求めた全てのモ
デルの位置と姿勢に対して、当てはまり尺度が最大とな
るモデルの位置と姿勢を選択し、それを最終的な認識結
果とする。そして、この認識の結果、最適な位置と姿勢
の選択ができる。選択した当てはまり尺度が最大となる
モデルの様子を図6に示す。図6中に符号Mを付して示
すワイヤーフレーム形式のモデルが選択したモデルであ
る。If all combinations of meridian candidates have been completed (step S109), then step S109.
The processing moves to 110 (optimal position / orientation selection processing).
Then, by the processing here, the position and orientation of the model having the maximum fitting scale is selected from the positions and orientations of all the models thus far obtained, and this is used as the final recognition result. Then, as a result of this recognition, the optimum position and orientation can be selected. FIG. 6 shows the state of the model in which the selected fitting scale is maximum. The model in the wire frame format shown by adding a symbol M in FIG. 6 is the selected model.
【0147】このようにして、当てはまり検証部7によ
る最適な位置と姿勢の選択が終わると、次に出力処理で
あるステップS111において、最終的な認識結果を結
果出力部9が出力し、全体の処理が終了する。In this way, when the fitting verification unit 7 completes the selection of the optimum position and orientation, the result recognition unit 7 outputs the final recognition result in step S111, which is the output process. The process ends.
【0148】なお、図3乃至図6に描かれたような、胴
に塗色帯のある碍子が認識対象である場合は、円柱形状
の認識対象モデルを図6のように当てはめるのではな
く、この塗色帯を円柱形状の認識対象と看做してモデル
を設定し、本システムの認識処理を適用することもでき
る。この場合は、この塗色帯の色と碍子の表面の色の情
報を利用することも可能であり、つぎの具体例2で説明
するように、円柱形状の認識対象物体の色と、認識対象
物体が上下に接している物体の色の情報を利用できれ
ば、より安定な処理が実現できる。When an insulator having a colored band on the body is to be recognized as shown in FIGS. 3 to 6, the cylindrical recognition target model is not applied as shown in FIG. The recognition process of this system can be applied by setting the model by recognizing this paint color band as a columnar recognition target. In this case, it is also possible to use the information of the color of the paint band and the color of the surface of the insulator, and as described in Specific Example 2 below, the color of the cylindrical recognition target object and the recognition target If the information on the color of the object in contact with the upper and lower sides can be used, more stable processing can be realized.
【0149】このように、撮像手段(例えば、TVカメ
ラ)でとらえた画像中に含まれる円柱状の認識対象の像
から、その認識対象物体の3次元位置や姿勢の情報を得
る手法として、とらえた画像中に含まれる円柱状の認識
対象物体の特徴(輪郭像)を抽出し、これより直線部分
を抽出し、また、認識対象物体と同形状の円柱状のモデ
ルを用意して、前記抽出した認識対象物体の直線部分の
像に、前記モデルの投影像の輪郭像を位置合わせし、姿
勢を調整して当てはまり状態を調べ、最も良く当てはま
る投影像を選択して、それより姿勢状態や位置の情報を
取得するようにしたものである。In this way, as a method of obtaining information on the three-dimensional position and orientation of the recognition target object from the image of the cylindrical recognition target included in the image captured by the image pickup means (for example, TV camera) The feature (outline image) of the columnar recognition target object included in the image is extracted, the straight line portion is extracted from this, and a cylindrical model having the same shape as the recognition target object is prepared, and the extraction is performed. The contour image of the projection image of the model is aligned with the image of the straight line part of the recognition target object, the posture is adjusted to check the fitting state, and the projection image that best fits is selected, and the posture state or position The information of is acquired.
【0150】従って、3次元的に見え方が変化する円柱
状物体の位置や姿勢を、2次元の画像から測定すること
ができるようになる位置姿勢認識装置が実現できる。そ
して、これにより、円柱状などのように認識すべき形状
が特定されていれば、画像から位置や姿勢を特定できる
ので、特定形状の対象物を着脱したりする自律型の作業
ロボットの制御に利用可能になる。Therefore, it is possible to realize a position / orientation recognition apparatus which can measure the position and orientation of a cylindrical object whose appearance changes three-dimensionally from a two-dimensional image. By this, if the shape to be recognized such as a column is specified, the position and orientation can be specified from the image, so that it is possible to control the autonomous work robot that attaches and detaches the object having the specific shape. Will be available.
【0151】以上は、本システムの基本的な考え方を説
明した。本システムにおいては、物体の位置や姿勢を認
識するのに重要な役割を果たしている要素の一つに当て
はまりの尺度があり、これは種々の変形があるので、こ
れについて他の具体例として説明する。The basic concept of this system has been described above. In this system, one of the elements that plays an important role in recognizing the position and orientation of an object is a measure of fit, and there are various modifications, so this will be described as another specific example. .
【0152】(具体例2)本具体例2に、当てはまりの
尺度式である式(20)の変形例を示す。上述の具体例
1では当てはまりの尺度をエッジ強度値の積算値とした
が、ここではエッジ強度のピークをとる位置だけで、積
算を行う方法とする。(Specific Example 2) In this specific example 2, a modification of the equation (20), which is a scale expression of the fit, is shown. In the above-described specific example 1, the scale of the fit is the integrated value of the edge strength values, but here, the method is one in which the integration is performed only at the position where the peak of the edge strength is taken.
【0153】ピーク位置の判別は、例えば、以下の手続
きを以て行えば良い。The peak position may be discriminated by the following procedure, for example.
【0154】例えば、具体例1で説明した図2のステッ
プS103の処理において、円柱軸方向のエッジ抽出を
行った時のピーク位置の判別については、[1] 抽出
した領域内で画像横方向に注目画素を設定し、[2]
注目画素のエッジ強度が両隣りのエッジ強度より大きい
場合は、ピーク位置であるとして記憶し、[3] 横方
向に探索した画素のなかで、ピーク位置であり、かつ、
最大のエッジ強度を持つ位置を最大ピーク位置と判断す
る。For example, in the processing of step S103 of FIG. 2 described in the first specific example, for the determination of the peak position when the edge extraction in the cylinder axis direction is performed, [1] in the lateral direction of the image within the extracted region Set the pixel of interest, [2]
If the edge strength of the pixel of interest is greater than the edge strength of both sides, it is stored as the peak position, and [3] it is the peak position among the pixels searched in the horizontal direction, and
The position having the maximum edge strength is determined as the maximum peak position.
【0155】という手続きを行って求めれば良い。It suffices to perform the procedure described below.
【0156】一方、ステップS107における楕円部の
エッジ抽出によって抽出されたエッジのピーク位置の判
別であれば、注目画素を探索する方向をモデル投影像生
成部6の輪郭線に垂直な方向にとれば、同様な処理を行
うことができる。On the other hand, in the case of determining the peak position of the edge extracted by the edge extraction of the ellipse portion in step S107, if the direction for searching the target pixel is the direction perpendicular to the contour line of the model projection image generating unit 6. The same processing can be performed.
【0157】尺度の積算は最大ピーク位置だけで行う方
法も考えられるし、抽出されたピーク位置全てを、積算
の対象にする方法も考えられる。A method of integrating the scales only with the maximum peak position is conceivable, or a method of integrating all the extracted peak positions with each other is also conceivable.
【0158】また、画像特徴抽出部3の出力のうちエッ
ジ強度だけを利用するのでなく、エッジの方向を利用す
ることも可能である。It is also possible to use not only the edge strength of the output of the image feature extraction unit 3 but also the direction of the edge.
【0159】例えば、円柱形状の認識対象物体が上下に
接している物体より明るい(白い)ことが既知の情報と
して利用できるのならば、所望のエッジ方向に近いエッ
ジだけを積算する方法が考えられる。例えば(式8)の
積算に重みW(cix,ci y)を加えて、For example, if it is possible to use as information that the object to be recognized having a cylindrical shape is brighter (whiter) than the vertically adjacent objects, a method of integrating only the edges close to the desired edge direction can be considered. . For example, by adding a weight W (c ix , c i y ) to the integration of (Equation 8),
【数8】 (Equation 8)
【0160】とし、所望のエッジ方向に抽出されたエッ
ジ方向が近いほど大きな重みを与えるようにすれば良
い。Then, the closer the extracted edge direction is to the desired edge direction, the larger the weight should be given.
【0161】例えば重みには、推定した輪郭の方向と画
像特徴抽出部3の求めたエッジの方向の内積を用いるこ
とができる。For example, as the weight, an inner product of the estimated contour direction and the edge direction obtained by the image feature extraction unit 3 can be used.
【0162】(具体例3)つぎに当てはまりの尺度式で
ある式(20)の別の変形例を具体例3として説明す
る。Specific Example 3 Next, another modified example of the equation (20), which is a scale expression of the fit, will be described as a specific example 3.
【0163】上述の具体例1では測定精度を重視して、
ステップS108のパラメータの分割数を画面中の投影
像の位置変化が1画素未満になるように設定する方式で
あった。しかしながら、必要な測定精度がそれほど高く
ない場合には、分割数はそれほど細かく設定する必要は
ない。そこで、分割数を少なくして測定精度を低くした
簡易型の方式とする構成も、用途によっては利用価値は
十分ある。In the above-mentioned specific example 1, importance is attached to the measurement accuracy,
In this method, the parameter division number in step S108 is set so that the positional change of the projected image on the screen is less than one pixel. However, if the required measurement accuracy is not so high, the number of divisions need not be set very finely. Therefore, the configuration of a simplified method in which the number of divisions is reduced and the measurement accuracy is lowered is also useful depending on the application.
【0164】すなわち、この場合、同じ変化範囲に対し
て当てはめを試みる投影像のパターンは少なくなるの
で、処理時間は大幅に短縮することができ、高速処理が
可能になるメリットがある。In other words, in this case, the number of projection image patterns to be fitted to the same change range is small, so that the processing time can be greatly shortened and high-speed processing can be achieved.
【0165】しかし、その反面、式(20)の当てはま
り判断の積算に使用する画素位置が、各パターン間で位
置ずれを起こし、そのまま積算したのでは、積算結果そ
のものに信頼性がなくなってピーク値判定の精度は信頼
性がなくなってしまう。簡易型の方式とした場合での各
パターン間での位置ずれは、数画素分程度にも及んでし
まう可能性があるからである。On the other hand, on the other hand, if the pixel positions used for the integration of the judgment of the equation (20) are misaligned between the patterns and the integration is performed as it is, the integration result itself becomes unreliable and the peak value is lost. The accuracy of the judgment becomes unreliable. This is because the positional deviation between the patterns in the case of using the simplified method may reach several pixels.
【0166】このため、本具体例ではこの点を考慮して
当てはまり尺度式である式(20)の積算方法を変化さ
せるようにする。For this reason, in this example, the integration method of equation (20), which is a fitting scale equation, is changed in consideration of this point.
【0167】例えば、各パターン間でモデル投影像の輪
郭線位置が最大2画素変化する場合には、図14のよう
なマスクを用意し、輪郭線位置の画素に対して、このマ
スクを利用してエッジ画像のマスク演算を施し、その値
を積算する。For example, when the contour line position of the model projected image changes by a maximum of 2 pixels between each pattern, a mask as shown in FIG. 14 is prepared and this mask is used for the pixel at the contour line position. The edge image is masked and the values are integrated.
【0168】このように、マスクを利用してエッジ画像
にマスク演算を施し、その値を積算する方式とすること
で、処理の簡易化のために試行パターンの数を減らして
も、輪郭線位置の変化量に応じて、そのマスクの大きさ
や形状を変化させるだけで、信頼性の高い当てはまり検
証を行うことができるようになる。As described above, by adopting the method of performing the mask calculation on the edge image using the mask and integrating the values, the contour line position is reduced even if the number of trial patterns is reduced to simplify the process. It is possible to perform highly reliable fitting verification simply by changing the size and shape of the mask in accordance with the change amount of
【0169】認識対象物体が円柱状である場合の例を具
体例1で説明したが、認識対象物体が円錐形状である場
合や、円錐台形状である場合でも本発明は適用できる。
その例を具体例4として説明する。An example of the case where the recognition target object has a cylindrical shape has been described in the concrete example 1, but the present invention can be applied even when the recognition target object has a conical shape or a truncated cone shape.
An example thereof will be described as Specific Example 4.
【0170】(具体例4)本具体例4では円錐形状物体
及び円錐台形状物体の位置姿勢認識装置の具体例を説明
する。装置の構成としては図1で説明した構成と同じで
良い。また、処理のフローチャートも図2と基本的には
同じである。但し、上述の具体例1では認識対象は円柱
状物体であったが、ここでは円錐形状物体や円錐台形状
物体が対象となるので、それに伴い、経線の抽出の部分
と、左右の経線候補を決定した時に求まるパラメータの
内容を変える必要がある。つまり、具体例1と異なるの
は経線の抽出の部分と、左右の経線候補を決定した時に
求まるパラメータの内容である。(Specific Example 4) In this specific example 4, a specific example of a position / orientation recognition apparatus for a conical object and a truncated cone object will be described. The configuration of the device may be the same as the configuration described in FIG. The processing flowchart is also basically the same as in FIG. However, although the recognition target is the cylindrical object in the first specific example described above, since the target here is a conical object or a truncated cone-shaped object, the meridian extraction portion and the left and right meridian candidates are accordingly changed. It is necessary to change the content of the parameter that is obtained when it is decided. That is, what is different from the first specific example is the part of the meridian extraction and the contents of the parameters obtained when the left and right meridian candidates are determined.
【0171】以下、具体例1と異なる部分についてのみ
説明する。Only the parts different from the first embodiment will be described below.
【0172】円柱状物体の認識においては左右の経線を
軸方向の輪郭線としていたが、円錐状物体を認識するた
めには、これをモデルの投影によって求まる円錐物体の
経線に置き換えれば良い。図15に円錐及び円錐台物体
の場合の形状を示す。In the recognition of the cylindrical object, the left and right meridians are used as the contour lines in the axial direction, but in order to recognize the conical object, this may be replaced with the meridian of the conical object obtained by the projection of the model. FIG. 15 shows the shapes in the case of a cone and a truncated cone object.
【0173】図15(a)は円錐状物体であり、図15
(b)は円錐台物体である。これらの物体では特徴抽出
を行うと経線エッジと楕円部エッジが得られる。110
が経線エッジであり、111が楕円部エッジである。FIG. 15A shows a conical object, and FIG.
(B) is a truncated cone object. When feature extraction is performed on these objects, meridian edges and ellipse edges are obtained. 110
Is the meridian edge, and 111 is the ellipse edge.
【0174】具体例1の場合と抽出するエッジの名称こ
そ異なるが、経線エッジと楕円部エッジの抽出方法は全
く同様である。Although the names of the edges to be extracted are different from those in the first specific example, the method of extracting the meridian edges and the ellipse edges is exactly the same.
【0175】すなわち、図2のステップS103の処理
において、経線エッジの初期推定位置と方向を推定し、
その位置と方向に応じて、経線抽出領域を設定する。つ
ぎにステップS104にて投票を行い、経線エッジの位
置と方向を求める。That is, in the processing of step S103 of FIG. 2, the initial estimated position and direction of the meridian edge are estimated,
The meridian extraction area is set according to the position and direction. Next, in step S104, a vote is made to obtain the position and direction of the meridian edge.
【0176】但しここで、左右の経線が平行とは限らな
いため、それぞれの方向に応じて処理を行う必要がある
ことに注意すれば良いだけである。However, it is only necessary to note that the right and left meridians are not always parallel, and therefore it is necessary to perform processing according to each direction.
【0177】具体例1で説明した円柱形状物体の認識で
は、ステップS106で左右の経線候補から図10の見
え方の5種の変化要素のうち、物体の“画面上の傾
き”、“軸と垂直方向の中心位置”、“大きさ”の3種
の要素に合わせてモデルの“画面上の傾き”、“軸と垂
直方向の中心位置”、“大きさ”の3種の要素を決める
ことができた。In the recognition of the cylindrical object described in the first specific example, in step S106, the "inclination on the screen" and the "axis" of the object are selected from the five types of change elements in the appearance of FIG. Determine the three elements of the model's "inclination on the screen", "axis center vertical position", and "size" according to the three elements "vertical center position" and "size". I was able to.
【0178】しかし、円錐状物体や円錐台形状物体の認
識では、左右の経線から求まる変化要素の組合せが変わ
る。そして、左右の経線が抽出されると円錐形状物体で
は“画面中の頂点の位置”が決まり、また、具体例1と
同様に、“軸と垂直方向の中心位置”、“画面上の傾
き”が決まる。左右の経線の幅からは奥行き方向の位置
が決定されるのでなく、認識対象モデルの3次元的重心
の位置の拘束条件が求まる。However, in recognizing a conical object or a truncated cone-shaped object, the combination of changing elements found from the left and right meridians changes. Then, when the left and right meridians are extracted, the "position of the apex in the screen" is determined for the conical object, and, as in Example 1, the "center position in the direction perpendicular to the axis" and the "tilt on the screen". Is decided. The position in the depth direction is not determined from the widths of the left and right meridians, but the constraint condition of the position of the three-dimensional center of gravity of the recognition target model is obtained.
【0179】このことを図16を参照して説明する。円
錐形状物体では、左右の経線位置と方向が決まると、画
面中の円錐の軸方向の位置と大きさは関連を持つ。すな
わち、図16(a)のように、画面120中に複数の円
錐形状物体121a〜121nがあったとする。そし
て、それらの頂点位置が122であったとする。This will be described with reference to FIG. In the conical object, when the left and right meridian positions and directions are determined, the axial position and size of the cone in the screen are related. That is, it is assumed that there are a plurality of conical objects 121a to 121n in the screen 120 as shown in FIG. Then, it is assumed that those vertex positions are 122.
【0180】このような頂点位置が同一な円錐は、“見
掛けの大きさが大きく、画面中の中心位置が頂点から離
れている場合”と、“見掛けの大きさが小さく、画面中
の中心位置が円錐形状物体の頂点近くになる場合”とが
あり、これらの中間段階が無数に存在する状況にある。Such a cone having the same apex position indicates that "the apparent size is large and the center position in the screen is far from the apex" and "the apparent size is small and the center position in the screen is small". Is near the apex of the cone-shaped object. ”There are innumerable intermediate stages.
【0181】しかしながら、頂点の投影位置は画面中で
固定されているため、図16(b)のように認識対象モ
デル121の3次元位置は、頂点位置TPを拘束線L上
に拘束された状態で奥行き方向に変化することになる。
つまり、見え方の5種の変化要素のうち、“奥行き方向
の位置”と、“軸方向の位置”の間には、この拘束条件
が存在するため、これらは合わせて1つの自由度しか持
たない。However, since the projection positions of the vertices are fixed on the screen, the three-dimensional position of the recognition target model 121 is such that the vertex position TP is constrained on the constraint line L as shown in FIG. 16B. Will change in the depth direction.
In other words, among the five types of changing elements of appearance, this constraint condition exists between the "position in the depth direction" and the "position in the axial direction", so these have only one degree of freedom in total. Absent.
【0182】以上を整理すると、左右の経線候補から求
められる円錐形状物体の見え方の変化要素は、“軸と垂
直方向の中心位置”、“画面上の傾き”、“奥行きと軸
方向の中心位置を拘束する条件”、の3種となる。従っ
て、ステップS106で左右の経線候補から“画面上の
傾き”は判明し、この段階で未決定のパラメータ数は2
種となって、これは具体例1と同様となる。Summarizing the above, the factors that change the appearance of the conical object obtained from the left and right meridian candidates are "center position in the direction perpendicular to the axis", "tilt on the screen", and "center in the depth and axial direction". There are three types of conditions, which restrict the position ". Therefore, in step S106, the “inclination on the screen” is found from the left and right meridian candidates, and the number of undetermined parameters is 2 at this stage.
As a seed, this is the same as in Example 1.
【0183】従って、以降のステップは具体例1の場合
と全く同様に処理することができる。ステップS108
での投票により求めるのは、未決定の2種のパラメー
タ、つまり、“奥行き方向の回転角”と、“軸方向の画
面中の中心位置”となる。このとき、軸方向の画面中の
中心位置は、奥行き方向のモデルの3次元的中心位置で
も良い、なぜなら、これらの要素間には拘束条件が存在
するので自由度は合わせて“1”であるからである。Therefore, the subsequent steps can be processed in exactly the same way as in the first embodiment. Step S108
Two undetermined parameters, that is, "rotation angle in the depth direction" and "center position in the screen in the axial direction" are obtained by voting in. At this time, the center position on the screen in the axial direction may be the three-dimensional center position of the model in the depth direction, because the constraint condition exists between these elements, the degree of freedom is "1" in total. Because.
【0184】円錐台形状の物体も円錐形状の物体と全く
同様に処理が可能である。円錐台形状の物体の場合に
は、図17に示すように、左右の経線を延長した交点
を、頂点の仮想位置とし、この位置を利用すれば良い。A truncated cone-shaped object can be processed in exactly the same manner as a cone-shaped object. In the case of a truncated cone-shaped object, as shown in FIG. 17, an intersection point obtained by extending left and right meridians may be set as a virtual position of the apex, and this position may be used.
【0185】認識対象モデルは図9と全く同様で良い
が、円錐台形状の物体をモデルとする場合は、頂点の位
置情報を合わせて保有した方が計算が簡単になるのは明
らかである。ただし、円錐台をモデルとする場合の頂点
位置は計算のみに関係し、投影像作成には関係しなくて
も構わない。The recognition target model may be exactly the same as that shown in FIG. 9, but when a frustoconical object is used as a model, it is obvious that the calculation will be easier if the vertex position information is also stored. However, the vertex position in the case of using the truncated cone as a model is related only to the calculation and may not be related to the projection image creation.
【0186】ステップS108での楕円部エッジの当て
はめは、具体例1と同様である。円錐形状の場合は楕円
部エッジが1本のみ存在し、円錐台形状の場合は楕円部
エッジが2本存在することだけが異なる。The fitting of the ellipse edge in step S108 is the same as in the first specific example. The difference is that there is only one ellipse edge in the case of a conical shape, and there are two ellipse edges in the case of a truncated cone shape.
【0187】本具体例では、認識処理制御部8により、
当てはめの順序を、円柱円錐形状の軸方向の輪郭線から
円柱円錐形状の円周方向の輪郭線の順で行うことによ
り、効率良く円柱円錐形状の5種類の変化要素に対応し
て当てはめを行うことが可能になる。In this example, the recognition processing control unit 8
By performing the fitting order in the order from the contour line in the axial direction of the cylindrical cone shape to the contour line in the circumferential direction of the cylindrical cone shape, the fitting is efficiently performed corresponding to the five types of variable elements of the cylindrical cone shape. It will be possible.
【0188】(具体例5)つぎに具体例5を説明する。
本具体例5では、図3乃至図6に描かれたような、胴に
塗色帯のある碍子が認識対象である場合に、本発明の認
識方法を適用した場合の図1の構成図における当てはま
り検証部7の別の実施の形態について触れる。(Specific Example 5) Specific Example 5 will be described below.
In this specific example 5, as shown in FIG. 3 to FIG. 6, in the configuration diagram of FIG. 1 when the recognition method of the present invention is applied when an insulator having a colored band on the body is a recognition target. Another embodiment of the applicable verification unit 7 will be described.
【0189】具体例1,具体例2,具体例3では、当て
はまり尺度をエッジ積算値として、その値の大小だけで
当てはまっているか判断するだけであった。本具体例5
は当てはめの検証に、塗色帯等の表面に輝度情報(画像
上の輝度情報)を利用する方法である。In the specific example 1, the specific example 2, and the specific example 3, the fitting scale is used as the edge integrated value, and only the magnitude of the value is used to judge whether or not the fitting is performed. Specific Example 5
Is a method of using luminance information (luminance information on an image) on the surface of a paint band or the like for verification of fitting.
【0190】本具体例で説明する内容は、図2のフロー
チャートの中のステップS110の別形態と言える。こ
の具体例の構成をとった認識方法の効果を簡単に説明す
ると、以下の通りである。The contents described in this example can be said to be another form of step S110 in the flowchart of FIG. The effect of the recognition method having the configuration of this specific example will be briefly described as follows.
【0191】本具体例では、図3に描かれたような円柱
形状の物体を認識する。本発明では認識対象物体の輪郭
線と認識モデルの投影像を当てはめて認識を行う。この
対象には輪郭線として現われる線が少ないと、例えば、
対象物の表面に影等の影響で縦線が映り込んでいたり、
背景に線状の物体が多数存在する場合には、これらの
「偽の線」と本来の輪郭線を組み合わせた当てはめ候補
の方が、式(20)の当てはまりの尺度が大きくなる場
合もある。In this example, a cylindrical object as shown in FIG. 3 is recognized. In the present invention, the outline of the object to be recognized and the projected image of the recognition model are applied for recognition. If there are few lines appearing as contour lines in this object, for example,
Vertical lines are reflected on the surface of the object due to shadows,
When there are many linear objects in the background, the fitting candidate in which these "false lines" and the original contour line are combined may have a larger fit scale of the equation (20).
【0192】このような場合であっても、「正解」の候
補は、他の多くの(殆ど当てはまっていない)候補に比
べれば、当てはまり尺度は十分大きい。つまり、当ては
まり尺度の十分大きな少数候補の中から、「偽の線」に
当てはめた候補を棄却して、「正解」の候補を残す検証
処理ができれば良いことになる。このような場合にも正
しく認識できるようにするために、領域の情報も用いて
当てはまり検証部7の処理を充実させる。Even in such a case, the "correct answer" candidate has a sufficiently large fitting scale as compared with many other (mostly unapplied) candidates. In other words, it is only necessary to perform a verification process that rejects candidates that fit the “false line” from the minority candidates with a sufficiently large fitting scale and leaves the “correct answer” candidates. In order to enable correct recognition even in such a case, the information of the area is also used to enhance the processing of the fitting verification unit 7.
【0193】すなわち、本具体例5は、検証処理を充実
させる具体例である。That is, the present specific example 5 is a specific example in which the verification process is enhanced.
【0194】図18は、本具体例5の当てはまり検証部
を実現するための構成図である。また、図19は、図1
8の構成図の当てはまり検証部の処理のフローチャート
であり、図20は図19のフローチャート中におけるス
テップS1907、S1908のプロファイル上の検証
手続き例を示すフローチャートである。FIG. 18 is a configuration diagram for realizing the fitting verification unit of the present specific example 5. FIG. 19 is similar to FIG.
8 is a flowchart of the process of the applicable verification unit in the configuration diagram of FIG. 8, and FIG. 20 is a flowchart showing an example of the verification procedure on the profile of steps S1907 and S1908 in the flowchart of FIG.
【0195】以下、各ステップについて説明する。Each step will be described below.
【0196】今、図2のフローチャートにおけるステッ
プS109までの処理が終了し、全ての経線候補の組合
わせについて、当てはまり尺度が最大となるモデルの位
置と姿勢が得られたとする。ここから、検証処理が始ま
るが、図18の検証処理制御部188には、図1の映像
特徴抽出部3から映像特徴データが、また、図1のモデ
ル投影像生成部6から当てはめ検証候補データとして当
てはめ候補の画像上の投影位置が、また、図1の認識処
理制御部8から当てはめ検証候補データとして当てはめ
候補の当てはまり尺度の値が入力される(ステップS1
901)。Now, it is assumed that the processing up to step S109 in the flowchart of FIG. 2 is completed, and the position and orientation of the model having the maximum fitting scale are obtained for all combinations of meridian candidates. The verification process starts from here, but the verification process control unit 188 of FIG. 18 applies the verification data of the video feature data from the video feature extraction unit 3 of FIG. 1 and the fitting candidate data of the model projection image generation unit 6 of FIG. The projection position on the image of the fitting candidate is input as the value of the fitting candidate, and the fitting scale value of the fitting candidate is input as the fitting verification candidate data from the recognition processing control unit 8 of FIG. 1 (step S1).
901).
【0197】この段階では、各当てはめ候補は、経線部
と楕円部のエッジ位置にモデル投影像が当てはまるよう
にモデルの位置と姿勢が修正されているから、各候補の
位置の違いは左右の端点の位置に現われる。つぎに図2
2に示すようなそれぞれの候補の位置関係を表わす表を
作成する。すなわち、ステップS1902で、右側の端
点位置の共有候補のリストを作成し、右側端点リスト記
憶部182に記憶する。At this stage, the position and orientation of each fitting candidate are corrected so that the model projection image fits to the edge positions of the meridian and ellipse. Therefore, the difference between the positions of the candidates is the left and right end points. Appears in the position. Next, FIG.
A table showing the positional relationship of each candidate as shown in 2 is created. That is, in step S1902, a list of sharing candidates for the right end point position is created and stored in the right end point list storage unit 182.
【0198】ステップS1903で同様に左側端点位置
の共有リストを作成し、左側共有リスト記憶部183に
記憶する。Similarly, in step S1903, a shared list of left end point positions is created and stored in the left shared list storage unit 183.
【0199】全ての当てはめ候補に対して、順次ステッ
プS1906からステップS1911までの検証処理を
行う。ステップS1904,S1905,S1912は
全ての候補に処理を施すための制御手続きである。The verification process from step S1906 to step S1911 is sequentially performed on all fitting candidates. Steps S1904, S1905, and S1912 are control procedures for processing all candidates.
【0200】まず、ステップS1906で検証の対象と
なる候補に対して検証のための小領域を設定し、その輝
度値データを取り込む。検証のための小領域は図21に
示すように、碍子の帯の線の境界(以後の説明ではプロ
ファイルと呼ぶ)に沿って、帯の線の境界をはさむよう
に白領域と黒領域を設定し、これを短冊状に左端位置か
ら右端位置まで設定する。この小領域の縦の長さは、例
えば、画像中の帯の幅の半分に、また、横の幅は1画素
ないし2画素等に設定する。この白領域と黒領域の輝度
値分布から、それぞれの領域の平均輝度と、式(13)
〜式(15)に基づいて領域間の分離度ηを計算してお
く。First, in step S1906, a small area for verification is set for a candidate to be verified, and its brightness value data is loaded. As shown in FIG. 21, a small area for verification is set along the boundary of the line of the insulator band (referred to as a profile in the following description) with a white region and a black region sandwiching the boundary of the line of the insulator. Then, set this in a strip shape from the left end position to the right end position. The vertical length of this small region is set to, for example, half the width of the band in the image, and the horizontal width is set to 1 pixel or 2 pixels. From the brightness value distributions of the white area and the black area, the average brightness of each area and the expression (13)
~ Separation degree η between regions is calculated based on Expression (15).
【0201】この検証用の小領域に対する検証処理をは
左右別々に行う。このため、図21の小領域に中心位置
と右端位置、左端位置を設定しておく。ステップS19
07で左側プロファイル上の検証手続きを実行し、ステ
ップS1908で右側プロファイル上の検証手続きを実
行する。The verification processing for the verification small area is performed separately for the left and right sides. Therefore, the center position, the right end position, and the left end position are set in the small area in FIG. Step S19
The verification procedure on the left profile is executed in 07, and the verification procedure on the right profile is executed in step S1908.
【0202】この二つの検証手続きは、順序を入れ替え
ても構わない。プロファイル上の検証手続きの詳細につ
いては後で説明する。ステップS1909で左側プロフ
ァイル上の検証結果も右側プロファイル上の検証結果も
合格であったかどうか判別し、両方とも合格ならば、全
体の検証結果も合格とし(ステップS1910)、片方
が棄却判定であれば、全体の検証結果も棄却判定とする
(ステップS1911)。The order of these two verification procedures may be exchanged. Details of the verification procedure on the profile will be described later. In step S1909, it is determined whether the verification result on the left profile and the verification result on the right profile are both passed. If both are passed, the entire verification result is also passed (step S1910), and if one is a rejection decision, The overall verification result is also rejected (step S1911).
【0203】全ての当てはめ候補に対してステップS1
912までの手続きが終了したならば、ステップS19
13で、合格判断された候補の中から当てはまり尺度が
最大の候補を1つ選択し、これを最終的な認識結果とす
る。Step S1 for all fit candidates
When the procedures up to 912 are completed, step S19
In step 13, one candidate having the largest fitting scale is selected from the candidates judged to be acceptable, and this is set as the final recognition result.
【0204】つぎにプロファイル上の検証手続きについ
て説明する。Next, the verification procedure on the profile will be described.
【0205】図20は、プロファイル上の検証手続きの
フローチャートである。このフローチャートは白黒のカ
メラ(モノクローム画像カメラ)で対象を撮影した場合
に、碍子の塗色帯が黒く映る(すなわち、輝度が低い)
ことを想定して説明している。FIG. 20 is a flowchart of the verification procedure on the profile. This flowchart shows that when the object is photographed with a black and white camera (monochrome image camera), the paint color band of the insulator appears black (that is, the brightness is low).
It is explained assuming that.
【0206】本検証手続きでは判定状態として“PAS
S”、“REJECT”、“DOUBT”の三種を用い
る。まず、ステップS2001で判定状態を“PAS
S”に設定する。ステップS2002で検証位置を図2
1に示したような中心位置に設定する。以下のステップ
S2003からステップS2014までを検証開始点
(中心位置)から検証終了点(右端位置、または左端位
置)まで繰り返えす。[0206] In this verification procedure, the determination status is "PAS".
Three types, S "," REJECT ", and" DOUBT "are used. First, in step S2001, the determination state is" PAS. "
S ”is set. In step S2002, the verification position is set to FIG.
The center position as shown in 1 is set. The following steps S2003 to S2014 are repeated from the verification start point (center position) to the verification end point (right end position or left end position).
【0207】ステップS2004で黒領域の平均輝度が
設定値より大きいか判断し、大きい場合には状態を変更
せず、ステップS2014に進む。この設定値は画像輝
度が飽和しているか判定するための値である。In step S2004, it is determined whether the average brightness of the black region is larger than the set value. If the average brightness is larger than the set value, the state is not changed and the process proceeds to step S2014. This set value is a value for determining whether the image brightness is saturated.
【0208】黒領域の平均輝度がこの値より大きい場合
には、その部分が鏡面反射を起こして画像輝度が飽和し
ているので、例外処理として状態を変更しない。If the average luminance of the black area is larger than this value, that portion causes specular reflection and the image luminance is saturated, so the state is not changed as an exceptional process.
【0209】ステップS2005で黒領域の平均輝度と
白領域の平均輝度を比較する。黒領域の平均輝度の方が
大きい場合は、本来の当てはめ位置とずれているので、
状態を“REJECT”(棄却)とし(ステップS20
10)、ステップS2014へ進む。黒領域の平均輝度
が白領域の平均輝度より大きくない場合にはステップS
2006へ進む。In step S2005, the average brightness of the black area and the average brightness of the white area are compared. If the average brightness of the black area is larger, it is out of alignment with the original fitting position.
The state is set to "REJECT" (rejection) (step S20
10) and proceeds to step S2014. If the average brightness of the black area is not higher than the average brightness of the white area, step S
Proceed to 2006.
【0210】ステップS2006では、黒領域と白領域
間の分離度が、設定値より小さいか判定する。この設定
値は分離度として比較的低い値(例えば、0.5)など
に決めておく。分離度が高い場合は、ステップS200
8へ進む。分離度が低い場合にはステップS2007に
進む。In step S2006, it is determined whether the degree of separation between the black area and the white area is smaller than the set value. This set value is set to a relatively low value (for example, 0.5) as the degree of separation. If the degree of separation is high, step S200
Proceed to 8. If the degree of separation is low, the process proceeds to step S2007.
【0211】ステップS2006で“Yes”に判定さ
れた検証対象の当てはめ候補は、その位置と姿勢が正解
に対して疑わしいので、端点共有リスト(図18の18
2と183)を参照し、現在の検証位置に片側の端点を
持ち、反対側の端点を現在の検証対象と共有する候補が
存在するか否かを調べる(ステップS2007)。Since the position and orientation of the verification candidate fitting candidate for which a "Yes" determination is made in step S2006 are doubtful as to the correct answer, the end point shared list (18 in FIG. 18).
2 and 183), it is checked whether or not there is a candidate that has an endpoint on one side at the current verification position and shares the endpoint on the other side with the current verification target (step S2007).
【0212】端点共有リストは右側のプロファイルを検
証している時は、左側端点共有リストの検証対象の当て
はめ候補の列を参照し、左側のプロファイルを検証して
いる時は、右側端点共有リストの当てはめ候補の列を参
照する。The endpoint sharing list refers to the column of fitting candidates of the validation target in the left endpoint sharing list when the right profile is being verified, and the right endpoint sharing list is being verified when the left profile is being validated. Refer to the column of fit candidates.
【0213】現在の検証位置に、端点を共有する候補が
存在しない場合は、「何かの理由でこの位置だけが分離
度が低下している」と判断し、判定状態を“変更せず”
とし(ステップS2011)、ステップS2014へ進
む。ここで考えられる理由は例えば、碍子表面のマーク
であったり、対象を隠すように手前に存在するケーブル
等である。If there is no candidate that shares the end point at the current verification position, it is determined that "separation degree is lowered only for this position for some reason", and the determination state is "not changed".
(Step S2011), and the process proceeds to step S2014. Possible reasons here are, for example, a mark on the surface of the insulator and a cable or the like which is present in the front so as to hide the object.
【0214】現在の検証位置に片側の端点を持ち、反対
側の端点を現在の検証対象と共有する候補が存在すると
いうことは、現在の検証位置を認識対象の端点とみなし
てモデルを当てはめた候補が存在したということであ
る。つまり、このことは、この位置に認識対象の経線が
存在する可能性があることを示している。この理由か
ら、現在、検証対象としている候補は疑わしい候補であ
ると判断し、判定状態を“DOUBT(疑い)”とし、
(ステップS2012)、ステップS2014へ進む。The fact that there is a candidate that has one end point at the current verification position and shares the other end point with the current verification target means that the current verification position is regarded as the recognition target end point and the model is applied. It means that there was a candidate. That is, this indicates that there is a possibility that the meridian to be recognized may exist at this position. For this reason, the candidate currently being verified is determined to be a suspicious candidate, and the determination state is set to “DOUBT”,
(Step S2012), the process proceeds to step S2014.
【0215】ステップS2008では、判定状態が“D
OUBT”であれば、ステップS2009へ進み、それ
以外の状態であればステップS2014へ進む。ステッ
プS2009では、黒領域と白領域間の分離度が設定値
より大きいか判定する。この設定値は分離度として比較
的高い値(例えば、0.8)などと決めておく。分離度
が高い場合はステップS2013へ進み、状態を“PA
SS”に変更し、ステップS2014へ進む。分離度が
低い場合は、直接ステップS2014へ進む。In step S2008, the determination state is "D.
If it is OUBT ", the process proceeds to step S2009, and if not, the process proceeds to step S2014. In step S2009, it is determined whether the degree of separation between the black region and the white region is larger than the set value. It is determined that the degree is a relatively high value (for example, 0.8), etc. If the degree of separation is high, the process proceeds to step S2013 and the state is set to "PA".
Change to SS ″ and proceed to step S2014. If the degree of separation is low, proceed directly to step S2014.
【0216】ステップS2009で行っている判断の意
味は、以下のようになる。状態が“DOUBT”であっ
たということは、途中位置のプロファイル上では疑わし
い候補と判断されているが、再び十分高い分離度になっ
ていることをみると、途中の分離度が何かの理由で低下
しただけで、検証対象の候補が正解である可能性があ
る。このため、判定状態を“PASS”に戻す。The meaning of the determination made in step S2009 is as follows. The fact that the state was "DOUBT" was judged to be a suspicious candidate in the profile at the middle position, but when it was seen that the separation degree was sufficiently high again, the reason why the separation degree in the middle was There is a possibility that the candidate to be verified is the correct answer just because Therefore, the determination state is returned to "PASS".
【0217】ステップS2014で検証位置外側に1単
位、移動し、ステップS2003に戻る。右側検証の場
合は右へ進み、左側検証の場合は左に進む。In step S2014, one unit is moved to the outside of the verification position, and the process returns to step S2003. For right side verification, go to the right; for left side verification, go to the left.
【0218】ステップS2003からステップS201
4を検証位置全体で繰り返し、検証終了点まで処理が済
んだならばステップS2015へ進む。ステップS20
15で判定状態が“PASS”であるか判定し、その結
果、“PASS”であったならば、最終判定結果を合格
とし(ステップS2016)、それ以外であれば、“棄
却”とする(ステップS2017)。以上で、フローチ
ャートが終了する。[0218] Steps S2003 to S201
4 is repeated for all the verification positions, and when the processing is completed up to the verification end point, the process proceeds to step S2015. Step S20
It is determined in 15 whether the determination state is "PASS", and if the result is "PASS", the final determination result is passed (step S2016), and otherwise, "rejected" (step) S2017). This is the end of the flowchart.
【0219】判定状態が“DOUBT”になった候補
は、途中で分離度が十分高くまで回復していれば、状態
を回復する(ステップS2008,S2009,S20
13)。しかし、そうでない場合は棄却判断される。こ
のような方法により、領域の中間で何等かの理由で、分
離度が低下することがあっても、全体として良く当ては
まっている候補を合格判定にすることができる。The candidate whose judgment state has become “DOUBT” is recovered if the separation degree has recovered to a sufficiently high level on the way (steps S2008, S2009, S20).
13). However, if not, it is rejected. With such a method, even if the degree of separation may be lowered in the middle of the region for some reason, it is possible to make a pass judgment for a candidate that is well fit as a whole.
【0220】以上、本具体例5のように、当てはまり検
証部7の処理を充実し、輪郭線の情報の他に、領域の情
報も利用することで、対象物の表面の影や背景による偽
の線に当てはめた候補でなく、正解の候補を選択するこ
とが可能になる。As described above, as in the fifth specific example, the processing of the fitting verification unit 7 is enhanced and the information of the area is used in addition to the information of the contour line so that the shadow of the surface of the object or the false background It is possible to select a correct answer candidate instead of the candidate fitted to the line.
【0221】以上、種々の具体例を説明したが、要する
に本発明は、認識対象を撮像した画像情報を得て、この
画像情報から得られる画像の画像特徴を抽出し、この抽
出した画像特徴を、用意した前記認識対象の3次元モデ
ルの投影像と比較して、その当てはまりの程度を検証
し、前記モデルの位置姿勢を逐次修正して、最も良く当
てはまる投影像を求め、その求めた最も良く当てはまる
投影像から位置と姿勢を求めるようにすることにより、
認識対象物体の3次元的な位置と姿勢を認識するように
したものであり、従って、円柱または円錐、円錐台形状
と云った特定の形状の認識対象物体について、その位置
と姿勢を画像から測定できるようになり、自律型の作業
ロボットの実現に道が開かれる。Although various concrete examples have been described above, in short, the present invention obtains image information of an image of a recognition target, extracts image features of an image obtained from this image information, and extracts the extracted image features. , Comparing the prepared projection image of the three-dimensional model of the recognition object, verifying the degree of fitting, sequentially correcting the position and orientation of the model, obtaining the projection image that best fits, and obtaining the best projected image. By determining the position and orientation from the applicable projected image,
It is designed to recognize the three-dimensional position and orientation of the recognition target object. Therefore, the position and orientation of the recognition target object of a specific shape such as a cylinder, a cone, or a truncated cone are measured from an image. This will open the way to the realization of autonomous work robots.
【0222】従って、本発明は例えば自律作業ロボット
や知能ロボットに適用して最適な位置姿勢認識装置であ
り、ロボットに付属したTVカメラから得られる画像の
画像特徴と、計算機内部の認識対象モデルの投影像を比
較し、その当てはまり検証を行い、計算機内モデルの位
置姿勢を逐次修正することで、最も良く当てはまる投影
像を求めてその投影像から位置と姿勢を求めるようにす
ることにより、認識対象物体の3次元的な位置と姿勢を
認識することができるようになる。Therefore, the present invention is an optimum position / orientation recognition apparatus applied to, for example, an autonomous work robot or an intelligent robot, and it shows image characteristics of an image obtained from a TV camera attached to the robot and a recognition target model inside a computer. By comparing the projected images, verifying the fit, and successively correcting the position and orientation of the in-computer model, the projected image that best fits is obtained, and the position and orientation are obtained from the projected image. It becomes possible to recognize the three-dimensional position and orientation of the object.
【0223】なお、本発明は上述の具体例に限定される
ものではなく、種々変形して実施可能である。The present invention is not limited to the above-mentioned specific examples and can be carried out in various modified forms.
【0224】[0224]
【発明の効果】以上詳述した如く、本発明によれば、特
定形状、例えば、円柱、円錐形状の認識対象物体に対し
て、何らマーカをつけること無く、その認識対象物体の
画像のみから物体の3次元的な位置や姿勢を認識または
測定することが可能であり、自律ロボット視覚の役割を
担うことが可能になるなど、その実用的効果は多大であ
る。As described in detail above, according to the present invention, an object is recognized only from the image of the object to be recognized without attaching any marker to the object to be recognized having a specific shape, for example, a cylinder or a cone. It is possible to recognize or measure the three-dimensional position and orientation of the robot, and to play the role of the autonomous robot vision.
【図1】本発明の具体例を説明するための図であって、
本発明の具体例1の構成を説明するブロック図。FIG. 1 is a diagram for explaining a specific example of the present invention,
The block diagram explaining the structure of the specific example 1 of this invention.
【図2】本発明の具体例を説明するための図であって、
図1の構成に基づいた具体例における処理のフローチャ
ート。FIG. 2 is a diagram for explaining a specific example of the present invention,
3 is a flowchart of processing in a specific example based on the configuration of FIG. 1.
【図3】本発明の具体例を説明するための図であって、
TVカメラから入力される入力画像例を示す図。FIG. 3 is a diagram for explaining a specific example of the present invention,
The figure which shows the input image example input from a TV camera.
【図4】本発明の具体例を説明するための図であって、
軸方向エッジ抽出のための画像特徴抽出領域の例を示す
図。FIG. 4 is a diagram for explaining a specific example of the present invention,
The figure which shows the example of the image feature extraction area | region for axial edge extraction.
【図5】本発明の具体例を説明するための図であって、
抽出された経線候補の例を示す図。FIG. 5 is a diagram for explaining a specific example of the present invention,
The figure which shows the example of the extracted meridian line candidate.
【図6】本発明の具体例を説明するための図であって、
最終的な当てはめ結果を示す図。FIG. 6 is a diagram for explaining a specific example of the present invention,
The figure which shows the final fitting result.
【図7】本発明の具体例を説明するための図であって、
本発明において適用する方向のエッジに指向性を持った
エッジ抽出手法を説明するための図。FIG. 7 is a diagram for explaining a specific example of the present invention,
The figure for demonstrating the edge extraction method which has directivity in the edge of the direction applied in this invention.
【図8】本発明の具体例を説明するための図であって、
本発明の具体例において使用する楕円弧の一部を抽出す
るためのマスク演算に用いるマスク例を示す図。FIG. 8 is a diagram for explaining a specific example of the present invention,
The figure which shows the mask example used for the mask calculation for extracting a part of elliptical arc used in the specific example of this invention.
【図9】本発明の具体例を説明するための図であって、
本発明の具体例において使用する認識対象物体の3次元
モデル例を示す図。FIG. 9 is a diagram for explaining a specific example of the present invention,
The figure which shows the example of a three-dimensional model of the recognition target object used in the specific example of this invention.
【図10】本発明の具体例を説明するための図であっ
て、本発明の具体例を説明するためのモデルの見え方の
5種の変化要素を示す図。FIG. 10 is a diagram for explaining a specific example of the present invention, and is a diagram showing five types of changing elements in the appearance of the model for explaining the specific example of the present invention.
【図11】本発明の具体例を説明するための図であっ
て、本発明の具体例を説明するための2次元位置から3
次元位置への変換を行う理論説明図。FIG. 11 is a diagram for explaining a specific example of the present invention, which is a three-dimensional diagram from a two-dimensional position for explaining the specific example of the present invention.
Theoretical explanatory drawing which performs conversion to a dimensional position.
【図12】本発明の具体例を説明するための図であっ
て、本発明の具体例で用いる経線抽出の方法の説明図。FIG. 12 is a diagram for explaining a specific example of the present invention, and an explanatory diagram of a meridian extraction method used in the specific example of the present invention.
【図13】本発明の具体例を説明するための図であっ
て、本発明の具体例で用いる左右の経線と対象物体とカ
メラの位置関係を説明するための図。FIG. 13 is a diagram for explaining the specific example of the present invention, and is a diagram for explaining the positional relationship between the left and right meridians used in the specific example of the present invention, the target object, and the camera.
【図14】本発明の具体例を説明するための図であっ
て、各パターン間でモデル投影像の輪郭線位置が最大2
画素変化する場合における輪郭線位置抽出のためのマス
ク演算用のマスク例を示す図。FIG. 14 is a diagram for explaining a specific example of the present invention, in which the maximum position of the contour line of the model projection image is 2 between each pattern.
The figure which shows the example of a mask for mask calculation for contour line position extraction in case a pixel changes.
【図15】本発明の具体例を説明するための図であっ
て、本発明の別の具体例で対象とする円錐物体および円
錐台物体のエッジの説明図。FIG. 15 is a diagram for explaining a specific example of the present invention, and is an explanatory diagram of edges of a conical object and a truncated cone object that are targeted in another specific example of the present invention.
【図16】本発明の具体例を説明するための図であっ
て、本発明の別の具体例で対象とする円錐物体および円
錐台物体の頂点による拘束関係を説明するための図。FIG. 16 is a diagram for explaining a concrete example of the present invention, and is a diagram for explaining a constraint relationship by apexes of a conical object and a truncated cone object, which are another specific example of the present invention.
【図17】本発明の具体例を説明するための図であっ
て、円錐台形状の物体の頂点仮想位置の説明図。FIG. 17 is a diagram for explaining a specific example of the present invention, and is an explanatory diagram of a virtual apex position of a truncated cone-shaped object.
【図18】本発明の具体例を説明するための図であっ
て、具体例5の当てはまり検証部を実現するための構成
図。FIG. 18 is a diagram for explaining the specific example of the present invention, and is a configuration diagram for realizing the fitting verification unit of the specific example 5;
【図19】本発明の具体例5を説明するための図であっ
て、図18の構成図の当てはまり検証部の処理のフロー
チャート。FIG. 19 is a diagram for explaining the fifth example of the present invention, which is a flowchart of the process of the fitting verification unit in the configuration diagram of FIG. 18;
【図20】本発明の具体例を説明するための図であっ
て、図19のフローチャート中におけるステップS19
07、S1908のプロファイル上の検証手続き例を示
すフローチャート。FIG. 20 is a diagram for explaining a specific example of the present invention, which is step S19 in the flowchart of FIG. 19;
07, a flow chart showing an example of the verification procedure on the profile of S1908.
【図21】本発明の具体例5を説明するための図であっ
て、検証のための小領域の設定例を説明するための図。FIG. 21 is a diagram for explaining the fifth example of the present invention and is a diagram for explaining an example of setting a small area for verification.
【図22】本発明の具体例5を説明するための図であっ
て、それぞれの候補の位置関係の例を示す図。FIG. 22 is a diagram for explaining the fifth example of the present invention and is a diagram showing an example of the positional relationship of each candidate.
1…TVカメラ 2…画像入力部 3…画像特徴抽出部、 4…直線検出部 5…カメラパラメータ記憶部、 6…モデル投影像生成部 7…当てはまり検証部、 8…認識処理制御部 9…結果出力部。 DESCRIPTION OF SYMBOLS 1 ... TV camera 2 ... Image input part 3 ... Image feature extraction part, 4 ... Straight line detection part 5 ... Camera parameter storage part, 6 ... Model projection image generation part 7 ... Fit verification part, 8 ... Recognition process control part 9 ... Result Output section.
───────────────────────────────────────────────────── フロントページの続き (72)発明者 岡本 恭一 大阪府大阪市北区大淀中一丁目1番30号 株式会社東芝関西支社内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Kyoichi Okamoto 1-1-30 Oyodo Naka, Kita-ku, Osaka-shi, Osaka In-house Toshiba Kansai Branch
Claims (8)
を入力する入力手段と、 前記特定形状の認識対象物体の3次元モデルを保有し、
この3次元モデルの投影像を算出すると共に、当てはま
り程度を示す情報に基づいて3次元モデルの3次元的位
置姿勢を修正して前記認識対象物体と比較照合するため
の投影像を得るモデル投影像生成手段と、 前記入力手段から得た画像から、また前記モデル投影像
生成手段にて得た投影像からその認識対象物体の画像特
徴を抽出する画像特徴抽出手段と、 この画像特徴抽出手段により得られた認識対象物体の画
像特徴と、前記モデル投影像生成手段により得られた投
影像を照合比較して当てはまりの程度を判別し、前記当
てはまり程度を示す情報を得る当てはまり判断手段と、 この当てはまり判断手段の判別した前記当てはまり程度
の最良の3次元モデル投影像の位置・姿勢情報を、前記
モデル投影像生成手段より得て出力する出力手段と、を
具備することを特徴とする認識対象物体の位置姿勢認識
装置。1. An input unit for inputting an image of a recognition target object having a specific shape, and a three-dimensional model of the recognition target object having the specific shape,
A projected image of the three-dimensional model is calculated, and a projected image for correcting and comparing the three-dimensional position and orientation of the three-dimensional model with the recognition target object is obtained based on the information indicating the degree of fitting. Generating means, image feature extracting means for extracting the image feature of the recognition target object from the image obtained from the input means and from the projection image obtained by the model projection image generating means, and the image feature extracting means A matching determination unit that determines the degree of fit by comparing and comparing the image feature of the recognized object and the projection image obtained by the model projection image generation unit, and a fit determination unit that obtains information indicating the degree of fit. Outputting means for obtaining and outputting the position / orientation information of the best three-dimensional model projection image of the degree of fitting determined by the means from the model projection image generating means. , Position and orientation recognition device of the recognition target object, characterized by comprising.
を入力する入力手段と、 前記認識対象物体の3次元モデルを保有し、この3次元
モデルの投影像を算出すると共に、当てはまり程度の情
報に基づいて3次元モデルの3次元的位置姿勢を修正し
て前記認識対象物体と比較照合するための投影像を得る
モデル投影像生成手段と、 前記入力手段から得た画像から、また前記モデル投影像
生成手段にて得た投影像からその認識対象物体の画像特
徴を抽出する画像特徴抽出手段と、 この画像特徴抽出手段により得られた認識対象物体の画
像特徴と、前記モデル投影像生成手段により得られた投
影像を照合比較して当てはまりの程度を判別し、前記当
てはまり程度を示す情報を得る当てはまり判断手段と、 この当てはまり判断手段の判別した前記当てはまり程度
の最良の3次元モデル投影像の位置・姿勢情報を、前記
モデル投影像生成手段より得て出力する出力手段と、を
具備することを特徴とする認識対象物体の位置姿勢認識
装置。2. An input unit for inputting an image of a cylindrical object to be recognized, a three-dimensional model of the object to be recognized, a projection image of the three-dimensional model being calculated, and information about the degree of fitting. Model projection image generation means for correcting the three-dimensional position and orientation of the three-dimensional model based on the above to obtain a projection image for comparison and collation with the recognition target object, and from the image obtained from the input means, and the model projection Image feature extraction means for extracting the image feature of the recognition target object from the projection image obtained by the image generation means, image feature of the recognition target object obtained by the image feature extraction means, and the model projection image generation means The obtained projection images are collated and compared to determine the degree of fit, and a fit determining means for obtaining information indicating the fit degree, and the fit determining means determines the fit. Position and orientation information of the best three-dimensional model projected image of about stuck Te and position and orientation recognition device of the recognition target object, characterized by comprising an output means for outputting the obtained from the model projection image generation means.
体を撮像した画像を入力する入力手段と、 前記認識対象物体の3次元モデルを保有し、この3次元
モデルの投影像を算出すると共に、当てはまり程度の情
報に基づいて3次元モデルの3次元的位置姿勢を修正し
て前記認識対象物体と比較照合するための投影像を得る
モデル投影像生成手段と、 前記入力手段から得た画像から、また前記モデル投影像
生成手段にて得た投影像からその認識対象物体の画像特
徴を抽出する画像特徴抽出手段と、 この画像特徴抽出手段により得られた認識対象物体の画
像特徴と、前記モデル投影像生成手段により得られた投
影像を照合比較して当てはまりの程度を判別し、前記当
てはまり程度を示す情報を得る当てはまり判断手段と、 この当てはまり判断手段の判別した前記当てはまり程度
の最良の3次元モデル投影像の位置・姿勢情報を、前記
モデル投影像生成手段より得て出力する出力手段と、を
具備することを特徴とする認識対象物体の位置姿勢認識
装置。3. An input unit for inputting an image of a recognition target object having a conical or truncated cone shape, a three-dimensional model of the recognition target object, and a projection image of the three-dimensional model, Model projection image generation means for correcting the three-dimensional position and orientation of the three-dimensional model based on information about the degree of fitting to obtain a projection image for comparison and collation with the recognition target object; and an image obtained from the input means, Also, an image feature extraction means for extracting the image feature of the recognition target object from the projection image obtained by the model projection image generation means, the image feature of the recognition target object obtained by the image feature extraction means, and the model projection The fit determination means for determining the degree of fit by comparing and comparing the projected images obtained by the image generation means, and the fit determination means for obtaining information indicating the fit degree. The position / orientation of the recognition target object, comprising: an output unit that obtains and outputs the position / orientation information of the best three-dimensional model projection image of the degree of fitting determined by the model projection image generation unit. Recognition device.
を入力する入力手段と、 前記特定形状の認識対象物体の3次元モデルを保有し、
この3次元モデルの投影像を算出すると共に、当てはま
り程度の情報に基づいて3次元モデルの3次元的位置姿
勢を修正して前記認識対象物体と比較照合するための投
影像を得るモデル投影像生成手段と、 前記入力手段から得た画像から、また前記モデル投影像
生成手段にて得た投影像からその認識対象物体の画像特
徴を抽出する画像特徴抽出手段と、 この画像特徴抽出手段により得られた認識対象物体の画
像特徴から直線情報を抽出する手段と、 前記画像特徴抽出手段により得られた認識対象物体の画
像特徴のうち、前記直線検出手段の検出した直線部の情
報と、前記モデル投影像生成手段により得られた投影像
を照合比較して当てはまりの程度を判別し、前記当ては
まり程度を示す情報を得る当てはまり判断手段と、 この当てはまり判断手段の判別した前記当てはまり程度
の最良の3次元モデル投影像の位置・姿勢情報を、前記
モデル投影像生成手段より得て出力する出力手段と、を
具備することを特徴とする認識対象物体の位置姿勢認識
装置。4. An input unit for inputting an image of a recognition target object having a specific shape, and a three-dimensional model of the recognition target object having the specific shape.
Model projection image generation for calculating a projection image of the three-dimensional model and correcting the three-dimensional position and orientation of the three-dimensional model based on information about the degree of fitting to obtain a projection image for comparison and collation with the recognition target object Means, image feature extraction means for extracting image features of the recognition target object from the image obtained from the input means, and from the projection image obtained by the model projection image generation means, and the image feature extraction means. Means for extracting straight line information from the image feature of the recognition target object, information of the straight line portion detected by the straight line detection means among the image features of the recognition target object obtained by the image feature extraction means, and the model projection The fit determination means for determining the degree of fit by comparing and comparing the projected images obtained by the image generation means, and the fit determination means for obtaining information indicating the fit degree. An output unit that obtains and outputs the position / orientation information of the best three-dimensional model projection image of the degree of fitting determined by the disconnection unit from the model projection image generation unit. Position and orientation recognition device.
を入力する入力手段と、 前記認識対象物体の3次元モデルを保有し、この3次元
モデルの投影像を算出すると共に、当てはまり程度の情
報に基づいて3次元モデルの3次元的位置姿勢を修正し
て前記認識対象物体と比較照合するための投影像を得る
モデル投影像生成手段と、 前記入力手段から得た画像から、また前記モデル投影像
生成手段にて得た投影像からその認識対象物体の画像特
徴を抽出する画像特徴抽出手段と、 この画像特徴抽出手段により得られた認識対象物体の画
像特徴から直線情報を抽出する手段と、 前記画像特徴抽出手段により得られた認識対象物体の画
像特徴のうち、前記直線検出手段の検出した直線部の情
報と、前記モデル投影像生成手段により得られた投影像
を照合比較して当てはまりの程度を判別し、前記当ては
まり程度を示す情報を得る当てはまり判断手段と、 この当てはまり判断手段の判別した前記当てはまり程度
の最良の3次元モデル投影像の位置・姿勢情報を、前記
モデル投影像生成手段より得て出力する出力手段と、を
具備することを特徴とする認識対象物体の位置姿勢認識
装置。5. An input unit for inputting an image of a cylindrical object to be recognized, a three-dimensional model of the object to be recognized, a projection image of the three-dimensional model being calculated, and information about the degree of fitting. Model projection image generation means for correcting the three-dimensional position and orientation of the three-dimensional model based on the above to obtain a projection image for comparison and collation with the recognition target object, and from the image obtained from the input means, and the model projection Image feature extraction means for extracting the image feature of the recognition target object from the projection image obtained by the image generation means, and means for extracting straight line information from the image feature of the recognition target object obtained by the image feature extraction means, Of the image features of the recognition target object obtained by the image feature extraction means, information on the straight line portion detected by the straight line detection means and the projection image obtained by the model projection image generation means The fitting / judging means for obtaining the information indicating the fitting degree by comparing and comparing to determine the fitting degree, and the position / orientation information of the best 3D model projected image of the fitting degree, which is judged by the fitting judging means, A position / orientation recognition apparatus for a recognition target object, comprising: an output unit that obtains and outputs the model projection image generation unit.
の画像情報から得られる画像の画像特徴を抽出し、この
抽出した画像特徴を、用意した前記認識対象の3次元モ
デルの投影像と比較して、その当てはまりの程度を検証
し、前記モデルの位置姿勢を逐次修正して、最も良く当
てはまる投影像を求め、その求めた最も良く当てはまる
投影像から位置と姿勢を求めるようにすることにより、
認識対象物体の3次元的な位置と姿勢を認識することを
特徴とする認識対象物体の位置姿勢認識方法。6. Obtaining image information of an image of a recognition target, extracting image features of the image obtained from this image information, and using the extracted image feature as a projection image of the prepared three-dimensional model of the recognition target. By comparing, the degree of fit is verified, the position and orientation of the model are sequentially corrected, the projection image that best fits is obtained, and the position and orientation are obtained from the obtained projection image that best fits. ,
A position / orientation recognition method of a recognition target object, which is characterized by recognizing a three-dimensional position and orientation of the recognition target object.
る画像の画像特徴と、用意した前記認識対象の3次元モ
デルの投影像を比較し、その当てはまりの程度を検証し
て、この検証結果に応じ前記モデルの位置姿勢を逐次修
正して得た投影像と前記画像特徴とを再び照合して当て
はまりの程度を検証し、最も良く当てはまる投影像を求
めて、その求めた最も良く当てはまる投影像から前記認
識対象の位置と姿勢の情報を求めることにより、認識対
象物体の3次元的な位置と姿勢を認識することを特徴と
する位置姿勢認識方法。7. An image characteristic of an image obtained from an image pickup means for picking up a recognition target is compared with a projection image of a prepared three-dimensional model of the recognition target, the degree of fitting is verified, and this verification result is obtained. Correspondingly, the projection image obtained by sequentially correcting the position and orientation of the model and the image feature are collated again to verify the degree of fit, and the projection image that best fits is obtained, and the projection image that best fits is obtained. A position / orientation recognition method, which comprises recognizing a three-dimensional position and orientation of a recognition target object by obtaining information on the position and orientation of the recognition target.
の画像情報から得られる画像の画像特徴を抽出し、この
抽出した画像特徴から直線部を抽出すると共に、この抽
出した直線部を、用意した前記認識対象の3次元モデル
の投影像と比較して、その当てはまりの程度を検証し、
前記モデルの位置姿勢を逐次修正して、最も良く当ては
まる投影像を求め、その求めた最も良く当てはまる投影
像から位置と姿勢を求めるようにすることにより、認識
対象物体の3次元的な位置と姿勢を認識することを特徴
とする認識対象物体の位置姿勢認識方法。8. Obtaining image information of an image of a recognition target, extracting image features of an image obtained from this image information, extracting straight line portions from the extracted image features, and extracting the extracted straight line portions, By comparing with the prepared projection image of the three-dimensional model of the recognition target, the degree of the fitting is verified,
By three-dimensionally correcting the position and orientation of the model to obtain a projection image that best fits, and obtaining the position and orientation from the projection image that best fits, the three-dimensional position and orientation of the recognition target object A method for recognizing the position and orientation of an object to be recognized, which is characterized by recognizing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7339226A JPH09178426A (en) | 1995-12-26 | 1995-12-26 | Position posture recognition device of object to be recognized and position posture recognition method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7339226A JPH09178426A (en) | 1995-12-26 | 1995-12-26 | Position posture recognition device of object to be recognized and position posture recognition method |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH09178426A true JPH09178426A (en) | 1997-07-11 |
Family
ID=18325450
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP7339226A Pending JPH09178426A (en) | 1995-12-26 | 1995-12-26 | Position posture recognition device of object to be recognized and position posture recognition method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH09178426A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101206717A (en) * | 2006-12-15 | 2008-06-25 | 索尼株式会社 | Verification device, method and program |
JP2008276805A (en) * | 2008-08-04 | 2008-11-13 | Central Res Inst Of Electric Power Ind | Method of creating image for electric wire inspection |
JP2008275391A (en) * | 2007-04-26 | 2008-11-13 | Canon Inc | Position attitude measurement device and method |
JP2012150796A (en) * | 2010-12-28 | 2012-08-09 | Canon Inc | Information processing apparatus and method |
CN103198477A (en) * | 2013-03-25 | 2013-07-10 | 沈阳理工大学 | Apple fruitlet bagging robot visual positioning method |
JP2017004533A (en) * | 2008-12-29 | 2017-01-05 | コグネックス・コーポレイション | System and method for three-dimensional alignment of objects using machine vision |
JP2017126224A (en) * | 2016-01-14 | 2017-07-20 | 中部電力株式会社 | Aerial facility discrimination device and aerial facility discrimination method |
US10786736B2 (en) | 2010-05-11 | 2020-09-29 | Sony Interactive Entertainment LLC | Placement of user information in a game space |
-
1995
- 1995-12-26 JP JP7339226A patent/JPH09178426A/en active Pending
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101206717A (en) * | 2006-12-15 | 2008-06-25 | 索尼株式会社 | Verification device, method and program |
JP2008152481A (en) * | 2006-12-15 | 2008-07-03 | Sony Corp | Collating device, collation method, and program |
JP2008275391A (en) * | 2007-04-26 | 2008-11-13 | Canon Inc | Position attitude measurement device and method |
JP2008276805A (en) * | 2008-08-04 | 2008-11-13 | Central Res Inst Of Electric Power Ind | Method of creating image for electric wire inspection |
JP2017004533A (en) * | 2008-12-29 | 2017-01-05 | コグネックス・コーポレイション | System and method for three-dimensional alignment of objects using machine vision |
US10786736B2 (en) | 2010-05-11 | 2020-09-29 | Sony Interactive Entertainment LLC | Placement of user information in a game space |
US11478706B2 (en) | 2010-05-11 | 2022-10-25 | Sony Interactive Entertainment LLC | Placement of user information in a game space |
JP2012150796A (en) * | 2010-12-28 | 2012-08-09 | Canon Inc | Information processing apparatus and method |
CN103198477A (en) * | 2013-03-25 | 2013-07-10 | 沈阳理工大学 | Apple fruitlet bagging robot visual positioning method |
CN103198477B (en) * | 2013-03-25 | 2015-07-15 | 沈阳理工大学 | Apple fruitlet bagging robot visual positioning method |
JP2017126224A (en) * | 2016-01-14 | 2017-07-20 | 中部電力株式会社 | Aerial facility discrimination device and aerial facility discrimination method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11288837B2 (en) | Method of influencing virtual objects of augmented reality | |
CN109523597B (en) | Method and device for calibrating external parameters of camera | |
JP6681729B2 (en) | Method for determining 3D pose of object and 3D location of landmark point of object, and system for determining 3D pose of object and 3D location of landmark of object | |
US9262674B2 (en) | Orientation state estimation device and orientation state estimation method | |
CN107679537B (en) | A kind of texture-free spatial target posture algorithm for estimating based on profile point ORB characteristic matching | |
US7321370B2 (en) | Method and apparatus for collating object | |
CN109407547A (en) | Multi-camera in-loop simulation test method and system for panoramic visual perception | |
US20160300107A1 (en) | Image analysis for authenticating a product | |
JP2000227309A (en) | Three-dimensional position posture sensing device | |
JP2003058896A (en) | Device, method and program for recognizing positioning attitude | |
JP2014137756A (en) | Image processor and image processing method | |
CN106169076B (en) | A kind of angle license plate image library building method based on perspective transform | |
US20080228433A1 (en) | Method and Device for Determining the Relative Position of a First Object with Respect to a Second Object, Corresponding Computer Program and a Computer-Readable Storage Medium | |
JP4552431B2 (en) | Image collation apparatus, image collation method, and image collation program | |
JPH09178426A (en) | Position posture recognition device of object to be recognized and position posture recognition method | |
Puig et al. | Scale space for camera invariant features | |
JP2004086929A5 (en) | ||
CN114581632A (en) | Method, equipment and device for detecting assembly error of part based on augmented reality technology | |
JP5083715B2 (en) | 3D position and orientation measurement method and apparatus | |
JP2019191973A (en) | Learning image generation apparatus, learning image generation method, image recognition device, and image recognition method | |
JPH1151611A (en) | Device and method for recognizing position and posture of object to be recognized | |
JPH10160464A (en) | Apparatus and method for recognizing position and posture of object to be recognized | |
CN112462948B (en) | Calibration method and device based on deviation of user gesture control by depth camera | |
CN115239801A (en) | Object positioning method and device | |
JP3855050B2 (en) | Clothing state estimation method and program |