JPH09145331A - Method and apparatus for recognizing object - Google Patents

Method and apparatus for recognizing object

Info

Publication number
JPH09145331A
JPH09145331A JP7305846A JP30584695A JPH09145331A JP H09145331 A JPH09145331 A JP H09145331A JP 7305846 A JP7305846 A JP 7305846A JP 30584695 A JP30584695 A JP 30584695A JP H09145331 A JPH09145331 A JP H09145331A
Authority
JP
Japan
Prior art keywords
image
recognized
recognition
jig
dimensional information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7305846A
Other languages
Japanese (ja)
Other versions
JP2939577B2 (en
Inventor
Hisao Nishii
久雄 西井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsubakimoto Chain Co
Original Assignee
Tsubakimoto Chain Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsubakimoto Chain Co filed Critical Tsubakimoto Chain Co
Priority to JP7305846A priority Critical patent/JP2939577B2/en
Publication of JPH09145331A publication Critical patent/JPH09145331A/en
Application granted granted Critical
Publication of JP2939577B2 publication Critical patent/JP2939577B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an apparatus for recognizing the three-dimensional information of an object through image processing without touching the object at low cost in a short time. SOLUTION: A camera 2 picks up the image (first image) only of a belt conveyor 1, the image (second image) of belt conveyor 1 mounting a section paper 5 having a checkerboard pattern on the surface, and the image (fourth image) of belt conveyor 1 mounting an object A to be recognized. An image processor 42 produces an image (third image) indicative of difference between the first and second images, and an image (fifth image) indicative ofd the sum of third image and the difference between first and fourth images. Three- dimensional information (dimensions, direction and position) of the object A to be recognized is then recognized based on the fifth image (synthesized image of the object A and section paper 5).

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、物体の3次元情報
(寸法,方向,位置)を非接触にて認識する物体認識方
法及び装置に関し、特に、1台のカメラを使用する画像
処理システムを用いて3次元物体のこれらのパラメータ
を認識する物体認識方法及び装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object recognition method and device for recognizing three-dimensional information (dimension, direction, position) of an object in a non-contact manner, and more particularly to an image processing system using one camera. The present invention relates to an object recognition method and apparatus for recognizing these parameters of a 3D object.

【0002】[0002]

【従来の技術及び発明が解決しようとする課題】3次元
物体に対してその立体形状,3次元位置を非接触にて認
識する方法として、その認識対象の3次元物体を撮像
し、得られた画像の画像処理を利用する手法が知られて
いる。このような画像処理技術を用いた3次元空間での
物体認識の従来の方法の2例(ステレオ画像法,スリッ
ト光投影法)について以下に説明する。これらの2例
は、「三次元画像計測」(発行元:昭晃堂,井口征士,
佐藤宏介共著)に記載されている。
2. Description of the Related Art As a method of non-contactly recognizing a three-dimensional shape and a three-dimensional position of a three-dimensional object, a three-dimensional object to be recognized is imaged and obtained. A technique using image processing of an image is known. Two examples of a conventional method of recognizing an object in a three-dimensional space using such an image processing technique (a stereo image method and a slit light projection method) will be described below. These two examples are described in "3D Image Measurement" (published by: Shokodo, Seiji Iguchi,
Koto Sato).

【0003】図14は、ステレオ画像法の原理を説明する
模式図である。人間は左右両眼で物体を見ることによっ
て立体観を得ることができる。このステレオ画像法は、
左右両眼に対応した1対の画像(ステレオ画像)があれ
ばこれらに応じて3次元情報を抽出できるという概念に
基づく手法であり、人間の両眼のようにありのままの世
界をそのまま観測する受動的な方法である。図14に示す
ように、ITVカメラなどの2台のカメラを左右に配置
して、得られる画像情報から三角測量法により3次元情
報を認識する。
FIG. 14 is a schematic diagram for explaining the principle of the stereo image method. Humans can obtain a stereoscopic view by looking at an object with both left and right eyes. This stereo imaging method
This is a method based on the concept that if there is a pair of images (stereo images) corresponding to the left and right eyes, it is possible to extract three-dimensional information according to these, and it is a passive method that observes the world as it is like human eyes Is a typical method. As shown in FIG. 14, two cameras such as an ITV camera are arranged on the left and right, and three-dimensional information is recognized from the obtained image information by the triangulation method.

【0004】このようなステレオ画像より3次元情報を
抽出するためには、一方の画面上の1点が他方の画面上
のどの点に対応するかを検出することが必要である。こ
れがステレオ画像法における対応点決定(マッチング)
と呼ばれる処理であるが、十分正確に対応点を検出する
技術が確立されておらず、結果として不確かな3次元情
報しか得ることができないという問題点がある。
In order to extract three-dimensional information from such a stereo image, it is necessary to detect which point on one screen corresponds to which point on the other screen. This is the corresponding point determination (matching) in the stereo image method
However, there is a problem that a technique for sufficiently accurately detecting the corresponding point has not been established, and as a result, only uncertain three-dimensional information can be obtained.

【0005】また図15は、スリット光投影法(光切断
法)の原理を説明する模式図である。このスリット光投
影法は、図15に示すように、被認識物体にスリット光を
投影し、これと直交する方向からそのスリット投影像を
TVカメラにて撮影し、その画像を画像処理装置で処理
して物体の3次元情報を認識する手法である。
FIG. 15 is a schematic diagram for explaining the principle of the slit light projection method (light cutting method). In this slit light projection method, as shown in FIG. 15, slit light is projected on an object to be recognized, a slit projected image is taken by a TV camera from a direction orthogonal to this, and the image is processed by an image processing device. This is a method of recognizing the three-dimensional information of the object.

【0006】しかしながら、この方法ではスリット光源
装置が必要であり、また、多量のデータを取り扱わなけ
ればならないので処理時間がかかるという問題点があ
る。
However, this method requires a slit light source device, and since a large amount of data must be handled, there is a problem that it takes a long processing time.

【0007】本発明は斯かる事情に鑑みてなされたもの
であり、2台のカメラを使用する画像処理システムを用
いるステレオ画像法に比べて低コスト化を図れる物体認
識方法及び装置を提供することを目的とする。
The present invention has been made in view of the above circumstances, and provides an object recognition method and apparatus which can reduce the cost as compared with a stereo image method using an image processing system using two cameras. With the goal.

【0008】本発明の他の目的は、スリット光投影法と
比較して処理速度を速めることができる物体認識方法及
び装置を提供することにある。
Another object of the present invention is to provide a method and apparatus for recognizing an object which can increase the processing speed as compared with the slit light projection method.

【0009】[0009]

【課題を解決するための手段】請求項1に係る物体認識
方法は、物体の3次元情報を、該物体を撮像した画像の
画像処理を用いて認識する方法において、認識対象の物
体を配する認識環境のみを撮像して第1画像を得る工程
と、格子状の線が示された治具を前記認識環境に配する
工程と、該治具を配した状態の前記認識環境を撮像して
第2画像を得る工程と、該第2画像と前記第1画像との
差の第3画像を得る工程と、前記認識環境に認識対象の
物体を配する工程と、該物体を配した状態の前記認識環
境を撮像して第4画像を得る工程と、該第4画像及び前
記第1画像の差と前記第3画像との和の第5画像を得る
工程と、前記第5画像に基づいて前記認識対象の物体の
3次元情報を演算する工程とを有することを特徴とす
る。
An object recognition method according to claim 1 is a method of recognizing three-dimensional information of an object by using image processing of an image of the object, wherein an object to be recognized is arranged. A step of capturing only the recognition environment to obtain the first image, a step of disposing a jig having a grid-like line in the recognition environment, and an image of the recognition environment in which the jig is arranged are imaged. A step of obtaining a second image, a step of obtaining a third image which is a difference between the second image and the first image, a step of arranging an object to be recognized in the recognition environment, and a state of arranging the object. Based on the fifth image, a step of capturing the recognition environment to obtain a fourth image, a step of obtaining a fifth image of a sum of the difference between the fourth image and the first image and the third image, Calculating the three-dimensional information of the object to be recognized.

【0010】請求項2に係る物体認識方法は、物体の3
次元情報を、該物体を撮像した画像の画像処理を用いて
認識する方法において、認識対象の物体を配する認識環
境のみを撮像して第11画像を得る工程と、格子状の線が
示された治具及び認識対象の物体を前記認識環境に配す
る工程と、前記治具及び前記認識対象の物体を配した状
態の前記認識環境を撮像して第12画像を得る工程と、前
記第12画像と前記第11画像との差の第13画像を得る工程
と、前記第13画像に基づいて前記認識対象の物体の3次
元情報を演算する工程とを有することを特徴とする。
An object recognition method according to a second aspect of the present invention is an object recognition method that uses the
In a method of recognizing dimensional information by using image processing of an image of an image of the object, a step of imaging only a recognition environment in which an object to be recognized is arranged to obtain an eleventh image, and grid lines are shown. A step of arranging the jig and the object to be recognized in the recognition environment; a step of imaging the recognition environment with the jig and the object to be recognized to obtain a twelfth image; It is characterized by including a step of obtaining a thirteenth image which is a difference between the image and the eleventh image, and a step of calculating three-dimensional information of the object to be recognized based on the thirteenth image.

【0011】請求項3に係る物体認識装置は、請求項1
記載の方法の実施に使用する装置であって、前記第3画
像及び第5画像を得る画像処理手段と、前記第5画像に
基づいて前記認識対象の物体の3次元情報を演算する演
算手段とを備えることを特徴とする。
An object recognition apparatus according to claim 3 is the object recognition device according to claim 1.
An apparatus used for carrying out the described method, comprising image processing means for obtaining the third image and fifth image, and computing means for computing three-dimensional information of the object to be recognized based on the fifth image. It is characterized by including.

【0012】請求項4に係る物体認識装置は、物体の3
次元情報を、該物体を撮像した画像の画像処理を用いて
認識する装置において、撮像手段と、格子状の線が示さ
れた治具と、認識対象の物体を配すべき認識環境に何も
配していない第1状態の画像、及び、前記認識環境に前
記治具を配した第2状態の画像の差の第1編集画像を得
る第1画像処理手段と、前記認識環境に認識対象の物体
を配した第3状態の画像、及び、前記第1状態の画像の
差の第2編集画像を得る第2画像処理手段と、前記第1
編集画像及び前記第2編集画像の和の第3編集画像を得
る第3画像処理手段と、前記第3編集画像に基づいて前
記認識対象の物体の3次元情報を演算する演算手段とを
備えることを特徴とする。
According to a fourth aspect of the object recognition apparatus, the object recognition apparatus
In an apparatus for recognizing dimensional information using image processing of an image of an image of the object, there is nothing in the recognition environment in which an image pickup means, a jig with a grid line, and an object to be recognized are to be arranged. First image processing means for obtaining a first edited image of a difference between an image in a first state that is not arranged and an image in a second state in which the jig is arranged in the recognition environment, and a recognition target of the recognition environment in the recognition environment. Second image processing means for obtaining an image in a third state in which an object is arranged and a second edited image of a difference between the images in the first state;
A third image processing means for obtaining a third edited image that is the sum of the edited image and the second edited image; and a computing means for computing three-dimensional information of the object to be recognized based on the third edited image. Is characterized by.

【0013】請求項5に係る物体認識装置は、請求項2
記載の方法の実施に使用する装置であって、前記第13画
像を得る画像処理手段と、前記第13画像に基づいて前記
認識対象の物体の3次元情報を演算する演算手段とを備
えることを特徴とする。
The object recognition apparatus according to claim 5 is the object recognition device according to claim 2.
An apparatus used for carrying out the method as described, comprising: image processing means for obtaining the thirteenth image; and computing means for computing three-dimensional information of the object to be recognized based on the thirteenth image. Characterize.

【0014】請求項6に係る物体認識装置は、物体の3
次元情報を、該物体を撮像した画像の画像処理を用いて
認識する装置において、撮像手段と、格子状の線が示さ
れた治具と、認識対象の物体を配すべき認識環境に何も
配していない第11状態の画像、及び、前記認識環境に前
記治具,認識対象の物体を配した第12状態の画像の差の
編集画像を得る画像処理手段と、前記編集画像に基づい
て前記認識対象の物体の3次元情報を演算する演算手段
とを備えることを特徴とする。
According to a sixth aspect of the object recognition apparatus, the object recognition apparatus
In an apparatus for recognizing dimensional information using image processing of an image of an image of the object, there is nothing in the recognition environment in which an image pickup means, a jig with a grid line, and an object to be recognized are to be arranged. Based on the edited image, an image processing means for obtaining an edited image of the difference between the image in the 11th state that is not arranged, and the image in the 12th state where the jig and the object to be recognized are arranged in the recognition environment. And a calculating unit that calculates three-dimensional information of the object to be recognized.

【0015】請求項1,3,4に係る3次元物体の認識
処理の概略について説明する。3次元物体の認識処理を
行う認識環境のみの状態、格子状の線が示された治具を
その認識環境に配した状態、認識対象の物体をその認識
環境に配した状態のそれぞれについてカメラにて撮像
し、各状態の画像を第1画像,第2画像,第4画像とし
て取得する。なお、これらの各画像を取得する順序は任
意であって良い。そして、第1画像と第2画像との差を
示す画像(第3画像)を、画像処理により得る。この第
3画像は、前記治具のみの画像となる。第4画像と第1
画像との差を示す画像(認識対象の物体のみの画像)及
び第3画像の和を示す第5画像を、画像処理により得
る。この第5画像は、認識対象の物体と治具との合成画
像となる。治具には座標を特定するための格子状の線が
示されており、その合成画像(第5画像)には格子状の
線と認識対象の物体とが重ねて示されているので、第5
画像から認識対象の物体の3次元情報(寸法,方向,位
置)を演算できる。
The outline of the three-dimensional object recognition processing according to claims 1, 3 and 4 will be described. The camera is in each of the state of only the recognition environment in which the three-dimensional object recognition process is performed, the state in which a jig with grid lines is placed in the recognition environment, and the state in which the object to be recognized is placed in the recognition environment. The image of each state is acquired as a first image, a second image, and a fourth image. The order of acquiring these images may be arbitrary. Then, an image (third image) showing the difference between the first image and the second image is obtained by image processing. The third image is an image of only the jig. 4th image and 1st
An image showing the difference from the image (image of only the object to be recognized) and a fifth image showing the sum of the third images are obtained by image processing. The fifth image is a composite image of the object to be recognized and the jig. Grid lines for specifying the coordinates are shown on the jig, and the composite image (fifth image) shows the grid lines and the object to be recognized in an overlapping manner. 5
Three-dimensional information (dimension, direction, position) of the object to be recognized can be calculated from the image.

【0016】請求項2,5,6に係る3次元物体の認識
処理の概略について説明する。3次元物体の認識処理を
行う認識環境のみの状態、格子状の線が示された治具及
び認識対象の物体をその認識環境に配した状態のそれぞ
れについてカメラにて撮像し、各状態の画像を第11画
像,第12画像として取得する。なお、これらの各画像を
取得する順序は任意であって良い。そして、第11画像と
第12画像との差を示す画像(第13画像)を、画像処理に
より得る。この第13画像は、認識対象の物体と治具との
合成画像となる。治具には座標を特定するための格子状
の線が示されており、その合成画像(第13画像)には格
子状の線と認識対象の物体とが重ねて示されているの
で、第13画像から認識対象の物体の3次元情報(寸法,
方向,位置)を演算できる。
The outline of the three-dimensional object recognition processing according to claims 2, 5, and 6 will be described. Images of each state are taken by the camera for each of the state of the recognition environment in which the three-dimensional object recognition process is performed, the jig in which the grid lines are shown, and the state of the object to be recognized placed in the recognition environment. Are acquired as the 11th image and the 12th image. The order of acquiring these images may be arbitrary. Then, an image (13th image) showing the difference between the 11th image and the 12th image is obtained by image processing. This thirteenth image is a composite image of the object to be recognized and the jig. Grid lines for identifying the coordinates are shown on the jig, and the composite image (13th image) shows the grid lines and the object to be recognized in an overlapping manner. Three-dimensional information (dimension,
Direction, position) can be calculated.

【0017】[0017]

【発明の実施の形態】以下、本発明をその実施の形態を
示す図面に基づいて具体的に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be specifically described below with reference to the drawings showing the embodiments.

【0018】以下に示す実施の形態では、認識する物体
が直方体であるという既知情報と単眼の画像処理装置か
ら得られる2次元情報とを組み合わせて物体の3次元情
報(物体の寸法,方向及び位置)を検出する手法につい
て説明する。図1は、本発明の物体認識方法の実施状態
の一例を示す模式図である。
In the embodiments described below, the known information that the object to be recognized is a rectangular parallelepiped is combined with the two-dimensional information obtained from the monocular image processing apparatus to combine the three-dimensional information of the object (dimension, direction and position of the object). ) Will be described. FIG. 1 is a schematic diagram showing an example of an implementation state of the object recognition method of the present invention.

【0019】図1において、1は認識対象となる被認識
物体Aを搬送するベルトコンベアである。ベルトコンベ
ア1の近傍には、被認識物体A,ベルトコンベア1など
を撮影して後述するような画像を得るカメラ2が配置さ
れていると共に、カメラ2の撮像位置を照らすための照
明3,3が設けられている。そして、被認識物体Aは任
意の方向でベルトコンベア1上に載置されて搬送され、
カメラ2の視覚領域内で一旦停止し、その画像が得られ
るようになっている。なお、カメラ2の視野は512 ×48
0 画素であり一般的な分解能を有している。
In FIG. 1, reference numeral 1 is a belt conveyor for conveying a recognition target object A to be recognized. In the vicinity of the belt conveyer 1, a camera 2 for taking an image of the object A to be recognized, the belt conveyer 1 and the like to obtain an image as described later is arranged, and illuminations 3 and 3 for illuminating the image pickup position of the camera 2. Is provided. Then, the recognized object A is placed and conveyed on the belt conveyor 1 in any direction,
The image is obtained by temporarily stopping within the visual area of the camera 2. The field of view of camera 2 is 512 x 48
It has 0 pixels and has a general resolution.

【0020】カメラ2にて得られた画像信号は、画像処
理部4に送られる。画像処理部4は、カメラ2から入力
される画像信号を処理可能な画像情報に変換するカメラ
入力I/F(インターフェース)41と、画像情報に対す
る演算処理を行う画像処理プロセッサ42と、得られた画
像情報を格納する画像メモリ43と、外部入力を行うキー
ボードを含むパソコン44とを有する。
The image signal obtained by the camera 2 is sent to the image processing section 4. The image processing unit 4 has a camera input I / F (interface) 41 for converting an image signal input from the camera 2 into processable image information, and an image processing processor 42 for performing arithmetic processing on the image information. It has an image memory 43 for storing image information and a personal computer 44 including a keyboard for external input.

【0021】また、5は表面に碁盤目状に線が記載され
ている治具としての方眼紙である。ベルトコンベア1上
に容易に載置できるものであれば、この治具の材質は任
意であり、方眼紙以外のものを使用しても良いことは勿
論である。
Numeral 5 is a graph paper as a jig having a grid-like line on its surface. The jig may be made of any material as long as it can be easily placed on the belt conveyor 1, and it is needless to say that a material other than the graph paper may be used.

【0022】次に、動作について説明する。図2,図3
は本発明の物体認識方法の処理手順を示すフローチャー
トである。
Next, the operation will be described. Figures 2 and 3
3 is a flowchart showing a processing procedure of an object recognition method of the present invention.

【0023】まず、3次元物体を認識する場となる認識
環境の画像(これを第1画像と定義する)を得る(ステ
ップS1)。具体的には、何も載せていない状態でのベ
ルトコンベア1の画像をカメラ2にて取得し、その画像
情報を画像メモリ43に格納する。図4はこの第1画像を
模式的に示しており、図4に示すようにカメラ座標系の
座標軸Xc ,Yc を定義し、両座標軸の交点(カメラ座
標系の原点)をカメラ座標原点Oc と設定する。
First, an image of a recognition environment (this is defined as a first image) to be a place for recognizing a three-dimensional object is obtained (step S1). Specifically, the camera 2 acquires an image of the belt conveyor 1 in which nothing is placed, and the image information is stored in the image memory 43. FIG. 4 schematically shows this first image. As shown in FIG. 4, the coordinate axes Xc and Yc of the camera coordinate system are defined, and the intersection of both coordinate axes (the origin of the camera coordinate system) is defined as the camera coordinate origin Oc. Set.

【0024】次に、碁盤目状に線が記されている治具を
認識環境に置き(ステップS2)、置いた状態の画像
(これを第2画像と定義する)を得る(ステップS
3)。具体的には、方眼紙5をベルトコンベア1上に載
置してその状態の画像をカメラ2にて取得し、その画像
情報を画像メモリ43に格納する。図5はこの第2画像を
模式的に示している。カメラ2が斜め方向から治具(方
眼紙5)を撮影するので、治具の碁盤目の形状は平行四
辺形で近似される格子状に認識される。また、治具座標
系(ベース座標系)の座標軸Xb ,Yb を定義し、両座
標軸の交点(ベース座標系の原点)をカメラ位置Ob と
設定する。
Next, the jig with the lines in a grid pattern is placed in the recognition environment (step S2), and an image of the placed state (this is defined as the second image) is obtained (step S).
3). Specifically, the graph paper 5 is placed on the belt conveyor 1, the image of the state is acquired by the camera 2, and the image information is stored in the image memory 43. FIG. 5 schematically shows this second image. Since the camera 2 photographs the jig (graph paper 5) from an oblique direction, the shape of the grid of the jig is recognized as a grid approximated by a parallelogram. Further, the coordinate axes Xb and Yb of the jig coordinate system (base coordinate system) are defined, and the intersection of the two coordinate axes (the origin of the base coordinate system) is set as the camera position Ob.

【0025】治具における碁盤目の各交点をPi,j と定
義する。但し、iは行番号、jは列番号をそれぞれ表し
ている。Pi,j の座標値としては、ベース座標系におけ
るベース座標値と、カメラ座標系におけるカメラ座標値
とが存在する。よって、Pi, j の座標内容は以下の
(1)のようになる。 Pi,j =(Xbi,j ,Ybi,j ,Xci,j ,Yci,j ) …(1)
Each cross point of the grid in the jig is defined as P i, j . However, i represents a row number and j represents a column number. As the coordinate value of P i, j , there are a base coordinate value in the base coordinate system and a camera coordinate value in the camera coordinate system. Therefore, the contents of coordinates of P i, j are as shown in (1) below. P i, j = (Xb i, j , Yb i, j , Xc i, j , Yc i, j ) (1)

【0026】ここで、カメラに対する治具の位置は任意
に設定できるので、カメラから見た治具の各交点Pi,j
のベース座標値Xbi,j ,Ybi,j は既知である。ま
た、各交点Pi,j のカメラ座標値Xci,j ,Yc
i,j も、カメラからの2次元画像データより直接判断で
きるので、既知である。各交点Pi,j におけるこれらの
ベース座標値及びカメラ座標値を画像処理プロセッサ42
の内部メモリ(図示せず)に記憶する(ステップS
4)。また、図6に示すように、ベース座標系平面から
カメラ2までの距離を、カメラ高さHと定義する。
Since the position of the jig with respect to the camera can be set arbitrarily, each intersection P i, j of the jig seen from the camera
The base coordinate values Xb i, j and Yb i, j of are known. Also, the camera coordinate values Xc i, j , Yc of each intersection P i, j
i and j are also known because they can be directly determined from the two-dimensional image data from the camera. The image processor 42 calculates the base coordinate value and the camera coordinate value at each intersection P i, j .
In the internal memory (not shown) of the device (step S
4). Further, as shown in FIG. 6, the distance from the base coordinate system plane to the camera 2 is defined as the camera height H.

【0027】次に、第2画像と第1画像との差を演算し
てなる画像(第3画像と定義する)を得る(ステップS
5)。具体的には、方眼紙5を載置した状態のベルトコ
ンベア1の画像情報と、ベルトコンベア1だけの画像情
報とを、画像メモリ43から画像処理プロセッサ42に読み
出し、両画像情報の差を演算してその差を示す画像情報
を画像メモリ43に格納する。図7はこの第3画像を模式
的に示しており、治具(方眼紙5)の碁盤目状の線のみ
が抽出されている。
Next, an image (defined as a third image) obtained by calculating the difference between the second image and the first image is obtained (step S).
5). Specifically, the image information of the belt conveyor 1 on which the graph paper 5 is placed and the image information of only the belt conveyor 1 are read from the image memory 43 to the image processor 42, and the difference between the two image information is calculated. Then, the image information indicating the difference is stored in the image memory 43. FIG. 7 schematically shows this third image, and only the grid-like lines of the jig (graph paper 5) are extracted.

【0028】次いで、細線化処理を施す(ステップS
6)。画像処理ではグレイスケールデータを微分し2値
化すると、線に示されるべき部分が細長い面になること
がある。この細長い面を線に変換するための処理が細線
化処理である。
Then, a thinning process is performed (step S
6). In image processing, when grayscale data is differentiated and binarized, a portion to be shown by a line may become an elongated surface. The process for converting this elongated surface into a line is a thinning process.

【0029】治具を認識環境から除去して、被認識物体
を認識環境に置く(ステップS7)。具体的には、ベル
トコンベア1から方眼紙5を取り外した後、直方体状の
被認識物体Aをベルトコンベア1に載置して搬送させ、
カメラ2の視覚領域にて停止させる。そして、被認識物
体を認識環境に置いた状態の画像(これを第4画像と定
義する)を得る(ステップS8)。具体的には、被認識
物体Aをベルトコンベア1上に載置した状態の画像をカ
メラ2にて取得し、その画像情報を画像メモリ43に格納
する。図8はこの第4画像を模式的に示している。
The jig is removed from the recognition environment and the object to be recognized is placed in the recognition environment (step S7). Specifically, after removing the graph paper 5 from the belt conveyor 1, the rectangular parallelepiped object A to be recognized is placed on the belt conveyor 1 and conveyed.
Stop in the visual area of the camera 2. Then, an image in which the object to be recognized is placed in the recognition environment (this is defined as the fourth image) is obtained (step S8). Specifically, the image of the object A to be recognized placed on the belt conveyor 1 is acquired by the camera 2, and the image information is stored in the image memory 43. FIG. 8 schematically shows this fourth image.

【0030】第4画像と第1画像との差を演算すると、
被認識物体のみを抽出できる(ステップS9)。図9は
この被認識物体(直方体)のみを抽出した画像を示して
いる。図9に示すように、カメラに最も近い抽出した直
方体の辺をx,yと定義し、辺xの端点をq1 ,q2
辺yの端点をq2 ,q3 と定義し、両辺x,yの交点q
2 を通る残りの辺をzと定義する。また、辺zの残りの
端点とカメラとを結ぶ直線が両辺x,yで決定される平
面と交わる点をq4 と定義する。
When the difference between the fourth image and the first image is calculated,
Only the object to be recognized can be extracted (step S9). FIG. 9 shows an image in which only this recognized object (rectangular solid) is extracted. As shown in FIG. 9, the sides of the extracted rectangular parallelepiped closest to the camera are defined as x and y, and the end points of the side x are q 1 , q 2 ,
The end points of the side y are defined as q 2 and q 3, and the intersection point q of both sides x and y is defined.
The remaining side passing through 2 is defined as z. Further, a point where a straight line connecting the remaining end points of the side z and the camera intersects the plane defined by both sides x and y is defined as q 4 .

【0031】物体のみを抽出した画像に細線化処理を施
した後(ステップS10)、被認識物体の4点q1
2 ,q3 ,q4 のカメラ座標系におけるカメラ座標値
を画像処理プロセッサ42の内部メモリに記憶する(ステ
ップS11)。
After subjecting the image obtained by extracting only the object to thinning processing (step S10), four points q 1 of the object to be recognized,
The camera coordinate values in the camera coordinate system of q 2 , q 3 , and q 4 are stored in the internal memory of the image processing processor 42 (step S11).

【0032】次いで、被認識物体のみを抽出した画像と
第3画像との和を演算してなる画像(第5画像と定義す
る)を得る(ステップS12)。図10はこの第5画像を模
式的に示しており、治具の碁盤目状の線の上に被認識物
体が載置されている画像となる。
Next, an image (defined as a fifth image) obtained by calculating the sum of the image obtained by extracting only the object to be recognized and the third image is obtained (step S12). FIG. 10 schematically shows the fifth image, which is an image in which the object to be recognized is placed on the grid-shaped line of the jig.

【0033】ここで、4点q1 ,q2 ,q3 ,q4 のベ
ース座標値を計算できると、それらの座標値に基づいて
被認識物体である直方体の各辺,位置,方向を求めるこ
とができる。以下、この演算方法について説明する。
Here, if the base coordinate values of the four points q 1 , q 2 , q 3 , and q 4 can be calculated, each side, position, and direction of the rectangular parallelepiped which is the object to be recognized are obtained based on these coordinate values. be able to. Hereinafter, this calculation method will be described.

【0034】まず、点q3 のベース座標値を求める手法
(ステップS13〜S19)について説明する。点q3 は、
図10に示すように、碁盤目状の4個の交点P2,6 ,P
1,6 ,P1,7 ,P2,7 で囲まれた四角形の内部に存在す
る。図11に点q3 近傍の拡大図を示す。図11において、
Xb1軸,Yb6軸は、原点Ob を点P1,6 に平行移動した
ときのXb 軸,Yb 軸に相当する。4点P1,6
1,7 ,P2,6 ,P2,7 のカメラ座標値及びベース座標
値をメモリから読み出し(ステップS13)、以下の演算
を行う。
First, a method of obtaining the base coordinate value of the point q 3 (steps S13 to S19) will be described. The point q 3 is
As shown in FIG. 10, four cross points P 2,6 , P
It exists inside a quadrangle surrounded by 1,6 , P 1,7 and P 2,7 . FIG. 11 shows an enlarged view near the point q 3 . In FIG.
The Xb1 axis and the Yb6 axis correspond to the Xb axis and the Yb axis when the origin Ob is translated to the point P 1,6 . 4 points P 1,6 ,
The camera coordinate values and base coordinate values of P 1,7 , P 2,6 and P 2,7 are read from the memory (step S13), and the following calculation is performed.

【0035】まず、直線P1,6 1,7 と直線P2,6
2,7 とが平行であるか否かを判断する(ステップS1
4)。四角形P2,6 1,6 1,7 2,7 の対辺は、単眼
視による画像歪みの影響で一般的には平行でない。平行
でない場合には、対辺P2,6 1,6とP2,7 1,7 とを
それぞれ延長してその交点をO1 とすると共に、対辺P
2,62,7 とP1,6 1,7 とをそれぞれ延長してその交
点をO2 とする。
First, the straight line P 1,6 P 1,7 and the straight line P 2,6 P
It is determined whether or not 2 and 7 are parallel (step S1
Four). The opposite sides of the quadrangle P 2,6 P 1,6 P 1,7 P 2,7 are generally not parallel due to the effect of image distortion due to monocular vision. When they are not parallel to each other, the opposite sides P 2,6 P 1,6 and P 2,7 P 1,7 are respectively extended to make the intersection point O 1, and the opposite side P 2
2,6 P 2,7 and P 1,6 P 1,7 are respectively extended and the intersection point is O 2 .

【0036】そして、これらの交点O1 ,O2 のカメラ
座標系におけるカメラ座標値を計算する(ステップS1
5)。4点P1,6 ,P1,7 ,P2,6 ,P2,7 のカメラ座
標値は既知であるので、点O1 ,O2 のカメラ座標値は
計算できる。具体的には、直線P2,6 1,6 と直線P
2,7 1,7 との式を求め、両直線の交点の座標として点
1 のカメラ座標値を計算すると共に、直線P2,6
2,7 と直線P1,6 1,7 との式を求め、両直線の交点の
座標として点O2 のカメラ座標値を計算する。
The intersection O of these points1, OTwoCamera
Calculate the camera coordinate values in the coordinate system (step S1
Five). 4 points P1,6, P1,7, P2,6, P2,7Camera seat
Since the standard value is known, the point O1, OTwoThe camera coordinate value of is
Can be calculated. Specifically, the straight line P2,6P1,6And the straight line P
2,7P1,7The equation is calculated as
O 1Calculate the camera coordinate value of2,6P
2,7And the straight line P1,6P1,7And the equation of
Point O as coordinatesTwoCalculate the camera coordinate value of.

【0037】また、点O1 と点q3 とを結ぶ直線を考
え、この直線と辺P1,6 1,7 ,辺P 2,6 2,7 との交
点をそれぞれr1 ,r3 とする。同様に、点O2 と点q
3 とを結ぶ直線を考え、この直線と辺P2,7 1,7 ,辺
2,6 1,6 との交点をそれぞr2 ,r4 とする。ここ
で、点q3 のカメラ座標値は既知であるので、各交点r
1 ,r2 ,r3 ,r4 のカメラ座標値は計算できる(ス
テップS16)。具体的には、直線O2 3 の式を求め、
この直線O2 3 と既に求めた直線P2,6 1,6との交
点の座標として点r4 のカメラ座標値を計算すると共
に、直線O1 3 の式を求め、この直線O1 3 と既に
求めた直線P1,6 1,7 との交点の座標として点r1
カメラ座標値を計算する。
The point O1And the point qThreeConsider a straight line connecting
Eh, this straight line and side P1,6P1,7, Side P 2,6P2,7Interaction with
Each point is r1, RThreeAnd Similarly, the point OTwoAnd the point q
ThreeConsider a straight line connecting to and this line and side P2,7P1,7, Side
P2,6P1,6Each intersection withTwo, RFourAnd here
And the point qThreeSince the camera coordinate value of is known, each intersection r
1, RTwo, RThree, RFourThe camera coordinate value of can be calculated (
Step S16). Specifically, straight line OTwoqThreeThe formula of
This straight line OTwoqThreeAnd the straight line P already obtained2,6P1,6Interaction with
Point r as coordinates of pointFourWhen calculating the camera coordinate values of
And a straight line O1qThreeThen, the straight line O1qThreeAnd already
Obtained straight line P1,6P1,7Point r as the coordinate of the intersection with1of
Calculate camera coordinate values.

【0038】次いで、計算した点r4 のカメラ座標値に
より、以下に示す手順に従って、点q3 のYb 軸方向の
ベース座標値を計算する(ステップS17)。図12に、直
線P 2,6 1,6 の拡大図を示す。この直線上にある点P
1,6 ,P2,6 ,r4 のそれぞれの座標内容は以下のよう
に定義される。 P1,6 =(Xb1,6 ,Yb1,6 ,Xc1,6 ,Yc1,6 ) P2,6 =(Xb2,6 ,Yb2,6 ,Xc2,6 ,Yc2,6 ) r4 =(Xb4 ,Yb4 ,Xc4 ,Yc4 ) ここで、点P1,6 ,P2,6 はカメラ座標値(Xc1,6
Yc1,6 ),(Xc2,6,Yc2,6 )及びベース座標値
(Xb1,6 ,Yb1,6 ),(Xb2,6 ,Yb2,6)は既
知である。また、点r4 はカメラ座標値(Xc4 ,Yc
4 )は上述した計算手法に求まっているが、ベース座標
値(Xb4 ,Yb4 )は現段階では未知である。
Then, the calculated point rFourTo the camera coordinate value of
Therefore, the point qThreeIn the Yb axis direction
A base coordinate value is calculated (step S17). In Figure 12,
Line P 2,6P1,6The enlarged view of FIG. Point P on this straight line
1,6, P2,6, RFourThe contents of each coordinate of
Is defined as P1,6= (Xb1,6, Yb1,6, Xc1,6, Yc1,6) P2,6= (Xb2,6, Yb2,6, Xc2,6, Yc2,6) RFour= (XbFour, YbFour, XcFour, YcFour) Where point P1,6, P2,6Is the camera coordinate value (Xc1,6,
Yc1,6), (Xc2,6, Yc2,6) And base coordinate values
(Xb1,6, Yb1,6), (Xb2,6, Yb2,6) Is already
Is knowledge. Also, the point rFourIs the camera coordinate value (XcFour, Yc
Four) Is determined by the above calculation method, but the base coordinates
Value (XbFour, YbFour) Is unknown at this stage.

【0039】図12において、カメラ座標系における線分
2,6 4 ,線分P2,6 1,6 の長さをそれぞれd
1 ,dc2 とすると、それぞれは以下のようになる。 dc1 ={(Xc2,6 −Xc4 2 +(Yc2,6 −Yc4 2 1/2 dc2 ={(Xc2,6 −Xc1,6 2 +(Yc2,6 −Yc1,6 2 1/2
In FIG. 12, the lengths of the line segment P 2,6 r 4 and the line segment P 2,6 P 1,6 in the camera coordinate system are respectively d.
Assuming c 1 and dc 2 , they are as follows. dc 1 = {(Xc 2,6 -Xc 4 ) 2 + (Yc 2,6- Yc 4 ) 2 } 1/2 dc 2 = {(Xc 2,6- Xc 1,6 ) 2 + (Yc 2, 6- Yc 1,6 ) 2 } 1/2

【0040】ところで、点P1,6 と点P2,6 と点r4
のXb 軸方向のベース座標値は、ベース座標系を設定し
た定義により等しい。また、点P1,6 ,点P2,6 のベー
ス座標値Yb1,6 ,Yb2,6 は既知であり、未知である
のは点r4 のベース座標値Yb4 のみである。ここで、
治具の碁盤目の線の間隔が十分小さい場合には、以下の
比例式が成立する。 dc1 :dc2 =|Yb2,6 −Yb4 |:|Yb2,6 −Yb1,6 | この比例式に上述のdc1 ,dc2 の計算値を代入する
ことにより、点r4 のベース座標値Yb4 を求めること
ができる。そして、治具の碁盤目の線の間隔が十分小さ
い場合には、点r4 と点q3 とのYb 軸方向のベース座
標値は等しいと近似できるので、点q3 のYb 軸方向の
ベース座標値を求めることができる。
By the way, the base coordinate values of the points P 1,6 , the points P 2,6 and the point r 4 in the Xb axis direction are equal by the definition of the base coordinate system. Also, the base coordinate values Yb 1,6 and Yb 2,6 of the points P 1,6 and P 2,6 are known, and only the base coordinate value Yb 4 of the point r 4 is unknown. here,
When the distance between the lines of the grid of the jig is sufficiently small, the following proportional expression is established. dc 1: dc 2 = | Yb 2,6 -Yb 4 |: | Yb 2,6 -Yb 1,6 | by substituting the calculated values of dc 1, dc 2 described above in the proportional, the point r 4 The base coordinate value Yb 4 of can be obtained. If the distance between the grids of the jig is sufficiently small, it can be approximated that the point r 4 and the point q 3 have the same base coordinate value in the Yb axis direction. Therefore, the base of the point q 3 in the Yb axis direction can be approximated. The coordinate value can be obtained.

【0041】直線P1,6 1,7 と直線P2,6 2,7 とが
平行である場合には(ステップS14:YES)、点q3
と点r4 とのYb 軸方向のベース座標値は同じであるの
で、以下の比例式に基づいて、点q3 のYb 軸方向のベ
ース座標値(Ybq3)を求めることができる(ステップ
S18)。 dc1 :dc2 =|Yb2,6 −Ybq3|:|Yb2,6 −Yb1,6
If the straight line P 1,6 P 1,7 and the straight line P 2,6 P 2,7 are parallel (step S 14: YES), the point q 3
And the point r 4 have the same base coordinate value in the Yb axis direction, the base coordinate value (Yb q3 ) in the Yb axis direction of the point q 3 can be obtained based on the following proportional expression (step S18). ). dc 1: dc 2 = | Yb 2,6 -Yb q3 |: | Yb 2,6 -Yb 1,6 |

【0042】また、上述したYb 軸方向のベース座標値
の算出方法と同様にして、計算した点r4 のカメラ座標
値により、点q3 のXb 軸方向のベース座標値を計算す
る(ステップS19)。従って、以上により点q3 のベー
ス座標値を得ることができる。
Further, in the same manner as the method of calculating the base coordinate value in the Yb-axis direction described above, the base coordinate value in the Xb-axis direction of the point q 3 is calculated from the calculated camera coordinate value of the point r 4 (step S19). ). Therefore, the base coordinate value of the point q 3 can be obtained by the above.

【0043】次に、上述した点q3 のベース座標値の算
出方法と全く同様の手法により、点q1 ,q2 ,q4
ベース座標値を求める(ステップS20)。
Then, the base coordinate values of the points q 1 , q 2 and q 4 are obtained by the same method as the method of calculating the base coordinate value of the point q 3 described above (step S20).

【0044】点q1 ,q2 のベース座標値によりベース
座標系の辺x、点q2 ,q3 のベース座標値によりベー
ス座標系の辺yをそれぞれ求める(ステップS21)。ま
た、辺xとベース座標系のXb 軸との傾きより、被認識
物体(直方体)の向きを求めることができる。
A side x of the base coordinate system is obtained from the base coordinate values of the points q 1 and q 2 , and a side y of the base coordinate system is obtained from the base coordinate values of the points q 2 and q 3 (step S21). Further, the orientation of the object to be recognized (rectangular solid) can be obtained from the inclination between the side x and the Xb axis of the base coordinate system.

【0045】次に、点q2 ,q4 のベース座標値によ
り、ベース座標系の辺zを求める(ステップS22)。図
13は、この求め方の原理を示す模式図である。図13にお
いて、q4 ′は辺zの他方の端点であり、カメラ位置か
ら点q2 ,q4 までの距離をそれぞれA2 ,A4 とす
る。距離A2 ,A4 は、点q2 ,q4 のベース座標値か
ら計算できる。辺zは、以下の比例式に基づいて計算で
きる。 H:z=A4 :(A4 −A2
Next, the side z of the base coordinate system is obtained from the base coordinate values of the points q 2 and q 4 (step S22). Figure
FIG. 13 is a schematic diagram showing the principle of this determination method. In FIG. 13, q 4 ′ is the other end point of the side z, and the distances from the camera position to the points q 2 and q 4 are A 2 and A 4 , respectively. The distances A 2 and A 4 can be calculated from the base coordinate values of the points q 2 and q 4 . The side z can be calculated based on the following proportional expression. H: z = A 4: ( A 4 -A 2)

【0046】以上のようにして、単一のカメラを使用す
る画像処理システムを用いて、直方体形状をなす被認識
物体の絶対位置,方位,寸法を認識することができる。
As described above, it is possible to recognize the absolute position, orientation, and size of the object to be recognized having a rectangular parallelepiped shape by using the image processing system using a single camera.

【0047】1つの被認識物体に対する認識処理が終了
すると、認識すべき被認識物体が残存しているか否かを
判断する(ステップS23)。残存している場合には、ス
テップS7に戻って、再び被認識物体の認識環境への載
置(ベルトコンベア1上への次の被認識物体Aの載置)
から処理動作を繰り返す。
When the recognition process for one object to be recognized is completed, it is judged whether or not the object to be recognized remains to be recognized (step S23). If it remains, the process returns to step S7, and the object to be recognized is placed in the recognition environment again (the next object to be recognized A is placed on the belt conveyor 1).
The processing operation is repeated from.

【0048】なお、上述の例では、被認識物体が直方体
形状を有する場合について説明したが、三角柱,四角
錐,三角錐などの他の形状の被認識物体についても、同
様に認識処理を行えることは言うまでもない。
In the above example, the case where the object to be recognized has a rectangular parallelepiped shape has been described. However, recognition processing can be similarly performed on objects to be recognized having other shapes such as a triangular prism, a quadrangular pyramid, and a triangular pyramid. Needless to say.

【0049】上述した実施の形態では、ベルトコンベア
1のみの状態の第1画像、方眼紙5をベルトコンベア1
に載置した状態の第2画像、被認識物体Aをベルトコン
ベア1に載置した状態の第4画像をカメラ2にてこの順
に取得したが、最終的に第5画像が得られれば良いの
で、任意の順序でこれらの各画像を取得するようにして
良い。
In the above-described embodiment, the first image in the state where only the belt conveyor 1 is used, the graph paper 5 is used.
The second image of the state in which the object A to be recognized is placed on the belt conveyor 1 and the fourth image in the state of being placed on the belt conveyor 1 are acquired by the camera 2 in this order, but it is sufficient that the fifth image is finally obtained. , Each of these images may be acquired in any order.

【0050】また、上述した実施の形態では、認識環境
がベルトコンベア1上である場合を想定したので、実用
的になるように、方眼紙5(治具)を取り外した後に被
認識物体Aを載置するようにしている。勿論、認識環境
に載置した治具の上に直接被認識物体を載置するように
しても良い。以下に、このようにする場合の処理手順に
ついて説明する。
Further, in the above-described embodiment, the case where the recognition environment is on the belt conveyor 1 is assumed, so that the recognition target object A is removed after removing the graph paper 5 (jig) so as to be practical. I try to put it on. Of course, the recognized object may be placed directly on the jig placed in the recognition environment. The processing procedure in such a case will be described below.

【0051】まず、何も載せていない状態での認識環境
の画像(これを第11画像と定義する)をカメラにて取得
する。この第11画像は、上述の第1画像(図4参照)と
同一のものである。次いで、認識環境に治具及び被認識
物体を載置し、これらを載置した状態での認識環境の画
像(これを第12画像と定義する)をカメラにて取得す
る。第12画像と第11画像との差を示す画像(これを第13
画像と定義する)を画像演算処理よって得る。この第13
画像は、上述の第5画像(図10参照)と同一のものであ
る。そして、得られた第13画像に基づいて、被認識物体
の3次元情報(寸法,方向及び位置)を求める。なお、
この場合の3次元情報を求める計算手法は、上述した第
5画像に基づく計算手法と同じであるので、説明は省略
する。
First, an image of the recognition environment in which nothing is placed (this is defined as the 11th image) is acquired by the camera. This eleventh image is the same as the above-mentioned first image (see FIG. 4). Next, the jig and the object to be recognized are placed in the recognition environment, and an image of the recognition environment with these placed (this is defined as a twelfth image) is acquired by the camera. An image showing the difference between the 12th image and the 11th image.
(Defined as an image) is obtained by image calculation processing. This thirteenth
The image is the same as the above-mentioned fifth image (see FIG. 10). Then, based on the obtained thirteenth image, three-dimensional information (dimension, direction and position) of the recognized object is obtained. In addition,
The calculation method for obtaining the three-dimensional information in this case is the same as the above-described calculation method based on the fifth image, and thus description thereof will be omitted.

【0052】[0052]

【発明の効果】以上のように、設置するカメラが1台で
良いので、2台のカメラを用いるステレオ画像法に比べ
て安価である、また、治具の碁盤目の既知情報を利用す
るので、スリット光投影法に比べて認識処理速度が速
い、また、被認識物体を認識環境に置いた状態の画像と
認識環境のみの状態の画像との差を表す画像を利用する
ので、認識環境が複雑であっても被認識物体の3次元情
報を検出できる等、本発明は優れた効果を奏する。
As described above, since only one camera needs to be installed, it is less expensive than the stereo image method using two cameras, and the known information on the grid of the jig is used. , The recognition processing speed is faster than the slit light projection method, and since the image showing the difference between the image of the recognition target object placed in the recognition environment and the image of the recognition environment only is used, the recognition environment is The present invention has excellent effects such as being able to detect three-dimensional information of an object to be recognized even if it is complicated.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の物体認識方法の実施状態を示す模式図
である。
FIG. 1 is a schematic diagram showing an implementation state of an object recognition method of the present invention.

【図2】本発明の物体認識方法の手順を示すフローチャ
ートである。
FIG. 2 is a flowchart showing a procedure of an object recognition method of the present invention.

【図3】本発明の物体認識方法の手順を示すフローチャ
ートである。
FIG. 3 is a flowchart showing a procedure of an object recognition method of the present invention.

【図4】認識環境のみの状態を示す第1画像の模式図で
ある。
FIG. 4 is a schematic diagram of a first image showing only a recognition environment.

【図5】認識環境に治具を載置した状態を示す第2画像
の模式図である。
FIG. 5 is a schematic diagram of a second image showing a state in which a jig is placed in a recognition environment.

【図6】カメラの高さHの定義を説明するための図であ
る。
FIG. 6 is a diagram for explaining the definition of a camera height H.

【図7】治具を示す第3画像(=第2画像−第1画像)
の模式図である。
FIG. 7 is a third image (= second image-first image) showing the jig.
FIG.

【図8】認識環境に被認識物体を載置した状態を示す第
4画像の模式図である。
FIG. 8 is a schematic diagram of a fourth image showing a state in which an object to be recognized is placed in a recognition environment.

【図9】被認識物体を示す模式図である。FIG. 9 is a schematic diagram showing an object to be recognized.

【図10】被認識物体及び治具を示す第5画像(=第4
画像−第1画像+第3画像)の模式図である。
FIG. 10 is a fifth image (= fourth image) showing a recognized object and a jig.
It is a schematic diagram of (image-first image + third image).

【図11】被認識物体の一頂点近傍の拡大図である。FIG. 11 is an enlarged view of the vicinity of one vertex of a recognized object.

【図12】図11の更なる拡大図である。FIG. 12 is a further enlarged view of FIG. 11.

【図13】被認識物体の一辺を求める原理を説明するた
めの図である。
FIG. 13 is a diagram for explaining the principle of obtaining one side of a recognized object.

【図14】従来法(ステレオ画像法)の原理を説明すた
めの模式図である。
FIG. 14 is a schematic diagram for explaining the principle of a conventional method (stereo image method).

【図15】従来法(スリット光投影法)の原理を説明す
ための模式図である。
FIG. 15 is a schematic diagram for explaining the principle of a conventional method (slit light projection method).

【符号の説明】[Explanation of symbols]

1 ベルトコンベア 2 カメラ 3 照明 4 画像処理部 5 方眼紙(治具) 42 画像処理プロセッサ 43 画像メモリ A 被認識物体 1 Belt Conveyor 2 Camera 3 Illumination 4 Image Processor 5 Graph Paper (Jig) 42 Image Processor 43 Image Memory A Object to be recognized

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 物体の3次元情報を、該物体を撮像した
画像の画像処理を用いて認識する方法において、認識対
象の物体を配する認識環境のみを撮像して第1画像を得
る工程と、格子状の線が示された治具を前記認識環境に
配する工程と、該治具を配した状態の前記認識環境を撮
像して第2画像を得る工程と、該第2画像と前記第1画
像との差の第3画像を得る工程と、前記認識環境に認識
対象の物体を配する工程と、該物体を配した状態の前記
認識環境を撮像して第4画像を得る工程と、該第4画像
及び前記第1画像の差と前記第3画像との和の第5画像
を得る工程と、前記第5画像に基づいて前記認識対象の
物体の3次元情報を演算する工程とを有することを特徴
とする物体認識方法。
1. A method of recognizing three-dimensional information of an object using image processing of an image of the object, the method comprising: capturing only a recognition environment in which an object to be recognized is arranged to obtain a first image. A step of arranging a jig having a grid-like line in the recognition environment, a step of capturing an image of the recognition environment with the jig arranged to obtain a second image, the second image and the A step of obtaining a third image which is a difference from the first image, a step of arranging an object to be recognized in the recognition environment, and a step of imaging the recognition environment with the object arranged to obtain a fourth image A step of obtaining a fifth image of a sum of the difference between the fourth image and the first image and the third image, and a step of calculating three-dimensional information of the object to be recognized based on the fifth image. An object recognition method comprising:
【請求項2】 物体の3次元情報を、該物体を撮像した
画像の画像処理を用いて認識する方法において、認識対
象の物体を配する認識環境のみを撮像して第11画像を得
る工程と、格子状の線が示された治具及び認識対象の物
体を前記認識環境に配する工程と、前記治具及び前記認
識対象の物体を配した状態の前記認識環境を撮像して第
12画像を得る工程と、前記第12画像と前記第11画像との
差の第13画像を得る工程と、前記第13画像に基づいて前
記認識対象の物体の3次元情報を演算する工程とを有す
ることを特徴とする物体認識方法。
2. A method of recognizing three-dimensional information of an object by using image processing of an image of the object, the method comprising the step of imaging only a recognition environment in which an object to be recognized is arranged to obtain an eleventh image. A step of arranging the jig and the object to be recognized in which the grid-like lines are shown in the recognition environment, and an image of the recognition environment in which the jig and the object to be recognized are arranged.
A step of obtaining 12 images, a step of obtaining a 13th image which is a difference between the 12th image and the 11th image, and a step of calculating three-dimensional information of the recognition target object based on the 13th image. An object recognition method having.
【請求項3】 請求項1記載の方法の実施に使用する装
置であって、前記第3画像及び第5画像を得る画像処理
手段と、前記第5画像に基づいて前記認識対象の物体の
3次元情報を演算する演算手段とを備えることを特徴と
する物体認識装置。
3. An apparatus used for carrying out the method according to claim 1, comprising image processing means for obtaining the third image and the fifth image, and the object to be recognized 3 based on the fifth image. An object recognition apparatus, comprising: a calculation unit that calculates dimension information.
【請求項4】 物体の3次元情報を、該物体を撮像した
画像の画像処理を用いて認識する装置において、撮像手
段と、格子状の線が示された治具と、認識対象の物体を
配すべき認識環境に何も配していない第1状態の画像、
及び、前記認識環境に前記治具を配した第2状態の画像
の差の第1編集画像を得る第1画像処理手段と、前記認
識環境に認識対象の物体を配した第3状態の画像、及
び、前記第1状態の画像の差の第2編集画像を得る第2
画像処理手段と、前記第1編集画像及び前記第2編集画
像の和の第3編集画像を得る第3画像処理手段と、前記
第3編集画像に基づいて前記認識対象の物体の3次元情
報を演算する演算手段とを備えることを特徴とする物体
認識装置。
4. An apparatus for recognizing three-dimensional information of an object by using image processing of an image of the object, the imaging means, a jig having a grid line, and an object to be recognized. An image of the first state where nothing is placed in the recognition environment to be placed,
And first image processing means for obtaining a first edited image of a difference between images in a second state in which the jig is placed in the recognition environment, and an image in a third state in which an object to be recognized is placed in the recognition environment, And a second obtaining an edited image of the difference between the images in the first state.
Image processing means, third image processing means for obtaining a third edited image that is the sum of the first edited image and the second edited image, and three-dimensional information of the object to be recognized based on the third edited image. An object recognition device, comprising: a calculation unit that calculates.
【請求項5】 請求項2記載の方法の実施に使用する装
置であって、前記第13画像を得る画像処理手段と、前記
第13画像に基づいて前記認識対象の物体の3次元情報を
演算する演算手段とを備えることを特徴とする物体認識
装置。
5. An apparatus used for carrying out the method according to claim 2, wherein image processing means for obtaining the thirteenth image and three-dimensional information of the object to be recognized are calculated based on the thirteenth image. An object recognition apparatus comprising:
【請求項6】 物体の3次元情報を、該物体を撮像した
画像の画像処理を用いて認識する装置において、撮像手
段と、格子状の線が示された治具と、認識対象の物体を
配すべき認識環境に何も配していない第11状態の画像、
及び、前記認識環境に前記治具,認識対象の物体を配し
た第12状態の画像の差の編集画像を得る画像処理手段
と、前記編集画像に基づいて前記認識対象の物体の3次
元情報を演算する演算手段とを備えることを特徴とする
物体認識装置。
6. An apparatus for recognizing three-dimensional information of an object by using image processing of an image of the object, the imaging means, a jig having a grid line, and an object to be recognized. An image of the 11th state where nothing is placed in the recognition environment that should be placed,
And image processing means for obtaining an edited image of the difference between the images in the twelfth state in which the jig and the object to be recognized are arranged in the recognition environment, and three-dimensional information of the object to be recognized based on the edited image. An object recognition device, comprising: a calculation unit that calculates.
JP7305846A 1995-11-24 1995-11-24 Object recognition method and apparatus Expired - Fee Related JP2939577B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7305846A JP2939577B2 (en) 1995-11-24 1995-11-24 Object recognition method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7305846A JP2939577B2 (en) 1995-11-24 1995-11-24 Object recognition method and apparatus

Publications (2)

Publication Number Publication Date
JPH09145331A true JPH09145331A (en) 1997-06-06
JP2939577B2 JP2939577B2 (en) 1999-08-25

Family

ID=17950075

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7305846A Expired - Fee Related JP2939577B2 (en) 1995-11-24 1995-11-24 Object recognition method and apparatus

Country Status (1)

Country Link
JP (1) JP2939577B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000033024A1 (en) * 1998-12-03 2000-06-08 Technowave, Ltd. Information reader
JP2004219255A (en) * 2003-01-15 2004-08-05 Matsushita Electric Ind Co Ltd Device, method, and program for measuring size
KR100624469B1 (en) * 2004-11-19 2006-09-15 삼성전자주식회사 Checker board having asymmetrical pattern, method and apparatus for calibrating images obtained from image acquisition apparatus using the same
JP2013142670A (en) * 2012-01-12 2013-07-22 Honda Motor Co Ltd Image recognition device and workpiece transfer method using the same

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000033024A1 (en) * 1998-12-03 2000-06-08 Technowave, Ltd. Information reader
JP2004219255A (en) * 2003-01-15 2004-08-05 Matsushita Electric Ind Co Ltd Device, method, and program for measuring size
KR100624469B1 (en) * 2004-11-19 2006-09-15 삼성전자주식회사 Checker board having asymmetrical pattern, method and apparatus for calibrating images obtained from image acquisition apparatus using the same
JP2013142670A (en) * 2012-01-12 2013-07-22 Honda Motor Co Ltd Image recognition device and workpiece transfer method using the same

Also Published As

Publication number Publication date
JP2939577B2 (en) 1999-08-25

Similar Documents

Publication Publication Date Title
JP5713159B2 (en) Three-dimensional position / orientation measurement apparatus, method and program using stereo images
KR100785594B1 (en) Image process apparatus
CN110926330B (en) Image processing apparatus, image processing method, and program
US20200380229A1 (en) Systems and methods for text and barcode reading under perspective distortion
Balzer et al. Multiview specular stereo reconstruction of large mirror surfaces
JP5156601B2 (en) Shape measuring apparatus and program
JP5297779B2 (en) Shape measuring apparatus and program
JP2006349586A (en) Three-dimensional measurement method and three-dimensional measuring device
JP2010145186A (en) Shape measuring device and program
KR101021027B1 (en) Stereoscopic 3D Measuring System and Method for Efficiency Evaluation of Skin Products
JP2007508557A (en) Device for scanning three-dimensional objects
KR101931564B1 (en) Device and method for processing image using image registration
JPH1079029A (en) Stereoscopic information detecting method and device therefor
Siddique et al. 3d object localization using 2d estimates for computer vision applications
JP2939577B2 (en) Object recognition method and apparatus
JP7298687B2 (en) Object recognition device and object recognition method
JPH1038542A (en) Method and device for object recognition and recording medium
JPH1030917A (en) Object recognition method and device therefor, and recording medium
JP4359939B2 (en) Image measuring device
JPH0875454A (en) Range finding device
JPH11259658A (en) Body recognizing method and body recognizing device using same method, and method and device for vehicle recognition
Stenstrom et al. Building wire frames from multiple range views
JP2005292027A (en) Processor and method for measuring/restoring three-dimensional shape
JPH06281421A (en) Image processing method
JP2013109692A (en) Image processing device, image processing method, and image processing program

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees