JPH0534602B2 - - Google Patents

Info

Publication number
JPH0534602B2
JPH0534602B2 JP58064214A JP6421483A JPH0534602B2 JP H0534602 B2 JPH0534602 B2 JP H0534602B2 JP 58064214 A JP58064214 A JP 58064214A JP 6421483 A JP6421483 A JP 6421483A JP H0534602 B2 JPH0534602 B2 JP H0534602B2
Authority
JP
Japan
Prior art keywords
light
light emitting
emitting element
shape
circle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP58064214A
Other languages
Japanese (ja)
Other versions
JPS59188509A (en
Inventor
Atsushi Ootani
Mitsuo Nakagawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP6421483A priority Critical patent/JPS59188509A/en
Publication of JPS59188509A publication Critical patent/JPS59188509A/en
Publication of JPH0534602B2 publication Critical patent/JPH0534602B2/ja
Granted legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/026Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Description

【発明の詳細な説明】 発明の技術分野 本発明は、ロボツト等の自動機械における作業
対象物体の3次元的位置,姿勢および形状を自動
的に認識する物体の位置および形状認識方法に関
するものである。
[Detailed Description of the Invention] Technical Field of the Invention The present invention relates to an object position and shape recognition method that automatically recognizes the three-dimensional position, posture, and shape of a work target object in an automatic machine such as a robot. .

技術の背景 従来のこの種の方法としては、ITVカムラ等
を用いて物体を2次元の濃淡画像として入力し、
前処理を施した後、人工知能的に解釈を行い物体
を認識する方法、2台のITVカメラ等の光セン
サを用いて視線の角度より三角測量の原理で物体
を認識する方法、レーザトラツカを用いる方法、
スリツト光を投影する方法、発光素子と受光素子
を用い物体からの反射光により物体までの距離を
求める方法があつた。
Background of the technology Conventional methods of this type involve inputting an object as a two-dimensional grayscale image using ITV Camra, etc.
After pre-processing, the object is recognized by interpretation using artificial intelligence, the object is recognized by the principle of triangulation based on the angle of sight using optical sensors such as two ITV cameras, and the laser tracker is used. Method,
There was a method of projecting slit light, and a method of determining the distance to an object using light reflected from the object using a light emitting element and a light receiving element.

従来技術と問題点 この種いくつかの従来の方法と、これら各方法
の問題点を次に説明する。
Prior Art and Problems Several conventional methods of this type and the problems of each method will be described below.

第1番目の物体を2次元の濃淡画像として表現
する方式は、予め物体に関する知識が必要な場合
が多く、前処理が完全でなかつたり、ノイズや陰
影が存在したり、物体が複雑な形状をしている場
合は正確に物体を認識できない、さらに処理量が
ぼう大で処理時間およびハードウエア規模が増大
するという欠点があつた。また、前処理として画
像のある濃度レベルで2値化を行い、これを用い
て物体を認識する方法は広く工業的にも用いられ
ているが、照明条件や物体の表面状態、あるいは
2次元的対象に限られる等適用可能な条件に関し
強い制約があり、任意の環境において3次元的な
物体を正確に認識できないという欠点を有してい
る。
The method of representing the first object as a two-dimensional grayscale image often requires prior knowledge of the object, and the preprocessing may not be complete, there may be noise or shadows, or the object may have a complex shape. However, in the case of a conventional method, the object cannot be recognized accurately, and the amount of processing is large, which increases the processing time and hardware size. In addition, the method of binarizing an image at a certain density level as preprocessing and using this to recognize objects is widely used industrially, but There are strong restrictions regarding applicable conditions, such as being limited to objects, and it has the disadvantage that three-dimensional objects cannot be accurately recognized in any environment.

第2番目の2個の光センサを用いた視線角度に
よる方法を第1図に示す。101は光、102は
固定ミラー、103は可動ミラー、104は光検
出センサ、105は相関器である。物体からの光
101が固定ミラー102および可動ミラー10
3で反射され、光検出センサ104に導き、可動
ミラー103を回転させ、相関器105により左
右の画像の相関が最大となる点から三角測量の原
理より物体までの距離を知ることができるが、相
関の検出が難しく、物体の認識精度が必ずしも高
くないという欠点がある。
FIG. 1 shows the second method using the line of sight angle using two optical sensors. 101 is a light, 102 is a fixed mirror, 103 is a movable mirror, 104 is a light detection sensor, and 105 is a correlator. Light 101 from an object is transmitted to a fixed mirror 102 and a movable mirror 10.
3 and guided to the photodetection sensor 104, the movable mirror 103 is rotated, and the distance to the object can be determined by the principle of triangulation from the point where the correlation between the left and right images is maximum by the correlator 105. The disadvantage is that it is difficult to detect correlations and the accuracy of object recognition is not necessarily high.

第3番目のレーザトラツカによる方法を第2図
に示す。106はレーザ光、107は物体、10
8はイメージデイセクタ、109は背景、110
は物体の突出部である。図示しないレーザ光源か
らレーザ光106を物体107に照射し、その反
射光をイメージデイセクタ108で受光し、その
2次元座標出力およびレーザ光106の基準軸か
らの傾きより物体上の反射点Aの(X,Y,Z)
座標を求めるものである。すなわち、このレーザ
光106を2次元的に走査し、各走査に対応した
反射点AのY座標を利用すれば、背景109に照
射された場合に生じるY座標の不連続性により物
体の輪郭が認識できるが、点線で示したような突
出部110がありレーザ光106をさえぎる場合
には検出不能になる、2物体が完全に重なりあつ
たときの境界やクラツクは検出できない、複雑な
形状の物体認識には適さないという欠点があつ
た。
A third method using a laser tracker is shown in FIG. 106 is a laser beam, 107 is an object, 10
8 is the image day sector, 109 is the background, 110
is the protrusion of the object. A laser beam 106 is irradiated onto an object 107 from a laser light source (not shown), and the reflected light is received by an image dissector 108, and the reflection point A on the object is determined from the two-dimensional coordinate output and the inclination of the laser beam 106 from the reference axis. (X, Y, Z)
This is to find the coordinates. In other words, if this laser beam 106 is scanned two-dimensionally and the Y coordinate of the reflection point A corresponding to each scan is used, the outline of the object can be distorted due to the discontinuity of the Y coordinate that occurs when the background 109 is irradiated. Objects with complex shapes that can be recognized, but become undetectable if there is a protrusion 110 as shown by the dotted line that blocks the laser beam 106, or boundaries or cracks when two objects completely overlap cannot be detected. The drawback was that it was not suitable for recognition.

第4番目のスリツト光を投影する方式を原理的
に示したのが第3図である。111はスリツト、
112は光源、113はスリツト光、114は物
体、115はTVカメラである。スリツト111
を光源112で照射するとスリツト光113が得
られるが、スリツト光113を少しずつ角度を変
えて物体114に照射し、そのスリツト光113
のパターン群をTVカメラ115より入力し、ス
リツト光113の折点,途切れ点等を解析するこ
とにより物体を認識するものであるが、認識精度
が高くならない、重なり合つた物体の境界や物体
表面のクラツク検出,複雑な形状物体認識には適
さないという欠点があつた。
FIG. 3 shows the principle of the method of projecting the fourth slit light. 111 is slit,
112 is a light source, 113 is a slit light, 114 is an object, and 115 is a TV camera. slit 111
When irradiated with the light source 112, a slit light 113 is obtained.The slit light 113 is irradiated onto an object 114 while changing the angle little by little, and the slit light 113 is
Objects are recognized by inputting a group of patterns from the TV camera 115 and analyzing the breaking points, discontinuities, etc. of the slit light 113, but the recognition accuracy is not high due to the boundaries of overlapping objects and object surfaces. The drawback was that it was not suitable for crack detection or recognition of objects with complex shapes.

第5番目の物体に光を照射し、物体からの反射
光による方式を第4図に示す。116は発光素
子、117は受光素子、118は物体、119は
検出領域、120はアームである。発光素子11
6から光を物体118に照射し、反射光を受光素
子117で検出する。物体118が検出領域11
9に存在すると、受光素子117で光を検出でき
るので、常に物体118が検知できるようにセン
サをとりつけたアーム120を制御するものであ
るが、検出範囲が限られること、物体118全体
を走査するには時間がかかること、物体118の
微妙な形状は検出できないという欠点があつた。
FIG. 4 shows a method in which a fifth object is irradiated with light and light is reflected from the object. 116 is a light emitting element, 117 is a light receiving element, 118 is an object, 119 is a detection area, and 120 is an arm. Light emitting element 11
6 irradiates the object 118 with light, and the light receiving element 117 detects the reflected light. Object 118 is detection area 11
9, the light can be detected by the light-receiving element 117, so the arm 120 to which the sensor is attached is controlled so that the object 118 can be detected at all times, but the detection range is limited and the entire object 118 must be scanned. This method has disadvantages in that it takes time and the delicate shape of the object 118 cannot be detected.

発明の目的 本発明はこれらの欠点を除去するため、視覚セ
ンサより入力した対象物体の2次元画像から物体
の輪郭線の候補を抽出したのち、同一円周上に複
数個の発光素子を配置し、該円の中心を通り円に
垂直な直線上の任意の1点にその発光光線が集光
するよう、制御可能な投光機構から物体の輪郭線
の候補の付近に投光を行い、物体上に形成された
光スポツトのパターンから物体か否かの判断,物
体面の傾き、物体面までの距離を検出するように
したもので、以下図面について詳細に説明する。
Purpose of the Invention In order to eliminate these drawbacks, the present invention extracts candidate outlines of the object from a two-dimensional image of the object input by a visual sensor, and then arranges a plurality of light emitting elements on the same circumference. , a controllable light projection mechanism projects light near a candidate outline of the object so that the emitted light beam passes through the center of the circle and focuses on an arbitrary point on a straight line perpendicular to the circle. Based on the pattern of light spots formed on the object, it is determined whether it is an object or not, and the inclination of the object surface and the distance to the object surface are detected.The drawings will be described in detail below.

発明の実施例 第5図は本発明を説明する実施例の構成概要を
示すものである。1は投光機構、2は視覚センサ
でたとえばTVカメラ、3は認識対象物体、4は
光スポツトである。第6図a,bは投光機構1の
構成例を動作説明を含めて示しており、5は発光
素子、6は光線、7は発光素子5が配置されてい
る円の該発光素子5からの発光光線が集光する円
に垂直な線である。発光素子5はレーザ光等の発
光源あるいは単一の光源から導かれた複数体の光
フアイバの端面等であり、同一円周上に複数個配
置されている。その個数は多い程望ましい。発光
素子5から発光された光線6は、線7上の任意の
点に集光するように円錐の頂角〓及びその集光す
る点までの距離lが制御可能である。
Embodiment of the Invention FIG. 5 shows an outline of the configuration of an embodiment for explaining the present invention. 1 is a light projecting mechanism, 2 is a visual sensor such as a TV camera, 3 is an object to be recognized, and 4 is a light spot. 6a and 6b show an example of the structure of the light projecting mechanism 1 including an explanation of its operation, 5 is a light emitting element, 6 is a light beam, and 7 is a circle in which the light emitting element 5 is arranged. is a line perpendicular to the circle on which the emitted light rays of are focused. The light-emitting elements 5 are end faces of a plurality of optical fibers guided from a light-emitting source such as a laser beam or a single light source, and a plurality of light-emitting elements 5 are arranged on the same circumference. The larger the number, the more desirable. The apex angle of the cone and the distance l to the condensing point can be controlled so that the light ray 6 emitted from the light emitting element 5 is condensed at an arbitrary point on the line 7.

本発明では、まず第5図のTVカメラ等の視覚
センサ2より物体3の濃淡画像を取込む。さら
に、微分オペレータあるいはハイパス・フイルタ
操作等により、濃淡の急変部を物体の輪郭線候補
として抽出する。物体3のAの部分の例を第7図
に示す。例示した10×10のメツシユにおいて黒く
塗つた画素が候補画素である。第7図において候
補画素列の右側(Bの部分),左側(Cの部分)
のいずれが物体なのかは予め知識がなければわか
らない。そこで投光機構1により第7図のB及び
Cの部分に投光を行う。まずBの部分に投光する
と、一般には一点に集光せず、第8図aのように
少しずれて重なつたり、第8図bのように完全に
離れた形でスポツトが存在することになる。そこ
で発光素子5の制御を行い、一点に集光させる。
この処理は視覚センサ2の前面に適当なレーザ光
フイルタ等を設置し、スポツト光だけ視覚センサ
2に取込み、その面積の和が最小になるように発
光素子5の制御を行う。このようにすれば第7図
Bの部分までの距離が検出できる。次に、発光素
子5をその状態に保ちつつ投光機構1をCに対応
する位置まで平行移動し、Cの部分に対し投光を
行う。Cの部分は第5図の場合、背景に対応して
いるので、物体3より一般には遠い場所にあり、
第8図bのようなスポツト光パターンになるか、
あるいは反射光が検出されない状態になる。従つ
て、第7図の輪郭線候補画素は実際の輪郭である
ことがわかり、さらにBが物体、Cが背景である
ことがわかる。このようにスポツト光の面積の和
より判断を行うので、物体の色や照明の明るさに
処理は影響されない。また、輪郭線候補画素が、
ノイズであつたり陰影の境界線であつたり、物体
に記された文字や記号であつた場合、あるいは物
体表面のクラツク,物体が重なり合つた境界線で
ある場合は、輪郭線候補画素の両側でスポツトパ
ターンは変化せず、輪郭線候補画素は輪郭でない
と判断できる。逆に、輪郭線候補画素が途切れて
いる場合も、真に途切れているのか否かの確認を
行うことができる。
In the present invention, first, a grayscale image of an object 3 is captured by a visual sensor 2 such as a TV camera shown in FIG. Furthermore, by operating a differential operator or a high-pass filter, a sudden change in density is extracted as a candidate outline of the object. An example of part A of object 3 is shown in FIG. In the example 10×10 mesh, pixels painted black are candidate pixels. In Figure 7, the right side (part B) and the left side (part C) of the candidate pixel row
You cannot know which one is an object without prior knowledge. Therefore, the light projecting mechanism 1 projects light onto portions B and C in FIG. First, when light is projected onto part B, it generally does not focus on one point, but may overlap with a slight deviation as shown in Figure 8a, or be completely separated as shown in Figure 8b. become. Therefore, the light emitting element 5 is controlled to focus the light on one point.
In this process, a suitable laser light filter or the like is installed in front of the visual sensor 2, and only spot light is taken into the visual sensor 2, and the light emitting elements 5 are controlled so that the sum of the areas is minimized. In this way, the distance to the part shown in FIG. 7B can be detected. Next, while keeping the light emitting element 5 in that state, the light projection mechanism 1 is moved in parallel to the position corresponding to C, and light is projected onto the portion C. In the case of Figure 5, part C corresponds to the background, so it is generally located far away from object 3.
Will the spot light pattern be as shown in Figure 8b?
Or the reflected light will not be detected. Therefore, it can be seen that the contour line candidate pixels in FIG. 7 are the actual contours, and furthermore, it can be seen that B is the object and C is the background. In this way, since the judgment is made based on the sum of the areas of the spot lights, the processing is not affected by the color of the object or the brightness of the illumination. In addition, the contour line candidate pixels are
If it is noise, a boundary line between shadows, characters or symbols written on an object, cracks on the object surface, or a boundary line where objects overlap, the pixels on both sides of the outline candidate pixel are The spot pattern does not change, and it can be determined that the contour candidate pixels are not contours. Conversely, even if the outline candidate pixels are interrupted, it is possible to confirm whether or not the outline candidate pixels are truly interrupted.

本発明を用いて物体面の方向を知ることができ
る。第5図の物体3のA′部分の輪郭候補画素を
第9図に示す。第9図のB′,C′,D′部分へ第8
図bの光スポツト群を投光すると、第10図a〜
cのようなスポツトパターンが得られる。すなわ
ち、面の方向により異なつた形状のパターンが得
られるので、これを利用して逆に面の方向を知る
ことができる。さらに第11図のカツプのような
曲面で構成される物体に対しても前述のスポツト
パターンを発生させることにより面の局所的方向
を定めることができ、全体的な曲面も認識でき
る。
The present invention can be used to know the direction of the object plane. FIG. 9 shows outline candidate pixels of the A' portion of object 3 in FIG. 5. 8 to parts B', C', and D' in Figure 9.
When the light spot group shown in Figure b is projected, Figure 10 a~
A spot pattern as shown in c is obtained. That is, since patterns with different shapes can be obtained depending on the direction of the surface, it is possible to use this to know the direction of the surface. Furthermore, even for an object composed of a curved surface such as the cup shown in FIG. 11, by generating the spot pattern described above, the local direction of the surface can be determined, and the overall curved surface can also be recognized.

以上のように、物体の濃淡画像情報に基づき、
その濃度の急変部に着目し、必要な部分、あるい
は確認すべき部分にだけ前述の投光を行えば、物
体までの距離,物体面の方向等を知ることができ
るため、予め物体に関する知識が無くても物体の
認識を高速に行うことができる。さらに、物体の
濃淡画像の急変部を用いるので、2物体が完全に
重なりあつた境界や物体表面のクラツクの検出を
行うこともできる。
As described above, based on the grayscale image information of the object,
By focusing on the areas where the concentration suddenly changes and emitting the light as described above only to the necessary areas or areas to be confirmed, it is possible to know the distance to the object, the direction of the object surface, etc., so you can know the object beforehand. Even without it, objects can be recognized at high speed. Furthermore, since a sudden change in the density image of an object is used, it is also possible to detect a boundary where two objects completely overlap or a crack on the object surface.

第12図は本発明の投光機構1の実施例の機構
要部を示す図である。第6図と同じ符号は同じ部
分を示す。8はボールネジ、9はケーシング、1
0はモータ、11−1、11−2はジヨイント、
12はリンク、13は投光素子搭載リンク、14
は取付けピン、15はカバー、16は光フアイ
バ、17は光源である。動作は、まず第6図にお
ける〓の情報に基づきボールネジ8上のケーシン
グ9をモータ10を回転することにより該当する
位置に移動させる。このとき、ケーシング9には
ジヨイント11−1を介してリンク12が接続さ
れており、別のジヨイント11−2を介して投光
素子搭載リンク13の角度がピン14を中心とし
て変えられる。リンク13は第6図にも示したよ
うに多数本のピン14を介してカバー15に取付
けられている。各リンク13には発光素子5が取
付けられており、発光素子5は同一円周上にある
ように構成されている。第12図においては光フ
アイバ16の端部が発光素子5として用いられて
おり、光フアイバ16は光源17に接続されてお
り、多数個の発光素子5から適宜投光を行うこと
ができる。
FIG. 12 is a diagram showing the main parts of an embodiment of the light projecting mechanism 1 of the present invention. The same reference numerals as in FIG. 6 indicate the same parts. 8 is a ball screw, 9 is a casing, 1
0 is the motor, 11-1, 11-2 are the joints,
12 is a link, 13 is a link equipped with a light emitting element, 14
1 is a mounting pin, 15 is a cover, 16 is an optical fiber, and 17 is a light source. In operation, first, the casing 9 on the ball screw 8 is moved to the corresponding position by rotating the motor 10 based on the information shown in FIG. At this time, a link 12 is connected to the casing 9 via a joint 11-1, and the angle of the light projecting element mounting link 13 can be changed about the pin 14 via another joint 11-2. The link 13 is attached to the cover 15 via a number of pins 14, as shown in FIG. A light emitting element 5 is attached to each link 13, and the light emitting elements 5 are arranged on the same circumference. In FIG. 12, the end of the optical fiber 16 is used as the light emitting element 5, and the optical fiber 16 is connected to a light source 17, so that a large number of light emitting elements 5 can appropriately project light.

発明の効果 以上説明したように、本発明によればITVカ
メラ等の視覚センサから得られるように濃淡画像
と投光機構により得られる距離情報および物体面
の方向の情報から物体の位置および形状を認識で
きるので、ノイズ,陰影,画像の劣化,物体面上
の記号等に関わらず物体を認識できる、濃淡画像
から輪郭線候補を抽出する専用回路を組合せるこ
とにより処理時間の短い物体認識が実現できる、
視覚入力系を光フアイバ束より成るイメージガイ
ドで構成することにより投光機構は小形にできる
ので、全体として小形,軽量の装置構成にできる
という利点がある。
Effects of the Invention As explained above, according to the present invention, the position and shape of an object can be determined from a gray-scale image obtained from a visual sensor such as an ITV camera, distance information obtained from a light projection mechanism, and information about the direction of the object surface. Objects can be recognized regardless of noise, shadows, image deterioration, symbols on the object surface, etc. By combining a dedicated circuit that extracts contour line candidates from grayscale images, object recognition with short processing time is realized. can,
By configuring the visual input system with an image guide made of a bundle of optical fibers, the light projecting mechanism can be made compact, so there is an advantage that the overall device structure can be made small and lightweight.

本発明は自動機械,特に産業用ロボツト,知能
ロボツト等の視覚センサとして有効である。即ち
ロボツトのアームとは別個の視覚センサとして
も、アーム搭載形のセンサとしても有効に使用で
きる。
The present invention is effective as a visual sensor for automatic machines, especially industrial robots, intelligent robots, etc. That is, it can be effectively used as a visual sensor separate from the robot's arm or as an arm-mounted sensor.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は2台の視覚センサを用いる物体認識方
法、第2図はレーザ・トラツカを用いる物体認識
方法、第3図はスリツト光を用いる物体認識方
法、第4図は反射光を利用した物体検出センサ方
法でいずれも従来の物体認識方法、第5図は本発
明を説明する実施例の構成概要図、第6図a,b
は本発明における投光機構の構成例、第7図は物
体の輪郭候補画素の例、第8図a,bはスポツト
パターンの例、第9図は物体の輪郭候補画素の
例、第10図a,b,cは物体面の方向に対応す
るスポツトパターンの例、第11図は曲面物体に
おけるスポツトパターンの変化による曲面の方向
検出の例、第12図は投光機構の実施例である。 101……光、102……固定ミラー、103
……可動ミラー、104……光検出センサ、10
5……相関器、106……レーザ光、107……
物体、108……イメージデイセクタ、109…
…背景、110……物体の突出部、111……ス
リツト、112……光源、113……スリツト
光、114……物体、115……TVカメラ、1
16……発光素子、117……受光素子、118
……物体、119……検出領域、120……アー
ム、1……投光機構、2……視覚センサ、3……
認識対象物体、4……光スポツト、5……発光素
子、6……光線、7……発光素子5が配置されて
いる円の中心を通り円に垂直な直線、8はボール
ネジ、9……ケーシング、10……モータ、11
−1,11−2……ジヨイント、12……リン
ク、13……投光素子5搭載リンク、14……取
付けピン、15……カバー、16……光フアイ
バ、17……光源。
Figure 1 shows an object recognition method using two visual sensors, Figure 2 shows an object recognition method using a laser tracker, Figure 3 shows an object recognition method using slit light, and Figure 4 shows an object recognition method using reflected light. The detection sensor method is a conventional object recognition method, FIG. 5 is a schematic diagram of the configuration of an embodiment explaining the present invention, and FIGS. 6 a and b.
7 shows an example of the configuration of the light projecting mechanism according to the present invention, FIG. 7 shows an example of object outline candidate pixels, FIG. 8 a and b shows an example of a spot pattern, FIG. 9 shows an example of object outline candidate pixels, and FIG. a, b, and c are examples of spot patterns corresponding to the directions of the object surface, FIG. 11 is an example of detecting the direction of a curved surface by changing the spot pattern of a curved object, and FIG. 12 is an example of a light projecting mechanism. 101...Light, 102...Fixed mirror, 103
...Movable mirror, 104...Light detection sensor, 10
5... Correlator, 106... Laser light, 107...
Object, 108... Image desector, 109...
... Background, 110 ... Protrusion of object, 111 ... Slit, 112 ... Light source, 113 ... Slit light, 114 ... Object, 115 ... TV camera, 1
16... Light emitting element, 117... Light receiving element, 118
...Object, 119...Detection area, 120...Arm, 1...Light projection mechanism, 2...Visual sensor, 3...
Recognition target object, 4... light spot, 5... light emitting element, 6... light ray, 7... straight line passing through the center of the circle in which the light emitting element 5 is arranged and perpendicular to the circle, 8 being a ball screw, 9... Casing, 10...Motor, 11
-1, 11-2...Joint, 12...Link, 13...Light emitter 5 mounting link, 14...Mounting pin, 15...Cover, 16...Optical fiber, 17...Light source.

Claims (1)

【特許請求の範囲】[Claims] 1 ロボツト等の自動機械における作業対象物体
の位置、姿勢、形状を自動的に認識するために、
同一円周上に配置した複数個の発光素子を用い
て、該円に垂直な直線上に頂点が来るように円錐
状ビームを照射し、物体表面上に形成された光ス
ポツトのパターンから、該物体までの距離、該物
体の形状および姿勢等を認識する方法において、
該円に垂直な直線上を移動するケーシングと前記
発光素子を取付けたリンク機構を回転可能なジヨ
イントを介して結合し、該ケーシングを移動する
ことにより該円錐状ビームの頂角を制御し、該物
体表面上に形成された光スポツトの面積を最小と
する該頂角から物体までの距離を計測することを
特徴とする物体の位置および形状認識方法。
1 In order to automatically recognize the position, posture, and shape of the work target object in automatic machines such as robots,
Using a plurality of light emitting elements arranged on the same circumference, a conical beam is irradiated so that the apex is on a straight line perpendicular to the circle, and a pattern of light spots formed on the surface of the object is detected. In a method for recognizing the distance to an object, the shape and orientation of the object,
A casing that moves on a straight line perpendicular to the circle and a link mechanism to which the light emitting element is attached are coupled via a rotatable joint, and by moving the casing, the apex angle of the conical beam is controlled. A method for recognizing the position and shape of an object, which comprises measuring the distance from the apex angle to the object that minimizes the area of a light spot formed on the surface of the object.
JP6421483A 1983-04-11 1983-04-11 Recognition system of position and shape of body Granted JPS59188509A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6421483A JPS59188509A (en) 1983-04-11 1983-04-11 Recognition system of position and shape of body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6421483A JPS59188509A (en) 1983-04-11 1983-04-11 Recognition system of position and shape of body

Publications (2)

Publication Number Publication Date
JPS59188509A JPS59188509A (en) 1984-10-25
JPH0534602B2 true JPH0534602B2 (en) 1993-05-24

Family

ID=13251608

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6421483A Granted JPS59188509A (en) 1983-04-11 1983-04-11 Recognition system of position and shape of body

Country Status (1)

Country Link
JP (1) JPS59188509A (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2591329B1 (en) * 1985-12-10 1992-05-22 Canon Kk APPARATUS AND METHOD FOR PROCESSING THREE-DIMENSIONAL INFORMATION
GB9323054D0 (en) * 1993-11-09 1994-01-05 British Nuclear Fuels Plc Determination of the surface properties of an omject
JP3948381B2 (en) * 2002-09-30 2007-07-25 石川島播磨重工業株式会社 Cuboid measurement method and cuboid measurement apparatus
CN105716539B (en) * 2016-01-26 2017-11-07 大连理工大学 A kind of three-dimentioned shape measurement method of quick high accuracy

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS586404A (en) * 1981-06-29 1983-01-14 ウエスチングハウス・エレクトリツク・コ−ポレ−シヨン Device for detecting physical position and direction of body

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS586404A (en) * 1981-06-29 1983-01-14 ウエスチングハウス・エレクトリツク・コ−ポレ−シヨン Device for detecting physical position and direction of body

Also Published As

Publication number Publication date
JPS59188509A (en) 1984-10-25

Similar Documents

Publication Publication Date Title
US4611292A (en) Robot vision system
EP3115742B1 (en) 3d measuring machine
JP3556589B2 (en) Position and orientation recognition device
US6031225A (en) System and method for selective scanning of an object or pattern including scan correction
US4790660A (en) Shape measuring instrument
JPS5860593A (en) Method and device for detecting shape
JP2001124521A (en) Optical position detector
JPH0534602B2 (en)
JP2519445B2 (en) Work line tracking method
JPS62194413A (en) Three-dimensional coordinate measuring instrument
JPH10105719A (en) Optical measurement method for hole position
JP2000121732A (en) Underwater object detection identification
JP4406796B2 (en) Non-contact three-dimensional object shape measuring method and apparatus
JPH08145637A (en) Method and apparatus for recognizing profile of pipe
JPH0831497B2 (en) Spherical object position detection method and apparatus
JPH0560518A (en) Three-dimensional coordinate measurement device
JPH0933227A (en) Discrimination method for three-dimensional shape
JPH0713997B2 (en) Wafer alignment angle detection device
JP2504944B2 (en) Three-dimensional information processing method
JPH10105718A (en) Optical measurement method for hole position
JP2521156Y2 (en) Position measurement target
JPH10105720A (en) Optical measurement method for hole position
JPS62222117A (en) Multipoint distance measuring sensor
JPH05272922A (en) Visual sensor apparatus
JPS61283805A (en) Apparatus for detecting two-dimensional position