JPH04121611A - Picture information recognition method - Google Patents

Picture information recognition method

Info

Publication number
JPH04121611A
JPH04121611A JP24312890A JP24312890A JPH04121611A JP H04121611 A JPH04121611 A JP H04121611A JP 24312890 A JP24312890 A JP 24312890A JP 24312890 A JP24312890 A JP 24312890A JP H04121611 A JPH04121611 A JP H04121611A
Authority
JP
Japan
Prior art keywords
slit light
slit
image information
light image
basic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP24312890A
Other languages
Japanese (ja)
Inventor
Mitsuo Hiraizumi
平泉 満男
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP24312890A priority Critical patent/JPH04121611A/en
Publication of JPH04121611A publication Critical patent/JPH04121611A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To make it easy to produce teaching data for collating with a piece of real slit-light picture information by calculating to find slit-light picture change information that changes a position and an attitude thereof from the basic slit-light picture information of the basic position of a work piece in regard to an industrial robot and the like. CONSTITUTION:Slit light 13 is projected on a work piece 4 to make a slit-light picture 14 on the face of the work piece 4. Reflected light is obtained on the imaging face 21 of a camera. At first the work piece 4 is placed on a basic position. At this time a basic slit-light picture 22a is taken in. The center of the slit-light picture 22a is approximated by a broken line to process as broken line data. Changed slit pictures 22b, 22c, 22d and the like at the time when the position or the attitude of the work piece 4 is changed from the slit optical picture 22a with the use of a coordinate conversion means 20 is calculated to find from the shape of the already-known work piece 4. At the time of actual work, an actual slit-light picture 23a is read to compare with the slit-light picture 22b and the like so as to recognize the position.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は産業用ロボットの視覚として、ビジョンシステ
ムを用いて対象物の位置を確認するだめの画像情報認識
方式に関し、特に3次元位置を計測するようなアプリケ
ーションに利用する画像情報認識方式に関する。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to an image information recognition method for confirming the position of an object using a vision system as a visual system for an industrial robot, and in particular to a method for measuring three-dimensional position. This paper relates to image information recognition methods used in applications such as

〔従来の技術〕[Conventional technology]

物体にスリット状の光を投影して、これをこの光源と離
れた位置に置かれたカメラを通して見ると、スリット状
の光が、それが当たった所の物体の形状に応じて変形さ
れて見える。これを利用して物体のDaや、位置の計測
を行なう方法を光切断法という。
When a slit-shaped light is projected onto an object and viewed through a camera placed away from the light source, the slit-shaped light appears to be deformed according to the shape of the object where it hits. . A method of measuring the Da and position of an object using this is called the optical cutting method.

さて、ロボットの視覚などに用いられる光切断法を利用
したビジョンシステムでは、実行時に得られたスリット
光画像から対象物を認識する。このために、あらかじめ
、位置及び姿勢の異なる対象物にスリット光を当てた時
にどのような画像が得られるかを試して、すなわち変化
スリット光画像を教示データとしてシステム内部に覚え
ておく。
Now, in a vision system that uses a light sectioning method, which is used for robot vision, objects are recognized from slit light images obtained during execution. For this purpose, what kind of image is obtained when the slit light is applied to objects in different positions and orientations is tested in advance, and the changing slit light images are stored in the system as teaching data.

そして、実行時に得られた実スリット光画像と教示デー
タとの照合をとって、対象物を認識する。
Then, the actual slit light image obtained during execution is compared with the teaching data to recognize the object.

ここで、教示データをどのように作成して、実行時のス
リット光画像と照合をとるかということが問題になる。
The problem here is how to create the teaching data and check it against the slit light image at the time of execution.

よく用いられている一つの方法として、次のような方法
がある。スリット光画像のうちの対象物上の部分のみを
切り出して、これの中心点列を抽出する。そして、この
点列を折れ線近似する。この折れ線のデータを教示デー
タとして記憶する。
One of the commonly used methods is as follows. Only the part on the object of the slit light image is cut out, and the center point sequence of this part is extracted. Then, this point sequence is approximated by a polygonal line. This polygonal line data is stored as teaching data.

実行時にも、得られた実スリット光画像を同様に処理し
て、折れ線近似のデータを求める。そして、この中から
教示データと一致する所を探す。
At the time of execution, the obtained actual slit light image is similarly processed to obtain polygonal line approximation data. Then, it searches for a location that matches the taught data.

光切断法が用いられるのは、一般に対象物の位置及び姿
勢のばらつきが大きくない場合である。
The light cutting method is generally used when the position and orientation of the object do not vary greatly.

すなわち、教示時と実行時ではスリット光画像がそれほ
ど大きく変化しないということである。
In other words, the slit light image does not change significantly between the time of teaching and the time of execution.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

しかし、それでもスリット光画像の計測の原理から、カ
メラ及びセンサ系に対する対象物の姿勢が変化すると、
対象物の曲面状の部分で作られる実スリット光画像の形
状は大きく変化することがある。
However, based on the principle of slit light image measurement, if the attitude of the object relative to the camera and sensor system changes,
The shape of the actual slit light image created by the curved portion of the object may vary greatly.

すると、教示データとの照合がとれないということにな
る。そこで、教示データとの誤差に対するトレランスを
大きくすると、照合の意味がなくなるおそれがある。ま
た、対象物と異なる部分で照合がとれてしまう可能性も
でてくる。
This means that it cannot be compared with the taught data. Therefore, if the tolerance for errors with the teaching data is increased, there is a risk that the comparison will be meaningless. In addition, there is a possibility that matching may occur in a part that is different from the target object.

これを避けるために、カメラに対する対象物の位置及び
姿勢をいろいろに変えて、それによって得られる実スリ
ット光画像の変化を教示データに反映させようという考
えがあるが、カメラ及び投光器がロボットの手先に搭載
されていることもあり、このための操作は、かなり面倒
なものである。
In order to avoid this, there is an idea to change the position and orientation of the object with respect to the camera in various ways, and to reflect the resulting changes in the actual slit light image in the teaching data. The operation for this purpose is quite troublesome.

また、この操作を適当に行なうことは、実スリット光画
像の処理及び教示データとの照合などがどのように行な
われているか、そのアルゴリズムを理解していない者に
とっては容易ではない。
Furthermore, it is not easy for a person who does not understand the algorithm of how the actual slit light image is processed and the comparison with the teaching data to be performed to perform this operation appropriately.

このように、スリット光画像を用いるビジョンシステム
では、実スリット光画像と教示データ、すなわち変化ス
リット光画像との照合が困難である。
As described above, in a vision system using a slit light image, it is difficult to match the actual slit light image with the teaching data, that is, the changed slit light image.

本発明はこのような点に鑑みてなされたものであり、実
スリット光画像との照合をとる教示データを簡単に生成
できる画像情報認識方式を提供することを目的とする。
The present invention has been made in view of these points, and it is an object of the present invention to provide an image information recognition method that can easily generate teaching data for comparison with an actual slit light image.

〔課題を解決するための手段〕[Means to solve the problem]

本発明では上記課題を解決するために、対象物上のスリ
ット光画像を認識するだめの画像情報認識方式において
、対象物を基本位置におき、前記対象物にスリット光を
投射して、前記ワーク上のスリット光画像を撮像して、
基本スリット光画像情報を得て、前記基本スリット光画
像情報から前記ワークが基本位置から変化した時の変化
スリット光画像情報を座標変換によって求め、作業実行
時に得た前記対象物の実スリット光画像情報と、前記変
化スリット光画像情報を照合し、前記対象物のスリット
光画像を認識することを特徴とする画像情報認識方式が
、提供される。
In order to solve the above-mentioned problems, the present invention uses an image information recognition method for recognizing a slit light image on a target object. Take the slit light image above,
Basic slit light image information is obtained, and changing slit light image information when the workpiece changes from the basic position is obtained from the basic slit light image information by coordinate transformation, and the actual slit light image of the object obtained when the work is executed. An image information recognition method is provided, which is characterized in that the slit light image of the object is recognized by comparing information with the changed slit light image information.

〔作用〕[Effect]

対象物を基本位置に置き、スリット光を投射して、基本
スリット光画像情報を得る。この基本スリット光画像情
報を座標変換して、ワークの位置を変化させたときの、
変化スリット光画像情報を求める。例えば、ワークを5
°づつ回転させた変化画像情報を求める。
A target object is placed at a basic position, slit light is projected, and basic slit light image information is obtained. When this basic slit light image information is converted into coordinates and the position of the workpiece is changed,
Obtain changing slit light image information. For example, if the work is 5
Obtain change image information rotated by degrees.

次に実際の作業時に対象物にスリット光を投射し、実ス
リット光画像情報を得て、変化スリット光画像情報とを
照合する。変化スリット光画像情報のうちの近い変化ス
リット光画像情報と一致するか、類似していれば、実ス
リット光画像情報を認識できる。
Next, during actual work, slit light is projected onto the object to obtain actual slit light image information, which is compared with changed slit light image information. If the changed slit light image information matches or is similar to the nearby changed slit light image information among the changed slit light image information, the actual slit light image information can be recognized.

一般にはこの認識ができれば、得られた実スリット光画
像から物体の位置及び姿勢を正確に計算して、ロボット
等を移動量を補正して、作業を行わせることができる。
Generally, if this recognition is possible, the position and orientation of the object can be accurately calculated from the obtained actual slit light image, and the movement amount of the robot or the like can be corrected to perform the work.

〔実施例〕〔Example〕

以下、本発明の一実施例を図面に基づいて説明する。 Hereinafter, one embodiment of the present invention will be described based on the drawings.

第2図は本発明を実施するための産業用ロボットのビジ
ョンシステムの構成図である。ロボットコントローラl
には画像処理装置2が接続されている。画像処理装置2
はセンサ部コントローラ3に接続されており、センサ部
コントローラ3はセンサ部10のレーザスリット光13
を出射する投光器11に出射指令を出力する。
FIG. 2 is a block diagram of a vision system for an industrial robot for implementing the present invention. robot controller l
An image processing device 2 is connected to. Image processing device 2
is connected to the sensor unit controller 3, and the sensor unit controller 3 is connected to the laser slit light 13 of the sensor unit 10.
An emission command is output to the projector 11 that emits the light.

投光器11はレーザ光を発生し、その先端の図示されて
いないシリンドリカルレンズによって、このレーザ光を
スリット光13に変換して、ワーク4 (対象物)に投
射し、ワーク4の面上にスリット光画像14を作る。こ
のスリット光画像14の反射光15をカメラ12で撮像
する。カメラ12で撮像されたスリット光画像はセンサ
部コントローラ3を経由して、画像処理装置2に送られ
る。
The projector 11 generates a laser beam, converts this laser beam into a slit beam 13 by a cylindrical lens (not shown) at its tip, projects it onto the workpiece 4 (object), and emits the slit beam onto the surface of the workpiece 4. Create image 14. The reflected light 15 of this slit light image 14 is captured by the camera 12. A slit light image captured by the camera 12 is sent to the image processing device 2 via the sensor unit controller 3.

画像処理装置は後述するように、これらのスリット光画
像を画像処理して、ワーク4の位置及び姿勢を認識し、
その位置情報をロボットコントローラ1に送る。
As described later, the image processing device processes these slit light images to recognize the position and orientation of the workpiece 4,
The position information is sent to the robot controller 1.

ロボットコントローラ1にはロボット30が接続されて
おり、ティーチングデータによって、ロボットコントロ
ーラ1はロボット30の動作を制御する。ロボット30
にはアーム3132.33があり、アーム33の先端に
センサ部10が設けられている。なお、アーム33の先
端には作業用のハンドがあるが、図では省略しである。
A robot 30 is connected to the robot controller 1, and the robot controller 1 controls the operation of the robot 30 based on teaching data. robot 30
has arms 3132 and 33, and the sensor section 10 is provided at the tip of the arm 33. Note that there is a working hand at the tip of the arm 33, but it is omitted in the figure.

ロボットコントローラ1はティーチングデータに従って
、ロボット30の動作を制御するが、方、ワーク4の位
置はかならずしも一定ではなく、治具の位置ずれ、ワー
ク4の停止位置のばらつき等によって異なる。これらの
ワーク4の位置のずれ等を画像処理装置2からの位置情
報によって認識し、ロボット30の位置を補正して、作
業を実行させる。
The robot controller 1 controls the operation of the robot 30 according to the teaching data, but the position of the workpiece 4 is not necessarily constant and varies depending on the positional deviation of the jig, variations in the stop position of the workpiece 4, etc. These positional deviations of the workpiece 4 are recognized using positional information from the image processing device 2, the position of the robot 30 is corrected, and the work is executed.

第3図はワークの位置とスリット光画像との関係を示す
図である。ワーク4に投射されたスリット光13aは、
ワーク4上にスリット光画像14aを作り、カメラ12
はこの反射光15aを撮像する。従って、カメラ12の
撮像面21には、スリット光画像22aが得られる。
FIG. 3 is a diagram showing the relationship between the position of the workpiece and the slit light image. The slit light 13a projected onto the workpiece 4 is
A slit light image 14a is created on the workpiece 4, and the camera 12
images this reflected light 15a. Therefore, a slit light image 22a is obtained on the imaging surface 21 of the camera 12.

第4図は他のワークの位置とスリット光画像との関係を
示す図である。この場合はワーク4は第3図に比べやや
傾いた姿勢にある。従って、撮像面21上のスリット光
画像22bが得られる。
FIG. 4 is a diagram showing the relationship between the positions of other workpieces and the slit light image. In this case, the workpiece 4 is in a slightly tilted posture compared to FIG. Therefore, a slit light image 22b on the imaging surface 21 is obtained.

このようにして、ワーク4の位置及び姿勢が変化すると
、撮像面21上のスリット光画像は変化する。特に、投
光器11とカメラ12の位置関係は予めキャリブレーシ
ョンによって、調整されているので、この撮像面21上
のスリット光画像によって、ワーク4の3次元上の座標
が判別する。
In this way, when the position and posture of the workpiece 4 change, the slit light image on the imaging surface 21 changes. In particular, since the positional relationship between the light projector 11 and the camera 12 has been adjusted in advance through calibration, the three-dimensional coordinates of the workpiece 4 are determined from the slit light image on the imaging surface 21.

すなわち、2次元の撮像面21上の座標値から3次元上
の座標を判別することができる。
That is, three-dimensional coordinates can be determined from coordinate values on the two-dimensional imaging surface 21.

従って、撮像面21上のスリット光画像22a、22b
等によって、ワークの3次元の位置及び姿勢を認識する
ことができる。
Therefore, the slit light images 22a and 22b on the imaging surface 21
etc., the three-dimensional position and orientation of the workpiece can be recognized.

しかし、一般にスリット光画像を得るのに、まずスリッ
ト光を概略的に認識する必要がある。実際には第3図及
び第4図に示すように、ス・リフト光画像を簡単に認識
することはできない。それは、ワーク4の位置及び姿勢
等によって、スリット光画像が変化したり、あるいは他
の雑音等が入るからである。第3図及び第4図に示すス
リット光画像22a、22b等が認識できれば、それか
ら先は比較的簡単にワーク4の位置及び姿勢を求めるこ
とができる。従って、特にスリット光画像を認識するこ
とが重要であり、本発明の目的もそこにある。
However, in general, in order to obtain a slit light image, it is first necessary to roughly recognize the slit light. In reality, as shown in FIGS. 3 and 4, it is not possible to easily recognize the light image of the lift. This is because the slit light image changes depending on the position and posture of the workpiece 4, or other noises are introduced. If the slit light images 22a, 22b, etc. shown in FIGS. 3 and 4 can be recognized, the position and orientation of the workpiece 4 can be determined relatively easily from then on. Therefore, it is particularly important to recognize slit light images, and this is also the purpose of the present invention.

第1図は本発明の画像情報認識方式の概念図である。ワ
ーク4にスリット光13が照射され、ワーク40面上の
スリット光画像140反射光15がカメラ12の撮像面
21に得られる。まず、ワーク4を基本的な位置に置く
。このときの基本スリット光画像22aを取り込む。こ
のスリット光画像22aの中心を折れ線で近似し、折れ
線データとして処理する。
FIG. 1 is a conceptual diagram of the image information recognition method of the present invention. The workpiece 4 is irradiated with the slit light 13, and a slit light image 140 and reflected light 15 on the surface of the workpiece 40 are obtained on the imaging surface 21 of the camera 12. First, place the work 4 in the basic position. The basic slit light image 22a at this time is captured. The center of this slit light image 22a is approximated by a polygonal line and processed as polygonal line data.

このスリット光画像22aから座標変換手段20によっ
て、ワーク4の位置あるいは姿勢を変化させたときの変
化スリット光画像22b、22c。
Changed slit light images 22b and 22c when the position or posture of the workpiece 4 is changed from this slit light image 22a by the coordinate conversion means 20.

22d等を求める。例えば、ワーク4をスリット光画像
の点列の重心を中心として、5゛づつ回転させたときの
変化スリット光画像を計算で求める。
Find 22d etc. For example, a change in the slit light image when the workpiece 4 is rotated by 5 degrees around the center of gravity of the point sequence of the slit light image is calculated.

このような変化スリット光画像はワークの形状が分かっ
ていれば、計算によって求めることができる。
Such a changing slit light image can be obtained by calculation if the shape of the workpiece is known.

次に実際のロボットの作業実行時にワーク4の実スリッ
ト光画像23aを読み込む。この実スリット光画@23
aと、先に求めておいたスリット光画像22b等を比較
し、最も近いものを選ぶ。
Next, the actual slit light image 23a of the workpiece 4 is read when the robot actually performs the work. This real slit light painting @23
A is compared with the previously obtained slit light image 22b, etc., and the closest one is selected.

この結果、実際のワーク4のスリット光画像23aの概
略位置が認識できる。この概略の位置が認識できれば、
スリット光画像23aから、必要な点を選択して、ワー
クの正確な位置及び姿勢を認識することができる。
As a result, the approximate position of the slit light image 23a of the actual workpiece 4 can be recognized. If you can recognize this approximate location,
By selecting necessary points from the slit light image 23a, the exact position and orientation of the workpiece can be recognized.

上記の説明ではワークは円筒状のワークとしたが、これ
以外の形状のワーク、あるいは他の構成物に設けられた
部品等でも適用することができる。
In the above description, the workpiece is a cylindrical workpiece, but the present invention can also be applied to workpieces of other shapes or parts provided in other structures.

このように、ワークの位置及び姿勢が変化した場合の変
化スリット光画像を計算によって、求めるようにしたの
で、実際のワークの姿勢等を変化させて教示する必要が
なく、ワークの姿勢等の認識を簡単に行うことができる
In this way, the changing slit light image when the position and posture of the workpiece changes is calculated, so there is no need to teach by changing the actual posture of the workpiece, and it is possible to recognize the posture of the workpiece. can be done easily.

〔発明の効果〕〔Effect of the invention〕

以上説明したように本発明では、ワークの基本位置の基
本スリット光画像情報から、位置及び姿勢を変化した変
化スリット光画像情報を求めて、実際の実スリット光画
像情報と照合するようにしたので、照合のための変化ス
リット光画像情報が簡単に得られ、教示データとして与
える必要がなく、操作が簡単になる。
As explained above, in the present invention, changed slit light image information in which the position and orientation have been changed is obtained from the basic slit light image information at the basic position of the workpiece, and the information is compared with the actual actual slit light image information. The changed slit light image information for verification can be easily obtained, and there is no need to provide it as teaching data, making the operation simple.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の画像情報照合方式の概念図、第2図は
本発明を実施するための産業用ロボットのビジョンシス
テムの構成図、 第3図はワークの位置とスリット光画像との関係を示す
図、 第4図は他のワークの位置とスリット光画像との関係を
示す図である。 1−・・・・・・・・−ロボットコントローラ2−−−
・ 画像処理装置 3    センサ部コントローラ 4     ワーク 0   ・・−センサ部 1   ・ 投光器 2 ° ° ・カメラ 3    スリット光 4   ・・スリット光画像 5−  ・反射光 0    ・ロボット
Figure 1 is a conceptual diagram of the image information matching method of the present invention, Figure 2 is a configuration diagram of the vision system of an industrial robot for implementing the present invention, and Figure 3 is the relationship between the position of the workpiece and the slit light image. FIG. 4 is a diagram showing the relationship between the positions of other workpieces and the slit light image. 1-......-Robot controller 2--
- Image processing device 3 Sensor unit controller 4 Work 0 - Sensor unit 1 - Floodlight 2 ° ° - Camera 3 Slit light 4 - Slit light image 5 - - Reflected light 0 - Robot

Claims (4)

【特許請求の範囲】[Claims] (1)対象物上のスリット光画像を認識するための画像
情報認識方式において、 対象物を基本位置に置き、前記対象物にスリット光を投
射して、前記ワーク上のスリット光画像を撮像して、基
本スリット光画像情報を得て、前記基本スリット光画像
情報から前記ワークが基本位置から変化した時の変化ス
リット光画像情報を座標変換によって求め、 作業実行時に得た前記対象物の実スリット光画像情報と
、前記変化スリット光画像情報とを照合し、 前記対象物のスリット光画像を認識することを特徴とす
る画像情報認識方式。
(1) In an image information recognition method for recognizing a slit light image on a target object, the target object is placed in a basic position, a slit light is projected onto the target object, and a slit light image on the workpiece is captured. obtain basic slit light image information, and calculate changing slit light image information when the workpiece changes from the basic position from the basic slit light image information by coordinate transformation, and obtain the actual slit of the object obtained at the time of execution of the work. An image information recognition method comprising: comparing optical image information with the changing slit optical image information to recognize a slit optical image of the object.
(2)前記基本スリット光画像情報、前記変化スリット
光画像情報及び前記実スリット光画像情報を点列による
折れ線に変換して、折れ線として処理することを特徴と
する請求項1記載の画像情報認識方式。
(2) Image information recognition according to claim 1, characterized in that the basic slit light image information, the changed slit light image information, and the actual slit light image information are converted into a polygonal line based on a series of dots, and processed as a polygonal line. method.
(3)前記基本スリット光画像情報、前記変化スリット
光画像情報及び前記実スリット光画像情報を、カメラの
撮像面上の2次元データとして処理することを特徴とす
る請求項1記載の画像情報認識方式。
(3) Image information recognition according to claim 1, characterized in that the basic slit light image information, the changed slit light image information, and the actual slit light image information are processed as two-dimensional data on an imaging surface of a camera. method.
(4)前記変化スリット光画像情報は、前記対象物の基
本スリット光画像情報の点列の重心を中心として3次元
的に回転させて得ることを特徴とする請求項2記載の画
像情報認識方式。
(4) The image information recognition method according to claim 2, wherein the changed slit light image information is obtained by three-dimensionally rotating a center of gravity of a sequence of points of the basic slit light image information of the object. .
JP24312890A 1990-09-13 1990-09-13 Picture information recognition method Pending JPH04121611A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24312890A JPH04121611A (en) 1990-09-13 1990-09-13 Picture information recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24312890A JPH04121611A (en) 1990-09-13 1990-09-13 Picture information recognition method

Publications (1)

Publication Number Publication Date
JPH04121611A true JPH04121611A (en) 1992-04-22

Family

ID=17099221

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24312890A Pending JPH04121611A (en) 1990-09-13 1990-09-13 Picture information recognition method

Country Status (1)

Country Link
JP (1) JPH04121611A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100422987B1 (en) * 2001-02-22 2004-03-12 주식회사 파미 Sensor for acquiring 3d image data
JP2007303839A (en) * 2006-05-08 2007-11-22 Konica Minolta Sensing Inc Three-dimensional shape measuring system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100422987B1 (en) * 2001-02-22 2004-03-12 주식회사 파미 Sensor for acquiring 3d image data
JP2007303839A (en) * 2006-05-08 2007-11-22 Konica Minolta Sensing Inc Three-dimensional shape measuring system
JP4677613B2 (en) * 2006-05-08 2011-04-27 コニカミノルタセンシング株式会社 3D shape measurement system

Similar Documents

Publication Publication Date Title
JP3556589B2 (en) Position and orientation recognition device
EP2981397B1 (en) A robot system and method for calibration
JP5602392B2 (en) Information processing apparatus, information processing method, and program
JP6180087B2 (en) Information processing apparatus and information processing method
US5684531A (en) Ranging apparatus and method implementing stereo vision system
US10413994B2 (en) Laser processing robot system for performing laser processing using robot
US7200260B1 (en) Teaching model generating device
US20180338090A1 (en) Image processing system, image processing device, and image processing program
US9519736B2 (en) Data generation device for vision sensor and detection simulation system
JP2004508954A (en) Positioning device and system
JPH10253322A (en) Method and apparatus for designating position of object in space
US20080027580A1 (en) Robot programming method and apparatus with both vision and force
JP2000288974A (en) Robot device having image processing function
CN110553600B (en) Method for generating simulated laser line of structured light sensor for workpiece detection
JP2017144498A (en) Information processor, control method of information processor, and program
JP2004243215A (en) Robot teaching method for sealer applicator and sealer applicator
WO2003039820A1 (en) Method for determining three-dimensional position and posture of object being sensed and visual sensor for robot
JP2015007639A (en) Information processing apparatus, information processing method and program
JP2021013983A (en) Apparatus and method for acquiring deviation of moving locus of moving machine
JPH04121611A (en) Picture information recognition method
KR102428841B1 (en) Grinding robot system using structured light and control method thereof
JPH04269194A (en) Plane measuring method
Clarke et al. The control of a robot end-effector using photogrammetry
JPH06258028A (en) Method and system for visually recognizing three dimensional position and attitude
CN116100562B (en) Visual guiding method and system for multi-robot cooperative feeding and discharging