JPS629894A - Method of determining optimum position of holding in shape recognition device - Google Patents

Method of determining optimum position of holding in shape recognition device

Info

Publication number
JPS629894A
JPS629894A JP14978385A JP14978385A JPS629894A JP S629894 A JPS629894 A JP S629894A JP 14978385 A JP14978385 A JP 14978385A JP 14978385 A JP14978385 A JP 14978385A JP S629894 A JPS629894 A JP S629894A
Authority
JP
Japan
Prior art keywords
holding
holding position
image data
gravity
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP14978385A
Other languages
Japanese (ja)
Inventor
幸一 中野
章 梅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ishikawa Prefecture
Ishikawa Prefectural Government
Original Assignee
Ishikawa Prefecture
Ishikawa Prefectural Government
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ishikawa Prefecture, Ishikawa Prefectural Government filed Critical Ishikawa Prefecture
Priority to JP14978385A priority Critical patent/JPS629894A/en
Publication of JPS629894A publication Critical patent/JPS629894A/en
Pending legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 (イ)産業上の利用分野 本発明は、視覚センサーを有した知能ロボットを用いて
、工場の搬送自動化を行なわせるようにした形状認識処
理法に関するものである。
DETAILED DESCRIPTION OF THE INVENTION (a) Field of Industrial Application The present invention relates to a shape recognition processing method that uses an intelligent robot having a visual sensor to automate transportation in a factory.

(ロ)従来の技術 工場において、従来のロボットによる搬送系では、搬送
する物体が変われば、ロボットの指(保持部)の位置も
変えなければならない。現在のような多品種少量生産で
はロボットの調整、いわゆる段取り時間が長くなり生産
効率が悪くなるばかりか、自動化が実施できず生産性が
極めて低下する結果となる。
(b) Conventional technology In a conventional robot-based transport system in a factory, if the object to be transported changes, the position of the robot's fingers (holding section) must also be changed. In the current high-mix, low-volume production, robot adjustment and so-called set-up time not only deteriorates in production efficiency, but also automation cannot be implemented, resulting in an extremely low productivity.

又、人間が、ロボットの指の保持位置を勘と経験にたよ
って調整するため、その位置が物体を保持する最適位置
であるかどうか確かではない。そのために、高速に物体
を運ぶ搬送系では加速度から生じる力のために、物体の
位置決めがずれたり、最悪の場合には、ロボットの指か
ら物体が脱落する場合も生じる。
Furthermore, since humans adjust the holding position of the robot's fingers based on intuition and experience, it is not certain whether the position is the optimal position for holding the object. For this reason, in a transport system that transports objects at high speed, the force generated from acceleration may cause misalignment of the object, or in the worst case, the object may fall off the robot's fingers.

(ハ)発明が解決しようとする問題点 本発明は、物体の重心位置や加速度から生ずる回転モー
メントを考慮し、物体の落下および搬送方向への飛び出
しを防止するために、形状認識処理装置に、物体の2次
元化画像データとしてカメラから入力し、コンピュータ
で計算処理し、物体の最適保持位置を決定し、ロボット
本体に、その位置データを転送することによって、保持
部を自動制御することが可能となり、この結果搬送自動
化を図る。
(c) Problems to be Solved by the Invention The present invention takes into consideration the rotational moment generated from the center of gravity position and acceleration of the object, and includes a shape recognition processing device in order to prevent the object from falling and flying out in the transport direction. The holding unit can be automatically controlled by inputting the object's two-dimensional image data from the camera, calculating it on a computer, determining the optimal holding position of the object, and transmitting that position data to the robot body. As a result, transportation can be automated.

(ニ)問題点を解決するための手段 以下において、本発明を実施した装置のハードウェア構
成図を用いて、各回路における機能と信号の流れを説明
する。第2図のカメラ9より、物体の2次元画像データ
がビデオ増幅・同期分離回路10に入力される。この回
路では、ビデオ信号に含まれる映像信号と同期信号が増
幅分離される。映像信号はA/D変換回路11で、デジ
タル信号に変換され画像メモリ回路13に記憶される。
(d) Means for Solving Problems In the following, functions and signal flows in each circuit will be explained using a hardware configuration diagram of an apparatus implementing the present invention. Two-dimensional image data of an object is input from the camera 9 in FIG. 2 to the video amplification/synchronization separation circuit 10. In this circuit, a video signal and a synchronization signal included in a video signal are amplified and separated. The video signal is converted into a digital signal by the A/D conversion circuit 11 and stored in the image memory circuit 13.

一方、同期信号は、制御回路12に入力され、各回路の
タイミング信号として利用される。画像メモリ回路13
から記憶された画像データは、D/A変換回路14でデ
ジタル信号からアナログ信号に変換され、モニタテレビ
のCRT15に物体の2次元画像データが表示される。
On the other hand, the synchronization signal is input to the control circuit 12 and used as a timing signal for each circuit. Image memory circuit 13
The stored image data is converted from a digital signal to an analog signal by a D/A conversion circuit 14, and two-dimensional image data of the object is displayed on a CRT 15 of a monitor television.

2次元画像データは、入出力インタフニス回路16より
、マイクロコンピュータの内部にあるメモリ回路18に
入力され、一時記憶される。
The two-dimensional image data is input from the input/output interface circuit 16 to a memory circuit 18 inside the microcomputer and is temporarily stored therein.

つぎに、マイクロコンピュータのCPU回路で、最適保
持位置決定法のプログラムに基づき、演算を実行する。
Next, the CPU circuit of the microcomputer executes calculations based on the program for determining the optimum holding position.

演算して得られた最適保持位置データを通信インタフェ
ース回路19よりロボット本体20へ伝送する。又、ビ
デオ増幅同期分離回路10からD/A変換回路14の各
部をまとめて形状認識装置Aとし、入出力インタフェー
ス回路16から通信インタフェース回路19までをマイ
クロコンピュータBとする。
The optimum holding position data obtained through the calculation is transmitted to the robot body 20 from the communication interface circuit 19. Further, each part from the video amplification synchronization separation circuit 10 to the D/A conversion circuit 14 is collectively referred to as a shape recognition device A, and the components from the input/output interface circuit 16 to the communication interface circuit 19 are referred to as a microcomputer B.

尚、本発明の最適保持位置決定法に基づくプログラムは
、マイクロコンピュータBのメモリ回路18に記憶され
ている。
Incidentally, a program based on the optimal holding position determining method of the present invention is stored in the memory circuit 18 of the microcomputer B.

次に、本発明の処理を機能的に分割した第1図の重心位
置決定手段と第1、第2、第3の保持位置決定手段につ
いて、それぞれ説明する。
Next, the gravity center position determining means and the first, second, and third holding position determining means shown in FIG. 1, which functionally divide the processing of the present invention, will be explained respectively.

第1図において、物体1は撮像装置2によって2次元画
像データとして入力され、画像メモリ回路3に記憶され
る。重心位置決定手段4では画像データを用いて、物体
の重心位置を決定する。第3図は、モニタテレビのCR
T15上に表示された画像データである。水平方向の重
心位置yw21は、yminからymtrxまでの各水
平方向の“1”の画像データを力n算した面積22の半
分の位置に対応するところである。“1”の画像データ
とは、デジタル信号において。
In FIG. 1, an object 1 is input as two-dimensional image data by an imaging device 2 and stored in an image memory circuit 3. The gravity center position determining means 4 uses the image data to determine the gravity center position of the object. Figure 3 shows the CR of monitor TV.
This is image data displayed on T15. The center of gravity position yw21 in the horizontal direction corresponds to a position that is half of the area 22 obtained by multiplying the image data of "1" in the horizontal direction from ymin to ymtrx by n. “1” image data refers to digital signals.

Highの信号状態の部分であり、第3図の斜線の領域
に相当する。垂直方向の重心位置xw23は、Xm1n
からXmaxまでの各垂直方向の“1”の画像データを
加算した面積24の半分の位置に対応する。以上の重心
位置決定手段によって物体の重心位置(xw、yW)2
5が決定される。
This is the part in the High signal state, and corresponds to the diagonally shaded area in FIG. The vertical center of gravity position xw23 is Xm1n
This corresponds to a position that is half of the area 24 obtained by adding up the image data of "1" in each vertical direction from Xmax to Xmax. The center of gravity position (xw, yW) 2 of the object is determined by the above center of gravity determining means.
5 is determined.

次に、画像データと重心位置(xw、yw)  を用い
て物体の最適保持位置を決定する方法について説明する
Next, a method for determining the optimal holding position of an object using image data and the center of gravity position (xw, yw) will be explained.

第4図は、ひょうたん型物体の最適保持位置が決定され
た結果を図示したものである。
FIG. 4 illustrates the result of determining the optimal holding position for the gourd-shaped object.

位置26は、ロボットの第1の保持位置であり、位置2
7は、ロボットの第2の保持位置である。
Position 26 is the first holding position of the robot, and position 2
7 is the second holding position of the robot.

第1、第2の保持位置は、第1図の第1の保持位置決定
手段5と第2の保持位置決定手段8によって決定された
ものであり、第3のΦ保持位置28は、以下の最適保持
位置決定法に基づいて、決定されたものである。第4図
に示しである様に、紙面上において水平方向をX、垂直
方向をyとした2次元の座標系を考える。ロボットの第
1、第2、第3の保持位置の座標をそれぞれ(x、、y
+)、(x2、Y2)、(x3、y3)とスル。第4 
図(7)f、、r2、f3ハ、物体がX方向、y方向に
それぞれ搬送されている時、ロボットの各指に生じる力
の大きさと方向を示したものである。又、fwは、搬送
中重心にかかる力の大きさと方向を示したものであり、
座標(xw、yw)は、物体の重心位置である。
The first and second holding positions are determined by the first holding position determining means 5 and the second holding position determining means 8 in FIG. 1, and the third Φ holding position 28 is as follows. This was determined based on the optimum holding position determination method. As shown in FIG. 4, consider a two-dimensional coordinate system on the paper with X in the horizontal direction and y in the vertical direction. Let the coordinates of the robot's first, second, and third holding positions be (x, y
+), (x2, Y2), (x3, y3) and Sur. Fourth
Figure (7) f, , r2, f3 c shows the magnitude and direction of the force generated in each finger of the robot when the object is being transported in the X direction and the y direction, respectively. In addition, fw indicates the magnitude and direction of the force applied to the center of gravity during transportation,
The coordinates (xw, yw) are the center of gravity position of the object.

ここで、X方向に搬送されている時の、物体に生じる力
学的モーメントと合成力の関係式は、次式になる。
Here, the relational expression between the mechanical moment and the resultant force generated in the object while being transported in the X direction is as follows.

同様にして、y方向に搬送されている時の関係式は、次
式になる。
Similarly, the relational expression when being conveyed in the y direction is as follows.

(2)式と(4)式中のfl、f2、f3は、ロボット
が物体を搬送中に物体と各指に働く摩擦力に他ならない
。摩擦力は、物体と各指の摩擦係数と各指に働く垂直抗
力によって決定される。従って、各指の物体を持ち上げ
る力が十分強いという条件を考慮に入れれば、fI=f
2=f3の条件が成立し、(2)式と(4)式は次式の
様になる。
fl, f2, and f3 in equations (2) and (4) are nothing but the frictional forces that act on the object and each finger while the robot is transporting the object. Frictional force is determined by the friction coefficient between the object and each finger and the normal force acting on each finger. Therefore, if we take into account the condition that the force of each finger to lift the object is strong enough, fI=f
The condition 2=f3 is established, and the equations (2) and (4) become as shown below.

fW= 3 f  (°、−f、 =f2=f3=f 
’) −(5)(5)式を(1)式に代入すると、 VI十M2+ y3= 3yW          (
6)となり、(6)式を変形すれば、次式になる。
fW=3 f (°, -f, =f2=f3=f
') - (5) Substituting equation (5) into equation (1), VI0M2+ y3= 3yW (
6), and by transforming equation (6), we get the following equation.

Y3=3Yw  (y1+yz)        (7
1同様にして(5)式を(3)式に代入すると、次式に
なる。
Y3=3Yw (y1+yz) (7
Similar to 1, substituting equation (5) into equation (3) yields the following equation.

x3= 3XW  (XI+ X2)        
  (8)従って、第3の保持位置(x3、y3)は、
(7)式と(8)式によって決定され、重心位置の3倍
の値から、第1と第2の保持位置の和の値を差し引くこ
とによって決定される。
x3= 3XW (XI+X2)
(8) Therefore, the third holding position (x3, y3) is
It is determined by equations (7) and (8), and is determined by subtracting the value of the sum of the first and second holding positions from the value three times the center of gravity position.

搬送物体の最適保持位置とは、X方向、y方向の力学的
モーメントを最小にする様に、各保持位置を決定するこ
とであり、第1、第2の保持位置と重心位置から決定さ
れる。
The optimal holding position for the conveyed object means determining each holding position so as to minimize the mechanical moment in the X and Y directions, and is determined from the first and second holding positions and the center of gravity position. .

ここで、第1図の第1の保持位置決定手段と第2の保持
位置決定手段8と最適保持位置決定法による第3の保持
位置決定手段7を第5図のフローチャート図を用いて説
明する。
Here, the first holding position determining means, the second holding position determining means 8 shown in FIG. 1, and the third holding position determining means 7 using the optimum holding position determining method will be explained using the flowchart shown in FIG. .

ロボットの指は、通常ある限定された領域しか移動でき
ないために、物体の最適保持位置を決定する場合も、そ
の限定された領域内で位置を決定しなければならない。
Since a robot's fingers can usually only move within a limited area, determining the optimal holding position for an object must also be determined within that limited area.

又、ロボットの指の大きさもロボットによって全て異な
るために、指の面積も訂もって、決定しておかなければ
ならない。第5図の処理29では、ロボットの指の限定
された領域(以下ウィンドウと呼ぶ)とロボットの指の
保持面積を設定する。処理30では、物体の外周線がy
方向に最大値をとる位置から、画像データ上においてX
の最小値から最大値まで保持面積を有する位置を検出す
る。処理31では、そのy座標に対して、保持面積が検
出できたかどうかを判定し、もし検出できれば、処理3
3に行き、第1の保持位置検出可能フラグをセットし、
その位置データをメモリに格納し処理35に行く。しか
し、保持面積位置が検出不可能であれば、処理32に行
き、重心のy座標と比較し、もし今検出を行なっている
y座標が、重心のy座標より大きければy座標より1を
減らし、処理30に行き同様な処理をくり返す。しかし
、今検出しているy゛座標重心のy座標よりも小さくな
った場合は第1の保持位置が検出不可能であったとし、
処理35に行く。処理30から処理34までが第1の保
持位置決定手段である。第2の保持位置決定手段も、第
1の保持位置決定手段とほぼ同様である。処理35では
、物体の外周線がy方向に最小値をとる位置から画像デ
ータ上において、Xの最小値から最大値まで、順に保持
面積を有する位置を検出する。処理36では、今検出を
行っているy座標に対して、保持面積が検出できたかど
うかを判定し、もし検出できれば、処理38に行き、第
2の保持位置検出可能フラグをセットし、その位置デー
タをメモリに格納し処理40に行く。しかし、保持面積
位置が検出不可能であれば処理37に行き、重心のy座
標値と比較する。もし、今検出を行っているy座標が重
心のy座標より小さければ今のy座標に1を加算し、処
理35に行き同様な処理をくり返す。
Furthermore, since the size of the robot's fingers differs depending on the robot, the area of the fingers must also be determined in advance. In process 29 in FIG. 5, a limited area of the robot's finger (hereinafter referred to as a window) and a holding area of the robot's finger are set. In process 30, the outer circumference of the object is y
X on the image data from the position where the maximum value is taken in the direction
Detect a position that has a holding area from the minimum value to the maximum value. In process 31, it is determined whether the holding area can be detected for the y coordinate, and if it can be detected, process 3
3, set the first holding position detectable flag,
The position data is stored in the memory and the process goes to step 35. However, if the holding area position cannot be detected, the process goes to step 32, where it is compared with the y-coordinate of the center of gravity, and if the y-coordinate currently being detected is larger than the y-coordinate of the center of gravity, 1 is subtracted from the y-coordinate. , go to process 30 and repeat the same process. However, if the y-coordinate of the currently detected y-coordinate is smaller than the y-coordinate of the center of gravity, it is assumed that the first holding position cannot be detected.
Go to process 35. Processes 30 to 34 are the first holding position determining means. The second holding position determining means is also substantially similar to the first holding position determining means. In process 35, positions having a holding area are sequentially detected from the minimum value of X to the maximum value of X on the image data from the position where the outer circumferential line of the object takes the minimum value in the y direction. In process 36, it is determined whether the holding area has been detected for the y coordinate currently being detected. If it has been detected, the process goes to process 38, where a second holding position detectable flag is set, and the position is detected. The data is stored in memory and the process goes to step 40. However, if the holding area position cannot be detected, the process goes to step 37, where it is compared with the y-coordinate value of the center of gravity. If the currently detected y-coordinate is smaller than the y-coordinate of the center of gravity, 1 is added to the current y-coordinate, and the process goes to step 35 to repeat the same process.

しかし、今検出しているy座標が重心のy座標より大き
くなった場合は、第2の保持位置が検出不可能であった
とし処理40に行く。処理35から処理39までが、第
2の保持位置決定手段である。
However, if the currently detected y-coordinate becomes larger than the y-coordinate of the center of gravity, it is assumed that the second holding position cannot be detected, and the process goes to step 40. Processes 35 to 39 are the second holding position determining means.

次に、最適保持位置決定法による第3の保持位置決定手
段について説明する。処理40では、第1、第2の保持
位置検出可能フラグをチェックし、何個の保持位置が検
出できたかを判定する。第1、第2の保持位置の両方が
検出不可能である時、処理41に行き、物体の保持が不
可能であることのメツセージをモニタテレビのCRT 
15上に表示し、処理が終了する。
Next, the third holding position determining means based on the optimum holding position determining method will be explained. In process 40, the first and second holding position detectable flags are checked to determine how many holding positions have been detected. When both the first and second holding positions cannot be detected, the process goes to step 41, and a message indicating that the object cannot be held is sent to the CRT of the monitor television.
15, and the process ends.

又、第1、第2の保持位置のいずれか一方が検出可能で
ある時、処理42に行き、1個の保持位置データをロボ
ット本体20に転送し、処理が終了する。又、第1、第
2の両方の保持位置が検出可能である時、処理43に行
き、X方向、y方向の力学的モーメントが最小になるよ
うな最適保持位置決定法に基づいて、第3の保持位置を
計算によって求める。処理44では、計算で求めた第3
の保持位置が非常に大きな値であったり、又第1、第2
の保持位置と重複した位置になったりあるいは物体の穴
の位置になったりする場合など、第3の保持位置が適当
な位置であるかどうかを判定する。もし第3の位置が不
適当な位置であるならば、処理45に行き、ロボット本
体20に第1、第2の保持位置データを転送し、処理が
終了する。計算で求めた第3の位置が適当な位置であれ
ば処理46に行く。この処理では、もし物体の保持領域
内でウィンドウが設定されているならば、第3の保持位
置がウィンドウ内かどうかを判定する。
Further, when either the first or second holding position can be detected, the process goes to step 42, where one piece of holding position data is transferred to the robot body 20, and the process ends. Further, when both the first and second holding positions can be detected, the process goes to step 43, and the third holding position is determined based on the optimal holding position determination method that minimizes the mechanical moments in the X direction and the y direction. Find the holding position by calculation. In process 44, the third
The holding position may be a very large value, or the first and second
It is determined whether the third holding position is an appropriate position, such as when the third holding position overlaps with the third holding position or the position of a hole in the object. If the third position is an inappropriate position, the process goes to step 45, where the first and second holding position data are transferred to the robot body 20, and the process ends. If the calculated third position is an appropriate position, the process goes to step 46. In this process, if a window is set within the holding area of the object, it is determined whether the third holding position is within the window.

第3の保持位置がウィンドウ外であれば、処理47に行
きウィンドウ内に入るように位置補正を加える。計算で
求めた第3の保持位置がウィンドウ内に入っていれば、
処理48に行き、第1、第2、第3の保持位置データを
ロボット本体20に転送し、処理が終了する。処理40
から48までが第3の保持位置決定手段である。
If the third holding position is outside the window, the process goes to step 47 and the position is corrected so that it falls within the window. If the calculated third holding position is within the window,
The process goes to step 48, where the first, second, and third holding position data are transferred to the robot body 20, and the process ends. Processing 40
to 48 are the third holding position determining means.

(ホ)発明の効果 本発明によって物体の保持位置を自動的に決定すること
が可能になることで、従来、工場内で人間の目にたよっ
ていた搬送行程が、ロボットによって置き代わり、搬送
行程の完全自動化の実施が可能になる効果がある。また
、最適保持位置決定法によって、求まった位置は、力学
的モーメントが各方向に関してバランスがとれているた
め搬送中の加速度によって生じる力のために、物体の位
置がずれたり、又、物体が脱落することが軽減され、位
置決め精度が高い搬送が可能になる効果がある。
(e) Effects of the invention By making it possible to automatically determine the holding position of an object according to the present invention, robots can replace the transport process that traditionally relied on human eyes in factories. This has the effect of making it possible to implement complete automation. In addition, the position determined by the optimal holding position determination method is such that the mechanical moment is balanced in each direction, so it is possible for the object to shift due to the force generated by acceleration during transportation, or for the object to fall off. This has the effect of making it possible to carry out transportation with high positioning accuracy.

本発明の具体的な応用例としては、大型クレーンによる
搬送材料の吸着保持位置を自動的に検出したり、又、箱
詰め等の複雑形状製品の自動搬送に十分応用可能である
As a specific application example of the present invention, it is fully applicable to automatically detecting the suction/holding position of conveyed materials by a large crane, and to automatically convey products with complex shapes such as boxes.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図及び第2図は、本発明を機能単位に分割したブロ
ック図と装置構成図であり、第3図は、2次元画像デー
タの重心位置の求め方を図示したもの、第4図は、最適
保持位置決定法を図示したもの、第5図は、第1の保持
位置決定手段から第3の保持位置決定手段までを説明し
たフローチャート図である。 9・・・カメラ      10・・・ビデオ増幅同期
分離回路11・・・ん巾変換回路  12・・・制御回
路13・・・画像メモリ回路 14・・・D/A変換回
路15・・・CRT       16・・・入出力イ
ンタフェース17・・・CPU回路     18・・
・メモリ回路19・・・通信インタフェース 20・・
・ロボットA・・・形状認識装置    B・・・マイ
クロコンピュータ
1 and 2 are a block diagram and a device configuration diagram in which the present invention is divided into functional units, FIG. 3 is a diagram illustrating how to determine the center of gravity position of two-dimensional image data, and FIG. FIG. 5 is a flowchart illustrating the optimum holding position determining method from the first holding position determining means to the third holding position determining means. 9... Camera 10... Video amplification synchronization separation circuit 11... Width conversion circuit 12... Control circuit 13... Image memory circuit 14... D/A conversion circuit 15... CRT 16 ...Input/output interface 17...CPU circuit 18...
・Memory circuit 19...Communication interface 20...
・Robot A...Shape recognition device B...Microcomputer

Claims (1)

【特許請求の範囲】 1)物体の2次元画像データを得る撮像装置と前記画像
データを記憶する画像メモリ回路と、前記画像メモリ装
置に記憶された画像データに対応して、物体のx軸とy
軸に沿う累積面積曲線とx軸およびy軸とが囲む面積の
2分線の位置から物体の重心位置を求める重心位置決定
手段と、物体の外周線がy方向に最大値をとる位置から
、重心位置まで、x方向に沿って画像データに対応して
、物体上の保持可能位置をみつけ出す第1の保持位置決
定手段と、物体の外周線がy方向に最小値をとる位置か
ら重心位置までx方向に沿って、画像データに対応して
物体上の保持可能位置をみつけ出す第2の保持位置決定
手段と、前記重心位置と前記第1および第2の保持位置
決定手段で求められる保持位置とから搬送中の物体に働
く回転モーメントが最小となる様な保持位置を求める第
3の保持位置決定手段と、前記の各保持位置データを外
部に出力する出力装置とからなる搬送物体の最適保持位
置決定装置。 2)前記出力装置は、物体搬送用ロボットに対するデー
タ伝送装置を含むことを特徴とする特許請求の範囲第1
項記載の搬送物体の最適保持位置決定装置。 3)撮像装置によって物体の2次元画像データを得て、
これを画像メモリ回路に記憶し、前記画像データに対応
して、物体のx軸およびy軸とが囲む面積の2分線の位
置を物体の重心位置(x_w、y_w)とし、物体の外
周線がy方向に最大値をとる位置から重心位置まで、x
方向に沿って画像データに対応して物体上の保持可能位
置で最初の位置を第1の保持位置(x_1、y_1)と
し物体の外周線がy方向に最小値をとる位置から重心位
置まで、x方向に沿って画像データに対応して、物体上
の保持可能位置で最初の位置を第2の保持位置(x_2
、y_2)とするとともに x_3=3・x_w−(x_1+x_2) y_3=3・y_w−(y_1+y_2) で算出される位置を第3の保持位置(x_3、y_3)
とすることを特徴とする搬送物体の最適保持位置決定方
法。
[Scope of Claims] 1) An imaging device that obtains two-dimensional image data of an object, an image memory circuit that stores the image data, and an image sensor that corresponds to the image data stored in the image memory device, y
A center of gravity determining means for determining the center of gravity of an object from the position of the cumulative area curve along the axis and the bisecting line of the area surrounded by the x and y axes, and from the position where the outer circumference of the object takes a maximum value in the y direction. a first holding position determining means for finding a holdable position on the object according to the image data along the x direction up to the center of gravity; a second holding position determining means for finding a holdable position on the object corresponding to the image data along the x direction; and a holding position determined by the center of gravity position and the first and second holding position determining means. A third holding position determining means for determining a holding position that minimizes the rotational moment acting on the object being transported based on the position, and an output device that outputs each holding position data to the outside. Holding positioning device. 2) Claim 1, wherein the output device includes a data transmission device for an object transport robot.
The apparatus for determining the optimal holding position of a conveyed object as described in 2. 3) Obtain two-dimensional image data of the object using an imaging device,
This is stored in the image memory circuit, and corresponding to the image data, the position of the bisecting line of the area surrounded by the x-axis and y-axis of the object is set as the center of gravity position (x_w, y_w) of the object, and the outer circumference of the object is From the position where x takes its maximum value in the y direction to the center of gravity, x
The first position on the object that can be held in accordance with the image data along the direction is the first holding position (x_1, y_1), and from the position where the outer circumference of the object takes the minimum value in the y direction to the center of gravity, Corresponding to the image data along the x direction, the first position in the holdable position on the object is changed to the second hold position (
, y_2) and the position calculated by
A method for determining an optimal holding position for a transported object, characterized in that:
JP14978385A 1985-07-08 1985-07-08 Method of determining optimum position of holding in shape recognition device Pending JPS629894A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14978385A JPS629894A (en) 1985-07-08 1985-07-08 Method of determining optimum position of holding in shape recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14978385A JPS629894A (en) 1985-07-08 1985-07-08 Method of determining optimum position of holding in shape recognition device

Publications (1)

Publication Number Publication Date
JPS629894A true JPS629894A (en) 1987-01-17

Family

ID=15482617

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14978385A Pending JPS629894A (en) 1985-07-08 1985-07-08 Method of determining optimum position of holding in shape recognition device

Country Status (1)

Country Link
JP (1) JPS629894A (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4948262A (en) * 1972-09-14 1974-05-10
JPS49127359A (en) * 1973-04-09 1974-12-05
JPS5877487A (en) * 1981-10-28 1983-05-10 富士通株式会社 Visual recognizing device for robot
JPS6015780A (en) * 1983-07-08 1985-01-26 Hitachi Ltd Robot
JPS60104681A (en) * 1983-11-14 1985-06-10 ヤマザキマザック株式会社 Method of controlling robot
JPS60116005A (en) * 1983-11-28 1985-06-22 Yamazaki Mazak Corp Operation program control method of robot

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4948262A (en) * 1972-09-14 1974-05-10
JPS49127359A (en) * 1973-04-09 1974-12-05
JPS5877487A (en) * 1981-10-28 1983-05-10 富士通株式会社 Visual recognizing device for robot
JPS6015780A (en) * 1983-07-08 1985-01-26 Hitachi Ltd Robot
JPS60104681A (en) * 1983-11-14 1985-06-10 ヤマザキマザック株式会社 Method of controlling robot
JPS60116005A (en) * 1983-11-28 1985-06-22 Yamazaki Mazak Corp Operation program control method of robot

Similar Documents

Publication Publication Date Title
Luo et al. LQ design of PID controllers for robot arms
EP3527335A1 (en) Conveyor tracking system and calibration method
JPS6278979A (en) Picture processor
JP2002018754A (en) Robot device and its control method
WO2019228523A1 (en) Method and device for determining spatial position shape of object, storage medium and robot
JP2018187754A (en) Controller and control method of robot, and robot system
WO2019167765A1 (en) Simulation device, method, and program
CN115008477A (en) Manipulator movement compensation method, manipulator movement compensation device and computer-readable storage medium
CN112621746A (en) PID control method with dead zone and mechanical arm visual servo grabbing system
EP0464649A2 (en) Control device for robot in inertial coordinate system
CN114281044B (en) Industrial robot remote monitoring method and system based on cloud manufacturing
JPS629894A (en) Method of determining optimum position of holding in shape recognition device
CN113706628A (en) Intelligent transfer robot cooperation system and method for processing characteristic image by using same
WO2020133877A1 (en) Sensorless linear soft floating control method for industrial robot
JPS62226308A (en) Control system for robot having visual sensor
WO2023005424A1 (en) Electronic device, information synchronization method, and computer readable storage medium
CN112052526B (en) Method for calculating swing angle of sling of external suspension system of helicopter
JPH0411352B2 (en)
Herbert et al. Two-Stage Robotic Bin Picking of Small Metallic Objects
CN114055473B (en) Visual detection identification system based on transfer robot
JPS635408A (en) Method of adaptive control for robot
JP6978026B1 (en) Waypoint setting method and waypoint correction method, management server, information processing system, program
Weng et al. A vision-based strategy for a cost-effective flexible robotic assembly system without using RCC devices and compliant control
CN118322205A (en) Visual servo finite time control method based on speed observer
JPS6180003A (en) Visual sense system with real length conversion and correction function