JPH06333025A - Window size deciding method - Google Patents

Window size deciding method

Info

Publication number
JPH06333025A
JPH06333025A JP5125612A JP12561293A JPH06333025A JP H06333025 A JPH06333025 A JP H06333025A JP 5125612 A JP5125612 A JP 5125612A JP 12561293 A JP12561293 A JP 12561293A JP H06333025 A JPH06333025 A JP H06333025A
Authority
JP
Japan
Prior art keywords
window
window size
size
calculated
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP5125612A
Other languages
Japanese (ja)
Inventor
Kenji Kamiyama
健司 上山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP5125612A priority Critical patent/JPH06333025A/en
Publication of JPH06333025A publication Critical patent/JPH06333025A/en
Withdrawn legal-status Critical Current

Links

Abstract

PURPOSE:To provide a window size deciding method which can surely catch a moving object in a window regardless of the moving speed of a subject to be held or the irregularity of the moving path. CONSTITUTION:When a window is set in an image obtained by photographing a holding subject 6 put on a belt conveyor 5 by a CCD camera 2, a visual information processor 1 adds the magnifying component accordant with the moving speed of the subject 6 and the magnifying component accordant with the sample correlation coefficient set between the time and a position to a basic size accordant with the size of the subject 6. Thus a window size is calculated.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、CCDカメラ等によっ
て移動物体を撮影して得られた画像中に、移動物体につ
いての画像処理の対象となるウインドウを設定する際
に、適切なウインドウサイズを決定する方法に関するも
のである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention sets an appropriate window size when setting a window to be image-processed for a moving object in an image obtained by photographing a moving object with a CCD camera or the like. It is about how to make a decision.

【0002】[0002]

【従来の技術】自動化工場の組立てラインにおいては、
ベルトコンベア上の部品をロボットハンドにより把持し
て、自動的に組立てが行なわれる。この場合、例えば、
CCDカメラによってベルトコンベア上の部品を撮影
し、画像処理を施すことによって部品の位置を認識し、
該認識に基づいてロボットハンドの把持動作が制御され
る。
2. Description of the Related Art In an assembly line of an automated factory,
Parts on the belt conveyor are gripped by a robot hand and automatically assembled. In this case, for example,
The CCD camera takes a picture of the parts on the belt conveyor, and the position of the parts is recognized by performing image processing.
The gripping operation of the robot hand is controlled based on the recognition.

【0003】ところで、画像処理には一般に長い計算時
間が必要であるため、従来は、移動物体の撮影画像中に
適当なサイズのウインドウを設定して、該ウインドウ内
を画像処理の対象とすることにより、計算時間の短縮が
図られている。
By the way, since image processing generally requires a long calculation time, conventionally, a window of an appropriate size is set in a captured image of a moving object, and the window is targeted for image processing. This reduces the calculation time.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、ウイン
ドウサイズは、移動物体の形状や移動状態に応じて個別
具体的に決定せざるを得ず(日本機械学会ロボティクス・
メカトロニクス講演会'92講演論文集vol.B,p613〜61
8)、普遍的に適用可能なウインドウサイズ決定方法につ
いては知られていない。
However, the window size has to be individually and specifically determined according to the shape and moving state of the moving object (JSME Robotics.
Mechatronics Lecture '92 Proceedings vol.B, p613-61
8) There is no known universally applicable window size determination method.

【0005】本発明の目的は、移動物体の形状や移動状
態に拘わらず、普遍的に適用可能なウインドウサイズ決
定方法を明らかにすることである。
It is an object of the present invention to clarify a universally applicable window size determining method regardless of the shape and moving state of a moving object.

【0006】[0006]

【課題を解決する為の手段】本発明に係るウインドウサ
イズ決定方法においては、移動物体の大きさに応じた基
本サイズに、移動物体の移動速度に応じた拡大成分と、
時間と位置の間の標本相関係数に応じた拡大成分とを加
算して、ウインドウサイズを算出する。
In a window size determining method according to the present invention, a basic size corresponding to the size of a moving object, an enlargement component corresponding to the moving speed of the moving object, and
The window size is calculated by adding the expansion component corresponding to the sample correlation coefficient between time and position.

【0007】又、本発明に係る他のウインドウサイズ決
定方法は、上記の如くウインドウサイズを算出した後、
該ウインドウサイズ内に捕えられた移動物体の画像から
特徴量を算出し、該特徴量の基準値からのずれに応じて
ウインドウサイズを修正するものである。
Further, another window size determining method according to the present invention is, after calculating the window size as described above,
The feature amount is calculated from the image of the moving object captured within the window size, and the window size is corrected according to the deviation of the feature amount from the reference value.

【0008】[0008]

【作用】上記第1のウインドウサイズ決定方法におい
て、基本サイズは、移動物体の形状が予め判明している
場合はその形状に基づいて決定される。又、移動物体の
形状が未知の場合は画像処理によって基本サイズが算出
される。該基本サイズは、移動物体の全体をウインドウ
内に捕えるために必要な最小のウインドウサイズを表わ
すものである。
In the first window size determining method described above, the basic size is determined based on the shape of the moving object, if the shape is known in advance. When the shape of the moving object is unknown, the basic size is calculated by image processing. The basic size represents the minimum window size required to capture the entire moving object within the window.

【0009】そして、撮影画像に基づいて移動物体の速
度が認識され、認識された速度が大きい程、大きな拡大
サイズが設定される。更に、移動物体の時間と位置の間
の標本相関係数が算出され、該標本相関係数が小さい
程、大きな拡大サイズが設定されることになる。基本サ
イズに両拡大サイズを加算することによって、移動速度
及び移動経路の不規則性に拘わりなく、確実にウインド
ウ内に移動物体を捕えるための適切なウインドウサイズ
が得られる。
Then, the speed of the moving object is recognized based on the captured image, and the larger the recognized speed is, the larger the enlargement size is set. Furthermore, the sample correlation coefficient between the time and the position of the moving object is calculated, and the smaller the sample correlation coefficient, the larger the enlargement size is set. By adding both enlargement sizes to the basic size, an appropriate window size for reliably capturing a moving object in the window can be obtained regardless of the irregularity of the moving speed and the moving path.

【0010】又、上記第2のウインドウサイズ決定方法
においては、何らかの異常事態が発生して上記第1の方
法により決定したウインドウサイズにエラーが含まれる
場合、ウインドウ内に捕えられた移動物体は、その一部
がウインドウから外へはみ出て、ウインドウ内にて算出
した移動物体の特徴量は、全体がウインドウ内に捕えら
れた場合の特徴量(基準値)からずれることになる。従っ
て、この場合は、そのずれに応じてウインドウサイズを
修正することにより、移動物体の全体をウインドウ内に
収めることが出来る。
In the second window size determining method, if an error occurs and the window size determined by the first method includes an error, the moving object captured in the window is A part of it protrudes out of the window, and the feature amount of the moving object calculated in the window deviates from the feature amount (reference value) when the whole is caught in the window. Therefore, in this case, the moving object can be entirely accommodated in the window by correcting the window size according to the deviation.

【0011】[0011]

【発明の効果】本発明に係るウインドウサイズ決定方法
によれば、移動物体の大きさのみならず、移動物体の移
動速度や、時間と位置の間の標本相関係数に応じてウイ
ンドウサイズが決定されるから、従来よりも普遍的な適
用が可能である。
According to the window size determining method of the present invention, the window size is determined according to not only the size of the moving object but also the moving speed of the moving object and the sample correlation coefficient between time and position. Therefore, it can be applied more universally than before.

【0012】[0012]

【実施例】第1実施例 図1は、本発明のウインドウサイズ決定方法を応用すべ
き物体把持システムの装置構成を示している。該システ
ムは、ベルトコンベア(5)上の把持対象物(6)を、マニ
ピュレータ(3)に取り付けた3指3間接ハンド(4)によ
って把持するものである。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS First Embodiment FIG. 1 shows a device configuration of an object gripping system to which the window size determining method of the present invention is applied. The system grips an object to be gripped (6) on a belt conveyor (5) with an indirect hand (3) of three fingers attached to a manipulator (3).

【0013】ベルトコンベア(5)の上方位置には単眼C
CDカメラ(2)が配備され、該CCDカメラ(2)からの
画像信号は視覚情報処理装置(1)へ供給されて、本発明
に係るウインドウサイズ決定処理、画像処理等が施され
る。
A monocular C is located above the belt conveyor (5).
A CD camera (2) is provided, and an image signal from the CCD camera (2) is supplied to the visual information processing device (1) to be subjected to window size determination processing, image processing and the like according to the present invention.

【0014】上記物体把持システムにおいては、単眼C
CDカメラ(2)によって撮影した把持対象物(6)の画像
に基づき、マニピュレータ(3)を制御して、ベルトコン
ベア(5)上の把持対象物(6)を追尾し、更に3指3間接
ハンド(4)を制御して、該把持対象物(6)を把持する。
In the above object grasping system, the monocular C
Based on the image of the gripping target (6) taken by the CD camera (2), the manipulator (3) is controlled so that the gripping target (6) on the belt conveyor (5) is tracked, and three fingers and three indirect joints are made. The hand (4) is controlled to grip the gripping target (6).

【0015】把持対象物(6)を撮影した画像を処理する
際には、図2或いは図3に示すウインドウサイズ決定手
続きが実行されて、適切なサイズのウインドウ設定によ
って計算時間の短縮が図られる。
When processing an image of the object to be grasped (6), the window size determining procedure shown in FIG. 2 or 3 is executed to shorten the calculation time by setting the window of an appropriate size. .

【0016】本発明のウインドウサイズ決定方法におい
ては、先ず把持対象物(6)の大きさに応じて基本となる
ウインドウサイズを決定する。例えば把持対象物(6)の
平面形状が円の場合、該円の外接正方形を基本のウイン
ドウとして設定する。ここで、Sを円の面積とすると、
該ウインドウのX軸方向のサイズWdx、及びY軸方向の
サイズWdyは、下記数1及び数2によって表わされる。
In the window size determining method of the present invention, first, the basic window size is determined according to the size of the object to be gripped (6). For example, when the planar shape of the gripping target (6) is a circle, the circumscribed square of the circle is set as a basic window. Here, if S is the area of the circle,
The size W dx in the X-axis direction and the size W dy in the Y-axis direction of the window are represented by the following formulas 1 and 2.

【0017】[0017]

【数1】Wdx=Wdy=2√(π/S)[Formula 1] W dx = W dy = 2√ (π / S)

【0018】次に、把持対象物(6)の移動速度に応じた
ウインドウサイズの拡大成分を計算する。把持対象物の
移動速度のX軸方向の成分をVx、速度に関するX軸方
向のゲインをGvx、把持対象物の移動速度のY軸方向の
成分をVy、速度に関するY軸方向のゲインをGvyとす
ると、速度に応じたウインドウサイズのX軸方向の拡大
成分Wvx及びY軸方向の拡大成分Wvyは下記数2及び数
3によって表わされる。
Next, the enlargement component of the window size corresponding to the moving speed of the object to be grasped (6) is calculated. The moving speed of the X-axis direction component V x of gripping target, gain G vx in the X-axis direction on the velocity, the moving speed of the Y-axis direction component V y of gripping target, the gain of the Y-axis direction on the velocity Is G vy , the enlargement component W vx in the X-axis direction and the enlargement component W vy in the Y-axis direction of the window size according to the speed are represented by the following formulas 2 and 3.

【0019】[0019]

【数2】Wvx=Gvx×Vx (2) W vx = G vx × V x

【数3】Wvy=Gvy×Vy (3) W vy = G vy × V y

【0020】更に、把持対象物(6)の移動過程における
時間と位置の間の標本相関係数に応じた拡大成分を計算
する。ここで、X軸方向の標本相関係数をrxt、Y軸方
向の標本相関係数をryt、夫々のゲインをGrx、Gry
すると、X軸方向の拡大成分Wrx及びY軸方向の拡大成
分Wryは、下記数4及び数5によって表わされる。
Further, the enlargement component is calculated according to the sample correlation coefficient between the time and the position in the movement process of the grip target (6). Here, assuming that the sample correlation coefficient in the X-axis direction is r xt , the sample correlation coefficient in the Y-axis direction is r yt , and the gains thereof are G rx and G ry , the expansion component W rx in the X-axis direction and the Y-axis are shown. The directional expansion component W ry is represented by the following Equations 4 and 5.

【0021】[0021]

【数4】Wrx=Grx×(1−|rxt|)(4) W rx = G rx × (1- | r xt |)

【数5】Wry=Gry×(1−|ryt|)## EQU5 ## Wry = Gry * (1- | ryt |)

【0022】図1の如くベルトコンベア(5)上の把持対
象物(6)についての時間と位置の間の標本相関係数の算
出に際しては、例えば直線近似によって把持対象物の位
置を予測する。ここで、xをX軸の座標値(予測値)、t
を時間とすると、予測モデルは下記数6によって表わす
ことが出来る。
When calculating the sample correlation coefficient between the time and the position of the gripping target (6) on the belt conveyor (5) as shown in FIG. 1, the position of the gripping target is predicted by, for example, linear approximation. Here, x is the coordinate value (predicted value) of the X axis, t
Is a time, the prediction model can be expressed by the following equation 6.

【0023】[0023]

【数6】x=a×t+b## EQU6 ## x = a × t + b

【0024】係数a、bは最小二乗法によって決定す
る。Y軸方向についても同様の予測モデルを設定するこ
とが出来る。この場合、X軸方向の標本相関係数rxt
次の数7によって計算される。
The coefficients a and b are determined by the method of least squares. A similar prediction model can be set for the Y-axis direction. In this case, the sample correlation coefficient r xt in the X-axis direction is calculated by the following equation 7.

【0025】[0025]

【数7】rxt=sxt/sxt [Equation 7] r xt = s xt / s x s t

【0026】ここで、sxtは座標値x(実測データ)と時
間tの標本共分散、sx 2は座標値xの標本分散、st 2
時間tの標本分散であって、nを標本の数として、夫々
下記数8、数9、数10によって算出される。
Here, s xt is the sample covariance of coordinate value x (measured data) and time t, s x 2 is the sample variance of coordinate value x, s t 2 is the sample variance of time t, and n is The number of samples is calculated by the following equations 8, 9, and 10, respectively.

【0027】[0027]

【数8】sxt={Σxt−ΣxΣt/n}/(n−1)S xt = {Σxt−ΣxΣt / n} / (n−1)

【数9】sx 2={Σx2−(Σx)2/n}/(n−1)S x 2 = {Σx 2 − (Σx) 2 / n} / (n−1)

【数10】 st 2={Σt2−(Σt)2/n}/(n−1)S t 2 = {Σt 2 − (Σt) 2 / n} / (n−1)

【0028】把持対象物が上記数6の予測モデルに従っ
て誤差なく移動する場合は、上記数7の|rxt|の値は
1となり、予測モデルからずれるにつれて、|rxt|の
値は小さくなって、ウインドウサイズの拡大成分は大き
く設定されることになる。Y軸方向の標本相関係数ryt
についても同様に計算することが出来る。
When the object to be grasped moves without error according to the prediction model of the above equation 6, the value of | r xt | in the above equation 7 becomes 1, and the value of | r xt | becomes smaller as it deviates from the prediction model. Therefore, the enlargement component of the window size is set large. Sample correlation coefficient r yt in the Y-axis direction
Can be similarly calculated.

【0029】この様にして拡大成分が計算されると、ウ
インドウのX軸方向のサイズWx 及びY軸方向のサイズ
y は下記数11及び数12によって算出することが出
来る。尚、数2乃至数5の各ゲインは、実験等によって
最適値に調整することが出来る。
When the expansion component is calculated in this way, the size W x in the X-axis direction and the size W y in the Y-axis direction of the window can be calculated by the following formulas 11 and 12. The gains of the equations 2 to 5 can be adjusted to optimum values by experiments or the like.

【0030】[0030]

【数11】Wx=Wdx+Wvx+Wrx [Expression 11] W x = W dx + W vx + W rx

【数12】W=Wdy+Wvy+Wry [ Expression 12] W y = W dy + W vy + W ry

【0031】図1の物体把持システムに対して上記ウイ
ンドウサイズ決定方法を適用する場合の具体的な手続き
を図2に示す。尚、CCDカメラから得られる画像信号
は複数フィールド毎にウインドウ内のデータがサンプリ
ングされて、視覚情報処理装置(1)の画像処理部に入力
される。
FIG. 2 shows a specific procedure when the above window size determining method is applied to the object gripping system shown in FIG. In the image signal obtained from the CCD camera, the data in the window is sampled for every plurality of fields and is input to the image processing unit of the visual information processing device (1).

【0032】先ずステップS1にて、CCDカメラから
得られる最初の4枚分の画像が入力され、ステップS2
では、前記4枚分の画像データに対し、ウインドウを設
定することなく画面の全領域について画像処理を施し、
把持対象物の位置を表わす位置情報(X及びY座標値)を
計算する。
First, in step S1, the first four images obtained from the CCD camera are input, and in step S2
Then, the image data for the four images is subjected to image processing for the entire area of the screen without setting a window,
Position information (X and Y coordinate values) representing the position of the object to be grasped is calculated.

【0033】次にステップS3にて、計算された4つの
位置情報に最小二乗法を適用して前記数6の予測モデル
を決定すると共に、標本相関係数rxt及びrytを計算す
る。
Next, in step S3, the least squares method is applied to the calculated four position information to determine the prediction model of the above-mentioned equation 6, and the sample correlation coefficients r xt and r yt are calculated.

【0034】そしてステップS4にて、決定された予測
モデルを用いて、次の画像入力時のウインドウの設定位
置を計算すると共に、前記数11及び数12によってウ
インドウサイズを計算する。その後、ステップS5に
て、3指3自由度ハンド(4)による該把持対象物の把持
が可能か否かを判断して、可能であればステップS6の
把持動作に移行する。
Then, in step S4, the setting position of the window at the time of inputting the next image is calculated using the determined prediction model, and the window size is calculated by the equations (11) and (12). After that, in step S5, it is determined whether or not the object to be grasped can be grasped by the three-finger, three-degree-of-freedom hand (4).

【0035】把持が不可能であれば、ステップS7にて
次の画像を入力し、ステップS8にて、前記ステップS
4にて計算されたサイズのウインドウを対象として画像
処理を施し、把持対象物の位置情報を計算した後、ステ
ップS3へ戻る。
If gripping is impossible, the next image is input in step S7, and in step S8, the above-mentioned step S8 is input.
Image processing is performed on the window having the size calculated in step 4 to calculate the position information of the grasped object, and then the process returns to step S3.

【0036】上記手続きによって、ベルトコンベア上の
把持対象物がロボットハンドによって把持されることに
なる。この際、適切なサイズのウインドウが適切な位置
に設定されるから、画像処理の計算時間は短く、確実な
把持動作が実現される。
By the above procedure, the object to be gripped on the belt conveyor is gripped by the robot hand. At this time, since a window having an appropriate size is set at an appropriate position, the calculation time for image processing is short and a reliable gripping operation is realized.

【0037】第2実施例 上記第1実施例の方法において、例えば把持対象物が途
中で倒れる等の異常事態によってデータに急激な変動が
発生した場合、計算されたウインドウサイズでは、ウイ
ンドウ内に移動物体の全体を捕えることが出来ない虞れ
がある。
Second Embodiment In the method of the first embodiment described above, when a sudden change occurs in the data due to an abnormal situation such as an object to be grasped falling down on the way, the calculated window size moves the window. There is a risk that the entire object cannot be captured.

【0038】そこで、本実施例では、第1実施例と同様
にしてウインドウサイズを算出した後、該ウインドウサ
イズ内に捕えられた把持対象物の画像から所定の特徴量
を算出し、該特徴量のリファレンス値からのずれに応じ
てウインドウサイズを修正する。
Therefore, in the present embodiment, after the window size is calculated in the same manner as in the first embodiment, the predetermined feature amount is calculated from the image of the gripping target captured within the window size, and the feature amount is calculated. Correct the window size according to the deviation from the reference value of.

【0039】ウインドウサイズの修正量Wsは、Tref
把持対象物の特徴量のリファレンス値、Tnowを特徴量
の現在値、Gsをゲインとして、下記数13によって表
わすことが出来る。
The window size correction amount W s can be expressed by the following equation 13 using T ref as the reference value of the feature amount of the object to be gripped, T now as the current value of the feature amount, and G s as the gain.

【0040】[0040]

【数13】Ws=|Gs×(Tref−Tnow)|[Expression 13] W s = | G s × (T ref −T now ) |

【0041】従って、修正後のウインドウサイズWxs
ysは下記数14及び数15によって算出することが出
来る。
Therefore, the corrected window size W xs ,
Wys can be calculated by the following equations 14 and 15.

【0042】[0042]

【数14】Wxs=Wx+Ws [ Expression 14] W xs = W x + W s

【数15】Wys=Wy+Ws (15) W ys = W y + W s

【0043】特徴量としては、例えば下記数16で定義
される円形度eを採用することが出来る。又、その他の
周知の特徴量を採用することも可能である。
As the feature quantity, for example, the circularity e defined by the following equation 16 can be adopted. It is also possible to adopt other known feature amounts.

【0044】[0044]

【数16】 e=(平面形状の周囲長)2/(平面形状の面積) この場合、真円についての円形度が最小値(=リファレ
ンス値)となり、ウインドウから円の端部がはみ出るこ
とによって、円形度の現在値は大きくなる。
[Equation 16] e = (perimeter of planar shape) 2 / (area of planar shape) In this case, the circularity of a perfect circle becomes the minimum value (= reference value), and the edge of the circle protrudes from the window. , The current value of circularity becomes large.

【0045】上記ウインドウサイズ決定方法の具体的な
手続きを図3に示す。先ずステップS11にて、CCDカ
メラから得られる最初の4枚分の画像が入力され、ステ
ップS12では、前記4枚分の画像データに対し、ウイン
ドウを設定することなく画面の全領域について画像処理
を施し、把持対象物の位置を表わす位置情報(X及びY
座標値)を計算する。
FIG. 3 shows a specific procedure of the window size determining method. First, in step S11, the first four images obtained from the CCD camera are input, and in step S12, the image data for the four images is subjected to image processing for the entire area of the screen without setting a window. Position information (X and Y
Calculate the coordinate values).

【0046】次にステップS13にて、計算された4つの
位置情報に最小二乗法を適用して前記数6の予測モデル
を決定すると共に、標本相関係数rxt及びrytを計算す
る。
Then, in step S13, the least squares method is applied to the calculated four position information to determine the prediction model of the above-mentioned equation 6, and the sample correlation coefficients r xt and r yt are calculated.

【0047】そしてステップS14にて、決定された予測
モデルを用いて、次の画像入力時のウインドウの位置を
計算すると共に、前記数11及び数12によってウイン
ドウサイズの初期値を計算した後、ステップS15にて、
前記数16によって円形度を計算する。
Then, in step S14, the position of the window at the time of inputting the next image is calculated using the determined prediction model, and the initial value of the window size is calculated by the equations (11) and (12). At S15,
The circularity is calculated by the above equation 16.

【0048】その後、ステップS16にて、円形度のリフ
ァレンス値との比較を行なって、その差が一定値以下か
否かが判断される。NOの場合は、ステップS17にて、
前記数14及び数15に基づいてウインドウサイズを修
正した上で、ステップS18にて、ロボットハンドによる
把持対象物の把持が可能か否かを判断して、可能であれ
ばステップS19の把持動作に移行する。
Then, in step S16, the circularity is compared with a reference value to determine whether the difference is less than a certain value. If NO, in step S17,
After correcting the window size based on the equations (14) and (15), in step S18, it is determined whether or not the gripping target can be gripped by the robot hand, and if possible, the gripping operation in step S19 is performed. Transition.

【0049】把持が不可能であれば、ステップS20にて
次の画像を入力し、前記ステップS17にて修正されたサ
イズのウインドウを対象として画像処理を施し、把持対
象物の位置情報を計算した後、ステップS14へ戻る。
If gripping is impossible, the next image is input in step S20, image processing is performed on the window of the size corrected in step S17, and the position information of the gripping target is calculated. After that, the process returns to step S14.

【0050】上記手続きの実行によって、ベルトコンベ
ア上の把持対象物がロボットハンドによって把持される
ことになる。この際、把持対象物の円形度に基づいてウ
インドウサイズが修正されるから、把持対象物をより確
実にウインドウ内に捕えることが出来る。
By executing the above procedure, the object to be gripped on the belt conveyor is gripped by the robot hand. At this time, since the window size is corrected based on the circularity of the object to be grasped, the object to be grasped can be more reliably caught in the window.

【0051】上記実施例の説明は、本発明を説明するた
めのものであって、特許請求の範囲に記載の発明を限定
し、或は範囲を減縮する様に解すべきではない。又、本
発明の各部構成は上記実施例に限らず、特許請求の範囲
に記載の技術的範囲内で種々の変形が可能であることは
勿論である。
The above description of the embodiments is for explaining the present invention and should not be construed as limiting the invention described in the claims or reducing the scope. The configuration of each part of the present invention is not limited to the above-mentioned embodiment, and it goes without saying that various modifications can be made within the technical scope described in the claims.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明を実施すべき物体把持システムの装置構
成を示す斜視図である。
FIG. 1 is a perspective view showing a device configuration of an object gripping system in which the present invention is implemented.

【図2】第1実施例を示すフローチャートである。FIG. 2 is a flowchart showing a first embodiment.

【図3】第2実施例を示すフローチャートである。FIG. 3 is a flowchart showing a second embodiment.

【符号の説明】[Explanation of symbols]

(1) 視覚情報処理装置 (2) CCDカメラ (3) マニピュレータ (4) 3指3自由度ハンド (5) ベルトコンベア (6) 把持対象物 (1) Visual information processing device (2) CCD camera (3) Manipulator (4) Hand with three fingers and three degrees of freedom (5) Belt conveyor (6) Object to be gripped

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 移動物体を撮影した画像中に設定すべき
ウインドウサイズの決定方法において、移動物体の大き
さに応じた基本サイズに、移動物体の移動速度に応じた
拡大成分と、時間と位置の間の標本相関係数に応じた拡
大成分とを加算して、ウインドウサイズを算出すること
を特徴とするウインドウサイズ決定方法。
1. A method for determining a window size to be set in an image of a moving object, wherein a basic size corresponding to the size of the moving object, an expansion component corresponding to the moving speed of the moving object, a time and a position are set. A window size determination method, characterized in that a window size is calculated by adding an expansion component corresponding to a sample correlation coefficient between the two.
【請求項2】 移動物体を撮影した画像中に設定すべき
ウインドウサイズの決定方法において、移動物体の大き
さに応じた基本サイズに、移動物体の移動速度に応じた
拡大成分と、時間と位置の間の標本相関係数に応じた拡
大成分とを加算して、ウインドウサイズを算出した後、
該ウインドウサイズ内に捕えられた移動物体の画像から
特徴量を算出し、該特徴量の基準値からのずれに応じて
ウインドウサイズを修正することを特徴とするウインド
ウサイズ決定方法。
2. A method of determining a window size to be set in a captured image of a moving object, wherein a basic size corresponding to the size of the moving object, an expansion component corresponding to the moving speed of the moving object, a time and a position are set. After calculating the window size by adding the expansion component according to the sample correlation coefficient between
A window size determining method, characterized in that a feature amount is calculated from an image of a moving object captured within the window size, and the window size is corrected according to a deviation of the feature amount from a reference value.
JP5125612A 1993-05-27 1993-05-27 Window size deciding method Withdrawn JPH06333025A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5125612A JPH06333025A (en) 1993-05-27 1993-05-27 Window size deciding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5125612A JPH06333025A (en) 1993-05-27 1993-05-27 Window size deciding method

Publications (1)

Publication Number Publication Date
JPH06333025A true JPH06333025A (en) 1994-12-02

Family

ID=14914402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5125612A Withdrawn JPH06333025A (en) 1993-05-27 1993-05-27 Window size deciding method

Country Status (1)

Country Link
JP (1) JPH06333025A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006350575A (en) * 2005-06-14 2006-12-28 Fuji Xerox Co Ltd Image processor, image processing method, and image processing program
JP2015035715A (en) * 2013-08-08 2015-02-19 キヤノン株式会社 Image pickup method and image pickup device
CN114619429A (en) * 2022-04-24 2022-06-14 广东天太机器人有限公司 Mechanical arm control method based on recognition template

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006350575A (en) * 2005-06-14 2006-12-28 Fuji Xerox Co Ltd Image processor, image processing method, and image processing program
JP4710426B2 (en) * 2005-06-14 2011-06-29 富士ゼロックス株式会社 Image processing apparatus, image processing method, and image processing program
JP2015035715A (en) * 2013-08-08 2015-02-19 キヤノン株式会社 Image pickup method and image pickup device
CN114619429A (en) * 2022-04-24 2022-06-14 广东天太机器人有限公司 Mechanical arm control method based on recognition template

Similar Documents

Publication Publication Date Title
Daniilidis et al. Real-time tracking of moving objects with an active camera
Skaar et al. Camera-space manipulation
EP3486041A2 (en) Gripping system, learning device, and gripping method
JPH04344503A (en) Numerical controller for robot
WO2020022302A1 (en) Grasping device
Miseikis et al. Automatic calibration of a robot manipulator and multi 3d camera system
JP2003231078A (en) Position control method for robot arm and robot device
Krumm Eigenfeatures for planar pose measurement of partially occluded objects
CN111203871A (en) Robotic manipulation using independently actuated vision systems
JP2018169660A (en) Object attitude detection apparatus, control apparatus, robot and robot system
JPH03228589A (en) Positioning method for work
JPH06333025A (en) Window size deciding method
Carius et al. Autonomous Mission with a Mobile Manipulator—A Solution to the MBZIRC
JPH06218682A (en) Robot for assembly
JP3039241B2 (en) Feature point extraction method for ring-shaped work
Seitz Towards autonomous robotic servicing: Using an integrated hand-arm-eye system for manipulating unknown objects
Yoshizaki et al. Vision-speech system adapting to the user and environment for service robots
JPH04269194A (en) Plane measuring method
CN112184819A (en) Robot guiding method and device, computer equipment and storage medium
Vollmann et al. Manipulator control by calibration-free stereo vision
US20240098905A1 (en) Method of inserting an electronic components in through-hole technology, THT, into a printed circuit board, PCB, by an industrial robot
JP2000194861A (en) Method and device for recognizing image
CN114056704B (en) Feeding deviation rectifying method and equipment and storage medium
Lee et al. Kalman Filter Based Multiple Human Tracking Method in Auto-aligned Multi-Camera Environment
JPH04250700A (en) Mounting method for electronic component

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20000801