JPH07244512A - Method for informing position and time of target to robot and tracking method - Google Patents

Method for informing position and time of target to robot and tracking method

Info

Publication number
JPH07244512A
JPH07244512A JP6056813A JP5681394A JPH07244512A JP H07244512 A JPH07244512 A JP H07244512A JP 6056813 A JP6056813 A JP 6056813A JP 5681394 A JP5681394 A JP 5681394A JP H07244512 A JPH07244512 A JP H07244512A
Authority
JP
Japan
Prior art keywords
time
robot
visual
work
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP6056813A
Other languages
Japanese (ja)
Inventor
Atsushi Watanabe
淳 渡辺
Taro Arimatsu
太郎 有松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP6056813A priority Critical patent/JPH07244512A/en
Publication of JPH07244512A publication Critical patent/JPH07244512A/en
Withdrawn legal-status Critical Current

Links

Abstract

PURPOSE:To execute accurate tracking by informing a robot of accurate time obtaining a picture of a target by a visual sensor together with the positional information of the target. CONSTITUTION:A work W is detected by a limit sensor 4 and transmitted to a picture processor 11. A CPU transmits the detected contents to a robot controller 20. The controller 20 starts a visual clock 5 after the lapse of proper time, and simultaneously, clears the count value of a counting register in a pulse coder 3. Immediately after the clear, photographing by a camera 12 is executed and the LED display density strings of the work W and the clock 5 are fetched as picture signals. The CPU analyzes these pictures, finds out the position of the work W and the time T0 concerned (point of time starting the opening of an electronic shutter) and transmits the position and time T0 to the controller 20. The controller 20 starts tracking utilizing the photographing time T0 and the work position data at the timing when the work W reaches a position appropriate for starting its tracking after starting the robot 30.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本願発明は、移送手段によって移
動中のロボット作業対象物(以下、単に「対象物」と言
う。)を視覚センサで認識し、該対象物の位置を産業用
ロボット(以下、単に「ロボット」と言う。)に報知し
てロボット作業に役立たせる技術に関し、特に、対象物
の位置に対応した時間を正確にロボットに報知する方法
及びこれを利用してロボットにトラッキングを行なわせ
る方法に関する。トラッキングを実行する具体的な事例
としては、例えば、ラインコンベアに乗って移送される
ワークの位置に応じたロボット位置補正を行いながらロ
ボットを動作させるライントラッキング機能を利用し
て、移送中のワークを把持してピックアップするアプリ
ケーションがある。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention recognizes a robot work object (hereinafter, simply referred to as "object") moving by a transfer means by a visual sensor and determines the position of the object by an industrial robot ( (Hereinafter, simply referred to as "robot") to make it useful for robot work, and in particular, a method of accurately notifying the robot of the time corresponding to the position of the object and tracking the robot by using this method. Regarding how to do it. As a specific example of performing tracking, for example, using the line tracking function that operates the robot while correcting the robot position according to the position of the work transferred on the line conveyor, There is an application that holds and picks up.

【0002】[0002]

【従来の技術】ロボットを利用して対象物に対する作業
を実行する場合、対象物が作業中に静止しているケース
であれば、通常のティーチング・プレイバック方式、あ
るいはオフラインティーチング方式によってロボット制
御を行なうことが出来る。また、対象物の位置にばらつ
きがある場合には、視覚センサで対象物の位置を計測
し、該計測結果に基づいてロボット動作を補正する方法
が採用されている。
2. Description of the Related Art When a robot is used to perform an operation on an object, if the object is stationary during the operation, the robot is controlled by a normal teaching / playback method or an offline teaching method. You can do it. Further, when the position of the target object varies, a method of measuring the position of the target object with a visual sensor and correcting the robot operation based on the measurement result is adopted.

【0003】しかし、工場のプロセスライン等において
は、作業効率上の理由などからワークをコンベアで移動
させながらロボット作業を実行したい場合も多い。例え
ば、移動コンベア上に載置されたワーク(各種部品、塑
性加工品の容器状型材等)を把持してコンベア上からピ
ックアップしたり、塗装、マーキング、注液、機械的加
工等の処理を行なう作業に対してロボットシステムを適
用するケースがこれにあたる。
However, in a process line or the like of a factory, there are many cases where it is desired to perform robot work while moving a work by a conveyor for reasons such as work efficiency. For example, the work (various parts, container-shaped material of plastic processed products, etc.) placed on the moving conveyor is grasped and picked up from the conveyor, and processing such as painting, marking, liquid injection, and mechanical processing is performed. This is the case when a robot system is applied to work.

【0004】このようなケースでは、ワークが静止状態
ある条件で教示したロボット位置をそのまま再生したの
では所期の作業を実行することが出来ないので、ワーク
の移動経路に応じたトラッキングを行いながらプログラ
ム再生運転を行なう必要が生じる。
In such a case, the desired work cannot be performed by reproducing the position of the robot taught under the condition that the work is stationary. Therefore, the tracking according to the movement path of the work is performed. It becomes necessary to perform the program regeneration operation.

【0005】ところで、トラッキングを行なうには、ロ
ボット動作中を含む各時点において対象物がどの位置に
あるかを知らなければならない。対象物の移送速度が遅
い場合、要求されるトラッキング精度が低い場合あるい
は対象物のコンベア幅方向位置や姿勢にバラツキが無い
場合等においては、移送経路に臨んだ適当な基準位置に
配置された簡単なセンサ(機械的な接触によるもの、光
透過あるいは光反射によるもの等)によって対象物の到
来を検知し、該検知時点を起点としてコンベアの移動量
をパルスコーダを用いて計測し、以後の各時点における
対象物位置を算出する方式を採用することが出来る。
By the way, in order to perform tracking, it is necessary to know at which position the object is located at each point of time including the robot operation. If the transfer speed of the object is slow, the required tracking accuracy is low, or the position or orientation of the object in the width direction of the conveyor does not vary, it is easy to place it at the appropriate reference position facing the transfer route. The arrival of the object is detected by various sensors (mechanical contact, light transmission or light reflection, etc.), and the movement amount of the conveyor is measured using a pulse coder from the detection time point as the starting point, and each time point thereafter. The method of calculating the object position in can be adopted.

【0006】しかし、対象物の移送速度が比較的速い場
合、要求されるトラッキング精度が高い場合あるいは対
象物のコンベア幅方向位置や姿勢にバラツキがある場合
等においては、この方式では不十分な為、移送経路に臨
んだ適当な定位置に視覚センサに付属したカメラ手段
(CCDカメラ等)を配置し、前記センサ(機械的な接
触によるもの、光透過あるいは光反射によるもの等)に
よって対象物の到来を検知した後の適当なタイミングで
対象物の撮影を実行し、該撮影時点を起点としてコンベ
アの移動量をパルスコーダを用いて計測し、以後の各時
点における対象物位置を算出する方式が採用されてい
る。
However, when the transfer speed of the object is relatively high, the required tracking accuracy is high, or the position or orientation of the object in the width direction of the conveyor varies, this method is insufficient. The camera means (CCD camera, etc.) attached to the visual sensor is arranged at an appropriate fixed position facing the transfer path, and the sensor (mechanical contact, light transmission or light reflection, etc.) is used to detect the object. A method is adopted in which the object is photographed at an appropriate timing after the arrival is detected, the moving amount of the conveyor is measured using a pulse coder from the photographing time point, and the object position at each time point thereafter is calculated. Has been done.

【0007】[0007]

【発明が解決しようとする課題】ところが、このような
方式を採用しても、対象物の撮影を行なった時間を正確
に特定することは困難である。それは主として次のよう
な理由による。視覚センサに使用されるCCDカメラ等
は通常、電子シャッタ機能を備えているから、撮影に要
する時間自体(CCD素子による光検出時間)は100
0分の1以下に設定することも困難ではないが、その電
子シャッタが開くタイミングには制約(例えば、約1/
60秒毎の周期で撮影可能なタイミングが到来)があ
り、また、電子シャッタが開いたタイミングを正確に特
定する手段が無いのが一般的である。
However, even if such a system is adopted, it is difficult to accurately specify the time when the object was photographed. This is mainly for the following reasons. Since a CCD camera or the like used for a visual sensor usually has an electronic shutter function, the time required for photographing itself (light detection time by the CCD element) is 100.
It is not difficult to set it to 1/0 or less, but there is a restriction on the timing when the electronic shutter opens (for example, about 1 /
In general, there is a timing at which photography can be performed every 60 seconds), and there is generally no means for accurately specifying the timing when the electronic shutter is opened.

【0008】従って、対象物について得られた画像がど
の時点におけるものかについて、視覚センサの制御部か
ら発せられる撮影指令(同期信号)の出力時点から画像
取得時点を特定した場合には、相当の時間幅(例えば、
1/60秒程度)の誤差が出ることが避けられない。例
えば、コンベアスピードを600mm/秒とした場合、
600/60=10mm程度の計測誤差が出る恐れがあ
る。なお、電子シャッタスピードを1/1000秒とす
れば、画像の流れ(インターレース方式では像の乱れと
しても現われる)は、1mm分以下と評価され、通常の
ロボットの位置決め精度とのバランスが良好な範囲とな
る。
Therefore, when the image acquisition time point is specified from the output time point of the photographing command (synchronization signal) issued from the control unit of the visual sensor, the time point at which the image obtained for the object is obtained is considerable. Duration (eg,
It is inevitable that an error of about 1/60 second) will occur. For example, if the conveyor speed is 600 mm / sec,
There is a possibility that a measurement error of 600/60 = 10 mm will occur. If the electronic shutter speed is 1/1000 second, the image flow (which appears as image disturbance in the interlace system) is evaluated to be 1 mm or less, and the range is well balanced with the normal robot positioning accuracy. Becomes

【0009】また、上記要因による誤差の問題とは別
に、視覚センサとこれを利用するロボットとの間で時計
手段が共有されていなければ、対象物の位置を知ること
が出来ないという問題もある。
In addition to the problem of error due to the above factors, there is also a problem that the position of the object cannot be known unless the clock means is shared between the visual sensor and the robot using the visual sensor. .

【0010】そこで、本願発明の目的は、視覚センサに
付属したカメラ手段のシャッタ性能に見合った精度で対
象物の画像取得時点の時間を対象物の位置情報と共にロ
ボットに報知する方法を提供し、また、該時間及び対象
物位置の情報に基づいてロボットのトラッキングを実行
する方法を提供することにある。更に、本願発明は視覚
センサとロボットが時計手段を共有することを必ずしも
要求しない上記方法を提供することをも企図するもので
ある。
Therefore, an object of the present invention is to provide a method for informing a robot of the time at which an image of an object is acquired together with the position information of the object with an accuracy commensurate with the shutter performance of the camera means attached to the visual sensor, Another object of the present invention is to provide a method for performing tracking of a robot based on the information on the time and the object position. Furthermore, the present invention also contemplates providing the above method which does not necessarily require the visual sensor and the robot to share a clock means.

【0011】[0011]

【問題点を解決するための手段】本願発明は上記課題を
解決する為の基本的な構成として、「対象物を移送する
移送手段の近傍に視覚的な時計手段を配置し、前記移送
手段によって移送中の前記対象物と前記視覚的時計手段
の双方を視野に収めることが出来る位置に配置されたカ
メラ手段を有する視覚センサを用いて前記移送手段によ
って移送中の前記対象物と前記視覚的時計手段の双方を
視野に収めた画像を取得し、該画像を解析することによ
って前記対象物の位置を表わす信号と前記画像取得時点
の時間を表わす信号を前記視覚センサ内で生成し、前記
対象物の位置を表わす信号及び前記画像取得時点の時間
を表わす信号を前記視覚センサに連携したロボット制御
手段に伝達することを特徴とするロボットに対象物の位
置と時間を報知する方法」を提案したものである。
The present invention has a basic structure for solving the above-mentioned problems, in which "a visual clock means is arranged in the vicinity of a transfer means for transferring an object and the transfer means is used. The object and the visual clock being transferred by the transfer means by using a visual sensor having a camera means arranged at a position where both the object and the visual clock means being transferred can be included in the visual field. An image in which both means are included in the field of view is acquired, and by analyzing the image, a signal indicating the position of the object and a signal indicating the time when the image is acquired are generated in the visual sensor, and the object is detected. A signal indicating the position of the object and a signal indicating the time at the time of image acquisition to robot control means linked to the visual sensor, and notifying the position and time of the object to the robot. In which proposed a way. "

【0012】また、本願発明は上記方法によって取得さ
れる位置・時間情報を利用したトラッキング方法とし
て、「対象物を移送する移送手段の近傍に視覚的な時計
手段を配置し、前記移送手段によって移送中の前記対象
物と前記視覚的時計手段の双方を視野に収めることが出
来る位置に配置されたカメラ手段を有する視覚センサを
用いて前記移送手段によって移送中の前記対象物と前記
視覚的時計手段の双方を視野に収めた画像を取得し、該
画像を解析することによって前記対象物の位置を表わす
信号と前記画像取得時点の時間を表わす信号を前記視覚
センサ内で生成し、前記各信号を前記視覚センサに連携
したロボット制御装置に伝達し、該伝達された情報を利
用して前記対象物の運動に追随したロボット制御を実行
するトラッキング方法において、前記ロボット制御装置
が、前記画像取得時点より以前において前記時計手段が
基準時間状態にある時点を起点として前記移送手段の移
送距離を求めると共に、該移送距離を表わす信号、前記
伝達された対象物の位置を表わす信号及び前記画像取得
時間を表わす信号に基づいてロボット動作時における前
記対象物の位置を逐次的に求め、該求められた対象物位
置に応じて前記ロボット動作を制御することを特徴とす
る前記トラッキング方法」、を提案したものである。
Further, the present invention provides a tracking method using the position / time information obtained by the above method, "a visual clock means is arranged in the vicinity of a transfer means for transferring an object, and the object is transferred by the transfer means. The object and the visual clock means being transferred by the transfer means using a visual sensor having a camera means arranged at a position where both the object and the visual clock means inside can be included in the visual field. A signal representing the position of the target object and a signal representing the time at which the image is acquired are generated in the visual sensor by acquiring an image in which both the fields of view are captured, and the signals are analyzed. A tracking method for transmitting to a robot control device that cooperates with the visual sensor, and using the transmitted information to execute robot control that follows the movement of the object. In the robot control device, the robot controller obtains a transfer distance of the transfer means starting from a time point when the clock means is in a reference time state before the image acquisition time, and a signal representing the transfer distance, the transmitted object. A position of the object during robot operation is sequentially obtained based on a signal representing the position of the object and a signal representing the image acquisition time, and the robot operation is controlled according to the obtained object position. The above-mentioned tracking method as a feature ”is proposed.

【0013】[0013]

【作用】本願発明では、視覚的な時計手段の画像を対象
物の画像と同時に取り込むことにより、視覚センサ付属
のカメラによる撮影時間の厳密な制御を行なうことな
く、対象物の画像取得時点を正確に特定すること出来
る。撮影タイミングは、対象物がカメラの視野からはず
れない範囲で行なえば良く、視覚センサとこれを利用す
るロボット制御装置が時計を共有する必要も無い。
According to the present invention, by capturing the image of the visual clock means at the same time as the image of the object, the time when the image of the object is acquired can be accurately determined without strictly controlling the photographing time by the camera attached to the visual sensor. Can be specified. The shooting timing may be set within a range in which the object does not deviate from the field of view of the camera, and it is not necessary for the visual sensor and the robot controller using the visual sensor to share the clock.

【0014】即ち、視覚的な時計の始動を含む高精度の
時間管理はロボット制御装置単独で行なわれ、視覚セン
サは厳密な時間管理から開放されて、適宜のタイミング
で撮影を行ない、取り込まれた画像の解析を行なって対
象物の撮影時の位置とその時の視覚時計の表示内容を特
定する役割だけを果たせば十分である。
That is, highly accurate time management including the start of the visual clock is performed by the robot controller alone, and the visual sensor is released from strict time management, captured at an appropriate timing, and taken in. It suffices to perform only the role of analyzing the image and identifying the position of the object at the time of shooting and the display content of the visual clock at that time.

【0015】ロボット制御装置は、撮影実行時点より以
前において視覚時計が基準時間状態にある時点を起点と
して移送手段の移送距離を移送手段の移送速度に基づい
て求めると共に、該移送距離を表わす信号、前記対象物
の位置を表わす信号及び前記画像取得時間を表わす信号
に基づいてロボット動作時における前記対象物の位置を
逐次的に求め、該求められた対象物位置に応じて前記ロ
ボット動作を制御することで、ロボットにトラッキング
軌道をとらせることが出来る。
The robot controller obtains the transfer distance of the transfer means based on the transfer speed of the transfer means starting from the time when the visual timepiece is in the reference time state before the time of executing the photographing, and a signal representing the transfer distance. The position of the object during robot operation is sequentially obtained based on the signal indicating the position of the object and the signal indicating the image acquisition time, and the robot operation is controlled according to the obtained object position. By doing so, the robot can take a tracking trajectory.

【0016】[0016]

【実施例】図1は、本願発明の方法を実施する際の全体
配置の1例を要部ブロック図で示したものである。同図
において、1は直線移送コンベアで、後述するロボット
30の付加軸として制御されるコンベア駆動部2によっ
て駆動されている。コンベア駆動部2に含まれる駆動モ
ータ2の回転量はパルスコーダ3によってパルス列の形
で出力される。符号4は、コンベア4上に載置されて移
送されて来るワークW(以下、対象物をワークWで代表
させる。)を定位置で検出するリミットセンサである。
リミットセンサ4の位置検出精度はそれ程高い必要は無
く、機械式、光学式等適当な型のものを使用することが
出来る。リミットセンサ4が、ワークWの到来(破線位
置)を検知すると直ちにワーク到来検出信号が出力され
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 is a block diagram showing an example of the overall arrangement for carrying out the method of the present invention. In the figure, reference numeral 1 denotes a linear transfer conveyor, which is driven by a conveyor drive unit 2 which is controlled as an additional axis of a robot 30 described later. The rotation amount of the drive motor 2 included in the conveyor drive unit 2 is output by the pulse coder 3 in the form of a pulse train. Reference numeral 4 is a limit sensor for detecting a work W (hereinafter, the object is represented by the work W) placed on the conveyor 4 and transferred at a fixed position.
The position detection accuracy of the limit sensor 4 does not need to be so high, and an appropriate type such as a mechanical type or an optical type can be used. As soon as the limit sensor 4 detects the arrival of the work W (broken line position), a work arrival detection signal is output.

【0017】符号10は、画像処理装置11とCCDカ
メラ等のカメラ12から構成される視覚センサを表わし
ており、符号121はカメラ12の視野を表わしてい
る。また、符号5は視覚センサ10で認識可能な形で時
間表示を行なう機能を有する視覚的時計手段(以下、単
に「視覚時計」と言う。)であり、ロボット制御装置2
0に接続されている。視覚時計5の配置位置についての
重要な要件は、カメラ12でワークW(実線位置)を撮
影する際に、ワークWと視覚時計5の双方が視野121
内に収まるように選択されていることである。視覚時計
5及び画像処理装置11の構成と機能については後述す
る。
Reference numeral 10 represents a visual sensor including an image processing device 11 and a camera 12 such as a CCD camera, and reference numeral 121 represents a field of view of the camera 12. Further, reference numeral 5 is a visual clock means (hereinafter, simply referred to as “visual clock”) having a function of displaying time in a form recognizable by the visual sensor 10, and the robot controller 2
It is connected to 0. An important requirement for the arrangement position of the visual timepiece 5 is that when the work W (solid line position) is photographed by the camera 12, both the work W and the visual timepiece 5 have a visual field 121.
Being selected to fit within. The configurations and functions of the visual timepiece 5 and the image processing device 11 will be described later.

【0018】次に、符号20はロボット30を制御する
ロボット制御装置であり、CPU、プログラムメモリ、
データメモリ、軸制御器、サーボ制御回路等を有する通
常の型のものが使用出来る。ロボット制御装置20は、
汎用信号インターフェイス(図示省略)を介して視覚セ
ンサ10の画像処理装置11に接続されている。
Next, reference numeral 20 is a robot controller for controlling the robot 30, which includes a CPU, a program memory,
An ordinary type having a data memory, an axis controller, a servo control circuit, etc. can be used. The robot controller 20 is
It is connected to the image processing device 11 of the visual sensor 10 via a general-purpose signal interface (not shown).

【0019】また、前記したように、コンベア1の駆動
部はロボット30の付加軸として制御されており、駆動
モータの回転量はパルスコーダ3の出力パルス数として
ロボット制御装置20内のメモリ内に設定されたカウン
タレジスタで計数される。
As described above, the drive unit of the conveyor 1 is controlled as an additional axis of the robot 30, and the rotation amount of the drive motor is set in the memory of the robot controller 20 as the output pulse number of the pulse coder 3. It is counted by the counter register.

【0020】図2は、視覚時計5を例示した図で、同図
に示されているように、所定個数(ここでは10個で例
示。)のLED52と、その点灯/消灯を制御するLE
D駆動回路51から構成されている。LED駆動回路に
はクロックジェネレータ、分周回路及び2進カウンタが
内蔵されており、2進カウンタはロボット制御装置20
からの視覚時計始動信号を受けると、クロックジェネレ
ータからのクロック信号を適当な分周比で分周した既知
周期パルスの計数を開始する。既知周期パルス間隔の大
きさは、カメラ12の電子シャッタの作動時間と同程度
とするのが好ましい。図では、計数値01101000
01の状態が例示されている。2進カウンタがロボット
制御装置20からのリセット信号を受けると、計数値は
0000000000にクリアされ、次に視覚時計始動
信号を受ける迄その0計数状態(基準時間状態)が保持
される。
FIG. 2 is a view exemplifying the visual timepiece 5, and as shown in the figure, a predetermined number (here, 10) of LEDs 52 and LEs for controlling the turning on / off thereof.
It is composed of a D drive circuit 51. The LED drive circuit includes a clock generator, a frequency dividing circuit, and a binary counter, and the binary counter is the robot controller 20.
When the visual clock start signal is received from the clock generator, the clock signal from the clock generator is divided by an appropriate division ratio and counting of known period pulses is started. The size of the known period pulse interval is preferably set to be approximately the same as the operation time of the electronic shutter of the camera 12. In the figure, the count value 01101000
The state of 01 is illustrated. When the binary counter receives the reset signal from the robot controller 20, the count value is cleared to 0000000000, and the 0 count state (reference time state) is held until the next visual clock start signal is received.

【0021】なお、2進カウンタの計数値を10進法計
数値に変換し、例えば3桁×10=30個のLEDの点
灯/消灯で時間表示を行なうようにしても良い。また、
カウンタで計数されるパルス信号をロボット制御装置2
0内のCPUから送り込むことも可能である。
The count value of the binary counter may be converted into a decimal count value, and the time may be displayed by turning on / off three digits × 10 = 30 LEDs, for example. Also,
The robot controller 2 receives the pulse signal counted by the counter.
It is also possible to send from the CPU within 0.

【0022】次に、画像処理装置11の構成と機能につ
いて概略を説明する。図3は、図1に示した画像処理装
置11とこれに接続される要素を要部ブロック図で示し
たものである。画像処理装置11はマイクロプロセッサ
からなるCPU(中央演算処理装置)101を有し、C
PU101にはカメラインターフェイス102、フレー
ムメモリ103、画像処理プロセッサ104、プログラ
ムメモリ105、モニタインターフェイス106、デー
タメモリ107及び汎用信号インターフェイス108が
バス109を介して接続されている。
Next, the configuration and function of the image processing apparatus 11 will be outlined. FIG. 3 is a block diagram showing an essential part of the image processing apparatus 11 shown in FIG. 1 and the elements connected to the image processing apparatus 11. The image processing apparatus 11 has a CPU (central processing unit) 101 composed of a microprocessor, and C
A camera interface 102, a frame memory 103, an image processor 104, a program memory 105, a monitor interface 106, a data memory 107, and a general-purpose signal interface 108 are connected to the PU 101 via a bus 109.

【0023】カメラインターフェイス102にはカメラ
12が接続されており、カメラインターフェイス10を
介して撮影指令(同期信号)が送られると、カメラ12
に設定された電子シャッタ機能(シャッタスピードは、
例えば1000分の1秒)により撮影が実行され、カメ
ラインターフェイス102を介して映像信号がグレイス
ケール信号の形でフレームメモリ103に格納される。
A camera 12 is connected to the camera interface 102, and when a photographing command (synchronization signal) is sent via the camera interface 10, the camera 12 is connected.
Electronic shutter function set to (the shutter speed is
Shooting is performed for one thousandth of a second), and the video signal is stored in the frame memory 103 in the form of a grayscale signal via the camera interface 102.

【0024】フレームメモリ103に格納されたワーク
W及び視覚時計5の映像信号は、プログラムメモリ10
5に格納された解析プログラムに従って画像処理プロセ
ッサ104を利用して解析され、ワークWの位置(例え
ば、単数または複数の特定コーナの位置)と視覚時計に
表示されている時間(視覚時計始動時から測った経過時
間)が求められる。図3に示されたようなLED点灯/
消灯映像から、時間を特定するソフトウェアは、限られ
た定位置における明るさを判断するものであるから、極
めて簡素なものとすることが出来る。
The video signals of the work W and the visual clock 5 stored in the frame memory 103 are stored in the program memory 10
5, the position of the work W (for example, the position of one or more specific corners) analyzed by the image processor 104 according to the analysis program stored in FIG. The measured elapsed time) is required. LED lighting as shown in FIG.
Since the software that identifies the time from the unlit image determines the brightness at a limited fixed position, it can be made extremely simple.

【0025】符号40はモニタインターフェイス106
に接続されたモニタ(CRT等)であり、フレームメモ
リ103に格納された画像信号を呼び出して表示する為
に使用される。また、データメモリ107はシステムに
関連した各種の設定値を格納する領域と、CPU102
が実行する各種処理に必要なデータの一時記憶に利用さ
れる領域を含んでいる。汎用信号インターフェイス10
8はロボット制御装置20及びリミットセンサ4に接続
され、各種指令及びデータの授受が可能となっている。
Reference numeral 40 is a monitor interface 106.
Is a monitor (CRT or the like) connected to, and is used for calling and displaying the image signal stored in the frame memory 103. The data memory 107 has an area for storing various setting values related to the system and the CPU 102.
It includes an area used for temporary storage of data necessary for various processes executed by. General-purpose signal interface 10
The reference numeral 8 is connected to the robot controller 20 and the limit sensor 4 so that various commands and data can be exchanged.

【0026】以下、このようなシステム構成と機能を前
提に、本願発明の方法を実施する処理手順について図4
(1)及び(2)のフローチャートを参照して説明す
る。なお、画像処理装置11のプログラムメモリ10
5、データメモリ107及びロボット制御装置20内の
プログラムメモリ及びデータメモリ(図示省略)には、
予めこれらフローチャート記した処理を実行する為のプ
ログラム及び関連設定データが格納済みであるものとす
る。
The processing procedure for carrying out the method of the present invention will be described below with reference to FIG.
This will be described with reference to the flowcharts (1) and (2). The program memory 10 of the image processing apparatus 11
5, the data memory 107 and the program memory and data memory (not shown) in the robot controller 20
It is assumed that a program for executing the processes described in these flowcharts and related setting data have been stored in advance.

【0027】なお、ここでは、ロボット30の軌道とし
て、ワークWの位置と時間のデータをロボット制御装置
20が受けた後の適当なタイミング(リミットセンサ4
によるワーク到来信号出力時から設定時間後)に待機位
置P0 から適当に設定された定点Qを初期目標位置とす
る移動を開始し、トラッキング動作による位置補正を行
いながらワークWに接近し、ロボット30の待機位置P
0 から比較的近い位置で(移動中の)ワークW上の定点
W0 に到達するものを想定する。
Here, as the trajectory of the robot 30, proper timing (limit sensor 4) after the position and time data of the work W is received by the robot controller 20.
After a set time has elapsed from the output of the work arrival signal by (1), a movement from the standby position P0 to the appropriately set fixed point Q as the initial target position is started, and the work W is approached while performing the position correction by the tracking operation. Standby position P
It is assumed that a fixed point W0 on the work W (moving) is reached at a position relatively close to 0.

【0028】図4(1)、(2)の各フローチャート
は、各々画像処理装置のCPU101及びロボット制御
装置20内のCPU(図示省略)による処理内容を表わ
している。適当な外部信号により両処理が開始される
と、先ず、ロボット制御装置20のCPUから視覚時計
5をリセットする指令が出され、LED52のすべてが
消灯状態とされる(ステップM1)。そしてロボット制
御装置20では、パルスコーダ3のパルス出力頻度から
コンベア1の速度Vを求め(ステップM2)、画像処理
装置へも知らせる(ステップM3)。なお、本実施例で
はコンベア駆動部2のモータがロボット30の付加軸と
して制御されるされているから、速度指令値をもってこ
れに代えることも出来る。
Each of the flowcharts in FIGS. 4A and 4B represents the processing contents by the CPU 101 of the image processing apparatus and the CPU (not shown) in the robot controller 20. When both processes are started by an appropriate external signal, first, the CPU of the robot controller 20 issues a command to reset the visual timepiece 5, and all the LEDs 52 are turned off (step M1). Then, the robot controller 20 obtains the speed V of the conveyor 1 from the pulse output frequency of the pulse coder 3 (step M2), and also informs the image processing device (step M3). In the present embodiment, the motor of the conveyor drive unit 2 is controlled as an additional axis of the robot 30, so a speed command value can be used instead.

【0029】ステップS1でコンベア速度Vのデータを
取得した画像処理装置11は、直ちにリミットセンサ4
からのワークWの到来検出信号を待つ態勢に入る(ステ
ップS2)。ワークWが図1破線位置に来ると、リミッ
トセンサ4がこれを検出し、画像処理装置11にワーク
到来が伝達される。CPU101はこれを直ちにロボッ
ト制御装置20に伝達する(ステップS3)。
The image processing apparatus 11, which has acquired the data of the conveyor speed V in step S1, immediately starts the limit sensor 4
To wait for the arrival detection signal of the work W from (step S2). When the work W arrives at the position indicated by the broken line in FIG. 1, the limit sensor 4 detects this and the arrival of the work is transmitted to the image processing apparatus 11. The CPU 101 immediately transmits this to the robot controller 20 (step S3).

【0030】ワークWがリミットセンサ検出位置から、
カメラ12の視野121内に進入して来るのに必要な時
間をT1 として、画像処理装置11は時間T1 の経過を
待つ態勢に入る(ステップS4)。時間T1 はコンベア
速度Vとリミットセンサ4による検出位置から視野12
1迄の距離L1 (図1参照)から求められるが、厳密な
計算は要しない。
From the limit sensor detection position of the work W,
The time required to enter the visual field 121 of the camera 12 is set to T1, and the image processing apparatus 11 is ready to wait for the time T1 to elapse (step S4). Time T1 is from the position detected by the conveyor speed V and the limit sensor 4 to the visual field 12
It can be obtained from the distance L1 up to 1 (see FIG. 1), but it does not require exact calculation.

【0031】一方、ロボット制御装置20では、ステッ
プM4でワーク到来信号を受けてから時間T1 −ΔT
(ΔTは適宜設定された僅かな時間)の経過後に(ステ
ップM5)、視覚時計5に始動指令を送り、視覚時計5
のLED52の点灯による時間表示を開始させ、また、
同時にパルスコーダ3の計数レジスタの計数値をクリア
する(ステップM6)。この同期は極めて高い時間精度
で行なうことが出来る。
On the other hand, in the robot controller 20, the time T1−ΔT has elapsed since the work arrival signal was received in step M4.
After the lapse of (ΔT is an appropriately set slight time) (step M5), a start command is sent to the visual timepiece 5 and the visual timepiece 5 is started.
Start the time display by turning on the LED 52 of the
At the same time, the count value of the count register of the pulse coder 3 is cleared (step M6). This synchronization can be performed with extremely high time accuracy.

【0032】一方、画像処理装置11側ではこの直後に
(ほぼΔT経過後)に時間T1 が経過するので、カメラ
12に撮影指令を送り、電子シャッタ機能を用いた画像
取得を行なう(ステップS5)。この時点で撮影が行な
われることにより、ワークWと視覚時計5のLED表示
明暗列が画像信号として取り込まれる。CPU101
は、画像処理プロセッサ104を利用してこの画像を解
析し、ワークWの位置とその時(即ち、電子シャッタが
開放された時点)の時間T0 を求め、ロボット制御装置
20に送信する(ステップS6)。視覚センサ10の役
割はこれで終了する。
On the other hand, on the side of the image processing apparatus 11, since the time T1 elapses immediately after this (approximately after ΔT elapses), a photographing command is sent to the camera 12 to acquire an image using the electronic shutter function (step S5). . By photographing at this point, the work W and the LED display light and dark columns of the visual timepiece 5 are captured as image signals. CPU 101
Analyzes the image using the image processor 104 to obtain the position of the work W and the time T0 at that time (that is, when the electronic shutter is opened), and transmits it to the robot controller 20 (step S6). . This completes the role of the visual sensor 10.

【0033】さて、ロボット制御装置20では、視覚時
計5の始動後、直ちに時間T2 待ちの為の時間カウント
を開始する(ステップM7)。この時間T2 は、ワーク
Wがほぼ撮影位置(実線位置)から、ロボット30が移
動を開始するのに好適な位置迄距離L2 (図1中に例
示)だけ移動するに要する時間である。この待ち時間T
2 にも相当の許容幅があるので、特に厳密な計算は不要
である(後述するトラッキング機能で対応出来る)。
Now, in the robot controller 20, immediately after the visual timepiece 5 is started, the time count for waiting the time T2 is started (step M7). This time T2 is a time required for the work W to move from a shooting position (solid line position) to a position suitable for the robot 30 to start moving by a distance L2 (illustrated in FIG. 1). This waiting time T
Since 2 has a considerable tolerance, no strict calculation is required (it can be handled by the tracking function described later).

【0034】ロボット制御装置20は、ステップS6で
求められたワーク位置と時間T0 のデータの送信を待
ち、ワークWが視野121の中で撮影されて間もなく、
これをを受信する(ステップM8)。この時間T0 (視
覚時計5始動時点からの経過時間)の精度は極めて高い
ものであり、電子シャッタの開放時間に匹適する誤差
(例えば、1000分の1秒)で評価出来る。また、ワ
ークWの位置についても、電子シャッタの開放時間にお
ける移動距離程度の精度を期待することが出来る。コン
ベア速度を600mm、電子シャッタの開放時間を10
00分の1秒とすると、0.6mm程度の誤差となり、
ロボットの位置制御精度に十分見合った値となる。
The robot controller 20 waits for transmission of the data of the work position and the time T0 obtained in step S6, and shortly after the work W is photographed in the visual field 121,
This is received (step M8). The precision of this time T0 (the elapsed time from the start of the visual timepiece 5) is extremely high, and it can be evaluated with an error (for example, one thousandth of a second) that is comparable to the opening time of the electronic shutter. Further, also with respect to the position of the work W, it is possible to expect an accuracy of about the moving distance in the opening time of the electronic shutter. Conveyor speed 600mm, electronic shutter open time 10
If it is 1/00 second, the error will be about 0.6 mm,
It is a value that is sufficiently commensurate with the position control accuracy of the robot.

【0035】時間T0 におけるワークWのデータを取得
したロボット制御装置20は、ワークWが、ロボット3
0を始動させてトラッキングを開始するのに好適な位置
にさしかかるのを待ち受ける為に時間T2 の経過を待つ
(ステップM9)。そして、時間T2 が経過したら、補
間位置の計算を開始し(ステップM10)、更にこの補
間位置をステップM8で受信したデータを利用して補正
する。補正内容は次のようになる。
The robot controller 20 which has acquired the data of the work W at the time T0 indicates that the work W is the robot 3
Wait for the elapse of time T2 to wait for a position suitable for starting 0 to start tracking (step M9). Then, when the time T2 has elapsed, the calculation of the interpolation position is started (step M10), and the interpolation position is corrected using the data received in step M8. The correction contents are as follows.

【0036】初期目標位置Qへ向かう軌道から計算され
る補正前のn番目の補間位置を表わす位置ベクトルデー
タを<qn >で表わす。また、ステップM8で得たワー
ク位置の位置ベクトルデータを<X>とする。また、視
覚時計5が始動した時点からn番目の補間位置計算時ま
で経過時間をtn 、その間の移動量(ベクトル量と考え
る;パルスコーダ計数値から計算)を<dn >とする。
Position vector data representing the n-th interpolation position before correction calculated from the trajectory toward the initial target position Q is represented by <qn>. Further, the position vector data of the work position obtained in step M8 is set as <X>. The elapsed time from the start of the visual timepiece 5 to the calculation of the n-th interpolation position is tn, and the movement amount (think of it as a vector amount; calculated from the pulse coder count value) during that period is <dn>.

【0037】すると、撮影時点から測ったn番目の補間
位置計算時までの経過時間はtn −T0 となる。従っ
て、撮影時点から測ったn番目の補間位置計算時までの
コンベア移動量は、<dn >/(tn −T0 )となる。
よって、n番目の補間位置計算時におけるワークWの位
置を<Xn >とすれば、<Xn >=<X>+<dn >/
(tn −T0 )となる。この値と<qn >の偏差<Xn
>−<qn >が、トラッキングの為に必要な補正量とな
る。
Then, the elapsed time from the shooting time to the calculation of the n-th interpolation position measured is tn-T0. Therefore, the conveyor movement amount from the time of photographing to the time of calculating the n-th interpolation position is <dn> / (tn-T0).
Therefore, if the position of the work W during the n-th interpolation position calculation is <Xn>, then <Xn> = <X> + <dn> /
(Tn-T0). Deviation <Xn between this value and <qn>
>-<Qn> is the correction amount required for tracking.

【0038】このような補正計算は逐次的に行なわれ、
補正された補間位置を目標位置とするロボット移動が、
ロボット30がワークW上の定点W0 に到達する迄繰り
返して行なわれる(ステップM10〜ステップM1
3)。ロボット30がワークW上の定点W0 に到達した
後には、必要な動作(ワークWの把持等;記載省略)を
行なって処理を終了する。なお、図1中に斜線を施して
表示したワークWは、ロボット30の定点W0 到達時の
位置を例示したものであり、また、軌道R1 は教示軌
道、R2 はトラッキング軌道を例示的に描いたものであ
る。
Such correction calculation is performed sequentially,
Robot movement with the corrected interpolation position as the target position
The process is repeated until the robot 30 reaches the fixed point W0 on the work W (steps M10 to M1).
3). After the robot 30 reaches the fixed point W0 on the work W, a necessary operation (grasping of the work W or the like; not shown) is performed and the process is ended. The work W shown by hatching in FIG. 1 is an example of the position of the robot 30 when it reaches the fixed point W0, and the trajectory R1 is a teaching trajectory and R2 is a tracking trajectory. It is a thing.

【0039】以上、コンベア1を直線移送形のものとし
て説明を行なったが、円弧移送コンベアの場合にも、ト
ラッキング補正計算に若干の修正を加えることにより、
円弧トラッキングに本願発明の方法を適用し得ること
も、これまでの説明から明らかであろう。
In the above description, the conveyor 1 is described as a linear transfer type. However, even in the case of an arc transfer conveyor, a slight correction is added to the tracking correction calculation.
It will also be apparent from the above description that the method of the present invention can be applied to arc tracking.

【0040】[0040]

【発明の効果】本願発明によれば、視覚センサに付属し
たカメラ手段のシャッタ性能に見合った精度で対象物の
画像取得時点の時間を対象物の位置情報と共にロボット
に報知する方法が提供される。また、視覚センサとこれ
を利用するロボットとの間で時計手段が共有されていな
くとも、対象物の位置を知ることが出来る。
According to the present invention, there is provided a method of notifying the robot of the time when an image of an object is acquired together with the position information of the object with an accuracy commensurate with the shutter performance of the camera means attached to the visual sensor. . Further, the position of the object can be known even if the clock means is not shared between the visual sensor and the robot using the visual sensor.

【0041】そして、この報知方法によってもたらされ
た情報を利用すれば、コンベア上を移送されるワーク等
に対するロボット作業について、正確なトラッキングを
実行することが出来る。
By using the information provided by this notification method, it is possible to perform accurate tracking of the robot work on the work or the like transferred on the conveyor.

【図面の簡単な説明】[Brief description of drawings]

【図1】本願発明の方法を実施する際の全体配置の1例
を要部ブロック図で示したものである。
FIG. 1 is a block diagram of an essential part showing an example of the overall arrangement when carrying out the method of the present invention.

【図2】本願発明に使用される視覚時計の表示形態を例
示した図である。
FIG. 2 is a diagram exemplifying a display form of a visual timepiece used in the present invention.

【図3】図1に示した画像処理装置とこれに接続される
要素を要部ブロック図で示したものである。
FIG. 3 is a block diagram showing a main part of the image processing apparatus shown in FIG. 1 and elements connected to the image processing apparatus.

【図4】(1)、(2)の各フローチャートは、実施例
について、各々画像処理装置のCPU及びロボット制御
装置内のCPUによる処理内容の概略を表わしたもので
ある。
4A and 4B are schematic diagrams of processing contents by a CPU of an image processing apparatus and a CPU in a robot control apparatus, respectively, for an embodiment.

【符号の説明】[Explanation of symbols]

1 コンベア 2 コンベア駆動部 3 パルスコーダ 4 リミットセンサ 5 視覚時計 10 視覚センサ 11 画像処理装置 12 カメラ 20 ロボット制御装置 30 ロボット W ワーク W0 ワーク上の定点 1 Conveyor 2 Conveyor drive unit 3 Pulse coder 4 Limit sensor 5 Visual clock 10 Visual sensor 11 Image processing device 12 Camera 20 Robot controller 30 Robot W work W0 Fixed point on work

フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G05D 3/12 L 7609−3H 305 S 7609−3H G06T 1/00 Continuation of front page (51) Int.Cl. 6 Identification number Office reference number FI technical display location G05D 3/12 L 7609-3H 305 S 7609-3H G06T 1/00

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 対象物を移送する移送手段の近傍に視覚
的な時計手段を配置し、前記移送手段によって移送中の
前記対象物と前記視覚的時計手段の双方を視野に収める
ことが出来る位置に配置されたカメラ手段を有する視覚
センサを用いて前記移送手段によって移送中の前記対象
物と前記視覚的時計手段の双方を視野に収めた画像を取
得し、該画像を解析することによって前記対象物の位置
を表わす信号と前記画像取得時点の時間を表わす信号を
前記視覚センサ内で生成し、前記対象物の位置を表わす
信号及び前記画像取得時点の時間を表わす信号を前記視
覚センサに連携したロボット制御手段に伝達することを
特徴とするロボットに対象物の位置と時間を報知する方
法。
1. A position where visual clock means is arranged in the vicinity of a transfer means for transferring an object, and both the object and the visual clock means being transferred by the transfer means can be included in the visual field. An image in which both the object being transferred by the transfer means and the visual clock means are in the field of view is obtained by using a visual sensor having a camera means arranged in the field, and the object is analyzed by analyzing the image. A signal representing the position of an object and a signal representing the time of the image acquisition time are generated in the visual sensor, and the signal representing the position of the object and the signal representing the time of the image acquisition time are linked to the visual sensor. A method for informing a robot of the position and time of an object, characterized by transmitting the information to a robot control means.
【請求項2】 対象物を移送する移送手段の近傍に視覚
的な時計手段を配置し、前記移送手段によって移送中の
前記対象物と前記視覚的時計手段の双方を視野に収める
ことが出来る位置に配置されたカメラ手段を有する視覚
センサを用いて前記移送手段によって移送中の前記対象
物と前記視覚的時計手段の双方を視野に収めた画像を取
得し、該画像を解析することによって前記対象物の位置
を表わす信号と前記画像取得時点の時間を表わす信号を
前記視覚センサ内で生成し、前記各信号を前記視覚セン
サに連携したロボット制御装置に伝達し、該伝達された
情報を利用して前記対象物の運動に追随したロボット制
御を実行するトラッキング方法において、 前記ロボット制御装置が、前記画像取得時点より以前に
おいて前記時計手段が基準時間状態にある時点を起点と
して前記移送手段の移送距離を求めると共に、該移送距
離を表わす信号、前記伝達された対象物の位置を表わす
信号及び前記画像取得時間を表わす信号に基づいてロボ
ット動作時における前記対象物の位置を逐次的に求め、
該求められた対象物位置に応じて前記ロボット動作を制
御することを特徴とする前記トラッキング方法。
2. A position where visual clock means is arranged in the vicinity of a transfer means for transferring an object, and both the object and the visual clock means being transferred by the transfer means can be included in the visual field. An image in which both the object being transferred by the transfer means and the visual clock means are in the field of view is obtained by using a visual sensor having a camera means arranged in the field, and the object is analyzed by analyzing the image. A signal representing the position of an object and a signal representing the time at the time of image acquisition are generated in the visual sensor, the signals are transmitted to a robot controller linked to the visual sensor, and the transmitted information is used. In the tracking method for executing the robot control following the movement of the object, the robot control device uses the clock means as a reference time before the image acquisition time. The transfer distance of the transfer means is obtained starting from a time point in a state, and at the time of the robot operation based on the signal representing the transfer distance, the signal representing the position of the transmitted object and the signal representing the image acquisition time. The position of the object is sequentially obtained,
The tracking method, wherein the robot operation is controlled according to the obtained object position.
JP6056813A 1994-03-03 1994-03-03 Method for informing position and time of target to robot and tracking method Withdrawn JPH07244512A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6056813A JPH07244512A (en) 1994-03-03 1994-03-03 Method for informing position and time of target to robot and tracking method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6056813A JPH07244512A (en) 1994-03-03 1994-03-03 Method for informing position and time of target to robot and tracking method

Publications (1)

Publication Number Publication Date
JPH07244512A true JPH07244512A (en) 1995-09-19

Family

ID=13037824

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6056813A Withdrawn JPH07244512A (en) 1994-03-03 1994-03-03 Method for informing position and time of target to robot and tracking method

Country Status (1)

Country Link
JP (1) JPH07244512A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012137961A (en) * 2010-12-27 2012-07-19 Mitsubishi Electric Corp Positioning control device and positioning device equipped with the same
US20180043527A1 (en) * 2016-08-15 2018-02-15 Fanuc Corporation Robot system
CN109746911A (en) * 2017-11-01 2019-05-14 发那科株式会社 System of processing
CN112762763A (en) * 2020-12-28 2021-05-07 深圳共分享网络科技有限公司 Visual perception system

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012137961A (en) * 2010-12-27 2012-07-19 Mitsubishi Electric Corp Positioning control device and positioning device equipped with the same
US20180043527A1 (en) * 2016-08-15 2018-02-15 Fanuc Corporation Robot system
JP2018027575A (en) * 2016-08-15 2018-02-22 ファナック株式会社 Robot system
CN107756396A (en) * 2016-08-15 2018-03-06 发那科株式会社 Robot system
US10357876B2 (en) 2016-08-15 2019-07-23 Fanuc Corporation Robot system
CN107756396B (en) * 2016-08-15 2020-07-10 发那科株式会社 Robot system
CN109746911A (en) * 2017-11-01 2019-05-14 发那科株式会社 System of processing
JP2019086823A (en) * 2017-11-01 2019-06-06 ファナック株式会社 Machining system
US10625420B2 (en) 2017-11-01 2020-04-21 Fanuc Corporation Machining system
CN109746911B (en) * 2017-11-01 2020-06-26 发那科株式会社 Machining system
CN112762763A (en) * 2020-12-28 2021-05-07 深圳共分享网络科技有限公司 Visual perception system
CN112762763B (en) * 2020-12-28 2022-08-05 深圳共分享网络科技有限公司 Visual perception system

Similar Documents

Publication Publication Date Title
JP3002097B2 (en) Visual tracking method
US8174580B2 (en) Automatic-tracking camera apparatus
US4468695A (en) Robot
JP3834088B2 (en) A vision sensor robot system for tracking multiple robots
CN107705282B (en) Information processing system, information processing apparatus, position specifying method, and recording medium
US9091904B2 (en) Camera device with rotary base
CN104113685A (en) Digital Photographing Apparatus And Method Of Controlling The Same
JPH10105217A (en) Tracking controlling method of robot and robot control system
JP2019119027A (en) Method of controlling robot system, and robot system
JPH0972717A (en) Acquiring and processing method for image
JPH07244512A (en) Method for informing position and time of target to robot and tracking method
WO1998054673A1 (en) Image acquisition device
CN116519597B (en) Multi-axis system detection method, device, upper computer, medium and system
CN110596115B (en) Image inspection system and control method thereof
US6345152B1 (en) Camera with blur reducing function
CN112907513B (en) Image position stamping system in industrial vision detection and generation method thereof
JP5206212B2 (en) Position control device
EP0999700A1 (en) Imaging apparatus having rotary table
JP3339213B2 (en) Electronic component mounting equipment
JPH06138529A (en) Camera movement correcting device
JP2988676B2 (en) Imaging device
JP2522668B2 (en) Camera zoom position detection device
JPS61260991A (en) Robot starting indication method
JP3187999B2 (en) Industrial robot
WO2022239123A1 (en) Production line monitoring device, production line monitoring system, and production line monitoring method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20010508