JP2002113679A - Tracking method, system, and device - Google Patents

Tracking method, system, and device

Info

Publication number
JP2002113679A
JP2002113679A JP2000307584A JP2000307584A JP2002113679A JP 2002113679 A JP2002113679 A JP 2002113679A JP 2000307584 A JP2000307584 A JP 2000307584A JP 2000307584 A JP2000307584 A JP 2000307584A JP 2002113679 A JP2002113679 A JP 2002113679A
Authority
JP
Japan
Prior art keywords
imaging
work
tracking
position coordinates
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000307584A
Other languages
Japanese (ja)
Other versions
JP4809524B2 (en
Inventor
Shinichiro Ikezawa
信一郎 池沢
Masayuki Okuyama
正幸 奥山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Seiko Instruments Inc
Original Assignee
Seiko Epson Corp
Seiko Instruments Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp, Seiko Instruments Inc filed Critical Seiko Epson Corp
Priority to JP2000307584A priority Critical patent/JP4809524B2/en
Publication of JP2002113679A publication Critical patent/JP2002113679A/en
Application granted granted Critical
Publication of JP4809524B2 publication Critical patent/JP4809524B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a tracking method, tracking system, and tracking device capable of supplying works quickly and certainly better than in a conventional arrangement. SOLUTION: An output means of this tracking device emits photographing signals continuously so that the photographing region by a photographing means and the photographing region directly following it overlap in the advancing direction with a certain width in which the whole figure of a work processed can be accommodated, and a visually acknowledging means of an image processing device photographs the specified photographing region on the basis of the photographing signal emitted from the output means, and acknowledgement is made for the position coordinates of only the work whose whole figure is accommodated within the applicable photographing region.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、搬送体によって搬
送される複数のワークを撮像し、当該撮像結果から認識
された各ワークの位置座標に基づいて前記複数のワーク
のハンドリングを制御するトラッキング方法、トラッキ
ングシステム、及びトラッキング装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a tracking method for imaging a plurality of works conveyed by a carrier and controlling the handling of the plurality of works based on the position coordinates of each work recognized from the imaging result. , A tracking system, and a tracking device.

【0002】[0002]

【従来の技術】以下、従来のトラッキングシステム10
0について図1を参照して説明する。図1(a)は、ト
ラッキングシステム100の全体構成を示す平面図、図
1(b)は、同システムの正面図である。図1に示すよ
うに、トラッキングシステム100は、不規則に載置さ
れたワークを搬送するコンベア25と、コンベア25に
よって搬送される複数のワークを所定の撮像領域内で上
方から撮影するCCDカメラ11と、撮像情報からワー
クの位置、形状等を認識する視覚認識部112(図示
略)と、第1コンベア25aの下流側に配置され、視覚
認識部112によって認識されたワークの位置や形状に
基づいてワークを所定の把持領域内で把持し、パレット
Pに移載、整列させるロボット制御装置20等から構成
されている。
2. Description of the Related Art A conventional tracking system 10 will be described below.
0 will be described with reference to FIG. FIG. 1A is a plan view showing the entire configuration of the tracking system 100, and FIG. 1B is a front view of the same system. As shown in FIG. 1, a tracking system 100 includes a conveyor 25 for transporting a work placed irregularly, and a CCD camera 11 for photographing a plurality of workpieces carried by the conveyor 25 from above in a predetermined imaging area. A visual recognition unit 112 (not shown) for recognizing the position, shape, and the like of the work from the imaging information; and a visual recognition unit 112 arranged downstream of the first conveyor 25a, based on the position and shape of the work recognized by the visual recognition unit 112. The robot controller 20 and the like hold the work in a predetermined holding area, and transfer and align the work on the pallet P.

【0003】このような従来のトラッキングシステムと
しては、例えば、特開平8−323669号公報に開示
されているように、撮像領域の下流側の境界線上に位置
するワークが次回の撮像領域に含まれるように各撮像領
域を決定することにより、コンベア上の全てのワークに
対して、連続的にその位置、姿勢等の認識を行う部品供
給方法およびその装置が知られている。
[0003] As such a conventional tracking system, for example, as disclosed in Japanese Patent Application Laid-Open No. 8-323669, a work located on a boundary line on the downstream side of the imaging region is included in the next imaging region. A component supply method and an apparatus for continuously recognizing the position, posture, and the like of all the works on a conveyor by determining each imaging region as described above are known.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、視覚認
識部112は、CCDカメラ11がワークを撮影する度
に、境界線上のワークを含む撮像領域内の全てのワーク
の画像情報から各ワークの位置座標や形状等を認識し、
当該認識結果に基づいてワークが上記境界線上に位置す
るか否かを判別していた。また、境界線上にワークが存
在する場合には、当該ワークの全形が後続の撮像領域に
含まれるような位置に撮像領域を所定の距離移動させて
いた。
However, every time the CCD camera 11 captures an image of a workpiece, the visual recognition unit 112 obtains the position coordinates of each workpiece from the image information of all the workpieces in the imaging area including the workpiece on the boundary line. And shape, etc.
It has been determined whether or not the work is located on the boundary line based on the recognition result. Further, when a work exists on the boundary line, the imaging area is moved by a predetermined distance to a position where the entire shape of the work is included in the subsequent imaging area.

【0005】このため、特に境界線上に多数のワークが
存在する場合には、境界線上に位置するワークの有無の
判別時間や前後の撮像領域の距離間隔(以下、「撮像ピ
ッチ」と称する)の算出時間等の画像取得に要する時間
が増加するだけでなく、ワークの認識漏れが発生するこ
ともあった。
[0005] For this reason, especially when a large number of works exist on the boundary line, the time for determining the presence or absence of the work located on the boundary line and the distance between the preceding and succeeding imaging regions (hereinafter, referred to as “imaging pitch”). Not only does the time required for image acquisition, such as the calculation time, increase, but work recognition omission sometimes occurs.

【0006】本発明の目的は、上記問題点を解決して、
従来より高速且つ確実にワークを供給するトラッキング
方法、トラッキングシステム、及びトラッキング装置を
提供することである。
An object of the present invention is to solve the above problems,
An object of the present invention is to provide a tracking method, a tracking system, and a tracking device for supplying a work at a higher speed and more reliably than before.

【0007】[0007]

【課題を解決するための手段】上記課題を解決するた
め、請求項1記載の発明は、搬送体によって搬送される
複数のワークを所定の撮像領域で撮像する撮像工程(例
えば、ステップS3及びS8)と、当該撮像結果から各
ワークの位置座標を取得する座標取得工程と、前記位置
座標に基づいて前記複数のワークのハンドリングを制御
するトラッキング工程(例えば、ステップS10〜S1
1)と、を実行するトラッキング方法において、前記撮
像工程(例えば、ステップS3及びS8)における撮像
領域とその直後の撮像領域とが前記ワークの全形が収ま
る一定の幅で進行方向に重なるように連続的に撮像信号
を出力する出力工程(例えば、ステップS6)と、前記
撮像領域内に全形を含むワークのみ位置座標を認識する
視覚認識工程(例えば、ステップS4及びS9)と、を
含むことを特徴としている。
In order to solve the above-mentioned problems, the invention according to claim 1 is directed to an imaging step (for example, steps S3 and S8) for imaging a plurality of works carried by a carrier in a predetermined imaging area. ), A coordinate acquisition step of acquiring position coordinates of each work from the imaging result, and a tracking step of controlling handling of the plurality of works based on the position coordinates (for example, steps S10 to S1).
1) in the tracking method, wherein the imaging area in the imaging step (for example, steps S3 and S8) and the imaging area immediately following the imaging area overlap in the traveling direction with a constant width that accommodates the entire shape of the work. An output step of continuously outputting an image signal (for example, step S6), and a visual recognition step of recognizing only the position coordinates of the work including the entire shape in the image area (for example, steps S4 and S9). It is characterized by.

【0008】ここで、例えば視覚認識工程でワークの形
状を自動認識して長径を算出する工程を付加した構成と
してもよい。また、単位時間に搬送体を搬送するワーク
の個数に応じて搬送速度を可変する構成としてもよい。
Here, for example, a configuration may be added in which a process of automatically recognizing the shape of the work in the visual recognition process and calculating the major axis is added. Further, the transport speed may be varied according to the number of workpieces transporting the transport body per unit time.

【0009】この請求項1記載の発明によれば、前後の
撮像領域が前記ワークの全形が収まる幅で重なるため、
ワークの認識に取りこぼしが無くなり、撮像時に撮像領
域の境界線上のワークを認識する必要はない。また、前
後の撮像ピッチは常時一定に保たれるため、撮像時に撮
像ピッチの算出、及び撮像領域の可変制御を行う必要は
ない。したがって、画像処理時間を短縮できるとともに
ワークの認識漏れを減らすことができる。また、搬送体
の搬送速度を上げることが可能となり、トラッキング処
理能力を向上させることができる。
According to the first aspect of the present invention, since the front and rear imaging regions overlap with a width that can accommodate the entire shape of the work,
There is no missing work recognition, and there is no need to recognize the work on the boundary of the imaging area at the time of imaging. In addition, since the imaging pitch before and after is always kept constant, it is not necessary to calculate the imaging pitch and perform variable control of the imaging area at the time of imaging. Therefore, the image processing time can be reduced, and the omission of recognition of the work can be reduced. Further, it is possible to increase the transport speed of the transport body, and it is possible to improve the tracking processing ability.

【0010】また、請求項2記載の発明は、搬送体(例
えば、コンベア25)によって搬送される複数のワーク
(例えば、ワーク3)を撮像手段(例えば、CCDカメ
ラ11)により撮像し、当該撮像結果から各ワークの位
置座標を取得する画像処理装置と、前記位置座標に基づ
いて前記複数のワークのハンドリングを制御するトラッ
キング装置と、から構成されるトラッキングシステム
(例えば、トラッキングシステム1)において、前記ト
ラッキング装置(例えば、トラッキング装置20)は、
前記撮像手段による撮像領域とその直後の撮像領域とが
前記ワークの全形が収まる一定の幅で進行方向に重なる
ように連続的に撮像信号を出力する出力手段(例えば、
CPU21)と、を備え、前記画像処理装置(例えば、
画像処理装置10)は、前記出力手段から出力される撮
像信号に基づいて所定の撮像領域を撮像し、当該撮像領
域内に全形を含むワークのみ位置座標を認識する視覚認
識手段(例えば、視覚認識部12)、を備えたことを特
徴としている。
According to a second aspect of the present invention, a plurality of works (for example, works 3) conveyed by a carrier (for example, a conveyor 25) are imaged by an imaging means (for example, a CCD camera 11), and the imaging is performed. In a tracking system (for example, the tracking system 1) including: an image processing device that acquires position coordinates of each work from a result; and a tracking device that controls handling of the plurality of works based on the position coordinates. The tracking device (for example, the tracking device 20)
An output unit (for example, an output unit that continuously outputs an imaging signal such that an imaging region of the imaging unit and an imaging region immediately after the imaging unit overlap in a traveling direction with a constant width that accommodates the entire shape of the work (for example,
A CPU 21), and the image processing apparatus (for example,
The image processing apparatus 10) captures an image of a predetermined imaging region based on the imaging signal output from the output unit, and recognizes only the work including the entire shape in the imaging region. Recognition unit 12).

【0011】したがって、請求項1記載の発明をトラッ
キングシステムとして実現することが可能となる。
Therefore, the invention described in claim 1 can be realized as a tracking system.

【0012】さらに、請求項3記載の発明は、画像処理
装置(例えば、画像処理装置10)の撮像手段(例え
ば、CCDカメラ11)によって取得される複数のワー
ク(例えば、ワーク3)の画像情報から認識される各ワ
ークの位置座標に基づいて前記複数のワークのハンドリ
ングを制御するトラッキング装置(例えば、トラッキン
グ装置20)において、前記撮像手段による撮像領域と
その直後の撮像領域とが前記ワークの全形が収まる一定
の幅で進行方向に重なるように連続的に撮像信号を出力
する出力手段(例えば、CPU21)、を備えたことを
特徴としている。
Further, according to a third aspect of the present invention, there is provided image information of a plurality of works (for example, works 3) acquired by an image pickup means (for example, CCD camera 11) of an image processing apparatus (for example, image processing apparatus 10). In the tracking device (for example, the tracking device 20) that controls the handling of the plurality of works based on the position coordinates of each work recognized from the camera, the imaging region of the imaging unit and the imaging region immediately after the imaging device are the entire region of the work. An output means (for example, CPU 21) for continuously outputting an image signal so as to overlap in the traveling direction with a constant width in which the shape can be accommodated is provided.

【0013】したがって、請求項1記載の発明をトラッ
キング装置として実現することが可能となる。
Therefore, the invention described in claim 1 can be realized as a tracking device.

【0014】[0014]

【発明の実施の形態】以下、図を参照して、本発明を適
用した好適な一実施の形態におけるトラッキングシステ
ム1について説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A tracking system 1 according to a preferred embodiment of the present invention will be described below with reference to the drawings.

【0015】まず、図1〜図2を参照して構成について
説明する。図1は、本実施の形態におけるトラッキング
システム1の概観図であり、(a)は平面図、(b)は
正面図である。本実施の形態におけるトラッキングシス
テム1の全体構造は、上記従来の技術において図1に示
したトラッキングシステム1と同一であるため、従来技
術からの改良点を除き同一の符合を付し、その概略構成
の図示及び説明は省略する。
First, the configuration will be described with reference to FIGS. FIG. 1 is a schematic view of a tracking system 1 according to the present embodiment, in which (a) is a plan view and (b) is a front view. The overall structure of the tracking system 1 according to the present embodiment is the same as that of the tracking system 1 shown in FIG. 1 in the above-described conventional technology. And illustration thereof will be omitted.

【0016】次に、図2は本実施の形態におけるトラッ
キングシステム1の要部構成を示すブロック図である。
図2に示すように、画像処理装置10は、CCDカメラ
11、視覚認識部12、画像取得制御部13、ワーク到
着検知センサ14から構成されている。
FIG. 2 is a block diagram showing a main configuration of the tracking system 1 according to the present embodiment.
As shown in FIG. 2, the image processing apparatus 10 includes a CCD camera 11, a visual recognition unit 12, an image acquisition control unit 13, and a work arrival detection sensor 14.

【0017】CCD(Charge Coupled Device)カメラ
11は、例えば工業用テレビカメラ(ITV)であり、
図4に示すコンベア25上の可視領域を撮像領域として
画像情報を取得する。図4において、「L」は可視領域
のx軸方向の幅、「a」は各撮像領域の重なり部分のx
軸方向の幅を表す定数値である。
The CCD (Charge Coupled Device) camera 11 is, for example, an industrial television camera (ITV).
Image information is acquired using the visible region on the conveyor 25 shown in FIG. 4 as an imaging region. In FIG. 4, “L” is the width of the visible region in the x-axis direction, and “a” is the x of the overlapping portion of each imaging region.
It is a constant value representing the width in the axial direction.

【0018】視覚認識部12は、上記撮像領域内のワー
ク3の中から予め記憶装置23に記憶されているワーク
データ23aに誤差を含ませた値と一致するワークの陰
影のみをワーク3の画像情報として抽出し、撮像領域の
境界線上に位置するワーク(すなわち、撮像領域内に全
形を含まないワーク)の画像情報は取得しない。また、
視覚認識部12は、取得された画像情報に基づいて、例
えばパターンマッチング等の処理を行い、各ワークの重
心位置座標(x,y)を算出し、当該算出結果を位置座
標データとして画像取得制御部13へ出力する。
The visual recognition unit 12 determines only the shadow of the work 3 that matches the value obtained by including an error in the work data 23a stored in the storage device 23 in advance from the work 3 in the imaging area. It is extracted as information, and image information of a work located on the boundary of the imaging region (that is, a work that does not include the entire shape in the imaging region) is not acquired. Also,
The visual recognition unit 12 performs, for example, a process such as pattern matching based on the acquired image information, calculates the barycentric position coordinates (x, y) of each work, and uses the calculation result as position coordinate data to perform image acquisition control. Output to the unit 13.

【0019】画像取得制御部13は、コンベア25の搬
送距離に応じてCPU21から送信される入力信号に従
って、視覚認識部12へ画像情報を取り込むタイミング
を決定する。ワーク到着検知センサ14は、コンベア2
5によって搬送されるワーク3の一端が撮像領域の境界
線に到達した際に、画像取得制御部13に対して到達信
号を出力する。表示部15(図示略)は、例えばLCD
(Liquid Crystal Display)であり、画像取得制御部1
3の指示に従って、CCDカメラ11から取得された画
像情報を表示させる。
The image acquisition control unit 13 determines the timing of taking image information into the visual recognition unit 12 according to the input signal transmitted from the CPU 21 according to the transport distance of the conveyor 25. The workpiece arrival detection sensor 14 is a conveyor 2
When one end of the work 3 conveyed by 5 reaches the boundary line of the imaging region, it outputs a reaching signal to the image acquisition control unit 13. The display unit 15 (not shown) is, for example, an LCD.
(Liquid Crystal Display) and the image acquisition control unit 1
According to the instruction of 3, the image information obtained from the CCD camera 11 is displayed.

【0020】また、ロボット制御装置20は、以下の機
能を有するCPU21、SRAM22、記憶装置23、
コンベア制御部24、コンベア25、ロボット制御部2
6、バス27により構成されている。CPU21は、記
憶装置23から所定のプログラムを読み出してSRAM
22内のワークエリア22a(図示略)に展開し、展開
されたプログラムやワーク3の位置座標データ等の処理
結果を一時的に格納し、当該プログラムに基づく各種処
理を実行し、画像処理装置10、ロボット制御装置20
の各部を集中制御する。
The robot controller 20 has a CPU 21, an SRAM 22, a storage device 23,
Conveyor control unit 24, conveyor 25, robot control unit 2
6, a bus 27. The CPU 21 reads a predetermined program from the storage device 23 and
The image processing apparatus 10 is developed in a work area 22a (not shown) in the storage 22, temporarily stores the developed program and processing results such as position coordinate data of the work 3, and executes various processes based on the program. , Robot control device 20
Centralized control of each part.

【0021】CPU(Central Processing Unit)21
は、画像取得制御部13から入力されるワーク3の位置
座標データからワーク3のハンドリング順序を指示する
ハンドリング順序データを作成し、当該ハンドリング順
序データをワーク3の位置座標データと共にハンドリン
グデータとしてロボット制御部25へ送信すると同時に
SRAM22に一時的に格納し、視覚認識部12の画像
取得の都度リアルタイムに更新する。また、画像取得制
御部13とロボット制御装置20の各部とは、バス2
7,28を介して相互に各種信号の送受信を行う。
CPU (Central Processing Unit) 21
Creates the handling order data instructing the handling order of the work 3 from the position coordinate data of the work 3 input from the image acquisition control unit 13, and uses the handling order data as the handling data together with the position coordinate data of the work 3 to control the robot. At the same time as transmitting to the unit 25, the image data is temporarily stored in the SRAM 22, and is updated in real time each time an image is acquired by the visual recognition unit 12. The image acquisition control unit 13 and each unit of the robot control device 20 are connected to the bus 2
Various signals are transmitted / received to each other via 7, 28.

【0022】SRAM(Static Random Access Memor
y)22は、CPU21が各種制御プログラムを実行す
る際に各種プログラムコードを展開するプログラムコー
ド格納領域を形成するとともに、CPU21が各種処理
を実行する際に処理されるワーク3のハンドリングデー
タ及び処理結果等を格納するワークエリア22aを有す
る。記憶装置23には、上記プログラムやプログラムを
実行する際に必要なワーク3の長径、形状等のワークデ
ータ23aが予め記憶されている。
SRAM (Static Random Access Memor)
y) 22 forms a program code storage area for expanding various program codes when the CPU 21 executes various control programs, and also handles data of the work 3 and a processing result which are processed when the CPU 21 executes various processes. Etc. are stored in the work area 22a. The storage device 23 stores in advance the program and work data 23a such as the major axis and shape of the work 3 necessary for executing the program.

【0023】コンベア制御部24は、CPU21から入
力されるワーク3の位置座標データに基づいて、ロボッ
ト26aがロスタイム無くワーク3を取り出せる最適な
搬送速度を設定、維持するように、コンベアモータ24
bの駆動を制御する。また、コンベア25は、互いに搬
送方向の異なる第1コンベア25a、第2コンベア25
c、及び反転機構25bを有し、ワーク3はループ状に
形成されたコンベア25上を等速で循環する。エンコー
ダ24aは、コンベア25に取り付けられ、コンベアモ
ータ24bの回転量から第1コンベア25aのx方向へ
の移動距離を測定し、測定結果をコンベア制御部24へ
出力する。
The conveyor controller 24 controls the conveyor motor 24 based on the position coordinate data of the work 3 input from the CPU 21 so as to set and maintain an optimum transfer speed at which the robot 26a can take out the work 3 without any loss time.
b is controlled. In addition, the conveyor 25 includes a first conveyor 25a and a second conveyor 25 that are different from each other in the transport direction.
c, and the reversing mechanism 25b, and the work 3 circulates at a constant speed on the conveyor 25 formed in a loop shape. The encoder 24a is attached to the conveyor 25, measures the moving distance of the first conveyor 25a in the x direction from the rotation amount of the conveyor motor 24b, and outputs the measurement result to the conveyor control unit 24.

【0024】ロボット制御部26は、SRAM22に格
納されるワーク3のハンドリングデータに基づいて、ロ
ボット26aの駆動を制御する。ハンド26bは、当該
駆動制御に従って実際にワーク3を把持し、パレットP
へ移載する。この時、ハンド26bは、把持センサーに
よりハンドリングが確実に行われているか否かを判断
し、CPU21はワーク3の移載終了と同時に対応する
ハンドリングデータをワークエリア22aから削除す
る。
The robot controller 26 controls the driving of the robot 26a based on the handling data of the work 3 stored in the SRAM 22. The hand 26b actually grips the work 3 in accordance with the drive control, and
Transfer to. At this time, the hand 26b determines whether or not the handling is performed reliably by the grip sensor, and the CPU 21 deletes the corresponding handling data from the work area 22a at the same time when the transfer of the work 3 is completed.

【0025】次に、上記構成を有するトラッキングシス
テム1の動作について説明する。まず、CPU21によ
って実行される位置座標検出処理について図4を参照し
ながら、図3に示すフローチャートに基づいて説明す
る。
Next, the operation of the tracking system 1 having the above configuration will be described. First, the position coordinate detection process executed by the CPU 21 will be described with reference to FIG. 4 and based on the flowchart shown in FIG.

【0026】図3に示すように、コンベア制御部24
は、コンベアモータ24bを駆動させ、複数のワーク3
が不規則に載置されたコンベア25をx軸方向に搬送さ
せる(ステップS1)。次に、CPU21は、ワークエ
リア22aにカウンタ「n」の初期値として“n=1”
を設定する(ステップS2)。次に、CCDカメラ11
は、1回目の画像情報として撮像領域1(図4参照)の
画像情報を取得する(ステップS3)。
As shown in FIG. 3, the conveyor control unit 24
Drives the conveyor motor 24b to move the plurality of workpieces 3
Is transported in the x-axis direction on the conveyor 25 placed irregularly (step S1). Next, the CPU 21 sets “n = 1” in the work area 22a as the initial value of the counter “n”.
Is set (step S2). Next, the CCD camera 11
Acquires the image information of the imaging region 1 (see FIG. 4) as the first image information (step S3).

【0027】視覚認識部12は、取得された画像情報を
解析し、撮像領域1内のワーク3の位置座標データをC
PU21へ出力し、SRAM22に一時的に格納する
(ステップS4)。なお、この時撮像領域1の境界線上
に位置するワーク(例えばワーク3a)の位置座標デー
タは検出しない。
The visual recognition unit 12 analyzes the acquired image information and converts the position coordinate data of the work 3 in the image pickup area 1 into C.
The data is output to the PU 21 and temporarily stored in the SRAM 22 (step S4). At this time, the position coordinate data of the work (for example, the work 3a) located on the boundary of the imaging region 1 is not detected.

【0028】次に、CPU21は、エンコーダ24aに
よって算出されたコンベア25の移動距離に基づいて、
所定の撮像ピッチを「p」としてコンベア25が“p=
L−a”移動したか否かを判定し(ステップS5)、信
号入力の待機状態に入る。ここで、図4に示すように
「L」は可視領域のx軸方向の幅を表し、「a」は各撮
像領域の重なり部分のx軸方向の幅を表す。なお、
「a」はワーク3の長径を「l」として、“l≦a<L
/2”を満たす定数である。
Next, based on the moving distance of the conveyor 25 calculated by the encoder 24a, the CPU 21
Assuming that the predetermined imaging pitch is “p”, the conveyor 25 sets “p =
It is determined whether or not “La” has been moved (step S5), and a standby state for signal input is entered. Here, “L” represents the width of the visible region in the x-axis direction as shown in FIG. “a” represents the width in the x-axis direction of the overlapping portion of each imaging region. In addition,
“A” is defined as “l ≦ a <L, where the major axis of the work 3 is“ l ”.
/ 2 ".

【0029】ステップS5において、コンベア25が
「p」移動した時点(ステップS5;Yes)で、CP
U21は画像取得制御部13に対して撮像タイミング信
号を出力する(ステップS6)。この時、画像取得制御
部13は、当該信号の受信待機状態に入っており、撮像
タイミング信号の受信の有無を判定する(ステップS
7)。
In step S5, when the conveyor 25 moves "p" (step S5; Yes), the CP
U21 outputs an imaging timing signal to the image acquisition control unit 13 (Step S6). At this time, the image acquisition control unit 13 is in a reception standby state for the signal, and determines whether or not the imaging timing signal has been received (step S
7).

【0030】画像取得制御部13が撮像タイミング信号
を受信すると(ステップS7;Yes)、CCDカメラ
11は、2回目の画像情報として撮像領域2の画像情報
を取得する(ステップS8)。視覚認識部12は、取得
された画像情報を解析し、撮像領域2内のワーク3の位
置座標データをCPU21へ出力し、SRAM22に一
時的に格納する(ステップS9)。
When the image acquisition controller 13 receives the imaging timing signal (step S7; Yes), the CCD camera 11 acquires the image information of the imaging area 2 as the second image information (step S8). The visual recognition unit 12 analyzes the acquired image information, outputs the position coordinate data of the work 3 in the imaging area 2 to the CPU 21 and temporarily stores the data in the SRAM 22 (Step S9).

【0031】次に、CPU21は、SRAM22のワー
クエリア22aのカウンタ「n」に「1」を追加し、
“n=n+1”とする(ステップS10)。そして、再
度ステップS5に戻り、撮像領域n+1と撮像領域n+
2に対してステップS5〜ステップS9の処理を繰り返
し実行する。そして、コンベア25上の全てのワーク3
の座標変換が終了した時点で上述した位置座標検出処理
を終了する。
Next, the CPU 21 adds "1" to the counter "n" of the work area 22a of the SRAM 22,
“N = n + 1” is set (step S10). Then, the process returns to step S5 again, and the imaging region n + 1 and the imaging region n +
The processing of steps S5 to S9 is repeatedly performed on No. 2. And all the works 3 on the conveyor 25
When the coordinate conversion is completed, the above-described position coordinate detection processing ends.

【0032】次に、上記処理に基づく具体的処理例とし
て、図4を参照して本実施の形態における位置座標検出
方法について説明する。図4は、本発明を適用した一実
施の形態における位置座標検出工程の一例を示す図であ
る。
Next, as a specific processing example based on the above processing, a position coordinate detecting method according to the present embodiment will be described with reference to FIG. FIG. 4 is a diagram showing an example of a position coordinate detecting step in one embodiment to which the present invention is applied.

【0033】図4において、撮像領域1と撮像領域2の
重なり部分の幅aをワーク3の長径「l」以上に設定す
ることにより、撮像領域1の境界線上に位置するワーク
3aは撮像領域2に全形を含む。このため、ワーク3a
は撮像領域1内のワークとしては認識されないが、撮像
領域2内のワークとして認識される。
In FIG. 4, by setting the width a of the overlapping portion between the imaging region 1 and the imaging region 2 to be equal to or longer than the major axis “l” of the work 3, the work 3 a positioned on the boundary line of the imaging region 1 becomes the imaging region 2. Includes the whole form. Therefore, the work 3a
Is not recognized as a work in the imaging region 1, but is recognized as a work in the imaging region 2.

【0034】また、上述の動作を撮像領域nと撮像領域
n+1に対して実行することにより、撮像ピッチpは常
時一定に保たれるため、撮像時に境界線上のワークの認
識、撮像ピッチの算出、撮像領域の可変制御を行う必要
はない。このため、画像処理時間を短縮できるとともに
ワークの認識漏れを防ぐことができる。これに伴って、
コンベア25の搬送速度を上げることが可能となり、ト
ラッキングシステム1全体の処理能力を向上させること
ができる。
By performing the above-described operations on the imaging region n and the imaging region n + 1, the imaging pitch p is always kept constant. There is no need to perform variable control of the imaging area. For this reason, the image processing time can be reduced, and the recognition omission of the work can be prevented. Along with this,
The transport speed of the conveyor 25 can be increased, and the processing capability of the entire tracking system 1 can be improved.

【0035】なお、本発明は、上記実施の形態における
記述内容に限定されるものではなく、本発明の趣旨を逸
脱しない範囲で適宜変更可能である。例えば、本実施の
形態においては、ワーク3の長径を予めオペレータが設
定し、設定情報を記憶装置23にワークデータ23aと
して記憶させる構成としたが、例えば、視覚認識部12
がワーク3の形状を自動認識して長径を算出する機能を
有する構成としてもよい。
It should be noted that the present invention is not limited to the description in the above embodiment, and can be appropriately changed without departing from the spirit of the present invention. For example, in the present embodiment, the operator sets the major axis of the work 3 in advance and stores the setting information in the storage device 23 as the work data 23a.
May have a function of automatically recognizing the shape of the work 3 and calculating the major axis.

【0036】また、コンベア25の搬送速度は等速とし
たが、ワーク到着検知センサ14によって検知され、単
位時間に搬送されるワーク3の個数に応じて、変化また
は停止させる機能を有する構成としてもよい。さらに、
本実施の形態においては、画像処理装置10は、ワーク
3の画像情報を2次元で認識する構成としたが、画像処
理の短縮時間を撮像時間に充てることにより、ワーク3
の画像情報を3次元認識する構成としてもよい。また、
ワーク3の形状は同一でなくてもよい。
Although the conveyor 25 is transported at a constant speed, the conveyor 25 may be configured to have a function of changing or stopping according to the number of the workpieces 3 detected by the workpiece arrival detection sensor 14 and transported in a unit time. Good. further,
In the present embodiment, the image processing apparatus 10 is configured to recognize the image information of the work 3 two-dimensionally.
May be configured to three-dimensionally recognize the image information. Also,
The shape of the work 3 may not be the same.

【0037】[0037]

【発明の効果】以上より、本発明によれば、前後の撮像
領域が前記ワークの全形が収まる幅で重なるため、ワー
クの認識に取りこぼしが無くなり、撮像時に撮像領域の
境界線上のワークを認識する必要はない。また、前後の
撮像ピッチは常時一定に保たれるため、撮像時に撮像ピ
ッチの算出、及び撮像領域の可変制御を行う必要はな
い。したがって、画像処理時間を短縮できるとともにワ
ークの認識漏れを減らすことができる。また、搬送体の
搬送速度を上げることが可能となり、トラッキング処理
能力を向上させることができる。
As described above, according to the present invention, since the front and rear imaging areas overlap each other with a width that can accommodate the entire shape of the work, the work is not missed, and the work on the boundary of the imaging area is recognized at the time of imaging. do not have to. In addition, since the imaging pitch before and after is always kept constant, it is not necessary to calculate the imaging pitch and perform variable control of the imaging area at the time of imaging. Therefore, the image processing time can be reduced, and the omission of recognition of the work can be reduced. Further, it is possible to increase the transport speed of the transport body, and it is possible to improve the tracking processing ability.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施の形態におけるトラッキングシステムの
概観図であり、(a)は平面図であり、(b)は正面図
である。
FIG. 1 is a schematic view of a tracking system according to the present embodiment, in which (a) is a plan view and (b) is a front view.

【図2】トラッキングシステムの要部構成、及び接続構
成を示すブロック図である。
FIG. 2 is a block diagram illustrating a main configuration and a connection configuration of the tracking system.

【図3】図2のCPUによって実行される位置座標検出
処理を示すフローチャ−トである。
FIG. 3 is a flowchart showing a position coordinate detection process executed by the CPU of FIG. 2;

【図4】本実施の形態における位置座標検出工程の一例
を示す図である。
FIG. 4 is a diagram illustrating an example of a position coordinate detecting step according to the present embodiment.

【符号の説明】[Explanation of symbols]

1 トラッキングシステム 10 画像処理装置 11 CCDカメラ 12 視覚認識部 13 画像取得制御部 14 部品到着検知センサ 15 表示部 20 ロボット制御装置 21 CPU 22 SRAM 23 記憶装置 24 コンベア制御部 25 コンベア 26 ロボット制御部 3 ワーク Reference Signs List 1 tracking system 10 image processing device 11 CCD camera 12 visual recognition unit 13 image acquisition control unit 14 component arrival detection sensor 15 display unit 20 robot control device 21 CPU 22 SRAM 23 storage device 24 conveyor control unit 25 conveyor 26 robot control unit 3 work

───────────────────────────────────────────────────── フロントページの続き (72)発明者 奥山 正幸 長野県諏訪市大和3丁目3番5号 セイコ ーエプソン株式会社内 Fターム(参考) 3F059 AA01 BB02 DB06 DB09 FB12 5B057 AA02 BA02 BA19 CE09 CH18 DA08 DA11 DC06 DC33  ────────────────────────────────────────────────── ─── Continuation of front page (72) Inventor Masayuki Okuyama 3-3-5 Yamato, Suwa-shi, Nagano F-term in Seiko Epson Corporation (reference) 3F059 AA01 BB02 DB06 DB09 FB12 5B057 AA02 BA02 BA19 CE09 CH18 DA08 DA11 DC06 DC33

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 搬送体によって搬送される複数のワーク
を所定の撮像領域で撮像する撮像工程と、当該撮像結果
から各ワークの位置座標を取得する座標取得工程と、前
記位置座標に基づいて前記複数のワークのハンドリング
を制御するトラッキング工程と、を実行するトラッキン
グ方法において、 前記撮像工程における撮像領域とその直後の撮像領域と
が前記ワークの全形が収まる一定の幅で進行方向に重な
るように連続的に撮像信号を出力する出力工程と、 前記撮像領域内に全形を含むワークのみ位置座標を認識
する視覚認識工程と、 を含むことを特徴とするトラッキング方法。
An imaging step of imaging a plurality of workpieces conveyed by a carrier in a predetermined imaging area; a coordinate acquisition step of acquiring position coordinates of each work from the imaging result; A tracking step of controlling the handling of a plurality of workpieces; and a tracking method of executing the tracking step, wherein the imaging area in the imaging step and the imaging area immediately after the imaging area overlap in the traveling direction with a constant width that accommodates the entire shape of the work. A tracking method, comprising: an output step of continuously outputting an imaging signal; and a visual recognition step of recognizing position coordinates of only a work including an entire shape in the imaging area.
【請求項2】 搬送体によって搬送される複数のワーク
を撮像手段により撮像し、当該撮像結果から各ワークの
位置座標を取得する画像処理装置と、前記位置座標に基
づいて前記複数のワークのハンドリングを制御するトラ
ッキング装置と、から構成されるトラッキングシステム
において、 前記トラッキング装置は、 前記撮像手段による撮像領域とその直後の撮像領域とが
前記ワークの全形が収まる一定の幅で進行方向に重なる
ように連続的に撮像信号を出力する出力手段と、 を備え、 前記画像処理装置は、 前記出力手段から出力される撮像信号に基づいて所定の
撮像領域を撮像し、当該撮像領域内に全形を含むワーク
のみ位置座標を認識する視覚認識手段、 を備えたことを特徴とするトラッキングシステム。
2. An image processing apparatus which images a plurality of works conveyed by a conveyance body by an imaging unit and acquires position coordinates of each work from the imaging result, and handles the plurality of works based on the position coordinates. A tracking device comprising: a tracking device configured to control the imaging device, wherein the tracking device is configured such that an imaging region of the imaging unit and an imaging region immediately after the imaging device overlap in a traveling direction with a constant width that accommodates the entire shape of the work. Output means for continuously outputting an imaging signal to the image processing apparatus, wherein the image processing apparatus captures an image of a predetermined imaging area based on the imaging signal output from the output means, and forms an entire image in the imaging area. A visual recognition means for recognizing the position coordinates of only the work including the tracking system.
【請求項3】 画像処理装置の撮像手段によって取得さ
れる複数のワークの画像情報から認識される各ワークの
位置座標に基づいて前記複数のワークのハンドリングを
制御するトラッキング装置において、 前記撮像手段による撮像領域とその直後の撮像領域とが
前記ワークの全形が収まる一定の幅で進行方向に重なる
ように連続的に撮像信号を出力する出力手段、 を備えたことを特徴とするトラッキング装置。
3. A tracking device for controlling handling of a plurality of works based on position coordinates of each work recognized from image information of the plurality of works obtained by an imaging means of an image processing device, wherein Output means for continuously outputting an imaging signal so that the imaging region and the imaging region immediately after the imaging region overlap in the traveling direction with a constant width in which the entire shape of the work is accommodated.
JP2000307584A 2000-10-06 2000-10-06 Tracking method, tracking system, and tracking device Expired - Fee Related JP4809524B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000307584A JP4809524B2 (en) 2000-10-06 2000-10-06 Tracking method, tracking system, and tracking device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000307584A JP4809524B2 (en) 2000-10-06 2000-10-06 Tracking method, tracking system, and tracking device

Publications (2)

Publication Number Publication Date
JP2002113679A true JP2002113679A (en) 2002-04-16
JP4809524B2 JP4809524B2 (en) 2011-11-09

Family

ID=18788072

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000307584A Expired - Fee Related JP4809524B2 (en) 2000-10-06 2000-10-06 Tracking method, tracking system, and tracking device

Country Status (1)

Country Link
JP (1) JP4809524B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010034044A2 (en) * 2008-09-26 2010-04-01 Stiwa Holding Gmbh Method and system for receiving and/or processing objects
JP2012013580A (en) * 2010-07-01 2012-01-19 Central Res Inst Of Electric Power Ind System and program for simultaneously measuring shape, diameter and temperature of particle and droplet
EP2497611A2 (en) 2011-03-09 2012-09-12 Omron Corporation Image processing apparatus and image processing system, and conveyor apparatus therefor
EP2500147A2 (en) 2011-03-15 2012-09-19 Omron Corporation User support apparatus for an image processing system and image processing system
WO2012124139A1 (en) 2011-03-15 2012-09-20 オムロン株式会社 Image processing device, and image processing program
WO2013065332A1 (en) 2011-10-31 2013-05-10 オムロン株式会社 Image processing device and recording medium for image processing program
CN106971276A (en) * 2017-04-13 2017-07-21 中冶华天工程技术有限公司 Bar line-rolling materiel tracking system and method
JP2020032520A (en) * 2018-08-31 2020-03-05 ファナック株式会社 Detection system
JP2020179966A (en) * 2019-04-25 2020-11-05 三菱重工機械システム株式会社 Conveyance device and conveyance method
US11046530B2 (en) 2017-12-26 2021-06-29 Fanuc Corporation Article transfer apparatus, robot system, and article transfer method
US11679944B2 (en) 2018-08-31 2023-06-20 Fanuc Corporation Article picking system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0748018A (en) * 1993-08-03 1995-02-21 Omori Mach Co Ltd Article detector for article transfer device
JPH08323669A (en) * 1995-03-28 1996-12-10 Matsushita Electric Works Ltd Part supply method and device therefor
JPH0972717A (en) * 1995-09-04 1997-03-18 Fanuc Ltd Acquiring and processing method for image

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0748018A (en) * 1993-08-03 1995-02-21 Omori Mach Co Ltd Article detector for article transfer device
JPH08323669A (en) * 1995-03-28 1996-12-10 Matsushita Electric Works Ltd Part supply method and device therefor
JPH0972717A (en) * 1995-09-04 1997-03-18 Fanuc Ltd Acquiring and processing method for image

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010034044A3 (en) * 2008-09-26 2010-05-27 Stiwa Holding Gmbh Method and system for receiving and/or processing objects
WO2010034044A2 (en) * 2008-09-26 2010-04-01 Stiwa Holding Gmbh Method and system for receiving and/or processing objects
JP2012013580A (en) * 2010-07-01 2012-01-19 Central Res Inst Of Electric Power Ind System and program for simultaneously measuring shape, diameter and temperature of particle and droplet
EP2497611A3 (en) * 2011-03-09 2014-03-19 Omron Corporation Image processing apparatus and image processing system, and conveyor apparatus therefor
EP2497611A2 (en) 2011-03-09 2012-09-12 Omron Corporation Image processing apparatus and image processing system, and conveyor apparatus therefor
EP3020517A2 (en) 2011-03-09 2016-05-18 Omron Corporation Method for calibration of a conveyor tracking system, and guidance apparatus
WO2012124139A1 (en) 2011-03-15 2012-09-20 オムロン株式会社 Image processing device, and image processing program
JP2012192466A (en) * 2011-03-15 2012-10-11 Omron Corp User support apparatus for image processing system, program thereof and image processing apparatus
JP2012194641A (en) * 2011-03-15 2012-10-11 Omron Corp Image processing device and image processing program
EP2500147A2 (en) 2011-03-15 2012-09-19 Omron Corporation User support apparatus for an image processing system and image processing system
US9998683B2 (en) 2011-03-15 2018-06-12 Omron Corporation Image processing device and image processing program
WO2013065332A1 (en) 2011-10-31 2013-05-10 オムロン株式会社 Image processing device and recording medium for image processing program
CN106971276A (en) * 2017-04-13 2017-07-21 中冶华天工程技术有限公司 Bar line-rolling materiel tracking system and method
CN106971276B (en) * 2017-04-13 2023-10-27 中冶华天工程技术有限公司 Rod rolling line material tracking system and method
US11046530B2 (en) 2017-12-26 2021-06-29 Fanuc Corporation Article transfer apparatus, robot system, and article transfer method
CN110871442A (en) * 2018-08-31 2020-03-10 发那科株式会社 Detection system
US11141864B2 (en) 2018-08-31 2021-10-12 Fanuc Corporation Detection system
US11679944B2 (en) 2018-08-31 2023-06-20 Fanuc Corporation Article picking system
JP2020032520A (en) * 2018-08-31 2020-03-05 ファナック株式会社 Detection system
JP2020179966A (en) * 2019-04-25 2020-11-05 三菱重工機械システム株式会社 Conveyance device and conveyance method
JP7213745B2 (en) 2019-04-25 2023-01-27 三菱重工機械システム株式会社 Conveying device and method

Also Published As

Publication number Publication date
JP4809524B2 (en) 2011-11-09

Similar Documents

Publication Publication Date Title
JP3002097B2 (en) Visual tracking method
US20070179671A1 (en) Tracking and handling device
US9604365B2 (en) Device and method of transferring articles by using robot
JP4174342B2 (en) Work transfer device
KR100522653B1 (en) Device for Handling a Robot
WO2009148089A1 (en) Handling apparatus, control device, control method, and program
JP2002113679A (en) Tracking method, system, and device
JP4303411B2 (en) Tracking method and tracking system
JP2012166314A (en) Position detection device for robot, robotic system, and position detection method for robot
JP5198155B2 (en) HANDLING DEVICE, WORK HANDLING METHOD, AND SIGNAL PROCESSING DEVICE
JP2004001122A (en) Picking device
JP2005262369A (en) Robot system
EP4032663A1 (en) Work robot and work system
JP3412465B2 (en) Mobile robot device
JP5198161B2 (en) Handling apparatus and work handling method
JP2001300875A (en) Robot system
JP2011140084A (en) Controller, robot, robot system, and following method of robot
JP3605124B2 (en) Recognition device for the position and shape of the object to be transported
JPH1190871A (en) Synchronous control method for robot and conveyer
JPH1119891A (en) Handling method for moving object and calibration method in handling device for moving object
JPS62226308A (en) Control system for robot having visual sensor
JP2001088073A (en) Appearance inspection device
JP2001179664A (en) Tracking method, tracking system and tracking device
JPS60175112A (en) Working method on conveyer by industrial robot
JPH08285526A (en) Image recognition system

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20040422

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071002

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090414

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091222

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20100118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20100118

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100820

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20100901

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20101001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110721

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110819

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140826

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4809524

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees