JP5198161B2 - Handling apparatus and work handling method - Google Patents

Handling apparatus and work handling method Download PDF

Info

Publication number
JP5198161B2
JP5198161B2 JP2008158038A JP2008158038A JP5198161B2 JP 5198161 B2 JP5198161 B2 JP 5198161B2 JP 2008158038 A JP2008158038 A JP 2008158038A JP 2008158038 A JP2008158038 A JP 2008158038A JP 5198161 B2 JP5198161 B2 JP 5198161B2
Authority
JP
Japan
Prior art keywords
work
workpiece
data
holding
order
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008158038A
Other languages
Japanese (ja)
Other versions
JP2009297881A (en
Inventor
泰宣 西原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shibaura Machine Co Ltd
Original Assignee
Toshiba Machine Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Machine Co Ltd filed Critical Toshiba Machine Co Ltd
Priority to JP2008158038A priority Critical patent/JP5198161B2/en
Priority to US12/995,960 priority patent/US8805585B2/en
Priority to GB1019223.5A priority patent/GB2471819B/en
Priority to GB1213595.0A priority patent/GB2492257B/en
Priority to DE112009001414T priority patent/DE112009001414T5/en
Priority to PCT/JP2009/060172 priority patent/WO2009148089A1/en
Publication of JP2009297881A publication Critical patent/JP2009297881A/en
Application granted granted Critical
Publication of JP5198161B2 publication Critical patent/JP5198161B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Specific Conveyance Elements (AREA)

Description

ベルトコンベアにより搬送される物品を効率よく処理するハンドリング装置、制御装置及び制御方法に関する。   The present invention relates to a handling device, a control device, and a control method for efficiently processing articles conveyed by a belt conveyor.

視覚センサをベルトコンベアの上流に配置して、当該ベルトコンベアによって搬送されている物品(以下、ワークと記載する)を検出し、当該視覚センサの出力データを用いて、ロボットがワークに行う動作を制御するハンドリング装置が知られている。例えば、特許文献1に示されたハンドリング装置は、視覚センサがベルトコンベアによって搬送されている各ワークを撮像し、各々のワークに対応させたデータを作成してロボットコントローラへ送信する。ロボットコントローラは、受信データのデータベースを作成し、ベルトコンベアの搬送によってロボットの作業位置へ到達したワークに対し、前述のデータベースから読み出したデータに基づく処理を行っている。   A visual sensor is arranged upstream of the belt conveyor, an article (hereinafter referred to as a workpiece) conveyed by the belt conveyor is detected, and the robot performs an operation on the workpiece using the output data of the visual sensor. Controlling handling devices are known. For example, in the handling apparatus shown in Patent Document 1, the visual sensor images each work being conveyed by the belt conveyor, creates data corresponding to each work, and transmits the data to the robot controller. The robot controller creates a database of received data, and performs a process based on the data read from the above-described database for a work that has reached the work position of the robot by transporting the belt conveyor.

特開2007−15055号公報JP 2007-15055 A

特許文献1に記載された装置は、視覚センサから送信されたデータを順次記憶してデータベースを構築し、データベースに格納されている内容に順応してロボットの動作制御を行っている。そのため、ベルトコンベアによって搬送されている複数のワークを搬送下流側から順に処理するとは限られず、ロボットの動作が煩雑になって搬送下流に載置されているワークを処理することができなくなる場合が生じる可能性がある。   The apparatus described in Patent Literature 1 stores data transmitted from a visual sensor in sequence to construct a database, and controls the operation of the robot in accordance with the contents stored in the database. Therefore, it is not always possible to process a plurality of workpieces conveyed by the belt conveyor in order from the conveyance downstream side, and the operation of the robot becomes complicated, and it may become impossible to process the workpieces placed on the conveyance downstream. It can happen.

本発明の目的は、ベルトコンベアによって搬送されている各ワークを効率のよい順番で処理することができるハンドリング装置、制御装置及び制御方法を得ることにある。   An object of the present invention is to obtain a handling device, a control device, and a control method capable of processing the workpieces conveyed by the belt conveyor in an efficient order.

本発明によれば、ワークを搬送する搬送手段と、前記搬送されるワークの移動量を検出するエンコーダと、前記搬送手段によって搬送されているトラッキング範囲内のワークを撮像する、視覚センサと、前記撮像データからトラッキング範囲内のワークを抽出し、当該抽出したワークの位置、および、前記エンタコーダが検出したワークの移動量を含むワークデータを生成し、ワークを抽出した順にワークデータ順番を付し、トラッキング範囲内の前記抽出したワークの個数、ワークの移動量、および、前記ワークデータを含むトラッキングデータを生成する、画像処理部と、前記視覚センサの搬送方向の前方に配置され、固定部と、ワークを保持する保持部と、前記固定部に装着され前記保持部を移動させるアーム部を有する、単一のロボットと、制御手段と、を有し、
前記制御手段は、前記トラッキングデータに含まれるワークがワーク検出領域に位置する場合においてワークの保持が漏れなくなるように、または、前記ロボットの保持部の移動距離が短くなるように、前記トラッキングデータに含まれる前記トラッキング範囲内のワークの搬送位置および前記ロボットの保持部の位置に応じて、前記ワークデータの順番を前記ロボットの保持部で保持するワークの保持順番を並べ替えて、ワークの保持作業順番を決定し、前記決定したワークの保持作業順番に応じて前記ロボットの作業を制御する、
ハンドリング装置が提供される。
According to the present invention, imaging and conveying means for conveying the workpiece, an encoder for detecting the amount of movement of the workpiece to be the conveying, workpieces within the tracking range being conveyed by pre-Symbol conveying means, and visual sensor, A work within the tracking range is extracted from the imaging data, work data including the position of the extracted work and the movement amount of the work detected by the encoder is generated, and the work data order is assigned in the order in which the work is extracted. An image processing unit that generates tracking data including the number of the extracted workpieces within the tracking range, the movement amount of the workpieces, and the workpiece data; and a fixed unit that is disposed in front of the conveyance direction of the visual sensor. A single robot having a holding part for holding the workpiece and an arm part mounted on the fixed part and moving the holding part Has a door, and control means, the,
The control means adds the tracking data to the tracking data so that the holding of the workpiece does not leak when the workpiece included in the tracking data is located in the workpiece detection area, or the moving distance of the holding unit of the robot is shortened. The work holding operation is performed by rearranging the work holding order of the work data held by the robot holding part according to the workpiece transfer position and the robot holding part position within the tracking range included. Determining the order and controlling the robot work according to the determined work holding work order;
A handling device is provided.

好ましくは、前記制御手段は、前記ワークの保持作業順番の決定として、搬送最下流側のワーク、そのワークから最も近い距離のワーク、さらにそのワークから最も近い距離のワークと順番として、前記ワークの保持作業順番を決定する。Preferably, the control means determines the work holding order of the work as the work on the most downstream side of the transport, the work closest to the work, and the work closest to the work in order. Determine the holding work order.

また好ましくは、前記制御手段は、前記ワークの保持作業順番の決定として、前記抽出したワークについて、その位置について基準点からの前記トラッキングデータに含まれている各ワークデータの写像ベクトルのスカラー量を演算し、そのスカラ量に応じて前記ワークの保持作業順番を決定する。Preferably, the control means determines a scalar quantity of a mapping vector of each work data included in the tracking data from a reference point with respect to the position of the extracted work as the determination of the work holding work order. Calculation is performed, and the holding work order of the workpiece is determined according to the amount of the scalar.

また本発明によれば、ワークを搬送する搬送手段と、前記搬送されるワークの移動量を検出するエンコーダと、前記搬送手段によって搬送されているトラッキング範囲内のワークを撮像する、視覚センサと、前記視覚センサの搬送方向の前方に配置され、固定部と、ワークを保持する保持部と、前記固定部に装着され前記保持部を移動させるアーム部を有する、単一のロボットとを有するハンドリング装置のワークハンドリング方法であって、 前記撮像データからトラッキング範囲内のワークを抽出し、
当該抽出したワークの位置、および、前記エンタコーダが検出したワークの移動量を含むワークデータを生成し、
ワークを抽出した順にワークデータ順番を付し
トラッキング範囲内の前記抽出したワークの個数、ワークの移動量、および、前記ワークデータを含むトラッキングデータを生成し、
前記トラッキングデータに含まれるワークがワーク検出領域に位置する場合においてワークの保持が漏れなくなるように、または、前記ロボットの保持部の移動距離が短くなるように、前記トラッキングデータに含まれる前記トラッキング範囲内のワークの搬送位置および前記ロボットの保持部の位置に応じて、前記ワークデータの順番を前記ロボットの保持部で保持するワークの保持順番を並べ替えて、ワークの保持作業順番を決定し、
前記決定したワークの保持作業順番に応じて前記ロボットの作業を制御する、
ワークハンドリング方法が提供される。
Further, according to the present invention, a conveying unit that conveys a workpiece, an encoder that detects a movement amount of the conveyed workpiece, a visual sensor that images a workpiece within a tracking range being conveyed by the conveying unit, A handling device having a fixed portion, a holding portion that holds a workpiece, and a single robot that has an arm portion that is attached to the fixing portion and moves the holding portion, is arranged in front of the conveyance direction of the visual sensor. A workpiece handling method of extracting a workpiece within a tracking range from the imaging data,
Generating workpiece data including the position of the extracted workpiece and the amount of movement of the workpiece detected by the encoder;
The work data order is assigned in the order in which the work is extracted ,
Generating tracking data including the number of the extracted workpieces within the tracking range, the amount of movement of the workpiece, and the workpiece data;
The tracking range included in the tracking data so that the holding of the workpiece does not leak when the workpiece included in the tracking data is located in the workpiece detection area, or the movement distance of the holding unit of the robot is shortened. In accordance with the workpiece transfer position and the position of the holding unit of the robot, the order of the workpiece data is rearranged in the holding order of the workpiece held by the holding unit of the robot, and the workpiece holding work order is determined.
Controlling the robot work according to the determined work holding work order;
A workpiece handling method is provided.

好ましくは、前記ワークの保持作業順番の決定は、前記抽出したワークについて、その位置について基準点からの前記トラッキングデータに含まれている各ワークデータの写像ベクトルのスカラー量を演算し、そのスカラ量に応じて前記ワークの保持作業順番を決定する。Preferably, the work holding work order is determined by calculating a scalar quantity of a mapping vector of each work data included in the tracking data from a reference point for the position of the extracted work, and the scalar quantity. The work holding work order is determined according to the above.

本発明によれば、搬送されるワークに効率よく作業を行うことができる。   According to the present invention, work can be efficiently performed on a workpiece to be conveyed.

以下、この発明の実施の一形態を説明する。
第1の実施形態
図1は、本発明の第1の実施形態によるハンドリング装置の概略構成を示す説明図である。図示したハンドリング装置1は、ベルトコンベア2、視覚センサ3、ロボット4、ロボットコントローラ5、および、コンベアエンコーダ6によって構成されている。
An embodiment of the present invention will be described below.
First Embodiment FIG. 1 is an explanatory diagram showing a schematic configuration of a handling device according to a first embodiment of the present invention. The illustrated handling apparatus 1 includes a belt conveyor 2, a visual sensor 3, a robot 4, a robot controller 5, and a conveyor encoder 6.

ベルトコンベア2は、例えば仕掛り物品などのワーク10を図中矢印で示したコンベアベクトルAの方向に搬送する搬送手段である。
視覚センサ3は、ベルトコンベア2の搬送上流側の位置において、当該ベルトコンベア2のベルト搬送面2aに搭載された複数のワーク10を撮像するように配設されている。また、視覚センサ3は、出力データであるワークデータ、および、撮像タイミングを示すトリガ信号を、後述するロボットコントローラ5へ出力するように、例えばイーサネット(登録商標)などのLANを介して接続されている。
The belt conveyor 2 is a conveying means that conveys a workpiece 10 such as an in-process article in the direction of a conveyor vector A indicated by an arrow in the drawing.
The visual sensor 3 is arranged so as to image a plurality of workpieces 10 mounted on the belt conveyance surface 2a of the belt conveyor 2 at a position on the conveyance upstream side of the belt conveyor 2. The visual sensor 3 is connected via a LAN such as Ethernet (registered trademark) so as to output work data as output data and a trigger signal indicating imaging timing to the robot controller 5 described later. Yes.

ロボット4は、ベルトコンベア2によって搬送されているワーク10を、例えば1個ずつ掴む保持部4a、および、保持部4aを所定の範囲内で移動可能に支持するアーム部4bを備えている。   The robot 4 includes, for example, a holding unit 4a that grips the workpieces 10 conveyed by the belt conveyor 2 one by one, and an arm unit 4b that supports the holding unit 4a so as to be movable within a predetermined range.

ロボットコントローラ5は、ロボット4の動作を制御するように接続された制御手段である。また、ロボットコントローラ5は、後述するコンベアエンコーダ6の出力信号、および、視覚センサ3から送信されたワークデータならびにトリガ信号を前述の通信線等を介して入力するように接続されている。   The robot controller 5 is control means connected to control the operation of the robot 4. Further, the robot controller 5 is connected so as to input an output signal of a conveyor encoder 6 to be described later and work data and a trigger signal transmitted from the visual sensor 3 via the communication line described above.

コンベアエンコーダ6は、ベルトコンベア2の搬送距離を検出する、即ちベルト搬送面2aに載置されているワーク10の移動量を検出する移動量検出手段である。   The conveyor encoder 6 is a movement amount detection means for detecting the conveyance distance of the belt conveyor 2, that is, detecting the movement amount of the workpiece 10 placed on the belt conveyance surface 2a.

なお、図1にはロボット4を1台、および、当該ロボット4を制御するロボットコントローラ5を1台備えた構成を例示しているが、複数のロボット4およびロボットコントローラ5を有するように構成してもよい。詳しくは、視覚センサ3から通信線へ送信されたワークデータ及びトリガ信号を受信する、例えばルータを備える。このルータに複数のロボットコントローラ5を接続する。このように構成して、各ロボットコントローラ5が、自らの処理動作に用いるワークデータならびにトリガ信号を、上記のルータから入力して各々ロボット4を制御することも可能である。   Although FIG. 1 illustrates a configuration including one robot 4 and one robot controller 5 that controls the robot 4, the configuration includes a plurality of robots 4 and robot controllers 5. May be. In detail, for example, a router is provided which receives work data and a trigger signal transmitted from the visual sensor 3 to the communication line. A plurality of robot controllers 5 are connected to this router. With this configuration, each robot controller 5 can control the robot 4 by inputting work data and trigger signals used for its own processing operation from the router.

図2は、図1のハンドリング装置1を成す視覚センサ、ロボット、および、ロボットコントローラの構成を示すブロック図である。
視覚センサ3は、カメラ11および画像処理部12を備えている。カメラ11は、例えばCCDカメラ等からなる。
カメラ11は、ワーク10が載置されているベルト搬送面2aを撮像するように配設され、例えば図1に示したトラッキング範囲Sが1回の撮像範囲となるように設けられている。
画像処理部12は、カメラ11から出力された画像データを処理してワークデータを生成するように構成されている。
また、視覚センサ3は、カメラ11の撮像タイミングを示すトリガ信号、および前述のワークデータを通信線へ送信する、図示を省略した通信部等を備えている。
FIG. 2 is a block diagram showing a configuration of a visual sensor, a robot, and a robot controller constituting the handling apparatus 1 of FIG.
The visual sensor 3 includes a camera 11 and an image processing unit 12. The camera 11 is composed of a CCD camera, for example.
The camera 11 is disposed so as to capture an image of the belt conveyance surface 2a on which the workpiece 10 is placed. For example, the tracking range S illustrated in FIG. 1 is provided so as to be a single imaging range.
The image processing unit 12 is configured to process the image data output from the camera 11 and generate work data.
The visual sensor 3 includes a communication unit (not shown) that transmits a trigger signal indicating the imaging timing of the camera 11 and the above-described work data to a communication line.

ロボットコントローラ5は、入力部13、表示部14、演算部15、記憶部16、および、駆動制御部17を備えている。
入力部13は、ユーザに設定操作等を行わせるように構成され、当該設定内容を演算部15へ入力するように接続されている。
表示部14は、前述の操作/設定内容、またロボット4の動作状況等を表示するように、演算部15へ接続されている。
The robot controller 5 includes an input unit 13, a display unit 14, a calculation unit 15, a storage unit 16, and a drive control unit 17.
The input unit 13 is configured to allow a user to perform a setting operation or the like, and is connected to input the setting content to the calculation unit 15.
The display unit 14 is connected to the calculation unit 15 so as to display the above-described operation / setting contents and the operation status of the robot 4.

演算部15は、データ管理部15a、トラッキングマネージャ15b、および、ワークマネージャ15cを備えている。
データ管理部15aは、記憶部16に各データを記憶させる動作処理や、記憶部16からデータを読み出す動作を行うように構成されている。
トラッキングマネージャ15bは、各トラッキングデータD1が示す位置、換言するとトラッキング範囲Sを監視するように構成されている。
ワークマネージャ15cは、トラッキング範囲Sに存在する複数のワーク10の中からロボット4に作業を行わせるワーク10を選択するように構成されている。
The calculation unit 15 includes a data management unit 15a, a tracking manager 15b, and a work manager 15c.
The data management unit 15 a is configured to perform an operation process of storing each data in the storage unit 16 and an operation of reading data from the storage unit 16.
The tracking manager 15b is configured to monitor the position indicated by each tracking data D1, in other words, the tracking range S.
The work manager 15c is configured to select a work 10 that causes the robot 4 to perform work from a plurality of works 10 existing in the tracking range S.

記憶部16は、演算部15の制御によってトラッキングデータD1を記憶し、複数のトラッキングデータD1を記憶することによってデータベースが構築されている。
トラッキングデータD1は、視覚センサ3が1回の撮像で得た画像データから抽出したワーク10の個数、コンベアエンコーダ6の出力信号が示す移動量、及び、上記の1回の撮像で得た画像データから抽出した各ワーク10のワークデータによって構成されている。
駆動制御部17は、後述するロボット4の各部を駆動させる制御信号を生成し、当該ロボット4を稼働させるように接続構成されている。
ロボット4は、保持部4aを駆動する保持用モータ18、保持部4aを支えているアーム部4bを駆動するアーム用モータ19を備えている。
The storage unit 16 stores tracking data D1 under the control of the calculation unit 15, and a database is constructed by storing a plurality of tracking data D1.
The tracking data D1 includes the number of the workpieces 10 extracted from the image data obtained by the visual sensor 3 by one imaging, the movement amount indicated by the output signal of the conveyor encoder 6, and the image data obtained by the above one imaging. It is comprised by the workpiece | work data of each workpiece | work 10 extracted from.
The drive control unit 17 is configured to generate a control signal for driving each unit of the robot 4 to be described later and operate the robot 4.
The robot 4 includes a holding motor 18 that drives the holding unit 4a and an arm motor 19 that drives the arm unit 4b that supports the holding unit 4a.

図3は、図1のハンドリング装置1の動作を示すフローチャートである。
ステップS1では、視覚センサ3のカメラ11が、前述のようにベルトコンベア2の搬送上流側において、ベルト搬送面2aに載置されているワーク10を撮像する。
FIG. 3 is a flowchart showing the operation of the handling apparatus 1 of FIG.
In step S1, the camera 11 of the visual sensor 3 images the workpiece 10 placed on the belt conveyance surface 2a on the upstream side of conveyance of the belt conveyor 2 as described above.

ステップS2では、視覚センサ3の画像処理部12がカメラ11によって撮像された画像から各ワーク10の部分を抽出して、当該各ワーク10のワークデータを生成する。
ステップS3では、前述の図示を省略した視覚センサ3の通信部が、カメラ11の撮像タイミングを示すトリガ信号に対応させて上記のワークデータを送信する。
In step S <b> 2, the image processing unit 12 of the visual sensor 3 extracts a part of each work 10 from the image captured by the camera 11, and generates work data for each work 10.
In step S <b> 3, the communication unit of the visual sensor 3 (not shown) transmits the work data corresponding to the trigger signal indicating the imaging timing of the camera 11.

ステップS4では、ロボットコントローラ5が、詳しくは図示を省略したロボットコントローラ5の受信部が、ステップS3の工程において送信されたワークデータを受信し、データ管理部15aが上記のワークデータを記憶部16に記憶させる。
このとき、一つのトリガ信号に対応させて送られてきた各ワークデータを、一つのトラッキングデータD1としてまとめて記憶し、データベースが構築されるように格納する。
In step S4, the robot controller 5 receives the work data transmitted in the step S3, and the data management unit 15a stores the work data in the storage unit 16 in the receiving unit of the robot controller 5 (not shown in detail). Remember me.
At this time, each piece of work data sent corresponding to one trigger signal is stored together as one tracking data D1, and stored so that a database is constructed.

ステップS5では、ロボットコントローラ5のトラッキングマネージャ15cが、コンベアエンコーダ6の出力信号を監視する。
また、データ管理部15aは、トラッキングマネージャ15bの監視結果に応じて、図1に示したワーク検出エリアを移動しているワーク10を含んでいるトラッキングデータD1を記憶部16から読み出す。
ワークマネージャ15cは、データ管理部15aが記憶部16から読み出した前述のトラッキングデータD1を成す各ワークデータを用いて演算を行い、この演算結果に応じてロボット4がハンドリング作業を行う順番を並べ替える。
In step S5, the tracking manager 15c of the robot controller 5 monitors the output signal of the conveyor encoder 6.
Further, the data management unit 15a reads the tracking data D1 including the workpiece 10 moving in the workpiece detection area shown in FIG. 1 from the storage unit 16 according to the monitoring result of the tracking manager 15b.
The work manager 15c performs an operation using each work data constituting the tracking data D1 read from the storage unit 16 by the data management unit 15a, and rearranges the order in which the robot 4 performs the handling work according to the operation result. .

ステップS6では、ロボットコントローラ5の駆動制御部17が、ステップS5において並べ替えた順番に応じて各ワーク10を保持するように、ロボット4の動作を制御する。
ハンドリング装置1は、概ねこのように動作する。
In step S6, the drive controller 17 of the robot controller 5 controls the operation of the robot 4 so as to hold the workpieces 10 according to the order rearranged in step S5.
The handling device 1 generally operates in this way.

次に各部の詳細動作を説明する。
視覚センサ3は、ベルトコンベア2の搬送上流側において、ベルト搬送面2aの上流端、もしくはその近傍の撮像原点20aから一定の撮像範囲の画像、例えばトラッキング範囲Sの画像を撮像する。
詳しくは、図2のカメラ11が、自らの撮像タイミングでベルト搬送面2aのトラッキング範囲Sを撮像する(ステップS1)。
Next, the detailed operation of each part will be described.
The visual sensor 3 captures an image in a certain imaging range, for example, an image in the tracking range S, from the imaging origin 20a at the upstream end of the belt conveying surface 2a or in the vicinity thereof on the upstream side of the conveyor belt 2.
Specifically, the camera 11 in FIG. 2 images the tracking range S of the belt conveyance surface 2a at its own imaging timing (step S1).

画像処理部12は、トラッキング範囲Sの画像に含まれているワーク10の形状を抽出し、この形状を画像処理部12が自ら記憶している品種毎の形状データ等と比較して、当該ワーク10の品種を特定する。
また、画像処理部12は、トラッキング範囲Sの画像の中からワーク10の任意の部分の座標値を検出し、当該ワーク10のワークデータを生成する(ステップS2)。
この座標値は、カメラ11もしくは視覚センサ3が自ら行う各処理において使用される座標系において表現された値である。
なお、視覚センサ3は、ワークデータにワークの姿勢を示す座標値を含めて生成してもよい。
視覚センサ3は、前述のように、生成したワークデータを順次ロボットコントローラ5へ送信する(ステップS3)。
The image processing unit 12 extracts the shape of the workpiece 10 included in the image in the tracking range S, and compares the shape with the shape data for each type stored in the image processing unit 12 itself. Identify 10 varieties.
Further, the image processing unit 12 detects the coordinate value of an arbitrary part of the workpiece 10 from the image in the tracking range S, and generates workpiece data of the workpiece 10 (step S2).
This coordinate value is a value expressed in a coordinate system used in each process performed by the camera 11 or the visual sensor 3 itself.
The visual sensor 3 may generate the work data including a coordinate value indicating the posture of the work.
As described above, the visual sensor 3 sequentially transmits the generated work data to the robot controller 5 (step S3).

図4は、図1のハンドリング装置1の動作を示す説明図である。この図は、前述のステップS4の工程において、ロボットコントローラ5のデータ管理部15aが、視覚センサ3から送られた各ワークデータ10を記憶部16に格納する動作を表している。   FIG. 4 is an explanatory diagram showing the operation of the handling apparatus 1 of FIG. This figure shows an operation in which the data management unit 15a of the robot controller 5 stores each work data 10 sent from the visual sensor 3 in the storage unit 16 in the step S4 described above.

データ管理部15aは、前述の通信部等が視覚センサ3からトリガ信号毎に送信された複数のワークデータ10を受信すると、これらのワークデータ10を一つにまとめてトラッキングデータD1を生成する。
また、データ管理部15aは、コンベアエンコーダ6から入力したベルトコンベア2の移動量を示すデータを加味して、上記のトラッキングデータD1を生成し、これを記憶部16へ格納してデータベースを構築する。
When the communication unit or the like receives a plurality of work data 10 transmitted from the visual sensor 3 for each trigger signal, the data management unit 15a generates the tracking data D1 by combining the work data 10 into one.
Further, the data management unit 15a generates the tracking data D1 taking into account the data indicating the amount of movement of the belt conveyor 2 input from the conveyor encoder 6, and stores the tracking data D1 in the storage unit 16 to construct the database. .

図4には、視覚センサ3が[i−1]番目に撮像した画像から生成されたトラッキングデータD1をトラッキングデータTrk[i−1]、[i]番目に撮像した画像から生成されたトラッキングデータD1をトラッキングデータTrk[i]、[i+1]番目に撮像した画像から生成されたトラッキングデータD1をトラッキングデータTrk[i+1]として示している。   In FIG. 4, the tracking data D1 generated from the [i-1] th image captured by the visual sensor 3 is the tracking data Trk [i-1], and the tracking data generated from the [i] th imaged. D1 is shown as tracking data Trk [i], and tracking data D1 generated from the [i + 1] -th captured image is shown as tracking data Trk [i + 1].

図4に示したトラッキングデータTrk[i]は、視覚センサ3が[i]番目に撮像したトラッキング範囲Sから、例えば10個のワーク10を検出したときのものを表しており、ワークデータWrk[0]〜Wrk[9]によって構成されている。   The tracking data Trk [i] shown in FIG. 4 represents data when, for example, ten workpieces 10 are detected from the tracking range S imaged by the visual sensor 3 at the [i] th, and the workpiece data Wrk [ 0] to Wrk [9].

データ管理部15aは、例えば、上記のトラッキングデータTrk[i]を生成するとき、視覚センサ3から[i]番目に送られたトリガ信号が受信されると、このトリガ信号に対応させたトラッキングデータTrk[i]を格納する領域を記憶部16に確保する。
また、データ管理部15aは、ここでコンベアエンコーダ6から入力した信号、即ちベルトコンベア2の移動量を示すデータを、前述のトラッキングデータTrk[i]の構成要素として記憶部16に格納する。
またさらに、データ管理部15aは、順次視覚センサ3から送られてくるワークデータWrk[0]〜[9]を、前述の記憶部16に確保したトラッキングデータTrk[i]の領域に記憶/格納する。
For example, when generating the tracking data Trk [i], the data management unit 15a receives the [i] -th trigger signal from the visual sensor 3, and the tracking data corresponding to the trigger signal is received. An area for storing Trk [i] is secured in the storage unit 16.
Further, the data management unit 15a stores the signal input from the conveyor encoder 6 here, that is, data indicating the movement amount of the belt conveyor 2 in the storage unit 16 as a component of the tracking data Trk [i].
Furthermore, the data management unit 15a stores / stores the work data Wrk [0] to [9] sequentially sent from the visual sensor 3 in the area of the tracking data Trk [i] secured in the storage unit 16 described above. To do.

なお、図4では分かり易くするため、[i]番目のトラッキング範囲Sに二つのワーク10を図示し、当該[i]番目のトラッキング範囲に載置されている全てのワーク10の図示を省略している。
また、視覚センサ3が撮像した順番を示す上記の[i−1]、[i]、[i+1]等は、トラッキング番号として各トラッキングデータD1に付記されるものである。
For the sake of clarity, FIG. 4 shows two workpieces 10 in the [i] -th tracking range S, and omits all the workpieces 10 placed in the [i] -th tracking range. ing.
Further, the above [i−1], [i], [i + 1] and the like indicating the order of imaging by the visual sensor 3 are appended to each tracking data D1 as tracking numbers.

視覚センサ3が順次ロボットコントローラ5へ送信しているワークデータは、例えば図4に示したワークデータWrk[0]〜[9]のように構成されている。
ワークデータWrk[0]〜[9]は、視覚センサ3が自らの動作処理において使用している座標系のX座標データ、Y座標データ、及びX−Y平面上における回転を表すC座標データを有する。
また、ワークデータWrk[0]〜[9]は、複数の付加データ、例えば付加データ(1)〜(3)を加えて構成されている。付加データ(1)〜(3)は、様々な動作処理に関連する条件等を表し、例えば、前述のように視覚センサ3が判別した品種などを示すデータである。この付加データ(1)〜(3)は、ユーザの所望により視覚センサ3に設定される。
The work data that the visual sensor 3 sequentially transmits to the robot controller 5 is configured as work data Wrk [0] to [9] shown in FIG. 4, for example.
The work data Wrk [0] to [9] are X coordinate data, Y coordinate data of the coordinate system used by the visual sensor 3 in its own motion processing, and C coordinate data representing rotation on the XY plane. Have.
The work data Wrk [0] to [9] is configured by adding a plurality of additional data, for example, additional data (1) to (3). The additional data (1) to (3) represent conditions and the like related to various operation processes, and are data indicating, for example, the types determined by the visual sensor 3 as described above. These additional data (1) to (3) are set in the visual sensor 3 as desired by the user.

ベルトコンベア2の搬送上流側において視覚センサ3に撮像された各ワーク10は、所定の時間を要してロボット4の配設されている位置へ搬送される。
ロボットコントローラ5は、記憶部16に蓄積されているデータベースを用いてロボット4の動作を制御し、当該ロボット4の位置に搬送されたワーク10にハンドリング作業を行う。
ロボット4のハンドリング作業は、図1に示したワーク検出エリア開始点20bとワーク検出エリア終了点20cとの間に設けられたワーク検出エリアにおいて行われる。
Each workpiece 10 imaged by the visual sensor 3 on the upstream side of the conveyance of the belt conveyor 2 is conveyed to a position where the robot 4 is disposed in a predetermined time.
The robot controller 5 controls the operation of the robot 4 using a database stored in the storage unit 16, and performs a handling operation on the workpiece 10 conveyed to the position of the robot 4.
The handling operation of the robot 4 is performed in a workpiece detection area provided between the workpiece detection area start point 20b and the workpiece detection area end point 20c shown in FIG.

ロボットコントローラ5のトラッキングマネージャ15bは、各トラッキングデータD1に含まれている移動量を示すデータを監視し、搬送中の各ワーク10の位置を検知する。
具体的には、トラッキングマネージャ15bは、データベースに格納されている各トラッキングデータD1の移動量を示すデータを抽出する。
またさらにトラッキングマネージャ15bは、上記の抽出した移動量を示すデータを用いて、ワーク検出エリア内を移動中のトラッキング範囲Sが、どのトラッキングデータD1に対応しているかを認識する。
トラッキングマネージャ15bは、上記の認識したトラッキングデータD1を、データ管理部15aを用いて記憶部16から読み出す。
The tracking manager 15b of the robot controller 5 monitors data indicating the amount of movement included in each tracking data D1, and detects the position of each workpiece 10 being conveyed.
Specifically, the tracking manager 15b extracts data indicating the movement amount of each tracking data D1 stored in the database.
Furthermore, the tracking manager 15b recognizes which tracking data D1 corresponds to the tracking range S that is moving in the work detection area, using the data indicating the extracted movement amount.
The tracking manager 15b reads the recognized tracking data D1 from the storage unit 16 using the data management unit 15a.

ワークマネージャ15cは、前述の記憶部16から読み出したトラッキングデータD1、即ち、トラッキングマネージャ15bが認識したトラッキングデータD1を入力する。
ワークマネージャ15cは、入力したトラッキングデータD1に含まれている複数のワークデータの中から処理を行うものを選択する。
換言すると、ワーク検出エリアに到達している複数のワーク10の中からロボット4に保持させるものを選択する。
The work manager 15c inputs the tracking data D1 read from the storage unit 16, that is, the tracking data D1 recognized by the tracking manager 15b.
The work manager 15c selects what is to be processed from a plurality of work data included in the input tracking data D1.
In other words, one to be held by the robot 4 is selected from a plurality of workpieces 10 that have reached the workpiece detection area.

図5は、図1のハンドリング装置1の動作を示す説明図である。
この図は、データベースに格納されている各ワークデータの順番とベルト搬送面2aに載置されている各ワーク10を対応させた状態B、および、ロボット4に保持させる順番とベルト搬送面2aに載置されている各ワーク10とを対応させた状態Cを表している。
なお、上記の状態Bは、視覚センサ3から送信されたワークデータを順次データベースに格納した順番の一例であり、図示した順番に限定されない。
FIG. 5 is an explanatory diagram showing the operation of the handling apparatus 1 of FIG.
This figure shows a state B in which the order of the workpiece data stored in the database is associated with each workpiece 10 placed on the belt conveyance surface 2a, and the order in which the robot 4 holds the belt and the belt conveyance surface 2a. A state C is shown in which each workpiece 10 placed thereon is associated.
In addition, said state B is an example of the order which stored the work data transmitted from the visual sensor 3 in a database sequentially, and is not limited to the order shown in figure.

ワークマネージャ15cは、図3のステップS5の工程において、ロボット4に各ワーク10を保持させる順番を状態Cのように並べ替える。
具体的には、1つのトラッキング範囲Sにおいて、搬送下流側のワーク10から順番にロボット4が保持するように、各ワーク10に対応するワークデータの並べ替えを行う。
The work manager 15c rearranges the order in which the robot 4 holds each work 10 in the process of step S5 in FIG.
Specifically, in one tracking range S, work data corresponding to each work 10 is rearranged so that the robot 4 sequentially holds the work 10 on the downstream side of the conveyance.

図6は、図1のハンドリング装置1のロボットコントローラが行う演算処理を示す説明図である。
図示したOは、任意の基準点である。また、ベクトルCνは、例えばユーザ等によって定められた単位ベクトルであり、ベルトコンベア2の搬送動作を表すコンベアベクトルAと同一方向を示す。
基準点Oは、例えばワーク検出エリアの中を移動しているトラッキング範囲Sよりも搬送上流側に設定される。図6に例示した基準点Oは、ベルト搬送面2aの幅方向の中央部分に設けられている。
FIG. 6 is an explanatory diagram showing a calculation process performed by the robot controller of the handling apparatus 1 of FIG.
O shown in the figure is an arbitrary reference point. Further, the vector Cν is a unit vector determined by, for example, a user and indicates the same direction as the conveyor vector A representing the transport operation of the belt conveyor 2.
The reference point O is set upstream of the tracking range S that is moving in the workpiece detection area, for example. The reference point O illustrated in FIG. 6 is provided at the center portion in the width direction of the belt conveyance surface 2a.

例えば、ベルト搬送面2aの面上において、ワーク10の位置Pの座標を(Px,Py)、基準点Oの座標を(Ox,Oy)としたとき、基準点Oからワーク10までのベクトルPnは(Px−Ox,Py−Oy)となる。
ベクトルPnとベクトルCνの成す角度をθとしたとき、ワーク10の写像ベクトルPnは次の(1)式のように表される。
For example, when the coordinate of the position P of the workpiece 10 is (Px, Py) and the coordinate of the reference point O is (Ox, Oy) on the surface of the belt conveyance surface 2a, the vector Pn from the reference point O to the workpiece 10 Becomes (Px-Ox, Py-Oy).
When the angle formed by the vector Pn and the vector Cν is θ, the mapping vector Pn C of the workpiece 10 is expressed by the following equation (1).

Figure 0005198161
Figure 0005198161

ここで、ベクトルPnとベクトルCνの内積は(2)式のように表される。   Here, the inner product of the vector Pn and the vector Cν is expressed as shown in Equation (2).

Figure 0005198161
Figure 0005198161

ベクトルCνは、前述のように単位ベクトルなのでスカラ量は“1”である。そのため、前述の内積は、次の(3)式のようになる。   Since the vector Cν is a unit vector as described above, the scalar quantity is “1”. Therefore, the inner product described above is expressed by the following equation (3).

Figure 0005198161
Figure 0005198161

前述の(1)式と(3)式から、写像ベクトルPnのスカラ量は、次の(4)式のように表される。 From the above equations (1) and (3), the scalar quantity of the mapping vector Pn C is expressed as the following equation (4).

Figure 0005198161
Figure 0005198161

このように、ワーク10の写像ベクトルPnのスカラ量を、ベクトルPとベクトルCνとの内積によって求めることができる。
演算部15の例えばワークマネージャ15cは、このようにして一つのトラッキングデータD1に含まれている全てのワークデータに対して写像ベクトルPnのスカラ量を求める。
Thus, the scalar quantity of the mapping vector Pn C of the workpiece 10 can be obtained by the inner product of the vector P and the vector Cν.
For example, the work manager 15c of the calculation unit 15 obtains the scalar quantity of the mapping vector Pn C for all the work data included in one tracking data D1 in this way.

各ワーク10の位置を、写像ベクトルPnのスカラ量によって表すことにより、視覚センサ3から送られたワークデータの座標系がベルトコンベア2の搬送方向に整合していない場合でも、ロボット4の動作制御に用いることができる。
また、視覚センサ3が撮像した画像の座標原点がどのように配置されていても、ロボット4の動作制御に用いることが可能になる。
By representing the position of each workpiece 10 by the scalar quantity of the mapping vector Pn C , the operation of the robot 4 is performed even when the coordinate system of the workpiece data sent from the visual sensor 3 is not aligned with the transport direction of the belt conveyor 2. Can be used for control.
Further, no matter how the coordinate origin of the image captured by the visual sensor 3 is arranged, it can be used for operation control of the robot 4.

例えば、一つのトラッキングデータD1に含まれているワークデータの数量を10個としたとき、前述のようにして求めた各ワークデータの写像ベクトルPnのスカラ量を、次のデータ列(5)のように並べる。 For example, when the number of work data included in one tracking data D1 is 10, the scalar quantity of the mapping vector Pn C of each work data obtained as described above is represented by the following data string (5). Line up like

Figure 0005198161
Figure 0005198161

前述のように原点Oを搬送上流側に設定したときには、写像ベクトルPnのスカラ量は、搬送下流側に位置するワーク10が大きな値になる。
演算部15は、例えば選択ソート法を用いて各スカラ量の並べ替えを行う。演算部15の例えばワークマネージャ15cは、データ列(5)の中の各スカラ量を比較し、値の大きな順に並べ替える。
ワークマネージャ15cは、データ列(5)の中に並べられている各スカラ量に対応させて、順にワークデータを選択する。
ワークマネージャ15cは、このように、大きな写像ベクトルPnのスカラ量を有するワークデータから順に、ロボット4の動作制御に用いるワークデータとして選択する。
When the origin O as described above was set in conveying upstream, scalar quantity of the mapping vector Pn C a work 10 which is located in the transport downstream side becomes a large value.
The computing unit 15 rearranges each scalar quantity using, for example, a selective sorting method. For example, the work manager 15c of the calculation unit 15 compares the scalar quantities in the data string (5) and rearranges them in descending order.
The work manager 15c selects work data in order corresponding to each scalar quantity arranged in the data string (5).
Work Manager 15c is thus the work data sequentially with a scalar quantity of large mapping vector Pn C, it is selected as a work data used for the operation control of the robot 4.

図3のステップS6の工程において、駆動制御部17は、ワークマネージャ15cが順次選択したワークデータを用いてロボット4の動作を制御し、例えば図5の状態Cに示したように搬送下流に位置するワーク10から順番にハンドリング作業を行わせる。   In the process of step S6 in FIG. 3, the drive control unit 17 controls the operation of the robot 4 using the work data sequentially selected by the work manager 15c, for example, as shown in the state C in FIG. Handling work is performed in order from the workpiece 10 to be performed.

ワークマネージャ15cが、写像ベクトルPnのスカラ量に応じてデータ列(5)の中を並べ替え、並べ替えたデータ列(5)に対応させて各ワークデータを処理する順番を変更することにより、ロボット4が各ワーク10を保持する順番を変更することができる。 The work manager 15c rearranges the data string (5) according to the scalar quantity of the mapping vector Pn C , and changes the order of processing each work data corresponding to the rearranged data string (5). The order in which the robot 4 holds the workpieces 10 can be changed.

以上の第1の実施形態のハンドリング装置1によれば、演算部15が、ロボット4の動作制御に用いるワークデータの順番を並べ替えるようにしたので、ベルトコンベア2に搬送され、ワーク検出エリアを移動中のワーク10に効率よく作業を行うことができる。
また、作業を行う順番を並べ替えて搬送下流側に位置するワーク10から作業を行うようにしたので、搬送中のワーク10に作業をし損ねることを抑制することができる。
また、ロボット4の無駄な動作を抑えることができる。
According to the handling device 1 of the first embodiment described above, since the calculation unit 15 rearranges the order of the work data used for the operation control of the robot 4, it is conveyed to the belt conveyor 2 and the work detection area is set. Work can be efficiently performed on the moving workpiece 10.
In addition, since the work order is rearranged and the work is performed from the work 10 located on the downstream side of the conveyance, it is possible to prevent the work 10 being conveyed from being missed.
Further, useless operations of the robot 4 can be suppressed.

第2の実施形態
本発明の第2の実施形態によるハンドリング装置は、前述の第1の実施形態で説明したハンドリング装置と同様に構成されている。第1の実施形態で説明した装置と同様な構成について重複説明を省略する。
また、第2の実施形態によるハンドリング装置は、第1の実施形態で説明した装置と概ね同様に動作する。ここでは、第1の実施形態で説明した装置と同様な動作について重複説明を省略し、第2の実施形態によるハンドリング装置の特徴となる動作を説明する。
Second Embodiment A handling apparatus according to a second embodiment of the present invention is configured in the same manner as the handling apparatus described in the first embodiment. A duplicate description of the same configuration as that of the apparatus described in the first embodiment is omitted.
The handling device according to the second embodiment operates in substantially the same manner as the device described in the first embodiment. Here, redundant description of operations similar to those of the apparatus described in the first embodiment will be omitted, and operations that characterize the handling apparatus according to the second embodiment will be described.

図7は、本発明の第2の実施形態によるハンドリング装置の動作を示す説明図である。
この図は、データベースに格納されている各ワークデータの順番とベルト搬送面2aに載置されている各ワーク10を対応させた状態B、および、ロボット4に保持させる順番とベルト搬送面2aに載置されている各ワーク10とを対応させた状態Dを表している。
なお、上記の状態Bは、図5に示した状態Bと同様に、視覚センサ3から送信されたワークデータを順次データベースに格納した順番の一例であり、図示した順番に限定されない。
FIG. 7 is an explanatory diagram showing the operation of the handling device according to the second embodiment of the present invention.
This figure shows a state B in which the order of the workpiece data stored in the database is associated with each workpiece 10 placed on the belt conveyance surface 2a, and the order in which the robot 4 holds the belt and the belt conveyance surface 2a. A state D in which each workpiece 10 placed thereon is associated is shown.
In addition, said state B is an example of the order which stored the work data transmitted from the visual sensor 3 in a database sequentially like the state B shown in FIG. 5, and is not limited to the order shown in figure.

第2の実施形態によるハンドリング装置1のワークマネージャ15cは、第1の実施形態で説明した図3のステップS5の工程において、ロボット4に各ワーク10を保持させる順番を状態Dのように並べ替える。
具体的には、1つのトラッキング範囲Sにおいて、搬送下流側のワーク10から順番にロボット4が保持するように、各ワーク10に対応するワークデータの並べ替えを行う。
例えば、最も搬送下流側に載置されているワーク10を、前述の第1の実施形態で説明した演算によって求める。
次に、このワーク10から最も近い位置に載置されているワーク10を、例えば各ワークデータの座標値を比較して検知する。このようにして、近傍に載置されているワーク10を順に検知し、検知した順番に応じてワークデータを並べ替える。
The work manager 15c of the handling apparatus 1 according to the second embodiment rearranges the order in which the robot 4 holds the workpieces 10 as in the state D in the step S5 of FIG. 3 described in the first embodiment. .
Specifically, in one tracking range S, work data corresponding to each work 10 is rearranged so that the robot 4 sequentially holds the work 10 on the downstream side of the conveyance.
For example, the work 10 placed on the most downstream side of the conveyance is obtained by the calculation described in the first embodiment.
Next, the workpiece 10 placed at the position closest to the workpiece 10 is detected by comparing the coordinate values of the workpiece data, for example. In this way, the workpieces 10 placed in the vicinity are sequentially detected, and the workpiece data are rearranged according to the detected order.

上記のように、ワークマネージャ15cがワークデータを並べ替えて、順に駆動制御部17へ出力することにより、ロボット4は、図7の状態Dに示した順番で、各ワーク10に作業を行う。   As described above, the work manager 15c rearranges the work data and sequentially outputs the work data to the drive control unit 17, whereby the robot 4 performs the work on each work 10 in the order shown in the state D of FIG.

以上の第2の実施形態のハンドリング装置1によれば、ロボットコントローラ5の演算部15が、ロボット4の動作制御に用いるワークデータの順番を並べ替えるようにしたので、ベルトコンベア2によって搬送されてワーク検出エリアを移動中のワーク10に効率よく作業を行うことができる。
また、作業を行う順番を並べ替えて搬送下流側に位置するワーク10から作業を開始し、順次近傍のワーク10に作業を行うようにしたので、搬送中のワーク10に作業をし損ねることを抑制することができる。
また、ロボット4の無駄な動作を抑えることができる。
According to the handling device 1 of the second embodiment described above, since the calculation unit 15 of the robot controller 5 rearranges the order of the work data used for the operation control of the robot 4, it is conveyed by the belt conveyor 2. Work can be efficiently performed on the workpiece 10 moving in the workpiece detection area.
In addition, the work order is rearranged, the work is started from the work 10 located on the downstream side of the conveyance, and the work is sequentially performed on the work 10 in the vicinity. Can be suppressed.
Further, useless operations of the robot 4 can be suppressed.

本発明の第1の実施形態によるハンドリング装置の概略構成を示す説明図である。It is explanatory drawing which shows schematic structure of the handling apparatus by the 1st Embodiment of this invention. 図1のハンドリング装置1を成す視覚センサ、ロボット、および、ロボットコントローラの構成を示すブロック図である。It is a block diagram which shows the structure of the visual sensor, robot, and robot controller which comprise the handling apparatus 1 of FIG. 図1のハンドリング装置1の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the handling apparatus 1 of FIG. 図1のハンドリング装置1の動作を示す説明図である。It is explanatory drawing which shows operation | movement of the handling apparatus 1 of FIG. 図1のハンドリング装置1の動作を示す説明図である。It is explanatory drawing which shows operation | movement of the handling apparatus 1 of FIG. 図1のハンドリング装置1のロボットコントローラが行う演算処理を示す説明図である。It is explanatory drawing which shows the arithmetic processing which the robot controller of the handling apparatus 1 of FIG. 1 performs. 本発明の第2の実施形態によるハンドリング装置の動作を示す説明図である。It is explanatory drawing which shows operation | movement of the handling apparatus by the 2nd Embodiment of this invention.

符号の説明Explanation of symbols

1 ハンドリング装置、2 ベルトコンベア、3 視覚センサ、4 ロボット、4a 保持部、4b アーム部、5 ロボットコントローラ、10 ワーク、11 カメラ、12 画像処理部、13 入力部、14 表示部、15 演算部、15a データ管理部、15b トラッキングマネージャ、15c ワークマネージャ、16 記憶部、17 駆動制御部、18 保持用モータ、19 アーム用モータ。   DESCRIPTION OF SYMBOLS 1 Handling apparatus, 2 Belt conveyor, 3 Vision sensor, 4 Robot, 4a Holding part, 4b Arm part, 5 Robot controller, 10 Work, 11 Camera, 12 Image processing part, 13 Input part, 14 Display part, 15 Calculation part, 15a data management unit, 15b tracking manager, 15c work manager, 16 storage unit, 17 drive control unit, 18 holding motor, 19 arm motor.

Claims (5)

ワークを搬送する搬送手段と、
前記搬送されるワークの移動量を検出するエンコーダと、
記搬送手段によって搬送されているトラッキング範囲内のワークを撮像する、視覚センサと、
前記撮像データからトラッキング範囲内のワークを抽出し、当該抽出したワークの位置、および、前記エンタコーダが検出したワークの移動量を含むワークデータを生成し、ワークを抽出した順にワークデータ順番を付し、トラッキング範囲内の前記抽出したワークの個数、ワークの移動量、および、前記ワークデータを含むトラッキングデータを生成する、画像処理部と、
前記視覚センサの搬送方向の前方に配置され、固定部と、ワークを保持する保持部と、前記固定部に装着され前記保持部を移動させるアーム部を有する、単一のロボットと、
御手段と、
を有し、
前記制御手段は、
前記トラッキングデータに含まれるワークがワーク検出領域に位置する場合においてワークの保持が漏れなくなるように、または、前記ロボットの保持部の移動距離が短くなるように、前記トラッキングデータに含まれる前記トラッキング範囲内のワークの搬送位置および前記ロボットの保持部の位置に応じて、前記ワークデータの順番を前記ロボットの保持部で保持するワークの保持順番を並べ替えて、ワークの保持作業順番を決定し、
前記決定したワークの保持作業順番に応じて前記ロボットの作業を制御する、
ハンドリング装置。
Conveying means for conveying the workpiece;
An encoder for detecting the amount of movement of the conveyed workpiece;
Imaging the workpiece within the tracking range being conveyed by pre-Symbol conveying means, and visual sensor,
A work within the tracking range is extracted from the imaging data, work data including the position of the extracted work and the movement amount of the work detected by the encoder is generated, and the work data order is assigned in the order in which the work is extracted. An image processing unit that generates tracking data including the number of the extracted workpieces within the tracking range, the amount of movement of the workpiece, and the workpiece data;
A single robot that is disposed in front of the conveyance direction of the visual sensor and includes a fixing unit, a holding unit that holds a workpiece, and an arm unit that is attached to the fixing unit and moves the holding unit;
And control means,
Have
The control means includes
The tracking range included in the tracking data so that the holding of the workpiece does not leak when the workpiece included in the tracking data is located in the workpiece detection area, or the movement distance of the holding unit of the robot is shortened. In accordance with the workpiece transfer position and the position of the holding unit of the robot, the order of the workpiece data is rearranged in the holding order of the workpiece held by the holding unit of the robot, and the workpiece holding work order is determined.
Controlling the robot work according to the determined work holding work order;
Handling device.
前記制御手段は、前記ワークの保持作業順番の決定として、搬送最下流側のワーク、そのワークから最も近い距離のワーク、さらにそのワークから最も近い距離のワークと順番として、前記ワークの保持作業順番を決定する、
請求項1に記載のハンドリング装置。
The control means, as the determination of the work holding work order, the work on the most downstream side of the conveyance, the work closest to the work, the order of the work closest to the work, the order of the work holding work To decide,
The handling device according to claim 1.
前記制御手段は、前記ワークの保持作業順番の決定として、
前記抽出したワークについて、その位置について基準点からの前記トラッキングデータに含まれている各ワークデータの写像ベクトルのスカラー量を演算し、そのスカラ量に応じて前記ワークの保持作業順番を決定する、
請求項1に記載のハンドリング装置。
The control means, as the determination of the work holding work order,
For the extracted work, calculate the scalar quantity of the mapping vector of each work data included in the tracking data from the reference point for the position, and determine the work holding order of the work according to the scalar quantity.
The handling device according to claim 1 .
ワークを搬送する搬送手段と、前記搬送されるワークの移動量を検出するエンコーダと、前記搬送手段によって搬送されているトラッキング範囲内のワークを撮像する、視覚センサと、前記視覚センサの搬送方向の前方に配置され、固定部と、ワークを保持する保持部と、前記固定部に装着され前記保持部を移動させるアーム部を有する、単一のロボットとを有するハンドリング装置のワークハンドリング方法であって、
前記撮像データからトラッキング範囲内のワークを抽出し、
当該抽出したワークの位置、および、前記エンタコーダが検出したワークの移動量を含むワークデータを生成し、
ワークを抽出した順にワークデータ順番を付し
トラッキング範囲内の前記抽出したワークの個数、ワークの移動量、および、前記ワークデータを含むトラッキングデータを生成し、
前記トラッキングデータに含まれるワークがワーク検出領域に位置する場合においてワークの保持が漏れなくなるように、または、前記ロボットの保持部の移動距離が短くなるように、前記トラッキングデータに含まれる前記トラッキング範囲内のワークの搬送位置および前記ロボットの保持部の位置に応じて、前記ワークデータの順番を前記ロボットの保持部で保持するワークの保持順番を並べ替えて、ワークの保持作業順番を決定し、
前記決定したワークの保持作業順番に応じて前記ロボットの作業を制御する、
ワークハンドリング方法。
Conveying means for conveying a work; an encoder for detecting a movement amount of the conveyed work; a visual sensor for imaging a work within a tracking range being conveyed by the conveying means; and a conveying direction of the visual sensor. A workpiece handling method for a handling device having a fixed part, a holding part for holding a workpiece, and a single robot having an arm part mounted on the fixing part and moving the holding part. ,
Extract a work within the tracking range from the imaging data,
Generating workpiece data including the position of the extracted workpiece and the amount of movement of the workpiece detected by the encoder;
The work data order is assigned in the order in which the work is extracted ,
Generating tracking data including the number of the extracted workpieces within the tracking range, the amount of movement of the workpiece, and the workpiece data;
The tracking range included in the tracking data so that the holding of the workpiece does not leak when the workpiece included in the tracking data is located in the workpiece detection area, or the movement distance of the holding unit of the robot is shortened. In accordance with the workpiece transfer position and the position of the holding unit of the robot, the order of the workpiece data is rearranged in the holding order of the workpiece held by the holding unit of the robot, and the workpiece holding work order is determined.
Controlling the robot work according to the determined work holding work order;
Work handling method.
前記ワークの保持作業順番の決定は、前記抽出したワークについて、その位置について基準点からの前記トラッキングデータに含まれている各ワークデータの写像ベクトルのスカラー量を演算し、そのスカラ量に応じて前記ワークの保持作業順番を決定する、The work holding work order is determined by calculating a scalar quantity of a mapping vector of each work data included in the tracking data from a reference point with respect to the position of the extracted work, and according to the scalar quantity. Determining the holding work order of the workpieces;
請求項4に記載のワークハンドリング方法。The work handling method according to claim 4.
JP2008158038A 2008-06-05 2008-06-17 Handling apparatus and work handling method Active JP5198161B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2008158038A JP5198161B2 (en) 2008-06-17 2008-06-17 Handling apparatus and work handling method
US12/995,960 US8805585B2 (en) 2008-06-05 2009-06-03 Handling apparatus, control device, control method, and program
GB1019223.5A GB2471819B (en) 2008-06-05 2009-06-03 Handling system,control device,control method,and program
GB1213595.0A GB2492257B (en) 2008-06-05 2009-06-03 Handling system, control device, control method, and program
DE112009001414T DE112009001414T5 (en) 2008-06-05 2009-06-03 Processing system, control device, control method and program
PCT/JP2009/060172 WO2009148089A1 (en) 2008-06-05 2009-06-03 Handling apparatus, control device, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008158038A JP5198161B2 (en) 2008-06-17 2008-06-17 Handling apparatus and work handling method

Publications (2)

Publication Number Publication Date
JP2009297881A JP2009297881A (en) 2009-12-24
JP5198161B2 true JP5198161B2 (en) 2013-05-15

Family

ID=41545307

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008158038A Active JP5198161B2 (en) 2008-06-05 2008-06-17 Handling apparatus and work handling method

Country Status (1)

Country Link
JP (1) JP5198161B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5353718B2 (en) * 2010-01-06 2013-11-27 セイコーエプソン株式会社 Control device, robot, robot system, and robot tracking control method
JP5316563B2 (en) 2011-02-15 2013-10-16 オムロン株式会社 Image processing apparatus and image processing system
JP6387760B2 (en) * 2014-09-18 2018-09-12 株式会社安川電機 Robot system, robot apparatus and work picking method
JP6490132B2 (en) * 2017-03-31 2019-03-27 ファナック株式会社 Robot control device, machine learning device, and machine learning method
JP6763914B2 (en) 2018-06-08 2020-09-30 ファナック株式会社 Robot system and robot system control method
JP7022036B2 (en) 2018-08-31 2022-02-17 ファナック株式会社 Goods removal system

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0748018A (en) * 1993-08-03 1995-02-21 Omori Mach Co Ltd Article detector for article transfer device
JPH0957670A (en) * 1995-08-23 1997-03-04 Fujitsu Ltd Robot orbit control device and durability testing device
JP3629133B2 (en) * 1997-01-31 2005-03-16 本田技研工業株式会社 Control device for legged mobile robot
JP2005111607A (en) * 2003-10-07 2005-04-28 Fanuc Ltd Material flow tracking device using robot
JP4864363B2 (en) * 2005-07-07 2012-02-01 東芝機械株式会社 Handling device, working device, and program
JP2009028818A (en) * 2007-07-25 2009-02-12 Panasonic Electric Works Co Ltd Robot system

Also Published As

Publication number Publication date
JP2009297881A (en) 2009-12-24

Similar Documents

Publication Publication Date Title
WO2009148089A1 (en) Handling apparatus, control device, control method, and program
JP5198155B2 (en) HANDLING DEVICE, WORK HANDLING METHOD, AND SIGNAL PROCESSING DEVICE
JP5887383B2 (en) Article alignment apparatus for aligning articles on a conveyor
US8014899B2 (en) Article conveying robot system
JP4864363B2 (en) Handling device, working device, and program
JP5198161B2 (en) Handling apparatus and work handling method
JP4174342B2 (en) Work transfer device
JP6496333B2 (en) Article conveying apparatus using at least one sensor
US20070179671A1 (en) Tracking and handling device
JP2016107349A (en) Article transfer device for transferring article by using robot and article transfer method
CN109384039B (en) Article carrying device
JP2006035397A (en) Conveyance robot system
JP2008087074A (en) Workpiece picking apparatus
JP2016147330A (en) Control apparatus based on object recognition
JP2005262369A (en) Robot system
JP2013132726A (en) Method for controlling robot, and robot
JP2000219317A (en) Cargo handling/sorting device
CN111085993A (en) Robot system for performing cooperative work with human and robot control method
JP2011140084A (en) Controller, robot, robot system, and following method of robot
JP6688912B1 (en) Pallet transfer system, pallet transfer method, and pallet transfer program
WO2021065880A1 (en) Robot control system, robot control method, and program
JP2007033328A (en) Image processing method and picking operation correcting method using the same
JP2021045835A (en) Robot system
JP5353718B2 (en) Control device, robot, robot system, and robot tracking control method
US11660757B2 (en) Robot control system simultaneously performing workpiece selection and robot task

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121002

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130206

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160215

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5198161

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350