JP5198161B2 - Handling apparatus and work handling method - Google Patents
Handling apparatus and work handling method Download PDFInfo
- Publication number
- JP5198161B2 JP5198161B2 JP2008158038A JP2008158038A JP5198161B2 JP 5198161 B2 JP5198161 B2 JP 5198161B2 JP 2008158038 A JP2008158038 A JP 2008158038A JP 2008158038 A JP2008158038 A JP 2008158038A JP 5198161 B2 JP5198161 B2 JP 5198161B2
- Authority
- JP
- Japan
- Prior art keywords
- work
- workpiece
- data
- holding
- order
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Manipulator (AREA)
- Specific Conveyance Elements (AREA)
Description
ベルトコンベアにより搬送される物品を効率よく処理するハンドリング装置、制御装置及び制御方法に関する。 The present invention relates to a handling device, a control device, and a control method for efficiently processing articles conveyed by a belt conveyor.
視覚センサをベルトコンベアの上流に配置して、当該ベルトコンベアによって搬送されている物品(以下、ワークと記載する)を検出し、当該視覚センサの出力データを用いて、ロボットがワークに行う動作を制御するハンドリング装置が知られている。例えば、特許文献1に示されたハンドリング装置は、視覚センサがベルトコンベアによって搬送されている各ワークを撮像し、各々のワークに対応させたデータを作成してロボットコントローラへ送信する。ロボットコントローラは、受信データのデータベースを作成し、ベルトコンベアの搬送によってロボットの作業位置へ到達したワークに対し、前述のデータベースから読み出したデータに基づく処理を行っている。
A visual sensor is arranged upstream of the belt conveyor, an article (hereinafter referred to as a workpiece) conveyed by the belt conveyor is detected, and the robot performs an operation on the workpiece using the output data of the visual sensor. Controlling handling devices are known. For example, in the handling apparatus shown in
特許文献1に記載された装置は、視覚センサから送信されたデータを順次記憶してデータベースを構築し、データベースに格納されている内容に順応してロボットの動作制御を行っている。そのため、ベルトコンベアによって搬送されている複数のワークを搬送下流側から順に処理するとは限られず、ロボットの動作が煩雑になって搬送下流に載置されているワークを処理することができなくなる場合が生じる可能性がある。
The apparatus described in
本発明の目的は、ベルトコンベアによって搬送されている各ワークを効率のよい順番で処理することができるハンドリング装置、制御装置及び制御方法を得ることにある。 An object of the present invention is to obtain a handling device, a control device, and a control method capable of processing the workpieces conveyed by the belt conveyor in an efficient order.
本発明によれば、ワークを搬送する搬送手段と、前記搬送されるワークの移動量を検出するエンコーダと、前記搬送手段によって搬送されているトラッキング範囲内のワークを撮像する、視覚センサと、前記撮像データからトラッキング範囲内のワークを抽出し、当該抽出したワークの位置、および、前記エンタコーダが検出したワークの移動量を含むワークデータを生成し、ワークを抽出した順にワークデータ順番を付し、トラッキング範囲内の前記抽出したワークの個数、ワークの移動量、および、前記ワークデータを含むトラッキングデータを生成する、画像処理部と、前記視覚センサの搬送方向の前方に配置され、固定部と、ワークを保持する保持部と、前記固定部に装着され前記保持部を移動させるアーム部を有する、単一のロボットと、制御手段と、を有し、
前記制御手段は、前記トラッキングデータに含まれるワークがワーク検出領域に位置する場合においてワークの保持が漏れなくなるように、または、前記ロボットの保持部の移動距離が短くなるように、前記トラッキングデータに含まれる前記トラッキング範囲内のワークの搬送位置および前記ロボットの保持部の位置に応じて、前記ワークデータの順番を前記ロボットの保持部で保持するワークの保持順番を並べ替えて、ワークの保持作業順番を決定し、前記決定したワークの保持作業順番に応じて前記ロボットの作業を制御する、
ハンドリング装置が提供される。
According to the present invention, imaging and conveying means for conveying the workpiece, an encoder for detecting the amount of movement of the workpiece to be the conveying, workpieces within the tracking range being conveyed by pre-Symbol conveying means, and visual sensor, A work within the tracking range is extracted from the imaging data, work data including the position of the extracted work and the movement amount of the work detected by the encoder is generated, and the work data order is assigned in the order in which the work is extracted. An image processing unit that generates tracking data including the number of the extracted workpieces within the tracking range, the movement amount of the workpieces, and the workpiece data; and a fixed unit that is disposed in front of the conveyance direction of the visual sensor. A single robot having a holding part for holding the workpiece and an arm part mounted on the fixed part and moving the holding part Has a door, and control means, the,
The control means adds the tracking data to the tracking data so that the holding of the workpiece does not leak when the workpiece included in the tracking data is located in the workpiece detection area, or the moving distance of the holding unit of the robot is shortened. The work holding operation is performed by rearranging the work holding order of the work data held by the robot holding part according to the workpiece transfer position and the robot holding part position within the tracking range included. Determining the order and controlling the robot work according to the determined work holding work order;
A handling device is provided.
好ましくは、前記制御手段は、前記ワークの保持作業順番の決定として、搬送最下流側のワーク、そのワークから最も近い距離のワーク、さらにそのワークから最も近い距離のワークと順番として、前記ワークの保持作業順番を決定する。Preferably, the control means determines the work holding order of the work as the work on the most downstream side of the transport, the work closest to the work, and the work closest to the work in order. Determine the holding work order.
また好ましくは、前記制御手段は、前記ワークの保持作業順番の決定として、前記抽出したワークについて、その位置について基準点からの前記トラッキングデータに含まれている各ワークデータの写像ベクトルのスカラー量を演算し、そのスカラ量に応じて前記ワークの保持作業順番を決定する。Preferably, the control means determines a scalar quantity of a mapping vector of each work data included in the tracking data from a reference point with respect to the position of the extracted work as the determination of the work holding work order. Calculation is performed, and the holding work order of the workpiece is determined according to the amount of the scalar.
また本発明によれば、ワークを搬送する搬送手段と、前記搬送されるワークの移動量を検出するエンコーダと、前記搬送手段によって搬送されているトラッキング範囲内のワークを撮像する、視覚センサと、前記視覚センサの搬送方向の前方に配置され、固定部と、ワークを保持する保持部と、前記固定部に装着され前記保持部を移動させるアーム部を有する、単一のロボットとを有するハンドリング装置のワークハンドリング方法であって、 前記撮像データからトラッキング範囲内のワークを抽出し、
当該抽出したワークの位置、および、前記エンタコーダが検出したワークの移動量を含むワークデータを生成し、
ワークを抽出した順にワークデータ順番を付し、
トラッキング範囲内の前記抽出したワークの個数、ワークの移動量、および、前記ワークデータを含むトラッキングデータを生成し、
前記トラッキングデータに含まれるワークがワーク検出領域に位置する場合においてワークの保持が漏れなくなるように、または、前記ロボットの保持部の移動距離が短くなるように、前記トラッキングデータに含まれる前記トラッキング範囲内のワークの搬送位置および前記ロボットの保持部の位置に応じて、前記ワークデータの順番を前記ロボットの保持部で保持するワークの保持順番を並べ替えて、ワークの保持作業順番を決定し、
前記決定したワークの保持作業順番に応じて前記ロボットの作業を制御する、
ワークハンドリング方法が提供される。
Further, according to the present invention, a conveying unit that conveys a workpiece, an encoder that detects a movement amount of the conveyed workpiece, a visual sensor that images a workpiece within a tracking range being conveyed by the conveying unit, A handling device having a fixed portion, a holding portion that holds a workpiece, and a single robot that has an arm portion that is attached to the fixing portion and moves the holding portion, is arranged in front of the conveyance direction of the visual sensor. A workpiece handling method of extracting a workpiece within a tracking range from the imaging data,
Generating workpiece data including the position of the extracted workpiece and the amount of movement of the workpiece detected by the encoder;
The work data order is assigned in the order in which the work is extracted ,
Generating tracking data including the number of the extracted workpieces within the tracking range, the amount of movement of the workpiece, and the workpiece data;
The tracking range included in the tracking data so that the holding of the workpiece does not leak when the workpiece included in the tracking data is located in the workpiece detection area, or the movement distance of the holding unit of the robot is shortened. In accordance with the workpiece transfer position and the position of the holding unit of the robot, the order of the workpiece data is rearranged in the holding order of the workpiece held by the holding unit of the robot, and the workpiece holding work order is determined.
Controlling the robot work according to the determined work holding work order;
A workpiece handling method is provided.
好ましくは、前記ワークの保持作業順番の決定は、前記抽出したワークについて、その位置について基準点からの前記トラッキングデータに含まれている各ワークデータの写像ベクトルのスカラー量を演算し、そのスカラ量に応じて前記ワークの保持作業順番を決定する。Preferably, the work holding work order is determined by calculating a scalar quantity of a mapping vector of each work data included in the tracking data from a reference point for the position of the extracted work, and the scalar quantity. The work holding work order is determined according to the above.
本発明によれば、搬送されるワークに効率よく作業を行うことができる。 According to the present invention, work can be efficiently performed on a workpiece to be conveyed.
以下、この発明の実施の一形態を説明する。
第1の実施形態
図1は、本発明の第1の実施形態によるハンドリング装置の概略構成を示す説明図である。図示したハンドリング装置1は、ベルトコンベア2、視覚センサ3、ロボット4、ロボットコントローラ5、および、コンベアエンコーダ6によって構成されている。
An embodiment of the present invention will be described below.
First Embodiment FIG. 1 is an explanatory diagram showing a schematic configuration of a handling device according to a first embodiment of the present invention. The illustrated
ベルトコンベア2は、例えば仕掛り物品などのワーク10を図中矢印で示したコンベアベクトルAの方向に搬送する搬送手段である。
視覚センサ3は、ベルトコンベア2の搬送上流側の位置において、当該ベルトコンベア2のベルト搬送面2aに搭載された複数のワーク10を撮像するように配設されている。また、視覚センサ3は、出力データであるワークデータ、および、撮像タイミングを示すトリガ信号を、後述するロボットコントローラ5へ出力するように、例えばイーサネット(登録商標)などのLANを介して接続されている。
The
The
ロボット4は、ベルトコンベア2によって搬送されているワーク10を、例えば1個ずつ掴む保持部4a、および、保持部4aを所定の範囲内で移動可能に支持するアーム部4bを備えている。
The
ロボットコントローラ5は、ロボット4の動作を制御するように接続された制御手段である。また、ロボットコントローラ5は、後述するコンベアエンコーダ6の出力信号、および、視覚センサ3から送信されたワークデータならびにトリガ信号を前述の通信線等を介して入力するように接続されている。
The
コンベアエンコーダ6は、ベルトコンベア2の搬送距離を検出する、即ちベルト搬送面2aに載置されているワーク10の移動量を検出する移動量検出手段である。
The
なお、図1にはロボット4を1台、および、当該ロボット4を制御するロボットコントローラ5を1台備えた構成を例示しているが、複数のロボット4およびロボットコントローラ5を有するように構成してもよい。詳しくは、視覚センサ3から通信線へ送信されたワークデータ及びトリガ信号を受信する、例えばルータを備える。このルータに複数のロボットコントローラ5を接続する。このように構成して、各ロボットコントローラ5が、自らの処理動作に用いるワークデータならびにトリガ信号を、上記のルータから入力して各々ロボット4を制御することも可能である。
Although FIG. 1 illustrates a configuration including one
図2は、図1のハンドリング装置1を成す視覚センサ、ロボット、および、ロボットコントローラの構成を示すブロック図である。
視覚センサ3は、カメラ11および画像処理部12を備えている。カメラ11は、例えばCCDカメラ等からなる。
カメラ11は、ワーク10が載置されているベルト搬送面2aを撮像するように配設され、例えば図1に示したトラッキング範囲Sが1回の撮像範囲となるように設けられている。
画像処理部12は、カメラ11から出力された画像データを処理してワークデータを生成するように構成されている。
また、視覚センサ3は、カメラ11の撮像タイミングを示すトリガ信号、および前述のワークデータを通信線へ送信する、図示を省略した通信部等を備えている。
FIG. 2 is a block diagram showing a configuration of a visual sensor, a robot, and a robot controller constituting the
The
The
The
The
ロボットコントローラ5は、入力部13、表示部14、演算部15、記憶部16、および、駆動制御部17を備えている。
入力部13は、ユーザに設定操作等を行わせるように構成され、当該設定内容を演算部15へ入力するように接続されている。
表示部14は、前述の操作/設定内容、またロボット4の動作状況等を表示するように、演算部15へ接続されている。
The
The
The
演算部15は、データ管理部15a、トラッキングマネージャ15b、および、ワークマネージャ15cを備えている。
データ管理部15aは、記憶部16に各データを記憶させる動作処理や、記憶部16からデータを読み出す動作を行うように構成されている。
トラッキングマネージャ15bは、各トラッキングデータD1が示す位置、換言するとトラッキング範囲Sを監視するように構成されている。
ワークマネージャ15cは、トラッキング範囲Sに存在する複数のワーク10の中からロボット4に作業を行わせるワーク10を選択するように構成されている。
The
The
The
The
記憶部16は、演算部15の制御によってトラッキングデータD1を記憶し、複数のトラッキングデータD1を記憶することによってデータベースが構築されている。
トラッキングデータD1は、視覚センサ3が1回の撮像で得た画像データから抽出したワーク10の個数、コンベアエンコーダ6の出力信号が示す移動量、及び、上記の1回の撮像で得た画像データから抽出した各ワーク10のワークデータによって構成されている。
駆動制御部17は、後述するロボット4の各部を駆動させる制御信号を生成し、当該ロボット4を稼働させるように接続構成されている。
ロボット4は、保持部4aを駆動する保持用モータ18、保持部4aを支えているアーム部4bを駆動するアーム用モータ19を備えている。
The
The tracking data D1 includes the number of the
The drive control unit 17 is configured to generate a control signal for driving each unit of the
The
図3は、図1のハンドリング装置1の動作を示すフローチャートである。
ステップS1では、視覚センサ3のカメラ11が、前述のようにベルトコンベア2の搬送上流側において、ベルト搬送面2aに載置されているワーク10を撮像する。
FIG. 3 is a flowchart showing the operation of the
In step S1, the
ステップS2では、視覚センサ3の画像処理部12がカメラ11によって撮像された画像から各ワーク10の部分を抽出して、当該各ワーク10のワークデータを生成する。
ステップS3では、前述の図示を省略した視覚センサ3の通信部が、カメラ11の撮像タイミングを示すトリガ信号に対応させて上記のワークデータを送信する。
In step S <b> 2, the
In step S <b> 3, the communication unit of the visual sensor 3 (not shown) transmits the work data corresponding to the trigger signal indicating the imaging timing of the
ステップS4では、ロボットコントローラ5が、詳しくは図示を省略したロボットコントローラ5の受信部が、ステップS3の工程において送信されたワークデータを受信し、データ管理部15aが上記のワークデータを記憶部16に記憶させる。
このとき、一つのトリガ信号に対応させて送られてきた各ワークデータを、一つのトラッキングデータD1としてまとめて記憶し、データベースが構築されるように格納する。
In step S4, the
At this time, each piece of work data sent corresponding to one trigger signal is stored together as one tracking data D1, and stored so that a database is constructed.
ステップS5では、ロボットコントローラ5のトラッキングマネージャ15cが、コンベアエンコーダ6の出力信号を監視する。
また、データ管理部15aは、トラッキングマネージャ15bの監視結果に応じて、図1に示したワーク検出エリアを移動しているワーク10を含んでいるトラッキングデータD1を記憶部16から読み出す。
ワークマネージャ15cは、データ管理部15aが記憶部16から読み出した前述のトラッキングデータD1を成す各ワークデータを用いて演算を行い、この演算結果に応じてロボット4がハンドリング作業を行う順番を並べ替える。
In step S5, the
Further, the
The
ステップS6では、ロボットコントローラ5の駆動制御部17が、ステップS5において並べ替えた順番に応じて各ワーク10を保持するように、ロボット4の動作を制御する。
ハンドリング装置1は、概ねこのように動作する。
In step S6, the drive controller 17 of the
The
次に各部の詳細動作を説明する。
視覚センサ3は、ベルトコンベア2の搬送上流側において、ベルト搬送面2aの上流端、もしくはその近傍の撮像原点20aから一定の撮像範囲の画像、例えばトラッキング範囲Sの画像を撮像する。
詳しくは、図2のカメラ11が、自らの撮像タイミングでベルト搬送面2aのトラッキング範囲Sを撮像する(ステップS1)。
Next, the detailed operation of each part will be described.
The
Specifically, the
画像処理部12は、トラッキング範囲Sの画像に含まれているワーク10の形状を抽出し、この形状を画像処理部12が自ら記憶している品種毎の形状データ等と比較して、当該ワーク10の品種を特定する。
また、画像処理部12は、トラッキング範囲Sの画像の中からワーク10の任意の部分の座標値を検出し、当該ワーク10のワークデータを生成する(ステップS2)。
この座標値は、カメラ11もしくは視覚センサ3が自ら行う各処理において使用される座標系において表現された値である。
なお、視覚センサ3は、ワークデータにワークの姿勢を示す座標値を含めて生成してもよい。
視覚センサ3は、前述のように、生成したワークデータを順次ロボットコントローラ5へ送信する(ステップS3)。
The
Further, the
This coordinate value is a value expressed in a coordinate system used in each process performed by the
The
As described above, the
図4は、図1のハンドリング装置1の動作を示す説明図である。この図は、前述のステップS4の工程において、ロボットコントローラ5のデータ管理部15aが、視覚センサ3から送られた各ワークデータ10を記憶部16に格納する動作を表している。
FIG. 4 is an explanatory diagram showing the operation of the
データ管理部15aは、前述の通信部等が視覚センサ3からトリガ信号毎に送信された複数のワークデータ10を受信すると、これらのワークデータ10を一つにまとめてトラッキングデータD1を生成する。
また、データ管理部15aは、コンベアエンコーダ6から入力したベルトコンベア2の移動量を示すデータを加味して、上記のトラッキングデータD1を生成し、これを記憶部16へ格納してデータベースを構築する。
When the communication unit or the like receives a plurality of
Further, the
図4には、視覚センサ3が[i−1]番目に撮像した画像から生成されたトラッキングデータD1をトラッキングデータTrk[i−1]、[i]番目に撮像した画像から生成されたトラッキングデータD1をトラッキングデータTrk[i]、[i+1]番目に撮像した画像から生成されたトラッキングデータD1をトラッキングデータTrk[i+1]として示している。
In FIG. 4, the tracking data D1 generated from the [i-1] th image captured by the
図4に示したトラッキングデータTrk[i]は、視覚センサ3が[i]番目に撮像したトラッキング範囲Sから、例えば10個のワーク10を検出したときのものを表しており、ワークデータWrk[0]〜Wrk[9]によって構成されている。
The tracking data Trk [i] shown in FIG. 4 represents data when, for example, ten
データ管理部15aは、例えば、上記のトラッキングデータTrk[i]を生成するとき、視覚センサ3から[i]番目に送られたトリガ信号が受信されると、このトリガ信号に対応させたトラッキングデータTrk[i]を格納する領域を記憶部16に確保する。
また、データ管理部15aは、ここでコンベアエンコーダ6から入力した信号、即ちベルトコンベア2の移動量を示すデータを、前述のトラッキングデータTrk[i]の構成要素として記憶部16に格納する。
またさらに、データ管理部15aは、順次視覚センサ3から送られてくるワークデータWrk[0]〜[9]を、前述の記憶部16に確保したトラッキングデータTrk[i]の領域に記憶/格納する。
For example, when generating the tracking data Trk [i], the
Further, the
Furthermore, the
なお、図4では分かり易くするため、[i]番目のトラッキング範囲Sに二つのワーク10を図示し、当該[i]番目のトラッキング範囲に載置されている全てのワーク10の図示を省略している。
また、視覚センサ3が撮像した順番を示す上記の[i−1]、[i]、[i+1]等は、トラッキング番号として各トラッキングデータD1に付記されるものである。
For the sake of clarity, FIG. 4 shows two
Further, the above [i−1], [i], [i + 1] and the like indicating the order of imaging by the
視覚センサ3が順次ロボットコントローラ5へ送信しているワークデータは、例えば図4に示したワークデータWrk[0]〜[9]のように構成されている。
ワークデータWrk[0]〜[9]は、視覚センサ3が自らの動作処理において使用している座標系のX座標データ、Y座標データ、及びX−Y平面上における回転を表すC座標データを有する。
また、ワークデータWrk[0]〜[9]は、複数の付加データ、例えば付加データ(1)〜(3)を加えて構成されている。付加データ(1)〜(3)は、様々な動作処理に関連する条件等を表し、例えば、前述のように視覚センサ3が判別した品種などを示すデータである。この付加データ(1)〜(3)は、ユーザの所望により視覚センサ3に設定される。
The work data that the
The work data Wrk [0] to [9] are X coordinate data, Y coordinate data of the coordinate system used by the
The work data Wrk [0] to [9] is configured by adding a plurality of additional data, for example, additional data (1) to (3). The additional data (1) to (3) represent conditions and the like related to various operation processes, and are data indicating, for example, the types determined by the
ベルトコンベア2の搬送上流側において視覚センサ3に撮像された各ワーク10は、所定の時間を要してロボット4の配設されている位置へ搬送される。
ロボットコントローラ5は、記憶部16に蓄積されているデータベースを用いてロボット4の動作を制御し、当該ロボット4の位置に搬送されたワーク10にハンドリング作業を行う。
ロボット4のハンドリング作業は、図1に示したワーク検出エリア開始点20bとワーク検出エリア終了点20cとの間に設けられたワーク検出エリアにおいて行われる。
Each
The
The handling operation of the
ロボットコントローラ5のトラッキングマネージャ15bは、各トラッキングデータD1に含まれている移動量を示すデータを監視し、搬送中の各ワーク10の位置を検知する。
具体的には、トラッキングマネージャ15bは、データベースに格納されている各トラッキングデータD1の移動量を示すデータを抽出する。
またさらにトラッキングマネージャ15bは、上記の抽出した移動量を示すデータを用いて、ワーク検出エリア内を移動中のトラッキング範囲Sが、どのトラッキングデータD1に対応しているかを認識する。
トラッキングマネージャ15bは、上記の認識したトラッキングデータD1を、データ管理部15aを用いて記憶部16から読み出す。
The
Specifically, the
Furthermore, the
The
ワークマネージャ15cは、前述の記憶部16から読み出したトラッキングデータD1、即ち、トラッキングマネージャ15bが認識したトラッキングデータD1を入力する。
ワークマネージャ15cは、入力したトラッキングデータD1に含まれている複数のワークデータの中から処理を行うものを選択する。
換言すると、ワーク検出エリアに到達している複数のワーク10の中からロボット4に保持させるものを選択する。
The
The
In other words, one to be held by the
図5は、図1のハンドリング装置1の動作を示す説明図である。
この図は、データベースに格納されている各ワークデータの順番とベルト搬送面2aに載置されている各ワーク10を対応させた状態B、および、ロボット4に保持させる順番とベルト搬送面2aに載置されている各ワーク10とを対応させた状態Cを表している。
なお、上記の状態Bは、視覚センサ3から送信されたワークデータを順次データベースに格納した順番の一例であり、図示した順番に限定されない。
FIG. 5 is an explanatory diagram showing the operation of the
This figure shows a state B in which the order of the workpiece data stored in the database is associated with each workpiece 10 placed on the
In addition, said state B is an example of the order which stored the work data transmitted from the
ワークマネージャ15cは、図3のステップS5の工程において、ロボット4に各ワーク10を保持させる順番を状態Cのように並べ替える。
具体的には、1つのトラッキング範囲Sにおいて、搬送下流側のワーク10から順番にロボット4が保持するように、各ワーク10に対応するワークデータの並べ替えを行う。
The
Specifically, in one tracking range S, work data corresponding to each
図6は、図1のハンドリング装置1のロボットコントローラが行う演算処理を示す説明図である。
図示したOは、任意の基準点である。また、ベクトルCνは、例えばユーザ等によって定められた単位ベクトルであり、ベルトコンベア2の搬送動作を表すコンベアベクトルAと同一方向を示す。
基準点Oは、例えばワーク検出エリアの中を移動しているトラッキング範囲Sよりも搬送上流側に設定される。図6に例示した基準点Oは、ベルト搬送面2aの幅方向の中央部分に設けられている。
FIG. 6 is an explanatory diagram showing a calculation process performed by the robot controller of the
O shown in the figure is an arbitrary reference point. Further, the vector Cν is a unit vector determined by, for example, a user and indicates the same direction as the conveyor vector A representing the transport operation of the
The reference point O is set upstream of the tracking range S that is moving in the workpiece detection area, for example. The reference point O illustrated in FIG. 6 is provided at the center portion in the width direction of the
例えば、ベルト搬送面2aの面上において、ワーク10の位置Pの座標を(Px,Py)、基準点Oの座標を(Ox,Oy)としたとき、基準点Oからワーク10までのベクトルPnは(Px−Ox,Py−Oy)となる。
ベクトルPnとベクトルCνの成す角度をθとしたとき、ワーク10の写像ベクトルPnCは次の(1)式のように表される。
For example, when the coordinate of the position P of the
When the angle formed by the vector Pn and the vector Cν is θ, the mapping vector Pn C of the
ここで、ベクトルPnとベクトルCνの内積は(2)式のように表される。 Here, the inner product of the vector Pn and the vector Cν is expressed as shown in Equation (2).
ベクトルCνは、前述のように単位ベクトルなのでスカラ量は“1”である。そのため、前述の内積は、次の(3)式のようになる。 Since the vector Cν is a unit vector as described above, the scalar quantity is “1”. Therefore, the inner product described above is expressed by the following equation (3).
前述の(1)式と(3)式から、写像ベクトルPnCのスカラ量は、次の(4)式のように表される。 From the above equations (1) and (3), the scalar quantity of the mapping vector Pn C is expressed as the following equation (4).
このように、ワーク10の写像ベクトルPnCのスカラ量を、ベクトルPとベクトルCνとの内積によって求めることができる。
演算部15の例えばワークマネージャ15cは、このようにして一つのトラッキングデータD1に含まれている全てのワークデータに対して写像ベクトルPnCのスカラ量を求める。
Thus, the scalar quantity of the mapping vector Pn C of the
For example, the
各ワーク10の位置を、写像ベクトルPnCのスカラ量によって表すことにより、視覚センサ3から送られたワークデータの座標系がベルトコンベア2の搬送方向に整合していない場合でも、ロボット4の動作制御に用いることができる。
また、視覚センサ3が撮像した画像の座標原点がどのように配置されていても、ロボット4の動作制御に用いることが可能になる。
By representing the position of each workpiece 10 by the scalar quantity of the mapping vector Pn C , the operation of the
Further, no matter how the coordinate origin of the image captured by the
例えば、一つのトラッキングデータD1に含まれているワークデータの数量を10個としたとき、前述のようにして求めた各ワークデータの写像ベクトルPnCのスカラ量を、次のデータ列(5)のように並べる。 For example, when the number of work data included in one tracking data D1 is 10, the scalar quantity of the mapping vector Pn C of each work data obtained as described above is represented by the following data string (5). Line up like
前述のように原点Oを搬送上流側に設定したときには、写像ベクトルPnCのスカラ量は、搬送下流側に位置するワーク10が大きな値になる。
演算部15は、例えば選択ソート法を用いて各スカラ量の並べ替えを行う。演算部15の例えばワークマネージャ15cは、データ列(5)の中の各スカラ量を比較し、値の大きな順に並べ替える。
ワークマネージャ15cは、データ列(5)の中に並べられている各スカラ量に対応させて、順にワークデータを選択する。
ワークマネージャ15cは、このように、大きな写像ベクトルPnCのスカラ量を有するワークデータから順に、ロボット4の動作制御に用いるワークデータとして選択する。
When the origin O as described above was set in conveying upstream, scalar quantity of the mapping vector Pn C a
The
The
図3のステップS6の工程において、駆動制御部17は、ワークマネージャ15cが順次選択したワークデータを用いてロボット4の動作を制御し、例えば図5の状態Cに示したように搬送下流に位置するワーク10から順番にハンドリング作業を行わせる。
In the process of step S6 in FIG. 3, the drive control unit 17 controls the operation of the
ワークマネージャ15cが、写像ベクトルPnCのスカラ量に応じてデータ列(5)の中を並べ替え、並べ替えたデータ列(5)に対応させて各ワークデータを処理する順番を変更することにより、ロボット4が各ワーク10を保持する順番を変更することができる。
The
以上の第1の実施形態のハンドリング装置1によれば、演算部15が、ロボット4の動作制御に用いるワークデータの順番を並べ替えるようにしたので、ベルトコンベア2に搬送され、ワーク検出エリアを移動中のワーク10に効率よく作業を行うことができる。
また、作業を行う順番を並べ替えて搬送下流側に位置するワーク10から作業を行うようにしたので、搬送中のワーク10に作業をし損ねることを抑制することができる。
また、ロボット4の無駄な動作を抑えることができる。
According to the
In addition, since the work order is rearranged and the work is performed from the
Further, useless operations of the
第2の実施形態
本発明の第2の実施形態によるハンドリング装置は、前述の第1の実施形態で説明したハンドリング装置と同様に構成されている。第1の実施形態で説明した装置と同様な構成について重複説明を省略する。
また、第2の実施形態によるハンドリング装置は、第1の実施形態で説明した装置と概ね同様に動作する。ここでは、第1の実施形態で説明した装置と同様な動作について重複説明を省略し、第2の実施形態によるハンドリング装置の特徴となる動作を説明する。
Second Embodiment A handling apparatus according to a second embodiment of the present invention is configured in the same manner as the handling apparatus described in the first embodiment. A duplicate description of the same configuration as that of the apparatus described in the first embodiment is omitted.
The handling device according to the second embodiment operates in substantially the same manner as the device described in the first embodiment. Here, redundant description of operations similar to those of the apparatus described in the first embodiment will be omitted, and operations that characterize the handling apparatus according to the second embodiment will be described.
図7は、本発明の第2の実施形態によるハンドリング装置の動作を示す説明図である。
この図は、データベースに格納されている各ワークデータの順番とベルト搬送面2aに載置されている各ワーク10を対応させた状態B、および、ロボット4に保持させる順番とベルト搬送面2aに載置されている各ワーク10とを対応させた状態Dを表している。
なお、上記の状態Bは、図5に示した状態Bと同様に、視覚センサ3から送信されたワークデータを順次データベースに格納した順番の一例であり、図示した順番に限定されない。
FIG. 7 is an explanatory diagram showing the operation of the handling device according to the second embodiment of the present invention.
This figure shows a state B in which the order of the workpiece data stored in the database is associated with each workpiece 10 placed on the
In addition, said state B is an example of the order which stored the work data transmitted from the
第2の実施形態によるハンドリング装置1のワークマネージャ15cは、第1の実施形態で説明した図3のステップS5の工程において、ロボット4に各ワーク10を保持させる順番を状態Dのように並べ替える。
具体的には、1つのトラッキング範囲Sにおいて、搬送下流側のワーク10から順番にロボット4が保持するように、各ワーク10に対応するワークデータの並べ替えを行う。
例えば、最も搬送下流側に載置されているワーク10を、前述の第1の実施形態で説明した演算によって求める。
次に、このワーク10から最も近い位置に載置されているワーク10を、例えば各ワークデータの座標値を比較して検知する。このようにして、近傍に載置されているワーク10を順に検知し、検知した順番に応じてワークデータを並べ替える。
The
Specifically, in one tracking range S, work data corresponding to each
For example, the
Next, the
上記のように、ワークマネージャ15cがワークデータを並べ替えて、順に駆動制御部17へ出力することにより、ロボット4は、図7の状態Dに示した順番で、各ワーク10に作業を行う。
As described above, the
以上の第2の実施形態のハンドリング装置1によれば、ロボットコントローラ5の演算部15が、ロボット4の動作制御に用いるワークデータの順番を並べ替えるようにしたので、ベルトコンベア2によって搬送されてワーク検出エリアを移動中のワーク10に効率よく作業を行うことができる。
また、作業を行う順番を並べ替えて搬送下流側に位置するワーク10から作業を開始し、順次近傍のワーク10に作業を行うようにしたので、搬送中のワーク10に作業をし損ねることを抑制することができる。
また、ロボット4の無駄な動作を抑えることができる。
According to the
In addition, the work order is rearranged, the work is started from the
Further, useless operations of the
1 ハンドリング装置、2 ベルトコンベア、3 視覚センサ、4 ロボット、4a 保持部、4b アーム部、5 ロボットコントローラ、10 ワーク、11 カメラ、12 画像処理部、13 入力部、14 表示部、15 演算部、15a データ管理部、15b トラッキングマネージャ、15c ワークマネージャ、16 記憶部、17 駆動制御部、18 保持用モータ、19 アーム用モータ。
DESCRIPTION OF
Claims (5)
前記搬送されるワークの移動量を検出するエンコーダと、
前記搬送手段によって搬送されているトラッキング範囲内のワークを撮像する、視覚センサと、
前記撮像データからトラッキング範囲内のワークを抽出し、当該抽出したワークの位置、および、前記エンタコーダが検出したワークの移動量を含むワークデータを生成し、ワークを抽出した順にワークデータ順番を付し、トラッキング範囲内の前記抽出したワークの個数、ワークの移動量、および、前記ワークデータを含むトラッキングデータを生成する、画像処理部と、
前記視覚センサの搬送方向の前方に配置され、固定部と、ワークを保持する保持部と、前記固定部に装着され前記保持部を移動させるアーム部を有する、単一のロボットと、
制御手段と、
を有し、
前記制御手段は、
前記トラッキングデータに含まれるワークがワーク検出領域に位置する場合においてワークの保持が漏れなくなるように、または、前記ロボットの保持部の移動距離が短くなるように、前記トラッキングデータに含まれる前記トラッキング範囲内のワークの搬送位置および前記ロボットの保持部の位置に応じて、前記ワークデータの順番を前記ロボットの保持部で保持するワークの保持順番を並べ替えて、ワークの保持作業順番を決定し、
前記決定したワークの保持作業順番に応じて前記ロボットの作業を制御する、
ハンドリング装置。 Conveying means for conveying the workpiece;
An encoder for detecting the amount of movement of the conveyed workpiece;
Imaging the workpiece within the tracking range being conveyed by pre-Symbol conveying means, and visual sensor,
A work within the tracking range is extracted from the imaging data, work data including the position of the extracted work and the movement amount of the work detected by the encoder is generated, and the work data order is assigned in the order in which the work is extracted. An image processing unit that generates tracking data including the number of the extracted workpieces within the tracking range, the amount of movement of the workpiece, and the workpiece data;
A single robot that is disposed in front of the conveyance direction of the visual sensor and includes a fixing unit, a holding unit that holds a workpiece, and an arm unit that is attached to the fixing unit and moves the holding unit;
And control means,
Have
The control means includes
The tracking range included in the tracking data so that the holding of the workpiece does not leak when the workpiece included in the tracking data is located in the workpiece detection area, or the movement distance of the holding unit of the robot is shortened. In accordance with the workpiece transfer position and the position of the holding unit of the robot, the order of the workpiece data is rearranged in the holding order of the workpiece held by the holding unit of the robot, and the workpiece holding work order is determined.
Controlling the robot work according to the determined work holding work order;
Handling device.
請求項1に記載のハンドリング装置。 The control means, as the determination of the work holding work order, the work on the most downstream side of the conveyance, the work closest to the work, the order of the work closest to the work, the order of the work holding work To decide,
The handling device according to claim 1.
前記抽出したワークについて、その位置について基準点からの前記トラッキングデータに含まれている各ワークデータの写像ベクトルのスカラー量を演算し、そのスカラ量に応じて前記ワークの保持作業順番を決定する、
請求項1に記載のハンドリング装置。 The control means, as the determination of the work holding work order,
For the extracted work, calculate the scalar quantity of the mapping vector of each work data included in the tracking data from the reference point for the position, and determine the work holding order of the work according to the scalar quantity.
The handling device according to claim 1 .
前記撮像データからトラッキング範囲内のワークを抽出し、
当該抽出したワークの位置、および、前記エンタコーダが検出したワークの移動量を含むワークデータを生成し、
ワークを抽出した順にワークデータ順番を付し、
トラッキング範囲内の前記抽出したワークの個数、ワークの移動量、および、前記ワークデータを含むトラッキングデータを生成し、
前記トラッキングデータに含まれるワークがワーク検出領域に位置する場合においてワークの保持が漏れなくなるように、または、前記ロボットの保持部の移動距離が短くなるように、前記トラッキングデータに含まれる前記トラッキング範囲内のワークの搬送位置および前記ロボットの保持部の位置に応じて、前記ワークデータの順番を前記ロボットの保持部で保持するワークの保持順番を並べ替えて、ワークの保持作業順番を決定し、
前記決定したワークの保持作業順番に応じて前記ロボットの作業を制御する、
ワークハンドリング方法。 Conveying means for conveying a work; an encoder for detecting a movement amount of the conveyed work; a visual sensor for imaging a work within a tracking range being conveyed by the conveying means; and a conveying direction of the visual sensor. A workpiece handling method for a handling device having a fixed part, a holding part for holding a workpiece, and a single robot having an arm part mounted on the fixing part and moving the holding part. ,
Extract a work within the tracking range from the imaging data,
Generating workpiece data including the position of the extracted workpiece and the amount of movement of the workpiece detected by the encoder;
The work data order is assigned in the order in which the work is extracted ,
Generating tracking data including the number of the extracted workpieces within the tracking range, the amount of movement of the workpiece, and the workpiece data;
The tracking range included in the tracking data so that the holding of the workpiece does not leak when the workpiece included in the tracking data is located in the workpiece detection area, or the movement distance of the holding unit of the robot is shortened. In accordance with the workpiece transfer position and the position of the holding unit of the robot, the order of the workpiece data is rearranged in the holding order of the workpiece held by the holding unit of the robot, and the workpiece holding work order is determined.
Controlling the robot work according to the determined work holding work order;
Work handling method.
請求項4に記載のワークハンドリング方法。The work handling method according to claim 4.
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008158038A JP5198161B2 (en) | 2008-06-17 | 2008-06-17 | Handling apparatus and work handling method |
US12/995,960 US8805585B2 (en) | 2008-06-05 | 2009-06-03 | Handling apparatus, control device, control method, and program |
GB1019223.5A GB2471819B (en) | 2008-06-05 | 2009-06-03 | Handling system,control device,control method,and program |
GB1213595.0A GB2492257B (en) | 2008-06-05 | 2009-06-03 | Handling system, control device, control method, and program |
DE112009001414T DE112009001414T5 (en) | 2008-06-05 | 2009-06-03 | Processing system, control device, control method and program |
PCT/JP2009/060172 WO2009148089A1 (en) | 2008-06-05 | 2009-06-03 | Handling apparatus, control device, control method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008158038A JP5198161B2 (en) | 2008-06-17 | 2008-06-17 | Handling apparatus and work handling method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009297881A JP2009297881A (en) | 2009-12-24 |
JP5198161B2 true JP5198161B2 (en) | 2013-05-15 |
Family
ID=41545307
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008158038A Active JP5198161B2 (en) | 2008-06-05 | 2008-06-17 | Handling apparatus and work handling method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5198161B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5353718B2 (en) * | 2010-01-06 | 2013-11-27 | セイコーエプソン株式会社 | Control device, robot, robot system, and robot tracking control method |
JP5316563B2 (en) | 2011-02-15 | 2013-10-16 | オムロン株式会社 | Image processing apparatus and image processing system |
JP6387760B2 (en) * | 2014-09-18 | 2018-09-12 | 株式会社安川電機 | Robot system, robot apparatus and work picking method |
JP6490132B2 (en) * | 2017-03-31 | 2019-03-27 | ファナック株式会社 | Robot control device, machine learning device, and machine learning method |
JP6763914B2 (en) | 2018-06-08 | 2020-09-30 | ファナック株式会社 | Robot system and robot system control method |
JP7022036B2 (en) | 2018-08-31 | 2022-02-17 | ファナック株式会社 | Goods removal system |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0748018A (en) * | 1993-08-03 | 1995-02-21 | Omori Mach Co Ltd | Article detector for article transfer device |
JPH0957670A (en) * | 1995-08-23 | 1997-03-04 | Fujitsu Ltd | Robot orbit control device and durability testing device |
JP3629133B2 (en) * | 1997-01-31 | 2005-03-16 | 本田技研工業株式会社 | Control device for legged mobile robot |
JP2005111607A (en) * | 2003-10-07 | 2005-04-28 | Fanuc Ltd | Material flow tracking device using robot |
JP4864363B2 (en) * | 2005-07-07 | 2012-02-01 | 東芝機械株式会社 | Handling device, working device, and program |
JP2009028818A (en) * | 2007-07-25 | 2009-02-12 | Panasonic Electric Works Co Ltd | Robot system |
-
2008
- 2008-06-17 JP JP2008158038A patent/JP5198161B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2009297881A (en) | 2009-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2009148089A1 (en) | Handling apparatus, control device, control method, and program | |
JP5198155B2 (en) | HANDLING DEVICE, WORK HANDLING METHOD, AND SIGNAL PROCESSING DEVICE | |
JP5887383B2 (en) | Article alignment apparatus for aligning articles on a conveyor | |
US8014899B2 (en) | Article conveying robot system | |
JP4864363B2 (en) | Handling device, working device, and program | |
JP5198161B2 (en) | Handling apparatus and work handling method | |
JP4174342B2 (en) | Work transfer device | |
JP6496333B2 (en) | Article conveying apparatus using at least one sensor | |
US20070179671A1 (en) | Tracking and handling device | |
JP2016107349A (en) | Article transfer device for transferring article by using robot and article transfer method | |
CN109384039B (en) | Article carrying device | |
JP2006035397A (en) | Conveyance robot system | |
JP2008087074A (en) | Workpiece picking apparatus | |
JP2016147330A (en) | Control apparatus based on object recognition | |
JP2005262369A (en) | Robot system | |
JP2013132726A (en) | Method for controlling robot, and robot | |
JP2000219317A (en) | Cargo handling/sorting device | |
CN111085993A (en) | Robot system for performing cooperative work with human and robot control method | |
JP2011140084A (en) | Controller, robot, robot system, and following method of robot | |
JP6688912B1 (en) | Pallet transfer system, pallet transfer method, and pallet transfer program | |
WO2021065880A1 (en) | Robot control system, robot control method, and program | |
JP2007033328A (en) | Image processing method and picking operation correcting method using the same | |
JP2021045835A (en) | Robot system | |
JP5353718B2 (en) | Control device, robot, robot system, and robot tracking control method | |
US11660757B2 (en) | Robot control system simultaneously performing workpiece selection and robot task |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110617 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121002 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121203 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130115 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130206 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160215 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5198161 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |