JP2021030391A - Attitude control device, work-piece processor, and work-piece attitude control method - Google Patents
Attitude control device, work-piece processor, and work-piece attitude control method Download PDFInfo
- Publication number
- JP2021030391A JP2021030391A JP2019155398A JP2019155398A JP2021030391A JP 2021030391 A JP2021030391 A JP 2021030391A JP 2019155398 A JP2019155398 A JP 2019155398A JP 2019155398 A JP2019155398 A JP 2019155398A JP 2021030391 A JP2021030391 A JP 2021030391A
- Authority
- JP
- Japan
- Prior art keywords
- work
- posture
- image
- focusing
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は、姿勢制御装置、ワーク処理装置、および、ワークの姿勢制御方法に関する。 The present invention relates to an attitude control device, a work processing device, and a work posture control method.
ロボットアームの先端部に取り付けられたエンドエフェクタによってワークを保持し、撮像装置によって撮像を行い、得られた画像を画像処理することでワークの画像検査を行う検査方法が知られている。このような検査方法では、撮像装置に対してワークが正対しない状態で撮像が行われると、ピントずれが生じてしまい、適切に検査が行えない場合がある。 An inspection method is known in which a work is held by an end effector attached to the tip of a robot arm, an image is taken by an imaging device, and the obtained image is image-processed to perform an image inspection of the work. In such an inspection method, if the image is taken in a state where the workpiece does not face the imaging device, the focus may be out of focus and the inspection may not be performed properly.
ここで、ロボットの姿勢を制御する方法として、エンドエフェクタとしてのロボットハンドに把持させた計測用ワークの外周面を基準治具に突き当てた状態で、ロボットアームの先端部を先端軸周りに回転させ、偏心に基づく補正量を算出してロボットハンドを調芯する技術(特許文献1参照)や、ロボットアームを動作させながら、ロボットハンドの中心位置を示すマークを撮像し、マークの移動軌跡に基づいてロボットハンドの中心軸の位置ずれを算出して、ロボットアームの軌道データを補正する技術(特許文献2参照)が提案されている。 Here, as a method of controlling the posture of the robot, the tip of the robot arm is rotated around the tip axis with the outer peripheral surface of the measuring work gripped by the robot hand as the end effector abutting against the reference jig. The robot hand is centered by calculating the correction amount based on the eccentricity (see Patent Document 1), and while operating the robot arm, a mark indicating the center position of the robot hand is imaged and used as the movement trajectory of the mark. Based on this, a technique (see Patent Document 2) has been proposed in which the positional deviation of the central axis of the robot hand is calculated to correct the trajectory data of the robot arm.
上記の技術は、エンドエフェクタの姿勢を定量化し、補正値とすることでロボットの挙動を修正するものであるが、例えば、エンドエフェクタに対するワークの保持状態にずれが生じている場合においては、エンドエフェクタの姿勢を評価しても、必ずしもワークの位置を適切に制御することにはつながらない。 The above technique corrects the behavior of the robot by quantifying the posture of the end effector and using it as a correction value. For example, when the holding state of the work with respect to the end effector is deviated, the end is used. Evaluating the posture of the effector does not necessarily lead to proper control of the position of the work.
本明細書によって開示される姿勢制御装置は、複数の関節を有するロボットアームと、前記ロボットアームの先端部に取り付けられてワークを保持するエンドエフェクタとを備える多関節ロボットと、前記エンドエフェクタに保持された前記ワークを撮像する撮像装置と、前記多関節ロボットと前記撮像装置とを制御する制御部と、を備え、前記制御部が、前記撮像装置によって撮像された制御用撮像画像から、前記ワークの撮像視野内に設定された複数の判定位置の全てで深度情報を取得する画像処理部と、前記画像処理部によって取得された全ての前記深度情報に基づいて前記多関節ロボットを動作させることにより、前記複数の判定位置の全てで合焦する合焦姿勢を決定し、前記ワークの姿勢を変化させて動作開始姿勢から前記合焦姿勢に至るまでの変位量を取得する演算処理部と、前記演算処理部によって取得された前記変位量に基づいて前記ワークが前記合焦姿勢をとる合焦位置まで前記エンドエフェクタを変位させる動作制御部と、を備える。 The posture control device disclosed by the present specification includes an articulated robot including a robot arm having a plurality of joints, an end effector attached to the tip of the robot arm to hold a work, and a robot arm held by the end effector. The work is provided with an image pickup device that captures the image of the work, and a control unit that controls the articulated robot and the image pickup device. The control unit uses the control image captured by the image pickup device to obtain the work. By operating the articulated robot based on the image processing unit that acquires depth information at all of the plurality of determination positions set in the imaging field of the camera and all the depth information acquired by the image processing unit. , The arithmetic processing unit that determines the focusing posture to be focused at all of the plurality of determination positions, changes the posture of the work, and acquires the displacement amount from the operation start posture to the focusing posture. It includes an operation control unit that displaces the end effector to a focusing position in which the work takes the focusing posture based on the displacement amount acquired by the arithmetic processing unit.
また、本明細書によって開示されるワークの姿勢制御方法は、複数の関節を有するロボットアームと、前記ロボットアームの先端部に取り付けられたエンドエフェクタとを備える多関節ロボットに保持されたワークの姿勢を制御する方法であって、前記ワークを前記エンドエフェクタに保持させて撮像位置に搬送する搬送工程と、撮像装置によって前記ワークを撮像する撮像工程と、前記撮像工程において撮像された制御用撮像画像から、前記ワークの撮像視野内に設定された複数の判定位置の全てで深度情報を取得する画像処理工程と、前記画像処理工程において取得された全ての前記深度情報に基づいて前記多関節ロボットを動作させることにより、前記複数の判定位置の全てで合焦する合焦姿勢を決定し、前記ワークの姿勢を変化させて動作開始姿勢から前記合焦姿勢に至るまでの変位量を取得する演算処理工程と、前記演算処理工程において取得された前記変位量に基づいて前記ワークが前記合焦姿勢をとる合焦位置まで前記エンドエフェクタを変位させる動作制御工程と、を備える。 Further, the work posture control method disclosed in the present specification is a work posture held by an articulated robot including a robot arm having a plurality of joints and an end effector attached to the tip of the robot arm. A method of controlling the work, that is, a transport step of holding the work by the end effector and transporting the work to an imaging position, an imaging step of imaging the work by an imaging device, and a control captured image captured in the imaging step. From the image processing step of acquiring depth information at all of the plurality of determination positions set in the imaging field of the work, and the articulated robot based on all the depth information acquired in the image processing step. A calculation process that determines the focusing posture to be focused at all of the plurality of determination positions by operating the work, changes the posture of the work, and acquires the amount of displacement from the operation starting posture to the focusing posture. It includes a step and an operation control step of displacementing the end effector to a focusing position where the work takes the focusing posture based on the displacement amount acquired in the arithmetic processing step.
本明細書によって開示される姿勢制御装置、およびワークの姿勢制御方法によれば、ワークの位置を適切に制御することができる。 According to the attitude control device disclosed by the present specification and the attitude control method of the work, the position of the work can be appropriately controlled.
[実施形態の概要]
本明細書によって開示される姿勢制御装置は、複数の関節を有するロボットアームと、前記ロボットアームの先端部に取り付けられてワークを保持するエンドエフェクタとを備える多関節ロボットと、前記エンドエフェクタに保持された前記ワークを撮像する撮像装置と、前記多関節ロボットと前記撮像装置とを制御する制御部と、を備え、前記制御部が、前記撮像装置によって撮像された制御用撮像画像から、前記ワークの撮像視野内に設定された複数の判定位置の全てで深度情報を取得する画像処理部と、前記画像処理部によって取得された全ての前記深度情報に基づいて前記多関節ロボットを動作させることにより、前記複数の判定位置の全てで合焦する合焦姿勢を決定し、前記ワークの姿勢を変化させて動作開始姿勢から前記合焦姿勢に至るまでの変位量を取得する演算処理部と、前記演算処理部によって取得された前記変位量に基づいて前記ワークが前記合焦姿勢をとる合焦位置まで前記エンドエフェクタを変位させる動作制御部と、を備える。
[Outline of Embodiment]
The posture control device disclosed by the present specification includes an articulated robot including a robot arm having a plurality of joints, an end effector attached to the tip of the robot arm to hold a work, and a robot arm held by the end effector. The work is provided with an image pickup device that captures the image of the work, and a control unit that controls the articulated robot and the image pickup device. The control unit uses the control image captured by the image pickup device to obtain the work. By operating the articulated robot based on the image processing unit that acquires depth information at all of the plurality of determination positions set in the imaging field of the camera and all the depth information acquired by the image processing unit. , The arithmetic processing unit that determines the focusing posture to be focused at all of the plurality of determination positions, changes the posture of the work, and acquires the displacement amount from the operation start posture to the focusing posture. It includes an operation control unit that displaces the end effector to a focusing position in which the work takes the focusing posture based on the displacement amount acquired by the arithmetic processing unit.
また、本明細書によって開示されるワークの姿勢制御方法は、複数の関節を有するロボットアームと、前記ロボットアームの先端部に取り付けられたエンドエフェクタとを備える多関節ロボットに保持されたワークの姿勢を制御する方法であって、前記ワークを前記エンドエフェクタに保持させて撮像位置に搬送する搬送工程と、撮像装置によって前記ワークを撮像する撮像工程と、前記撮像工程において撮像された制御用撮像画像から、前記ワークの撮像視野内に設定された複数の判定位置の全てで深度情報を取得する画像処理工程と、前記画像処理工程において取得された全ての前記深度情報に基づいて前記多関節ロボットを動作させることにより、前記複数の判定位置の全てで合焦する合焦姿勢を決定し、前記ワークの姿勢を変化させて動作開始姿勢から前記合焦姿勢に至るまでの変位量を取得する演算処理工程と、前記演算処理工程において取得された前記変位量に基づいて前記ワークが前記合焦姿勢をとる合焦位置まで前記エンドエフェクタを変位させる動作制御工程と、を備える。 Further, the work posture control method disclosed in the present specification is a work posture held by an articulated robot including a robot arm having a plurality of joints and an end effector attached to the tip of the robot arm. A method of controlling the work, that is, a transport step of holding the work by the end effector and transporting the work to an imaging position, an imaging step of imaging the work by an imaging device, and a control captured image captured in the imaging step. From the image processing step of acquiring depth information at all of the plurality of determination positions set in the imaging field of the work, and the articulated robot based on all the depth information acquired in the image processing step. A calculation process that determines the focusing posture to be focused at all of the plurality of determination positions by operating the work, changes the posture of the work, and acquires the amount of displacement from the operation starting posture to the focusing posture. It includes a step and an operation control step of displacementing the end effector to a focusing position where the work takes the focusing posture based on the displacement amount acquired in the arithmetic processing step.
上記の構成によれば、ワーク自体の姿勢を直接評価して、合焦姿勢を決定しているため、エンドエフェクタの姿勢を評価して補正を行おうとする従来技術に比べて、ワークの姿勢制御をより適切に行える。 According to the above configuration, since the posture of the work itself is directly evaluated to determine the focusing posture, the posture control of the work is compared with the conventional technique in which the posture of the end effector is evaluated and corrected. Can be done more appropriately.
また、本明細書によって開示されるワーク処理装置は、上記の姿勢制御装置と、前記ワークが前記合焦姿勢に保持された状態で、前記ワークに対して所定の作業を行う作業部を備える。 Further, the work processing device disclosed by the present specification includes the above-mentioned attitude control device and a working unit that performs a predetermined work on the work while the work is held in the in-focus posture.
上記のワーク処理装置において、作業部が、前記ワークが前記合焦姿勢に保持された状態で前記撮像装置によって撮像された検査用撮像画像を画像処理して前記ワークの画像検査を実行する画像検査部であっても構わない。 In the work processing device, an image inspection in which the working unit processes an image for inspection taken by the image pickup device while the work is held in the in-focus position and executes an image inspection of the work. It may be a department.
このような構成によれば、撮像装置によってワークを撮像して、得られる制御用撮像画像から合焦姿勢を決定したら、その合焦姿勢にワークを保持したまま、同じ撮像装置によって再び撮像を行って検査用撮像画像を得ることができる。これにより、視野全体のフォーカスが合った検査画像を取得することが容易となり、画像検査を適切に行うことが容易となる。 According to such a configuration, the work is imaged by the imaging device, the focusing posture is determined from the obtained control image, and then the image is taken again by the same imaging device while the work is held in the focusing posture. It is possible to obtain an image for inspection. As a result, it becomes easy to acquire an inspection image in which the entire visual field is in focus, and it becomes easy to appropriately perform an image inspection.
[実施形態の詳細]
本明細書によって開示される技術の具体例を、以下に図面を参照しつつ説明する。なお、本発明はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
[Details of Embodiment]
Specific examples of the techniques disclosed herein will be described below with reference to the drawings. It should be noted that the present invention is not limited to these examples, and is indicated by the scope of claims, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims.
<実施形態>
実施形態を、図1から図10を参照しつつ説明する。
<Embodiment>
The embodiment will be described with reference to FIGS. 1 to 10.
(画像検査装置1の全体構成)
本実施形態の画像検査装置1(ワーク処理装置の一例)は、ワーク60の画像検査を行うための装置であって、図1に示すように、ワーク60を搬送、保持するための多関節ロボット20、ワーク60を撮像するための撮像装置40などを備えている。画像検査の対象となるワーク60は、例えば、LED用基板である。
(Overall configuration of image inspection device 1)
The image inspection device 1 (an example of the work processing device) of the present embodiment is a device for performing an image inspection of the
多関節ロボット20は、図1に示すように、垂直多関節型のロボットアーム21と、ロボットアーム21の先端部に取り付けられてワーク60を保持するエンドエフェクタ31とを備えている。
As shown in FIG. 1, the articulated
ロボットアーム21は、架台22に固定されるベース部23と、変位や力を伝達する複数のリンク24とを備え、ベース部23とリンク24、および隣り合うリンク24同士が関節25で揺動又は回転可能に連結されている。本実施形態では、ロボットアーム21は、揺動する3軸と回転する3軸の6軸の関節25を備えており、各関節25には関節駆動装置(図示せず)が組み込まれている。
The
エンドエフェクタ31は、複数(本実施形態では2つ)の把持部32を備え、ワーク60をつかんで保持する把持ハンドである。このエンドエフェクタ31は、ベース部23に対して反対側のリンク24、つまりロボットアーム21の先端部に位置するリンク24に力覚センサを介して取り付けられている。2つの把持部32は、互いに近接−離間する方向に変位可能となっており、2つの把持部32が互いに近づく方向に移動(閉動作)することによりワーク60が把持され、2つの把持部32が互いに離れる方向に移動(開動作)することによりワーク60が解放されるようになっている。
The
撮像装置40は、エンドエフェクタ31に保持されたワーク60を撮像するための装置であって、CCDやCMOS等のイメージセンサや、ワーク60を照らすための光源などを備えている。
The
(画像検査装置1の電気的構成)
次に、画像検査装置1の電気的構成について、図2を参照して説明する。画像検査装置1は、主制御部50を有しており、主制御部50によってその全体が制御統括されている。主制御部50は、演算処理部51を含む。主制御部50には、多関節ロボット20と撮像装置40とが接続されている。
(Electrical configuration of image inspection device 1)
Next, the electrical configuration of the
多関節ロボット20にはロボット制御部55(動作制御部の一例)が接続されており、撮像装置40には撮像制御部52が接続されている。多関節ロボット20の動作はロボット制御部55によって制御されている。撮像制御部52は、撮像装置40から出力される画像信号が取り込まれるように構成されており、取り込まれた画像信号に基づいて、制御用撮像画像の解析を行う画像処理部53と、検査用撮像画像の解析を行う画像検査部54(作業部の一例)とを含む。
A robot control unit 55 (an example of an operation control unit) is connected to the articulated
主制御部50と、画像処理部53と、ロボット制御部55とが、制御部56を構成する。また、制御部56と、撮像装置40と、多関節ロボット20とが、姿勢制御装置10を構成する。
The
画像処理部53は、撮像装置40によって撮像された制御用撮像画像を解析してコントラスト値を算出する。演算処理部51は、コントラスト値のピーク値に基づいてワーク60の合焦姿勢を決定し、動作開始姿勢と合焦姿勢に基づいてワーク60の変位量を算出する。ロボット制御部55は、算出された変位量に基づいてエンドエフェクタ31を変位させる。以下、詳細に説明する。
The
(画像検査装置1の動作態様)
上記の画像検査装置1によって、ワーク60の姿勢を制御し、画像検査を行う処理について、図3および図4を参照しつつ説明する。
(Operation mode of image inspection device 1)
The process of controlling the posture of the
ロボット制御部55は、多関節ロボット20を駆動制御して、ワーク60をエンドエフェクタ31に保持させ、ワーク60を撮像位置、すなわち撮像装置40の正面位置に移動させる(ステップS10:搬送工程)。ここで、ワーク60の撮像対象となる面(撮像面60F:図7参照)は、図5に示すように、複数の撮像視野61に分割されており、ロボット制御部55は、それらのうち定められた1つ(例えば、図5の右上の撮像視野61A)が撮像装置40の正面に位置するように、多関節ロボット20を駆動制御する。なお、以下の説明では、各撮像視野を区別する場合には、撮像視野の符号に添え字A、Bを付し、区別せずに総称する場合には、符号に添え字を付さないものとする。
The
次に、撮像制御部52は、撮像装置40を制御してワーク60の撮像視野61A内を撮像し、撮像画像を得る(ステップS20)。撮像制御部52の画像処理部53は、得られた撮像画像を画像処理して、撮像視野61A内に設定される複数のフォーカスエリア62A、62B、62C、62D(判定位置の一例)について、合焦しているか否かを解析する(ステップS30)。本実施形態では、矩形の外形を有する1つの撮像視野61Aを縦横に4分割し、各区分にフォーカスエリア62A、62B、62C、62Dを設定した例を示している(図6参照)。
Next, the image
ここで、エンドエフェクタ31にワーク60が正規の保持姿勢で保持されていれば、撮像面60Fが撮像装置40に対して正対する。しかし、エンドエフェクタ31に対するワーク60の保持姿勢が正規の保持姿勢からずれていると、撮像面60Fが撮像装置40に対して正対しないこととなる。図7および図8に示す例では、エンドエフェクタ31にワーク60が正規の保持姿勢で保持されていれば、撮像面60Fが図7および図8のX−Z平面内に位置するはずであるが、エンドエフェクタ31に対するワーク60の保持姿勢が正規の保持姿勢からずれているために、撮像面60FがX−Z平面に対して傾いている。このような事態が生じると、得られる画像に部分的にピントずれが生じる。つまり、フォーカスエリア62A、62B、62C、62Dのうち少なくとも一部では、合焦しないこととなる。図6に示す例では、1つ(図6の右上)のフォーカスエリア62Aについてのみ合焦していると判定され、他のフォーカスエリア62B、62C、62Dについては合焦していないと判定されている。
Here, if the
複数のフォーカスエリア62A、62B、62C、62Dのうち少なくとも1つについて合焦していないと判定された場合には、演算処理部51は、オートフォーカス(AF)処理によってワーク60の合焦姿勢を決定する(ステップS40)。本実施形態では、コントラストオートフォーカス(AF)方式によってAF処理を実行する。コントラストオートフォーカス(AF)方式は、レンズと被写体との距離を変化させながら複数回撮像を行って、得られた画像のコントラスト値(AF評価値:深度情報の一例)を算出し、コントラスト値が最大となったときに合焦したと判定する方式である。
When it is determined that at least one of the plurality of
AF処理が開始されると、まず、演算処理部51は、ワーク60の現在の姿勢を取得し、動作開始姿勢として記憶する(ステップS41)。
When the AF process is started, the
次に、スキャン処理が実行される(ステップS42)。具体的には、主制御部50は、ロボット制御部55を制御して多関節ロボット20を駆動させ、ワーク60の位置を少しずつ変化させながら、撮像制御部52を制御して、撮像視野61Aについて複数の制御用撮像画像を撮像する(撮像工程)。画像処理部53は、得られた複数の制御用撮像画像を画像処理して、各フォーカスエリア62A、62B、62C、62Dについて、コントラスト値を算出する(ステップS43:画像処理工程)。
Next, the scanning process is executed (step S42). Specifically, the
演算処理部51は、各フォーカスエリア62A、62B、62C、62Dについてコントラスト値のピーク値が検出されたか否かを判定する(ステップS44)。ピーク値が検出されていないと判定された場合には、ピーク値が検出されるまで、ステップS42からステップS44までの処理が繰り返される。なお、画像処理部53で算出されたコントラスト値の情報はロボット制御部55にフィードバックされ、スキャン処理の際の多関節ロボット20の駆動制御に反映される。
The
演算処理部51は、全てのフォーカスエリア62A、62B、62C、62Dについてコントラスト値のピーク値が検出されたと判定すると、全てのフォーカスエリア62A、62B、62C、62Dについてコントラスト値がピーク値となるときのワーク60の姿勢を6自由度で取得し、この姿勢を合焦姿勢として決定する(ステップS45)。次いで、演算処理部51は、ワーク60が動作開始姿勢から合焦姿勢に至るまでの変位量を算出する(ステップS46)。ステップS42からステップS44までの処理を繰り返してコントラスト値のピーク値を検出する工程と、ステップS45およびステップS46とが、演算処理工程の一例である。
When the
変位量が算出されたら、ロボット制御部55は、この変位量に基づいて、ワーク60が合焦姿勢をとる合焦位置までエンドエフェクタ31を変位させる(ステップS50:動作制御工程)。合焦位置までエンドエフェクタ31が変位されると、図7および図8に示すように、ワーク60の撮像面60Fが撮像装置40に対して正対することとなる。
After the displacement amount is calculated, the
次いで、画像検査が実行される(ステップS60)。撮像制御部52は、撮像装置40を制御してワーク60の撮像視野61A内を撮像し、検査用撮像画像を得る。画像検査部54は、得られた検査用撮像画像を画像処理して、撮像視野61A内に欠陥等が存在するか否かを判定する。このようにして、一の撮像視野61Aについて画像検査が完了する。
Then, an image inspection is performed (step S60). The image
次に、ロボット制御部55は、多関節ロボット20を駆動制御して、一の撮像視野61Aに隣接する他の撮像視野61Bが撮像装置40の正面に位置するように、エンドエフェクタ31を変位させる。このとき、演算処理部51は、一の撮像視野61Aについての合焦姿勢の情報を他の撮像視野61Bにも反映させることにより、撮像視野61B内において合焦するようにワーク60の変位量を算出する。そして、ロボット制御部55は、算出された変位量に基づいてエンドエフェクタ31を変位させる。次いで、他の撮像視野61Bについて画像検査が実行される。同様にして、すべての撮像視野61について画像検査が実行される。
Next, the
(作用効果)
以上のように本実施形態によれば、ワーク60自体の姿勢を直接評価して、合焦姿勢を決定しているため、エンドエフェクタの姿勢を評価して補正を行おうとする従来技術に比べて、ワーク60の姿勢制御をより適切に行える。
(Action effect)
As described above, according to the present embodiment, the posture of the
また、撮像装置40によってワーク60を撮影して、得られる制御用撮像画像から合焦姿勢を決定したら、その合焦姿勢にワーク60を保持して、同じ撮像装置40によって再び撮像を行って検査用撮像画像を得ることができる。これにより、視野全体のフォーカスが合った検査画像を取得することが容易となり、画像検査を適切に行うことが容易となる。
Further, when the
<他の実施形態>
(1)上記実施形態では、ワーク60としてLED用ワークを例示したが、ワークの種類は任意であり、例えば無線通信モジュール基板であっても構わない。
(2)上記実施形態では、エンドエフェクタ31として把持ハンドを例示したが、エンドエフェクタは例えば吸着ハンドであっても構わない。
(3)撮像視野の分割態様は、ワークの大きさや形状等により任意に設定できる。また、撮像視野を分割せず、撮像したい面の全体を1つの撮像視野としても構わない。
(4)合焦姿勢を決定するために用いられる撮像視野の選択は任意であり、例えば、複数の撮像視野のうち中央に位置する撮像視野を選択しても構わない。
(5)上記実施形態では、4つのフォーカスエリア62A、62B、62C、62Dが設定されていたが、判定位置の数や位置は、求められる姿勢制御の精度に応じて任意に設定できる。
(6)上記実施形態では、コントラストオートフォーカス(AF)処理によって合焦姿勢を決定したが、オートフォーカス処理は、例えば位相差オートフォーカス方式によって実行されても構わない。
(7)上記実施形態では、姿勢制御装置10が画像検査装置1に適用されたが、姿勢制御装置が例えば加工装置に適用され、作業部が、ワークの加工を行うための加工部であっても構わない。
(8)上記実施形態では、他の撮像視野61Bの画像検査を行うために、ワーク60を変位させる際に、一の撮像視野61Aについての合焦姿勢の情報を他の撮像視野61Bにも反映させていたが、複数の撮像視野のすべてにおいて、個別にオートフォーカス処理を行うことにより合焦姿勢が決定され、変位量が算出されても構わない。
<Other Embodiments>
(1) In the above embodiment, the LED work is exemplified as the
(2) In the above embodiment, the gripping hand is illustrated as the
(3) The division mode of the imaging field of view can be arbitrarily set according to the size and shape of the work. Further, the entire imaging field of view may be used as one imaging field of view without dividing the imaging field of view.
(4) The selection of the imaging field of view used to determine the focusing posture is arbitrary, and for example, the imaging field of view located at the center of the plurality of imaging fields of view may be selected.
(5) In the above embodiment, the four
(6) In the above embodiment, the focusing posture is determined by the contrast autofocus (AF) process, but the autofocus process may be executed by, for example, a phase difference autofocus method.
(7) In the above embodiment, the
(8) In the above embodiment, when the
1:画像検査装置(ワーク処理装置)
10:姿勢制御装置
20:多関節ロボット
21:ロボットアーム
22:架台
23:ベース部
24:リンク
25:関節
31:エンドエフェクタ
32:把持部
40:撮像装置
50:主制御部
51:演算処理部
52:撮像制御部
53:画像処理部
54:画像検査部(作業部)
55:ロボット制御部(動作制御部)
56:制御部
60:ワーク
60F:撮像面
61:撮像視野
61A:一の撮像視野
61B:他の撮像視野
62A、62B、62C、62D:フォーカスエリア(判定位置)
1: Image inspection device (work processing device)
10: Attitude control device 20: Articulated robot 21: Robot arm 22: Stand 23: Base unit 24: Link 25: Joint 31: End effector 32: Grip unit 40: Image pickup device 50: Main control unit 51: Arithmetic processing unit 52 : Image control unit 53: Image processing unit 54: Image inspection unit (working unit)
55: Robot control unit (motion control unit)
56: Control unit 60:
Claims (4)
前記エンドエフェクタに保持された前記ワークを撮像する撮像装置と、
前記多関節ロボットと前記撮像装置とを制御する制御部と、を備え、
前記制御部が、
前記撮像装置によって撮像された制御用撮像画像から、前記ワークの撮像視野内に設定された複数の判定位置の全てで深度情報を取得する画像処理部と、
前記画像処理部によって取得された全ての前記深度情報に基づいて前記多関節ロボットを動作させることにより、前記複数の判定位置の全てで合焦する合焦姿勢を決定し、前記ワークの姿勢を変化させて動作開始姿勢から前記合焦姿勢に至るまでの変位量を取得する演算処理部と、
前記演算処理部によって取得された前記変位量に基づいて前記ワークが前記合焦姿勢をとる合焦位置まで前記エンドエフェクタを変位させる動作制御部と、を備える姿勢制御装置。 An articulated robot including a robot arm having a plurality of joints and an end effector attached to the tip of the robot arm to hold a work.
An imaging device that images the work held by the end effector, and
A control unit that controls the articulated robot and the imaging device is provided.
The control unit
An image processing unit that acquires depth information at all of a plurality of determination positions set in the imaging field of view of the work from the control captured image captured by the imaging device.
By operating the articulated robot based on all the depth information acquired by the image processing unit, the focusing posture to be focused at all of the plurality of determination positions is determined, and the posture of the work is changed. An arithmetic processing unit that acquires the amount of displacement from the operation start posture to the focusing posture.
An attitude control device including an operation control unit that displaces the end effector to a focusing position in which the work takes the focusing posture based on the displacement amount acquired by the arithmetic processing unit.
前記ワークが前記合焦姿勢に保持された状態で、前記ワークに対して所定の作業を行う作業部を備える、ワーク処理装置。 The attitude control device according to claim 1 and
A work processing device including a work unit that performs a predetermined work on the work while the work is held in the focusing posture.
前記ワークが前記合焦姿勢に保持された状態で前記撮像装置によって撮像された検査用撮像画像を画像処理して前記ワークの画像検査を実行する画像検査部である、請求項2に記載のワーク処理装置。 The working part
The work according to claim 2, wherein the work is an image inspection unit that performs image processing on an inspection image captured by the image pickup apparatus while the work is held in the in-focus position and executes an image inspection of the work. Processing equipment.
前記ワークを前記エンドエフェクタに保持させて撮像位置に搬送する搬送工程と、
撮像装置によって前記ワークを撮像する撮像工程と、
前記撮像工程において撮像された制御用撮像画像から、前記ワークの撮像視野内に設定された複数の判定位置の全てで深度情報を取得する画像処理工程と、
前記画像処理工程において取得された全ての前記深度情報に基づいて前記多関節ロボットを動作させることにより、前記複数の判定位置の全てで合焦する合焦姿勢を決定し、前記ワークの姿勢を変化させて動作開始姿勢から前記合焦姿勢に至るまでの変位量を取得する演算処理工程と、
前記演算処理工程において取得された前記変位量に基づいて前記ワークが前記合焦姿勢をとる合焦位置まで前記エンドエフェクタを変位させる動作制御工程と、を備えるワークの姿勢制御方法。 A method of controlling the posture of a work held by an articulated robot including a robot arm having a plurality of joints and an end effector attached to the tip of the robot arm.
A transfer process in which the work is held by the end effector and conveyed to the imaging position, and
An imaging process in which the work is imaged by an imaging device, and
An image processing step of acquiring depth information from the control captured image captured in the imaging step at all of a plurality of determination positions set in the imaging field of view of the work.
By operating the articulated robot based on all the depth information acquired in the image processing step, the focusing posture to be focused at all of the plurality of determination positions is determined, and the posture of the work is changed. An arithmetic processing process for acquiring the amount of displacement from the operation start posture to the in-focus posture.
A work posture control method comprising a motion control step of displace the end effector to a focusing position in which the work takes the focusing posture based on the displacement amount acquired in the arithmetic processing step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019155398A JP2021030391A (en) | 2019-08-28 | 2019-08-28 | Attitude control device, work-piece processor, and work-piece attitude control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019155398A JP2021030391A (en) | 2019-08-28 | 2019-08-28 | Attitude control device, work-piece processor, and work-piece attitude control method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021030391A true JP2021030391A (en) | 2021-03-01 |
Family
ID=74674662
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019155398A Pending JP2021030391A (en) | 2019-08-28 | 2019-08-28 | Attitude control device, work-piece processor, and work-piece attitude control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021030391A (en) |
-
2019
- 2019-08-28 JP JP2019155398A patent/JP2021030391A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6429473B2 (en) | Robot system, robot system calibration method, program, and computer-readable recording medium | |
JP5272617B2 (en) | Robot apparatus and control method of robot apparatus | |
US8929642B2 (en) | Three-dimensional scanner and robot system | |
JP5201411B2 (en) | Bulk picking device and control method thereof | |
CN109940662B (en) | Image pickup device provided with vision sensor for picking up workpiece | |
JP2009269110A (en) | Assembly equipment | |
US20220258352A1 (en) | Robot hand-eye calibration method and apparatus, computing device, medium and product | |
CN104924309A (en) | Robot system, calibration method in robot system, and position correcting method in robot system | |
JP2008132525A (en) | Teaching-position correcting system of welding-robot and teaching-position correcting method of welding-robot | |
JP2011136377A (en) | Robot control device and method | |
CN109945780B (en) | Object inspection system and object inspection method | |
JP5891698B2 (en) | robot | |
JP4572497B2 (en) | Robot controller | |
JP2008168372A (en) | Robot device and shape recognition method | |
JP2017050376A (en) | Electronic component mounting device and electronic component mounting method | |
JP2021030391A (en) | Attitude control device, work-piece processor, and work-piece attitude control method | |
US20230123629A1 (en) | 3d computer-vision system with variable spatial resolution | |
JP6413648B2 (en) | Measurement system, object extraction system, measurement method and program | |
JP2020097084A (en) | Robot system and adjustment method of the same | |
CN112566758A (en) | Robot control device, robot control method, and robot control program | |
JP2016203282A (en) | Robot with mechanism for changing end effector attitude | |
US11922616B2 (en) | Alignment device | |
JP5098846B2 (en) | Robot system | |
JP2005205519A (en) | Robot hand device | |
JP5522532B2 (en) | Gripping apparatus and gripping method for workpiece having cutting part |