JP2021030391A - Attitude control device, work-piece processor, and work-piece attitude control method - Google Patents

Attitude control device, work-piece processor, and work-piece attitude control method Download PDF

Info

Publication number
JP2021030391A
JP2021030391A JP2019155398A JP2019155398A JP2021030391A JP 2021030391 A JP2021030391 A JP 2021030391A JP 2019155398 A JP2019155398 A JP 2019155398A JP 2019155398 A JP2019155398 A JP 2019155398A JP 2021030391 A JP2021030391 A JP 2021030391A
Authority
JP
Japan
Prior art keywords
work
posture
image
focusing
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019155398A
Other languages
Japanese (ja)
Inventor
陽介 森田
Yosuke Morita
陽介 森田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Niterra Co Ltd
Original Assignee
NGK Spark Plug Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NGK Spark Plug Co Ltd filed Critical NGK Spark Plug Co Ltd
Priority to JP2019155398A priority Critical patent/JP2021030391A/en
Publication of JP2021030391A publication Critical patent/JP2021030391A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

To provide an attitude control device which can adequately control a position of a work-piece.SOLUTION: An attitude control device 10 comprises a multi-joint robot 20, an imaging unit 40, and a control part 56. The control part 56 comprises: an image processing part 53 which acquires depth information from a picked-up image for control imaged by the imaging unit 40 on all of a plurality of focus areas 62A to 62D which are set in an imaging visual field 61A of a work-piece 60; a calculation processing part 51 which operates the multi-joint robot 20 on the basis of all pieces of depth information acquired by the image processing part 53, thereby determining a focusing attitude focusing on all of the plurality of focus areas 62A to 62D, and changing an attitude of the work-piece 60 to acquire a displacement amount from an operation start attitude to the focusing attitude; and a robot control part 55 which displaces the multi-joint robot 20 to a focusing position at which the work-piece 60 takes the focusing attitude on the basis fo the displacement amount acquired by the calculation processing part 51.SELECTED DRAWING: Figure 2

Description

本発明は、姿勢制御装置、ワーク処理装置、および、ワークの姿勢制御方法に関する。 The present invention relates to an attitude control device, a work processing device, and a work posture control method.

ロボットアームの先端部に取り付けられたエンドエフェクタによってワークを保持し、撮像装置によって撮像を行い、得られた画像を画像処理することでワークの画像検査を行う検査方法が知られている。このような検査方法では、撮像装置に対してワークが正対しない状態で撮像が行われると、ピントずれが生じてしまい、適切に検査が行えない場合がある。 An inspection method is known in which a work is held by an end effector attached to the tip of a robot arm, an image is taken by an imaging device, and the obtained image is image-processed to perform an image inspection of the work. In such an inspection method, if the image is taken in a state where the workpiece does not face the imaging device, the focus may be out of focus and the inspection may not be performed properly.

ここで、ロボットの姿勢を制御する方法として、エンドエフェクタとしてのロボットハンドに把持させた計測用ワークの外周面を基準治具に突き当てた状態で、ロボットアームの先端部を先端軸周りに回転させ、偏心に基づく補正量を算出してロボットハンドを調芯する技術(特許文献1参照)や、ロボットアームを動作させながら、ロボットハンドの中心位置を示すマークを撮像し、マークの移動軌跡に基づいてロボットハンドの中心軸の位置ずれを算出して、ロボットアームの軌道データを補正する技術(特許文献2参照)が提案されている。 Here, as a method of controlling the posture of the robot, the tip of the robot arm is rotated around the tip axis with the outer peripheral surface of the measuring work gripped by the robot hand as the end effector abutting against the reference jig. The robot hand is centered by calculating the correction amount based on the eccentricity (see Patent Document 1), and while operating the robot arm, a mark indicating the center position of the robot hand is imaged and used as the movement trajectory of the mark. Based on this, a technique (see Patent Document 2) has been proposed in which the positional deviation of the central axis of the robot hand is calculated to correct the trajectory data of the robot arm.

特開2016−168651号公報Japanese Unexamined Patent Publication No. 2016-168651 特開2017−124468号公報JP-A-2017-124468

上記の技術は、エンドエフェクタの姿勢を定量化し、補正値とすることでロボットの挙動を修正するものであるが、例えば、エンドエフェクタに対するワークの保持状態にずれが生じている場合においては、エンドエフェクタの姿勢を評価しても、必ずしもワークの位置を適切に制御することにはつながらない。 The above technique corrects the behavior of the robot by quantifying the posture of the end effector and using it as a correction value. For example, when the holding state of the work with respect to the end effector is deviated, the end is used. Evaluating the posture of the effector does not necessarily lead to proper control of the position of the work.

本明細書によって開示される姿勢制御装置は、複数の関節を有するロボットアームと、前記ロボットアームの先端部に取り付けられてワークを保持するエンドエフェクタとを備える多関節ロボットと、前記エンドエフェクタに保持された前記ワークを撮像する撮像装置と、前記多関節ロボットと前記撮像装置とを制御する制御部と、を備え、前記制御部が、前記撮像装置によって撮像された制御用撮像画像から、前記ワークの撮像視野内に設定された複数の判定位置の全てで深度情報を取得する画像処理部と、前記画像処理部によって取得された全ての前記深度情報に基づいて前記多関節ロボットを動作させることにより、前記複数の判定位置の全てで合焦する合焦姿勢を決定し、前記ワークの姿勢を変化させて動作開始姿勢から前記合焦姿勢に至るまでの変位量を取得する演算処理部と、前記演算処理部によって取得された前記変位量に基づいて前記ワークが前記合焦姿勢をとる合焦位置まで前記エンドエフェクタを変位させる動作制御部と、を備える。 The posture control device disclosed by the present specification includes an articulated robot including a robot arm having a plurality of joints, an end effector attached to the tip of the robot arm to hold a work, and a robot arm held by the end effector. The work is provided with an image pickup device that captures the image of the work, and a control unit that controls the articulated robot and the image pickup device. The control unit uses the control image captured by the image pickup device to obtain the work. By operating the articulated robot based on the image processing unit that acquires depth information at all of the plurality of determination positions set in the imaging field of the camera and all the depth information acquired by the image processing unit. , The arithmetic processing unit that determines the focusing posture to be focused at all of the plurality of determination positions, changes the posture of the work, and acquires the displacement amount from the operation start posture to the focusing posture. It includes an operation control unit that displaces the end effector to a focusing position in which the work takes the focusing posture based on the displacement amount acquired by the arithmetic processing unit.

また、本明細書によって開示されるワークの姿勢制御方法は、複数の関節を有するロボットアームと、前記ロボットアームの先端部に取り付けられたエンドエフェクタとを備える多関節ロボットに保持されたワークの姿勢を制御する方法であって、前記ワークを前記エンドエフェクタに保持させて撮像位置に搬送する搬送工程と、撮像装置によって前記ワークを撮像する撮像工程と、前記撮像工程において撮像された制御用撮像画像から、前記ワークの撮像視野内に設定された複数の判定位置の全てで深度情報を取得する画像処理工程と、前記画像処理工程において取得された全ての前記深度情報に基づいて前記多関節ロボットを動作させることにより、前記複数の判定位置の全てで合焦する合焦姿勢を決定し、前記ワークの姿勢を変化させて動作開始姿勢から前記合焦姿勢に至るまでの変位量を取得する演算処理工程と、前記演算処理工程において取得された前記変位量に基づいて前記ワークが前記合焦姿勢をとる合焦位置まで前記エンドエフェクタを変位させる動作制御工程と、を備える。 Further, the work posture control method disclosed in the present specification is a work posture held by an articulated robot including a robot arm having a plurality of joints and an end effector attached to the tip of the robot arm. A method of controlling the work, that is, a transport step of holding the work by the end effector and transporting the work to an imaging position, an imaging step of imaging the work by an imaging device, and a control captured image captured in the imaging step. From the image processing step of acquiring depth information at all of the plurality of determination positions set in the imaging field of the work, and the articulated robot based on all the depth information acquired in the image processing step. A calculation process that determines the focusing posture to be focused at all of the plurality of determination positions by operating the work, changes the posture of the work, and acquires the amount of displacement from the operation starting posture to the focusing posture. It includes a step and an operation control step of displacementing the end effector to a focusing position where the work takes the focusing posture based on the displacement amount acquired in the arithmetic processing step.

本明細書によって開示される姿勢制御装置、およびワークの姿勢制御方法によれば、ワークの位置を適切に制御することができる。 According to the attitude control device disclosed by the present specification and the attitude control method of the work, the position of the work can be appropriately controlled.

図1は、実施形態の画像検査装置の正面図である。FIG. 1 is a front view of the image inspection device of the embodiment. 図2は、実施形態の画像検査装置の電気的構成を示すブロック図である。FIG. 2 is a block diagram showing an electrical configuration of the image inspection device of the embodiment. 図3は、実施形態の画像検査装置によって、ワークの姿勢を制御し、画像検査を行う処理の流れを示すフローチャートである。FIG. 3 is a flowchart showing a flow of processing in which the posture of the work is controlled by the image inspection device of the embodiment and the image inspection is performed. 図4は、実施形態におけるオートフォーカス処理の流れを示すフローチャートである。FIG. 4 is a flowchart showing the flow of the autofocus process in the embodiment. 図5は、実施形態のワークの正面図である。FIG. 5 is a front view of the work of the embodiment. 図6は、実施形態のワークにおいて、撮像視野内に設定されたフォーカスエリアを示す図である。FIG. 6 is a diagram showing a focus area set in the imaging field of view in the work of the embodiment. 図7は、実施形態において、エンドエフェクタに保持されたワークが撮像装置に対して正対していない状態を示す平面図である。FIG. 7 is a plan view showing a state in which the work held by the end effector does not face the image pickup apparatus in the embodiment. 図8は、実施形態において、エンドエフェクタに保持されたワークが撮像装置に対して正対していない状態を示す側面図である。FIG. 8 is a side view showing a state in which the work held by the end effector does not face the image pickup apparatus in the embodiment. 図9は、実施形態において、エンドエフェクタに保持されたワークが撮像装置に対して正対している状態を示す部分拡大平面図である。FIG. 9 is a partially enlarged plan view showing a state in which the work held by the end effector faces the image pickup apparatus in the embodiment. 図10は、実施形態において、エンドエフェクタに保持されたワークが撮像装置に対して正対している状態を示す部分拡大側面図である。FIG. 10 is a partially enlarged side view showing a state in which the work held by the end effector faces the image pickup apparatus in the embodiment.

[実施形態の概要]
本明細書によって開示される姿勢制御装置は、複数の関節を有するロボットアームと、前記ロボットアームの先端部に取り付けられてワークを保持するエンドエフェクタとを備える多関節ロボットと、前記エンドエフェクタに保持された前記ワークを撮像する撮像装置と、前記多関節ロボットと前記撮像装置とを制御する制御部と、を備え、前記制御部が、前記撮像装置によって撮像された制御用撮像画像から、前記ワークの撮像視野内に設定された複数の判定位置の全てで深度情報を取得する画像処理部と、前記画像処理部によって取得された全ての前記深度情報に基づいて前記多関節ロボットを動作させることにより、前記複数の判定位置の全てで合焦する合焦姿勢を決定し、前記ワークの姿勢を変化させて動作開始姿勢から前記合焦姿勢に至るまでの変位量を取得する演算処理部と、前記演算処理部によって取得された前記変位量に基づいて前記ワークが前記合焦姿勢をとる合焦位置まで前記エンドエフェクタを変位させる動作制御部と、を備える。
[Outline of Embodiment]
The posture control device disclosed by the present specification includes an articulated robot including a robot arm having a plurality of joints, an end effector attached to the tip of the robot arm to hold a work, and a robot arm held by the end effector. The work is provided with an image pickup device that captures the image of the work, and a control unit that controls the articulated robot and the image pickup device. The control unit uses the control image captured by the image pickup device to obtain the work. By operating the articulated robot based on the image processing unit that acquires depth information at all of the plurality of determination positions set in the imaging field of the camera and all the depth information acquired by the image processing unit. , The arithmetic processing unit that determines the focusing posture to be focused at all of the plurality of determination positions, changes the posture of the work, and acquires the displacement amount from the operation start posture to the focusing posture. It includes an operation control unit that displaces the end effector to a focusing position in which the work takes the focusing posture based on the displacement amount acquired by the arithmetic processing unit.

また、本明細書によって開示されるワークの姿勢制御方法は、複数の関節を有するロボットアームと、前記ロボットアームの先端部に取り付けられたエンドエフェクタとを備える多関節ロボットに保持されたワークの姿勢を制御する方法であって、前記ワークを前記エンドエフェクタに保持させて撮像位置に搬送する搬送工程と、撮像装置によって前記ワークを撮像する撮像工程と、前記撮像工程において撮像された制御用撮像画像から、前記ワークの撮像視野内に設定された複数の判定位置の全てで深度情報を取得する画像処理工程と、前記画像処理工程において取得された全ての前記深度情報に基づいて前記多関節ロボットを動作させることにより、前記複数の判定位置の全てで合焦する合焦姿勢を決定し、前記ワークの姿勢を変化させて動作開始姿勢から前記合焦姿勢に至るまでの変位量を取得する演算処理工程と、前記演算処理工程において取得された前記変位量に基づいて前記ワークが前記合焦姿勢をとる合焦位置まで前記エンドエフェクタを変位させる動作制御工程と、を備える。 Further, the work posture control method disclosed in the present specification is a work posture held by an articulated robot including a robot arm having a plurality of joints and an end effector attached to the tip of the robot arm. A method of controlling the work, that is, a transport step of holding the work by the end effector and transporting the work to an imaging position, an imaging step of imaging the work by an imaging device, and a control captured image captured in the imaging step. From the image processing step of acquiring depth information at all of the plurality of determination positions set in the imaging field of the work, and the articulated robot based on all the depth information acquired in the image processing step. A calculation process that determines the focusing posture to be focused at all of the plurality of determination positions by operating the work, changes the posture of the work, and acquires the amount of displacement from the operation starting posture to the focusing posture. It includes a step and an operation control step of displacementing the end effector to a focusing position where the work takes the focusing posture based on the displacement amount acquired in the arithmetic processing step.

上記の構成によれば、ワーク自体の姿勢を直接評価して、合焦姿勢を決定しているため、エンドエフェクタの姿勢を評価して補正を行おうとする従来技術に比べて、ワークの姿勢制御をより適切に行える。 According to the above configuration, since the posture of the work itself is directly evaluated to determine the focusing posture, the posture control of the work is compared with the conventional technique in which the posture of the end effector is evaluated and corrected. Can be done more appropriately.

また、本明細書によって開示されるワーク処理装置は、上記の姿勢制御装置と、前記ワークが前記合焦姿勢に保持された状態で、前記ワークに対して所定の作業を行う作業部を備える。 Further, the work processing device disclosed by the present specification includes the above-mentioned attitude control device and a working unit that performs a predetermined work on the work while the work is held in the in-focus posture.

上記のワーク処理装置において、作業部が、前記ワークが前記合焦姿勢に保持された状態で前記撮像装置によって撮像された検査用撮像画像を画像処理して前記ワークの画像検査を実行する画像検査部であっても構わない。 In the work processing device, an image inspection in which the working unit processes an image for inspection taken by the image pickup device while the work is held in the in-focus position and executes an image inspection of the work. It may be a department.

このような構成によれば、撮像装置によってワークを撮像して、得られる制御用撮像画像から合焦姿勢を決定したら、その合焦姿勢にワークを保持したまま、同じ撮像装置によって再び撮像を行って検査用撮像画像を得ることができる。これにより、視野全体のフォーカスが合った検査画像を取得することが容易となり、画像検査を適切に行うことが容易となる。 According to such a configuration, the work is imaged by the imaging device, the focusing posture is determined from the obtained control image, and then the image is taken again by the same imaging device while the work is held in the focusing posture. It is possible to obtain an image for inspection. As a result, it becomes easy to acquire an inspection image in which the entire visual field is in focus, and it becomes easy to appropriately perform an image inspection.

[実施形態の詳細]
本明細書によって開示される技術の具体例を、以下に図面を参照しつつ説明する。なお、本発明はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
[Details of Embodiment]
Specific examples of the techniques disclosed herein will be described below with reference to the drawings. It should be noted that the present invention is not limited to these examples, and is indicated by the scope of claims, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims.

<実施形態>
実施形態を、図1から図10を参照しつつ説明する。
<Embodiment>
The embodiment will be described with reference to FIGS. 1 to 10.

(画像検査装置1の全体構成)
本実施形態の画像検査装置1(ワーク処理装置の一例)は、ワーク60の画像検査を行うための装置であって、図1に示すように、ワーク60を搬送、保持するための多関節ロボット20、ワーク60を撮像するための撮像装置40などを備えている。画像検査の対象となるワーク60は、例えば、LED用基板である。
(Overall configuration of image inspection device 1)
The image inspection device 1 (an example of the work processing device) of the present embodiment is a device for performing an image inspection of the work 60, and as shown in FIG. 1, an articulated robot for transporting and holding the work 60. 20. An image pickup device 40 for taking an image of the work 60 and the like are provided. The work 60 to be image-inspected is, for example, an LED substrate.

多関節ロボット20は、図1に示すように、垂直多関節型のロボットアーム21と、ロボットアーム21の先端部に取り付けられてワーク60を保持するエンドエフェクタ31とを備えている。 As shown in FIG. 1, the articulated robot 20 includes a vertical articulated robot arm 21 and an end effector 31 attached to the tip of the robot arm 21 to hold the work 60.

ロボットアーム21は、架台22に固定されるベース部23と、変位や力を伝達する複数のリンク24とを備え、ベース部23とリンク24、および隣り合うリンク24同士が関節25で揺動又は回転可能に連結されている。本実施形態では、ロボットアーム21は、揺動する3軸と回転する3軸の6軸の関節25を備えており、各関節25には関節駆動装置(図示せず)が組み込まれている。 The robot arm 21 includes a base portion 23 fixed to the gantry 22 and a plurality of links 24 for transmitting displacement and force, and the base portion 23, the links 24, and adjacent links 24 swing or swing at joints 25. It is rotatably connected. In the present embodiment, the robot arm 21 includes 6-axis joints 25 having 3 swinging axes and 3 rotating axes, and a joint driving device (not shown) is incorporated in each joint 25.

エンドエフェクタ31は、複数(本実施形態では2つ)の把持部32を備え、ワーク60をつかんで保持する把持ハンドである。このエンドエフェクタ31は、ベース部23に対して反対側のリンク24、つまりロボットアーム21の先端部に位置するリンク24に力覚センサを介して取り付けられている。2つの把持部32は、互いに近接−離間する方向に変位可能となっており、2つの把持部32が互いに近づく方向に移動(閉動作)することによりワーク60が把持され、2つの把持部32が互いに離れる方向に移動(開動作)することによりワーク60が解放されるようになっている。 The end effector 31 is a gripping hand that includes a plurality of (two in this embodiment) gripping portions 32, and grips and holds the work 60. The end effector 31 is attached to a link 24 on the opposite side of the base portion 23, that is, a link 24 located at the tip of the robot arm 21 via a force sensor. The two grips 32 are displaceable in the direction of being close to each other and separated from each other, and the work 60 is gripped by moving (closing) the two grips 32 in the direction of approaching each other, and the two grips 32 are held. The work 60 is released by moving (opening operation) in a direction away from each other.

撮像装置40は、エンドエフェクタ31に保持されたワーク60を撮像するための装置であって、CCDやCMOS等のイメージセンサや、ワーク60を照らすための光源などを備えている。 The image pickup device 40 is a device for taking an image of the work 60 held by the end effector 31, and includes an image sensor such as a CCD or CMOS, a light source for illuminating the work 60, and the like.

(画像検査装置1の電気的構成)
次に、画像検査装置1の電気的構成について、図2を参照して説明する。画像検査装置1は、主制御部50を有しており、主制御部50によってその全体が制御統括されている。主制御部50は、演算処理部51を含む。主制御部50には、多関節ロボット20と撮像装置40とが接続されている。
(Electrical configuration of image inspection device 1)
Next, the electrical configuration of the image inspection device 1 will be described with reference to FIG. The image inspection device 1 has a main control unit 50, and the main control unit 50 controls and controls the entire image inspection device 1. The main control unit 50 includes an arithmetic processing unit 51. The articulated robot 20 and the imaging device 40 are connected to the main control unit 50.

多関節ロボット20にはロボット制御部55(動作制御部の一例)が接続されており、撮像装置40には撮像制御部52が接続されている。多関節ロボット20の動作はロボット制御部55によって制御されている。撮像制御部52は、撮像装置40から出力される画像信号が取り込まれるように構成されており、取り込まれた画像信号に基づいて、制御用撮像画像の解析を行う画像処理部53と、検査用撮像画像の解析を行う画像検査部54(作業部の一例)とを含む。 A robot control unit 55 (an example of an operation control unit) is connected to the articulated robot 20, and an image pickup control unit 52 is connected to the image pickup device 40. The operation of the articulated robot 20 is controlled by the robot control unit 55. The image pickup control unit 52 is configured to capture an image signal output from the image pickup device 40, and has an image processing unit 53 that analyzes an image for control based on the captured image signal and an image processing unit 53 for inspection. It includes an image inspection unit 54 (an example of a working unit) that analyzes captured images.

主制御部50と、画像処理部53と、ロボット制御部55とが、制御部56を構成する。また、制御部56と、撮像装置40と、多関節ロボット20とが、姿勢制御装置10を構成する。 The main control unit 50, the image processing unit 53, and the robot control unit 55 form a control unit 56. Further, the control unit 56, the image pickup device 40, and the articulated robot 20 constitute the attitude control device 10.

画像処理部53は、撮像装置40によって撮像された制御用撮像画像を解析してコントラスト値を算出する。演算処理部51は、コントラスト値のピーク値に基づいてワーク60の合焦姿勢を決定し、動作開始姿勢と合焦姿勢に基づいてワーク60の変位量を算出する。ロボット制御部55は、算出された変位量に基づいてエンドエフェクタ31を変位させる。以下、詳細に説明する。 The image processing unit 53 analyzes the control captured image captured by the imaging device 40 and calculates the contrast value. The arithmetic processing unit 51 determines the focusing posture of the work 60 based on the peak value of the contrast value, and calculates the displacement amount of the work 60 based on the operation start posture and the focusing posture. The robot control unit 55 displaces the end effector 31 based on the calculated displacement amount. Hereinafter, a detailed description will be given.

(画像検査装置1の動作態様)
上記の画像検査装置1によって、ワーク60の姿勢を制御し、画像検査を行う処理について、図3および図4を参照しつつ説明する。
(Operation mode of image inspection device 1)
The process of controlling the posture of the work 60 and performing the image inspection by the image inspection device 1 will be described with reference to FIGS. 3 and 4.

ロボット制御部55は、多関節ロボット20を駆動制御して、ワーク60をエンドエフェクタ31に保持させ、ワーク60を撮像位置、すなわち撮像装置40の正面位置に移動させる(ステップS10:搬送工程)。ここで、ワーク60の撮像対象となる面(撮像面60F:図7参照)は、図5に示すように、複数の撮像視野61に分割されており、ロボット制御部55は、それらのうち定められた1つ(例えば、図5の右上の撮像視野61A)が撮像装置40の正面に位置するように、多関節ロボット20を駆動制御する。なお、以下の説明では、各撮像視野を区別する場合には、撮像視野の符号に添え字A、Bを付し、区別せずに総称する場合には、符号に添え字を付さないものとする。 The robot control unit 55 drives and controls the articulated robot 20 to hold the work 60 in the end effector 31 and move the work 60 to the imaging position, that is, the front position of the imaging device 40 (step S10: transfer step). Here, the surface of the work 60 to be imaged (imaging surface 60F: see FIG. 7) is divided into a plurality of imaging fields of view 61 as shown in FIG. 5, and the robot control unit 55 determines among them. The articulated robot 20 is driven and controlled so that the one (for example, the imaging field of view 61A in the upper right of FIG. 5) is located in front of the imaging device 40. In the following description, when distinguishing each imaging field of view, subscripts A and B are added to the codes of the imaging field of view, and when generically referred to without distinction, no subscript is added to the code. And.

次に、撮像制御部52は、撮像装置40を制御してワーク60の撮像視野61A内を撮像し、撮像画像を得る(ステップS20)。撮像制御部52の画像処理部53は、得られた撮像画像を画像処理して、撮像視野61A内に設定される複数のフォーカスエリア62A、62B、62C、62D(判定位置の一例)について、合焦しているか否かを解析する(ステップS30)。本実施形態では、矩形の外形を有する1つの撮像視野61Aを縦横に4分割し、各区分にフォーカスエリア62A、62B、62C、62Dを設定した例を示している(図6参照)。 Next, the image pickup control unit 52 controls the image pickup device 40 to take an image in the image pickup field of view 61A of the work 60, and obtains an image capture image (step S20). The image processing unit 53 of the image pickup control unit 52 performs image processing on the obtained captured image, and applies the plurality of focus areas 62A, 62B, 62C, 62D (an example of the determination position) set in the imaging field of view 61A. It is analyzed whether or not it is impatient (step S30). In the present embodiment, one imaging field of view 61A having a rectangular outer shape is divided into four vertically and horizontally, and focus areas 62A, 62B, 62C, and 62D are set for each division (see FIG. 6).

ここで、エンドエフェクタ31にワーク60が正規の保持姿勢で保持されていれば、撮像面60Fが撮像装置40に対して正対する。しかし、エンドエフェクタ31に対するワーク60の保持姿勢が正規の保持姿勢からずれていると、撮像面60Fが撮像装置40に対して正対しないこととなる。図7および図8に示す例では、エンドエフェクタ31にワーク60が正規の保持姿勢で保持されていれば、撮像面60Fが図7および図8のX−Z平面内に位置するはずであるが、エンドエフェクタ31に対するワーク60の保持姿勢が正規の保持姿勢からずれているために、撮像面60FがX−Z平面に対して傾いている。このような事態が生じると、得られる画像に部分的にピントずれが生じる。つまり、フォーカスエリア62A、62B、62C、62Dのうち少なくとも一部では、合焦しないこととなる。図6に示す例では、1つ(図6の右上)のフォーカスエリア62Aについてのみ合焦していると判定され、他のフォーカスエリア62B、62C、62Dについては合焦していないと判定されている。 Here, if the work 60 is held in the normal holding posture by the end effector 31, the imaging surface 60F faces the imaging device 40. However, if the holding posture of the work 60 with respect to the end effector 31 deviates from the normal holding posture, the imaging surface 60F does not face the imaging device 40. In the examples shown in FIGS. 7 and 8, if the work 60 is held in the normal holding posture by the end effector 31, the imaging surface 60F should be located in the XZ plane of FIGS. 7 and 8. Since the holding posture of the work 60 with respect to the end effector 31 deviates from the normal holding posture, the imaging surface 60F is tilted with respect to the XZ plane. When such a situation occurs, the obtained image is partially out of focus. That is, at least a part of the focus areas 62A, 62B, 62C, and 62D will not be in focus. In the example shown in FIG. 6, it is determined that only one focus area 62A (upper right of FIG. 6) is in focus, and the other focus areas 62B, 62C, and 62D are determined not to be in focus. There is.

複数のフォーカスエリア62A、62B、62C、62Dのうち少なくとも1つについて合焦していないと判定された場合には、演算処理部51は、オートフォーカス(AF)処理によってワーク60の合焦姿勢を決定する(ステップS40)。本実施形態では、コントラストオートフォーカス(AF)方式によってAF処理を実行する。コントラストオートフォーカス(AF)方式は、レンズと被写体との距離を変化させながら複数回撮像を行って、得られた画像のコントラスト値(AF評価値:深度情報の一例)を算出し、コントラスト値が最大となったときに合焦したと判定する方式である。 When it is determined that at least one of the plurality of focus areas 62A, 62B, 62C, and 62D is not in focus, the arithmetic processing unit 51 adjusts the focusing posture of the work 60 by autofocus (AF) processing. Determine (step S40). In the present embodiment, the AF process is executed by the contrast autofocus (AF) method. In the contrast autofocus (AF) method, imaging is performed multiple times while changing the distance between the lens and the subject, and the contrast value (AF evaluation value: an example of depth information) of the obtained image is calculated, and the contrast value is calculated. This is a method of determining that the subject is in focus when it reaches the maximum.

AF処理が開始されると、まず、演算処理部51は、ワーク60の現在の姿勢を取得し、動作開始姿勢として記憶する(ステップS41)。 When the AF process is started, the arithmetic processing unit 51 first acquires the current posture of the work 60 and stores it as the operation start posture (step S41).

次に、スキャン処理が実行される(ステップS42)。具体的には、主制御部50は、ロボット制御部55を制御して多関節ロボット20を駆動させ、ワーク60の位置を少しずつ変化させながら、撮像制御部52を制御して、撮像視野61Aについて複数の制御用撮像画像を撮像する(撮像工程)。画像処理部53は、得られた複数の制御用撮像画像を画像処理して、各フォーカスエリア62A、62B、62C、62Dについて、コントラスト値を算出する(ステップS43:画像処理工程)。 Next, the scanning process is executed (step S42). Specifically, the main control unit 50 controls the robot control unit 55 to drive the articulated robot 20, controls the image pickup control unit 52 while gradually changing the position of the work 60, and controls the image pickup field 61A. A plurality of control captured images are captured (imaging step). The image processing unit 53 performs image processing on the obtained plurality of control captured images, and calculates a contrast value for each of the focus areas 62A, 62B, 62C, and 62D (step S43: image processing step).

演算処理部51は、各フォーカスエリア62A、62B、62C、62Dについてコントラスト値のピーク値が検出されたか否かを判定する(ステップS44)。ピーク値が検出されていないと判定された場合には、ピーク値が検出されるまで、ステップS42からステップS44までの処理が繰り返される。なお、画像処理部53で算出されたコントラスト値の情報はロボット制御部55にフィードバックされ、スキャン処理の際の多関節ロボット20の駆動制御に反映される。 The arithmetic processing unit 51 determines whether or not the peak value of the contrast value is detected for each of the focus areas 62A, 62B, 62C, and 62D (step S44). If it is determined that the peak value has not been detected, the processes from step S42 to step S44 are repeated until the peak value is detected. The contrast value information calculated by the image processing unit 53 is fed back to the robot control unit 55 and reflected in the drive control of the articulated robot 20 during the scanning process.

演算処理部51は、全てのフォーカスエリア62A、62B、62C、62Dについてコントラスト値のピーク値が検出されたと判定すると、全てのフォーカスエリア62A、62B、62C、62Dについてコントラスト値がピーク値となるときのワーク60の姿勢を6自由度で取得し、この姿勢を合焦姿勢として決定する(ステップS45)。次いで、演算処理部51は、ワーク60が動作開始姿勢から合焦姿勢に至るまでの変位量を算出する(ステップS46)。ステップS42からステップS44までの処理を繰り返してコントラスト値のピーク値を検出する工程と、ステップS45およびステップS46とが、演算処理工程の一例である。 When the arithmetic processing unit 51 determines that the peak value of the contrast value is detected for all the focus areas 62A, 62B, 62C, 62D, the contrast value becomes the peak value for all the focus areas 62A, 62B, 62C, 62D. The posture of the work 60 is acquired with 6 degrees of freedom, and this posture is determined as the focusing posture (step S45). Next, the arithmetic processing unit 51 calculates the amount of displacement of the work 60 from the operation start posture to the focusing posture (step S46). The step of repeating the processes from step S42 to step S44 to detect the peak value of the contrast value, and steps S45 and S46 are examples of the arithmetic processing steps.

変位量が算出されたら、ロボット制御部55は、この変位量に基づいて、ワーク60が合焦姿勢をとる合焦位置までエンドエフェクタ31を変位させる(ステップS50:動作制御工程)。合焦位置までエンドエフェクタ31が変位されると、図7および図8に示すように、ワーク60の撮像面60Fが撮像装置40に対して正対することとなる。 After the displacement amount is calculated, the robot control unit 55 displaces the end effector 31 to the focusing position where the work 60 takes the focusing posture based on the displacement amount (step S50: motion control step). When the end effector 31 is displaced to the in-focus position, the imaging surface 60F of the work 60 faces the imaging device 40 as shown in FIGS. 7 and 8.

次いで、画像検査が実行される(ステップS60)。撮像制御部52は、撮像装置40を制御してワーク60の撮像視野61A内を撮像し、検査用撮像画像を得る。画像検査部54は、得られた検査用撮像画像を画像処理して、撮像視野61A内に欠陥等が存在するか否かを判定する。このようにして、一の撮像視野61Aについて画像検査が完了する。 Then, an image inspection is performed (step S60). The image pickup control unit 52 controls the image pickup device 40 to take an image in the image pickup field of view 61A of the work 60, and obtains an image for inspection. The image inspection unit 54 performs image processing on the obtained captured image for inspection to determine whether or not there is a defect or the like in the imaging field of view 61A. In this way, the image inspection is completed for one imaging field of view 61A.

次に、ロボット制御部55は、多関節ロボット20を駆動制御して、一の撮像視野61Aに隣接する他の撮像視野61Bが撮像装置40の正面に位置するように、エンドエフェクタ31を変位させる。このとき、演算処理部51は、一の撮像視野61Aについての合焦姿勢の情報を他の撮像視野61Bにも反映させることにより、撮像視野61B内において合焦するようにワーク60の変位量を算出する。そして、ロボット制御部55は、算出された変位量に基づいてエンドエフェクタ31を変位させる。次いで、他の撮像視野61Bについて画像検査が実行される。同様にして、すべての撮像視野61について画像検査が実行される。 Next, the robot control unit 55 drives and controls the articulated robot 20 to displace the end effector 31 so that the other imaging field of view 61B adjacent to one imaging field of view 61A is located in front of the imaging device 40. .. At this time, the arithmetic processing unit 51 reflects the information on the focusing posture of one imaging field of view 61A to the other imaging field of view 61B, so that the displacement amount of the work 60 is adjusted so as to focus in the imaging field of view 61B. calculate. Then, the robot control unit 55 displaces the end effector 31 based on the calculated displacement amount. Next, an image inspection is performed on the other imaging field of view 61B. Similarly, an image inspection is performed on all imaging fields of view 61.

(作用効果)
以上のように本実施形態によれば、ワーク60自体の姿勢を直接評価して、合焦姿勢を決定しているため、エンドエフェクタの姿勢を評価して補正を行おうとする従来技術に比べて、ワーク60の姿勢制御をより適切に行える。
(Action effect)
As described above, according to the present embodiment, the posture of the work 60 itself is directly evaluated to determine the focusing posture, so that the posture of the end effector is evaluated and corrected as compared with the conventional technique. , The attitude control of the work 60 can be performed more appropriately.

また、撮像装置40によってワーク60を撮影して、得られる制御用撮像画像から合焦姿勢を決定したら、その合焦姿勢にワーク60を保持して、同じ撮像装置40によって再び撮像を行って検査用撮像画像を得ることができる。これにより、視野全体のフォーカスが合った検査画像を取得することが容易となり、画像検査を適切に行うことが容易となる。 Further, when the work 60 is photographed by the imaging device 40 and the focusing posture is determined from the obtained control image, the work 60 is held in the focusing posture and the work 60 is imaged again by the same imaging device 40 for inspection. It is possible to obtain a captured image for use. As a result, it becomes easy to acquire an inspection image in which the entire visual field is in focus, and it becomes easy to appropriately perform an image inspection.

<他の実施形態>
(1)上記実施形態では、ワーク60としてLED用ワークを例示したが、ワークの種類は任意であり、例えば無線通信モジュール基板であっても構わない。
(2)上記実施形態では、エンドエフェクタ31として把持ハンドを例示したが、エンドエフェクタは例えば吸着ハンドであっても構わない。
(3)撮像視野の分割態様は、ワークの大きさや形状等により任意に設定できる。また、撮像視野を分割せず、撮像したい面の全体を1つの撮像視野としても構わない。
(4)合焦姿勢を決定するために用いられる撮像視野の選択は任意であり、例えば、複数の撮像視野のうち中央に位置する撮像視野を選択しても構わない。
(5)上記実施形態では、4つのフォーカスエリア62A、62B、62C、62Dが設定されていたが、判定位置の数や位置は、求められる姿勢制御の精度に応じて任意に設定できる。
(6)上記実施形態では、コントラストオートフォーカス(AF)処理によって合焦姿勢を決定したが、オートフォーカス処理は、例えば位相差オートフォーカス方式によって実行されても構わない。
(7)上記実施形態では、姿勢制御装置10が画像検査装置1に適用されたが、姿勢制御装置が例えば加工装置に適用され、作業部が、ワークの加工を行うための加工部であっても構わない。
(8)上記実施形態では、他の撮像視野61Bの画像検査を行うために、ワーク60を変位させる際に、一の撮像視野61Aについての合焦姿勢の情報を他の撮像視野61Bにも反映させていたが、複数の撮像視野のすべてにおいて、個別にオートフォーカス処理を行うことにより合焦姿勢が決定され、変位量が算出されても構わない。
<Other Embodiments>
(1) In the above embodiment, the LED work is exemplified as the work 60, but the type of the work is arbitrary, and for example, a wireless communication module substrate may be used.
(2) In the above embodiment, the gripping hand is illustrated as the end effector 31, but the end effector may be, for example, a suction hand.
(3) The division mode of the imaging field of view can be arbitrarily set according to the size and shape of the work. Further, the entire imaging field of view may be used as one imaging field of view without dividing the imaging field of view.
(4) The selection of the imaging field of view used to determine the focusing posture is arbitrary, and for example, the imaging field of view located at the center of the plurality of imaging fields of view may be selected.
(5) In the above embodiment, the four focus areas 62A, 62B, 62C, and 62D are set, but the number and positions of the determination positions can be arbitrarily set according to the required attitude control accuracy.
(6) In the above embodiment, the focusing posture is determined by the contrast autofocus (AF) process, but the autofocus process may be executed by, for example, a phase difference autofocus method.
(7) In the above embodiment, the attitude control device 10 is applied to the image inspection device 1, but the attitude control device is applied to, for example, a processing device, and the working unit is a processing unit for processing the work. It doesn't matter.
(8) In the above embodiment, when the work 60 is displaced in order to perform an image inspection of another imaging field of view 61B, information on the focusing posture of one imaging field of view 61A is reflected in the other imaging field of view 61B. However, the focusing posture may be determined and the displacement amount may be calculated by individually performing the autofocus processing in all of the plurality of imaging fields.

1:画像検査装置(ワーク処理装置)
10:姿勢制御装置
20:多関節ロボット
21:ロボットアーム
22:架台
23:ベース部
24:リンク
25:関節
31:エンドエフェクタ
32:把持部
40:撮像装置
50:主制御部
51:演算処理部
52:撮像制御部
53:画像処理部
54:画像検査部(作業部)
55:ロボット制御部(動作制御部)
56:制御部
60:ワーク
60F:撮像面
61:撮像視野
61A:一の撮像視野
61B:他の撮像視野
62A、62B、62C、62D:フォーカスエリア(判定位置)
1: Image inspection device (work processing device)
10: Attitude control device 20: Articulated robot 21: Robot arm 22: Stand 23: Base unit 24: Link 25: Joint 31: End effector 32: Grip unit 40: Image pickup device 50: Main control unit 51: Arithmetic processing unit 52 : Image control unit 53: Image processing unit 54: Image inspection unit (working unit)
55: Robot control unit (motion control unit)
56: Control unit 60: Work 60F: Imaging surface 61: Imaging field of view 61A: One imaging field of view 61B: Other imaging fields of view 62A, 62B, 62C, 62D: Focus area (determination position)

Claims (4)

複数の関節を有するロボットアームと、前記ロボットアームの先端部に取り付けられてワークを保持するエンドエフェクタとを備える多関節ロボットと、
前記エンドエフェクタに保持された前記ワークを撮像する撮像装置と、
前記多関節ロボットと前記撮像装置とを制御する制御部と、を備え、
前記制御部が、
前記撮像装置によって撮像された制御用撮像画像から、前記ワークの撮像視野内に設定された複数の判定位置の全てで深度情報を取得する画像処理部と、
前記画像処理部によって取得された全ての前記深度情報に基づいて前記多関節ロボットを動作させることにより、前記複数の判定位置の全てで合焦する合焦姿勢を決定し、前記ワークの姿勢を変化させて動作開始姿勢から前記合焦姿勢に至るまでの変位量を取得する演算処理部と、
前記演算処理部によって取得された前記変位量に基づいて前記ワークが前記合焦姿勢をとる合焦位置まで前記エンドエフェクタを変位させる動作制御部と、を備える姿勢制御装置。
An articulated robot including a robot arm having a plurality of joints and an end effector attached to the tip of the robot arm to hold a work.
An imaging device that images the work held by the end effector, and
A control unit that controls the articulated robot and the imaging device is provided.
The control unit
An image processing unit that acquires depth information at all of a plurality of determination positions set in the imaging field of view of the work from the control captured image captured by the imaging device.
By operating the articulated robot based on all the depth information acquired by the image processing unit, the focusing posture to be focused at all of the plurality of determination positions is determined, and the posture of the work is changed. An arithmetic processing unit that acquires the amount of displacement from the operation start posture to the focusing posture.
An attitude control device including an operation control unit that displaces the end effector to a focusing position in which the work takes the focusing posture based on the displacement amount acquired by the arithmetic processing unit.
請求項1に記載の姿勢制御装置と、
前記ワークが前記合焦姿勢に保持された状態で、前記ワークに対して所定の作業を行う作業部を備える、ワーク処理装置。
The attitude control device according to claim 1 and
A work processing device including a work unit that performs a predetermined work on the work while the work is held in the focusing posture.
前記作業部が、
前記ワークが前記合焦姿勢に保持された状態で前記撮像装置によって撮像された検査用撮像画像を画像処理して前記ワークの画像検査を実行する画像検査部である、請求項2に記載のワーク処理装置。
The working part
The work according to claim 2, wherein the work is an image inspection unit that performs image processing on an inspection image captured by the image pickup apparatus while the work is held in the in-focus position and executes an image inspection of the work. Processing equipment.
複数の関節を有するロボットアームと、前記ロボットアームの先端部に取り付けられたエンドエフェクタとを備える多関節ロボットに保持されたワークの姿勢を制御する方法であって、
前記ワークを前記エンドエフェクタに保持させて撮像位置に搬送する搬送工程と、
撮像装置によって前記ワークを撮像する撮像工程と、
前記撮像工程において撮像された制御用撮像画像から、前記ワークの撮像視野内に設定された複数の判定位置の全てで深度情報を取得する画像処理工程と、
前記画像処理工程において取得された全ての前記深度情報に基づいて前記多関節ロボットを動作させることにより、前記複数の判定位置の全てで合焦する合焦姿勢を決定し、前記ワークの姿勢を変化させて動作開始姿勢から前記合焦姿勢に至るまでの変位量を取得する演算処理工程と、
前記演算処理工程において取得された前記変位量に基づいて前記ワークが前記合焦姿勢をとる合焦位置まで前記エンドエフェクタを変位させる動作制御工程と、を備えるワークの姿勢制御方法。
A method of controlling the posture of a work held by an articulated robot including a robot arm having a plurality of joints and an end effector attached to the tip of the robot arm.
A transfer process in which the work is held by the end effector and conveyed to the imaging position, and
An imaging process in which the work is imaged by an imaging device, and
An image processing step of acquiring depth information from the control captured image captured in the imaging step at all of a plurality of determination positions set in the imaging field of view of the work.
By operating the articulated robot based on all the depth information acquired in the image processing step, the focusing posture to be focused at all of the plurality of determination positions is determined, and the posture of the work is changed. An arithmetic processing process for acquiring the amount of displacement from the operation start posture to the in-focus posture.
A work posture control method comprising a motion control step of displace the end effector to a focusing position in which the work takes the focusing posture based on the displacement amount acquired in the arithmetic processing step.
JP2019155398A 2019-08-28 2019-08-28 Attitude control device, work-piece processor, and work-piece attitude control method Pending JP2021030391A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019155398A JP2021030391A (en) 2019-08-28 2019-08-28 Attitude control device, work-piece processor, and work-piece attitude control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019155398A JP2021030391A (en) 2019-08-28 2019-08-28 Attitude control device, work-piece processor, and work-piece attitude control method

Publications (1)

Publication Number Publication Date
JP2021030391A true JP2021030391A (en) 2021-03-01

Family

ID=74674662

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019155398A Pending JP2021030391A (en) 2019-08-28 2019-08-28 Attitude control device, work-piece processor, and work-piece attitude control method

Country Status (1)

Country Link
JP (1) JP2021030391A (en)

Similar Documents

Publication Publication Date Title
JP6429473B2 (en) Robot system, robot system calibration method, program, and computer-readable recording medium
JP5272617B2 (en) Robot apparatus and control method of robot apparatus
US8929642B2 (en) Three-dimensional scanner and robot system
JP5201411B2 (en) Bulk picking device and control method thereof
CN109940662B (en) Image pickup device provided with vision sensor for picking up workpiece
JP2009269110A (en) Assembly equipment
US20220258352A1 (en) Robot hand-eye calibration method and apparatus, computing device, medium and product
CN104924309A (en) Robot system, calibration method in robot system, and position correcting method in robot system
JP2008132525A (en) Teaching-position correcting system of welding-robot and teaching-position correcting method of welding-robot
JP2011136377A (en) Robot control device and method
CN109945780B (en) Object inspection system and object inspection method
JP5891698B2 (en) robot
JP4572497B2 (en) Robot controller
JP2008168372A (en) Robot device and shape recognition method
JP2017050376A (en) Electronic component mounting device and electronic component mounting method
JP2021030391A (en) Attitude control device, work-piece processor, and work-piece attitude control method
US20230123629A1 (en) 3d computer-vision system with variable spatial resolution
JP6413648B2 (en) Measurement system, object extraction system, measurement method and program
JP2020097084A (en) Robot system and adjustment method of the same
CN112566758A (en) Robot control device, robot control method, and robot control program
JP2016203282A (en) Robot with mechanism for changing end effector attitude
US11922616B2 (en) Alignment device
JP5098846B2 (en) Robot system
JP2005205519A (en) Robot hand device
JP5522532B2 (en) Gripping apparatus and gripping method for workpiece having cutting part